/HJDVWKHQLHXQGUHLQH:RUWWDXEKHLWDOV QHXURORJLVFKEDVDOH6W|UXQJHQ Inaugural-Dissertation zur Erlangung der Doktorwürde der Philosophischen Fakultät IV (Sprach- und Literaturwissenschaften) der Universität Regensburg vorgelegt von Barbara Limmer Otlohstraße 15 93053 Regensburg 2001 Erstgutachter: Prof. Dr. Herbert E. Brekle Zweitgutachter: PD Dr. habil. Helmut Weiß Vorwort Ich möchte diesen Platz nutzen, um denjenigen zu danken, die maßgeblich daran beteiligt waren, daß dieses Dissertationsprojekt zu einem Abschluß gelangen konnte. Die Zahl der zu Bedenkenden ist groß, so daß es mir unmöglich erscheint, alle namentlich zu erwähnen. Ich möchte jedoch die wichtigsten anführen. Allen voran danke ich meinen Eltern, die mir ein Studium ermöglichten und ohne deren Unterstützung diese Arbeit nicht möglich gewesen wäre. Außerdem danke ich meinem Doktorvater, Prof. Dr. Herbert E. Brekle, der bereit war, mir ein Thema aus der Neurolinguistik zu gewähren und mir zur Bearbeitung den nötigen Freiraum ließ, für seine unermüdliche Diskussionsbereitschaft, wodurch viele seiner Gedanken Einzug in diese Arbeit gefunden haben, ohne daß sie explizit gekennzeichnet werden könnten. Seine Emeritierung im Oktober 2001 bedeutet einen unersetzbaren Verlust für die Universität Regensburg. Ebenso will ich mich bei PD Dr. habil. Helmut Weiß dafür bedanken, daß er sich als Zweitgutachter zur Verfügung gestellt hat. Weiterer Dank gilt allen Mitarbeitern des Lehrstuhls für Allgemeine Sprachwissenschaft und anderen Beschäftigten der Universität Regensburg, die wegen ihrer großen Zahl nicht genannt werden können. Schließlich danke ich einem lieben Freund für die Korrektur und Recherchearbeiten. Die zweifellos verbleibenden Fehler und Unzulänglichkeiten der Arbeit sind selbstverständlich mir anzulasten. Dieses Dissertationsprojekt wurde teilweise finanziert durch ein Stipendium der Universität Regensburg. Regensburg im August 2002 Barbara Limmer Inhaltsverzeichnis I ,QKDOWVYHU]HLFKQLV INHALTSVERZEICHNIS I ABBILDUNGSVERZEICHNIS IV TABELLENVERZEICHNIS V 1 EINLEITUNG 1 2 PROBLEMSTELLUNG 2 3 ANATOMISCHE UND PHYSIOLOGISCHE GRUNDLAGEN 4 3.1 Physiologie des Sprechapparates 3.1.1 Phonation 3.1.2 Artikulation 4 5 5 6 3.2 Kortikale Sprachzentren 3.2.1 Broca-Sprachregion 3.2.2 Wernicke-Sprachregion 3.2.3 Zusammenarbeit kortikaler Sprachzentren 3.2.4 Aphasieformen 8 8 10 10 12 3.3 Physiologie des auditiven Systems 3.3.1 Schall 3.3.2 Schallleitung zum Innenohr 3.3.3 Schalltransduktion im Innenohr 3.3.4 Signaltransformation von der Sinneszelle zum Hörnerv 3.3.5 Frequenzselektivität: Grundlage des Sprachverständnisses 3.3.6 Informationsübertragung und Verarbeitung im ZNS 14 14 16 17 19 20 21 3.4 Physiologie des visuellen Systems 3.4.1 Sehen und Blicken 3.4.2 Optisches System des Auges 3.4.3 Signalaufnahme und Signalverarbeitung in der Netzhaut 3.4.4 Signalverarbeitung im zentralen visuellen System 3.4.5 Neurophysiologische Grundlagen der Gestaltwahrnehmung 25 25 26 28 31 36 3.5 Moderne Techniken zur Lokalisation sprachrelevanter Hirnareale 3.5.1 Nuklearmedizinische Methoden 3.5.2 Intraoperativ-neurophysiologische Methoden 3.5.3 Angiographie und Wada-Test 3.5.4 Computertomographie und Magnetresonanztomagraphie 3.5.5 Grundlagen der funktionellen MR-Bildgebung (FMRI) 37 38 38 40 41 43 REINE WORTTAUBHEIT 4.1 Allgemeine Grundlagen 4.1.1 Begriffserklärungen und Definitionen 46 46 46 Inhaltsverzeichnis 4.1.2 5 6 II Historische Aspekte 48 4.2 Pathogenese 4.2.1 Reine Worttaubheit durch Störungen in den Sprachzentren des Gehirns 4.2.2 Reine Worttaubheit durch Störungen der auditiven Wahrnehmung 4.2.2.1 Untersuchungen von Dennis P. PHILLIPS 4.2.2.2 Weitere relevante Untersuchungsergebnisse 50 50 54 54 61 4.3 65 Zusammenfassung und Schlussfolgerungen LEGASTHENIE 67 5.1 Allgemeine Grundlagen 5.1.1 Begriffserklärungen und Definitionen 5.1.2 Typische Symptome 67 67 69 5.2 Pathogenese 5.2.1 Genetische Faktoren 5.2.1.1 Familien- und Segregationsstudien 5.2.1.2 Zwillingsuntersuchungen 5.2.1.3 Ergebnisse molekulargenetischer Untersuchungen 5.2.2 Auditive Verarbeitungsstörungen 5.2.2.1 Die Bedeutung der Wahrnehmung von nichtsprachlichen Reizen 5.2.2.2 Neuroanatomische Veränderungen 5.2.3 Visuelle Verarbeitungsstörungen 5.2.3.1 Magnozelluläres System 5.2.3.2 Die Bedeutung grundlegender visueller Wahrnehmungsprozesse 71 72 73 73 75 77 80 87 88 89 92 5.3 94 Zusammenfassung und Schlussfolgerungen DISKUSSION 96 6.1 Entstehungsbedingungen der reinen Worttaubheit 6.1.1 Die Postulate und Schlussfolgerungen von PHILLIPS 6.1.2 Die Pro-Position 6.1.3 Die Contra-Position 6.1.4 Schlussfolgerung 96 96 100 104 107 6.2 Entstehungsbedingungen der Legasthenie 6.2.1 Postulate und Schlussfolgerungen von TALLAL, TALCOTT und anderen 6.2.1.1 Störungen der Sehverarbeitung 6.2.1.2 Störungen der Hörverarbeitung 6.2.1.3 TALLAL-Hypothese 6.2.1.4 Neuroanatomische Veränderungen 6.2.2 Die Pro-Position 6.2.2.1 Störungen der Sehverarbeitung 6.2.2.2 Störungen der Hörverarbeitung 6.2.2.3 Legasthene Schwächen – Schwächen der raschen zeitlichen Verarbeitung 6.2.2.4 Neuroanatomische Veränderungen 6.2.3 Die Contra-Position 6.2.4 Schlussfolgerung 109 109 109 112 113 115 115 115 116 116 118 119 131 6.3 Zusammenführung der Ergebnisse aus 6.1 und 6.2 132 6.4 Zusammenfassung und Schlussfolgerung 133 Inhaltsverzeichnis 7 DIE KONSEQUENZEN FÜR DIE THERAPIE III 138 7.1 Therapie der Lese-Rechtschreib-Schwäche 7.1.1 Herkömmliche Symptomtherapie 7.1.2 Verfahren nach TALLAL und MERZENICH 7.1.3 Training des Blicklabors Freiburg 7.1.3.1 Blick-Training 7.1.3.2 Hör-Training 7.1.4 Therapie nach WARNKE 7.1.4.1 Gestörte Teilfunktionen der zentralen Hörverarbeitung 7.1.4.2 Trainingsverfahren nach WARNKE 139 139 140 143 144 146 148 149 151 7.2 153 Therapie der reinen Worttaubheit SCHLUSSBEMERKUNG 159 LITERATUR 162 Abbildungsverzeichnis IV $EELOGXQJVYHU]HLFKQLV Abbildung 1: An der Sprachkonstruktion beteiligte Hirnregionen Abbildung 2: Schematische Darstellung von äußerem, mittlerem 9 und innerem Ohr 17 Abbildung 3: Schnitt durch eine Windung der Kochlea 18 Abbildung 4: Schematische Darstellung der zentralen Hörbahn 22 Abbildung 5: Waagerechter schematischer Durchschnitt durch den linken Augapfel – von oben gesehen 27 Abbildung 6: Reduziertes Auge 27 Abbildung 7: Aufbau der Primatennetzhaut und Schema der Reaktion einzelner Neuronen auf einen Lichtreiz 28 Abbildung 8: Schema der Sehbahn im Gehirn des Menschen 32 Abbildung 9: Äußere Hirnoberfläche eines Rhesusaffen 32 Abbildung 10: Beispiel des Reizmusters „A“ 36 Abbildung 11: Schematische Zeichnung der zwei Spaltenhälften oder Chromatiden eines Chromosoms 76 Tabellenverzeichnis V 7DEHOOHQYHU]HLFKQLV Tabelle 1: Neue Ergebnisse von Zwillingsuntersuchungen 74 1 Einleitung 1 (LQOHLWXQJ Schon seit einigen Jahren sind Bildungspolitiker ebenso wie Pädagogen und Sprachwissenschaftler alarmiert. Denn immer mehr Grundschüler leiden angeblich an einer mehr oder weniger ausgeprägten Lese- und Rechtschreibschwäche (Legasthenie) und sind offenbar immer weniger in der Lage, schriftsprachliche Äußerungen zu verstehen. Es wäre sicherlich zu kurz gegriffen, die Ursachen allein in der multimedialen Reizüberflutung, dem geänderten Spiel- und Freizeitverhalten und der angeblich immer weniger stattfindenden interfamiliären Kommunikation zu suchen. Die rasanten Fortschritte in der Neurologie und der Zellforschung gaben nun Diskussionen um die Ursachen von jenen Störungen neuen Auftrieb, die sich mit der Frage beschäftigten, ob und inwieweit diese genetisch bedingt oder „krankheitsbedingt“ erworben und therapiefähig wären. In diesem Zusammenhang traten erneut Zweifel an bis dato anerkannten Paradigmen auf, die zahlreiche Autoren zu einer Wiederaufnahme von Studien über Themen wie Legasthenie und Worttaubheit veranlassten. Vorliegende Arbeit sieht sich in dieser Tradition und nimmt neueste Untersuchungen namhafter Autoren zum Anlass, die Frage nach den neurologischen Ursachen jener Phänomene genauer zu untersuchen. 2 Problemstellung 2 3UREOHPVWHOOXQJ Tests ergaben, dass Kinder, die unter den o.g. Phänomenen besonders leiden, nicht etwa einen niedrigen IQ aufweisen. Folglich müssen andere Faktoren und Ursachen existieren, um die Minderleistungen auf dem Gebiet der Hör- und Lesefähigkeit zu erklären. Diese könnten im auditiven wie im visuellen Bereich und nicht in höheren kognitiven Bereichen liegen, wofür auch neuere Studien sprechen. Dies gab im Jahr 1999 zu einer von internationalen Forschern initiierten Studie an einer Leipziger Sprachheilschule Anlass, um zu evaluieren, wie häufig diese basalen Wahrnehmungsdefizite auftreten. Die Ergebnisse bestätigen ein so genanntes „Specific Language Impairment (SLI-Syndrom)“, das, so die amerikanische Forscherin Paula TALLAL – im „akustischen Timing“ des Gehirns liegt. Nun liegt die Vermutung nahe, dass auch im visuellen Bereich diese sensorischen Wahrnehmungslücken bestehen. In der vorliegenden Arbeit wird von der Hypothese ausgegangen, dass Defizite in diesen Bereichen möglicherweise in funktional viel grundlegenderen Schichten des Gehirns zu suchen sind und eher im so genannten „vorsprachlichen Bereich“ in den basalen Hirnregionen zu lokalisieren sind. Sprache als Gesamtkomplex wäre so bedeutend weniger mächtig als bis dato angenommen, was zwangsläufig zu einem neuen Paradigma in der Legasthenie- und Worttaubheitsforschung führen würde. Gestützt werden diese Hypothesen von neuesten Forschungsergebnissen, die darauf hindeuten, dass legasthenische Defizite nicht auf Störungen beim Erkennen von Buchstaben- oder Wortbildern bzw. auf einem mangelhaften Zugriff auf Einheiten des orthographischen Gedächtnisses zurückzuführen sind. Vielmehr wurde experimentell nachgewiesen, dass die Defizite auf einer Störung beim Verarbeiten rasch wechselnder elementarer optischer Stimuli (z.B. der Richtungsänderung zweier bewegter Punkte) beruhen können. Nun existiert das Phänomen, dass dasselbe Symptom sich auch im akustischen Wahrnehmungskanal feststellen lässt: gestörte 2 Problemstellung 3 Diskriminationsfähigkeit von zwei rasch aufeinanderfolgenden Tönen bzw. deren Frequenzänderungen. Auch an Patienten, deren akustisches Spracherkennungsdefizit als Worttaubheit klassifiziert wird, zeigen neuere Untersuchungen, dass dem Syndrom offenbar eine sprach-unspezifische Störung der auditiven Wahrnehmung zugrunde liegen kann. Diese neuen Befunde sind von weitreichender Bedeutung, ergibt sich doch die Konsequenz, dass sowohl die Legasthenie als auch die Worttaubheit möglicherweise auf ein und demselben Phänomen basieren. 3 Anatomische und physiologische Grundlagen 4 $QDWRPLVFKHXQGSK\VLRORJLVFKH*UXQGODJHQ An der Sprache des Menschen sind mehrere Organsysteme beteiligt: Mit der Phonation erzeugt der Kehlkopf Schall, d.h. Stimme. Der Mund-Rachen-Raum moduliert die bei der Phonation gebildeten Töne und formt sie in verständliche Vokal- und Konsonantensequenzen um. Dieser Mechanismus wird allgemein als Artikulation bezeichnet. Phonation des Kehlkopfs und Artikulation des MundRachen-Raums werden zentral durch das motorische Sprachzentrum des Gehirns gesteuert. Sprache ist ein komplexes Phänomen und ein spezifisches Kennzeichen des Homo sapiens sapiens. Für die Entwicklung der Sprache beim Kind sowie zu ihrer ständigen Kontrolle beim Erwachsenen sind die physiologischen Hör- und Sehfunktionen erforderlich. Der Sprach-Kreis umfasst dabei u.a. die Funktionen von Ohr und Auge, der Hör- und Sehbahn, die Sprachwahrnehmung im sensorischen Sprachzentrum (Wernicke) sowie die Integration von Gefühl und Vernunft. Der Kreis setzt sich zur motorischen Steuerung der Phonation des Kehlkopfs und der Artikulation des Mund-Rachen-Raums fort. Sie beginnt in dem als motorische Sprachregion (Broca) bezeichneten Gebiet des vorderen Temporallappens im Gehirn und erreicht über neuronale Verschaltungen den Kehlkopf sowie den Mund-Rachen-Raum (Schmidt et al. 2000). Dieses System des Sprach-Kreises (Schmidt et al. 2000) soll im folgenden Kapitel im Mittelpunkt stehen. 3 Anatomische und physiologische Grundlagen 5 3K\VLRORJLHGHV6SUHFKDSSDUDWHV 3KRQDWLRQ Unter Phonation wird hier der eigentliche Sprechakt verstanden. Dieser gliedert sich in mehrere, nahezu unwillkürlich ablaufende Prozesse, die hier Schritt für Schritt nachvollzogen und erläutert werden sollen. Vor dem Sprechen wird eine Exspiration eingeleitet, bei der die Glottis geschlossen oder stark verengt wird. Als Folge entsteht im Thorax ein höherer Druck als bei normaler Exspiration, und die Stimmbänder werden auseinander gepresst. Zu diesem Zeitpunkt beginnt Luft durch die Glottis in den MundRachen-Raum zu strömen. Die Glottis bildet dabei eine Engstelle im Exspirationstrakt, als Folge davon ist die Strömungsgeschwindigkeit der Exspirationsluft dort weit höher als in der Trachea. Nach den Bernoulli-Gesetzen (Gerthsen et al. 1980) bedeutet dies, dass dort der Luftdruck so klein wird, dass sich die Glottis wieder schließt. Der Vorgang beginnt von neuem – die Stimmbänder führen permanent Bernoulli-Schwingungen aus. In ihrem Rhythmus wird der Luftstrom dabei ständig unterbrochen. So entsteht ein hörbarer Klang, die Stimme, deren Grundfrequenz, d.h. deren Tonhöhe, den Unterbrechungen des Luftstroms entspricht. Da der Luftstrom durch das Öffnen und Schließen der Stimmbänder nicht sinusförmig moduliert wird, entsteht kein reiner Ton, sondern ein Klanggemisch, das reich an Obertönen ist (Flanagan 1972). Die Häufigkeit, mit der die Glottis pro Zeiteinheit geöffnet bzw. geschlossen wird, d.h. die Grundfrequenz des erzeugten Klangs, ist in erster Linie von der Spannung der Stimmbänder und erst in zweiter Linie vom subglottischen Druck abhängig. Beide Parameter können aber durch die Kehlkopfmuskulatur und die Thoraxmuskulatur verändert werden. Je höher die Spannung der Stimmbänder bzw. je höher der subglottische Druck ist, desto höher wird die Grundfrequenz des erzeugten Klangs. 3 Anatomische und physiologische Grundlagen 6 Hierfür und zum Halten eines Tons müssen außerordentlich fein abgestimmte Kontraktionen der beteiligten Muskeln ausgeführt werden. Daran sind unter anderem Propriozeptoren in den Kehlkopfmuskeln und der Schleimhaut sowie die Kontrolle durch das Gehör beteiligt. $UWLNXODWLRQ Aus der Glottis austretende Luft gelangt zunächst in den Mund-Rachen-Raum, der als $QVDW]URKU bezeichnet wird. Dieser Raum umfasst Pharynx-, Nasen- und Mundraum. Seine Form ist sehr variabel. Das Gaumensegel (Velum) sorgt dabei für eine funktionale Abtrennung der Nasopharynx und des Rachenraums vom Mund-Rachen-Raum. Durch Zungen- und Kieferstellung kann der Mundraum in seiner Konfiguration erheblich verändert werden. Auch kann die Zunge durch Bildung eines Buckels den Mundraum in zwei Räume unterteilen. Verantwortlich für diese Veränderungen sind die Gaumenmuskulatur, die Kaumuskulatur und insbesondere die Zungenmuskulatur. Die Zunge kann dabei innerhalb des Mundraums fast jede Stellung einnehmen. Dies wird durch die Zungenbinnenmuskulatur sowie die Muskeln ermöglicht, die von verschiedenen knöchernen Ansatzpunkten in die Zunge einstrahlen, bzw. solchen, die das Zungenbein in seiner Lage verschieben können. Doch bei der Phonation entsteht nicht nur die bereits geschilderte periodische Unterbrechung des Luftstroms an der Stimmritze. Auch an anderen Engpässen innerhalb des Respirationstraktes bilden sich, sobald die Exspirationsgeschwindigkeit groß genug ist, Wirbel und Luftstromturbulenzen, die als akustisches Ereignis für die Erzeugung des Tones der Stimme mit verantwortlich sind. Es handelt sich dabei um ein relativ schwaches Rauschen, das einen breiten Frequenzbereich überstreicht. Die durch Muskelkontraktion unterschiedliche Ausformung der Räume des Ansatzrohres besitzen nun entsprechend ihrer jeweiligen Konfiguration bestimmte Eigenfrequenzen. Diese 3 Anatomische und physiologische Grundlagen 7 entstehen also, wenn die Luft in diesen Räumen zu Schwingungen anregt wird. Das an Engstellen entstehende Rauschen bzw. der obertonreiche Klang der an den Stimmbändern erzeugten Stimme enthalten auch diese Frequenzen. Durch sie wird das Ansatzrohr zur Resonanz (Gerthsen et al. 1980) angeregt, was die Amplituden dieser Frequenzen also erheblich vergrößert, sie werden schließlich überschwellig und deutlich hörbar. Das heißt, dass die Veränderung der Konfiguration des Ansatzrohres durch die unterschiedliche Ausformung der Resonanzräume auch für die jeweils verschiedene Eigenfrequenzen verantwortlich ist. Bei jeder Artikulationsstellung, d.h. jeder bestimmten Stellung von Kiefer, Zunge und Gaumensegel werden, sobald die gebildeten Hohlräume in Resonanz geraten, ganz charakteristische Frequenzen bzw. Frequenzbänder hörbar (Flanagan 1972, Gauer et al. 1972, Lenneberg 1970). Diese für die jeweilige Artikulationsstellung charakteristischen Frequenzbänder werden als )RUPDQWHQ bezeichnet. Sie hängen also praktisch nur von der Konfiguration des Ansatzrohres ab und nicht von der im Kehlkopf gebildeten Stimme. Beim normalen Sprechen werden die 9RNDOHdurch eine stimmbildende Anregung des Ansatzrohres erzeugt. Hierbei hat das Ansatzrohr eine relativ stabile Konfiguration, denn die Schallabstrahlung erfolgt direkt vom Mund (Flanagan 1972). Die dabei entstehenden Formanten sind dafür verantwortlich, dass z.B. der Vokal /a/ unabhängig von der Tonhöhe und vom Sprecher als /a/ erkannt wird oder dass trotz festgehaltener Tonhöhe die Vokale /a, e, i, o, u/ sowie die Diphthonge bzw. Umlaute /ei, ä, ö, ü, eu, au/ voneinander unterschieden werden können. Der Formant bzw. die Formanten (in den Fällen, in denen es mehrere gibt) sind also das akustische Äquivalent eines bestimmten Vokals oder mancher Konsonanten. .RQVRQDQWHQ werden dagegen in einer weniger stabilen Konfiguration des Ansatzrohres gebildet. Sie sind nicht notwendigerweise stimmhaft und werden nicht ausschließlich vom Mund abgestrahlt. Bei der Bildung von Konsonanten ist das Ansatzrohr stärker verengt als bei den Vokalen, wobei insbesondere den 3 Anatomische und physiologische Grundlagen 8 Lippen und der Zahnreihe eine große Bedeutung zukommt (Flanagan 1972, Lenneberg 1973). Die Konsonanten bilden keine einheitliche Klasse von Lauten. Es sind so genannte Reibelaute, die an einer Konstriktion entstehen, bzw. Explosionslaute, die durch das plötzliche Freigeben eines Verschlusses gebildet werden und Nasale, bei denen das Gaumensegel den Nasenraum freigibt, wodurch sich die Resonanzverhältnisse erheblich verändern. Die Konsonanten können an den drei Artikulationszonen, den Lippen (labial), den Zähnen (dental), am Gaumen (palatal) oder in der Kehle (guttural) entstehen. Schwingen gleichzeitig mit dem Erklingen eines Konsonanten auch die Stimmbänder, handelt es sich um einen stimmhaften Konsonanten. In den übrigen Fällen wird von stimmlosen Konsonanten gesprochen. Konsonanten sind akustisch durch bestimmte Frequenzanteile oder Zeitmuster charakterisiert. Bei den Reibe- und Explosionslauten wird ein breites Frequenzspektrum erzeugt, das hohe Frequenzanteile enthält, z.B. /t/, /s/, wobei die beiden Genannten sich in ihren Frequenzanteilen praktisch nicht unterscheiden, aber aufgrund ihres verschiedenen zeitlichen Verhaltens ohne weiteres unterschieden werden können (Schmidt et al. 2000). .RUWLNDOH6SUDFK]HQWUHQ %URFD6SUDFKUHJLRQ Als erster beobachtete Paul BROCA im Jahre 1861, dass Läsionen des unteren Abschnitts der dritten Stirnwindung links (Broca-Sprachregion, Brodmann Area 44 und 45, s. Abb. 1) zu einer Sprachstörung (Aphasie) führen, bei dem das Sprachverständnis noch intakt ist, die Kranken aber spontan fast nichts sprechen. 3 Anatomische und physiologische Grundlagen 9 Nach Aufforderung bringen sie zögernd mit großer Anstrengung kurze Sätze hervor, die auf die nötigsten Substantive, Abb. 1 An der Sprachkonstruktion beteiligte Hirnregionen (nach Kolb u. Whishaw 1990). Verben und Adjektive reduziert sind (Telegrammstil). Die Artikulationen erfolgen zumeist sehr mühevoll und ohne Prosodie, und die Worte sind phonetisch entstellt. Sowohl in einfachen als auch in komplexen Sätzen fehlen häufig die grammatikalischen Funktionswörter. Das Verstehen vieler Satztypen (z.B. Passivsätze) ist daher oft nicht möglich. Weiterhin treten Probleme beim Nachsprechen von Sätzen auf. Diese Form der Aphasie wird als PRWRULVFKH $SKDVLH bezeichnet und das zugehörige Hirnareal Broca-Sprachregion genannt. Das Areal liegt unmittelbar vor denjenigen Abschnitten des motorischen Kortex, die die Muskeln des Gesichts, des Kiefers, der Zunge, des Gaumens und des Rachens kontrollieren, also derjenigen Muskeln, die zur Artikulation notwendig sind. Die motorische Aphasie durch Schädigung der Broca-Region ist aber nicht auf eine Lähmung dieser Muskeln zurückzuführen. Selbst eine direkte Schädigung der Gesichtsregion des Gyrus praecentralis führt nur zu geringen kontralateralen Ausfallserscheinungen, da die Gesichtsmuskulatur beidseitig im Kortex repräsentiert ist und ein unilateraler Ausfall durch die Gegenseite kompensiert werden kann. 3 Anatomische und physiologische Grundlagen 10 :HUQLFNH6SUDFKUHJLRQ Kurz nach der Entdeckung Brocas beschrieb Carl WERNICKE 1874 einen anderen Typ der Aphasie, bei der das Sprachverständnis extrem gestört, das spontane Sprechen der Patienten aber flüssig, wenn auch wenig verständlich war. Viele Wörter sind phonematisch entstellt, sodass noch verständliche phonematische Paraphasien (z.B. „ Rille“ statt „ Rinne“ ) oder ganz unverständliche Neologismen auftreten. Oft werden Wörter durch bedeutungsverwandte ersetzt (semantische Paraphasien). Auch das Sprachverständnis ist stark reduziert, d.h. dass das Verständnis einzelner Wörter häufig nicht gelingt. Nicht zuletzt ist auch das Nachsprechen von Wörtern und Sätzen stark beeinträchtigt. Diese VHQVRULVFKH $SKDVLH korreliert auffallend häufig mit Schädigungen im Schläfenlappen, insbesondere im rückwärtigen Abschnitt der ersten Schläfenwindung (Wernicke-Region, Brodmann Area 22), also in unmittelbarer Nachbarschaft der Hörrinde. Broca- und Wernicke-Region sind in der Nähe der primären Kortizes lokalisiert, die bei der frühen Sprachentwicklung des Kindes aktiviert werden. Artikuliert das Kind einen Laut oder ein Wort, so tritt eine neuronale Aktivität sowohl im motorischen System, wo die artikulatorischen Befehle generiert werden auf, als auch im akustischen System, das durch die selbstproduzierten Lautäußerungen stimuliert wird. Konsequenterweise sind die Sprachzentren zu den sprachrelevanten primären Kortizes auch benachbart, was bei einem Ausfall zu den gezeigten Symptomen führt. =XVDPPHQDUEHLWNRUWLNDOHU6SUDFK]HQWUHQ Die Auffassung, dass die Sprachproduktion durch Strukturen des Frontalhirns (Broca) und das Sprachverständnis durch Bereiche im Temporallappen 3 Anatomische und physiologische Grundlagen 11 (Wernicke) gesteuert wird, stellt eine stark vereinfachte Sichtweise der beiden Funktionen dar. Dies postuliert das von WERNICKE (Wernicke 1874) und LICHTHEIM (Lichtheim 1885) Ende des 19. Jahrhunderts vorgeschlagene Sprachmodell, das von GESCHWIND später weiterentwickelt wurde. GESCHWIND räumt zwar der Wernicke-Region eine Funktion bei der Sprachproduktion ein, ordnet jedoch das Sprachverständnis allein den posterioren Kortexgebieten zu. Diese Sichtweise stellt zweifellos eine nicht angemessene Simplifikation dar. Denn Läsionen einer der beiden Regionen verursachen in der Mehrzahl der Fälle multimodale Störungen. Das „ motorische Sprachzentrum“ ist also keineswegs ausschließlich nur für motorische Sprachfunktionen verantwortlich, sondern auch für die Perzeption von Sprache, ebenso wie das „ sensorische Sprachzentrum“ für die Sprachproduktion notwendig ist. (Luria 1970). Neuere Positronen-Emissions-Tomographien zeigen sogar, dass bei der Perzeption von Silben und Wörtern im intakten Gehirn in der Regel Broca- und WERNICKE-Region gemeinsam aktiviert werden. Dies legt die Schlussfolgerung nahe, dass die Sprachareale sowohl bei der Sprachproduktion als auch beim Sprachverständnis zusammenarbeiten, dass also sprachverarbeitende neuronale Einheiten über den perisylvischen Kortex verteilt sind. Die Sichtweise, dass die linke Hemisphäre beim Rechtshänder sprachdominant sei, ist vor allem darauf zurückzuführen, dass bei Rechtshändern Schädigungen der linken Hemisphäre zumeist zu Aphasien fuhren. Exakter erscheint es jedoch, von einer sich gegenseitig ergänzenden Spezialisation der beiden Hemisphären zu sprechen. Denn es gibt vielerlei Hinweise darauf, dass im intakten Gehirn auch rechtshemisphärische Prozesse an der Sprachverarbeitung beteiligt sind. So sind z.B. die durch Wörter evozierten Gehirnpotenziale im EEG meist über beiden Hemisphären sichtbar, wenn manche Komponenten auch über einer Hemisphäre stärker ausgeprägt sind (Boller u. Grafmann 1988-1992). Sprachverständnis und das Erkennen von Worten (vor allem von Inhaltswörtern), die Bildung von Satzmelodie und Betonung (Prosodie) sowie die Einordnung von Sprechakten (z.B. als Frage oder als Vorwurf) sind Leistungen, zu denen die rechte Hemisphäre nicht nur beiträgt, sondern zu denen sie sogar selbständig in der Lage 3 Anatomische und physiologische Grundlagen 12 ist. Dennoch tritt beim rechtshändigen Erwachsenen nach Schädigung im perisylvischen Bereich der linken Hemisphäre in der Regel eine Aphasie auf (Heilman u. Valenstein 1993, Lichtheim 1885, Schmidt 1993). Syntaktische Regeln und Funktionswörter sind primär links in der perisylvischen Region lokalisierbar (sprachdominante Hemisphäre). Sprachverständnis, vor allem von Inhaltswörtern, findet sich aber auch rechts (Schmidt et al. 2000). $SKDVLHIRUPHQ Aphasien sind hirnorganische Sprachstörungen von Menschen, die bereits eine Sprache beherrschen. Aphasien treten in unterschiedlichen Ausprägungen auf und können verschiedene Komponenten des Sprachsystems (z.B. Phonologie, Syntax, Lexikon, Semantik) betreffen. Sprachabhängige Leistungen wie Lesen, Schreiben und Rechnen können dabei ebenfalls beeinträchtigt sein. Zusätzlich sind eine Apraxie, Agnosie oder Dysarthrie möglich. Zahlreiche Klassifikationen der Aphasien sind bekannt; die Nomenklatur ist dementsprechend chaotisch. Eine allgemeine Einteilung nach Symptomatik unterscheidet sensorische (rezeptive) und motorische (expressive) Aphasien. Spezieller unterteilt man Aphasien in Worttaubheit (Unfähigkeit, gesprochene Worte zu verstehen), Wortblindheit (Unfähigkeit, geschriebene Worte zu verstehen) und Agraphie (Unfähigkeit, Gedanken in geschriebener Form auszudrücken) und in die im engeren Sinn als motorische Aphasie bezeichnete Störung (Unfähigkeit, Gedanken sprechend auszudrücken) (Ganong 1974). Aphasien treten zum einen bei subkortikalen Läsionen in der weißen Substanz, in den Basalganglien oder im Thalamus auf. Die kortikalen aphasieverursachenden Areale betreffen primär die Areale in der Nähe der sylvischen Furche, wo Brocaund Wernicke-Region abgrenzbar sind. Obwohl bei den verschiedenen Aphasieformen unterscheidbare Läsionsorte vorliegen können, ist jedoch bei der Mehrzahl der Fälle eine genaue Zuordnung der einzelnen Sprachfunktionen zu bestimmten Kortexarealen nicht möglich. Dennoch gilt: Schädigungen der BrocaRegion (Areae 44, 45) führen meist zu (motorischen) 3 Anatomische und physiologische Grundlagen 13 Sprachproduktionsproblemen (Broca-Aphasie), Schädigungen der WernickeRegion (Area 22) und angrenzender Gebiete zu (sensorischen) Ausfällen im Sprachverständnis (Wernicke-Aphasie). In der Nachbarschaft der Wernicke-Region wurden weitere Bereiche gefunden, deren Läsion regelmäßig zu Aphasien führt: der Gyrus angularis (Brodmann Area 39), der Gyrus supramarginalis (Brodmann Area 40) sowie die mittlere Temporalwindung (Brodmann Area 37). Eine Schädigung des Gyrus angularis führt zu leichten Sprachstörungen, bei denen semantische Paraphasien auffallen und Benennstörungen im Vordergrund stehen (DPQHVWLVFKH $SKDVLH). Probleme treten vor allem mit bedeutungstragenden Inhaltswörtern auf. Das Sprachverständnisdefizit ist hierbei besonders schwach ausgeprägt. Eine Läsion des Fasciculus arcuatus, der Broca- und Wernicke-Region verbindet, einschließlich einer Läsion im oberen Temporallappen und/oder der Insula (Heilman u. Valenstein 1993, Kolb u. Whishaw 1990) hat eine /HLWXQJVDSKDVLH zur Folge. Die Fähigkeit zum Nachsprechen ist hier stark beeinträchtigt, wogegen andere sprachliche Symptome im Hintergrund stehen. Auch größere Läsionen innerhalb des perisylvischen Bereichs können zu schweren Formen der WUDQVNRUWLNDOHQ $SKDVLH führen. Das Nachsprechen gelingt zwar relativ gut, wohingegen Defizite in der Sprachproduktion (transkortikale motorische Aphasie), im Sprachverständnis (transkortikale sensorische Aphasie) oder in beiden Leistungen (gemischte transkortikale Aphasie) hervortreten. Eine Schädigung der gesamten perisylvischen Region dagegen führt zur JOREDOHQ $SKDVLH, d.h. zu einer schweren Sprachproduktionsstörung, bei der oft nur noch stereotype Silben- oder Wortfolgen geäußert werden können. Ebenso stark ausgeprägt ist das Defizit im Sprachverständnis und im Nachsprechen (Schmidt et al. 2000). 3 Anatomische und physiologische Grundlagen 14 3K\VLRORJLHGHVDXGLWLYHQ6\VWHPV KLINKE stellt zurecht fest, dass das Ohr das empfindlichste Sinnesorgan des Menschen ist (Klinke 1987). Das menschliche Gehör erlaubt es, hochkomplexe, detaillierte Informationen aus der Umwelt zu extrahieren. In erheblich höherem Grad als jeder andere Sinn ist das Gehör dabei für die menschliche Sprache und deren Entwicklung verantwortlich (Schmidt et al. 2000). 6FKDOO Schall ist der adäquate Reiz für das Ohr. Im alltäglichen Leben tritt Schall als Druckschwankungen in der Luft auf. Ein UHLQHU 7RQ ist dabei eine Sinusschwingung, die nur aus einer einzigen Frequenz besteht, was im Alltag nur sehr selten vorkommt. Subjektiv besteht ein Zusammenhang zwischen der Frequenz und der empfundenen Tonhöhe. Je höher die Schallfrequenz, desto höher wird der Ton empfunden. Außer durch seinen Frequenzgehalt wird ein Schall durch die Amplitude der entstehenden Druckschwankungen, d.h. den Schalldruck, charakterisiert. Der Schalldruckpegel (L) wird in Dezibel (dB) angegeben und ergibt einfach anzuwendende Zahlenwerte zwischen 0 und ungefähr 120 dB: Dabei gilt: L = 20 log PxP0 [dB] (Px: zu beschreibender Schalldruck, P0: Bezugsschalldruck [2x10-5 Pa]) 3 Anatomische und physiologische Grundlagen 15 Je höher der Schalldruck also ist, desto lauter erscheint der Schall. Eines der wichtigsten klinischen Untersuchungsverfahren des Gehörs ist die Tonaudiometrie, bei der dem Untersuchten reine Töne für jedes Ohr getrennt über einen Kopfhörer angeboten werden. Interessanterweise ist die subjektive Lautstärke dabei frequenzabhängig: Bei gleichem physikalischen Schalldruck werden Töne zwischen 2000 und 5000 Hz lauter empfunden als höher- oder niederfrequentere Schallsignale. Besteht die Absicht, dass der Untersuchte alle Töne isophon hört, so muss der Schalldruck frequenzabhängig ständig verändert werden. Kurven gleicher Lautstärkepegel (Isophone) werden in Phon angegeben und decken sich definitionsgemäß bei 1000 Hz mit der dB-Skala des Schalldruckpegels. Der menschliche Hörbereich erstreckt sich über Frequenzen von 20 bis 16.000 Hz und Lautstärkepegel zwischen 4 und 130 Phon. Der Hauptsprachbereich, der die Frequenzen und Lautstärken der menschlichen Sprache umfasst, liegt hierbei etwa im mittleren Bereich. Die Hörschwelle, also die Grenze, ab der ein Ton als hörbar empfunden wird, ist gleichfalls frequenzabhängig und zwischen 2000 und 5000 Hz am niedrigsten. Sie stellt eine Isophone dar (4 Phon). Die Schwellenaudiometrie misst dabei die Hörschwelle des Ohrs und bestimmt die Schalldruckpegel der niedrigsten Isophone. Die durchschnittliche Hörschwelle bei gesunden Jugendlichen wurde für alle Frequenzen bestimmt und als 0 dB V (Hörverlust) definiert. Die klinische Hörschwellenkurve wird dabei grafisch als Gerade dargestellt, sodass für den medizinischen Alltag ein übersichtliches Bild entsteht (Tonaudiogramm). 3 Anatomische und physiologische Grundlagen 16 6FKDOOOHLWXQJ]XP,QQHQRKU Das Ohr des Menschen besteht aus dem äußeren Ohr, dem Mittel- und dem Innenohr (Abb. 2). Der Schall gelangt durch die Luft des äußeren Gehörgangs bis zum Trommelfell in Form der so genannten Luftleitung. Anschließend wird er durch Schwingungen von Trommelfell und Gehörknöchelchenkette (Malleus, Incus und Stapes) bis zum ovalen Fenster des Innenohrs fortgeleitet. Gleichzeitig wird der niedrige Schallwellenwiderstand (Schallimpedanz) der Luft an die hohe Impedanz des flüssigkeitsgefüllten Innenohrs angepasst. Ohne Mittelohr würden nämlich 98% des Schalls vom Ohr reflektiert und nicht aufgenommen. So ist eine Impedanzanpassung erforderlich, die durch das funktionale Zusammenspiel von Trommelfell und Gehörknöchelchen vollzogen wird. Die Reflexion wird dadurch so stark reduziert, dass 60% der Schallenergie in das Innenohr eintreten kann. Aber auch ohne Mittelohr kann das Innenohr angeregt werden. Die Knochenleitung über die Schädelkalotte wird klinisch für Stimmgabeluntersuchungen (z.B. nach Rinne oder Weber) und für Hörprüfungen genutzt. 3 Anatomische und physiologische Grundlagen 17 Abb. 2 Schematische Darstellung von äußerem, mittlerem und innerem Ohr. Punktiert eingezeichnet ist ein Extremwert eines Schwingungszustandes des TrommelfellGehörknöchelchen-Apparates (nach Schmidt u. Thews 1977). H Hammer (Malleus) A Amboss (Incus) S Steigbügel (Stapes) 6FKDOOWUDQVGXNWLRQLP,QQHQRKU Das Innenohr liegt im Knochen der Felsenbeinpyramide und besteht aus mehreren miteinander verbundenen Knochenkanälen, dem knöchernen Labyrinth. Dieses besteht aus zahlreichen mit Perilymphe gefüllten Gängen und umgibt ein geschlossenes System von Röhren, das häutige Labyrinth. Dieses wiederum setzt sich aus den Anteilen des Gleichgewichtsorgans und dem Hörorgan, d.h. der Kochlea einschließlich des Corti-Organs zusammen. Die Kochlea – Schnecke – ist ein schlauchförmiges Organ, das in Form eines Schneckenhauses in zweieinhalb Windungen quasi eingerollt ist. Drei übereinanderliegende Skalen, von denen zwei, die Scala vestibuli und die Scala 3 Anatomische und physiologische Grundlagen 18 tympani, am so genannten Helikotrema zusammenhängen, bilden die Struktur (Abb. 3). Gegen das Mittelohr sind sie durch die Steigbügelfußplatte am ovalen Fenster bzw. durch die Membran des runden Fensters abgegrenzt. Scala vestibuli und Scala tympani sind mit der aus dem Liquor stammenden Perilymphe gefüllt, einer Flüssigkeit, die sich ähnlich wie andere extrazelluläre Flüssigkeiten zusammensetzt, also viel Na+-Ionen enthält. Zwischen diesen beiden Skalen liegt die Scala media. Diese wird durch die Reissner-Membran und das Corti-Organ von Scala vestibuli bzw. Scala tympani abgegrenzt. Das Corti-Organ befindet sich auf der Basilarmembran und enthält die mit Stereozilien besetzten Hörsinneszellen (Haarzellen). Über den Reihen der Haarzellen liegt die Membrana tectoria. Abb. 3 Schnitt durch eine Windung der Kochlea (nach Schmidt u. Thews 1977). In der Scala media befindet sich die Endolymphe, eine auffällig K+-reiche Flüssigkeit, deren Zusammensetzung den intrazellulären Flüssigkeiten ähnelt. 3 Anatomische und physiologische Grundlagen 19 Ist das Ohr nun einem Schall ausgesetzt, schwingt der Stapes mit der ovalen Fenstermembran. Im Innenohr löst das Schallsignal Auf- und Abwärtsbewegungen der kochlearen Membranen aus. Das Schallsignal bildet eine Wanderwelle in der zentralen Funktionseinheit der Kochlea, der Basilarmembran. Das Amplitudenmaximum der Wanderwelle entsteht in Abhängigkeit von der jeweiligen Reizfrequenz an einem bestimmten Ort entlang der Basilarmembran. Die wanderwelleninduzierte Auslenkung der Basilarmembran – einschließlich der sich auf ihr befindenden Haarzellen – führt nun zu einer Deflexion der Stereozilien: Die Stereozilien der äußeren Haarzellen werden durch die Tektorialmembran deflektiert, die Stereozilien der inneren Haarzellen werden durch Bewegung der Endolymphströmung abgeschert. Dadurch wird ein Prozess initiiert, der das mechanische Schallsignal in elektrische und chemische Signale umwandelt (transduziert). Als dessen Folge geben innere Haarzellen einen afferenten Transmitter an die afferenten Fasern des Hörnervs ab, wobei die äußeren Wanderwellenmaximums Haarzellen und die für die Stimulation aktive der Verstärkung inneren des Haarzellen verantwortlich sind. 6LJQDOWUDQVIRUPDWLRQYRQGHU6LQQHV]HOOH]XP+|UQHUY Innere Haarzellen erregen den Hörnerv durch einen Neurotransmitter, wahrscheinlich das Glutamat. Dieses diffundiert durch den synaptischen Spalt und verbindet sich mit AMPA-Rezeptoren (AMPA: 2-amino-3-[3-hydroxy-5methylisoxazol-4-yl]propionic acid) der Nervenzellmembran. Dadurch wird ein postsynaptisches Potenzial ausgelöst, das zu Nervenaktionspotenzialen führt (Klinke 1986, Klinke 1987, Klinke 1990, Spoendlin 1972). Die elektrischen Phänomene im Innenohr führen zu klinisch messbaren Reizfolgepotenzialen: dem Mikrophonpotenzial und dem Summenaktionspotenzial. Nimmt das Ohr nun Schall, beispielsweise Sprachlaute, 3 Anatomische und physiologische Grundlagen 20 auf und gibt die registrierten Potenziale nach weiterer Verstärkung auf einen Lautsprecher, so wird das gesprochene Wort aus dem Lautsprecher „ gehört“ . Die Mikrophonpotenziale entstehen dabei an den äußeren Haarzellen. Wird das Ohr mit einem kurzen Schallimpuls gereizt, dann kann mit einer Elektrode am Promontorium (Vorwölbung an der medialen Wand der Paukenhöhle) oder am runden Fenster ein Summenaktionspotenzial des Nervus acusticus abgeleitet werden, das durch eine synchrone Erregung vieler afferenter Nervenfasern des Hörnerven entsteht. )UHTXHQ]VHOHNWLYLWlW*UXQGODJHGHV6SUDFKYHUVWlQGQLVVHV Es ist experimentell gut nachweisbar, dass das Ohr sehr gut Tonhöhen von hintereinander angebotenen Tönen unterscheiden kann: Bei 1000 Hz werden Änderungen von 0,3%, d.h. 3 Hz, wahrgenommen (Frequenzunterschiedsschwelle). Für die Ausbildung dieser )UHTXHQ]VHOHNWLYLWlW besitzt die Kochlea einen zweistufigen Mechanismus (von Békésy 1960). Erklingt ein Ton, werden Reissner-Membran, Tektorialmembran, Corti-Organ und Basilarmembran in die bereits geschilderten ständigen Auf- und Abwärtsbewegungen, d.h. in Vibrationen, versetzt. Diese Vibrationen bleiben nicht auf den Bereich in unmittelbarer Nähe von Stapes und rundem Fenster beschränkt, sondern bilden entlang der Basilarmembran eine – nicht gleichmäßige – Wanderwelle aus, die von der Basis bis zur Spitze der Kochlea wandert. Die Amplitude der Welle nimmt in einem ersten Schritt etwas zu, wird in einem zweiten Schritt bis zu tausendfach zu einer hohen Welle mit sehr scharfer Spitze und nimmt im weiteren Verlauf plötzlich wieder ab. Diese Verstärkung ist bei niedrigen und mittleren Schalldrücken besonders auffällig. Die scharfe Spitze der Wanderwelle stimuliert innere Haarzellen, die nach dem o.g. Transduktionsprozess einen Transmitter an die afferenten Hörnervenfasern weitergeben. 3 Anatomische und physiologische Grundlagen 21 Die Wanderwellenspitze entsteht nun für jede Tonfrequenz an einem anderen Ort entlang der Basilarmembran. Hohe Frequenzen erzeugen das Maximum der Wanderwelle in der Nähe der Kochleabasis, mittlere Frequenzen in der Kochleamitte, tiefe Frequenzen an der Kochleaspitze. Für jede Tonhöhe gibt es dadurch einen bestimmten Ort der Maximalauslenkung der Wanderwelle entlang der Basilarmembran (Tonotopie der Wanderwelle). Eine einzelne Frequenz wird also nur innere Haarzellen an einem bestimmten Ort reizen, unterschiedliche Frequenzen grundsätzlich Haarzellen an unterschiedlichen Orten entlang der Basilarmembran. Ein aus mehreren Tonhöhen bestehendes Schallereignis wird dadurch längs der Basilarmembran verteilt (Frequenzdispersion) (Khanna u. Leonard 1982, Klinke 1987, Sellick et al. 1982, Tonndorf 1980). Bei niedrigem Schalldruck führen die äußeren Haarzellen zu zusätzlichen mikromechanischen Schwingungen der Reizfrequenz. Äußere Haarzellen können sich bis zu 20.000mal pro Sekunde (20 kHz) verkürzen und verlängern. Dadurch wirken sie wie Servomotoren, die nach dem ersten Schritt der Wanderwelle diese im zweiten Schritt bis zu tausendfach verstärken. Die zusätzliche Schwingungsenergie entsteht nur an dem jeweils frequenzcharakteristischen, eng umschriebenen Ort der Basilarmembran. Nur dort werden jeweils einige wenige (wahrscheinlich ca. 50) äußere Haarzellen durch die Tektorialmembran gereizt, die zusätzlich erzeugte Schwingungsenergie wird scharf lokalisiert an die inneren Haarzellen abgegeben: Die Wanderwelle wird also nur in dem sehr eng umschriebenen Bereich verstärkt (Zenner 1986, Zenner et al. 1985, Zenner et al. 1987). ,QIRUPDWLRQVEHUWUDJXQJXQG9HUDUEHLWXQJLP=16 Die von der Haarzelle als Folge des Transduktionsprozesses ausgelöste Transmitterfreisetzung (s. Kapitel 3.3.4) wird in Form einer neuronalen Erregung über Hörnerv, Hirnstamm und Hörbahn bis zum auditorischen Kortex im Temporallappen weitergeleitet (Abb. 4). Hieran sind mindestens 5-6 3 Anatomische und physiologische Grundlagen 22 hintereinander geschaltete, durch Synapsen verbundene Neuronen beteiligt. Sie verfügen über Kollaterale und Interneuronen, sodass das auditorische System ausgedehnt neuronal vernetzt ist. Abb. 4 Schematische Darstellung der zentralen Hörbahn (nach Schmidt, Thews u. Lang 2000). Der Nervus cochlearis endet aufgeteilt im Nucleus cochlearis (Beginn des zweiten Neurons). Vom ventralen Teil des Nucleus cochlearis zieht der überwiegende Teil der Fasern zu den Kernen des Corpus trapezoideum der Gegenseite. Der ipsilaterale Anteil führt unter mehreren Umschaltungen wie der dorsale Teil zur primären Hörrinde. Vom Nucleus cochlearis dorsalis verlaufen die Neuriten zur Gegenseite dicht unter den Striae medullares der Rautengrube und enden in den Kernen des Trapezkörpers. Über das nächste Neuron in der lateralen Schleife (Lemniscus lateralis) entsteht die Verbindung zum Colliculus caudalis der Vierhügelplatte. Von hier wird das dritte Neuron über das Brachium colliculi caudalis zum Corpus geniculatum mediale gelenkt. Dort erreicht das letzte Neuron über die Hörstrahlung (Radiatio acustica) die primären akustischen Rindenfelder des Schläfenlappens (Areae 41 und 42). Durch die Umschaltungen in den medialen Kniehöckern entstehen Kollateralen für Reflexe auf akustische Reize. Neuronen der Formatio reticularis sind dabei mit den afferenten Abschnitten parallel geschaltet. 3 Anatomische und physiologische Grundlagen 23 Die durch einen Schallreiz im Verlauf dieser Neuronen hintereinander HYR]LHUWHQ $NWLRQVSRWHQ]LDOH werden oft zur Diagnostik verwendet (evoked response audiometry, ERA). Hierbei werden dem Untersuchten – sehr geringe – Schallreize angeboten, die im Elektroenzephalogramm (EEG) zu einer Veränderung der Hirnaktivität führen. Da die Abweichungen aber sehr klein sind, wird die einzelne Reizantwort im EEG vom Rauschen völlig überdeckt. Mit Hilfe des Computers wird durch rechnerische Mittelung zahlreicher evozierter Einzelpotenziale (z.B. von 2000 Potenzialen) die spezifische akustische Reizantwort von Hörnerv und Hörbahn aus der unspezifischen Hirnaktivität im EEG erkennbar. Der Nervus cochlearis verlässt das Ohr durch den inneren Gehörgang zum Kleinhirnbrückenwinkel. Wie oben beschrieben, teilen sich seine afferenten Fasern und ziehen im Hirnstamm zum Nucleus cochlearis ventralis bzw. zum Nucleus cochlearis dorsalis, um dort zum zweiten Neuron umgeschaltet zu werden. Der Hörnerv besteht aus einer großen Zahl afferenter sowie teilweise auch efferenter (d.h. aus dem Gehirn kommender) Nervenfasern. 90% der afferenten Nervenfasern haben nur eine Synapse mit einer einzigen, nämlich einer inneren Haarzelle. Das bedeutet, dass an das Gehirn im Wesentlichen Informationen von den inneren Haarzellen weitergeleitet werden. Nach dem Ortsprinzip ist jeder Haarzelle eine ganz bestimmte Tonfrequenz zugeordnet, und die mit einer bestimmten Haarzelle synaptisch verbundene Hörnervenfaser wird bei Beschallung des Ohrs mit dieser Frequenz optimal erregt. Daher wird diese Frequenz auch FKDUDNWHULVWLVFKH )UHTXHQ] (Bestfrequenz) der Einzelfaser genannt. Die Zeitdauer eines Schallreizes wird durch die Zeitdauer der Aktivierung der Nervenfasern verschlüsselt, die Höhe des Schalldruckpegels durch die Entladungsrate. Hierbei kann eine einzelne Nervenfaser eine bestimmte Entladungsrate nicht überschreiten, sondern erreicht ab einem bestimmten Schalldruck einen Sättigungsbereich. Trotzdem kann die Information nach höherer Lautstärke weitergegeben werden, da dann eine zunehmende Zahl benachbarter Fasern rekrutiert wird. 3 Anatomische und physiologische Grundlagen 24 Der Nervus cochlearis zergliedert sich in den Nuclei cochlearis dorsalis und ventralis, wo die zweiten Neuronen beginnen. Wie oben beschrieben, zieht ein Teil der vom ventralen Nucleus cochlearis ausgehenden Neuronen zur oberen Olive der gleichen Seite, ein Teil kreuzt zur oberen Olive der anderen Seite. Auch die afferenten Nervenfasern vom dorsalen Kern kreuzen zum Nucleus lemnisci lateralis der Gegenseite. Das bedeutet, dass im zweiten Neuron ein Teil der Fasern ipsilateral verläuft, ein wesentlicher Teil der zentralen Hörbahn jedoch auf die kontralaterale Seite kreuzt. Daher ist jedes Innenohr mit der rechten und der linken Hörrinde verbunden. Außerdem können in den Nervenzellen des Olivenkomplexes erstmals im Verlauf der Hörbahn binaurale akustische Signale miteinander verglichen werden. Die höheren Neuronen verlaufen von der oberen Olive zum Teil auf der gleichen Seite, zum Teil auf der Gegenseite nach jeweils neuer Umschaltung zum Colliculus inferior und anschließend zum Corpus geniculatum mediale. Schließlich ziehen die Afferenzen als Radiatio acustica zur primären Hörrinde (Heschl-Querwindung) des Temporallappens. Die höheren Neuronen sind stark spezialisiert, was bedeutet, dass sie nur auf jeweils spezifische Schallmuster reagieren: Die einfache Kodierung des ersten und von Teilen des zweiten Neurons wandelt sich grundlegend ab dem dorsalen Nucleus cochlearis und weiter zunehmend mit jedem höheren Neuron. Zwar wird das Ortsprinzip bis zum auditorischen Kortex beibehalten, sodass bestimmte Schallfrequenzen an bestimmten Orten der Hörrinde oder der auditorischen Kerne repräsentiert sind. Zusätzlich besitzen jedoch einige vom dorsalen Nucleus cochlearis ausgehende Neuronen kollaterale Verschaltungen, die teils exzitatorisch, teils inhibitorisch wirksam sind (On-Off-Neuronen). In Folge werden einzelne Neuronen des dorsalen Kochleariskerns bei Schallreiz stets gehemmt. Höhere Neuronen der Hörbahn reagieren nicht auf reine Sinustöne, sondern auf bestimmte Eigenschaften eines Schallmusters (z.B. Sprachmuster). Es gibt dabei Fasern, die bei einer bestimmten Schallfrequenz aktiviert, durch höhere oder 3 Anatomische und physiologische Grundlagen 25 tiefere Töne jedoch gehemmt werden. Einige Neuronen reagieren auf eine Frequenzmodulation, wobei zusätzlich der Grad der Modulation von Bedeutung sein kann. Andere Nervenzellen sprechen hingegen nur auf eine Amplitudenänderung eines Tons an. Diese Spezialisierung von Neuronen auf bestimmte Eigenschaften eines Schallmusters ist im auditorischen Kortex noch ausgeprägter. Neuronen können hochspezialisiert auf den Beginn oder das Ende, auf eine Mindestzeitdauer oder eine mehrfache Wiederholung und auf bestimmte Frequenz- oder Amplitudenmodulationen eines Schallreizes sein. Es liegt daher die Schlussfolgerung nahe, dass diese bis zur Hörrinde zunehmende Spezialisierung der Neuronen auf bestimmte Eigenschaften des Schallreizes es erlaubt, Muster innerhalb des Schallreizes herauszuarbeiten und für die kortikale Beurteilung vorzubereiten (Informationsverarbeitung). Nun besteht das gesprochene Wort ausschließlich aus derartigen Mustern, die trotz eines Störschalls (z.B. Umgebungsgeräusche) erkannt werden können (Pickles 1988, Zenner 1985, Evans 1974, Manley u. Müller-Preuss 1978). 3K\VLRORJLHGHVYLVXHOOHQ6\VWHPV Licht besteht aus elektromagnetischer Strahlung mit Wellen- und Teilcheneigenschaften. Weißes Sonnenlicht verfügt dabei über die gesamte Spektralpalette aller Farbfrequenzen, wobei nur der Bereich von 400 bis etwa 750 nm Wellenlänge für das menschliche Auge sichtbar ist und als Licht wahrgenommen wird. Der Leuchtdichtebereich, innerhalb dessen gesehen werden kann, beträgt etwa 1:1011. 6HKHQXQG%OLFNHQ Die visuelle Wahrnehmung ergibt sich aus der Wechselwirkung sensorischer und motorischer Leistungen von Auge und Zentralnervensystem: Durch Augen-, Kopf- und Körperbewegungen verschieben sich die Bilder der visuellen Umwelt 3 Anatomische und physiologische Grundlagen 26 alle 0,2-0,6 s auf der Netzhaut. Das Gehirn erzeugt aus den diskontinuierlichen und unterschiedlichen Netzhautbildern eine einheitliche und kontinuierliche Wahrnehmung der visuellen Objekte und des umgebenden extrapersonalen Raums. Trotz der retinalen Bildverschiebungen werden die Raumrichtungen richtig und die Gegenstände unbewegt wahrgenommen, weil die afferenten visuellen Signale mit der Efferenzkopie der motorischen Kommandos und mit vestibulären Signalen im Gehirn verrechnet werden. Eine besonders regelhafte Form der Augenbewegungen tritt beim /HVHQauf. Der Fixationspunkt verschiebt sich beim Lesen in raschen Sakkaden (in den Kulturkreisen mit rechtsläufiger Schrift von links nach rechts) über die Zeile. Zwischen den Sakkaden liegen Fixationsperioden von 0,2-0,6 s Dauer. Ist der Fixationspunkt beim Lesen am Zeilenende angelangt, so bewegen sich die Augen meist mit einer Sakkade wieder nach links zum nächsten Zeilenanfang. Die Amplitude und die Frequenz der Lesesakkaden sind von der formalen Struktur des Textes (Größe, Gliederung, Groß- und Kleinschreibung) abhängig. Sie werden jedoch auch vom Textverständnis bestimmt. Ist ein Text unklar geschrieben oder gedanklich schwierig, treten gehäuft Regressionssakkaden auf. Dies sind Sakkaden entgegengesetzt zur normalen Leserichtung. Zahlreiche Regressionssakkaden kennzeichnen auch die Augenbewegungen eines gerade das Lesen lernenden Kindes. Kinder mit Legasthenie zeigen ebenfalls häufig Regressionssakkaden (Stein 1991). 2SWLVFKHV6\VWHPGHV$XJHV Das optische System des Auges ist ein nicht exakt zentriertes, zusammengesetztes Linsensystem, das auf der Netzhaut ein umgekehrtes und verkleinertes Bild der Umwelt entwirft: Der dioptrische Apparat besteht aus der durchsichtigen Kornea, den mit Kammerwasser gefüllten vorderen und hinteren Augenkammern, der die Pupille bildenden Iris, der Linse, die von einer durchsichtigen Linsenkapsel 3 Anatomische und physiologische Grundlagen 27 umgeben ist, und dem Glaskörper, der den größten Raum des Augapfels ausfüllt (Abb. 5). Die hintere innere Oberfläche des Auges wird von der Retina ausgekleidet. Der Raum zwischen Retina und der den Bulbus oculi bildenden festen Sklera wird durch das Gefäßnetz der Choroidea ausgefüllt. Am hinteren Pol des Auges hat die menschliche Retina eine kleine Grube, die Fovea centralis. Sie ist für das Sehen bei Tageslicht die Stelle des schärfsten Sehens und normalerweise der Schnittpunkt der optischen Achse des Auges mit der Netzhaut. Abb. 5 Waagrechter schematischer Durchschnitt durch den linken Augapfel – von oben gesehen (nach Leydhecker 1976). Im menschlichen Auge werden verschieden weit entfernte Gegenstände auf der Netzhaut dadurch scharf abgebildet, dass sich der Krümmungsradius der vorderen Linsenfläche ändert (Akkommodation, Abb. 6). Abb. 6 Reduziertes Auge. 1 Winkelgrad entspricht etwa 0,29 mm auf der Netzhaut (nach Schmidt, Thews u. Lang 2000). 3 Anatomische und physiologische Grundlagen 28 6LJQDODXIQDKPHXQG6LJQDOYHUDUEHLWXQJLQGHU1HW]KDXW Im Wirbeltierauge liegt die Schicht der Rezeptoren von der Glaskörperseite abgewandt in engem Kontakt mit den Pigmentepithelzellen, die an das Gefäßsystem der Choroidea angrenzen und den Stoffwechsel der Rezeptorzellen beeinflussen (Abb. 7). Im menschlichen Auge besteht die Rezeptorschicht aus ca. 120 Millionen Stäbchen und sechs Millionen Zapfen. Das skotopische Sehen mit den Stäbchen ist an die Beleuchtungsbedingungen einer sternenklaren Nacht angepasst, das photopische Sehen mit den Zapfen dagegen an das Tageslicht. Es gibt eine Klasse von Stäbchen und drei Klassen von Zapfen mit unterschiedlichen spektralen Absorptionskurven. Abb. 7 Aufbau der Primatennetzhaut und Schema der Reaktion einzelner Neuronen auf einen Lichtreiz. Nervus opticus (nach Schmidt, Thews u. Lang 2000). 3 Anatomische und physiologische Grundlagen 29 Die Rezeptordichte ist für die Zapfen in der Mitte der Fovea, für die Stäbchen dagegen im parafovealen Bereich am höchsten. In der Fovea centralis gibt es keine Stäbchen. Zwischen den Rezeptoren und dem Glaskörper liegen die Schichten retinaler Nervenzellen – der Horizontalzellen, Bipolarzellen, Amakrinen und Ganglienzellen, deren Axone den N. opticus bilden. Der Transduktionsprozess des Sehens wird durch die Lichtquantenabsorption in den Sehfarbstoffen der Photorezeptoren eingeleitet. Jeder der drei Zapfentypen besitzt einen spezifischen Sehfarbstoff (Zapfenopsin). Der Sehfarbstoff der Stäbchen ist das Rhodopsin. Durch einen mehrstufigen Zerfall entsteht Metarhodopsin II, das in eine intrazelluläre Enzymkaskade eingreift und über ein G-Protein (Guanyl-Nukleotid bindendes Protein) der Photorezeptormembran die cGMP-Konzentration (cGMP: zyklisches Guanosin5'-phosphat) reduziert, was eine Abnahme des Natriumleitwertes und eine Hyperpolorisation des Membranpotenzials der Photorezeptoren bei Belichtung zur Folge hat. Die Amplitude dieses hyperpolarisierenden Rezeptorpotenzials nimmt nichtlinear mit dem Photoneneinfall pro Zeiteinheit zu. Die Signale der Rezeptoren werden durch synaptische Kontakte auf die Bipolarzellen und die Horizontalzellen übertragen und in diesen Zellen durch langsame Membranpotenzialänderungen verrechnet. Die Signale der Bipolarzellen werden direkt über die Amakrinen auf die Dendritenmembran der Ganglienzellen übertragen. Eine Ganglienzelle ist in der Regel mit mehreren Bipolarzellen verbunden. Das Ausmaß dieser Signalkonvergenz ist um so größer, je weiter außen in der Netzhautperipherie eine Ganglienzelle situiert ist. Da ein Photorezeptor mit mehreren Bipolarzellen verbunden ist, besteht im retinalen Neuronennetz auch eine erhebliche Signaldivergenz. Die Signalkonvergenz von Rezeptoren und Ganglienzellen steht im Verhältnis 125:1. Konvergenz und Divergenz der Verknüpfungen in der Retina bilden die Grundlage der rezeptiven Felder. Das rezeptive Feld (RF) eines visuellen Neurons 3 Anatomische und physiologische Grundlagen 30 ist jener Bereich der Netzhaut, dessen adäquate Stimulation zu einer Aktivitätsänderung des Neurons führt. Es sind verschiedene Klassen retinaler Ganglienzellen unterscheidbar, die jeweils antagonistisch organisierte RF haben: Führt die Belichtung des RF-Zentrums zu einer Erregung, bewirkt Belichtung der RF-Peripherie eine Hemmung und umgekehrt (On- bzw. Off-Neurone). Die On-Off-Ganglienzellen reagieren auf stationäre Lichtreize meist mit einer kurzen On-Aktivierung, auf Verdunkelung mit einer kurzen Off-Aktivierung. Die Ganglienzellen des On- und des OffSystems übertragen Signale über retinale Hell-Dunkel- oder Farbwerte, während die On-Off-Ganglienzellen meist zum System der bewegungsempfindlichen Neuronen gehören. Die Impulsrate der Neuronen des On-Systems verläuft linear mit der subjektiven Helligkeit, die des Off-Systems mit der subjektiven Dunkelheit eines Gesichtsfeldbereichs korrelierend. Mit Hilfe dieser linearen Korrelationsregeln lassen sich einige elementare Phänomene des Hell-Dunkel-Sehens einfach deuten: Die Veränderung der Sehschärfe und des Simultankontrastes mit Abnahme der mittleren retinalen Beleuchtungsstärke korreliert mit einer Ausdehnung der RFZentren retinaler Neuronen. Die retinale „ Lokaladaptation“ bewirkt eine Empfindlichkeitsänderung retinaler On-Zentrums- und Off-Zentrums-Neuronen, die nach längerer gleichförmiger retinaler Belichtung zu anhaltenden Nachbildern führt. Nach den Leitungsgeschwindigkeiten der von den Ganglienzellen gebildeten Optikusaxone lassen sich die retinalen Ganglienzellen in drei Klassen einteilen. Die On-Zentrum- und Off-Zentrum-Neuronen des PDJQR]HOOXOlUHQ 6\VWHPV 0 6\VWHPV) bilden schnell leitende, dicke Axone und gehören zum achromatischen System. Die Ganglienzellen des parvozellulären Systems bilden dünnere markhaltige Axone und übertragen z.T. chromatische Information. Viele Ganglienzellen der Netzhaut haben markarme Optikusaxone. Dieses koniozelluläre System besteht überwiegend aus On-Off-Neuronen, die z.T. 3 Anatomische und physiologische Grundlagen 31 bewegungsempfindlich sind, z.T. der Steuerung der Pupillomotorik und anderer vegetativer Reaktionen dienen. Insgesamt wird durch den Transduktions- und Verarbeitungsprozess in der Netzhaut das optische Bild auf der Retina in das Erregungsmuster von mindestens 10 verschiedenen Neuronenklassen umgesetzt, was dem Prinzip einer parallelen Signalübertragung im Zentralnervensystem entspricht. 6LJQDOYHUDUEHLWXQJLP]HQWUDOHQYLVXHOOHQ6\VWHP Die visuelle Information wird durch die den Sehnerv bildenden Axone der retinalen Ganglienzellen in das Gehirn übertragen (Abb. 8). Die Sehnerven beider Augen vereinigen sich an der Schädelbasis zum &KLDVPDRSWLFXP, wo die aus der nasalen Retinahälfte stammenden Sehnervenfasern zur Gegenseite kreuzen. Die Sehnervenfasern aus der temporalen Retinahälfte ziehen ipsilateral mit den gekreuzten Axonen des anderen Sehnervs im Tractus opticus zu den ersten zentralen Schaltstationen der Sehbahn, dem Corpus geniculatum laterale (CGL), den Colliculi superiores und der prätektalen Region des Hirnstamms. Die Axone der Geniculatumzellen verlaufen durch die Sehstrahlung 5DGLDWLRRSWLFD zu den Nervenzellen der SULPlUHQ 6HKULQGH $UHD VWULDWD oder $UHD 9 der okzipitalen Großhirnrinde). Von dort gehen weitere Verbindungen zu den ÄH[WUDVWULlUHQ³ visuellen Hirnrindenfeldern (V2, V3, V4) sowie zu den visuellen Integrationsregionen in der parietalen und temporalen Großhirnrinde (vgl. hierzu auch S. 29). 3 Anatomische und physiologische Grundlagen 32 Abb. 8 Schema der Sehbahn im Gehirn des Menschen (nach Schmidt u. Thews 1976). Fast alle afferente visuelle Information erreicht die Hirnrinde über die Verbindung des CGL mit der Area V1 (Abb. 9). Aus dieser werden die Signale zu den Areae V2, V3, V4 und zu den parietalen visuellen Hirnrindenfeldern übertragen. Diese Hirnareale haben ihrerseits rückläufige Verbindungen zur Area V1. Durch die Verknüpfungen der Area V1 werden die neuronalen Signale, die unterschiedliche Struktureigentümlichkeiten unterschiedliche der visuellen Hirnrindenareale verteilt Reizmuster (Prinzip repräsentieren, der parallelen auf und rückgekoppelten Informationsverarbeitung in der Großhirnrinde). Abb. 9 Äußere Hirnoberfläche eines Rhesusaffen. Areae V1, V2, V3 und V4 sind visuelle Hirnrindenfelder im Okzipitallappen (nach Schmidt, Thews u. Lang 2000). 3 Anatomische und physiologische Grundlagen 33 Mit Hilfe YLVXHOO HYR]LHUWHU 3RWHQ]LDOH 9(3 können Störungen der visuellen Signalverarbeitung objektiv erfasst werden. Die Messung der visuell evozierten Potenziale ermöglicht die objektive Beurteilung der Funktion des afferenten visuellen Systems und der Area V1. Dabei registriert das Elektroenzephalogramm im Okzipitalbereich einen Impuls. Die EEG-Reaktionen auf Lichtreize werden mit Hilfe eines Digitalrechners gemittelt. Die Nervenzellen der &ROOLFXOL VXSHULRUHV reagieren bevorzugt auf bewegte visuelle Reizmuster und sind zum Teil auch richtungsempfindlich: Ein visuelles Reizmuster löst nur dann eine Aktivierung der Nervenzellen aus, wenn es in bestimmter Richtung durch das RF bewegt wird. Die Neuronen der Colliculi sind in „ Säulen“ senkrecht zur Oberfläche der Colliculi angeordnet, die innerhalb einer Säule haben ihr RF jeweils in der gleichen Region des Gesichtfeldes. In den tieferen Schichten der Colliculi gibt es Nervenzellen, die kurz vor Augenbewegungen aktiviert sind und die eine blickmotorische Kontrollfunktion haben (Berthoz et al. 1992, Cohen 1981, Creutzfeldt OD 1993, Polyak 1957, Grüsser u. Grehn 1991, Grüsser u. Grüsser-Cornehls 1973, Grüsser u. Henn 1991). Im &RUSXV JHQLFXODWXP ODWHUDOH &*/ enden die Optikusaxone in drei dem ipsilateralen und drei dem kontralateralen Auge zugeordneten Zellschichten. Das CGL besteht aus zwei magnozellulären und vier parvozellulären Schichten. Die Nervenzellen des CGL haben wie die Ganglienzellen der Retina konzentrisch organisierte rezeptive Felder. Mit einfarbigen Hell-Dunkel-Mustern werden im CGL zwei verschiedene Neuronenklassen unterschieden: „ Kontrastneuronen" und „ Hell-Dunkel-Neuronen". In beiden Neuronenklassen gibt es etwa gleich häufig On-Zentrums- und Off-Zentrums-Neuronen. Die Kontrastneuronen reagieren wegen verstärkter lateraler Inhibitionsprozesse nicht oder nur schwach auf diffuse Lichtreize, jedoch sehr stark auf Hell-Dunkel-Konturen im RF. Die Aktivierung der Hell-Dunkel-Neuronen hängt dagegen von der mittleren Leuchtdichte des visuellen Reizmusters im ganzen rezeptiven Feld ab (Grüsser u. Klinke 1971, Jung 1973). 3 Anatomische und physiologische Grundlagen 34 Durch die Leistung der Neuronensysteme der Netzhaut und des CGL werden die visuellen Signale nach ihren chromatischen Eigenschaften, der räumlichen Kontrastverteilung und der mittleren Leuchtdichte an den verschiedenen Gesichtsfeldstellen bewertet. Eine weitere Strukturierung des visuellen Signalflusses erfolgt durch die Neuronensysteme des primären visuellen Kortex, d.h. der $UHD 9. Ein großer Teil dieser Nervenzellen antwortet nicht mehr auf einfache Hell-Dunkel-Reize, sondern nur noch auf Konturen bestimmter Orientierungen, Konturunterbrechungen usw. Im Reaktionsmuster kortikaler visueller Neuronen ist also eine weitere „ Spezialisierung“ der visuellen Signalverarbeitung zu erkennen. Der Grad der Spezialisierung wird durch die rezeptiven Feldeigenschaften gekennzeichnet: einfache, komplexe und hyperkomplexe rezeptive Felder werden hier unterschieden (Grüsser u. Landis 1991, Livingstone u. Hubel 1988). Die Nervenzellen der Area V1 sind in sechs bis acht Schichten parallel und in Säulen senkrecht zur Hirnoberfläche angeordnet. Die rezeptiven Felder aller Nervenzellen in einer etwa 200-300 µm dicken Säule befinden sich im gleichen Bereich des Gesichtsfeldes, können jedoch eine unterschiedliche Ausdehnung haben. Gemeinsam für die Nervenzellen einer Säule ist die ähnliche Achsenorientierung der rezeptiven Felder. • (LQIDFKH UH]HSWLYH )HOGHU Ein Teil der Nervenzellen der Area V1 hat einfache rezeptive Felder mit konzentrisch oder parallel zueinander angeordneten On- oder Off-Zonen. Diffuse Belichtung des ganzen rezeptiven Feldes löst keine oder nur eine schwache Aktivierung aus. Als Achsenorientierung wird die Richtung der Grenze zwischen den On- und OffZonen bezeichnet. Eine Hell-Dunkel-Kontur löst die stärkste Aktivierung aus, wenn sie an und parallel zu der Grenze zwischen On- und Off-Zone liegt. • .RPSOH[H UH]HSWLYH )HOGHU Um Nervenzellen mit komplexen rezeptiven Feldern zu aktivieren, müssen differenzierte Reizmuster in das RF projiziert werden, z.B. Hell-Dunkel-Konturen bestimmter Orientierung oder Konturunterbrechungen bestimmter Ausdehnung. Komplexe RF sind in der 3 Anatomische und physiologische Grundlagen 35 Regel in ein exzitatorisches rezeptives Feld (ERF) und ein inhibitorisches rezeptives Feld (IRF) unterteilt. Eine gleichzeitige Reizung von ERF und IRF löst eine geringe oder keine neuronale Aktivierung aus. • %HZHJXQJVHPSILQGOLFKNHLW NRUWLNDOHU 1HXURQHQ Neuronen mit komplexem oder hyperkomplexem RF reagieren auf bewegte Reizmuster stärker als auf unbewegte. Diese Bewegungsempfindlichkeit kann als Anpassung an die beim normalen Sehen ständig vorhandenen Augenbewegungen gedeutet werden. Das zerebrale Bild der stationären Welt wird aus bewegten retinalen Reizmustern ermittelt. Zum Teil steuern die bewegungsempfindlichen kortikalen Neuronen über Verbindungen zu den Colliculi superiores die Abtastbewegungen der Augen beim Sehen und über Verbindungen mit der prätektalen Region die Akkommodation und die Pupillenweite. • %LQRNXOlUH $NWLYLHUXQJ Die Neuronen des visuellen Kortex haben in der Regel in jeder Retina ein rezeptives Feld. Ihr Entladungsmuster ist das Resultat einer binokulären Verrechnung und Grundlage des binokuläre Tiefensehens. Die H[WUDVWULlUHQ YLVXHOOHQ $UHDOH sind über die ganze okzipitale Hirnrinde ausgedehnt. Die visuellen Hirnrindenareale des Hinterhauptlappens (Areae V2, V3, V4) übernehmen die afferenten visuellen Signale aus den verschiedenen Neuronenklassen der Area V1. Hierbei erfolgt eine Aufteilung nach funktionellen Gesichtspunkten. Die Area V2 hat überwiegend die Aufgabe der visuellen Gestalterkennung stationärer Reizmuster, die Area V3 Gestalterkennung kohärent bewegter Objekte oder Objektteile und die Area V4 Objekterkennung aufgrund charakteristischer nachvollziehbar, Oberflächenfarben dass zur und ungestörten Farbkontraste. Wahrnehmung Es ist eines leicht visuellen Gegenstandes die koordinierte Aktivität aller drei Areale erforderlich ist. Die Signale aus den retinotop organisierten visuellen Hirnrindenarealen (Areae V2, V3, V4) werden in die visuellen Assoziations- und Integrationsregionen des Parietal- und Temporallappens übertragen (z.B. Gyrus angularis). Mit jedem 3 Anatomische und physiologische Grundlagen 36 neuronalen Verarbeitungsschritt nimmt die retinotope Organisation ab, bis schließlich die einzelnen rezeptiven Felder der Nervenzellen in einigen der visuellen Assoziations- und Integrationsregionen einen großen Teil des fovealen und des peripheren Gesichtsfeldes einnehmen (Maunsell u. Newsome 1987, van Essen 1979, van Essen et al. 1992). 1HXURSK\VLRORJLVFKH*UXQGODJHQGHU*HVWDOWZDKUQHKPXQJ Konturen bestimmter Orientierung und Länge, Konturunterbrechungen und Winkel (wie z.B. Schrift) sind optimale Reizmuster für die Aktivierung der verschiedenen Neuronenklassen in der Sehrinde. Im räumlichen Erregungsmuster des Neuronennetzes jeder Klasse werden jeweils andere Eigenschaften („ Gestaltmerkmale“ ) des Reizmusters „ abgebildet“ . In Abb. 10 ist am Beispiel des Reizmusters „ A“ schematisch das räumliche Erregungsmuster angegeben, das dieses Reizmuster in der Netzhaut, in den Kontrastneuronen des CGL und in den verschiedenen kortikalen Neuronenklassen auslöst. Abb. 10 Ein Leuchtbuchstabe A wird auf die Netzhaut projiziert und löst in der Rezeptorschicht der Netzhaut ein entsprechendes räumliches Erregungsmuster aus (a), das zu einem räumlichen Erregungsmuster in der retinalen Ganglienzellschicht und im Corpus geniculatum laterale (a, b) führt. Die Neuronen des visuellen Kortex reagieren entweder auf die Konturen (b), Konturen bestimmter Richtung, Konturunterbrechungen, Winkel und Ecken des A (c bis i). Die aktivierenden Gestaltmerkmale des A sind jeweils grau gezeichnet. In k ist ein Beispiel für eine visuelle Gestaltergänzung dargestellt: Drei schwarze Reizmuster sind so angeordnet, dass der Eindruck eines räumlich ausgedehnten Buchstabens A entsteht (nach Schmidt u. Thews 1977). 3 Anatomische und physiologische Grundlagen 37 Lesen ist eine höhere YLVXHOOHHirnleistung, die durch umschriebene Hirnläsionen gestört werden kann (Alexie). Durch Messung der regionalen Hirndurchblutung konnte nachgewiesen werden, dass beim Lesen eine besonders starke Aktivierung im Bereich des *\UXV DQJXODULV und des *\UXV FLQJXOL der linken Großhirnhemisphäre auftritt. Die Bedeutung dieser Großhirnrindenregionen für das Lesen ist vor allem an Patienten erkennbar, die nach einer Läsion im inneren Bereich des Gyrus angularis der linken Hirnhälfte entweder Worte nicht mehr lesen können (verbale Alexie) oder sogar Buchstaben nicht mehr erkennen, bzw. identifizieren können (litterale Alexie). Bei einer reinen Alexie kann der Patient noch schreiben, das von ihm selbst Geschriebene jedoch nicht mehr lesen (Alexie ohne Agraphie). Dehnt sich die Hirnläsion vom Gyrus angularis zum Gyrus cinguli aus, so ist die Alexie in der Regel von einer Unfähigkeit zum Schreiben (Agraphie) begleitet. Eine Läsion im Bereich der prämotorischen Hirnrinde des Frontallappens der linken Seite kann selektiv eine Agraphie ohne Alexie zur Folge haben. Die Fähigkeit, ideographische Schrift zu lesen (z.B. chinesische Schriftzeichen oder Kanji im Koreanischen und Japanischen) ist bei einer umschriebenen Läsion des linken Gyrus angularis nur wenig beeinträchtigt. Eine Alexie für diese Schriftzeichen tritt jedoch bei einer Läsion des rechten Gyrus angularis auf. 0RGHUQH7HFKQLNHQ]XU/RNDOLVDWLRQ VSUDFKUHOHYDQWHU+LUQDUHDOH Bis gegen die Mitte des 20. Jahrhunderts war man zur Lokalisation von sprachrelevanten Hirnregionen hauptsächlich auf die bei der Autopsie von verstorbenen aphasischen Patienten erhobenen pathologisch-anatomischen 3 Anatomische und physiologische Grundlagen 38 Hirnbefunde angewiesen. Mit dem Aufkommen neuer Techniken wurde es möglich, auch am Lebenden und Gesunden Regionen, die für die Sprache von Bedeutung sind, zu lokalisieren. 1XNOHDUPHGL]LQLVFKH0HWKRGHQ Das nach Applikation von Radionukliden in die Blutbahn mit Hilfe von Detektoren durchgeführte Hirnscanning bestätigt die schon früher gemachte Beobachtung, dass Patienten mit nicht flüssiger Aphasie eine Schädigung in der vorderen perisylvischen Region aufweisen und Patienten mit flüssiger Aphasie in oder um die hintere perisylvische Region geschädigt sind (Benson u. Patten 1967). Die Emissionstomographie, insbesondere die Positronen-Emissions-Tomographie (PET), ist eine wichtige Informationsquelle bei neuropsychologischen Studien der höheren Hirnfunktionen (Frackowiak 1994, Herholz et al. 1996, Raichle 1987). Mit der PET kann in verschiedenen sprachrelevanten Hirnarealen eine Aktivitätssteigerung (über vermehrten Blutfluss als Ausdruck einer gesteigerten Stoffwechselaktivität bei erhöhter Funktion der Nervenzellen) beobachtet werden, je nachdem, welche Sprachtests (Benennung von Objekten, Wortfindung u.a.m.) vorgelegt werden. ,QWUDRSHUDWLYQHXURSK\VLRORJLVFKH0HWKRGHQ Eine weitere Methode ist die von PENFIELD und BOLDREY 1937 eingeführte, von PENFIELD und ROBERTS (1959) auf die Sprachregionen ausgedehnte und 3 Anatomische und physiologische Grundlagen 39 von Ojeman et al. (1989) weiter entwickelte elektrische Stimulation kleiner Areale der operativ freigelegten Hirnoberfläche (Penfield u. Boldrey 1937, Penfield u. Roberts 1959, Ojeman et al. 1989). Die Methode kommt allerdings nur bei Patienten infrage, die sich wegen einer fokalen Epilepsie oder einem Hirntumor im Bereich des Sprachkortex einer Operation in Lokalanästhesie unterziehen müssen. Es geht darum, beim Eingriff sprachrelevante Areale möglichst zu schonen (Herholz et al. 1997, Reulen et al. 1997). Dabei wird den Patienten je nach Testwahl z.B. ein Gegenstand gezeigt, den sie benennen müssen (z.B. „ Dies ist eine Schere“ ). Bei diesen Stimulationen mit kurzer Applikation eines elektrischen Stroms von wenigen mA in kleinen, voneinander getrennten Arealen (brain mapping) zeigt sich Folgendes: Wird ein Kortexareal gereizt, das zur Benennung des Objekts nicht notwendig ist, kann das vorgezeigte Objekt einschließlich Trägersatz fehlerfrei und sprachlich korrekt identifiziert werden. Ist das gereizte Kortexareal zur Benennung des Objekts unverzichtbar, so wird die Antwort fehlerhaft (z.B. „ Säge“ statt „ Schere“ ), es liegt somit eine Sprachstörung infolge des elektrischen Reizes vor. Ist die Antwort während des Reizes unverständlich oder kommt es zu überhaupt keiner Sprachproduktion, so besteht eine Sprachhemmung bzw. eine Sprechhemmung. Die für die Sprachfunktion wichtigen kleinen Areale – etwa 1 cm2 –, im erwähnten Testfall für Benennung, variieren sowohl hinsichtlich Anzahl als auch Lokalisation innerhalb der klassischen Sprachregion von Patient zu Patient. Diese kleinen mosaikartig verstreuten Areale sind voneinander durch stumme Abschnitte getrennt und können sogar außerhalb der klassischen Sprachregion liegen. Obschon es Areale gibt, von welchen aus die Sprache gestört werden kann, so gibt es doch nur wenige Areale, die für die Sprache (im erwähnten Testfall für Objektbenennung) von essenzieller Wichtigkeit sind, was auf die große Bedeutung der Namensgebung in der Sprachfunktion hinweist. Das will aber nicht heißen, dass der Name an diesem Punkt gespeichert ist, sondern es bedeutet lediglich, dass dieses Areal als „ check-point“ wirkt und die zahlreichen, ihm zuströmenden Impulse aus dem zerebralen Netzwerk für Namensgebung zur korrekten sprachlichen Äußerung verarbeitet. Im Hinblick auf die wichtigen 3 Anatomische und physiologische Grundlagen 40 Areale außerhalb der klassischen Sprachregion stellt sich zudem die Frage nach der Plastizität des Gehirns: Andere Regionen können bei einem Prozess in sprachrelevanten Bezirken die essenzielle Funktion des „ check-point“ im Netzwerk übernehmen. Dieses Problem ist noch nicht geklärt (Huber et al. 2000). $QJLRJUDSKLHXQG:DGD7HVW Eine andere, weniger invasive Methode, um selektiv, vorübergehend und reversibel umschriebene Teile des Gehirns auszuschalten, ist im Rahmen der Angiographie auf dem Blutweg möglich (Huber et al. 2000). Bereits 1949 hatte Wada ein kurz wirksames Schlafmittel (Amobarbytal) in die A. carotis interna einer Seite injiziert und dabei herausgefunden, dass dadurch eine Großhirnhälfte für einige Minuten außer Funktion gesetzt werden kann (Wada 1949). Dieser sogenannte „ Wada-Test“ oder auch „ Amytal-Test“ wird heute als globaler Karotis-Test oder als selektiver Test (Wieser et al. 1994) eingesetzt. Die Durchführung des Wada-Tests erfolgt in der Regel im Rahmen einer diagnostischen Angiographie. Dazu wird nach örtlicher Betäubung von der Leistenarterie aus ein Katheter zunächst in der einen, dann in der kontralateralen A. carotis interna platziert, und es werden in der Regel 100-150 mg Phenobarbytal injiziert. Gleichzeitig wird im Angiographie-Raum ein EEG abgeleitet, um zu sehen, in welchem Ausmaß und in welcher Ausbreitung das Gehirn „ gelähmt“ wird. Während der Wirkung des Schlafmittels auf das Gehirn werden dann neuropsychologische Tests durchgeführt. Damit kann selektiv geprüft werden, welche Aufgaben die nicht ausgeschaltete kontralaterale Hirnhälfte zu bearbeiten und zu lösen in der Lage ist. Sozusagen als Umkehrbeweis erfolgt dann, wenn sich die primär lahmgelegte Hirnhälfte wieder erholt hat, der globale Karotis- 3 Anatomische und physiologische Grundlagen 41 Amytal-Test auf der Gegenseite. Mit diesem globalen Wada-Test lässt sich vor einem geplanten operativen Eingriff festlegen, ob bei dem Patienten – bezogen auf die Sprache – eine links- oder rechtshemisphärische oder eine gemischte Dominanz (bilaterale Sprachpräsentation) vorliegt. Im Rahmen des selektiven und superselektiven Amytal-Tests werden einzelne Hirngefäße mit einem Mikrokatheter sondiert, der durch den transfemoral eingeführten Führungskatheter in Teleskop-Technik in den Hirnkreislauf vorgeschoben werden kann. Dieser Eingriff ist schmerzfrei, erfolgt bildgesteuert und ist zwischenzeitlich ein Routineeingriff in interventionellen neuroradiologischen Zentren geworden. Die Angiographie dieses Hirngefäßes durch den Mikrokatheter zeigt, welches Hirnareal von diesem Gefäß selektiv versorgt wird und welcher Bereich des Gehirns ausgeschaltet wird, wenn 40-60 mg Amytal durch den Mikrokatheter in dieses Hirngefäß injiziert werden. Die reversiblen, etwa 10-15 Minuten dauernden neurologischen Ausfälle werden dann durch standardisierte Tests im Angiographie-Raum durch die anwesenden Neurologen und Neuropsychologen gemessen und dokumentiert. Vergleichbare Ergebnisse lassen sich erzielen, wenn während der Bearbeitung sprachlicher Aufgaben Doppler-sonographisch der Fluss in den mittleren Hirnarterien gemessen wird. Auf der sprachdominanten Seite kommt es zu einem signifikanten Flussanstieg (Rihs et al. 1999). &RPSXWHUWRPRJUDSKLHXQG0DJQHWUHVRQDQ]WRPDJUDSKLH 1967 wurde die Computertomographie (CT) eingeführt (Ambrose 1973, Haunsfield 1973), 10 Jahre später folgte die Kernspintomographie (Magnetic Resonance Imaging, MRI) (Bloch 1946, Bydder 1982, Lauterbur 1973, Mansfield 3 Anatomische und physiologische Grundlagen 42 1976, Purcell 1946). Mit diesen beiden bildgebenden Methoden wurde es möglich, das Hirnparenchym mit großer Präzision und guter Strukturauflösung von grauer und weißer Substanz (Rinde und Mark, zentrale Kerngebiete) am Lebenden darzustellen. Krankhafte Veränderungen, wie z.B. ischämische Hirninfarkte, werden mit einer bis in die kleinsten Details gehenden Genauigkeit abgebildet. Dies ist für die Aphasieforschung von großem Vorteil, da das Ausmaß der zerebralen Läsion bereits im Initialstadium (und zu jedem beliebigen späteren Zeitpunkt) erfasst und mit dem jeweiligen sprachlichen Defizit in Beziehung gebracht werden kann (Damasio 1989, Damasio 1992). So hat sich gezeigt, dass die echte sog. Broca-Aphasie mit der nicht flüssigen Sprache, dem Agrammatismus usw. nicht nur durch Läsionen des unteren Gyrus frontalis (Brodmann Area 44 und 45), sondern auch durch eine Schädigung der umliegenden frontalen Bezirke (Brodmann Areale 46, 47 und 9) sowie der darunter liegenden weißen Substanz und der Basalganglien (Kopf des Nucleus caudatus und des Putamen) verursacht sein kann. Läsionen des ursprünglichen Broca-Zentrums (hinterer Abschnitt der 3. Frontalwindung) verursachen nicht die typische Broca-Aphasie, sondern nur eine milde und vorübergehende Form ohne Halbseitenlähmung. Die Wernicke-Aphasie ihrerseits wird durch eine Schädigung verursacht, die nicht nur die obere Temporalwindung (Brodmann Area 22) einschließt, sondern auch die parietalen Regionen des Gyrus supramarginalis (Brodmann Area 40) und des Gyrus angularis (Brodmann Area 39) sowie die mittlere Temporalwindung (Brodmann Area 37). Ebenso kann bei anderen Formen der Aphasie die Läsion genau lokalisiert werden. Es zeigt sich auch, dass eine Schädigung der Basalganglien der sprachdominanten Hirnhemisphäre oder begleitende Läsionen kortikaler Strukturen zu Aphasien führen können. In gewissen Fällen lassen sich sogar Einzelheiten von aphasischen Störungen bestimmten Regionen, z.B. der vorderen Temporalregion, zuordnen. Eine Schädigung der Brodmann Area 38 (Spitze des Temporallappens) führt z.B. zu Benennungsschwierigkeiten von Personen, nicht aber zu solchen von allgemein gebräuchlichen Gegenständen. 3 Anatomische und physiologische Grundlagen 43 Eine Läsion der mittleren und unteren Temporalwindung (Brodmann Areale 20 und 21) löst eine Störung von Einzel- oder Allgemeinbezeichnungen aus, nicht aber von Verben, Adjektiven und grammatikalischen Wörtern. Das heißt aber nicht, dass diese Wörter in diesen Regionen wie in Schubladen gespeichert sind, sondern nur, dass diese Strukturen im gesamten Netzwerk intakt sein müssen, damit die entsprechenden Worte gefunden werden können. Seit ihrer Einführung in den frühen 90er-Jahren (Ogawa 1992) hat die funktionelle MR-Bildgebung (FMRI functional magnetic resonance imaging) eine zunehmende Verbreitung in der neurophysiologischen und neuropsychologischen Grundlagenforschung sowie inzwischen auch in der Klinik gefunden (Huber et al. 2000). *UXQGODJHQGHUIXQNWLRQHOOHQ05%LOGJHEXQJ)05, FMRI wird üblicherweise mit der als BOLD – ein Akronym für Blood Oxygenation Level dependent – bekannten Technik durchgeführt (Bandettini 1992, Bandettini 1994, LeBihan 1995, Moseley 1995). Diese basiert darauf, dass die zerebrale vasomotorische Autoregulation bei neuronaler Aktivierung zu einer lokal vermehrten Durchblutung führt; dies wiederum bedeutet, dass aktivierte Hirnareale mehr Sauerstoff erhalten. Diese Zunahme der Sauerstoffversorgung erfolgt jedoch überschießend, sodass der zugeführte Sauerstoff vom aktivierten Hirngewebe nicht völlig verbraucht wird. Infolgedessen enthält das Blut in den Kapillaren und den aus einem aktivierten Hirnareal drainierenden Venen noch einen hohen Sauerstoffanteil in Form von Oxyhämoglobin. Dieser physiologische Effekt kann benutzt werden, um ein aktiviertes Hirnareal zu identifizieren, da Oxyhämoglobin (HbO2) andere magnetische Eigenschaften hat als DeoxyHämoglobin (Deoxy-Hb). Diamagnetisches HbO2 hat nur einen geringen Einfluss auf das lokale Magnetfeld, während paramagnetisches Deoxy-Hb lokale Feldinhomogenitäten verursacht. Eine höhere lokale HbO2-Konzentration 3 Anatomische und physiologische Grundlagen 44 verursacht damit entsprechend weniger Signalverlust als das Deoxy-Hb in der Umgebung. Benutzt man eine Messsequenz, die für diese Signalverluste (den sog. T2-Effekt) besonders empfindlich ist, wird diese Region daher mit einem relativ höheren Signal zur Darstellung kommen. Eine Bildgebungstechnik, welche die Anforderungen der FMRI – Messen eines großen Volumens in sehr kurzer Zeit – ideal erfüllt, ist die echoplanare Bildgebung (echo planar imaging [EPI]). Obwohl Mansfield (Mansfield 1977) die zugrunde liegende Theorie schon vor mehr als 20 Jahren beschrieben hat, sind erst in den letzten Jahren MR-Scanner verfügbar geworden, bei denen die nötigen sehr leistungsfähigen Gradientensysteme mit hohen Anstiegsraten in klinischen Systemen implementiert werden konnten. EPI erlaubt eine extrem schnelle Bildakquisition (unter 100 Millisekunden für die einzelne Schicht) und ist daher geeignet, relativ schnelle physiologische Prozesse zu untersuchen. Eine komplette FMRI-Studie unter Anwendung der EPI-BOLD-Technik mit Untersuchung des gesamten Gehirns kann unter Anwendung der unten beschriebenen Aktivierungstechniken in 5-7 Minuten durchgeführt werden; sie lässt sich damit problemlos in die klinisch-diagnostische Untersuchung integrieren. Grundlage für den Nachweis einer Aktivierung ist der Vergleich zwischen zwei Zuständen, der durch den wiederholten Wechsel zwischen Ausführen einer Aufgabe (Paradigma) und einem Kontrollparadigma erreicht wird. Die zeitliche Limitierung beider Phasen ist wünschenswert, um Gewöhnungseffekte zu vermeiden. Das Kontrollparadigma kann entweder aus „ Ruhe“ (Nicht-Ausführen der Aufgabe oder irgend einer anderen ähnlichen Tätigkeit) bestehen oder ein anderes Paradigma sein, von dem aus neuropsychologischer Sicht zuverlässig erwartet werden kann, dass es zu einem anderen Hirnaktivierungsmuster fährt. Beispielsweise wechseln HUBER et al. (Huber et al. 2000) alle 24 Sekunden zwischen Aufgabe und Ruhe/Kontrollaufgabe. Mit der verwendeten FPI-Sequenz werden in 6 Sekunden 30 überlappende Schichten durch das gesamte Gehirn akquiriert, sodass in jeder Phase vier Bildserien entstehen. Insgesamt werden 3 Anatomische und physiologische Grundlagen standardmäßig 68 Serien 45 akquiriert; entsprechend werden in einer Gesamtmesszeit von etwa 6,5 Minuten 2040 Bilder gewonnen. Der relative Signalanstieg in einem aktivierten Kortexareal beträgt nur etwa 2-5% und ist in einem einzelnen Bild nicht nachweisbar. Die Aktivierungsinformation muss daher unter Heranziehung aller während einer funktionellen Aufgabe akquirierten Bilder errechnet werden. Grundsätzlich wird dazu ein statistischer Vergleich zwischen den während der Aufgabe und den während der Kontrolle (Ruhe, andere Aufgabe) akquirierten Bildern durchgeführt. Dabei werden pixelweise die Mittelwerte und Standardabweichungen aller „ Aktivierungs“ - und „ Ruhe“ -Pixel berechnet und mittels parametrischer (z-score, t-Test) oder nichtparametrischer (Wilcoxon-Test) Tests auf signifikante Unterschiede überprüft; entsprechende Korrekturfaktoren (z.B. Bonferroni-Korrektur) sind wegen des großen Stichprobenumfangs zu berücksichtigen. Die Untersuchung höherer kognitiver und motorischer Funktionen erfordert in der Regel den Einsatz spezieller Hilfsmittel (Gutbrod et al. 2000). Visuelle Information kann dem Patienten mittels eines Projektionssystems und eines Spiegels an der Kopfspule zugänglich gemacht werden, eine andere Möglichkeit sind spezielle Brillen mit kleinen integrierten LCD (liquid crystal display)Anzeigen. 4 Reine Worttaubheit 46 5HLQH:RUWWDXEKHLW $OOJHPHLQH*UXQGODJHQ %HJULIIVHUNOlUXQJHQXQG'HILQLWLRQHQ Der Begriff der UHLQHQ:RUWWDXEKHLW wurde Anfang des 20. Jahrhunderts geprägt, um das neuropsychologische Syndrom einer Störung des auditiven Objektund/oder Worterkennens zu beschreiben. Die reine Worttaubheit ist ein Syndrom, das sich aus einem vollständigen initialen Hörverlust (Rindentaubheit) heraus entwickeln kann. Sie ist gekennzeichnet durch eine Beeinträchtigung des auditiven Sprachverständnisses, des Nachsprechens und des Diktatschreibens, bei besser erhaltener Spontan- und Schriftsprache (Engelien 2001). Es ist eine generelle, oft sehr große Unaufmerksamkeit auf Gehörseindrücke aller Art vorhanden; die Worttaubheit ist in den einwandfreien Fällen eine bleibende. Mit der maximalen Worttaubheit kontrastiert die nicht oder nur spurweise gestörte, auffallend gute innere Sprache. Die Wortfindung ist tadellos, Paraphasien fehlen ganz oder sind selten. Einzelne der Kranken lesen und schreiben fast fehlerfrei; bei anderen bestehen Schreibstörungen, die aber nicht zum Wesentlichen des Bildes zu gehören scheinen. Entwickelt hat sich diese Aphasieform bisher immer aus einem Syndrom, in dem anfangs über kurze Zeit eine Wernicke-Aphasie bestanden hatte. Die Störung des Sprachverständnisses blieb bestehen, während die innere Sprache sich in kürzerer oder längerer Zeit weitgehend erholte (Pötzl 1919). Charakteristisch für die reine Worttaubheit ist der Unterschied zwischen dem Verstehen von phonologischer und dem Nichtverstehen von semantischer Information: Zwar kann der Patient ein gesprochenes Wort nachsprechen, ihm ist es jedoch nicht möglich, ein gesprochenes Wort zu verstehen. Der Patient kann 4 Reine Worttaubheit 47 verstehen, was er liest. Dagegen muss die Fähigkeit zu schreiben nicht unbedingt intakt bleiben. Besteht eine Worttaubheit, bei der der Zugriff auf die richtigen phonologischen Repräsentationen des Gehirns unversehrt ist, jedoch die Zuordnung zu den entsprechenden semantischen Repräsentationen misslingt, so bleibt die Fähigkeit zu schreiben erhalten. Ist die phonologische Analyse der Sprache zwar korrekt, jedoch kann der erzeugte phonologische Code nicht der phonologischen Repräsentation zugeordnet werden, so ist auch das Schreiben nicht mehr möglich.(Kohn u. Friedman 1986). Auch nach MAYER (Mayer 2001) ist die Diskrepanz von erhaltener auditiver Wahrnehmungsfähigkeit und Diskriminationsfähigkeit gegenüber einer Unfähigkeit des Erkennens des auditiven Objektes (d.h. der semantischen Bedeutung des komplexen akustischen Reizes) charakteristisch. Oft erleben die Patienten die verbalen Mitteilungen anderer Menschen ,,als Geräusch". Vokalische und suprasegmentale Eigenschaften sprachlicher Äußerungen (Intonation) scheinen weniger betroffen zu sein als Konsonanten und ermöglichen in gewissen Grenzen residuale sprachlich-perzeptive Leistungen. Ein Stück weit lässt sich auch durch Lippenlesen oder Verlangsamung des Sprechtempos das auditive Defizit kompensieren. Soweit untersucht, ist zusätzlich immer eine Störung der Diskrimination nonverbaler Geräusche, der Wahrnehmung von Musik, der Zeitauflösung akustischer Signale (Ordnungs- und Fusionsschwellen) und/oder der Lokalisation von Schallquellen im Raum zu beobachten (Mayer 2001). Die reine Worttaubheit ist selten. Oft tritt sie in Zusammenhang mit anderen Aphasieformen auf (vgl. 3.2.4). 4 Reine Worttaubheit 48 +LVWRULVFKH$VSHNWH Im Jahre 1919 beschrieb der Arzt Otto PÖTZL einen Fall reiner Worttaubheit, d.h. eines Patienten, „ dem das Wortlautverständnis fehlte, während er Geräusche, Klänge, die kontinuierliche Stimmgabelreihe bis auf eine geringe Verkürzung der Perzeptionsdauer vollkommen hörte“ (Pötzl 1919). Nach einem Unfall litt der Patient unter einer linksseitigen Hörstörung. Neun Jahre später begannen Schwindelanfälle und häufige Kopfschmerzen. Es entwickelte sich eine hochgradige Aufmerksamkeitsstörung für alle Gehörseindrücke. Im Verlauf der Erkrankung wandelte sich die reine Worttaubheit des Patienten in eine gewöhnliche mit Störungen der inneren Sprache um, sodann zeigte sich wieder eine Umwandlung der gewöhnlichen Worttaubheit in eine reine Worttaubheit. Der Patient starb am 5.4.1916. Die Autopsie des verstorbenen Patienten stellte einen großen Herd im Schläfenlappen und Scheitellappen der rechten Hirnhälfte fest; der linksseitige Herd zeigte sich am Hirnrelief durch eine kleine, auffallend atrophische Stelle im Temporallappen. Auch andere Wissenschaftler beschrieben zu Anfang des 20. Jahrhunderts Fälle reiner Worttaubheit (Bonvicini 1918, Liepmann u. Pappenheim 1914), wobei sie großen Wert auf die genaue Darstellung des autoptischen Befunds legten. Wie die Pioniere der Aphasiologie (Broca 1861, Wernicke 1874) nahmen die Wissenschaftler lokalisierte Zentren für die sprachlichen Äußerungen und das Sprachverständnis an, die relativ unabhängig und nur durch unidirektionale Bahnen miteinander verbunden seien (sog. Diagrammatiker). Diese vereinfachte Auffassung wurde jedoch auch kritisiert. So griff unter anderem Pierre MARIE 1906 die Konzeption von BROCA und WERNICKE, d.h. den Unterschied zwischen motorischer und sensorischer Aphasie, an, wobei er sich auf eine genaue 4 Reine Worttaubheit 49 Untersuchung des von BROCA beschriebenen Gehirns des Patienten Leborgne stützte (Marie 1906). Dabei stellte er fest, dass durch die Destruktion nicht nur der hintere Abschnitt der 3. Frontalwindung betroffen war, sondern auch die obere Temporalwindung. (Die computertomographische Untersuchung dieses Gehirns 1980 durch CASTAIGNE et al. [Castaigne et al. 1980] bestätigte Pierre MARIEs Beobachtung.) Pierre MARIE (Marie 1906) vertrat die Ansicht, dass jeder aphasische Patient einen gewissen Defekt im Wortverständnis aufweise und dass seine intellektuellen Fähigkeiten vermindert seien. Eine Läsion, die auf den hinteren Abschnitt der 3. Frontalwindung beschränkt sei, führe nur zu einer Anarthrie, also einer Sprachstörung rein motorischer Art, ohne Beeinträchtigung der Intelligenz, inneren Sprache und des Sprachverständnisses. Henry HEAD (Head 1926) entwickelte am Anfang des 20. Jahrhunderts im Anschluss an Jackson auf Grund von Tests eine dynamische Konzeption. Er hielt den Versuch, anatomische Veränderungen in verschiedenen Hirnbezirken als Zentren für Sprache, Lesen, Schreiben und Wortgedächtnis anzusehen, für verfehlt. Für ihn spielten mentale Funktionsstörungen bei Sprachstörungen eine wichtige Rolle. Er klassifizierte die Sprachstörungen deshalb in vier Gruppen: verbale, syntaktische, nominale und semantische. Auf die große Zahl von Publikationen über Sprachstörungen und deren Einteilung in Syndrome in den folgenden Jahrzehnten kann im Rahmen dieser Übersicht nicht eingegangen werden, weshalb auf die Arbeiten von Sir R. BRAIN vom Jahre 1961 (Brain 1961) und von BENSON und GESCHWIND (Benson u. Geschwind 1985) verwiesen sei. 4 Reine Worttaubheit 50 3DWKRJHQHVH Mehrere Untersuchungsergebnisse deuten jedoch daraufhin, dass der reinen Worttaubheit eine sprachunspezifische Störung zugrunde liegt. So vertreten zahlreiche Forscher die These, dass am Anfang der Sprachstörungen Probleme bei der elementaren akustischen Diskrimination insbesondere nur kurz dargebotener Laute bestehen. Andere Wissenschaftler sind jedoch der Ansicht, dass die reine Worttaubheit durch Störungen in den Sprachzentren des Gehirns entsteht. 5HLQH:RUWWDXEKHLWGXUFK6W|UXQJHQLQGHQ6SUDFK]HQWUHQ GHV*HKLUQV Die neuen Techniken (PET, kortikale Stimulation, CT, MRI, FMRI, s. 3.5) erlauben eine präzise Lokalisation am Lebenden und eine Korrelation mit den vorhandenen Sprachstörungen und lassen die Entwicklung einer Sprachstörung im Verlauf der Zeit verfolgen. Dank dieser Techniken sind neue Konzepte über die neuronalen Systeme und ihre funktionelle Bedeutung für Sprache und Gedächtnis entstanden. Es zeigte sich, dass nicht umschriebene Zentren für bestimmte sprachliche Leistungen zuständig sind, sondern dass eine synchronisierte Aktivität in ausgedehnten neuronalen Netzwerken von Regionen in der Hirnrinde, in den subkortikalen Kerngebieten und den Verbindungen dieser Bezirke in reziproker Weise stattfindet (Huber 2000). Dies ist möglicherweise der Grund, warum in der Literatur keine Einigkeit darüber besteht, wo die Schädigungen, die zu einer reinen Worttaubheit führen, genau in den Sprachzentren des Gehirns lokalisiert sind. Es ist sogar umstritten, ob eine bestimmte Aphasieform mit einer Schädigung eines bestimmten Ortes verbunden ist. SCHMIDT et al. sind der Überzeugung, dass die verschiedenen Aphasieformen auf abgrenzbaren Unterschieden der Läsionsorte im Gehirn beruhen. Die transkortikale sensorische Aphasie, bei der die Fähigkeit 4 Reine Worttaubheit 51 nachzusprechen zwar gut erhalten ist, wohingegen Defizite im Sprachverständnis ausgeprägt sind, beruhe auf Läsionen in der Nähe des linken perisylvischen Bereichs (Schmidt et al. 2001). HUBER et al. glauben dagegen, dass die alte Theorie, dass Aphasien mit lokalisierten Läsionen verbunden seien (verschiedene Aphasiesyndrome mit spezifisch lokalisierten Läsionen), nur teilweise ihre Gültigkeit behalten habe. Die Auffassung, dass die Zuordnung einer verlorenen Funktion auf einen einzigen umschriebenen geschädigten Bezirk möglich sei, müsse korrigiert werden (Huber et al. 2000). Auch OTSUKI et al. stellen beim Vergleich verschiedener wissenschaftlicher Beiträge fest, dass keine Beziehung zwischen dem Aphasietyp und dem pathologischen Befund herzustellen war (Otsuki et al. 1998). Die Worttaubheit kann einerseits mit bilateralen Läsionen der Temporalregionen verbunden sein (Auerbach et al. 1982), zum anderen mit Läsionen, die auf den linken Temporallappen beschränkt sind (Luria 1976). ELLIS u. YOUNG geben an, dass Läsionen im Temporallappen der linken Hemisphäre eine reine Worttaubheit verursachen können. Der linke Temporallappen kontrolliere bei den meisten rechtshändigen Menschen zahlreiche Sprachfunktionen (Ellis u. Young 1988). PRAAMSTRA et al. beschreiben einen Patienten, der nach einem linksseitigen temporoparietalen Infarkt worttaub wurde und nach einem rechtseitigen Infarkt auch das semantische Sprachverständnis verlor (Praamsta et al. 1991). PRAAMSTA et al. sind der Überzeugung, dass die Ursache der reinen Worttaubheit auf kombinierten Defekten beruht. Auch im Falle VON STOCKERTs war es zu einer bilateralen Läsion der Temporalregionen gekommen (von Stockert 1982). Nach einem Selbstmordversuch litt der 23-jährige Patient unter einer reinen Worttaubheit. Der Mann hatte sich eine Kugel durch den Kopf geschossen, und die Kugel hatte die Schädeldecke in unmittelbarer Nähe der rechten Temporalregion zwei cm oberhalb des Ohres durchbohrt, das Gehirn in ventrokaudaler Richtung 4 Reine Worttaubheit 52 durchdrungen und war in der linken temporoparietalen Region in der Nähe der Schädeldecke stecken geblieben (von Stockert 1982). Das rechte Temporalhorn des Seitenventrikels wurde verletzt und füllte sich mit Blut. Am nächsten Tag wurde eine Operation aufgrund eines progressiven temporalen Hämatoms durchgeführt. Während der folgenden Tage erlangte der Patient das Bewusstsein wieder, aber sein Zustand war weiterhin verwirrt. Der Patient war unkooperativ und reagierte inadäquat, wenn er angesprochen wurde. Langsam besserte sich der Zustand über mehrere Wochen. Anschließend blieben eine leichte linksseitige Ataxie, ein bilateraler oberer Gesichtsfeldausfall und eine Verständigungsschwierigkeit bestehen, die als primäre Worttaubheit diagnostiziert wurde (von Stockert 1982). Auch acht Monate später hatte sich der neurologische Zustand nicht gebessert. Noch immer bestanden die leichte Ataxie, der Gesichtsfeldausfall und eine schwere Störung des auditiven Wahrnehmungsvermögens, die dem Patienten eine Unterhaltung unmöglich machte (von Stockert 1982). Die Sprache des Patienten war schnell, aber nicht dysarthrisch. Bis zu einem gewissen Grade konnte er Sätzen folgen. Er hatte mehr Schwierigkeiten, einzelne Phoneme und Silben zu verstehen als Worte bzw. Sätze. Dies machte sich besonders dann bemerkbar, wenn er zwischen zwei Wörtern unterscheiden musste, die nur in einer einzigen Silbe verschieden waren (von Stockert 1982). Es stellte sich heraus, dass der Patient unter einer Agnosie für Bilder litt, aber nicht für wirkliche Objekte. Der Patient hatte auch keine Probleme, geschriebene Wörter zu verstehen. Beim Schreiben machte er einige Fehler, die als Aphasie interpretiert werden konnten. Rechnen war absolut normal. Das Zeichnen war langsam und ungeschickt, und der Patient verirrte sich in den kleineren Details. Er hatte Probleme bei der räumlichen Orientierung. Auch gelang es ihm kaum, Geräusche zu lokalisieren und deren Bedeutung zu verstehen (von Stockert 1982). 4 Reine Worttaubheit 53 Einsilbige Wörter waren für den Patienten leichter verstehbar als zweisilbige. Ein zweiteiliger Hörtest mit 25 ein- und zweisilbigen Objektnamen wurde mit dem Patienten durchgeführt. Von den 25 Paaren identifizierte er 9 rechtsseitig und 10 linksseitig korrekt. Dieses Resultat zeigte, dass die Verletzung offenbar keine Seite eindeutig stärker betraf. Die Verständnisschwierigkeit nahm bei längeren Wörtern zu, trat jedoch weniger stark bei Sätzen in Erscheinung (von Stockert 1982). Um die Rolle, die Phonologie und Semantik bei der reinen Worttaubheit spielen, festzustellen, führte VON STOCKERT zwei Untersuchungen durch. Zuerst wurden drei Listen von Silben, die aus der Struktur Konsonant-Vokal-Konsonant aufgebaut waren, dem Patienten über Kassettenrecorder mit Kopfhörer angeboten. Der Patient wurde aufgefordert, das Gehörte sofort zu wiederholen. Es stellte sich heraus, dass bei Variation des ersten Konsonanten sowie bei Variation des Vokals die Fehlerrate relativ gering war, jedoch bei Veränderung des zweiten Konsonanten hoch. VON STOCKERT schloss daraus, dass der Patient Probleme hatte, Gehörtes in eine richtige Reihenfolge zu bringen. Bei der zweiten Untersuchung sollte der Patienten ein-, zwei- und dreisilbige Wörter sowie Silbenkombinationen ohne Sinn nachsprechen. Auch in diesem Fall schaffte der Patient das Nachsprechen kürzerer Wörter wesentlich besser. Falls der Patient ein Wort nicht verstand, konnte er nicht sagen, ob das Gehörte ein Wort oder eine sinnlose Silbenkombination war. Das Nachsprechen der sinnlosen Silbenkombination gelang wesentlich schlechter als das der Wörter mit Sinn. Oft tauschte der Patient eine sinnlose Silbenkombination gegen ein ähnlich klingendes Wort mit Sinn aus. Offensichtlich erreichte den Patienten ein gestörtes phonemisches Muster und er versuchte, das wirkliche Wort in einem inneren Wörterbuch zu finden. Im Gegensatz zum Gesunden nahm seine Verständnisschwierigkeit mit der Anzahl der Silben zu (von Stockert 1982). Als der Patient an drei aufeinander folgenden Tagen mit identischen Silbenlisten geprüft wurde, nahm seine Störung nur unwesentlich ab. Daraus schloss VON STOCKERT, dass Kompensationsmechanismen auf einem höher geordneten 4 Reine Worttaubheit 54 Mechanismus auf semantischer Ebene beruhen und daher nicht bei einzelnen Wörtern oder Silben zu beobachten sind (von Stockert 1982). Insgesamt kam VON STOCKERT zu dem Schluss, die reine Worttaubheit würde durch Störungen höherer kortikaler Funktionen verursacht. Aus den Ergebnissen der auditiven Analyse1 folgerte VON STOCKERT, dass der zugrunde liegende Mechanismus der Erkrankung darin besteht, dass es nicht gelingt, akustische Stimuli in eine richtige Reihenfolge zu bringen (von Stockert 1982). 5HLQH :RUWWDXEKHLW GXUFK 6W|UXQJHQ GHU DXGLWLYHQ :DKUQHKPXQJ Verschiedene Untersuchungsergebnisse deuten daraufhin, dass der reinen Worttaubheit eine sprachunspezifische Störung im primären auditorischen Kortex zugrunde liegt. Bestimmte Frequenzspektren akustischer Stimuli können nicht erfasst werden. 8QWHUVXFKXQJHQYRQ'HQQLV33+,//,36 PHILLIPS (Phillips 1999) ist davon überzeugt, dass genaue Angaben über die Eigenschaften des Hörprozesses einen Einblick in pathologische Prozesse, insbesondere der reinen Worttaubheit, ermöglichen. Hierbei spielen die ]HLWDEKlQJLJHQ &KDUDNWHULVWLND GHV +|USUR]HVVHV, die die sich zeitlich verändernden Eigenschaften der gesprochenen Sprache widerspiegeln, eine wichtige Rolle (Phillips 1990). Die zeitabhängige Struktur der gesprochenen 1 Bei der auditiven Analyse geht es nicht allein um die genaue Unterscheidung ähnlicher Sprachlaute, sondern auch darum, aus dem Redestrom alle Laute in der richtigen Reihenfolge herauszuhören. 4 Reine Worttaubheit 55 Sprache kann auf drei Ebenen beschrieben werden, die sich durch ihre mit der Zeit verändernden Muster voneinander unterscheiden. Diese sind die sich zeitlich verändernden Wellenformen des Schalldrucks, die zeitabhängige Abstimmung der phonetisch bedeutsamen Elemente und die zeitabhängigen Variationen der Tonhöhe. Das zeitliche Muster dieses Ereignisses hängt von der Frequenz, die im Laut enthalten ist, ab (Phillips u. Farmer 1990). Die Wellenformen des Schalldrucks stellen die Feinstruktur sich zeitlich verändernder Variationen dar. Das zeitabhängige Muster hängt von der Frequenz, die im Laut enthalten ist, ab. So beinhaltet die Wellenform geflüsterter Vokale Periodizitäten hoher Amplituden, die die Pulsierungen der Glottis abbilden. Da ihre Frequenz bei 100 Hz liegt, ist die Schwingungsdauer fast 10 Millisekunden lang. Auf diesen Schwingungen überlagern sich die feineren Wellen, die die Formanten darstellen, sodass ein Vokal identifiziert werden kann. Die Formanten werden mit Hilfe des Vokaltrakts geformt. Diese Frequenzen liegen im kHzBereich, sodass die Schwingungsdauer im Bereich von Zehntelmillisekunden liegt. Die Konsonanten, insbesondere die Stopp-Konsonanten sind geräuschvoll: Sie bestehen aus gefilterten Breit-Band-Signalen mit unregelmäßigen Wellenformen (Phillips u. Farmer 1990). Die akustischen Ereignisse, die die Phoneme kennzeichnen, zeichnen sich durch einen langsameren Charakter aus (Phillips u. Farmer 1990). Die Frequenzveränderungen, die beispielsweise für die Diphthonge oder die Formantenübergänge typisch sind, haben ein zeitabhängiges Muster, das im Bereich von Millisekunden bis zu zehn Millisekunden liegt, zum Teil auch länger. Daraus folgt, dass die Stopp-Konsonanten besondere Beachtung verdienen (Phillips u. Farmer 1990). Die Stopp-Konsonanten beginnen mit einem kurzen „ Ausbruch“ , der ein nahezu kontinuierliches Spektrum zeigt, dessen höchste Schalldruckwerte abhängig sind von den Resonanzeigenschaften des oberen Vokaltrakts zur Zeit der Artikulation. In der folgenden Ausatmungsphase verändern sich die Schalldruckwerte, wenn die Mundhöhle ihre Form ändert. Was zwei Konsonanten, deren Artikulation am gleichen Ort stattfindet, voneinander 4 Reine Worttaubheit 56 unterscheidet, ist die Zeitdauer vom „ Ausbruch“ bis zum Beginn der stimmhaften Aussprache (voice onset time, VOT). Die wichtigen akustischen Eigenschaften von Stopp-Konsonanten sind ihre flüchtige Natur und ihre zeitabhängige Struktur (Phillips u. Farmer 1990). Der „ Ausbruch“ dauert nur ein paar Millisekunden, und die Formantenübergänge erstrecken sich über einige zehn Millisekunden. Interessanterweise können Stopp-Konsonanten auf der Grundlage eines Signals, dessen Dauer im Bereich von einigen zehn Millisekunden liegt, identifiziert werden. Die zeitabhängigen Variationen der Tonhöhe folgen den Pulsierungen der Glottis (Phillips u. Farmer 1990). PHILLIPS u. FARMER (1990) schließen aus dieser Darstellung, dass die sich zeitabhängig verändernden Wellenformen der Sprachlaute vollständig deren phonetische Identität bestimmen. Zum anderen stellen PHILLIPS u. Farmer (1990) fest, dass noch nicht genau bekannt sei, welche Ebene des Nervensystems für die zeitabhängige Darstellung benutzt wird, um die Sprachsignale zu verarbeiten. Studien über die Fähigkeit des Kochlearnervs, Sprachsignale zu codieren, haben sich hauptsächlich mit der Fähigkeit befasst, mit der Neuronen oder Neuronenpopulationen die sich zeitabhängig verändernden Wellenformen der Sprachlaute repräsentieren können. Psychologische Studien dagegen haben die sich zeitabhängig verändernden Wellenformen als weniger wichtig gesehen, sondern die eher groben spektralen Variationen in dem phonetisch relevanten zeitlichen Bereich (Phillips u. Farmer 1990). Die %HVWLPPXQJ GHU )UHTXHQ]OFNH ist ein Mittel, um den zeitabhängigen Verlauf des Hörvermögens zu bestimmen (Phillips 1999). Typischerweise werden dem Hörer zwei relativ lange (d.h. Hunderte von Millisekunden dauernde) Töne angeboten. Einer dieser Töne ist in seiner Mitte für kurze Zeit unterbrochen. Aufgabe des Hörers ist es zu bestimmen, welcher der beiden Töne dies ist. Bei der Untersuchung wird die kürzeste erkennbare Unterbrechung bestimmt. Hierbei können der der Frequenzlücke vorangehende Tonabschnitt und der ihr folgende gleiche (within-channel) oder unterschiedliche Frequenzen (between-channel) haben. Bei gleicher Frequenz ist eine Unterbrechung der Nervenimpulse der 4 Reine Worttaubheit 57 entsprechenden Hörnervenfasern zum Zeitpunkt der Frequenzlücke erkennbar (Phillips 1999). Ist die Bandbreite der Trägerwellen hoch und ihre Amplitude signifikant über dem Schwellenwert, so werden Frequenzlücken von 2 bis 3 msec erkannt. In verschiedenen Experimenten untersuchte PHILLIPS, welche Wirkungen Geräusche, die eine Frequenzlücke abgrenzen, auf das Erkennungsvermögen der Lücke haben, und zwar sowohl in der Between-Channel- als auch in der WithinChannel-Alternative (Phillips 1997). In einem Versuch wurden die Personen Paaren engbandiger Geräuschfolgen ausgesetzt. Der der Frequenzlücke vorangehende Ton hatte eine Frequenz von 2 kHz und die Frequenz des folgenden wurde variiert. Die Erkennung der Frequenzlücke gelang sehr schlecht, wenn die spektrale Unterscheidung der beiden Geräusche, die die Frequenzlücke begrenzten, hoch war. Dies legt die Vermutung nahe, dass die Erkennung der Frequenzlücke sich verschlechtert, wenn hierzu ein Vergleich der Aktivitäten in verschiedenen Wahrnehmungskanälen erforderlich ist. In einem anderen Experiment zeigte sich, dass eine Verlängerung des der Frequenzlücke vorangehenden Tones ihre Erkennung in der Between-Channel-Alternative verschlechterte. Insgesamt zeigten die Versuchsergebnisse, dass der Erkennungsvorgang, der eine zeitabhängige Korrelation der Aktivitäten in verschiedenen Wahrnehmungskanälen erfordert (Between-Channel-Alternative), sich deutlich von der Within-Channel-Alternative unterscheidet. Die Bestimmung der Frequenzlücke erfordert es, eine Unterbrechung zu erkennen und ihren Zeitpunkt zu bestimmen. Die Between-Channel-Alternative ist aus zwei Gründen von besonderem Interesse. Zum einen kann sie neue Einblicke gewähren in die Mechanismen der Unterscheidung beim Hören von Sprache. Der Fluss der Sprache wird von Zeitabschnitten unterbrochen, in denen die Klänge von sehr niedriger Amplitude sind oder sogar von vollständiger Stille. Die wichtigsten „ Frequenzlücken“ der Sprache sind die phonetisch bedeutsamen - sie lassen Stopp-Konsonanten erkennbar werden. Eine über 30 msec dauernde Pause wird als lang erkannt. Zum anderen können die beim Hören wichtigen räumlichen 4 Reine Worttaubheit 58 Strukturen erforscht werden. So gibt es Hinweise darauf, dass wenigstens zwei räumliche Kanäle beim Hören von Bedeutung sind (linke und rechte Hemisphäre). Hörgestörten Kindern fällt es schwer, eine Frequenzlücke zu erkennen und sie einzuordnen. Die Ergebnisse des mit Hilfe nonverbaler Stimuli durchgeführten Tests korrelieren mit dem Ausmaß der Hörstörung. Wird das Hörvermögen trainiert, so führt dies zu einer Reduktion der Sprachstörung. Es ist daher wahrscheinlich, dass bestimmte Hörstörungen mit Störungen der Sprachentwicklung bei Kindern verbunden sind. Anhand der Ergebnisse eines weiteren Versuchs stellte PHILLIPS fest, dass der SULPlUH DXGLWRULVFKH .RUWH[ wahrscheinlich eine wichtige Rolle bei der Unterscheidung verschiedener Sprachelemente spiele. Bei 94 Neuronen des primären auditorischen Kortex der Katze bestimmte PHILLIPS die Genauigkeit, mit der die Nervenzellen auf Töne oder Geräusche in Form von elektrischen Spikes2 reagierten (Phillips 1990). Die Genauigkeit der Spike-Reaktion wurde mit Hilfe der Standardabweichung der Latenzzeit der ersten Spike-Antwort bestimmt. Die Stimuli wurden systematisch in Frequenz, Amplitude und/oder Wiederholungsrate variiert. Innerhalb eines Neurons war die Variabilität der ersten Spike-Antwort zumeist proportional zu ihrer durchschnittlichen Latenzzeit. In den Fällen, in denen eine systematische Beziehung zwischen der Genauigkeit des Antwortverhaltens und der durchschnittlichen Latenzzeit bestand, ergab sich eine lineare Korrelation bei bis zu 90% der Varianz. Bei allen 94 Neuronen lagen die minimalen Latenzzeiten im Bereich von 0,15-1,5 msec. Diese Daten deuten darauf hin, dass das Antwortverhalten auf Reize in Form von Spikes im auditorischen Kortex eine Genauigkeit zeigt, die nur wenig schlechter ist als die in den Fasern des Hörnervs (Phillips 1990). 2 Spike: Spitze, Kurvenzacke. Spikes können während der Reaktion auf einen Stimulus von der Oberfläche einer Nervenstruktur abgeleitet werden. Es sind spitze Potenziale mit steil ansteigender und abfallender erhöhter Amplitude. 4 Reine Worttaubheit 59 Aus dem zeitlichen Abstand von neuronalen Antworten auf zwei in einem kurzen Abstand folgende Reize folgt die wahrzunehmende Unterscheidbarkeit dieser Laute (Phillips 1990). PHILLIPS stellte fest, dass die Höhe des hierzu erforderlichen zeitlichen Abstands nicht mit Sicherheit bekannt sei (Philipps 1990). Aus den Untersuchungen an den 94 Neuronen des primären auditorischen Kortex der Katze schätzt PHILLIPS, dass ein Abstand zwischen 0,45 und 4,5 Millisekunden für eine wahrzunehmende Unterscheidbarkeit erforderlich sei. Die Neuronen mit den präzisesten Spike-Reaktionen erzeugten gewöhnlich Werte zwischen 0,15 und 1,5 Millisekunden (Philipps 1990). PHILLIPS stellte fest, dass bei menschlichen Hörern die Auflösung wahrscheinlich auch von der Konfiguration des Stimulus und der gestellten Aufgabe abhängig sei (Phillips 1990). Es bestünde jedoch Übereinstimmung darin, dass im einfachsten Fall der Unterscheidung von zwei zeitlich getrennten Lauten die Auflösung etwa bei 1 bis 2 Millisekunden liegen würde (Albert u. Bear 1974, Auerbach et al. 1982), ein Bereich der nahe an dem in PHILLIPS Versuch ermittelten liegt. Die Genauigkeit des Antwortverhaltens der kortikalen Neuronen reicht aus, um den zeitabhängigen Verlauf einzelner Sprachkomponenten darzustellen. Dies lässt darauf schließen, dass der primäre auditorische Kortex bei der Unterscheidung verschiedener Sprachelemente eine wichtige Rolle spielt. Auf jeden Fall zeichnet sich die beste neuronale Population durch ihre schnelle und genaue Reaktionsfähigkeit aus, welche die Unterscheidung vermittelt, und es ist anzunehmen, dass der Prozess, welcher die wahrnehmbare Unterscheidung aufzeichnet, Zugriff auf diese Neuronenpopulation hat (Phillipps 1990). Unter einer UHLQHQ:RUWWDXEKHLW leiden diejenigen Patienten, deren sprachliche Unterscheidungsfähigkeit trotz einer erhaltenen, audiometrisch messbaren Wahrnehmungsfähigkeit stark vermindert ist (Phillips u. Farmer 1990). Die reine Worttaubheit ist eine seltene Störung der auditorischen Wahrnehmungsfähigkeit, 4 Reine Worttaubheit 60 die offenbar auf sprachliche Laute beschränkt ist (Phillips u. Farmer 1990). Lesen, schreiben, sprechen und die Unterscheidung nichtsprachlicher Laute sind typischerweise erhalten, aber der Patient ist nicht in der Lage, gesprochene Sprache zu unterscheiden. Bei reiner Worttaubheit sind somit die Wahrnehmung und die Unterscheidungsfähigkeit nichtsprachlicher Laute intakt. Weitet sich die Störung auf nichtsprachliche Laute aus, wird die Krankheit als auditorische Agnosie bezeichnet. Fälle von auditorischer Agnosie haben fast immer eine Beeinträchtigung der Wahrnehmung von Sprachlauten, obwohl die Erkennung der Sprache fast intakt bleiben kann (Phillips u. Farmer 1990). Diesen beiden Gruppen kann die kortikale Taubheit gegenüber gestellt werden, die einen vollständigen Wahrnehmungsverlust beinhaltet (Phillips u. Farmer 1990). Die reine Worttaubheit ist beschränkt auf eine Läsion des auditorischen Kortex (Phillips u. Farmer 1990). Dies macht die Erkrankung aus zwei Gründen interessant. Zum einen bedeutet es, dass eine spezifisch linguistische Funktion einer klassischerweise sensorischen Hirnregion zugeschrieben wird. Zum anderen können die Patienten der Forschung wichtige Daten liefern, mit deren Hilfe die Funktionen des auditorischen Kortex bestimmt werden könnten (Phillips u. Farmer 1990). Patienten mit Läsionen des primären auditorischen Kortex erreichen bei ClickFusions-Tests3 Werte im Bereich von 15 bis 30 Millisekunden (Auerbach et al. 1982). Aus diesen Messdaten scheint unmittelbar zu folgen, dass der primäre auditorische Kortex die erreichbare zeitabhängige Auflösung vermittelt (Phillips 1990) und der Verlust des primären auditorischen Kortex die zeitabhängige Auflösung um eine Größenordnung verschlechtert. 3 Hörtest zur Frequenzauflösung. Es wird festgestellt, ab welchem Zeitabstand zwei in unterschiedlichen Intervallen dargebotene Töne getrennt wahrnehmbar sind. 4 Reine Worttaubheit 61 Zwei Studien haben rein worttaube Patienten bezüglich ihrer Fähigkeit untersucht, VOT-Zeiten zu unterscheiden (Phillips u. Farmer 1990). Ein an reiner Worttaubheit erkrankter Patient zeigte eine gestörte Unterscheidungsfähigkeit von aus Konsonant und Vokal bestehenden Silben, die sich in einer VOT-Zeit von 20 msec unterschieden, auch wenn die Silben VOT-Zeiten hatten, die nahe den Werten lagen, die die phonetische Grenze zwischen den wichtigen stimmhaften und stimmlosen Stopp-Konsonanten bestimmten. Vergleichbare Werte zeigte ein anderer Patient mit einer eher generalisierten kortikalen Hörstörung. Auch diese Ergebnisse deuten also daraufhin, dass der reinen Worttaubheit eine zeitabhängige Verarbeitungsstörung zugrunde liegt (Phillips u. Farmer 1990). Die reine Worttaubheit, die bisher als eine Störung höherer Ordnung angesehen wurde, ist somit offenbar eine grundlegende Störung der Wahrnehmung (Phillips 1995). Während die reine Worttaubheit früher als Agnosie bezeichnet wurde (Teuber 1968), muss sie mittlerweile wahrscheinlich als eine notwendige Folge einer Wahrnehmungsstörung nahe beieinander liegender akustischer Ereignisse gelten. (Phillips 1995). Dennoch kann die Erkennung von Sprache als eine Hierarchie von Prozessen angesehen werden, die mit der Erkennung des Klangs beginnt, mit der Unterscheidung des Klangs fortschreitet, ihn geeigneten phonetischen Markern zuordnet, den Klang als ein Wort erkennt und schließlich seine Bedeutung aus dem semantischen Gedächtnis zuordnet. Das Ausmaß, in welchem alle diese Prozesse voneinander unterscheidbar sind, ist eine empirische Frage (Phillips 1995). :HLWHUHUHOHYDQWH8QWHUVXFKXQJVHUJHEQLVVH NOTOYA et al. stellten einen Fall vor, bei dem die reine Worttaubheit offenbar auf einer Wahrnehmungsstörung der Lautheit und einer gestörten zeitabhängigen Auflösung des Gesprochenen beruhte (Noyota et al. 1991). Die japanische Patientin litt unter einer reinen Worttaubheit in Verbindung mit einem Landau- 4 Reine Worttaubheit 62 Kleffner-Syndrom4. Erste Störungen machten sich im Alter von vier Jahren bemerkbar. Im Alter von 20 Jahren hatte sich die Hörstörung nicht signifikant gebessert. Die Patientin konnte weder Vokale noch aus Vokalen und Konsonanten bestehende Silben erkennen. Bei den Konsonanten konnte sie zwischen stimmlosen und stimmhaften unterscheiden, aber sie hatte große Probleme, die Konsonanten innerhalb jeder Gruppe zu identifizieren (Notoya et al. 1991). Die Patientin war zunächst ein gesundes Kind mit normaler motorischer Entwicklung. Ihre ersten Worte sprach sie mit 1 Jahr und 6 Monaten. Nach Erklärung ihrer Eltern verfügte sie über ein normales Sprachverständnis, Vokabular und eine regelrechte Satzbildung. Ihre Sprachentwicklung war schneller als die ihrer jüngeren Geschwister. Zu Beginn des 4. Lebensjahres begannen ihre Eltern, Zweifel an ihrem Hörvermögen zu entwickeln, weil sie ihren Kopf nicht zur Seite wandte, wenn sie beim Namen gerufen wurde. Sie versuchte oft, die Worte zu verstehen, indem sie von den Lippen ablas (Notoya et al. 1991). Im Alter von 4 Jahren und 3 Monaten war sie wegen eines Verkehrsunfalls stationär behandelt worden. Zu dieser Zeit war sie bewusstseinsklar, aber ihr EEG zeigte Abnormitäten. Es wurde jedoch berichtet, dass ihr EEG bereits Veränderungen vor dem Unfall gezeigt hatte. Im Alter von 5 Jahren hatte sie mehrere generalisierte Krampfanfälle. Das EEG zeigte zunächst Spike-and-Wave-Wellen. Als die Patientin zwölf Jahre alt war, wechselte es in den Normalzustand. CT und MRI waren immer normal gewesen (Notoya et al. 1991). Als die Patientin im Alter vom zwanzig Jahren NOTOYA et al. vorgestellt wurde, schienen ihr sprachlicher Ausdruck und ihre Artikulation 4 Das Landau-Kleffner-Syndrom ist eine Störung, bei der ein Kind mit zuvor normaler Sprachentwicklung sowohl rezeptive als auch expressive Sprachfertigkeiten verliert, wobei jedoch die allgemeine Intelligenz erhalten bleibt; der Beginn der Störung ist begleitet von paroxysmalen Auffälligkeiten im EEG (fast immer im Temporallappenbereich, gewöhnlich bilateral, jedoch oft mit ausgedehnteren Veränderungen) und in der Mehrzahl der Fälle auch von epileptischen Anfällen. 4 Reine Worttaubheit 63 intakt zu sein, jedoch war ihr Sprachverständnis stark beeinträchtigt. Vor längerer Zeit hatte die Patientin in Verbindung mit dem Verlust des Sprachverständnisses ihre Sprechweise verändert. Sie sprach in kurzen Sätzen und zeigte Artikulationsprobleme. Zunächst war die Sprache der Patientin flüssig gewesen mit normaler Prosodie und Artikulation sowie korrekter Grammatik. Die Länge der Phrasen und der Wortschatz schienen normal und ohne verbale phonematische Paraphasien zu sein. Die Bennennung gesehener Objekte war vollständig und korrekt. Das Verständnis auch einfacher Wörter war dagegen sehr gering (5%). Die Wiederholung einzelner Wörter und Phrasen war ebenfalls stark beeinträchtigt (Notoya et al. 1991). Es waren mehrere Hörtests durchgeführt worden. Im Alter von 20 Jahren wurden jedem Ohr reine Töne präsentiert. Die Hörschwelle des linken Ohrs lag bei 15 dB und die des rechten Ohrs bei 14 dB. Im Alter von 7 Jahren waren die evozierbaren Hirnstammpotenziale getestet worden. Sie hatten sich normal gezeigt. Audiometrische Tests waren im Alter von 7, 12, 16 und 20 Jahren durchgeführt. Hierbei war die Patientin kaum in der Lage, die Stimuli zu unterscheiden. Ihre Sprachunterscheidungsfähigkeit lag zunächst unter 30%, verbesserte sich jedoch im Alter von 20 Jahren auf 45%. Die Fähigkeit der Patientin, nichtsprachliche Laute zu erkennen, wurde im Alter von 6 und 20 Jahren geprüft. Die Patientin musste Bildern die passenden Klänge zuordnen, z.B. einer Violine den Klang einer Geige. Der Patientin gelang dies in allen Fällen. Im Alter von 18 Jahren wurde ein phonemischer Unterscheidungstest nach Auerbach et al. (1982) durchgeführt. Die Patientin musste zunächst die Vokale /a, e, i, o, u/ identifizieren. Dies gelang ihr vollständig. Bei der Unterscheidung von StoppKonsonanten jedoch hatte sie große Schwierigkeiten (Notoya et al. 1991). Dieses Resultat stimmt mit den Untersuchungsergebnissen, die PHILLIPS (1990) von Patienten mit reiner Worttaubheit erhielt, überein. 4 Reine Worttaubheit 64 NOTOYA et al. (1991) sind überzeugt, dass ihre Patientin unter einer reinen Worttaubheit leidet. Sie stellen fest, dass in der japanischen Sprache die Vokale etwa 100 bis 200 Millisekunden andauern. Das Schwirren der stimmhaften StoppKonsonanten (/b/, /d/, /g/) reicht von 94 bis zu 113 Millisekunden, der Ausbruch der stimmlosen Stopp-Konsonanten (/p/, /t/, /k/) liegt bei 10 bis 42 Millisekunden. NOTOYA et al. sind überzeugt, dass ihre Patientin die kurzzeitigen Differenzen zwischen Stopp-Konsonanten nicht unterscheiden kann – zum einen aufgrund einer Insensibilität bezüglich der Lautheit, zum anderen aufgrund eines Defektes in der zeitabhängigen Auflösung (Notoya et al. 1991). Auch SAFFRAN et al. (1976) stellten einen Patienten vor, der unter reiner Worttaubheit litt. Wie bei NOTOYA et al. hatte der Patient insbesondere Probleme in der Diskriminierung von verbalen Verschlusslauten (StoppKonsonanten). Dies weist nach SAFFRAN et al. daraufhin, dass die Störung auf einem vorsprachlichen Niveau beruht (Saffran et al. 1976). Bei einem von OTSUKI et al. beschriebenen Fall reiner Worttaubheit war eine kortikale Atrophie feststellbar, die hauptsächlich in der linken oberen Temporalregion lokalisiert war, d.h. dem Ort der primären Hörrinde (Otsuki et al. 1998). Es handelte sich um einen 67-jährigen rechtshändigen Patienten, der innerhalb eines Zeitraums von neun Jahren eine reine Worttaubheit entwickelte, ohne dass andere Minderungen geistiger Fähigkeiten auftraten. Das MRI zeigte eine kortikale Atrophie insbesondere in der linken oberen Temporalregion. Die Prüfung des Hörvermögens ergab eine schwere Störung im Unterscheidungsvermögen von Silben oder Wörtern der japanischen Sprache trotz einer ausreichenden Hörschärfe. Der Patient zeigte ebenfalls eine Beeinträchtigung in der zeitabhängigen Hörunterscheidung, insbesondere im Click-Fusions-Test und im Click-Zähltest. 4 Reine Worttaubheit 65 BADDELEY u. WILSON (1991) beschrieben einen Fall von Worttaubheit, bei dem die Fähigkeit der Patientin, Wörter zu wiederholen eingeschränkt war, obwohl die audiometrisch und tympanometrisch gemessenen Werte im Normbereich lagen. Auch hatte die Patientin Schwierigkeiten, Laute aus der Umgebung zu erkennen. Ihr phonologisches visuelles Gedächtnis und ihr auditorisches Gedächtnis waren nur geringfügig beeinträchtigt. Baddeley und Wilson vermuteten daher, dass bei der Patientin grundlegende auditive Wahrnehmungsprozesse gestört waren: Es werde angenommen, dass die Patientin eine Hörstörung habe, die vor dem phonologischen Erkennen liege (Baddeley u. Wilson 1991). Die Ergebnisse all dieser Untersuchungen stimmen offenbar mit der Aussage von Phillips überein, dass die reine Worttaubheit auf einer grundlegenden zeitabhängigen Störung im primären auditorischen Kortex beruhen würde. =XVDPPHQIDVVXQJXQG6FKOXVVIROJHUXQJHQ Die reine Worttaubheit ist ein Syndrom, das sich aus einem vollständigen initialen Hörverlust (Rindentaubheit) heraus entwickeln kann. Charakteristisch für die reine Worttaubheit sind eine Beeinträchtigung des auditiven Sprachverständnisses, des Nachsprechens und des Diktatschreibens, wobei die Spontan- und Schriftsprache besser erhalten bleiben (Engelien 2001). Verschiedene Untersuchungsergebnisse deuten daraufhin, dass der reinen Worttaubheit eine sprachunspezifische Störung im primären auditorischen Kortex zugrunde liegt. So zeigten die Untersuchungen von PHILLIPS, dass die Genauigkeit des Antwortverhaltens der Neuronen des primären auditorischen Kortex ausreicht, um den zeitabhängigen Verlauf einzelner Sprachkomponenten darzustellen (Phillips 1990). 4 Reine Worttaubheit 66 Zudem weisen mehrere Befunde von PHILLIPS daraufhin, dass die reine Worttaubheit eine Manifestation einer basalen zeitlichen Verarbeitungsstörung auf vorsprachlichem Niveau ist, d.h. dass der reinen Worttaubheit eine sprachunspezifische Störung zugrunde liegt. So ist die Wahrnehmung der Frequenzlücke eine wichtige vorsprachliche Grundlage zum Verstehen von Sprache, und insbesondere Stopp-Konsonanten sind aufgrund ihrer Frequenzlücke erkennbar. PHILLIPS stellte fest, dass das Wahrnehmungsvermögen langer Vokale bilaterale Läsionen des primären auditorischen Kortex übersteht, jedoch das von Stopp-Konsonanten nicht (Phillips 1990). Da Stopp-Konsonanten aufgrund ihrer Frequenzlücken erkennbar werden, folgt, dass der primäre auditorische Kortex beim Erkennen der Frequenzlücke (und damit der Wahrnehmung von Sprache) eine entscheidende Rolle spielt. Dies weist zudem daraufhin, dass die Störung auf einem vorsprachlichen Niveau beruht: Bestimmte Frequenzspektren akustischer Stimuli können nicht erfasst werden. Die Ergebnisse von PHILLIPS wurden durch andere Untersuchungsbefunde bestätigt, u.a. die von NOTOYA et al., SAFFRAN et al., OTSUKI et al. und BADDELEY u. WILSON (Notoya et al. 1991, Saffran et al. 1976, Otsuki et al. 1998, Baddeley u. Wilson 1991). Ist das primäre Hörfeld geschädigt, so verfügt der zerebrale Kortex offenbar nicht mehr über eine akustische Darstellung von Signalen mit der entsprechenden zeitlichen Struktur, die für eine normale Spracherkennung erforderlich ist. Neuronale Antworten auf akustische Signale sind zeitlich weniger differenziert. Dies führt dazu, dass das Erkennungsvermögen der Patienten für die entsprechenden Laute abnimmt. 5 Legasthenie 67 /HJDVWKHQLH $OOJHPHLQH*UXQGODJHQ %HJULIIVHUNOlUXQJHQXQG'HILQLWLRQHQ Der Begriff der Legasthenie wurde 1916 von dem Neurologen und Psychiater P. RANSCHBURG geprägt. Er wird gleichbedeutend mit der XPVFKULHEHQHQ/HVH 5HFKWVFKUHLE6FKZlFKH/56 benutzt (Warnke 1996). Legasthenie ist die Bezeichnung für Schwächen beim Erlernen von Lesen, Schreiben und Rechtschreiben, die weder auf eine allgemeine Beeinträchtigung der geistigen Entwicklung, noch auf unzulänglichen Unterricht zurückgeführt werden können5. Probleme beim Erlernen von Lesen und Rechtschreiben werden derzeit bei mindestens 15% aller Schulkinder beobachtet. Dies kann aber nicht als Zeiterscheinung gesehen werden: Bereits im Jahr 1896 wurde von dem englischen Arzt MORGAN ein Bericht über einen normalbegabten Jugendlichen veröffentlicht, der das Lesen nicht erlernen konnte. MORGAN prägte den Begriff der „ angeborenen Wortblindheit“ , um diese Lernstörung von anderen bereits bekannten Hirndefekten zu unterscheiden. Berühmte Beispiele für die umschriebene Lese-Rechtschreib-Schwäche sind Winston CHURCHILL, Albert EINSTEIN und Hans Christian ANDERSEN. Das ICD-106 unterscheidet die isolierte Rechtschreibstörung (lediglich die Rechtschreibung, aber nicht das Lesen ist beeinträchtigt) und die Lese- 5 Entsprechend ist die Legasthenie (Dyslexie, umschriebene Lese-Rechtschreibschwäche) unter Ziffer F81.0 in der Internationalen Klassifikation der Krankheiten von 2000 (ICD 10) definiert. 6 Ab 1. Januar 2000 ist nach dem Sozialgesetzbuch V (durch das Gesundheitsstrukturgesetz geänderter ³295 SGB V) die Pflicht zur Diagnosenverschlüsselung nach ICD 10 (International 5 Legasthenie 68 Rechtschreib-Störung (das Lesen und fakultativ auch die Rechtschreibung sind beeinträchtigt). Abzugrenzen ist die „ erworbene Wortblindheit“ (vgl. 3.4.5). Diese wird diagnostiziert, wenn Lesen und Schreiben bereits erlernt sind, aber durch Erkrankungen bzw. Verletzungen bestimmter Hirnregionen verloren gehen. Diese Störungen werden als Alexie (Verlust des Lesens) oder Agraphie/Dysgraphie (Verlust/ Störung des Schreibens) bezeichnet (Warnke1990). Ungenau ist es, wenn allgemein von Lese-Rechtschreib-Schwäche die Rede ist. Hiermit kann entweder die Legasthenie gemeint sein oder eine ÄDOOJHPHLQH/HVH 5HFKWVFKUHLE6FKZlFKH³ Diese allgemeine Lese-Rechtschreib-Schwäche bezeichnet als Oberbegriff alle Formen von Problemen bei Lesen, Schreiben und Rechtschreiben, auch wenn sie zum Beispiel durch Minderbegabung, organische Behinderung oder psychische Erkrankung entstehen. Für die pädagogische Förderung ist eine eng gefasste Definition nicht notwendig, da alle Kinder ihren Fähigkeiten entsprechend unterstützt werden sollten, aber im Sinne einer einheitlichen Verwendung von Begriffen ist die Unterscheidung wichtig. Grundsätzlich lässt sich die Legasthenie als ein Syndrom auffassen, d.h. ein gemeinsames Auftreten Erscheinungsbild führen. von Symptomen, Kennzeichnend die für zu die einem bestimmten umschriebene Lese- Rechtschreib-Schwäche ist die Problematik beim Erlernen von Lesen, Schreiben und Rechtschreiben, die weder auf eine allgemeine Beeinträchtigung der geistigen Entwicklung, noch auf unzulänglichen Unterricht zurückgeführt werden kann, bei durchschnittlicher oder oft überdurchschnittlicher Intelligenz. Das Missverhältnis zwischen den Leistungen beim Lesen und Schreiben sowie den übrigen Lernleistungen ist offensichtlich. Diese Schwierigkeiten sind weder erziehungs- noch milieubedingt. Sie sind weder auf eine allgemeine Beeinträchtigung der geistigen Entwicklung noch auf einen unzulänglichen Classification of Diseases – Internationale Klassifikation der Krankheiten, Verletzungen und Todesursachen) wirksam geworden. 5 Legasthenie 69 Unterricht zurückzuführen. Eine Legasthenie ist häufig in einer Familie mehrfach zu beobachten und das ganze Leben lang anhaltend. Auch nach der Verbesserung der Lese- und Recht-Schreib-Leistung wirkt die partielle Lernschwäche fort (Bundesverband Legasthenie e.V. http://www.legasthenie.net 18.6.2001). Zusammenfassend lässt sich somit feststellen, dass Legasthenie eine Schwäche beim Erlernen von Lesen, Schreiben und Rechtschreiben ist. Oftmals besteht eine Unsicherheit im Umgang mit der geschriebene Sprache ein Leben lang (Forschungsgruppe Lese-Rechtschreibstörung http://www.kjp.uni-marburg.de/kjp. Legast/index.htm 18.6.2001). Weil sowohl in der Schule als auch in unserer Gesellschaft das Lesen und Rechtschreiben einen sehr hohen Stellenwert besitzen, entstehen aufgrund dieser Schwäche oft sehr große Probleme. Vor allem von Seiten der Eltern und der Lehrerinnen und Lehrer ist eine Förderung der Stärken dieser Kinder und das Verständnis für ihre so oft vergeblichen Bemühungen enorm wichtig. 7\SLVFKH6\PSWRPH Eine umschriebene Lese-Rechtschreib-Schwäche zeigt sich in der Regel deutlich zwischen dem zweiten und vierten Schuljahr. Die folgende Übersicht soll nur als Aufzählung von möglichen Symptomen verstanden werden. Die beschriebenen Fehler können einzeln oder in Kombination auftreten. Typisch für die LRS sind alle gravierenden Probleme beim Lesen und/oder Rechtschreiben im Vergleich zu Leistungen gleichaltriger Kinder. Das Lesen kann stockend, buchstabierend oder flüchtig und sehr fehlerhaft sein. Buchstaben und Worte werden ausgelassen, falsch serialisiert (z.B. Metathese) 5 Legasthenie 70 oder durch willkürliche Hinzufügungen verändert. Es können folgende häufig auftretende Fehler unterschieden werden (Warnke 1992): • Verwechslungen von Buchstaben im Wort wie b-d, p-q, u-n, • Umstellungen von Buchstaben innerhalb eines Wortes, • Auslassungen, • Einfügungen, • Regelfehler. Häufig kommen Verwechslungen detailähnlicher Buchstaben wie t und f vor. Es treten auch oft Richtungsverwechslungen wie d/b/p/q auf. (Altmann 2001): Bei b/d und p/q handelt es sich um vertikalaxiale Spiegelungen. Die Buchstaben b und d sind deshalb besonders schwierig auseinander zu halten, weil sie sowohl visuell ähnlich sind als auch phonologisch sehr ähnliche Laute bilden. Wichtig ist, dass es meist nicht eine mangelnde visuelle Differenzierung ist, die die Buchstabenverwechslungen verursacht. So werden etwa die Buchstaben n und u nur selten miteinander verwechselt, obwohl sie visuell sehr ähnlich sind. Da diese Buchstaben aber Laute abbilden, die wenig Ähnlichkeit mit einander haben, können sie auch besser auseinander gehalten werden (Tursky 2001). Umgestellt werden bevorzugt visuell ähnliche Buchstaben (z.B. Trum statt Turm) (Tursky 2001). Ausgelassen werden insbesondere Vokale (Altmann 2001). Eingefügt werden häufig nur gering visuell bzw. auditorisch wahrnehmbare Konsonanten (z.B. Koft statt Kopf) (Müller 2001). Ursache der Regelfehler ist das Nichtbeachten spezifischer Rechtschreibregelungen (Schpiegel statt Spiegel, Bletter statt Blätter, Ferkäuferin statt Verkäuferin), die in der deutschen Orthographie häufig vorkommen (May 1995). Die ordnungsgemäße Steuerung des Blicks entlang der Zeile von Wort zu Wort ist eine wichtige Voraussetzung für das Erlernen der Schriftsprache. Obwohl neuromotorische Störungen bislang nicht nachgewiesen werden konnten, zeigte eine Untersuchung von über 1.000 Kindern, dass bis zu 50% der Legastheniker 5 Legasthenie 71 Störungen in der Kontrolle der Blickmotorik haben (Beratung Blicklabor http://www.brain.uni-freiburg.de/bbl 18.6.2001) (vgl. 5.2.3). In Fällen, in denen ein Zusammenhang mit den Augenbewegungen besteht, berichten die Kinder auf Anfrage oft, dass sie beim Lesen die Buchstaben auf dem Papier nicht stillstehend, sondern sich bewegend sehen (Beratung Blicklabor http://www.brain.uni-freiburg.de/bbl 18.6.2001). Außerdem verlieren die Kinder oft die Textstelle, überspringen häufig Zeilen und übersehen einzelne Worte oder Wort-Teile. Charakteristisch für eine Legasthenie sind Häufigkeit und hohe Stabilität von Fehlern. Selbst nach wiederholtem Üben kann das Kind meist nicht selbst erkennen, ob das Wort richtig oder falsch gelesen bzw. geschrieben ist. Es gibt aber auch Kinder mit Legasthenie, die nicht diese typischen Fehler machen. Bei Legasthenie finden sich häufig auch allgemeine visuelle und/oder akustische Wahrnehmungsstörungen, visuelle Aufmerksamkeitsprobleme, Rhythmusstörungen und Probleme der Grob- und Feinmotorik. Sie können eventuell bereits im Vorschulalter beobachtet werden, dürfen aber nicht mit Aufmerksamkeitsstörungen und Hyperaktivität verwechselt werden. Wird die Legasthenie nicht rechtzeitig erkannt und das Kind nicht zusätzlich gefördert, geht den Kindern der Spaß an der Schule schnell verloren. Es treten Verhaltensstörungen auf, und die Persönlichkeitsentwicklung der Kinder kann behindert werden. Diese sekundären Erscheinungen werden oft mit den Ursachen der Legasthenie verwechselt. 3DWKRJHQHVH Bei jedem Kind ist eine individuelle Kombination von verschiedenen Faktoren in unterschiedlicher Gewichtung für die LRS verantwortlich (Schroth 1996). 5 Legasthenie 72 Erbfaktoren scheinen in vielen Fällen eine Rolle zu spielen. Verbindungen mit Chromosom 6 und 15 wurden nachgewiesen, andere werden zur Zeit erforscht. Derzeit gibt es keinen genetischen Diagnose-Test. Es konnten Hinweise für eine Reihe von Fehlleistungen gefunden werden, die mit Lese-Rechtschreib-Schwächen verbunden sind. Darunter finden sich phonologische Schwächen, Schwierigkeiten bei der zeitlichen Verarbeitung visueller und auditorischer Reize sowie deren Abhängigkeit von Aufmerksamkeitsprozessen und Schwächen der motorischen Steuerung. So stehen Unregelmäßigkeiten der Blicksteuerung und binokuläre Instabilität mit LeseRechtschreib-Schwächen in Verbindung. Sowohl Seh- als auch Hörschwächen können bei der Entstehung von LeseRechtschreib-Schwächen ein Rolle spielen. Einige neuroanatomische Befunde lassen sich zur Stützung der Hypothese einer visuellen bzw. auditiven Pathogenese der LRS anführen. *HQHWLVFKH)DNWRUHQ Seit den ersten Fallbeschreibungen wurde ein familiär gehäuftes Auftreten der Störung beschrieben. Mehrere Segregationsanalysen (Segregration: Aufspaltung der Erbfaktoren während der Reifeteilung der Geschlechtszellen) und Zwillingsstudien unterstützen die Bedeutsamkeit von genetischen Faktoren für diese Störung. Segregationsanalysen sprechen für das Vorliegen eines geschlechtsgebundenen, additiven oder autosomal dominanten Erbganges. Zwillingsstudien belegen eine hohe Heritabilität für die Bereitschaft, eine Rechtschreibstörung zu entwickeln, und eine mittelhohe für die Bereitschaft, eine Lesestörung zu entwickeln. Anhand von Kopplungsanalysen konnte gezeigt 5 Legasthenie 73 werden, dass relevante Loci für die Störung auf dem Chromosom 15 und 6 liegen (Schulte-Körne et al. 2001). )DPLOLHQXQG6HJUHJDWLRQVVWXGLHQ Eine familiäre Häufung der Lese-Rechtschreib-Schwäche wurde in mehreren unabhängigen Stichproben beschrieben. Das Wiederholungsrisiko für Geschwister liegt zwischen 38-62%. Es fehlen jedoch große systematische Studien, die einen Aufschluss über die familiäre Ähnlichkeit bzgl. der basalen visuellen und/oder auditiven Störungen geben könnten. Es wurde zwar immer wieder in einzelnen Familien über Auffälligkeiten in der Sprachentwicklung und bezüglich phonologischer Fähigkeiten (Hoien et al. 1989) berichtet, die auf eine mögliche familiäre Subgruppe hinweisen könnten, weitergehende Daten fehlen aber (s. hierzu auch Schulte-Körne et al. 1993). In der bisher umfangreichsten Segregationsanalyse (Pennington et al. 1990) von 204 Familien mit insgesamt 1.698 Individuen aus vier unabhängigen Stichproben konnte ausgehend von einer Prävalenz von 7,5% und einem Geschlechterverhältnis von 1,8:1 (männlich:weiblich) in drei Stichproben ein Hauptgeneffekt mit reduzierter Penetranz bei weiblichen Familienmitgliedern nachgewiesen werden. In der vierten Stichprobe wurde eine polygene Vererbung der LRS favorisiert. =ZLOOLQJVXQWHUVXFKXQJHQ Neuere Zwillingsuntersuchungen zeigen, dass bei der Lesefähigkeit der genetische Anteil an der beobachteten Gesamtvarianz zwischen 3% und 60% liegt, für die Rechtschreibung, die insgesamt seltener untersucht wurde, liegt der 5 Legasthenie 74 Anteil zwischen 60% und 70% (Tab. 1). Die großen Streubreiten schwächen allerdings die Vermutung, dass die Erblichkeit eine so große Rolle spielt. Tabelle 1: Neuere Ergebnisse von Zwillingsuntersuchungen (Schulte-Körner et al. 2001) Stevenson (1991) ! "# $ 51/62 48/61 47/47 28/50 Olson et al. (1994) 183/126 151/105 132/92 93/68 # Schätzung für verschiedene Schweregrade +nicht signifikant *p (probability) < 0.05 % &')( *+' &! ! & -,).)/ Wort-Lesen Rechtschreibung phonologisches Dekodieren orthographische Fähigkeiten (Lesen von sog. irregulären Wörtern) h2= 03-41#+ h2= 66-69* h2= 36-82* Wort-Lesen phonologisches Dekodieren (Lesen von Nichtwörtern) orthographische Fähigkeiten (PseudohomophoneErkennen) Phonologische Bewusstheit (s. 5.2.2) h2= 12-68+ h2=47* h2=59* h2=56* h2=60* Von STEVENSON (1991) wurde der Einfluss des IQ und des Schweregrades auf die Heritabilitätsschätzung von Lesefähigkeit, Rechtschreibung, phonologischen und orthographischen Fähigkeiten untersucht. Es zeigte sich, dass bei Berücksichtigung des IQ höhere Schätzungen der Heritabilität resultieren. Ein systematischer Effekt des Schweregrades zeigte sich hingegen nicht, wobei die Stichproben zur Überprüfung des Effekts z.T. sehr klein waren. Die Heritabilität für die phonologische Bewusstheit (s. 5.2.2) und für die phonologische Dekodierfähigkeit ist mittel- bis sehr hoch. Die Heritabilität der orthographischen Fähigkeiten schwankt je nach Untersuchungsmethode beträchtlich (Tab. 1). Vor dem Hintergrund der signifikanten Korrelationen, die zwischen den einzelnen Fertigkeiten beobachtet werden, untersuchten OLSON et al. (1994), in welchem Ausmaß der Zusammenhang zwischen Wort-Lesen und phonologischer 5 Legasthenie 75 Bewusstheit sowie Wort-Lesen und orthographischen Fähigkeiten durch gemeinsame genetische Varianzanteile erklärt werden kann. Der genetische Anteil an dem Zusammenhang zwischen Wort-Lesen und phonologischer Bewusstheit beträgt demnach ca. 75% sowie ca. 69% an dem Zusammenhang zwischen WortLesen und orthographischen Fähigkeiten. (UJHEQLVVHPROHNXODUJHQHWLVFKHU8QWHUVXFKXQJHQ Bislang liegen für die Lese-Rechtschreib-Störung noch keine Ergebnisse aus systematischen Genom-Scans vor. Die bislang durchgeführten Untersuchungen postulieren Genloci auf den Chromosomen 6 und 15. Unter der Annahme eines autosomal dominanten Erbganges wurde erstmals 1983 eine Kopplung auf Chromosom 15 beschrieben (Smith et al. 1983). Dieser Befund konnte von einer dänischen Arbeitsgruppe nicht bestätigt werden (Bisgaard et al. 1987). Allerdings wurde diese Studie hinsichtlich des methodischen Vorgehens kritisiert, da die Phänotypbestimmung ausschließlich auf anamnestischen Angaben beruhte. In Erweiterung ihrer Stichprobe von 1983 fanden SMITH et al. (1991) erste Hinweise für genetische Heterogenität. Neben der Kopplung auf Chromosom 15, die jetzt etwas weiter distal (15q15) stehend als zuvor (15cen) beobachtet wurde, fand sich eine Kopplung auf Chromosom 6 (6p21.3) (Erklärung: 15q15 bedeutet: in Position 15 (rechts stehende Zahl) auf dem langen Arm (q) des Chromosoms 15 (links stehende Zahl); 15cen bedeutet: auf dem Centromer des Chromosoms 15, 6p21.3 bedeutet: in Position 21.3 auf dem kurzen Arm (p) des Chromosoms 6). Der Genlocus auf Chromosom 6 wurde durch die Arbeit von CARDON et al. (1994) bestätigt. In 2 unabhängigen Stichproben fanden die Autoren Kopplung, wobei in dieser Studie der Phänotyp der Leseschwäche als quantitatives Merkmal aufgefasst wurde. 5 Legasthenie 76 Abb. 11 Schematische Zeichnung der zwei Spalthälften oder Chromatiden eines Chromosoms (nach Singer u. Berg 1992). GRIGORENKO et al. (1997) untersuchten an ausgedehnten Familien Kopplungen zu fünf verschiedenen Phänotypen, die ein breites Spektrum der Lesefertigkeiten abdecken. Auf Chromosom 6p21.3 (Erklärung: 6p21.3 bedeutet: in Position 21.3 (rechts stehende Zahl) auf dem kurzen Arm (p) des Chromosoms 6 (links stehende Zahl)) zeigte sich eine signifikante Kopplung mit phonologischer Bewusstheit, auf Chromosom 15q21 (Erklärung: 15q21 bedeutet: in Position 21 (rechts stehende Zahl) auf dem langen Arm (q) des Chromosoms 15 (links stehende Zahl)) mit dem Wort-Lesen. In einer Untersuchung deutscher Familien konnte für die Bereitschaft, eine Legasthenie zu entwickeln, ebenfalls eine Kopplung auf Chromosom 15q21 (Erklärung: 15q21 bedeutet: in Position 21 (rechts stehende Zahl) auf dem langen Arm (q) des Chromosoms 15 (links stehende Zahl)) nachgewiesen werden (Schulte-Körne et al. 1998c). Auf Chromosom 6 hingegen fand sich mit diesem Phänotyp kein Hinweis auf Kopplung. 5 Legasthenie 77 Es wird angenommen, dass der Locus auf Chromosom 6 relevant für phonologische Prozesse ist, die wiederum eine hohe Korrelation mit der Lesefähigkeit aufweisen. Der Locus auf Chromosom 15 ist hingegen möglicherweise für die nichtphonologischen Anteile an der Lesefähigkeit relevant, z.B. für visuelle Prozesse (orthographische Fähigkeiten). Derzeit sind von mehreren internationalen Gruppen (World Health Organization, International Association of Genetic Technologists) systematische Kopplungsuntersuchungen des gesamten Genoms in Arbeit bzw. in Planung. Diese Untersuchungen werden mit großer Wahrscheinlichkeit Hinweise auf weitere Genloci bei der LRS ergeben. Die Identifizierung der verantwortlichen Gene wird ein Verstehen der zugrundeliegenden neurobiologischen Zusammenhänge und ihre Beziehung zu basalen Prozessen der phonologischen und visuellen Informationsverarbeitung ermöglichen. $XGLWLYH9HUDUEHLWXQJVVW|UXQJHQ Es wird angenommen, dass die auditive Verarbeitung von Sprache auf verschiedenen Ebenen geschieht (Gerd Schulte-Körne et al. http://www.kjp.unimarburg.de/kjp.legast/index.htm 18.6.2001). Das unterste Verarbeitungsniveau ist gekennzeichnet durch die Wahrnehmung von nichtsprachlichen Reizen. Die hierauf folgende Ebene ist bestimmt durch die Fähigkeit zur Sprachwahrnehmung. Das nächsthöhere phonologischen und komplexere Bewusstheit. Verarbeitungsniveau Phonologische Bewusstheit ist das der bezeichnet die Fähigkeit, die lautlichen Strukturen der geschriebenen Sprache zu erkennen und mit den lautlichen Strukturen zu operieren. 5 Legasthenie 78 Auf die Bedeutung der phonologischen Bewusstheit für den Schriftspracherwerb bei Vorschul- und Grundschulkindern weisen mehrere Untersuchungen hin. Zu den Verfahren zur Überprüfung von phonologischer Bewusstheit zählen z.B. Laut-zu-Wort-Zuordnung (Ist ein /s/ in Sonne?), Wort-zu-Wort-Zuordnung (Beginnen „ Maus“ und „ Mond“ gleich?) oder Reime erkennen (Reimen sich „ Haus“ und „ Maus“ ?) (Yopp 1988). Für den Lese- und Leselernprozess stellt die phonologische Bewusstheit offenbar eine entscheidende Voraussetzung dar. FRITH (1985) bezeichnet in ihrem Stufenmodell zur Entwicklung von Lesefähigkeit eine Stufe als alphabetische oder phonologische Entwicklungsstufe, die durch die Aneignung von BuchstabenLaut-Kenntnissen gekennzeichnet ist. Auf dieser Entwicklungsstufe gelingt es dem Leser erstmals, nicht nur anhand des visuellen Erkennens von Buchstaben (von FRITH als logographische Stufe bezeichnet) und Buchstabenkombinationen Wörter zu lesen, sondern über die lautliche Zuordnung die Aussprache von Wörtern zu erkennen und damit die Wörter selbst wiederzuerkennen. Die Bedeutung der phonologischen Bewusstheit für den Schriftspracherwerb wurde in einer Reihe von Längsschnittsstudien belegt. Die phonologische Bewusstheit, überprüft in der Kindergartenzeit, war ein bedeutsamer Prädiktor für die Lese- und Rechtschreibentwicklung während der Grundschulzeit. Dieses Ergebnis wurde in mehreren Studien repliziert und in mehreren Sprachen nachgewiesen (Englisch: Bryant et al. 1989, Wagner et al. 1994, Französisch: Algeria et al. 1982, Italienisch: Cossu et al. 1988, Schwedisch: Lundberg et al. 1980, Dänisch: Lundberg et al. 1988). Für die deutsche Schriftsprache zeigten KLICPERA und GASTEIGER-KLICPERA (1994), LANDERL und WIMMER (1994), NÄSLUND (1990) und MARX et al. (1993) anhand von Längsschnittstudien, dass Laut-Erkennen, Laut-Ersetzen und Reim-Erkennen, gemessen zur Zeit des Kindergartenbesuchs, prädiktiv für die Lese- und Rechtschreibleistung von Grundschulkindern in der zweiten und dritten Klasse war (Landerl und Wimmer 1994, Marx et al. 1993), und dass leseschwache Dritt-, 5 Legasthenie 79 Viert- und Achtklässler im Vergleich zu durchschnittlich lesenden Kindern der gleichen Klassenstufe bedeutsame Schwächen im Bereich der phonologischen Bewusstheit aufwiesen (Klicpera und Gasteiger-Klicpera, 1994). Im vorangehenden Abschnitt wurde die Bedeutung von phonologischer Bewusstheit für die Lese-Rechtschreib-Schwäche dargestellt. Unter der Annahme, dass die Wahrnehmung von Einzelsegmenten der Sprache ebenfalls eine Voraussetzung für den erfolgreichen Schriftspracherwerb ist, ist zu fragen, ob Lese-Rechtschreib-Schwache auch Schwächen in der Lautwahrnehmung und unterscheidung aufweisen, d.h. ob Schwächen in der Verarbeitung von Schallfolgen, die durch einen raschen Wechsel unterschiedlicher akustischer Spektren gekennzeichnet sind, bestünden. Anhand von einfachen Lautunterscheidungstests konnte in einer Reihe von Untersuchungen diese Annahme bestätigt werden (Godfrey et al., 1981, Werker und Tees, 1987, Manis et al., 1997). Lese-Rechtschreib-Gestörte hatten Schwächen in der Identifizierung und Unterscheidung von Lauten, die sich im Wesentlichen durch die „ voiceonset-time“ (z.B. /ba/ und /pa/) unterschieden. Die Formanten eines Lauts sind diejenigen Frequenzbereiche des Anregungssignals (hervorgerufen durch die Schwingung der Stimmlippen oder durch eine enge Konstriktion im Mundraum), die abhängig von der Stellung der Artikulatoren vom Ansatzrohr verstärkt werden. Spektrogramme mit hervorgehobenen Formantübergängen für die Silben /ba/, /da/ und /ga/ zeigen Unterschiede bei den F2- und F3-Transitionen, aber eine einheitliche F1Transition. Lese-Rechtschreib-Schwache hatten Schwierigkeiten in der Diskrimination dieser Laute, die sich durch die Transition des zweiten und dritten Formanten voneinander unterschieden. Diese Schwäche zeigte sich nicht nur bei Schulkindern, sondern auch bei Erwachsenen (Steffens et al. 1992). 5 Legasthenie 80 'LH%HGHXWXQJGHU:DKUQHKPXQJYRQQLFKWVSUDFKOLFKHQ5HL]HQ Die bereits dargestellten Befunde zeigen, dass Lese-Rechtschreib-Schwache Störungen im Bereich der Sprachwahrnehmung und -verarbeitung aufweisen. In verschiedenen Untersuchungen konnte zudem nachgewiesen werden, dass ein auditives Informationsverarbeitungsdefizit häufig bereits auf nichtsprachlicher Ebene vorliegt. Da die Wahrnehmung nichtsprachlicher Reize Voraussetzung für die Sprachverarbeitung in höheren Ebenen ist, kommt dieser Störung mit hoher Wahrscheinlichkeit eine große Bedeutung bei der Entstehung der Legasthenie zu. Eine Untersuchung von SCHULTE-KÖRNE et al. (1998a) zeigte, dass LeseRechtschreib-Schwache keine Schwächen in der Wahrnehmung von Sinustönen hatten, wenn die Töne mit einem Interstimulusintervall (ISI) von 590 ms präsentiert wurden. Untersuchungen von TALLAL et al. (1993) unterstützen jedoch die Hypothese, dass Leseschwache dann Schwächen in der Wahrnehmung von nichtsprachlichen Reizen aufweisen, wenn diese in einem sehr kurzen zeitlichen Abstand nacheinander präsentiert werden. Von Paula TALLAL wurde der Begriff des 6SHFLILF/DQJXDJH,PSDLUPHQW (SLI) geprägt, um eine nicht altersgemäße Entwicklung der Sprechfähigkeit bei ansonsten normalen kognitiven Fähigkeiten zu beschreiben (Tallal u. Piercy 1973, Tallal 1993). Der Ausdruck SLI („ spezifische Beeinträchtigung der Sprachentwicklung“ ) betont, dass die Kinder zwar normal intelligent, jedoch sprachlich zurückgeblieben sind. Die Sprachverzögerung beträgt mindestens ein Jahr, der Handlungs-IQ liegt im Durchschnittsbereich. Ausgeschlossen werden insbesondere alle Kinder, die unter einem sensorischen Hörverlust, genereller mentaler Retardierung, Lähmungen oder Sensibilitätsverlusten der Mundmuskulatur oder anderen neurologischen oder psychiatrischen Störungen leiden. 5 Legasthenie 81 TALLALs Studien begannen 1970. Ihr Ziel war es, die schweren Ausfälle der Wahrnehmung und Produktion von Sprache zu verstehen, die kennzeichnend für die meisten SLI-Kinder sind. TALLAL et al. (1993) bemerkten, dass es vor dem Studium des Sprechvermögens per se vernünftig sein würde, die Unversehrtheit der einzelnen akustischen Prozesse zu beurteilen, die das komplexe akustische Spektrum von Sprache bestimmen. So ist es sicherlich wichtig festzustellen, dass ein Kind über ein normales Hörvermögen verfügt, bevor Defizite in seiner Fähigkeit, Sprache zu verarbeiten oder zu produzieren, interpretiert werden können. Mit diesen Voraussetzungen begannen TALLAL et al. (1993), eine Testreihe zu entwickeln, um die Wahrnehmung, Unterscheidungsfähigkeit, Erinnerungsvermögen zeitliche Reihenfolge, für die Integration, Assoziation, Geschwindigkeit Reihenfolge und das von akustischen Ereignissen festzustellen. TALLAL verglich leseschwache Kinder mit nicht-leseschwachen Kindern anhand von Aufgaben zum Erkennen der Reihenfolge von zwei Tönen bzw. zwei komplexen Tonkombinationen (Tallal 1980). Die Reihenfolge der Reize war entweder 1-1, 1-2, 2-1 oder 2-2. Die Kinder mussten zur erfolgreichen Bewältigung der Aufgaben anhand einer ausgedehnten Übungsphase die Zuordnung der vier Lösungsmöglichkeiten zu den entsprechend farbig markierten Tasten erlernen. Ein Gruppenunterschied zeigte sich erst, wenn das Interstimulusintervall zwischen zwei Reizen geringer als 305 msec war. Dieses Ergebnis legt die Vermutung nahe, dass sich bei sehr kurzem Interstimulusintervall bereits auf nichtsprachlicher Ebene eine Schwäche zeigt, die möglicherweise im direkten Zusammenhang mit der Sprachwahrnehmung steht (Tallal et al. 1993). 5 Legasthenie 82 Weitere Untersuchungen von TALLAL et al. (1993) bestätigten die Annahme, dass grundlegende sprachgestörten zentralnervöse Kindern auf deren Verarbeitungsstörungen Unfähigkeit beruhen, auch bei sensorische Informationen zu integrieren, die in schneller Folge im Zentralnervensystem ankommen. Offenbar besteht ein enger Zusammenhang zwischen Dysphasie und Legasthenie (Tallal et al. 1993). So konnten Längsschnittstudien zeigen, dass Kinder, deren Sprachentwicklung verzögert ist, ein hohes Risiko haben, eine Legasthenie zu entwickeln. Zudem sind sich die neuropsychologischen Profile von Kindern mit einer verzögerten Sprachentwicklung und von Kindern mit einer Leseschwäche sehr ähnlich. Zeitabhängige Mechanismen im Nervensystem spielen eine zentrale Rolle in den grundlegenden Prozessen der Informationsverarbeitung und -produktion und sind von großer Bedeutung für die normale Entwicklung und Erhaltung des phonologischen Systems. Dass zeitabhängige Mechanismen eine wichtige Rolle bei der Entwicklung des sprachverarbeitenden Systems spielen, folgt auch aus den Untersuchungsergebnissen von Phillips. Er stellte fest, dass es hörgestörten Kindern schwer fällt, eine Frequenzlücke zu erkennen und sie einzuordnen (s. 4.2.2.1). Die Störung kann zur primären Worttaubheit führen: Der Fluss der Sprache wird von Zeitabschnitten unterbrochen, in denen die Klänge von sehr niedriger Amplitude sind oder sogar von vollständiger Stille. Die wichtigsten „ Frequenzlücken“ der Sprache sind die phonetisch bedeutsamen - sie lassen Stoppkonsonanten erkennbar werden. Wie bei TALLAL ergaben auch die Forschungsergebnisse von PHILLIPS, dass sprachunspezifische Störungen eine wichtige Rolle spielen. So zeigten seine Untersuchungen, dass der primären Worttaubheit eine Funktionsbeeinträchtigung im primären auditorischen Kortex zugrunde liegt (s. 4.2.2.1). TALLAL et al. (1993) nehmen an, dass die Verarbeitungsstörung eine Kaskade von Folgen auslöst. Das Defizit betrifft somit mehrere sensorische Modalitäten und auch das motorische Nervensystem. Im weiteren Verlauf ist die Entwicklung 5 Legasthenie 83 eines normalen phonologischen Systems unmöglich, insbesondere normal zu sprechen und zu lesen. Die Störung im akustischen Sinneskanal führt dazu, dass zu wenige für die Sprachentwicklung wichtige Lautreize aus der Umwelt das Gehirn erreichen. So verbinden sich die dortigen Nervenzellen nur unzureichend zu Einheiten, die bestimmten Lauten zugeordnet sind. Die verringerte Fähigkeit, die raschen Schwankungen der Tonhöhe zu identifizieren, geht mit Schwierigkeiten beim Aussprechen mancher Wörter einher. Das bedeutet, dass sowohl Sprach- als auch Leseprobleme ihren Ursprung in einer ungenügend entwickelten Fähigkeit der Verarbeitung und Decodierung schneller Impulse haben. TALLAL et al. (1993) stellten fest, dass die Versuchsergebnisse der sprach- und lesegestörten Kinder in bemerkenswerter Weise übereinstimmten. Längsschnitterhebungen zeigten, dass die Mehrheit der Kinder, die bereits im Kindergartenalter eine verzögerte Sprachentwicklung zeigten, überdurchschnittliche Schwierigkeiten beim Lesenlernen entwickelte (Tallal et al. 1988). Die neurologische Ursache der unzureichenden Verarbeitung und Decodierung schneller Impulse ist bislang unbekannt. MERZENICH et al. (1993) nehmen an, dass ein Mangel an Erfahrung in der frühen Entwicklung dem Nervensystem so schaden könne, dass es ihm unmöglich sei, schnelle Informationseingaben zu verarbeiten. Da das Gehirn gewährleisten müsse, dass es sich in Einklang mit der äußeren Welt befinde, passe sich die Verarbeitung aller Sinnesmodalitäten der langsamsten an. Aus ihren Untersuchungen schließen MERZENICH et al. (1993), dass Defizite in der zeitlichen Verarbeitung von Sprache erlernt sein können. Merkmale von Augenbewegungen beim Lesen sowie Studien, die eine Verbesserung beim Lesen 5 Legasthenie 84 ergaben, wenn das periphere Gesichtsfeld verdeckt wurde, stimmen mit der Hypothese überein, dass leseschwache Kinder einem größeren Bereich ihre Aufmerksamkeit schenken als dies normalerweise der Fall ist. Zudem sind MERZENICH et al. (1993) davon überzeugt, dass sich neuronale Veränderungen während eines fehlerhaften Lernvorgangs bilden. Hierbei spielt ein Mangel an Erfahrungen, bedingt durch unzureichende Stimulierung, eine wichtige Rolle. Diese unzureichende Reizexposition beginnt bereits im Mutterleib und ist dort von besonderer Bedeutung, da der den Lernvorgängen zu Verfügung stehende Axonenüberschuss bereits nach der Geburt abnimmt. Die Entstehung kohärenter Stimulusrepräsentationen während des Lernens und die vermutliche Plastizität grundlegender „ Uhrzeiten“ in der Hirnrinde während der kindlichen Entwicklung und des weiteren Lebens sind abhängig von grundlegenden Mechanismen der Synapsenverstärkung. Die Liste molekularer Elemente, die von der Modifikation synaptischer Wirksamkeit während des Lernvorgangs abhängt, ist lang. Ein Defekt in irgend einem von wenigstens mehreren hundert Proteinen kann zu einer Verzögerung des Lernvorgangs führen. Es konnte gezeigt werden, dass Kinder mit Legasthenie von normaler Intelligenz sind, wenn sie in vom Lesen unabhängigen Tests untersucht werden. Das lässt vermuten, dass Lesen auf der Fähigkeit eines nicht oder kaum assoziativen Systems beruht. Offenbar beruht die neuronale Veränderung, die zur Legasthenie führt, selektiv auf plastischen Veränderungen, die Eigenschaften der zeitlichen Verarbeitung von Eingaben kontrollieren (Tallal et al. 1993). LLINAS (1993) stellt eine andere Hypothese vor. Er nimmt an, dass eine besondere innere „ Uhr“ , die die Rate der neuronalen Entladungen kontrolliert, bei Legasthenikern gestört sei. LLINAS erklärt, dass die Frequenz der neuronalen Entladungen im Kortex bei normalen Menschen im 40-Hz-Bereich liege. Es werde angenommen, dass diese neuronalen Oszillationen wichtige Komponenten seien, um sensorische Informationen in kortiko-thalamo-kortikale Netzwerke hineinzulassen. 5 Legasthenie 85 Aufgrund einer zellulären Dysfunktion noch unbekannter Genese sind die normalen Eigenschaften neuronaler Schaltkreise, die verantwortlich sind für die zeitlichen Aspekte des Denkens, bei Legasthenie in einem bestimmten Maße verändert. LLINAS (1993) nimmt an, dass diese Veränderung dazu führt, dass das Nervensystem nur innerhalb bestimmter zeitlicher Rahmen normal funktioniert. Er glaubt, dass die Regelwidrigkeiten zwei wichtige Folgen haben: Zum einen ist es den Neuronen nicht mehr möglich, eine ausreichende Anzahl von Oszillationen mit höheren Frequenzen (35-45 Hz) zu erzeugen, zum anderen solche Rhythmen im Anschluss an sensorische Stimulationen mit kurzen zeitlichen Abständen neu einzustellen. LLINAS (1993) stellt fest, dass seine Hypothese sehr gut erklären könnte, warum Legasthenikern eine geeignete Triggerung oder Neueinstellung von Frequenzen im 40-Hz- bzw. 10-Hz-Bereich fehlt. Dies wird von anderen Wissenschaftlern bestätigt. Wie PÖPPEL (1997) feststellte, bildet das Gehirn innere Zustände im 40-Hz-Bereich, die für die Wahrnehmung von zentraler Bedeutung sind. Dabei spielen zwei grundlegende Zeitgrenzen eine wichtige Rolle: eine nach unten im Bereich von 30 bis 40 Millisekunden und eine nach oben von 3 Millisekunden. Die 30 Millisekunden stellen dabei die untere Ordnungsschwelle dar, bis zu der zwei verschiedene Reize sicher als nicht gleichzeitig und demnach als verschieden identifiziert werden können. Dieses untere Zeitfenster beruht auf der Synchronisation der Neuronen, die durch die im 40-Hz-Bereich oszillierende Kreisschleife Thalamus-Kortex vorgegeben wird. Hierdurch schafft das Gehirn Systemzustände, die quasi zeittote Zonen darstellen. Innerhalb dieser 30 Millisekunden existiert für die menschliche Wahrnehmung kein Fluss der Zeit im Newtonschen Sinn, kein Vorher und kein Nachher. Damit gibt sich das Gehirn neutrale präsemantische Arbeitsplattformen vor, in die sich dann alle Hirnaktivitäten einordnen. Die Wahrnehmung unterliegt somit durch die 30-Millisekunden-Zeitfenster einer präsemantischen automatischen Integration, die die einlangenden Impulse bündelt und strukturiert. Dieser Integrationsmechanismus sorgt dafür, dass Ereignisse zu überschaubaren Erlebnissen zusammengefasst werden, die als Jetzt erlebt werden. Die obere 5 Legasthenie 86 Schwelle von 3 Millisekunden ergibt sich aus der Beobachtung, dass zwei sensorische Reize nur innerhalb dieses Zeitraums exakt miteinander verglichen werden können, dass bezüglich der Zeitwahrnehmung nur Intervalle von 2 Millisekunden genau reproduziert werden können, während darüber die Schätzung einsetzt, dass auch eine sensomotorische Aktion nur für 2 Millisekunden präzise antizipiert werden kann. Auch erstreckt sich die Konzentration jeweils nur über ein Intervall von 2 bis 3 Millisekunden, nach dem das Gehirn anfragt, ob es etwas Neues gibt bzw. ob sich das Verweilen bei dem bisherigen Gegenstand noch lohnt (Pöppel 1997). Zwar gelang bisher noch kein Nachweis, jedoch ist anzunehmen, dass eine entwicklungsbedingte Veränderung des ZNS die inneren Oszillationsraten verlangsamen kann. Eine der wichtigsten Folgen wäre, dass es unmöglich sei, sensorische oder motorische Informationen zu verarbeiten, die in schneller Abfolge, d.h. im Zehn-Millisekunden-Bereich, ablaufen würden. Dies ist genau das Defizit, das sprach- oder lesegestörte Kinder betrifft (Llinas 1993). Die Annahme gestörter kortiko-thalamo-kortikaler Netzwerke wird bestärkt durch magnetresonanztomographische Untersuchungen. Jernigan et al. (1991) berichten über eine signifikante Reduktion der grauen Substanz in subkortikalen Strukturen (einschließlich des Corpus striatum und des Thalamus) sowie in kortikalen Strukturen, die bekannt sind, der Sprachverarbeitung zu dienen. TALLAL et al. (1993) weisen darauf hin, dass sich die Frage stellt, warum Kinder mit solch schweren Störungen der zeitlichen Verarbeitung von Sinnesreizen relativ normal leistungsfähig sind. Der zeitliche Rahmen der Störung liegt im Zehn-Millisekunden-Bereich, und es muss angenommen werden, dass nur Verarbeitungsprozesse, die in diesem zeitlichen Rahmen ablaufen, beeinträchtigt sind (Phillips 1993). 5 Legasthenie 87 Obgleich es wahr ist, dass Buchstaben auf einer Seite für den Leser unbeweglich wirken, und zwar für jeden möglichen Zeitraum, ist die visuelle Identifizierung von Graphemen nur dann möglich, wenn die visuelle Darstellung mit der begrenzt dauernden neuronalen Darstellung des passenden Phonems assoziiert werden kann. TALLAL et al. (1993) nehmen an, dass sprach- und lesegestörte Kinder – entsprechend ihrer grundlegenden Störung der auditiven Verarbeitung – keine stabilen und unbeweglichen neuronalen Darstellungen von Phonemen bilden können. Wie LIBERMANN (1985) annimmt, gelingt es diesen Kindern niemals, eine phonologische Bewusstheit zu erreichen. Zahlreiche Studien unterstützen diese Annahme (Goswani 1993). Diese Daten bestärken die Vermutung, dass Störungen der zeitlichen Verarbeitung im Hörsystem ausreichen, um eine Entwicklung des Lesenlernens zu unterbrechen. Obwohl die zeitlichen Verarbeitungsstörungen alle Sinnesmodalitäten betreffen, besteht somit die Möglichkeit, dass Störungen in anderen Modalitäten bei manchen Kindern das Lesen nicht direkt beeinflussen könnten (Tallal et al. 1993). 1HXURDQDWRPLVFKH9HUlQGHUXQJHQ Ergebnisse von MRI- und PET-Untersuchungen sowie Verhaltensstudien bei gesunden Erwachsenen und Erwachsenen mit erworbenen Läsionen weisen daraufhin, dass die Sprachverarbeitung in der linken Hemisphäre lokalisiert ist (Tallal et al. 1993). Diese Spezialisierung für die Verarbeitung sensorischer und motorischer Ereignisse, die in schneller Folge auftreten, könnte sich während der Evolution ausgebildet haben. TALLAL et al. (1991) beobachteten unterschiedliche Muster der zerebralen Lateralisation in Gehirnen von SLI-Kindern – verglichen mit denen von gesunden, und zwar sowohl im Präfrontalkortex als auch in der parietalen Region. Es fand sich eine hochsignifikante Korrelation zwischen dem Ausmaß der hemisphärischen Asymmetrie dieser kortikalen Bereiche und dem Ausmaß des 5 Legasthenie 88 Defizits bezüglich der zeitlichen Verarbeitung akustischer Ereignisse, das in den Tests von TALLAL et al. (1991) festgestellt wurde. In mehreren Untersuchungen fand eine Arbeitsgruppe um GALABURDA bei Patienten mit Lese-Rechtschreib-Störungen Veränderungen der linksseitigen temporalen Hirnrinde (Galaburda et al. 1994). Primäres und sekundäres Hörzentrum sowie das rezeptive Sprachzentrum sind in dieser Hirnregion lokalisiert (vgl. 3.2 u. 3.3.6). Bei LRS-Kindern ist die physiologische Asymmetrie zugunsten der linken Hirnhälfte aufgehoben, und wiederholt wurden Abnormitäten der dort gelegenen Hirnwindungen belegt. In neuerer Zeit wurden die Befunde durch magnetresonanztomographische Untersuchungen bestätigt. ROSEN (1992) und FITSCH (1994) erzeugten im Tierversuch Hirnabnormitäten, die denen von LRS-Patienten entsprechen. Die Tiere zeigten im Erwachsenenalter Defizite bei der zeitlichen Auflösung auditiver Reize. 1997 berichteten die Autoren über unterschiedliche Ausfälle bei männlichen und weiblichen Tieren. Nur bei männlichen Tieren wurden auditive Diskriminationsschwächen und eine sekundäre Verminderung der Zahl von Riesenzellen in funktionell abhängigen basalen Kernen (Corpus geniculatum mediale) gefunden. ROSEN und FITSCH sind überzeugt, dass sich aus derartigen Befunden Schlussfolgerungen für Störungen der Laut- und Schriftsprache beim Menschen ziehen lassen können. 9LVXHOOH9HUDUEHLWXQJVVW|UXQJHQ Störungen der Verarbeitung visueller Informationen bei LRS wurden im Bereich der Okulomotorik und bei der Verarbeitung von Reizen, die im Wesentlichen vom magnozellulären System verarbeitet werden, beschrieben. 5 Legasthenie 89 Zusammenhänge von Lese-Rechtschreib-Schwäche mit der Blickmotorik waren schon mehrfach vermutet worden, Studien ergaben jedoch zunächst keine deutlichen Auffälligkeiten. Erst die Untersuchung der Anti-Sakkaden-Aufgabe offenbarte ein häufig auftretendes Defizit: die willentliche Komponente, die in den früheren einfacheren Tests nicht gemessen worden war. Kinder mit einer Lese- und Rechtschreibschwäche zeigen häufig Regressionssakkaden, d.h. Sakkaden entgegengesetzt zur normalen Leserichtung (Fischer u. Weber 1990, Kotchen u. Guthrie 1980, Stark et al. 1991). Störungen in der Kontrolle der Blickmotorik zeigten sich außerdem in einem Rückstand der • Entwicklung der Fixationsfähigkeit, d.h. mehr reflexartige Blicksprünge (Eden et al. 1994), • willentlichen Kontrolle über die Durchführung der Blicksprünge (Biscaldi et al. 1998), • zeitlichen Genauigkeit der Reaktionszeiten (Stark et al. 1991), • Treffsicherheit (Stark et al. 1991). Da eine Abhängigkeit der Entwicklung der Okulomotorik beim Lesen von der Entwicklung der Lesefähigkeiten besteht (Olson et al. 1991), ist allerdings zur Zeit noch unklar, inwieweit die beschriebenen Auffälligkeiten kausal mit der Lesestörung in Zusammenhang stehen oder nur ein Epiphänomen darstellen. 0DJQR]HOOXOlUHV6\VWHP Die Legasthenie steht offenbar in Verbindung mit Normabweichungen neuroanatomischer und hirnfunktioneller Merkmale. Besondere Bedeutung kommt möglicherweise einer Nervenbahn zu, die von der Netzhaut stammende 5 Legasthenie 90 Informationen zum Thalamus und weiter zum visuellen Kortex leitet. Es gibt Hinweise dafür, dass diese von Magnozellen gebildete Bahn bei Legasthenikern weniger leistungsfähig ist (Tallal 2000). Die Magnozellen sind für die Vorverarbeitung schnell hintereinander eintreffender Informationen verantwortlich. Bereits in den Achtzigerjahren hatte TALLAL festgestellt, dass viele Legastheniker ungefähr 0,3 Sekunden brauchen um Laute wie /da/ und /ba/ voneinander zu unterscheiden – deutlich länger als die 0,008 Sekunden, die Sechs- bis Achtjährige normalerweise für diese Aufgabe benötigen (TALLAL 1980). Kann man die Klänge einer Sprache nicht unterscheiden, führt dies auch zu Schwierigkeiten beim Erlernen der Grammatik, des Lesens und des Schreibens (Tallal 2000). Im Vordergrund der aktuellen Forschung zu den Ursachen der LRS im Bereich der visuellen Verarbeitung stehen die Funktionen des magno- und des parvozellulären Systems. Das magno- (M) und das parvozelluläre (P) System haben ihren Ursprung in retinalen Ganglionzellen (vgl. 3.4.3). Im Bereich der Fovea finden sich überwiegend Zellen des P-Systems, hingegen sind die Zellen des M-Systems überwiegend peripher zu finden. Das M- und das P-System projizieren in getrennte Schichten des Corpus geniculatum laterale und weiter in den primären visuellen Kortex. Der magnozelluläre Anteil des primären visuellen Kortex (V1) projiziiert über die Area V5 überwiegend in den parietalen Kortex, hingegen erreichen den temporalen Kortex sowohl parvo- als auch magnozelluläre Bahnen (Merigan und Maunsell 1993). Eine Arbeitsgruppe um GALABURDA fand in histologischen Untersuchungen des Corpus geniculatum laterale (vgl. 3.4.4) bei fünf LRS-Patienten eine Verminderung der Zahl der Nervenzellen in der Magnozellschicht (Galaburda u. Livingston 1993). Dies könnte in Zusammenhang mit einer visuellen Wahrnehmungsschwäche stehen: Im Corpus geniculatum laterale wird die visuelle Information umgeschaltet und zur optischen Hirnrinde weitergeleitet. 5 Legasthenie 91 Die Magnozellen des in der Tiefe des Gehirns gelegenen Kerns sind für die Vorverarbeitung von Informationen, die schnell hintereinander eintreffen und nur einen geringen Kontrast aufweisen, verantwortlich. Ebenso werden dem MSystem Funktionen zur globalen Analyse von visueller Information zugeordnet (Merigan u. Maunsell 1993). In der Schicht der Parvozellen hingegen werden langsam wechselnde visuelle Reize mit hohem Kontrast verarbeitet. Das P-System mit hoher Orts- und Farbauflösung verarbeitet stationäre bzw. langsame Reize und verarbeitet aufgrund seiner hohen Ortsauflösung im Wesentlichen lokale Aspekte bzw. Detailaspekte von visuellen Reizen (Breitmeyer u. Glanz 1976). GALABURDA und LIVINGSTONE (1993) fanden bei Legasthenikern Unterschiede in der Struktur und Funktion der thalamokortikalen magnozellulären Systeme, aber intakte parvozelluläre Systeme. Es zeigten sich signifikante zelluläre Unterschiede auf der Ebene des Thalamus, und zwar nicht nur im Corpus geniculatum laterale, das visuelle Informationen weiterleitet, sondern auch im Corpus geniculatum mediale, das auditive Informationen zum Kortex überträgt. Dies sind offenbar wichtige empirische Daten, die auf eine mögliche direkte Verbindung zwischen anatomischen, physiologischen und Verhaltensdaten hinweisen. Auch STEIN und TALCOTT (1999) sind der Überzeugung, dass bei LeseRechtschreib-Schwäche hauptsächlich die Magnozellen betroffen sind. STEIN und TALCOTT stellten die Hypothese auf, dass bei Legasthenikern – möglicherweise infolge einer Immunreaktion der Mutter – während der fetalen Entwicklung junge Nervenzellen im Gehirn geschädigt würden. In Folge sei ihr Zusammenwachsen behindert und die Ausbildung der M-Bahn von der Netzhaut zum lateralen Corpus geniculatum und weiter zum visuellen Kortex gestört (Stein u. Talcott 1999). 5 Legasthenie 92 'LH%HGHXWXQJJUXQGOHJHQGHUYLVXHOOHU:DKUQHKPXQJVSUR]HVVH Eine Forschergruppe um die Physiologen TALCOTT und STEIN (1999) wies nach, dass bei Legasthenikern grundlegende visuelle Wahrnehmungsleistungen beeinträchtigt sein können. In den Untersuchungen von TALCOTT und STEIN gelang es Legasthenikern erst ab einer höheren Anzahl von sich bewegenden Punkten auf einem Computerbildschirm zu erkennen, dass diese plötzlich in gleiche Richtung bewegt werden. Je mehr Schwierigkeiten sie bei dieser Aufgabe hatten, desto stärker war auch ihre Leseschwäche ausgeprägt. Dieser Befund macht es sehr wahrscheinlich, dass die Lesefähigkeit auf der Fertigkeit beruht, rasche Veränderungen elementarer Sinneseindrücke zu registrieren. Die Legasthenie hängt somit mit einer Schwäche beim Verarbeiten optischer Eindrücke im Gehirn zusammen. Dabei besteht offenbar ein Zusammenhang mit Defiziten bei akustischen Sinnesleistungen. So hatten Kinder, die bei der Untersuchung TALCOTTs et al. ein schlechtes Testergebnis zeigten, auch Schwierigkeiten, zwischen richtig und falsch buchstabierten Wörtern zu unterscheiden. Je deutlicher dieses doppelte Defizit ausgeprägt ist, desto schwerer war die Leseschwäche (Talcott et al. 2000). TALCOTT et al. (2000) heben hervor, dass Lesenlernen darauf beruht, sowohl die gesprochenen (phonologischen) als auch die geschriebenen (orthographischen) Eigenschaften einer Sprache zu verstehen. Bereits früher durchgeführte Untersuchungen bestätigen die Ergebnisse von TALCOTT et al. (2000). So wiesen MANIS et al. (1997) nach, dass 7 von 25 Legasthenikern Schwächen bei der nichtsprachlichen Wahrnehmung von Sprache hatten, aber nur 1 Kind in der Vergleichsgruppe mit altersgerechter Leseentwicklung. MANIS et al. schließen daraus, dass manche Legastheniker ein nichtsprachliches Wahrnehmungsdefizit haben, das die Sprachverarbeitung hemmt und zur Legasthenie führt (Manis et al. 1997). 5 Legasthenie 93 Untersuchungen solcher Art lassen allerdings die wichtige Frage unbeantwortet, ob die Legasthenie tatsächlich ein eigenständiges pathologisches Phänomen ist. TALCOTT et al. (2000) haben mittlerweile deutliche Hinweise dafür gefunden, dass dies nicht zutrifft. Ihren Studien zufolge lässt sich die Legasthenie in ein Spektrum, das alle Lesefähigkeiten umfasst, einordnen (Talcott et al. 2000). Für ihre visuellen und akustischen Tests wählten TALCOTT et al. insgesamt 32 zehn Jahre alte Kinder aus, bei denen keine Anzeichen einer Leseschwäche zu beobachten waren. Die visuelle Aufgabe bestand wiederum darin, die Richtungsänderung bewegter Punkte auf einem Bildschirm zu erkennen. Bei dem akustischen Test sollten die Kinder angeben, welcher von zwei rasch hintereinander erzeugten Tönen eine Modulation aufwies. Solche raschen Änderungen der Tonhöhe müssen auch beim Dekodieren der gesprochenen Sprache registriert werden. Ähnlich wie bei Legasthenikern konnten die Forscher anhand der beiden ermittelten Sinnesleistungen auch bei den „ normalen" Lesern den Grad der Lesefertigkeit voraussagen. Die Kinder, die beim visuellen Leistungstest schlecht abschnitten, vermochten nur schwer zwischen richtig und falsch buchstabierten Wörtern zu unterscheiden. Eine verringerte Fähigkeit, die raschen Schwankungen der Tonhöhe zu identifizieren, ging dagegen mit Schwierigkeiten beim richtigen Aussprechen mancher Wörter einher. Diese Ergebnisse deuten daraufhin, dass Leseschwäche nur das ungünstige Ende einer normalen Fähigkeitsverteilung bildet (Tallal 2000). TALLAL und MERZENICH (Barinaga 1996) entwickelten ein ComputerTrainingsprogramm, das die Verarbeitung schneller akustischer und visueller Reize im Gehirn fördert. TALLAL und MERZENICH konnten zeigten, dass die Sprachübungen die Sprachentwicklung von Kindern, die mehrere Jahre hinter dem Durchschnitt lagen, gesprochene Sprache zu verstehen, deutlich fördern konnten (s. Kapitel 7). 5 Legasthenie 94 =XVDPPHQIDVVXQJXQG6FKOXVVIROJHUXQJHQ Hauptziel dieses Kapitels war es, neue Untersuchungsergebnisse zur Pathogenese der Legasthenie darzustellen. Legasthenie ist die Bezeichnung für Schwächen beim Erlernen von Lesen, Schreiben und Rechtschreiben, die weder auf eine allgemeine Beeinträchtigung der geistigen Entwicklung, noch auf unzulänglichen Unterricht zurückgeführt werden können. Typisch sind Verwechslungen von Buchstaben im Wort wie b-d, p-q, u-n, Umstellungen von Buchstaben innerhalb eines Wortes, Auslassungen und Einfügungen. Es ist möglich, dass die Bereitschaft zur Legasthenie hereditär ist. Auditive Verarbeitungsstörungen spielen bei der Entwicklung der Legasthenie eine wichtige Rolle. In verschiedenen Untersuchungen konnte nachgewiesen werden, dass ein auditives Informationsverarbeitungsdefizit bereits auf nichtsprachlicher Ebene vorliegt. Die Untersuchungen TALLALS bestätigten die Annahme, dass grundlegende zentralnervöse Verarbeitungsstörungen die Ursache einer Legasthenie sind. Es ist unmöglich, sensorische Informationen zu integrieren, die in schneller Folge im Zentralnervensystem ankommen (Tallal et al. 1993). Die Störung im akustischen Sinneskanal führt dazu, dass zu wenige für die Sprachentwicklung wichtige Lautreize aus der Umwelt das Gehirn erreichen. So verbinden sich die dortigen Nervenzellen nur unzureichend zu Einheiten, die bestimmten Lauten zugeordnet sind. Wie bei der Entstehung der primären Worttaubheit (Phillips 1999, s. Kapitel 4) spielen zeitabhängige Mechanismen offenbar auch bei der Entwicklung der Legasthenie eine wichtige Rolle. Es wird angenommen, dass eine besondere innere „ Uhr“ , die die Rate der neuronalen Entladungen kontrolliert, bei Legasthenikern gestört sei (Llinas 1993). Bei der Wahrnehmung spielen zwei 5 Legasthenie 95 grundlegende Zeitgrenzen eine wichtige Rolle: eine nach unten im Bereich von 30 bis 40 Millisekunden und eine nach oben von 3 Millisekunden. Das untere Zeitfenster beruht auf der Synchronisation der Neuronen, die durch die im 40-HzBereich oszillierende Kreisschleife Thalamus-Kortex vorgegeben wird. Die Wahrnehmung unterliegt somit durch die 30-Millisekunden-Zeitfenster einer präsemantischen automatischen Integration, die die einlangenden Impulse bündelt und strukturiert. Die obere Schwelle von 3 Millisekunden ergibt sich aus der Beobachtung, dass zwei sensorische Reize nur innerhalb dieses Zeitraums exakt miteinander verglichen werden können (Pöppel 1997). Es ist anzunehmen, dass bei sprach- und lesegestörten Kindern die inneren Oszillationsraten verlangsamt sind (Llinas 1993). Die Annahme gestörter kortiko-thalamo-kortikaler Netzwerke wird durch magnetresonanztomographische Untersuchungen bestärkt (Jernigan et al. 1991). Störungen der Verarbeitung visueller Informationen bei Legasthenie wurden im Bereich der Okulomotorik und bei der Verarbeitung von Reizen, die im Wesentlichen vom magnozellulären System verarbeitet werden, beschrieben. Die von Magnozellen gebildete Bahn leitet von der Netzhaut stammende Informationen zum Thalamus und weiter zum visuellen Kortex. Es gibt deutliche Hinweise dafür, dass diese Bahn, die der Vorverarbeitung schnell hintereinander eintreffender Informationen dient, bei Legasthenikern weniger leistungsfähig ist (Tallal 2000). Offenbar sind bei vielen Legasthenikern grundlegende visuelle Wahrnehmungsleistungen beeinträchtigt (Talcott und Stein 1999), wobei ein Zusammenhang mit Defiziten bei akustischen Sinnesleistungen besteht (Talcott 2000). Aus den Ergebnissen ergeben sich wichtige Schlussfolgerungen für die Behandlung einer Legasthenie: Es sollten Trainingsprogramme eingesetzt werden, die die Verarbeitung schneller akustischer und visueller Reize im Gehirn fördern. 6 Diskussion 96 'LVNXVVLRQ (QWVWHKXQJVEHGLQJXQJHQGHUUHLQHQ:RUWWDXEKHLW 'LH3RVWXODWHXQG6FKOXVVIROJHUXQJHQYRQ3+,//,36 Die Untersuchungen von PHILLIPS ergaben, dass die reine Worttaubheit auf einer grundlegenden Wahrnehmungsstörung beruht. Offenbar deutet schon die Organisation des auditiven Systems daraufhin, dass auf einer basalen Stufe der auditiven Wahrnehmung Sprachlaute erkannt und analysiert werden (Phillips 1995). So ist die Wahrnehmung von Sprachlauten eine Hierarchie von Prozessen, die mit der Erkennung des Lautes und seiner phonetischen Klassifizierung beginnt. Laute werden als Wort erkannt und diesen die aus dem semantischen Gedächtnis abgerufene Bedeutung zugeordnet (Phillips 1990). Es gibt mindestens vier Prinzipien der Organisation des auditiven Systems (Phillips 1995). Das erste ist die tonotope Organisation: Innerhalb jedes Kerngebiets der zentralen Hörbahn (und innerhalb der meisten auditiven Rindenbezirke) sind die Neuronen schichtweise so angeordnet, dass die stärksten Erregungen von Neuronen einer Schicht vom gleichen kochlearen Ort stammen. Da einem bestimmten kochlearen Ort eine bestimmte Frequenz zugeordnet werden kann, haben die Neuronen einer Schicht die gleiche charakteristische Frequenz, auf die sie am empfindlichsten reagieren. In der räumlichen Anordnung der Neuronen spiegeln sich somit die verschiedenen Frequenzen der Kochlea wieder. Die spektrale Zerlegung des Signals, die von der Kochlea durchgeführt wurde, wird im Gehirn aufrecht erhalten. Das zweite Prinzip betrifft die Muster der Konvergenz und der Divergenz von Nervenzellen der afferenten Hörbahn. Diese Muster zeigen sogar bei Erwachsenen ein gewisses Maß an Modellierbarkeit. Die zugrunde liegenden Mechanismen sind noch unbekannt, es gibt jedoch Hinweise darauf, dass die 6 Diskussion 97 Verformbarkeit das morphologische Substrat des auditiven Lernens oder der Erholung pathologischer Prozesse darstellt (Phillips 1995). Die sensorische Repräsentation kann mehrere Formen annehmen, z.B. als Lokalisation in einem bestimmten Hirngebiet oder als Verteilung einer zellulären Eigenschaft. Die sensorische Repräsentation ist veränderlich. Experimentell verursachte Taubheit führt zu einer signifikanten Änderung der Verknüpfungen im auditiven System (Phillips 1995). Mehrere Untersuchungen von PHILLIPS weisen daraufhin, dass die reine Worttaubheit eine Manifestation einer basalen zeitlichen Verarbeitungsstörung auf vorsprachlichem Niveau ist, d.h. dass der reinen Worttaubheit eine sprachunspezifische Störung im primären auditorischen Kortex zugrunde liegt. Eine Anzahl von Hinweisen zeigt an, dass der primäre auditorische Kortex eine Rolle bei der Wahrnehmung, aber nicht bei der linguistischen Verarbeitung von Lauten spielt. PHILLIPS maß bei 94 Neuronen des primären auditorischen Kortex die Genauigkeit, mit der die Nervenzellen auf Töne oder Geräusche reagierten (Phillips 1990). Bei den 94 Neuronen lagen die Latenzzeiten7 im Bereich von 0,15 bis 1,5 Millisekunden. Das bedeutet, dass die Genauigkeit des Antwortverhaltens der kortikalen Neuronen ausreicht, um den zeitlichen Verlauf einzelner Sprachkomponenten darzustellen. Daraus folgt, dass der primäre auditorische Kortex bei der Unterscheidung verschiedener Sprachabschnitte eine Rolle spielt. Außerdem zeigten die Ergebnisse, dass die Antworten auf Reize im Kortex eine Genauigkeit des Antwortverhaltens zeigten, die nur etwas schlechter als die der Fasern des Kochlearnervs ist. Pathologische Veränderungen in der primären Hörrinde führen somit offenbar zu einer Beeinträchtigung grundlegender auditiver Wahrnehmungsprozesse, die Basis des Sprachverständnisses sind. Eines der wichtigsten diagnostischen Kriterien der Genauigkeit, mit der Nervenzellen auf Töne oder Geräusche reagieren ist die Prüfung, inwieweit die Frequenzlücke (4.2.2.1) erkannt werden kann. Hören ist die Verarbeitung 6 Diskussion 98 akustischer Ereignisse, die über die Zeit verteilt sind, und die Bestimmung der Frequenzlücke ist ein Mittel, um den zeitlichen Verlauf des Hörvermögens zu bestimmen (Phillips 1999). Die Wahrnehmung der Frequenzlücke ist eine wichtige vorsprachliche Grundlage zum Verstehen von Sprache. Der Fluss der Sprache wird von Zeitabschnitten unterbrochen, in denen die Klänge von sehr niedriger Amplitude sind oder der Zeitabschnitt sogar von vollständiger Stille ist. Die wichtigsten „ Frequenzlücken“ der Sprache sind die phonetisch wichtigen – sie lassen Stopp-Konsonanten erkennbar werden. Eine über 30 Millisekunden dauernde Pause wird als lang erkannt. Bei den Untersuchungen von PHILLIPS spielten hauptsächlich zeitliche Variationen im Bereich von 1 Millisekunde bis hin zu 10 Millisekunden eine Rolle, die die so genannten Stopp-Konsonanten phonetisch charakterisieren. In mehreren Untersuchungen prüfte PHILLIPS, welche Einfluss Geräusche, die eine Frequenzlücke abgrenzen, auf das Erkennungsvermögen der Lücke haben, und zwar sowohl in der Between-Channel- als auch in der Within-ChannelAlternative (Phillips 1997). In einem Versuch wurden die Versuchspersonen Paaren engbandiger Geräuschfolgen ausgesetzt. Der der Frequenzlücke vorangehende Ton hatte eine Frequenz von 2 kHz, und die Frequenz des folgenden wurde variiert. Die Erkennung der Frequenzlücke gelang sehr schlecht, wenn die spektrale Unterscheidung der beiden Geräusche, die die Frequenzlücke begrenzten, hoch war. Dies legt die Vermutung nahe, dass die Erkennung der Frequenzlücke sich verschlechtert, wenn hierzu ein Vergleich der Aktivitäten in verschiedenen Wahrnehmungskanälen des auditiven Systems erforderlich ist. Dies deutet daraufhin, dass die Erkennung der Frequenzlücke ein komplexer Vorgang der Wahrnehmung ist. Anderseits ist die Erkennung der Frequenzlücke eine wichtige Grundlage zum Verstehen von Sprache. Die wichtigsten „ Frequenzlücken“ der Sprache sind die phonetisch bedeutsamen – sie lassen Stopp-Konsonanten erkennbar werden. Grundlegende auditive Wahrnehmungsprozesse wie die Erkennung der Frequenzlücke sind somit für das Sprachverständnis von entscheidender Bedeutung. 7 Latenzzeit: von der Leitungsgeschwindigkeit des Nervs abhängiger Zeitraum zwischen 6 Diskussion 99 Nicht alle Bereiche des Sprachunterscheidungsvermögens sind bei der reinen Worttaubheit gleichermaßen betroffen. Insbesondere stellte PHILLIPS fest, dass das Wahrnehmungsvermögen langer Vokale bilaterale Läsionen des primären auditorischen Kortex übersteht, jedoch das von Konsonanten, insbesondere StoppKonsonanten, nicht (Phillips 1990). Die Laute von Stopp-Konsonanten zeigen zwei Ebenen zeitlicher Organisation. Die feine Wellenform, die im Bereich unterhalb von Millisekunden liegt, spezifiziert gänzlich die langsamen spektralen Wechsel, die den Konsonanten phonetisch identifizieren. Die gestörte Unterscheidungsfähigkeit von Stopp-Konsonanten bei Worttaubheit zeigt ein zeitliches Verarbeitungsdefizit an, das Stopp-Konsonanten betrifft, aber Vokale nicht. Dies liegt im Bereich von einer bis zu zehn Millisekunden und charakterisiert die Stopp-Konsonanten phonetisch. Da Stopp-Konsonanten aufgrund ihrer Frequenzlücken erkennbar werden, folgt, dass der primäre auditorische Kortex beim Erkennen der Frequenzlücke (und damit der Wahrnehmung von Sprache) eine entscheidende Rolle spielt. Dies weist daraufhin, dass die Störung auf einem vorsprachlichen Niveau beruht: Bestimmte Frequenzspektren akustischer Stimuli können nicht erfasst werden. Die Fehler beim Erkennen von Konsonanten, die von Patienten mit reiner Worttaubheit gemacht werden, können im stimmhaften Aussprechen und/oder in der Artikulation liegen. Ist das primäre Hörfeld geschädigt, so verfügt der zerebrale Kortex nicht mehr über eine akustische Darstellung von Signalen mit der entsprechenden zeitlichen Struktur, die für eine normale Spracherkennung erforderlich ist. Neuronale Antworten auf akustische Signale sind zeitlich weniger differenziert. Dies führt dazu, dass das Erkennungsvermögen der Patienten für die entsprechenden Laute abnimmt. Es stellt sich die Frage, warum das Unterscheidungsvermögen anderer Konsonanten (z.B. nasaler) erhalten bleibt. Eine Ursache könnte darin liegen, dass Reiz und Reizantwort 6 Diskussion 100 diese Konsonanten länger sind und weniger zeitlich differenziert sind als StoppKonsonanten (Metz-Lutz u. Dahl 1984). Bei den meisten Untersuchern besteht Übereinstimmung darin, dass für die reine Worttaubheit fast immer eine Läsion eines oder beider primärer Hörfelder im linken und/oder rechten Temporallappen pathognomonisch ist (Phillips 1990). Dies ist von Bedeutung aus zwei Gründen. Einer ist, dass die Diagnose der reinen Worttaubheit eine spezifisch linguistische Funktion einer klassischerweise sensorischen Hirnregion zuschreibt. Der zweite ist, dass die Störung diejenigen Patienten identifiziert, deren psychoakustische Mängel eine wichtige Datenbasis bieten könnte, um die Hörfunktionen des auditorischen Kortex zu bestimmen (Phillips 1990). 'LH3UR3RVLWLRQ Die Untersuchungen von PHILLIPS wurden durch mehrere Studien über das Spracherkennungsvermögen bestätigt. Wie bei PHILLIPS wurden Untersuchungen durchgeführt, die die Erkennung der Frequenzlücke bestimmten. Sie bestätigten die Ergebnisse von PHILLIPS, dass bei reiner Worttaubheit die Erkennung der Frequenzlücke vermindert ist. Insbesondere wurden Studien durchgeführt, die das zeitliche Auflösungsvermögen für nichtsprachliche Laute direkt bei den Patienten maßen. Drei Studien stellten bei Patienten mit reiner Worttaubheit die minimale Zeit zwischen zwei Lautübergängen fest, die erforderlich ist, um die Laute getrennt wahrnehmen zu können (Albert u. Bear 1974, Hendler et al. 1990, Schwarz u. Tomlinson 1990). Lagen die Zeiten bei Gesunden zwischen 1 und 3 Millisekunden, lagen sie bei worttauben Patienten zwischen 15 und 30 Millisekunden, und bei keinem der Patienten lag das Intervall unterhalb von 2 msec (Albert u. Bear 1974). Insbesondere bei Patienten mit schwereren Läsionen waren die Zeiten deutlich erhöht. 6 Diskussion 101 Bei Patienten mit reiner Worttaubheit wurde zudem deren Fähigkeit getestet, Phoneme zu identifizieren. Wie bei PHILLIPS wurde festgestellt, dass die Patienten größere Schwierigkeiten hatten, Verschlusslaute zu identifizieren als Vokale (Eggermont 1991). EGGERMONT stellt fest, dass seinem Ergebnis dadurch eine besondere Bedeutung verliehen wird, dass die akustischen Signale der Verschlusslaute zeitlich differenziert und aperiodisch sind (z.B. Zischen, Einatmen) (Eggermont 1991). Im Gegensatz hierzu zeigten bei den Untersuchungen von EGGERMONT die akustisch konstanten Vokale keine zeitlichen akustischen Veränderungen, die phonetisch von Bedeutung sind. Die zeitliche Struktur der akustischen Ereignisse lag bei Verschlusslauten im Bereich von einer bis zehn Millisekunden, d.h. im Bereich der Zeiteinstellung des primären Hörfelds, aber nicht im Bereich anderer zerebraler Bereiche (Eggermont 1991). Die Ergebnisse von EGGERMONT bestätigen somit die von PHILLIPS, dass der zeitliche Verlauf eine entscheidende Rolle bei der Identifizierung von Phonemen spielt, die im primären Hörfeld stattfindet. Auch neurophysiologische Ergebnisse bekräftigen die Aussagen von PHILLIPS. Die grundlegende funktionelle Organisation des primären auditorischen Kortex ähnelt im Prinzip der von Primaten und Katzen (Brugge 1975). Er ist tonotopisch organisiert, was darauf hinweist, dass seine afferente Bahn die frequenzspezifischen Kanäle bewahrt hat, die in der auditorischen Peripherie, wie beispielsweise der Kochlea, entstanden sind. Dies führt zu der Schlussfolgerung, dass die kortikale Repräsentation des Spektrums von jedem beliebigen auditorischen Ereignis auf der räumlichen Verteilung der Aktivität beruht, die im Bereich des neuronalen Mosaiks evoziert wurde, das die Anordnung der Frequenzen der Kochlea wiedergibt (Brugge 1975). Es gibt zwei Möglichkeiten, die Fähigkeit der kortikalen oder auditorischen Neuronen zu bestimmen, die Zeit-Abstimmung von Stimulusereignissen zu codieren (Hall 1991). Eine ist das „ Zittern“ in der Synchronisation von Antworten auf einen transitorischen Stimulus. Im Kortex der Katze sind die 6 Diskussion 102 Standardabweichungen dieser Spike-Zeiten8 relativ klein, gewöhnlich unter 1,5 msec, und sind vergleichbar mit denen im Kochlearnerv (Hall 1991). Das zweite Mittel, mit dem Hörnerven die zeitliche Struktur eines Lauts anzeigen, beruht auf dessen Fähigkeit, Spike-Entladungen mit Stimulus-Frequenzen in eine Phasenübereinstimmung zu bringen. Direkte Messungen von kortikalen Zellen zeigen, dass die optimalen Frequenzen unter 100 Hz liegen und dass Frequenzen über 4000 Hz nicht in Phasenübereinstimmung gebracht werden können. Das bedeutet, dass die Laute der Sprache in Phasenübereinstimmung gebracht werden können. Antworten auf Reize im Kortex zeigten eine Genauigkeit des Antwortverhaltens, die nur etwas schlechter als die der Fasern des Kochlearnervs war (Creutzfeld et al. 1980). Dies bestätigt wieder – wie ALBERT und BEAR feststellten (Albert u. Bear 1974) –, dass die Einschränkung der Spracherkennung bei primärer Worttaubheit eine Manifestation einer eher grundlegenden zeitlichen Verarbeitungsstörung des auditiven Systems auf einer unteren Verarbeitungsebene (Hörnerv) ist, die sich auf eine höhere (den Kortex) fortpflanzt. Mehrere Untersuchungen bestätigen die Ergebnisse PHILLIPS, dass für die reine Worttaubheit fast immer eine Läsion des einen oder der beiden primären Hörfelder pathognomonisch ist (Phillips 1990). Die Worttaubheit kann einerseits mit bilateralen Läsionen der Temporalregionen verbunden sein (Auerbach et al. 1982), zum anderen mit Läsionen, die auf den linken Temporallappen beschränkt sind (Luria 1976). Bereits 1974 wurde eine neurophysiologische Studie von ALBERT und BEAR bei Tieren durchgeführt. Sie zeigte insbesondere, dass dem primären Hörfeld eine besondere Rolle zukommt in der Darstellung von Klängen mit zeitlichen Komponenten in einem Bereich von 200 bis 4000 Hz (Albert und Bear 1974), d.h. in dem Bereich, in dem die menschliche Sprache liegt. 8 Spike: Spitze, Kurvenzacke. Spikes können während der Reaktion auf einen Stimulus von der Oberfläche einer Nervenstruktur abgeleitet werden. Es sind spitze Potenziale mit steil ansteigender und abfallender erhöhter Amplitude. 6 Diskussion 103 Bei dem von OTSUKI et al. beschriebenen Fall reiner Worttaubheit war eine kortikale Atrophie feststellbar, die hauptsächlich in der linken oberen Temporalregion lokalisiert war, d.h. dem Ort der primären Hörrinde (Otsuki et al. 1998). Es handelte sich um einen 67-jährigen rechtshändigen Patienten, der innerhalb eines Zeitraums von neun Jahren eine reine Worttaubheit entwickelte, ohne dass andere Minderungen geistiger Fähigkeiten auftraten. NOTOYA et al. beschrieben einen Fall reiner Worttaubheit, der die Ergebnisse von PHILLIPS bestätigt (Notoya et al. 1991). Die Patientin litt unter einer reinen Worttaubheit in Verbindung mit einem Landau-Kleffner-Syndrom (s. 4.2.2.2). Erste Störungen machten sich im Alter von vier Jahren bemerkbar. Im Alter von 20 Jahren hatte sich die Hörstörung nicht signifikant gebessert. Die Patientin konnte zunächst weder Vokale noch aus Vokalen und Konsonanten bestehende Silben erkennen. Später hatte sie keine Schwierigkeiten mehr, Vokale zu erkennen, aber ihre Identifizierung von Konsonanten verbesserte sich kaum. Bei den Konsonanten konnte sie zwischen stimmlosen und stimmhaften unterscheiden, aber sie hatte große Probleme, die Konsonanten innerhalb jeder Gruppe zu identifizieren. Diese Ergebnisse lassen darauf schließen, dass es der Patientin unmöglich ist, kurzzeitig andauernde Konsonanten zu erkennen. Die zugrunde liegende Störung ist eine Insensibilität für Lautheit und ein Defekt in der zeitlichen Auflösung, d.h. eine Störung im vorsprachlichen Niveau. BADDELEY und WILSON (1976) untersuchten einen Fall von Worttaubheit, bei dem die Fähigkeit der Patientin, Worte zu wiederholen, eingeschränkt war, obwohl die audiometrisch und tympanometrisch gemessenen Werte im Normbereich lagen. Auch hatte die Patientin Schwierigkeiten, Laute aus der Umgebung zu erkennen. Dagegen waren ihr phonologisches visuelles Gedächtnis und ihr auditorisches Gedächtnis nur geringfügig beeinträchtigt. Aufgrund dieser Ergebnisse kamen BADDELEY und WILSON zu dem Schluss, dass bei der Patientin grundlegende auditive Wahrnehmungsprozesse gestört waren (Baddeley u. Wilson 1976). 6 Diskussion 104 SAFFRAN et al. (1976) beschrieben einen Fall einer reinen Worttaubheit. Es handelte sich um einen 37-jährigen Patienten, der seit Jahren unter epileptischen Anfällen und einer peripheren Neuropathie aufgrund eines Alkoholabusus litt. Der Patient hatte insbesondere Probleme in der Diskrimination von verbalen Verschlusslauten (Stopp-Konsonanten). Nach SAFFRAN et al. weist dies daraufhin, dass die Störung auf einem vorsprachlichen Niveau beruht. Die reine Worttaubheit sei eine Störung der zeitlichen Verarbeitung des auditorischen Stimulus. 'LH&RQWUD3RVLWLRQ Nicht alle Untersucher unterstützen die Aussage PHILLIPS, dass die reine Worttaubheit eine Manifestation einer eher grundlegenden zeitlichen Verarbeitungsstörung auf vorsprachlichem Niveau sei. Die Wissenschaftler sind sich auch nicht einig darüber, wo die Schädigungen, die eine reine Worttaubheit bedingen, genau in den Sprachzentren des Gehirns lokalisiert sind. Es besteht noch nicht einmal Klarheit darüber, ob eine bestimmte Aphasieform mit einer Schädigung eines bestimmten Ortes verbunden ist. SCHMIDT et al. sind überzeugt, dass den verschiedenen Aphasieformen abgrenzbare und verschiedene Läsionsorte im Gehirn zugrunde liegen würden. Die transkortikale sensorische Aphasie, bei der die Fähigkeit nachzusprechen zwar gut erhalten ist, wohingegen Defizite im Sprachverständnis ausgeprägt sind, werde durch Läsionen in der Nähe des linken perisylvischen Bereichs verursacht (Schmidt et al. 2001). HUBER et al. meinen dagegen, dass die Theorie, dass Aphasien mit lokalisierten Läsionen (verschiedene Aphasiesyndrome mit spezifisch lokalisierten Läsionen) verbunden seien, veraltet sei und heutzutage teilweise ihre Gültigkeit verloren 6 Diskussion 105 habe. Die Meinung, dass die Zuordnung einer verlorenen Funktion auf einen einzigen umschriebenen geschädigten Bezirk möglich sei, müsse berichtigt werden (Huber et al. 2000). HUBER et al. (2000) sind der Überzeugung, dass noch unbekannt sei, wo der Entstehungsort der reinen Worttaubheit genau liege. Nach Meinung der Forscher deutet vieles daraufhin, dass dies kein einziger klar abgrenzbarer Bereich sei, sondern mehrere gleichzeitig ablaufende Mechanismen an verschiedenen Orten eine Rolle spielten. HUBER et al. (2000) sind überzeugt davon, dass insbesondere die neuen Techniken (PET, kortikale Stimulation, CT, MRI, FMRI, siehe 3.5) eine genaue Lokalisation am Lebenden und eine Verbindung zu den vorhandenen Sprachstörungen erlauben. Zudem lassen sie die Entwicklung einer Sprachstörung im Verlauf der Zeit verfolgen. Es zeige sich, dass nicht mehr eng umschriebene Zentren für bestimmte sprachliche Leistungen zuständig sind, sondern dass eine synchronisierte Aktivität in ausgedehnten neuronalen Netzwerken von Regionen in der Hirnrinde, in den subkortikalen Kerngebieten und den Verbindungen dieser Bezirke in reziproker Weise stattfindet (Huber 2000). Verschiedene Wissenschaftler kommen nach Falluntersuchungen zu dem Schluss, dass die reine Worttaubheit auf kombinierten Defekten beruhe. Hier gilt der von VON STOCKERT beschriebene Fall erneut als beispielgebend: Nach einem Selbstmordversuch durch eine schwere Schussverletzung bei der beide Temporalregionen betroffen waren litt der 23-jährige Patient unter einer reinen Worttaubheit. Trotz intensiver Rehabilitationsbemühungen blieb eine leichte linksseitige Ataxie, ein bilateraler oberer Gesichtsfeldausfall und eine Verständigungsschwierigkeit bestehen. Intensive Untersuchungen bestätigten die Vermutung, dass es sich hier um primäre Worttaubheit handelt. Der neurologische Zustand blieb auch mehrere Monate danach noch nahezu unverändert bestehen, d. h. noch immer bestanden die leichte Ataxie, der Gesichtsfeldausfall und eine schwere Störung des auditiven Wahrnehmungsvermögens, die dem Patienten eine Unterhaltung unmöglich machte. (von Stockert 1982). 6 Diskussion 106 Seine Sprache war schnell, aber nicht dysarthrisch. Bis zu einem gewissen Grade konnte er Sätze verstehen. Er hatte mehr Schwierigkeiten, einzelne Phoneme und Silben zu verstehen als Worte bzw. Sätze. Dies machte sich besonders dann bemerkbar, wenn er zwischen zwei Worten unterscheiden musste, die nur in einer einzigen Silbe verschieden waren. Die Verständnisschwierigkeit nahm bei längeren Worten zu, trat jedoch weniger stark bei Sätzen in Erscheinung. Nach mehreren Tests, in denen der Patient gehörte Silbenfolgen (Worte und sinnlose Silbenkombinationen) nachsprechen sollte, kam VON STOCKERT zu dem Ergebnis, dass den Patienten offensichtlich ein gestörtes phonemisches Muster erreichte und er versuchte, das wirkliche Wort in einem „ inneren Wörterbuch“ zu finden. VON STOCKERT stellte fest, dass im Gegensatz zum Gesunden die Verständnisschwierigkeit des Patienten mit der Anzahl der Silben zunahm. Insgesamt kam VON STOCKERT (1982) zu dem Schluss, dass die reine Worttaubheit durch Störungen höherer kortikaler Funktionen verursacht werde. Seiner Meinung nach bestand der zugrunde liegende Hauptmechanismus der Erkrankung darin, dass es nicht gelingt, akustische Stimuli in eine richtige Reihenfolge zu bringen. Beim Vergleich verschiedener wissenschaftlicher Beiträge stellten OTSUKI et al. fest, dass keine Beziehung zwischen dem Aphasietyp und dem pathologischen Befund festzustellen sei (Otsuki et al. 1998). So kann nach OTSUKIs Meinung kein bestimmter Kortexbereich gefunden werden, dessen Läsion eine reine Worttaubheit hervorruft. PRAAMSTA et al. stellen fest, dass die Ursache der reinen Worttaubheit auf kombinierten Defekten beruhe (Praamsta et al. 1991). Die Wissenschaftler beschreiben einen Fall, der nach einem linksseitigen temporoparietalen Infarkt worttaub wurde und nach einem rechtseitigen Infarkt auch das semantische Sprachverständnis verlor. Daraus schließen PRAAMSTA et al., dass die reine Worttaubheit auf mehreren, miteinander Schädigungen beruhe (Praamsta et al. 1991). in Zusammenhang stehenden 6 Diskussion 107 Auch eine andere Aussage PHILLIPS blieb nicht unwidersprochen. So zeigten die Untersuchungen von PHILLIPS, dass die Antworten auf Reize im Kortex eine Genauigkeit des Antwortverhaltens zeigten, die nur etwas schlechter als die der Fasern des Kochlearnervs ist. Dies steht im Gegensatz zu früheren Ergebnissen zu der langsamen Antwort kortikaler Zellen, die wenigstens eine Ordnung schlechter ist als diejenige der Fasern des Hörnervs und vieler kochlearer Nukleuszellen. So stellen CARNEY und GEISLER (1986) fest, es sei bemerkenswert, dass die Fasern des Kochlearnervs nur eine Synapse entfernt von der Basilarismembran seien und sich mit jeder zusätzlichen Synapse auf der Hörbahn die Genauigkeit des Codes verringern würde – teilweise aufgrund des Zitterns, das durch chemische synaptische Vorkommnisse verursacht würde und teilweise durch neuronale Anpassung. In diesem Zusammenhang sei die Darstellungsgenauigkeit der zeitlichen Struktur insbesondere der Vokalstruktur auf der Ebene des ventralen Nucleus cochlearis bereits deutlich erniedrigt, und es sei verständlich, dass die Genauigkeit im primären auditorischen Kortex zu gering sei, um die zeitliche Verschlüsselung der Vokalstruktur zu unterstützen. 6FKOXVVIROJHUXQJ Leidet ein Patient unter einer grundlegenden auditorischen Wahrnehmungsstörung, so ist es für ihn unmöglich, Laute richtig zu erkennen, und zwar sowohl sprachliche als auch nichtsprachliche. Ist diese Fähigkeit erloschen, ist es jedoch auch nicht mehr möglich, Silben und Worte zu identifizieren oder gar dem Gehörten eine semantische Struktur zuzuordnen. Das bedeutet, es ist auch die Fähigkeit verloren gegangen, Sprache zu erkennen, also eine Fähigkeit, die den höheren Sprachzentren zugeschrieben wird. Somit pflanzt sich eine Störung auf der frühen Verarbeitungsebene auf die höheren fort. Beispielsweise ist in dem von VON STOCKERT beschriebenen Fall die Verständnisschwierigkeit bei Phonemen besonders hoch (von Stockert 1982). 6 Diskussion 108 Dies lässt erkennen, das der Patient über eine intakte innere Struktur höherer Sprachzentren verfügt und somit auf ein Lexikon zurückgreifen kann, das es ihm möglich macht, aus dem gestörten empfangenen Klangmuster ein sinnvolles Wort zu rekonstruieren. Bei Phonemen gelingt dies jedoch nicht immer. Stellen Wissenschaftler fest, dass eine Worttaubheit auf kombinierten Defekten höherer geistiger Funktionen beruhe, so beziehen sie sich zumeist auf die Beschreibung eines Falles, der in der Tat von multiplen Traumata der Rindenoberfläche betroffen ist. Es ist dann nicht auszumachen, welcher Bezirk die „ reine Worttaubheit“ und welcher Bezirk andere Dysfunktionen verursacht. So beziehen sich die Fallbeschreibungen von OTSUKI, VON STOCKERT und PRAAMSTA auf Patienten, bei denen mehrere Läsionen der Rindenoberfläche bestanden. Daher ist davon auszugehen, dass der primäre auditorische Kortex von der Erkrankung nicht allein betroffen war (Otsuki et al. 1998, von Stockert 1982, Praamsta et al. 1991). So ist verständlich, dass die Patienten unter kombinierten Defekten litten. Insbesondere hatte der von PRAAMSTA beschriebene Fall nach einer Läsion im linken Temporallappen nachfolgend einen Infarkt im rechten Temporallappen erlitten. Erst im Anschluss an den zweiten Schlaganfall kam es zu einem schweren Sprachverständnisdefizit. Auch andere Feststellungen, die im Gegensatz zu den Aussagen von PHILLIPS stehen, sind zweifelhaft. Die Aussage von CARNEY und GEISLER (1986), dass die Darstellungsgenauigkeit der zeitlichen Struktur von Lauten im Bereich des primären Hörkortex deutlich geringer sei als die im Bereich des Kochlearnervs, bezieht sich in erster Linie auf Vokale. Auch PHILLIPS stellte fest, dass das Erkennungsvermögen für Vokale bei primärer Worttaubheit erhalten bliebe, nicht jedoch das für Stopp-Konsonanten (Phillips 1995). Dies lässt darauf schließen, dass die Erkennung der zeitlichen Struktur von Vokalen nicht im primären auditorischen Kortex stattfindet, wohl aber das für Stopp-Konsonanten. 6 Diskussion 109 (QWVWHKXQJVEHGLQJXQJHQGHU/HJDVWKHQLH 3RVWXODWHXQG6FKOXVVIROJHUXQJHQYRQ7$//$/ 7$/&277XQGDQGHUHQ Auch andere Untersuchungen, die sich jedoch auf ein anderes Krankheitsbild, nämlich die Legasthenie beziehen, kamen zu dem Ergebnis, dass der Wahrnehmung nichtsprachlicher Reize eine höhere Bedeutung zukommt, als bisher angenommen wurde. So beschreiben mehrere Wissenschaftler – insbesondere Paula TALLAL sowie Joel TALCOTT – das reibungslose Funktionieren der optischen und akustischen Sinneswahrnehmungen als unumgängliche Voraussetzung für das erfolgreiche Erlernen von Schreiben und Lesen. In verschiedenen Untersuchungen konnte nachgewiesen werden, dass bei Legasthenikern häufig ein auditives bzw. visuelles Informationsverarbeitungsdefizit bereits auf nichtsprachlicher Ebene vorliegt. Da die Wahrnehmung nichtsprachlicher Reize Voraussetzung für die Sprachverarbeitung in höheren Ebenen ist, kommt dieser Störung mit hoher Wahrscheinlichkeit eine große Bedeutung bei der Entstehung der Legasthenie zu. 6W|UXQJHQGHU6HKYHUDUEHLWXQJ TALCOTT und STEIN stellten fest, dass etwa 75 Prozent der legasthenen Kinder in Tests schwächer abschneiden, die eine rasche visuelle Informationsverarbeitung verlangen. Zudem entdeckten TALCOTT et al., dass erwachsene legasthene Versuchspersonen auf langsame oder kontrastreiche visuelle Reize genauso gut reagierten wie gute Leser. Bei schnell bewegten Reizen mit niedrigem Kontrast aber schnitten die legasthenen Versuchspersonen im Vergleich mit Erwachsenen ohne Leseschwächen deutlich schlechter ab (Stein u. Talcott 1999). 6 Diskussion 110 In den Untersuchungen von TALCOTT und STEIN (1999) gelang es Legasthenikern, erst ab einer höheren Anzahl von sich bewegenden Punkten auf einem Computerbildschirm zu erkennen, dass diese plötzlich in die gleiche Richtung bewegt werden. Je mehr Schwierigkeiten sie bei dieser Aufgabe hatten, desto stärker war auch ihre LRS ausgeprägt. TALCOTT und STEIN sind überzeugt, dass dieser Befund es sehr wahrscheinlich mache, dass die Lesefähigkeit auf der Fertigkeit beruht, rasche Veränderungen elementarer Sinneseindrücke wahrzunehmen. Somit hängt die Legasthenie mit einer Schwäche beim Verarbeiten optischer Eindrücke im Gehirn zusammen. TALCOTT und STEIN untersuchten zwei Verarbeitungskanäle der menschlichen Sehbahn, die ihren Anfang in unterschiedlichen Zellen der Retina nehmen und zu zwei unterschiedlichen Zellschichten (der magnozellulären und der parvozellulären) im Corpus geniculatum laterale leiten. Von dort werden die Seheindrücke zum visuellen Kortex weitergeleitet. Der magnozelluläre Anteil des primären visuellen Kortex (V1) projiziert über die Area V5 überwiegend in den parietalen Kortex (so genannte M-Bahn), hingegen erreichen den temporalen Kortex sowohl parvo- als auch magnozelluläre Bahnen (Merigan und Maunsell 1993). Die großen Zellen im Corpus geniculatum laterale (großzelliger oder magnozellulärer Verarbeitungsweg) sind äußerst empfindlich für schwache Kontraste und verarbeiten rasch aufeinander folgende bzw. sehr kurz anhaltende Seheindrücke. Die magnozellulären Hirnzellen dienen zudem der Integration von Informationen zwischen Fixationen und Augenbewegungen (Lovegrove 1982). Signale aus diesem System werden bis in Gebiete der Hirnrinde weitergeleitet, die auch an der Steuerung von Augenbewegungen beteiligt sind. Die kleinen Zellen im Corpus geniculatum laterale (kleinzelliger oder parvozellulärer Verarbeitungsweg) verarbeiten Farben, starke Kontraste und lang anhaltende bzw. unbewegte Sehreize. Außerdem sind sie für das räumliche Sehen zuständig. 6 Diskussion 111 TALLAL stelllte fest, dass die Legasthenie offenbar in Verbindung mit Normabweichungen neuroanatomischer und hirnfunktioneller Merkmale steht, wobei der M-Bahn eine besondere Bedeutung zukommt. Es gibt Hinweise dafür, dass diese von Magnozellen gebildete Bahn bei Legasthenikern weniger leistungsfähig ist (Tallal 2000). GALABURDA und LIVINGSTONE entdeckten in histologischen Präparaten des Corpus geniculatum laterale bei LRS-Patienten eine Verminderung der Zahl der Nervenzellen in der Magnozellschicht (Galaburda u. Livingston 1993). Dies könnte in Zusammenhang mit einer visuellen Wahrnehmungsschwäche stehen: Wie bereits erwähnt, wird im Corpus geniculatum laterale die visuelle Information umgeschaltet und zur optischen Hirnrinde weitergeleitet. Auch TALCOTT et al. (1997) fanden bei Untersuchung von Hirnschnitten ehemals legasthener Personen, dass die großzelligen Schichten im seitlichen Kniehöcker von legasthenen Gehirnen weniger organisiert waren und kleinere Zellkörper enthielten im Vergleich mit Gehirnen von ehemals nichtlegasthenen Personen. Da das Lesen sehr rasche Informationsverarbeitung erfordert, könnte die unzureichende Leistungsfähigkeit des großzelligen Verarbeitungskanals Leselern- und Leseschwierigkeiten mit visuellem Schwerpunkt erklären (Talcott et al. 1997). Zwar fanden GALABURDA und LIVINGSTONE (1993) bei Legasthenikern Unterschiede in der Struktur und Funktion der magnozellulären Systeme, aber intakte parvozelluläre Systeme. Es zeigten sich signifikante zelluläre Unterschiede auf der Ebene des Thalamus, und zwar nicht nur im Corpus geniculatum laterale, das visuelle Informationen weiterleitet, sondern auch im weiteren Verlauf des visuellen Systems. Daher stellten STEIN und TALCOTT die Hypothese auf, dass bei Legasthenikern – vielleicht als Folge einer mütterlichen immunogenen Reaktion – während der fetalen Entwicklung junge Nervenzellen im Gehirn geschädigt würden. Dadurch komme es zu einer Behinderung ihres Zusammenwachsens. Ebenso sei die 6 Diskussion 112 Ausbildung der M-Bahn von der Netzhaut zum lateralen Corpus geniculatum und weiter zum visuellen Kortex gestört (Stein u. Talcott 1999). 6W|UXQJHQGHU+|UYHUDUEHLWXQJ Von Paula TALLAL wurde der Begriff des Specific Language Impairment (SLI) geprägt. Diese Störung benennt eine nicht altersgemäße Entwicklung der Sprechfähigkeit bei ansonsten normalen kognitiven Fähigkeiten (Tallal u. Piercy 1973, Tallal 1993). Die Sprachverzögerung beträgt mindestens ein Jahr, der Handlungs-IQ liegt im Durchschnittsbereich. Als TALLAL et al. (1985) sprachverzögerte Kinder mit Leselernschwierigkeiten untersuchten, kamen die Wissenschaftler zu dem Ergebnis, dass 98 Prozent der sprachbehinderten Kinder von Kontrollkindern allein mit Hilfe einer Testreihe unterschieden werden konnten, die schnelle Sprachproduktion oder rasche Lautunterscheidung bzw. eine Unterscheidung von rasch aufeinander folgenden Berührungsreizen erforderte. Dabei stellten TALLAL et al. (1985) eine zeitliche Verlangsamung der Hörverarbeitung bei Legasthenikern fest. Unter anderem machte sich diese in einer mangelhaften „ Filterfunktion“ des Gehörs bemerkbar: Einen bestimmten Sprecher aus einem „ akustischen Salat“ von Störgeräuschen und anderen Sprechern herauszuhören und zu verstehen stellt für Legastheniker eine besondere Schwierigkeit dar (Tallal et al. 1985). TALLAL et al. (1985) konnten nachweisen, dass das bei Legasthenie häufig vorkommende auditive Informationsverarbeitungsdefizit bereits auf nichtsprachlicher Ebene vorliegt. Da die Wahrnehmung nichtsprachlicher Reize Voraussetzung für die Sprachverarbeitung in höheren Ebenen ist, kommt dieser Störung mit hoher Wahrscheinlichkeit eine große Bedeutung bei der Entstehung der Legasthenie zu (Tallal et al. 1985). 6 Diskussion 113 TALLAL et al. (1985) sind überzeugt, dass auch die Verarbeitung in den Hörbahnen bei legasthenen Kindern sehr häufig beeinträchtigt ist (Tallal et al. 1985). So können die Zellen der entsprechenden Schaltstelle im Corpus geniculatum mediale kurz anklingende Hörreize nicht verarbeiten. Dies ist der Grund, warum es einem hohen Prozentsatz legasthener Menschen nicht möglich ist, die nur kurz anklingenden Konsonanten (vor allem b–p, d–t, g–k) und die ähnlichen Kurzvokale (o–u, i–e) zu unterscheiden (Tallal et al. 2000). 7$//$/+\SRWKHVH TALLAL et al. (1993) nehmen einen Zusammenhang zwischen auditiven und – wie STEIN und TALCOTT (1999) – auch visuellen Problemen an. Sowohl die Unterscheidung von Sprachlauten im gesprochenen Wort als auch die von Buchstabenkombinationen des geschriebenen Wortes erfordern eine rasche zeitliche Verarbeitung. Offenbar besteht dabei ein Zusammenhang mit Defiziten bei akustischen Sinnesleistungen: Kinder, die bei der Untersuchung TALCOTT‘s et al. (1993) schlecht abschnitten, hatten auch große Probleme, zwischen richtig und falsch buchstabierten Wörtern zu unterscheiden. Je ausgeprägter sich dieses doppelte Defizit zeigte, desto schwerer war die Leseschwäche (Talcott et al. 1993). Die Untersuchungen von TALLAL et al. (1993) bekräftigen die Hypothese, dass Leseschwache dann Schwächen in der Wahrnehmung von nichtsprachlichen Reizen aufweisen, wenn diese in einem sehr kurzen zeitlichen Abstand nacheinander präsentiert werden. In dieser Untersuchungsreihe wurden legasthene mit nichtleseschwachen Kindern anhand von Aufgaben zum Erkennen der Reihenfolge von zwei Tönen bzw. zwei komplexen Tonkombinationen verglichen (Tallal 1980). 6 Diskussion 114 Ein Unterschied zwischen den beiden Gruppen zeigte sich erst dann, wenn der Zeitabstand zwischen zwei Reizen geringer als 305 msec war. Aus diesem Ergebnis kann gefolgert werden, dass sich bei sehr kurzem Interstimulusintervall bereits auf nichtsprachlicher Ebene eine Schwäche zeigt, die möglicherweise im direkten Zusammenhang mit der Sprachwahrnehmung steht (Tallal et al. 1993). Insgesamt spielen zeitabhängige Mechanismen im Nervensystem offenbar eine zentrale Rolle in den grundlegenden Prozessen der Informationsverarbeitung. Daher sind sie von großer Bedeutung für die normale Entwicklung des phonologischen Systems. Offenbar besteht ein enger Zusammenhang zwischen Dysphasie und Legasthenie (Tallal et al. 1993). So zeigten Studien, dass Kinder, deren Sprachentwicklung verzögert ist, ein hohes Risiko haben, Legasthenie zu entwickeln (Tallal 2000). Es kann davon ausgegangen werden, dass eine Störung im akustischen Sinneskanal dazu führt, dass zu wenige für die Sprachentwicklung wichtige Lautreize aus der Umwelt das Gehirn erreichen. So verbinden sich die betroffenen Nervenzellen nur ungenügend zu Einheiten, die bestimmten Lauten zugeordnet sind. Die verringerte Fähigkeit, die raschen Schwankungen der Tonhöhe zu identifizieren, geht mit Schwierigkeiten beim Aussprechen mancher Wörter einher. Das bedeutet, dass sowohl Sprach- als auch Leseprobleme ihren Ursprung in einer ungenügend entwickelten Fähigkeit der Verarbeitung und Decodierung schneller Impulse haben (Tallal 2000). Die visuelle Identifizierung von Graphemen ist nur dann möglich, wenn die visuelle Darstellung mit der begrenzt dauernden neuronalen Darstellung des passenden Phonems assoziiert werden kann. TALLAL et al. (1993) nehmen an, dass sprach- und lesegestörte Kinder- entsprechend ihrer grundlegenden Störung der auditiven Verarbeitung – keine stabilen und unbeweglichen neuronalen Darstellungen von Phonemen bilden können. Wie LIBERMANN (1985) erklärte, gelingt es diesen Kindern dann nicht, eine phonologische Bewusstheit zu erreichen. 6 Diskussion 115 1HXURDQDWRPLVFKH9HUlQGHUXQJHQ TALLAL et al. (1991) stellten, verglichen mit gesunden Kindern, verschiedene Muster der zerebralen Lateralisation in Gehirnen von SLI-Kindern fest. Insbesondere kann bei SLI-Kindern die physiologische Asymmetrie zugunsten der linken Hirnhälfte aufgehoben sein, und wiederholt wurden Abnormitäten der dort gelegenen Hirnwindungen belegt. Diese Abnormitäten zeigten sich teilweise sowohl im Präfrontalkortex als auch in der parietalen Region. Es fand sich eine hochsignifikante Korrelation zwischen dem Ausmaß der hemisphärischen Asymmetrie dieser kortikalen Bereiche und dem Ausmaß des Defizits bezüglich der zeitlichen Verarbeitung akustischer Ereignisse. 'LH3UR3RVLWLRQ 6W|UXQJHQGHU6HKYHUDUEHLWXQJ WARNKE und REMSCHMIDT (1982) wiesen nach, dass bei mindestens 5 bis 10 Prozent der legasthenen Kinder visuell-räumliche Wahrnehmungsschwierigkeiten anzutreffen sind. Diese Defizite zeigten sich in der Analyse und im Kodieren von visueller Information. In neurobiologischen Befunden konnte gezeigt werden, dass bei einem Teil der Personen mit LRS Besonderheiten in der Anatomie und der Hirnfunktion des Systems visueller Informationsverarbeitung zu erkennen sind. Es wurden Anomalien der neuronalen Migration in den magnozellulären Schichten des lateralen Nucleus geniculatus gefunden. Außerdem zeigten Kinder mit LRS linkszentral abnorme Verläufe im visuell-evozierten Potenzial (Warnke und Remschmidt 1992). Die Annahme gestörter kortiko-thalamo-kortikaler Netzwerke konnte durch magnetresonanztomographische Untersuchungen unterstützt werden. JERNIGAN et al. (1991) wiesen eine signifikante Reduktion der grauen Substanz in subkortikalen Strukturen (einschließlich des Corpus striatum und des Thalamus) 6 Diskussion 116 sowie in kortikalen Strukturen nach, die bekannt sind, der Sprachverarbeitung zu dienen. 6W|UXQJHQGHU+|UYHUDUEHLWXQJ Nach Untersuchungen an legasthenen Kindern kamen MANIS et al. (1997) zu mit denen von TALLAL (2000) übereinstimmenden Schlüssen. MANIS et al. (1997) wiesen nach, dass 7 von 25 Legasthenikern Schwächen bei der nichtsprachlichen Wahrnehmung von Sprache hatten, aber nur 1 Kind in der Vergleichsgruppe mit altersgerechter Leseentwicklung. MANIS et al. schließen daraus, dass Legastheniker ein nichtsprachliches Wahrnehmungsdefizit haben können, das die Sprachverarbeitung verzögert und zur Lese-Rechtschreib-Schwäche führt (Manis et al. 1997) – eine Aussage, die mit derjenigen von Paula TALLAL (2000) übereinstimmt. /HJDVWKHQH6FKZlFKHQ±6FKZlFKHQGHUUDVFKHQ]HLWOLFKHQ 9HUDUEHLWXQJ Die Untersuchungen von TALLAL et al. (1993) unterstützen die Hypothese, dass Leseschwache dann Schwächen in der Wahrnehmung von nichtsprachlichen Reizen aufweisen, wenn diese in einem sehr kurzen zeitlichen Abstand nacheinander präsentiert werden. Auch andere Wissenschaftler kommen zu diesem Ergebnis. So entdeckten LIVINGSTONE et al., dass erwachsene legasthene Versuchspersonen auf langsame oder kontrastreiche visuelle Reize genauso gut reagierten wie gute Leser. Bei schnell bewegten Reizen mit niedrigem Kontrast aber schnitten die legasthenen Versuchspersonen im Vergleich mit Erwachsenen ohne Leseschwächen deutlich schlechter ab (Livingstone et al. 1991). 6 Diskussion 117 Auch MERZENICH et al. (1993) und LLINAS (1993) stellen fest, dass Legastheniker schnelle Impulse unzureichend verarbeiten und decodieren. Aus ihren Untersuchungen schließen MERZENICH et al. (1993), dass Defizite in der zeitlichen Verarbeitung von Sprache erlernt sein können. Die erhaltenen Daten bestärken die Vermutung, dass Störungen der zeitlichen Verarbeitung im Hörsystem ausreichen, um eine Entwicklung des Lesenlernens zu unterbrechen. So könne ein früher Erfahrungsmangel das Nervensystem so stark schädigen, dass ihm eine schnelle Informationsverarbeitung unmöglich sei. Da das Gehirn aber gewährleisten müsse, dass es sich in Einklang mit der äußeren Welt befinde, passe sich seine Verarbeitung der Sinne dem langsamsten an. MERZENICH et al. (1993) sind der Überzeugung, dass sich neuronale Veränderungen aufgrund eines fehlerhaften Lernvorgangs bilden würden. Ein Defekt in nur einem von mehreren hundert Proteinen kann zu einer Verlangsamung des Lernprozesses führen. Da Legastheniker normal intelligent sind, ist zu vermuten, dass Lesen auf der Fähigkeit eines nicht oder wenig assoziativen Systems beruht. MERZENICH et al. (1993) glauben, dass die neuronale Veränderung, die eine Legasthenie verursacht, auf Veränderungen beruht, die die Eigenschaften der zeitlichen Verarbeitung von Eingaben kontrollieren (Merzenich et al. 1993). LLINAS (1993) stellt eine andere Hypothese vor. Nach LLINAS (1993) ist bei Legasthenikern eine besondere innere „ Uhr“ , die die Rate der neuronalen Entladungen kontrolliert, gestört. So liegt nach LLINAS (1993) die Frequenz der neuronalen Entladungen im Rindenbereich normalerweise im 40-Hz-Bereich. LLINAS (1993) nimmt an, dass diese neuronalen Schwingungsmuster wichtige Voraussetzungen seien, um sensorische Informationen in kortiko-thalamokortikale Netzwerke hineinzulassen. Werden die inneren Oszillationsraten verlangsamt, z.B. wegen einer Veränderung des ZNS während der Embryonalentwicklung, so ist es nach der Auffassung von LLINAS (1993) unmöglich, sensorische oder motorische Informationen zu verarbeiten, die im Zehn-Millisekunden-Bereich ablaufen, d.h. die Störung, von der sprach- oder 6 Diskussion 118 lesegestörte Kinder betroffen sind. LLINAS (1993) bemerkt, dass seine Hypothese sehr gut erklären könnte, warum Legasthenikern eine geeignete Triggerung oder Neueinstellung von Frequenzen im 40-Hz- bzw. 10-Hz-Bereich fehlt. Ergebnisse aus früheren Untersuchungen (McGuire 1989) weisen zudem daraufhin, dass es nicht nur in der visuellen und auditiven Verarbeitung, sondern auch in anderen Wahrnehmungssystemen die Unterteilung in rasche und langsame Kanäle gibt, z.B. für Berührungsreize. Dann wäre auch zu erwarten, dass legasthene Kinder ebenso bei der Wahrnehmung von Melodie, Rhythmus und Bewegungen langsamer sind als andere Kinder. Es stellt sich die Frage, warum Kinder mit solch schweren Störungen der zeitlichen Verarbeitung von Sinnesreizen relativ normal leistungsfähig sind. Der zeitliche Rahmen der Störung liegt im Zehn-Millisekunden-Bereich. Daher kann angenommen werden, dass nur Verarbeitungsprozesse, die in diesem zeitlichen Rahmen ablaufen, beeinträchtigt sind (Phillips 1993). 1HXURDQDWRPLVFKH9HUlQGHUXQJHQ Wie TALLAL (1991) wiesen auch andere Forschungsgruppen neuroanatomische Veränderungen bei Legasthenikern nach. In mehreren Untersuchungen fand eine Arbeitsgruppe um GALABURDA bei Patienten mit Lese-Rechtschreib-Störungen Veränderungen der linksseitigen temporalen Hirnrinde (Galaburda et al. 1994). Primäres und sekundäres Hörzentrum sowie das sensorische Sprachzentrum sind in dieser Region lokalisiert (vgl. 3.2 u. 3.3.6). Bei LRS-Kindem ist die physiologische Asymmetrie zugunsten der linken Hirnhälfte aufgehoben, und wiederholt wurden Abnormitäten der dort gelegenen Hirnwindungen belegt. Im Tierversuch konnten ROSEN (1992) und FITSCH (1994) Hirnabnormitäten erzeugen, die denen von LRS-Patienten entsprechen. Die Tiere zeigten im Erwachsenenalter Defizite bei der zeitlichen Auflösung auditiver Reize. 6 Diskussion 119 'LH&RQWUD3RVLWLRQ Sind TALLAL, TALCOTT und andere Wissenschaftler (s. 6.2.2.) davon überzeugt, dass eine nichtsprachlichen Legasthenie visuellen und durch Störungen akustischen der elementaren Diskriminationsfähigkeiten verursacht werde, vertreten alternativ hierzu andere Forscher die Meinung, dass legasthenische Defizite auf Störungen höherer Ebenen der Sprachverarbeitung beruhen würden. Zur genauen Darstellung der unterschiedlichen Positionen wird das von FRITH und PROBST verwendete ,QIRUPDWLRQVYHUDUEHLWXQJ 6FKHPD GHU gelegt (Frith zugrunde http://www.rrz.uni-hamburg.de 18.9.2001): SKRQRORJLVFKHQ 1986, PROBST Phonologische Informationsverarbeitung ist die Nutzung lautsprachlicher Informationen beim Erlernen von gesprochener und geschriebener Sprache. FRITH (1986) entwickelte ein Dreiphasenmodell für den Lese-Rechtschreib-Prozess. Im ORJRJUDSKHPLVFKHQ 6WDGLXP ist die Worterkennung an visuellen und auditiven Merkmalen orientiert. Beim Lesen besteht die Konsequenz des Wiedererkennens in der Zuordnung der phonologischen Repräsentation. Wenn detailliertere Merkmale wahrgenommen werden können, nutzen Kinder diese Strategie auch für das Schreiben. Nach TALLAL und TALCOTT ist dieses Stadium bei LRS in erster Linie betroffen. Im nachfolgenden DOSKDEHWLVFKHQ 6WDGLXP werden die Graphem- Korrespondenz-Regeln genutzt, d.h. ein Wort wird Buchstabe für Buchstabe erlesen (phonologisches Rekodieren), und im RUWKRJUDSKLVFKHQ6WDGLXP werden die Wörter innerlich repräsentiert, d.h. sie werden im Gedächtnis gespeichert und sind abrufbar. Die orthographische Strategie wird wie die logographemische zuerst für das Lesen gebraucht. Hierbei werden Wörter in orthographische Einheiten, z.B. in Morpheme oder häufig vorkommende Buchstabenfolgen, gegliedert und deshalb schneller erfasst. Nach Erreichen eines gewissen Niveaus dieser Strategie für das Lesen nutzen Kinder sie auch für das Schreiben. 6 Diskussion 120 Die Begründung für die Darstellung des Schriftspracherwerbs in Stufen liegt für FRITH in der Tatsache, dass die kognitive Entwicklung in Phasen oder Stufen verläuft und nicht kontinuierlich (Küspert 1998, Scheerer-Neumann 1998). Viele Autoren (Günther 1998, Eisenberg, 1995, Steinweger 1999) sind der Auffassung, dass eine XQ]XUHLFKHQGH %HKHUUVFKXQJ GHU 3KRQHP*UDSKHP =XRUGQXQJ eine entscheidende Rolle bei der Entwicklung einer LRS spielt. Insbesondere das Schreiben ist betroffen. Denn nach der Phonemanalyse besteht der weitere Weg der Teilhandlungen beim Schreiben in der Umsetzung der gehörten Laute in die konventionelle Schrift (Steinweger 1999). So muss beim Schreiben jedem Laut ein Graphem zugeordnet werden, und dieser Schritt kann Probleme mit sich bringen, da für einzelne Laute mehrere Realisierungsmöglichkeiten existieren. Der Laut [k] wird beispielsweise schriftlich dargestellt mit K (Kind), CK (Ecke), C (Comic), CC (Mocca), CH (Chlor), [k] und [s] in manchen Wörtern mit X (Hexe), [k] im Auslaut in deutschen Wörtern mit G (Lauf weg!) (Möckel 1997). Die Zeichenfolge im Schriftsystem entspricht der Lautfolge. Wichtig ist dabei das Schreiben der Grapheme von links nach rechts entsprechend der Phonemfolge im gesprochenen Wort. Der letzte Schritt in der Umsetzung des gesprochenen Wortes in die Schrift ist das Zu-Ende-bringen des aufzuschreibenden Wortes. Das letzte Phonem im Wort sagt, welches das letzte Graphem ist, das ganz rechts am Ende des Wortes realisiert werden muss (Möckel 1997). Das dann geschriebene Wort genügt nicht unbedingt den orthographischen Ansprüchen. Beim Schreiben wird nur darauf geachtet, dass die Lautzeichen in der richtigen Reihenfolge bis zum letzten Laut des Wortes geschrieben werden (Möckel 1997). Die Verschriftung der Lautsprache – aus didaktischer Sichtweise von SASSENROTH (1998) – erfolgt nach bestimmten Prinzipien: • phonematisches Prinzip: Versuch, die akustische Gestalt eines Wortes genau wiederzugeben 6 Diskussion • 121 morphematisches Prinzip: Regel, dass ein und dasselbe Morphem, d.h. die kleinste bedeutungstragende Einheit, trotz lautlicher Veränderung immer gleich geschrieben wird • semantisches Prinzip: Regel, dass lautgleiche Begriffe unterschiedlich verschriftet werden • grammatisches Prinzip: Regelung der Groß- und Kleinschreibung • historisches Prinzip: Verschriftung aufgrund der früheren Sprechweise • graphisch-formales Prinzip: Regel der Verschriftung, die der besseren Lesbarkeit dient Das phonematische Prinzip gilt als das wichtigste Prinzip. Es beinhaltet die lautgetreue Verschriftung (Eichler 1992). Die Schwierigkeit, das phonematische Prinzip zu realisieren, beruht darauf, dass es keine 1:1-Beziehung zwischen Phonemen und Graphemen gibt. Diese Vieldeutigkeit birgt für die Kinder, die schreiben lernen, Probleme. Nach MÖCKEL (1997) gelten bei der Phonem-Graphem-Korrespondenz folgende Basisregeln: • Jedem Phonem eines gesprochenen Wortes entspricht ein Graphem. • Die Reihenfolge der Phoneme im gesprochenen Wort entspricht der Reihenfolge der Grapheme im geschriebenen Wort. • Sämtliche Phoneme eines gesprochenen Wortes werden verschriftlicht (Möckel 1997). • Wichtig bei der Phonem-Graphem-Korrespondenz ist das Verstehen des Zuordnungscodes. Die mangelnde Erfassung der regelhaften Zuordnungssysteme stellt also eine Schwierigkeit beim Schrifterwerb dar. Somit ist das Erlernen des Lesens und des Schreibens von einer Vertiefung der Einsicht in den Aufbau der Sprache und in die Regelmäßigkeiten der Abbildung der Sprache durch die Schrift abhängig, einer Entwicklung, die in Stufen erfolgt. Dies erklärt die These, dass eine Legasthenie in der mangelnden Ausbildung 6 Diskussion 122 unterschiedlicher Teilfertigkeiten begründet ist (Klicpera u. Gasteiger-Klicpera 1995). Es stellt sich zudem die Frage, ob legasthene Kinder GHQhEHUJDQJLQGLHLQGHQ (QWZLFNOXQJVPRGHOOHQ EHVFKULHEHQH QlFKVWH 3KDVHQLFKWEHZlOWLJHQ können. Bei großen Schwierigkeiten wäre der Wechsel von der logographischen zur alphabetischen Strategie, bei geringeren der Übergang von der alphabetischen zur orthographischen Strategie betroffen. Am Anfang des Schreibenlernens ist der Übergang von der logographischen zur alphabetischen Stufe von besonderem Interesse (Probst http://www.rrz.uni-hamburg.de 18.9.2001). Sind TALLAL und TALCOTT davon überzeugt, dass eine Legasthenie auf einer grundlegenden sprachunspezifischen Wahrnehmungsstörung beruhe (Tallal 2000, Talcott 2000), gehen andere Wissenschaftler (s.u.) davon aus, dass LRS durch Verarbeitungsstörungen sprachlicher Elemente verursacht werde, d.h. durch eine Einschränkung der phonologischen Informationsverarbeitung. Zur genaueren Darstellung dieser These sei zunächst der Aufbau der phonologischen Informationsverarbeitung erklärt. Sie wird in drei Teilgebiete gegliedert (Probst http://www.rrz.uni-hamburg.de 18.9.2001): Die SKRQRORJLVFKH %HZXVVWKHLW (siehe auch 5.2.2) bezeichnet die Fähigkeit, sprachliche Einheiten (Worte, Reime) zu erkennen und mit ihnen zu operieren. Sie erfährt noch eine weitere Unterteilung nach SKOWRONEK und MARX (Blässer 1984). Bei der phonologischen Bewusstheit im weiteren Sinne geht es um das Erkennen von größeren Spracheinheiten, wie z.B. Wörtern, Silben und Reimen. Bei der phonologischen Bewusstheit im engeren Sinne geht es um das Erkennen von kleinen lautsprachlichen Einheiten wie z.B. die Phonemersetzung (wenn man /a/ durch /i/ in dem Wort „ Wand“ ersetzt) oder die Phonemanalyse ( welche Laute hört man in dem Wort „ Uhr“ ). Die phonologische Bewusstheit von Kindern mit LRS ist meist mangelhaft ausgebildet. So gelingt es ihnen z.B. oft nicht, Phoneme in einem Wort zu hören und zu identifizieren. 6 Diskussion 123 Beim SKRQRORJLVFKHQ 5HNRGLHUHQ während des Zugriffs auf das semantische Gedächtnis geht es um die Fähigkeit, schriftliche Symbole (geschriebene Wörter) zu rekodieren (in die lautsprachliche Struktur zu übertragen), um deren Bedeutung aus dem Langzeitgedächtnis abzurufen. Bei Kindern mit LRS ist die Geschwindigkeit, mit der auf das semantische Gedächtnis zurückgegriffen wird, niedrig: Sollen Wörter benannt werden, dauert dieses länger, als bei Kindern ohne LRS (Probst http://www.rrz.uni-hamburg.de 18.9.2001). Das SKRQHWLVFKH 5HNRGLHUHQ im Arbeitsgedächtnis betrifft das Kurzzeitgedächtnis. In ihm sind schriftliche Symbole lautsprachlich repräsentiert, d. h. ein Wort wird Buchstabe für Buchstabe erlesen und dann zu einem vollständigen Wort verbunden. Das Arbeitsgedächtnis ist also für die Artikulationsgeschwindigkeit und Genauigkeit zuständig. Auch in diesem Bereich zeigen legasthene Kinder deutlich schwächere Leistungen. Mehrere Wissenschaftler gehen davon aus, dass LRS auf einer Einschränkung der phonologischen Informationsverarbeitung beruht, d.h. insbesondere auf einer verringerten Möglichkeit, Buchstaben- bzw. Wortbilder zu erkennen (d.h. auf einer Störung der phonologischen Bewusstheit) bzw. auf einem mangelhaftem Zugriff auf das semantische und das Arbeitsgedächtnis (d.h. auf Störungen des phonologischen bzw. phonetischen Rekodierens) beruht. Die Wiener Längsschnittuntersuchung von KLICPERA und GASTEIGERKLICPERA (1993) ergab, dass die Komponenten der phonologischen Informationsverarbeitung reliable Prädiktoren für die Ausbildung des Lesens und Schreibens sind: Sind diese gut ausgebildet, dann ist es wahrscheinlich, dass sich keine Schwierigkeiten im Lesen und Schreiben entwickeln. Auch neuroanatomische Befunde zeigten hirnelektrische Auffälligkeiten in den linkshemisphärischen Regionen, die mit der sprachlichen Informationsverarbeitung verknüpft sind. KLICPERA und GASTEIGERKLICPERA kommen in ihrer Untersuchung zu dem Ergebnis, dass die primäre 6 Diskussion 124 Ursache der LRS in der Störung des Worterkennungsvorgangs liegt. Diese beruhe auf einer Störung von Kodierungsprozessen, die vor allem auch bei Gedächtnisaufgaben bemerkbar sind (Klicpera u. Gasteiger-Klicpera 1993). Ähnlich meint VELLUTINO, dass die Lese-Rechtschreib-Schwäche auf eine beschränkte Fähigkeit, Sprache zum Verschlüsseln nichtsprachlicher Information zu verwenden, zurückzuführen ist (Vellutino 1987). Danach wäre Legasthenie ein „ unterschwelliger Sprachfehler", der in phonetischen Kodierungsstörungen (der Unfähigkeit, die Lautgestalt eines Wortes wieder verfügbar zu repräsentieren, um es sich besser merken zu können), in fehlerhafter phonemischer Segmentierung (der Unfähigkeit Wörter in Sprachlaute zu zerlegen) und in einem unterentwickeltem Wortschatz sowie Schwierigkeiten, Wörter und Sätze grammatisch zu unterscheiden, wurzelt. Viele Wissenschaftler sind der Ansicht, dass insbesondere eine Störung der phonologischen Bewusstheit die Ursache der Lese-Rechtschreib-Störung sei. Im Gegensatz zu TALLAL und TALCOTT, die der Auffassung sind, dass eine Wahrnehmungsstörung nichtsprachlicher Reize die Legasthenie verursacht, gehen diese Forscher somit davon aus, dass ein höheres und komplexeres Verarbeitungsniveau der Sprachverarbeitung betroffen sei. Trotz der Tatsache, dass die phonologische Bewusstheit erst Anfang der 80er-Jahre in das Feld der Forschung rückte und somit noch relativ neu ist (Küspert 1998), gibt es viele Längsschnittstudien, die einen Zusammenhang zwischen metalinguistischen Fähigkeiten – speziell der phonologischen Bewusstheit – und dem späteren Schriftspracherwerb nachweisen (Küspert, 1998). Zu nennen sind die Untersuchungen von LIBERMAN (Liberman 1966) und SHAYWITZ (Shaywitz 1996), die korrelativen Längsschnittstudien von BRADLEY und BRYANT (1985), von LUNDBERG, OLOFSSON und WALL (1980) sowie von LANDERL, LINORTNER und WIMMER (1992). 6 Diskussion 125 LIBERMAN ist der Auffassung, dass Lesen auf einer bewussten Ebene erlernt werden müsse (Liberman 1966). Die Aufgabe des Lesers sei es nämlich, visuelle Wahrnehmungen in Gesprochenes umzuwandeln, d.h. Graphemen die entsprechenden Phoneme zuzuordnen. Damit dies erreicht werden könne, müsse der Leser zunächst die innere phonologische Struktur des gesprochenen Wortes bewusst wahrnehmen, d.h. er müsse über die Fähigkeit der phonologischen Bewusstheit verfügen. Als Nächstes müsse er einsehen, dass die Orthographie des Wortes dessen Phonologie repräsentiere. Dieser Vorgang finde statt, wenn ein Kind lesen lerne. Ist ein Kind legasthenisch, so beeinträchtige ein Defizit innerhalb des sprachverarbeitenden Systems auf phonologischer Ebene die Fähigkeit, das geschriebene Wort in die zugrunde liegenden phonologischen Komponenten zu zergliedern. Obwohl Worte im Prinzip verstanden werden können, kann diese Fähigkeit nicht genutzt werden, weil die Worte nicht identifiziert werden können. Auch SHAYWITZ vertritt die Ansicht, dass es einen Zusammenhang zwischen der phonologischen Bewusstheit und der Fähigkeit des Lesens und Schreibens geben würde (Shaywitz 1996). Beginnend in 445 zufällig ausgewählten Kindergärten, führte sie von 1983 bis 1996 eine Längsschnittstudie durch, die die Kinder bezüglich ihrer Lese-Rechtschreib-Fähigkeiten untersuchte. Bei 20% der Schulkinder wurde eine Legasthenie festgestellt. Diese Prozentzahl stimmt mit dem Ergebnis einer früheren von LIBERMAN durchgeführten Studie überein (Liberman 1976). Sie zeigte, dass die phonologische Struktur eines Wortes den meisten Kindern in einem Alter von vier bis sechs Jahren bewusst wird. In dem Versuch wurden Kinder befragt, wie viele Phoneme sie in einer Folge von Worten hörten. Keines der Vierjährigen konnte diese Aufgabe korrekt lösen, jedoch 17% der Fünfjährigen und 80% der Sechsjährigen. Ein Vergleich der beiden Studien unterstützt nach der Auffassung von SHAYWITZ die These, dass ein Zusammenhang zwischen phonologischer Rechtschreib-Fähigkeit bestehen würde. Bewusstheit und der Lese- 6 Diskussion 126 BRADLEY und BRYANT (Bradley u. Bryant 1980) stellten fest, dass die Schulung der phonologischen Bewusstheit deutlich die Lese-RechtschreibFähigkeit eines Kindes verbessert. In ihrer über einen Zeitraum von drei Jahren durchgeführten Studie wurde in einer Gruppe die phonologische Bewusstheit trainiert, in der anderen Gruppe Übungen durchgeführt, die nicht auf den Lautstrukturen von Worten beruhte. BRADLEY und BRYANT wiesen einen Zusammenhang zwischen der phonologischen Bewusstheit im weiteren Sinne und dem späteren Schriftspracherwerb nach. Untersucht wurden 368 Kindergartenkinder im Alter von vier bis fünf Jahren, die über keinerlei Lese- oder Schreibkompetenz verfügten, in Bezug auf ihre Fähigkeit, Laute zu kategorisieren. Sie sollten hierbei Reime (z.B. Endreim: men – red – bed – fed), Alliterationen (z.B. Wortanfangsalliteration: peg – pen – well – pet) und gleiche Phonemgruppen im Wortinneren (z.B. lot – pot – cot – hat) erkennen. Mit Hilfe standardisierter Tests wurden drei Jahre später die Lese- und Rechtschreibfähigkeiten der Kinder überprüft. Um die Gültigkeit dieser Tests zu erhärten, wurde außerdem auf einen Mathematiktest und einen Intelligenztest für die allgemeinen kognitiven Fähigkeiten zurückgegriffen. Die Lautkategorisierungsaufgabe wies die größte Korrelation hinsichtlich der beiden Lesetests auf, gefolgt von der Korrelation zum Rechtschreibtest. Der Mathematiktest korrelierte am wenigsten (Küspert 1998). Trotz der starken Bedeutung von Faktoren wie Intelligenz und Erziehung für die Vorhersage späterer Leistungen im Bereich der Schriftsprache wiesen die Ergebnisse auf die phonologische Bewusstheit als einen wichtigen spezifischen Faktor für die Prognose der späteren Lese- und Rechtschreibleistungen hin. Allerdings muss bei dieser Studie bedacht werden, dass die phonologische Bewusstheit nur durch Lautkategorisierungsaufgaben nachgewiesen wurde, denn weitere Variablen hätten die Bedeutung der Lautkategorisierung um ein Weiteres reduziert (Küspert 1998). 6 Diskussion 127 Die Untersuchungen von LUNDBERG, OLOFSSON und WALL (1980) berücksichtigten diesen Aspekt. Sie prüften durch Reimaufgaben, Silbensegmentierung und Silbensynthese die phonologische Bewusstheit im weiteren Sinn, durch Phonemsegmentierung und Phonemsynthese sowie Phonemvertauschung und Lokalisation eines Phonems in einem Wort die phonologische Bewusstheit im engeren Sinn. Sie untersuchten bei ihrer Längsschnittstudie 143 Vorschulkinder im Durchschnittsalter von etwa sieben Jahren. Am Ende des ersten und zu Beginn des zweiten Schuljahres wurden Aussagen über die Intelligenz, die Lese- (hier das stille Lesen) und die Rechtschreibleistung der Kinder getroffen. Im Hinblick auf den Zusammenhang zwischen der phonologischen Bewusstheit im Vorschulalter und der späteren Leseleistung fielen die Ergebnisse unterschiedlich aus. Die Aufgaben zur phonologischen Bewusstheit im engeren Sinn wiesen eine größere Korrelation zur späteren Leseleistung auf als die phonologische Bewusstheit im weiteren Sinn. Die Leistungen bei Aufgaben zur Phonemenvertauschung und der Reimproduktion galten als verlässliche Faktoren bei der Vorherbestimmung der späteren Leseleistung (Küspert 1998). Die Ergebnisse dieser Untersuchung veranschaulichen das herrschende Problem der phonologischen Bewusstheit. Diese nimmt eine bedeutende Rolle in Bezug auf den Schriftspracherwerb ein, der kausale Zusammenhang ist aber nicht geklärt. Die Experten scheiden sich bei der Beantwortung der Frage, ob phonologische Bewusstheit als Voraussetzung für den Schriftspracherwerb gilt oder Folge von diesem ist (Steinweger 1999). WAGNER und TORGESEN untersuchten 1987 die Daten von LUNDBERG, OLOFSSON und WALL und kamen zu dem Ergebnis, dass die im Vorschulalter vorhandenen Schriftsprachfertigkeiten eine bedeutende Position einnehmen (Wagner u. Torgesen 1987). Denn bei Konstanthaltung der anfänglichen Lesekenntnisse verfehlten die Korrelationen zwischen phonologischer Bewusstheit und Leseleistung die Signifikanzgrenze (Küspert 1998). 6 Diskussion 128 1992 untersuchten LANDERL et al. in zwei Studien die Bedeutung der phonologischen Bewusstheit für den Schriftspracherwerb im Deutschen (Landerl et al. 1992). Bei der ersten Untersuchung wurden Kindern zu Anfang des ersten Schuljahres zwei Aufgaben zur phonologischen Bewusstheit gestellt – eine Aufgabe zur Erkennung von Alliterationen und Reimen und eine Aufgabe zur Ersetzung von Lauten. Am Ende des ersten Schuljahres wurde die Lese- und Rechtschreibfähigkeit überprüft. Im Gegensatz zu der Alliterations- und Reimaufgabe, die keinen deutlichen Zusammenhang zu der späteren Lese- und Rechtschreibleistung erkennen ließ, zeigte die Lauterkennungsaufgabe einen Zusammenhang zu der späteren Fähigkeit im Lesen und Schreiben. Allerdings wurde ebenfalls festgestellt, dass auch die Kinder, die bei der Aufgabe zur Lauterkennung anfangs schlecht abgeschnitten hatten, keine wirklichen Schwierigkeiten beim Lese- und Schrifterwerb entwickelten. Die zweite Studie untersuchte am Ende des ersten Schuljahres, ob es Unterschiede in der phonologischen Bewusstheit bei durchschnittlichen und schlechten Lesern gab. Während bei der Reimerkennungsaufgabe keine Unterschiede in den Leistungen beider Gruppen vorlagen, zeigte sich, dass bei der Lauterkennungsaufgabe die normalen Leser den schlechten deutlich überlegen waren. Dieses Ergebnis lässt den Schluss zu, dass nicht die Fähigkeit, Alliterationen und Reime zu erkennen, also mit Silben zu operieren, sondern die Operation mit Einzellauten in einem engen Zusammenhang mit der Schriftsprache steht (Küspert 1998). Bei den Studien wurden die rudimentären Schriftsprachkenntnisse der Kinder nicht berücksichtigt. Das lässt die Annahme zu, dass tatsächlich die Einsicht in die phonologische Struktur der Sprache als Konsequenz der Einsicht in das alphabetische Prinzip der Schriftsprache entstanden sein könnte (Küspert 1998). Die Einseitigkeit der Längsschnittstudien ist zu kritisieren. Bis auf die Reanalyse von WAGNER und TORGESEN wurde nur die Bedeutung der phonologischen Bewusstheit für den Schrifterwerb untersucht, welchen Einfluss der Schrifterwerb 6 Diskussion 129 auf die phonologische Bewusstheit nimmt, wurde dagegen nicht berücksichtigt (Steinweger 1999). Die hier als Beispiel aufgeführten Studien für die korrelativen Längsschnittstudien verdeutlichen, dass der SKRQRORJLVFKHQ %HZXVVWKHLW offenbar eine wichtige Rolle für den Schriftspracherwerb zukommt. Störungen des phonologischen bzw. phonetischen Rekodierens werden durch '\VIXQNWLRQHQGHV*HGlFKWQLVVHV verursacht. Bei Legasthenikern wurde ein zu geringer Zeitaufwand für das Memorieren schriftsprachlicher Informationen sowie ungenügende Wiederholungsstrategien beobachtet. EGERER konnte eine Schwäche des Kurzzeitgedächtnisses bei legasthenen Kindern feststellen (Egerer 1988). Auch MILZ sieht die Störungen des Gedächtnisses und speziell des Kurzzeitgedächtnisses als mögliche Ursache der Legasthenie (Milz 1989). Somit zeigen zahlreiche Untersuchungen, dass eine korrekte phonologische Informationsverarbeitung erforderlich ist, um ein fehlerfreies Lesen und Schreiben zu erlernen. Dies widerlegt aber die These von TALCOTT und TALLAL, dass eine Lese-Rechtschreib-Störung durch Störungen der elementaren nichtsprachlichen visuellen und akustischen Diskriminationsfähigkeiten verursacht werde, nicht eindeutig. Um eine phonologische Bewusstheit bzw. phonetisches und phonologisches Rekodieren zu erlernen, muss offensichtlich eine niedrigere Ebene der Sprachverarbeitung, nämlich das Erkennen nichtsprachlicher Reize, korrekt funktionieren. Es ist evident, dass bei einer Wahrnehmungsstörung nichtsprachlicher Reize im Sinne von TALLAL und TALCOTT keine phonologische Bewusstheit erreicht werden kann. Ob allerdings immer Wahrnehmungsdefizit das einer von LRS TALLAL zugrunde postulierte liegt, wird spezifische von einigen Wissenschaftlern bezweifelt. In diesem Zusammenhang führten SABISCH und FERSTL eine Studie durch (Sabisch u. Ferstl http://www.uni.leipzig.de 3.10.2001). Ziel dieser Studie war es, Kinder einer Leipziger Sprachheilschule mit 6 Diskussion 130 einer Diskriminationsaufgabe zu testen, um zu evaluieren, wie häufig dieses basale Wahrnehmungsdefizit auftritt. Zwölf Versuchspersonen im Alter von acht bis zehn Jahren wurden aus einer Gruppe von 42 Kindern ausgewählt. Sie erfüllten das Kriterium eines Handlungs-IQ von über 85 bei schlechterem verbalen IQ. Um diese Werte zu bestimmen, verwendeten SABISCH und FERTL den HAWIK-R-Intelligenztest. Zusätzlich wurden die Sprachfähigkeiten mit Hilfe des Heidelberger Sprachentwicklungstests, die Leseleistung mit dem Züricher Lesetest, und die phonologischen Fähigkeiten mit Hilfe einer eigens entwickelten Spoonerism-Aufgabe erfasst. Zwölf weitere Kinder, die nach Alter und Handlungs-IQ den Kindern der Versuchsgruppe entsprachen, aber einen höheren verbalen IQ aufwiesen bildeten die Kontrollgruppe. Für die auditorische Wahrnehmungsaufgabe lernten die Kinder zuerst die Zuordnung von zwei komplexen Tönen (100 Hz und 305 Hz) zu zwei Maustasten. In der Diskriminationsaufgabe wurden dann zehn verschiedene Interstimulusintervalle von 30 ms bis 428 ms in je acht Durchgängen geprüft. Die Ergebnisse zeigten, dass die Kontrollgruppe die Aufgabe signifikant besser bewältigte als die Versuchsgruppe. Ein Einfluss des Interstimulusintervalls konnte jedoch nicht gefunden werden. Sogar bei dem kürzesten Intervall von 30 ms konnten alle Kinder der Versuchsgruppe mehr als 75% der Folgen richtig nachtippen. Partielle Korrelationen, in denen die Gruppe ausfaktorisiert wurde, zeigten weiterhin, dass die auditorische Diskriminationsfähigkeit mit Sprachleistungen in Beziehung stand. Lesefähigkeit, allgemeine Sprachfähigkeit und phonologische Fähigkeiten korrelierten positiv mit der Diskriminationsleistung. Nach diesen Ergebnissen weisen offenbar nicht alle Kinder mit entwicklungsbedingten Sprachstörungen das von TALLAL postulierte spezifische Wahrnehmungsdefizit auf, nämlich dass Leseschwache dann Schwächen in der Wahrnehmung von nichtsprachlichen Reizen aufweisen, wenn diese in einem sehr kurzen zeitlichen Abstand nacheinander präsentiert werden. Dennoch wurde auch 6 Diskussion 131 in der Studie von SABISCH und FERTL (2001) ein Zusammenhang zwischen Sprachleistungen und der Diskrimination von nichtverbalen auditorischen Reizen gefunden. 6FKOXVVIROJHUXQJ Phonologische Informationsverarbeitung, die Nutzung von lautsprachlichen Informationen bei dem Erlernen von gesprochener und geschriebener Sprache, ist erforderlich, um Lesen und Rechtschreibung zu erlernen. Hierzu ist es notwendig, die Phonem-Graphem-Zuordnung sicher zu beherrschen. Auch sind der Erwerb der phonologischen Bewusstheit sowie ein richtiges phonologisches und phonetisches Decodieren für das Erlernen gesprochener und geschriebener Sprache unabdingbar. Aber der Wahrnehmung sprachlicher Elemente liegt das richtige Erkennen nichtsprachlicher Laute zugrunde. Werden Stopp-Konsonanten wie /b/, /d/ oder /p/, die nur 40 Millisekunden lang schwingen, nicht erkannt, so ist das richtige Erlernen von Lesen und Rechtschreibung unmöglich. Können Kinder schnelle akustische Signale nicht auseinander halten, so überlappen sich diese Einheiten, und das Gehörte im Gehirn führt zu Sprachstörungen. Möglicherweise kann eine LRS auch noch auf anderen Wahrnehmungsstörungen nichtsprachlicher Elemente beruhen (Sabisch u. Ferstl http://www.uni.leipzig.de 3.10.2001). Zudem ist ungeklärt, ob die Legasthenie tatsächlich ein eigenständiges pathologisches Phänomen ist. So haben TALCOTT et al. (2000) mittlerweile deutliche Hinweise dafür gefunden, dass dies nicht zutrifft. Für ihre visuellen und akustischen Tests wählten TALCOTT et al. Kinder aus, bei denen keine Anzeichen einer Leseschwäche zu beobachten waren. Die visuelle Aufgabe 6 Diskussion 132 bestand wiederum darin, die Richtungsänderung bewegter Punkte auf einem Bildschirm zu erkennen. Bei dem akustischen Test sollten die Kinder angeben, welcher von zwei kurz hintereinander erzeugten Tönen eine Modulation aufwies. Solche raschen Änderungen der Tonhöhe müssen auch beim Dekodieren der gesprochenen Sprache registriert werden. Die Kinder, die beim visuellen Leistungstest schlecht abschnitten, vermochten nur schwer zwischen richtig und falsch buchstabierten Wörtern zu unterscheiden. Eine verringerte Fähigkeit, die raschen Schwankungen der Tonhöhe zu identifizieren, ging dagegen mit Schwierigkeiten beim richtigen Aussprechen mancher Wörter einher (Tallal 2000). Das deutet daraufhin, dass Legasthenie nur das ungünstige Ende einer normalen Fähigkeitsverteilung darstellt. =XVDPPHQIKUXQJGHU(UJHEQLVVHDXVXQG PHILLIPS und TALLAL kommen beide zu einem übereinstimmenden Ergebnis: Ursache eines Defizits ist eine Störung im akustischen Timing des Gehirns, die das Erkennen schnell aufeinander folgender Sinnesereignisse unmöglich macht. Insbesondere die Wahrnehmung so genannter Stopp-Konsonanten ist erschwert. Während alle Vokale für wenigstens 100 Millisekunden akustisch schwingen, sind so genannte Stopp-Konsonanten wie /b/, /d/ oder /p/ nur 40 Millisekunden hörbar. Ihr Übergang zu Vokalen wie dem /a/ erfolgt also sehr schnell – zu schnell für Menschen, die legasthen sind oder an einer reinen Worttaubheit leiden. Interessant ist somit, dass ein- und dieselbe nichtsprachliche Wahrnehmungsstörung offenbar die Grundlage zweier verschiedener Krankheiten sein kann, nämlich einer LRS und einer reinen Worttaubheit. Dies weist auf die Bedeutung der Wahrnehmungsstörung hin. Normalerweise kann ein Erwachsener eine korrekte Auskunft geben, wenn ihm über Kopfhörer z.B. ein Ton in das rechte und ein anderer in das linke Ohr 6 Diskussion 133 gegeben wird und wenn beide Töne im Abstand von mindestens 40 Millisekunden aufeinander folgen. Erwachsene mit einer reinen Worttaubheit nach einem Schlaganfall benötigen demgegenüber einen zeitlichen Abstand von mindestens 100 Millisekunden, um ein richtiges Urteil abzugeben. Eine ähnliche Verlangsamung fand man auch bei legasthenen Kindern. Zwar liegt die Ordnungsschwelle, also der nötige zeitliche Abstand zwischen zwei Reizen, bei Kindern im zweiten Schuljahr noch bei 100 bis 120 Millisekunden. Das ist entwicklungsbedingt. Leseschwache Schüler mit erhöhter Ordnungsschwelle aber brauchen etwa 200 und mehr Millisekunden, um sagen zu können, welchen Ton sie zuerst gehört haben (Tallal et al. 2000). Auch andere schnell aufeinander folgende Sinnesereignisse, z.B. optische, sind für Legastheniker oft nur als undifferenzierte Reizkulisse wahrnehmbar. Dieser Defekt, möglicherweise entstanden während der fetalen Entwicklung, (Stein u. Talcott 1999) führt dazu, dass zu wenige für die Sprachentwicklung wichtige Lautreize aus der Umwelt das Gehirn erreichen. Als Antwort auf diese Reize knüpfen die dortigen Nervenzellen phonetische Einheiten, die bestimmten Lauten zugeordnet sind. Können Kinder schnelle akustische bzw. optische Reize nicht auseinander halten, dann überlappen sich die Einheiten, und diese fehlerhafte neuronale Verknüpfung führt zu Sprachstörungen (Tallal 2000). Es ist davon auszugehen, dass auch eine reine Worttaubheit auf einer fehlerhaften bzw. unzureichenden Verknüpfung von Neuronen beruht, die zu einer Wahrnehmungsstörung schnell aufeinander folgender Reize führt (Phillips 1995). =XVDPPHQIDVVXQJXQG6FKOXVVIROJHUXQJ Die Untersuchungen von PHILLIPS weisen daraufhin, dass die reine Worttaubheit eine Manifestation einer mehr grundlegenden zeitlichen Verarbeitungsstörung auf vorsprachlichem Niveau iat, d.h. dass der reinen Worttaubheit eine sprachunspezifische Störung im primären auditorischen Kortex 6 Diskussion 134 zugrunde liegt (Phillips 1997). Eine Anzahl von Hinweisen zeigt an, dass der primäre auditorische Kortex eine Rolle bei der Wahrnehmung, aber nicht bei der linguistischen Verarbeitung von Lauten spielt. Die Genauigkeit des Antwortverhaltens der kortikalen Neuronen reichte in den Untersuchungen von PHILLIPS aus, um den zeitlichen Verlauf einzelner Sprachkomponenten darzustellen. Dies lässt darauf schließen, dass der primäre auditorische Kortex bei der Unterscheidung verschiedener Sprachabschnitte eine Rolle spielt. Die Ergebnisse zeigen zudem, dass die Antworten auf Reize im Kortex eine Genauigkeit des Antwortverhaltens zeigten, die nur etwas schlechter als die der Fasern des Kochlearnervs ist (Phillips 1990). Eines der wichtigsten diagnostischen Kriterien der Genauigkeit, mit der Nervenzellen auf Töne oder Geräusche reagieren ist die Prüfung, inwieweit die Frequenzlücke (4.2.2.1) erkannt werden kann. Die wichtigsten „ Frequenzlücken“ der Sprache sind die phonetisch bedeutsamen – sie lassen Stopp-Konsonanten erkennbar werden (Phillips 1990). Nicht alle Bereiche des Sprachunterscheidungsvermögens sind bei der reinen Worttaubheit gleichermaßen betroffen. Insbesondere wurde festgestellt, dass das Wahrnehmungsvermögen langer Vokale bilaterale Läsionen des primären auditorischen Kortex übersteht, jedoch das von Stopp-Konsonanten, nicht. Die gestörte Unterscheidungsfähigkeit von Stopp-Konsonanten bei Worttaubheit zeigt ein zeitliches Verarbeitungsdefizit an, das Stopp-Konsonanten betrifft, aber Vokale nicht. Dies liegt im Bereich von einer bis zu zehn Millisekunden und charakterisiert die Stopp-Konsonanten phonetisch (Phillips 1990). Die Untersuchungen von PHILLIPS wurden von mehreren Studien über das Spracherkennungsvermögen bestätigt. Wie bei PHILLIPS wurden Untersuchungen durchgeführt, die die Erkennung der Frequenzlücke bestimmten. Sie bestätigten die Ergebnisse von PHILLIPS, dass bei reiner Worttaubheit die Erkennung der Frequenzlücke vermindert ist (Albert u. Bear 1974, Hendler et al. 1990, Schwarz u. Tomlinson 1990). Bei Patienten mit reiner Worttaubheit wurde zudem deren Fähigkeit getestet, Phoneme zu identifizieren. Wie bei PHILLIPS 6 Diskussion wurde 135 festgestellt, dass die Patienten größere Schwierigkeiten hatten, Verschlusslaute zu identifizieren als Vokale (Eggermont 1991). Mehrere Untersuchungen bestätigen die Ergebnisse von PHILLIPS, dass grundlegende auditive Wahrnehmungsstörungen Ursache der reinen Worttaubheit sein können (Baddeley u.Wilson 1976, Saffran et al. 1976). Andere Wissenschaftler – insbesondere Paula TALLAL sowie Joel TALCOTT – beschreiben das reibungslose Funktionieren der optischen und akustischen Sinneswahrnehmungen als unumgängliche Voraussetzung für das erfolgreiche Erlernen des Schreibens und Lesens. TALCOTT und STEIN hatten festgestellt, dass etwa 75 Prozent der legasthenen Kinder in Tests schwächer abschneiden, die eine schnelle visuelle Informationsverarbeitung verlangen (Stein u. Talcott1999). Zudem entdeckten TALCOTT et al., dass erwachsene legasthene Versuchspersonen auf langsame oder kontrastreiche visuelle Reize genauso gut reagierten wie gute Leser. Offenbar steht die Legasthenie in Verbindung mit Normabweichungen neuroanatomischer und hirnfunktioneller Merkmale, wobei der M-Bahn eine besondere Bedeutung zukommt. Es gibt Hinweise dafür, dass diese von Magnozellen gebildete Bahn bei Legasthenikern weniger leistungsfähig ist (Tallal 2000). STEIN und TALCOTT stellten die Hypothese auf, dass bei Legasthenikern – möglicherweise infolge einer Immunreaktion der Mutter – während der fetalen Entwicklung junge Nervenzellen im Gehirn geschädigt würden. In Folge sei ihr Zusammenwachsen behindert und die Ausbildung der M-Bahn von der Netzhaut zum lateralen Corpus geniculatum und weiter zum visuellen Kortex gestört (Stein u. Talcott 1999). TALLAL et al. stellten eine zeitliche Verlangsamung der Hörverarbeitung bei Legasthenikern fest. Unter anderem äußerte sich diese in einer mangelhaften „ Filterfunktion“ des Gehörs: Einen bestimmten Sprecher aus einem „ akustischen Salat“ von Störgeräuschen und anderen Sprechern herauszuhören und zu verstehen stellt für sie eine besondere Schwierigkeit dar (Tallal et al. 1985). 6 Diskussion 136 Zudem nehmen TALLAL et al. (1993) einen Zusammenhang zwischen visuellen und auditiven Problemen an. Sowohl die Unterscheidung von Sprachlauten im gesprochenen Wort als die von Buchstabenkombinationen des geschriebenen Wortes erfordern eine schnelle zeitliche Verarbeitung. Die Untersuchungen von TALLAL et al. (1993) unterstützen die Hypothese, dass Leseschwache dann Schwächen in der Wahrnehmung von nichtsprachlichen Reizen aufweisen, wenn diese in einem sehr kurzen zeitlichen Abstand nacheinander präsentiert werden. In diesen Untersuchungen wurden leseschwache Kinder mit nichtleseschwachen Kindern anhand von Aufgaben zum Erkennen der Reihenfolge von zwei Tönen bzw. zwei komplexen Tonkombinationen verglichen (Tallal 1980). Wie TALLAL und TALCOTT konnten auch andere Wissenschaftler bei Legasthenikern Störungen der Hör- (Warnke u. Remschmidt 1992) und Sehverarbeitung (Manis et al. 1997) nachweisen. Es wurden bei Legasthenie zudem Störungen der phonologischen Informationsverarbeitung, d.h. der Nutzung von lautsprachlichen Informationen beim Erlernen von gesprochener und geschriebener Sprache nachgewiesen. Um eine phonologische Informationsverarbeitung sicher zu bearbeiten, ist es notwendig, eine Phonem-Graphem-Zuordnung zuverlässig zu beherrschen. Auch sind der Erwerb einer phonologischen Bewusstheit sowie ein richtiges phonologisches und phonetisches Decodieren für das Erlernen gesprochener und geschriebener Sprache unabdingbar. Dies steht jedoch nicht im Widerspruch zu der These von TALCOTT und TALLAL, dass eine Lese-Rechtschreib-Störung durch Störungen der elementaren nichtsprachlichen visuellen und akustischen Diskriminationsfähigkeiten verursacht werde. Denn um eine phonologische Bewusstheit zu erreichen bzw. phonetisches und phonologisches Rekodieren zu erlernen, muss natürlich eine niedrigere Ebene der Sprachverarbeitung, nämlich das Erkennen nichtsprachlicher Reize, korrekt funktionieren. Es ist offensichtlich, dass bei einer 6 Diskussion 137 Wahrnehmungsstörung nichtsprachlicher Reize im Sinne von TALLAL und TALCOTT keine phonologische Bewusstheit erreicht werden kann. Die Ergebnisse von PHILLIPS und TALLAL stehen in Übereinstimmung miteinander: Ursache eines Defizits ist eine Störung im akustischen Timing des Gehirns, sodass das Erkennen schnell aufeinander folgender Sinnesereignisse unmöglich wird. Somit haben sowohl sensorische Worttaubheit als auch Legasthenie eine gemeinsame Ursache, und dies weist auf die Bedeutung der Wahrnehmungsstörung hin. Die Untersuchungen von PHILLIPS und TALLAL zeigen somit, dass die Rolle der eigentlichen Sprachzentren lange überschätzt wurde und es wahrscheinlich in Zukunft zu einem Paradigmenwechsel kommen wird. 7 Die Konsequenzen für die Therapie 138 'LH.RQVHTXHQ]HQIUGLH7KHUDSLH Aus den vorangegangenen Kapiteln folgt, dass Legasthenie und reine Worttaubheit zumeist keine Sprachverarbeitungsstörungen sind. Offenbar beruhen legasthenische Defizite nicht auf Erkennungsstörungen von Buchstaben- oder Wortbildern bzw. auf einem mangelhaftem Zugriff auf Einheiten des orthografischen Lexikons, sondern es konnte experimentell nachgewiesen werden, dass das Defizit auf einer Verarbeitungsstörung schnell wechselnder elementarer optischer Stimuli (z.B. Richtungsänderungen zweier Punkte) zurückzuführen ist. Ein ähnliches Merkmal lässt sich auch bei der akustischen Wahrnehmung feststellen: Hier besteht eine verminderte Unterscheidungsfähigkeit von zwei schnell aufeinanderfolgenden Tönen bzw. deren Frequenzänderung. Beide Defizite erwiesen sich bei derselben Versuchspopulation als hoch korreliert. Vergleichbare Ergebnisse lieferten neuere Untersuchungen an Patienten, deren akustische Spracherkennungsdefizite als reine Worttaubheit klassifiziert wurden. Offenbar liegt diesem Syndrom eine sprachunspezifische Störung im primären auditorischen Kortex zugrunde: Bestimmte Frequenzspektren akustischer Stimuli können nicht erfasst werden. Diese Untersuchungsergebnisse wecken die Hoffnung, sowohl eine LeseRechtschreib-Schwäche als auch eine reine Worttaubheit durch das Trainieren elementarer sensorischer Fähigkeiten fördern zu können. TALLAL und MERZENICH entwickelten bereits eine Art Computerspiel, das spezifisch die bei der Legasthenie beeinträchtigten Wahrnehmungs- und Unterscheidungsleistungen verbessert (Barinaga 1996). Im Folgenden wird zunächst eine Übersicht über verschiedene therapeutische Verfahren der LRS und der reinen Worttaubheit gegeben und insbesondere das von TALLAL und MERZENICH entwickelte Verfahren beschrieben, sodann auf die Therapie der reinen Worttaubheit eingegangen. Es kann davon ausgegangen werden, dass das Üben elementarer Hörfähigkeiten, beispielsweise der Unterscheidungsfähigkeit schnell aufeinander 7 Die Konsequenzen für die Therapie 139 folgender Töne bzw. deren Frequenzänderung, zu einer deutlichen Besserung der reinen Worttaubheit führen würde. 7KHUDSLHGHU/HVH5HFKWVFKUHLE6FKZlFKH +HUN|PPOLFKH6\PSWRPWKHUDSLH In vielen Therapieeinrichtungen sowie herkömmlichen Nachhilfe- und Förderinstituten, die aufgrund der wachsenden Not betroffener Familien immer zahlreicher werden, wird regelmäßig nach dem Grundsatz „ Mehr desselben, also üben, üben, üben" gearbeitet. Dieser Ansatz missachtet die Bedürfnisse der Betroffenen und ignoriert den heutigen Stand des Wissens auf dem Gebiet der LRS-Forschung. Oft bieten Nachhilfestudios nichts anderes an als ein rein oberflächlich arbeitendes Konzept, das in keinerlei Weise die neueren Forschungsergebnisse, insbesondere die von TALLAL und TALCOTT, berücksichtigt, nach deren Erkenntnissen Legasthenie auf einer Wahrnehmungsstörung nichtsprachlicher Reize beruht und keinesfalls – wie immer noch zu hören ist – von mangelndem Fleiß oder mangelnder Intelligenz geprägt ist. So lange die Betroffenen bestimmte Laute nicht oder nicht richtig hören und/oder nicht richtig sehen können, ist jedes Üben, das nicht genau hierauf in erster Linie eingeht, völlig verfehlt. Wird nicht die Wahrnehmbarkeit nichtsprachlicher Reize gefördert, ändert auch der Einsatz neuer Medien wie beispielsweise des Computers nichts. Wichtig erscheint in diesem Zusammenhang auch, dass zusätzliche Angebote für ein häusliches Training gemacht werden, sodass dort auf täglicher Basis dem 7 Die Konsequenzen für die Therapie 140 betroffenen Kind Unterstützung zuteil werden kann. Den Betroffenen muss schnell und wirksam geholfen wird – dies wird manchmal aus den Augen verloren. Bedauerlich sind in diesem Zusammenhang Aussagen von Interessenverbänden und auch von Psychologen, wonach „ die Kinder lernen müssten, mit ihrem Defizit zu leben“ . Natürlich brauchen Kinder mit einem langen Leidensweg, die schon von einer Institution zur anderen gereicht wurden, irgendwann die notwendige professionelle psychologische Betreuung. Wenn es aber gelingt, den Kindern frühzeitig wirksam zu helfen, ist dies oft genug gar nicht erforderlich. 9HUIDKUHQQDFK7$//$/XQG0(5=(1,&+ Die Untersuchungen von TALLAL ergaben, dass bei vielen Legasthenikern elementare sensorische Fähigkeiten gestört sind (Tallal 2000). So stellten auch STEIN und TALCOTT fest, dass etwa 75 Prozent der legasthenischen Kinder in Tests schwächer abschneiden, die eine rasche visuelle Informationsverarbeitung verlangen (Stein u. Talcott 1999). Zudem entdeckten TALCOTT et al., dass erwachsene legasthenische Versuchspersonen auf langsame oder kontrastreiche visuelle Reize genauso gut reagierten wie gute Leser (Talcott et al. 2000). Bei schnell bewegten Reizen mit niedrigem Kontrast aber schnitten die legasthenischen Personen im Vergleich mit Erwachsenen ohne Leseschwächen deutlich schlechter ab. Zudem stellten TALLAL et al. (1985) eine zeitliche Verlangsamung der Hörverarbeitung bei Legasthenikern fest. Unter anderem machte sich diese in einer mangelhaften „ Filterfunktion“ des Gehörs bemerkbar: Einen bestimmten Sprecher aus einem Gewirr von Störgeräuschen und anderen Sprechern herauszuhören und zu verstehen stellt für Legastheniker eine besondere Schwierigkeit dar (Tallal et al. 1985). 7 Die Konsequenzen für die Therapie 141 TALLAL et al. (1985) konnten nachweisen, dass das bei Legasthenie häufig vorkommende auditive Informationsverarbeitungsdefizit bereits auf nichtsprachlicher Ebene vorliegt. Da die Wahrnehmung nichtsprachlicher Reize Voraussetzung für die Sprachverarbeitung in höheren Ebenen ist, kommt dieser Störung mit hoher Wahrscheinlichkeit eine große Bedeutung bei der Entstehung der Legasthenie zu (Tallal et al. 1985). TALLAL et al. (1985) sind überzeugt, dass auch die Verarbeitung in den Hörbahnen bei legasthenischen Kindern sehr häufig beeinträchtigt ist. So können die Zellen der entsprechenden Schaltstelle im Corpus geniculatum mediale kurz anklingende Hörreize nicht verarbeiten. Dies ist der Grund, dass viele Legastheniker etwa 0,3 Sekunden brauchen, um kurz anklingende Konsonanten (wie z.B. b–p) zu unterscheiden – sehr viel länger als die 0,008 Sekunden, die nicht-legasthenische Sechs- bis Achtjährige für diese Aufgabe benötigen (vgl. Kap. 6.2.1.2). Kann man die Laute der Sprache nicht unterscheiden, führt dies zu Schwierigkeiten beim Erlernen der Grammatik, des Lesens und des Schreibens (Tallal 2000). Aufgrund dieser Befunde ist es sehr wahrscheinlich, dass die Lesefähigkeit durch das Trainieren grundlegender sensorischer Fähigkeiten gefördert werden kann. Dies konnte auch bereits in Versuchen bestätigt werden. Um betroffenen Kindern zu helfen, spielte TALLAL Sprachaufnahmen mit Hilfe von Computern je nach Bedarf so langsam ab, dass die Patienten die einzelnen Vokale und Konsonanten erkennen konnten. Schritt für Schritt beschleunigte TALLAL dann die Sprachwiedergabe (Tallal 2000). Inzwischen wird diese Therapiemethode in Form von Computerspielen angeboten. TALLAL und MERZENICH entwickelten ein Computer- Trainingsprogramm, das die Verarbeitung schneller akustischer und visueller Reize im Gehirn fördert. Die beiden Wissenschaftler konnten zeigten, dass die Sprachübungen die Sprachentwicklung von Kindern, die mehrere Jahre hinter 7 Die Konsequenzen für die Therapie 142 dem Durchschnitt lagen, gesprochene Sprache zu verstehen, deutlich fördern konnten (Barinaga 1996). Das von TALLAL und MERZENICH entwickelte Trainingsprogramm ist eine Art Computerspiel. Das Programm dehnt die Laute schneller Konsonanten in Texten von 40 auf 80 Millisekunden und lässt sie überdeutlich ertönen. Um die Trainings-Einheiten für die Kinder spannend zu machen, bauten die Wissenschaftler sie in vertonte Video-Lernspiele ein. Dabei können die Kinder beispielsweise Jagd auf fliegende Kühe machen, die über einem Bauernhof kreisen. Gelingt es, zwei einander ähnliche Töne zu unterscheiden und dies per Tastendruck zu signalisieren, belohnt der Computer den Erfolg, indem er die Kuh im Stall bei ihren Artgenossen landen lässt (Barinaga 1996). Die Tests verliefen überaus erfolgreich: Nach einem Monat intensiver Übung drei Stunden am Tag, fünf Tage die Woche plus Hausaufgaben holten die Fünf- bis Zehnjährigen gegenüber einer Kontrollgruppe mit Kindern, die zwar die gleichen Lernspiele, aber mit normal schneller Sprache absolvieren, einen Entwicklungsrückstand von ein bis zwei Jahren auf. In einem zweiten, knapp drei Wochen langen Test mussten die Kinder zwischen schnell folgenden, aber nicht sprachlichen akustischen Signalen unterscheiden – mit wachsendem Schwierigkeitsgrad. Auch dieser scheinbar unspezifische Crash-Kurs brachte die Kinder deutlich voran. Die verbesserten Leistungen hielten noch bis zum Ende des Trainings an. Nach Angaben von TALLAL habe das Training das Sprachverständnis der Kinder offenbar nachhaltig gefördert (Tallal http://www.pna.org 3.10.2001). Inzwischen haben 25.000 amerikanische Kinder mit dem von TALLAL und MERZENICH entwickelten Computerspiel „ Fast for Word“ trainiert – an fünf Tagen in der Woche 100 Minuten täglich. „ Fast for Word“ dehnt schnelle Konsonanten in Texten und lässt sie überdeutlich ertönen. Die Ergebnisse waren ähnlich erfolgreich wie die der Tests: Nach sechs bis acht Wochen machten 90% der Kinder im Lesen einen Entwicklungssprung von zwei Jahren (Begley 2000). 7 Die Konsequenzen für die Therapie 143 7UDLQLQJGHV%OLFNODERUV)UHLEXUJ Eine gestörte Aufnahme visueller Informationen bei LRS kann durch Fehlfunktionen im Bereich der Okulomotorik verursacht sein (vgl. 5.2.3). Auch dies kann zu einer Beeinträchtigung grundlegender visueller Wahrnehmungsleistungen führen. So offenbarte die Untersuchung der Anti-Sakkaden-Aufgabe ein häufig auftretendes Defizit der willentlichen Komponente, welches in den früheren einfacheren Tests nicht feststellbar war. Dies führt dazu, dass Kinder mit einer Lese- und Rechtschreibschwäche häufig Regressionssakkaden, d.h. Sakkaden entgegengesetzt zur normalen Leserichtung zeigen (Fischer u. Weber 1990, Kotchen u. Guthrie 1980, Stark et al. 1991). Störungen in der Kontrolle der Blickmotorik machen sich außerdem in einem Rückstand der Entwicklung der Fixationsfähigkeit bemerkbar, d.h. der willentlichen Kontrolle über die Durchführung der Blicksprünge, der zeitlichen Genauigkeit der Reaktionszeiten und der Treffsicherheit. Die ordnungsgemäße Steuerung des Blicks entlang der Zeile von Wort zu Wort ist eine wichtige Voraussetzung für das Erlernen der Schriftsprache. Eine Untersuchung von über 1.000 Kindern zeigte, dass bis zu 50% der Legastheniker Störungen in der Kontrolle der Blickmotorik haben (Beratung Blicklabor http://www.brain.uni-freiburg.de/bbl 18.6.2001) (vgl. 5.2.3). In Fällen, in denen ein Zusammenhang mit den Augenbewegungen besteht, berichten die Kinder auf Anfrage oft, dass sie beim Lesen die Buchstaben auf dem Papier nicht stillstehend, sondern „ rumtanzend“ sehen. Außerdem verlieren die Kinder oft die Textstelle, überspringen häufig Zeilen und übersehen einzelne Worte oder WortTeile. Eine Arbeitsgruppe um FISCHER, Neurophysiologische Biophysik an der Universität Freiburg, entwickelte ein spezielles Trainingsprogramm gegen LRS 7 Die Konsequenzen für die Therapie 144 (Fischer http://www.optom.de 21.11.2001). Es richtet sich gegen Störungen der Blickmotorik, d.h. greift an einem anderen Ansatzpunkt als das Verfahren von TALLAL und MERZENICH an und kann dieses evtl. ergänzen bzw. bei einem anderen Patientenkollektiv wirksam werden. Zwar stellte FISCHER fest, dass eine generelle Heilbarkeit von Legasthenie nach derzeitigem wissenschaftlichen Kenntnisstand unwahrscheinlich sei, betonte jedoch, dass es das Ziel sein solle, eine erträgliche Schulkarriere zu ermöglichen. Therapeutische Maßnahmen bei Legasthenie müssten gezielt erfolgen und verlangten daher eine ausführliche genaue Diagnose (Fischer http://www.optom.de 21.11.2001). %OLFN7UDLQLQJ Wie TALLAL sind auch FISCHER und WEBER davon überzeugt, dass grundlegende visuelle und auditive Wahrnehmungsdefizite eine bedeutende Rolle bei der Entwicklung einer LRS spielen: Nach Aussagen von FISCHER und WEBER zeigen etwa 50 Prozent aller Legastheniker Störungen elementarer zerebraler Hör- und Sehfunktionen (Fischer u. Weber 1990). FISCHER und WEBER sind der Überzeugung, dass die unzureichende Kontrolle der Blickbewegung der Augen eine entscheidende Rolle bei der Entstehung der LRS spielt. Auf diese Weise wären Legastheniker nicht imstande, ihr Augenmerk schnell genug von einzelnen Buchstaben und Wörtern zu lösen. Wie TALLAL stellte FISCHER fest, dass leserechtschreibgestörte Kinder im Vergleich zu ihren Klassenkameraden auch Laute weniger gut unterscheiden können (Fischer http://www.optom.de 21.11.2001, Tallal 2000). Ob und in welchem Ausmaß Kinder mit Lese-Rechtschreib-Schwäche unter einer solchen unzureichenden Informationsverarbeitung leiden, testete FISCHER mit speziellen Geräten. Sie projizieren einen Laserpunkt an die Wand, dem die Kinder bewusst mit den Augen folgen sollen oder von dem sie – im zweiten Test – bewusst wegblicken sollen. Zugleich werden die Augenbewegungen des Kindes aufgezeichnet und analysiert. So kann gemessen werden, wie weit das reflexbestimmte (zum Punkt hinschauen) und das willentliche (vom Punkt wegsehen) Blicken bei einem Kind 7 Die Konsequenzen für die Therapie 145 entwickelt sind. Bei LRS-Schwäche erwies sich in den Untersuchungen von FISCHER das willentliche Blicken häufig als unterentwickelt. Die Kinder gaben zu stark ihren Reflexen nach – deshalb konnten sie sich beim Lesen auch nicht auf Worte oder Buchstabengruppen konzentrieren und sprangen oft im Text hin und her. Für das willentliche Blicken ist – wie für viele andere Koordinationsaufgaben auch – der präfrontale Kortex zuständig. In diesem Bereich und vor allem in der vorgelagerten Schaltstelle zwischen Seh- beziehungsweise Hörnerv und dem Stirnhirn, dem Corpus geniculatum, wurden bei einigen Legasthenikern Veränderungen gefunden, nämlich eine zu geringe Ausprägung der Magnozellen (Fischer 21.11.2001). http://www.optom.de Dieser Befund stimmt mit Forschungsergebnissen TALLALs überein, nach denen es Hinweise dafür gibt, dass die von Magnozellen gebildete Bahn bei Legasthenikern weniger leistungsfähig ist (Tallal 2000, vgl. 5.2.3.1). Werden Störungen der Blickmotorik festgestellt, ist ein Training der Blickkontrolle angezeigt, um die Voraussetzungen für einen zuverlässigen Leseprozess zu verbessern. Spezielle Trainingsgeräte wurden vom Blicklabor in Freiburg entwickelt. Wie FISCHER betont, sollte das Training jedoch nur nach einer genauen Diagnose erfolgen, da mit unterschiedlichen Trainings-Varianten verschiedene Aspekte der Blicksteuerung bzw. der Hörens trainiert werden und durch falsches Training die Situation auch verschlimmert werden könne (Fischer http://www.optom.de 21.11.2001). Mit dem so genannten Fix-Train-Gerät sollen die Kinder drei bis sechs Wochen lang je zehn Minuten täglich üben. Beispielsweise müssen sie per Knopfdruck anzeigen, nach welcher Seite ein kleiner Pfeil zeigt, der für Sekundenbruchteile an unterschiedlichen Stellen des Bildschirms erscheint. Steigt die Trefferquote über einen vorgegebenen Schwierigkeitsstufe. Wert, so schalten die Geräte auf die nächste 7 Die Konsequenzen für die Therapie 146 Obwohl das Training nur einige Wochen dauert, hält der Effekt sehr lange, vermutlich dauerhaft, an. Das Blick-Training kann zwar nicht das Lesen-Lernen ersetzen, jedoch werden durch das Training die Voraussetzungen für den Erfolg anschließender Fördermaßnahmen des Lesens und der Rechtschreibung verbessert bzw. erst geschaffen. Etwa 80 Prozent von 110 bislang nachuntersuchten Schülern haben mit dieser Methode ihre Blicksteuerung optimiert (Fischer http://www.optom.de 21.11.2001). Ersten Untersuchungen zufolge verbesserten sich bei 33 Prozent der Kinder die Lese- und Rechtschreibleistungen allein durch die Übungen, obwohl sie keine zusätzliche pädagogische Förderung erhielten. Bei den meisten der übrigen Kinder zeigten sich zumindest kleine Verbesserungen: Die Handschrift war besser lesbar, beim Lesen sprang der Blick nicht mehr so oft im Text hin und her, und die Schrift blieb konstant auf der Zeile. FISCHER betont jedoch, dass viele Kinder auch nach dem Blicktraining noch spezielle Förderung benötigen – etwa durch Pädagogen und Logopäden (Fischer http://www.optom.de 21.11.2001). Die Blickübungen sollten lediglich die Voraussetzungen für eine erfolgreiche Teilnahme am Deutschunterricht schaffen. Wahrscheinlich kann das Blicktraining nach FISCHER somit das Verfahren von TALLAL und MERZENICH ergänzen, insbesondere bei lese-rechtschreibgestörten Kindern mit unzureichender Kontrolle der Blickmotorik. +|U7UDLQLQJ Basierend auf der Erkenntnis, dass ein Teil der legasthenischen Kinder Entwicklungsrückstände in der Hörwahrnehmung zeigt, entwickelte die Arbeitsgruppe um FISCHER auch dafür Tests, erfasste Normdaten und entwarf ein Trainings-Programm. Das hierfür entwickelte Gerät FonoFix beherrscht fünf sprachfreie Tests der Hörwahrnehmung, deren Schwierigkeit der jeweiligen 7 Die Konsequenzen für die Therapie 147 Leistung des Kindes automatisch angepasst wird (Fischer http://www.optom.de 21.11.2001). In Übereinstimmung mit TALLAL ist FISCHER davon überzeugt, dass eine wesentliche Voraussetzung für richtiges Hören und Verstehen, insbesondere Voraussetzung für das Verstehen von gesprochener Sprache, die Fähigkeit sei, Unterschiede in den akustischen Signalen zu erkennen. Diese Fähigkeiten werden erst im Laufe des Lebens erworben und können im Alter eingeschränkt sein (Fischer http://www.optom.de 21.11.2001, Tallal 2000). Auch bei gesunden Sinnesorganen können bei der Verarbeitung der Informationen im Gehirn Fehler bzw. Entwicklungsrückstände auftreten und zu Lernstörungen und deren Folgen führen. Es ist deswegen wichtig, diese Leistungen quantitativ erfassen und mit Normdaten vergleichen zu können (Fischer http://www.optom.de 21.11.2001). Die Arbeitsgruppe um FISCHER (Universität Freiburg) entwickelte in Zusammenarbeit mit der Klinik für Pädaudiologie und Phoniatrie (Medizinische Hochschule Hannover) fünf sprachfreie Hörtests und normierte diese anhand der Daten von über 400 Personen für Altersstufen zwischen 6 und 35 Jahren. FonoFix ermittelt den Schwellenwert und – nach Angabe des Alters – den Prozentrang der Testperson. Im Einzelnen werden bestimmt: • Lautstärken-Differenzierung: Unterschiedlich laute Töne sind Teil der Aussprache einzelner Wörter. Hier wird geprüft, wie gut man zwei unterschiedlich laute Töne unterscheiden kann. • Tonhöhen-Differenzierung: Ebenso sind Teile gesprochener Wörter unterschiedlich in der Tonhöhe. Hier wird geprüft, wie gut man zwei unterschiedlich hohe Töne unterscheiden kann. • Gap-Erkennung (vgl. Frequenzlücke, 4.2.2.1): Wie PHILLIPS bereits beschrieb, kommen in gesprochener Sprache kurze Pausen – Frequenzlücken – vor, die erkannt und richtig interpretiert werden müssen, z.B. bei tonlosen 7 Die Konsequenzen für die Therapie 148 Konsonanten (Phillips 1999). Die Fähigkeit, diese kurze Lautunterbrechungen zu erkennen, wird mit der Gap-Erkennung getestet. • Zeitordnungs-Schwelle: Damit die Laute in der Reihenfolge wahrgenommen werden, wie sie erzeugt wurden, wird die Fähigkeit benötigt, zwei deutlich verschiedene Töne, die kurz aufeinander folgen, nach ihrer zeitlichen Reihenfolge richtig einordnen zu können (einohrige Erkennung der zeitlichen Reihenfolge). • Seitenordnungs-Schwelle: Dieser Test prüft, inwieweit die Fähigkeit vorhanden ist zu erkennen, ob ein Ton zuerst dem rechten oder zuerst dem linken Ohr angeboten wurde (beidohrige Erkennung der zeitlichen Reihenfolge). Die Anwendung von FonoFix zeigte eine Entwicklung dieser Hörleistungen bis zum 20. Lebensjahr. Kinder mit Legasthenie bestanden diese Tests im Durchschnitt signifikant schlechter als gleichaltrige Kontrollkinder. Etwa die Hälfte der legasthenischen Kinder war betroffen (Fischer http://www.optom.de 21.11.2001). FISCHER entwickelte das Trainingsprogromm FonoTrain zum Zwecke des Hörtrainings und stellte fest, dass die gestörten Funktionen durch tägliches Üben verbessert werden konnten. Es können speziell die Funktionen trainiert werden, bei denen Schwächen bestehen. FonoTrain speichert die Trainingsdaten der verschiedenen Aufgaben während des Trainings, sodass noch nachträglich der Trainingsverlauf in einem Protokoll nachvollzogen werden kann (Fischer http://www.optom.de 21.11.2001). 7KHUDSLHQDFK:$51.( Ein weiteres Therapiekonzept, nämlich das von WARNKE, geht von einer Beeinträchtigung grundlegender auditiver Wahrnehmungs- und 7 Die Konsequenzen für die Therapie 149 Verarbeitungsprozesse im Gehirn als Ursache der Legasthenie aus (Warnke 1995). *HVW|UWH7HLOIXQNWLRQHQGHU]HQWUDOHQ+|UYHUDUEHLWXQJ Nach WARNKE sind folgende fünf Teilfunktionen bei zentraler Fehlhörigkeit, also bei zentralen Hörverarbeitungsstörungen, beeinträchtigt (Warnke 1995): • auditives Ortungsvermögen, • Tonhöhen-Unterscheidungsvermögen, • phonematische Diskrimination, • auditive Ordnungsschwelle, • auditiv-motorische Umsetzung. Unter dem auditiven Ortungsvermögen wird die Fähigkeit verstanden, Richtungsunterschiede einer Schallquelle wahrzunehmen. Es liegt im Vorderbereich bei 2 Winkelgraden, seitlich bei 10 Winkelgraden und hinten bei 5 Winkelgraden. Nur aufgrund dieser Fähigkeit ist es möglich, aus einem Störlärm eine gewünschte Schallquelle herauszuhören und zu verstehen. Dieser so genannte Partyeffekt stellt die ins Auditive übertragene Figur-Grundwahrnehmung aus dem visuellen Bereich dar. Eine Messmethode ohne Hilfsmittel besteht darin, dass das zu testende Kind die Augen schließt und der Untersucher aus verschiedenen Richtungen jeweils eine kurze Silbe vorspricht. Das Kind soll dann genau in die Richtung deuten, aus der es die Silbe gehört zu haben glaubt. Noch genauere Feststellungen erlaubt die Verwendung eines so genannten Rauschgenerators, der ein weißes Rauschen erzeugt und jeweils kurz aus verschiedenen Richtungen eingeschaltet wird. Das zu testende Kind zeigt auch hierbei mit geschlossenen Augen in die Richtung, aus der es die Tonbursts wahrgenommen hat (Warnke 1996). Bezüglich des Tonhöhen-Unterscheidungsvermögens können normal hörende Menschen mindestens 5 Tonhöhenunterschiede zwischen zwei 7 Die Konsequenzen für die Therapie 150 aufeinanderfolgenden Tönen von 1-2% wahrnehmen, d.h. angeben, ob der erste oder der letzte von zwei aufeinanderfolgenden Tönen der höhere bzw. der tiefere ist. Kinder mit einer zentralen Fehlhörigkeit können dagegen sehr selten einen Halbtonschritt (entsprechend 5,9%), häufig sogar nicht einmal einen Ganztonschritt (entsprechend 12,2%) und manchmal sogar nicht einmal eine kleine Terz (18,9%) in dieser Weise voneinander unterscheiden. Das lässt sich mit einem so genannten Viertongeber VTG-1000 in Anlehnung an eine Arbeit von TALLAL (1993) feststellen. Die phonematische Diskrimination oder Wahrnehmungs-Trennschärfe ist die Fähigkeit des Menschen, ähnlich klingende Laute voneinander zu unterscheiden. Herkömmlich wird sie häufig mit so genannten Minimalpaaren, wie beispielsweise „ Tanne-Kanne" oder „ Nagel-Nadel", überprüft. Deutlich aussagekräftiger ist ein Wahrnehmungs-Trennschärfe-Test mit sinnfreien Wörtern, wie z.B. „ ETI – EKI – EPI – EGI – ..", weil er einen Rückgriff auf den lexikalischen Wortschatz ausschließt (Warnke 1996). Die auditive Ordnungsschwelle ist diejenige Zeitspanne, die zwischen zwei Sinnesreizen mindestens verstreichen muss, damit sie getrennt wahrnehmbar sind und in eine Reihenfolge, also eine Ordnung, zu bringen sind. Die auditive Ordnungsschwelle liegt etwa ab dem neunten Lebensjahr zwischen 30-40 Millisekunden, bei Sechsjährigen etwa um 60 Millisekunden. Bei sprachauffälligen Kindern ist sie zumeist um das Zwei- bis Dreifache verlangsamt (Warnke 1996). In mehreren Versuchsreihen wies der amerikanische Wissenschaftler WOLFF (Wolff u. Drake 1984, Wolff 1993) nach, dass die auditiv-motorische Umsetzung bei sprachauffälligen Kindern zumeist gestört ist. So haben Kinder mit zentraler Fehlhörigkeit insbesondere dann ganz erhebliche Schwierigkeiten beim Umsetzen eines Metronomtaktes in synchrones Fingerklopfen, wenn sie aufgefordert werden, denselben Finger – z.B. den Zeigefinger – beider Hände abwechselnd genau im Takt zum Metronom zu benutzen. Stellt man das Metronom mittels 7 Die Konsequenzen für die Therapie 151 seiner Skalierung zunächst auf 150 Schläge pro Minute; das entspricht einem Schlagabstand von 400 Millisekunden, so sollte dies auch ein Kind mit zentralen Hörverarbeitungsproblemen noch schaffen. Ist dies der Fall, so erhöht man in mehreren Schritten bis auf 270 Schläge pro Minute, entsprechend 222 Millisekunden. Dies gelingt einem Kind mit zentraler Hörverarbeitungsstörung nicht mehr. 7UDLQLQJVYHUIDKUHQQDFK:$51.( Das schwerpunktmäßig eingesetzte Trainingsverfahren besteht – mit der Zielsetzung einer Verbesserung vor allem der Ordnungsschwelle und der Wahrnehmungs-Trennschärfe – aus zwei prinzipiell auch getrennt einsetzbaren, vorzugsweise aber zu kombinierenden Einzelabläufen (Warnke 1995): Ordnungsschwellen-Training: Da die Ordnungsschwelle eine wichtige Voraussetzung in der zentralen Hörverarbeitung für eine einwandfreie Wahrnehmungs-Trennschärfe ist, wurde ein Gerät entwickelt, das die Ordnungsschwelle trainiert (Warnke 1996). Das Trainieren der Ordnungsschwelle geht davon aus, durch einen Synergie-Effekt zwischen der zentralen Seh- und Hörverarbeitung betroffenen die Kinder zumeist zur schnellere Beschleunigung visuelle ihrer Ordnungsschwelle langsameren der auditiven Ordnungsschwelle zu benutzen. Messen lässt sich die Ordnungsschwelle mit dem handgehaltenen Gerät: Zunächst wird die auditive Ordnungsschwelle mit Hilfe von zwei aufeinanderfolgenden Klicks festgestellt, dann die visuelle mit zwei aufeinanderfolgenden Lichtblitzen. Beim eigentlichen Training wird die auditive Ordnungsschwelle mit Hilfe der visuellen verbessert: Das Gerät wird in eine neue Stellung VISUELL+AUDITIV umgeschaltet. Dabei nimmt das Kind den auditiven Sinnesreiz, also die beiden Klicks, absolut synchron mit dem visuellen Sinnesreiz wahr, also dem Aufleuchten der beiden Leuchtdioden. Bei vier zutreffenden Reaktionen verkürzt sich der Abstand zwischen den Reizen um 10 Millisekunden und verlängert sich bei einer falschen Reaktion um denselben 7 Die Konsequenzen für die Therapie 152 Betrag. Bei regelmäßigem Einsatz dieser gleichzeitigen auditiv-visuellen Übung erzielten die meisten Benutzer im Verlauf schon weniger Wochen deutlich bessere Werte sowohl ihrer auditiven als auch ihrer visuellen Ordnungsschwellen im Vergleich zu den ursprünglichen Messungen (Warnke 1996). Training der Hemisphären-Koordination: Bei diesem Teil des Trainings wird davon ausgegangen, dass die Beeinträchtigung der zentralen Hörverarbeitung schwerpunktmäßig in der unzureichenden Koordination der beiden Hirnhemisphären begründet liegt. Ansatzpunkte dafür gibt es in einigen Untersuchungen von Wolff (Wolff 1993). In mehreren aufeinander aufbauenden Stufen mit wochenweiser Steigerung des Schwierigkeitsgrades wurden verschiedene Übungen zum Mithören, Mitsingen und Mitsprechen entwickelt. Das Charakteristische an diesem Verfahren ist das stetige Hin- und Herwandern der über Kopfhörer angebotenen Lieder und Texte zwischen den beiden Ohren des Kindes. Im Einzelnen hört das Kind mittels Kopfhörer zunächst über ein spezielles Gerät von einem CD-Spieler kommende Sing- bzw. Sprechtexte, beispielsweise die eigens dafür in Kunstkopf-Stereofonie aufgezeichneten Hifino-Geschichten, die also mit Hilfe des Gerätes in einem bestimmten zeitlichen Rhythmus zwischen seinen beiden Ohren hin- und herpendeln. Sobald das Kind dazu in der Lage ist, soll es diese Texte auch in ein Mikrofon mitsingen bzw. mitsprechen oder nachsprechen, wobei seine eigene Stimme ebenfalls – und zwar gegenläufig zur Modellstimme von der CD – zwischen seinen beiden Ohren hin- und herpendelt: Wenn also die Modellstimme beispielsweise gerade von rechts kommt, hört das Kind seine eigene Stimme von links; während die Modellstimme nach links überwechselt, kommt ihm die eigene Stimme von links nach rechts entgegen. So werden ständig bestehende neuronale Verknüpfungen verstärkt und neue Verknüpfungen geschaffen. Dieser Teil des Trainings wird von den zahlreichen bisher damit bereits arbeitenden Kindern und teilweise auch Erwachsenen so bewertet, dass sie dadurch eine ganz neue Beziehung zur Sprache und mehr Sicherheit im Umgang mit ihrer eigenen Sprache gefunden haben. Eine Umfrage 7 Die Konsequenzen für die Therapie 153 bei 50 Familien nach sechsmonatigem Training ergab bereits Verbesserungen der Leseleistungen bei 94% der Trainierenden und Verbesserungen der Rechtschreibleistungen bei 86% der Trainierenden (Warnke 1996). Die beiden oben beschriebenen Trainingsverfahren sind ursprünglich mit der Zielsetzung entstanden, in der häuslichen Sphäre eine bestehende und fortzuführende Betreuung durch Logopäden, Sprachheiltherapeuten, Legasthenietherapeuten und vergleichbare Berufe flankierend zu unterstützen. Inzwischen aber sind bereits zahlreiche Angehörige dieser Berufsgruppen dazu übergegangen, auch in ihre Therapien bestimmte Elemente aus den vorstehend geschilderten Methoden einzubeziehen (Warnke 1996). Für Vorschulkinder und Erstklässler, die noch nicht lesen können, wird eine in Kunstkopfstereofonie aufgezeichnete CD mit 36 Kinderliedern im Leistungsvermögen von Fünf- bis Siebenjährigen verwendet, bei denen die trainierenden Kinder mitsingen. Übungsdiktate werden über Kopfhörer angesagt, wobei natürlich die Stimme der Therapeutin zwischen den beiden Ohren des Kindes hin- und herwandert, während gleichzeitig eine dosierbare räumliche Störgeräuscheinblendung die Figur-Grund-Wahrnehmung des Kindes schult. So entstandene Diktate werden durch Schüler und Therapeutin über zwei Mikrofone synchron „ nachgelesen", wobei die Therapeutin bei einem Fehler nur kurz innehält, um dem Schüler die Chance zum eigenständigen Erkennen des Fehlers zu geben. Lautsprachliche Arbeit wird durch „ Synchronsprechen“ von Therapeut und Kind motivierender und effizienter (Warnke 1996). 7KHUDSLHGHUUHLQHQ:RUWWDXEKHLW In Übereinstimmung mit den Ergebnissen von TALLAL, TALCOTT, FISCHER und WARNKE stellte auch PHILLIPS fest, dass die Ursache eines Defizits eine Störung im akustischen Timing des Gehirns sein kann, sodass das Erkennen 7 Die Konsequenzen für die Therapie 154 schnell aufeinander folgender Sinnesereignisse unmöglich wird. PHILLIPS untersuchte die reine Worttaubheit. Somit kann davon ausgegangen werden, dass sowohl die reine Worttaubheit als auch die Legasthenie auf einer grundlegenden Wahrnehmungsstörung basiert. PHILLIPS stellte fest, dass die reine Worttaubheit auf Laute begrenzt ist, die in einem zeitlichen Rahmen von Millisekunden oder weniger liegen. Von PHILLIPS konnten neurophysiologische Beweise präsentiert werden, dass der primäre auditorische Kortex eine spezifische Rolle in der Repräsentation in diesem kleinen Zeitrahmen spielt. Bei einer eingeschränkten Funktionsfähigkeit bzw. sogar einem Ausfall eines Kortexbereiches ist die plastische Kapazität adulter Kortizes Grundlage vieler medizinischer Rehabilitationsprozesse (Dinse et al. 1997). So können beispielsweise bei reiner Worttaubheit an anderen Orten entstehende kortikale Erregungsmuster offensichtlich vom Patienten neu gelernt werden und nach einiger Zeit den entsprechenden Signalen zugeordnet werden. Auf diese Weise kann das Sprachverständnis bis zu einem gewissen Grad wiederhergestellt werden (Godde 2001). Jedoch ist zu beachten, dass das Wiedererlangen des Sprachverständnisses nach dem Auftreten einer reinen Worttaubheit als Folge einer Schädigung des primären auditorischen Kortex ein langwieriger und für die Betroffenen und deren Angehörigen ein mühevoller Prozess ist (Mezger http://home.algaeu.org 21.11.2001). Ein Abschluss der spontanen Rückbildung wird überwiegend zwischen einem und sechs Monaten nach Erkrankungsbeginn angegeben. Danach wird das Ausmaß einer weiteren Verbesserung der sprachlichen Funktionen ohne entsprechende logopädische Therapie als nur noch geringfügig eingeschätzt. Eine Untersuchung hierzu an Patienten, deren reine Worttaubheit nicht behandelt worden war, zeigte deutliche Leistungsverbesserungen zwischen einer ersten Untersuchung 4-6 Wochen nach der Erkrankung und einer zweiten Untersuchung 3 Monate nach der ersten Untersuchung. Nur noch eine geringe weitere spontane 7 Die Konsequenzen für die Therapie 155 Besserung war drei Monate nach der zweiten Untersuchung festzustellen. Da innerhalb der Gruppe der an reiner Worttaubheit Erkrankten eine große interindividuelle Variabilität besteht, sind statistische Ergebnisse nur eingeschränkt auf Einzelfälle anwendbar. Auch kann bei unterschiedlicher Ätiologie, z.B. nach einem Schädelhirntrauma mit evtl. mehrwöchigem Koma, der Spontanverlauf nicht vergleichbar sein, und noch größere individuelle Unterschiede, je nach medizinischen Begleitumständen, sind möglich. Ein anderer Aspekt des Verlaufs ist der teilweise zu beobachtende Syndromwandel, z.B. von reiner Worttaubheit zu Global-Aphasie, von Global-Aphasie zu Broca-Aphasie, von Broca- oder Wernicke-Aphasie zu amnestischer Aphasie und in allen Gruppen zu nicht klassifizierbaren Aphasien (Schmidt et al. 2000). Nach dem oben Dargelegten muss eine objektivierbare Verbesserung der Sprachleistung jenseits von 6 Monaten nach einem Hirninfarkt auf jeden Fall als Effekt einer Therapie angesehen werden. Der Beginn therapeutischer Bemühungen soll aber keinesfalls erst nach Abschluss der zu erwartenden spontanen Remission einsetzen. Um das vorhandene Restitutionspotential möglichst völlig auszuschöpfen, wird empfohlen, möglichst früh mit einer kompetenten Behandlung oder, wenn dies nicht möglich ist, zumindest mit unspezifischer sprachlicher Aktivierung durch Laien einzusetzen. Durch Untersuchungen ist erwiesen, dass sowohl Behandlung durch nicht geschultes Personal fehlender Behandlung überlegen ist als auch, dass verschiedene Methoden, durch ausgebildete Sprachtherapeuten angewandt, noch jeweils besser als die nicht professionell durchgeführte Therapie sind, vorausgesetzt, eine ausreichend intensive Behandlung von bis zu 1 Jahr Dauer und mindestens 3 Stunden pro Woche. Allgemein anerkannt ist die Notwendigkeit rechtzeitig begonnener und genügend intensiver und langfristiger Behandlung von wenigstens 3 bis 4 Stunden pro Woche über 12 und mehr Monate. Mehrwöchige Phasen sehr intensiver, ambulanter oder stationärer Behandlung sind aller Erfahrung nach auch effektiver als die häufig noch anzutreffende einmal wöchentliche ambulante Behandlung über einen längeren Zeitraum. 7 Die Konsequenzen für die Therapie 156 Im Gegensatz zur Therapie der Legasthenie wurden bei der reinen Worttaubheit bisher keine therapeutischen Verfahren entwickelt, welche insbesondere die Verarbeitung schneller akustischer Reize im Gehirn fördern. Der Grundsatz der therapeutischen Verfahren Behandlungsphasen heißt unterschieden vielmehr werden „ üben, (Mezger üben“ , wobei drei http://home.algaeu.org 21.11.2001): • Die Aktivierungsphase mit dem Ziel sprachlicher Stimulierung in den ersten 4-6 Wochen. Diese sollte möglichst bald nach Erkrankungsbeginn einsetzen, in einer Intensität wie es der Allgemeinzustand und die Belastbarkeit zulassen. Sämtliche Mitarbeiter auf der Krankenstation und die entsprechend aufgeklärten und angeleiteten Angehörigen sollten einbezogen werden. • Die störungsspezifische Übungsphase mit Behandlung vorwiegend der sprachsystematischen Defizite, anfangs überwiegend in Einzelbehandlung, später auch zusätzlich in kleinen Gruppen, insgesamt bis zu einem Jahr, in besonderen Fällen auch länger. • Die Konsolidierungsphase, in der jetzt der Patient zunehmend lernen soll, vorhandene sprachliche Fähigkeiten zur Kommunikation möglichst optimal einzusetzen, was überwiegend durch Gruppentherapie realisiert werden kann. Die in den drei Phasen jeweils definierten Behandlungsziele sind fließend ineinander übergehend und deshalb nicht künstlich streng zu trennen, sondern auch parallel nebeneinander und gleichzeitig in das Behandlungskonzept zu integrieren. Häufig wird eine vollständige Wiederherstellung der sprachlichen Fähigkeiten nicht zu erreichen sein, weshalb das Behandlungsziel dann die Erlangung bestmöglicher kommunikativer Fähigkeiten zur Bewältigung alltäglicher Situationen und individueller Bedürfnisse ist mit Verzicht auf stets grammatikalisch korrekte Äußerungen und unter Miteinbeziehung auch nonverbaler Verständigungsmöglichkeiten (Grehl et al. 2000). Zahlreiche Faktoren, die zum Teil komplex und in ihrer wechselseitigen Abhängigkeit wenig überschaubar sind, bestimmen den Verlauf einer reinen 7 Die Konsequenzen für die Therapie 157 Worttaubheit und damit den therapeutischen Erfolg. Dennoch können einige Regeln aufgestellt werden. Bezüglich der Ätiologie hat eine reine Worttaubheit bei Verschluss der A. carotis interna, vermutlich wegen der günstigen Kollateralversorgung, und bei Verschluss der A. cerebri posterior, wie auch nach gedecktem Schädelhirntrauma, einen oft günstigen Verlauf, während Verschlüsse der A. cerebri media oder einzelner ihrer Äste sehr stabile Syndrome hervorrufen, ebenso wie auch hypoxische und enzephalitische Gewebsschäden. Intrazerebrale Blutungen haben eine Prognose offensichtlich abhängig im Wesentlichen vom Ausmaß der Gewebeläsionen in der sprachrelevanten Region, was auf die Bedeutung von Lokalisation und Größe der Gewebsschädigung hinweist, auch wenn sonst die Größe der Läsion im CT erstaunlich wenig Voraussagen bezüglich der Schwere der Sprachstörung zulässt (Grehl et al. 2000). Bei den kreislaufbedingten Worttaubheiten gilt auch ein Zusammenhang zwischen Rückbildungschance und Ausmaß des initialen sprachlichen Defizits. Insbesondere muss bei noch erheblichen sprachlichen Symptomen 2 Wochen nach Erkrankungsbeginn mit länger bestehenden Beeinträchtigungen gerechnet werden (Schmidt et al. 2001). Die das höhere Lebensalter häufig begleitenden Faktoren wie schlechterer allgemeiner Gesundheitszustand, Herz-Kreislauf-Erkrankungen und ungünstigere psychosoziale Bedingungen haben mehr als das Alter selbst einen negativen Einfluss. Gleichzeitig vorliegende zusätzliche neuropsychologische Beeinträchtigungen haben eine ungünstigere Prognose zur Folge. Linkshändigkeit soll hingegen mit einer besseren Rückbildungsmöglichkeit verbunden sein (Grehl et al. 2000). Eine bleibende Läsion im Bereich des primären auditorischen Kortex bedingt in der Regel eine Einbuße sprachlicher Fähigkeiten. Eine optimale Sprachtherapie bedeutet infolgedessen das maximale Ausschöpfen des von den prognostischen 7 Die Konsequenzen für die Therapie 158 Faktoren beeinflussten vorhandenen Rückbildungspotentials. Dies aber erfordert eine ausreichend intensive, genügend lange anhaltende und kompetente Behandlung, möglichst in einer interdisziplinären Zusammenarbeit von Ärzten, Therapeuten und Psychologen, unter Miteinbeziehung der Angehörigen (Grehl et al. 2000). Schlussbemerkung 159 6FKOXVVEHPHUNXQJ Die Untersuchungsergebnisse von TALLAL, TALCOTT und PHILLIPS ergaben, dass sowohl die Legasthenie als auch die reine Worttaubheit zumeist keine Sprachverarbeitungsstörungen sind. So beruhen legasthenische Defizite in erster Linie auf einer Störung beim Verarbeiten rasch wechselnder elementarer optischer und akustischer Stimuli. TALLAL und TALCOTT stellen das reibungslose Funktionieren der optischen und akustischen Sinneswahrnehmungen als unumgängliche Voraussetzung für das erfolgreiche Erlernen von Schreiben und Lesen dar. In verschiedenen Untersuchungen konnten sie nachweisen, dass bei Legasthenikern häufig ein auditives bzw. visuelles Informationsverarbeitungsdefizit bereits auf nichtsprachlicher Ebene vorliegt. Da die Wahrnehmung nichtsprachlicher Reize Voraussetzung für die Sprachverarbeitung in höheren Ebenen ist, kommt dieser Störung mit hoher Wahrscheinlichkeit eine große Bedeutung bei der Entstehung der Legasthenie zu (Tallal 2000). Die Untersuchungen von PHILLIPS weisen daraufhin, dass auch die reine Worttaubheit eine Manifestation einer mehr grundlegenden zeitlichen Verarbeitungsstörung auf vorsprachlichem Niveau sei. PHILLIPS stellte fest, dass der reinen Worttaubheit eine sprachunspezifische Störung im primären auditorischen Kortex zugrunde liegt (Phillips 1997). Eine Anzahl von Hinweisen zeigt an, dass der primäre auditorische Kortex eine Rolle bei der Wahrnehmung, aber nicht bei der linguistischen Verarbeitung von Lauten spielt. Die Genauigkeit des Antwortverhaltens der kortikalen Neuronen reichte in den Untersuchungen von PHILLIPS aus, um den zeitlichen Verlauf einzelner Sprachkomponenten darzustellen. Dies lässt darauf schließen, dass der primäre auditorische Kortex bei der Unterscheidung verschiedener Sprachabschnitte eine Rolle spielt. Die Ergebnisse zeigen zudem, dass die Antworten auf Reize im Kortex eine Genauigkeit des Antwortverhaltens zeigten, die nur etwas schlechter als die der Fasern des Kochlearnervs ist (Phillips 1990). Schlussbemerkung 160 Eines der wichtigsten diagnostischen Kriterien der Genauigkeit, mit der Nervenzellen auf Töne oder Geräusche reagieren ist die Prüfung, inwieweit die Frequenzlücke (4.2.2.1) erkannt werden kann. Die wichtigsten „ Frequenzlücken“ der Sprache sind die phonetisch bedeutsamen – sie lassen Stopp-Konsonanten erkennbar werden (Phillips 1990). Nicht alle Bereiche des Sprachunterscheidungsvermögens sind bei der reinen Worttaubheit gleichermaßen betroffen. Insbesondere wurde festgestellt, dass das Wahrnehmungsvermögen langer Vokale bilaterale Läsionen des primären auditorischen Kortex übersteht, jedoch das von Stopp-Konsonanten nicht. Die gestörte Unterscheidungsfähigkeit von Stopp-Konsonanten bei Worttaubheit zeigt ein zeitliches Verarbeitungsdefizit an, das Stopp-Konsonanten betrifft, aber nicht Vokale. Dies liegt im Bereich von einer bis zu zehn Millisekunden und charakterisiert die Stopp-Konsonanten phonetisch (Phillips 1990). Die Forschungsergebnisse von TALLAL, TALCOTT und PHILLIPS lassen Schlussfolgerungen für die Therapie zu: Sowohl eine Lese-RechtschreibSchwäche als auch eine reine Worttaubheit müssten durch das Trainieren elementarer sensorischer Fähigkeiten gefördert werden können. Damit sollte das Konzept des starren Übens von Lesen und Schreiben abgelöst werden können durch ein wirksameres. Dies konnte bereits bezüglich der Legasthenie bestätigt werden. So entwickelten TALLAL und MERZENICH eine Art Computerspiel, das spezifisch die bei der Legasthenie beeinträchtigten Wahrnehmungs- und Unterscheidungsleistungen verbessert. TALLAL stellte fest, dass ein auf diese Weise erfolgendes Training das Sprachverständnis der Kinder nachhaltig fördert (Tallal http://www.pna.org 3.10.2001). Auch andere Wissenschaftler gehen von der Auffassung aus, dass eine LRS durch das Trainieren nichtsprachlicher Elemente, insbesondere der Ordnungsschwelle sowie der HemisphärenKoordination, nachhaltig gefördert werden könne (Warnke 1995). Ergänzt werden können diese therapeutischen Verfahren durch das von FISCHER entwickelte Blicktraining (Fischer http://www.optom.de 21.11.2001). Werden Störungen der Blickmotorik festgestellt, ist ein Training der Blickkontrolle Schlussbemerkung 161 angezeigt, um die Voraussetzungen für einen zuverlässigen Leseprozess zu verbessern. Zusätzlich entwickelte FISCHER ein Hörtraining, das wie das TALLAL-Verfahren die Fähigkeit übt, elementare Unterschiede in den akustischen Signalen zu erkennen. FISCHER geht hierbei auf die Frequenzlücke ein, deren Bestimmung ein wichtiges Mittel ist, um den zeitabhängigen Verlauf des Hörvermögens zu bestimmen (Phillips 1999). So fällt es Patienten mit reiner Worttaubheit schwer, eine Frequenzlücke zu erkennen und sie einzuordnen. Obwohl sich zwischen Legasthenie und reiner Worttaubheit offenbar zahlreiche Parallelen auftun, die immer wieder darauf hinweisen, dass auch der reinen Worttaubheit eine sprachunspezifische Störung zugrunde liegt, bei der bestimmte Frequenzspektren akustischer Stimuli nicht erfasst werden können, wurden im Gegensatz zur Therapie der Legasthenie bei der reinen Worttaubheit bisher keine therapeutischen Verfahren entwickelt, welche insbesondere die Verarbeitung schneller akustischer Reize im Gehirn fördern. Der Grundsatz der zur Zeit üblichen therapeutischen Verfahren heißt vielmehr noch immer „ üben, üben“ , und zwar das Einüben von sprachlichen Elementen – ein Grundsatz, der nach den Erfolgen der neuen LRS-Therapieverfahren überdacht werden sollte. Literatur 162 /LWHUDWXU Alexander AW, Anderson HG, Heilman PC, Voeller KKS, Torgesen JK. Phonological awareness training and remediation of analytic decoding deficits in a group of severe dyslexics. Annals of Dyslexia 41, 1991, 193-206 Algeria J, Pignot E, Morais J. Phonetic analysis of speech and memory codes in beginning readers. Memory and Cognition 10, 1982, 451-456 Altmann T. Thema: Legasthenie und Lese-Rechtschreibschwäche. http://www.theresa_LRS.htm, 14.9.2001 Ambrose J. Computerized transverse axial scanning (tomography) II. Clinical application. Br L Radiol 46, 1973, 1023-1047 Auerbach AH, Allard T, Naeser M, Alexander MP, Albert ML. Pure word deafness: Analysis of a case with bilateral lesions and a defect at the prephonemic level. Brain 105, 1982, 271-300 Baddeley A, Wilson A B. A case of word deafness with preserved spatial implications for the structure and function of short-ter memory, Brain 73, 203-223 Ball EW, Bachman BA. Phoneme segmentation training: effect on reading readiness. Annals of Dyslexia 38, 1988, 208-225 Bandettini PA, Wong EC, Hinks RS, Tikofsky RS, Hyde JS. Time course EPI of human brain function during task activation. Magn Reson Med 25, 1992, 390-397 Bandettini PA, Wong EC, Jesmanowicz A, Hinks RS, Hyde JS. Spin-echo and gradient-echo EPI of human brain activation using BOLD contrast: a comparative study at 1.5 T. NMR Biomed 7, 1994, 12-20 Barinaga M. Giving Language Skills a Boost. Science, 271, 1996, 27-28 Begley S. Rewiring Your Gray Matter. Newsweek, 2000 Benson DF, Geschwind N. Aphasia and related disorders: a clinical approach. In Baker AR, Joynt RJ (eds.). Clinical Neuoradiology 1, 1985, 193-238 Literatur 163 Benson DF, Patten DH. Meuse of radioactivc isotopes in the localization of aphasia-producing lesions. Corrtex, 3, 1967, 58-71 Benton AL, Joynt RJ. Early descriptions of aphasia. Arch Neurol 3, 1960, 205-222 Beratung Blicklabor http://www.brain.uni-freiburg.de/bbl 18.6.2001 Berthoz A, Graf W, Vidal PP (eds). The head-neck sensory motor system. Oxford University Press, Oxford 1992 Biscaldi M, Gezeck S, Stuhr V. Poor saccadic control correlates with dyslexia; Neuropsychologia 36, 11891202, 1998 Bisgaard ML, Eiberg H, Moller N, Niebuhr E, Mohr J. Dyslexia and chromosome 15 heteromorphism:negative lod score in a Danish material. Clin Genet 32, 1987, 118-119 Bloch F. Nuclear induction. Physiol Rev 70, 1946, 460–473 Boller F, Grafmann J (eds). Handbook of neuropsychology. Vol 1-4. Elsevier, Amsterdam, 1988-1992 Brain R. Speech Disorders. Aphasia, apraxia and agnosia. Washington, Butterwerth, 1961 Breitmeyer BG, Ganz L. Implications of sustained and transient channels for theories of visual pattern masking, saccadic suppression and information processing; Psychological Review 83, 1976, 1-36 Broca P. Remarques sur le siège de la faculté de language articué, suivie d'une observation d`aphémie (perte de la parole). Bull Soc Anat 36, 1861, 330-357 Bruck M. Word recognition skills of adults with childhood diagnoses of dyslexia. Developmental Psychology 26, 1990, 439-454 Bryant PE, Bradley L, MacLean M, Crossland J. Nurseery rhymes, phonological skills and reading. Journal of Child Language 16, 1989, 407-428 Bundesverband Legasthenie e.V. http://www.legasthenie.net 18.6.2001 Literatur 164 Bydder GM, Steiner RE, Young IR. Clinical NMR imaging of the brain: 140 cases. AJR Am J Roentgenol 3, 1982, 459-80 Cardon LR, Smith SD, Fulker DW, Kimberling WJ, Pennington BF, DeFries JC. Quantative trait locus for reading disability on chromosome 6. Science 266, 1994, 276-279 Castaigne P, Lhermitte F, Signoret JL, Abelante R. Description et étude scannographiqe du cerveeau de Leborgne (la découverte de Broca). Rev Neurol 136, 563-583 Cohen B (ed). Vestibular and oculomotor physiology. Ann NY Acad Sci, 1981, 374 Cohen R, Kelter S, Komeda M, Meier E. Sprache und Denken. In Von Stechow A, Schepping M (Hrsg.). Beiträge aus der Aphasieforschung. Fortschritte in der Semantik. Grammatikalische und sprachliche Prozesse. Acta Humaiora. Weinheim, 1998, 79-112 Cossu G, Shankweiler D, Liberman IY, Katz L, Tola G. Awareness of phonological segments and reading ability in Italien children. Applied Psycholinguistics 9, 1988, 1-16 Creutzfeldt OD. Cortex cerebri. Performance, structural and functional organization of the cortex. Max Planck Institut für Biophysikalische Chemie, Göttingen, 1993 Damadian R. Tumor detection by nuclear magnetic resonance. Science 1971, 1151-1153 Damasio H. Aphasia. N Engl J Med 326, 1992, 531-539 Damasio H. Neuroimaging contributions to the understanding of aphasia. Handbook of Neuropsychology 2, 1989, 3-46 Defior S, Tudela P. Effect of phonological training on reading and writing acquistion. Reading and Writing. 6, 1994, 299-320 Demb JB, Boyton GM, Heeger DJ. Brain activity in visual cortex predicts individual differences in reading performance. Proc Natl Acad Sci 94, 1997, 13363-13366 Dilling H, Mombour W, Schmidt MH. International Classification of Mental Diseases, ICD-10 (German edition). Huber, Bern, 1991 Literatur 165 Dinse HR, Godde B, Hilger T, Haupt SS, Spengler F, Zepka R. Short-Term Functional Plasticity of Cortical and Thalamic Sensory Representation and Its Implication for Information Processing, vol. 73 of Brain Plasticity. Advances in Neurology, chapter 13, 159-178 Dumont JJ, Oud J, van Mameren-Schoehuizen G, Jakobs M, van Herpen, M, van Bekerom F. Effectiveness of dyslexia treatment. In Pavlidis GT. (Hrsg.) Perspectives on dyslexia, vol 2, 293-325, Wiley, Chichester 1990 Eden GF, VanMeter JW, Rumsey JM, Maisog JM, Woods RP, Zeffiro TA. Abnormal processing of visual motion in dyslexia revealed by functional brain imaging. Nature 382, 1996, 66-70 Ellis A, Young A. Human Cognitive Neuropsychology. Lawrence Erlbaum Asso, Hove, 1988, 144-160 Engelien A. [email protected], 25.2.2001 Esser G, Schmidt M. Die langfristige Entwicklung von Kindern mit Lese-Rechtschreibschwäche. Zeitschrift für Klinische Psychologie, 22, 1993, 100-116 Evans EF. Neuronal process for the detection of acoustic patterns and for sound localization. In Schmidt FO, Worden FG (eds). Neurosciences – Third Study Program. MIT Press, New York, 131, 1974 Felton RH, Naylor CE, Wood FB. Neuropsychological profile of adult dyslexics. Brain and Language 9, 1990, 485-497 Fergusson DM, Lynskey MT. Early reading difficulties and later conduct problems. J Child Psychol Psychiatry. Nov;38(8), 1997, 899-907 Fischer B. Beratung Blicklabor. http://www.brain.uni-freiburg.de/bbl 12.11.2001 Fischer B. F. FonoFix. http://www.optom.de 21.11.2001 Fisher B, Weber H. Saccadic reaction times of dyslexic and age-matched normal subjects. Perception 19, 1990, 805-818 Flanagan JL. Speech Analysis, Synthesis and Perception. Second Edition, Springer, Berlin, Heidelberg, New York, 1972 Literatur 166 Forschungsgruppe Lese-Rechtschreibstörung http://www.kjp.uni-marburg.de/kjp.legast/index.htm 18.6.2001 Frackowiak RS, Functional mapping of verbal memory and language. Trends Neurosci 17, 1994, 109-115 Frith, U. Beneath the surface of developmental dyslexia. In Patterson KE, Marshall JC, Coltheart M (Hrsg.): Surface dyslexia. London, 1985 Galaburda A, Livingstone M. Evidence for a magnocellular defect in developmental dyslexia. In Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 70-82 Galaburda AM, Menard MT, Rosen GD. Evidence for aberrant anatomy in developmental dyslexia. Proc Natl Acad Sci USA, 91, 17, 1994, 8010-8013 Ganong WF. Lehrbuch der Medizinischen Physiologie. Springer, Berlin, Heidelberg, New York, 1974 Gauer O-H, Kramer K, Jung R (Hrsg). Physiologie des Menschen, Bd. 12: Hören, Stimmen, Gleichgewicht. Urban & Schwarzenberg, München, 1972 Gerthsen C, Kneser HO, Vogel H. Physik. Springer, Berlin, Heidelberg, New York, 1980 Giard MH, Perrin F, Pernier J, Bouchet P. Brain generators implicated in the processing of auditory stimulus deviance: a topographic event-related potential study. Psychophysiology 27, 1990, 627-640 Glogauer W. Rechtschreibleistung und Intelligenz. Eine empirische Untersuchung. Psychologie in Schule und Erziehung 24, 1977, 287-292 Godde B. Auditorischer Cortex: Repräsentation und Plastizität. http://www.neuroinformatik.ruhr-unibochum.de 21.11.2001 Godfrey JJ, Syrdal-Lasky AK, Millay KK, Knox CM. Performance of dyslexic children on speech perception tests. Journal of Experimental Child Psychology 32, 1981, 401-424 Goswani U. Phonological skills and learning to read. In: Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 296-311 Grehl H, Reinhardt F, Neuberger J. Neurologie. Thieme, Stuttgart, New York, 2000 Literatur 167 Grigorenko EL, Wood FB, Meyer MS, Hart LA, Speed WC, Shuster A, Pauls DL. :Susceptibility loci for distinct components of developmental dyslexia on chromosome 6 and 15. Am J Hum Genet 60, 1997, :27-39 Grüsser O-J, Grehn F. Visuelles System. In Hierholzer K, Schmidt RF (Hrsg) Pathophysiologie des Menschen. VCH, Weinheim, 1991, Kap 30 Grüsser O-J, Grüsser-Cornehls U. Neuronal mechanisms of visual movement perception and some psychophysical and behavioral correlations. In Jung R (ed). Handbook of sensory physiology, vol VII/3a. Springer, Berlin, Heidelberg, New York, 1973, 333 Grüsser O-J, Grüsser-Cornehls U. Periodische Aktivierungsphasen visueller Neurone nach kurzen Lichtreizen verschiedener Dauer. Pflugers Arch Gesamte Physiol 275, 1962, 292 Grüsser O-J, Henn V. Okulomotorik und vestibuläres System. In Hierholzer K, Schmidt RF (eds) Pathophysiologie des Menschen. VCH, Weinheim, 1991, KaP 32 Grüsser O-J, Klinke R (Hrsg). Zeichenerkennung durch biologische und technische Systeme. Springer, Berlin, Heidelberg, New York, 1971 Grüsser O-J, Landis T. Visual agnosias and other disturbances of visual perception and cognition, vol XII. In Cronly-Dillon JR (ed). Vision and visual dysfunction. MacMillan, London, 1991 Gutbrod K, Nirkko A, Ozdoba C, Heinemann D, Ptak R, Schroth G, et al. Selektive Aktivierung der Sprachgebiete mit Hilfe der funktionellen Magnetresonanztomographie (FMRI). In Voss A (Hrsg.). Neurologische Rehabilitation Gestern-Heute-Morgen. In press 2000 Haffner J, Zerahn-Hartung C, Pfuller U, Parzer P, Strehlow U, Resch F. Effekte und Bedeutung von spezifischen Rechtschreibproblemen bei jungen Erwachsenen. Zeitschrift für Kinder- und Jugendpsychiatrie und Psychotherapie, 26, 1998, 124-135 Head H Aphasia and Kindred Disorders of Speech. Zambridge University Press, London, 1926 Heilman KM, Valenstein E (eds). Clinical neuropsychology. Third edition, Oxford University Press, Oxford, 1993 Herholz K, Reulen HJ, von Stockhausen HM, Thiel A, Ilmberger J, Keuler J et al. Preoperative activation and intraoperative stimulation of language-related areas in patients with glioma. Neursurgery 41, 1997, 12531262 Literatur 168 Herholz K, Thiel A, Wienhard K, Pietrzyk U, von Stockhausen HM, Krabe H, et al. Individual functional anatomy of verb generation. Neuroimage3, 1996, 185-194 Herrholz K, Reulen HJ, von Stockhausen HM, Thiel A, Ilmberger J, Keuler J et al. Preoperative activation and intraoperative stimulation of language-related areas in patients with glioma. Neursurgery 41, 1997, 12531262 Hesse G. Tagung für Hals-Nasen-Ohren-Ärzte, Hannover, Januar 2001 Hoien T, Lundberg I, Larsen JP, Tonnessen FE. Profiles of creading related skills in dyslexic families. Read Writ Interdisc J 1, 1989, :381-392 Holligan C, Johnston R. The use of phonological information by good and poor readers in memory and reading tasks. Memory and Cognition 16, 1988, 522-532 Hounsfield G. Computerized transverse axial scanning (tomography). I. Description of system. Br L Radiol 46, 1973, 46, 1016-1022 Huber P, Gutbrod K, Ozdoba C, Nirkko A, Lövblad O, Schroth G. Zur Geschichte der Aphasiologie und Sprachlokalisation im Gehirn. Schweiz Med Wochenschr 130, 2000, 49-59 Ijzendoorn, MH, Bus AD. Meta-analytic confirmation of the nonword reading deficit in developmental dyslexia. Reading Research Quarterly 29, 1994, 267-275 Jacksozz JH. Clinical remarks on cases of defects of expression (by words, writing, songs etc.) Lancet 1, 864, 604-605 Jernigan T, Hesselink J, Tallal P. Cerebral structure on magnetic resonance imaging in language-learning impaires children. Arch Neurol 48, 1991, 539-545 Jorm A, Share D. Phonological recoding and reading acquisition. Applied Psycholinguistics 4, 1983, 103-147 Jung R (Hrsg). Central processing of visual information. A: Integrative function and comparative data. Handbook of Sensory Physiology, Bd. VII/3B, Springer, Berlin, Heidelberg, New York, 1973 Kerstholt MT, Van Bon WHJ, Schreuder R. Training in phonemic segmentation: the effects of visual support. Reading and Writing 6, 1994, 361-386 Literatur 169 Khanna SM, Leonard DBG. Basilar membrane tuning in the cat Kochlea. Science 215, 1982, 305-306 Kleist K. Gehirnpathologie. Barth, Leipzig, 1934 Klicpera C, Gasteiger-Klicpera B. Die langfristige Entwicklung der mündlichen Lesefähigkeit bei schwachen und guten Lesern. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie 26, 1994, 278-290 Klicpera C, Schabmann A, Gasteiger-Klicpera B. Lesen- und Schreibenlernen während der Pflichtschulzeit: Eine Längsschnittuntersuchung über die Häufigkeit und Stabilität von Lese- und Rechtschreibschwierigkeiten in einem Wiener Schulbezirk. Zeitschrift für Kinder- und Jugendpsychiatrie, 21, 1993, 214-255 Klinke R. Die Verarbeitung von Schallreizen im Innenohr. HNO 35, 1987, 139 Klinke R. Gleichgewichtssinn, Hören, Sprechen. In Schmidt RF, Thews G (Hrsg). Physiologie des Menschen, 24. Auflage, Springer, Berlin, 1990 Klinke R. Neurotransmission in the inner ear. In Flock A, Wersäll J (eds). Cellular mechanisms in Hearing. Elsevier, Amsterdam, 1986, 235-244 Kochnower R, Richardson E, DiBenedetto BA. Comparison of the phonic decoding ability of normal and learning disabled children. Journal of Learning Disability 16, 1983, 348-351 Kohn SE, Friedman RB. Word-Meaning Deafness: A Phonlogical-Semantic Dissociation. Cognitive Neuropsychology 3 (3), 1986, 291-308 Kolb B, Whishaw IQ. Human neuropsychology. Third edition, Freeman, New York, 1990 Kosslyn SM, Andersen RA (eds). Frontiers in cognitive neuroscience. MIT Press, Carnbridge, Massachusetts, 1992 Kotchen TA, Guthrie GP. Renin-angiotensin-aldosterone and hypertension. Endocr Rev 5, 1, 1980, 78-99 Küspert P. Phonologische Bewußtheit und Schriftspracherwerb. Peter Lang, Frankfurt/Main, 1998 Landerl K, Wimmer H. Phonologische Bewusstheit als Prädiktor für Lese- und Schreibfertigkeiten in der Grundschule. Zeitschrift für Pädagogische Psychologie 8, 1994, 153-164 Literatur 170 Lauterburg P. Image formation by inducted local interactions: examples employing nuclear magnetic resonance. Nature 242, 1973, 190-191 LeBihan D. Functional Magnetic Resonance Imaging of the brain. Ann Intern Med 122, 1995, 296-303 Lenneberg EH. Biologische Grundlagen der Sprache, Suhrkamp, Franke, 1973 Lewis C, Hitch, GJ, Walker P. The prevalence of specific arithmetic difficulties and specific reading difficulties in 9- to 10-year-old boys and girls. Journal of Child Psychology and Psychiatry 35, 1994, 283-92 Liberman IY, Shankweiler D. Phonology and the problems of learning to read and write. Rem Spec Educ 6, 1985, 8-17 Lichtheim L. On aphasia. Brain 7, 1885, 433-484 Lichtheim L. Über Aphasie. Dtsch Arch Klin Med 36, 1885, 204-268 Livingstone MS, Hubel DH. Segregation of form, color, movement and depth: anatomy, physiology and perception. Science 240, 1988, 740 LLinas R. Is dyslexia a dischronia? In: Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 70-82 Lundberg I, Frost J, Peterson O. Effects of an extensive programme for stimulating phonological awareness in pre-school children. Reading Research Quaterly 23, 1988, 163-184 Lundberg I, Olofsson A, Wall S. Reading and spelling skills in the first years predicted from phonemic awareness in kindergarten. Scandinavian Journal of Psychology 21, 1980, 159-173 Luria AR. Basic problems in neurolinguistics. The Hague, Mouton, 1976 Luria AR. Die höheren kortikalen Funktionen des Menschen und ihre Störungen bei örtlichen Hirnschädigungen. VEB Deutscher Verlag der Wissenschaften, Berlin, 1970 Manis FR, Mc-Bride-Chamg C, Seidenberg MS, Keating P, Doi, LM, Munson B, Petersen A. Are speech perception deficits associated with developmental dyslexia? Journal of Experimental Child Psychology 66 (2), 1997, 211-235 Literatur 171 Manley JA, Müller-Preuss P. Response variability of auditory cortex cells in the squirrel monkey to constant stimuli. Exp Brain Res 32, 1978, 171-180 Mansfield P. Multi-planar image formation using NMR spin echoes. J Phys C: Solid State Phys 10, 1977, L55–L58 Mansfield P. Proton spin imaging by NMR. Contemp Phys 17, 1976, 553-576 Marie P. Revision de la question de l'aphasie. La troisième circonvolution frontale gauche ne joue aucun rôle spécial dans la fonction du language. Sem Médicale 26, 1906, 241-247 Marx H, Jansen H, Mannhaupt G, Skowronek, H. Prediction of difficulties in reading and spelling on the basis of the Bielefelder screening. In Grimm H, Skowronek H (Hrsg). Language acquisition problems and reading disorders: Aspects of diagnosis and intervention. Berlin, 1993 Maunsell u. Newsome. Visual processing in monkey extrastriate cortex. Annu Rev Neurosci 10, 1987, 363 May P. Rechtschreiblernen in Ost und West. In Niemeyer W. Kommunikation und LeseRechtschreibschwäche. Winkler, Bochum, 1995 Mayer KC. http://mitglied.tripod.de/NeurologePsychiater/glossar.htm, 14.12.2001 Merigan WH, Maunsell JHR. How parallel are the primate visual pathways? Annual Review of Neuroscience, 16, 1993, 369-402 Merzenich MM, Schreiner WJ, Wang X. Neural Mechanims Underlying Temporal Integration, Segmentation, and Input Sequence Representation: Some Implications for the Origin of Learning Diabilities. In: Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 1-22 Mezger GH. Die Aphasie. http://home.algaeu.org 21.11.2001 Moseley ME, Glover GH. Functional MR imaging – capabilities and limitations. Neuroimaging Clin N Am 5, 1995, 161-91 Müller E. Erste Hinweise zum Erkennen von LRS/Legasthenie für Eltern und Schüler http://www.vcg.ba/schulpsy/LRS/rsd.html, 14.9.2001 Literatur 172 Näslund JC. The interrelationships among preschool predictors of reading acquisition for German children. Reading and Writing 2, 1990, 327-360 Notoya M, Suzuki S, Furukawa M, Enokido H. A case of pure word deafness assosiated with LandauKleffner Syndrome: a long-term study of auditory disturbance. Auris Nasus Larynx (Tokyo) 18, 297-305, 1991 Ogawa S, Tank DW, Menon R, Ellerman JM, Kim SG, Merkle H et al. Intrinsic signal changes accompanying sensory stimulation: functional brain mapping with magnetic resonance imaging. Proc Natl Acad Sci USA 89, 1992, 5951-5955 Ojeman G, Ojeman J, Lettich E, Berger M. Cortical language localization in left dominant hemisphere. J Neurosurg 71, 1989, 316-326 Olson RK, Rack JP, Conners FA. Eye movements and their heritability in dyslexic and normal readers. In Schmid, R, Zambarbieri D (Eds.). Oculomotor control and cognitive processes, Amsterdam: North-Holland, 1991, 503-513 Olson RK, Forsberg H, Wise B. Genes, environment, and development of orthographic skills. In VW Berninger (Hrsg) The varieties of orthographic knowledge I: theoretical and developmental issues. Kluwer, Dordrecht, 1994, 27-71 Olson RK, Wise B, Conners F, Rack J. Organization, heritability, and remediation of component word recognition and language skills in disabled readers. In: Carr T, Levy BA. (Hrsg.). Reading and its development: component skills approaches. New York, 1990 Otsuki M, Soma Y, Sato M, Homma A, Tsuji S. Slowly Progressive Pure Word Deafness. Eur Neurol 39, 1998, 135-140 Paulesu E, Frith U, Snowling M, Gallagher A, Morton J, Frackowiak RS, Frith CD. Is developmental dyslexia a disconnection syndrome? Evidence from PET scanning. Brain 119, 1996, 143-157 Penfield W, Boldrey E. Somatic motor and sensory representation in the cerebral Kortex of man as studied by electrical stimulation. Brain 60, 1937, 381-443 Penfield W, Roberts L. Speech and brain mechanisms. University Press, Princeton London, 1959 Literatur 173 Pennington BF, Gilger J, Pauls D, Smith SSA, Smith SD, DeFries JC. Evidence for a major gene transmission of developmental dyslexia. JAMA. 18, 1991, 1527-1534 Pennington BF, Van Orden GC, Smith SD, Green PA, Haith MM. Phonological processing skills and deficits in adult dyslexics. Child Development 61, 1990, 1753-1778 Phillips DP. Response timing constraints on the cortical representation of sound time structure. J Acoust Soc Am 88 (3), 1990, 1403-1411 Phillips DP. Neural representation of stimulus times in the primary auditory cortex. In: Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 104-118 Phillips PD. Central Auditory Processing: A View from Auditory Neuroscience. The American Journal of Otology, Vol 16, No. 3, 338-352, 1995 Phillips PD. Detection of silent intervals between noises activating different perceptual channels: Some properties of “ central“ auditora gap detection. J Acoust Soc Am 101, 6, 1997, 3694-3705 Phillips DP. Auditory Gap Detection, Perceptual Channels and Temporary Resolution in Speech Perception. J Am Acad Audiol 10, 1999, 343-354 Phillips DP, Farmer ME. Acquired word deafness, and the temporal grain of sound representation in the primary auditory cortex. Behavioural Brain Research, 40, 1990, 85-94 Pickles JO. An Introduction to the Physiology of Hearing. Second edition. Academic Press, 1988 Plath P. Zentrale Hörstörungen. Schriftenreihe GEERS-Stiftung Band 10, 1995 Poeppel D. A critical review of PET studies of phonological processing. Brain and Language 55, 1996, 317351 Polyak S. The vertebrate visual system. University of Chicago Press, Chicago, 1957 Pöppel E. A hierarchical model of temporal perception. Trends in Cognitive Sciences 1, 1997, 56-61 Literatur 174 Pöppel E. Grenzen des Bewußtseins. DVA Stuttgart, 1985, 9-42 Praamsta P, Hagoort P, Maassen B, Curl T. Word deafness and auditory cortical function. A case history and hypothesis. Brain 114, 1991, 1197-1225 Purcell EM, Torrey HC, Pound RF. Resonance absorption by nuclear magnetic moments in a solid. Physiol Rev 69, 1946, 37-38 Rack JP, Snowling MJ, Olson RK. The nonword reading deficit in developmental dyslexia: A review. Reading Research Quarterly 27, 1992, 29-53 Raichle M. Positron emission tomography. In Mountcastle V (ed.). Handbook of Physiology. Bethesda, 1987 Reulen HJ, Schmid UD, Ilmberger J, Eisner W, Bise K. Tumorchirurgie im Sprachkortex in Lokalanästhesie. Nervenarzt 68, 1997, 813-824 Rihs F, Sturzenegger M, Gutbrod K, Schroth G, Mattle HP. Determination of language dominance: Wada test confirms functional transcranial Doppler sonography. Neurology 52, 1999, 1591-1596 Rumsey JM, Andreason P, Zametkin AJ, Aquino T, King AC, Hamburger SD, Pikus A, Rapoport JL, Cohen RM. Failure to activate the left temporoparietal cortex in dyslexia. An oxygen 15 positron emission tomographic study. Archives of Neurology 49, 1992, 527-534 Rutter M, Yule W. The concept of specific reading retardation. Journal of Child Psychology and Psychiatry 16, 1975, 181-197 Saffran EM, Marin OSM, Yeni-Komshian GH. An Analysis of Speech Perception in Word Deafness. Brain and Language 3, 1976, 209-228 Salmelin R, Service E, Kiesila P, Uutela K, Salonen O. Impaired visual word processing in dyslexia revealed with magnetoencephalography. Annals of Neurology 40, 1996, 157-162 SAS Institute Inc. SAS Language: Reference, Version 6. SAS Institute Inc., Cary, NC, 1990 Scheerer-Neumann G. Rechtschreibtraining mit rechtschreibschwachen Hauptschülern auf kognitionspsychologischer Grundlage: Eine empirische Untersuchung. Westdeutscher Verlag, Opladen, 1988. Literatur 175 Scherg M, Vajsar J, Picton TW. A source analysis of human auditory evoked potentials. Journal of Cognitive Neuroscience 1 1989, 336-355 Schmidt RF (Hrsg). Neuro- und Sinnespsychologie. Springer, Berlin, Heidelberg, New York, 1993 Schmidt RF, Thews G, Lang, F (Hrsg). Physiologie des Menschen. 28. Auflage. Springer Verlag, Berlin, Heidelberg, New York, 2000 Schneider W, Küspert P, Roth E, Vise M, Marx H. Short- and long-term effects of training phonological awareness in kindergarten: evidence from two German studies. Journal of Experimental Child Psychology 66, 1997, 311-340 Schneider W, Vise M, Reimers P, Blaesser B. Auswirkungen eines Trainings der sprachlichen Bewusstheit auf den Schriftspracherwerb in der Schule. Zeitschrift für Pädagogische Psychologie 8, 1994, 177-188 Schulte-Körne G, Deimel W, Bartling J, Remschmidt H. Die Bedeutung der auditiven Wahrnehmung und der phonologischen Bewusstheit für die Lese-Rechtschreib-Schwäche. Sprache, Stimme und Gehör 22, 1998a, 25-30 Schulte-Körne G, Deimel W, Bartling J, Remschmidt H. Auditory processing and dyslexia: evidence for a specific speech deficit. NeuroReport 9, 1998b,:337-340 Schulte-Körne G, Deimel W, Müller K. Gutenbrunner C, Remschmidt H. Familial aggregation of spelling disability. J Child Psychol Psychiat 37, 1996, 817-822 Schulte-Körne G, Deimel W, Remschmidt H. Die Bedeutung von phonologischer Rekodierfähigkeit und orthographischem Wissen für die Rechtschreibfähigkeit Erwachsener. Zeitschrift für Klinische Psychologie 26, 1997, 210-217 Schulte-Körne G, Grimm T, Nöthen MM, Müller-Myhsok B, Cichon S, Vogt IR, Propping P, Remschmidt H. Evidence for linkage of spelling disability to chromosome 15. Am J Hum Genet 63, 1998c, 279-282 Schulte-Körne G, Remschmidt H, Hebebrand J. Zur Genetik der Lese-Rechtschreib-Schwäche. Zeitschrift für Kinder- und Jugendpsychiatrie 21, 1993, 242-252 Literatur 176 Schulte-Körne G, Remschmidt H, Warnke A. Selektive visuelle Aufmerksamkeit und Daueraufmerksamkeit bei legasthenen Kindern. Eine experimentelle Untersuchung. Zeitschrift für Kinder- und Jugendpsychiatrie 19, 1992, 99-106 Sellick PM, Patuzzi B, Johnstone BM. Measurement of basilar membrane motion in the guinea pig using Moessbauer technique. J acoust Soc Amer 72, 1982, 131-141 Shaywitz SE, Fletcher JM, Holahan JM, Shneider AE, Marchione KE, Stuebing KK, Francis DJ, Pugh KR, Shaywitz BA.Persistence of dyslexia: the Connecticut Longitudinal Study at adolescence. Pediatrics. 1999 Dec;104(6):1351-9 Shaywitz SE, Shawitz BA, Fletcher Escobar MD. Prevalence of reading disability in boys and girls: results of the Connecticut longitudinal study. JAMA 264, 1990, 998-1002 Siegel LS, Ryan EB. Development of grammatical sensitivity, phonological. and short-term memory skills in normally achieving and learning disabled children. Developmental Psychology 24, 1988, 28-37 Smith SD, Kimberling WJ, Pennington BF. Screening for multiples genes influencing dyslexia.. Read Writ Interdisc J 3, 1991, 285-298 Smith SD, Kimberling WJ, Pennington BF, Lubs HA. Specific reading disability: identification of an inherited form through linkage analysis. Science 219, 1983, 1345-1347 Snowling MJ. Phonemic deficits in developmental dyslexia. Psychological Research. 43, 1981, 219-234 Snowling MJ. The development of grapheme-phoneme correspondence in normal and dyslexic readers. Journal of Experimental Child Psychology 29, 1980, 294-305 Spoendlin H. Innervation densities of the Kochlea. Acta oto-laryngol 73, 1972, 235 Stark LW, Giveen SC, Terdiman JF. Specific dyslexia and eye movements; IN: Stein, J. F. (ed): Vision and visual dysfunction, 12, Macmillian, London, 1991, 203-232 Stark RE, Heinz JM. Perception of stop consonants in children with expressive and receptive-expressive language impairements. Journal of Speech and Hearing Research 39, 1996, 676-686 Steffens ML, Eilers RE, Gross-Glenn K, Jallad B. Speech perception in adult subjects with familiar dyslexia. Journal of Speech and Hearing Research 35, 1992, 192-200 Literatur 177 Stein JF. Vision and visual dyslexia. Vol XIII. In von Cronly-Dillon JR (eds) Vision and visual dysfunction. MacMillan, London, 1991 Stevenson J. Which aspects of processing text mediate genetic effects? Read Writ Interdisc J 3, 1991, 249269 Stockert von TR. On the Structure of Word Deafness and Mechanisms Underlying the Fluctuation of Disturbances of Higher Cortical Functions, 1982 Talcott JB, Witton C, McClean MF, Hansen PC, Rees A, Green GGR, Stein FF. Dynamic sensory sensitivity and children’s word decoding skills. Proc Natl Acad Sci, USA 97, 2000, 2592-2957 Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 122 Tallal P, Miller S, Fitch RH. Neurobiological Basis of Speech: A Case for the Preeminence of Temporal Processing. In: Tallal P, Galaburga AM, LLinás, von Euler C. Temporal Information Processing in the Nervous System: Special Reference to Dyslexia and Dysphagia. Annals of The New York Academy of Sciences, 62, 1993, 1-22 Tallal P, Piercy M. Defects of non-verbal auditory perception in children with developmental aphasia. Nature 241, 1973, 468-469 Tallal P, Sainburg R, Jernigan T. Neuropathology of developmental dysphasia. Read Writ 4, 1991, 65-79 Tallal P. Temporal Processing in the Nervous System – Special Reference to Dyslexia and Dysphasia. Annals of the New York Academy of Sciences, Volume 682, 1993, 442 Tallal P. The science of literacy: From the laboratory to the classroom. Proc Natl Acad Sci, USA 97, 2000, 2402-2404 Tallal P et al. Temporal processing deficits of language-learning impaired children ameliorated by training. Science 271, 1996, 77-80 Tallal P. Auditory temporal perception, phonics, and reading disabilities in children. Brain and Language 9, 1980, 182-198 Literatur 178 Tallal P, Miller S, Fitch RH. Neurobiological basis of speech: a case for the preeminence of temporal processing. In Tallal P, Galaburda A, MLlinás RR, Euler C von (Hrsg.): Temporal information processing in the nervous system: special reference to dyslexia and dysphasia. New York, 1993 Teuber HL. Alteration of perception and memory in man. In: Weiskrantz L, ed. Analysis of behavioral change. New Yoork, Harper Row, 1968 Tonndorf J. Dimensional analysis of Kochlear models. J acoust Soc Amer 32, 1980, 493-497 Tursky I. Lese-/Rechtschreibschwäche. http://www.bildungsservice.at/schulpsychologie/ docs/BeilageLRSS99.htm, 14.9.2001 van Essen DC. Visual areas of the mammalian cerebral cortex. Annu Rev Neurosci 2, 1979, 227 Wada J. A new method for determination of the side of cerebral speech dominance. A preliminary report on the intracarotid injection of sodium amytal in man. Med Biol 14, 1949, 221-222 Wagner RK, Torgesen JK, Rashotte CA. Development of reading related phonological processing abilities: new evidence of bidirectional causality from latent variable longitudinal study. Developmental Psychology 30, 1994, 73-87 Warnke A, Remschmidt H, Hennighausen K. Verbal information processing in dyslexia--data from a followup experiment of neuro-psychological aspects and EEG. Acta Paedopsychiatrica 56, 1994, 203-208 Warnke A. Legasthenie und Hirnfunktion. Bern 1990 Warnke F. CD Dyslexie und HörLateralität. VAK-Verlag, Freiburg 1996 Warnke F. CD-Lateraltraining 1 und 2. MediTECH, Wedemark, 1998 Warnke F. Der Takt des Gehirns. VAK-Verlag Freiburg, 1995 Warnke F. Was Hänschen nicht hört. VAK-Verlag Freiburg, 1995 Watson BU, Miller TK. Auditory perception, phonological processing, and reading ability/disability. Journal of Speech and Hearing Research 36, 1993, 850-863 Literatur 179 Weinschenk C, Funke EH, Gieseler L, Pieh KH, Winhold N. Über die Häufigkeit der kongenitalen Legasthenie im zweiten Grundschuljahr (II.). Psychologische Rundschau 19, 1968, 44-51 Werker JF, Tees RC. Speech perception in severely disabled and average reading children. Canadian Journal of Psychology 41, 1987, 48-61 Wernicke C. Der aphasische Symptomenkomplex. Eine psychologische Studie auf anatomischer Basis. Kohn und Weigert, Breslau, 1874 Wieser HG, Valavanis A, Roos A, Isler P, Renella RR. Selective and superselective temporal lobe amytal Tests: neuroradiological, neuroanatomical, and electrical data. In Manelis J, Bental F, Loeber JN, Dreifuss I (eds.). Advances in epileptology, Vol 17, Ravcn Press, New York, 1994, 20-27Békésy G von. Experiments in Hearing. McGraw Hill, New York, 1960 Wolff PH, Cohen C, Drake C. Impaired motor timing control in specific reading redardation. Neuropsychologia 22 (5), 1984, 587-600 Wolff PH. Impaired Temporal Resolution in Developmental Dyslexia. Annals of the New York Academy of Sciences, Volume 682, 1993 Yopp HK. The validity and reliability of phonemic awareness tests. Reading Research Quaterly 23, 1988, 159-177 Zenner HP, Zimmermann U, Gitter AH. Fast motility of isolated mammalian auditory sensory cells. Biochem biophys Res Commun 1, 1987, 304-308 Zenner HP, Zimmermann U, Schmitt U. Reversible contraction of isolated mammalian Kochlear hair cells. Hear Res 18, 1985, 127-133 Zenner HP. Hören. Thieme, 1985 Zenner HP. Motile responses in outer hair cells. Hear Res 22, 1986, 83-90 Zwicker E, Fastl H. Psychoacoustics – Facts & Models. Springer, Berlin, 1990