Auditive Verarbeitungs- und Wahrnehmungsstörungen

Werbung
Tag der Logopädie 6.3.2006
Vortragsabend zum Thema ‚Rezeptive Sprachstörungen‘
Bei den logopädischen Störungsbildern gibt es die grundsätzliche
Unterscheidung zwischen expressiven und rezeptiven Sprachstörungen. In den
letzten Jahren ist das Bewußtsein für die expressiven Störungen sehr gewachsen.
Erzieherinnen, Eltern und Ärzte können Aussprachefehler, Grammatikfehler,
Wortschatzdefizite überwiegend gut einschätzen und in vielen Fällen eine
rechtzeitige Behandlung empfehlen und in die Wege leiten.
Für die rezeptiven Probleme fehlen in den meisten Kinderarztpraxen die
Instrumentarien, also spezifische Tests, um diese Störungen zu diagnostizieren.
Bei keiner U-Untersuchung wird auf rezeptive Störungen eingegangen. Auch im
Kindergartenalltag und am wenigsten zu Hause können diese Schwierigkeiten so
auffallen, dass rechtzeitig eine Behandlung eingeleitet wird. Das alte Lied „Das
gibt sich schon“ und „so schlimm ist das nicht“ hören wir gerade bei den
rezeptiven Problemen viel, viel zu oft und die Probleme zeigen sich häufig erst
massiv Jahre später, z.B. in Form von Lese-Rechtschreibproblemen,
Grammatikproblemen, Speicherproblemen. Oft steht die Diagnose erst im
dritten Schuljahr und wertvolle Zeit für die Förderung ging verloren.
Mit unseren Vorträgen zum Tag der Logopädie möchten wir Sie mit der
rezeptiven Komponente der Sprache vertraut machen. Frau von Eichmann und
ich haben uns die letzten Jahre besonders intensiv damit beschäftigt. Wir waren
die letzten Jahre oft im Zentrum für kleine Kinder bei Frau Dr. Zollinger in der
Schweiz. Von Frau Dr. Zollinger gibt es zum Thema Sprachverständnis viele
Veröffentlichungen, die nicht nur in Fachkreisen die Sensibilität für dieses
Störungsbild geweckt haben.
Frau von Eichmann wird in ihrem Vortrag den Begriff „Sprachverständnis“
klären, die Entwicklungsschritte eines Kindes beschreiben und aufzeigen, woran
Defizite erkannt werden können.
In den letzten Jahren war ich u.a. des öfteren im Kinderzentrum bei Dr.
Nickisch in München , wo intensiv Forschung zu auditiven Verarbeitungs- und
Wahrnehmungsstörungen betrieben wird. Für diesen Vortrag habe ich die
Abbildungen aus meinen Seminarunterlagen entnommen.
Es ist einfach beeindruckend und immer wieder erstaunlich welche komplexen
und differenzierten Funktionen bei der auditiven Wahrnehmung
zusammenspielen. Ich hoffe Sie werden mein Staunen teilen und sich etwas
mehr in die Entwicklung der Kinder hineinversetzten können.
Auditive Verarbeitungs- und Wahrnehmungsstörungen,
Vortrag von Claudia Wachsmann
Sprache und das Sprechen der Sprache ist ein akustisches Ereignis. Welche
anderen akustischen Ereignisse fallen Ihnen ein ? Hören Sie einfach einmal hin,
was Ihr Ohr im Moment aufnimmt! Es sind unzählige Einzelinformationen, z.B.
ein Hüsteln, Stühle schieben, Atmen, Niesen („Gesundheit!“), vorbeifahrende
Autos, das eigene Atmen etc. etc. Alle Geräusche , die Worte anderer und mein
Sprechen werden jetzt erst einmal als Schallwellen von der Ohrmuschel
aufgenommen, im Gehörgang geht es dann zum Trommelfell, dahinter liegt das
Mittelohr mit den Gehörknöchelchen. Diese verstärken den Schall und leiten ihn
ins Innenohr, das wie eine Schnecke aussieht und mit unzähligen Sinneszellen
ausgestattet ist.
Apropos Sinneszellen. Kein anderes Sinnesorgan hat diese enorme Zahl und
Konzentration von Sinneszellen. Das Ohr ist unser „bestes“ Sinnesorgan. Wir
glauben das nicht im ersten Moment, eher scheinen uns die Augen wichtiger.
Doch eine Beeinträchtigung der Augen behindert die kindliche Entwicklung
nicht so extrem wie eine Beeinträchtigung der Ohren und der zentralen Hörbahn.
Unser Wort „dumm“ kommt vom mittelhochdeutschen Wort „thomb“ und das
heißt taub. Also wer nicht gut hört ist dumm! Hier wird die enge Verbindung
zwischen gut hören und verarbeiten und der Entwicklung der Intelligenz meines
Erachtens besonders deutlich.
Wieder zurück zum Innenohr. Alle akustischen Ereignisse eines Augenblickes
kommen im Innenohr an und die Impulse werden in der zentralen Hörbahn
weitergeleitet. Zentral heißt hier, dass jetzt alles im Gehirn passiert.
Die erste wichtige Funktion ist das Filtern der „Schallereignisse“. Also was ist
so wichtig, dass es weitergeleitet werden kann? Was darf unter den Tisch fallen?
Warum ist diese Entscheidung so wichtig? Unser Gehirn wäre mit einer Flut von
Informationen überfordert und muss darum permanent das Unwichtige vom
Wichtigen trennen.
Hier ist eine Zusammenstellung der Einzelfunktionen der Hörbahn. Auf die
wichtigsten Punkte möchte ich eingehen.
auditive Lokalisation
Erkennen der Richtung einer Schallquelle
auditive Selektion
Herausfiltern informationsrelevanter Schallereignisse aus Störlärm
binaurale Summation
Verschmelzung beidseits unterschiedlicher Frequenzspektren eines Wortes
auditive Separation
Auswertung aus jedem Ohr zeitgleich einlaufender, aber unterschiedlicher
Informationen (dichotisches Hören)
auditive Zeitauflösung
Verstehen von schneller als normal gesprochener Sprache
Hördynamik
Spanne von leisest hörbaren zum lautest hörbaren Schallereignis
auditive Musteranalyse
Erkennen kürzester nonverbaler auditiver Muster
auditive Differenzierung
Unterscheiden von Hörereignissen auf Geräusch-, Klang-, Phonemebene
auditive Identifikation
Heraushören von Hörereignissen auf Geräusch-, Klang-, Phonemebene
auditive Analyse
Heraushören von Einzelelementen auf Silben-, Wort-, Satz-, Textebene
auditive Synthese
Verknüpfen von Einzellauten zu Wörtern
auditive Ergänzung
Ergänzen von unvollständigen Lautkombinationen zu sinnvollen Wörtern
auditive Aufmerksamkeit
Lenken der Aufmerksamkeit auf allgemeine Schallereignisse (Horchen)
auditive Kurzzeitspeicherung
Merkfähigkeit (z.B. Geräusche, Wörter)
auditive Sequenzierung
Speichern in korrekter Reihenfolge
Abb. 1. Einzelfunktionen der zentral-auditiven Verarbeitung und der zentral-auditiven
Wahrnehmung
Sie sehen schon anhand der langen Liste, aus wie vielen Einzelfunktionen sich
die auditive Verarbeitung zusammensetzt. Diese lange Liste erklärt schon fast
automatisch, welch komplexe und komplizierte Vorgänge hier ablaufen.
Die Selektion, also das Ausfiltern von unwichtigen Geräuschen haben wir schon
besprochen. Als nächstes möchte ich die Lokalisation beschreiben.
Unser Gehör ist in der Lage Geräusche bis auf 3 Grad Abweichung zu
lokalisieren. Stellen Sie sich das bitte vor, ein Kreis um uns herum hat 360 Grad.
Nicht erst in der Schule ist es wichtig zu orten, woher die Geräusche kommen.
Schon ganz früh muß ein Kind erkennen, aha daher kommt das Geräusch und es
gehört zu diesem Gegenstand. Jetzt stellen Sie sich bitte die Dolby-SouroundDauerbeschallung, die in vielen Familien heute Gang und Gebe ist vor und wie
gut sich hier die Lokalisierungfunktion des Hörens entwickeln kann. Eine
kürzlich veröffentliche Studie in den USA belegt eindeutig den Zusammenhang
zwischen der akustischer Umgebung im Säuglings,- und Kleinkindalter und dem
späteren Intelligenzquotienten.(Diese Untersuchung bezieht sich auf die
Selektion hoher Umgebungsgeräusche)
Noch ein praktisches Beispiel aus der Schule: Wenn Geräusche oder
Sprachfetzen lokalisiert werden, können die hinter einem Schüler schneller als
unwichtig eingestuft werden. Nur das, was von vorne kommt ist das Wichtige.
Eine weitere Funktion ist das dichotische Hören. Bei uns Erwachsenen ist das
als Party-Effekt bekannt. Wir unterhalten uns und gleichzeitig können wir das
Gespräch der Nachbarn wenigstens in groben Zügen verfolgen. Wir können also
gleichzeitig zwei sprachliche Informationen verarbeiten. Warum ist das so
wichtig? Wieder ein Beispiel aus der Schule: man kann kurz mithören, was
nebenan geschwätzt wird und gleichzeitig den Erklärungen des Lehrers/der
Lehrerin folgen. Es gilt nicht entweder oder, sondern gleichzeitig, sonst würden
ja bei den Erklärungen im Unterricht Lücken entstehen, wenn die alleinige
Aufmerksamkeit gerade bei den Nachbarn ist. Informationen werden nicht
aufgenommen oder ein weiteres Verfolgen des Unterrichts ist nicht möglich.
Wir probieren das jetzt kurz praktisch aus. Wenn Sie diesen Vortrag als Skript
lesen, muß muß das Bild als Verdeutlichung reichen. Ich hoffe Sie können sich
vorstellen, wie das klingt:
Abb.2. Dichotisches Hören
Weil das Wort binaurale Summation nicht nur kompliziert auszusprechen ist, sei
es kurz besprochen. Aufgrund der akustischen Begebenheiten können einzelne
Frequenzanteile eines Wortes vom linken und andere vom rechten Ohr
aufgenommen werden. Durch Verarbeitungsprozesse im Gehirn werden diese
Frequenzanteile wieder zu einem Wort zusammengesetzt.
Die Akustik ist ein in unserer Zeit leider vernachlässigte Wissenschaft. Bei
vielen Bauten wird daran überhaupt nicht mehr gedacht. Ich hatte vor einigen
Jahren überzufällig viele Stimmpatienten einer neu gebauten Schule. Nachdem
fast ein Viertel des Lehrerkollegiums in meiner Praxis gelandet war, machte ich
einige Therapiestunden vor Ort. Die Akustik war in den Unterrichtsräumen so
katastrophal schlecht, dass die Lehrer/Innen sehr, sehr laut sprechen mussten,
um verstanden zu werden. Kein Wunder also, dass so viele Probleme mit der
Stimme bekamen. Wie konnte die Akustik beim Bau einer Schule so überhaupt
keine Beachtung finden? Das fand ich doch sehr erstaunlich. Den Architekt hätte
man wohl erst einmal in antike Amphitheater schicken sollen.
Abb. 3. Binaurale Summation
Jetzt geht es mit weniger kompliziert klingenden Funktionen weiter. Es geht um
das Speichern von Lauten oder Silben in einer richtigen Reihenfolge. Das, was
gehört wurde muß auch gespeichert werden. Warum? Ein neues Wort ist erst
einmal eine Aneinanderreihung unsinniger Silben. Wie bi-nau-ra-le-Sum-mation. Das hört sich doch wie ein Quatschwort an, so wie te-no-la-ku-sam-ba-lu.
Ist aber natürlich keines. Wir merken uns dieses „Quatschwort“ und die
Erkärung dazu. Kann sein, dass wir Tage später dieses „Quatschwort“ schon
wieder hören und einen neuen Kontext dazu. Vielleicht lernen wir so, dass die
Silbe „bi“ immer etwas mit zwei zu tun hat oder dass „Summe“ etwas
besonderes bedeutet. Nur mit dem Gedächtnis für sog. „Quatschwörter“ können
wir neue Wörter lernen und das sind ja pro Tag für unsere Kinder unzählige.
Dass hier das Speichern von Reihenfolge auch wichtig ist, ist klar. Das Wort
heißt Scho-ko-la-de und nicht de-ko-Scho-la. Probieren wir das doch gleich mal.
Hier ein paar Silbenreihen aus einem Test:
Me-to-si-bo-lu
Ta-ke-fe-no-bu
Fe-si-ma-te-ku
Wenn wir schon bei Lauten und Silben sind. Möchte ich noch das
phonologische Bewußtsein ansprechen. Laute, sie heißen Phoneme, müssen
erkannt werden, auch wenn sie sich ähnlich wie andere anhören. /D/ klingt z.B.
so ähnlich wie /T/ oder /K/ klingt so ähnlich wie /G/. Der einzige Unterschied
ist, dass ein Laut stimmhaft, der andere stimmlos gesprochen wird. Sie werden
an der gleichen Stelle gebildet. Das /D/ und /T/ wird mit der Zungenspitze hinter
den oberen Schneidezähnen gebildet. Beim /T/ ist keine Stimme dabei, beim /D/
schon, daher klingt es weicher. Hier muß genau hingehört werden. Leider ist das
auch etwas, was im Alltag oft nur dann auffällt, wenn das Kinde die Laute auch
falsch spricht. Das muß aber nicht sein. Jetzt gibt es im Alltag wenig
Mißverständnisse, die auf ein Problem in der Lautunterscheidung hinweisen
könnten. Wenn die Mutter sagt „hol mir die Kanne aus dem Schrank“, kann das
Kind nicht mit der Tanne dastehen. Die ist bekanntlich nicht im Schrank zu
finden.
So, ich denke, die wichtigsten Punkte sind angeschnitten worden. Wer den
Vortrag besucht hat, hat auch noch sein Skript.
Die Grafiken entstammen aus Seminarunterlagen von Dr. Nikisch.
Herunterladen