Tag der Logopädie 6.3.2006 Vortragsabend zum Thema ‚Rezeptive Sprachstörungen‘ Bei den logopädischen Störungsbildern gibt es die grundsätzliche Unterscheidung zwischen expressiven und rezeptiven Sprachstörungen. In den letzten Jahren ist das Bewußtsein für die expressiven Störungen sehr gewachsen. Erzieherinnen, Eltern und Ärzte können Aussprachefehler, Grammatikfehler, Wortschatzdefizite überwiegend gut einschätzen und in vielen Fällen eine rechtzeitige Behandlung empfehlen und in die Wege leiten. Für die rezeptiven Probleme fehlen in den meisten Kinderarztpraxen die Instrumentarien, also spezifische Tests, um diese Störungen zu diagnostizieren. Bei keiner U-Untersuchung wird auf rezeptive Störungen eingegangen. Auch im Kindergartenalltag und am wenigsten zu Hause können diese Schwierigkeiten so auffallen, dass rechtzeitig eine Behandlung eingeleitet wird. Das alte Lied „Das gibt sich schon“ und „so schlimm ist das nicht“ hören wir gerade bei den rezeptiven Problemen viel, viel zu oft und die Probleme zeigen sich häufig erst massiv Jahre später, z.B. in Form von Lese-Rechtschreibproblemen, Grammatikproblemen, Speicherproblemen. Oft steht die Diagnose erst im dritten Schuljahr und wertvolle Zeit für die Förderung ging verloren. Mit unseren Vorträgen zum Tag der Logopädie möchten wir Sie mit der rezeptiven Komponente der Sprache vertraut machen. Frau von Eichmann und ich haben uns die letzten Jahre besonders intensiv damit beschäftigt. Wir waren die letzten Jahre oft im Zentrum für kleine Kinder bei Frau Dr. Zollinger in der Schweiz. Von Frau Dr. Zollinger gibt es zum Thema Sprachverständnis viele Veröffentlichungen, die nicht nur in Fachkreisen die Sensibilität für dieses Störungsbild geweckt haben. Frau von Eichmann wird in ihrem Vortrag den Begriff „Sprachverständnis“ klären, die Entwicklungsschritte eines Kindes beschreiben und aufzeigen, woran Defizite erkannt werden können. In den letzten Jahren war ich u.a. des öfteren im Kinderzentrum bei Dr. Nickisch in München , wo intensiv Forschung zu auditiven Verarbeitungs- und Wahrnehmungsstörungen betrieben wird. Für diesen Vortrag habe ich die Abbildungen aus meinen Seminarunterlagen entnommen. Es ist einfach beeindruckend und immer wieder erstaunlich welche komplexen und differenzierten Funktionen bei der auditiven Wahrnehmung zusammenspielen. Ich hoffe Sie werden mein Staunen teilen und sich etwas mehr in die Entwicklung der Kinder hineinversetzten können. Auditive Verarbeitungs- und Wahrnehmungsstörungen, Vortrag von Claudia Wachsmann Sprache und das Sprechen der Sprache ist ein akustisches Ereignis. Welche anderen akustischen Ereignisse fallen Ihnen ein ? Hören Sie einfach einmal hin, was Ihr Ohr im Moment aufnimmt! Es sind unzählige Einzelinformationen, z.B. ein Hüsteln, Stühle schieben, Atmen, Niesen („Gesundheit!“), vorbeifahrende Autos, das eigene Atmen etc. etc. Alle Geräusche , die Worte anderer und mein Sprechen werden jetzt erst einmal als Schallwellen von der Ohrmuschel aufgenommen, im Gehörgang geht es dann zum Trommelfell, dahinter liegt das Mittelohr mit den Gehörknöchelchen. Diese verstärken den Schall und leiten ihn ins Innenohr, das wie eine Schnecke aussieht und mit unzähligen Sinneszellen ausgestattet ist. Apropos Sinneszellen. Kein anderes Sinnesorgan hat diese enorme Zahl und Konzentration von Sinneszellen. Das Ohr ist unser „bestes“ Sinnesorgan. Wir glauben das nicht im ersten Moment, eher scheinen uns die Augen wichtiger. Doch eine Beeinträchtigung der Augen behindert die kindliche Entwicklung nicht so extrem wie eine Beeinträchtigung der Ohren und der zentralen Hörbahn. Unser Wort „dumm“ kommt vom mittelhochdeutschen Wort „thomb“ und das heißt taub. Also wer nicht gut hört ist dumm! Hier wird die enge Verbindung zwischen gut hören und verarbeiten und der Entwicklung der Intelligenz meines Erachtens besonders deutlich. Wieder zurück zum Innenohr. Alle akustischen Ereignisse eines Augenblickes kommen im Innenohr an und die Impulse werden in der zentralen Hörbahn weitergeleitet. Zentral heißt hier, dass jetzt alles im Gehirn passiert. Die erste wichtige Funktion ist das Filtern der „Schallereignisse“. Also was ist so wichtig, dass es weitergeleitet werden kann? Was darf unter den Tisch fallen? Warum ist diese Entscheidung so wichtig? Unser Gehirn wäre mit einer Flut von Informationen überfordert und muss darum permanent das Unwichtige vom Wichtigen trennen. Hier ist eine Zusammenstellung der Einzelfunktionen der Hörbahn. Auf die wichtigsten Punkte möchte ich eingehen. auditive Lokalisation Erkennen der Richtung einer Schallquelle auditive Selektion Herausfiltern informationsrelevanter Schallereignisse aus Störlärm binaurale Summation Verschmelzung beidseits unterschiedlicher Frequenzspektren eines Wortes auditive Separation Auswertung aus jedem Ohr zeitgleich einlaufender, aber unterschiedlicher Informationen (dichotisches Hören) auditive Zeitauflösung Verstehen von schneller als normal gesprochener Sprache Hördynamik Spanne von leisest hörbaren zum lautest hörbaren Schallereignis auditive Musteranalyse Erkennen kürzester nonverbaler auditiver Muster auditive Differenzierung Unterscheiden von Hörereignissen auf Geräusch-, Klang-, Phonemebene auditive Identifikation Heraushören von Hörereignissen auf Geräusch-, Klang-, Phonemebene auditive Analyse Heraushören von Einzelelementen auf Silben-, Wort-, Satz-, Textebene auditive Synthese Verknüpfen von Einzellauten zu Wörtern auditive Ergänzung Ergänzen von unvollständigen Lautkombinationen zu sinnvollen Wörtern auditive Aufmerksamkeit Lenken der Aufmerksamkeit auf allgemeine Schallereignisse (Horchen) auditive Kurzzeitspeicherung Merkfähigkeit (z.B. Geräusche, Wörter) auditive Sequenzierung Speichern in korrekter Reihenfolge Abb. 1. Einzelfunktionen der zentral-auditiven Verarbeitung und der zentral-auditiven Wahrnehmung Sie sehen schon anhand der langen Liste, aus wie vielen Einzelfunktionen sich die auditive Verarbeitung zusammensetzt. Diese lange Liste erklärt schon fast automatisch, welch komplexe und komplizierte Vorgänge hier ablaufen. Die Selektion, also das Ausfiltern von unwichtigen Geräuschen haben wir schon besprochen. Als nächstes möchte ich die Lokalisation beschreiben. Unser Gehör ist in der Lage Geräusche bis auf 3 Grad Abweichung zu lokalisieren. Stellen Sie sich das bitte vor, ein Kreis um uns herum hat 360 Grad. Nicht erst in der Schule ist es wichtig zu orten, woher die Geräusche kommen. Schon ganz früh muß ein Kind erkennen, aha daher kommt das Geräusch und es gehört zu diesem Gegenstand. Jetzt stellen Sie sich bitte die Dolby-SouroundDauerbeschallung, die in vielen Familien heute Gang und Gebe ist vor und wie gut sich hier die Lokalisierungfunktion des Hörens entwickeln kann. Eine kürzlich veröffentliche Studie in den USA belegt eindeutig den Zusammenhang zwischen der akustischer Umgebung im Säuglings,- und Kleinkindalter und dem späteren Intelligenzquotienten.(Diese Untersuchung bezieht sich auf die Selektion hoher Umgebungsgeräusche) Noch ein praktisches Beispiel aus der Schule: Wenn Geräusche oder Sprachfetzen lokalisiert werden, können die hinter einem Schüler schneller als unwichtig eingestuft werden. Nur das, was von vorne kommt ist das Wichtige. Eine weitere Funktion ist das dichotische Hören. Bei uns Erwachsenen ist das als Party-Effekt bekannt. Wir unterhalten uns und gleichzeitig können wir das Gespräch der Nachbarn wenigstens in groben Zügen verfolgen. Wir können also gleichzeitig zwei sprachliche Informationen verarbeiten. Warum ist das so wichtig? Wieder ein Beispiel aus der Schule: man kann kurz mithören, was nebenan geschwätzt wird und gleichzeitig den Erklärungen des Lehrers/der Lehrerin folgen. Es gilt nicht entweder oder, sondern gleichzeitig, sonst würden ja bei den Erklärungen im Unterricht Lücken entstehen, wenn die alleinige Aufmerksamkeit gerade bei den Nachbarn ist. Informationen werden nicht aufgenommen oder ein weiteres Verfolgen des Unterrichts ist nicht möglich. Wir probieren das jetzt kurz praktisch aus. Wenn Sie diesen Vortrag als Skript lesen, muß muß das Bild als Verdeutlichung reichen. Ich hoffe Sie können sich vorstellen, wie das klingt: Abb.2. Dichotisches Hören Weil das Wort binaurale Summation nicht nur kompliziert auszusprechen ist, sei es kurz besprochen. Aufgrund der akustischen Begebenheiten können einzelne Frequenzanteile eines Wortes vom linken und andere vom rechten Ohr aufgenommen werden. Durch Verarbeitungsprozesse im Gehirn werden diese Frequenzanteile wieder zu einem Wort zusammengesetzt. Die Akustik ist ein in unserer Zeit leider vernachlässigte Wissenschaft. Bei vielen Bauten wird daran überhaupt nicht mehr gedacht. Ich hatte vor einigen Jahren überzufällig viele Stimmpatienten einer neu gebauten Schule. Nachdem fast ein Viertel des Lehrerkollegiums in meiner Praxis gelandet war, machte ich einige Therapiestunden vor Ort. Die Akustik war in den Unterrichtsräumen so katastrophal schlecht, dass die Lehrer/Innen sehr, sehr laut sprechen mussten, um verstanden zu werden. Kein Wunder also, dass so viele Probleme mit der Stimme bekamen. Wie konnte die Akustik beim Bau einer Schule so überhaupt keine Beachtung finden? Das fand ich doch sehr erstaunlich. Den Architekt hätte man wohl erst einmal in antike Amphitheater schicken sollen. Abb. 3. Binaurale Summation Jetzt geht es mit weniger kompliziert klingenden Funktionen weiter. Es geht um das Speichern von Lauten oder Silben in einer richtigen Reihenfolge. Das, was gehört wurde muß auch gespeichert werden. Warum? Ein neues Wort ist erst einmal eine Aneinanderreihung unsinniger Silben. Wie bi-nau-ra-le-Sum-mation. Das hört sich doch wie ein Quatschwort an, so wie te-no-la-ku-sam-ba-lu. Ist aber natürlich keines. Wir merken uns dieses „Quatschwort“ und die Erkärung dazu. Kann sein, dass wir Tage später dieses „Quatschwort“ schon wieder hören und einen neuen Kontext dazu. Vielleicht lernen wir so, dass die Silbe „bi“ immer etwas mit zwei zu tun hat oder dass „Summe“ etwas besonderes bedeutet. Nur mit dem Gedächtnis für sog. „Quatschwörter“ können wir neue Wörter lernen und das sind ja pro Tag für unsere Kinder unzählige. Dass hier das Speichern von Reihenfolge auch wichtig ist, ist klar. Das Wort heißt Scho-ko-la-de und nicht de-ko-Scho-la. Probieren wir das doch gleich mal. Hier ein paar Silbenreihen aus einem Test: Me-to-si-bo-lu Ta-ke-fe-no-bu Fe-si-ma-te-ku Wenn wir schon bei Lauten und Silben sind. Möchte ich noch das phonologische Bewußtsein ansprechen. Laute, sie heißen Phoneme, müssen erkannt werden, auch wenn sie sich ähnlich wie andere anhören. /D/ klingt z.B. so ähnlich wie /T/ oder /K/ klingt so ähnlich wie /G/. Der einzige Unterschied ist, dass ein Laut stimmhaft, der andere stimmlos gesprochen wird. Sie werden an der gleichen Stelle gebildet. Das /D/ und /T/ wird mit der Zungenspitze hinter den oberen Schneidezähnen gebildet. Beim /T/ ist keine Stimme dabei, beim /D/ schon, daher klingt es weicher. Hier muß genau hingehört werden. Leider ist das auch etwas, was im Alltag oft nur dann auffällt, wenn das Kinde die Laute auch falsch spricht. Das muß aber nicht sein. Jetzt gibt es im Alltag wenig Mißverständnisse, die auf ein Problem in der Lautunterscheidung hinweisen könnten. Wenn die Mutter sagt „hol mir die Kanne aus dem Schrank“, kann das Kind nicht mit der Tanne dastehen. Die ist bekanntlich nicht im Schrank zu finden. So, ich denke, die wichtigsten Punkte sind angeschnitten worden. Wer den Vortrag besucht hat, hat auch noch sein Skript. Die Grafiken entstammen aus Seminarunterlagen von Dr. Nikisch.