„Optimierung der akustischen Reize für die objektive

Werbung
Aus dem Med. Zentrum für Hals-Nasen Ohrenheilkunde
Klinik für Phoniatrie und Pädaudiologie
Geschäftsführender Direktor: Prof. Dr. med. J. A. Werner
Direktorin: Frau Prof. Dr. med. Roswitha Berger
des Fachbereichs Medizin der Philipps-Universität Marburg
in Zusammenarbeit mit dem Universitätsklinikum Gießen und Marburg GmbH,
Standort Marburg
„Optimierung der akustischen Reize für die objektive
Hörschwellenbestimmung durch AMFR“
Inaugural-Dissertation zur Erlangung des Doktorgrades der gesamten Humanmedizin
dem Fachbereich Medizin der Philipps-Universität Marburg
vorgelegt von
Thomas Berger aus Leipzig
Marburg, 2007
Angenommen vom Fachbereich Medizin der Philipps-Universität Marburg
am: 29. März 2007
Gedruckt mit Genehmigung des Fachbereichs
Dekan:
Prof. Dr. med. B. Maisch
Referent:
Prof. Dr. med. R. Berger
Korreferent:
Prof. Dr. med. J. Röper
2. Korreferent:
Prof. Dr. med. N. Sommer
1
Meiner Familie
2
Inhaltsangabe
1.Einleitung ................................................................................................. 8
1.1 allgemeine Problemstellung............................................................... 9
1.2 Hörprüfmethoden............................................................................. 11
1.2.1 subjektive Hörprüfmethoden..................................................... 12
1.2.2 objektive Hörprüfmethoden ...................................................... 16
1.3 Bedeutung der objektiven Hörprüfung ............................................ 19
1.4 Zielsetzung....................................................................................... 20
2. Literaturübersicht zur Thematik............................................................ 21
2.1 Grundlagen der Hörphysiologie ...................................................... 21
2.1.1 Schallaufnahme ......................................................................... 22
2.1.2 Schallübertragung und Weiterleitung ....................................... 22
2.1.3 Schallverarbeitung..................................................................... 24
2.1.3.1 Das Corti – Organ und der Transduktionsprozess ................ 27
2.1.3.2 Weiterentwicklung des Cochlea Modells............................... 31
2.1.3 Zentrale Hörverarbeitung .......................................................... 33
2.2.Schwerhörigkeiten ........................................................................... 36
2.2.1 Schallleitungsschwerhörigkeiten............................................... 36
2.2.2 Schallempfindungsschwerhörigkeiten ...................................... 37
2.2.2.1 Innenohrschwerhörigkeit........................................................ 37
2.2.2.2 Zentrale Hörstörung ............................................................... 38
2.3 Hörbahnreifung Myelisierung ......................................................... 39
2.3.1 Entwicklung des peripheren Hörorgans .................................... 39
2.3.2 Entwicklung der zentralen Hörbahn.......................................... 40
2.3.3 Hörbahnreifung und seine Auswirkungen ................................ 42
3
2.4 Grundlagen der akustisch evozierten Potentiale.............................. 44
2.4.1 Allgemein .................................................................................. 44
2.4.2 Geschichtlicher Rückblick ........................................................ 45
2.4.3 Anatomische-physiologische Grundlage .................................. 46
2.4.4 Klassifikation............................................................................. 47
2.4.5 generelle Untersuchungstechnik und Durchführung................. 49
2.5 Hirnstammaudiometrie (BERA, ABR)............................................ 52
2.6 Akustische Reizung mittels AMFR – ASSR................................... 55
2.7 Reizformen für die Ableitung AEP ................................................. 59
2.7.1 Tonimpulse................................................................................ 59
2.7.2 Click-Reize ................................................................................ 60
2.7.3 Chirp-Reize ............................................................................... 62
2.7.4 Neue Reize ................................................................................ 64
3. Material & Methodik............................................................................. 66
3.1 Beschreibung der neuen Stimuli...................................................... 66
3.2 Versuchspersonen ............................................................................ 72
3.3 Messvorbereitung und Messdurchführung ...................................... 74
3.4 Auswertung...................................................................................... 76
3.5 Statistische Bearbeitung................................................................... 78
4. Ergebnisse ............................................................................................. 79
5. Diskussion ............................................................................................. 85
6. Zusammenfassung und Fazit................................................................. 89
4
7. Tabellen ................................................................................................. 92
8. Abbildungsverzeichnis .......................................................................... 94
9. Literatur ............................................................................................... 100
10. Anhang .............................................................................................. 109
11. Lebenslauf ......................................................................................... 112
12. Verzeichnis der akademischen Lehrer .............................................. 114
13. Danksagung ....................................................................................... 115
14. Ehrenwörtliche Erklärung ................................................................. 116
5
Abkürzungen:
o AABR:
Automated Auditory Brainstem Responses
o Abb.:
Abbildung
o ABR:
Auditory Brainstem Responses
o ADANO:
Arbeitsgemeinschaft Deutschsprachiger Audiologen und
Neurootologen
o AEP:
Auditorisch evozierte Potentiale
o AM:
Amplitudenmodulation
o AMFR:
Amplitude Modulation Following Response
o ASSR:
Auditory Steady State Response
o BERA:
Brainstem Electric Responses Audiometry
o CERA:
Cortical Evoked Response Audiometry
o CORA:
Audiometrie mit konditionierten Orientierungsreflexen
o CW:
Cosinus-Wave
o dB:
Dezibel
o dB SL
dB Sensation Level
o dB SPL
dB Sound Pressure Level
o DPOAE:
Otoakustische Emissionen von Distorsionsprodukten
o EcochG:
Elekrocochleographie
o EEG:
Elektro-Encephalogramm
o EOAE:
Evozierten otoakustischen Emissionen
o ERA:
Electric Response Audiometry
o et. al.
und andere
o FAEP:
Frühe akustisch evozierte Potentiale
o FM:
Frequenzmodulation
o FO:
Frequency offset
o FFT:
Fast Fourier Transformation
o Gl.:
Gleichung
o Hz:
Hertz
o kΩ:
Kilo Ohm
o MAEP:
Mittlere auditorisch evozierte Potentiale
o MASTER:
Multiple Auditory Steady-State Evoked Response
o MC:
Multi-Carrier
6
o MIRA:
Multichannel Infant Reflex Audiometry
o NN-BERA:
Notched-Noise-BERA
o nHL:
normal Hearing Level
o NHS:
Neugeborenen Hörscreening
o OAE:
Otoakustische Emissionen
o PC:
Phase corrected
o PC*:
modifizierte Rayleigh Test
o p.c:
post conceptionem
o REM:
Rapid-Eye-Movement
o SAEP:
Späte auditorisch evozierte Potentiale
o SFOAE:
Stimulusfrequenzemissionen
o SNR:
Signal-Rausch-Verhältnis
o SOAE:
Spontane otoakustische Emissionen
o SSW:
Schwangerschaftswoche
o Tab.:
Tabelle
o TEOAE:
Transitorisch evozierte otoakustische Emissionen
o VCR:
Audiometrie mit visueller Verstärkung
o WHO:
Weltgesundheitsorganisation der Vereinten Nationen
o ZNS:
Zentrales Nervensystem
Ansonsten gelten die SI - Einheiten
7
1.Einleitung
Das menschliche Ohr verarbeitet Schallreize mit äußerster Präzision. Die große
Leistungsfähigkeit des Ohres umfasst Lautstärken zwischen 10 dB, wie das
Blätterrauschen bis hin zu 120 dB, einem Donnerknall, der schmerzhaft empfunden
werden kann. Beim leisesten Geräusch ist der Schalldruck millionenfach kleiner als
beim lautesten. Der Schalldruck an der Hörschwelle beträgt ein Milliardstel des
atmosphärischen Drucks.
Neben der hohen Sensitivität und dem großen Dynamikbereich verfügt das Hörorgan
über einen großen Frequenzbereich und eine große Frequenztrennschärfe. Der
Frequenzbereich des menschlichen Ohres umfasst mehr als 10 Oktaven. Ein geschultes
Ohr kann zwei Töne differenzieren, deren Frequenzunterschied nur 0,2% beträgt.
Kaum eine Sinneswahrnehmung, wie die des Hörens, vermag einen so tiefen und
nachhaltigen Eindruck der uns umgebenden Welt zu vermitteln und wird doch
gleichzeitig so sehr vernachlässigt. Wir leben in einer geräuschvollen Welt. Ihre
Gefahren können sich mit großen Lautstärken ankündigen deren Wahrnehmung
lebenswichtig sein kann.
Keine andere Sinneswahrnehmung besitzt einen so ausgedehnten Dynamikbereich bei
gleichermaßen hervorragend ausgeprägten Fähigkeiten der Analyse und Synthese.
Erstere äußert sich z. B. in der Möglichkeit, Tonhöhen absolut zu bestimmen, letztere
z. B. in der, ein Klanggemisch als Musik oder Sprache wahrzunehmen. Leise Klänge
der Natur oder einer Musik erzeugen ein ”akustisches Abbild“ des Raumes, in dem wir
uns befinden.
Das Ohr kann uns wie kein anderes Sinnesorgan unterschiedliche Eindrücke
vermitteln, diese können uns beruhigen oder aber auch aggressiv und nervös stimmen.
Der Leistung des Ohres haben wir die zwischenmenschliche Kommunikation zu
verdanken, denn nur dass was wir „hören“, können wir auch verarbeiten. Dazu muss
eine Analyse des Schalls erfolgen. Eine solche Schallverarbeitung findet im Innenohr
statt und ermöglicht dass wir Sprache aufnehmen und entwickeln können.
8
1.1 allgemeine Problemstellung
Sprache gilt als wichtigstes Medium für die zwischenmenschliche Kommunikation.
Zum
Spracherwerb
ist
ein
ungestörtes
Hörsystem
eines
der
wichtigsten
Voraussetzungen.
Schon im Altertum wurde das Hören als der wichtigste Sinn erkannt und es war
bekannt, dass bei seinem Ausfall kein Spracherwerb möglich ist.
Trotz dieses Wissens und der Bedeutung des Hörsinns für die Sprachentwicklung
werden Schwerhörigkeiten bei Kindern auch heute noch zu spät diagnostiziert [25].
Bei einer Datenerhebung, die mit Eltern schwerhörigen Kindern von Hartmann [30]
durchgeführt wurde, konnte festgestellt werden, dass durchschnittlich bis 21 Monate
vergehen, bis hochgradige Schwerhörigkeiten diagnostiziert werden. Ursache dieses
Missstandes lässt sich auf vielfältige Faktoren zurückführen.
Primär herrscht eine weitreichende Unkenntnis über die frühzeitige Erkennung von
Hörstörungen im Kindesalter und weiterhin wurde und wird mit diagnostisch nicht
gerechten Hörprüfmethoden untersucht.
Zur Revidierung dieses Missstandes wird in letzter Zeit intensiv an der Einführung
einer flächendeckenden und funktionierenden Hörscreening - Methodik gearbeitet.
Die Umsetzung dieser Herausforderung ist eine Aufgabe von sozialer Bedeutung und
bedarf der materiellen und ideellen Unterstützung und Förderung aller Gruppen der
Gesellschaft.
Die WHO hat klare Richtlinien und Empfehlungen für die Einführung von
Vorsorgeuntersuchung
erstellt.
Voraussetzungen
sind
Aussagen
zur
Krankheitshäufigkeit, Klärung der Diagnosesicherung, der Therapiefähigkeit, der
Nachsorge und auch wirtschaftliche Gesichtspunkte müssen berücksichtigt werden.:
•
Die gesuchte Erkrankung ist ernst
•
Die gesuchte Erkrankung ist häufig
•
Es muss ein erkennbares latentes oder symptomatisches Stadium der Krankheit
geben
9
•
Die Erkrankung muss therapierbar sein
•
Früher Therapiebeginn soll die Prognose verbessern
•
Weitere Diagnostik und Therapie muss verfügbar sein
•
Screening–Methode muss zumutbar sein
•
Screening–Verfahren muss genügende Güteeigenschaften haben
•
Koordination von Screening und Diagnostik
•
Früherkennung und Frühbehandlung haben positive Kosten/Nutzen-Relation
Für die westliche Welt gilt, dass von 1000 lebendgeborenen Kinder 1-2 mit einer
hochgradigen Schwerhörigkeit geboren werden [25],[29].
Vergleicht man diese Inzidenz mit den Krankheitshäufigkeiten heute schon üblichen
Vorsorgeuntersuchungen wie bei der Phenylketonurie 1: 10000, Hypothyreose 1:3500,
dann wird die Dringlichkeit für die Einführung einer Früherkennungsmaßnahme zum
Ausschluss einer Hörstörungen unterstrichen. Wichtige Voraussetzungen zur
Einführung eines Hörscreenings sind Prüfmethoden mit hoher Spezifität und einer
Praktikabilität in der Durchführung. Dazu zählen eine schnelle und für jedermann,
leicht durchführbare Messung.
Solche Untersuchungsmethoden existieren bereits.
Die
bisher
benutzten
objektiven
Hörprüfmethoden,
zu
denen
die
Hirnstammaudiometrie (Brainstem Electric Responses Audiometry - BERA) und die
otoakustischen
Emissionen
(OAE)
gehören,
ermöglichen
unterschiedliche
Bewertungen hinsichtlich der topographischen Zuordnung einer Hörstörung. Die
Hirnstammaudiometrie gestattet den Ausschluss einer Hörstörungen bis zum
Hirnstamm. Der Nachweis von otoakustischen Emissionen ist Ausdruck einer intakten
Funktion der äußeren Haarzellen in der Cochlea. Trotz der Möglichkeit Hörstörungen
objektiv nachzuweisen, bestehen bis heute Grenzen in der exakten Bewertung des
Hörverlustes. Die BERA lässt derzeit keine schwellennahe Hörprüfung zu und die
OAE sind durch Geräusche in der Umwelt als sehr störanfällig einzuschätzen. Sie
erlauben außerdem keine Bewertung einer retrocochleären Störung.
Ziel dieser Arbeit ist die Untersuchung zur Optimierung akustischer Reize um
möglichst schwellennahe Hörantworten zu erhalten, die dann im Einsatz beim
Hörscreening genutzt werden können.
10
1.2 Hörprüfmethoden
Die Untersuchung der Sinneswahrnehmung geht auf Psychophysiker zurück, zu denen
Theodor Fechner und Ernst Heinrich Weber gehörten. Beide Wissenschaftler waren in
Leipzig tätig. Ihnen ist zu verdanken, dass die Beziehungen zwischen objektiven
physikalischen
Dimensionen
und
subjektiver
Empfindung
in
ein
kausales
Abhängigkeitsverhältnis gebracht werden können.
Überprüfung des Hörvermögens gestaltet sich besonders bei Kleinkindern schwierig.
Bei
Erwachsenen
wird
zur
Bestimmung
der
Hörschwelle
meist
die
Tonschwellenaudiometrie angewandt. Es ist üblich, dass mittels einer Geste oder durch
Knopfdruck signalisiert wird, ob ein über Kopfhörer angebotener Ton wahrgenommen
wird. Die Tonschwellenaudiometrie ermöglicht Aussagen über den Hörverlust
bezüglich der Lautstärke und der Frequenz. Diese Art der Hörprüfung verlangt die
aktive Mitarbeit der Patienten und bietet dadurch jedoch auch viel Raum für
Fehlinterpretationen.
Diese Methoden sind jedoch für eine Überprüfung des Hörvermögens von
Kleinstkinder ungeeignet, da Kinder frühestens ab dem 3. Lebensjahr in der Lage sind,
aktiv an einem Hörtest mitzuwirken. Gerade aber in diesem Alter ist es besonders
wichtig, verlässliche Aussagen über das Hörvermögen des Kindes zu erhalten.
Für die Diagnostik kindlicher Hörstörungen werden in der Pädaudiologie
unterschiedliche, sich aber ergänzende Hörprüfverfahren genutzt. Es ist notwendig
sehr zeitig eine Aussonderungsuntersuchungen (Screening) durchzuführen und nach
entsprechenden Hinweisen auf ein auffälliges Ergebnis, muss möglichst schnell eine
exakte Bestimmung des Hörverlustes erfolgen. Dafür ist die Anwendung von
objektiven
Hörprüfungen
Verhaltensbeobachtungen
erforderlich.
im
sogenannten
Selbstverständlich
„Freifeld“
zur
müssen
auch
Diagnosesicherung
durchgeführt werden. Gerade in der Diagnostik kindlicher Schwerhörigkeiten müssen
subjektive und objektive Hör-Prüfmethoden eingesetzt werden. Beide Verfahren haben
ihre Berechtigung aber auch ihre Grenzen. Eine wichtige Aufgabe der Pädaudiologie
besteht darin, beide Methoden ergänzend zu nutzen, wobei den objektiven Verfahren
die größere Bedeutung zugeschrieben wird.
11
1.2.1 subjektive Hörprüfmethoden
Bei dieser Vorgehensweise werden Reaktionen auf angebotene Schallreize bewertet
und auf ihre Reproduzierbarkeit überprüft.
Da hierbei überschwellige akustische Stimuli eingesetzt werden, ist eine exakte
Beurteilung der Funktionsfähigkeit des Hörorganes nicht möglich.
Es handelt sich bei den subjektiven Methoden somit um eine relativ „grobe“ Form der
Hördiagnostik, die zudem stark an die Beobachtungsgabe und die Genauigkeit des
Untersuchers gebunden ist.
Darüber hinaus variieren die zu beobachtenden Reaktionen in Abhängigkeit vom Alter
des untersuchten Kindes.
Die Reflexaudiometrie findet bei Neugeborenen bis zum 4. Lebensmonat
Verwendung.
Das Prinzip dieses Verfahrens beruht auf der Auslösung unbedingter Reflexe durch die
Stimulation mit überschwelligen Reizen und kann auch als objektiver Test angesehen
werden.
Die ausgelösten Reflexe zeigen sich in Form von sogenannten Reflexbewegungen, wie
beispielsweise Augenbewegung oder auch in dem Innehalten von
Bewegungen.
Darüber hinaus lassen sich Änderungen der Atem- und Herzfrequenz sowie der Mimik
beobachten.
Beobachtete Reaktionen bei Säuglingen nach akustischem Stimulus:
•
Moro-Reflex
•
Aureopalpebralreflex
•
Bewegung der oberen Extremität(en), STARTL-Reflex
•
Bewegung der unteren Extremitäten
•
Innehalten der Bewegung
•
Atemfrequenzänderung, wiederholbar
•
Mimikänderungen, Saug-Schmatzbewegungen
•
sonstige reproduzierbare Reaktionen
•
keine Reaktionen [63]
12
Als weitere Methoden der Reflexaudiometrie werden unter anderem die Multichannel
Infant Reflex Audiometry (MIRA) im 1.Lebensjahr, Crib-o-gram bei Neugeborenen,
Babybett (nach Biesalski) ab 3.Lebensmonat [10] eingesetzt.
Trotz der bereits erwähnten Einschränkungen stellt die Reflexaudiometrie wegen ihres
geringen
zeitlichen
und
materiellen
Aufwandes
einen
wichtigen
Teil
der
pädaudiologischen Diagnostik dar.
Ab etwa dem 4. Lebensmonat berücksichtigt der Untersucher unbewusste
Orientierungs-reaktionen [32], welche entwicklungsphysiologisch an die Stelle der
unbedingten Reflexbewegungen treten.
Als problematisch erweist sich die schlechte Reproduzierbarkeit dieser unbewussten
Orientierungsreaktionen [28].
Hieraus resultieren unbefriedigende Ergebnisse, die den großen technischen Aufwand
zur Registrierung der Orientierungsreaktionen kaum rechtfertigen [99].
Im 2.-3. Lebensjahr eingesetzte Verfahren beruhen auf der Bahnung von
Orientierungs-reaktionen.
Dies geschieht durch Stimulation mit Licht- und Schallreizen, wobei der Lichtreiz als
Belohnung für die Reaktion auf den überschwelligen Schallreiz dient [28].
Durch wiederholtes „Training“ dieser bedingten Reflexe wird die Reaktion des Kindes
auf die angebotenen Reize zunehmend exakter.
Bekannt geworden sind diese Verfahren unter den Namen Audiometrie mit
konditionierten Orientierungsreflexen (CORA) sowie Audiometrie mit visueller
Verstärkung (VCR).
Mit etwa 3 Jahren ist bei Kindern ein gewisses Maß an Kooperation zu erwarten, was
den Einsatz der Spielaudiometrie erlaubt. Dabei wird die Hörreaktionsschwelle durch
eine Spielhandlung im freien Schallfeld ermittelt. Idealerweise werden für diese
Methode Kopfhörer zur Darbietung des Testtons verwendet, um eine seitengetrennte
Analyse des Hörvermögens zu ermöglichen. Das Kind lernt einen gehörten Ton als
Aufforderung für eine Spielhandlung anzusehen [81].
Nachdem es einen Ton über den Kopfhörer wahrgenommen hat, darf es beispielsweise
Bauklötze aufeinander stellen. Hier stehen mehrere Varianten bezüglich der
„Belohnung“ zur Verfügung, wobei es sinnvoll ist, die „Belohnungsform“ den
spielerischen Vorlieben des Kindes anzupassen. Aufgeführt seien hier nur das
Ingangsetzen einer Eisenbahn [38] oder das Abspielen eines Märchenfilmes auf
Knopfdruck nach wahrgenommenem Testton [39]. Wichtig ist zu erwähnen, dass bei
13
der Spielaudiometrie die bewusste Reaktion des Kindes auf Schallreize im
Vordergrund steht.
In der Tonaudiometrie werden dem Probanden über Kopfhörer Testtöne mit
verschiedenen Frequenzen und Lautstärken angeboten. Nach der Wahrnehmung des
Tones erfolgt eine Rückmeldung durch Knopfdruck, bei kleinen Kindern oder
entwicklungsreduzierten
älteren
Kindern
erfolgt
die
Antwortgebung
durch
Klötzchenstecken oder Ringe auffädeln. Durch dieses Verfahren kann die Hörschwelle
für Knochen- und Luftleitung bestimmt werden. Unter Hörschwelle versteht man dabei
die Lautstärke, bei der ein Ton gerade eben wahrnehmbar wird. Der Abstand zwischen
der Hörschwelle eines hörbeeinträchtigen Kindes und der eines normalhörenden
Kindes heißt Hörverlust.
Die Tonschwellenaudiometrie kann in der Regel ab dem 4. Lebensjahr durchgeführt
werden.
Die Sprachaudiometrie dient der Prüfung des Sprachverständnisses. Zur Einhaltung
konstanter Reizparameter wird das Prüfmaterial von einem Tonträger (Zahlen,
Einsilber und Satzreihen) monaural oder binaural in unterschiedlichen Lautstärken
über Lautsprecher oder Kopfhörer angeboten. Das Sprachverständnis wird in Prozent
der
verstandenen
Wörter
angegeben.
Zur
Erfassung
des
kindlichen
Sprachverständnisses existieren spezielle standardisierte Testverfahren, wie der
Mainzer Kindersprachtest [9] oder der Göttinger Kindersprachverständnistest [36].
Der Mainzer Kindersprachtest ist in drei Gruppen aufgeteilt. Der Sprachtest I
entspricht inhaltlich dem Wortschatz normalhörender Kinder unter vier Jahren. In Test
II werden Kinder von vier bis fünf Jahren erfasst und Test III kommt für Kinder von
sechs bis acht Jahren zur Anwendung. Bei den Testen I und II kann zusätzlich eine
Bildserie angeboten werden.
Der Göttinger Sprachverständnistest I ist für das Kindergartenkind (3-4 Jahren) und
der Göttinger Sprachverständnistest II für das Vorschulkind (5-6 Jahren) geeignet.
Die gehörten Wörter müssen Symbolen zugeordnet werden.
14
Die Sprachaudiometrie im freien Schallfeld bietet eine wichtige Information über die
tatsächliche Hörleistung.
Eine quantitative Bestimmung des Gehörs und eine grobe Orientierung, ob ein
Innenohr- oder Mittelohrschaden vorliegt, geschieht durch die Sprachabstandsprüfung.
Beim Innenohrschaden besteht eine große Differenz zwischen dem Verstehen von
Flüstern und der Umgangsprache, während bei einer Mittelohrschwerhörigkeit das
Verstehen bei beiden Sprechweisen annähernd gleich eingeschränkt ist [53]. Während
beim Erwachsenen und älteren Kind die Hörweite mit Umgangs- und Flüstersprache
durch Vorsprechen zweisilbiger Zahlen aus verschiedenen Abständen geprüft wird,
geschieht dies beim Kleinkind oder mehrfach behinderten Kind durch Nennen von
Spielzeug, welches das Kind, sofern es das Prüfwort verstanden hat, aus dem vor ihm
liegenden Spielzeug auswählen soll [37]. Dabei wird auch das Sprachverständnis mit
erfasst.
Die Prüfung des Sprachverständnisses unter dem Einfluss von Störlärm kommt den
Verhältnissen im täglichen Leben näher [81]. Sie empfiehlt sich daher für besondere
Fragestellungen, wie für die Anpassung von Hörgeräten, die Beurteilung von
geringgradigen Hörminderungen und die Erfassung von funktionellen Hörstörungen
[6]. Mit der Prüfung des Sprachverständnisses im Störlärm kann auch der Hörgewinn
durch die Hörgeräteversorgung insbesondere bei einseitiger Schwerhörigkeit beurteilt
werden.
Zuletzt sei noch erwähnt, dass zur Testung zentraler Hörleistungen der dichotische
Sprachtest zur Verfügung steht. In der Kinderaudiometrie wird der Test von
Uttenweiler, eine kindgerechte Modifikation des Feldmann-Test für Erwachsene. Er
dient der Diagnostik bei zentralen auditiven Wahrnehmungsstörungen gedacht [54].
15
1.2.2 objektive Hörprüfmethoden
Ein bedeutender Bestandteil der objektiven Verfahren ist die Impedanzaudiometrie
durch Tympanometrie und Stapediusreflexmessung.
Die ersten Untersuchungen erfolgten durch Metz (1942), der schon wesentliche
Erkenntnisse über die Funktion der Mittelohrmuskeln und der Tube erarbeitete.
Die Tympanometrie stellt eine indirekte Tubenfunktionsprüfung dar, indem sie die
Auswirkungen mangelnder Paukenbelüftung registriert, nämlich den Unterdruck, der
als
Folge
unzureichender
Tubenöffnung
entsteht,
oder
bei
einer
Flüssigkeitsansammlung im Mittelohr. Hierbei wird die akustische Impedanz des
Trommelfells während einer Druckänderung gemessen. Dazu wird eine Sonde in den
Gehörgang eingebracht, die den Gehörgang vollständig verschließt. Diese Sonde
enthält drei Schlauchleitungen. Die eine leitet einen Sondenton in den Gehörgang, die
andere führt ein Mikrophon und die dritte baut mittels einer Pumpe definierte Überund Unterdrücke im Gehörgang auf. Jetzt erzeugt man zunächst einen Überdruck, dann
einen Druckgleichheit wie im Mittelohr und anschließend einen Unterdruck. Dadurch
lässt sich die druckabhängige Impedanzänderung durch die Messung des reflektierten
Sondentonanteils in einer Kurve (Tympanogramm) aufzeichnen.
Diese Untersuchung dient der Bestimmung der Trommelfellbeweglichkeit, der
Tubenfunktion, der indirekten Messung vom Druck im Mittelohr sowie dem Nachweis
von pathologischen Prozessen im Mittelohrbereich und gibt Auskunft über den
Zustand der Gehörknöchelchenkette. Die Tympanometrie sollte immer der
Stapediusreflexmessung
und
der
Registrierung
otoakustischer
Emissionen
vorgeschaltet werden [85].
Bei der Stapediusreflexmessung wird die Eigenschaft des Musculus stapedius
genutzt, bei Schallreizen, die mehr als 70 dB über der Hörschwelle liegen, sich zu
kontrahieren (akustikofazialer Reflex). Der akustikofaziale Reflex, der im Hirnstamm
mit dem Nervus cochlearis als afferenten Schenkel und dem Nervus facialis als
efferenten Schenkel verschaltet ist, wird hierbei gemessen [85].
Die Kontraktion des Musculus stapedius führt zu einer messbaren Änderung
(Erhöhung)
der
akustischen
Impedanz
und
zu
einer
Abschwächung
der
Schallübertragung. Der Stapediusreflex wird meist bei Schallstimuli mit 500, 1000,
2000 und 4000 Hz bei einem Sondenton von 220 Hz geprüft. Die Schwelle für den
16
Stapediusreflex liegt beim gesunden Gehör für die genannten Töne zwischen 70 und
90 dB. Zur Auslösung des Reflexes wird das kontralaterale Ohr (Reizohr) beschallt
und auf dem zu messenden Ohr (Sondenohr) die Impedanzänderung über den
reflektierten Sondentonschallanteil gemessen.
Voraussetzung für die Messung des Stapediusreflex ist eine funktionierende
Gehörknöchelchenkette und ein intaktes Trommelfell.
Ist der akustische Widerstand, z.B. durch einen Erguss im Mittelohr, ohnehin deutlich
erhöht, lässt sich der Stapediusreflex nicht mehr auslösen
Befunde
sind
etwa
bei
Adhäsionen,
Weitere pathologische
Fazialisparese
und
Schallempfindungsschwerhörigkeit sowie einem Akustikneurinom zu erwarten. Bei
Innenohrschwerhörigkeiten,
zumindest
bei
gering
bis
mittelgradigen
Innenohrschwerhörigkeiten, findet man nicht selten eine normale StapediusreflexSchwelle.
Zusätzlich kann, über die Registrierung der, durch die Bewegung des Trommelfells
(Tympanic Membran Displacement) provozierten Volumenänderung des äußeren
Gehörgangs, Rückschlüsse über den intracochleären perilymphatischen Druck und den
intrakraniellen Druck Rückschlüsse gezogen werden [11].
Beide Verfahren zur Impedanzmessung liefern aussagekräftige Ergebnisse zur
Funktion
des
Gehörknöchelchen-
Trommelfell-
Apparates
und
können
bei
entsprechenden Messwerten Hinweise auf eine Hörstörung geben [24],[28].
Bei den otoakustische Emissionen (OAE) handelt es sich um Schallaussendungen des
Innenohrs, die in der Cochlea generiert werden, und retrograd über die
Gehörknöchelchenkette und das Trommelfell nach außen gelangen, wo sie mit einem,
im äußeren Gehörgang platzierten, empfindlichen Mikrophon nachgewiesen werden
können. Sie entstehen als Folge der periodischen Kontraktion äußerer Haarzellen und
ihrer assoziierten mechanischen Strukturen [40].
Der Hörnerv ist bei der Erzeugung der OAE´s nicht beteiligt und es können demnach
keine Aussagen über den Verlauf oder Ausschlüsse über mögliche pathologische
Veränderungen erfolgen..
Die Otoakustischen Emissionen können spontan
vorhanden
sein,
spontane
otoakustische Emissionen (SOAE) oder mit akustisch Reizen erzwungen werden.
17
SOAE können bei Normalhörigen in durchschnittlich 44% nachgewiesen werden
[125], bei Innenohrschwerhörigen sind sie hingegen nur selten nachweisbar. Der
klinische Nutzen ihres Nachweises ist zwar gering, doch es ist zu beachten, dass sie
andere OAE in Frequenz und Amplitude beeinflussen [91].
Die Messung der evozierten otoakustischen Emissionen OAE (EOAE) hingegen hat
sich in der audiologischen Diagnostik etabliert. Sie werden durch externe akustische
Reize ausgelöst und als transitorisch evozierte otoakustische Emissionen (TEOAE)
oder otoakustische Emissionen von Distorsionsprodukten (DPOAE) nachgewiesen.
Eine weitere Form der OAE, die Stimulusfrequenzemissionen (SFOAE), entstehen bei
stationärer Anregung mit einem Ton. Sie haben die Frequenz des anregenden Tones
und geben die Emission im schmalen Bereich des Wanderwellenmaximums wieder. Im
Ganzen gesehen haben sie keine klinische Relevanz, und werden nicht zu
audiologischen Zwecken genutzt. Während die Stimuli bei der Messung von DPOAE
aus der simultanen Darbietung zweier, in Frequenz und Lautstärke unterschiedlicher,
Sinustöne (Primärtöne) besteht, wird zur Auslösung von TEOAE ein breitbandiger
Stimulus, ein sogenannter Click - Reiz, verwendet.
Durch die Verwendung des breitbandigen Click-Stimulus wird fast die gesamte
Cochlea angeregt. An Stellen mit einer unregelmäßigen Anordnung der äußeren
Haarzellen kann es zu Impedanzsprüngen mit unterschiedlicher Verformbarkeit der
Basilarmembran kommen.
Diese Regionen der Cochlea werden durch den Click häufiger erreicht als durch die
bitonale Stimulation bei Messung der DPOAE. Die Messung der TEOAE eignet sich
so eher für eine globale Überprüfung der Cochlea - Funktion, wogegen DPOAE besser
dazu geeignet sind, um die Funktionsfähigkeit der Cochlea in einem bestimmten
Frequenzbereich zu testen [95].
Die wichtigste Anwendung der OAE ist die Screeninguntersuchung der cochleären
Funktion bei Neugeborenen, Säuglingen und Kleinkindern. Sie ermöglicht schnell und
ohne Sedierung einen Überblick über eine mögliche Hörstörung. Die Lokalisation der
Schwerhörigkeit,
Mittelohr oder sensineural, und das Ausmaß können mit des
otoakustischen Emissionen nicht bestimmt werden.
Einen großen Anteil an der objektiven Hördiagnostik haben Verfahren, bei denen unter
Zuhilfenahme verschiedener Meßmethoden, Potentialänderungen neuronaler Synapsen
der menschlichen Hörbahn nach Stimulation durch Schallreize abgeleitet werden.
18
Bei diesen objektiven Hörprüfmethoden handelt es sich um die Erfassung von
auditorisch evozierten Potentialen (AEP). Da sich die zugrunde liegende Arbeit
diesem Verfahren näher beschäftigt, wird in der Literaturübersicht unter den Punkten
2.4 und 2.5 genauer auf diese Methode zur objektiven Hörprüfung eingegangen.
1.3 Bedeutung der objektiven Hörprüfung
Im Gegensatz zu den psychoakustischen, subjektiven Verfahren erlaubt die objektive
Audiometrie die Prüfung des Hörvermögens ohne die aktiven Angaben des Patienten.
Die Untersuchungen messen Funktionen des Gehörs an Hand physiologischer und
objektiver
Parameter.
Dadurch
helfen
sie
bei
der
Interpretation
von
verhaltensaudiometrischen Ergebnissen. Vor allem die Untersuchung des Gehörs von
Säuglingen,
Kleinkindern
Einschränkungen
bietet
und
einen
Personen
großen
mit
mentalen
Einsatzbereich
für
oder
kognitiven
die
objektiven
Hörprüfmethoden.
Heutzutage versteht man unter objektiven Hörprüfungen im engeren Sinne Verfahren,
die sich an das EEG, die Hirnstrommessung, anlehnen.
Grundansatzpunkt ist, im Gegensatz zu subjektiven psychoakustischen Verfahren, die
Möglichkeit der Beurteilung des Hörvermögens alleine durch Registrierung
auditorischer reizkorrelierter Parameter. Damit öffnet sich ein großes Feld von
Diagnosemöglichkeiten mit großer ständig steigender Bedeutung.
Im
Fachbereich
der
Audiologie
liegt
das
Hauptaugenmerk
auf
der
Hörschwellendiagnostik. Dabei können mit der Registrierung auditorisch evozierter
Potentiale Aussagen über kindliche Hörstörungen gewonnen werden oder bieten Hilfe
zur Aufdeckung von nichtorganischen Hörstörungen, wie Aggravation und
psychogene Hörstörungen.
Andere klinische Anwendungsgebiete finden sich mit der Topodiagnostik zwischen
cochleären
und
retrocochleären
Akustikusneurinom.
Hörstörungen
oder
dem
Nachweis
eines
Auch in der Neurologie werden zur Differenzierung von
ischämischen Hirnläsionen oder der Multiplen Sklerose objektive Hörprüfungen
herangezogen und werden mit Sicherheit in Zukunft an Bedeutung gewinnen.
19
1.4 Zielsetzung
Die Prävalenz von frühkindlichen Hörstörungen wird unterschiedlich angegeben und
liegt nach Schätzungen von Watkin, White u.a. bei 1,5 bis 6 pro 1000 Lebendgeburten
[116]. Somit stellen Hörschäden mit eine der häufigsten Erkrankungen bei
Neugeborenen dar [114]. Eine frühzeitige
und exakte Diagnostik kindlicher
Hörstörungen ist wie bei kaum einem anderen Krankheitsbild Vorbedingung für eine
suffiziente Therapie und sollte niemals nur mit einer Methode erfolgen. Erst die
Anwendung unterschiedlicher Testmethoden erlaubt es, mit hinreichender Sicherheit
Rückschlüsse auf das Ausmaß der Störung und ihren eventuellen Sitz zu ziehen.
Regelmäßige Kontrollen nach einer diagnostizierten Hörstörung sind darüber hinaus
erforderlich, um eine
Progredienz des Hörverlustes rechtzeitig zu erkennen und
therapeutisch zu würdigen [48].
Mit Hilfe der akustisch evozierten Potentiale und der Hirnstammaudiometrie werden
Verfahren benutzt, um Hörstörungen schnell und sicher zu diagnostizieren.
Aufgabe der vorliegenden Studie ist es, die Effizienz neuer phasenkompensierten
Breitband-Stimuli an einer großen Gruppe von normalhörenden jugendlichen
Probanden zu prüfen und mit der des Standard-Clicks sowie des Flat-Chirps nach Dau
et al. (2000) zu vergleichen.
Die Ergebnisse die im Rahmen dieser Studie ermittelt werden, sollen außerdem dazu
dienen die Realisierbarkeit der neuer Reize im Einsatz eines "frequenzspezifischen"
Hörscreening zu überprüfen.
Damit erhofft man sich eine besonders kurze Messzeit und ein hörschwellennahes
Ergebnis bei der Hörschwellendiagnostik zu ermöglichen.
Besondere Bedeutung hat eine solches Resultat im Einsatz beim Neugeborenen
Hörscreening (NHS) [7],[8]. Ein sicheres und schnelles Verfahren hilft unverzüglich
mit
der
Versorgung
des
hörgeschädigten
Kindes
zu
beginnen,
unnötige
Folgeuntersuchungen zu vermeiden oder damit verbundene unnötige Beunruhigung
der Eltern bei unsicherem Ergebnis zu verhindern.
20
2. Literaturübersicht zur Thematik
2.1 Grundlagen der Hörphysiologie
Das Ohr ist eines der wichtigsten Sinnesorgane des Menschen. Über das Ohr erfolgt
die Aufnahme von Schall und ermöglicht dadurch die sprachliche Kommunikation,
ohne die ein Individuum aus der Gesellschaft ausgeschlossen sein kann [19]. Der für
die Schallverarbeitung wichtigste Teil des Ohres liegt im härtesten Knochen des
Schädels, dem Felsenbein und ist dadurch weitestgehend
vor mechanischen
Einflüssen geschützt.
Physiologisch betrachtet gliedert man das Ohr in einen peripheren und einen zentralen
Anteil.
Das periphere Hörorgan, im Schläfenbein (Os temporale) gelegen, wird in drei
Abschnitte eingeteilt: Äußeres Ohr, Mittelohr und Innenohr.
Abb. 1: Auditorische Peripherie des Menschen, nach Dallos [15]
21
2.1.1 Schallaufnahme
Das äußere Ohr (Auris externa) wird durch die Ohrmuschel (Auricula) und den
äußeren Gehörgang gebildet. Durch seine trichterförmige Anatomie werden
Schallwellen differenziert den sensiblen Mittelohrstrukturen zugeführt [84].
Darüber hinaus besitzt die Ohrmuschel eine Richtcharakteristik, die zur Lokalisation
der Schallquelle beiträgt. Abhängig vom Ort der Schallquelle werden bereits
bestimmte Frequenzkomponenten verstärkt oder abgeschwächt [94]. Der so
modifizierte Schall wird durch den äußeren Gehörgang praktisch dämpfungsfrei bis
zum Trommelfell geleitet.
Die Resonanzfrequenz des circa drei cm langen Gehörganges liegt bei 3 kHz,
entsprechend findet sich das Maximum der Übertragungsfunktion im Frequenzbereich
von 1-4 kHz [10].
2.1.2 Schallübertragung und Weiterleitung
Das Mittelohr (Auris media) umfasst Trommelfell, Paukenhöhle, die pneumatischen
Räume und steht über die Ohrtrompete (Tuba Eustachii) mit dem Nasopharynx in
Verbindung. Zum Innenohr hin wird es durch das ovale Fenster begrenzt. Das Cavum
tympani als wichtigster Mittelohrraum ist gegen den äußeren Gehörgang durch das
Trommelfell
abgegrenzt,
welches
seinerseits
über
eine
Kette
aus
drei
Gehörknöchelchen an das Innenohr gekoppelt ist. Diese bilden die Schallleitungskette
und sind maßgeblich an der Hauptfunktion des Mittelohres, der Impedanzanpassung
und Übertragung der Schwingungen des Trommelfells auf das Innenohr, beteiligt. Die
zweite wichtige Funktion besteht im Ausgleichen der sich ständig ändernden statischen
Luftdrücke zwischen der Paukenhöhle und der Atmosphäre.
Die wichtigste Aufgabe des Mittelohres ist die Impedanzanpassung, denn es überträgt
den Schall aus dem Medium Luft auf das Medium Flüssigkeit des Innenohres. Da
diese beiden Medien verschiedene Schallkennimpedanzen besitzen, entstehen bei der
Übertragung
des
Schalls
Reflexionsverluste.
Das
Ziel
des
Trommelfell-
Gehörknöchelchen-Apparates ist es, diese zu minimieren. Die Impedanzanpassung
wird durch eine Druckerhöhung über zwei verschiedene Mechanismen erreicht.
22
Zum einen ist die Stapedesfußplatte erheblich kleiner als die Kontaktfläche von
Hammer und Trommelfell. Das ovale Fenster weist 3 mm2 auf im Vergleich zu der 50
mm2 großen Fläche des Trommelfelles. So entsteht bei gleicher Kraft der Schallwelle
ein höherer Druck. Zum anderen wird durch die Hebelwirkung der unterschiedlich
langen Gehörknöchelchen eine Druckerhöhung um den Faktor 1,3 erreicht. Dadurch
erfolgt die Schallübertragung im Mittelohr mit nur minimalen Reflexionsverlusten.
Die Schallübertragung ist frequenzabhängig, da physikalische Größen wie Masse,
Elastizität und Schwingungseigenschaften des Trommelfelles beteiligt sind [94].
Die Resonanzfrequenz des Mittelohr, bei der die Schallenergie besonders effektiv
übertragen wird, liegt bei 1-4 kHz, was dem Schallspektrum unserer Sprache
entspricht.
Zusätzlich kann die Schallübertragung durch die zwei Mittelohrmuskeln reguliert
werden. Der Musculus tensor tympani setzt am Hammer an, der Musculus stapedius
am
Stapes.
Die
Binnenohrmuskeln
dämpfen
die
Schwingungen
der
Gehörknöchelchenkette. Ein längeres Nachschwingen, das für die Schallübertragung
sehr nachteilig wäre, wird so vermieden. Außerdem verhindern die Binnenohrmuskeln
durch
ihre
Kontraktion,
dass
extreme
Schalldruckschwankungen
des
Umgebungsluftdruck sich nachteilig auf das Innenohr auswirken.
Abb. 2: Schematische Darstellung der Ossikelbewegung, bei der Übertragung vom Mittelohr
zum Innenohr [94]
23
2.1.3 Schallverarbeitung
Zum Innenohr werden die Hörschnecke (Cochlea) und das Vestibularorgan gerechnet,
die beide in der Pars petrosa des Schläfenbeins liegen. Die Aufgabe des
Gleichgewichtsorganes
besteht
in
der
Messung
und
Meldung
von
Translationsbewegungen oder Winkelbeschleunigungen [114].
Die für die Wahrnehmung des Schalls notwendige Umwandlung von mechanischer in
elektrische Energie vollzieht sich jedoch im schneckenförmigen Gang der Cochlea.
Weiterhin werden im Innenohr ein häutiges Labyrinth und ein dieses als Kapsel
umgebenes knöchernes Labyrinth unterschieden. Das knöcherne Labyrinth des
Hörorgans, die Schnecke (Cochlea) ist mit Perilymphe gefüllt. Das häutige Labyrinth
(Ductus cochlearis) enthält Endolymphe und befindet sich zwischen der Vorhoftreppe
(Scala vestibuli) und der Paukentreppe (Scala tympani) [93]. Die Cochlea windet sich
zweieinhalb mal spiralförmig um die knöcherne Schneckenachse (Modiolus).
Von der Schneckenachse ragt eine Knochenleiste (Lamina spiralis ossea) in den
Schneckenkanal. Die Knochenleiste geht über in die Basalmembran, die mit der
lateralen Wand des Schneckenkanals verbunden ist. Dadurch wird die Cochlea in eine
obere (Scala vestibuli) und eine untere (Scala tympani) geteilt. Die Skalen stehen an
der Schneckenspitze durch das Helicotrema miteinander in Verbindung.
Abb.3: Darstellung der Cochlea und mit Längsschnitt
24
Die Scala vestibuli öffnet sich in den Vorhof, während die Scala tympani an die
mediale Paukenhöhle grenzt und den Abschluss zum Mittelohr über die Membran des
runden Fensters bildet.
Wie bereits beschrieben enthalten beide die, der
extrazellulären Flüssigkeit gleichenden, Perilymphe. Als Entstehungsmechanismus
der Perilymphe wird die Ultrafiltration aus dem Blut angesehen.
Der Ductus cochlearis (Scala media), liegt am Boden der Scala vestibuli Die
Endolymphe wird von der die Scala media lateral begrenzenden Stria vascularis
produziert und wird im Saccus endolymphaticus resorbiert. Sie ähnelt in ihrer
kaliumreichen Zusammensetzung der Flüssigkeit des Interzellularraumes.
Die unterschiedlichen Elektrolytkonzentrationen, in Endo- und Perilymphe, die ein
elektrisches Potential von –80mV erzeugen, werden durch aktiven Ionentransport und
passive Diffusion aufrechterhalten.
Zwischen der Scala vestibuli und dem Ductus cochlearis liegt die für Ionen
durchlässige Reissner-Membran, während Ductus cochlearis und Scala tympani durch
die Basilarmembran getrennt werden. Auf der Basilarmembran befindet sich das CortiOrgan, das von der Tektorialmembran bedeckt wird.
Die genannten Strukturen dienen der Weiterleitung und Verarbeitung des Schallsignals
vom Mittelohr bis zum Corti-Organ. Die vom Stapes am ovalen Fenster übertragene
Schallenergie
löst schallsynchrone Flüssigkeitsverschiebungen im perilymphatischen Raum aus.
Die inkompressible Perilymphe leitet diese weiter und überträgt sie auf die
Basilarmembran.
So entsteht entlang der Membran eine Wellenbewegung, die im Jahre 1928 von G. von
Békésy entdeckt und als Wanderwelle bezeichnet wurde. Die Wanderwelle beginnt mit
sehr kleiner Amplitude, wächst in Richtung Schneckenspitze langsam an, um dann an
einer bestimmten, von der Anregungsfrequenz abhängigen Stelle, ein Maximum
auszubilden. Sie läuft mit hoher Geschwindigkeit in die Cochlea hinein und wird dann
im Maximum sehr schnell abgebremst.
Warum es bei der Wanderwelle zu einer Frequenzdispersion kommt, lässt sich durch
den unterschiedlichen Widerstand erklären den die Wanderwelle entlang der
Basilarmembran in Richtung Schneckenspitze vorfindet. Der ortsvariable Widerstand
ist eine Folge der unterschiedlichen
Steifigkeit
der
Basilarmembran.
Die
Basilarmembran ist an der Schneckenbasis mit einer Breite von 0,04mm um mehr als
25
das tausendfache steifer als an der Schneckenspitze mit einer Breite von 0,5mm. Dies
ist auch der Grund dafür, dass die Fortpflanzungsgeschwindigkeit in Richtung
maximaler Ausbauchung immer geringer und die Auslenkungsamplitude immer größer
werden [41].
Abb. 4: Schematische Darstellung der Cochlea in gestreckter Form. Auf der Basilarmembran
ist die Ausbreitung einer Wanderwelle dargestellt [11]
Die Frequenz kodiert demnach den Ort der maximalen Amplitude, höhere Frequenzen
liefern ein Maximum in Richtung des Stapes, der Basis der Schnecke, niedrigere
bilden das Amplitudenmaximum näher am Helicotremas aus.
26
Auf diese Weise dient die Basilarmembran der Frequenz-Ort-Transformation im Sinne
einer Spektralanalyse. Der nächste Schritt ist die Umwandlung des mechanischen
Energie in ein elektrisches Signal.
Abb. 5: Frequenz- Orts- Transformation auf der Basilarmembran; apikal tiefe Frequenzen,
basal, hohe Frequenzen
2.1.3.1 Das Corti – Organ und der Transduktionsprozess
Das Corti-Organ liegt als wulstförmige Verdickung auf der Basilarmembran und
enthält die sekundären Rezeptoren des Hörorganes in Form von inneren und äußeren
Haarzellen. Die circa 3500 inneren Haarzellen sind einreihig angeordnet und für die
Übermittlung der Sinnesinformation zuständig.
Die 12000 äußeren Haarzellen bilden in der Basalwindung der Schnecke drei, in der
mittleren Windung vier und in der oberen Windung fünf Reihen. Alle Haarzellen
tragen an ihrer oberen Fläche eine dichte kutikulare Schicht, in der die Stereovilli
befestigt sind. Diese stehen im Halbkreis, meist in drei abgestuften Reihen. Die
Stereovilli sind untereinander durch dünne Proteinfäden, sogenannte tip-links,
27
verbunden. Außerdem besteht zumindest bei den äußeren Haarzellen eine Befestigung
der Zilien an der Tektorialmembran.
Abb. 6: Schematische Darstellung des Corti-Organs mit inneren & äußeren Haarzellen [7]
Die Stereozilien der inneren Haarzellen haben keinen direkten Kontakt und werden
über den entstehenden Flüssigkeitsstrom im Sinne einer hydraulischen Koppelung
deflektiert [98].
Das normalerweise neben den Stereovilli existierende Kinozilium ist bei den
Haarzellen des Corti-Organs rudimentär.
An der Basis der Haarzellen bestehen synapsenartige Kontakte zu den zugehörigen
Nervenfasern. Die afferente Versorgung entstammt aus den Bipolarzellen des
Ganglion spirale. 90% der Afferenzen ziehen als myelinisierte Fasern zu den inneren
Haarzellen. Dabei innerviert jede Faser nur genau eine innere Haarzelle. Lediglich die
restlichen 10% der peripheren Fortsätze der Bipolarzellen innervieren die zahlenmäßig
28
stark überlegenen äußeren Haarzellen. So kommt es vor, dass bis zu 20 äußere
Haarzellen von nur einer Faser versorgt werden [104].
Über den Nervus cochlearis erreichen auch efferente Fasern die Haarzellen.
Interessanterweise werden die inneren Haarzellen hauptsächlich von dünnen, nicht
myelinisierten Fasern versorgt, die Innervation der äußeren Haarzellen erfolgt jedoch
durch dickere myelinisierte Fasern. Oft ziehen mehrere efferente Fasern zu einer
einzelnen äußeren Haarzelle. Somit liegt die hauptsächliche Bedeutung der Efferenzen
in der Steuerung der äußeren Haarzellen. Es wird eine Erhöhung der Sensitivität
vermutet, z.B. zur besseren Hörbarkeit von Signalen in verrauschter Umgebung
[100],[47].
Das von den Haarzellen zu verarbeitende Signal entsteht in der Auslenkung der
Basilarmembran um 10-10 m an der Stelle des Amplitudenmaximums. Die Umwandlung
erfolgt durch eine Abbiegung der Stereovilli. Bei den angehefteten Zilien der äußeren
Haarzellen geschieht dies durch eine Relativbewegung zwischen Tektorialmembran
und Basilarmembran. Die freien Zilien der inneren Haarzellen werden durch die
Strömung der Endolymphe bewegt. Das Abbiegen der Stereovilli und das Dehnen der
tip-links stellt den adäquaten Reiz zur Öffnung der Ionenkanäle an der Spitze der
Zilien dar. Aufgrund des vorhandenen Potentialgefälles zwischen Endolymphe und
Corti-Lymphe, der Lymphe innerhalb des Corti-Organs, die in ihrer Zusammensetzung
der Perilymphe ähnelt, beginnt nun ein Kaliumeinstrom in die Zelle.
Die hieraus resultierende Depolarisierung induziert eine oszillierende Längenänderung
der äußeren Haarzelle. Diese Fähigkeit zur aktiven Bewegung ist in zahlreichen
Studien an isolierten vitalen Haarzellen erwiesen worden [1],[123].
Durch diesen aktiven Prozess, einer elektromechanischen Transduktion, verstärken sie
die Amplitude der Wanderwelle und dämpfen benachbarte Basilarmembranabschnitte.
Dieser cochleäre Verstärker ermöglicht so den inneren Haarzellen, auch bei sehr
schwachen akustischen Reizen sensorisch wirksam zu werden [11]. Durch diese
Kontraktion entsteht eine zusätzliche Schwingungsenergie, die die Auslenkung der
inneren Haarzellen frequenzspezifisch verstärkt.
Für die Kodierung der Lautstärke sind zwei Mechanismen verantwortlich. Bei
Erhöhung des Schallpegels dehnt sich der Erregungsbereich auf der Basilarmembran
aus, so dass zum einen die Anzahl der erregten Sinneszellen wächst und zum anderen
die Wahrscheinlichkeit der Aktionpotentialauslösung als Folge der Erhöhung der
Auslenkamplitude zunimmt. Das bedeutet, das mit steigender Lautstärke immer mehr
29
Nervenfasern aktiviert werden und sich die Aktionspotentialrate der einzelnen
Nervenfasern zunehmend erhöht [40].
Der durch Auslenkung der Stereovilli verursachter K+–Einstrom und die daraus
resultierenden Depolarisation bewirken an den inneren Haarzellen jedoch nicht (wie
bei den äußeren Haarzellen) eine Längenänderung der Haarzelle, sondern die Öffnung
spannungsabhängiger Ca+–Kanäle, die zu einer Transmitterausschüttung (Glutamat)
an der basalen Seite der Zelle führt. Die afferenten Nervenfasern werden erregt, es
entstehen Aktionspotentiale.
Da jede Hörnervenfaser ihre Information nur von einer einzigen (inneren) Haarzelle
erhält, besteht von vornherein eine außerordentlich scharfe Trennung bestimmter
weitergeleiteter Frequenzen in das ZNS. Diese, als Tonotopie bezeichnete, Trennung
wird entlang der gesamten Hörbahn beibehalten.
Über die Afferenzen des Nervus cochlearis werden die Signale zum zentralen
Hörorgan weitergeleitet.
Abb. 7: schematische Darstellung des Transduktionsmechanismus aus Klinke Physiologie [94]
30
2.1.3.2 Weiterentwicklung des Cochlea Modells
Die Modellvorstellungen der Frequenzanalyse im Innenohr entwickelten sich in drei
Hauptepochen. Helmholtz´ Idee, der als Resonatoren wirkenden gespannten Saiten,
bestimmte bis in die 40er Jahre dieses Jahrhunderts die Vorstellung der
Frequenzanalyse mittels mechanischer Resonanzelemente [34]. Er versuchte die
Tonhöhenwahrnehmung mit der Vorstellung zu erklären, dass die Basilarmembran aus
einer großen Zahl von Resonatoren zusammengesetzt sei und dass beim Einwirken
eines Tones oder Tongemisches der bzw. die zugehörigen Resonatoren ansprechen
würden. Diese Theorie wurde jedoch nicht der tatsächlichen Dämpfung des Innenohres
gerecht [54].
Die zweite Periode wurde dominiert von der Funktionsbeschreibung anhand der
passiven Wanderwellen, die G. von Békésy in seinen Experimenten beschrieb, und
dauerte bis zum Ende der 70er Jahre. Er konnte schon im Jahre 1920 an menschlichen
Gehörknochen über kleinste Bohrungen und mit Hilfe von Mikroskopen die
Physiologie der Cochlea auf Schallreize beobachten. Er beschrieb sehr ausführlich das
Phänomen der Wanderwelle, wobei jeder Wellenlänge einer bestimmten Lokalisation
auf der Basilarmembran zugeordnet werden kann.
Dieses Phänomen sowie der Aufbau einer maximalen Antwort an dem für die
jeweilige Frequenz typischen Lokalisation und der danach sofortigen Abschwächung
der Wanderwelle, erklärte Bekesy durch das Zusammenspiel von der Steifheit des
Corti- Organs und Einflüssen von Dämpfung [5].
Jedoch bestand bei beiden Ansätzen ein fundamentaler Widerspruch zwischen der
Leistungsfähigkeit des Gehörs und den Modellvorstellungen. Erst in den 60ér Jahren
als durch neuere Techniken, wie z. B. den Mössbauer Effekt, bei der radioaktiv
markierte Elemente auf der Basilarmembran platziert werden und auch kleinste
Bewegungen registriert werden konnten, waren genauere Untersuchungen möglich.
Ein erster experimenteller Nachweis des nichtlinearen Verhaltens des Innenohres
gelang Rhode 1971 [88]. Aber der Widerspruch zwischen den hochabgestimmten
Tuningkurven des Hörnervs und dem relativ breitbandigen Schwingungsverhalten der
Basilarmembran konnte dadurch noch nicht geklärt werden. Durch Untersuchungen
von Sellick et al. [97] und Johnstone et al. [45] wurde bei Messungen der
31
Basilarmembranbewegung
mittels
des
Mössbauer-Effekts
auch
deren
hochabgestimmtes Schwingungsverhalten nachgewiesen.
Am meisten jedoch zeigte sich, dass die extreme Steilheit der Frequenzantwort nach
der maximalen Antwort der Wanderwelle, nicht allein mit einem Zusammenspiel
zwischen Steifheit- und Dämpfungseigenschaften des Corti-Organ zu erklären ist. Als
Antwort wurde durch nachfolgende Theorien das Resonanz-Phänomen gefunden. Man
erklärte sich die Eigenschaften der Basilarmembran als Interaktion von Steifheit und
Resistenz plus eine Menge an Masse, die die Grundlage für Resonanz darstellt [18].
De
Boer
(1980)
schlug
ein
Basilarmembran-Modell
vor,
indem
die
Ausbreitungsgeschwindigkeit der Wandelwelle längs der Cochlea (x-Richtung) durch
einen exponentiellen Abfall gegeben ist (Gleichung (1)). Dieses Modell ist
eindimensional und linear und beschreibt das grundsätzliche mechanische Verhalten
der Basilarmembran mit seiner frequenzabhängigen Laufzeit-Verzögerungen in der
Cochlea.
Gleichung (1) mit C0 = 109 g s-2 cm-2; h = 0.1 cm; ρ = 1.0 g cm-3; α = 3.0 cm-1,
Die Konstanten α und Co geben über c(x)=Coe-ax die Steifigkeit c(x) der
Basilarmembran an der Stelle x an. Die Konstante ρ entspricht der Dichte der
Flüssigkeit in der Scala vestibuli bzw. Scala tympani der Kochlea. Die Größe h
schließlich ist die sogenannte „effektive Höhe“ der Scala vestibuli. Sie berechnet sich
aus dem Quotienten der Querschnittsfläche der Scala vestibuli an der Stelle x und der
Breite der Basilarmembran an derselben Stelle. Sie wird in dieser Näherung als
konstant angesehen.
Durch die Umwandlung der mechanischen Vorgänge in eine exponentielle Funktion
konnte somit nicht nur die Ausbreitungsgeschwindigkeit sondern auch der Zeitpunkt,
an dem die Wanderwelle die Basilarmembran am Ort x maximal auslenkt bestimmt
werden.
32
Greenwood (1990) setzte diese Überlegungen fort und ergänzte sie durch seine Theorie
der Frequenz-Orts-Transformation [27] (Gleichung (2)). Dabei schlug er eine Art
Frequenzmappe für die Cochlea vor.
Für jeden Millimeter der (35 mm langen) der Cochlea bestimmte er 35 kritische
Bandbreiten, bei denen Spektralkomponenten gehört werden könne.
Gleichung (2) mit a = 16.7 mm; b = 0.006046 Hz-1 ; c = 1; L = 34,85
Die Größe x gibt dabei den Abstand vom ovalen Fenster in mm an.
Die Konstante L = 34,85 mm steht für die mittlere Länge der Basilarmembran. Die
weiteren Konstanten haben folgende Werte: a = 16.7 mm; b = 0.006046 Hz-1 ; c = 1
Damit konnte der Zeitpunkt der Anregung auf der Basilarmembran in Abhängigkeit
von der Frequenz des Reizes bestimmt werden und es lässt sich nun direkt die Dauer
berechnen, die z.B. ein Click-Reiz benötigt, um einen vorgegebenen Frequenzbereich
zu durchlaufen [118].
Somit lieferten beide wichtige Grundlagen, die auch heute in der Generierung
neuartiger Reizformen für die objektive Hörprüfung benutzt werden.
2.1.4 Zentrale Hörverarbeitung
Die zentrale Hörbahn beginnt mit dem Ganglion spirale cochleae im Felsenbein. Die
hier liegenden Nervenfasern stellen das erste Neuron dar und erhalten über ihre
Dendriten die Informationen aus dem peripheren Hörorgan. Die Axone der
Bipolarzellen schließen sich zur Pars cochlearis des 8. Hirnnerven zusammen und
ziehen zum Rautenhirn. Die Nervenfasern teilen sich auf und enden am Nucleus
cochlearis ventralis, beziehungsweise am Nucleus cochlearis dorsalis. In den Nuclei
cochlearis befindet sich das 2. Neuron. Die vom Nucleus ventralis abgehenden Axone
stellen die ventrale Hörbahn dar. Sie ziehen um den oberen Teil des Nucleus olivaris
herum und bilden den Trapezkörper, an dem ein geringer Teil der Axone endet. Der
übrige Anteil wird im Trapezkörper auf das 3. Neuron umgeschaltet und zieht
daraufhin zur Gegenseite, wo er sich dem Lemniscus lateralis anschließt.
33
Die dorsale Hörbahn, bestehend aus einem dorsalen und einem intermediären Anteil,
wird von Axonen gebildet, die den Neuronen des Nucleus cochlearis dorsalis
entstammen.
Die Axone kreuzen als Striae acusticae dorsalis im Bereich der Raphe zur Gegenseite.
Sie ziehen im Bereich des Lemniscus lateralis zum Colliculus inferior und von dort
zum Corpus geniculatum mediale. Durch die Umschaltung auf das 4. Neuron in den
medialen Kniehöckern entstehen Kollateralen für Reflexe auf akustische Reize.
Die Axone der 4. Neurone vereinigen sich zur Radiatio acustica.
Über die Capsula interna erreicht die Hörstrahlung das primäre akustische Rindenfeld,
Area 41. Die Heschelschen Querwindungen in den Gyri temporale transversi sind das
morphologische Korrelat dieser Area. Die Areale 42 und 22 sind sekundäre Hörfelder.
Zusammen mit dem
sogenannten Wernickesche Sprachzentrum, das für das
Verständnis der Sprache verantwortlich ist,
werden sie auch als akustisches
Assoziationszentrum bezeichnet.
Als Hörrinde ist also ein Bezirk anzusehen, der wesentlich größer ist als die
Heschelschen Querwindungen.
Beim Ausfall des Ganglion spirale oder der Nuclei cochlearis kommt es auf der
betroffenen Seite zur vollständigen Taubheit. Fallen jedoch höher liegende Kerne der
Hörbahn aus, resultiert hieraus keine vollständige Taubheit, da die Hörbahn von den
Nuclei cochlearis an aufwärts einen doppelseitigen Verlauf nimmt.
Die Aufgabe des zentralen auditiven Systems liegt in der Analyse der eingehenden
Informationen. Dies geschieht z.B. mit Hilfe der Spektralanalyse, da über die gesamte
Hörbahn und auch in der Hörrinde die geordnete Abbildung der Frequenzen erhalten
bleibt. Durch diese tonotope Organisation kann das zentrale auditive System vom Ort
der Erregung in der Hörrinde auf die Schallfrequenz des auslösenden akustischen
Signals rückschließen. Außerdem führt die Hörrinde eine Periodizitätsanalyse durch.
Die
Haarzellen
des
Corti-Organs
lösen
Aktionspotentiale
nur
bei
der
Aufwärtsbewegung der Basilarmembran aus. Man spricht von phasengekoppelter
Entladung.
Die Sequenz der Aktionspotentiale spiegelt also die Zeitstruktur des Schallreizes
wieder.
Das zentrale auditive System kann von der Zeitstruktur auf die zugehörigen
Schallfrequenzen zurückrechnen.
34
Diese Analysen dienen dem Cortex zur Mustererkennung, wobei bestimmte Merkmale
des Schallsignals, wie Frequenzübergänge, Intensitätsmuster oder Zeitstrukturen, auch
schon im Verlauf der Hörbahn herausgearbeitet werden.
Eine weitere Leistung des auditorischen Systems ist die Differenzierung von
interauralen Zeit- und Intensitätsunterschieden. So ist bei binauralem Hören eine
genauere Lokalisierung der Schallquelle möglich. Der Cortex kann Laufzeitdifferenzen
von bis zu 3·10-5ß s beurteilen, diese Zeit entspricht einer Abweichung von etwa 3° von
der Mittellinie. Auch geringste Intensitätsunterschiede von nur einem dB können von
der Hörrinde ausgewertet werden.
Die auf diese Weise sehr exakte Lokalisierung der Schallquelle dient der Bildung eines
Raumeindruckes. Bei der Erstellung dieses Raumeindruckes spielt neben dem Cortex
der Colliculus superior eine wichtige Rolle, da hier eine Karte des Hörraumes
aufgebaut wird [94].
Die
interauralen
Zeit-
und
Intensitätsdifferenzen
werden
außerdem
beim
Selektionsprozess genutzt. Hintergrundlärm kann so unterdrückt und ein biologisch
interessantes Signal, wie z.B. die Sprache, hervorgehoben werden. Die Hörbarkeit
eines Signals verbessert sich um bis zu 15 dB durch den Selektionsprozess. Neben der
Hörrinde ist hieran vor allem der Colliculus inferior beteiligt.
Bei einer monauralen Schwerhörigkeit leiden also sowohl die akustische
Raumorientierung als auch die Fähigkeit, akustische Signale herauszufiltern.
Abb. 8: schematische Aufbau des Menschliche Gehörs und Darstellung der aufsteigenden
Hörbahn im Bereich des Hirnstamms ( nach Nieuwenhuys et al. 1988) [70]
35
2.2.Schwerhörigkeiten
Erkrankungen im Schalltransport oder den Sinneshaarzellen, die sich im Cortischen
Organ
des
Innenohrs
befinden,
führen
zu
Schwerhörigkeiten.
Der
zwischenmenschliche Kontakt kann durch ein gestörtes Hörsystem erheblich
beeinträchtigt werden oder ganz und gar aufgehoben sein und damit zur sozialen
Isolation des Betroffenen beitragen.
Auf die Bedeutung unseres Gehörs hat auch der Philosoph Immanuel Kant
hingewiesen, denn er postulierte im Jahre 1756 den berühmten Satz:
„Taubheit trennt von den Menschen, Blindheit von den Dingen“.
Die Nomenklatur in der Bezeichnung von Hörstörungen, die heute verwendet wird,
verursacht einige Verwirrungen, da ältere Bezeichnungen an Bedeutung verlieren,
während neue Erkenntnisse die Palette von Begriffen erweitern. Leider wird immer
noch keine einheitliche Terminologie verwendet, was zu Ungenauigkeiten in der
Bezeichnung der Zuordnung zwischen Lokalisation und Funktion der Störung führt.
2.2.1 Schallleitungsschwerhörigkeiten
Schallleitungsschwerhörigkeit ist eine Störung der Schallübertragung vom Aussenohr
in das Innenohr. Die Schalleitung ist durch Versteifung, Dämpfung oder Blockierung
beeinträchtigt
Als mögliche Ursachen kommen z.B. angeborene bzw. erworbene Missbildungen oder
ein Verschluss des Gehörganges mit Cerumen, durch Fremdkörper oder Tumoren in
Frage.
Auch Störungen der Mittelohrfunktion können eine Schalleitungsstörung verursachen.
Dabei ist an Trommelfellbeschädigungen, Tubenbelüftungsstörungen, Entzündungen
oder Veränderungen an der Gehörknöchelchenkette, wie bei der Otosklerose, zu
denken.
Charakteristisch für die Schalleitungsschwerhörigkeit ist die Abschwächung des in das
Innenohr gelangenden Luftschalls.
Oftmals lässt sich die genaue Genese der Schalleitungsschwerhörigkeit durch eine
äußere Untersuchung und mikroskopische Inspektion des Gehörganges und des
Trommelfelles klären und ist der HNO-ärztlichen Therapie gut zugänglich.
36
2.2.2. Schallempfindungsschwerhörigkeiten
Bei den Schallempfindungsschwerhörigkeiten unterscheidet man die cochleäre oder
sensineurale Schwerhörigkeit und die retrocochleäre Schwerhörigkeit
2.2.2.1 Innenohrschwerhörigkeit
Die Innenohrschwerhörigkeit ist durch eine Funktionsstörung der Sinneshaarzellen
gekennzeichnet.
Verschiedene Defekte können eine solche Schwerhörigkeit verursachen:
Die angeborenen hereditären Innenohrschwerhörigkeiten werden in isolierte
Innenohrschwerhörigkeiten oder monosymptomatisch, bei denen keine weiteren
organischen Fehlbildungen vorliegen, und polysymptomatische Erkrankungen
eingeteilt.
Zu den zuletzt genannten zählen folgende klinisch bedeutsame Syndrome: AlportSyndrom, Pendred-Syndrom und Usher-Syndrom und andere. Der Anteil der
monosynaptischen Schwerhörigkeiten beträgt dabei über 70%.
Erworbene Innenohrschwerhörigkeiten werden durch prä-, peri- und postnatale
Schädigungen hervorgerufen. Hierunter fallen die prä- und perinatale Asphyxie, die
kongenitale
Schwangerschaftsinfektionen,
Frühgeburtlichkeit,
niedriges
Geburtsgewicht, Medikamente und Geburtstraumen oder maschinelle Beatmung über
10 Tage .
Eine postnatal erworbene Innenohrschwerhörigkeit kann durch verschiedene
Infektionen verursacht werden. In den meisten Fällen ist eine bakterielle Meningitis
verantwortlich, die bis zur beidseitigen Gehörlosigkeit führen kann.
Auch andere Infektionen wie die Otitis bei Masern oder Mumps gehen mit dem Risiko
einer Innenohrschwerhörigkeit einher. Als weitere Ursachen sind ototoxische
Substanzen bekannt. Während Folgeschäden durch ototoxische Antibiotika rückläufig
sind, treten nun ototoxische Chemotherapeutika in den Vordergrund, die allerdings nur
unter vitaler Indikation eingesetzt werden.
Bei traumatisch bedingten Innenohrschwerhörigkeiten findet sich häufig eine
Felsenbeinquerfraktur oder eine Schädigung der Haarzellen.
37
Auch die akuten und chronischen Lärmschwerhörigkeiten und die Presbyakusis
zählen zum großen Feld der Innenohrschwerhörigkeiten.
Zusammenfassend ist bei einer Innenohrschwerhörigkeit die Umwandlung des in die
Cochlea gelangenden Schalls in neuronale Erregungsmuster gestört und es resultiert
ein qualitativer und quantitativer Hörverlust, der vor allem bei den angeborenen
Störungen, kaum einer medikamentösen oder operativen Therapie zugänglich ist.
2.2.2.2 Zentrale Hörstörung
Eine retrocochleäre Hörstörung bezeichnet grundsätzlich jede Hörstörung, deren
Ursache der Cochlea nachgeschaltet ist.
Die wichtigsten Ursachen einer retrocochleäre Hörstörung sind Tumoren des inneren
Gehörgangs und des Kleinhirnbrückenwinkel, wie das Akustikusneurinom. Weiterhin
kommt es durch Kompressionen durch Gefäßschlingen oder Veränderungen des
Hörnervs, wie z.B. bei Multipler Sklerose zu den typischen subjektiven Beschwerden
der zentralen Hörstörung. Dazu zählen, neben Tinnitus, vestibulären Symptomen, ein
fehlendes Recruitment, auffällige Ermüdung bei auditiven Belastungen und schlechtes
Sprachverständnis. Auch das Richtungshören und die Signalerkennung bei
Störgeräuschen sind gewöhnlich auffallend schlecht [82].
Bei Kindern beruht eine retrocochleäre oder zentrale Schwerhörigkeit meist auf einer
Reifestörung der zentralen Hörbahn, sie werden auch als auditorische Neuropathie
bezeichnet und können in unterschiedlichem Schweregrad auftreten. In einigen Fällen
imponieren diese Hörstörung wie eine Taubheit. Gegenwärtig rückt diese Art der
Hörstörung ins Interesse vieler Forschergruppen [101],[102].
Neben diesen Reifestörungen existieren auch akustische Wahrnehmungsstörungen bis
hin zur akustischen Agnosie. Die genaue Ätiologie lässt sich in der Mehrheit der Fälle
nicht nachweisen.
Ein Beispiel für eine progrediente zentrale Schwerhörigkeit ist das Landau-KleffnerSyndrom. Nach vorausgehender unauffälliger Entwicklung treten im Rahmen dieses
Syndromes im 2.-13. Lebensjahr akustische Agnosie und EEG-Veränderungen mit
Krampfanfällen auf.
38
2.3 Hörbahnreifung Myelisierung
Um Störungen der Entwicklung des Hörbahnsystems beurteilen zu können, müssen
zunächst die anatomisch-physiologischen Vorgänge der Reifung und Entwicklung des
menschlichen Gehörs, wie sie unter Normalbedingungen ablaufen, betrachtet werden.
2.3.1 Entwicklung des peripheren Hörorgans
Bereits mit etwa drei Wochen post conceptionem (p.c.) wird der primäre Gehörgang
angelegt. Über die Entwicklung der Gehörgangsplatte bilden sich im siebten Monat der
endgültige äußere Gehörgang und das Trommelfell aus. Im Alter von sechs Wochen
beginnt die Ohrmuschel sich zu entwickeln und erreicht beim 20 Wochen alten Fetus
die Form des Erwachsenen, wächst jedoch bis etwa zum neunten Lebensjahr weiter
[71].
Ebenfalls im Alter von 3 Wochen werden aus der ersten Schlundtasche die primitive
Paukenhöhle und die Tuba Eustachii angelegt [52]. Gegen Ende der siebten Woche
verdichtet sich das Mesenchym über der primitiven Paukenhöhle. Aus dieser
Proliferation entwickeln sich die knorpeligen Vorläufer der Gehörknöchelchen.
Im Alter von etwa 16 Wochen setzt die Verknöcherung der Gehörknöchelchen mit
dem Stapes ein. Mit der Pneumatisation des Tympanons ist in der 37. Woche die
Mittelohrentwicklung abgeschlossen [122].
Bereits 15.-75. Tag p.c. beginnt die Entwicklung des Innenohres, das aber insgesamt
das letzte Element des peripheren Hörorgans ist, das im Laufe der Ontogenese seine
volle Funktion erreicht [61]. Es kann somit als der limitierende Faktor für den Beginn
der Hörfunktion angesehen werden [62], [90].
6 Wochen p.c. ist die Otozyste nachweisbar [92]. Zu diesem Zeitpunkt liegt der Wand
des Gehörbläschens schon eine Anhäufung von Ganglienzellen an [122], die im
weiteren Verlauf das Ganglion statoacusticum [83] und das Ganglion spirale cochleae
ausbilden [122].
Durch Faltenbildung entstehen auch der Saccus und Ductus endolymphaticus. Die
Entwicklung der Bogengänge und der Schnecke setzt ein, wobei sich der
phylogenetisch jüngere cochleäre Anteil später ausdifferenziert als der vestibuläre
[3],[89]. Nach Northern und Downs (1991) [71] ist die Differenzierung des häutigen
Labyrinths in der 12.Woche abgeschlossen.
39
Ab dem vierten Lebensmonat p.c. sind alle cochleären Windungen mit Nervenfasern
versorgt. Während die inneren Haarzellen mehr und mehr von afferenten Fasern
innerviert werden, verdrängen im Laufe der Entwicklung bis zum adulten Stadium
efferente Verbindungen weitestgehend die afferenten Verknüpfungen der äußeren
Haarzellen [4],[46],[104].
Nach etwa 23 Wochen ist mit der abgeschlossenen Ossifikation des Labyrinths das
Innenohr voll differenziert und hat damit in der Mitte der fetalen Entwicklung als
einziges
Sinnesorgan
sowohl
Erwachsenengröße
als
auch
einen
adulten
Differenzierungsgrad erreicht [71].
2.3.2 Entwicklung der zentralen Hörbahn
Allgemein läuft die Entwicklung der Neurone im zentralen Nervensystem (ZNS) nach
einem typischen Muster ab, das sich so auch auf die Zellen des Hörbahnsystems
übertragen lässt. Neben der Proliferation, die ihren Höhepunkt beim Menschen im
siebten bis neunten pränatalen Monat erreicht, der Migration, das heißt der gerichteten
Wanderung der Neuroblasten, spielt auch die Differenzierung der Nervenzellen in
ihren bestimmten Zellverbänden eine Rolle. Schließlich kommt es zur Bildung von
neuronalen
Vernetzungen
und
zur
Myelinisierung
der
Nervenfasern.
Die
Myelinscheide eines Axons stellt einen elektrischen Isolator dar und damit eine
Vorraussetzung für eine schnelle Erregungsleitung. In den myelinisierten Bezirken
können durch die Axonmembran keine Ströme fliessen. So ist bei einer Erregung, d.h.
Depolarisation, der Stromkreis über relativ weit entfernte Schnürringmembranen
möglich. Dies führt zu einer saltatorischen, einer sprunghaften Erregungsfortleitung
und damit einer beträchtlichen Erhöhung der Nervenleitgeschwindigkeit. Eine
Markscheidenreifung
erfolgt
aber
nur
im
Bereich
verfestigter
neuronaler
Verbindungen.
Das Wissen über den Ablauf der Myelinisierung der einzelnen Hörbahnanteile ist von
besonderer Bedeutung bei der Betrachtung und Beurteilung der Reifung der Hörbahn
mit Hilfe der FAEP, da durch diesen Vorgang die Nervenleitgeschwindigkeit ganz
entscheidend verbessert wird.
40
Die Entwicklung des Ganglion spirale (1.Neuron) hängt eng mit dem Werden des
Corti - Organs zusammen.
Das ZNS stammt vom Ektoderm ab. In der 3. SSW entsteht die Neuralplatte, welche
sich zum Neuralrohr schließt. Dann entwickelt sich aus drei Erweiterungen des
Neuralrohres, den sogenannten Gehirnbläschen (Rhomb-, Mes- und Prosenzeophalon)
das Gehirn [51].
Die Hirnstammkerne entstehen ca. in der 6.-7. Embryonalwoche.
Im Mesenzephalon (Mittelhirn) formiert sich im weiteren Entwicklungsverlauf die
Vierhügelplatte, deren hinterer Bereich einen Teil der zentralen Hörbahn bildet.
Aus dem mittleren Abschnitt des Prosencephalons geht das Dienzephalon
(Zwischenhirn) hervor. Am Boden dieses Hirnabschnittes wölbt sich der Thalamus in
die Lichtung vor. Dort werden dann unter anderem sensorische Impulse des Hörens
vor Erreichen der Hirnrinde umgeschaltet [52].
Im Corpus geniculatum mediale findet man im 6. Fetalmonat von Fasern umschlossene
Zellgruppen [56]. Etwa im 8. Monat der Schwangerschaft kommt es zum Abschluss
der Nervenzellteilung in den Strukturen der zentralen Hörbahn [49]. Die folgende
Ausreifung der Strukturen der Hörbahn ist hauptsächlich das Ergebnis von wachsender
Myelinisierung, zunehmender Synapsendichte und Synapseneffektivität [22].
Myelinisierung, Synaptogenese und Verschaltung der zentralen Hörbahn benötigen
akustische Reize aus der Umwelt (Hörreize) [119]. So zeigen pränatale
Myelinisierungsprozesse der Hörbahnaxone, dass das Ungeborene bereits im Uterus
adäquate Reize zur Ausreifung des akustischen Systems rezipiert (z.B. Organgeräusche
der Mutter, Stimme der Mutter) [64].
Die Myelinisierung der afferenten Hörbahn bis zum Colliculus inferior ist im neunten
Fetalmonat
abgeschlossen.
Ab
der
30.
SSW
können
bereits
evozierte
Hirnstammpotentiale bei hohen Klickintensitäten abgeleitet werden [119]. Die
Ausreifung der Hörstrahlung zur Hirnrinde erfolgt im ersten Jahr nach der Geburt.
Dieser Zeitraum wird als sensible Phase bezeichnet [64], [81].
Zu Beginn des 3. Lebensjahres finden die auditiven Reifungsprozesse ihren Abschluss
[10].
41
2.3.3 Hörbahnreifung und seine Auswirkungen
„Hören“ bedeutet das Erlernen akustische Informationen zu interpretieren.
Es ist in erster Linie eine Auswertung von Schallereignissen durch das Gehirn. Der
Hörnerv gibt die im mechanischen Schallreiz enthaltene Information kodiert an das
Gehirn weiter. Durch spezielle Nervennetze wird eine Schallanalyse durchgeführt.
Allerdings ist die Ausbildung solcher neuronalen Strukturen nur möglich, wenn
Schallreize auch die Hörbahn erreichen. Ist eine Aufnahme von Schallreizen, zum
Beispiel bei einer Erkrankung oder Fehlanlage des Innenohres ausgeschlossen oder nur
bruchstückhaft vorhanden, unterbleibt die Reifung des zentralen Systems.
Der anfänglich periphere Hörschaden führt zu zentralen Defiziten, da der Schallreiz
nicht in das zentrale Hörsystem gelangt. Es resultiert im schwersten Fall eine
„Taubheit“.
Kommen die zentralen Reifungsprozesse
nicht in der sensiblen Reifungsphase
zustande, können sie im späteren Lebensalter nur unvollständig aufgebaut werden
[115].
Tierexperimentelle Untersuchungen über den Einfluss akustischer Deprivationen auf
die Hörbahn weisen nach, dass eine reduzierte akustische Stimulation innerhalb
kritischer und sensibler Phasen objektiv nachweisbare Reifungsverzögerungen
induzieren kann, die im weiteren Entwicklungsverlauf nicht mehr vollständig zu
kompensieren sind [115],[55],[49].
Insbesondere wurden Degenerationen neuronaler Strukturen bei ertaubten Tieren
nachgewiesen [121],[117],[57].
Auch für die Hörentwicklung des Menschen sind die ersten nachgeburtlichen Wochen
wichtig. Der Einfluss einer frühen akustischen Stimulation auf die Synaptogenese
konnte durch Volumenzunahme der Kerngebiete belegt werden [31]. Ein Baby lernt in
den ersten Wochen Schallreize zu analysieren, wenn in seiner unmittelbaren
Umgebung viel gesprochen wird. Die parallel dazu ablaufende motorische
Entwicklung
unterstützt den Spracherwerb und führt dazu, dass sogenannte
Lallmonologe und Lautverdoppelungen
entstehen. Die ersten willkürlichen
Sprachlaute werden als bewusste Lautnachahmung bezeichnet und sind Ausdruck für
ein intaktes Hörvermögen. Kinder mit unerkannter hochgradiger Hörstörung können
diesen Entwicklungsschritt nicht erreichen.
42
Das Erlernen von sprachlicher Kommunikation ist zwar genetisch vorprogrammiert
kann
aber
beim
Kind
nur
durch
eine
intakte
sprechende
Umwelt
zur
Sprachentwicklung führen.
Dies wird von Seiten der Eltern durch den „baby-talk“ unterstützt und wird
transkulturell eingesetzt. Das Kind nimmt diese Lautbilder auf und versucht, diese zu
wiederholen. Diese Phase der bewussten Lautnachahmung wird als zweite Lallphase
bezeichnet und findet ab dem sechsten Monat statt. Gleichzeitig nimmt in dieser Phase
die Zahl der Synapsen im linken Schläfenlappen explosionsartig zu. Neben der
Zunahme der Produktion von Lauten entwickelt sich ein Sprachverständnis was eine
Analyse von Schallereignissen voraussetzt. [50].
Die zweite Lallphase ist sehr wichtig für das zentrale Hörsystem. Verstummt das Baby
liegt damit ein Hinweis auf eine Hörstörung vor [49],[50]. Wird eine Schwerhörigkeit
während der sensiblen Reifungsphase nicht behandelt, resultieren Defizite in der
Entwicklung der zentralen Hörbahn sowie deren Verknüpfungen mit anderen
auditorischen Systemen wie dem zentralen Sprachsystem und der zentralen Steuerung
der
Sprechmotorik.
Daraus
resultieren
eine
reduzierte
Ausbildung
des
Sprachverständnisses sowie weitere Sprachentwicklungsstörungen und sekundäre
Behinderungen
wie
zentrale
Verarbeitungsstörungen
mit
kognitiven
Leistungseinschränkungen und Störungen der emotionalen und psychosozialen
Entwicklung. Dies wirkt sich auf die spätere schulische und berufliche Entwicklung
aus [113].
Selbst milde Hörstörungen von 35-40 dB nHL bedeuten für ein Kind, dass ihm ca. 50
% der täglichen Konversation fehlen und führen zu einer sich daraus entwickelnden
erheblichen Sprachentwicklungsstörung [2]. Hochgradige Schwerhörigkeiten über 70
dB rufen unbehandelt in der Regel das Bild der „Taubstummheit“ hervor, da die
Rückkopplung zwischen Hören und Sprechen fehlt [33].
Sprachliche Fähigkeit und Lernvermögen schwerhöriger Kinder korrelieren mit dem
Therapiebeginn [103]. Frühversorgte Kinder, die vor dem sechsten Lebensmonat eine
Hörhilfe erhalten haben, zeigen signifikant bessere Ergebnisse als später versorgte
Kinder [35]. Wenn der Diagnosezeitpunkt einer Schwerhörigkeit innerhalb der ersten
sechs Monate nach der Geburt liegt, verbessert sich die Prognose für die intellektuelle,
emotionale
und
Sprachentwicklung
verglichen
mit
später
detektierten
Schwerhörigkeiten [23]. Das alles belegt die Notwendigkeit einer frühen Erfassung
und Behandlung einer konnatalen Schwerhörigkeit.
43
2.4 Grundlagen der akustisch evozierten Potentiale
2.4.1 Allgemein
Adäquate Reizung von Sinnesorganen führt zur Entstehung von Generatorpotentialen
in den spezifischen Sinnesrezeptoren. Die Höhe des Generatorpotentials bestimmt die
Zahl und die Frequenz der Nervenaktionspotentiale in den angeschlossenen
Nervenfasern. Die Aktionspotentiale erreichen über mehrere hintereinandergeschaltete
Neuronen die spezifischen sensorischen Rindenfelder, wobei bereits vor deren
Eintreffen im Cortex Prozesse der Filterung und Integration in den einzelnen
synaptischen Schaltstationen ablaufen. Die Fortleitung von Informationen in
peripheren Nerven und in zentralnervösen Leitungsbahnen ist eine Fortleitung von
Aktionspotentialen und als solche messbar. Bei elektronischer Summation einer
genügenden Anzahl von Reizantworten gelingt diese Messung von der intakten
Körperoberfläche aus und stellt damit eine klinisch anwendbare nicht invasive
Untersuchungsmethode dar.
Alle einem modalitätsspezifischen Reiz folgende Reizantworten werden unter dem
Begriff „Evozierte Potentiale“ subsummiert. Dabei ist in allen derzeit klinisch
untersuchten Sinnessystemen die wichtigste Messgröße die Latenz der Reizantworten.
Die diagnostische Methode der „Evozierten Potentiale“ untersucht also in erster Linie
die Geschwindigkeit, mit der die Impulse in dem jeweiligen Sinnessystem geleitet
werden. Weitere Messparameter sind die Amplitude und die Form der Reizantworten,
die unter anderem abhängig sind von der Zahl der funktionsfähigen Neuronen und dem
Grad der Synchronizität, mit dem die Impulse in den verschiedenen Nervenfasern einer
sensorischen Bahn übertragen werden.
Messungen evozierter Potentiale stellen somit eine Funktionsprüfung der jeweiligen
sensorischen
Leitungsbahn
dar
und
erlauben
Rückschlüsse
auf
deren
Funktionstüchtigkeit [105].
44
2.4.2 Geschichtlicher Rückblick
Die
allgemeine
Entwicklung
der
Hörphysiologie
wurde
in
mehreren
Übersichtsarbeiten erörtert (Davis et al. 1934; Békésy 1960; Weber 1961).
Bereits im 19. Jahrhundert (1875) entdeckte Richard Caton eine elektrische
Hirnaktivität bei Tieren und leitete motorische und durch Sinnesreize ausgelöste
Potentiale mit einem Saitengalvanometer ab. Zwei Jahre später beschrieb Danilevsky
zusätzlich Potentialänderungen nach akustischer Reizung am Tierhirn.
Die weitere Erforschung dieser Potentiale vollzog sich auf Grund des technischen
Entwicklungsstandes langsam, so konnten erst 1927 von Forbes et al. Aktionsströme
am Ohr der Katze nach akustischer Stimulierung gemessen werden [12].
Schon wenige Jahre nach Entdeckung des Elektroenzephalogramms (Berger 1929)
wurde durch Kornmüller (1933) und Davis (1939) von der Kopfhaut des Menschen
ableitbare Potentiale beschrieben, die nach Applikation eines auditorischen Reizes
auftreten.
Später wurden diese Antworten, da sie am Vertex mit größter Amplitude ableitbar
sind, als Vertex-Potentiale bezeichnet. Erst die Einführung der Mittelungstechniken
(Dawson 1951, 1954) ermöglichte eine intensive Erforschung reizabhängiger
Potentiale im ZNS am intakten Organismus und damit die klinisch-diagnostische
Anwendung, v.a. der im Hirnstamm generierten frühen Komponente des AEP [54].
Keidel 1962 und Davis H.1964,1966 und 1968 erarbeiteten unabhängig von einander
weitere Methoden zur Ableitung bioelektrischer Potentiale, wobei Davis erstmals eine
Vertexelektrode benutzte. Beide erkannten die Möglichkeit der Nutzung dieser
Potentiale für die klinische Audiometrie und standen somit am Beginn des
diagnostischen Einsatzes der Elektrischen Reaktionsaudiometrie (ERA), was Burian et
al. 1968/69 in die Praxis umsetzte.
Die Entdeckung einer Methode der Fernfeldtechnik mit Elektroden am Mastoid und
am Vertex durch Sohmer und Feinmesser 1967, Jewett 1970 und Jewett und Williston
1971 wurde zum Meilenstein in der Entwicklung der ERA. Zusätzlich fanden sie noch
4 Wellen, die Jewett mit römischen Ziffern bezeichnete. Diese Bezeichnung ist heute
die geläufigste.
Auch in Deutschland folgte man dieser Entwicklung. 1970 setzte Theissing die
Methode zur Hörprüfung bei Kindern ein (Latenzen 10-27 ms). Gerull fand 1972 ein
akustisch evoziertes Potential mit einer Latenz von 6-10 ms am gesamten Schädel
45
(Welle Jewett V). Zwei Jahre später gelang es Strecker fünf frühe Wellen (Jewett IV)
mit guter Reproduzierbarkeit abzuleiten.
Die erste Publikation über die systematische Anwendung der Frühe akustisch evozierte
Potentiale (FAEP) in der Neurootologie veröffentlichten Sohmer et al. 1974 mit
Ergebnissen bei cochleären und retrocochleären Störungen. [67].
2.4.3 Anatomische-physiologische Grundlage
Als akustisch evozierte Potentiale (AEP) bezeichnet man cortikale und subcortikale
elektrische Spannungsdifferenzen, welche in zeitlicher Relation zu einer externen
akustischen Stimulation stehen und durch elektronische Signalverarbeitung aus dem
EEG herausgefiltert werden können. Aufgezeichnet wird die elektrische Aktivität in
der Cochlea (Rezeption), dem Nervus acusticus und zentral-nervösen Abschnitten wie
dem Hirnstamm, der Hörstrahlung und der Hörrinde.
Es lassen sich prä- und postsynaptische Potentiale auslösen. Zu den präsynaptischen
AEP zählen die Summations- und Mikrophonpotentiale. Die Einteilung der
postsynaptischen AEP erfolgt auf Grund verschiedener Latenzen in frühe, mittlere und
späte AEP. Hierbei bestehen die frühen Potentiale aus prä- und postsynaptischen
Komponenten und die mittleren und späten Potentiale nur aus postsynaptischen
Komponenten. Die Ableitung der elektrische Aktivität, welche ihren Ursprung im
Hörnerv und Hirnstamm hat, bezeichnet man als Hirnstammaudiometrie (Brainstem
Evoked Response Audiometry - BERA). Bei der Ableitung der AEP werden neben
diesen zentralnervösen auch Antworten der Muskulatur (z.B. Stapediusreflex) und
elektrodermale Aktivitäten nach akustischer Stimulation erfasst.
46
2.4.4 Klassifikation
Eigenschaften und Formen der AEP hängen u.a. von ihrem zeitlichen Auftreten nach
dem akustischen Reiz oder ihrer Latenzzeit ab. Aus klinisch-otologische Sicht
erscheint es sinnvoll, eine Einteilung zu treffen, die die AEP als Überbegriff versteht
und die bemüht ist, für die unterschiedlichen Ableitungen sich möglichst streng an die
zeitliche Folge der Reizantworten zu halten.
AEP mit kurzer Latenz treten sehr kurz nach einem Reiz auf und sind Strukturen
zuzuordnen, die frühzeitig durch den akustischen Reiz angeregt werden. Aufgrund der
anatomischen Strukturen und der unterschiedlichen
Latenzen der auditorisch
evozierten Potentiale unterscheidet man:
•
Elekrocochleographie (ECochG):
Registrierung der Potentiale der Cochlea und des Hörnervs. Diese Potentiale treten ca.
1-3ms nach dem Reiz auf. Mit ihrer Hilfe werden neben Nervenpotentialen auch
Rezeptorpotentiale und Verschiebungen des endocochleären Potentials registriert. Zur
Durchführung der ECochG muss eine Elektrode möglichst nahe an die Cochlea
herangebracht
werden.
Es
werden
durch
das
Trommelfell
geschobenen
Nadelelektroden auf dem Promontorium aufgesetzt oder speziell konstruierte
Gehörgangselektroden verwendet. Da hierzu zumindest eine Parazentese gemacht
werden muss, muss diese Diagnostik bei Kindern in Narkose durchgeführt werden Mit
der Elektrocochleographie ist eine gezielte Bestimmung der cochleären Funktion und
der
Hörnervenfunktion.
Die
Elektrocochleographie
Fragestellungen wie Synchronisationsstörungen,
kann
bei
speziellen
perisynaptischen Audio- und
Neuropathien und im Einzelfall in der Vorbereitung zur Cochlea-Implantation
eingesetzt werden.
47
•
Hirnstammpotentiale früher Latenz (BERA = brainstem electric response
audiometry; ABR = auditory brainstem responses):
Registrierung der Potentiale des Hörnervs und des Hirnstamms mit Latenzen bis 10ms.
Die BERA misst die frühen auditorisch evozierten Potentiale (FAEP) der Hörbahn bis
einschließlich
Hirnstamm
aufgrund
einer
akustischen
Stimulation
mit
unterschiedlichen Schalldruckpegeln. Sie stellt eine für alle Altersgruppen geeignete
objektive Messmethode zur Feststellung der Hörschwelle und zum Ausschluss einer
retrocochleären Störung dar. Da sie Gegenstand der hier dargestellten Studie ist wird
sie unter Punkt 2.6 noch genauer beschrieben.
• Potentiale mittlere Latenz (MAEP = mittlere auditorisch evozierte
Potentiale):
Registrierung der Potentiale mit Latenzzeiten von 10-100ms. Sie stammen mit ihren
ersten Anteilen aus dem Lemniscus lateralis, mit den nachfolgenden aus den
auditorischen Feldern des Thalamus und der primären kortikalen Projektion sowie aus
den Muskeln des Nackens und der Retroauricularregion und sind somit teils
myogenen, teils neurogenen Ursprungs. Die MAEP können zur Bestimmung der
Hörschwelle im tiefen Frequenzbereich eingesetzt werden. Natürlicher Schlaf und
Narkose beeinflussen diese Potentiale, was ihre Auswertung erschwert.
•
Hirnrindenpotentiale später Latenz (SAEP = späte auditorisch evozierte
Potentiale):
Registrierung der Potentiale mit Latenzen von 100-1000ms. Sie sind Inhalt der
Cortical ERA, Hirnrindenpotentiale (CERA) und als ihr Ursprung gelten vor allem die
primäre und sekundäre Hörrinde. Sie können im Prinzip mit jedem wiederholbaren
akustischen Stimulus ausgelöst werden. Die physikalischen Eigenschaften der Reize
führen
zu
reizkorrelierten
Antworten,
die
zur
objektiven,
reizspezifischen
Hörschwellenbestimmung eingesetzt werden können. Daneben kann auch der
Informationsgehalt eines Reizes zu typischen CERA führen, die sich zur Diagnostik
48
von kognitiven Prozessen eigenen. Allgemein jedoch wird der klinisch-otologische
Wert der SAEP heute als begrenzt angesehen.
Für eine CERA muss das Kind wach und aufmerksam sein. Um diesen Zustand
einigermaßen konstant zu erhalten, können ältere Kinder während der Messung ein
Buch lesen oder einen Film schauen. Die CERA kann nicht in Narkose bestimmt
werden, da nur im Rapid-Eye-Movement (REM)-Schlaf eine dem für dieses Verfahren
erforderlichen Wachzustand vergleichbare Messung möglich wäre. Die Messwerte der
CERA entsprechen denen der Freifelduntersuchung. Die Messung mit verschiedenen
Frequenzen hat eine längere Messdauer und kann bei kleineren Kindern zu
Complianceschwierigkeiten führen [96]. Die Messungen werden bei unterschiedlichen
Reizfolgeraten durchgeführt, um die Grenzen der Verarbeitungsgeschwindigkeit des
auditiven
Systems
zu
ermitteln.
Schallempfindungsschwerhörigkeit
Im
dient
Kontext
die
CERA
der
der
Diagnostik
bei
topographischen
Differenzierung cochleärer Ursachen, hörbahnbezogener und corticaler Lokalisationen
der Störung. Über eine Ableitung mit Knochenleitungshörern können Aussagen zu
Schallleitungsstörungen
erhoben
werden.
Die
CERA
kann
als
objektive
frequenzbezogene Hörprüfung verwendet werden [54].
2.4.5 generelle Untersuchungstechnik und Durchführung
Der grundsätzliche apparative Aufbau ist in Abb. 9 wiedergegeben. Jedes Einzelteil
dieser Anordnung muss von hoher Güte sein, wenn verlässliche und vergleichbare
Untersuchungsergebnisse erzielt werden sollen.
Grundbedingungen für eine optimale Registrierung der AEP sind eine eindeutig
definierte Reizform und Reizapplikation, verlässliche akustische Abschirmung,
korrekte Elektrodenanlage ausreichende Verstärkung der registrierten Potentiale
verbunden mit einer wirksamen Artefaktunterdrückung [106].
49
Abb.9: Blockdiagramm von Reiz- und Registrierapparatur
Der geschilderte Aufbau ist zumeist in handelsüblichen Geräten zusammengefügt, im
einzelnen deshalb kaum noch zu erkennen. Für audiometrische Zwecke sind besonders
für die Messungen im schwellennahen Bereich hohe Anforderungen an den
technischen Aufwand und an die angeführten Rahmenbedingungen der Untersuchung
zu stellen. Um diesen Anforderungen gerecht zu werden, wurden durch die ADANO
(Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen) im Jahre
1994 eine Empfehlung für die Durchführung der Elektrischen Reaktionsaudiometrie
(ERA) ausgearbeitet, die die Bedingungen festlegt, die bei der Durchführung der ERA
als Teil der audiologischen Diagnostik eingehalten werden sollten.
Das Messprinzip besteht darin, in regelmäßiger oder unregelmäßiger Folge
auditorische Reize zu applizieren und die durch sie ausgelöste Änderung der
Hirnaktivität zu registrieren. Um Reizantworten auch auf geringere Reizlautstärken
und aus verschiedenen Stationen der Hörbahn erfassen zu können, bedarf es sowohl
der häufigen Wiederholung des Reizes als auch einer rechnergestützten Auswertung
der registrierten bioelektrischen Hirnaktivität (EEG).
50
Der Computer soll durch Mittelung aus dem „Rauschen“ des EEG´s die Antwort
erkennbar machen. Dafür ist es notwendig, dass ein konstanter zeitlicher Bezug
zwischen dem Reiz und dem auszuwertenden EEG-Abschnitt besteht. Dies geschieht
durch einen Triggerimpuls, der den auditorischen Reiz auslöst und synchron dazu den
Rechner in Gang setzt. Der Rechner wertet also jeweils nur die Zeitabschnitte des
EEG´s aus, die dem Reiz unmittelbar folgen. Der Vorgang wiederholt sich mit jedem
neuen Triggerimpuls. Da im Gegensatz zur Reizantwort die Spontanaktivität des Hirns
nicht auf den Trigger und damit nicht auf den Reiz bezogen ist, bleibt der
reizunabhängige Anteil des EEGs konstant, während sich mit zunehmender Anzahl der
Durchgänge die reizsynchronen Abschnitte addieren [54].
Abb.10: Doppelt-logarithmische Darstellung der postsynaptischen akustisch evozierten
Potentiale
51
2.5 Hirnstammaudiometrie (BERA, ABR)
Unter
den
verschiedenen
auditorisch
evozierten
Potentialen
sind
die
Hirnstammpotentiale die diagnostisch wichtigsten und am häufigsten durchgeführten.
Sie treten mit kurzer Latenz bis etwa 10 ms nach einem akustischen Reiz auf. Zur
Auslösung wird meist ein kurzer Clicks beziehungsweise frequenzspezifische Stimuli
verwendet. Für die Ableitung der BERA muss der Stimulus 1000-2000 mal wiederholt
und die nachfolgenden Antwort gemittelt werden. Mit Hilfe von angeklebten
Oberflächenelektroden, auf dem Scheitel und der über dem Mastoid, kann eine
typische Wellenform nachgewiesen werden, die auch im Schlaf und in Narkose fast
unverändert bleibt. Sie weist 5-6 typische Potentiale auf, die nach Jewett mit den
römischen Ziffern I-VI bezeichnet werden. Bei normalen Potentialen lassen sich die
einzelnen Wellen den anatomischen Strukturen ungefähr zuordnen.
Abb. 11: Verlauf der Hörbahn, Kennzeichnung der Orte der Potentialgenerierung der FAEP
durch römische Ziffern nach Jewett [66]
52
Die BERA stellt die wohl genaueste Methode der quantitativen Bestimmung des
Hörverlusts bei sehr jungen und/oder unkooperativen Kindern dar, die auch
frequenzspezifisch
erfolgen
kann.
Schallempfindungsschwerhörigkeit
Im
Unterschied
zur
sensorischen
sind
bei
der
neuralen
Schallempfindungsschwerhörigkeit in der BERA die Leitzeiten (absolute Latenzen,
Interpeaklatenzen) des Signals verlängert. Es ist dabei zu beachten, dass sich bereits
physiologischerweise die Latenzen verlängern und die Amplituden verringern, wenn
die Reizintensität abnimmt. Die verschiedenen Interpeaklatenzen geben dabei
Aufschluss über die genauere Lokalisation der Störung (Reizleitung, Topodiagnostik),
also über das Vorliegen einer retrocochleären Störung wie auch über den Stand der
Hörbahnreifung [77]. Es wird somit eine Differenzierung zwischen sensorischer und
neuraler oder zentraler Schwerhörigkeit möglich [54]. Bei Kindern wird die BERA
besser im Spontanschlaf oder in Sedierung beziehungsweise Narkose durchgeführt.
Die Click-BERA allein ist zur Einschätzung des Hörvermögens noch nicht
ausreichend. Sie ist am besten durch frequenzbezogene Einzelreize zu ergänzen, da bei
dieser Untersuchung ansonsten eine Schwerhörigkeit in einzelnen Frequenzen
übersehen werden kann. Die Grenzen der Diagnostik liegen für die BERA im
Frequenzbereich von 1000 bis 4000 Hz. Dabei werden nur die neuralen Strukturen bis
zum oberen Hirnstamm erfasst.
Bei der Notched-Noise-Masking-Technik (NN-BERA) erfolgt eine Verdeckung mit
Bandlückenrauschen [76]. Dabei wird simultan mit einem kurzen Tonimpuls ein
Bandlückenrauschen dargeboten, dessen Senkenminimum der Trägerfrequenz des
Tonimpulses entspricht. Hierbei ist zwar die Reproduzierbarkeit noch nicht
ausreichend gewährleistet, es wird aber eine hohe Frequenzspezifität erreicht
Bei der Amplitude-Modulation-Following-Response (AMFR) wird die Trägerfrequenz
mit einer sinusförmigen Modulationsfrequenz (Wiederholungsrate des Reizes)
moduliert. Die Schwelle kann sogar für mehrere Frequenzen (MASTER - multiple
auditory steady-state evoked response) simultan bestimmt werden und es lassen sich
beide Ohren bei dichotischer Beschallung gleichzeitig testen [74]. Die AMFR befindet
sich noch in der klinischen Erprobung.
Bezüglich der Reizapplikation kommen bei der BERA in der Regel Kopfhörer zum
Einsatz. In besonderen Ausnahmefällen werden auch Lautsprecher, bei Kleinkindern
Schlauchzuleitungen
sowie
kleine
Einsteckhörer
und
bei
Gehörgangsatresie
Knochenleitungshörer verwendet. Das Ausmaß einer Schalleitungsstörung kann durch
53
den Vergleich der mit dem Luftleitungshörer ermittelten Luftleitungsschwelle und der
mit dem Knochenleitungshörer ermittelten Knochenleitungsschwelle beurteilt werden.
Aber auch die Auswertung der Wellen I und V können bei einer Schallleitungsstörung
eine Spezifität von 98% und eine Sensitivität von 94% erreichen. Dabei korreliert die
BERA besser mit dem Ausmaß der Schallleitungsstörung bei einem Mittelohrerguss
als bei einer Pathologie der Gehörknöchelchenkette [96].
54
2.6 Akustische Reizung mittels AMFR – ASSR
Aufgrund ihrer hohen Frequenzspezifität und der Möglichkeit, Aussagen über das
Hören auch im tieferen Frequenzbereich zu erlauben, bietet die Registrierung von
Amplitude Modulation Following Responses (AMFR) eine interessante Alternative zur
objektiven Einschätzung des Hörvermögens und hat sich als vielversprechend für die
Bestimmung der frequenzabhängigen Hörschwelle bei Kleinkindern erwiesen
[72],[79],[87],[58],[111],[26]. Ein weiterer Vorteil dieses Verfahrens besteht in der
Möglichkeit eines objektiven Nachweises der Potentiale auf Basis einfacher
statistischer Tests [75].
Die Amplitude Modulation Following Response (AMFR) ist eine auditorisch evozierte
steady-state Response (ASSR). Diese Untergruppe der akustisch evozierten Potentiale
wird durch einen kontinuierlich präsentierten, sinusförmig amplitudenmodulierten Ton
mit Trägersignal hervorgerufen.
Abb. 12: Amplitudenmoduliertes Signal mit den beiden sogenannten Einhüllenden [120]
55
Bei der Terminologie von »Steady-State-Potentialen« folgt man Hoke und Hoke
(1997) und bezeichnen damit Potentiale des auditorischen Systems, die während der
Gesamtdauer des akustischen Reizes anhalten und dabei der Zeitstruktur des Reizes
folgen, wobei Steady-State-Potentiale im engeren Sinne der Reizwiederholungs- bzw.
der Modulationsrate folgen.
Obwohl sich damit im Prinzip jeder akustische Reiz, der eine zeitliche Struktur im
Sinne einer Modulation oder Reizwiederholung aufweist, zur Auslösung von SteadyState-Potentialen eignet, nehmen sinusförmig modulierte Reintöne eine Sonderstellung
ein [69].
Als Reiz wird ein amplitudenmodulierter Ton verwendet, dessen Spektrum im
Frequenzbereich aus drei Komponenten besteht: der Trägerfrequenz und jeweils einer
Frequenz links und rechts vom Träger im Abstand der Modulationsfrequenz.
Die AMFR ist nur annähernd sinusoidal. Im Frequenzbereich wird sie bei Einhaltung
einer ganzzahligen Relation zwischen der Periodenlänge des Modulationssignals und
der Länge der transformierten Epoche durch mehrere Harmonische repräsentiert. Die
Frequenz
der
ersten
Modulationsfrequenz,
die
Harmonischen
höheren
(Grundwelle)
Harmonischen
entspricht
folgen
im
dabei
der
Abstand
der
Modulationsfrequenz [13].
Diese feste Beziehung zwischen Modulationsfrequenz und der Lage der Harmonischen
im Spektrum bietet die Grundlage für einen objektiven Nachweis der Antwort mit
relativ
einfachen
statistischen
Methoden.
Man
kann
für
den
objektiven
Antwortnachweis (response detection) entweder nur die Grundwelle heranziehen
[112],[42] oder einen geeigneten statistischen Test auf die Grundwelle und mehrere
höhere Harmonische anwenden [13]. Cebulla et al. 2004 konnten zeigen, dass sich die
Nachweisempfindlichkeit durch die Einbeziehung von mehreren Harmonischen, also
von mehr Information über die Antwort, erhöhen lässt. Das ist auch wünschenswert, da
das Signal-Rausch-Verhältnis (SNR) der Antwort sehr klein ist [14]. Der AntwortNachweis in der Nähe der Hörschwelle ist infolge der kleinen Antwortamplitude
problematisch. Eine größere Antwortamplitude ist zu erwarten, wenn der erregte
Bereich auf der Basilarmembran etwas verbreitert wird.
56
Abb.13: schematische Darstellung der AMFR nach Pethe et al. [73]
Der prinzipielle Unterschied zwischen den durch Reintöne evozierten Potentialen und
der AMFR ist demnach, dass die AMFR eine Antwort auf die Einhüllende und nicht
die zeitliche Feinstruktur des Stimulus darstellt. Stimuliert man mit einem solchen
Reiz die Cochlea, so konzentriert sich die gesamte Anregungsenergie auf einen
schmalen Bereich der Basilarmembran [65].
Modifikationen dieses Reizes entstehen durch eine Kombination von Amplituden- und
Frequenzmodulation [79], durch eine Modifikation der sinusförmigen Hüllkurve hin zu
steileren Flanken [43], durch die Anwendung mehrerer eng beieinander liegender
Trägerfrequenzen (Stürzebecher et al. 2001) oder durch Verwendung von weißem oder
bandpassgefiltertem Rauschen anstelle des tonalen Trägers [44].
Picton hat 2003 eine Klassifikation von verschiedenen ASSR Reiztypen vorgestellt
[78].
Die Grundidee der Verwendung der AMFR zur Hörschwellenbestimmung ist, durch
Variation der Stimulus-Trägerfrequenz, Aussagen über das Hörvermögen in
unterschiedlichen Frequenzbereichen zu erhalten, wobei das detektierte Potential
immer eine Antwort auf die gleichbleibende Modulationsfrequenz darstellt. Die
57
Messung der AMFR bietet daher bei frequenzspezifischer Anregung die Möglichkeit,
objektive Aussagen über das Hörvermögen zu erhalten
Das Haupteinsatzgebiet der Diagnostik mit Hilfe der AMFR stellt der Bereich der
Pädaudiologie dar (Rance et al., 1998)[86]. Dabei ist besonders der dem Neugeborenen
Hörscreening (NHS) folgende diagnostische Abschnitt von internationalem Interesse.
Für den Einsatz einer möglichst früh beginnenden apparativen Rehabilitation ist die
Kenntnis über den
Verlauf der Hörschwelle über die Möglichkeit der groben
Abschätzung hinaus, wie sie die Hirnstammpotentiale liefert, von großem Interesse.
Wenn die Untersuchungen an den Kindern ähnlich überzeugende Ergebnisse wie bei
den Erwachsenen ergeben, könnte sich die Registrierung der AMFR zukünftig zu einer
Standardmethode in der Pädaudiologie entwickeln.
58
2.7 Reizformen für die Ableitung AEP
Die zur Ableitung der akustisch evozierten Potentiale verwendeten Reizformen sind
sehr vielschichtig und Gegenstand vieler wissenschaftlichen Arbeiten, die sich um eine
stetige Verbesserung für die klinischen Aufgaben bemühen.
Einerseits unterscheidet man frequenzspezifische Reize, von andererseits zeitlich gut
definierten Frequenzgemischen, wie den „click“ oder den „chirp“.
2.7.1 Tonimpulse
Ein reiner Ton ist ein frequenzspezifischer Reiz. Zur Wahrnehmung eines bestimmten
Tons bedarf es einer Tondauer von mindestens 200 ms. Zur Vermeidung von
Artefakten sollten Anstieg und Abfall eine bestimmte Mindestzeit nicht unterschreiten.
Der Sinuston ist ein künstlich erzeugter Ton, dessen Schallwelle wie die Sinusfunktion
oder Cosinusfunktion schwingen Die Darbietung reiner Töne stößt also auf
physiologisch vorgegebene Grenzen. Um diesem gerecht zu werden, werden zusätzlich
Reintöne verwendet, bei denen eine Amplituden- (AM) oder Frequenzmodulation
(FM) vorgenommen wurde.
Prototypen dargebotener Reintonreize sind der Ton-Pip mit einer kurzen Anstiegszeit,
keinem Plateau und einer kurzen Abfallzeit. Ein Ton-Burst hingegen besitzt variable
Anstiegszeiten und Plateauzeiten. Die Anwendungen von frequenzspezifischen Reizen
stellen
besondere
Anforderungen
an
Apparatur
und
Untersucher,
da
Resonanzfrequenzen von Wandler, Gehörgang und Mittelohr berücksichtigt werden
müssen.
Abb.14: Darstellung eines reinen Sinuston und als Gauß-Burst modifiziert [20]
59
15a: AM:100%; FM:0%
15b: AM:50%; FM:20%
Abb.15: Darstellung von Reintönen mit Amplitudenmodulation (15a) und zusätzlicher
Frequenzmodulation (15b) nach Picton [80]
2.7.2 Click-Reize
Der „Click“-Reiz besteht aus zeitlich gut definierten Frequenzgemisch, das durch
einen elektrischen Rechteckimpuls oder einer Sinushalbwelle generiert wird. Für sein
Plateau ist eine Dauer von 150-200µs als günstig ermittelt worden. Clicks werden vom
Ohr nicht als Ton empfunden, sondern haben eher einen knackartigen Charakter und
sind deshalb zunächst nicht frequenzspezifisch. Der elektrisch gut definierte Verlauf
des Clicks wird außerdem im elektroakustischen Wandler insofern verfälscht, als die
hohen Frequenzanteile nur im Beginn des Clicks enthalten sind, das Nachschwingen
dagegen ein deutlich tieferes Frequenzspektrum aufweist. Diese Tatsache hat man sich
zu eigen gemacht, um so schließlich doch eine gewisse Frequenzspezifität wieder zu
erreichen.
Seine höchsten Frequenzanteile weist der Click unmittelbar zu Beginn auf. Hierdurch
wird die gesamte Basilarmembran, insbesondere der proximale Anteil, ausgelenkt und
somit ein hoher Grad der Synchronisation afferenter Fasern erreicht. Die Hauptenergie
liegt meist im Frequenzbereich zwischen 1-4kHz. Click-evozierte Potentiale werden
insbesondere für AEP kurzer und mittlerer Latenz verwendet. Besondere Bedeutung
besitzen
Variationen
der
frühen
akustisch
evozierten
Potentiale
aufgrund
unterschiedlicher Polarität des Click. Man unterscheidet Druck- von Sogimpulsen
(condensation und rarefaction) sowie eine alternierende Reizform. Die Erregung der
Sinneszellen auf der Basilarmembran erfolgt zeitlich synchron zu dem Sogimpuls. Ein
auditorisches Neuron antwortet nur während des Sogimpuls, wenn die Basilarmembran
60
zur Scala vestibuli ausgelenkt wird. Es stellt sich als außerordentlich wichtig heraus,
sämtliche Reizparameter zu definieren und möglichst zu normieren, um eine
Vergleichbarkeit der Resultate desselben und verschiedener Labors zu erreichen.
Der bisher verwendete Click ist ein Breitbandsignal, das über die ausgelöste
Wanderwelle
nacheinander
alle
Frequenzbereiche der Cochlea anregt. Die
Geschwindigkeit der Wanderwellen ist im basalen Teil der Cochlea am größten und
nimmt von der Basis zum Apex ab. Infolge der dadurch bedingten höheren
Synchronisation der Erregungen im basalen Cochleaabschnitt trägt im wesentlichen
der Frequenzbereich oberhalb 1 kHz zur click-evozierten ABR bei. Die erhebliche
Laufzeitverzögerung der Wanderwelle auf der Basilarmembran der Cochlea (travelling
wave delay) im Bereich der tieferfrequenten Strukturen führt dazu, dass die zeitlich
verzögerten Antworten aus diesem Bereich in der Summenantwort nur eine geringe
Rolle spielen [59].
Abb. 16: schematische Darstellung eines Click-Reizes [120}
Abb.17: Zeitverlauf und Frequenzspektrum eines Clickreizes [20]
61
2.7.3 Chirp-Reize
Als Chirp (von engl. Chirp = Zwitschern) bezeichnet man in der Signalverarbeitung
ein Signal, dessen Frequenz sich zeitlich ändert.
Zur Beurteilung von frequenzspezifische Informationen unterhalb von 2kHz mit Hilfe
der FAEP, stellen die Cochlea-Mechanik und die Zeit-Frequenz-Unschärfe der oben
genannten Reizformen limitierende Faktoren dar. Wie bereits dargestellt lassen sich
mit Click-evozierten Potentialen über die Erregung des Hörnervs im Tieftonbereich
nur ungenaue Angaben machen, da die Erregung unterhalb von 1kHz schnell abnimmt
Lütkenhöner et al., 1990 [59] sowie Dau et. al. 2000 [16] stellten Chirp-Signale vor,
die in weiterführenden Arbeiten zeigten, dass der Chirp-Stimulus in Kombination mit
einem Hochpass-Maskierer sehr gut geeignet ist, um Informationen über das
Hörvermögen besonders im tieffrequenten Bereich abzuleiten.
Der Chirp ist ein breitbandiger Reiz, bei dem im Unterschied zum Click durch den
Ausgleich der frequenzabhängigen Laufzeitunterschiede auf der Basilarmembran die
maximale Erregung in allen Frequenzbereichen synchron erfolgt.
Abb. 18: Darstellung eines Chirp-Reizes [20]
Lütkenhöner et al., 1990 orientierten sich bei der Bestimmung des „delays along the
cochlear partition“ (Verzögerung entlang der Cochlea-Teilbereiche) an der von den
frequenzspezifischen ABR bekannten Latenzverschiebung. Dau et al., 2000 haben bei
dem von ihnen konstruierten Chirp die zeitliche Dispersion auf der Grundlage des
Cochleamodells von de Boer, 1980 [18], mit den Parametern von Greenwood, 1990
[27], errechnet. In beiden Publikationen wird für die Chirp-Stimulation eine im
Vergleich zum Standard-Click größere ABR-Amplitude berichtet. Die Ergebnisse
wurden jedoch noch nicht in einer ausreichend großen Studie bestätigt. In der
klinischen Praxis ist der Chirp bis jetzt noch nicht als ABR-Stimulus eingeführt
worden.
62
Abb. 19: Oben: Schematische Darstellung des für die Messungen verwendeten Clickreizes
(links) und des Chirpreizes (rechts). Mitte: Interne neuronale Repräsentation der beiden
Signale nach der Verarbeitung in der Cochlea. Der Chirp (rechts) bewirkt eine im Vergleich
zum Click (links) höhere Synchronisation der Aktivität über große Bereiche der Cochlea
hinweg. Unten: Zugehörige akustisch evozierte Potenziale für Click und Chirp für
verschiedene Eingangspegel. Der Chirp bewirkt eine höhere Amplitude der Welle V als der
Click. [17]
63
2.7.4 Neue Reize
Im Jahre 2001 wurde durch Stürzebecher und Cebulla ein neuer Stimulus vorgestellt,
der aus mehreren amplitudenmodulierten Trägern besteht. Die Modulationsfrequenz ist
für alle Träger identisch. Der Frequenzabstand der Träger beträgt das Ein- oder
Zweifache der Modulationsfrequenz (multiple carrier stimuli (MC-stimuli)) [108].
Dadurch konnte das SNR der Antwort um einem Faktor bis zu 1,6 vergrößert werden.
Abb.20: Zeitfunktion (oben) und Frequenzspektrum (unten) einer a) Amplitudenmodulation im
Vergleich zu den Mehrfachträgerreizen (MC- Stimuli):
b) AM2MF2, c) AM3MF1, d) AM3MF2 [108]
64
Ein Ziel der vorliegenden Studie war es, einen AMFR-Stimulus zu konstruieren, der
wie der MC-stimulus einen breiteren Bereich der Basilarmembran erregt, bei dem aber
im Gegensatz zum MC-stimulus durch Kompensation des Cochlea-delays eine
weitgehend synchrone Erregung im durch den Stimulus erreichten Bereich und damit
ein größeres SNR der Antwort erzielt wird.
Außerdem war noch ein zweites Problem zu lösen, um gerade bei 500 Hz optimale
Voraussetzungen für den Nachweis der AMFR zu erreichen: Ein Vorteil der AMFR
besteht darin, dass der elektrische Reizartefakt im Spektrum im Bereich der
Trägerfrequenz und der durch die Modulation bedingten Seitenfrequenzen liegt,
während die Frequenz der Antwort durch die Modulationsfrequenz bestimmt wird. Der
elektrische Reizartefakt stört deshalb nicht, solange man sich beim statistischen
Antwortnachweis nur auf die 1. Harmonische beschränkt. Cebulla et al., 2004 [13]
konnten aber zeigen, dass bei Einbeziehung von bis zu 5 höheren Harmonischen
zusätzlich zur 1. Harmonischen eine höhere Erkennungsrate (detection rate) und eine
kürzere mittlere Erkennungszeit (mean detection time) zu erreichen sind. Im Gegensatz
zu den höheren Frequenzen 1000, 2000 und 4000 Hz ist das bei 500 Hz bisher aber aus
folgendem Grund nur eingeschränkt möglich. Bereits bei dem üblichen single-carrier
stimulus (einfach Trägerreiz ) mit einer Trägerfrequenz von z.B. 540 Hz und einer
Modulationsfrequenz von 90 Hz fällt die untere Seitenfrequenz des Stimulus mit der 5.
Harmonischen der Antwort zusammen. Hier kann also bei Berücksichtigung von 5
Harmonischen ein elektrischer Reizartefakt zu einem falschen Ergebnis des
statistischen Tests führen. Noch erheblich kritischer sind die Verhältnisse bei
Anwendung des MC-stimulus bei 500 Hz. Hier kann bereits die 3. Harmonische der
Antwort durch einen elektrischen Reizartefakt beeinflusst sein. Gerade bei 500 Hz, wo
optimale Bedingungen für Generierung und Nachweis der Antwort erforderlich sind,
besteht also das Problem, dass zum Antwortnachweis nicht der Statistiktest mit der
größeren Testpower eingesetzt werden kann. Das zweite Ziel der vorliegenden Studie
bestand deshalb darin, einen AMFR-Stimulus zu konstruieren, bei dem zusätzlich zu
der oben beschriebenen Kompensation der Cochlea-Laufzeit auch ein FrequenzVersatz zwischen den Seitenfrequenzen des Stimulus und den Harmonischen der
Antwort realisiert ist. Bei einen derartigen Frequenz-Versatz ist eine Überlagerung der
Harmonischen der Antwort durch einen elektrischen Reizartefakt nicht mehr möglich.
Die Einbeziehung der höheren Harmonischen der Antwort beim statistischen
Antwortnachweis wäre dann auch bei 500 Hz problemlos möglich.
65
In der vorliegenden Arbeit werden die nach obigen Vorgaben konstruierten Stimuli
vorgestellt. Die Effizienz der neuen AMFR-Stimuli wird im Rahmen dieser
Untersuchung an einer großen Gruppe von normalhörenden Probanden überprüft.
3. Material & Methodik
Die Grundlage der Untersuchung war die Erprobung neuer Reize (AMFR-Stimuli) für
die Anwendung bei der Hirnstammaudiometrie (BERA). Das Ziel für den Einsatz
neuer Reize liegt in einer kürzeren Untersuchungszeit und der Möglichkeit die bisher
schwer zugängliche tiefe Frequenz von 500 Hz zu erfassen. Dafür wurde die Studie der
Ethikkommission der Universität - Marburg zur Begutachtung vorgelegt, die dieser
Untersuchung mit einem positivem Votum zustimmte.
Alle Probanden wurden über den Inhalt der Studie aufgeklärt und nach Zustimmung,
die im Zuge der Vorbereitung stattfand, wurde das Einverständnis zur Untersuchung
schriftlich eingeholt.
3.1 Beschreibung der neuen Stimuli
Die übliche Generierung der AMFR-Stimuli erfolgt durch Modulation eines Trägers
(in der Regel 500, 1000, 2000 und 4000 Hz) mit einem sinusförmigen
Modulationssignal (in der Regel im Bereich 70 bis 100 Hz). Die Anstiegssteilheit der
Hüllkurve ist relativ gering. Durch den MC-Stimulus mit einem Frequenzabstand der
modulierten Träger entsprechend dem Ein- oder Zweifachen der Modulationsfrequenz
konnten wir einen Reiz mit einem steileren Anstieg der Hüllkurve erzeugen, der einen
breiteren Bereich der Basilarmembran erregt [108].
Die folgende Darstellung wurde den publizierten physikalischen Grundlagen der von
Stürzebecher und Cebulla konzipierten neuen Reizen entnommen [110].
Ein für die Evozierung von AMFR geeignetes Reizsignal kann aber auch ohne
Modulation, durch Addition von mehreren Sinus- oder Kosinusschwingungen erzeugt
werden, wenn die Frequenzdifferenz entsprechend der gewünschten Wiederhol-Rate
66
des Reizsignals gewählt wird. Die Anzahl der addierten Schwingungen bestimmt die
Breite des aktivierten Bereichs auf der Basilarmembran. Im weiteren wird die
Darstellung mittels cos-Funktionen gewählt. Das Reizsignal wird durch Gleichung (3)
beschrieben:
1
[cos 2πf l t+ cos(2π { f l + 1 f r }t ) + ... + cos(2π { f l + (n − 1) f r }t )]
n
1 n−1
y1 (t ) = ∑ cos(2π { f l + kf r }t )
n k =0
y1 (t ) =
Gleichung (3) mit:
n = Anzahl der Kosinusschwingungen
fl = tiefste Frequenz der n Kosinusschwingungen
fr = Wiederholrate des Reizsignals
Die höchste Frequenz fh der n Kosinusschwingungen ist dann
fh = fl+(n-1)fr.
In Abb. 21a ist für n=7 rechts die Zeitfunktion und links das Frequenzspektrum dieses
Signals dargestellt. Die tiefste Frequenz ist hier fl = 269,53 Hz, die Wiederholrate ist
fr = 89,84 Hz. (Die Frequenzangaben wurden auf 2 Stellen nach dem Komma
gerundet.) Der Stimulus hat folglich eine Bandbreite von etwa 270 – 808 Hz, die
Mittenfrequenz ist 539 Hz. In Abb. 21a ist zwischen den Reizen eine deutliche
Welligkeit (ripple) zu erkennen. Diese Welligkeit kann reduziert werden, indem die
Kosinusschwingungen mit der tiefsten und der höchsten Frequenz gemäß Gl. (4) nur
mit der halben Amplitude der übrigen Wellen berücksichtigt werden.
1 n−1
y2 (t ) =
ak cos(2π { f l + kf r }t )
∑
n − 1 k =0
Gleichung (4) mit:
ak = 0,5 für k=0 und k=n-1,
ak = 1 für alle übrigen k.
Die durch diese Maßnahme gemäß Gl. (4) geglättete Zeitfunktion ist in Abb. 21b
dargestellt. Dieser Reiz wird im weiteren als cosinus-waves stimulus (CW-Stimulus)
bezeichnet.
67
Die Konstruktion der CW-Stimuli aus einzelnen Cosinuswellen bietet nun die
Möglichkeit einer frequenzabhängigen Phasenkorrektur zur Kompensation der
frequenzabhängigen Laufzeit in der Cochlea. Als Grundlage für die Korrektur wurde
das Cochlea-Modell von de Boer (1980) gewählt. Dabei wurden in de Boers Gleichung
die von Greenwood (1990) angegebenen Konstanten verwendet.
Abb. 22: Cochlea delay nach de Boer (1980)
Abb. 22 zeigt die Frequenzabhängigkeit der Laufzeitverzögerung der Wanderwelle auf
der Basilarmembran der Cochlea
relativ zu 100 Hz. Aus der Darstellung ist zu
entnehmen, dass die tiefste Frequenzkomponente (270 Hz) des in Abb. 21a und 21b
dargestellten Reizes um mehr als 3 ms gegenüber der höchsten (808 Hz) verzögert ist.
Um diese Laufzeitdifferenzen zu kompensieren, wurde in Gleichung (4) ein
Phasenwinkel φk eingefügt, der die mit dem Modell von de Boer errechneten
frequenzabhängigen Laufzeit-Verzögerungen berücksichtigt:
1 n−1
y3 (t ) =
ak cos(2π { f l + kf r }t + ϕ k )
∑
n − 1 k =0
Gleichung (5) mit:
φk = frequenzabhängige Phasenverschiebung errechnet aus
der delay-time gemäß dem Cochlea-Modell von de Boer
68
In Abb. 21c ist für n=7 rechts die Zeitfunktion und links das Frequenzspektrum dieses
Signals dargestellt. Das Frequenzspektrum des Reizes ist identisch mit dem in Abb.
21b dargestellten, da die Phasenbeziehungen in der Darstellung nicht berücksichtigt
werden. Die Zeitfunktion in Abb. 21c zeigt dagegen im Gegensatz zu Fig. 1b eine
"rechts-links Asymmetrie" infolge der Einführung der Zeitverzögerung (time delays).
Die CW-Stimuli mit Phasenkorrektur werden im weiteren durch den Zusatz PC (phase
corrected) gekennzeichnet.
Es gilt allgemein die Regel, Träger- und Modulationsfrequenz der AMFR-Stimuli so
zu
wählen,
dass
die
Trägerfrequenz
ein
ganzzahliges
Vielfaches
der
Modulationsfrequenz ist. Das führt zu dem oben für die MC-Stimuli erläuterten
Problem, dass es insbesondere beim 500-Hz-Reiz zu einer Überlagerung des
elektrischen Reizartefaktes der tiefen Frequenzen des Stimulus mit den Harmonischen
der Reizantwort kommen kann. Das gleiche gilt auch für die hier beschriebenen neuen
CW-Stimuli. In Abb. 21c ist die Lage der ersten 6 Harmonischen der Antwort durch
Pfeile markiert. Führt man nun in Gl. (5) einen Frequenz-Offset foff gemäß Gl. (6) ein,
so bewirkt das eine Verschiebung der Frequenzen des Stimulus (frequency offset), die
erste Harmonische der Antwort erscheint dagegen weiterhin bei fr und die höheren
Harmonischen bei Vielfachen von fr.
1 n−1
y4 (t ) =
ak cos(2π { f l + kfr − f off }t + ϕk )
∑
n −1 k =0
Gleichung (6) mit:
0 < foff < fr
Bei beliebiger Wahl von foff innerhalb der angegebenen Grenzen geht allerdings die
starre Kopplung zwischen den Frequenzen des Stimulus und der Wiederholrate fr
verloren, es kommt zu einem periodischen Durchlaufen (cycling). Es ist deshalb
sinnvoll, f off =
fr
2
zu wählen. Hierbei ergibt sich eine Phasenkopplung über 2
Perioden von fr. Das Ergebnis ist, wie in Abb. 21d erkennbar, ein alternierender
Stimulus.
Die Harmonischen der Antwort erscheinen weiterhin bei den gleichen Frequenzen wie
in Fig. 1c, die Frequenzkomponenten des Stimulus sind dagegen im Spektrum um fr/2
nach links verschoben. Damit ist die insbesondere bei 500 Hz notwendige Trennung
69
von Reizartefakt und den Harmonischen der Antwort erreicht. Die CW-Stimuli mit
frequency offset werden im weiteren durch den Zusatz FO gekennzeichnet.
Obwohl sich diese Studie auf die Problematik bei 500 Hz konzentriert, wurden auch
die Frequenzen 1000, 2000 und 4000 Hz einbezogen. Bei diesen Frequenzen ist durch
die Korrektur des Cochlea-Delays kaum ein Gewinn zu erwarten. Es war aber zu
kontrollieren, ob die auf neue Art konstruierten Reize auch bei diesen Frequenzen
effektiv sind. Die Anzahl der bei Reizgenerierung addierten Sinusschwingungen war
immer 7 mit folgender Ausnahme: Bei 4000 Hz wurde auch ein Reiz mit 11
Sinusschwingungen einbezogen. Das frequency offset ist nur bei 500 Hz erforderlich,
um den Einsatz eines q-sample Tests zu ermöglichen und wurde deshalb nur bei diesen
Reizen eingefügt. Wie im Abschnitt 3.2 (Versuchspersonen) erläutert wird, war die
Anzahl der möglichen Untersuchungen limitiert. Deshalb wurde der übliche AMFRStimulus (amplitudenmodulierter Träger) nur bei 500 Hz und 2000 Hz zum Vergleich
mitgetestet.
a)
1.5
10
Spectral amplitude/ dB
1
Amplitude
0.5
0
-0.5
-1
0
-10
-20
-30
-1.5
0
5
10
15
20
25
30
35
40
0
200
400
Time / ms
600
800
1000
1200
800
1000
1200
800
1000
1200
800
1000
1200
Frequency/ Hz
b)
10
1.5
Spectral amplitude/ dB
1
Amplitude
0.5
0
-0.5
-1
-1.5
0
5
10
15
20
25
30
35
0
-10
-20
-30
0
40
200
400
600
Frequency/ Hz
Time / ms
c)
10
1.5
Spectral amplitude/ dB
1
Amplitude
0.5
0
-0.5
-1
-1.5
0
5
10
15
20
25
30
35
0
-10
-20
-30
0
40
200
400
600
Frequency/ Hz
Time / ms
d)
10
1.5
Spectral amplitude/ dB
1
Amplitude
0.5
0
-0.5
-1
-1.5
0
5
10
15
20
25
Time / ms
30
35
40
0
-10
-20
-30
0
200
400
600
Frequency/ Hz
Abb. 21a-d: Darstellung von Zeitfunktion und Frequenzspektrum der neuen 500-Hz-Reize
70
Die folgenden Reize wurden für die hier beschriebene Studie verwendet:
• 500-Hz-Stimuli
1. AM500
üblicher amplitudenmodulierter 500-Hz-Träger
2. 7CW500
mit 7 Sinusfrequenzen konstruierter CW-Stimulus
3. 7CW500PC
wie unter 2., zusätzlich phase corrected
4. 7CW500PC/FO
wie unter 3., zusätzlich mit frequency offset
Bei den übrigen Reizen ergibt sich die Erklärung der Bezeichnung aus der Erklärung
der 500-Hz-Reize.
• 1000-Hz-Stimuli
• 2000-Hz-Stimuli
• 4000-Hz-Stimuli
5. 7CW1000
7. AM2000
10. 7CW4000
6. 7CW1000PC
8. 7CW2000
11. 7CW4000PC
9. 7CW2000PC
12. 11CW4000PC
Der für alle untersuchten Stimuli gewählte Reizpegel lag bei
30 dB nHL. Die
Kalibrierung der Reize erfolgte subjektiv mit 10 Probanden aus der gleichen Gruppe
der normalhörenden Jugendlichen, mit denen die Untersuchungen der vorliegenden
Studie durchgeführt wurden. Für jeden Reiz wurde die individuelle subjektive
Hörschwelle ermittelt. Aus den individuellen Schwellenpegeln wurde für jeden Reiz
der Schwellen-Mittelwert berechnet.
Die Reihenfolge der Applikation der oben genannten Stimuli wurde automatisch
randomisiert dargeboten.
71
3.2 Versuchspersonen
Die Untersuchung wurden an insgesamt 70 Probanden durchgeführt.
Voraussetzung zur Teilnahme war eine Normalhörigkeit und die schriftliche
Zustimmung für die Messungen. Bei 14 männlichen und 56 weiblichen Probanden im
Alter zwischen 17 – 34 Jahren, deren Hörverlust für reine Töne bei den verwendeten
Frequenzen höchstens 10 dB HL betrug, führten wir eine BERA- Untersuchung mit
unterschiedlichen akustischen Reizen durch.
Die meisten der Probanden waren Studierende einer Logopäden-Schule. Da dieser
Beruf vorwiegend von Frauen ausgeübt wird, überwiegen in der Stichprobe die
weiblichen Probanden. Von den ABR ist bekannt, dass die Potentialamplitude bei
Frauen in der Regel etwas größer ist als bei Männern. Die AMFR verhalten sich
wahrscheinlich ähnlich, dazu liegen allerdings noch keine Untersuchungen vor. Die
Ergebnisse der Studie werden durch das Überwiegen der weiblichen Probanden jedoch
nicht beeinträchtigt, da keine Aussagen zur absoluten AMFR-Amplitude angestrebt
wurden. Es geht hier vielmehr um den Vergleich der AMFR-Amplituden bei
unterschiedlichen Reizbedingungen.
Bei allen Probanden wurden vor den Messungen eine Tonschwellenaudiometrie und
Tympanometrie durchgeführt, um einen Hörschwellenverlust oder eine entzündlichen
Mittelohrprozess auszuschließen.
Als Versuchsort diente ein schallisolierter Raum mit einer integrierten, extra für die
Messungen aufgebauten, Hörkabine mit der Möglichkeit die Kabel der Elektroden
nach außen zu leiten und dort an den Computer anzuschließen und unabhängig vom
Messvorgang zu verarbeiten. Diese Situation zur Ableitung bot ideale Verhältnisse. In
der Hörkabine befand sich für die Probanden eine Untersuchungsliege, auf der sie
bequem liegen konnten. Während der Messungen wurde der Raum abgedunkelt und
die Probanden wurden gebeten sich zu entspannen und wenn möglich zu schlafen.
Jedoch je nach Tageszeit der Messungen war es nicht allen Probanden möglich
einzuschlafen.
Mit den gleichen Probanden erfolgte auch eine nochmalige Testung von weiteren
neuen Reizen, die für den Einsatz im Neugeborenen-Hörscreening vorgesehen sind.
Die Ergebnisse dazu sind noch nicht publiziert.
72
Abb. 25 a+b: Fotoaufnahme des Untersuchungsraumes und der eingebauten Hörkabine
Die Ableitungen dauerten durchschnittlich eine bis anderthalb Stunde. Insgesamt
wurden jeweils 2 Ableitungen mit jedem Probanden durchgeführt. Die lange
Untersuchungszeit war ein limitierender Faktor für die Untersuchungen, da nach einer
Stunde liegend, eine steigende Unruhe der Probanden erkennbar war, was sich in
verschlechterten Messergebnisse zeigte.
73
Möglicherweise war das auch der Grund, weshalb einige Probanden zur zweiten
Ableitung nicht erschienen sind, da sie die Messungen in der Hörkabine und dem
zusätzlich abgedunkeltem Raum als unangenehm empfanden.
Da die Stimuli für die AMFR Generierung und die neuen Reize für das Hörscreening
randomisiert appliziert wurden, hatte das „Nichterscheinen“ der Probanden zum 2.Test
immer Auswirkungen in der statistischen Bewertung für beide Arten von Reizen.
Die Anzahl der Paare, die für die verschiedenen Paarvergleiche zur statistischen
Bearbeitung zur Verfügung standen
ist deshalb kleiner als die oben genannte
Gesamtanzahl der Probanden und differiert für die verschiedenen Vergleiche.
3.3 Messvorbereitung und Messdurchführung
Die zur Messung benutzten Elektroden wurden am Vertex (Cz) und am ipsilateralen
Mastoid befestigt. Die für die Erdung bestimmte Elektrode wurde an der Stirn
befestigt. Die Hautbereiche für die Elektrodenkontakte wurde vorher mit einer dafür
geeigneten Hautreinigungspaste aufgeraut und mittels handelsübliches Elektrodengel
für einen optimalen Elektrodenkontakt gesorgt. Die Impedanz zwischen der Mastoidbzw. Vertex-Elektrode und der Stirnelektrode sollte 5 kΩ nicht überschreiten und lag
meist zwischen 1,5-2,5 kΩ. Die Spannung zwischen den Elektroden wurde über ein
zweites Screening Bera-Gerät (Echoscreen) bestimmt und wenn die Impedanz
oberhalb von 5 kΩ lag, so wurden die Elektroden wieder entfernt und der Vorgang
wiederholt.
Für die Registrierung der Potentiale wurde das Gerät MB11-2 der Firma MAICO
Diagnostics (GmbH) verwendet. Anstelle des sonst üblich verwendeten Hörers
(BERAphon) wurde zur Reizapplikation ein Kopfhörer (HDA 280, Sennheiser) und
ein separater Vorverstärker (Pre-amplifier) benutzt.
Die Filter Bandbreite betrug 25 Hz (6dB/Oktave) und 1,5 kHz (24dB/oktave).
Die Analog zu Digital (AD) Transformationsrate hatte mit 16 kHz die gleiche Größe
wie die DA Transformationsrate. Das EEG wurde während der Stimulation
kontinuierlich auf einer Festplatte aufgenommen und gespeichert.
74
Unabhängig von der späteren off-line-Analyse wurden die Daten bereits während der
Datenregistrierung mittels Fouriertransformation in den Frequenzbereich transformiert.
Mit einer sequentiellen Teststrategie wurde der modifizierte Rayleigh Test (PC*) [68]
auf die 1. Harmonische der Antwort angewendet. Die Datenregistrierung erfolgte
generell über etwa 153 Sekunden, auch wenn die Antwort bereits vorher als „pass“
nachgewiesen wurde. Falls bis 153 Sekunden keine Antwort nachweisbar war, wurde
die Registrierung fortgesetzt und ca. 10 Sekunden nach Erreichen eines signifikanten
Testergebnisses gestoppt. Falls eine Antwort mit PC* nach 300 Sekunden nicht
nachweisbar war, wurde die Datenregistrierung abgebrochen.
Abb.25: Programmoberfläche hier: positive Reiz-Antwort (im Pass) und fortlaufende
Registrierung bis 153 sec, bei negativer Antwort Registrierung max 300 sec [8]
75
3.4 Auswertung
Die Durchführung „objektiver Hörprüfungen“ ist erst dann als objektiv anzusehen,
wenn die Ergebnisbewertung auch „automatisch“ und unabhängig vom Untersucher
erfolgen kann. Die Bewertung von Reizantworten bei einer BERA- Untersuchung
erfordert bis heute große Erfahrung durch den Untersucher. Für die Anwendung,
besonders im NHS, ist der Einsatz von objektiven Verfahren mit automatischen
Ergebnisbewertung (AABR) von entscheidender Bedeutung [7],[8].
Weltweit wird deshalb an Verfahren mit automatischen Ergebnisbewertung gearbeitet.
Grundlage für die Auswertung der Ergebnisse liefert ein neu entwickelter Algorithmus
von Stürzebecher, der im folgenden dargestellt wird.
Mit Hilfe dieser
Ergebnisbewertung wird die BERA-Untersuchungen zu einer „echten“ objektiven
Untersuchungsmethode.
Die Analyse der gespeicherten Daten erfolgte nachträglich für alle Messungen
zusammen. Die Länge der aufgenommen EEG Segmente waren infolge des oben
beschriebenen Abbruchkriteriums nicht einheitlich. Die EEG Segmente wurden in
Epochen mit einer Länge von 1.024 sec geteilt. Jede einzelne Epoche wurde mit Hilfe
der Fast Fourier Transformation (FFT) in den Frequenzbereich umgewandelt. Dadurch
ergab sich ein Frequenzbereich von 0.976 Hz (1/1.024 sec).
Über die ermittelten Werte der bereinigten SNR, der Nachweisrate (detection rate) und
der Nachweiszeit (detection time) wurde die Effizienz der Stimuli festgelegt.
Für die SNR-Berechnung wurden die ersten 150 Epochen (record length 153,6 sec.)
gemittelt. Der Mittelwert wurde mittels FFT in den Frequenzbereich transformiert. Die
Frequenzauflösung war etwa 1 Hz. Die rauschkorrigierte SNR der Harmonischen
wurde durch folgende Gleichung berechnet:
SNR =
S * −N
N
Gleichung (7) mit:
S* = S + N
S * - Amplitude der Antwort im Frequenzspektrum
S - Amplitude des Signalsanteils an der Antwort
N - Amplitude des Geräuschanteils an der Antwort
N - Hauptamplitude des Hintergrundgeräuschs, bestimmt/geschätzt durch 10
Spektralkomponenten (jeweils 10 Linien rechts bzw. links der Antwort)
76
Das rauschkorrigierte SNR ist im Gegensatz zur üblichen SNR-Angabe bei Gleichheit
von Signal und Rauschen nicht 1 sondern 0.
Im dem Fall, dass keine Antwort erfolgte und die Amplitude der Antwort unter der der
Rauschamplitude lag, wurde die daraus folgende negative SNR als null betrachtet, da
negative Werte für die SNR nicht zulässig sind.
Der Antwortnachweis erfolgte bei 500 Hz für die Stimuli ohne frequency off-set mit
einer Modifikation [13] des modifizierten Rayleigh Tests [68], die statt der Rangzahlen
der spektralen Amplituden die spektralen Amplituden verwendet. Für den Nachweis
der Antworten auf alle übrigen Stimuli wurde eine Modifikation [107] des q-sample
uniform scores Test [60] eingesetzt. Während der q-sample uniform scores Test von
Mardia nur die in eine Rangordnung gebrachten Phasen verwendet, bleiben die Phasen
bei der Modifikation dieses Tests ungereiht, und es werden zusätzlich die in eine
Rangordnung gebrachten spektralen Amplituden berücksichtigt. Dadurch konnte die
Testpower erhöht werden. Bei Anwendung des q-sample Tests wurden 6 Harmonische
der Antwort in die Testung einbezogen, während der modifizierte Rayleigh Test nur
eine Harmonische (in der Regel die Grundwelle) testet. Getestet wurde mit einer
Irrtumswahrscheinlichkeit von α = 1%. Bei der offline-Anwendung der statistischen
Tests für den Antwortnachweis wurde eine sequentielle Teststrategie angewendet. Im
ersten Schritt wurde der Test auf die ersten 10 Epochen angewendet. Nach jedem
Testen wurde die Stichprobe um 1 Epoche vergrößert, bis eine Antwort nachweisbar
oder der maximal verfügbare Stichprobenumfang erreicht war. Um bei dem durch das
sequentielle
Vorgehen
bedingten
häufigen
Testen
die
vorgegebenen
Irrtumswahrscheinlichkeit α = 1% zu gewährleisten, wurden die kritischen Testwerte
gemäß dem dafür entwickelten Verfahren [109] bestimmt.
Da die verschiedenen Reize bei den gleichen Probanden angewendet wurden, müssen
zum Prüfen der Differenzen zwischen den Ergebnissen (Nachweisrate, Nachweiszeit,
SNR) statistische Tests für abhängige Stichproben eingesetzt werden, d.h, es müssen
immer Paarvergleiche durchgeführt werden. Oben wurde bereits erläutert, dass die
Anzahl der möglichen Paare kleiner als die Anzahl der Probanden ist, weil nicht alle
Reize bei allen Probanden getestet werden konnten.
77
3.5 Statistische Bearbeitung
Die statistische Signifikanz für die SNR Unterschiede bei verschiedenen
AMFR
Reizen wurde mit dem Wilcoxon matched pairs signed rank test getestet. Hierbei
wurde auch das SNR der Aufnahmen einbezogen, bei denen keine Antwort
nachweisbar war. Die Nachweiszeit wurde aus der Anzahl der für den Signalnachweis
erforderlichen minimalen Anzahl von Epochen berechnet. Bei Aufzeichnungen ohne
nachweisbare Antwort wurde als Nachweiszeit die maximale Untersuchungsdauer von
300 Sekunden berücksichtigt. Eine andere Möglichkeit wäre das Weglassen aller
Paare, bei denen einer der beiden Reize keine nachweisbare Antwort evoziert hat,
gewesen. Das gewählte Vorgehen führt jedoch zu realistischeren Angaben zur
Untersuchungsdauer. Die Differenzen der Nachweiszeit für die verschiedenen AMFRstimuli wurden ebenfalls mit dem Wilcoxon matched pairs signed rank test getestet.
Die Differenzen der für die verschiedenen Stimuli erhaltenen Nachweisraten wurden
mit dem McNemar Test auf Signifikanz geprüft.
78
4. Ergebnisse
Bei insgesamt 70 Probanden wurden in 2 Sitzungen von je einer bis anderthalb
Stunden BERA-Ableitungen durchgeführt. Dabei kamen bis zu 35 verschiedene
akustische Reizformen zu Einsatz.
Für die statistische Bearbeitung dieser Arbeit wurden im Schnitt circa 62 Probanden
und die vorher beschriebenen 12 Stimuli verwendet.
Die Testergebnisse für die 500-Hz-Stimuli sind in Tabelle 1 aufgelistet. Angegeben
sind die Nachweisrate, der Median der individuellen Nachweiszeit sowie Mittelwert
und Standardabweichung des SNR der ersten Harmonischen. Das wesentliche Ziel der
Studie war es, insbesondere bei 500 Hz neue Stimuli zu entwickeln, die dem üblichen
modulierten single-carrier stimulus (AM500 in der ersten Zeile von Tabelle 1)
überlegen sind. In der zweiten bis fünften Zeile von Tabelle 1 sind die mit den neuen
Stimuli erhaltenen Ergebnisse dargestellt. Die Differenzen zwischen den Ergebnissen
der 3 neuen Stimuli und den Ergebnissen für AM500 wurden auf Signifikanz geprüft.
Die errechneten p-Werte sind unter den jeweiligen Ergebnis-Werten der neuen Stimuli
angegeben.
N
Stimulus
statistischer
Nachweisrate
Test
(%)
one-sample
62
62
62
54
AM500
7CW500
7CW500PC
7CW500PC/FO
Nachweiszeit
SNR (SD)
(s)
(Median)
74.2
119.5
2.57 (2.5)
one-sample
77.4
71.5
3.22 (2.9)
Test
ns
ns
p=0.036
one-sample
85.5
61.5
3.77 (3.5)
Test
p=0.047
p=0.013
p=0.0053
q-sample
94.4
42
3.54 (3.3)
Test
p=0.013
0.0006
p=0.048
Test
Tab 1.: Nachweisraten, Nachweiszeiten und SNR der ersten Harmonischen der evozierten
Antworten bei Anwendung der 500-Hz-Stimuli. Der Nachweis erfolgte mit dem modifizierten
Rayleigh-Test MRTV2 und für den Stimulus 7CW500PCFO mit dem modifizierten QUSCTest MQSTV3. Die Irrtumswahrscheinlichkeit war α = 1 %.
Die entsprechenden Wahrscheinlichkeiten (p-Werte, ns= nicht signifikant) sind ebenfalls
angegeben. N ist die Anzahl der Probanden.
79
Der Stimulus 7CW500 evoziert zwar eine Antwort mit einem signifikant größeren
SNR als AM500 (3.22 verglichen mit 2.57, Vergrößerung des SNR um 25%),
Nachweisrate (77.4% verglichen mit 74.2%) und Nachweiszeit (Median: 71.5 s
verglichen mit 119.5 s) beider Reize unterscheiden sich jedoch nicht signifikant. Die
Einführung der Phasenkorrektur (7CW500PC) führt dagegen im Vergleich zu AM500
zu einer signifikanten Verbesserung bei allen 3 Messgrößen. Im Vergleich zu AM500
steigt die Nachweisrate um etwa 11% auf 85.5%. Dabei kommt es zu einer
annähernden Halbierung des Median der Nachweiszeit von 119.5 s auf 61.5 s. Das
rauschkorrigierte SNR erreicht 3.77, das bedeutet eine Erhöhung um 46% gegenüber
AM500. Führt man bei dem Stimulus 7CW500PC ein frequency off-set gemäß
Gleichung (6) ein, so kann wegen der dadurch bewirkten Separierung von elektrischem
Reizartefakt und den Harmonischen der Antwort ein q-sample Test für den
Antwortnachweis eingesetzt werden. Das führt zu einer weiteren Erhöhung der
Nachweisrate auf 94.4% sowie im Vergleich zu AM500 zu einer weiteren Reduzierung
der Nachweiszeit (Median 42 s). Der Median der Nachweiszeit beträgt mit 42 s nur
etwas mehr als ein Drittel des Median der Nachweiszeit für AM500 (119.5 s).
Entsprechend ist das SNR der ersten Harmonischen der mit den neuen Reizen
evozierten Antworten signifikant größer als bei Stimulation mit AM500.
In Tabelle 2 sind die Ergebnisse für 1000 Hz, 2000 Hz und
zusammengefasst.
Ein
Vergleich
der
neuen
Stimuli
mit
dem
4000 Hz
üblichen
amplitudenmodulierten Träger wurde hier nur bei 2000 Hz (AM2000) durchgeführt.
Wie erwartet, unterscheiden sich die Ergebnisse bei 1000 Hz für 7CW1000 und
7CW1000PC nicht. Auch bei 2000 Hz ist die Differenz der Nachweisrate für den
bekannten Reiz AM2000 (86%) und den gemäß Gleichung 4 durch Summation von 7
cos-Wellen konstruierten Reiz 7CW2000 (93%) nicht signifikant. Die Nachweiszeit ist
dagegen für 7CW2000 signifikant geringer (42 s verglichen mit 85 s), und das SNR ist
signifikant größer (3.5 verglichen mit 2.43, Vergrößerung des SNR um 44%). Die
Laufzeitkorrektur (7CW2000PC) führt zu einer weiteren, gegenüber 7CW2000 aber
nicht signifikanten Verbesserung. Hier ist auch die Nachweisrate (98,2%) signifikant
höher als bei AM2000 (86%). Der Median der Nachweiszeit beträgt mit 28 s nur noch
80
ein Drittel des Median der Nachweiszeit für AM2000 (85 s). Dabei ist das mittlere
SNR für 7CW2000PC um 73% größer als für AM2000. Bei 4000 Hz führt die
Laufzeitkorrektur bei 7CW4000PC im Vergleich zu 7CW4000 zu keiner
Verbesserung. Auch mit dem breiteren Stimulus 11CW4000PC ergibt sich keine
Erhöhung der Nachweisrate. Im Vergleich zu 7CW4000 ist jedoch die Nachweiszeit
signifikant kürzer (41 s verglichen mit 59 s), und das SNR ist signifikant höher (2.89
verglichen mit 2.43).
N
Stimulus
Nachweisrate Nachweiszeit
(%)
SNR (SD)
(s)
Median
7CW1000
95.2
21.0
4.42 (3.7)
96.8
21.0
4.34 (3.8)
86.0
85.0
2.43 (1.8)
93.0
42.0
3.50 (2.5)
ns
p=0.003
p=0.0031
98.2
28.0
4.21 (2.4)
p=0.011
p=0.00002
p=0.00047
95.0
59.0
2.43 (1.8)
95.0
57.5
2.74 (2.1)
96.7
41.5
2.89 (2.3)
ns
p=0.017
p=0,038
63
7CW1000PC
AM2000
57
7CW2000
7CW2000PC
7CW4000
60
7CW4000PC
11CW4000PC
Tab 2.: Nachweisraten, Nachweiszeiten und SNR der ersten Harmonischen der evozierten
Antworten bei Anwendung der 1000-, 2000- und 4000-Hz-Stimuli. Der Nachweis erfolgte mit
dem modifizierten QUSC-Test MQSTV3. Die Irrtumswahrscheinlichkeit war α = 1 %.
Die entsprechenden Wahrscheinlichkeiten (p-Werte, ns= nicht signifikant) sind ebenfalls
angegeben. N ist die Anzahl der Probanden.
81
In Abb. 23 a ist für 500 Hz das mittlere rauschkorrigierte SNR der Harmonischen 1-4
der Antworten auf den neuen Stimulus 7CW500PC/FO im Vergleich zu den
Antworten auf AM500 dargestellt. Abb. 23 b zeigt den Vergleich zwischen
7CW2000PC und AM2000 für die Harmonischen 1 - 6. Bei 500 Hz war die
Beschränkung auf nur 4 Harmonische notwendig, da die 5. Harmonische der Antwort
mit der unteren Seitenfrequenz des modulierten Trägers von AM500 zusammenfällt.
Ein Beitrag des elektrischen Reizartefaktes ist deshalb ab der 5. Harmonischen nicht
auszuschließen. Bei 2000 Hz liegen die wesentlichen höheren Harmonischen der
Reizantwort noch ausreichend weit ab vom Stimulusartefakt. Die Darstellungen
bestätigt frühere Ergebnisse von Cebulla [13], dass auch bei der mit den üblichen
Reizen (AM500 und AM2000) evozierten Antwort neben der ersten Harmonischen
höhere Harmonische mit wesentlichen Amplituden vorhanden sind. Das gilt erst recht
für die mit den neuen Reizen evozierten Antworten. Bei 500 Hz ist das SNR der 1. – 3.
Harmonischen, bei 2000 Hz der 1. – 4. Harmonischen der Antwort auf die neuen Reize
(CW500PC/FO, CW2000PC) signifikant größer als bei den üblichen Reizen (AM55,
AM2000). Ein one-sample Test, der nur die erste Harmonische berücksichtigt,
vernachlässigt ganz offensichtlich einen wesentlichen Teil der für die response
detection zur Verfügung stehenden Information.
82
Abb. 23a: Rauschkorrigiertes SNR für die ersten 4 Harmonischen der AMFR Spektren zweier
Datenpools: AMFR evoziert mit 7CW500PCFO und AMFR als Antwort auf einen
amplitudenmodulierten Reiz (AM500)
Abb. 23b: Rauschkorrigiertes SNR für die ersten 6 Harmonischen der AMFR Spektren zweier
Datenpools: AMFR evoziert mit 7CW2000PC und AMFR als Antwort auf einen gewöhnlichen
amplitudenmodulierten Reiz (AM2000)
83
Abb. 24 zeigt die Häufigkeitsverteilung der für die 4 Stimuli 7CW500PC/FO,
7CW1000PC, 7CW2000PC und 11CW4000PC zusammengefassten individuellen
detection
times.
Wegen
des
für
eine
Häufigkeitsverteilung
zu
geringen
Stichprobenumfangs waren getrennte Darstellungen für die 4 Frequenzen nicht
sinnvoll. Die gewählte Klassenbreite ist 10 s. Das Maximum der Verteilung liegt bei
einer detection time von 20 s. Innerhalb von 50 s werden bei dem gewählten Reizlevel
von 30 dBHL 63.5%, innerhalb von 100 s 81.2% der Antworten nachgewiesen. Für
den Nachweis von 15% der registrierten Antworten war eine Zeit zwischen 100 und
300 s erforderlich. Für 3.7% aller Antworten gelingt der Nachweis innerhalb der
vorgegebenen Zeit von 300 s nicht. Die bei 300 s angegebene Häufigkeit resultiert in
erster Linie aus den nicht nachgewiesenen Antworten.
Abb. 24: Häufigkeitsverteilung (frequency distribution) der für die 4 Stimuli 7CW500PC/FO,
7CW1000PC, 7CW2000PC und 11CW4000PC zusammengefassten individuellen detection
times. Die Klassenbreite ist 10 s.
84
5. Diskussion
Ziel der Untersuchung war die Testung neuer Reize beim Einsatz in der
Hirnstammaudiometrie. Es wurde erwartet, dass sich durch die Optimierung der Reize
die Untersuchungszeit verkürzen lässt und eine frequenzspezifische Ableitung möglich
wird.
Derzeit existiert keine Möglichkeit den Frequenzbereich unter 1000 Hz objektiv zu
erfassen. Für die apparative Versorgung einer Schwerhörigkeit ist allerdings dieser
Bereich von großer Bedeutung.
Bei einer objektiven frequenzspezifischen Hörschwellenmessung mittels akustisch
evozierter Potentiale besteht generell das Problem, dass bei 500 Hz in der Regel
Differenzen zwischen der objektiv gemessenen und der subjektiven Hörschwelle
resultieren. Das gilt für die einfache Tonpuls-Messung, wie auch für die NotchedNoise BERA und natürlich auch für die Schwellenmessungen mittels der AMFR.
Ursache dafür sind die ungünstigen Synchronisationsbedingungen im apikalen Teil der
Cochlea infolge des hier erheblich größeren Laufzeitunterschiedes der Wanderwelle.
Bei den AMFR kommt noch hinzu, dass der übliche Stimulus (amplitudenmodulierter
Träger) nur einen schmalen Frequenzbereich erregt. Das gilt nicht nur für 500 Hz,
sondern für alle Frequenzen. Dadurch ist der Reiz zwar sehr frequenzspezifisch, die
Antwort ist aber klein und schwer nachzuweisen. Eine größere Antwort ist zumindest
bei den höheren Frequenzen zu erwarten, wenn das Frequenzspektrum des Reizes
verbreitert wird. Die dadurch bedingte Verminderung der Frequenzspezifität ist
unkritisch und kann toleriert werden. Bei 500 Hz führt diese Maßnahme wegen der
eingeschränkten Synchronisation jedoch nicht zu einer wesentlichen Verbesserung. Es
ist zu erwarten, dass durch eine Kompensation der Laufzeitverzögerung der
Wanderwelle der Kochlea (Cochlea delay) bei den einzelnen Frequenzkomponenten
des verbreiterten 500-Hz-Reizes eine höhere Synchronisation der Erregungen in dem
stimulierten Frequenzbereich und infolgedessen eine größere Antwortamplitude erzielt
werden kann. Dabei wird davon ausgegangen, dass das Cochlea-Modell von de Boer
die Eigenschaften der menschlichen Cochlea ausreichend genau beschreibt. Da die
Cochlea beim Kleinkind bereits ausgereift ist [71], kann das Modell auch für dieses
Alter als gültig angenommen werden.
85
Die hier vorgestellte Studie hatte das Ziel, insbesondere bei 500 Hz die nach obigen
Gesichtspunkten konstruierten neuen Reize an einer Gruppe von normalhörenden,
erwachsenen Probanden zu testen. Die Ergebnisse konnten unsere Erwartungen
bestätigen. Die alleinige Verbreiterung des Reizes von 3 Spektrallinien (AM500) auf 7
Spektrallinien (7CW500) hat zwar eine signifikante Vergrößerung des SNR zur Folge
(2.57 auf 3.22), das reicht aber nicht für eine signifikante Erhöhung der Nachweisrate
und eine signifikante Verkürzung der Nachweiszeit aus. Zu berücksichtigen ist, dass
bei der Nachweiszeit nicht die Differenz der Median-Werte getestet wurde, sondern im
Paarvergleich eine Prüfung der individuellen Paardifferenzen erfolgte. Die Korrektur
des Laufzeitunterschieds (travelling delays) (7CW500PC) führt zu der erwarteten
weiteren Verbesserung des SNR und damit auch von Nachweisrate und Nachweiszeit
im Vergleich zu AM500.
In einer früheren Publikation [108] hatten die Autoren Stürzebecher et al., 2001, mit
dem Mehrfachträger-Reiz AM3MF2 (Abb. 20) einen SNR-Gewinn von 60%
gegenüber dem üblichen AMFR-Reiz gefunden. Die jetzigen Ergebnisse zeigen, dass
der Gewinn damals etwas überschätzt wurde. Das Spektrum von AM3MF2 ist
vergleichbar mit den jetzt vorgestellten 7CW-Stimuli, für die ein SNR-Gewinn
zwischen 25% (500 Hz) und 44% (2000 Hz) im Vergleich zum üblichen AMFR-Reiz
gefunden wurde. Durch die Einführung der Phasenkorrektur erhöht sich der Gewinn
auf 37% - 46% (500 Hz) bzw. 73% (2000 Hz). Ursache der damals etwas zu hohen
Schätzung des Gewinns ist sehr wahrscheinlich die mit 14 Probanden kleine
Stichprobe, die auf Grund der hohen interindividuellen Variabilität der AMFR
offenbar noch keine sichere Bestimmung des SNR-Gewinns erlaubte. Die neuen
Untersuchungen an einer wesentlich größeren Stichprobe (54-63 Probanden) konnte
für die neuen Reize verlässliche Angaben zur Effizienz nachweisen.
Die zusätzliche Einführung eines Frequenz offsets bei dem 500-Hz-Reiz
(7CW500PC/FO) ermöglicht auch bei 500 Hz den Einsatz eines q-sample Tests für die
Antwortnachweis, was zu einer weiteren Verbesserung der Nachweisrate führt. Die mit
dem neuen 500-Hz-Reiz bei Einsatz eines q-sample Tests erzielte Nachweisrate liegt
auf etwa dem gleichen Niveau wie die Nachweisrate für die ebenfalls verbesserten
Stimuli bei den übrigen Frequenzen. Der Median der Nachweiszeit liegt dagegen bei
500 Hz (42 s) und 4000 Hz (41.5 s) bei ungefähr doppelt so langen Zeiten wie bei
1000 Hz (21 s) und 2000 Hz (28 s).
86
Wie die in Abb. 24 für alle 4 Frequenzen zusammengefasste Verteilung der
individuellen Nachweiszeit zeigt, wird aber der größte Teil der registrierten Antworten
(ca. 80%) innerhalb von 100 s nachgewiesen. Das lange auslaufende Ende der
Verteilung mit 15% aller registrierten, sowie mit 3.7% nicht nachgewiesenen
Antworten kann folgendermaßen erklärt werden:
Die Probanden waren vor Beginn der Untersuchung aufgefordert worden, während der
Untersuchung mit geschlossenen Augen ruhig zu liegen und möglichst zu schlafen.
Wie auch das während der Untersuchung geführte Protokoll offenbart, waren aber
viele Probanden nicht in der Lage zu schlafen. Bei einer Reihe von Probanden war zu
bemerken, dass sie zum Schluss, also vor allem während der letzten Phase der
Untersuchung, unruhig wurden. Für die Registrierung von AMFR sind das keine
günstigen Ableitbedingungen. Je größer die Unruhe ist, um so höher ist der
Rauschanteil im Spektrum der Antwort und um so schwieriger wird der
Antwortnachweis. Bei zu großer Unruhe ist in Schwellennähe ein Antwortnachweis
überhaupt nicht möglich. Für den praktischen Einsatz der AMFR- Schwellenmessung
ist deshalb zu fordern, dass die Kinder möglichst im natürlichen Schlaf oder unter
leichter Sedierung untersucht werden. Im Schlaf ergibt sich infolge der geringeren
Amplitude des Spontan-EEGs ein größeres SNR im Vergleich zum Wachzustand und
damit eine günstigere Bedingung für die Antwortnachweis. Bei Beachtung dieser
Forderung sind mit den neuen Reizen auch in Schwellennähe kurze Zeiten für die
response detection zu erwarten.
Im Falle einer Schwerhörigkeit im Innenohr kann durch das bei einer InnenohrSchwerhörigkeit bestehende Recruitment der Antwortnachweis in Schwellennähe
wesentlich erleichtert werden. Dies stellt einen Vorteil für eine schwellennahe
Ableitung dar.
Ein weiteres Problem ergibt sich bei der Festlegung eines bestimmtes Zeitlimit für die
Registrierung einer Antwort (hier 300 s). Für schwellennahe Messungen kann das hier
gewählte Zeitlimit von 300 s bei einem nicht ausreichend ruhigen Kind zu kurz sein.
Da bei jeder Schwellenbestimmung auch eine unterschwellige Messung notwendig ist,
führt eine noch weiter verlängerte maximale Zeitvorgabe zu einer nicht vertretbaren
Verlängerung der gesamten Untersuchungsdauer. Eine intelligente automatische
Steuerung der maximalen Registrierdauer, z.B. in Abhängigkeit von der Entwicklung
des statistischen Testwertes im Verlauf des sequentiellen Testablaufs, erscheint als
eine günstigere Lösung.
87
Wenn der Testwert im Verlauf der sequentiellen Testung einen stetigen Anstieg zeigt
und nach Ablauf von 300 s z.B. 70% des kritischen Testwertes erreicht hat, sollte die
Registrierung automatisch fortgesetzt werden. Bewegt sich dagegen der Testwert
ständig nur unterhalb von z.B. 50% des kritischen Testwertes, dann muss die
Untersuchung nicht zwingend über eine Länge von 300 s erfolgen, sondern kann nach
z.B. 3 – 4 Minuten mit dem Ergebnis "keine Antwort nachweisbar" abgebrochen
werden. Auf diese Weise kann eine weitere Optimierung des Zeitaufwands für die
objektive Schwellenmessung erreicht werden.
88
6. Zusammenfassung und Fazit
Sprache ist das wichtigste Kommunikationsmittel des Menschen. Um Sprache zu
erwerden, ist ein intaktes Hörvermögen notwendig. Untersuchungen zur Hörfähigkeit
müssen deshalb sehr frühzeitig erfolgen. Weltweit wird an der Einführung und
Umsetzung eines Neugeborenen Hörscreenings (NHS) gearbeitet um der notwendigen
Forderung einer entwicklungsbeeinträchtigenden Hörstörung frühzeitig therapeutisch
begegnen zu können.
Entgegen
der
sonstigen
biologischen
Strategie,
Funktionsabläufe
mehrfach
abzusichern, ist der Erwerb der Sprachfähigkeit ausschließlich auf das volle
Funktionieren der Fähigkeit, hören zu können, angewiesen. Ist diese insuffizient oder
fällt sie ganz aus, kann sich Sprache nur unvollkommen oder überhaupt nicht
entwickeln. Eine frühkindliche Schwerhörigkeit muss spätestens mit dem sechsten
Lebensmonat
behandelt
Sprachentwicklungsstörung
werden,
und
da
sonst
konsekutiv
eine
eine
lebenslängliche
Beeinträchtigung
kognitiver
Fähigkeiten drohen. Wird eine frühkindliche Schwerhörigkeit zu spät erkannt, so kann
die verspätete Therapie die bereits eingetretene Sprachentwicklungsstörung nicht mehr
vollständig kompensieren. Die Folge ist eine lebenslange Benachteiligung des Kindes
im sozialem Leben, in Schule und im Beruf [124].
Statistiken haben aufgezeigt, dass in Deutschland die Diagnostik einer hochgradigen
frühkindlichen Schwerhörigkeit im Schnitt im Alter von 19,5 Monaten beginnt und
weitere 6 Monate bis zur Diagnosesicherung notwendig sind [25],[29]. Diese Situation
ist nicht länger akzeptabel, so dass die Forderung für ein NHS besteht. Unabhängig
davon sollten alle Ärzte, die Säuglinge und Kleinkinder betreuen, an das Vorliegen
kindlicher Hörstörungen denken, ihre Auswirkungen insbesondere in Bezug zur
Sprachentwicklung
kennen
und
über
die
Möglichkeiten
einer
frühen
Diagnosesicherung informiert sein.
Neben dieser wichtigen Information müssen auch Gesundheitspolitiker und
Krankenkassen in die Umsetzung einer solchen Vorsorgeuntersuchung mit der Klärung
der Kostenübernahme eingebunden werden.
Mit dem Einsatz objektiver Hördiagnostik gibt es Untersuchungsverfahren die sich für
ein flächendeckendes Neugeborenen- Hörscreening eignen [7],[8]. Bislang gibt es
jedoch noch keinen bundeseinheitlichen Weg für die Durchführung eines
flächendeckendes NHS. Die Frage der Untersuchungsmethode ist noch nicht
einheitlich geklärt.
89
Es existieren zwei unterschiedliche objektive Hörprüfverfahren, einerseits die Messung
otoakustischer Emission (OAE) und die Ermittlung frühen auditorisch evozierten
Potentiale mittels BERA- Verfahren. Beide Verfahren haben jeweils
Vor- und
Nachteile.
Da jedoch durch die OAE eine Beteiligung des Hörnerv, die Lokalisation der
Schwerhörigkeit (Mittelohr oder sensineural) und das Ausmaß des Hörverlustes nicht
bestimmt werden kann, spricht vieles für die Verwendung der BERA- Verfahren als
geeignete Untersuchungsmethode.
Doch auch hierfür gibt es noch viele Verbesserungswünsche, damit die BERA als
Standartmethode im Einsatz beim Neugeborenen-Hörscreening genutzt zu werden.
Weltweit wird daran geforscht für die noch bestehenden Probleme Lösungen zu
finden.
Dazu müssen BERA-Geräte weiterentwickelt werden, die eine sichere, schnellere und
möglichst schwellennahe Hörprüfung ermöglichen. Um dieses Ziel zu erreichen ist die
Testung neuer akustischer Reiz erforderlich.
Die bisher verwendeten Reize, wie der Click oder Chirp, ließen keine Aussagen über
frequenzspezifische Hörtonverluste zu, da sie einen breiten Frequenzbereich in der
Cochlea anregen.
Auch die in dieser Arbeit vorgelegten Ergebnisse beschäftigen sich mit dieser
Thematik. Über die Registrierung der AMFR bietet sich die Möglichkeit mit Hilfe der
hier vorgestellten neuartig konzipierten Reizimpulse und auch durch neue
Nachweismethoden eine höhere Erkennungsrate (detection rate) und eine kürzere
mittlere Erkennungszeit (mean detection time) zu erreichen. Damit konnte ein neuer
Ansatz für die objektive Hördiagnostik bereitet werden.
Die bei dieser Untersuchung gefundenen Resultate, können als Meilenstein in der
objektiven Hördiagnostik und damit auf diesem wissenschaftlichen Feld gewertet
werden.
Es konnte eine signifikante Verbesserung in der Erkennungsrate bei den bisher so
schwierig nachweisbaren Potentialen im Tieftonbereich um 500 Hz erreicht worden.
Weiterhin ließ sich
mit den angewandten neuen phasenkorrigierten Reizen die
Messzeit signifikant verkürzen.
90
Wir konnten nachweisen, das die neuen Reize effizienter als die bisher üblichen ClickReize sind.
Die Untersuchung hat sich als sehr praktikabel
herausgestellt und
ermöglicht in der zukünftigen Anwendung eine hörschwellennahe Messung in sehr
kurzer Untersuchungszeit.
Damit wurden die vorangegangen theoretischen Überlegungen bestätigt, mit denen
sich nun weitere Verbesserungen in der Anwendung eröffnen und die Gegenstand
weiterfolgender Arbeiten sein werden.
Mit dieser, durch uns erprobten und nun frequenzspezifischen und hörschwellennahen
Registrierung von Auditory Steady-State Responses (ASSR) vergrößert sich die
Hoffnung für ein sicheres und schnelles Verfahren in der Anwendung im
Neugeborenen-Hörscreening.
Dieses Ergebnis trägt weiterhin dazu bei unnötige Folgeuntersuchungen zu vermeiden
und hilft dadurch Untersuchungskosten einzusparen und wendet eine unnötige
Beunruhigung der Eltern ab, da eine sichere Ergebnisbewertung vorliegt.
91
7. Tabellen
Tabelle 1
Für die 3 neuen Stimuli wurde der Unterschied der Ergebnisse im Vergleich zu
AM500 auf Signifikanz geprüft. Die entsprechenden Wahrscheinlichkeiten (p-Werte)
sind ebenfalls angegeben.
Detection rate, Median of the detection time and noise-corrected SNR (SD) of the first
harmonic for the responses to the usual 500-Hz-AMFR stimulus (AM500) and three
new stimuli.n is the number of probands.
N
Stimulus
62
62
54
AM500
7CW500
7CW500PC
7CW500PC/FO
SNR (SD)
statistical
Detection
Time (s)
First
Test
Rate (%)
(Median)
Harmonic
74.2
119.5
2.57 (2.5)
one-sample
77.4
71.5
3.22 (2.9)
Test
ns
ns
p=0.036
one-sample
85.5
61.5
3.77 (3.5)
Test
p=0.047
p=0.013
p=0.0053
q-sample
94.4
42
3.54 (3.3)
Test
p=0.013
0.0006
p=0.048
one-sample
62
Detection
Test
92
Tabelle 2
Für die 3 neuen 2000-Hz-Stimuli wurde der Unterschied der Ergebnisse im Vergleich
zu AM2000 auf Signifikanz geprüft, ebenso 11CW4000PC gegen 7CW4000. Die
entsprechenden Wahrscheinlichkeiten (p-Werte, ns = nicht significant) sind ebenfalls
angegeben.
Detection rate, Median of the detection time and noise-corrected SNR (SD) of the first
harmonic for the responses auf 2 neue 1000-Hz-Reize, 2 neue 2000-Hz-Reize, 3 neue
4000-Hz-Reize sowie für den üblichen 2000-Hz-Reiz (AM2000). n is the number of
probands.
N
Stimulus
7CW1000
Detection
SNR (SD)
Detection
Time (s)
First
Rate (%)
Median
Harmonic
95.2
21.0
4.42 (3.7)
96.8
21.0
4.34 (3.8)
86.0
85.0
2.43 (1.8)
93.0
42.0
3.50 (2.5)
ns
p=0.003
p=0.0031
98.2
28.0
4.21 (2.4)
p=0.011
p=0.00002
p=0.00047
95.0
59.0
2.43 (1.8)
95.0
57.5
2.74 (2.1)
96.7
41.5
2.89 (2.3)
ns
p=0.017
p=0,038
63
7CW1000PC
AM2000
57
7CW2000
7CW2000PC
7CW4000
60
7CW4000PC
11CW4000PC
93
8. Abbildungsverzeichnis
Abb. 1:
Auditorische Peripherie des Menschen, nach Dallos [15]
Abb. 2:
Schematische Darstellung der Ossikelbewegung, bei der Übertragung
vom Mittelohr zum Innenohr [94]
Abb. 3:
Darstellung der Cochlea und mit Längsschnitt, in
http://www.sissa.it/multidisc/cochlea/cochlea.html
Abb. 4:
Schematische Darstellung der Cochlea in gestreckter Form. Auf der
Basilarmembran ist die Ausbreitung einer Wanderwelle dargestellt [11]
und http://www.vimm.it/cochlea/
Abb. 5:
Frequenz- Orts- Transformation auf der Basilarmembran; apikal tiefe
Frequenzen, basal, hohe Frequenzen, in http://www.vimm.it/cochlea/
Abb. 6:
Schematische Darstellung des Corti-Organs mit inneren & äußeren
Haarzellen, in http://www.vimm.it/cochlea/
Abb. 7:
schematische Darstellung des Transduktionsmechanismus aus Klinke
Physiologie [94]
Abb. 8:
schematische Aufbau des Menschliche Gehörs und Darstellung der
aufsteigenden Hörbahn im Bereich des Hirnstamms ( nach
Nieuwenhuys et al. 1988) [70]
Abb. 9:
Blockdiagramm von Reiz- und Registrierapparatur
Abb. 10:
Doppelt-logarithmische Darstellung der postsynaptischen akustisch
evozierten Potentiale
Abb. 11:
Verlauf der Hörbahn, Kennzeichnung der Orte der Potentialgenerierung
der FAEP durch römische Ziffern nach Jewett [66]
Abb. 12:
Amplitudenmoduliertes Signal mit den beiden sogenannten
Einhüllenden [120]
Abb. 13:
schematische Darstellung der AMFR nach Pethe et al. [73]
Abb. 14:
Darstellung eines reinen Sinuston und als Gauß-Burst modifiziert [20]
Abb. 15:
Darstellung von Reintönen mit Amplitudenmodulation (15a) und
zusätzlicher Frequenzmodulation (15b) nach Picton [80]
Abb. 16:
schematische Darstellung eines Click-Reizes [20}
Abb. 17:
Zeitverlauf und Frequenzspektrum eines Clickreizes [20]
Abb. 18:
Darstellung eines Chirp-Reizes [20]
94
Abb. 19:
Oben: Schematische Darstellung des für die Messungen verwendeten
Clickreizes (links) und des Chirpreizes (rechts). Mitte: Interne neuronale
Repräsentation der beiden Signale nach der Verarbeitung in der
Cochlea. Der Chirp (rechts) bewirkt eine im Vergleich zum Click (links)
höhere Synchronisation der Aktivität über große Bereiche der Cochlea
hinweg. Unten: Zugehörige akustisch evozierte Potenziale für Click und
Chirp für verschiedene Eingangspegel. Der Chirp bewirkt eine höhere
Amplitude der Welle V als der Click. [17]
Abb.20:
Zeitfunktion (oben) und Frequenzspektrum (unten) einer
a) Amplitudenmodulation im Vergleich zu den Mehrfachträgerreizen
(MC- Stimuli): b) AM2MF2, c) AM3MF1, d) AM3MF2 [108]
Abb. 21
Darstellung von Zeitfunktion und Frequenzspektrum der neuen 500-Hz
Reize
a) 7 summierte cos-Wellen
b) erste und siebente cos-Welle haben nur die halbe Amplitude der
übrigen 5 Wellen(7CW500).
c) 7 summierte cos-Wellen gemäß b), aber mit Laufzeitkorrektur
(7CW500PC)
d) 7 summierte cos-Wellen gemäß c) mit zusätzlichem Frequenzoffset
(7CW500PC/FO)
Die Pfeile geben die Lage der ersten 6 Harmonischen der Antwort an.
95
Abb. 21a-d:
96
Abb. 22:
Cochlea delay nach de Boer (1980)
Dargestellt ist, bezogen auf 100 Hz, die für die höheren Frequenzen
einzuführende Zeitverzögerung.
Abb. 22:
Abb. 23:
Mittleres rauschkorrigiertes SNR
a) für die ersten 4 Harmonischen der 500-Hz-Reize AM500 und
7CW500PC/FO
b) für die ersten 6 Harmonischen der 2000-Hz-Reize AM2000 und
7CW2000PC
Abb. 23a:
97
Abb. 23b:
Abb. 24:
Häufigkeitsverteilung (frequency distribution) der für die 4 Stimuli
7CW500PC/FO, 7CW1000PC, 7CW2000PC und 11CW4000PC
zusammengefassten individuellen detection times. Die Klassenbreite ist
10 s.
Abb. 24:
98
Abb.25 a+b: Fotoaufnahme
des
Untersuchungsraumes
und
der
eingebauten
Hörkabine
Abb.26:
Programmoberfläche hier: positive Reiz-Antwort (im Pass) und
fortlaufende Registrierung bis 153 sec, bei negativer Antwort
Registrierung max 300 sec [8]
99
9. Literatur
[1]
Ashmor, J.F.: A fast motile response in guinea pig outer haircells: the cellular
basic of cochlear amplification, J. Physiol., 388, pp. 323-347, 1987.
[2]
Bebout, J.M.: Pediatric hearing aid fitting: A practical overview. Hear J 42,
pp.13-15, 1989
[3]
Bechterew, W.: Über die innere Abteilung des Strichkörpers und des achten
Hirnnerven. Neurol Centralblatt 3, p. 145, 1885
[4]
Beck, C.: Anatomie und Histopathologie des Ohres. In: Berendes, J., Link, R.,
Zöllner, F. (Hrsg.): Hals-Nasen-Kunde in Praxis und Klinik, Band 5, Ohr I, 2.
Auflage, 2.1- 2.60, Georg Thieme Verlag, Stuttgart 1979
[5]
Békésy, G. von: Zur Theorie des Hörens: Die Schwingungsform der
Basilarmembran. Physikalische Zeitung 29, pp.29-38, 1928.
[6]
Berendes, J., Link, R., Zöllner, F.: Hals- Nasen- Ohrenheilkunde in Praxis und
Klinik. Stuttgart- Thieme 2. Auflage, 1979
[7]
Berger, R., Müller, J., Stürzebecher, E., Cebulla, M.: Einsatz des objektiven
BERA-Verfahrens (MB11) beim Neugeborenen Hörscreening in Marburg In:
Aktuelle phoniatrisch-pädaudiologische Aspekte Bd.12 Medicombooks,
2004/2005
[8]
Berger, R., Shehata-Dieler, W.E., Keim, R., Müller, J., Schwarz, S.: Universal
hearing screening in Newborn using the the BERAphon and steady state
potentials, In: The international conference on newborn hearing screening
diagnosis and intervention NHS Book of abstracts, 2004
[9]
Biesalski, P.: Der Mainzer Kindersprachtest., HNO 22, pp. 160-161, 1974
[10]
Biesalski, P., Frank, F., Spreng, M.: Phoniatrie und Pädaudiologie. Band 2, 2.
Aufl. Thieme, Stuttgart, 1994
[11]
Boenninghaus, H-G., Lenarz, T.: HNO, 12. Aufl. Springer Verlag Berlin
Heidelberg, pp. 40-45, 2004
[12]
Buettner, U.W.: Akustisch evozierte Potentiale, In: Stöhr, M., Dichgans, J.,
Altenmüller, E., Evozierte Potentiale., 3. Aufl. Springer-Verlag Berlin,
Heidelberg, pp. 411-414, 1996
[13]
Cebulla, M., Stürzebecher, E., Elberling, C.: Objective detection of auditory
steady-state responses: comparison of one-sample and q-sample tests.
International Conference on Newborn Hearing Screening, Diagnosis and
Intervention. May 27-29, Cernobbio (Como) Italy, 2004
100
[14]
Cohen, L.T., Rickards, F.W., Clark, G.M.: A comparison of steady-state
evoked potentials to modulated tones in awake and sleeping subjects., J Acoust
Soc Am, 90, pp. 2467-2479, 1991
[15]
Dallos, P., Popper, A. N., Fay, R. R. : The Cochlea (Springer handbook of
auditory research). Vol. 8, Springer-Verlag New York, 1996
[16]
Dau, T., Wegner, O., Mellert, V., Kollmeier, B.: Auditory brainstem responses
with optimized chirp signals compensating basilar-membrane dispersion., J
Acoust Soc Am, 107, pp. 1530-1540, 2000
[17]
Dau T.: Neuronale Mechanismen beim Hören, Carl von Ossietzky Universität
Oldenburg, Einblicke Nr. 33 / Juni 2001
[18]
de Boer, E. : Auditory physics. Physical principles in hearing theory I. Phys
Rep, 62, pp. 87-174, 1980
[19]
Deetjen, P., Speckmann, E.-J.: Physiologie Urban & Schwarzenberg, MünchenWien-Baltimore, 1992
[20]
Diller, G.: Objektive Audiometrie, aus Vorlesung Medizinische Akustik, 2005
[21]
Dimitrijevic, A., John, M.S., Van Roon, P., Purcell, D.W., Adamonis, J.,
Ostroff, J., Nedzelski, J.M., Picton, T.W.: Estimating the audiogram using
multiple auditory steady-state responses. J Am Acad Audiol 13, pp. 205-224,
2002
[22]
Eggermont, J.J.: Development of auditory evoked potentials., Acta-Otolaryngo.
Stockh. 112(2), pp. 197-200, 1992
[23]
Elliott, L.L., Armbruster, V.B.: Some possible effects of delay of early
treatment of deafness in infancy and early childhood., J Speech Hear Res 10,
pp. 209-224, 1967
[24]
Esser, G.: Praktische Durchführung der Früherkennung und Therapie, In: Plath,
P. (Hrsg), Koordination und Rationalisierung bei der Früherkennung und
Therapie von Hörstörungen bei Kindern in den ersten Lebensjahren Schriftreihe
der Geers Stifftung, Band 3. Median Verlag Heidelberg, pp. 47-58, 1982
[25]
Finckh-Kramer, U., Spormann-Lagodzinski, M.E., Nubel, K., Hess, M., Gross,
M.: Wird die Diagnose bei perstierenden kindlichen Hörstörungen immer noch
zu spät gestellt? HNO 46 (6) pp. 598-602, 1998
[26]
Firszt, J.B., Gaggl, W., Runge-Samuelson, C.L., Burg, L.S., Wackym A.:
Auditory sensitivity in children using the auditory steady-state response. Arch
Otolaryngol Head Neck Surg, 130, pp. 536-540, 2004
[27]
Greenwood, D.D.: A cochlear frequency position function for several species –
29 years later., J Acoust Soc Am, 87, pp. 2592-2605, 1990
101
[28]
Gross, M.: Methoden der Kinderaudiometrie. In: Heinemann, M. (Hrsg.),
Subjektive Audiometrie bei Kindern und akustisch evozierte Potentiale, 1.
Auflage, pp. 1-31, R. Gross Verlag, Bingen, 1990.
[29]
Gross, M., Finckh-Kramer, U., Spormann-Logodznski, M.: Angeborene
Erkrankung des Hörvermögens bei Kindern Teil 1, Erworbene Hörstörungen
HNO 48 (12), pp. 879-886, 2000
[30]
Hartmann, H., Hartmann, K.: „Früh“erkennung Memorandum zur
Frührerkennung und Frühförderung hörgeschädigter Kinder Hrsg.
Bundesgemeinschaft der Eltern und Freunde schwerhöriger Kinder e.V.
Hamburg, 1993
[31]
Heid, S., Hartmann, R., Klinke, R.: A model for prelingual deafness, the
congenitally deaf white cat-population statistics and degenerative changes.,
Hear Res 115, pp. 101-111, 1998
[32]
Heinemann, M.: Subjektive Audiometrie bei Kindern und akustisch evozierte
Potentiale 1. Auflage, pp. 32-40, R. Gross Verlag, Bingen, 1990
[33]
Hellbrügge, T.: Frühdiagnostik von Hörstörungen als kinderärztliche Aufgabe.
Sozialpädiatrie, Kinder- und Jugendheilkunde, 3, pp. 116-117, 1997
[34]
Helmholtz, H.: Die Lehre von den Tonempfindungen als physiologische
Grundlage für die Theorie der Musik. Vieweg & Sohn, Braunschweig, 1911
[35]
Henke, K.D., Huber, M.: Neonatales Hörscreening-Gesundheitspolitische
Konsequenzen. In: Gortner L, Dudenhausen JW (Hrsg.): Hören und
Entwicklung: Risikoerkennung beim Neugeborenen. Ein Leitfaden der Stiftung
für das behinderte Kind zur Förderung von Vorsorge und Früherkennung.
Medizinische
Verlagsgesellschaft
Umwelt
und
Medizin
m.b.H.,
Frankfurt/Main, pp.1-29, 1998
[36]
Hildmann, A.: Hörscreening für Neugeborene, Hören und Heute Periodikum
zur Audiologie in Forschung und Praxis Nr 1. pp. 11-14, 2002
[37]
Holm, C.: Audiometrie bei Kindern, In: Hals- Nasen- Ohrenheilkunde in Praxis
und Klinik, Hrsg.: Berendes, Link, Zöllner, Band 5, Ohr I Thieme Verlag, 1979
[38]
Huizing, H. C.: Assessment and evaluation of hearing anomalies in young
children. Proc. Int. Course Paedo. Audiol. Groningen University, 1953
[39]
Jakobi, H.: Erfahrungen mit der Kinderaudiometrie. Arch. Ohr- Nas.- Kehlk.Heikl. 169: p. 383, 1956
[40]
Janssen, Th.: Otoakustische Emissionen (OAE). In: Lehnhardt, E. unter
Mitarbeit von Janssen, Th. und Kießling, J.: Praxis der Audiometrie. 7. Aufl.,
Georg Thieme Verlag, Stuttgart, pp. 83-88, 92-99, 1996
[41]
Janssen, Th.: Schwellennahe und überschwellige Schallverarbeitung des
Innenohres, Zeitschrift für Audiologie, Nr.4, pp. 100-117, 2000
102
[42]
John, M.S., Picton, T.W.: MASTER: a Windows program for record multiple
auditory steay-state responses. Computer Methods and Programs in
Biomedicine,61, pp.125-150, 2000
[43]
John, M.S., Dimitrijevic, A., Picton, T.W.: Auditory steady state responses to
exponential modulation envelopes. Ear Hear 23: pp. 106–117, 2002
[44]
John, M.S., Dimitrijevic, A., Picton, T.W.: Efficient stimuli for evoking
auditory steady-state responses. Ear Hear 24, pp. 406–423, 2003
[45]
Johnstone, B.M., Patuzzi, R., Yates, G.K.: Basilar membrane measurements
and the travelling wave. Hear. Res., 22, pp.147–153, 1986
[46]
Keidel, W.D., Kallert, S.: Physiologie des afferenten akustischen Systems In:
Berendes, J., Link, R.,. Zöllner, F: Hals-Nasen-Kunde in Praxis und Klinik,
Band 5, Ohr I, 2. Auflage, S. 8.1-8.133 Georg Thieme Verlag, Stuttgart 1979
[47]
Kim, O.: Activ and non-linear biomechanics and the role of outer haircell
subsystem, Hear. Res. 22, pp 105-114, 1986.
[48]
Kittel, G.: Phoniatrie und Pädaudiologie, Deutscher Ärzte-Verlag Köln, 1989
[49]
Klinke, R., Hartmann, R., Heid, S., Kral, A.: Wider eine Welt ohne Worte,
Frankfurt Forschung 2, pp. 16-27, 1997
[50]
Klinke, R., Kral, A., Hartmann, R.: Sprachbahnung über elektronische Ohren
so früh wie möglich. Deutsches Ärzteblatt 46, pp. 3049-3053, 2001
[51]
Klinke, R., Pape, H.-C., Silbernagl S.: Physiologie, 5. Aufl., Georg Thieme
Verlag, 2005
[52]
Langmann, J.: Medizinische Embryologie. 8. Aufl., Georg Thieme Verlag,
Stuttgart, 1989
[53]
Lehnhardt, E.: Der Hörsturz- eine Form der akuten Schwerhörigkeit, Fortschr.
Med. 112, Jg. Nr.27, pp. 367-371, 1994
[54]
Lehnhardt, E.: Praxis der Audiometrie. 7.Aufl., Thieme, Stuttgart, 1996
[55]
Lenarz, T.: Die Bedeutung eines universellen Neugeborenen-Hörscreenings.
HörBericht 63., pp. 1-8, 1997
[56]
Lippert, K.L.: Frühe AEP mit Click- Schallreizen. Subjektive Audiometrie und
akustisch evozierte Potentiale. R. Groß, Bingen, 1990
[57]
Lustig, R., Leake, P.A., Snyder, R.L., Rebsher, S.J.: Changes in the cat cochlea
nucleulus following neonatal deafening and chronic intracochlear electrical
stimulation. Hear Res 74. pp. 29-37, 1994
103
[58]
Luts, H., Desloovere, C., Kumar, A., Vandermeersch, E., Wouters, J.: Int J
Pediatric Otorhinolaryngol, 68, pp. 915-926, 2004
[59]
Lütkenhöner, B., Kauffmann, G., Pantev, C., Ross, B.: Verbesserung der
Synchronisation
auditorisch
evozierter
Hirnstammpotentiale
durch
Verwendung eines die cochleären Laufzeitunterschiede kompensierenden
Stimulus. Arch Otolaryngol, Suppl. II, pp. 157-159, 1990
[60]
Mardia, K.V.: Statistics of directional data. London and New York: Academic
Press., 1972
[61]
Marty, R.: Development post-natal des response sensorielles du cortex cerebral
chez le Chat et le Lapin., Arch Anat Microsc Morphol Exp 51, pp. 129-264,
1962
[62]
Marty, R.: Maturation post-natale du systeme auditif. In: Minkowski (ed.)
Regional Development of the Brain in Early Life. pp. 327-350, Blackwell,
Oxford 1967
[63]
Matschke, R.G., Plath, P.: Zur Früherkennung von Hörstörungen. HNO, 33: pp.
40-44, 1985
[64]
Matschke, R.G.: Untersuchung zur Reifung der menschlichen Hörbahn.
Thieme, Stuttgart, 1993
[65]
Mauer, G.: Messungen und Modellbildung zur Untersuchung der amplitude
modulation following response., Aachen, TH, Fak. f. Elektrotechnik und
Informationstechnik, Diss. 2000
[66]
Maurer, K., Leitner, H., Schäfer, E.: Akustisch evozierte Potentiale (AEP).
Methode und klinische Anwendung. Enke, Stuttgart, 1982
[67]
Meusel, K.: Hirnstammaudiometrie bei reifen Neugeborenen mit und ohne
Hyperbilirubinämie, Halle, Univ., Med. Fak., Diss., 2003
[68]
Moore, B.R.: A modification of the Rayleigh test for vector data. Biometrika,
67, pp. 175-180. 1980
[69]
Mühler, R., Ziese, M.: Registrierung von Auditory Steady-State Response
(ASSR) mit Laborsystemen, Z Audiol.; 44 (1) pp. 20–30, 2005
[70]
Nieuwenhuys, R., Voogd, J., van Huijzen, C.: The Human Central Nervous
System, 3rd Ed. Springer-Verlag, New York, 1988
[71]
Northern, J., Downs, M.: Hearing in Children. The Williams & Wilkins
Company, Baltimore, Maryland 1991
[72]
Perez-Abalo, M.C., Savio, G., Torres, A., Martin, V., Rodriguez, E., Galán, L.:
Steady-state responses to multiple Amplitude-modulated tones: An optimized
method to test frequency-specific thresholds in hearing-impaired children and
normal-hearing subjects. Ear & Hearing, 22, pp. 200-211, 2001
104
[73]
Pethe, J., Begall, K., Mühler, R., Lottmann, J.K.: Amplitude Modulation
Following Response (AMFR) - Eine Methode zur objektiven
frequenzspezifischen audiologischen Diagnostik. Laryngo-Rhino-Otol. 75, pp.
23-28, 1996
[74]
Pethe, J., Muhler, R., von Specht, H.: Amplitude modulation following
responses in audiological diagnostics. HNO; 50, pp. 1045-1052, 2002
[75]
Pethe, J.,: Amplitude Modulation Following Responses (AMFR) - ein neuer
Weg zur objektiven Bestimmung der Hörschwelle, HörBericht 72, 2003
[76]
Picton, T.W., Ouellette, J., Hamel, G., Durieux-Smith, A.: Brainstem-evoked
potentials to tonepips in notched noise. J Otolaryngol; 8, pp. 289-314, 1979
[77]
Picton, T.W., Durieux-Smith, A., Moran, L.M.: Recording auditory brainstem
responses from infants. Int. J Pediatr Otorhinolaryngol, 28, pp. 93-110, 1994
[78]
Picton, T.W., John, M.S., Dimitrijevic, A., Purcell, D.: Human auditory steadystate responses. Int J Audiol 42, pp. 177-219, 2003
[80]
Picton, T.W., John, M.S., Dimitrijevic, A. Purcell, D.: Multiple Auditory
Steady State Response (MASTER), Research Website, Frequency specific
audiometry using auditory steady-state responses including articles, tutorials,
signal processing software, 2006
[81]
Plath, P.: Das Hörorgan und seine Funktion - Einführung in die Audiometrie. 5.
Aufl., Edition Marhold im Wissenschaftsverlag V. Spiess, 1992
[82]
Plath, P.: Zentrale Hör und Wahrnehmungsstörungen, HNO, 1994
[83]
Politzer, G.: Die Entstehung des Ganglion acusticum beim Menschen. Acta
Anat 26: pp. 1-13, 1956
[84]
Probst, R., Grevers, G., Iro, H.: Hals-Nasen-Ohren-Heilkunde. Thieme Verlag,
2000
[85]
Ptok, M., Ptok, A.: Audiometrie im Säuglings- und Kindesalter Teil 4:
Untersuchungen zur auditiven Verarbeitung und Wahrnehmung. HNO aktuell
4, pp. 271-276, 1996
[86]
Rance, G., Dowell, R.C., Rickards, F.W., Beer, D.E., Clark, Graeme, M.:
Steady-State Evoked Potential and Behavioral Hearing Thresholds in a Group
of Children with Absent Click-Evoked Auditory Brain Stem Response. Ear &
Hearing. 19(1), pp. 48-61, 1998
[87]
Rance, G., Rickards, F.: Prediction of hearing threshold in Infants using
auditory steady-state evoked potentials. J Am Acad Audiol, 13, pp. 236-245,
2002
105
[88]
Rhode, W.S.: Observations of the vibrations of the basilar membrane in squirrel
monkeys using the Mössbauer technique. Journ. Acoust. Soc. Am., 49, pp.
1218–1231, 1971
[89]
Romand, R., Sans, A., Romand, M.R., Marty, R.: The Structural Maturation of
the Stato- Acoustic Nerve in the Cat., J Comp Neur 204, pp. 1-16, 1976
[90]
Romand, R.: Development of the Cochlea. In: Romand R (ed.): Development
of Auditory and Vestibular System. Academic Press, New York 1983
[91]
Röpke, E.: Untersuchungen zum Hörvermögen Frühgeborener mittels
transitorisch evozierter otoakustischer Emmissionen. Halle, Univ., Med. Fak.,
Diss., 1998
[92]
Rubel, E.W.: Auditory System Development. In: G. Gottlieb, NA. Krasnegor
(eds.): Measurement of Audition and Vision in the First Year of postnatal Life:
pp. 53-86, Ablex Publishing Corporation, Norwood, New Jersey 1985
[93]
Schiebler, T.H., Schmidt, W., Zilles, K.: Anatomie. 7. Aufl., Springer-Verlag,
1997
[94]
Schmidt, R. F., Thews, G.: Physiologie des Menschen. Springer Verlag, Berlin,
Heidelberg, 1995
[95]
Schmutzinger, N, Hauser, R. Probst, R.: Zur diagnostischen Wertigkeit
otoakustischer Emissionen — Teil 1, HNO 46, pp. 769–776, 1998
[96]
Seifert, E.: Periphere Hörstörungen im Kindesalter, Leitlinien der Deutschen
Gesellschaft für Phoniatrie und Pädaudiologie, , AWMF online, 2005
[97]
Sellick, P.M., Patuzzi, R.B, Johnstone, B.M.: Measurement of basilar
membrane motion in the guinea pig using Mössbauer technique. Journ. Acoust.
Soc. Am., 72, pp.131–141, 1982
[98]
Sellick, P.M.: Hear Res 1980 Zeitschrift Sprache, Stimme und Gehör, p. 59,
2004
[99]
Shimizu, H., Walters, R. J., Kennedy, D. W., Allen, M. C., Markowitz, R. K.,
Luebkert, F. R.: Crib-o-gram vs. auditory brainstem response for infant hearing
screening. Laryngoscope 95: pp. 806-810, 1985
[100] Silbernagel, S., Despopoulos, A.: Taschenatlas der Physiologie.,Georg Thieme
Verlag, Stuttgart, 1991
[101] Sininger, Y.S., Cone-Wesson, B., Folsom, R.C., Gorga, M.P.,Vohr, B.R.,
Widen, J.E., Ekelid, M., Norton, S.J.: Identification of neonatal hearing
impaiment: auditory brain stem respones in the perinatal perio.Ear Hear 21(5)
pp. 383-399, 2000
[102] Sinniger, Y.S.: Identifikation of Auditory neuropathie in Infant and Children
Seminars in Hearing, Volume 23, pp. 3193-3200, 2002
106
[103] Sokol, J., Hyde, M.: Hearing screening. Pediatrics in Review 5, pp. 155-162,
2002
[104] Spoendlin, H.: Innervation densities of the cochlear, Acta Otolaryngol. 73, pp.
235-248, Stockholm, 1972
[105] Stöhr, M.: Physiologie und Pathophysiologie der Impulsleitung. In: Stöhr, M.,
Dichgans, J., Altenmüller, E.: Evozierte Potentiale., 3. Aufl. Springer-Verlag
Berlin, Heidelberg, pp. 1-128, 1996
[106] Stöhr, M., Dichgans, J., Altenmüller, E.: Evozierte Potentiale., 3. Aufl.
Springer-Verlag Berlin, Heidelberg, 1996
[107] Stürzebecher, E.: Method for hearing screening of newborn by means of
steady-state responses evoked with high click rate. Patent Application
01610060.4. at the European Patent Office., 2001
[108] Stürzebecher, E., Cebulla, M., Pschirrer, U.: Efficient stimuli for recording of
the amplitude-modulation following response (AMFR). Audiology, 40, pp. 6368, 2001
[109] Stürzebecher, E., Cebulla, M., Elberling, C.: Automated auditory response
detection – statistical problems with repeated testing. Int J Audiol, 2004
[110] Stürzebecher, E., Cebulla, M., Elberling, C., Berger, T.: New efficient stimuli
for evoking frequency-specific auditory steady-state responses, Journal of the
American Academy of Audiology, 17: pp. 448-461, 2006
[111] Swanepoel, D., Hugo, R., Roode, R.: Auditora steady-state responses for
children with severe to profound hearing loss. Arch Otolaryngol Head Neck
Surg, 130, pp. 531-535, 2004
[112] Valdes, J.L., Perez-Abalo, M.C., Martin, V., Savio, G., Sierra, C., Rodriguez,
E., Lins, O.: Comparison of statistical indicators for the automatic detection of
80 Hz auditory steady state responses. Ear Hear,18, pp. 420-429, 1997
[113] Vartiainnen, E., Karjalainen, S.: Congenital and early-onset bilateral hearing
impairment in children: the delay in detection. Otolaryngol 111, pp. 1018-1021,
1997
[114] Vogler Rodrigues dos Santos, M.: Über den Wert frühkindlicher Hördiagnostik
mit
automatisierten
Verfahren
zur
Mustererkennung
in
der
Hirnstammaudiometrie, Bochum, Univ. Med. Fak., Diss. 2001
[115] Walger, M.: Hörstörung und Hörbahnreifung-Über die Bedeutung der
Früherkennung und Therapie kindlicher Hörstörungen. HörBericht 67, pp. 1-7,
2000
[116] Watkin, P., Baldwin, M., Mc Enery, G.: Neonatal at risk screening and the
identification of deafnes, Arch Dis Child, 66: 1130-1135, 1991
107
[117] Webster, D.B.: Conductive hearing loss effects the growth of the cochlea
nucleoli over an extended period of time. Hear Res 32., pp. 185-182, 1998
[118] Wegner,
O.:
Zusammenhang
zwischen
Psychoakustik
und
Hirnstammpotentialen., Carl von Ossietzky Universität Oldenburg, Fachbereich
Physik, Diplomarbeit, 1997
[119] Wendler, J., Seidner, W., Kittel, G., Eysholdt, U.: Lehrbuch der Phoniatrie und
Pädaudiologie. 3. Aufl. Thieme, Stuttgart, 1996
[120] Wikipedia, die freie Enzyklopädie: Amplitudenmodulation, 2006
[121] Willott, J.F., Bross, L.S., Mcfadden, S.L.: Morphologie of the Cochlea
nucleolus in CBA/j mice with cronic severe sensineural cochlea pathology
induced during adulthood. Hear Res 74, pp. 1-21, 1994
[122] Zechner, G., Altmann, F.: Enwicklung des menschlichen Ohres. In: F.
Zöllner(Hrsg.): Hals-Nasen-Ohrenheilkunde in Praxis und Klinik; Band 5: Ohr
I, Georg Thieme Verlag, Stuttgart, 1979
[123] Zenner, H.P.: Motility of outer haircells as an activ, axtinmediated process,
Acta Otolaryngol., 105, pp. 39-44, Stockholm, 1988
[124] Zenner, H.P.: Frühdiagnostik und Therapie von Hörstörungen beim Säugling
und Kleinkind: 21. Deutsches Ärzteblatt 94,: 19, p. 1279 , 1997
[125] Zwicker, E.: Periphere Verarbeitung akustischer Information Arbeits- und
Ergebnisbericht des SFB 204 der DFG, 1988
Publikation der Ergebnisse dieser Arbeit:
[110] Stürzebecher, E., Cebulla, M., Elberling, C., Berger, T.: New efficient stimuli
for evoking frequency-specific auditory steady-state responses, Journal of the
American Academy of Audiology, 17: pp. 448-461, 2006
108
10. Anhang
1. Aufklärungsblatt zur Studie für Versuchspersonen:
Klinik für Phoniatrie und Pädaudiologie
Direktorin: Frau Prof. Dr. med. R. Berger
Klinikum der Philipps-Universität, Klinik für Phoniatrie und Pädaudiologie, 35033 Marburg
Hausanschrift:
Deutschhausstraße 3, 35037 Marburg
Postanschrift:
35033 Marburg
Telefon:
(06421) 28-66439
Telefax:
(06421) 28-62824
e-mail:
Roswitha.Berger @med.uni-marburg.de
Internet:
www.med.uni-marburg.de/phoniatrie
Aktenzeichen:
Datum:
24.03.2007
Bearbeiter:
Prof. Berger
Aufklärungsblatt zur Studie:
Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch
die Amplitude-Modulation Following Responses (AMFR)
Sehr geehrte Damen und Herren,
Aussagen zum Hörvermögens lassen sich besonders im Säuglings- und Kleinkindalter
nur mit Einsatz objektiver Untersuchungsverfahren ermöglichen.
Als das wichtigste objektive Verfahren gilt die Registrierung von
Hirnstammpotentialen (BERA- „Brainstem Elektric Response Audiometry“), die als
Antwort auf einen akustischen Reiz erfolgen. Die für die diese Untersuchung
benutzten akustischen Reize sind sogenannte Clicks, Reize mit einem
Frequenzspektrum zwischen 1000- 4000 Hz. Die Antworten auf diesen akustischen
Stimulus ermöglichen deshalb lediglich Aussagen zu einem
Hörverlust im
Frequenzbereich zwischen 1000 und 4000 Hz, da die Sinneshaarzellen der
Hörschnecke nur in diesem Bereich und dazu gleichzeitig erregt werden. Wird im
Gegensatz zu den bisher üblichen Click- Reizen eine andere akustische Stimulation
benutzt, dann kann man die Sinneszellen der Hörschnecke frequenzspezifisch reizen.
Dies lässt sich mit amplitudenmodulierten Tönen ermöglichen. Eine periodische
Schwankung solch eines Tones erzeugt eine Antwort, die AMFR (Amplitude
Modulation Following Response), die sich im Frequenzspektrum nachweisen lässt.
Solange der Reiz andauert, ist auch eine periodische Antwort zu registrieren.
Durch den Einsatz dieser neuen akustischen Reize würde es möglich werden, eine
Hörschwelle frequenzspezifisch und objektiv zu bestimmen. Besonders im Säuglingsund Kleinkindalter hat eine solche Testung große Bedeutung.
109
Noch sind die geeigneten amplitudenmodulierten Töne, die einen Nachweis bis an
die Hörschwelle möglich machen, nicht exakt ermittelt worden. Deshalb möchten wir
Sie bitten an der Studie teilzunehmen. Zur Registrierung der Antworten auf die
akustische Reizung ist es nötig Ihnen 3 handelsübliche Klebeelektroden anzulegen.
(Jeweils hinter dem Ohr und eine auf die Stirn, unmittelbar am Haaransatz).Über
Kopfhörer werden Ihnen unterschiedliche Töne übermittelt. Die Lautstärke dieser
Töne liegt bei 40 dB, was einem Flüstern entspricht. Sie sollen dazu entspannt liegen.
Sie können sogar schlafen, da keine aktive Mitarbeit erforderlich ist. Die Untersuchung
wird in einer Hörkabine durchgeführt. Insgesamt rechnen wir mit einer
Untersuchungszeit von 40 min.
Selbstverständlich können Sie ohne Angaben von Gründen die Untersuchung
abbrechen, denn die Teilnahme ist freiwillig. Ihre ermittelten „Hör Antworten“ auf den
akustischen Reiz werden über einen Computer gespeichert und mit einen statistischen
Test bearbeitet. Über die Mittelwertbestimmung lassen sich Aussagen über den
optimalen Reiz finden.
Univ.-Prof. Dr. R. Berger
2. Empfehlungen der Arbeitsgemeinschaft Deutschsprachiger Audiologen und
Neurootologen (ADANO) zur Durchführung der Elektrischen ReaktionsAudiometrie nachlesbar unter: http://www.hno.org/adano/ERA-Empfehlungen.pdf
110
3.
Einverständniserklärung, die von jedem Probanden vor den Untersuchungen
unterschrieben werden musste:
Einverständniserklärung
Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch
die Amplitude-Modulation Following Responses (AMFR)
Ich,
bin über das Wesen, Bedeutung und Tragweite der o g. Studie aufgeklärt worden und
habe die Aufklärung gelesen und verstanden.
Alle Fragen zu dieser Studie wurden von Frau Prof. Berger beantwortet.
Ich hatte genügend Zeit für meine Entscheidung und bin bereit an der o.g. Studie
teilzunehmen.
Mit der Weitergabe bzw. statistischen Bearbeitung der Studienergebnisse bin ich
einverstanden.
Ich weiß, dass ich ohne Angaben von Gründen meine Einwilligung zur Teilnahme
widerrufen kann, ohne dass mir daraus Nachteile erwachsen.
Eine Kopie der Aufklärung habe ich erhalten.
Prof. Dr. Berger
Marburg, am:
111
Probandenunterschrift
11. Lebenslauf
Persönliche Daten
Name, Vorname:
Berger, Thomas
Geburtsdatum:
21 Dezember 1978 in Leipzig
Geburtsort:
Leipzig
Familienstand:
ledig
Konfession:
evangelisch
Eltern:
Dr. med. Hans-Dietrich Berger
Facharzt für Innere Medizin, Rheumatologie
Prof. Dr. med. Roswitha Berger, geb. Wieczorek
Fachärztin für HNO und Phoniatrie/Pädaudiologie
Schulbildung
1985-1991
Clara-Zetkin Oberschule, Leipzig
1991-1993
Thomasgymnasium, Leipzig
1993-1998
Gymnasium Philippinum, Marburg
Zivildienst
08.1998 - 08.1999
Altenpflegeheim Johannisheim, Freiburg i. Br.
Studium
10.1999 - 05.2006
Studium der Humanmedizin an der Universität zu Leipzig
09.2001
Ärztliche Vorprüfung
09.2002
Erster Abschnitt der Ärztliche Prüfung
03.2005
Zweiter Abschnitt der Ärztlichen Prüfung
04.2006
Dritter Abschnitt der Ärztlichen Prüfung
112
Auslandsaufenthalt
09.2002 – 09.2003
Studium an der „Faculdade de Medicina“ in Lissabon, Portugal
im Rahmen des Studentenaustauschprogramm „ERASMUS“
Famulaturen
02.2002 - 03.2002
A.Ö. Bezirkskrankenhaus, Hall in Tirol
Fachbereich Innere Medizin
03.2003 - 04.2003
Hospital Santa Maria, Lissabon
Fachbereich Chirurgie
08.2003 - 09.2003
Hospital Santa Maria, Lissabon
Fachbereich Transplantationschirurgie
08.2004 - 09.2004
Praxis von MR Dr. med. J. Petzold, Leipzig
Facharzt für Allgemeinmedizin
Praktisches Jahr
Innere Medizin
Krankenhaus St. Elisabeth
Lehrkrankenhaus der Universität Leipzig
Chirurgie
IsMett, Istituto Mediterraneo per i Trapianti e Terapie ad Alta
Specializzazione, Palermo, Italien
Lehrkrankenhaus der UPMC, University of Pittsburgh Medical
Center, USA
Neurologie
Ospedale Regionale di Lugano,
Lehrkrankenhaus der Universität Zürich, Schweiz
Dissertation
Thema
„Optimierung
der
akustischen
Reize
für
die
objektive
Hörschwellenbestimmung durch AMFR“
Philipps-Universität Marburg
Klinik
für
Phoniatrie
und
Pädaudiologie
Fachmedizin für Sprach-, Stimm- und kindliche Hörstörungen
Direktorin: Prof. Dr. med. Roswitha Berger
113
12. Verzeichnis der akademischen Lehrer
Meine akademischen Lehrer waren Damen/Herren in Leipzig:
Adam
Poeggel
Angermeyer
Preiß
Arnold
Reuter
Becker
Riha
Bootz
Rodloff
Brähler
Salis-Soglio v.
Dorschner
Sandholzer
Emmrich
Schmidt F.
Froster
Schmidt W.
Gebhardt
Schober
Geyer
Schreinicke
Glander
Schwarz
Hauss
Thiery
Hennig
Uharek
Hinz
Viehweg
Illes
Wagner
Kamprad
Wiedemann
Keller
Wittekind
Kiess
Zimmer
Kleemann
Klötzer
Löffler
Metzner
Nörenberg
Olthoff
114
13. Danksagung
Recht herzlich bedanke ich mich bei Frau Prof. Dr. med. Roswitha Berger von der
Klinik für Phoniatrie und Pädaudiologie
des Fachbereichs Medizin der Philipps-
Universität Marburg für die Überlassung des Themas und die kontinuierliche
wissenschaftliche Anleitung während der notwendigen Messungen, deren Auswertung
und der Entstehung der vorliegenden Arbeit.
Weiterhin danke ich Herrn Prof. E. Stürzebecher, dem ehemaligen Leiter und Herrn
PD M. Cebulla, Mitarbeiter des Bereich für Medizinische Akustik am Medizinischen
Zentrum der HNO-Heilkunde der Johann Wolfgang von Goethe Universität Frankfurt
am Main für die Einarbeitung in das faszinierende Gebiet der objektiven
Hörprüfmethoden mittels BERA, die Bereitstellung der neuen Reize und für die Hilfe
bei der statistischen Auswertung der Ergebnisse dieser Arbeit.
Ebenso möchte ich mich bei allen Mitarbeitern der Klinik für Phoniatrie und
Pädaudiologie
des Fachbereichs Medizin der Philipps-Universität Marburg, im
Besonderen bei Herrn Dipl.- Ing. J. Müller, Herrn S. Schwarz und Frau R. Wandel
bedanken, die mir jederzeit mit ihren Ratschlägen und ihrem Engagement konstruktiv
und tatkräftig zur Seite standen.
Auch meiner Familie möchte ich danken, die mir überhaupt erst mein Studium
ermöglicht hat und stetiger Antrieb für die Erstellung dieser Arbeit war.
Zuletzt genannt, jedoch genauso herzlich, bedanke ich mich bei allen Probanden,
darunter alte und neu gewonnene Freunde, ohne deren Mithilfe kein erfolgreiches
Arbeiten möglich gewesen wäre.
115
14. Ehrenwörtliche Erklärung
Ehrenwörtliche Erklärung
Ich erkläre ehrenwörtlich, dass ich die dem Fachbereich Medizin der PhilippsUniversität in Marburg/Lahn zur Promotionsprüfung eingereichte Arbeit mit dem
Titel:
„Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung
durch AMFR“
in der Klinik für Phoniatrie und Pädaudiologie, Fachmedizin für Sprach-, Stimm- und
kindliche Hörstörungen unter Betreuung und Anleitung von Direktorin Frau Prof. Dr.
med. Roswitha Berger ohne sonstige Hilfe selbst durchgeführt und bei der Abfassung
keine anderen als die in der Arbeit aufgeführten Hilfsmittel benutzt habe. Ich habe
bisher an keinem anderen in- oder ausländischen Medizinischen Fachbereich ein
Gesuch um Zulassung zur Promotion eingereicht, noch die vorliegende oder eine
andere Arbeit als Dissertation vorgelegt.
Vorliegende Arbeit wurde in folgenden Publikationsorganen veröffentlicht:
Stürzebecher, E., Cebulla, M., Elberling, C., Berger, T.: New efficient stimuli for
evoking frequency-specific auditory steady-state responses, Journal of the American
Academy of Audiology, 17: pp. 448-461, 2006
Marburg, den
116
Herunterladen