Aus dem Med. Zentrum für Hals-Nasen Ohrenheilkunde Klinik für Phoniatrie und Pädaudiologie Geschäftsführender Direktor: Prof. Dr. med. J. A. Werner Direktorin: Frau Prof. Dr. med. Roswitha Berger des Fachbereichs Medizin der Philipps-Universität Marburg in Zusammenarbeit mit dem Universitätsklinikum Gießen und Marburg GmbH, Standort Marburg „Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch AMFR“ Inaugural-Dissertation zur Erlangung des Doktorgrades der gesamten Humanmedizin dem Fachbereich Medizin der Philipps-Universität Marburg vorgelegt von Thomas Berger aus Leipzig Marburg, 2007 Angenommen vom Fachbereich Medizin der Philipps-Universität Marburg am: 29. März 2007 Gedruckt mit Genehmigung des Fachbereichs Dekan: Prof. Dr. med. B. Maisch Referent: Prof. Dr. med. R. Berger Korreferent: Prof. Dr. med. J. Röper 2. Korreferent: Prof. Dr. med. N. Sommer 1 Meiner Familie 2 Inhaltsangabe 1.Einleitung ................................................................................................. 8 1.1 allgemeine Problemstellung............................................................... 9 1.2 Hörprüfmethoden............................................................................. 11 1.2.1 subjektive Hörprüfmethoden..................................................... 12 1.2.2 objektive Hörprüfmethoden ...................................................... 16 1.3 Bedeutung der objektiven Hörprüfung ............................................ 19 1.4 Zielsetzung....................................................................................... 20 2. Literaturübersicht zur Thematik............................................................ 21 2.1 Grundlagen der Hörphysiologie ...................................................... 21 2.1.1 Schallaufnahme ......................................................................... 22 2.1.2 Schallübertragung und Weiterleitung ....................................... 22 2.1.3 Schallverarbeitung..................................................................... 24 2.1.3.1 Das Corti – Organ und der Transduktionsprozess ................ 27 2.1.3.2 Weiterentwicklung des Cochlea Modells............................... 31 2.1.3 Zentrale Hörverarbeitung .......................................................... 33 2.2.Schwerhörigkeiten ........................................................................... 36 2.2.1 Schallleitungsschwerhörigkeiten............................................... 36 2.2.2 Schallempfindungsschwerhörigkeiten ...................................... 37 2.2.2.1 Innenohrschwerhörigkeit........................................................ 37 2.2.2.2 Zentrale Hörstörung ............................................................... 38 2.3 Hörbahnreifung Myelisierung ......................................................... 39 2.3.1 Entwicklung des peripheren Hörorgans .................................... 39 2.3.2 Entwicklung der zentralen Hörbahn.......................................... 40 2.3.3 Hörbahnreifung und seine Auswirkungen ................................ 42 3 2.4 Grundlagen der akustisch evozierten Potentiale.............................. 44 2.4.1 Allgemein .................................................................................. 44 2.4.2 Geschichtlicher Rückblick ........................................................ 45 2.4.3 Anatomische-physiologische Grundlage .................................. 46 2.4.4 Klassifikation............................................................................. 47 2.4.5 generelle Untersuchungstechnik und Durchführung................. 49 2.5 Hirnstammaudiometrie (BERA, ABR)............................................ 52 2.6 Akustische Reizung mittels AMFR – ASSR................................... 55 2.7 Reizformen für die Ableitung AEP ................................................. 59 2.7.1 Tonimpulse................................................................................ 59 2.7.2 Click-Reize ................................................................................ 60 2.7.3 Chirp-Reize ............................................................................... 62 2.7.4 Neue Reize ................................................................................ 64 3. Material & Methodik............................................................................. 66 3.1 Beschreibung der neuen Stimuli...................................................... 66 3.2 Versuchspersonen ............................................................................ 72 3.3 Messvorbereitung und Messdurchführung ...................................... 74 3.4 Auswertung...................................................................................... 76 3.5 Statistische Bearbeitung................................................................... 78 4. Ergebnisse ............................................................................................. 79 5. Diskussion ............................................................................................. 85 6. Zusammenfassung und Fazit................................................................. 89 4 7. Tabellen ................................................................................................. 92 8. Abbildungsverzeichnis .......................................................................... 94 9. Literatur ............................................................................................... 100 10. Anhang .............................................................................................. 109 11. Lebenslauf ......................................................................................... 112 12. Verzeichnis der akademischen Lehrer .............................................. 114 13. Danksagung ....................................................................................... 115 14. Ehrenwörtliche Erklärung ................................................................. 116 5 Abkürzungen: o AABR: Automated Auditory Brainstem Responses o Abb.: Abbildung o ABR: Auditory Brainstem Responses o ADANO: Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen o AEP: Auditorisch evozierte Potentiale o AM: Amplitudenmodulation o AMFR: Amplitude Modulation Following Response o ASSR: Auditory Steady State Response o BERA: Brainstem Electric Responses Audiometry o CERA: Cortical Evoked Response Audiometry o CORA: Audiometrie mit konditionierten Orientierungsreflexen o CW: Cosinus-Wave o dB: Dezibel o dB SL dB Sensation Level o dB SPL dB Sound Pressure Level o DPOAE: Otoakustische Emissionen von Distorsionsprodukten o EcochG: Elekrocochleographie o EEG: Elektro-Encephalogramm o EOAE: Evozierten otoakustischen Emissionen o ERA: Electric Response Audiometry o et. al. und andere o FAEP: Frühe akustisch evozierte Potentiale o FM: Frequenzmodulation o FO: Frequency offset o FFT: Fast Fourier Transformation o Gl.: Gleichung o Hz: Hertz o kΩ: Kilo Ohm o MAEP: Mittlere auditorisch evozierte Potentiale o MASTER: Multiple Auditory Steady-State Evoked Response o MC: Multi-Carrier 6 o MIRA: Multichannel Infant Reflex Audiometry o NN-BERA: Notched-Noise-BERA o nHL: normal Hearing Level o NHS: Neugeborenen Hörscreening o OAE: Otoakustische Emissionen o PC: Phase corrected o PC*: modifizierte Rayleigh Test o p.c: post conceptionem o REM: Rapid-Eye-Movement o SAEP: Späte auditorisch evozierte Potentiale o SFOAE: Stimulusfrequenzemissionen o SNR: Signal-Rausch-Verhältnis o SOAE: Spontane otoakustische Emissionen o SSW: Schwangerschaftswoche o Tab.: Tabelle o TEOAE: Transitorisch evozierte otoakustische Emissionen o VCR: Audiometrie mit visueller Verstärkung o WHO: Weltgesundheitsorganisation der Vereinten Nationen o ZNS: Zentrales Nervensystem Ansonsten gelten die SI - Einheiten 7 1.Einleitung Das menschliche Ohr verarbeitet Schallreize mit äußerster Präzision. Die große Leistungsfähigkeit des Ohres umfasst Lautstärken zwischen 10 dB, wie das Blätterrauschen bis hin zu 120 dB, einem Donnerknall, der schmerzhaft empfunden werden kann. Beim leisesten Geräusch ist der Schalldruck millionenfach kleiner als beim lautesten. Der Schalldruck an der Hörschwelle beträgt ein Milliardstel des atmosphärischen Drucks. Neben der hohen Sensitivität und dem großen Dynamikbereich verfügt das Hörorgan über einen großen Frequenzbereich und eine große Frequenztrennschärfe. Der Frequenzbereich des menschlichen Ohres umfasst mehr als 10 Oktaven. Ein geschultes Ohr kann zwei Töne differenzieren, deren Frequenzunterschied nur 0,2% beträgt. Kaum eine Sinneswahrnehmung, wie die des Hörens, vermag einen so tiefen und nachhaltigen Eindruck der uns umgebenden Welt zu vermitteln und wird doch gleichzeitig so sehr vernachlässigt. Wir leben in einer geräuschvollen Welt. Ihre Gefahren können sich mit großen Lautstärken ankündigen deren Wahrnehmung lebenswichtig sein kann. Keine andere Sinneswahrnehmung besitzt einen so ausgedehnten Dynamikbereich bei gleichermaßen hervorragend ausgeprägten Fähigkeiten der Analyse und Synthese. Erstere äußert sich z. B. in der Möglichkeit, Tonhöhen absolut zu bestimmen, letztere z. B. in der, ein Klanggemisch als Musik oder Sprache wahrzunehmen. Leise Klänge der Natur oder einer Musik erzeugen ein ”akustisches Abbild“ des Raumes, in dem wir uns befinden. Das Ohr kann uns wie kein anderes Sinnesorgan unterschiedliche Eindrücke vermitteln, diese können uns beruhigen oder aber auch aggressiv und nervös stimmen. Der Leistung des Ohres haben wir die zwischenmenschliche Kommunikation zu verdanken, denn nur dass was wir „hören“, können wir auch verarbeiten. Dazu muss eine Analyse des Schalls erfolgen. Eine solche Schallverarbeitung findet im Innenohr statt und ermöglicht dass wir Sprache aufnehmen und entwickeln können. 8 1.1 allgemeine Problemstellung Sprache gilt als wichtigstes Medium für die zwischenmenschliche Kommunikation. Zum Spracherwerb ist ein ungestörtes Hörsystem eines der wichtigsten Voraussetzungen. Schon im Altertum wurde das Hören als der wichtigste Sinn erkannt und es war bekannt, dass bei seinem Ausfall kein Spracherwerb möglich ist. Trotz dieses Wissens und der Bedeutung des Hörsinns für die Sprachentwicklung werden Schwerhörigkeiten bei Kindern auch heute noch zu spät diagnostiziert [25]. Bei einer Datenerhebung, die mit Eltern schwerhörigen Kindern von Hartmann [30] durchgeführt wurde, konnte festgestellt werden, dass durchschnittlich bis 21 Monate vergehen, bis hochgradige Schwerhörigkeiten diagnostiziert werden. Ursache dieses Missstandes lässt sich auf vielfältige Faktoren zurückführen. Primär herrscht eine weitreichende Unkenntnis über die frühzeitige Erkennung von Hörstörungen im Kindesalter und weiterhin wurde und wird mit diagnostisch nicht gerechten Hörprüfmethoden untersucht. Zur Revidierung dieses Missstandes wird in letzter Zeit intensiv an der Einführung einer flächendeckenden und funktionierenden Hörscreening - Methodik gearbeitet. Die Umsetzung dieser Herausforderung ist eine Aufgabe von sozialer Bedeutung und bedarf der materiellen und ideellen Unterstützung und Förderung aller Gruppen der Gesellschaft. Die WHO hat klare Richtlinien und Empfehlungen für die Einführung von Vorsorgeuntersuchung erstellt. Voraussetzungen sind Aussagen zur Krankheitshäufigkeit, Klärung der Diagnosesicherung, der Therapiefähigkeit, der Nachsorge und auch wirtschaftliche Gesichtspunkte müssen berücksichtigt werden.: • Die gesuchte Erkrankung ist ernst • Die gesuchte Erkrankung ist häufig • Es muss ein erkennbares latentes oder symptomatisches Stadium der Krankheit geben 9 • Die Erkrankung muss therapierbar sein • Früher Therapiebeginn soll die Prognose verbessern • Weitere Diagnostik und Therapie muss verfügbar sein • Screening–Methode muss zumutbar sein • Screening–Verfahren muss genügende Güteeigenschaften haben • Koordination von Screening und Diagnostik • Früherkennung und Frühbehandlung haben positive Kosten/Nutzen-Relation Für die westliche Welt gilt, dass von 1000 lebendgeborenen Kinder 1-2 mit einer hochgradigen Schwerhörigkeit geboren werden [25],[29]. Vergleicht man diese Inzidenz mit den Krankheitshäufigkeiten heute schon üblichen Vorsorgeuntersuchungen wie bei der Phenylketonurie 1: 10000, Hypothyreose 1:3500, dann wird die Dringlichkeit für die Einführung einer Früherkennungsmaßnahme zum Ausschluss einer Hörstörungen unterstrichen. Wichtige Voraussetzungen zur Einführung eines Hörscreenings sind Prüfmethoden mit hoher Spezifität und einer Praktikabilität in der Durchführung. Dazu zählen eine schnelle und für jedermann, leicht durchführbare Messung. Solche Untersuchungsmethoden existieren bereits. Die bisher benutzten objektiven Hörprüfmethoden, zu denen die Hirnstammaudiometrie (Brainstem Electric Responses Audiometry - BERA) und die otoakustischen Emissionen (OAE) gehören, ermöglichen unterschiedliche Bewertungen hinsichtlich der topographischen Zuordnung einer Hörstörung. Die Hirnstammaudiometrie gestattet den Ausschluss einer Hörstörungen bis zum Hirnstamm. Der Nachweis von otoakustischen Emissionen ist Ausdruck einer intakten Funktion der äußeren Haarzellen in der Cochlea. Trotz der Möglichkeit Hörstörungen objektiv nachzuweisen, bestehen bis heute Grenzen in der exakten Bewertung des Hörverlustes. Die BERA lässt derzeit keine schwellennahe Hörprüfung zu und die OAE sind durch Geräusche in der Umwelt als sehr störanfällig einzuschätzen. Sie erlauben außerdem keine Bewertung einer retrocochleären Störung. Ziel dieser Arbeit ist die Untersuchung zur Optimierung akustischer Reize um möglichst schwellennahe Hörantworten zu erhalten, die dann im Einsatz beim Hörscreening genutzt werden können. 10 1.2 Hörprüfmethoden Die Untersuchung der Sinneswahrnehmung geht auf Psychophysiker zurück, zu denen Theodor Fechner und Ernst Heinrich Weber gehörten. Beide Wissenschaftler waren in Leipzig tätig. Ihnen ist zu verdanken, dass die Beziehungen zwischen objektiven physikalischen Dimensionen und subjektiver Empfindung in ein kausales Abhängigkeitsverhältnis gebracht werden können. Überprüfung des Hörvermögens gestaltet sich besonders bei Kleinkindern schwierig. Bei Erwachsenen wird zur Bestimmung der Hörschwelle meist die Tonschwellenaudiometrie angewandt. Es ist üblich, dass mittels einer Geste oder durch Knopfdruck signalisiert wird, ob ein über Kopfhörer angebotener Ton wahrgenommen wird. Die Tonschwellenaudiometrie ermöglicht Aussagen über den Hörverlust bezüglich der Lautstärke und der Frequenz. Diese Art der Hörprüfung verlangt die aktive Mitarbeit der Patienten und bietet dadurch jedoch auch viel Raum für Fehlinterpretationen. Diese Methoden sind jedoch für eine Überprüfung des Hörvermögens von Kleinstkinder ungeeignet, da Kinder frühestens ab dem 3. Lebensjahr in der Lage sind, aktiv an einem Hörtest mitzuwirken. Gerade aber in diesem Alter ist es besonders wichtig, verlässliche Aussagen über das Hörvermögen des Kindes zu erhalten. Für die Diagnostik kindlicher Hörstörungen werden in der Pädaudiologie unterschiedliche, sich aber ergänzende Hörprüfverfahren genutzt. Es ist notwendig sehr zeitig eine Aussonderungsuntersuchungen (Screening) durchzuführen und nach entsprechenden Hinweisen auf ein auffälliges Ergebnis, muss möglichst schnell eine exakte Bestimmung des Hörverlustes erfolgen. Dafür ist die Anwendung von objektiven Hörprüfungen Verhaltensbeobachtungen erforderlich. im sogenannten Selbstverständlich „Freifeld“ zur müssen auch Diagnosesicherung durchgeführt werden. Gerade in der Diagnostik kindlicher Schwerhörigkeiten müssen subjektive und objektive Hör-Prüfmethoden eingesetzt werden. Beide Verfahren haben ihre Berechtigung aber auch ihre Grenzen. Eine wichtige Aufgabe der Pädaudiologie besteht darin, beide Methoden ergänzend zu nutzen, wobei den objektiven Verfahren die größere Bedeutung zugeschrieben wird. 11 1.2.1 subjektive Hörprüfmethoden Bei dieser Vorgehensweise werden Reaktionen auf angebotene Schallreize bewertet und auf ihre Reproduzierbarkeit überprüft. Da hierbei überschwellige akustische Stimuli eingesetzt werden, ist eine exakte Beurteilung der Funktionsfähigkeit des Hörorganes nicht möglich. Es handelt sich bei den subjektiven Methoden somit um eine relativ „grobe“ Form der Hördiagnostik, die zudem stark an die Beobachtungsgabe und die Genauigkeit des Untersuchers gebunden ist. Darüber hinaus variieren die zu beobachtenden Reaktionen in Abhängigkeit vom Alter des untersuchten Kindes. Die Reflexaudiometrie findet bei Neugeborenen bis zum 4. Lebensmonat Verwendung. Das Prinzip dieses Verfahrens beruht auf der Auslösung unbedingter Reflexe durch die Stimulation mit überschwelligen Reizen und kann auch als objektiver Test angesehen werden. Die ausgelösten Reflexe zeigen sich in Form von sogenannten Reflexbewegungen, wie beispielsweise Augenbewegung oder auch in dem Innehalten von Bewegungen. Darüber hinaus lassen sich Änderungen der Atem- und Herzfrequenz sowie der Mimik beobachten. Beobachtete Reaktionen bei Säuglingen nach akustischem Stimulus: • Moro-Reflex • Aureopalpebralreflex • Bewegung der oberen Extremität(en), STARTL-Reflex • Bewegung der unteren Extremitäten • Innehalten der Bewegung • Atemfrequenzänderung, wiederholbar • Mimikänderungen, Saug-Schmatzbewegungen • sonstige reproduzierbare Reaktionen • keine Reaktionen [63] 12 Als weitere Methoden der Reflexaudiometrie werden unter anderem die Multichannel Infant Reflex Audiometry (MIRA) im 1.Lebensjahr, Crib-o-gram bei Neugeborenen, Babybett (nach Biesalski) ab 3.Lebensmonat [10] eingesetzt. Trotz der bereits erwähnten Einschränkungen stellt die Reflexaudiometrie wegen ihres geringen zeitlichen und materiellen Aufwandes einen wichtigen Teil der pädaudiologischen Diagnostik dar. Ab etwa dem 4. Lebensmonat berücksichtigt der Untersucher unbewusste Orientierungs-reaktionen [32], welche entwicklungsphysiologisch an die Stelle der unbedingten Reflexbewegungen treten. Als problematisch erweist sich die schlechte Reproduzierbarkeit dieser unbewussten Orientierungsreaktionen [28]. Hieraus resultieren unbefriedigende Ergebnisse, die den großen technischen Aufwand zur Registrierung der Orientierungsreaktionen kaum rechtfertigen [99]. Im 2.-3. Lebensjahr eingesetzte Verfahren beruhen auf der Bahnung von Orientierungs-reaktionen. Dies geschieht durch Stimulation mit Licht- und Schallreizen, wobei der Lichtreiz als Belohnung für die Reaktion auf den überschwelligen Schallreiz dient [28]. Durch wiederholtes „Training“ dieser bedingten Reflexe wird die Reaktion des Kindes auf die angebotenen Reize zunehmend exakter. Bekannt geworden sind diese Verfahren unter den Namen Audiometrie mit konditionierten Orientierungsreflexen (CORA) sowie Audiometrie mit visueller Verstärkung (VCR). Mit etwa 3 Jahren ist bei Kindern ein gewisses Maß an Kooperation zu erwarten, was den Einsatz der Spielaudiometrie erlaubt. Dabei wird die Hörreaktionsschwelle durch eine Spielhandlung im freien Schallfeld ermittelt. Idealerweise werden für diese Methode Kopfhörer zur Darbietung des Testtons verwendet, um eine seitengetrennte Analyse des Hörvermögens zu ermöglichen. Das Kind lernt einen gehörten Ton als Aufforderung für eine Spielhandlung anzusehen [81]. Nachdem es einen Ton über den Kopfhörer wahrgenommen hat, darf es beispielsweise Bauklötze aufeinander stellen. Hier stehen mehrere Varianten bezüglich der „Belohnung“ zur Verfügung, wobei es sinnvoll ist, die „Belohnungsform“ den spielerischen Vorlieben des Kindes anzupassen. Aufgeführt seien hier nur das Ingangsetzen einer Eisenbahn [38] oder das Abspielen eines Märchenfilmes auf Knopfdruck nach wahrgenommenem Testton [39]. Wichtig ist zu erwähnen, dass bei 13 der Spielaudiometrie die bewusste Reaktion des Kindes auf Schallreize im Vordergrund steht. In der Tonaudiometrie werden dem Probanden über Kopfhörer Testtöne mit verschiedenen Frequenzen und Lautstärken angeboten. Nach der Wahrnehmung des Tones erfolgt eine Rückmeldung durch Knopfdruck, bei kleinen Kindern oder entwicklungsreduzierten älteren Kindern erfolgt die Antwortgebung durch Klötzchenstecken oder Ringe auffädeln. Durch dieses Verfahren kann die Hörschwelle für Knochen- und Luftleitung bestimmt werden. Unter Hörschwelle versteht man dabei die Lautstärke, bei der ein Ton gerade eben wahrnehmbar wird. Der Abstand zwischen der Hörschwelle eines hörbeeinträchtigen Kindes und der eines normalhörenden Kindes heißt Hörverlust. Die Tonschwellenaudiometrie kann in der Regel ab dem 4. Lebensjahr durchgeführt werden. Die Sprachaudiometrie dient der Prüfung des Sprachverständnisses. Zur Einhaltung konstanter Reizparameter wird das Prüfmaterial von einem Tonträger (Zahlen, Einsilber und Satzreihen) monaural oder binaural in unterschiedlichen Lautstärken über Lautsprecher oder Kopfhörer angeboten. Das Sprachverständnis wird in Prozent der verstandenen Wörter angegeben. Zur Erfassung des kindlichen Sprachverständnisses existieren spezielle standardisierte Testverfahren, wie der Mainzer Kindersprachtest [9] oder der Göttinger Kindersprachverständnistest [36]. Der Mainzer Kindersprachtest ist in drei Gruppen aufgeteilt. Der Sprachtest I entspricht inhaltlich dem Wortschatz normalhörender Kinder unter vier Jahren. In Test II werden Kinder von vier bis fünf Jahren erfasst und Test III kommt für Kinder von sechs bis acht Jahren zur Anwendung. Bei den Testen I und II kann zusätzlich eine Bildserie angeboten werden. Der Göttinger Sprachverständnistest I ist für das Kindergartenkind (3-4 Jahren) und der Göttinger Sprachverständnistest II für das Vorschulkind (5-6 Jahren) geeignet. Die gehörten Wörter müssen Symbolen zugeordnet werden. 14 Die Sprachaudiometrie im freien Schallfeld bietet eine wichtige Information über die tatsächliche Hörleistung. Eine quantitative Bestimmung des Gehörs und eine grobe Orientierung, ob ein Innenohr- oder Mittelohrschaden vorliegt, geschieht durch die Sprachabstandsprüfung. Beim Innenohrschaden besteht eine große Differenz zwischen dem Verstehen von Flüstern und der Umgangsprache, während bei einer Mittelohrschwerhörigkeit das Verstehen bei beiden Sprechweisen annähernd gleich eingeschränkt ist [53]. Während beim Erwachsenen und älteren Kind die Hörweite mit Umgangs- und Flüstersprache durch Vorsprechen zweisilbiger Zahlen aus verschiedenen Abständen geprüft wird, geschieht dies beim Kleinkind oder mehrfach behinderten Kind durch Nennen von Spielzeug, welches das Kind, sofern es das Prüfwort verstanden hat, aus dem vor ihm liegenden Spielzeug auswählen soll [37]. Dabei wird auch das Sprachverständnis mit erfasst. Die Prüfung des Sprachverständnisses unter dem Einfluss von Störlärm kommt den Verhältnissen im täglichen Leben näher [81]. Sie empfiehlt sich daher für besondere Fragestellungen, wie für die Anpassung von Hörgeräten, die Beurteilung von geringgradigen Hörminderungen und die Erfassung von funktionellen Hörstörungen [6]. Mit der Prüfung des Sprachverständnisses im Störlärm kann auch der Hörgewinn durch die Hörgeräteversorgung insbesondere bei einseitiger Schwerhörigkeit beurteilt werden. Zuletzt sei noch erwähnt, dass zur Testung zentraler Hörleistungen der dichotische Sprachtest zur Verfügung steht. In der Kinderaudiometrie wird der Test von Uttenweiler, eine kindgerechte Modifikation des Feldmann-Test für Erwachsene. Er dient der Diagnostik bei zentralen auditiven Wahrnehmungsstörungen gedacht [54]. 15 1.2.2 objektive Hörprüfmethoden Ein bedeutender Bestandteil der objektiven Verfahren ist die Impedanzaudiometrie durch Tympanometrie und Stapediusreflexmessung. Die ersten Untersuchungen erfolgten durch Metz (1942), der schon wesentliche Erkenntnisse über die Funktion der Mittelohrmuskeln und der Tube erarbeitete. Die Tympanometrie stellt eine indirekte Tubenfunktionsprüfung dar, indem sie die Auswirkungen mangelnder Paukenbelüftung registriert, nämlich den Unterdruck, der als Folge unzureichender Tubenöffnung entsteht, oder bei einer Flüssigkeitsansammlung im Mittelohr. Hierbei wird die akustische Impedanz des Trommelfells während einer Druckänderung gemessen. Dazu wird eine Sonde in den Gehörgang eingebracht, die den Gehörgang vollständig verschließt. Diese Sonde enthält drei Schlauchleitungen. Die eine leitet einen Sondenton in den Gehörgang, die andere führt ein Mikrophon und die dritte baut mittels einer Pumpe definierte Überund Unterdrücke im Gehörgang auf. Jetzt erzeugt man zunächst einen Überdruck, dann einen Druckgleichheit wie im Mittelohr und anschließend einen Unterdruck. Dadurch lässt sich die druckabhängige Impedanzänderung durch die Messung des reflektierten Sondentonanteils in einer Kurve (Tympanogramm) aufzeichnen. Diese Untersuchung dient der Bestimmung der Trommelfellbeweglichkeit, der Tubenfunktion, der indirekten Messung vom Druck im Mittelohr sowie dem Nachweis von pathologischen Prozessen im Mittelohrbereich und gibt Auskunft über den Zustand der Gehörknöchelchenkette. Die Tympanometrie sollte immer der Stapediusreflexmessung und der Registrierung otoakustischer Emissionen vorgeschaltet werden [85]. Bei der Stapediusreflexmessung wird die Eigenschaft des Musculus stapedius genutzt, bei Schallreizen, die mehr als 70 dB über der Hörschwelle liegen, sich zu kontrahieren (akustikofazialer Reflex). Der akustikofaziale Reflex, der im Hirnstamm mit dem Nervus cochlearis als afferenten Schenkel und dem Nervus facialis als efferenten Schenkel verschaltet ist, wird hierbei gemessen [85]. Die Kontraktion des Musculus stapedius führt zu einer messbaren Änderung (Erhöhung) der akustischen Impedanz und zu einer Abschwächung der Schallübertragung. Der Stapediusreflex wird meist bei Schallstimuli mit 500, 1000, 2000 und 4000 Hz bei einem Sondenton von 220 Hz geprüft. Die Schwelle für den 16 Stapediusreflex liegt beim gesunden Gehör für die genannten Töne zwischen 70 und 90 dB. Zur Auslösung des Reflexes wird das kontralaterale Ohr (Reizohr) beschallt und auf dem zu messenden Ohr (Sondenohr) die Impedanzänderung über den reflektierten Sondentonschallanteil gemessen. Voraussetzung für die Messung des Stapediusreflex ist eine funktionierende Gehörknöchelchenkette und ein intaktes Trommelfell. Ist der akustische Widerstand, z.B. durch einen Erguss im Mittelohr, ohnehin deutlich erhöht, lässt sich der Stapediusreflex nicht mehr auslösen Befunde sind etwa bei Adhäsionen, Weitere pathologische Fazialisparese und Schallempfindungsschwerhörigkeit sowie einem Akustikneurinom zu erwarten. Bei Innenohrschwerhörigkeiten, zumindest bei gering bis mittelgradigen Innenohrschwerhörigkeiten, findet man nicht selten eine normale StapediusreflexSchwelle. Zusätzlich kann, über die Registrierung der, durch die Bewegung des Trommelfells (Tympanic Membran Displacement) provozierten Volumenänderung des äußeren Gehörgangs, Rückschlüsse über den intracochleären perilymphatischen Druck und den intrakraniellen Druck Rückschlüsse gezogen werden [11]. Beide Verfahren zur Impedanzmessung liefern aussagekräftige Ergebnisse zur Funktion des Gehörknöchelchen- Trommelfell- Apparates und können bei entsprechenden Messwerten Hinweise auf eine Hörstörung geben [24],[28]. Bei den otoakustische Emissionen (OAE) handelt es sich um Schallaussendungen des Innenohrs, die in der Cochlea generiert werden, und retrograd über die Gehörknöchelchenkette und das Trommelfell nach außen gelangen, wo sie mit einem, im äußeren Gehörgang platzierten, empfindlichen Mikrophon nachgewiesen werden können. Sie entstehen als Folge der periodischen Kontraktion äußerer Haarzellen und ihrer assoziierten mechanischen Strukturen [40]. Der Hörnerv ist bei der Erzeugung der OAE´s nicht beteiligt und es können demnach keine Aussagen über den Verlauf oder Ausschlüsse über mögliche pathologische Veränderungen erfolgen.. Die Otoakustischen Emissionen können spontan vorhanden sein, spontane otoakustische Emissionen (SOAE) oder mit akustisch Reizen erzwungen werden. 17 SOAE können bei Normalhörigen in durchschnittlich 44% nachgewiesen werden [125], bei Innenohrschwerhörigen sind sie hingegen nur selten nachweisbar. Der klinische Nutzen ihres Nachweises ist zwar gering, doch es ist zu beachten, dass sie andere OAE in Frequenz und Amplitude beeinflussen [91]. Die Messung der evozierten otoakustischen Emissionen OAE (EOAE) hingegen hat sich in der audiologischen Diagnostik etabliert. Sie werden durch externe akustische Reize ausgelöst und als transitorisch evozierte otoakustische Emissionen (TEOAE) oder otoakustische Emissionen von Distorsionsprodukten (DPOAE) nachgewiesen. Eine weitere Form der OAE, die Stimulusfrequenzemissionen (SFOAE), entstehen bei stationärer Anregung mit einem Ton. Sie haben die Frequenz des anregenden Tones und geben die Emission im schmalen Bereich des Wanderwellenmaximums wieder. Im Ganzen gesehen haben sie keine klinische Relevanz, und werden nicht zu audiologischen Zwecken genutzt. Während die Stimuli bei der Messung von DPOAE aus der simultanen Darbietung zweier, in Frequenz und Lautstärke unterschiedlicher, Sinustöne (Primärtöne) besteht, wird zur Auslösung von TEOAE ein breitbandiger Stimulus, ein sogenannter Click - Reiz, verwendet. Durch die Verwendung des breitbandigen Click-Stimulus wird fast die gesamte Cochlea angeregt. An Stellen mit einer unregelmäßigen Anordnung der äußeren Haarzellen kann es zu Impedanzsprüngen mit unterschiedlicher Verformbarkeit der Basilarmembran kommen. Diese Regionen der Cochlea werden durch den Click häufiger erreicht als durch die bitonale Stimulation bei Messung der DPOAE. Die Messung der TEOAE eignet sich so eher für eine globale Überprüfung der Cochlea - Funktion, wogegen DPOAE besser dazu geeignet sind, um die Funktionsfähigkeit der Cochlea in einem bestimmten Frequenzbereich zu testen [95]. Die wichtigste Anwendung der OAE ist die Screeninguntersuchung der cochleären Funktion bei Neugeborenen, Säuglingen und Kleinkindern. Sie ermöglicht schnell und ohne Sedierung einen Überblick über eine mögliche Hörstörung. Die Lokalisation der Schwerhörigkeit, Mittelohr oder sensineural, und das Ausmaß können mit des otoakustischen Emissionen nicht bestimmt werden. Einen großen Anteil an der objektiven Hördiagnostik haben Verfahren, bei denen unter Zuhilfenahme verschiedener Meßmethoden, Potentialänderungen neuronaler Synapsen der menschlichen Hörbahn nach Stimulation durch Schallreize abgeleitet werden. 18 Bei diesen objektiven Hörprüfmethoden handelt es sich um die Erfassung von auditorisch evozierten Potentialen (AEP). Da sich die zugrunde liegende Arbeit diesem Verfahren näher beschäftigt, wird in der Literaturübersicht unter den Punkten 2.4 und 2.5 genauer auf diese Methode zur objektiven Hörprüfung eingegangen. 1.3 Bedeutung der objektiven Hörprüfung Im Gegensatz zu den psychoakustischen, subjektiven Verfahren erlaubt die objektive Audiometrie die Prüfung des Hörvermögens ohne die aktiven Angaben des Patienten. Die Untersuchungen messen Funktionen des Gehörs an Hand physiologischer und objektiver Parameter. Dadurch helfen sie bei der Interpretation von verhaltensaudiometrischen Ergebnissen. Vor allem die Untersuchung des Gehörs von Säuglingen, Kleinkindern Einschränkungen bietet und einen Personen großen mit mentalen Einsatzbereich für oder kognitiven die objektiven Hörprüfmethoden. Heutzutage versteht man unter objektiven Hörprüfungen im engeren Sinne Verfahren, die sich an das EEG, die Hirnstrommessung, anlehnen. Grundansatzpunkt ist, im Gegensatz zu subjektiven psychoakustischen Verfahren, die Möglichkeit der Beurteilung des Hörvermögens alleine durch Registrierung auditorischer reizkorrelierter Parameter. Damit öffnet sich ein großes Feld von Diagnosemöglichkeiten mit großer ständig steigender Bedeutung. Im Fachbereich der Audiologie liegt das Hauptaugenmerk auf der Hörschwellendiagnostik. Dabei können mit der Registrierung auditorisch evozierter Potentiale Aussagen über kindliche Hörstörungen gewonnen werden oder bieten Hilfe zur Aufdeckung von nichtorganischen Hörstörungen, wie Aggravation und psychogene Hörstörungen. Andere klinische Anwendungsgebiete finden sich mit der Topodiagnostik zwischen cochleären und retrocochleären Akustikusneurinom. Hörstörungen oder dem Nachweis eines Auch in der Neurologie werden zur Differenzierung von ischämischen Hirnläsionen oder der Multiplen Sklerose objektive Hörprüfungen herangezogen und werden mit Sicherheit in Zukunft an Bedeutung gewinnen. 19 1.4 Zielsetzung Die Prävalenz von frühkindlichen Hörstörungen wird unterschiedlich angegeben und liegt nach Schätzungen von Watkin, White u.a. bei 1,5 bis 6 pro 1000 Lebendgeburten [116]. Somit stellen Hörschäden mit eine der häufigsten Erkrankungen bei Neugeborenen dar [114]. Eine frühzeitige und exakte Diagnostik kindlicher Hörstörungen ist wie bei kaum einem anderen Krankheitsbild Vorbedingung für eine suffiziente Therapie und sollte niemals nur mit einer Methode erfolgen. Erst die Anwendung unterschiedlicher Testmethoden erlaubt es, mit hinreichender Sicherheit Rückschlüsse auf das Ausmaß der Störung und ihren eventuellen Sitz zu ziehen. Regelmäßige Kontrollen nach einer diagnostizierten Hörstörung sind darüber hinaus erforderlich, um eine Progredienz des Hörverlustes rechtzeitig zu erkennen und therapeutisch zu würdigen [48]. Mit Hilfe der akustisch evozierten Potentiale und der Hirnstammaudiometrie werden Verfahren benutzt, um Hörstörungen schnell und sicher zu diagnostizieren. Aufgabe der vorliegenden Studie ist es, die Effizienz neuer phasenkompensierten Breitband-Stimuli an einer großen Gruppe von normalhörenden jugendlichen Probanden zu prüfen und mit der des Standard-Clicks sowie des Flat-Chirps nach Dau et al. (2000) zu vergleichen. Die Ergebnisse die im Rahmen dieser Studie ermittelt werden, sollen außerdem dazu dienen die Realisierbarkeit der neuer Reize im Einsatz eines "frequenzspezifischen" Hörscreening zu überprüfen. Damit erhofft man sich eine besonders kurze Messzeit und ein hörschwellennahes Ergebnis bei der Hörschwellendiagnostik zu ermöglichen. Besondere Bedeutung hat eine solches Resultat im Einsatz beim Neugeborenen Hörscreening (NHS) [7],[8]. Ein sicheres und schnelles Verfahren hilft unverzüglich mit der Versorgung des hörgeschädigten Kindes zu beginnen, unnötige Folgeuntersuchungen zu vermeiden oder damit verbundene unnötige Beunruhigung der Eltern bei unsicherem Ergebnis zu verhindern. 20 2. Literaturübersicht zur Thematik 2.1 Grundlagen der Hörphysiologie Das Ohr ist eines der wichtigsten Sinnesorgane des Menschen. Über das Ohr erfolgt die Aufnahme von Schall und ermöglicht dadurch die sprachliche Kommunikation, ohne die ein Individuum aus der Gesellschaft ausgeschlossen sein kann [19]. Der für die Schallverarbeitung wichtigste Teil des Ohres liegt im härtesten Knochen des Schädels, dem Felsenbein und ist dadurch weitestgehend vor mechanischen Einflüssen geschützt. Physiologisch betrachtet gliedert man das Ohr in einen peripheren und einen zentralen Anteil. Das periphere Hörorgan, im Schläfenbein (Os temporale) gelegen, wird in drei Abschnitte eingeteilt: Äußeres Ohr, Mittelohr und Innenohr. Abb. 1: Auditorische Peripherie des Menschen, nach Dallos [15] 21 2.1.1 Schallaufnahme Das äußere Ohr (Auris externa) wird durch die Ohrmuschel (Auricula) und den äußeren Gehörgang gebildet. Durch seine trichterförmige Anatomie werden Schallwellen differenziert den sensiblen Mittelohrstrukturen zugeführt [84]. Darüber hinaus besitzt die Ohrmuschel eine Richtcharakteristik, die zur Lokalisation der Schallquelle beiträgt. Abhängig vom Ort der Schallquelle werden bereits bestimmte Frequenzkomponenten verstärkt oder abgeschwächt [94]. Der so modifizierte Schall wird durch den äußeren Gehörgang praktisch dämpfungsfrei bis zum Trommelfell geleitet. Die Resonanzfrequenz des circa drei cm langen Gehörganges liegt bei 3 kHz, entsprechend findet sich das Maximum der Übertragungsfunktion im Frequenzbereich von 1-4 kHz [10]. 2.1.2 Schallübertragung und Weiterleitung Das Mittelohr (Auris media) umfasst Trommelfell, Paukenhöhle, die pneumatischen Räume und steht über die Ohrtrompete (Tuba Eustachii) mit dem Nasopharynx in Verbindung. Zum Innenohr hin wird es durch das ovale Fenster begrenzt. Das Cavum tympani als wichtigster Mittelohrraum ist gegen den äußeren Gehörgang durch das Trommelfell abgegrenzt, welches seinerseits über eine Kette aus drei Gehörknöchelchen an das Innenohr gekoppelt ist. Diese bilden die Schallleitungskette und sind maßgeblich an der Hauptfunktion des Mittelohres, der Impedanzanpassung und Übertragung der Schwingungen des Trommelfells auf das Innenohr, beteiligt. Die zweite wichtige Funktion besteht im Ausgleichen der sich ständig ändernden statischen Luftdrücke zwischen der Paukenhöhle und der Atmosphäre. Die wichtigste Aufgabe des Mittelohres ist die Impedanzanpassung, denn es überträgt den Schall aus dem Medium Luft auf das Medium Flüssigkeit des Innenohres. Da diese beiden Medien verschiedene Schallkennimpedanzen besitzen, entstehen bei der Übertragung des Schalls Reflexionsverluste. Das Ziel des Trommelfell- Gehörknöchelchen-Apparates ist es, diese zu minimieren. Die Impedanzanpassung wird durch eine Druckerhöhung über zwei verschiedene Mechanismen erreicht. 22 Zum einen ist die Stapedesfußplatte erheblich kleiner als die Kontaktfläche von Hammer und Trommelfell. Das ovale Fenster weist 3 mm2 auf im Vergleich zu der 50 mm2 großen Fläche des Trommelfelles. So entsteht bei gleicher Kraft der Schallwelle ein höherer Druck. Zum anderen wird durch die Hebelwirkung der unterschiedlich langen Gehörknöchelchen eine Druckerhöhung um den Faktor 1,3 erreicht. Dadurch erfolgt die Schallübertragung im Mittelohr mit nur minimalen Reflexionsverlusten. Die Schallübertragung ist frequenzabhängig, da physikalische Größen wie Masse, Elastizität und Schwingungseigenschaften des Trommelfelles beteiligt sind [94]. Die Resonanzfrequenz des Mittelohr, bei der die Schallenergie besonders effektiv übertragen wird, liegt bei 1-4 kHz, was dem Schallspektrum unserer Sprache entspricht. Zusätzlich kann die Schallübertragung durch die zwei Mittelohrmuskeln reguliert werden. Der Musculus tensor tympani setzt am Hammer an, der Musculus stapedius am Stapes. Die Binnenohrmuskeln dämpfen die Schwingungen der Gehörknöchelchenkette. Ein längeres Nachschwingen, das für die Schallübertragung sehr nachteilig wäre, wird so vermieden. Außerdem verhindern die Binnenohrmuskeln durch ihre Kontraktion, dass extreme Schalldruckschwankungen des Umgebungsluftdruck sich nachteilig auf das Innenohr auswirken. Abb. 2: Schematische Darstellung der Ossikelbewegung, bei der Übertragung vom Mittelohr zum Innenohr [94] 23 2.1.3 Schallverarbeitung Zum Innenohr werden die Hörschnecke (Cochlea) und das Vestibularorgan gerechnet, die beide in der Pars petrosa des Schläfenbeins liegen. Die Aufgabe des Gleichgewichtsorganes besteht in der Messung und Meldung von Translationsbewegungen oder Winkelbeschleunigungen [114]. Die für die Wahrnehmung des Schalls notwendige Umwandlung von mechanischer in elektrische Energie vollzieht sich jedoch im schneckenförmigen Gang der Cochlea. Weiterhin werden im Innenohr ein häutiges Labyrinth und ein dieses als Kapsel umgebenes knöchernes Labyrinth unterschieden. Das knöcherne Labyrinth des Hörorgans, die Schnecke (Cochlea) ist mit Perilymphe gefüllt. Das häutige Labyrinth (Ductus cochlearis) enthält Endolymphe und befindet sich zwischen der Vorhoftreppe (Scala vestibuli) und der Paukentreppe (Scala tympani) [93]. Die Cochlea windet sich zweieinhalb mal spiralförmig um die knöcherne Schneckenachse (Modiolus). Von der Schneckenachse ragt eine Knochenleiste (Lamina spiralis ossea) in den Schneckenkanal. Die Knochenleiste geht über in die Basalmembran, die mit der lateralen Wand des Schneckenkanals verbunden ist. Dadurch wird die Cochlea in eine obere (Scala vestibuli) und eine untere (Scala tympani) geteilt. Die Skalen stehen an der Schneckenspitze durch das Helicotrema miteinander in Verbindung. Abb.3: Darstellung der Cochlea und mit Längsschnitt 24 Die Scala vestibuli öffnet sich in den Vorhof, während die Scala tympani an die mediale Paukenhöhle grenzt und den Abschluss zum Mittelohr über die Membran des runden Fensters bildet. Wie bereits beschrieben enthalten beide die, der extrazellulären Flüssigkeit gleichenden, Perilymphe. Als Entstehungsmechanismus der Perilymphe wird die Ultrafiltration aus dem Blut angesehen. Der Ductus cochlearis (Scala media), liegt am Boden der Scala vestibuli Die Endolymphe wird von der die Scala media lateral begrenzenden Stria vascularis produziert und wird im Saccus endolymphaticus resorbiert. Sie ähnelt in ihrer kaliumreichen Zusammensetzung der Flüssigkeit des Interzellularraumes. Die unterschiedlichen Elektrolytkonzentrationen, in Endo- und Perilymphe, die ein elektrisches Potential von –80mV erzeugen, werden durch aktiven Ionentransport und passive Diffusion aufrechterhalten. Zwischen der Scala vestibuli und dem Ductus cochlearis liegt die für Ionen durchlässige Reissner-Membran, während Ductus cochlearis und Scala tympani durch die Basilarmembran getrennt werden. Auf der Basilarmembran befindet sich das CortiOrgan, das von der Tektorialmembran bedeckt wird. Die genannten Strukturen dienen der Weiterleitung und Verarbeitung des Schallsignals vom Mittelohr bis zum Corti-Organ. Die vom Stapes am ovalen Fenster übertragene Schallenergie löst schallsynchrone Flüssigkeitsverschiebungen im perilymphatischen Raum aus. Die inkompressible Perilymphe leitet diese weiter und überträgt sie auf die Basilarmembran. So entsteht entlang der Membran eine Wellenbewegung, die im Jahre 1928 von G. von Békésy entdeckt und als Wanderwelle bezeichnet wurde. Die Wanderwelle beginnt mit sehr kleiner Amplitude, wächst in Richtung Schneckenspitze langsam an, um dann an einer bestimmten, von der Anregungsfrequenz abhängigen Stelle, ein Maximum auszubilden. Sie läuft mit hoher Geschwindigkeit in die Cochlea hinein und wird dann im Maximum sehr schnell abgebremst. Warum es bei der Wanderwelle zu einer Frequenzdispersion kommt, lässt sich durch den unterschiedlichen Widerstand erklären den die Wanderwelle entlang der Basilarmembran in Richtung Schneckenspitze vorfindet. Der ortsvariable Widerstand ist eine Folge der unterschiedlichen Steifigkeit der Basilarmembran. Die Basilarmembran ist an der Schneckenbasis mit einer Breite von 0,04mm um mehr als 25 das tausendfache steifer als an der Schneckenspitze mit einer Breite von 0,5mm. Dies ist auch der Grund dafür, dass die Fortpflanzungsgeschwindigkeit in Richtung maximaler Ausbauchung immer geringer und die Auslenkungsamplitude immer größer werden [41]. Abb. 4: Schematische Darstellung der Cochlea in gestreckter Form. Auf der Basilarmembran ist die Ausbreitung einer Wanderwelle dargestellt [11] Die Frequenz kodiert demnach den Ort der maximalen Amplitude, höhere Frequenzen liefern ein Maximum in Richtung des Stapes, der Basis der Schnecke, niedrigere bilden das Amplitudenmaximum näher am Helicotremas aus. 26 Auf diese Weise dient die Basilarmembran der Frequenz-Ort-Transformation im Sinne einer Spektralanalyse. Der nächste Schritt ist die Umwandlung des mechanischen Energie in ein elektrisches Signal. Abb. 5: Frequenz- Orts- Transformation auf der Basilarmembran; apikal tiefe Frequenzen, basal, hohe Frequenzen 2.1.3.1 Das Corti – Organ und der Transduktionsprozess Das Corti-Organ liegt als wulstförmige Verdickung auf der Basilarmembran und enthält die sekundären Rezeptoren des Hörorganes in Form von inneren und äußeren Haarzellen. Die circa 3500 inneren Haarzellen sind einreihig angeordnet und für die Übermittlung der Sinnesinformation zuständig. Die 12000 äußeren Haarzellen bilden in der Basalwindung der Schnecke drei, in der mittleren Windung vier und in der oberen Windung fünf Reihen. Alle Haarzellen tragen an ihrer oberen Fläche eine dichte kutikulare Schicht, in der die Stereovilli befestigt sind. Diese stehen im Halbkreis, meist in drei abgestuften Reihen. Die Stereovilli sind untereinander durch dünne Proteinfäden, sogenannte tip-links, 27 verbunden. Außerdem besteht zumindest bei den äußeren Haarzellen eine Befestigung der Zilien an der Tektorialmembran. Abb. 6: Schematische Darstellung des Corti-Organs mit inneren & äußeren Haarzellen [7] Die Stereozilien der inneren Haarzellen haben keinen direkten Kontakt und werden über den entstehenden Flüssigkeitsstrom im Sinne einer hydraulischen Koppelung deflektiert [98]. Das normalerweise neben den Stereovilli existierende Kinozilium ist bei den Haarzellen des Corti-Organs rudimentär. An der Basis der Haarzellen bestehen synapsenartige Kontakte zu den zugehörigen Nervenfasern. Die afferente Versorgung entstammt aus den Bipolarzellen des Ganglion spirale. 90% der Afferenzen ziehen als myelinisierte Fasern zu den inneren Haarzellen. Dabei innerviert jede Faser nur genau eine innere Haarzelle. Lediglich die restlichen 10% der peripheren Fortsätze der Bipolarzellen innervieren die zahlenmäßig 28 stark überlegenen äußeren Haarzellen. So kommt es vor, dass bis zu 20 äußere Haarzellen von nur einer Faser versorgt werden [104]. Über den Nervus cochlearis erreichen auch efferente Fasern die Haarzellen. Interessanterweise werden die inneren Haarzellen hauptsächlich von dünnen, nicht myelinisierten Fasern versorgt, die Innervation der äußeren Haarzellen erfolgt jedoch durch dickere myelinisierte Fasern. Oft ziehen mehrere efferente Fasern zu einer einzelnen äußeren Haarzelle. Somit liegt die hauptsächliche Bedeutung der Efferenzen in der Steuerung der äußeren Haarzellen. Es wird eine Erhöhung der Sensitivität vermutet, z.B. zur besseren Hörbarkeit von Signalen in verrauschter Umgebung [100],[47]. Das von den Haarzellen zu verarbeitende Signal entsteht in der Auslenkung der Basilarmembran um 10-10 m an der Stelle des Amplitudenmaximums. Die Umwandlung erfolgt durch eine Abbiegung der Stereovilli. Bei den angehefteten Zilien der äußeren Haarzellen geschieht dies durch eine Relativbewegung zwischen Tektorialmembran und Basilarmembran. Die freien Zilien der inneren Haarzellen werden durch die Strömung der Endolymphe bewegt. Das Abbiegen der Stereovilli und das Dehnen der tip-links stellt den adäquaten Reiz zur Öffnung der Ionenkanäle an der Spitze der Zilien dar. Aufgrund des vorhandenen Potentialgefälles zwischen Endolymphe und Corti-Lymphe, der Lymphe innerhalb des Corti-Organs, die in ihrer Zusammensetzung der Perilymphe ähnelt, beginnt nun ein Kaliumeinstrom in die Zelle. Die hieraus resultierende Depolarisierung induziert eine oszillierende Längenänderung der äußeren Haarzelle. Diese Fähigkeit zur aktiven Bewegung ist in zahlreichen Studien an isolierten vitalen Haarzellen erwiesen worden [1],[123]. Durch diesen aktiven Prozess, einer elektromechanischen Transduktion, verstärken sie die Amplitude der Wanderwelle und dämpfen benachbarte Basilarmembranabschnitte. Dieser cochleäre Verstärker ermöglicht so den inneren Haarzellen, auch bei sehr schwachen akustischen Reizen sensorisch wirksam zu werden [11]. Durch diese Kontraktion entsteht eine zusätzliche Schwingungsenergie, die die Auslenkung der inneren Haarzellen frequenzspezifisch verstärkt. Für die Kodierung der Lautstärke sind zwei Mechanismen verantwortlich. Bei Erhöhung des Schallpegels dehnt sich der Erregungsbereich auf der Basilarmembran aus, so dass zum einen die Anzahl der erregten Sinneszellen wächst und zum anderen die Wahrscheinlichkeit der Aktionpotentialauslösung als Folge der Erhöhung der Auslenkamplitude zunimmt. Das bedeutet, das mit steigender Lautstärke immer mehr 29 Nervenfasern aktiviert werden und sich die Aktionspotentialrate der einzelnen Nervenfasern zunehmend erhöht [40]. Der durch Auslenkung der Stereovilli verursachter K+–Einstrom und die daraus resultierenden Depolarisation bewirken an den inneren Haarzellen jedoch nicht (wie bei den äußeren Haarzellen) eine Längenänderung der Haarzelle, sondern die Öffnung spannungsabhängiger Ca+–Kanäle, die zu einer Transmitterausschüttung (Glutamat) an der basalen Seite der Zelle führt. Die afferenten Nervenfasern werden erregt, es entstehen Aktionspotentiale. Da jede Hörnervenfaser ihre Information nur von einer einzigen (inneren) Haarzelle erhält, besteht von vornherein eine außerordentlich scharfe Trennung bestimmter weitergeleiteter Frequenzen in das ZNS. Diese, als Tonotopie bezeichnete, Trennung wird entlang der gesamten Hörbahn beibehalten. Über die Afferenzen des Nervus cochlearis werden die Signale zum zentralen Hörorgan weitergeleitet. Abb. 7: schematische Darstellung des Transduktionsmechanismus aus Klinke Physiologie [94] 30 2.1.3.2 Weiterentwicklung des Cochlea Modells Die Modellvorstellungen der Frequenzanalyse im Innenohr entwickelten sich in drei Hauptepochen. Helmholtz´ Idee, der als Resonatoren wirkenden gespannten Saiten, bestimmte bis in die 40er Jahre dieses Jahrhunderts die Vorstellung der Frequenzanalyse mittels mechanischer Resonanzelemente [34]. Er versuchte die Tonhöhenwahrnehmung mit der Vorstellung zu erklären, dass die Basilarmembran aus einer großen Zahl von Resonatoren zusammengesetzt sei und dass beim Einwirken eines Tones oder Tongemisches der bzw. die zugehörigen Resonatoren ansprechen würden. Diese Theorie wurde jedoch nicht der tatsächlichen Dämpfung des Innenohres gerecht [54]. Die zweite Periode wurde dominiert von der Funktionsbeschreibung anhand der passiven Wanderwellen, die G. von Békésy in seinen Experimenten beschrieb, und dauerte bis zum Ende der 70er Jahre. Er konnte schon im Jahre 1920 an menschlichen Gehörknochen über kleinste Bohrungen und mit Hilfe von Mikroskopen die Physiologie der Cochlea auf Schallreize beobachten. Er beschrieb sehr ausführlich das Phänomen der Wanderwelle, wobei jeder Wellenlänge einer bestimmten Lokalisation auf der Basilarmembran zugeordnet werden kann. Dieses Phänomen sowie der Aufbau einer maximalen Antwort an dem für die jeweilige Frequenz typischen Lokalisation und der danach sofortigen Abschwächung der Wanderwelle, erklärte Bekesy durch das Zusammenspiel von der Steifheit des Corti- Organs und Einflüssen von Dämpfung [5]. Jedoch bestand bei beiden Ansätzen ein fundamentaler Widerspruch zwischen der Leistungsfähigkeit des Gehörs und den Modellvorstellungen. Erst in den 60ér Jahren als durch neuere Techniken, wie z. B. den Mössbauer Effekt, bei der radioaktiv markierte Elemente auf der Basilarmembran platziert werden und auch kleinste Bewegungen registriert werden konnten, waren genauere Untersuchungen möglich. Ein erster experimenteller Nachweis des nichtlinearen Verhaltens des Innenohres gelang Rhode 1971 [88]. Aber der Widerspruch zwischen den hochabgestimmten Tuningkurven des Hörnervs und dem relativ breitbandigen Schwingungsverhalten der Basilarmembran konnte dadurch noch nicht geklärt werden. Durch Untersuchungen von Sellick et al. [97] und Johnstone et al. [45] wurde bei Messungen der 31 Basilarmembranbewegung mittels des Mössbauer-Effekts auch deren hochabgestimmtes Schwingungsverhalten nachgewiesen. Am meisten jedoch zeigte sich, dass die extreme Steilheit der Frequenzantwort nach der maximalen Antwort der Wanderwelle, nicht allein mit einem Zusammenspiel zwischen Steifheit- und Dämpfungseigenschaften des Corti-Organ zu erklären ist. Als Antwort wurde durch nachfolgende Theorien das Resonanz-Phänomen gefunden. Man erklärte sich die Eigenschaften der Basilarmembran als Interaktion von Steifheit und Resistenz plus eine Menge an Masse, die die Grundlage für Resonanz darstellt [18]. De Boer (1980) schlug ein Basilarmembran-Modell vor, indem die Ausbreitungsgeschwindigkeit der Wandelwelle längs der Cochlea (x-Richtung) durch einen exponentiellen Abfall gegeben ist (Gleichung (1)). Dieses Modell ist eindimensional und linear und beschreibt das grundsätzliche mechanische Verhalten der Basilarmembran mit seiner frequenzabhängigen Laufzeit-Verzögerungen in der Cochlea. Gleichung (1) mit C0 = 109 g s-2 cm-2; h = 0.1 cm; ρ = 1.0 g cm-3; α = 3.0 cm-1, Die Konstanten α und Co geben über c(x)=Coe-ax die Steifigkeit c(x) der Basilarmembran an der Stelle x an. Die Konstante ρ entspricht der Dichte der Flüssigkeit in der Scala vestibuli bzw. Scala tympani der Kochlea. Die Größe h schließlich ist die sogenannte „effektive Höhe“ der Scala vestibuli. Sie berechnet sich aus dem Quotienten der Querschnittsfläche der Scala vestibuli an der Stelle x und der Breite der Basilarmembran an derselben Stelle. Sie wird in dieser Näherung als konstant angesehen. Durch die Umwandlung der mechanischen Vorgänge in eine exponentielle Funktion konnte somit nicht nur die Ausbreitungsgeschwindigkeit sondern auch der Zeitpunkt, an dem die Wanderwelle die Basilarmembran am Ort x maximal auslenkt bestimmt werden. 32 Greenwood (1990) setzte diese Überlegungen fort und ergänzte sie durch seine Theorie der Frequenz-Orts-Transformation [27] (Gleichung (2)). Dabei schlug er eine Art Frequenzmappe für die Cochlea vor. Für jeden Millimeter der (35 mm langen) der Cochlea bestimmte er 35 kritische Bandbreiten, bei denen Spektralkomponenten gehört werden könne. Gleichung (2) mit a = 16.7 mm; b = 0.006046 Hz-1 ; c = 1; L = 34,85 Die Größe x gibt dabei den Abstand vom ovalen Fenster in mm an. Die Konstante L = 34,85 mm steht für die mittlere Länge der Basilarmembran. Die weiteren Konstanten haben folgende Werte: a = 16.7 mm; b = 0.006046 Hz-1 ; c = 1 Damit konnte der Zeitpunkt der Anregung auf der Basilarmembran in Abhängigkeit von der Frequenz des Reizes bestimmt werden und es lässt sich nun direkt die Dauer berechnen, die z.B. ein Click-Reiz benötigt, um einen vorgegebenen Frequenzbereich zu durchlaufen [118]. Somit lieferten beide wichtige Grundlagen, die auch heute in der Generierung neuartiger Reizformen für die objektive Hörprüfung benutzt werden. 2.1.4 Zentrale Hörverarbeitung Die zentrale Hörbahn beginnt mit dem Ganglion spirale cochleae im Felsenbein. Die hier liegenden Nervenfasern stellen das erste Neuron dar und erhalten über ihre Dendriten die Informationen aus dem peripheren Hörorgan. Die Axone der Bipolarzellen schließen sich zur Pars cochlearis des 8. Hirnnerven zusammen und ziehen zum Rautenhirn. Die Nervenfasern teilen sich auf und enden am Nucleus cochlearis ventralis, beziehungsweise am Nucleus cochlearis dorsalis. In den Nuclei cochlearis befindet sich das 2. Neuron. Die vom Nucleus ventralis abgehenden Axone stellen die ventrale Hörbahn dar. Sie ziehen um den oberen Teil des Nucleus olivaris herum und bilden den Trapezkörper, an dem ein geringer Teil der Axone endet. Der übrige Anteil wird im Trapezkörper auf das 3. Neuron umgeschaltet und zieht daraufhin zur Gegenseite, wo er sich dem Lemniscus lateralis anschließt. 33 Die dorsale Hörbahn, bestehend aus einem dorsalen und einem intermediären Anteil, wird von Axonen gebildet, die den Neuronen des Nucleus cochlearis dorsalis entstammen. Die Axone kreuzen als Striae acusticae dorsalis im Bereich der Raphe zur Gegenseite. Sie ziehen im Bereich des Lemniscus lateralis zum Colliculus inferior und von dort zum Corpus geniculatum mediale. Durch die Umschaltung auf das 4. Neuron in den medialen Kniehöckern entstehen Kollateralen für Reflexe auf akustische Reize. Die Axone der 4. Neurone vereinigen sich zur Radiatio acustica. Über die Capsula interna erreicht die Hörstrahlung das primäre akustische Rindenfeld, Area 41. Die Heschelschen Querwindungen in den Gyri temporale transversi sind das morphologische Korrelat dieser Area. Die Areale 42 und 22 sind sekundäre Hörfelder. Zusammen mit dem sogenannten Wernickesche Sprachzentrum, das für das Verständnis der Sprache verantwortlich ist, werden sie auch als akustisches Assoziationszentrum bezeichnet. Als Hörrinde ist also ein Bezirk anzusehen, der wesentlich größer ist als die Heschelschen Querwindungen. Beim Ausfall des Ganglion spirale oder der Nuclei cochlearis kommt es auf der betroffenen Seite zur vollständigen Taubheit. Fallen jedoch höher liegende Kerne der Hörbahn aus, resultiert hieraus keine vollständige Taubheit, da die Hörbahn von den Nuclei cochlearis an aufwärts einen doppelseitigen Verlauf nimmt. Die Aufgabe des zentralen auditiven Systems liegt in der Analyse der eingehenden Informationen. Dies geschieht z.B. mit Hilfe der Spektralanalyse, da über die gesamte Hörbahn und auch in der Hörrinde die geordnete Abbildung der Frequenzen erhalten bleibt. Durch diese tonotope Organisation kann das zentrale auditive System vom Ort der Erregung in der Hörrinde auf die Schallfrequenz des auslösenden akustischen Signals rückschließen. Außerdem führt die Hörrinde eine Periodizitätsanalyse durch. Die Haarzellen des Corti-Organs lösen Aktionspotentiale nur bei der Aufwärtsbewegung der Basilarmembran aus. Man spricht von phasengekoppelter Entladung. Die Sequenz der Aktionspotentiale spiegelt also die Zeitstruktur des Schallreizes wieder. Das zentrale auditive System kann von der Zeitstruktur auf die zugehörigen Schallfrequenzen zurückrechnen. 34 Diese Analysen dienen dem Cortex zur Mustererkennung, wobei bestimmte Merkmale des Schallsignals, wie Frequenzübergänge, Intensitätsmuster oder Zeitstrukturen, auch schon im Verlauf der Hörbahn herausgearbeitet werden. Eine weitere Leistung des auditorischen Systems ist die Differenzierung von interauralen Zeit- und Intensitätsunterschieden. So ist bei binauralem Hören eine genauere Lokalisierung der Schallquelle möglich. Der Cortex kann Laufzeitdifferenzen von bis zu 3·10-5ß s beurteilen, diese Zeit entspricht einer Abweichung von etwa 3° von der Mittellinie. Auch geringste Intensitätsunterschiede von nur einem dB können von der Hörrinde ausgewertet werden. Die auf diese Weise sehr exakte Lokalisierung der Schallquelle dient der Bildung eines Raumeindruckes. Bei der Erstellung dieses Raumeindruckes spielt neben dem Cortex der Colliculus superior eine wichtige Rolle, da hier eine Karte des Hörraumes aufgebaut wird [94]. Die interauralen Zeit- und Intensitätsdifferenzen werden außerdem beim Selektionsprozess genutzt. Hintergrundlärm kann so unterdrückt und ein biologisch interessantes Signal, wie z.B. die Sprache, hervorgehoben werden. Die Hörbarkeit eines Signals verbessert sich um bis zu 15 dB durch den Selektionsprozess. Neben der Hörrinde ist hieran vor allem der Colliculus inferior beteiligt. Bei einer monauralen Schwerhörigkeit leiden also sowohl die akustische Raumorientierung als auch die Fähigkeit, akustische Signale herauszufiltern. Abb. 8: schematische Aufbau des Menschliche Gehörs und Darstellung der aufsteigenden Hörbahn im Bereich des Hirnstamms ( nach Nieuwenhuys et al. 1988) [70] 35 2.2.Schwerhörigkeiten Erkrankungen im Schalltransport oder den Sinneshaarzellen, die sich im Cortischen Organ des Innenohrs befinden, führen zu Schwerhörigkeiten. Der zwischenmenschliche Kontakt kann durch ein gestörtes Hörsystem erheblich beeinträchtigt werden oder ganz und gar aufgehoben sein und damit zur sozialen Isolation des Betroffenen beitragen. Auf die Bedeutung unseres Gehörs hat auch der Philosoph Immanuel Kant hingewiesen, denn er postulierte im Jahre 1756 den berühmten Satz: „Taubheit trennt von den Menschen, Blindheit von den Dingen“. Die Nomenklatur in der Bezeichnung von Hörstörungen, die heute verwendet wird, verursacht einige Verwirrungen, da ältere Bezeichnungen an Bedeutung verlieren, während neue Erkenntnisse die Palette von Begriffen erweitern. Leider wird immer noch keine einheitliche Terminologie verwendet, was zu Ungenauigkeiten in der Bezeichnung der Zuordnung zwischen Lokalisation und Funktion der Störung führt. 2.2.1 Schallleitungsschwerhörigkeiten Schallleitungsschwerhörigkeit ist eine Störung der Schallübertragung vom Aussenohr in das Innenohr. Die Schalleitung ist durch Versteifung, Dämpfung oder Blockierung beeinträchtigt Als mögliche Ursachen kommen z.B. angeborene bzw. erworbene Missbildungen oder ein Verschluss des Gehörganges mit Cerumen, durch Fremdkörper oder Tumoren in Frage. Auch Störungen der Mittelohrfunktion können eine Schalleitungsstörung verursachen. Dabei ist an Trommelfellbeschädigungen, Tubenbelüftungsstörungen, Entzündungen oder Veränderungen an der Gehörknöchelchenkette, wie bei der Otosklerose, zu denken. Charakteristisch für die Schalleitungsschwerhörigkeit ist die Abschwächung des in das Innenohr gelangenden Luftschalls. Oftmals lässt sich die genaue Genese der Schalleitungsschwerhörigkeit durch eine äußere Untersuchung und mikroskopische Inspektion des Gehörganges und des Trommelfelles klären und ist der HNO-ärztlichen Therapie gut zugänglich. 36 2.2.2. Schallempfindungsschwerhörigkeiten Bei den Schallempfindungsschwerhörigkeiten unterscheidet man die cochleäre oder sensineurale Schwerhörigkeit und die retrocochleäre Schwerhörigkeit 2.2.2.1 Innenohrschwerhörigkeit Die Innenohrschwerhörigkeit ist durch eine Funktionsstörung der Sinneshaarzellen gekennzeichnet. Verschiedene Defekte können eine solche Schwerhörigkeit verursachen: Die angeborenen hereditären Innenohrschwerhörigkeiten werden in isolierte Innenohrschwerhörigkeiten oder monosymptomatisch, bei denen keine weiteren organischen Fehlbildungen vorliegen, und polysymptomatische Erkrankungen eingeteilt. Zu den zuletzt genannten zählen folgende klinisch bedeutsame Syndrome: AlportSyndrom, Pendred-Syndrom und Usher-Syndrom und andere. Der Anteil der monosynaptischen Schwerhörigkeiten beträgt dabei über 70%. Erworbene Innenohrschwerhörigkeiten werden durch prä-, peri- und postnatale Schädigungen hervorgerufen. Hierunter fallen die prä- und perinatale Asphyxie, die kongenitale Schwangerschaftsinfektionen, Frühgeburtlichkeit, niedriges Geburtsgewicht, Medikamente und Geburtstraumen oder maschinelle Beatmung über 10 Tage . Eine postnatal erworbene Innenohrschwerhörigkeit kann durch verschiedene Infektionen verursacht werden. In den meisten Fällen ist eine bakterielle Meningitis verantwortlich, die bis zur beidseitigen Gehörlosigkeit führen kann. Auch andere Infektionen wie die Otitis bei Masern oder Mumps gehen mit dem Risiko einer Innenohrschwerhörigkeit einher. Als weitere Ursachen sind ototoxische Substanzen bekannt. Während Folgeschäden durch ototoxische Antibiotika rückläufig sind, treten nun ototoxische Chemotherapeutika in den Vordergrund, die allerdings nur unter vitaler Indikation eingesetzt werden. Bei traumatisch bedingten Innenohrschwerhörigkeiten findet sich häufig eine Felsenbeinquerfraktur oder eine Schädigung der Haarzellen. 37 Auch die akuten und chronischen Lärmschwerhörigkeiten und die Presbyakusis zählen zum großen Feld der Innenohrschwerhörigkeiten. Zusammenfassend ist bei einer Innenohrschwerhörigkeit die Umwandlung des in die Cochlea gelangenden Schalls in neuronale Erregungsmuster gestört und es resultiert ein qualitativer und quantitativer Hörverlust, der vor allem bei den angeborenen Störungen, kaum einer medikamentösen oder operativen Therapie zugänglich ist. 2.2.2.2 Zentrale Hörstörung Eine retrocochleäre Hörstörung bezeichnet grundsätzlich jede Hörstörung, deren Ursache der Cochlea nachgeschaltet ist. Die wichtigsten Ursachen einer retrocochleäre Hörstörung sind Tumoren des inneren Gehörgangs und des Kleinhirnbrückenwinkel, wie das Akustikusneurinom. Weiterhin kommt es durch Kompressionen durch Gefäßschlingen oder Veränderungen des Hörnervs, wie z.B. bei Multipler Sklerose zu den typischen subjektiven Beschwerden der zentralen Hörstörung. Dazu zählen, neben Tinnitus, vestibulären Symptomen, ein fehlendes Recruitment, auffällige Ermüdung bei auditiven Belastungen und schlechtes Sprachverständnis. Auch das Richtungshören und die Signalerkennung bei Störgeräuschen sind gewöhnlich auffallend schlecht [82]. Bei Kindern beruht eine retrocochleäre oder zentrale Schwerhörigkeit meist auf einer Reifestörung der zentralen Hörbahn, sie werden auch als auditorische Neuropathie bezeichnet und können in unterschiedlichem Schweregrad auftreten. In einigen Fällen imponieren diese Hörstörung wie eine Taubheit. Gegenwärtig rückt diese Art der Hörstörung ins Interesse vieler Forschergruppen [101],[102]. Neben diesen Reifestörungen existieren auch akustische Wahrnehmungsstörungen bis hin zur akustischen Agnosie. Die genaue Ätiologie lässt sich in der Mehrheit der Fälle nicht nachweisen. Ein Beispiel für eine progrediente zentrale Schwerhörigkeit ist das Landau-KleffnerSyndrom. Nach vorausgehender unauffälliger Entwicklung treten im Rahmen dieses Syndromes im 2.-13. Lebensjahr akustische Agnosie und EEG-Veränderungen mit Krampfanfällen auf. 38 2.3 Hörbahnreifung Myelisierung Um Störungen der Entwicklung des Hörbahnsystems beurteilen zu können, müssen zunächst die anatomisch-physiologischen Vorgänge der Reifung und Entwicklung des menschlichen Gehörs, wie sie unter Normalbedingungen ablaufen, betrachtet werden. 2.3.1 Entwicklung des peripheren Hörorgans Bereits mit etwa drei Wochen post conceptionem (p.c.) wird der primäre Gehörgang angelegt. Über die Entwicklung der Gehörgangsplatte bilden sich im siebten Monat der endgültige äußere Gehörgang und das Trommelfell aus. Im Alter von sechs Wochen beginnt die Ohrmuschel sich zu entwickeln und erreicht beim 20 Wochen alten Fetus die Form des Erwachsenen, wächst jedoch bis etwa zum neunten Lebensjahr weiter [71]. Ebenfalls im Alter von 3 Wochen werden aus der ersten Schlundtasche die primitive Paukenhöhle und die Tuba Eustachii angelegt [52]. Gegen Ende der siebten Woche verdichtet sich das Mesenchym über der primitiven Paukenhöhle. Aus dieser Proliferation entwickeln sich die knorpeligen Vorläufer der Gehörknöchelchen. Im Alter von etwa 16 Wochen setzt die Verknöcherung der Gehörknöchelchen mit dem Stapes ein. Mit der Pneumatisation des Tympanons ist in der 37. Woche die Mittelohrentwicklung abgeschlossen [122]. Bereits 15.-75. Tag p.c. beginnt die Entwicklung des Innenohres, das aber insgesamt das letzte Element des peripheren Hörorgans ist, das im Laufe der Ontogenese seine volle Funktion erreicht [61]. Es kann somit als der limitierende Faktor für den Beginn der Hörfunktion angesehen werden [62], [90]. 6 Wochen p.c. ist die Otozyste nachweisbar [92]. Zu diesem Zeitpunkt liegt der Wand des Gehörbläschens schon eine Anhäufung von Ganglienzellen an [122], die im weiteren Verlauf das Ganglion statoacusticum [83] und das Ganglion spirale cochleae ausbilden [122]. Durch Faltenbildung entstehen auch der Saccus und Ductus endolymphaticus. Die Entwicklung der Bogengänge und der Schnecke setzt ein, wobei sich der phylogenetisch jüngere cochleäre Anteil später ausdifferenziert als der vestibuläre [3],[89]. Nach Northern und Downs (1991) [71] ist die Differenzierung des häutigen Labyrinths in der 12.Woche abgeschlossen. 39 Ab dem vierten Lebensmonat p.c. sind alle cochleären Windungen mit Nervenfasern versorgt. Während die inneren Haarzellen mehr und mehr von afferenten Fasern innerviert werden, verdrängen im Laufe der Entwicklung bis zum adulten Stadium efferente Verbindungen weitestgehend die afferenten Verknüpfungen der äußeren Haarzellen [4],[46],[104]. Nach etwa 23 Wochen ist mit der abgeschlossenen Ossifikation des Labyrinths das Innenohr voll differenziert und hat damit in der Mitte der fetalen Entwicklung als einziges Sinnesorgan sowohl Erwachsenengröße als auch einen adulten Differenzierungsgrad erreicht [71]. 2.3.2 Entwicklung der zentralen Hörbahn Allgemein läuft die Entwicklung der Neurone im zentralen Nervensystem (ZNS) nach einem typischen Muster ab, das sich so auch auf die Zellen des Hörbahnsystems übertragen lässt. Neben der Proliferation, die ihren Höhepunkt beim Menschen im siebten bis neunten pränatalen Monat erreicht, der Migration, das heißt der gerichteten Wanderung der Neuroblasten, spielt auch die Differenzierung der Nervenzellen in ihren bestimmten Zellverbänden eine Rolle. Schließlich kommt es zur Bildung von neuronalen Vernetzungen und zur Myelinisierung der Nervenfasern. Die Myelinscheide eines Axons stellt einen elektrischen Isolator dar und damit eine Vorraussetzung für eine schnelle Erregungsleitung. In den myelinisierten Bezirken können durch die Axonmembran keine Ströme fliessen. So ist bei einer Erregung, d.h. Depolarisation, der Stromkreis über relativ weit entfernte Schnürringmembranen möglich. Dies führt zu einer saltatorischen, einer sprunghaften Erregungsfortleitung und damit einer beträchtlichen Erhöhung der Nervenleitgeschwindigkeit. Eine Markscheidenreifung erfolgt aber nur im Bereich verfestigter neuronaler Verbindungen. Das Wissen über den Ablauf der Myelinisierung der einzelnen Hörbahnanteile ist von besonderer Bedeutung bei der Betrachtung und Beurteilung der Reifung der Hörbahn mit Hilfe der FAEP, da durch diesen Vorgang die Nervenleitgeschwindigkeit ganz entscheidend verbessert wird. 40 Die Entwicklung des Ganglion spirale (1.Neuron) hängt eng mit dem Werden des Corti - Organs zusammen. Das ZNS stammt vom Ektoderm ab. In der 3. SSW entsteht die Neuralplatte, welche sich zum Neuralrohr schließt. Dann entwickelt sich aus drei Erweiterungen des Neuralrohres, den sogenannten Gehirnbläschen (Rhomb-, Mes- und Prosenzeophalon) das Gehirn [51]. Die Hirnstammkerne entstehen ca. in der 6.-7. Embryonalwoche. Im Mesenzephalon (Mittelhirn) formiert sich im weiteren Entwicklungsverlauf die Vierhügelplatte, deren hinterer Bereich einen Teil der zentralen Hörbahn bildet. Aus dem mittleren Abschnitt des Prosencephalons geht das Dienzephalon (Zwischenhirn) hervor. Am Boden dieses Hirnabschnittes wölbt sich der Thalamus in die Lichtung vor. Dort werden dann unter anderem sensorische Impulse des Hörens vor Erreichen der Hirnrinde umgeschaltet [52]. Im Corpus geniculatum mediale findet man im 6. Fetalmonat von Fasern umschlossene Zellgruppen [56]. Etwa im 8. Monat der Schwangerschaft kommt es zum Abschluss der Nervenzellteilung in den Strukturen der zentralen Hörbahn [49]. Die folgende Ausreifung der Strukturen der Hörbahn ist hauptsächlich das Ergebnis von wachsender Myelinisierung, zunehmender Synapsendichte und Synapseneffektivität [22]. Myelinisierung, Synaptogenese und Verschaltung der zentralen Hörbahn benötigen akustische Reize aus der Umwelt (Hörreize) [119]. So zeigen pränatale Myelinisierungsprozesse der Hörbahnaxone, dass das Ungeborene bereits im Uterus adäquate Reize zur Ausreifung des akustischen Systems rezipiert (z.B. Organgeräusche der Mutter, Stimme der Mutter) [64]. Die Myelinisierung der afferenten Hörbahn bis zum Colliculus inferior ist im neunten Fetalmonat abgeschlossen. Ab der 30. SSW können bereits evozierte Hirnstammpotentiale bei hohen Klickintensitäten abgeleitet werden [119]. Die Ausreifung der Hörstrahlung zur Hirnrinde erfolgt im ersten Jahr nach der Geburt. Dieser Zeitraum wird als sensible Phase bezeichnet [64], [81]. Zu Beginn des 3. Lebensjahres finden die auditiven Reifungsprozesse ihren Abschluss [10]. 41 2.3.3 Hörbahnreifung und seine Auswirkungen „Hören“ bedeutet das Erlernen akustische Informationen zu interpretieren. Es ist in erster Linie eine Auswertung von Schallereignissen durch das Gehirn. Der Hörnerv gibt die im mechanischen Schallreiz enthaltene Information kodiert an das Gehirn weiter. Durch spezielle Nervennetze wird eine Schallanalyse durchgeführt. Allerdings ist die Ausbildung solcher neuronalen Strukturen nur möglich, wenn Schallreize auch die Hörbahn erreichen. Ist eine Aufnahme von Schallreizen, zum Beispiel bei einer Erkrankung oder Fehlanlage des Innenohres ausgeschlossen oder nur bruchstückhaft vorhanden, unterbleibt die Reifung des zentralen Systems. Der anfänglich periphere Hörschaden führt zu zentralen Defiziten, da der Schallreiz nicht in das zentrale Hörsystem gelangt. Es resultiert im schwersten Fall eine „Taubheit“. Kommen die zentralen Reifungsprozesse nicht in der sensiblen Reifungsphase zustande, können sie im späteren Lebensalter nur unvollständig aufgebaut werden [115]. Tierexperimentelle Untersuchungen über den Einfluss akustischer Deprivationen auf die Hörbahn weisen nach, dass eine reduzierte akustische Stimulation innerhalb kritischer und sensibler Phasen objektiv nachweisbare Reifungsverzögerungen induzieren kann, die im weiteren Entwicklungsverlauf nicht mehr vollständig zu kompensieren sind [115],[55],[49]. Insbesondere wurden Degenerationen neuronaler Strukturen bei ertaubten Tieren nachgewiesen [121],[117],[57]. Auch für die Hörentwicklung des Menschen sind die ersten nachgeburtlichen Wochen wichtig. Der Einfluss einer frühen akustischen Stimulation auf die Synaptogenese konnte durch Volumenzunahme der Kerngebiete belegt werden [31]. Ein Baby lernt in den ersten Wochen Schallreize zu analysieren, wenn in seiner unmittelbaren Umgebung viel gesprochen wird. Die parallel dazu ablaufende motorische Entwicklung unterstützt den Spracherwerb und führt dazu, dass sogenannte Lallmonologe und Lautverdoppelungen entstehen. Die ersten willkürlichen Sprachlaute werden als bewusste Lautnachahmung bezeichnet und sind Ausdruck für ein intaktes Hörvermögen. Kinder mit unerkannter hochgradiger Hörstörung können diesen Entwicklungsschritt nicht erreichen. 42 Das Erlernen von sprachlicher Kommunikation ist zwar genetisch vorprogrammiert kann aber beim Kind nur durch eine intakte sprechende Umwelt zur Sprachentwicklung führen. Dies wird von Seiten der Eltern durch den „baby-talk“ unterstützt und wird transkulturell eingesetzt. Das Kind nimmt diese Lautbilder auf und versucht, diese zu wiederholen. Diese Phase der bewussten Lautnachahmung wird als zweite Lallphase bezeichnet und findet ab dem sechsten Monat statt. Gleichzeitig nimmt in dieser Phase die Zahl der Synapsen im linken Schläfenlappen explosionsartig zu. Neben der Zunahme der Produktion von Lauten entwickelt sich ein Sprachverständnis was eine Analyse von Schallereignissen voraussetzt. [50]. Die zweite Lallphase ist sehr wichtig für das zentrale Hörsystem. Verstummt das Baby liegt damit ein Hinweis auf eine Hörstörung vor [49],[50]. Wird eine Schwerhörigkeit während der sensiblen Reifungsphase nicht behandelt, resultieren Defizite in der Entwicklung der zentralen Hörbahn sowie deren Verknüpfungen mit anderen auditorischen Systemen wie dem zentralen Sprachsystem und der zentralen Steuerung der Sprechmotorik. Daraus resultieren eine reduzierte Ausbildung des Sprachverständnisses sowie weitere Sprachentwicklungsstörungen und sekundäre Behinderungen wie zentrale Verarbeitungsstörungen mit kognitiven Leistungseinschränkungen und Störungen der emotionalen und psychosozialen Entwicklung. Dies wirkt sich auf die spätere schulische und berufliche Entwicklung aus [113]. Selbst milde Hörstörungen von 35-40 dB nHL bedeuten für ein Kind, dass ihm ca. 50 % der täglichen Konversation fehlen und führen zu einer sich daraus entwickelnden erheblichen Sprachentwicklungsstörung [2]. Hochgradige Schwerhörigkeiten über 70 dB rufen unbehandelt in der Regel das Bild der „Taubstummheit“ hervor, da die Rückkopplung zwischen Hören und Sprechen fehlt [33]. Sprachliche Fähigkeit und Lernvermögen schwerhöriger Kinder korrelieren mit dem Therapiebeginn [103]. Frühversorgte Kinder, die vor dem sechsten Lebensmonat eine Hörhilfe erhalten haben, zeigen signifikant bessere Ergebnisse als später versorgte Kinder [35]. Wenn der Diagnosezeitpunkt einer Schwerhörigkeit innerhalb der ersten sechs Monate nach der Geburt liegt, verbessert sich die Prognose für die intellektuelle, emotionale und Sprachentwicklung verglichen mit später detektierten Schwerhörigkeiten [23]. Das alles belegt die Notwendigkeit einer frühen Erfassung und Behandlung einer konnatalen Schwerhörigkeit. 43 2.4 Grundlagen der akustisch evozierten Potentiale 2.4.1 Allgemein Adäquate Reizung von Sinnesorganen führt zur Entstehung von Generatorpotentialen in den spezifischen Sinnesrezeptoren. Die Höhe des Generatorpotentials bestimmt die Zahl und die Frequenz der Nervenaktionspotentiale in den angeschlossenen Nervenfasern. Die Aktionspotentiale erreichen über mehrere hintereinandergeschaltete Neuronen die spezifischen sensorischen Rindenfelder, wobei bereits vor deren Eintreffen im Cortex Prozesse der Filterung und Integration in den einzelnen synaptischen Schaltstationen ablaufen. Die Fortleitung von Informationen in peripheren Nerven und in zentralnervösen Leitungsbahnen ist eine Fortleitung von Aktionspotentialen und als solche messbar. Bei elektronischer Summation einer genügenden Anzahl von Reizantworten gelingt diese Messung von der intakten Körperoberfläche aus und stellt damit eine klinisch anwendbare nicht invasive Untersuchungsmethode dar. Alle einem modalitätsspezifischen Reiz folgende Reizantworten werden unter dem Begriff „Evozierte Potentiale“ subsummiert. Dabei ist in allen derzeit klinisch untersuchten Sinnessystemen die wichtigste Messgröße die Latenz der Reizantworten. Die diagnostische Methode der „Evozierten Potentiale“ untersucht also in erster Linie die Geschwindigkeit, mit der die Impulse in dem jeweiligen Sinnessystem geleitet werden. Weitere Messparameter sind die Amplitude und die Form der Reizantworten, die unter anderem abhängig sind von der Zahl der funktionsfähigen Neuronen und dem Grad der Synchronizität, mit dem die Impulse in den verschiedenen Nervenfasern einer sensorischen Bahn übertragen werden. Messungen evozierter Potentiale stellen somit eine Funktionsprüfung der jeweiligen sensorischen Leitungsbahn dar und erlauben Rückschlüsse auf deren Funktionstüchtigkeit [105]. 44 2.4.2 Geschichtlicher Rückblick Die allgemeine Entwicklung der Hörphysiologie wurde in mehreren Übersichtsarbeiten erörtert (Davis et al. 1934; Békésy 1960; Weber 1961). Bereits im 19. Jahrhundert (1875) entdeckte Richard Caton eine elektrische Hirnaktivität bei Tieren und leitete motorische und durch Sinnesreize ausgelöste Potentiale mit einem Saitengalvanometer ab. Zwei Jahre später beschrieb Danilevsky zusätzlich Potentialänderungen nach akustischer Reizung am Tierhirn. Die weitere Erforschung dieser Potentiale vollzog sich auf Grund des technischen Entwicklungsstandes langsam, so konnten erst 1927 von Forbes et al. Aktionsströme am Ohr der Katze nach akustischer Stimulierung gemessen werden [12]. Schon wenige Jahre nach Entdeckung des Elektroenzephalogramms (Berger 1929) wurde durch Kornmüller (1933) und Davis (1939) von der Kopfhaut des Menschen ableitbare Potentiale beschrieben, die nach Applikation eines auditorischen Reizes auftreten. Später wurden diese Antworten, da sie am Vertex mit größter Amplitude ableitbar sind, als Vertex-Potentiale bezeichnet. Erst die Einführung der Mittelungstechniken (Dawson 1951, 1954) ermöglichte eine intensive Erforschung reizabhängiger Potentiale im ZNS am intakten Organismus und damit die klinisch-diagnostische Anwendung, v.a. der im Hirnstamm generierten frühen Komponente des AEP [54]. Keidel 1962 und Davis H.1964,1966 und 1968 erarbeiteten unabhängig von einander weitere Methoden zur Ableitung bioelektrischer Potentiale, wobei Davis erstmals eine Vertexelektrode benutzte. Beide erkannten die Möglichkeit der Nutzung dieser Potentiale für die klinische Audiometrie und standen somit am Beginn des diagnostischen Einsatzes der Elektrischen Reaktionsaudiometrie (ERA), was Burian et al. 1968/69 in die Praxis umsetzte. Die Entdeckung einer Methode der Fernfeldtechnik mit Elektroden am Mastoid und am Vertex durch Sohmer und Feinmesser 1967, Jewett 1970 und Jewett und Williston 1971 wurde zum Meilenstein in der Entwicklung der ERA. Zusätzlich fanden sie noch 4 Wellen, die Jewett mit römischen Ziffern bezeichnete. Diese Bezeichnung ist heute die geläufigste. Auch in Deutschland folgte man dieser Entwicklung. 1970 setzte Theissing die Methode zur Hörprüfung bei Kindern ein (Latenzen 10-27 ms). Gerull fand 1972 ein akustisch evoziertes Potential mit einer Latenz von 6-10 ms am gesamten Schädel 45 (Welle Jewett V). Zwei Jahre später gelang es Strecker fünf frühe Wellen (Jewett IV) mit guter Reproduzierbarkeit abzuleiten. Die erste Publikation über die systematische Anwendung der Frühe akustisch evozierte Potentiale (FAEP) in der Neurootologie veröffentlichten Sohmer et al. 1974 mit Ergebnissen bei cochleären und retrocochleären Störungen. [67]. 2.4.3 Anatomische-physiologische Grundlage Als akustisch evozierte Potentiale (AEP) bezeichnet man cortikale und subcortikale elektrische Spannungsdifferenzen, welche in zeitlicher Relation zu einer externen akustischen Stimulation stehen und durch elektronische Signalverarbeitung aus dem EEG herausgefiltert werden können. Aufgezeichnet wird die elektrische Aktivität in der Cochlea (Rezeption), dem Nervus acusticus und zentral-nervösen Abschnitten wie dem Hirnstamm, der Hörstrahlung und der Hörrinde. Es lassen sich prä- und postsynaptische Potentiale auslösen. Zu den präsynaptischen AEP zählen die Summations- und Mikrophonpotentiale. Die Einteilung der postsynaptischen AEP erfolgt auf Grund verschiedener Latenzen in frühe, mittlere und späte AEP. Hierbei bestehen die frühen Potentiale aus prä- und postsynaptischen Komponenten und die mittleren und späten Potentiale nur aus postsynaptischen Komponenten. Die Ableitung der elektrische Aktivität, welche ihren Ursprung im Hörnerv und Hirnstamm hat, bezeichnet man als Hirnstammaudiometrie (Brainstem Evoked Response Audiometry - BERA). Bei der Ableitung der AEP werden neben diesen zentralnervösen auch Antworten der Muskulatur (z.B. Stapediusreflex) und elektrodermale Aktivitäten nach akustischer Stimulation erfasst. 46 2.4.4 Klassifikation Eigenschaften und Formen der AEP hängen u.a. von ihrem zeitlichen Auftreten nach dem akustischen Reiz oder ihrer Latenzzeit ab. Aus klinisch-otologische Sicht erscheint es sinnvoll, eine Einteilung zu treffen, die die AEP als Überbegriff versteht und die bemüht ist, für die unterschiedlichen Ableitungen sich möglichst streng an die zeitliche Folge der Reizantworten zu halten. AEP mit kurzer Latenz treten sehr kurz nach einem Reiz auf und sind Strukturen zuzuordnen, die frühzeitig durch den akustischen Reiz angeregt werden. Aufgrund der anatomischen Strukturen und der unterschiedlichen Latenzen der auditorisch evozierten Potentiale unterscheidet man: • Elekrocochleographie (ECochG): Registrierung der Potentiale der Cochlea und des Hörnervs. Diese Potentiale treten ca. 1-3ms nach dem Reiz auf. Mit ihrer Hilfe werden neben Nervenpotentialen auch Rezeptorpotentiale und Verschiebungen des endocochleären Potentials registriert. Zur Durchführung der ECochG muss eine Elektrode möglichst nahe an die Cochlea herangebracht werden. Es werden durch das Trommelfell geschobenen Nadelelektroden auf dem Promontorium aufgesetzt oder speziell konstruierte Gehörgangselektroden verwendet. Da hierzu zumindest eine Parazentese gemacht werden muss, muss diese Diagnostik bei Kindern in Narkose durchgeführt werden Mit der Elektrocochleographie ist eine gezielte Bestimmung der cochleären Funktion und der Hörnervenfunktion. Die Elektrocochleographie Fragestellungen wie Synchronisationsstörungen, kann bei speziellen perisynaptischen Audio- und Neuropathien und im Einzelfall in der Vorbereitung zur Cochlea-Implantation eingesetzt werden. 47 • Hirnstammpotentiale früher Latenz (BERA = brainstem electric response audiometry; ABR = auditory brainstem responses): Registrierung der Potentiale des Hörnervs und des Hirnstamms mit Latenzen bis 10ms. Die BERA misst die frühen auditorisch evozierten Potentiale (FAEP) der Hörbahn bis einschließlich Hirnstamm aufgrund einer akustischen Stimulation mit unterschiedlichen Schalldruckpegeln. Sie stellt eine für alle Altersgruppen geeignete objektive Messmethode zur Feststellung der Hörschwelle und zum Ausschluss einer retrocochleären Störung dar. Da sie Gegenstand der hier dargestellten Studie ist wird sie unter Punkt 2.6 noch genauer beschrieben. • Potentiale mittlere Latenz (MAEP = mittlere auditorisch evozierte Potentiale): Registrierung der Potentiale mit Latenzzeiten von 10-100ms. Sie stammen mit ihren ersten Anteilen aus dem Lemniscus lateralis, mit den nachfolgenden aus den auditorischen Feldern des Thalamus und der primären kortikalen Projektion sowie aus den Muskeln des Nackens und der Retroauricularregion und sind somit teils myogenen, teils neurogenen Ursprungs. Die MAEP können zur Bestimmung der Hörschwelle im tiefen Frequenzbereich eingesetzt werden. Natürlicher Schlaf und Narkose beeinflussen diese Potentiale, was ihre Auswertung erschwert. • Hirnrindenpotentiale später Latenz (SAEP = späte auditorisch evozierte Potentiale): Registrierung der Potentiale mit Latenzen von 100-1000ms. Sie sind Inhalt der Cortical ERA, Hirnrindenpotentiale (CERA) und als ihr Ursprung gelten vor allem die primäre und sekundäre Hörrinde. Sie können im Prinzip mit jedem wiederholbaren akustischen Stimulus ausgelöst werden. Die physikalischen Eigenschaften der Reize führen zu reizkorrelierten Antworten, die zur objektiven, reizspezifischen Hörschwellenbestimmung eingesetzt werden können. Daneben kann auch der Informationsgehalt eines Reizes zu typischen CERA führen, die sich zur Diagnostik 48 von kognitiven Prozessen eigenen. Allgemein jedoch wird der klinisch-otologische Wert der SAEP heute als begrenzt angesehen. Für eine CERA muss das Kind wach und aufmerksam sein. Um diesen Zustand einigermaßen konstant zu erhalten, können ältere Kinder während der Messung ein Buch lesen oder einen Film schauen. Die CERA kann nicht in Narkose bestimmt werden, da nur im Rapid-Eye-Movement (REM)-Schlaf eine dem für dieses Verfahren erforderlichen Wachzustand vergleichbare Messung möglich wäre. Die Messwerte der CERA entsprechen denen der Freifelduntersuchung. Die Messung mit verschiedenen Frequenzen hat eine längere Messdauer und kann bei kleineren Kindern zu Complianceschwierigkeiten führen [96]. Die Messungen werden bei unterschiedlichen Reizfolgeraten durchgeführt, um die Grenzen der Verarbeitungsgeschwindigkeit des auditiven Systems zu ermitteln. Schallempfindungsschwerhörigkeit Im dient Kontext die CERA der der Diagnostik bei topographischen Differenzierung cochleärer Ursachen, hörbahnbezogener und corticaler Lokalisationen der Störung. Über eine Ableitung mit Knochenleitungshörern können Aussagen zu Schallleitungsstörungen erhoben werden. Die CERA kann als objektive frequenzbezogene Hörprüfung verwendet werden [54]. 2.4.5 generelle Untersuchungstechnik und Durchführung Der grundsätzliche apparative Aufbau ist in Abb. 9 wiedergegeben. Jedes Einzelteil dieser Anordnung muss von hoher Güte sein, wenn verlässliche und vergleichbare Untersuchungsergebnisse erzielt werden sollen. Grundbedingungen für eine optimale Registrierung der AEP sind eine eindeutig definierte Reizform und Reizapplikation, verlässliche akustische Abschirmung, korrekte Elektrodenanlage ausreichende Verstärkung der registrierten Potentiale verbunden mit einer wirksamen Artefaktunterdrückung [106]. 49 Abb.9: Blockdiagramm von Reiz- und Registrierapparatur Der geschilderte Aufbau ist zumeist in handelsüblichen Geräten zusammengefügt, im einzelnen deshalb kaum noch zu erkennen. Für audiometrische Zwecke sind besonders für die Messungen im schwellennahen Bereich hohe Anforderungen an den technischen Aufwand und an die angeführten Rahmenbedingungen der Untersuchung zu stellen. Um diesen Anforderungen gerecht zu werden, wurden durch die ADANO (Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen) im Jahre 1994 eine Empfehlung für die Durchführung der Elektrischen Reaktionsaudiometrie (ERA) ausgearbeitet, die die Bedingungen festlegt, die bei der Durchführung der ERA als Teil der audiologischen Diagnostik eingehalten werden sollten. Das Messprinzip besteht darin, in regelmäßiger oder unregelmäßiger Folge auditorische Reize zu applizieren und die durch sie ausgelöste Änderung der Hirnaktivität zu registrieren. Um Reizantworten auch auf geringere Reizlautstärken und aus verschiedenen Stationen der Hörbahn erfassen zu können, bedarf es sowohl der häufigen Wiederholung des Reizes als auch einer rechnergestützten Auswertung der registrierten bioelektrischen Hirnaktivität (EEG). 50 Der Computer soll durch Mittelung aus dem „Rauschen“ des EEG´s die Antwort erkennbar machen. Dafür ist es notwendig, dass ein konstanter zeitlicher Bezug zwischen dem Reiz und dem auszuwertenden EEG-Abschnitt besteht. Dies geschieht durch einen Triggerimpuls, der den auditorischen Reiz auslöst und synchron dazu den Rechner in Gang setzt. Der Rechner wertet also jeweils nur die Zeitabschnitte des EEG´s aus, die dem Reiz unmittelbar folgen. Der Vorgang wiederholt sich mit jedem neuen Triggerimpuls. Da im Gegensatz zur Reizantwort die Spontanaktivität des Hirns nicht auf den Trigger und damit nicht auf den Reiz bezogen ist, bleibt der reizunabhängige Anteil des EEGs konstant, während sich mit zunehmender Anzahl der Durchgänge die reizsynchronen Abschnitte addieren [54]. Abb.10: Doppelt-logarithmische Darstellung der postsynaptischen akustisch evozierten Potentiale 51 2.5 Hirnstammaudiometrie (BERA, ABR) Unter den verschiedenen auditorisch evozierten Potentialen sind die Hirnstammpotentiale die diagnostisch wichtigsten und am häufigsten durchgeführten. Sie treten mit kurzer Latenz bis etwa 10 ms nach einem akustischen Reiz auf. Zur Auslösung wird meist ein kurzer Clicks beziehungsweise frequenzspezifische Stimuli verwendet. Für die Ableitung der BERA muss der Stimulus 1000-2000 mal wiederholt und die nachfolgenden Antwort gemittelt werden. Mit Hilfe von angeklebten Oberflächenelektroden, auf dem Scheitel und der über dem Mastoid, kann eine typische Wellenform nachgewiesen werden, die auch im Schlaf und in Narkose fast unverändert bleibt. Sie weist 5-6 typische Potentiale auf, die nach Jewett mit den römischen Ziffern I-VI bezeichnet werden. Bei normalen Potentialen lassen sich die einzelnen Wellen den anatomischen Strukturen ungefähr zuordnen. Abb. 11: Verlauf der Hörbahn, Kennzeichnung der Orte der Potentialgenerierung der FAEP durch römische Ziffern nach Jewett [66] 52 Die BERA stellt die wohl genaueste Methode der quantitativen Bestimmung des Hörverlusts bei sehr jungen und/oder unkooperativen Kindern dar, die auch frequenzspezifisch erfolgen kann. Schallempfindungsschwerhörigkeit Im Unterschied zur sensorischen sind bei der neuralen Schallempfindungsschwerhörigkeit in der BERA die Leitzeiten (absolute Latenzen, Interpeaklatenzen) des Signals verlängert. Es ist dabei zu beachten, dass sich bereits physiologischerweise die Latenzen verlängern und die Amplituden verringern, wenn die Reizintensität abnimmt. Die verschiedenen Interpeaklatenzen geben dabei Aufschluss über die genauere Lokalisation der Störung (Reizleitung, Topodiagnostik), also über das Vorliegen einer retrocochleären Störung wie auch über den Stand der Hörbahnreifung [77]. Es wird somit eine Differenzierung zwischen sensorischer und neuraler oder zentraler Schwerhörigkeit möglich [54]. Bei Kindern wird die BERA besser im Spontanschlaf oder in Sedierung beziehungsweise Narkose durchgeführt. Die Click-BERA allein ist zur Einschätzung des Hörvermögens noch nicht ausreichend. Sie ist am besten durch frequenzbezogene Einzelreize zu ergänzen, da bei dieser Untersuchung ansonsten eine Schwerhörigkeit in einzelnen Frequenzen übersehen werden kann. Die Grenzen der Diagnostik liegen für die BERA im Frequenzbereich von 1000 bis 4000 Hz. Dabei werden nur die neuralen Strukturen bis zum oberen Hirnstamm erfasst. Bei der Notched-Noise-Masking-Technik (NN-BERA) erfolgt eine Verdeckung mit Bandlückenrauschen [76]. Dabei wird simultan mit einem kurzen Tonimpuls ein Bandlückenrauschen dargeboten, dessen Senkenminimum der Trägerfrequenz des Tonimpulses entspricht. Hierbei ist zwar die Reproduzierbarkeit noch nicht ausreichend gewährleistet, es wird aber eine hohe Frequenzspezifität erreicht Bei der Amplitude-Modulation-Following-Response (AMFR) wird die Trägerfrequenz mit einer sinusförmigen Modulationsfrequenz (Wiederholungsrate des Reizes) moduliert. Die Schwelle kann sogar für mehrere Frequenzen (MASTER - multiple auditory steady-state evoked response) simultan bestimmt werden und es lassen sich beide Ohren bei dichotischer Beschallung gleichzeitig testen [74]. Die AMFR befindet sich noch in der klinischen Erprobung. Bezüglich der Reizapplikation kommen bei der BERA in der Regel Kopfhörer zum Einsatz. In besonderen Ausnahmefällen werden auch Lautsprecher, bei Kleinkindern Schlauchzuleitungen sowie kleine Einsteckhörer und bei Gehörgangsatresie Knochenleitungshörer verwendet. Das Ausmaß einer Schalleitungsstörung kann durch 53 den Vergleich der mit dem Luftleitungshörer ermittelten Luftleitungsschwelle und der mit dem Knochenleitungshörer ermittelten Knochenleitungsschwelle beurteilt werden. Aber auch die Auswertung der Wellen I und V können bei einer Schallleitungsstörung eine Spezifität von 98% und eine Sensitivität von 94% erreichen. Dabei korreliert die BERA besser mit dem Ausmaß der Schallleitungsstörung bei einem Mittelohrerguss als bei einer Pathologie der Gehörknöchelchenkette [96]. 54 2.6 Akustische Reizung mittels AMFR – ASSR Aufgrund ihrer hohen Frequenzspezifität und der Möglichkeit, Aussagen über das Hören auch im tieferen Frequenzbereich zu erlauben, bietet die Registrierung von Amplitude Modulation Following Responses (AMFR) eine interessante Alternative zur objektiven Einschätzung des Hörvermögens und hat sich als vielversprechend für die Bestimmung der frequenzabhängigen Hörschwelle bei Kleinkindern erwiesen [72],[79],[87],[58],[111],[26]. Ein weiterer Vorteil dieses Verfahrens besteht in der Möglichkeit eines objektiven Nachweises der Potentiale auf Basis einfacher statistischer Tests [75]. Die Amplitude Modulation Following Response (AMFR) ist eine auditorisch evozierte steady-state Response (ASSR). Diese Untergruppe der akustisch evozierten Potentiale wird durch einen kontinuierlich präsentierten, sinusförmig amplitudenmodulierten Ton mit Trägersignal hervorgerufen. Abb. 12: Amplitudenmoduliertes Signal mit den beiden sogenannten Einhüllenden [120] 55 Bei der Terminologie von »Steady-State-Potentialen« folgt man Hoke und Hoke (1997) und bezeichnen damit Potentiale des auditorischen Systems, die während der Gesamtdauer des akustischen Reizes anhalten und dabei der Zeitstruktur des Reizes folgen, wobei Steady-State-Potentiale im engeren Sinne der Reizwiederholungs- bzw. der Modulationsrate folgen. Obwohl sich damit im Prinzip jeder akustische Reiz, der eine zeitliche Struktur im Sinne einer Modulation oder Reizwiederholung aufweist, zur Auslösung von SteadyState-Potentialen eignet, nehmen sinusförmig modulierte Reintöne eine Sonderstellung ein [69]. Als Reiz wird ein amplitudenmodulierter Ton verwendet, dessen Spektrum im Frequenzbereich aus drei Komponenten besteht: der Trägerfrequenz und jeweils einer Frequenz links und rechts vom Träger im Abstand der Modulationsfrequenz. Die AMFR ist nur annähernd sinusoidal. Im Frequenzbereich wird sie bei Einhaltung einer ganzzahligen Relation zwischen der Periodenlänge des Modulationssignals und der Länge der transformierten Epoche durch mehrere Harmonische repräsentiert. Die Frequenz der ersten Modulationsfrequenz, die Harmonischen höheren (Grundwelle) Harmonischen entspricht folgen im dabei der Abstand der Modulationsfrequenz [13]. Diese feste Beziehung zwischen Modulationsfrequenz und der Lage der Harmonischen im Spektrum bietet die Grundlage für einen objektiven Nachweis der Antwort mit relativ einfachen statistischen Methoden. Man kann für den objektiven Antwortnachweis (response detection) entweder nur die Grundwelle heranziehen [112],[42] oder einen geeigneten statistischen Test auf die Grundwelle und mehrere höhere Harmonische anwenden [13]. Cebulla et al. 2004 konnten zeigen, dass sich die Nachweisempfindlichkeit durch die Einbeziehung von mehreren Harmonischen, also von mehr Information über die Antwort, erhöhen lässt. Das ist auch wünschenswert, da das Signal-Rausch-Verhältnis (SNR) der Antwort sehr klein ist [14]. Der AntwortNachweis in der Nähe der Hörschwelle ist infolge der kleinen Antwortamplitude problematisch. Eine größere Antwortamplitude ist zu erwarten, wenn der erregte Bereich auf der Basilarmembran etwas verbreitert wird. 56 Abb.13: schematische Darstellung der AMFR nach Pethe et al. [73] Der prinzipielle Unterschied zwischen den durch Reintöne evozierten Potentialen und der AMFR ist demnach, dass die AMFR eine Antwort auf die Einhüllende und nicht die zeitliche Feinstruktur des Stimulus darstellt. Stimuliert man mit einem solchen Reiz die Cochlea, so konzentriert sich die gesamte Anregungsenergie auf einen schmalen Bereich der Basilarmembran [65]. Modifikationen dieses Reizes entstehen durch eine Kombination von Amplituden- und Frequenzmodulation [79], durch eine Modifikation der sinusförmigen Hüllkurve hin zu steileren Flanken [43], durch die Anwendung mehrerer eng beieinander liegender Trägerfrequenzen (Stürzebecher et al. 2001) oder durch Verwendung von weißem oder bandpassgefiltertem Rauschen anstelle des tonalen Trägers [44]. Picton hat 2003 eine Klassifikation von verschiedenen ASSR Reiztypen vorgestellt [78]. Die Grundidee der Verwendung der AMFR zur Hörschwellenbestimmung ist, durch Variation der Stimulus-Trägerfrequenz, Aussagen über das Hörvermögen in unterschiedlichen Frequenzbereichen zu erhalten, wobei das detektierte Potential immer eine Antwort auf die gleichbleibende Modulationsfrequenz darstellt. Die 57 Messung der AMFR bietet daher bei frequenzspezifischer Anregung die Möglichkeit, objektive Aussagen über das Hörvermögen zu erhalten Das Haupteinsatzgebiet der Diagnostik mit Hilfe der AMFR stellt der Bereich der Pädaudiologie dar (Rance et al., 1998)[86]. Dabei ist besonders der dem Neugeborenen Hörscreening (NHS) folgende diagnostische Abschnitt von internationalem Interesse. Für den Einsatz einer möglichst früh beginnenden apparativen Rehabilitation ist die Kenntnis über den Verlauf der Hörschwelle über die Möglichkeit der groben Abschätzung hinaus, wie sie die Hirnstammpotentiale liefert, von großem Interesse. Wenn die Untersuchungen an den Kindern ähnlich überzeugende Ergebnisse wie bei den Erwachsenen ergeben, könnte sich die Registrierung der AMFR zukünftig zu einer Standardmethode in der Pädaudiologie entwickeln. 58 2.7 Reizformen für die Ableitung AEP Die zur Ableitung der akustisch evozierten Potentiale verwendeten Reizformen sind sehr vielschichtig und Gegenstand vieler wissenschaftlichen Arbeiten, die sich um eine stetige Verbesserung für die klinischen Aufgaben bemühen. Einerseits unterscheidet man frequenzspezifische Reize, von andererseits zeitlich gut definierten Frequenzgemischen, wie den „click“ oder den „chirp“. 2.7.1 Tonimpulse Ein reiner Ton ist ein frequenzspezifischer Reiz. Zur Wahrnehmung eines bestimmten Tons bedarf es einer Tondauer von mindestens 200 ms. Zur Vermeidung von Artefakten sollten Anstieg und Abfall eine bestimmte Mindestzeit nicht unterschreiten. Der Sinuston ist ein künstlich erzeugter Ton, dessen Schallwelle wie die Sinusfunktion oder Cosinusfunktion schwingen Die Darbietung reiner Töne stößt also auf physiologisch vorgegebene Grenzen. Um diesem gerecht zu werden, werden zusätzlich Reintöne verwendet, bei denen eine Amplituden- (AM) oder Frequenzmodulation (FM) vorgenommen wurde. Prototypen dargebotener Reintonreize sind der Ton-Pip mit einer kurzen Anstiegszeit, keinem Plateau und einer kurzen Abfallzeit. Ein Ton-Burst hingegen besitzt variable Anstiegszeiten und Plateauzeiten. Die Anwendungen von frequenzspezifischen Reizen stellen besondere Anforderungen an Apparatur und Untersucher, da Resonanzfrequenzen von Wandler, Gehörgang und Mittelohr berücksichtigt werden müssen. Abb.14: Darstellung eines reinen Sinuston und als Gauß-Burst modifiziert [20] 59 15a: AM:100%; FM:0% 15b: AM:50%; FM:20% Abb.15: Darstellung von Reintönen mit Amplitudenmodulation (15a) und zusätzlicher Frequenzmodulation (15b) nach Picton [80] 2.7.2 Click-Reize Der „Click“-Reiz besteht aus zeitlich gut definierten Frequenzgemisch, das durch einen elektrischen Rechteckimpuls oder einer Sinushalbwelle generiert wird. Für sein Plateau ist eine Dauer von 150-200µs als günstig ermittelt worden. Clicks werden vom Ohr nicht als Ton empfunden, sondern haben eher einen knackartigen Charakter und sind deshalb zunächst nicht frequenzspezifisch. Der elektrisch gut definierte Verlauf des Clicks wird außerdem im elektroakustischen Wandler insofern verfälscht, als die hohen Frequenzanteile nur im Beginn des Clicks enthalten sind, das Nachschwingen dagegen ein deutlich tieferes Frequenzspektrum aufweist. Diese Tatsache hat man sich zu eigen gemacht, um so schließlich doch eine gewisse Frequenzspezifität wieder zu erreichen. Seine höchsten Frequenzanteile weist der Click unmittelbar zu Beginn auf. Hierdurch wird die gesamte Basilarmembran, insbesondere der proximale Anteil, ausgelenkt und somit ein hoher Grad der Synchronisation afferenter Fasern erreicht. Die Hauptenergie liegt meist im Frequenzbereich zwischen 1-4kHz. Click-evozierte Potentiale werden insbesondere für AEP kurzer und mittlerer Latenz verwendet. Besondere Bedeutung besitzen Variationen der frühen akustisch evozierten Potentiale aufgrund unterschiedlicher Polarität des Click. Man unterscheidet Druck- von Sogimpulsen (condensation und rarefaction) sowie eine alternierende Reizform. Die Erregung der Sinneszellen auf der Basilarmembran erfolgt zeitlich synchron zu dem Sogimpuls. Ein auditorisches Neuron antwortet nur während des Sogimpuls, wenn die Basilarmembran 60 zur Scala vestibuli ausgelenkt wird. Es stellt sich als außerordentlich wichtig heraus, sämtliche Reizparameter zu definieren und möglichst zu normieren, um eine Vergleichbarkeit der Resultate desselben und verschiedener Labors zu erreichen. Der bisher verwendete Click ist ein Breitbandsignal, das über die ausgelöste Wanderwelle nacheinander alle Frequenzbereiche der Cochlea anregt. Die Geschwindigkeit der Wanderwellen ist im basalen Teil der Cochlea am größten und nimmt von der Basis zum Apex ab. Infolge der dadurch bedingten höheren Synchronisation der Erregungen im basalen Cochleaabschnitt trägt im wesentlichen der Frequenzbereich oberhalb 1 kHz zur click-evozierten ABR bei. Die erhebliche Laufzeitverzögerung der Wanderwelle auf der Basilarmembran der Cochlea (travelling wave delay) im Bereich der tieferfrequenten Strukturen führt dazu, dass die zeitlich verzögerten Antworten aus diesem Bereich in der Summenantwort nur eine geringe Rolle spielen [59]. Abb. 16: schematische Darstellung eines Click-Reizes [120} Abb.17: Zeitverlauf und Frequenzspektrum eines Clickreizes [20] 61 2.7.3 Chirp-Reize Als Chirp (von engl. Chirp = Zwitschern) bezeichnet man in der Signalverarbeitung ein Signal, dessen Frequenz sich zeitlich ändert. Zur Beurteilung von frequenzspezifische Informationen unterhalb von 2kHz mit Hilfe der FAEP, stellen die Cochlea-Mechanik und die Zeit-Frequenz-Unschärfe der oben genannten Reizformen limitierende Faktoren dar. Wie bereits dargestellt lassen sich mit Click-evozierten Potentialen über die Erregung des Hörnervs im Tieftonbereich nur ungenaue Angaben machen, da die Erregung unterhalb von 1kHz schnell abnimmt Lütkenhöner et al., 1990 [59] sowie Dau et. al. 2000 [16] stellten Chirp-Signale vor, die in weiterführenden Arbeiten zeigten, dass der Chirp-Stimulus in Kombination mit einem Hochpass-Maskierer sehr gut geeignet ist, um Informationen über das Hörvermögen besonders im tieffrequenten Bereich abzuleiten. Der Chirp ist ein breitbandiger Reiz, bei dem im Unterschied zum Click durch den Ausgleich der frequenzabhängigen Laufzeitunterschiede auf der Basilarmembran die maximale Erregung in allen Frequenzbereichen synchron erfolgt. Abb. 18: Darstellung eines Chirp-Reizes [20] Lütkenhöner et al., 1990 orientierten sich bei der Bestimmung des „delays along the cochlear partition“ (Verzögerung entlang der Cochlea-Teilbereiche) an der von den frequenzspezifischen ABR bekannten Latenzverschiebung. Dau et al., 2000 haben bei dem von ihnen konstruierten Chirp die zeitliche Dispersion auf der Grundlage des Cochleamodells von de Boer, 1980 [18], mit den Parametern von Greenwood, 1990 [27], errechnet. In beiden Publikationen wird für die Chirp-Stimulation eine im Vergleich zum Standard-Click größere ABR-Amplitude berichtet. Die Ergebnisse wurden jedoch noch nicht in einer ausreichend großen Studie bestätigt. In der klinischen Praxis ist der Chirp bis jetzt noch nicht als ABR-Stimulus eingeführt worden. 62 Abb. 19: Oben: Schematische Darstellung des für die Messungen verwendeten Clickreizes (links) und des Chirpreizes (rechts). Mitte: Interne neuronale Repräsentation der beiden Signale nach der Verarbeitung in der Cochlea. Der Chirp (rechts) bewirkt eine im Vergleich zum Click (links) höhere Synchronisation der Aktivität über große Bereiche der Cochlea hinweg. Unten: Zugehörige akustisch evozierte Potenziale für Click und Chirp für verschiedene Eingangspegel. Der Chirp bewirkt eine höhere Amplitude der Welle V als der Click. [17] 63 2.7.4 Neue Reize Im Jahre 2001 wurde durch Stürzebecher und Cebulla ein neuer Stimulus vorgestellt, der aus mehreren amplitudenmodulierten Trägern besteht. Die Modulationsfrequenz ist für alle Träger identisch. Der Frequenzabstand der Träger beträgt das Ein- oder Zweifache der Modulationsfrequenz (multiple carrier stimuli (MC-stimuli)) [108]. Dadurch konnte das SNR der Antwort um einem Faktor bis zu 1,6 vergrößert werden. Abb.20: Zeitfunktion (oben) und Frequenzspektrum (unten) einer a) Amplitudenmodulation im Vergleich zu den Mehrfachträgerreizen (MC- Stimuli): b) AM2MF2, c) AM3MF1, d) AM3MF2 [108] 64 Ein Ziel der vorliegenden Studie war es, einen AMFR-Stimulus zu konstruieren, der wie der MC-stimulus einen breiteren Bereich der Basilarmembran erregt, bei dem aber im Gegensatz zum MC-stimulus durch Kompensation des Cochlea-delays eine weitgehend synchrone Erregung im durch den Stimulus erreichten Bereich und damit ein größeres SNR der Antwort erzielt wird. Außerdem war noch ein zweites Problem zu lösen, um gerade bei 500 Hz optimale Voraussetzungen für den Nachweis der AMFR zu erreichen: Ein Vorteil der AMFR besteht darin, dass der elektrische Reizartefakt im Spektrum im Bereich der Trägerfrequenz und der durch die Modulation bedingten Seitenfrequenzen liegt, während die Frequenz der Antwort durch die Modulationsfrequenz bestimmt wird. Der elektrische Reizartefakt stört deshalb nicht, solange man sich beim statistischen Antwortnachweis nur auf die 1. Harmonische beschränkt. Cebulla et al., 2004 [13] konnten aber zeigen, dass bei Einbeziehung von bis zu 5 höheren Harmonischen zusätzlich zur 1. Harmonischen eine höhere Erkennungsrate (detection rate) und eine kürzere mittlere Erkennungszeit (mean detection time) zu erreichen sind. Im Gegensatz zu den höheren Frequenzen 1000, 2000 und 4000 Hz ist das bei 500 Hz bisher aber aus folgendem Grund nur eingeschränkt möglich. Bereits bei dem üblichen single-carrier stimulus (einfach Trägerreiz ) mit einer Trägerfrequenz von z.B. 540 Hz und einer Modulationsfrequenz von 90 Hz fällt die untere Seitenfrequenz des Stimulus mit der 5. Harmonischen der Antwort zusammen. Hier kann also bei Berücksichtigung von 5 Harmonischen ein elektrischer Reizartefakt zu einem falschen Ergebnis des statistischen Tests führen. Noch erheblich kritischer sind die Verhältnisse bei Anwendung des MC-stimulus bei 500 Hz. Hier kann bereits die 3. Harmonische der Antwort durch einen elektrischen Reizartefakt beeinflusst sein. Gerade bei 500 Hz, wo optimale Bedingungen für Generierung und Nachweis der Antwort erforderlich sind, besteht also das Problem, dass zum Antwortnachweis nicht der Statistiktest mit der größeren Testpower eingesetzt werden kann. Das zweite Ziel der vorliegenden Studie bestand deshalb darin, einen AMFR-Stimulus zu konstruieren, bei dem zusätzlich zu der oben beschriebenen Kompensation der Cochlea-Laufzeit auch ein FrequenzVersatz zwischen den Seitenfrequenzen des Stimulus und den Harmonischen der Antwort realisiert ist. Bei einen derartigen Frequenz-Versatz ist eine Überlagerung der Harmonischen der Antwort durch einen elektrischen Reizartefakt nicht mehr möglich. Die Einbeziehung der höheren Harmonischen der Antwort beim statistischen Antwortnachweis wäre dann auch bei 500 Hz problemlos möglich. 65 In der vorliegenden Arbeit werden die nach obigen Vorgaben konstruierten Stimuli vorgestellt. Die Effizienz der neuen AMFR-Stimuli wird im Rahmen dieser Untersuchung an einer großen Gruppe von normalhörenden Probanden überprüft. 3. Material & Methodik Die Grundlage der Untersuchung war die Erprobung neuer Reize (AMFR-Stimuli) für die Anwendung bei der Hirnstammaudiometrie (BERA). Das Ziel für den Einsatz neuer Reize liegt in einer kürzeren Untersuchungszeit und der Möglichkeit die bisher schwer zugängliche tiefe Frequenz von 500 Hz zu erfassen. Dafür wurde die Studie der Ethikkommission der Universität - Marburg zur Begutachtung vorgelegt, die dieser Untersuchung mit einem positivem Votum zustimmte. Alle Probanden wurden über den Inhalt der Studie aufgeklärt und nach Zustimmung, die im Zuge der Vorbereitung stattfand, wurde das Einverständnis zur Untersuchung schriftlich eingeholt. 3.1 Beschreibung der neuen Stimuli Die übliche Generierung der AMFR-Stimuli erfolgt durch Modulation eines Trägers (in der Regel 500, 1000, 2000 und 4000 Hz) mit einem sinusförmigen Modulationssignal (in der Regel im Bereich 70 bis 100 Hz). Die Anstiegssteilheit der Hüllkurve ist relativ gering. Durch den MC-Stimulus mit einem Frequenzabstand der modulierten Träger entsprechend dem Ein- oder Zweifachen der Modulationsfrequenz konnten wir einen Reiz mit einem steileren Anstieg der Hüllkurve erzeugen, der einen breiteren Bereich der Basilarmembran erregt [108]. Die folgende Darstellung wurde den publizierten physikalischen Grundlagen der von Stürzebecher und Cebulla konzipierten neuen Reizen entnommen [110]. Ein für die Evozierung von AMFR geeignetes Reizsignal kann aber auch ohne Modulation, durch Addition von mehreren Sinus- oder Kosinusschwingungen erzeugt werden, wenn die Frequenzdifferenz entsprechend der gewünschten Wiederhol-Rate 66 des Reizsignals gewählt wird. Die Anzahl der addierten Schwingungen bestimmt die Breite des aktivierten Bereichs auf der Basilarmembran. Im weiteren wird die Darstellung mittels cos-Funktionen gewählt. Das Reizsignal wird durch Gleichung (3) beschrieben: 1 [cos 2πf l t+ cos(2π { f l + 1 f r }t ) + ... + cos(2π { f l + (n − 1) f r }t )] n 1 n−1 y1 (t ) = ∑ cos(2π { f l + kf r }t ) n k =0 y1 (t ) = Gleichung (3) mit: n = Anzahl der Kosinusschwingungen fl = tiefste Frequenz der n Kosinusschwingungen fr = Wiederholrate des Reizsignals Die höchste Frequenz fh der n Kosinusschwingungen ist dann fh = fl+(n-1)fr. In Abb. 21a ist für n=7 rechts die Zeitfunktion und links das Frequenzspektrum dieses Signals dargestellt. Die tiefste Frequenz ist hier fl = 269,53 Hz, die Wiederholrate ist fr = 89,84 Hz. (Die Frequenzangaben wurden auf 2 Stellen nach dem Komma gerundet.) Der Stimulus hat folglich eine Bandbreite von etwa 270 – 808 Hz, die Mittenfrequenz ist 539 Hz. In Abb. 21a ist zwischen den Reizen eine deutliche Welligkeit (ripple) zu erkennen. Diese Welligkeit kann reduziert werden, indem die Kosinusschwingungen mit der tiefsten und der höchsten Frequenz gemäß Gl. (4) nur mit der halben Amplitude der übrigen Wellen berücksichtigt werden. 1 n−1 y2 (t ) = ak cos(2π { f l + kf r }t ) ∑ n − 1 k =0 Gleichung (4) mit: ak = 0,5 für k=0 und k=n-1, ak = 1 für alle übrigen k. Die durch diese Maßnahme gemäß Gl. (4) geglättete Zeitfunktion ist in Abb. 21b dargestellt. Dieser Reiz wird im weiteren als cosinus-waves stimulus (CW-Stimulus) bezeichnet. 67 Die Konstruktion der CW-Stimuli aus einzelnen Cosinuswellen bietet nun die Möglichkeit einer frequenzabhängigen Phasenkorrektur zur Kompensation der frequenzabhängigen Laufzeit in der Cochlea. Als Grundlage für die Korrektur wurde das Cochlea-Modell von de Boer (1980) gewählt. Dabei wurden in de Boers Gleichung die von Greenwood (1990) angegebenen Konstanten verwendet. Abb. 22: Cochlea delay nach de Boer (1980) Abb. 22 zeigt die Frequenzabhängigkeit der Laufzeitverzögerung der Wanderwelle auf der Basilarmembran der Cochlea relativ zu 100 Hz. Aus der Darstellung ist zu entnehmen, dass die tiefste Frequenzkomponente (270 Hz) des in Abb. 21a und 21b dargestellten Reizes um mehr als 3 ms gegenüber der höchsten (808 Hz) verzögert ist. Um diese Laufzeitdifferenzen zu kompensieren, wurde in Gleichung (4) ein Phasenwinkel φk eingefügt, der die mit dem Modell von de Boer errechneten frequenzabhängigen Laufzeit-Verzögerungen berücksichtigt: 1 n−1 y3 (t ) = ak cos(2π { f l + kf r }t + ϕ k ) ∑ n − 1 k =0 Gleichung (5) mit: φk = frequenzabhängige Phasenverschiebung errechnet aus der delay-time gemäß dem Cochlea-Modell von de Boer 68 In Abb. 21c ist für n=7 rechts die Zeitfunktion und links das Frequenzspektrum dieses Signals dargestellt. Das Frequenzspektrum des Reizes ist identisch mit dem in Abb. 21b dargestellten, da die Phasenbeziehungen in der Darstellung nicht berücksichtigt werden. Die Zeitfunktion in Abb. 21c zeigt dagegen im Gegensatz zu Fig. 1b eine "rechts-links Asymmetrie" infolge der Einführung der Zeitverzögerung (time delays). Die CW-Stimuli mit Phasenkorrektur werden im weiteren durch den Zusatz PC (phase corrected) gekennzeichnet. Es gilt allgemein die Regel, Träger- und Modulationsfrequenz der AMFR-Stimuli so zu wählen, dass die Trägerfrequenz ein ganzzahliges Vielfaches der Modulationsfrequenz ist. Das führt zu dem oben für die MC-Stimuli erläuterten Problem, dass es insbesondere beim 500-Hz-Reiz zu einer Überlagerung des elektrischen Reizartefaktes der tiefen Frequenzen des Stimulus mit den Harmonischen der Reizantwort kommen kann. Das gleiche gilt auch für die hier beschriebenen neuen CW-Stimuli. In Abb. 21c ist die Lage der ersten 6 Harmonischen der Antwort durch Pfeile markiert. Führt man nun in Gl. (5) einen Frequenz-Offset foff gemäß Gl. (6) ein, so bewirkt das eine Verschiebung der Frequenzen des Stimulus (frequency offset), die erste Harmonische der Antwort erscheint dagegen weiterhin bei fr und die höheren Harmonischen bei Vielfachen von fr. 1 n−1 y4 (t ) = ak cos(2π { f l + kfr − f off }t + ϕk ) ∑ n −1 k =0 Gleichung (6) mit: 0 < foff < fr Bei beliebiger Wahl von foff innerhalb der angegebenen Grenzen geht allerdings die starre Kopplung zwischen den Frequenzen des Stimulus und der Wiederholrate fr verloren, es kommt zu einem periodischen Durchlaufen (cycling). Es ist deshalb sinnvoll, f off = fr 2 zu wählen. Hierbei ergibt sich eine Phasenkopplung über 2 Perioden von fr. Das Ergebnis ist, wie in Abb. 21d erkennbar, ein alternierender Stimulus. Die Harmonischen der Antwort erscheinen weiterhin bei den gleichen Frequenzen wie in Fig. 1c, die Frequenzkomponenten des Stimulus sind dagegen im Spektrum um fr/2 nach links verschoben. Damit ist die insbesondere bei 500 Hz notwendige Trennung 69 von Reizartefakt und den Harmonischen der Antwort erreicht. Die CW-Stimuli mit frequency offset werden im weiteren durch den Zusatz FO gekennzeichnet. Obwohl sich diese Studie auf die Problematik bei 500 Hz konzentriert, wurden auch die Frequenzen 1000, 2000 und 4000 Hz einbezogen. Bei diesen Frequenzen ist durch die Korrektur des Cochlea-Delays kaum ein Gewinn zu erwarten. Es war aber zu kontrollieren, ob die auf neue Art konstruierten Reize auch bei diesen Frequenzen effektiv sind. Die Anzahl der bei Reizgenerierung addierten Sinusschwingungen war immer 7 mit folgender Ausnahme: Bei 4000 Hz wurde auch ein Reiz mit 11 Sinusschwingungen einbezogen. Das frequency offset ist nur bei 500 Hz erforderlich, um den Einsatz eines q-sample Tests zu ermöglichen und wurde deshalb nur bei diesen Reizen eingefügt. Wie im Abschnitt 3.2 (Versuchspersonen) erläutert wird, war die Anzahl der möglichen Untersuchungen limitiert. Deshalb wurde der übliche AMFRStimulus (amplitudenmodulierter Träger) nur bei 500 Hz und 2000 Hz zum Vergleich mitgetestet. a) 1.5 10 Spectral amplitude/ dB 1 Amplitude 0.5 0 -0.5 -1 0 -10 -20 -30 -1.5 0 5 10 15 20 25 30 35 40 0 200 400 Time / ms 600 800 1000 1200 800 1000 1200 800 1000 1200 800 1000 1200 Frequency/ Hz b) 10 1.5 Spectral amplitude/ dB 1 Amplitude 0.5 0 -0.5 -1 -1.5 0 5 10 15 20 25 30 35 0 -10 -20 -30 0 40 200 400 600 Frequency/ Hz Time / ms c) 10 1.5 Spectral amplitude/ dB 1 Amplitude 0.5 0 -0.5 -1 -1.5 0 5 10 15 20 25 30 35 0 -10 -20 -30 0 40 200 400 600 Frequency/ Hz Time / ms d) 10 1.5 Spectral amplitude/ dB 1 Amplitude 0.5 0 -0.5 -1 -1.5 0 5 10 15 20 25 Time / ms 30 35 40 0 -10 -20 -30 0 200 400 600 Frequency/ Hz Abb. 21a-d: Darstellung von Zeitfunktion und Frequenzspektrum der neuen 500-Hz-Reize 70 Die folgenden Reize wurden für die hier beschriebene Studie verwendet: • 500-Hz-Stimuli 1. AM500 üblicher amplitudenmodulierter 500-Hz-Träger 2. 7CW500 mit 7 Sinusfrequenzen konstruierter CW-Stimulus 3. 7CW500PC wie unter 2., zusätzlich phase corrected 4. 7CW500PC/FO wie unter 3., zusätzlich mit frequency offset Bei den übrigen Reizen ergibt sich die Erklärung der Bezeichnung aus der Erklärung der 500-Hz-Reize. • 1000-Hz-Stimuli • 2000-Hz-Stimuli • 4000-Hz-Stimuli 5. 7CW1000 7. AM2000 10. 7CW4000 6. 7CW1000PC 8. 7CW2000 11. 7CW4000PC 9. 7CW2000PC 12. 11CW4000PC Der für alle untersuchten Stimuli gewählte Reizpegel lag bei 30 dB nHL. Die Kalibrierung der Reize erfolgte subjektiv mit 10 Probanden aus der gleichen Gruppe der normalhörenden Jugendlichen, mit denen die Untersuchungen der vorliegenden Studie durchgeführt wurden. Für jeden Reiz wurde die individuelle subjektive Hörschwelle ermittelt. Aus den individuellen Schwellenpegeln wurde für jeden Reiz der Schwellen-Mittelwert berechnet. Die Reihenfolge der Applikation der oben genannten Stimuli wurde automatisch randomisiert dargeboten. 71 3.2 Versuchspersonen Die Untersuchung wurden an insgesamt 70 Probanden durchgeführt. Voraussetzung zur Teilnahme war eine Normalhörigkeit und die schriftliche Zustimmung für die Messungen. Bei 14 männlichen und 56 weiblichen Probanden im Alter zwischen 17 – 34 Jahren, deren Hörverlust für reine Töne bei den verwendeten Frequenzen höchstens 10 dB HL betrug, führten wir eine BERA- Untersuchung mit unterschiedlichen akustischen Reizen durch. Die meisten der Probanden waren Studierende einer Logopäden-Schule. Da dieser Beruf vorwiegend von Frauen ausgeübt wird, überwiegen in der Stichprobe die weiblichen Probanden. Von den ABR ist bekannt, dass die Potentialamplitude bei Frauen in der Regel etwas größer ist als bei Männern. Die AMFR verhalten sich wahrscheinlich ähnlich, dazu liegen allerdings noch keine Untersuchungen vor. Die Ergebnisse der Studie werden durch das Überwiegen der weiblichen Probanden jedoch nicht beeinträchtigt, da keine Aussagen zur absoluten AMFR-Amplitude angestrebt wurden. Es geht hier vielmehr um den Vergleich der AMFR-Amplituden bei unterschiedlichen Reizbedingungen. Bei allen Probanden wurden vor den Messungen eine Tonschwellenaudiometrie und Tympanometrie durchgeführt, um einen Hörschwellenverlust oder eine entzündlichen Mittelohrprozess auszuschließen. Als Versuchsort diente ein schallisolierter Raum mit einer integrierten, extra für die Messungen aufgebauten, Hörkabine mit der Möglichkeit die Kabel der Elektroden nach außen zu leiten und dort an den Computer anzuschließen und unabhängig vom Messvorgang zu verarbeiten. Diese Situation zur Ableitung bot ideale Verhältnisse. In der Hörkabine befand sich für die Probanden eine Untersuchungsliege, auf der sie bequem liegen konnten. Während der Messungen wurde der Raum abgedunkelt und die Probanden wurden gebeten sich zu entspannen und wenn möglich zu schlafen. Jedoch je nach Tageszeit der Messungen war es nicht allen Probanden möglich einzuschlafen. Mit den gleichen Probanden erfolgte auch eine nochmalige Testung von weiteren neuen Reizen, die für den Einsatz im Neugeborenen-Hörscreening vorgesehen sind. Die Ergebnisse dazu sind noch nicht publiziert. 72 Abb. 25 a+b: Fotoaufnahme des Untersuchungsraumes und der eingebauten Hörkabine Die Ableitungen dauerten durchschnittlich eine bis anderthalb Stunde. Insgesamt wurden jeweils 2 Ableitungen mit jedem Probanden durchgeführt. Die lange Untersuchungszeit war ein limitierender Faktor für die Untersuchungen, da nach einer Stunde liegend, eine steigende Unruhe der Probanden erkennbar war, was sich in verschlechterten Messergebnisse zeigte. 73 Möglicherweise war das auch der Grund, weshalb einige Probanden zur zweiten Ableitung nicht erschienen sind, da sie die Messungen in der Hörkabine und dem zusätzlich abgedunkeltem Raum als unangenehm empfanden. Da die Stimuli für die AMFR Generierung und die neuen Reize für das Hörscreening randomisiert appliziert wurden, hatte das „Nichterscheinen“ der Probanden zum 2.Test immer Auswirkungen in der statistischen Bewertung für beide Arten von Reizen. Die Anzahl der Paare, die für die verschiedenen Paarvergleiche zur statistischen Bearbeitung zur Verfügung standen ist deshalb kleiner als die oben genannte Gesamtanzahl der Probanden und differiert für die verschiedenen Vergleiche. 3.3 Messvorbereitung und Messdurchführung Die zur Messung benutzten Elektroden wurden am Vertex (Cz) und am ipsilateralen Mastoid befestigt. Die für die Erdung bestimmte Elektrode wurde an der Stirn befestigt. Die Hautbereiche für die Elektrodenkontakte wurde vorher mit einer dafür geeigneten Hautreinigungspaste aufgeraut und mittels handelsübliches Elektrodengel für einen optimalen Elektrodenkontakt gesorgt. Die Impedanz zwischen der Mastoidbzw. Vertex-Elektrode und der Stirnelektrode sollte 5 kΩ nicht überschreiten und lag meist zwischen 1,5-2,5 kΩ. Die Spannung zwischen den Elektroden wurde über ein zweites Screening Bera-Gerät (Echoscreen) bestimmt und wenn die Impedanz oberhalb von 5 kΩ lag, so wurden die Elektroden wieder entfernt und der Vorgang wiederholt. Für die Registrierung der Potentiale wurde das Gerät MB11-2 der Firma MAICO Diagnostics (GmbH) verwendet. Anstelle des sonst üblich verwendeten Hörers (BERAphon) wurde zur Reizapplikation ein Kopfhörer (HDA 280, Sennheiser) und ein separater Vorverstärker (Pre-amplifier) benutzt. Die Filter Bandbreite betrug 25 Hz (6dB/Oktave) und 1,5 kHz (24dB/oktave). Die Analog zu Digital (AD) Transformationsrate hatte mit 16 kHz die gleiche Größe wie die DA Transformationsrate. Das EEG wurde während der Stimulation kontinuierlich auf einer Festplatte aufgenommen und gespeichert. 74 Unabhängig von der späteren off-line-Analyse wurden die Daten bereits während der Datenregistrierung mittels Fouriertransformation in den Frequenzbereich transformiert. Mit einer sequentiellen Teststrategie wurde der modifizierte Rayleigh Test (PC*) [68] auf die 1. Harmonische der Antwort angewendet. Die Datenregistrierung erfolgte generell über etwa 153 Sekunden, auch wenn die Antwort bereits vorher als „pass“ nachgewiesen wurde. Falls bis 153 Sekunden keine Antwort nachweisbar war, wurde die Registrierung fortgesetzt und ca. 10 Sekunden nach Erreichen eines signifikanten Testergebnisses gestoppt. Falls eine Antwort mit PC* nach 300 Sekunden nicht nachweisbar war, wurde die Datenregistrierung abgebrochen. Abb.25: Programmoberfläche hier: positive Reiz-Antwort (im Pass) und fortlaufende Registrierung bis 153 sec, bei negativer Antwort Registrierung max 300 sec [8] 75 3.4 Auswertung Die Durchführung „objektiver Hörprüfungen“ ist erst dann als objektiv anzusehen, wenn die Ergebnisbewertung auch „automatisch“ und unabhängig vom Untersucher erfolgen kann. Die Bewertung von Reizantworten bei einer BERA- Untersuchung erfordert bis heute große Erfahrung durch den Untersucher. Für die Anwendung, besonders im NHS, ist der Einsatz von objektiven Verfahren mit automatischen Ergebnisbewertung (AABR) von entscheidender Bedeutung [7],[8]. Weltweit wird deshalb an Verfahren mit automatischen Ergebnisbewertung gearbeitet. Grundlage für die Auswertung der Ergebnisse liefert ein neu entwickelter Algorithmus von Stürzebecher, der im folgenden dargestellt wird. Mit Hilfe dieser Ergebnisbewertung wird die BERA-Untersuchungen zu einer „echten“ objektiven Untersuchungsmethode. Die Analyse der gespeicherten Daten erfolgte nachträglich für alle Messungen zusammen. Die Länge der aufgenommen EEG Segmente waren infolge des oben beschriebenen Abbruchkriteriums nicht einheitlich. Die EEG Segmente wurden in Epochen mit einer Länge von 1.024 sec geteilt. Jede einzelne Epoche wurde mit Hilfe der Fast Fourier Transformation (FFT) in den Frequenzbereich umgewandelt. Dadurch ergab sich ein Frequenzbereich von 0.976 Hz (1/1.024 sec). Über die ermittelten Werte der bereinigten SNR, der Nachweisrate (detection rate) und der Nachweiszeit (detection time) wurde die Effizienz der Stimuli festgelegt. Für die SNR-Berechnung wurden die ersten 150 Epochen (record length 153,6 sec.) gemittelt. Der Mittelwert wurde mittels FFT in den Frequenzbereich transformiert. Die Frequenzauflösung war etwa 1 Hz. Die rauschkorrigierte SNR der Harmonischen wurde durch folgende Gleichung berechnet: SNR = S * −N N Gleichung (7) mit: S* = S + N S * - Amplitude der Antwort im Frequenzspektrum S - Amplitude des Signalsanteils an der Antwort N - Amplitude des Geräuschanteils an der Antwort N - Hauptamplitude des Hintergrundgeräuschs, bestimmt/geschätzt durch 10 Spektralkomponenten (jeweils 10 Linien rechts bzw. links der Antwort) 76 Das rauschkorrigierte SNR ist im Gegensatz zur üblichen SNR-Angabe bei Gleichheit von Signal und Rauschen nicht 1 sondern 0. Im dem Fall, dass keine Antwort erfolgte und die Amplitude der Antwort unter der der Rauschamplitude lag, wurde die daraus folgende negative SNR als null betrachtet, da negative Werte für die SNR nicht zulässig sind. Der Antwortnachweis erfolgte bei 500 Hz für die Stimuli ohne frequency off-set mit einer Modifikation [13] des modifizierten Rayleigh Tests [68], die statt der Rangzahlen der spektralen Amplituden die spektralen Amplituden verwendet. Für den Nachweis der Antworten auf alle übrigen Stimuli wurde eine Modifikation [107] des q-sample uniform scores Test [60] eingesetzt. Während der q-sample uniform scores Test von Mardia nur die in eine Rangordnung gebrachten Phasen verwendet, bleiben die Phasen bei der Modifikation dieses Tests ungereiht, und es werden zusätzlich die in eine Rangordnung gebrachten spektralen Amplituden berücksichtigt. Dadurch konnte die Testpower erhöht werden. Bei Anwendung des q-sample Tests wurden 6 Harmonische der Antwort in die Testung einbezogen, während der modifizierte Rayleigh Test nur eine Harmonische (in der Regel die Grundwelle) testet. Getestet wurde mit einer Irrtumswahrscheinlichkeit von α = 1%. Bei der offline-Anwendung der statistischen Tests für den Antwortnachweis wurde eine sequentielle Teststrategie angewendet. Im ersten Schritt wurde der Test auf die ersten 10 Epochen angewendet. Nach jedem Testen wurde die Stichprobe um 1 Epoche vergrößert, bis eine Antwort nachweisbar oder der maximal verfügbare Stichprobenumfang erreicht war. Um bei dem durch das sequentielle Vorgehen bedingten häufigen Testen die vorgegebenen Irrtumswahrscheinlichkeit α = 1% zu gewährleisten, wurden die kritischen Testwerte gemäß dem dafür entwickelten Verfahren [109] bestimmt. Da die verschiedenen Reize bei den gleichen Probanden angewendet wurden, müssen zum Prüfen der Differenzen zwischen den Ergebnissen (Nachweisrate, Nachweiszeit, SNR) statistische Tests für abhängige Stichproben eingesetzt werden, d.h, es müssen immer Paarvergleiche durchgeführt werden. Oben wurde bereits erläutert, dass die Anzahl der möglichen Paare kleiner als die Anzahl der Probanden ist, weil nicht alle Reize bei allen Probanden getestet werden konnten. 77 3.5 Statistische Bearbeitung Die statistische Signifikanz für die SNR Unterschiede bei verschiedenen AMFR Reizen wurde mit dem Wilcoxon matched pairs signed rank test getestet. Hierbei wurde auch das SNR der Aufnahmen einbezogen, bei denen keine Antwort nachweisbar war. Die Nachweiszeit wurde aus der Anzahl der für den Signalnachweis erforderlichen minimalen Anzahl von Epochen berechnet. Bei Aufzeichnungen ohne nachweisbare Antwort wurde als Nachweiszeit die maximale Untersuchungsdauer von 300 Sekunden berücksichtigt. Eine andere Möglichkeit wäre das Weglassen aller Paare, bei denen einer der beiden Reize keine nachweisbare Antwort evoziert hat, gewesen. Das gewählte Vorgehen führt jedoch zu realistischeren Angaben zur Untersuchungsdauer. Die Differenzen der Nachweiszeit für die verschiedenen AMFRstimuli wurden ebenfalls mit dem Wilcoxon matched pairs signed rank test getestet. Die Differenzen der für die verschiedenen Stimuli erhaltenen Nachweisraten wurden mit dem McNemar Test auf Signifikanz geprüft. 78 4. Ergebnisse Bei insgesamt 70 Probanden wurden in 2 Sitzungen von je einer bis anderthalb Stunden BERA-Ableitungen durchgeführt. Dabei kamen bis zu 35 verschiedene akustische Reizformen zu Einsatz. Für die statistische Bearbeitung dieser Arbeit wurden im Schnitt circa 62 Probanden und die vorher beschriebenen 12 Stimuli verwendet. Die Testergebnisse für die 500-Hz-Stimuli sind in Tabelle 1 aufgelistet. Angegeben sind die Nachweisrate, der Median der individuellen Nachweiszeit sowie Mittelwert und Standardabweichung des SNR der ersten Harmonischen. Das wesentliche Ziel der Studie war es, insbesondere bei 500 Hz neue Stimuli zu entwickeln, die dem üblichen modulierten single-carrier stimulus (AM500 in der ersten Zeile von Tabelle 1) überlegen sind. In der zweiten bis fünften Zeile von Tabelle 1 sind die mit den neuen Stimuli erhaltenen Ergebnisse dargestellt. Die Differenzen zwischen den Ergebnissen der 3 neuen Stimuli und den Ergebnissen für AM500 wurden auf Signifikanz geprüft. Die errechneten p-Werte sind unter den jeweiligen Ergebnis-Werten der neuen Stimuli angegeben. N Stimulus statistischer Nachweisrate Test (%) one-sample 62 62 62 54 AM500 7CW500 7CW500PC 7CW500PC/FO Nachweiszeit SNR (SD) (s) (Median) 74.2 119.5 2.57 (2.5) one-sample 77.4 71.5 3.22 (2.9) Test ns ns p=0.036 one-sample 85.5 61.5 3.77 (3.5) Test p=0.047 p=0.013 p=0.0053 q-sample 94.4 42 3.54 (3.3) Test p=0.013 0.0006 p=0.048 Test Tab 1.: Nachweisraten, Nachweiszeiten und SNR der ersten Harmonischen der evozierten Antworten bei Anwendung der 500-Hz-Stimuli. Der Nachweis erfolgte mit dem modifizierten Rayleigh-Test MRTV2 und für den Stimulus 7CW500PCFO mit dem modifizierten QUSCTest MQSTV3. Die Irrtumswahrscheinlichkeit war α = 1 %. Die entsprechenden Wahrscheinlichkeiten (p-Werte, ns= nicht signifikant) sind ebenfalls angegeben. N ist die Anzahl der Probanden. 79 Der Stimulus 7CW500 evoziert zwar eine Antwort mit einem signifikant größeren SNR als AM500 (3.22 verglichen mit 2.57, Vergrößerung des SNR um 25%), Nachweisrate (77.4% verglichen mit 74.2%) und Nachweiszeit (Median: 71.5 s verglichen mit 119.5 s) beider Reize unterscheiden sich jedoch nicht signifikant. Die Einführung der Phasenkorrektur (7CW500PC) führt dagegen im Vergleich zu AM500 zu einer signifikanten Verbesserung bei allen 3 Messgrößen. Im Vergleich zu AM500 steigt die Nachweisrate um etwa 11% auf 85.5%. Dabei kommt es zu einer annähernden Halbierung des Median der Nachweiszeit von 119.5 s auf 61.5 s. Das rauschkorrigierte SNR erreicht 3.77, das bedeutet eine Erhöhung um 46% gegenüber AM500. Führt man bei dem Stimulus 7CW500PC ein frequency off-set gemäß Gleichung (6) ein, so kann wegen der dadurch bewirkten Separierung von elektrischem Reizartefakt und den Harmonischen der Antwort ein q-sample Test für den Antwortnachweis eingesetzt werden. Das führt zu einer weiteren Erhöhung der Nachweisrate auf 94.4% sowie im Vergleich zu AM500 zu einer weiteren Reduzierung der Nachweiszeit (Median 42 s). Der Median der Nachweiszeit beträgt mit 42 s nur etwas mehr als ein Drittel des Median der Nachweiszeit für AM500 (119.5 s). Entsprechend ist das SNR der ersten Harmonischen der mit den neuen Reizen evozierten Antworten signifikant größer als bei Stimulation mit AM500. In Tabelle 2 sind die Ergebnisse für 1000 Hz, 2000 Hz und zusammengefasst. Ein Vergleich der neuen Stimuli mit dem 4000 Hz üblichen amplitudenmodulierten Träger wurde hier nur bei 2000 Hz (AM2000) durchgeführt. Wie erwartet, unterscheiden sich die Ergebnisse bei 1000 Hz für 7CW1000 und 7CW1000PC nicht. Auch bei 2000 Hz ist die Differenz der Nachweisrate für den bekannten Reiz AM2000 (86%) und den gemäß Gleichung 4 durch Summation von 7 cos-Wellen konstruierten Reiz 7CW2000 (93%) nicht signifikant. Die Nachweiszeit ist dagegen für 7CW2000 signifikant geringer (42 s verglichen mit 85 s), und das SNR ist signifikant größer (3.5 verglichen mit 2.43, Vergrößerung des SNR um 44%). Die Laufzeitkorrektur (7CW2000PC) führt zu einer weiteren, gegenüber 7CW2000 aber nicht signifikanten Verbesserung. Hier ist auch die Nachweisrate (98,2%) signifikant höher als bei AM2000 (86%). Der Median der Nachweiszeit beträgt mit 28 s nur noch 80 ein Drittel des Median der Nachweiszeit für AM2000 (85 s). Dabei ist das mittlere SNR für 7CW2000PC um 73% größer als für AM2000. Bei 4000 Hz führt die Laufzeitkorrektur bei 7CW4000PC im Vergleich zu 7CW4000 zu keiner Verbesserung. Auch mit dem breiteren Stimulus 11CW4000PC ergibt sich keine Erhöhung der Nachweisrate. Im Vergleich zu 7CW4000 ist jedoch die Nachweiszeit signifikant kürzer (41 s verglichen mit 59 s), und das SNR ist signifikant höher (2.89 verglichen mit 2.43). N Stimulus Nachweisrate Nachweiszeit (%) SNR (SD) (s) Median 7CW1000 95.2 21.0 4.42 (3.7) 96.8 21.0 4.34 (3.8) 86.0 85.0 2.43 (1.8) 93.0 42.0 3.50 (2.5) ns p=0.003 p=0.0031 98.2 28.0 4.21 (2.4) p=0.011 p=0.00002 p=0.00047 95.0 59.0 2.43 (1.8) 95.0 57.5 2.74 (2.1) 96.7 41.5 2.89 (2.3) ns p=0.017 p=0,038 63 7CW1000PC AM2000 57 7CW2000 7CW2000PC 7CW4000 60 7CW4000PC 11CW4000PC Tab 2.: Nachweisraten, Nachweiszeiten und SNR der ersten Harmonischen der evozierten Antworten bei Anwendung der 1000-, 2000- und 4000-Hz-Stimuli. Der Nachweis erfolgte mit dem modifizierten QUSC-Test MQSTV3. Die Irrtumswahrscheinlichkeit war α = 1 %. Die entsprechenden Wahrscheinlichkeiten (p-Werte, ns= nicht signifikant) sind ebenfalls angegeben. N ist die Anzahl der Probanden. 81 In Abb. 23 a ist für 500 Hz das mittlere rauschkorrigierte SNR der Harmonischen 1-4 der Antworten auf den neuen Stimulus 7CW500PC/FO im Vergleich zu den Antworten auf AM500 dargestellt. Abb. 23 b zeigt den Vergleich zwischen 7CW2000PC und AM2000 für die Harmonischen 1 - 6. Bei 500 Hz war die Beschränkung auf nur 4 Harmonische notwendig, da die 5. Harmonische der Antwort mit der unteren Seitenfrequenz des modulierten Trägers von AM500 zusammenfällt. Ein Beitrag des elektrischen Reizartefaktes ist deshalb ab der 5. Harmonischen nicht auszuschließen. Bei 2000 Hz liegen die wesentlichen höheren Harmonischen der Reizantwort noch ausreichend weit ab vom Stimulusartefakt. Die Darstellungen bestätigt frühere Ergebnisse von Cebulla [13], dass auch bei der mit den üblichen Reizen (AM500 und AM2000) evozierten Antwort neben der ersten Harmonischen höhere Harmonische mit wesentlichen Amplituden vorhanden sind. Das gilt erst recht für die mit den neuen Reizen evozierten Antworten. Bei 500 Hz ist das SNR der 1. – 3. Harmonischen, bei 2000 Hz der 1. – 4. Harmonischen der Antwort auf die neuen Reize (CW500PC/FO, CW2000PC) signifikant größer als bei den üblichen Reizen (AM55, AM2000). Ein one-sample Test, der nur die erste Harmonische berücksichtigt, vernachlässigt ganz offensichtlich einen wesentlichen Teil der für die response detection zur Verfügung stehenden Information. 82 Abb. 23a: Rauschkorrigiertes SNR für die ersten 4 Harmonischen der AMFR Spektren zweier Datenpools: AMFR evoziert mit 7CW500PCFO und AMFR als Antwort auf einen amplitudenmodulierten Reiz (AM500) Abb. 23b: Rauschkorrigiertes SNR für die ersten 6 Harmonischen der AMFR Spektren zweier Datenpools: AMFR evoziert mit 7CW2000PC und AMFR als Antwort auf einen gewöhnlichen amplitudenmodulierten Reiz (AM2000) 83 Abb. 24 zeigt die Häufigkeitsverteilung der für die 4 Stimuli 7CW500PC/FO, 7CW1000PC, 7CW2000PC und 11CW4000PC zusammengefassten individuellen detection times. Wegen des für eine Häufigkeitsverteilung zu geringen Stichprobenumfangs waren getrennte Darstellungen für die 4 Frequenzen nicht sinnvoll. Die gewählte Klassenbreite ist 10 s. Das Maximum der Verteilung liegt bei einer detection time von 20 s. Innerhalb von 50 s werden bei dem gewählten Reizlevel von 30 dBHL 63.5%, innerhalb von 100 s 81.2% der Antworten nachgewiesen. Für den Nachweis von 15% der registrierten Antworten war eine Zeit zwischen 100 und 300 s erforderlich. Für 3.7% aller Antworten gelingt der Nachweis innerhalb der vorgegebenen Zeit von 300 s nicht. Die bei 300 s angegebene Häufigkeit resultiert in erster Linie aus den nicht nachgewiesenen Antworten. Abb. 24: Häufigkeitsverteilung (frequency distribution) der für die 4 Stimuli 7CW500PC/FO, 7CW1000PC, 7CW2000PC und 11CW4000PC zusammengefassten individuellen detection times. Die Klassenbreite ist 10 s. 84 5. Diskussion Ziel der Untersuchung war die Testung neuer Reize beim Einsatz in der Hirnstammaudiometrie. Es wurde erwartet, dass sich durch die Optimierung der Reize die Untersuchungszeit verkürzen lässt und eine frequenzspezifische Ableitung möglich wird. Derzeit existiert keine Möglichkeit den Frequenzbereich unter 1000 Hz objektiv zu erfassen. Für die apparative Versorgung einer Schwerhörigkeit ist allerdings dieser Bereich von großer Bedeutung. Bei einer objektiven frequenzspezifischen Hörschwellenmessung mittels akustisch evozierter Potentiale besteht generell das Problem, dass bei 500 Hz in der Regel Differenzen zwischen der objektiv gemessenen und der subjektiven Hörschwelle resultieren. Das gilt für die einfache Tonpuls-Messung, wie auch für die NotchedNoise BERA und natürlich auch für die Schwellenmessungen mittels der AMFR. Ursache dafür sind die ungünstigen Synchronisationsbedingungen im apikalen Teil der Cochlea infolge des hier erheblich größeren Laufzeitunterschiedes der Wanderwelle. Bei den AMFR kommt noch hinzu, dass der übliche Stimulus (amplitudenmodulierter Träger) nur einen schmalen Frequenzbereich erregt. Das gilt nicht nur für 500 Hz, sondern für alle Frequenzen. Dadurch ist der Reiz zwar sehr frequenzspezifisch, die Antwort ist aber klein und schwer nachzuweisen. Eine größere Antwort ist zumindest bei den höheren Frequenzen zu erwarten, wenn das Frequenzspektrum des Reizes verbreitert wird. Die dadurch bedingte Verminderung der Frequenzspezifität ist unkritisch und kann toleriert werden. Bei 500 Hz führt diese Maßnahme wegen der eingeschränkten Synchronisation jedoch nicht zu einer wesentlichen Verbesserung. Es ist zu erwarten, dass durch eine Kompensation der Laufzeitverzögerung der Wanderwelle der Kochlea (Cochlea delay) bei den einzelnen Frequenzkomponenten des verbreiterten 500-Hz-Reizes eine höhere Synchronisation der Erregungen in dem stimulierten Frequenzbereich und infolgedessen eine größere Antwortamplitude erzielt werden kann. Dabei wird davon ausgegangen, dass das Cochlea-Modell von de Boer die Eigenschaften der menschlichen Cochlea ausreichend genau beschreibt. Da die Cochlea beim Kleinkind bereits ausgereift ist [71], kann das Modell auch für dieses Alter als gültig angenommen werden. 85 Die hier vorgestellte Studie hatte das Ziel, insbesondere bei 500 Hz die nach obigen Gesichtspunkten konstruierten neuen Reize an einer Gruppe von normalhörenden, erwachsenen Probanden zu testen. Die Ergebnisse konnten unsere Erwartungen bestätigen. Die alleinige Verbreiterung des Reizes von 3 Spektrallinien (AM500) auf 7 Spektrallinien (7CW500) hat zwar eine signifikante Vergrößerung des SNR zur Folge (2.57 auf 3.22), das reicht aber nicht für eine signifikante Erhöhung der Nachweisrate und eine signifikante Verkürzung der Nachweiszeit aus. Zu berücksichtigen ist, dass bei der Nachweiszeit nicht die Differenz der Median-Werte getestet wurde, sondern im Paarvergleich eine Prüfung der individuellen Paardifferenzen erfolgte. Die Korrektur des Laufzeitunterschieds (travelling delays) (7CW500PC) führt zu der erwarteten weiteren Verbesserung des SNR und damit auch von Nachweisrate und Nachweiszeit im Vergleich zu AM500. In einer früheren Publikation [108] hatten die Autoren Stürzebecher et al., 2001, mit dem Mehrfachträger-Reiz AM3MF2 (Abb. 20) einen SNR-Gewinn von 60% gegenüber dem üblichen AMFR-Reiz gefunden. Die jetzigen Ergebnisse zeigen, dass der Gewinn damals etwas überschätzt wurde. Das Spektrum von AM3MF2 ist vergleichbar mit den jetzt vorgestellten 7CW-Stimuli, für die ein SNR-Gewinn zwischen 25% (500 Hz) und 44% (2000 Hz) im Vergleich zum üblichen AMFR-Reiz gefunden wurde. Durch die Einführung der Phasenkorrektur erhöht sich der Gewinn auf 37% - 46% (500 Hz) bzw. 73% (2000 Hz). Ursache der damals etwas zu hohen Schätzung des Gewinns ist sehr wahrscheinlich die mit 14 Probanden kleine Stichprobe, die auf Grund der hohen interindividuellen Variabilität der AMFR offenbar noch keine sichere Bestimmung des SNR-Gewinns erlaubte. Die neuen Untersuchungen an einer wesentlich größeren Stichprobe (54-63 Probanden) konnte für die neuen Reize verlässliche Angaben zur Effizienz nachweisen. Die zusätzliche Einführung eines Frequenz offsets bei dem 500-Hz-Reiz (7CW500PC/FO) ermöglicht auch bei 500 Hz den Einsatz eines q-sample Tests für die Antwortnachweis, was zu einer weiteren Verbesserung der Nachweisrate führt. Die mit dem neuen 500-Hz-Reiz bei Einsatz eines q-sample Tests erzielte Nachweisrate liegt auf etwa dem gleichen Niveau wie die Nachweisrate für die ebenfalls verbesserten Stimuli bei den übrigen Frequenzen. Der Median der Nachweiszeit liegt dagegen bei 500 Hz (42 s) und 4000 Hz (41.5 s) bei ungefähr doppelt so langen Zeiten wie bei 1000 Hz (21 s) und 2000 Hz (28 s). 86 Wie die in Abb. 24 für alle 4 Frequenzen zusammengefasste Verteilung der individuellen Nachweiszeit zeigt, wird aber der größte Teil der registrierten Antworten (ca. 80%) innerhalb von 100 s nachgewiesen. Das lange auslaufende Ende der Verteilung mit 15% aller registrierten, sowie mit 3.7% nicht nachgewiesenen Antworten kann folgendermaßen erklärt werden: Die Probanden waren vor Beginn der Untersuchung aufgefordert worden, während der Untersuchung mit geschlossenen Augen ruhig zu liegen und möglichst zu schlafen. Wie auch das während der Untersuchung geführte Protokoll offenbart, waren aber viele Probanden nicht in der Lage zu schlafen. Bei einer Reihe von Probanden war zu bemerken, dass sie zum Schluss, also vor allem während der letzten Phase der Untersuchung, unruhig wurden. Für die Registrierung von AMFR sind das keine günstigen Ableitbedingungen. Je größer die Unruhe ist, um so höher ist der Rauschanteil im Spektrum der Antwort und um so schwieriger wird der Antwortnachweis. Bei zu großer Unruhe ist in Schwellennähe ein Antwortnachweis überhaupt nicht möglich. Für den praktischen Einsatz der AMFR- Schwellenmessung ist deshalb zu fordern, dass die Kinder möglichst im natürlichen Schlaf oder unter leichter Sedierung untersucht werden. Im Schlaf ergibt sich infolge der geringeren Amplitude des Spontan-EEGs ein größeres SNR im Vergleich zum Wachzustand und damit eine günstigere Bedingung für die Antwortnachweis. Bei Beachtung dieser Forderung sind mit den neuen Reizen auch in Schwellennähe kurze Zeiten für die response detection zu erwarten. Im Falle einer Schwerhörigkeit im Innenohr kann durch das bei einer InnenohrSchwerhörigkeit bestehende Recruitment der Antwortnachweis in Schwellennähe wesentlich erleichtert werden. Dies stellt einen Vorteil für eine schwellennahe Ableitung dar. Ein weiteres Problem ergibt sich bei der Festlegung eines bestimmtes Zeitlimit für die Registrierung einer Antwort (hier 300 s). Für schwellennahe Messungen kann das hier gewählte Zeitlimit von 300 s bei einem nicht ausreichend ruhigen Kind zu kurz sein. Da bei jeder Schwellenbestimmung auch eine unterschwellige Messung notwendig ist, führt eine noch weiter verlängerte maximale Zeitvorgabe zu einer nicht vertretbaren Verlängerung der gesamten Untersuchungsdauer. Eine intelligente automatische Steuerung der maximalen Registrierdauer, z.B. in Abhängigkeit von der Entwicklung des statistischen Testwertes im Verlauf des sequentiellen Testablaufs, erscheint als eine günstigere Lösung. 87 Wenn der Testwert im Verlauf der sequentiellen Testung einen stetigen Anstieg zeigt und nach Ablauf von 300 s z.B. 70% des kritischen Testwertes erreicht hat, sollte die Registrierung automatisch fortgesetzt werden. Bewegt sich dagegen der Testwert ständig nur unterhalb von z.B. 50% des kritischen Testwertes, dann muss die Untersuchung nicht zwingend über eine Länge von 300 s erfolgen, sondern kann nach z.B. 3 – 4 Minuten mit dem Ergebnis "keine Antwort nachweisbar" abgebrochen werden. Auf diese Weise kann eine weitere Optimierung des Zeitaufwands für die objektive Schwellenmessung erreicht werden. 88 6. Zusammenfassung und Fazit Sprache ist das wichtigste Kommunikationsmittel des Menschen. Um Sprache zu erwerden, ist ein intaktes Hörvermögen notwendig. Untersuchungen zur Hörfähigkeit müssen deshalb sehr frühzeitig erfolgen. Weltweit wird an der Einführung und Umsetzung eines Neugeborenen Hörscreenings (NHS) gearbeitet um der notwendigen Forderung einer entwicklungsbeeinträchtigenden Hörstörung frühzeitig therapeutisch begegnen zu können. Entgegen der sonstigen biologischen Strategie, Funktionsabläufe mehrfach abzusichern, ist der Erwerb der Sprachfähigkeit ausschließlich auf das volle Funktionieren der Fähigkeit, hören zu können, angewiesen. Ist diese insuffizient oder fällt sie ganz aus, kann sich Sprache nur unvollkommen oder überhaupt nicht entwickeln. Eine frühkindliche Schwerhörigkeit muss spätestens mit dem sechsten Lebensmonat behandelt Sprachentwicklungsstörung werden, und da sonst konsekutiv eine eine lebenslängliche Beeinträchtigung kognitiver Fähigkeiten drohen. Wird eine frühkindliche Schwerhörigkeit zu spät erkannt, so kann die verspätete Therapie die bereits eingetretene Sprachentwicklungsstörung nicht mehr vollständig kompensieren. Die Folge ist eine lebenslange Benachteiligung des Kindes im sozialem Leben, in Schule und im Beruf [124]. Statistiken haben aufgezeigt, dass in Deutschland die Diagnostik einer hochgradigen frühkindlichen Schwerhörigkeit im Schnitt im Alter von 19,5 Monaten beginnt und weitere 6 Monate bis zur Diagnosesicherung notwendig sind [25],[29]. Diese Situation ist nicht länger akzeptabel, so dass die Forderung für ein NHS besteht. Unabhängig davon sollten alle Ärzte, die Säuglinge und Kleinkinder betreuen, an das Vorliegen kindlicher Hörstörungen denken, ihre Auswirkungen insbesondere in Bezug zur Sprachentwicklung kennen und über die Möglichkeiten einer frühen Diagnosesicherung informiert sein. Neben dieser wichtigen Information müssen auch Gesundheitspolitiker und Krankenkassen in die Umsetzung einer solchen Vorsorgeuntersuchung mit der Klärung der Kostenübernahme eingebunden werden. Mit dem Einsatz objektiver Hördiagnostik gibt es Untersuchungsverfahren die sich für ein flächendeckendes Neugeborenen- Hörscreening eignen [7],[8]. Bislang gibt es jedoch noch keinen bundeseinheitlichen Weg für die Durchführung eines flächendeckendes NHS. Die Frage der Untersuchungsmethode ist noch nicht einheitlich geklärt. 89 Es existieren zwei unterschiedliche objektive Hörprüfverfahren, einerseits die Messung otoakustischer Emission (OAE) und die Ermittlung frühen auditorisch evozierten Potentiale mittels BERA- Verfahren. Beide Verfahren haben jeweils Vor- und Nachteile. Da jedoch durch die OAE eine Beteiligung des Hörnerv, die Lokalisation der Schwerhörigkeit (Mittelohr oder sensineural) und das Ausmaß des Hörverlustes nicht bestimmt werden kann, spricht vieles für die Verwendung der BERA- Verfahren als geeignete Untersuchungsmethode. Doch auch hierfür gibt es noch viele Verbesserungswünsche, damit die BERA als Standartmethode im Einsatz beim Neugeborenen-Hörscreening genutzt zu werden. Weltweit wird daran geforscht für die noch bestehenden Probleme Lösungen zu finden. Dazu müssen BERA-Geräte weiterentwickelt werden, die eine sichere, schnellere und möglichst schwellennahe Hörprüfung ermöglichen. Um dieses Ziel zu erreichen ist die Testung neuer akustischer Reiz erforderlich. Die bisher verwendeten Reize, wie der Click oder Chirp, ließen keine Aussagen über frequenzspezifische Hörtonverluste zu, da sie einen breiten Frequenzbereich in der Cochlea anregen. Auch die in dieser Arbeit vorgelegten Ergebnisse beschäftigen sich mit dieser Thematik. Über die Registrierung der AMFR bietet sich die Möglichkeit mit Hilfe der hier vorgestellten neuartig konzipierten Reizimpulse und auch durch neue Nachweismethoden eine höhere Erkennungsrate (detection rate) und eine kürzere mittlere Erkennungszeit (mean detection time) zu erreichen. Damit konnte ein neuer Ansatz für die objektive Hördiagnostik bereitet werden. Die bei dieser Untersuchung gefundenen Resultate, können als Meilenstein in der objektiven Hördiagnostik und damit auf diesem wissenschaftlichen Feld gewertet werden. Es konnte eine signifikante Verbesserung in der Erkennungsrate bei den bisher so schwierig nachweisbaren Potentialen im Tieftonbereich um 500 Hz erreicht worden. Weiterhin ließ sich mit den angewandten neuen phasenkorrigierten Reizen die Messzeit signifikant verkürzen. 90 Wir konnten nachweisen, das die neuen Reize effizienter als die bisher üblichen ClickReize sind. Die Untersuchung hat sich als sehr praktikabel herausgestellt und ermöglicht in der zukünftigen Anwendung eine hörschwellennahe Messung in sehr kurzer Untersuchungszeit. Damit wurden die vorangegangen theoretischen Überlegungen bestätigt, mit denen sich nun weitere Verbesserungen in der Anwendung eröffnen und die Gegenstand weiterfolgender Arbeiten sein werden. Mit dieser, durch uns erprobten und nun frequenzspezifischen und hörschwellennahen Registrierung von Auditory Steady-State Responses (ASSR) vergrößert sich die Hoffnung für ein sicheres und schnelles Verfahren in der Anwendung im Neugeborenen-Hörscreening. Dieses Ergebnis trägt weiterhin dazu bei unnötige Folgeuntersuchungen zu vermeiden und hilft dadurch Untersuchungskosten einzusparen und wendet eine unnötige Beunruhigung der Eltern ab, da eine sichere Ergebnisbewertung vorliegt. 91 7. Tabellen Tabelle 1 Für die 3 neuen Stimuli wurde der Unterschied der Ergebnisse im Vergleich zu AM500 auf Signifikanz geprüft. Die entsprechenden Wahrscheinlichkeiten (p-Werte) sind ebenfalls angegeben. Detection rate, Median of the detection time and noise-corrected SNR (SD) of the first harmonic for the responses to the usual 500-Hz-AMFR stimulus (AM500) and three new stimuli.n is the number of probands. N Stimulus 62 62 54 AM500 7CW500 7CW500PC 7CW500PC/FO SNR (SD) statistical Detection Time (s) First Test Rate (%) (Median) Harmonic 74.2 119.5 2.57 (2.5) one-sample 77.4 71.5 3.22 (2.9) Test ns ns p=0.036 one-sample 85.5 61.5 3.77 (3.5) Test p=0.047 p=0.013 p=0.0053 q-sample 94.4 42 3.54 (3.3) Test p=0.013 0.0006 p=0.048 one-sample 62 Detection Test 92 Tabelle 2 Für die 3 neuen 2000-Hz-Stimuli wurde der Unterschied der Ergebnisse im Vergleich zu AM2000 auf Signifikanz geprüft, ebenso 11CW4000PC gegen 7CW4000. Die entsprechenden Wahrscheinlichkeiten (p-Werte, ns = nicht significant) sind ebenfalls angegeben. Detection rate, Median of the detection time and noise-corrected SNR (SD) of the first harmonic for the responses auf 2 neue 1000-Hz-Reize, 2 neue 2000-Hz-Reize, 3 neue 4000-Hz-Reize sowie für den üblichen 2000-Hz-Reiz (AM2000). n is the number of probands. N Stimulus 7CW1000 Detection SNR (SD) Detection Time (s) First Rate (%) Median Harmonic 95.2 21.0 4.42 (3.7) 96.8 21.0 4.34 (3.8) 86.0 85.0 2.43 (1.8) 93.0 42.0 3.50 (2.5) ns p=0.003 p=0.0031 98.2 28.0 4.21 (2.4) p=0.011 p=0.00002 p=0.00047 95.0 59.0 2.43 (1.8) 95.0 57.5 2.74 (2.1) 96.7 41.5 2.89 (2.3) ns p=0.017 p=0,038 63 7CW1000PC AM2000 57 7CW2000 7CW2000PC 7CW4000 60 7CW4000PC 11CW4000PC 93 8. Abbildungsverzeichnis Abb. 1: Auditorische Peripherie des Menschen, nach Dallos [15] Abb. 2: Schematische Darstellung der Ossikelbewegung, bei der Übertragung vom Mittelohr zum Innenohr [94] Abb. 3: Darstellung der Cochlea und mit Längsschnitt, in http://www.sissa.it/multidisc/cochlea/cochlea.html Abb. 4: Schematische Darstellung der Cochlea in gestreckter Form. Auf der Basilarmembran ist die Ausbreitung einer Wanderwelle dargestellt [11] und http://www.vimm.it/cochlea/ Abb. 5: Frequenz- Orts- Transformation auf der Basilarmembran; apikal tiefe Frequenzen, basal, hohe Frequenzen, in http://www.vimm.it/cochlea/ Abb. 6: Schematische Darstellung des Corti-Organs mit inneren & äußeren Haarzellen, in http://www.vimm.it/cochlea/ Abb. 7: schematische Darstellung des Transduktionsmechanismus aus Klinke Physiologie [94] Abb. 8: schematische Aufbau des Menschliche Gehörs und Darstellung der aufsteigenden Hörbahn im Bereich des Hirnstamms ( nach Nieuwenhuys et al. 1988) [70] Abb. 9: Blockdiagramm von Reiz- und Registrierapparatur Abb. 10: Doppelt-logarithmische Darstellung der postsynaptischen akustisch evozierten Potentiale Abb. 11: Verlauf der Hörbahn, Kennzeichnung der Orte der Potentialgenerierung der FAEP durch römische Ziffern nach Jewett [66] Abb. 12: Amplitudenmoduliertes Signal mit den beiden sogenannten Einhüllenden [120] Abb. 13: schematische Darstellung der AMFR nach Pethe et al. [73] Abb. 14: Darstellung eines reinen Sinuston und als Gauß-Burst modifiziert [20] Abb. 15: Darstellung von Reintönen mit Amplitudenmodulation (15a) und zusätzlicher Frequenzmodulation (15b) nach Picton [80] Abb. 16: schematische Darstellung eines Click-Reizes [20} Abb. 17: Zeitverlauf und Frequenzspektrum eines Clickreizes [20] Abb. 18: Darstellung eines Chirp-Reizes [20] 94 Abb. 19: Oben: Schematische Darstellung des für die Messungen verwendeten Clickreizes (links) und des Chirpreizes (rechts). Mitte: Interne neuronale Repräsentation der beiden Signale nach der Verarbeitung in der Cochlea. Der Chirp (rechts) bewirkt eine im Vergleich zum Click (links) höhere Synchronisation der Aktivität über große Bereiche der Cochlea hinweg. Unten: Zugehörige akustisch evozierte Potenziale für Click und Chirp für verschiedene Eingangspegel. Der Chirp bewirkt eine höhere Amplitude der Welle V als der Click. [17] Abb.20: Zeitfunktion (oben) und Frequenzspektrum (unten) einer a) Amplitudenmodulation im Vergleich zu den Mehrfachträgerreizen (MC- Stimuli): b) AM2MF2, c) AM3MF1, d) AM3MF2 [108] Abb. 21 Darstellung von Zeitfunktion und Frequenzspektrum der neuen 500-Hz Reize a) 7 summierte cos-Wellen b) erste und siebente cos-Welle haben nur die halbe Amplitude der übrigen 5 Wellen(7CW500). c) 7 summierte cos-Wellen gemäß b), aber mit Laufzeitkorrektur (7CW500PC) d) 7 summierte cos-Wellen gemäß c) mit zusätzlichem Frequenzoffset (7CW500PC/FO) Die Pfeile geben die Lage der ersten 6 Harmonischen der Antwort an. 95 Abb. 21a-d: 96 Abb. 22: Cochlea delay nach de Boer (1980) Dargestellt ist, bezogen auf 100 Hz, die für die höheren Frequenzen einzuführende Zeitverzögerung. Abb. 22: Abb. 23: Mittleres rauschkorrigiertes SNR a) für die ersten 4 Harmonischen der 500-Hz-Reize AM500 und 7CW500PC/FO b) für die ersten 6 Harmonischen der 2000-Hz-Reize AM2000 und 7CW2000PC Abb. 23a: 97 Abb. 23b: Abb. 24: Häufigkeitsverteilung (frequency distribution) der für die 4 Stimuli 7CW500PC/FO, 7CW1000PC, 7CW2000PC und 11CW4000PC zusammengefassten individuellen detection times. Die Klassenbreite ist 10 s. Abb. 24: 98 Abb.25 a+b: Fotoaufnahme des Untersuchungsraumes und der eingebauten Hörkabine Abb.26: Programmoberfläche hier: positive Reiz-Antwort (im Pass) und fortlaufende Registrierung bis 153 sec, bei negativer Antwort Registrierung max 300 sec [8] 99 9. Literatur [1] Ashmor, J.F.: A fast motile response in guinea pig outer haircells: the cellular basic of cochlear amplification, J. Physiol., 388, pp. 323-347, 1987. [2] Bebout, J.M.: Pediatric hearing aid fitting: A practical overview. Hear J 42, pp.13-15, 1989 [3] Bechterew, W.: Über die innere Abteilung des Strichkörpers und des achten Hirnnerven. Neurol Centralblatt 3, p. 145, 1885 [4] Beck, C.: Anatomie und Histopathologie des Ohres. In: Berendes, J., Link, R., Zöllner, F. (Hrsg.): Hals-Nasen-Kunde in Praxis und Klinik, Band 5, Ohr I, 2. Auflage, 2.1- 2.60, Georg Thieme Verlag, Stuttgart 1979 [5] Békésy, G. von: Zur Theorie des Hörens: Die Schwingungsform der Basilarmembran. Physikalische Zeitung 29, pp.29-38, 1928. [6] Berendes, J., Link, R., Zöllner, F.: Hals- Nasen- Ohrenheilkunde in Praxis und Klinik. Stuttgart- Thieme 2. Auflage, 1979 [7] Berger, R., Müller, J., Stürzebecher, E., Cebulla, M.: Einsatz des objektiven BERA-Verfahrens (MB11) beim Neugeborenen Hörscreening in Marburg In: Aktuelle phoniatrisch-pädaudiologische Aspekte Bd.12 Medicombooks, 2004/2005 [8] Berger, R., Shehata-Dieler, W.E., Keim, R., Müller, J., Schwarz, S.: Universal hearing screening in Newborn using the the BERAphon and steady state potentials, In: The international conference on newborn hearing screening diagnosis and intervention NHS Book of abstracts, 2004 [9] Biesalski, P.: Der Mainzer Kindersprachtest., HNO 22, pp. 160-161, 1974 [10] Biesalski, P., Frank, F., Spreng, M.: Phoniatrie und Pädaudiologie. Band 2, 2. Aufl. Thieme, Stuttgart, 1994 [11] Boenninghaus, H-G., Lenarz, T.: HNO, 12. Aufl. Springer Verlag Berlin Heidelberg, pp. 40-45, 2004 [12] Buettner, U.W.: Akustisch evozierte Potentiale, In: Stöhr, M., Dichgans, J., Altenmüller, E., Evozierte Potentiale., 3. Aufl. Springer-Verlag Berlin, Heidelberg, pp. 411-414, 1996 [13] Cebulla, M., Stürzebecher, E., Elberling, C.: Objective detection of auditory steady-state responses: comparison of one-sample and q-sample tests. International Conference on Newborn Hearing Screening, Diagnosis and Intervention. May 27-29, Cernobbio (Como) Italy, 2004 100 [14] Cohen, L.T., Rickards, F.W., Clark, G.M.: A comparison of steady-state evoked potentials to modulated tones in awake and sleeping subjects., J Acoust Soc Am, 90, pp. 2467-2479, 1991 [15] Dallos, P., Popper, A. N., Fay, R. R. : The Cochlea (Springer handbook of auditory research). Vol. 8, Springer-Verlag New York, 1996 [16] Dau, T., Wegner, O., Mellert, V., Kollmeier, B.: Auditory brainstem responses with optimized chirp signals compensating basilar-membrane dispersion., J Acoust Soc Am, 107, pp. 1530-1540, 2000 [17] Dau T.: Neuronale Mechanismen beim Hören, Carl von Ossietzky Universität Oldenburg, Einblicke Nr. 33 / Juni 2001 [18] de Boer, E. : Auditory physics. Physical principles in hearing theory I. Phys Rep, 62, pp. 87-174, 1980 [19] Deetjen, P., Speckmann, E.-J.: Physiologie Urban & Schwarzenberg, MünchenWien-Baltimore, 1992 [20] Diller, G.: Objektive Audiometrie, aus Vorlesung Medizinische Akustik, 2005 [21] Dimitrijevic, A., John, M.S., Van Roon, P., Purcell, D.W., Adamonis, J., Ostroff, J., Nedzelski, J.M., Picton, T.W.: Estimating the audiogram using multiple auditory steady-state responses. J Am Acad Audiol 13, pp. 205-224, 2002 [22] Eggermont, J.J.: Development of auditory evoked potentials., Acta-Otolaryngo. Stockh. 112(2), pp. 197-200, 1992 [23] Elliott, L.L., Armbruster, V.B.: Some possible effects of delay of early treatment of deafness in infancy and early childhood., J Speech Hear Res 10, pp. 209-224, 1967 [24] Esser, G.: Praktische Durchführung der Früherkennung und Therapie, In: Plath, P. (Hrsg), Koordination und Rationalisierung bei der Früherkennung und Therapie von Hörstörungen bei Kindern in den ersten Lebensjahren Schriftreihe der Geers Stifftung, Band 3. Median Verlag Heidelberg, pp. 47-58, 1982 [25] Finckh-Kramer, U., Spormann-Lagodzinski, M.E., Nubel, K., Hess, M., Gross, M.: Wird die Diagnose bei perstierenden kindlichen Hörstörungen immer noch zu spät gestellt? HNO 46 (6) pp. 598-602, 1998 [26] Firszt, J.B., Gaggl, W., Runge-Samuelson, C.L., Burg, L.S., Wackym A.: Auditory sensitivity in children using the auditory steady-state response. Arch Otolaryngol Head Neck Surg, 130, pp. 536-540, 2004 [27] Greenwood, D.D.: A cochlear frequency position function for several species – 29 years later., J Acoust Soc Am, 87, pp. 2592-2605, 1990 101 [28] Gross, M.: Methoden der Kinderaudiometrie. In: Heinemann, M. (Hrsg.), Subjektive Audiometrie bei Kindern und akustisch evozierte Potentiale, 1. Auflage, pp. 1-31, R. Gross Verlag, Bingen, 1990. [29] Gross, M., Finckh-Kramer, U., Spormann-Logodznski, M.: Angeborene Erkrankung des Hörvermögens bei Kindern Teil 1, Erworbene Hörstörungen HNO 48 (12), pp. 879-886, 2000 [30] Hartmann, H., Hartmann, K.: „Früh“erkennung Memorandum zur Frührerkennung und Frühförderung hörgeschädigter Kinder Hrsg. Bundesgemeinschaft der Eltern und Freunde schwerhöriger Kinder e.V. Hamburg, 1993 [31] Heid, S., Hartmann, R., Klinke, R.: A model for prelingual deafness, the congenitally deaf white cat-population statistics and degenerative changes., Hear Res 115, pp. 101-111, 1998 [32] Heinemann, M.: Subjektive Audiometrie bei Kindern und akustisch evozierte Potentiale 1. Auflage, pp. 32-40, R. Gross Verlag, Bingen, 1990 [33] Hellbrügge, T.: Frühdiagnostik von Hörstörungen als kinderärztliche Aufgabe. Sozialpädiatrie, Kinder- und Jugendheilkunde, 3, pp. 116-117, 1997 [34] Helmholtz, H.: Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik. Vieweg & Sohn, Braunschweig, 1911 [35] Henke, K.D., Huber, M.: Neonatales Hörscreening-Gesundheitspolitische Konsequenzen. In: Gortner L, Dudenhausen JW (Hrsg.): Hören und Entwicklung: Risikoerkennung beim Neugeborenen. Ein Leitfaden der Stiftung für das behinderte Kind zur Förderung von Vorsorge und Früherkennung. Medizinische Verlagsgesellschaft Umwelt und Medizin m.b.H., Frankfurt/Main, pp.1-29, 1998 [36] Hildmann, A.: Hörscreening für Neugeborene, Hören und Heute Periodikum zur Audiologie in Forschung und Praxis Nr 1. pp. 11-14, 2002 [37] Holm, C.: Audiometrie bei Kindern, In: Hals- Nasen- Ohrenheilkunde in Praxis und Klinik, Hrsg.: Berendes, Link, Zöllner, Band 5, Ohr I Thieme Verlag, 1979 [38] Huizing, H. C.: Assessment and evaluation of hearing anomalies in young children. Proc. Int. Course Paedo. Audiol. Groningen University, 1953 [39] Jakobi, H.: Erfahrungen mit der Kinderaudiometrie. Arch. Ohr- Nas.- Kehlk.Heikl. 169: p. 383, 1956 [40] Janssen, Th.: Otoakustische Emissionen (OAE). In: Lehnhardt, E. unter Mitarbeit von Janssen, Th. und Kießling, J.: Praxis der Audiometrie. 7. Aufl., Georg Thieme Verlag, Stuttgart, pp. 83-88, 92-99, 1996 [41] Janssen, Th.: Schwellennahe und überschwellige Schallverarbeitung des Innenohres, Zeitschrift für Audiologie, Nr.4, pp. 100-117, 2000 102 [42] John, M.S., Picton, T.W.: MASTER: a Windows program for record multiple auditory steay-state responses. Computer Methods and Programs in Biomedicine,61, pp.125-150, 2000 [43] John, M.S., Dimitrijevic, A., Picton, T.W.: Auditory steady state responses to exponential modulation envelopes. Ear Hear 23: pp. 106–117, 2002 [44] John, M.S., Dimitrijevic, A., Picton, T.W.: Efficient stimuli for evoking auditory steady-state responses. Ear Hear 24, pp. 406–423, 2003 [45] Johnstone, B.M., Patuzzi, R., Yates, G.K.: Basilar membrane measurements and the travelling wave. Hear. Res., 22, pp.147–153, 1986 [46] Keidel, W.D., Kallert, S.: Physiologie des afferenten akustischen Systems In: Berendes, J., Link, R.,. Zöllner, F: Hals-Nasen-Kunde in Praxis und Klinik, Band 5, Ohr I, 2. Auflage, S. 8.1-8.133 Georg Thieme Verlag, Stuttgart 1979 [47] Kim, O.: Activ and non-linear biomechanics and the role of outer haircell subsystem, Hear. Res. 22, pp 105-114, 1986. [48] Kittel, G.: Phoniatrie und Pädaudiologie, Deutscher Ärzte-Verlag Köln, 1989 [49] Klinke, R., Hartmann, R., Heid, S., Kral, A.: Wider eine Welt ohne Worte, Frankfurt Forschung 2, pp. 16-27, 1997 [50] Klinke, R., Kral, A., Hartmann, R.: Sprachbahnung über elektronische Ohren so früh wie möglich. Deutsches Ärzteblatt 46, pp. 3049-3053, 2001 [51] Klinke, R., Pape, H.-C., Silbernagl S.: Physiologie, 5. Aufl., Georg Thieme Verlag, 2005 [52] Langmann, J.: Medizinische Embryologie. 8. Aufl., Georg Thieme Verlag, Stuttgart, 1989 [53] Lehnhardt, E.: Der Hörsturz- eine Form der akuten Schwerhörigkeit, Fortschr. Med. 112, Jg. Nr.27, pp. 367-371, 1994 [54] Lehnhardt, E.: Praxis der Audiometrie. 7.Aufl., Thieme, Stuttgart, 1996 [55] Lenarz, T.: Die Bedeutung eines universellen Neugeborenen-Hörscreenings. HörBericht 63., pp. 1-8, 1997 [56] Lippert, K.L.: Frühe AEP mit Click- Schallreizen. Subjektive Audiometrie und akustisch evozierte Potentiale. R. Groß, Bingen, 1990 [57] Lustig, R., Leake, P.A., Snyder, R.L., Rebsher, S.J.: Changes in the cat cochlea nucleulus following neonatal deafening and chronic intracochlear electrical stimulation. Hear Res 74. pp. 29-37, 1994 103 [58] Luts, H., Desloovere, C., Kumar, A., Vandermeersch, E., Wouters, J.: Int J Pediatric Otorhinolaryngol, 68, pp. 915-926, 2004 [59] Lütkenhöner, B., Kauffmann, G., Pantev, C., Ross, B.: Verbesserung der Synchronisation auditorisch evozierter Hirnstammpotentiale durch Verwendung eines die cochleären Laufzeitunterschiede kompensierenden Stimulus. Arch Otolaryngol, Suppl. II, pp. 157-159, 1990 [60] Mardia, K.V.: Statistics of directional data. London and New York: Academic Press., 1972 [61] Marty, R.: Development post-natal des response sensorielles du cortex cerebral chez le Chat et le Lapin., Arch Anat Microsc Morphol Exp 51, pp. 129-264, 1962 [62] Marty, R.: Maturation post-natale du systeme auditif. In: Minkowski (ed.) Regional Development of the Brain in Early Life. pp. 327-350, Blackwell, Oxford 1967 [63] Matschke, R.G., Plath, P.: Zur Früherkennung von Hörstörungen. HNO, 33: pp. 40-44, 1985 [64] Matschke, R.G.: Untersuchung zur Reifung der menschlichen Hörbahn. Thieme, Stuttgart, 1993 [65] Mauer, G.: Messungen und Modellbildung zur Untersuchung der amplitude modulation following response., Aachen, TH, Fak. f. Elektrotechnik und Informationstechnik, Diss. 2000 [66] Maurer, K., Leitner, H., Schäfer, E.: Akustisch evozierte Potentiale (AEP). Methode und klinische Anwendung. Enke, Stuttgart, 1982 [67] Meusel, K.: Hirnstammaudiometrie bei reifen Neugeborenen mit und ohne Hyperbilirubinämie, Halle, Univ., Med. Fak., Diss., 2003 [68] Moore, B.R.: A modification of the Rayleigh test for vector data. Biometrika, 67, pp. 175-180. 1980 [69] Mühler, R., Ziese, M.: Registrierung von Auditory Steady-State Response (ASSR) mit Laborsystemen, Z Audiol.; 44 (1) pp. 20–30, 2005 [70] Nieuwenhuys, R., Voogd, J., van Huijzen, C.: The Human Central Nervous System, 3rd Ed. Springer-Verlag, New York, 1988 [71] Northern, J., Downs, M.: Hearing in Children. The Williams & Wilkins Company, Baltimore, Maryland 1991 [72] Perez-Abalo, M.C., Savio, G., Torres, A., Martin, V., Rodriguez, E., Galán, L.: Steady-state responses to multiple Amplitude-modulated tones: An optimized method to test frequency-specific thresholds in hearing-impaired children and normal-hearing subjects. Ear & Hearing, 22, pp. 200-211, 2001 104 [73] Pethe, J., Begall, K., Mühler, R., Lottmann, J.K.: Amplitude Modulation Following Response (AMFR) - Eine Methode zur objektiven frequenzspezifischen audiologischen Diagnostik. Laryngo-Rhino-Otol. 75, pp. 23-28, 1996 [74] Pethe, J., Muhler, R., von Specht, H.: Amplitude modulation following responses in audiological diagnostics. HNO; 50, pp. 1045-1052, 2002 [75] Pethe, J.,: Amplitude Modulation Following Responses (AMFR) - ein neuer Weg zur objektiven Bestimmung der Hörschwelle, HörBericht 72, 2003 [76] Picton, T.W., Ouellette, J., Hamel, G., Durieux-Smith, A.: Brainstem-evoked potentials to tonepips in notched noise. J Otolaryngol; 8, pp. 289-314, 1979 [77] Picton, T.W., Durieux-Smith, A., Moran, L.M.: Recording auditory brainstem responses from infants. Int. J Pediatr Otorhinolaryngol, 28, pp. 93-110, 1994 [78] Picton, T.W., John, M.S., Dimitrijevic, A., Purcell, D.: Human auditory steadystate responses. Int J Audiol 42, pp. 177-219, 2003 [80] Picton, T.W., John, M.S., Dimitrijevic, A. Purcell, D.: Multiple Auditory Steady State Response (MASTER), Research Website, Frequency specific audiometry using auditory steady-state responses including articles, tutorials, signal processing software, 2006 [81] Plath, P.: Das Hörorgan und seine Funktion - Einführung in die Audiometrie. 5. Aufl., Edition Marhold im Wissenschaftsverlag V. Spiess, 1992 [82] Plath, P.: Zentrale Hör und Wahrnehmungsstörungen, HNO, 1994 [83] Politzer, G.: Die Entstehung des Ganglion acusticum beim Menschen. Acta Anat 26: pp. 1-13, 1956 [84] Probst, R., Grevers, G., Iro, H.: Hals-Nasen-Ohren-Heilkunde. Thieme Verlag, 2000 [85] Ptok, M., Ptok, A.: Audiometrie im Säuglings- und Kindesalter Teil 4: Untersuchungen zur auditiven Verarbeitung und Wahrnehmung. HNO aktuell 4, pp. 271-276, 1996 [86] Rance, G., Dowell, R.C., Rickards, F.W., Beer, D.E., Clark, Graeme, M.: Steady-State Evoked Potential and Behavioral Hearing Thresholds in a Group of Children with Absent Click-Evoked Auditory Brain Stem Response. Ear & Hearing. 19(1), pp. 48-61, 1998 [87] Rance, G., Rickards, F.: Prediction of hearing threshold in Infants using auditory steady-state evoked potentials. J Am Acad Audiol, 13, pp. 236-245, 2002 105 [88] Rhode, W.S.: Observations of the vibrations of the basilar membrane in squirrel monkeys using the Mössbauer technique. Journ. Acoust. Soc. Am., 49, pp. 1218–1231, 1971 [89] Romand, R., Sans, A., Romand, M.R., Marty, R.: The Structural Maturation of the Stato- Acoustic Nerve in the Cat., J Comp Neur 204, pp. 1-16, 1976 [90] Romand, R.: Development of the Cochlea. In: Romand R (ed.): Development of Auditory and Vestibular System. Academic Press, New York 1983 [91] Röpke, E.: Untersuchungen zum Hörvermögen Frühgeborener mittels transitorisch evozierter otoakustischer Emmissionen. Halle, Univ., Med. Fak., Diss., 1998 [92] Rubel, E.W.: Auditory System Development. In: G. Gottlieb, NA. Krasnegor (eds.): Measurement of Audition and Vision in the First Year of postnatal Life: pp. 53-86, Ablex Publishing Corporation, Norwood, New Jersey 1985 [93] Schiebler, T.H., Schmidt, W., Zilles, K.: Anatomie. 7. Aufl., Springer-Verlag, 1997 [94] Schmidt, R. F., Thews, G.: Physiologie des Menschen. Springer Verlag, Berlin, Heidelberg, 1995 [95] Schmutzinger, N, Hauser, R. Probst, R.: Zur diagnostischen Wertigkeit otoakustischer Emissionen — Teil 1, HNO 46, pp. 769–776, 1998 [96] Seifert, E.: Periphere Hörstörungen im Kindesalter, Leitlinien der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie, , AWMF online, 2005 [97] Sellick, P.M., Patuzzi, R.B, Johnstone, B.M.: Measurement of basilar membrane motion in the guinea pig using Mössbauer technique. Journ. Acoust. Soc. Am., 72, pp.131–141, 1982 [98] Sellick, P.M.: Hear Res 1980 Zeitschrift Sprache, Stimme und Gehör, p. 59, 2004 [99] Shimizu, H., Walters, R. J., Kennedy, D. W., Allen, M. C., Markowitz, R. K., Luebkert, F. R.: Crib-o-gram vs. auditory brainstem response for infant hearing screening. Laryngoscope 95: pp. 806-810, 1985 [100] Silbernagel, S., Despopoulos, A.: Taschenatlas der Physiologie.,Georg Thieme Verlag, Stuttgart, 1991 [101] Sininger, Y.S., Cone-Wesson, B., Folsom, R.C., Gorga, M.P.,Vohr, B.R., Widen, J.E., Ekelid, M., Norton, S.J.: Identification of neonatal hearing impaiment: auditory brain stem respones in the perinatal perio.Ear Hear 21(5) pp. 383-399, 2000 [102] Sinniger, Y.S.: Identifikation of Auditory neuropathie in Infant and Children Seminars in Hearing, Volume 23, pp. 3193-3200, 2002 106 [103] Sokol, J., Hyde, M.: Hearing screening. Pediatrics in Review 5, pp. 155-162, 2002 [104] Spoendlin, H.: Innervation densities of the cochlear, Acta Otolaryngol. 73, pp. 235-248, Stockholm, 1972 [105] Stöhr, M.: Physiologie und Pathophysiologie der Impulsleitung. In: Stöhr, M., Dichgans, J., Altenmüller, E.: Evozierte Potentiale., 3. Aufl. Springer-Verlag Berlin, Heidelberg, pp. 1-128, 1996 [106] Stöhr, M., Dichgans, J., Altenmüller, E.: Evozierte Potentiale., 3. Aufl. Springer-Verlag Berlin, Heidelberg, 1996 [107] Stürzebecher, E.: Method for hearing screening of newborn by means of steady-state responses evoked with high click rate. Patent Application 01610060.4. at the European Patent Office., 2001 [108] Stürzebecher, E., Cebulla, M., Pschirrer, U.: Efficient stimuli for recording of the amplitude-modulation following response (AMFR). Audiology, 40, pp. 6368, 2001 [109] Stürzebecher, E., Cebulla, M., Elberling, C.: Automated auditory response detection – statistical problems with repeated testing. Int J Audiol, 2004 [110] Stürzebecher, E., Cebulla, M., Elberling, C., Berger, T.: New efficient stimuli for evoking frequency-specific auditory steady-state responses, Journal of the American Academy of Audiology, 17: pp. 448-461, 2006 [111] Swanepoel, D., Hugo, R., Roode, R.: Auditora steady-state responses for children with severe to profound hearing loss. Arch Otolaryngol Head Neck Surg, 130, pp. 531-535, 2004 [112] Valdes, J.L., Perez-Abalo, M.C., Martin, V., Savio, G., Sierra, C., Rodriguez, E., Lins, O.: Comparison of statistical indicators for the automatic detection of 80 Hz auditory steady state responses. Ear Hear,18, pp. 420-429, 1997 [113] Vartiainnen, E., Karjalainen, S.: Congenital and early-onset bilateral hearing impairment in children: the delay in detection. Otolaryngol 111, pp. 1018-1021, 1997 [114] Vogler Rodrigues dos Santos, M.: Über den Wert frühkindlicher Hördiagnostik mit automatisierten Verfahren zur Mustererkennung in der Hirnstammaudiometrie, Bochum, Univ. Med. Fak., Diss. 2001 [115] Walger, M.: Hörstörung und Hörbahnreifung-Über die Bedeutung der Früherkennung und Therapie kindlicher Hörstörungen. HörBericht 67, pp. 1-7, 2000 [116] Watkin, P., Baldwin, M., Mc Enery, G.: Neonatal at risk screening and the identification of deafnes, Arch Dis Child, 66: 1130-1135, 1991 107 [117] Webster, D.B.: Conductive hearing loss effects the growth of the cochlea nucleoli over an extended period of time. Hear Res 32., pp. 185-182, 1998 [118] Wegner, O.: Zusammenhang zwischen Psychoakustik und Hirnstammpotentialen., Carl von Ossietzky Universität Oldenburg, Fachbereich Physik, Diplomarbeit, 1997 [119] Wendler, J., Seidner, W., Kittel, G., Eysholdt, U.: Lehrbuch der Phoniatrie und Pädaudiologie. 3. Aufl. Thieme, Stuttgart, 1996 [120] Wikipedia, die freie Enzyklopädie: Amplitudenmodulation, 2006 [121] Willott, J.F., Bross, L.S., Mcfadden, S.L.: Morphologie of the Cochlea nucleolus in CBA/j mice with cronic severe sensineural cochlea pathology induced during adulthood. Hear Res 74, pp. 1-21, 1994 [122] Zechner, G., Altmann, F.: Enwicklung des menschlichen Ohres. In: F. Zöllner(Hrsg.): Hals-Nasen-Ohrenheilkunde in Praxis und Klinik; Band 5: Ohr I, Georg Thieme Verlag, Stuttgart, 1979 [123] Zenner, H.P.: Motility of outer haircells as an activ, axtinmediated process, Acta Otolaryngol., 105, pp. 39-44, Stockholm, 1988 [124] Zenner, H.P.: Frühdiagnostik und Therapie von Hörstörungen beim Säugling und Kleinkind: 21. Deutsches Ärzteblatt 94,: 19, p. 1279 , 1997 [125] Zwicker, E.: Periphere Verarbeitung akustischer Information Arbeits- und Ergebnisbericht des SFB 204 der DFG, 1988 Publikation der Ergebnisse dieser Arbeit: [110] Stürzebecher, E., Cebulla, M., Elberling, C., Berger, T.: New efficient stimuli for evoking frequency-specific auditory steady-state responses, Journal of the American Academy of Audiology, 17: pp. 448-461, 2006 108 10. Anhang 1. Aufklärungsblatt zur Studie für Versuchspersonen: Klinik für Phoniatrie und Pädaudiologie Direktorin: Frau Prof. Dr. med. R. Berger Klinikum der Philipps-Universität, Klinik für Phoniatrie und Pädaudiologie, 35033 Marburg Hausanschrift: Deutschhausstraße 3, 35037 Marburg Postanschrift: 35033 Marburg Telefon: (06421) 28-66439 Telefax: (06421) 28-62824 e-mail: Roswitha.Berger @med.uni-marburg.de Internet: www.med.uni-marburg.de/phoniatrie Aktenzeichen: Datum: 24.03.2007 Bearbeiter: Prof. Berger Aufklärungsblatt zur Studie: Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch die Amplitude-Modulation Following Responses (AMFR) Sehr geehrte Damen und Herren, Aussagen zum Hörvermögens lassen sich besonders im Säuglings- und Kleinkindalter nur mit Einsatz objektiver Untersuchungsverfahren ermöglichen. Als das wichtigste objektive Verfahren gilt die Registrierung von Hirnstammpotentialen (BERA- „Brainstem Elektric Response Audiometry“), die als Antwort auf einen akustischen Reiz erfolgen. Die für die diese Untersuchung benutzten akustischen Reize sind sogenannte Clicks, Reize mit einem Frequenzspektrum zwischen 1000- 4000 Hz. Die Antworten auf diesen akustischen Stimulus ermöglichen deshalb lediglich Aussagen zu einem Hörverlust im Frequenzbereich zwischen 1000 und 4000 Hz, da die Sinneshaarzellen der Hörschnecke nur in diesem Bereich und dazu gleichzeitig erregt werden. Wird im Gegensatz zu den bisher üblichen Click- Reizen eine andere akustische Stimulation benutzt, dann kann man die Sinneszellen der Hörschnecke frequenzspezifisch reizen. Dies lässt sich mit amplitudenmodulierten Tönen ermöglichen. Eine periodische Schwankung solch eines Tones erzeugt eine Antwort, die AMFR (Amplitude Modulation Following Response), die sich im Frequenzspektrum nachweisen lässt. Solange der Reiz andauert, ist auch eine periodische Antwort zu registrieren. Durch den Einsatz dieser neuen akustischen Reize würde es möglich werden, eine Hörschwelle frequenzspezifisch und objektiv zu bestimmen. Besonders im Säuglingsund Kleinkindalter hat eine solche Testung große Bedeutung. 109 Noch sind die geeigneten amplitudenmodulierten Töne, die einen Nachweis bis an die Hörschwelle möglich machen, nicht exakt ermittelt worden. Deshalb möchten wir Sie bitten an der Studie teilzunehmen. Zur Registrierung der Antworten auf die akustische Reizung ist es nötig Ihnen 3 handelsübliche Klebeelektroden anzulegen. (Jeweils hinter dem Ohr und eine auf die Stirn, unmittelbar am Haaransatz).Über Kopfhörer werden Ihnen unterschiedliche Töne übermittelt. Die Lautstärke dieser Töne liegt bei 40 dB, was einem Flüstern entspricht. Sie sollen dazu entspannt liegen. Sie können sogar schlafen, da keine aktive Mitarbeit erforderlich ist. Die Untersuchung wird in einer Hörkabine durchgeführt. Insgesamt rechnen wir mit einer Untersuchungszeit von 40 min. Selbstverständlich können Sie ohne Angaben von Gründen die Untersuchung abbrechen, denn die Teilnahme ist freiwillig. Ihre ermittelten „Hör Antworten“ auf den akustischen Reiz werden über einen Computer gespeichert und mit einen statistischen Test bearbeitet. Über die Mittelwertbestimmung lassen sich Aussagen über den optimalen Reiz finden. Univ.-Prof. Dr. R. Berger 2. Empfehlungen der Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen (ADANO) zur Durchführung der Elektrischen ReaktionsAudiometrie nachlesbar unter: http://www.hno.org/adano/ERA-Empfehlungen.pdf 110 3. Einverständniserklärung, die von jedem Probanden vor den Untersuchungen unterschrieben werden musste: Einverständniserklärung Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch die Amplitude-Modulation Following Responses (AMFR) Ich, bin über das Wesen, Bedeutung und Tragweite der o g. Studie aufgeklärt worden und habe die Aufklärung gelesen und verstanden. Alle Fragen zu dieser Studie wurden von Frau Prof. Berger beantwortet. Ich hatte genügend Zeit für meine Entscheidung und bin bereit an der o.g. Studie teilzunehmen. Mit der Weitergabe bzw. statistischen Bearbeitung der Studienergebnisse bin ich einverstanden. Ich weiß, dass ich ohne Angaben von Gründen meine Einwilligung zur Teilnahme widerrufen kann, ohne dass mir daraus Nachteile erwachsen. Eine Kopie der Aufklärung habe ich erhalten. Prof. Dr. Berger Marburg, am: 111 Probandenunterschrift 11. Lebenslauf Persönliche Daten Name, Vorname: Berger, Thomas Geburtsdatum: 21 Dezember 1978 in Leipzig Geburtsort: Leipzig Familienstand: ledig Konfession: evangelisch Eltern: Dr. med. Hans-Dietrich Berger Facharzt für Innere Medizin, Rheumatologie Prof. Dr. med. Roswitha Berger, geb. Wieczorek Fachärztin für HNO und Phoniatrie/Pädaudiologie Schulbildung 1985-1991 Clara-Zetkin Oberschule, Leipzig 1991-1993 Thomasgymnasium, Leipzig 1993-1998 Gymnasium Philippinum, Marburg Zivildienst 08.1998 - 08.1999 Altenpflegeheim Johannisheim, Freiburg i. Br. Studium 10.1999 - 05.2006 Studium der Humanmedizin an der Universität zu Leipzig 09.2001 Ärztliche Vorprüfung 09.2002 Erster Abschnitt der Ärztliche Prüfung 03.2005 Zweiter Abschnitt der Ärztlichen Prüfung 04.2006 Dritter Abschnitt der Ärztlichen Prüfung 112 Auslandsaufenthalt 09.2002 – 09.2003 Studium an der „Faculdade de Medicina“ in Lissabon, Portugal im Rahmen des Studentenaustauschprogramm „ERASMUS“ Famulaturen 02.2002 - 03.2002 A.Ö. Bezirkskrankenhaus, Hall in Tirol Fachbereich Innere Medizin 03.2003 - 04.2003 Hospital Santa Maria, Lissabon Fachbereich Chirurgie 08.2003 - 09.2003 Hospital Santa Maria, Lissabon Fachbereich Transplantationschirurgie 08.2004 - 09.2004 Praxis von MR Dr. med. J. Petzold, Leipzig Facharzt für Allgemeinmedizin Praktisches Jahr Innere Medizin Krankenhaus St. Elisabeth Lehrkrankenhaus der Universität Leipzig Chirurgie IsMett, Istituto Mediterraneo per i Trapianti e Terapie ad Alta Specializzazione, Palermo, Italien Lehrkrankenhaus der UPMC, University of Pittsburgh Medical Center, USA Neurologie Ospedale Regionale di Lugano, Lehrkrankenhaus der Universität Zürich, Schweiz Dissertation Thema „Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch AMFR“ Philipps-Universität Marburg Klinik für Phoniatrie und Pädaudiologie Fachmedizin für Sprach-, Stimm- und kindliche Hörstörungen Direktorin: Prof. Dr. med. Roswitha Berger 113 12. Verzeichnis der akademischen Lehrer Meine akademischen Lehrer waren Damen/Herren in Leipzig: Adam Poeggel Angermeyer Preiß Arnold Reuter Becker Riha Bootz Rodloff Brähler Salis-Soglio v. Dorschner Sandholzer Emmrich Schmidt F. Froster Schmidt W. Gebhardt Schober Geyer Schreinicke Glander Schwarz Hauss Thiery Hennig Uharek Hinz Viehweg Illes Wagner Kamprad Wiedemann Keller Wittekind Kiess Zimmer Kleemann Klötzer Löffler Metzner Nörenberg Olthoff 114 13. Danksagung Recht herzlich bedanke ich mich bei Frau Prof. Dr. med. Roswitha Berger von der Klinik für Phoniatrie und Pädaudiologie des Fachbereichs Medizin der Philipps- Universität Marburg für die Überlassung des Themas und die kontinuierliche wissenschaftliche Anleitung während der notwendigen Messungen, deren Auswertung und der Entstehung der vorliegenden Arbeit. Weiterhin danke ich Herrn Prof. E. Stürzebecher, dem ehemaligen Leiter und Herrn PD M. Cebulla, Mitarbeiter des Bereich für Medizinische Akustik am Medizinischen Zentrum der HNO-Heilkunde der Johann Wolfgang von Goethe Universität Frankfurt am Main für die Einarbeitung in das faszinierende Gebiet der objektiven Hörprüfmethoden mittels BERA, die Bereitstellung der neuen Reize und für die Hilfe bei der statistischen Auswertung der Ergebnisse dieser Arbeit. Ebenso möchte ich mich bei allen Mitarbeitern der Klinik für Phoniatrie und Pädaudiologie des Fachbereichs Medizin der Philipps-Universität Marburg, im Besonderen bei Herrn Dipl.- Ing. J. Müller, Herrn S. Schwarz und Frau R. Wandel bedanken, die mir jederzeit mit ihren Ratschlägen und ihrem Engagement konstruktiv und tatkräftig zur Seite standen. Auch meiner Familie möchte ich danken, die mir überhaupt erst mein Studium ermöglicht hat und stetiger Antrieb für die Erstellung dieser Arbeit war. Zuletzt genannt, jedoch genauso herzlich, bedanke ich mich bei allen Probanden, darunter alte und neu gewonnene Freunde, ohne deren Mithilfe kein erfolgreiches Arbeiten möglich gewesen wäre. 115 14. Ehrenwörtliche Erklärung Ehrenwörtliche Erklärung Ich erkläre ehrenwörtlich, dass ich die dem Fachbereich Medizin der PhilippsUniversität in Marburg/Lahn zur Promotionsprüfung eingereichte Arbeit mit dem Titel: „Optimierung der akustischen Reize für die objektive Hörschwellenbestimmung durch AMFR“ in der Klinik für Phoniatrie und Pädaudiologie, Fachmedizin für Sprach-, Stimm- und kindliche Hörstörungen unter Betreuung und Anleitung von Direktorin Frau Prof. Dr. med. Roswitha Berger ohne sonstige Hilfe selbst durchgeführt und bei der Abfassung keine anderen als die in der Arbeit aufgeführten Hilfsmittel benutzt habe. Ich habe bisher an keinem anderen in- oder ausländischen Medizinischen Fachbereich ein Gesuch um Zulassung zur Promotion eingereicht, noch die vorliegende oder eine andere Arbeit als Dissertation vorgelegt. Vorliegende Arbeit wurde in folgenden Publikationsorganen veröffentlicht: Stürzebecher, E., Cebulla, M., Elberling, C., Berger, T.: New efficient stimuli for evoking frequency-specific auditory steady-state responses, Journal of the American Academy of Audiology, 17: pp. 448-461, 2006 Marburg, den 116