Messung und Analyse von otoakustischen Emissionen

Werbung
Protokoll zum Versuch im Rahmen des Blockpraktikums
Messung und Analyse von otoakustischen
Emissionen
Oliver Neumann
Sebastian Wilken
Mat.-Nr.: 9134690
Mat.-Nr.: 9150300
10. Juli 2008
1
Einleitung
Dieser Praktikumsversuch im Rahmen des Blockpraktikums Physikalische Messtechnik und digitale Signalver”
arbeitung“ an der Carl von Ossietzky Universität Oldenburg beschäftigt sich mit den otoakustischen Emissionen
(OAE). OAE sind Schallaussendungen des Ohrs, welche erstmals 1978 von David Kemp in [1] beschrieben wurden.
Zunächst werden wir uns im Theorieteil des Protokolls mit dem Aufbau und der Funktionsweise des menschlichen
Ohrs vertraut machen. Danach erläutern wir kurz, was man unter den OAE versteht und welche Klassen dieser
Emissionen existieren. Zum Schluss der theoretischen Behandlung erklären wir einige Begriffe, die grundlegend
für die Untersuchung der OAE sind: Die Nichtlinearität, die Kompression, die Schallausbreitung in der Cochlea
sowie das nichtlineare Aufaddieren.
Im Praktischen Teil werden wir dann verschiedene Messungen von OAE durchführen und an Hand einiger selbst
geschriebener MATLAB-Skripte auswerten.
2
2.1
Theoretischer Teil
Der Aufbau des menschliches Ohrs
In Abbildung 2.1 ist der Aufbau des menschlichen Ohrs mit allen wichtigen Elementen dargestellt. Im Ohr befinden
sich sowohl das Hörorgan, als auch das Gleichgewichtsorgan. Dabei liegt der Hörbereich bei Normalhörenden
zwischen 20 Hz und 20 kHz. Das Hörorgan ist unterteilt in drei Bereiche: Das Außen-, das Mittel- und das Innenohr.
Das Außenohr fasst die Ohrmuschel und den äußeren Gehörgang, der am Trommelfell endet, zusammen. Die
Ohrmuschel dient dazu, die ankommenden Schallwellen aufzufangen. Aufgrund des trichterförmigen Aufbaus des
äußeren Gehörgangs werden die Schallwellen leicht verstärkt. Dann gelangen diese Schallwellen an das Trommelfell
und bringen dieses in Schwingung.
Das Mittelohr definiert den Bereich zwischen dem Trommelfell und dem ovalen runden Fenster. Im Mittelohr
befinden sich die drei Gehörknöchelchen: Hammer, Amboss und Steigbügel. Der Hammer liegt direkt an dem
Trommelfell an und der Steigbügel ist am ovalen Fenster positioniert. Diese beiden Knöchelchen werden durch
den Amboss verbunden. Mit Hilfe dieser drei Gehörknöchelchen werden die Schwingungen verstärkt und vom
Trommelfell auf die Membran des ovalen Fensters übertragen. Außerdem existiert noch eine Ohrtrompete, auch
Eustachische Röhre genannt. Die Eustachische Röhre dient zum Druckausgleich zwischen den beiden Seiten des
Trommelfells.
Das Innenohr besteht einerseits aus einem Konstrukt, das man als Hörschnecke (lat. Cochlea) bezeichnet. Dieses
ist sowohl Teil des Hörorgans, besteht aber auch aus drei Bogengängen und zwei Vorhofsäckchen, die zusammen
1
2
THEORETISCHER TEIL
2
Abbildung 2.1: Aufbau des menschlichen Ohrs, entnommen aus [5].
das Gleichgewichtsorgan bilden. Die Cochlea beginnt an der Basis und endet an der Spitze, auch Apex genannt.
Die Cochlea beinhaltet drei mit Flüssigkeit gefüllte, spiralförmige Kanäle. Der mittlere Kanal wird als Schneckengang deklariert und die beiden umliegenden Kanäle werden als Vorhof- und Paukentreppe bezeichnet. Der
Schneckengang ist von der Paukentreppe durch die Basilarmembran getrennt. Zwischen dem Schneckengang und
der Vorhoftreppe liegt ebenfalls eine Membran, die Reißner-Membran.
Nun werden die Schwingungen von der Membran des ovalen Fensters auf die Flüssigkeit von der Vorhoftreppe
bis zum Apex über ein Schneckenloch in die Paukentreppe, die am runden Fenster endet, weitergeleitet. An der
Basilarmembran befindet sich das Corti-Organ, auf dem sich Haarzellen befinden. Man unterteilt die Haarzellen
in äußere und innere Haarzellen. Die äußeren Haarzellen verstärken die Schallwellen innerhalb der Cochlea. Die
inneren Haarzellen wandeln mechanische Schwingungen in Nervenimpulse um, die dann über den Hörnerv zum
Gehirn gelangen.
2.2
Die otoakustischen Emissionen
Als otoakustische Emissionen (OAE) bezeichnet man akustische Signale, die vom Ohr ausgesendet werden. Die
Ursache hierfür liegt in der nichtlinearen und aktiven Vorverarbeitung in der Cochlea. Erste Anzeichen für die
Nichtlinearität zeigen einige Eigenschaften des Innenohrs, wie zum Beispiel die Frequenzselektierung und der
Dynamikbereich, der thematisch die hohe Empfindlichkeit bei leisen Tönen einschließt. Untersuchungen haben
außerdem gezeigt, dass ein aktiver Mechanismus der Schallausbreitung in der Cochlea zugrunde liegt. Bei diesen Untersuchungen stellte sich heraus, dass die Nichtlinearität des Innenohrs nach dem Tod verschwindet. Des
Weiteren ist es mit Hilfe der OAE möglich, experimentelle Daten vom Innenohr zu gewinnen, ohne dabei direkt
ins Ohr einzudringen. Dabei wird ein empfindliches Mikrofon so in den Gehörgang platziert, dass der Gehörgang
abgeschlossen ist. Die OAE bieten somit eine Möglichkeit, objektive Hörtests durchzuführen, die unabhängig vom
subjektiven Empfinden des Patienten sind.
2.3
Klassifizierung verschiedener OAE-Typen
Die otoakustischen Emissionen werden in drei Klassen unterteilt: Die spontanen otoakustischen Emissionen
(SOAE), die transitorisch evozierten Emissionen (TEOAE) und die Verzerrungsprodukt-Emission (DPOAE, engl.
distortion product emission).
2
THEORETISCHER TEIL
3
Die SOAE sind einzelne sehr leise Töne, die ohne äußeren Reiz vom Ohr ausgesendet werden. Diese Emissionen
liegen in vielen Fällen bei einem niedrigen Schalldruckpegel und bei wenigen Frequenzen vor und sind nur bei
ungefähr der Hälfte aller Normalhörenden nachweisbar. Für den Nachweis der SOAE werden Leistungsspektren der
aufgezeichneten Signale berechnet und gemittelt. Klinisch ist die Untersuchung der SOAE nur von untergeordneter
Bedeutung.
Im Gegensatz zu den SOAE werden bei den TEOAE und bei den DPOAE ein äußerer Reiz ins Ohr gegeben. Bei
den transitorisch evozierten Emissionen wird die Cochlea durch kurze breitbandige Signale, so genannte KlickReize oder -Stimuli, stimuliert. Daraufhin emittiert das Ohr ein breitbandiges Signal mit frequenzabhängiger
Latenz der einzelnen Komponenten. Die emittierten Signale treten zwischen zwei Klick-Reizen auf, d. h., dass der
Stimulus von der Antwort im Zeitbereich getrennt wird. Bei der Verzerrungsprodukt-Emission werden simultan
zwei sinusförmige Impulse ins Ohr gesendet, wobei sich die Signale in der Frequenz unterscheiden. In der Cochlea
werden dann Töne, die sich aus den beiden Impulsen bezüglich der Frequenz kombinieren lassen, so genannte
Kombiantionstöne erzeugt. Bei dieser Art der Emission liegt also eine Trennung des Stimulus und des emittierten Signals im Frequenzbereich vor. Um zufallsbedingtes Rauschen zu minimieren, werden auch bei evozierten
Emissionen die Signalantworten gemittelt.
Die evozierten Emissionen sind bei fast allen Normalhörenden nachweisbar und nehmen von ihrer Bedeutung im
klinischen Bereich zu. Man nutzt unter anderem diese Eigenschaft zur Funktionsprüfung des Innenohrs vor allem
bei Kleinkindern, da sie unabhängig von der Mitarbeit der Kinder bei einem Hörtest ist.
2.4
Wichtige Begriffe
Um einen tieferen Einblick in die otoakustischen Emissionen zu erhalten, werden nun einige Begriffe näher erklärt.
2.4.1
Die Nichtlinearität
Bei nichtlinearen Übertragungsfunktionen stehen Ursache und Wirkung nicht in einem einfachen, linearen Zusammenhang, sondern es liegt eine komplexe, in vielen Fällen exponentielle Beziehung vor. Aus der Nichtlinearität
folgt unter anderem, dass bei einer simultanen Stimulation mit zwei in der Frequenz unterschiedlichen Sinustönen
die so genannten Kombinationstöne auftreten. Die Frequenz der einzelnen Kombinationstöne lassen sich aus einer
Taylorentwicklung herleiten. Man geht in diesem Fall davon aus, dass sich der Schallpegel p wie folgt aus den
beiden Stimulationsfrequenzen zusammensetzt:
p = p1 cos(2πf1 t) + p2 cos(2πf2 t)
(2.1)
Zur weiteren Berechnung sind folgende Additionstheoreme nützlich:
cos(x + y) = cos x − cos y − sin x sin y
cos(x − y) = cos x cos y + sin x sin y
(2.2)
(2.3)
Unter der Verwendung der Gleichungen 2.2 und 2.3 lassen sich für den harmonischen Term der Gleichung 2.1
folgende Kombinationsfrequenzen bestimmen: f2 + f1 , f2 − f1 , 2f1 und 2f2 . Betrachtet man den kubischen Term,
so ergeben sich folgende Frequenzen für die Kombinationstöne: 3f1 , 3f2 , 2f2 + f1 , 2f2 − f1 und 2f1 + f2 sowie
2f1 − f2 .
2.4.2
Kompression
Das menschliche Ohr nimmt einen Schalldruckpegel im Bereich von 0 dB SPL bis 120 dB SPL wahr. Bei der
Umwandlung in Nervenimpulse durch die inneren Haarzellen liegt jedoch nur ein Bereich von maximal 60 dB vor.
Da das Mittelohr die Schallwellen linear vom Trommelfell auf das ovale Fenster überträgt, lässt sich schließen,
dass die Kompression von 120 dB SPL auf maximal 60 dB in der Cochlea stattfinden muss.
2
THEORETISCHER TEIL
2.4.3
4
Schallausbreitung in der Cochlea
Die Basilarmembran ist ein schwingungsfähiges System und lässt sich durch die physikalischen Eigenschaften
Masse, Reibung und Steifigkeit beschreiben. Diese Eigenschaften verändern sich entlang des Corti-Organs. Die
Steifigkeit nimmt von der Basis bis zum Apex hin ab. Das bedeutet, dass dadurch Wanderwellen entstehen und
die maximale Amplitude dieser Wellen in Abhängigkeit der Frequenz an verschiedenen Orten in der Cochlea
vorzufinden ist. Je näher die maximale Amplitude am Apex ist, desto niedriger ist die Frequenz. In der Abbildung
2.2 wird die Verteilung der Wahrnehmungen von Frequenzen in der Cochlea dargestellt.
Abbildung 2.2: Verteilung der Wahrnehmungen von Frequenzen in der Cochlea, entnommen aus [6].
Auch bei den otoakustischen Emissionen entstehen Wanderwellen. Diese Wanderwellen breiten sich von ihrem Ursprung in Richtung des ovalen Fensters aus. Nun werden diese Wellen teilweise transmittiert und der transmittierte
Anteil lässt sich dann im Gehörgang nachweisen.
Im Allgemeinen hängen die mechanischen Eigenschaften von dem Pegel ab, der in der Cochlea vorliegt. Für diese
Abhängigkeit kommen die äußeren Haarzellen in Frage. Man glaubt, dass die äußeren Haarzellen die Steifigkeit
lokal ändern können oder je nach Pegel mehr oder weniger zur Dämpfung beitragen. Es ist sogar möglich, dass
bei einem kleinen Pegel eine Entdämpfung stattfindet, d. h., dass die Wanderwellen verstärkt werden.
2.4.4
Das nichtlineare Aufaddieren
Mit Hilfe des nichtlinearen Aufaddierens ist es möglich, Reizartefakte zu unterdrücken. Bei der Aufzeichnung
überlagern sich die Signalantworten aus dem Innenohr mit den passiven“ Impulsantworten aus dem Gehörgang
”
und Mittelohr. Da die Impulsantworten des Mittelohrs und Gehörganges einen linearen Bezug zum Reizpegel
besitzen, ist es durch das nichtlineare Aufaddieren möglich, die Signalantwort des Innenohrs zu isolieren.
Wir definieren eine Funktion, welche die Intensität des Antwortsignals y in Abhängigkeit zur Intensität des
Stimulus x beschreibt und außerdem einem adaptiven Rauschen mit der Intensität r unterliegt:
y(x) = c1 xm + c2 x + r
(2.4)
Dabei sind c1 , c2 und m positive Konstanten, wobei m bis 1 beschränkt ist. Reizt man beispielsweise nun dreimal mit einem Stimulus der festen Amplitude x und einmal mit der Amplitude −3x und addiert diese nun, so
werden alle linearen Anteile herausgefiltert, die nichtlinearen Anteile jedoch bleiben erhalten. Ein Nachteil des
nichtlinearen Aufaddierens ist es, dass der nichtlineare Anteil in der Frequenz unterschiedlich gewichtet wird. Außerdem werden nichtlineare Verzerrungen des Schallweges nicht herausgefiltert, sondern es wird dem Nutzsignal
zugeordnet und kann bei hohem Reizpegel zu Problemen führen.
3
PRAKTISCHER TEIL
3
5
Praktischer Teil
Im Praktischen Teil werden wir verschiedene Arten von otoakustischen Emissionen mit Hilfe von einer Gehörgangssonde, die mit Miniaturlautsprechern und Mikrofonen ausgestattet ist, aufzeichnen. Dabei werden TEOAE, SOAE
und DPOAE durch verschiedene Stimulationen des Gehörs angeregt und mit entsprechender Software ausgewertet.
3.1
Apparatur
Zur Messung der otoakustischen Emissionen steht ein PC mit zwei Einsteckkarten zur Verfügung, welche die
erforderlichen Mehrkanal-A/D- und -D/A-Wandler beinhalten. Das Signal der bereits angesprochenen Messsonde
wird verstärkt und dann an die Messwerterfassungskarten im PC weitergegeben. Diese Anordnung entspricht
der klinischen Standardapperatur zur Aufzeichnung otoakustischer Emissionen (ILO96 OAE Research System,
Otodynamics Ltd., Hatfield/UK ). Zur Aufnahme der Messdaten wird die Software ILO96 Version 5 verwendet.
Dieses Programm speichert die Daten im Binärsystem ab. Wir verwenden später ein MATLAB-Skript um die Daten
einzulesen und ins ASCII-Format zu konvertieren.
3.2
Aufnahme von TEOAE und SOAE
Wir nehmen nun transitorisch evozierte otoakustische Emissionen (TEOAE) und auch spontane otoakustische
Emissionen (SOAE) auf. Bei der Messung der TEOAE wird die Antwort auf eine Klick-Stimulation gemessen.
Die Daten werden von der Messsoftware binär gespeichert und müssen daher vom bereitgestellten MATLAB-Skript
import ILO.m eingelesen und zur Weiterverarbeitung aufbereitet werden. Die Messsoftware schreibt die aufgenommenen Signale abwechselnd in zwei Puffer, deren Signale nach dem Import in zwei Vektoren gespeichert
werden. In einem weiteren Vektor wird das Zeitsignal des Klick-Stimulus abgespeichert. Es werden ebenfalls noch
die Leistungsdichtespektren (LDS) von Nutz- und Rauschsignal berechnet, welche wir allerdings in der Folge nicht
weiter benötigen. Zur Auswertung und grafischen Darstellung der Signale dient die Funktion einlesen.m:
Listing 1: Quellcode der Funktion einlesen.m.
function [ ] = e i n l e s e n ( f i l e )
[ a , b , s , FS ,FN] = import ILO ( f i l e ) ;
A = fft (a );
B = fft (b ) ;
KLDS = A. ∗ conj (B ) ;
Y = r e a l (KLDS ) ;
f s = 25000;
t = [1/ f s :1/ f s :512/ f s ] ;
f = [ f s /512: f s /512: f s ] ;
maxab = max( abs ( a+b ) ) ;
max AB = max( abs (A+B ) ) ;
figure ;
plot ( t ∗ 1 0 0 0 , ( a+b ) . / maxab ) ;
xlim ( [ 0 , 2 0 ] ) ;
xlabel ( ’ Z e i t / ms ’ ) ;
ylabel ( ’ S c h a l l d r u c k / mPa ’ ) ;
figure ;
plot ( f , 1 0 ∗ log10 (Y. /max(Y ) ) ) ;
xlim ( [ 0 , 6 2 5 0 ] ) ;
xlabel ( ’ Frequenz / Hz ’ ) ;
ylabel ( ’ P e g e l / dB ’ ) ;
wavwrite ( ( 1 / maxab ) ∗ ( a+b ) , f s , 1 6 , ’ o u t f i l e . wav ’ ) ;
3
PRAKTISCHER TEIL
6
Beim Aufruf der Funktion wird die Datei mit den Messdaten als Argument file übergeben. Diese Datei wird
dann mit Hilfe von import ILO.m eingelesen. In den Vektoren a und b befinden sich nun die Puffersignale, in
s der Klick-Stimulus und in FS und FN die Spektren des Nutz- und des Rauschsignals. Nun wird eine FFT der
Puffersignale durchgeführt und in den Vektoren A und B gespeichert. Durch die Operation A.*conj(B) wird
nun das Kreuzleistungsdichtespektrum (KLDS) ermittelt und in KLDS gespeichert. Der Vektor Y enthält den
Realteil des KLDS. Mit Hilfe der bekannten Samplingfrequenz fs werden nun Zeit- und Frequenzvektoren t und
f definiert. Zur späteren Normierung werden noch die Maxima der Beträge von a+b und A+B in den Variablen maxab
bzw. max AB gespeichert. Nun wird die Summe aus beiden Puffern normiert und über der Zeit in ms geplottet.
Anschließend wird ein Plot von Y (in dB) über dem Frequenzvektor f erstellt und wiederum durch Division mit
dem Maximalwert von Y normiert. Des Weiteren wird noch die (normierte) Summe der beiden Puffersignale a
und b mit Hilfe des Befehls wavwrite in eine .wav-Datei geschrieben.
Abbildung 3.1: Zeitsignal für die Messung am Röhrchen mit der Methode des linearen (links) und des nichtlinearen
Aufaddierens (rechts).
Abbildung 3.2: Spektrum für die Messung am Röhrchen mit der Methode des linearen (links) und des nichtlinearen
Aufaddierens (rechts).
Zunächst führen wir einige Testmessungen an einem Kunststoffröhrchen durch, dessen Volumen und Radius in etwa
mit den Ausmaßen des menschlichen Gehörganges übereinstimmen. Bei dem Röhrchen sollten keine otoakustischen
Emissionen zu erwarten sein. Wir benutzen auch hier die Gehörgangsonde, welche wir mit Hilfe eines passenden
Aufsatzes so am Eingang des Röhrchens platzieren, dass es nach außen hin abgeschlossen ist. Es werden nun zwei
3
PRAKTISCHER TEIL
7
Messungen durchgeführt, dabei wird zunächst linear und anschließend nichtlinear aufaddiert. Beim der Methode
des nichtlinearen Aufaddierens der Stimulus dreimal mit einer festen Amplitude x und einmal mit der dreifachen,
umgekehrten Amplitude −3x angeboten. Dadurch können Reizartefakte, die durch die passive Impulsantwort des
Gehörganges entstehen, effektiv unterdrückt werden. Die Abbildungen 3.1 und 3.2 zeigen nun die aufgenommenen
Zeitsignale und Spektren für das Röhrchen für das lineare und das nichtlineare Aufaddieren.
Das Kunststoffröhren ist ein rein passives System. Daher erkennen wir im Zeitsignal für das lineare Aufaddieren
zunächst die passive Impulsantwort des Röhrchens auf den Stimulus. Ab etwa 6 ms nach dem Stimulus ist nur
noch Rauschen zu erkenen. Die Amplitude der Impulsantwort ist im Vergleich zur Amplitude des Rauschens sehr
viel größer. Beim nichtlinaren Aufaddieren hingegen (vgl. Abbildung 3.1, rechts) wird die passive Impulsantwort
soweit wie möglich herausgefiltert. Daher ist nur noch eine sehr kleine Reaktion auf den Stimulus im Zeitsignal
zu erkennen. Ab etwa 5 ms nach dem Stimulus ist nur noch Rauschen zu erkennen, dessen Amplitude hier im
Vergleich zur Reaktion auf den Stimulus viel größer ist. In den entsprechenden Spektren (3.2) ist ebenfalls der
Unterschied zwischen linearem und nichtlinearem Aufaddieren zu erkennen. Beim linearen Fall ist die passive
Impulsantwort auf den Stimulus zwischen 0 kHz und 1 kHz durch ein ausgeprägtes, aufgeweichtes Maximum zu
erkennen. Ab etwa 1 kHz zeigt das Spektrum nur ein breitbandiges Rauschen. Im Spektrum für den Fall des
nichtlinearen Aufaddierens ist nur das Rauschen zu erkennen, die passive Impulsantwort fehlt hier.
Nun führen wir TEOAE-Messungen im Gehöhrgang durch. Dabei untersuchen wir beide Ohren von zwei Versuchspersonen und verwenden jeweils einmal die Methode des linearen und des nichtlinearen Aufaddierens. Wir
beschränken uns bei der weiteren Analyse aber auf die mit dem nichtlinearen Aufaddieren ermittelten Daten. In
den Abbildungen 3.3 und 3.4 sind exemplarisch Zeitsignale und Spektren zweier Messungen dargestellt.
Abbildung 3.3: Zeitsignal und Spektrum für die TEOAE-Messung am linken Ohr der Versuchsperson Sebastian.
Für beide Versuchspersonen ist der für TEOAE typische Verlauf im Zeitsignal zu erkennen. Die Signale sind erst
ab etwa 2,5 ms nach dem Stimulus von Null verschieden, was dadurch zu erklären ist, dass der Schall für den Weg
vom Lautsprecher zur Cochlea und wieder zurück zum Mikrophon eine gewisse Zeit benötigt. Wie wir im Abschnitt
zur Schallausbreitung in der Cochlea gesehen haben, regen die Signalanteile des Stimulus mit hohen Frequenzen
die äußeren Haarzellen nahe dem ovalen Fenster an. Die Signalanteile mit niedrigen Frequenzen hingegen regen
die Haarzellen am Ende der Basilarmembran an. Daher haben die OAE die hier erzeugt werden, einen weiteren
Weg in der Cochlea zurückzulegen und sind später im Zeitsignal zu erkennen. Die zeigen auch unsere Abbildungen
3.3 und 3.4: Das Zeitsignal oszilliert zu kleinen Zeiten am stärksten und die Frequenz der Osziallationen nimmt
mit zunehmender Zeit ab. Die Spektren der TEOAE-Messungen am menschlichen Ohr weisen den erwarteten
breitbandigen Verlauf auf, da die Emissionen mit einem Klicksignal angeregt werden, welches viele Frequenzen
enthält. Im Spektrum für das linke Ohr der Versuchsperson Sebastian ist bei etwa 5,5 kHz ein Peak zu erkennen.
Diese taucht auch in weiteren Messungen auf und stellt wahrscheinlich eine spontane otoakustische Emission dar.
Für ausgewählte TEOAE-Messdaten erstellen wir auch Spektrogramme. Dazu wird in der Funktion einlesen.m
die auf 1 normierten Summe der Signale beiden Puffer in die .wav-Datei outfile.wav geschrieben und im Programm Cool Edit 96 eingelesen. In diesem Programm ist eine Spektrogramm-Funktion enthalten, welche für das
3
PRAKTISCHER TEIL
8
Abbildung 3.4: Zeitsignal und Spektrum für die TEOAE-Messung am rechten Ohr der Versuchsperson Oliver.
Signal ein Diagramm der Frequnenzen über der Zeit erstellt. Ein exemplarisches Spektrogramm (Versuchsperson Sebastian, linkes Ohr) ist in der Abbildung 3.5 dargestellt. Im Spektrogramm sind verschiedene Intensitäten
zu erkennen. Dunkle Bereiche im Zeit-Frequenz-Bereich kommen selten im Signal vor; helle Bereiche kommen
entsprechend häufiger vor. In der Abbildung ist zu erkennen, dass die größten vorkommenden Frequenzen bei
etwa 6,5 kHz liegen. Am häufigsten kommen Frequenzen im Bereich zwischen 0,5 kHz und 5,5 kHz vor. Zwei Frequenzbänder dauern über das gesamte Zeitfenster an. Diese liegen etwa bei 1 kHz und 5,5 kHz. Vermutlich handelt
es sich hier um spontane otoakustische Emissionen, da sie unabhängig von einem Stimulus und dauerhaft von
menschlichen Ohr ausgesendet werden. Die spontane Emission bei 5,5 kHz ist auch im Spektrum (vgl. Abbildung
3.3) zu erkennen.
Abbildung 3.5: Spektrogramm für die TEOAE-Messung am linken Ohr der Versuchsperson Sebastian.
3
PRAKTISCHER TEIL
3.3
9
Pegelabhängigkeit der TEOAE
In diesem Versuchsteil wollen wir die Pegelabhängigkeit der TEOAE untersuchen. Dazu wählen wir eine Testperson
und ein Ohr aus, an der wir alle Messungen durchführen (Hier: Testperson Sebastian, linkes Ohr). Wir beschränken
uns auf die Methode des nichtlinearen Aufaddierens. Der Stimulus wird nun mit verschiedenen Pegeln zwischen
−36 dB und +6 dB dargeboten. Zur Auswertung benutzen wir das Matlab-Skript pegelvar.m. Dieses hat die
Aufgabe, das aufgenommene Spektrum für alle Anregungspegel in ein Diagramm zu plotten. Der Quellcode sieht
im Wesentlichen wie folgt aus:
Listing 2: Quellcode des Skiptes pegelvar.m.
dat = [ ’TEOAE/A1 .DTA ’ ; ’TEOAE/A2 .DTA ’ ; ’TEOAE/A3 .DTA ’ ; ’TEOAE/A4 .DTA ’ ;
’TEOAE/A5 .DTA ’ ; ’TEOAE/A6 .DTA ’ ; ’TEOAE/A9 .DTA ’ ; ’TEOAE/A8 .DTA ’ ] ;
c o l o r s = [ ’ y ’ , ’m’ , ’ c ’ , ’ g ’ , ’ b ’ , ’ k ’ , ’ r ’ , ’ . ’ ] ;
f s = 25000;
t = [1/ f s :1/ f s :512/ f s ] ;
f = [ f s /512: f s /512: f s ] ;
fo r i = 1 : 8
[ a , b , s , FS ,FN] = import ILO ( dat ( i , : ) ) ;
A = fft (a );
B = fft (b ) ;
KLDS = A. ∗ conj (B ) ;
Y( : , i ) = r e a l (KLDS ) ;
end ;
maxy = max(max(Y ) ) ;
fo r i = 1 : 8
plot ( f ( 1 : 1 2 8 ) , 1 0 ∗ log10 (Y( 1 : 1 2 8 , i ) / maxy ) , c o l o r s ( i ) ) ;
hold on ;
end ;
xlim ( [ 0 , 6 2 5 0 ] ) ;
xlabel ( ’ Frequenz / Hz ’ ) ;
ylabel ( ’ P e g e l / db ’ ) ;
Im Vektor dat werden zunächst die Dateinamen für die einzelnen Messungen gespeichert. Mit Hilfe der bekannten
Sampling-Frequenz fs werden wieder Zeit- und Frequenzvektoren t und f erstellt. In einer for-Schleife werden
dann die entsprechenden Dateien mit dem Skript import ILO.m importiert. Die Bezeichnung der Variablen und die
Erstellung des KLDS ist äquivalent zum zuvor besprochenen Skript einlesen.m. Y ist hier aber eine Matrix, in der
jede Spalte das KLDS eines Signals eines bestimmten Anregungspegels entspricht. In einer weiteren for-Schleife
werden schließlich die Spektren für alle acht Anregungspegel geplottet. Zur besseren Unterscheidung wurden zuvor
im Vektor colors verschiedene Farben bzw. Dotierungen für die Graphen gespeichert. Das Diagramm mit den
Spektren ist in Abbildung 3.6 dargestellt.
Aus dem Diagramm wählen wir nun einige Frequenzen aus, an denen alle Graphen lokale Maxima aufweisen.
Wir haben uns hier für die Frequnzen 900 Hz, 1860 Hz, 3420 Hz und 5470 Hz entschieden. Wir berechnen nun,
an welchen Stellen der Matrix Y, in der der Realteil des KLDS gespeichert ist, diese Frequenzen stehen. Für
jede Frequenz x bilden wir nun einen eigenen Vektor fx, in dem die Werte der acht gemessenen Spektren für die
jeweilige Frequenz gespeichert werden. Da die Bestimmung der Maxima nur mit geringer Genauigkeit durchgeführt
werden kann, mitteln wir hier im Bereich von ±2 Samples um die jeweiligen Frequenzen herum. Dann werden die
Vektoren fx über den Anregungspegeln aufgetragen. Die Umsetzung in MATLAB sieht wie folgt aus:
3
PRAKTISCHER TEIL
Abbildung 3.6: Spektren der TEOAE für verschiedene Anregungspegel zwischen -36 dB und +6 dB.
Listing 3: Quellcode zur Erstellung eines Plots des KLDS-Pegels über dem Anregungspegel.
% 900 Hz
fo r i = 1 : 8
f 9 0 0 ( i ) = 10∗ log10 (mean(Y( 1 6 : 2 0 , i ) ) / maxy ) ;
end
% 1860 Hz
fo r i = 1 : 8
f 1 8 6 0 ( i ) = 10∗ log10 (mean(Y( 3 5 : 3 9 , i ) ) / maxy ) ;
end
% 3420 Hz
fo r i = 1 : 8
f 3 4 2 0 ( i ) = 10∗ log10 (mean(Y( 6 8 : 7 2 , i ) ) / maxy ) ;
end
% 5470 Hz
fo r i = 1 : 8
f 5 4 7 0 ( i ) = 10∗ log10 (mean(Y( 1 1 0 : 1 1 4 , i ) ) / maxy ) ;
end
base = (6: −6: −36);
figure ;
plot ( base , f900 , ’ r ’ ,
hold on ;
plot ( base , f1860 , ’ k ’
hold on ;
plot ( base , f3420 , ’ b ’
hold on ;
plot ( base , f5470 , ’ g ’
’ linewidth ’ ,2);
, ’ linewidth ’ ,2);
, ’ linewidth ’ ,2);
, ’ linewidth ’ ,2);
xlabel ( ’ A n r e g u n g s p e g e l / dB ’ ) ;
ylabel ( ’KLDS−P e g e l / dB ’ ) ;
10
3
PRAKTISCHER TEIL
11
Abbildung 3.7 zeigt das entsprechende Diagramm. Es ist zu erkennen, dass das KLDS der gemessenen TEOAESignale mit wachsenden Anregungspegeln des Stimulus ansteigt. Dieser Anstieg verläuft näherungsweise linear.
Durch Ablesen aus der Grafik erhalten wir eine Steigung von etwa 0,6.
Abbildung 3.7: Abhängigkeit des KLDS bei der TEOAE-Messung vom Anregungspegel des Stimulus.
3.4
Messung von DPOAE
Auf Grund der im Theorieteil näher beschriebenen Nichtlinearität der Schallverarbeitung entstehen im Gehör
Kombinationstöne, wenn man als Stimulus zwei Sinustöne unterschiedlicher Frequenz darbietet. Diese bezeichnet
man als Verzerrungsprodukt-Emissionen (DPOAE). Zur Messung dieser DPOAE benutzen wir wieder die oben
beschriebene Apparatur und Software. Dabei werden die beiden Primärtöne über zwei separate Lautsprecher in
den Gehörgang abgestrahlt und die resultierende Antwort von einem Mikrophon aufgezeichnet. Zunächst nehmen
wir für das Plastikröhrchen und die Versuchsperson Sebastian DPOAE-Spektren auf. Dazu arbeiten wir mit den
Primärtonfrequenzen f1 = 2000 Hz und f2 = 2200 Hz, was einem Primärtonverhältnis von f2 /f1 = 1,2 entspricht.
Die Primärtöne sind symmetrisch angeordnet und ihr Pegel beträgt 60 dB. Wir betrachten jeweils das Spektrum
in einem Bereich zwischen 1400 Hz und 2400 Hz. Dazu lesen wir die Pegel der Primär- und Kombinationstöne
sowie der beiden Rauschsignale 1sp und 2sp aus den Messdateien aus und stellen sie in MATLAB dar. Auf die
Angabe des Quellcodes verzichten wir hier auf Grund der Übersichtlichkeit.
Die Abbildung 3.8 zeigt vier ausgewählte DPOAE-Spektren. Im Abbildungsteil (a) ist die Messung für das Plastikröhrchen dargestellt. Hier werden erwartungsgemäß alle Kombinationstöne vom Rauschen maskiert, da das
Rohr keine Nichtlinearität aufweist. Die Teilabbildungen (b) bis (d) zeigen verschiedene Messdurchläufe am linken Ohr der Versuchsperson Sebastian. Hier setzen sich die Kombinationstöne unterschiedlich gut vom Rauschen
ab. Die Tatsache, dass einige Kombinationstöne deutlich über den Rauschsignalen liegen, weist darauf hin, dass
die Versuchsperson eine ausgeprägte Nichtlinearität in der Schallverarbeitung zeigt und somit normalhörend ist.
Die Teilabblidung (d) zeigt das beste Ergebnis, da sich hier alle aufgenommenen Kombinationstöne (2f1 − f2 ,
2f2 − f1 , 3f1 − 2f2 , 4f1 − 3f2 ) deutlich vom Rauschen absetzen.
Nun erstellen wir für das linke Ohr der Testperson Sebastian so genannte DP-Gramme. Dabei bleibt das
Primärtonverhältnis konstant bei f2 /f1 = 1,2 und die Frequenz f2 wird schrittweise in verschiedenen Bereichen variiert. Man betrachtet nun den Pegel des kubischen Differenztones 2f1 − f2 , da dieser im Allgemeinen am
wenigsten vom Rauschen maskiert wird. Dieser Pegel wird nun über den verschiedenen betrachteten Frequenzen
f2 aufgetragen. In der Abbildung 3.9 ist dies exemplarisch für die beiden Frequenzbereiche 1200 Hz bis 2400 Hz
und 2400 Hz bis 4800 Hz dargestellt. Dabei wurden die Grafiken wieder mit MATLAB erstellt und die beiden Rauschsignale 1sp und 2sp eingezeichnet. In beiden Teilabbildungen ist zu erkennen, dass sich der kubische Differenzton
LITERATUR
12
bei allen betrachteten Frequenzen f2 deutlich vom Rauschen absetzt. Man kann daher davon ausgehen, dass die
Versuchsperson im kompletten betrachteten Frequenzbereich normalhörend ist. Allerdings zeigen die Grafiken,
dass der Pegel des kubischen Differenztones im Frequenzbereich zwischen 2400 Hz bis 4800 Hz mit etwa 5 dB SPL
unterhalb des Pegels im Frequenzbereich zwischen 1200 Hz bis 2400 Hz von durchschnittlich etwa 8 dB SPL liegt.
Der Unterschied zwischen dem Rauschen und dem DP-Gramm-Signal beträgt in beiden Fällen etwa 15 dB SPL
bis 20 dB SPL.
Literatur
[1] D. T. Kemp: Stimulated acoustic emissions from within the human auditory system. Journal of the Acoustical
Society of America, 64(5), Nov. 1978.
[2] Volker Hohmann u. a.: Blockpraktikum Physikalische Messtechnik und digitale Signalverarbeitung“. An”
leitung für das Praktikum an der Carl von Ossietzky Universität Oldenburg in WiSe 2007/2008.
[3] Birger Kollmeier: Audiologie. Skript zur Vorlesung an der Carl von Ossietzky Universität Oldenburg.
[4] H. Gobsch: Otoakustische Emissionen – Grundlagen und klinische Anwendung. Vortrag an der Klinik für
Hals-, Nasen- und Ohrenheilkunde Plastische Operationen HELIOS Klinikum Erfurt.
[5] Internetseite Das Gehör. Stand: 16. April 2008.
URL: http://www.airflag.com/Hirn/w4/w4sinne-Dateien/ohr.jpg
[6] Internetseite Das Gehör. Stand: 16. April 2008. URL: http://ces.univ-karlsruhe.de/∼feldbusch/
InfoverarbLw/Ausarbeitung/Das menschliche Ohr Teil 1.pdf
[7] Internetseite Basics of OAEs – Distortion product otoacoustic emissions. Stand: 9. Juli 2008.
URL: http://www.otoemissions.org/definitions/DPOAE.html
[8] Internetseite Fallbeispiele zur Anwendung von OAE. Stand: 9. Juli 2008.
URL: http://www.buchhandel.de/WebApi1/GetMmo.asp?MmoId=3134557&mmoType=PDF
LITERATUR
13
Abbildung 3.8: Aufgenommene Spektren für die Messung von DPOAE für ein Plastikröhrchen [(a)] und die
Versuchsperson Sebastian [(b) bis (d)] bei einem Primärtonverhältnis von f2 /f1 = 1,2.
Abbildung 3.9: DP-Gramme für zwei verschiedene Frequenzbereiche von f2 für das linke Ohr der Versuchsperson
Sebastian. Das Primärtonverhältnis beträgt hier f2 /f1 = 1,2.
Herunterladen