Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.T. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie schon, dass die Exponentialverteilung und die 2 -Verteilung spezielle Gammaverteilungen sind oder dass die Summe geometrisch verteilter Zufallsvariablen negativ binomialverteilt ist. All diese Zusammenhänge sollen hier noch einmal zusammenfassend betrachtet werden. Dabei werden wir auch einige neue Verteilungen kennenlernen. 5.1 Diskrete Verteilungen 5.1.1 Bernoulli-Verteilung, Binomialverteilung Der Zusammenhang zwischen der Bernoulli- und der Binomialverteilung wurde schon in Satz 4.3 behandelt. Satz 5.1 Seien X1 ; X2 ; : : : ; Xn unabhängig und identisch Ber ( )-verteilt. Dann gilt: X= n X i=1 Xi b(n; ) : Beweis: P (fX = xg) = P (fX1 + X2 + ::: + Xn = xg) = P (fx Erfolge und (n x) Misserfolge g) Die Erfolge und Misserfolge können in verschiedenen Reihenfolgen angeordnet werden. Die Anzahl der Möglichkeiten, x Erfolge und (n x) Misserfolge in n Positionen anzuordnen, ist ! n : x Jede einzelne dieser Möglichkeiten hat die Wahrscheinlichkeit x (1 )n 74 x : 5.1. DISKRETE VERTEILUNGEN 75 Demnach gilt: P (fX = xg) = ( n x x(1 0 )n x x = 0; 1; 2; :::; n sonst : } Als Folgerung aus diesem Satz ergibt sich: Satz 5.2 Die Zufallsvariablen X1 und X2 seien unabhängig und binomialverteilt mit den Parametern n1 bzw. n2 und identischem Parameter . Dann gilt: X1 + X2 b(n1 + n2 ; ) : Beweis: Die Summe lässt sich auffassen als die Anzahl der Erfolge in n1 +n2 unabhängigen BernoulliExperimenten mit Erfolgswahrscheinlichkeit . } 5.1.2 Bernoulli-Verteilung, Geometrische Verteilung Eine Folge von Bernoulli-Experimenten mit Erfolgswahrscheinlichkeit werde solange durchgeführt, bis der erste Erfolg eintritt. Die Zufallsvariable X sei die Anzahl der Misserfolge bis zum ersten Erfolg. Dann gilt (siehe Beispiel 4.2): X Ge() : 5.1.3 Bernoulli-Verteilung, Negative Binomialverteilung Wir betrachten weiterhin eine Folge von Bernoulli-Experimenten mit Erfolgswahrscheinlichkeit . Die Zufallsvariable X sei die Anzahl der Misserfolge vor dem r -ten Erfolg (r > 0). Dann gilt: X NB (r; ) : 5.1.4 Geometrische Verteilung, Negative Binomialverteilung Die geometrische Verteilung ist ein Spezialfall der negativen Binomialverteilung, denn es gilt offensichtlich Ge( ) NB (1; ) : Darüberhinaus kann man für r 2 IN jede negativ binomialverteilte Zufallsvariable als Summe von geometrisch verteilten Zufallsvariablen auffassen (vergleiche Satz 4.7). 76 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN Satz 5.3 Seien X1 ; X2 ; : : : ; Xr unabhängig und identisch Ge( )–verteilt. Dann gilt: X= r X i=1 Xi NB (r; ) : Es folgt aus Satz 5.3, dass der Erwartungswert und die Varianz einer negativ binomialverteilten Zufallsvariablen r mal so groß sind wie die entsprechenden Werte der geometrischen Verteilung. Zur Warnung sei aber gesagt, dass die Unabhängigkeit der Zufallsvariablen eine wesentliche Voraussetzung ist. Bei nicht unabhängigen Zufallsvariablen darf man die Varianzen nicht einfach addieren. Ein ähnlicher Zusammenhang bestand zwischen den Erwartungswerten und Varianzen der Bernoulli- und Binomialverteilung. Als weitere Folgerung aus Satz 5.3 ergibt sich: Satz 5.4 Die Zufallsvariablen X1 und X2 seien unabhängig und negativ binomialverteilt mit den Parametern r1 bzw. r2 und identischem Parameter . Dann gilt: X1 + X2 NB (r1 + r2 ; ) : Beweis: Man fasse beide Zufallsvariablen als Summe von r1 bzw. r2 unabhängig und identisch geometrisch verteilten Zufallsvariablen auf. Die Summe dieser r1 + r2 unabhängig geometrisch verteilten Zufallsvariablen ist dann negativ binomialverteilt mit den Parametern r1 + r2 und . } 5.1.5 Binomialverteilung, Poissonverteilung Die Binomialverteilung hatten wir als Anzahl der Erfolge in n unabhängigen BernoulliExperimenten mit Erfolgswahrscheinlichkeit kennengelernt (siehe Beispiel 4.1). Ist die Anzahl der Experimente sehr groß und die Erfolgswahrscheinlichkeit klein, so kann man die Binomialverteilung durch eine Poissonverteilung approximieren (siehe Satz 4.9). 5.1. DISKRETE VERTEILUNGEN Satz 5.5 Sei 77 X b(n; ) : Wenn ,,klein” ist und n ,,groß” ist, so gilt asymptotisch X _ P o() mit = n : Aufgrund dieses Satzes spricht man bei der Poissonverteilung auch als der Verteilung seltener Ereignisse. 5.1.6 Binomialverteilung, Normalverteilung Aufgrund des zentralen Grenzwertsatzes (siehe Satz 3.8) kann man eine binomialverteilte Zufallsvariable für große n durch eine Normalverteilung approximieren. Satz 5.6 Sei X b(n; ) : Wenn n ,,groß” ist, so gilt asymptotisch: X _ N (; 2 ) mit = n und 2 = n (1 ) : In diesem Satz wird nur verlangt, dass n groß sein muss. Über wird nichts gesagt. In der Tat gilt dieser Satz schließlich für jedes . Nur für sehr kleine oder sehr große (d.h. nahe bei 1), dauert es sehr lange, bis die Wahrscheinlichkeitsfunktion der Binomialverteilung mit wachsendem n allmählich eine symmetrische glockenförmige Gestalt annimmt. Für solche muss dann n eben noch größer sein, bis die Approximation durch die Normalverteilung hinreichend genau ist. 5.1.7 Negative Binomialverteilung, Normalverteilung Aufgrund des zentralen Grenzwertsatzes (siehe Satz 3.8) kann man auch eine negativ binomialverteilte Zufallsvariable für große r durch eine Normalverteilung approximieren. Auch hier werden nur Voraussetzungen über r gemacht. Der Parameter bestimmt aber, wie groß r sein muss, damit man von einer guten Approximation sprechen kann. 78 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN Satz 5.7 Sei X NB (r; ) : Wenn r ,,groß” ist, so gilt asymptotisch: X _ N (; 2 ) mit = r(1 )= und 2 = r(1 )= 2 : 5.1.8 Summen poissonverteilter Zufallsvariablen Satz 5.8 Die Zufallsvariablen X1 und X2 seien unabhängig und poissonverteilt mit den Parametern 1 bzw. 2 . Dann gilt: X1 + X2 P o(1 + 2 ) : Die Summe von zwei und damit von beliebig vielen unabhängigen poissonverteilten Zufallsvariablen ist also wieder poissonverteilt. Die Parameter sind zu addieren. Damit kann man sich die Poissonverteilung für großes auch als Verteilung der Summe von vielen unabhängig und identisch verteilten Zufallsvariablen vorstellen und den zentralen Grenzwertsatz (siehe Satz 3.8) anwenden. 5.1.9 Poissonverteilung, Normalverteilung Die Poissonverteilung kann für große bekanntlich (siehe S. 70) durch eine Normalverteilung approximiert werden. Satz 5.9 Sei X P o() : Wenn ,,groß” ist, so gilt asymptotisch: X _ N (; 2 ) mit = und 2 = : 5.2. STETIGE VERTEILUNGEN 79 5.2 Stetige Verteilungen 5.2.1 Exponentialverteilung, Gammaverteilung, Normalverteilung Die Exponentialverteilung ist ein Spezialfall der Gammaverteilung, denn es gilt nach Gleichung (3.6): Exp() G(1; ) : Wir erhalten also eine Exponentialverteilung, wenn der Parameter der Gammaverteilung 1 ist. Darüberhinaus erhalten wir eine Gammaverteilung als Summe unabhängiger exponentialverteilter Zufallsvariablen (siehe Satz 3.11). Satz 5.10 Wenn X1 ; X2 ; :::; X unabhängig und identisch exponentialverteilt sind, d.h. Xi Exp(), so gilt: X i=1 Xi G( ; ) : Nun kann man wieder den zentralen Grenzwertsatz (Satz 3.8) anwenden, um zu folgern: Satz 5.11 Sei X G( ; ) : Wenn ,,groß” ist, so gilt asymptotisch: X _ N (; 2 ) mit = und 2 = : 2 5.2.2 Summe von gammaverteilten Zufallsvariablen Satz 5.12 Die Zufallsvariablen X1 und X2 seien unabhängig und gammaverteilt mit den Parametern 1 bzw. 2 und identischem Parameter . Dann gilt: X1 + X2 G(1 + 2 ; ) : Die Summe von zwei und damit beliebig vielen gammaverteilten Zufallsvariablen mit identischem Parameter ist wieder gammaverteilt. Der Parameter ist die Summe der beiden Parameter 1 und 2 . 80 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN 5.2.3 Gammaverteilung, 2 -Verteilung, Normalverteilung Die 2 -Verteilung ist ein Spezialfall der Gammaverteilung. Nach Satz 3.12 gilt: 2n G(n=2; 1=2) : Es folgt aus Satz 5.12, dass die Summe unabhängiger 2 -verteilter Zufallsvariablen wieder 2 -verteilt ist, wobei die Freiheitsgrade zu addieren sind. Satz 5.13 Die Zufallsvariablen X1 und X2 seien unabhängig und 2 -verteilt mit den Parametern n1 bzw. n2 . Dann gilt: X1 + X2 2n1 +n2 : Mit dem zentralen Grenzwertsatz (Satz 3.8) oder aus Satz 5.11 folgt wieder: Satz 5.14 Sei X 2n : Wenn n ,,groß” ist, so gilt asymptotisch: X _ N (; 2 ) mit =n und 2 = 2n : 5.2.4 Summen normalverteilter Zufallsvariablen Satz 5.15 Seien X1 ; X2 ; : : : ; Xn unabhängig und identisch N (; 2 )-verteilt. Dann gilt: X= n X i=1 Xi N (n; n 2 ) : Für nicht identisch normalverteilte Zufallsvariablen gilt: 5.2. STETIGE VERTEILUNGEN 81 Satz 5.16 Seien X1 ; X2 ; : : : ; Xn unabhängig N (i ; i2 )-verteilt. Dann gilt: X= n X i=1 Xi N ( n X i=1 i ; n X i=1 i2 ) : 5.2.5 Normalverteilung, 2 -Verteilung Satz 5.17 Es gelte N (0; 1) : X Dann gilt: X 2 21 : Das Quadrat einer standarnormalverteilten Zufallsvariablen ist also 2 -verteilt mit einem Freiheitsgrad. Mit Satz 5.13 folgt, dass auch die Summe der Quadrate unabhängiger N (0; 1)verteilter Zufallsvariablen 2 -verteilt ist. Satz 5.18 Seien X1 ; X2 ; :::; Xn unabhängig und identisch N (0; 1)-verteilt. Dann gilt: X= n X i=1 Xi2 2n : Für praktische Anwendungen wichtig ist der folgende Satz: Satz 5.19 Seien X1 ; X2 ; :::; Xn unabhängig und identisch N (; 2 )-verteilt. Sei n n 1X 1X 2 X= Xi und S = (Xi n i=1 Dann gilt: n i=1 nS 2 2 2 (n 1) : X )2 : 82 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN Man benutzt dieses Resultat, um Hypothesen über die Varianz in einer normalverteilten Grundgesamtheit zu testen. Um die Nullhypothese H0 : 2 = 02 gegen die Alternative H1 : 2 = 6 02 zu testen, verwendet man die Prüfgröße nS 2 ; 02 die nach Satz 5.19 unter der Hypothese eine 2 -Verteilung mit n 1 Freiheitsgraden besitzt. Die 2 -Verteilung ist eine wichtige Verteilung in der Varianzanalyse. Die dort berechneten Summen der Quadrate von normalverteilten Zufallsvariablen sind verteilt wie 2 2 , wobei 2 die Varianz ist (siehe Beispiel 5.1). 5.2.6 Normalverteilung, t-Verteilung Definition 5.1 Die Dichtefunktion der t-Verteilung ist gegeben durch 2 ( +1 = ) ( +1)=2 2 )(1 p+ x(= fX (x) = 2) Die t-Verteilung besitzt einen Parameter , für den gilt Wir schreiben X 1 < x < 1 :: 2 IN . t ; wenn eine Zufallsvariable eine t-Verteilung besitzt. Wir sagen dann auch, dass X eine tVerteilung mit Freiheitsgraden besitzt. Abbildung 5.1 zeigt einige Dichtefunktionen der t-Verteilung. Sie ist wie die Normalverteilung symmetrisch um eine senkrechte Achse bei 0 und nähert sich mit wachsender Zahl der Freiheitsgrade der Dichtefunktion der Standardnormalverteilung. Aufgrund der Symmetrie der Dichtefunktion folgt: Satz 5.20 Es gelte X t : Dann gilt für den Erwartungswert: EX = 0 : 5.2. STETIGE VERTEILUNGEN 83 0.5 1000 0.4 f(x) 5 0.3 0.2 1 0.1 0.0 -6 -4 -2 0 x 2 4 6 Abbildung 5.1: Dichtefunktionen der t-Verteilung mit = 1; 5; 1 000 Um von der Normalverteilung zur t-Verteilung zu kommen, benötigen wir das folgende Resultat, das wir hier der Vollständigkeit halber formulieren, obwohl wir den Begriff der Unabhängigkeit (siehe Definition 6.16) noch nicht definiert haben. Satz 5.21 Seien X1 ; :::; Xn unabhängig und identisch N (; 2 )-verteilt. Sei X = n 1X Xi und S2 = n i=1 n 1 n X 1 i=1 (Xi X )2 : und S2 sind unabhängig. Dann gilt: X Satz 5.22 Die Zufallsvariablen X1 und X2 seien unabhängig und X1 N (0; 1); Dann gilt X1 X2 = q X2 2 ( ) : t( ) ; d.h. t-verteilt mit Freiheitsgraden. Satz 5.23 Die Zufallsvariablen X1 ; X2 ; : : : ; Xn seien unabhängig und identisch N (; 2 )-verteilt. Dann gilt: X p S = n tn 1 : 84 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN Beweis: werden wir Es gilt (ohne kompletten Beweis, den Erwartungswert und die Varianz von X später berechnen) X p = n N (0; 1) : Nach Satz 5.19 gilt: (n 1)S2 2 2 (n 1) : und S2 nach Satz 5.21 unabhängig. Damit gilt nach Satz 5.22: Ferner sind X X p = n r (n 1)S2 2 (n 1) = X p S = n t(n 1) : } Man verwendet T= X p S = n tn 1 als Prüfgröße im t-Test zur Prüfung von Hypothesen über den Erwartungswert in einer normalverteilten Grundgesamtheit, z.B. H0 : = 0 H1 : 6= 0 : gegen die Alternative Unter der Nullhypothese H0 besitzt die Prüfgröße T dann die in Satz 5.23 angegebene Verteilung. Dieses Resultat wird ferner bei der Konstruktion von Konfidenzintervallen für den Parameter der Normalverteilung benutzt. R-Befehle zur t-Verteilung: dt(x, df) berechnet die Dichtefunktion der t-Verteilung mit dem Parameter an der Stelle x. Dabei kann x ein Vektor sein. =df pt(q, df, ncp=0) berechnet die Verteilungsfunktion der t-Verteilung mit dem Parameter =df an der Stelle q . Dabei kann q ein Vektor sein. Mit dem optionalen Argument ncp wird der Nichtzentralitätsparameter festgelegt. Wir behandeln hier die zentrale t-Verteilung, für die ncp=0 ist. qt(p, df) berechnet die Umkehrfunktion der Verteilungsfunktion der t-Verteilung mit dem Parameter =df an der Stelle p. Dabei muss p ein Vektor von Wahrscheinlichkeiten, d.h. von Zahlen zwischen 0 und 1 sein. rt(n, df) erzeugt n t-verteilte Zufallszahlen mit dem Parameter =df. 5.2. STETIGE VERTEILUNGEN 85 5.2.7 Normalverteilung, F-Verteilung Definition 5.2 Die Dichtefunktion der F-Verteilung ist gegeben durch: ( 1 +2 2 ) 1 1 =2 1 =2 fX (x) = 1 2 x ( 2 ) ( 2 ) 2 1 1 x 1+ 2 (1 +2 )=2 Die F-Verteilung hat zwei Parameter 1 und 2 , für die gelten muss i x0 2 IN; i = 1; 2. Beachten Sie, dass für den Koeffizienten in der Dichteverteilung der F-Verteilung gilt: ( 1 +2 2 ) 1 = 1 2 : 1 2 ( 2 ) ( 2 ) B( 2 ; 2 ) Wir schreiben X F (1 ; 2) ; wenn die Zufallsvariable X eine F -Verteilung besitzt. Die Parameter werden auch Freiheitsgrade genannt, dabei heißen 1 die Freiheitsgrade im Zähler und 2 die Freiheitsgrade im Nenner. 1.0 1 f(x) 0.8 20 2 10 0.6 3 0.4 0.2 0.0 0 1 2 3 4 5 x Abbildung 5.2: Dichtefunktionen der F -Verteilung mit 1 = 1; 2; 3; 10; 20; 2 = 20 Satz 5.24 Die Zufallsvariablen X1 und X2 seien unabhängig 2 -verteilt mit 1 bzw. 2 Freiheitsgraden, dann gilt: X1 =1 X2 =2 F (1; 2) : 86 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN Beispiel 5.1 (Varianzanalyse) In der Grundvorlesung haben Sie bereits einen F -Test kennengelernt. Die Situation kann wie folgt beschrieben werden. Es liegen Beobachtungen in I Gruppen vor. Yij = i + eij i = 1; 2; : : : ; I ; j = 1; 2; : : : ; J: Dabei seien i Konstante, die eij seien normalverteilte unabhängige Zufallsvariablen mit E (eij ) = 0 und V ar (eij ) = 2 . Es soll die Hypothese H0 : 1 = 2 = : : : = I geprüft werden. Die Prüfgröße ist dann 1 PG = I 1 1 I (J 1) I P J Yi: i=1 I P J P i=1 j =1 Yij Y:: 2 Yi: 2 Diese Prüfgröße ist typisch für viele F -Prüfgrößen, die Ihnen in Regressionsanalysen (z.B. in der Vorlesung Ökonometrie) oder in Varianzanalysen (in der Vorlesung Lineare Modelle) oder bei der Analyse von Daten mit Statistikprogrammpaketen begegnen werden. Die Summen der Quadrate in Zähler und Nenner der Prüfgröße I P i=1 J Yi: I P J P i=1 j =1 Y:: Yij 2 Yi: Summe der Quadrate Gruppen 2 Summe der Quadrate Rest sind jeweils verteilt wie 2 2 mit I 1 bzw. I (J 1) Freiheitsgraden. Außerdem sind die beiden Summen der Quadrate unabhängig. Es folgt dann aus Satz 5.24, dass der Quotient eine F -Verteilung mit I 1 und I (J 1) Freiheitsgraden besitzt. Beispiel 5.2 Auch den fogenden F -Test haben Sie in der Grundvorlesung im Zusammenhang mit der Regressionsanalyse kennengelernt. Das Modell M2 bezeichne eine Vereinfachung des Modells M1 , d.h. einige der Parameter aus M1 fehlen in M2 . Zur Prüfung der Hypothese, dass die Modellvereinfachung gilt, d.h. die in M2 fehlenden Parameter aus M1 null sind, wird die Prüfgröße PG = (SQ(Res; M2 ) SQ(Res; M1 ))=(F G(M2 ) SQ(Res; M1 )=F G(M1 ) F G(M1 )) verwendet, die unter der Nullhypothese eine F -Verteilung mit F G(M2 ) F G(M1 ) und F G(M1 ) Freiheitsgraden hat. Dabei sind SQ(Res; M1 ) und SQ(Res; M2 ) die Summe der Quadrate der Residuale unter den Modellen M1 und M2 und F G bezeichnen die jeweiligen Freiheitsgrade. R-Befehle zur F-Verteilung: df(x, df1, df2) berechnet die Dichtefunktion der F-Verteilung mit den Parametern 1 =df1 und 2 =df2 an der Stelle x. Dabei kann x ein Vektor sein. pf(q, df1, df2, ncp=0) berechnet die Verteilungsfunktion der F-Verteilung mit den Parametern 1 =df1 und 2 =df2 an der Stelle q . Dabei kann q ein Vektor sein. Mit dem optionalen Argument ncp wird der Nichtzentralitätsparameter festgelegt. Wir behandeln hier die zentrale F-Verteilung, für die ncp=0 ist. 5.2. STETIGE VERTEILUNGEN 87 qf(p, df1, df2) berechnet die Umkehrfunktion der Verteilungsfunktion der FVerteilung mit den Parametern 1 =df1 und 2 =df2 an der Stelle p. Dabei muss p ein Vektor von Wahrscheinlichkeiten, d.h. von Zahlen zwischen 0 und 1 sein. rf(n, df1, df2) erzeugt n F-verteilte Zufallszahlen mit den Parametern 1 und 2 =df2 . =df1 5.2.8 Normalverteilung, Lognormalverteilung Definition 5.3 Die Dichtefunktion der Lognormalverteilung ist gegeben durch 8 > < p1 f (x) = > x 2 : e 2 (log x )2 =22 0 x>0 sonst : Die Lognormalverteilung hat zwei Parameter und 2 , für die gelten muss 1<<1 Wir schreiben X und 2 > 0 : (; 2) ; wenn die Zufallsvariable X eine Lognormalverteilung besitzt. Der folgende Satz erklärt den Namen Lognormalverteilung. Die Zufallsvariable log X besitzt nämlich eine Normalverteilung, wenn X eine Lognormalverteilung besitzt. Satz 5.25 a) Es gelte X (; 2), dann gilt: log X N (; 2 ) : b) Es gelte Y N (; 2), dann gilt: eY (; 2) : Die Verteilungsfunktion der Lognormalnormalverteilung kann man auf die der Standardnormalverteilung zurückführen. 88 KAPITEL 5. BEZIEHUNGEN ZWISCHEN VERTEILUNGEN Satz 5.26 Für die Verteilungsfunktion FX einer lognormalverteilten Zufallsvariablen X gilt ! FX (x) = log x ; wobei die Verteilungsfunktion der Standardnormalverteilung bezeichne. Beweis: Für x 0 gilt: FX (x) = P (fX xg) = Zx p1 t 2 0 Wir substituieren (log t e 2 )2 =22 dt : s = log t : Dann ist ds 1 = dt t 1 ds = dt : t Dabei ändern sich die Grenzen wie folgt: Wenn t ! 0, gilt s ! 1 : Wenn t = x, ist s = log x : Damit folgt, wenn man beachtet, dass der folgende Integrand die Dichtefunktion einer Normalverteilung mit den Parametern und 2 ist, unter Anwendung von Satz 3.6 FX (x) = log Z x 1 = p1 e (s 2 ! log x 2 )2 =22 ds : } Satz 5.27 Es gelte X (; 2) : Dann gilt für den Erwartungswert und die Varianz von X : EX = e+ 2 =2 und 2 V arX = e2 e (e 2 1) : 5.2. STETIGE VERTEILUNGEN 89 0.8 f(x) 0.6 0.4 0.2 0.0 0 2 4 6 x 8 10 12 Abbildung 5.3: Dichtefunktion der Lognormalverteilung mit = 0; 2 =1 In Anwendungen findet man die Lognormalverteilung als Modell für viele Zufallsvariablen, die nur positive Werte annehmen können. Wie Abbildung 5.3 zeigt, ist die Lognormalverteilung insbesondere geeignet für Daten mit einer schiefen Verteilung. Durch geeignete Wahl der Parameter (insbesondere von 2 ) kann man jedoch erreichen, dass die Gestalt der Lognormalverteilung wieder sehr ähnlich der Gestalt einer Normalverteilung wird. In manchen Fällen erhält man damit ein realistischeres Modell als mit der Normalverteilung. Die Lognormalverteilung findet Anwendung als Modell für das Einkommen, für Lebensdauern (von produzierten Gütern) oder Verweildauern (z.B. von Beschäftigten in einem Betrieb) und auch ganz aktuell als Modell für Aktienkurse. R-Befehle zur Lognormalverteilung dlnorm(x, meanlog=0, sdlog=1) berechnet die Dichtefunktion der Lognormalverteilung mit den Parametern =meanlog und 2 = sdlog2 an der Stelle x, wobei x ein Vektor ist. Dabei ist zu beachten, dass sdlog die Standardabweichung, also die Quadratwurzel aus der Varianz 2 der logarithmierten Zufallsvariablen ist. plnorm(q, meanlog=0, sdlog=1) berechnet die Verteilungsfunktion der Lognormalverteilung mit den Parametern =meanlog und 2 = sdlog2 an der Stelle q, wobei q ein Vektor ist. qlnorm(p, meanlog=0, sdlog=1) berechnet die Umkehrfunktion der Verteilungsfunktion der Lognormalverteilung mit den Parametern =meanlog und 2 = sdlog2 an der Stelle p, wobei p ein Vektor von Wahrscheinlichkeiten, also Zahlen zwischen 0 und 1, ist. rlnorm(n, meanlog=0, sdlog=1) erzeugt n lognormalverteilte Zufallszahlen mit den Parametern =meanlog und 2 = sdlog2 .