Kapitel 9 Verteilungsmodelle Es gibt eine Reihe von Verteilungsmodellen für univariate diskrete und stetige Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von diesen einige anschauen. 9.1 Diskrete Verteilungsmodelle Es gibt eine Reihe von von Zugängen zu Verteilungsmodellen für diskrete Zufallsvariablen. Man kann die Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen dadurch gewinnen, dass man den Träger TX vorgibt und für jedes x ∈ TX die Wahrscheinlichkeit P (X = x) festlegt. Dabei müssen natürlich die Gleichungen 5.2 und 5.1 auf Seite 147 erfüllt sein. Eine andere Möglichkeit besteht darin, auf einem geeigneten Wahrscheinlichkeitsraum eine Zufallsvariable zu definieren. Schauen wir uns zunächst ein Beispiel für die erste Möglichkeit an. 9.1.1 Die Gleichverteilung Definition 9.1 Die Zufallsvariable X heißt gleichverteilt, wenn gilt P (X = x) = für x = 1, . . . , N . 199 1 N (9.1) KAPITEL 9. VERTEILUNGSMODELLE 200 Für den Erwartungswert und die Varianz der diskreten Gleichverteilung gilt E(X) = N +1 2 (9.2) und V ar(X) = N2 − 1 12 . (9.3) Schauen wir uns zuerst den Erwartungswert an: E(X) = N x x=1 N 1 1 N (N + 1) 1 N +1 x= = = N N x=1 N 2 2 Für die Varianz bestimmen wir zunächst N N 1 1 N (N + 1)(2N + 1) 1 2 x x = E(X ) = = N N x=1 N 6 x=1 2 = 2 (N + 1)(2N + 1) . 6 Hierbei haben wir benutzt, das gilt N x=1 x2 = N (N + 1)(2N + 1) . 6 Die Varianz ist dann V ar(X) = E(X 2 ) − E(X)2 = = (N + 1)(2N + 1) (N + 1)2 − 6 4 (N + 1)(N − 1) N2 − 1 N +1 [4N + 2 − 3N − 3] = = . 12 12 12 Beispiel 76 Die Gleichverteilung ist ein sinnvolles Modell für die Augenzahl beim einmaligen Wurf eines fairen Würfels. Hier gilt P (X = x) = 1 6 9.1. DISKRETE VERTEILUNGSMODELLE 201 für x = 1, 2, . . . , 6. Es gilt E(X) = 3.5 und V ar(X) = 35/12. Abbildung 9.1 zeigt die Wahrscheinlichkeitsfunktion. Abbildung 9.1: Wahrscheinlichkeitsfunktion der Gleichverteilung 0.20 c(0, 1/6) 0.15 0.10 0.05 0.00 0 2 4 6 8 c(1, 1) 9.1.2 Vom Bernoulliprozess abgeleitete Verteilungen Einer Reihe von Verteilungen liegt der sogenannte Bernoulliprozess zu Grunde. Der Bernoulliprozess Bei einem Zufallsvorgang sei ein Ereignis A mit P (A) = p von Interesse. Man spricht auch von einem Bernoullivorgang und nennt das Ereignis A oft auch Erfolg. Einen Bernoulliprozess erhält man nun dadurch, dass man einen Bernoullivorgang mehrmals beobachtet, wobei folgende Annahmen getroffen werden: • Die einzelnen Bernoullivorgänge sind voneinander unabhängig. • Die Erfolgswahrscheinlichkeit p bleibt konstant. Beispiel 77 Im Beispiel 58 auf Seite 152 haben wir ein Teilchen betrachtet, dass sich zufällig auf den ganzen Zahlen bewegt, wobei es im Nullpunkt startet. Jeder Schritt des Teilchens ist ein Bernoulliexperiment. Es gibt nur 2 Möglichkeiten. Das Teilchen geht entweder nach links, was wir mit A, oder es geht nach rechts, was wir mit Ā bezeichnen. Da das Teilchen sich zufällig entscheidet, KAPITEL 9. VERTEILUNGSMODELLE 202 gilt P (A) = p = 0.5. Wenn wir unterstellen, dass die Entscheidung des Teilchens bei einem Schritt unabhängig von den anderen Schritten getroffen wird, und die Erfolgswahrscheinlichkeit p konstant bleibt, beobachten wir bei n Schritten einen Bernoulliprozess der Länge n. Beim Bernoulliprozess sind für uns zwei Zufallsvariablen von Interesse: • Anzahl der Erfolge bei n Durchführungen. • Anzahl der Misserfolge vor dem ersten Erfolg Schauen wir uns die Verteilungen dieser Zufallsvariablen im Detail an. Die Binomialverteilung Definition 9.2 Die Zufallsvariable X heißt binomialverteilt mit den Parametern n und p, wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch: n x P (X = x) = p (1 − p)n−x x (9.4) für x = 0, 1, . . . , n. Die Binomialverteilung erhält man, wenn man bei einem Bernoulliprozess der Länge n die Erfolge zählt. Dies kann man sich folgendermaßen klarmachen: Sei X die Anzahl der Erfolge bei einem Bernoulliprozess der Länge n. Die Zufallsvariable X kann die Werte 0, 1, 2, . . . , n annehmen. Nimmt X den Wert x an, so wurden x Erfolge A und n − x Mißerfolge Ā beobachtet. Aufgrund der Unabhängigkeit der einzelnen Durchführungen beträgt die Wahrscheinlichkeit einer Folge aus x Erfolgen A und n−x Mißerfolgen Ā gleich px (1−p)n−x . Eine Folge, die x-mal ein A und n − x-mal ein Ā enthält, ist eindeutig durch die Positionen der A festgelegt. Wir haben im Beispiel 44 auf Seite 126 gesehen, dass es n n! = x!(n − x)! x Möglichkeiten gibt, die Positionen der A zu wählen. Also gilt n x P (X = x) = p (1 − p)n−x für x = 0, 1, . . . , n. x 9.1. DISKRETE VERTEILUNGSMODELLE 203 Für eine binomialverteilte Zufallsvariable X gilt E(X) = np und V ar(X) = np(1 − p) . Beispiel 77 (fortgesetzt) Sei X die Anzahl der Schritte nach links. Die Zufallsvariable X ist binomialverteilt mit den Parametern n = 3 und p = 0.5. Es gilt für x = 0, 1, 2, 3: 3 3 x 3−x = 0.53 P (X = x) = 0.5 (1 − 0.5) x x Tabelle 9.1 zeigt die Wahrscheinlichkeitsfunktion. Tabelle 9.1: Wahrscheinlichkeitsfunktion der Binomialverteilung mit n = 3 und p = 0.5 x 0 1 2 3 P (X = x) 0.125 0.375 0.375 0.125 Außerdem gilt E(X) = 1.5 und V ar(X) = 0.75. Abbildung 9.2 zeigt die Wahrscheinlichkeitsfunktion der Binomialverteilung für n = 10 und p = 0.1, p = 0.2, p = 0.5 und p = 0.8. Wir sehen, dass die Wahrscheinlichkeitsfunktion der Binomialverteilung für p = 0.5 symmetrisch ist. Für p < 0.5 ist sie rechtsschief und für p > 0.5 linksschief. KAPITEL 9. VERTEILUNGSMODELLE 204 Abbildung 9.2: Wahrscheinlichkeitsfunktion der Binomialverteilung für n = 10 und p = 0.1, p = 0.2, p = 0.5 und p = 0.8 Binomialverteilung mit n=10,p=0.1 Binomialverteilung mit n=10,p=0.2 0.30 0.25 0.3 0.20 0.2 0.15 0.10 0.1 0.05 0.0 0.00 0 1 2 3 4 5 6 7 8 9 10 0 Binomialverteilung mit n=10,p=0.5 1 2 3 4 5 6 7 8 9 10 Binomialverteilung mit n=10,p=0.8 0.30 0.25 0.20 0.20 0.15 0.15 0.10 0.10 0.05 0.05 0.00 0.00 0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10 Die Binomialverteilung mit n = 1 heißt Bernoulliverteilung. Die Wahrscheinlichkeitsfunktion der Bernoulliverteilung ist gegeben durch: P (X = x) = px (1 − p)1−x für x = 0, 1. Es gilt also P (X = 0) = 1 − p und P (X = 1) = p. Eine bernoulliverteilte Zufallsvariable X zählt, wie oft A bei einem Bernoullivorgang eingetreten ist. Für eine bernoulliverteilte Zufallsvariable X gilt E(X) = p und V ar(X) = p(1 − p). Schauen wir uns erst den Erwartungswert an: E(X) = 0 · (1 − p) + 1 · p = p . Für die Varianz bestimmen wir E(X 2 ) = 0 · (1 − p) + 1 · p = p 9.1. DISKRETE VERTEILUNGSMODELLE 205 und erhalten V ar(X) = E(X 2 ) − E(X)2 = p − p2 = p(1 − p) . Die geometrische Verteilung Eine bernoulliverteilte Zufallsvariable zählt die Anzahl der Erfolge bei einem Bernoulliprozess der Länge n. Schauen wir uns die Wahrscheinlichkeitsfunktion der Misserfolge vor dem ersten Erfolg an. Definition 9.3 Die Zufallsvariable X heißt geometrisch verteilt mit Parameter p, wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch P (X = x) = p (1 − p)x für x = 0, 1, . . . (9.5) Die geometrische Verteilung erhält man, wenn man bei einem Bernoulliprozess die Anzahl der Misserfolge vor dem ersten Erfolg zählt. Dies kann man sich folgendermaßen klarmachen: Sei X die Anzahl der Misserfolge vor dem ersten Erfolg bei einem Bernoulliprozess. Die Zufallsvariable X kann die Werte 0, 1, 2, . . . annehmen. Nimmt X den Wert x an, so wurden x Mißerfolge Ā und genau ein Erfolg A beobachtet, wobei das A das letzte Symbol in der Folge ist. Wir erhalten also Ā . . . Ā A Ā x−mal Da die einzelnen Durchführungen unabhängig sind, beträgt die Wahrscheinlichkeit dieser Folge (1 − p)(1 − p) · · · (1 − p) p = (1 − p)x p. x−mal Ist X geometrisch verteilt mit Prameter p, so gilt E(X) = 1−p p V ar(X) = 1−p p2 und . KAPITEL 9. VERTEILUNGSMODELLE 206 Beispiel 77 (fortgesetzt) Wir warten so lange, bis das Teilchen zum ersten Mal nach links geht, und zählen die Anzahl X der Schritte nach rechts vor dem ersten Schritt nach links. Die Zufallsvariable X ist geometrisch verteilt mit p = 0.5. Es gilt P (X = x) = 0.5x+1 für x = 0, 1, 2, .... . Außerdem gilt E(X) = 1 und V ar(X) = 2. Oft betrachtet man anstatt der Anzahl X der Misserfolge die Anzahl Y der Versuche bis zum ersten Erfolg, wobei man den Erfolg mitzählt. Offensichtlich gilt Y = X + 1. Die Wahrscheinlichkeitsfunktion von Y ist: P (Y = y) = p (1 − p)y−1 für y = 1, . . . . (9.6) Ausßerdem gilt E(Y ) = 1 p und V ar(Y ) = 9.1.3 1−p p2 . Die hypergeometrische Verteilung Wir haben die Binomialverteilung aus dem Bernoulliprozess hergeleitet. Man kann sie aber auch aus einem einfachen Urnenmodell gewinnen. Hierzu betrachten wir eine Urne, die N Kugeln enthält, von denen M weiß und die restlichen N −M schwarz sind. Der Anteil p der weißen Kugeln ist also M/N . Zieht man n Kugeln mit Zurücklegen, so ist die Anzahl X der weißen Kugeln mit den Parametern n und p binomialverteilt. Zieht man ohne Zurücklegen aus der Urne, so besitzt die Anzahl X der weißen Kugeln eine hypergeometrische Verteilung. Die Wahrscheinlichkeit P (X = x) erhalten wir in diesem Fall folgendermaßen: Insgesamt gibt es Nn Möglichkeiten, von den N Kugeln n ohne Zurücklegen Möglichkeiten, von den M weißen Kugeln x Kugeln auszuwählen. Es gibt M x 9.1. DISKRETE VERTEILUNGSMODELLE 207 −M Möglichkeiten, von den N − M schwarzen auszuwählen, und es gibt Nn−x Kugeln n − x Kugeln auszuwählen. Somit gilt P (X = x) = M x N −M n−x N n für max{0, n − (N − M )} ≤ x ≤ min{n, N }. Definition 9.4 Die Zufallsvariable X heißt hypergeometrisch verteilt mit den Parametern N , M und n, wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch M N −M x n−x P (X = x) = (9.7) N n für max{0, n − (N − M )} ≤ x ≤ min{n, N }. Es gilt E(X) = n M N und V ar(X) = n M N −M N −n N N N −1 . Setzen wir p = M/N , so gilt E(X) = n p und N −n . N −1 Der Erwartungswert der Binomialverteilung und der hypergeometrischen Ve−n kleiner als 1. Somit ist für teilung sind also identisch. Für n > 1 ist N N −1 n > 1 die Varianz der hypergeometrischen Verteilung kleiner als die Varianz der Binomialverteilung. V ar(X) = n p(1 − p) KAPITEL 9. VERTEILUNGSMODELLE 208 Beispiel 78 Eine Urne enthält 10 Kugeln, von denen 4 weiß sind. Es werden zuerst 3 Kugeln mit Zurücklegen und dann 3 Kugeln ohne Zurücklegen gezogen. Sei X die Anzahl der weißen Kugeln beim Ziehen mit Zurücklegen und Y die Anzahl der weißen Kugeln beim Ziehen ohne Zurücklegen. Es gilt 3 P (X = x) = 0.4x 0.63−x x und 4 6 y 3−y P (Y = y) = . 10 3 Tabelle 9.2 zeigt die Wahrscheinlichkeitsverteilungen der Zufallsvariablen X und Y . Tabelle 9.2: Wahrscheinlichkeitsverteilung der hypergeometrischen und der Binomialverteilung Wert 0 1 2 3 Binomial- Hypergeometrische verteilung Verteilung 0.216 0.432 0.288 0.064 0.167 0.500 0.300 0.033 Wir sehen an der Tabelle, warum bei der Binomialverteilung die Varianz größer ist als bei der hypergeometrischen Verteilung. Die extremen Werte 0 und 3 sind bei der Binomialverteilung wahrscheinlicher als bei der hypergeometrischen Verteilung. Was passiert mit der Wahrscheinlichkeitsfunktion der hypergeometrischen konstant bleibt? Verteilung, wenn N beliebig groß wird, wobei aber p = M N 9.1. DISKRETE VERTEILUNGSMODELLE 209 Es gilt: P (X = x) = M x N −M (M )x (N − M )n−x n! n−x = N x! (n − x)! (N )n n n (M )x (N − M )n−x = x (N )n M −x+1N −M N −M −n+x+1 n M ··· ··· = N −x+1 N −x N −n+1 x N Also gilt lim P (X = x) N →∞ M −x+1N −M N −M −n+x+1 n M M −1 ··· ··· = lim N →∞ x N N − 1 N −x+1 N −x N −n+1 M − N1 − x−1 1− M − n−x−1 1− M n M M N N N N N N = lim · · · · · · x x−1 n−1 N →∞ x N 1 − N1 1 − 1− N 1− N N p− n p = lim N →∞ x 1− 1 N 1 N ··· p− 1− x−1 N x−1 N 1 − p − n−x−1 1−p N · · · 1 − Nx 1 − n−1 N n x = p (1 − p)n−x x Für große Werte von N können wir also die hypergeometrische Verteilung durch die Binomialverteilung approximieren. Außerdem bestätigt die Aussage die intuitive Annahme, dass es keinen Unterschied macht, ob man aus einer sehr großen Grundgesamtheit mit oder ohne Zurücklegen zieht. KAPITEL 9. VERTEILUNGSMODELLE 210 9.1.4 Die Poissonverteilung Schauen wir uns an, was mit der Wahrscheinlichkeitsfunktion der Binomialverteilung geschieht, wenn wir n beliebig groß werden lassen. Auch hier müssen wir beim Grenzübergang eine Restriktion berücksichtigen, da sonst die Wahrscheinlichkeit gegen Null geht. Wir fordern, dass λ = np konstant bleibt. Mit λ p= . n gilt also n x lim P (X = x) = lim p (1 − p)n−x n→∞ n→∞ x = " λ #x " λ #n−x n! 1− n→∞ x!(n − x)! n n lim " " λ #n λ #−x λx (n)x = lim 1 − lim 1 − lim x! n→∞ nx n→∞ n n→∞ n = λx −λ e x! da gilt n−x+1 (n)x n n−1 ··· =1 = lim x n→∞ n n→∞ n n n " λ #n lim 1 − = e−λ n→∞ n " λ #−x lim 1 − = 1 n→∞ n lim Definition 9.5 Die Zufallsvariable X heißt poissonverteilt mit dem Parameter λ, wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch: λx −λ P (X = x) = e x! für x = 0, 1, . . .. (9.8) 9.1. DISKRETE VERTEILUNGSMODELLE 211 Die Poissonverteilung wird auch die Verteilung der seltenen Ereignisse genannt, da p = nλ mit wachsenem n immer kleiner wird. Ist X poissonverteilt mit Parameter λ, so gilt E(X) = λ und V ar(X) = λ . Abbildung 9.3 zeigt die Wahrscheinlichkeitsfunktion der Poissonverteilung für λ = 1, λ = 2, λ = 5 und λ = 10. Abbildung 9.3: Wahrscheinlichkeitsfunktion Poissonverteilung für λ = 1, λ = 2, λ = 5 und λ = 10 Poissonverteilung lambda=1 Poissonverteilung lambda=2 0.35 0.25 0.30 0.20 0.25 0.15 0.20 0.15 0.10 0.10 0.05 0.05 0.00 0.00 0 1 2 3 4 5 0 Poissonverteilung lambda=5 1 2 3 4 5 6 7 8 9 10 Poissonverteilung lambda=10 0.12 0.15 0.10 0.08 0.10 0.06 0.04 0.05 0.02 0.00 0.00 0 2 4 6 8 10 12 14 0 2 4 6 8 10 13 16 19 Wir sehen, dass die Wahrscheinlichkeitsfunktion der Poissonverteilung mit wachsendem λ immer symmetrischer wird. KAPITEL 9. VERTEILUNGSMODELLE 212 Beispiel 79 Wir haben im Beispiel 55 auf Seite 148 die Anzahl der Tore betrachtet, die in der Saison 2001/2002 in der Fußballbundesliga je Spiel geschossen wurden. Dabei wurden nur Spiele betrachtet, in denen höchstens 5 Tore fielen. Es wurden aber auch mehr Tore geschossen. Tabelle 9.3 zeigt die Häufigkeitsverteilung der Anzahl Tore in allen 306 Spielen. Tabelle 9.3: Häufigkeitstabelle der Anzahl der Tore in einem Bundesligaspiel in der Saison 2001/2002 x 0 1 2 3 4 5 6 7 n(X = x) h(X = x) 23 0.075 35 0.114 74 0.242 69 0.225 56 0.183 23 0.075 19 0.062 7 0.023 Der Mittelwert der Anzahl Tore beträgt 2.9. Tabelle 9.4 zeigt die Wahrscheinlichkeitsverteilung der Poissonverteilung mit λ = 2.9. Tabelle 9.4: Wahrscheinlichkeitsverteilung der Poissonverteilung mit Parameter λ = 2.9 x 0 P (X = x) 0.055 1 2 3 4 5 6 7 0.160 0.231 0.224 0.162 0.094 0.045 0.019 Wir sehen, dass die Wahrscheinlichkeiten und relativen Häufigkeiten gut übereinstimmen. Dies besteht auch die Abbildung 9.4, in der beiden Verteilungen gegenübergestellt sind. Wir werden später lernen, warum es sinnvoll ist, für λ den Mittelwert der Beobachtungen zu wählen. 9.1. DISKRETE VERTEILUNGSMODELLE 213 Abbildung 9.4: Stabdiagramm der Anzahl der Tore mit Wahrscheinlichkeitsfunktion der Poissonverteilung mit Parameter λ = 2.9 Empirie Modell 0.20 0.15 0.10 0.05 0.00 0 1 2 3 4 5 6 7 Warum die Poissonverteilung ein sinnvolles Modell für die Anzahl der in einem Spiel geschossenen Tore ist, zeigen die folgenden Überlegungen. Die Poissonverteilung spielt eine zentrale Rolle bei Ankunftsprozessen. Hier soll die Anzahl X(a, t) der Ankünfte im Intervall (a, a + t] modelliert werden. Dabei geht man von folgenden Annahmen aus: 1. X(a, t) und X(a∗ , t∗ ) sind unabhängig, wenn (a, a + t] und (a∗ , a∗ + t∗ ] disjunkt sind. 2. X(a, h) hängt von h aber nicht von a ab. 3. P (X(a, h) = 1) ≈ λh . 4. P (X(a, h) > 1) ≈ 0 . Annahme 1 besagt, dass die Häufigkeit des Auftretens von A in einem Intervall unabhängig ist von der Häufigkeit des Auftretens von A in einem dazu disjunkten Intervall. Annahme 2 besagt, dass die Häufigkeit des Auftretens von A in einem Intervall der Länge h nur von der Länge, aber nicht von der Lage des Intervalls abhängt. 214 KAPITEL 9. VERTEILUNGSMODELLE Annahme 3 besagt, dass die Wahrscheinlichkeit, dass A in einem sehr kleinen Intervall der Länge h genau einmal eintritt, proportional zur Länge des Intervalls ist. Annahme 4 besagt, dass die Wahrscheinlichkeit, dass A in einem sehr kleinen Intervall der Länge h mehr als einmal eintritt, vernachlässigt werden kann. Schauen wir uns dafür ein Beispiel an: Beispiel 80 Der Verkehrsstrom einer Fernstraße wird an einem festen Beobachtungspunkt protokolliert, wobei jeweils festgehalten wird, wann ein Fahrzeug den Beobachtungspunkt passiert. Annahme 1 besagt, dass der Verkehrsstrom völlig regellos ist. Ereignisse in nichtüberlappenden Intervallen sind unabhängig. Annahme 2 besagt, dass der Verkehrsstrom von konstanter Intensität ist. Die Wahrscheinlichkeit, dass in einem Zeitintervall der Länge h k Fahrzeuge eintreffen, hängt von der Länge des Intervalls, nicht jedoch von seiner Lage ab. Annahme 4 besagt, dass das Auftreten geschlossener Fahrzeuggruppen vernachlässigt werden kann. Unter den Annahmen 1 bis 4 ist X(a, t) poissonverteilt mit dem Parameter λt. Es gilt also (λt)x −λt e P (X(a, t) = x) = x! für x = 0, 1, . . . . Dies sieht man folgendermaßen: Wir teilen das Intervall (a, a + t] in n gleichgroße Intervalle der Länge h = nt . Aufgrund von Annahme 4 kann A in jedem dieser Intervalle nur einmal oder keinmal eintreten. In jedem dieser Intervalle beträgt die Wahrscheinlichkeit, A genau einmal zu beobachten, p = λh = λt n Da die Intervalle disjunkt sind, ist das Eintreten von A in den einzelnen Intervallen unabhängig. Außerdem ist jedes Intervall gleich lang, so dass p konstant ist. Es liegt also ein Bernoulliprozess der Länge n mit Erfolgswahrscheinlichkeit vor. Somit gilt p = λt n x n−x n λt λt P (X(a, t) = x) = 1− x n n 9.2. STETIGE VERTEILUNGSMODELLE 215 Lassen wir n über alle Grenzen wachsen, so erhalten wir (λt)x −λt e P (X(a, t) = x) = x! 9.2 für x = 0, 1, . . . . Stetige Verteilungsmodelle Man erhält für eine stetige Zufallsvariable ein Modell, indem man eine Funktion fX (x)vorgibt, die die Gleichungen (5.9)und (5.10) auf Seite (154) erfüllen. 9.2.1 Die Gleichverteilung Definition 9.6 Die Zufallsvariable X heißt gleichverteilt auf dem Intervall [a, b], wenn ihre Dichtefunktion gegeben ist durch: 1 fX (x) = b − a 0 für a ≤ x ≤ b (9.9) sonst Im Beispiel 59 auf Seite 155 haben wir die Gleichverteilung auf [0, 10] näher betrachtet. Die Dichtefunktion ist in Abbildung 5.3 auf Seite 155 zu finden. Die Verteilungsfunktion FX (x) ist gegeben durch: 0 −a FX (x) = xb − a 1 für x < a für a ≤ x ≤ b für x > b Die Verteilungsfunktion der Gleichverteilung auf [0, 10] ist in Abbildung 5.4 auf Seite 156 zu finden. Aus der Verteilungsfunktion können wir problemlos die Quantile bestimmen. Es gilt xp = a + p(b − a) . (9.10) Wir erhalten Gleichung (9.10), indem wir folgende Gleichung nach xp auflösen: xp − a = p. b−a KAPITEL 9. VERTEILUNGSMODELLE 216 Außerdem gilt E(X) = a+b 2 (9.11) (a − b)2 12 (9.12) und V ar(X) = Dies sieht man folgendermaßen: b E(X) = a = 1 1 x dx = b−a b−a b a 1 x dx = b−a x2 2 b a 1 (b + a) (b − a) a+b 1 b 2 − a2 = = b−a 2 b−a 2 2 Für die Varianz bestimmen wir zunächst E(X 2 ). Es gilt E(X 2 ) = b a = 1 1 x2 dx = b−a b−a b a x2 dx = 1 x 3 b b−a 3 a b 3 − a3 (b − a)(a2 + ab + b2 ) a2 + ab + b2 = = 3(b − a) 3(b − a) 3 Also gilt V ar(X) = E(X 2 ) − E(X)2 = a2 + ab + b2 (a + b)2 − 3 4 = a2 − 2ab + b2 4a2 + 4ab + 4b2 − 3a2 − 6ab − 3b2 = 12 12 = (a − b)2 12 Eine zentrale Rolle spielt die Gleichverteilung auf [0, 1]. Bei dieser gilt a = 0 und b = 1. 9.2. STETIGE VERTEILUNGSMODELLE 9.2.2 217 Die Normalverteilung Das wichtigste Verteilungsmodell ist die Normalverteilung, die von Gauss vorgeschlagen wurde. Definition 9.7 Die Zufallsvariable X heißt normalverteilt mit den Parametern µ und σ 2 , wenn ihre Dichtefunktion für x ∈ IR gegeben ist durch: (x−µ)2 1 f (x) = √ e− 2σ2 σ 2π (9.13) Abbildung 9.5 zeigt die Dichtefunktion der Normalverteilung mit µ = 0 und σ = 1, die Standardnormalverteilung heißt. Abbildung 9.5: Dichtefunktion der Standardnormalverteilung 0.4 f(x) 0.3 0.2 0.1 0.0 −4 −2 0 2 4 x Für eine mit den Parametern µ und σ 2 normalverteilte Zufallsvariable X gilt E(X) = µ und V ar(X) = σ 2 KAPITEL 9. VERTEILUNGSMODELLE 218 Der Parameter µ beschreibt also die Lage und der Parameter σ 2 die Streuung der Verteilung. Abbildung 9.6 zeigt die Dichtefunktionen von zwei Normalverteilungen mit unterschiedlichem Erwartungswert und identischen Varianzen. Abbildung 9.6: Dichtefunktionen der Normalverteilung µ = 5 und µ = 6 und gleichem σ 2 = 1 0.5 0.4 dnorm(x, 5) 0.3 0.2 0.1 0.0 2 4 6 8 10 x Wir sehen, dass die Gestalten der Dichtefunktionen identisch sind und die Dichtefunktion mit dem größeren Erwartungswert nach rechts verschoben ist. Abbildung 9.7 zeigt die Dichtefunktionen von zwei Normalverteilungen mit identischem Erwartungswert und unterschiedlichen Varianzen. Abbildung 9.7: Dichtefunktionen der Normalverteilung σ 2 = 1 und σ 2 = 4 und gleichem µ = 5 0.5 0.4 dnorm(x, 6, 1) 0.3 0.2 0.1 0.0 0 2 4 6 8 10 12 x Wir sehen, dass die Dichtefunktion mit der kleineren Varianz viel flacher ist. 9.2. STETIGE VERTEILUNGSMODELLE 219 Beispiel 81 In Tabelle 2.10 auf Seite 63 ist die Verteilung der Körpergröße von männlichen Studienanfängern zu finden. In Abbildung 9.8 ist neben dem Histogramm noch die Dichtefunktion der Normalverteilung mit den Parametern µ = 183.1 und σ 2 = 48.7 eingezeichnet. Wir sehen, dass die Normalverteilung ein geeignetes Modell für die Körpergröße ist. Abbildung 9.8: Histogramm der Körpergröße von männlichen Studienanfängern mit Dichtefunktion der Normalverteilung mit den Parametern µ = 183.1 und σ 2 = 48.7 0.07 0.06 0.05 Density 0.04 0.03 0.02 0.01 0.00 160 170 180 190 200 Groesse Die Verteilungsfunktion FX (x) kann nicht in expliziter Form angegeben werden. Um Wahrscheinlichkeiten zu bestimmen, benötigt man also Tabellen. Es muss aber nicht jede Normalverteilung tabelliert werden, sondern es reicht aus, Tabellen der Standardnormalverteilung zu besitzen. Ist nämlich X normalverteilt mit den Parametern µ und σ 2 , so ist Z= X −µ σ standardnormalverteilt. Wir wollen diese Beziehung nicht beweisen, sondern ihre Konsequenzen aufzeigen. Dabei bezeichnen wir die Dichtefunktion einer standardnormalverteilten Zufallsvariablen Z mit φ(z) und dieVerteilungsfunktion mit Φ(z). Es gilt also 1 2 φ(z) = √ e−0.5 z 2π (9.14) KAPITEL 9. VERTEILUNGSMODELLE 220 und z Φ(z) = −∞ 1 2 √ e−0.5 u du 2π (9.15) Wir suchen für eine mit den Parametern µ und σ 2 normalverteilte Zufallsvariable folgende Wahrscheinlichkeit: P (X ≤ x) = FX (x) Es gilt FX (x) = Φ x−µ σ (9.16) Dies sieht man folgendermaßen: FX (x) = P (X ≤ x) = P (X − µ ≤ x − µ) = P x−µ x−µ =Φ = P Z≤ σ σ X −µ x−µ ≤ σ σ Man muss die Verteilungsfunktion der Standardnormalverteilung nur für positive oder negative Werte von z tabellieren. Es gilt nämlich Φ(z) = 1 − Φ(−z) . (9.17) Beispiel 82 Die Fahrzeit X eines Studenten zur Universität ist normalverteilt mit Erwartungswert 40 und Varianz 4. Wie groß ist die Wahrscheinlichkeit, dass er höchstens 36 Minuten braucht? Gesucht ist P (X ≤ 36). Es gilt 36 − 40 = Φ(−2) . P (X ≤ 36) = FX (36) = Φ 2 Tabelle C.1 auf Seite 434 entnehmen wir Φ(2) = 0.977. Also gilt P (X ≤ 36) = Φ(−2) = 1 − Φ(2) = 1 − 0.977 = 0.023 . 9.2. STETIGE VERTEILUNGSMODELLE 221 Mit Hilfe von Gleichung (6.23) auf Seite 172 können wir das p-Quantil xp einer mit den Parametern µ und σ 2 normalverteilten Zufallsvariablen aus dem p-Quantil zp der Standardnormalverteilung folgendermaßen bestimmen: xp = µ + zp σ Man muss die Quantile der Standardnormalverteilung nur für Werte von p tabellieren, die kleiner als 0.5 oder größer als 0.5 sind, da gilt zp = −z1−p (9.18) Beispiel 82 (fortgesetzt) Welche Fahrzeit wird an 20 Prozent der Tage nicht überschritten? Gesucht ist x0.2 . Es gilt z0.2 = −z0.8 . Tabelle C.3 auf Seite 437 entnehmen wir z0.8 = 0.842. Also gilt z0.2 = −0.842. Somit erhalten wir x0.20 = 40 + z0.20 · 2 = 40 − 0.842 · 2 = 38.316 . Bei der Tschebyscheff-Ungleichung haben wir Intervalle der Form [µ − k σ, µ + k σ] (9.19) betrachtet. Man nennt das Intervall in Gleichung (9.19) auch das k-fache zentrale Schwankungsintervall. Die Wahrscheinlichkeit für das k-fache zentrale Schwankungsintervall bei Normalverteilung ist P (µ − k σ ≤ X ≤ µ + k σ) = Φ(k) − Φ(−k) . In der Tabelle 9.5 sind die Wahrscheinlichkeiten P (µ − k σ ≤ X ≤ µ + k σ) bei Normalverteilung den unteren Schranken gegenübergestellt, die sich aus der Tschebyscheff-Ungleichung ergeben. KAPITEL 9. VERTEILUNGSMODELLE 222 Tabelle 9.5: Wahrscheinlichkeiten des k-fachen zentralen Schwankungsintervalls bei Normalverteilung und Tschebyscheff 9.2.3 k N (µ, σ 2 ) Tschebyscheff 1 2 3 0.683 0.954 0.997 0 0.750 0.889 Die Exponentialverteilung Kommen wir noch einmal zum Poisson-Prozess zurück. Bei einem PoissonProzess im Intervall (0, t] ist die absolute Häufigkeit des Ereignisses A poissonverteilt mit Parameter λt. Es gilt also (λt)x −λt e für x = 0, 1, . . . . P (X = x) = x! Wir wollen nun einen Poisson-Prozess so lange beobachten, bis A zum ersten Mal eintritt. Gesucht ist Dichtefunktion fT (t) und die Verteilungsfunktion FX (x) der Wartezeit T bis zum ersten Eintreten von A. Für t < 0 gilt FT (t) = 0. Für t ≥ 0 gilt: FT (t) = P (T ≤ t) = 1 − P (T > t) = 1 − P (X = 0) = 1 − e−λt Somit gilt: FT (t) = 1 − e−λt für t > 0 0 sonst Da die erste Ableitung der Verteilungsfunktion gleich der Dichtefunktion ist, erhalten wir folgende Definition 9.8 Die Zufallsvariable X heißt exponentialverteilt mit Parameter λ, wenn ihre Dichtefunktion gegeben ist durch: λ e−λx fX (x) = 0 für x > 0 sonst (9.20) 9.2. STETIGE VERTEILUNGSMODELLE 223 Abbildung 5.5 auf Seite 157 zeigt die Dichtefunktion der Exponentialverteilung mit λ = 1. Die Exponentialverteilung ist eine rechtsschiefe Verteilung. Es gilt E(X) = 1 λ und V ar(X) = 1 λ2 Für das p-Quantil der Exponentialverteilung gilt xp = − 1 ln (1 − p) λ . (9.21) Wir erhalten Gleichung (9.21) folgendermaßen: 1 − e−λxp = p ⇔ e−λxp = 1 − p ⇔ −λxp = ln (1 − p) ⇔ xp = − 1 ln (1 − p) λ Beispiel 83 Bayer und Jankovic beobachteten im Rahmen eines BI-Projektes 30 Minuten eine Tankstelle und bestimmten die Zeiten zwischen den Ankünften von Kunden. Tabelle 9.6 zeigt die Häufigkeitstabelle. Tabelle 9.6: Häufigkeitstabelle der Zwischenankunftszeiten an einer Tankstelle Zeit von von von von von absolute Häufigkeit 0 bis unter 45 45 bis unter 90 90 bis unter 135 135 bis unter 180 180 bis unter 225 19 8 2 2 1 Abbildung 9.9 zeigt das Histogramm mit der Dichtefunktion der Exponentialveretilung mit Parameter λ = 0.019. Wir sehen, dass die Anpassung gut ist. KAPITEL 9. VERTEILUNGSMODELLE 224 Abbildung 9.9: Histogramm der Wartezeit mit der Dichtefunktion der Exponentialveretilung mit Parameter λ = 0.019 0.015 0.010 0.005 0.000 0 50 100 150 200 250 Zeit 9.2.4 Prüfverteilungen In der schließenden Statistik verwendet man immer wieder eine Reihe von Verteilungen, die eine Beziehung zur Normalverteilung haben. Schauen wir uns diese an. Die Chi-Quadrat-Verteilung Wir wissen, dass Z = (X − µ)/σ standardnormalverteilt ist, wenn X mit den Parametern µ und σ 2 normalverteilt ist. Die Zufallsvariable Z 2 ist in diesem Fall chiquadratverteilt mit k = 1 Freiheitsgraden. Man nennt den Parameter der Chi-Quadrat-Verteilung also Freiheitsgrade. Oft betrachtet man k unabhängige standardnormalverteilte Zufallsvariablen Z1 , . . . , Zk . In diesem Fall ist k Zi2 i=1 chiquadratverteilt mit k Freiheitsgraden. Abbildung 9.10 zeigt die Dichtefunktion der Chi-Quadrat-Verteilung mit k = 3, k = 4, k = 5 und k = 10 Freiheitsgraden. 9.2. STETIGE VERTEILUNGSMODELLE 225 Abbildung 9.10: Dichtefunktion der Chi-Quadrat-Verteilung mit k = 3, k = 4, k = 5 und k = 10 Freiheitsgraden 0.25 k=3 k=4 k=5 k=10 0.20 f(x) 0.15 0.10 0.05 0.00 0 5 10 15 20 25 x Wir sehen, dass die Dichtefunktion der Chi-Quadrat-Verteilung mit wachsender Zahl von Freiheitsgraden immer symmetrischer wird. Die t-Verteilung Die Zufallsvariable Z sei standardnormalverteilt und die Zufallsvariable V chiquadratverteilt mit k Freiheitsgraden. Sind Z und V unabhängig, so ist die Zufallsvariable Z T = V /k t-verteilt mit k Freiheitsgraden. Abbildung 9.11 zeigt die Dichtefunktion der t-Verteilung mit k = 1, k = 3 k = 10 Freiheitsgraden. Außerdem ist noch die Dichtefunktion der Standardnormalverteilung eingezeichnet. Abbildung 9.11: Dichtefunktion der t-Verteillung mit k = 1, k = 3 und k = 10 Freiheitsgraden 0.4 N(0,1) k=1 k=3 k=10 f(x) 0.3 0.2 0.1 0.0 −6 −4 −2 0 x 2 4 6 KAPITEL 9. VERTEILUNGSMODELLE 226 Wir sehen, dass die Dichtefunktion der t-Verteilung mit wachsender Zahl von Freiheitsgraden der Dichtefunktion der Standardnormalverteilung immer ähnlicher wird. Die t-Verteilung mit kleiner Anzahl von Freiheitsgraden streut mehr als die Standardnormalverteilung. Dies erkennt man auch an der Varianz der t-Verteilung. Für k ≥ 3 gilt V ar(T ) = n n−2 Die Varianz von T konvergiert gegen die Varianz der Standardnormalverteilung. Die F -Verteilung Bei einer Vielzahl von statistischen Verfahren werden zwei Varianzen verglichen. In diesem Fall kommt die F -Verteilung ins Spiel. Ausgangspunkt sind hier die unabhängigen Zufallsvariablen V und W , wobei V chiquadratverteilt mit m und W chiquadratverteilt mit n Freiheitsgraden ist. In diesem Fall ist die Zufallsvariable V /m F = W/n F -verteilt mit m und n Freiheitsgraden. Abbildung 9.12 zeigt die Dichtefunktion der t-Verteilung mit m = 5, n = 5, m = 5, n = 10, m = 5, n = 50 und m = 50, n = 50 Freiheitsgraden. Abbildung 9.12: Dichtefunktion der F -Verteillung mit m = 5, n = 5, m = 5, n = 10, m = 5, n = 50 und m = 50, n = 50 Freiheitsgraden 1.4 F(5,5) F(5,10) F(5,50) F(50,50) 1.2 1.0 f(x) 0.8 0.6 0.4 0.2 0.0 1 2 3 x 4 5