Kompaktskript zu der Vorlesung Deskriptive Statistik und Wahrscheinlichkeitsrechnung von Rolf Hauser Universität des Saarlandes SS 2009 i Wichtiger Hinweis! Das vorliegende Kompaktskriptum ist kein Lehrbuch, sondern es soll die Hörer der Vorlesung Deskriptive Statistik und Wahrscheinlichkeitsrechnung von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skriptum nur formale Definitionen und Sätze und einige Beispiele enthalten. Die Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Inhaltsverzeichnis 1 Deskriptive Statistik 1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Skalen und Merkmalstypen . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Tabellarische und grafische Darstellungen eindimensionaler Merkmale 1.5 Grafische Darstellung bei klassierten Daten . . . . . . . . . . . . . . . 1.6 Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm) . . . . . . . . . . . . 1.7 Lage- und Streuungsmaße . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.1 Lagemaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.2 Einige Bemerkungen zu den Lagemaßen . . . . . . . . . . . . . 1.7.3 Streuungsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.4 Box-Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8 Häufigkeitsverteilungen zweidimensionaler Merkmale . . . . . . . . . . 1.8.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.2 Bedingte Häufigkeitsverteilungen und Unabhängigkeit . . . . . 1.9 Abhängigkeitsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.1 Kardinalskalierte Merkmale . . . . . . . . . . . . . . . . . . . . 1.9.2 Ordinalskalierte Merkmale . . . . . . . . . . . . . . . . . . . . . 1.9.3 Beliebiges Skalenniveau . . . . . . . . . . . . . . . . . . . . . . 2 Wahrscheinlichkeitsrechnung 2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Das wahrscheinlichkeitstheoretische Modell . . . . . . . . . . . 2.2.1 Der Ergebnisraum Ω . . . . . . . . . . . . . . . . . . . . 2.2.2 Ereignisse und Ereignisraum F . . . . . . . . . . . . . . 2.2.3 Mengenalgebra . . . . . . . . . . . . . . . . . . . . . . . 2.2.4 Wahrscheinlichkeitsräume . . . . . . . . . . . . . . . . . 2.2.5 Laplace-Experimente und Grundlagen der Kombinatorik 2.2.6 Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 5 8 13 18 19 19 23 25 27 29 29 32 33 33 36 38 . . . . . . . . 40 40 42 42 43 44 51 53 57 iii INHALTSVERZEICHNIS 3 Messbare Abbildungen und Zufallsvektoren 3.1 Allgemeine Begriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Eindimensionale Zufallsvariablen 63 63 65 4.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.2 Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.3 Stetige Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.4 Die Verteilungsfunktion von eindimensionalen Zufallsvariablen . . . . . . . . . . 71 4.5 Lineare Transformationen von eindimensionalen Zufallsvariablen . . . . . . . . 78 4.6 Momente von eindimensionalen Zufallsvariablen . . . . . . . . . . . . . . . . . . 79 4.7 Modus und Quantile von eindimensionalen Zufallsvariablen . . . . . . . . . . . 82 4.8 Spezielle diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.8.1 Bernoulli-Verteilung (Zweipunktverteilung) . . . . . . . . . . . . . . . . 83 4.8.2 Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.8.3 Hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . 87 4.8.4 Geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.8.5 Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Spezielle stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.1 Stetige Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.2 Gaußverteilung N (0, 1) : (Standardnormalverteilung) . . . . . . . . . . . 95 4.9 N (µ, σ 2 ) 4.9.3 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 4.9.4 Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5 Zweidimensionale Zufallsvariablen 99 105 5.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.2 Zweidimensionale diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . 107 5.3 Zweidimensionale stetige Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . 109 5.4 Die Verteilungsfunktion von zweidimensionalen Zufallsvariablen . . . . . . . . . 111 5.5 Randverteilungen zweidimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 113 5.6 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen . . . . . . . . . 115 5.7 Momente zweidimensionaler Zufallsvariablen . . . . . . . . . . . . . . . . . . . . 120 6 Mehrdimensionale Zufallsvariablen 6.1 Allgemeine Definitionen und Sätze . . . . . . . . . . . . . . . . . . . . . . . . . 124 7 Summen von unabhängigen Zufallsvariablen 7.1 124 128 Bernoulli-, Binomial-, Poisson- und Normalverteilungen . . . . . . . . . . . . . 128 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung INHALTSVERZEICHNIS 8 Ungleichung von Tschebyscheff und das schwache Gesetz der großen Zahlen iv 130 8.1 Ungleichung von Tschebyscheff . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 8.2 Das schwache Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . 132 9 Zentraler Grenzwertsatz 134 9.1 Zentraler Grenzwertsatz von de Moivre-Laplace . . . . . . . . . . . . . . . . . . 134 9.2 Zentraler Grenzwertsatz von Lindeberg-Lévy . . . . . . . . . . . . . . . . . . . 138 10 Statistische Tabellen c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 142 Kapitel 1 Deskriptive Statistik 1.1 Einleitung Die deskriptive Statistik befasst sich zunächst mit der Erhebung von Daten, deren Aufbereitung sowie Darstellung. Im Allgemeinen kann man von folgenden vier Phasen ausgehen: 1. Vorbereitung • Zweck der Untersuchung bestimmen – Über welche Untersuchungseinheiten welche Informationen gewonnen werden sollen 2. Datenerhebung • Primärerhebung – Befragung ∗ persönliche Befragung ∗ postalische Befragung – Beobachtung – Experiment • Sekundärerhebung – Es wird auf vorhandenes Datenmaterial zurückgegriffen • Vollerhebung • Teilerhebung 1 1.1. EINLEITUNG 3. Datenaufbereitung und -darstellung • tabellarisch • grafisch 4. Datenauswertung und -analyse • Berechnung von Maßzahlen • Entdecken von Strukturen und Zusammenhängen c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2 3 1.2. GRUNDBEGRIFFE 1.2 Grundbegriffe Definition 1.2.1 Die statistische Einheit (Merkmalsträger, Untersuchungseinheit) ω i , i = 1, . . . , n ist das Einzelobjekt einer Untersuchung. Sie ist Träger der Informationen, für die man sich interessiert. Bemerkung 1.2.2 Jede statistische Einheit muss im Hinblick auf das Untersuchungsziel durch (1) sachliche (2) räumliche (3) zeitliche Kriterien eindeutig festgelegt (abgegrenzt) sein. Man bezeichnet diese Kriterien auch als identifizierende Merkmale. Beispiel 1.2.3 Soll im Stadtverband Saarbrücken eine Untersuchung über das Freizeitverhalten Berufstätiger durchgeführt werden, so sind die Identifikationskriterien: • sachlich: berufstätige Person • räumlich: Gebiet des Stadtverbandes Saarbrücken Untersuchungszeitraum • zeitlich: Definition 1.2.4 Die statistische Masse oder Grundgesamtheit Ω ist die Menge aller statistischen Einheiten, die die vorgegebenen Abgrenzungskriterien erfüllen. Ω = {ω i | ω i erfüllt die festgelegten Kriterien, i = 1, . . . , n} Definition 1.2.5 Es sei Ω = {ω 1 , ω 2 , . . . , ω n } eine statistische Masse und X:Ω→M ⊆R eine Abbildung mit X(ω i ) = xi , i = 1, . . . , n. X heißt 1-dimensionales Merkmal und die resultierenden Werte xi , i = 1, . . . , n, Beobachtungswerte oder Merkmalswerte. Die Menge A := {a ∈ M : ∃ ω ∈ Ω mit X(ω) = a} = X(Ω) heißt Merkmalsraum und die Elemente von A heißen Merkmalsausprägungen. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4 1.2. GRUNDBEGRIFFE Beispiel 1.2.6 20 Personen werden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 ≡ Hauptschule, 2 ≡ Fachoberschule, 3 ≡ Abitur, 4 ≡ Fachhochschule, 5 ≡ Universität) die Beobachtungswerte X(ω i ) = xi , i = 1, . . . , 20 : ωi X(ω i ) = xi ωi X(ω i ) = xi ω 11 4 ω1 3 ω2 3 ω 12 5 ω3 2 ω 13 2 ω4 1 ω5 1 ω6 4 ω 14 3 ω 15 5 ω 16 4 ω7 5 ω 17 1 ω8 5 ω9 4 ω 18 5 ω 10 1 ω 19 2 ω 20 1 Der Merkmalsraum A ist in diesem Beispiel gegeben durch A = {1, 2, 3, 4, 5}. Bemerkung 1.2.7 Die Menge A ist wegen |X(Ω)| ≤ |Ω| stets abzählbar, so dass A als endliche Menge A = {a1 , a2 , . . . , am } darstellbar ist. In der Regel wird die Anzahl der Merkmalsausprägungen m kleiner als die Zahl der Beobachtungswerte n sein. Bemerkung 1.2.8 In der Definition sind die Merkmalswerte bzw. Merkmalsausprägungen durch reelle Zahlen dargestellt. Dies ist immer möglich. Z. B. kann das Merkmal Familienstand (ledig, verheiratet, geschieden, verwitwet) auf die Zahlen 0 ≡ ledig, 1 ≡ verheiratet, 2 ≡ geschieden, 3 ≡ verwitwet abgebildet werden. Bemerkung 1.2.9 Auch wenn Merkmalsausprägungen meistens als reelle Zahlen dargestellt werden, so ist vor der Durchführung algebraischer Operationen stets zu untersuchen, ob sie aufgrund des Skalierungsniveaus des Merkmals überhaupt sinnvoll sind. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.3. SKALEN UND MERKMALSTYPEN 1.3 5 Skalen und Merkmalstypen Definition 1.3.1 (Nominalskala) Eine Skala, deren Skalenwerte nur nach dem Kriterium gleich oder verschieden geordnet werden können, heißt Nominalskala. Beispiel 1.3.2 Nominal messbare Merkmale sind z. B.: • Geschlecht • Beruf, • Haarfarbe, • Religionszugehörigkeit Definition 1.3.3 (Ordinalskala, Rangskala) Eine Skala, deren Skalenwerte nicht nur nach dem Kriterium gleich oder verschieden, sondern außerdem in einer natürlichen Reihenfolge geordnet werden können, heißt Ordinalskala oder Rangskala. Beispiel 1.3.4 Ordinal messbare Merkmale sind z. B.: • Zensuren: sehr gut, gut, befriedigend, usw. • Güteklassen von Hotels: ein Stern, zwei Sterne, usw. • Platzziffer bei einem Tanzturnier Definition 1.3.5 (Kardinalskala, metrische Skala) Eine Skala, deren Skalenwerte reelle Zahlen sind und die die Ordnungseigenschaften der reellen Zahlen besitzt, heißt Kardinalskala oder metrische Skala. Beispiel 1.3.6 Kardinal messbare Merkmale sind z. B.: • Lebensdauern • Gewichte c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.3. SKALEN UND MERKMALSTYPEN 6 • Stromstärke • Größen Bei einer Kardinalskala unterscheidet man weiterhin: Definition 1.3.7 (Intervallskala) Eine metrische Skala, die keinen natürlichen Nullpunkt und keine natürliche Einheit besitzt, heißt Intervallskala. Beispiel 1.3.8 Kalender besitzen keinen natürlichen Nullpunkt und keine natürliche Einheit. Z. B. wird die heutige Einteilung der Zeitskala nach dem gregorianischen Kalender vorgenommen. Zeitabstände (Intervalle) auf der Skala können miteinander verglichen werden. Definition 1.3.9 (Verhältnisskala) Eine metrische Skala, die einen natürlichen Nullpunkt, aber keine natürliche Einheit besitzt besitzt, heißt Verhältnisskala. Beispiel 1.3.10 Bei Währungen existiert ein natürlicher Nullpunkt. Null Geldeinheiten sind überall in der Welt Null Geldeinheiten. Jedoch sind 100 $ in der Regel nicht gleich 100 e Das Verhältnis zweier Währungen ist interpretierbar und wird als Wechselkurs bezeichnet. Definition 1.3.11 (Absolutskala) Eine metrische Skala mit einem natürlichen Nullpunkt und einer natürlichen Einheit heißt Absolutskala. Beispiel 1.3.12 Stückzahlen oder Anzahl von Personen besitzen einen natürlichen Nullpunkt und eine natürliche Einheit. Definition 1.3.13 (Qualitative Merkmale) Ein Merkmal heißt qualitativ, wenn die zugehörigen Merkmalsausprägungen nominal bzw. ordinal skaliert sind. Bemerkung 1.3.14 Werden zur Bewertung die Noten sehr gut, gut, befriedigend, ausreichend und mangelhaft verwendet und in den Zahlen 1, 2, 3, 4, 5 angegeben, so bleibt das ordinalskalierte Merkmal Note“ doch qualitativer Natur. ” c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.3. SKALEN UND MERKMALSTYPEN 7 Definition 1.3.15 (Quantitative Merkmale) Ein Merkmal heißt quantitativ, wenn die zugehörigen Merkmalsausprägungen metrisch skaliert sind. Definition 1.3.16 (diskretes Merkmal) Ein Merkmal das nur abzählbar viele Werte annehmen kann heißt diskretes Merkmal. Definition 1.3.17 (stetiges Merkmal) Ein Merkmal das überabzählbar viele Werte annehmen kann heißt stetiges Merkmal. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 8 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 1.4 Tabellarische und grafische Darstellungen eindimensionaler Merkmale Definition 1.4.1 Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das eindimensionale Merkmal X. Man bezeichnet die tabellarische Darstellung ωi X(ω i ) = xi ω1 x1 ω2 x2 ··· ··· ωn xn der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste. Beispiel 1.4.2 20 Personen wurden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 ≡ Hauptschule, 2 ≡ Realschule, 3 ≡ Abitur, 4 ≡ Fachhochschule, 5 ≡ Universität) die folgende Urliste: ωi X(ω i ) = xi ωi X(ω i ) = xi ω 11 4 ω1 3 ω2 3 ω 12 5 ω3 2 ω 13 2 ω4 1 ω5 1 ω6 4 ω 14 3 ω 15 5 ω 16 4 ω7 5 ω 17 1 ω8 5 ω9 4 ω 18 5 ω 10 1 ω 19 2 ω 20 1 Definition 1.4.3 Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das eindimensionale Merkmal X mit dem Merkmalsraum A = {a1 , ..., am }. Man bezeichnet h(ai ) :=| {ω ∈ Ω : X(ω) = ai } |, i = 1, . . . , m, als absolute Häufigkeit der Merkmalsausprägung ai , i = 1, . . . , m und r(ai ) := h(ai ) , i = 1, . . . , m, n als relative Häufigkeit der Merkmalsausprägung ai , i = 1, . . . , m. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 9 Definition 1.4.4 Gegeben sei ein Merkmal X mit Merkmalsraum A = {a1 , ..., am } sowie den absoluten Häufigkeiten h(ai ) bzw. den relativen Häufigkeiten r(ai ), i = 1, . . . , m. Man nennt die tabellarische Darstellung ai a1 a2 ··· am h(ai ) h(a1 ) h(a2 ) · · · h(am ) r(ai ) r(a1 ) r(a2 ) · · · r(am ) der Merkmalsausprägungen mit ihren absoluten bzw. relativen Häufigkeiten Häufigkeitstabelle. Beispiel 1.4.5 (Fortsetzung) Man erhält aus Beispiel 1.4.2 folgende Häufigkeitstabelle und grafische Darstellungen: Schulabschluss ai Absolute Häufigkeit h(ai ) Relative Häufigkeit r(ai ) 1 5 0.25 2 3 0.15 3 3 0.15 4 4 0.20 Kreisdiagramm Hauptschule Universität Realschule Fachhochschule Abitur c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5 5 0.25 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 10 0.15 0.10 0.00 0.05 Relative Häufigkeit 0.20 0.25 Balkendiagramm Hauptschule Realschule Abitur Fachhochsch. Universität Schulabschluss Bemerkung 1.4.6 Zur graphischen Darstellung von Häufigkeiten bei nominalskalierten Merkmalen benutzt man Kreis- bzw. Balkendiagramme Bemerkung 1.4.7 Es gilt stets: m X i=1 h(ai ) = n und m X r(ai ) = 1. i=1 Definition 1.4.8 Gegeben sei ein Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn bzw. mit dem Merkmalsraum A = {a1 , ..., am } sowie den jeweiligen relativen Häufigkeiten r(ai ), wobei die Beobachtungswerte x1 , x2 , . . . , xn bzw. die Merkmalsausprägungen ai , i = 1, . . . , m, mindestens c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 11 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE ordinalskaliert sind. Dann heißt F̂X (x) = X r(ai ) = i:ai ≤x | i ∈ {1, . . . , n} : xi ≤ x | n empirische Verteilungsfunktion von X. Vereinbarung 1.4.9 X | i ∈ {1, . . . , n} : xi < x | F̂X (x − 0) := lim F̂X (x − h) = r(ai ) = . h→0 n i:ai <x h>0 Beispiel 1.4.10 20 Ehepaare wurden nach der Zahl ihrer Kinder gefragt. Man erhielt folgende Häufigkeitstabelle: Zahl der Kinder ai Relative Häufigkeit r(ai ) 0 0.20 1 0.30 2 0.25 3 0.15 4 0.10 Stabdiagramm 0.4 r(a) 0.3 0.2 0.1 0.0 0 1 2 3 a c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4 12 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE Bemerkung 1.4.11 Zur grafischen Darstellung der relativen Häufigkeiten r(ai ) bei ordinalskalierten bzw. bei diskreten Merkmalen benutzt man das Stabdiagramm 0 0.20 0.50 X r(ai ) = F̂X (x) = 0.75 i:ai ≤x 0.90 1 für für für für für für x<0 0≤x<1 1≤x<2 2≤x<3 3≤x<4 x≥4 empirische Verteilungsfunktion 1.0 ^ F(x) 0.8 0.6 0.4 0.2 0.0 −1 0 1 2 3 4 5 x Bemerkung 1.4.12 Die empirische Verteilungsfunktion ist bei ordinalskalierten bzw. bei diskreten Merkmalen eine Treppenfunktion. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 13 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 1.5 Grafische Darstellung bei klassierten Daten Bemerkung 1.5.1 Treten bei einem kardinalskalierten Untersuchungsmerkmal viele - oft auch paarweise verschiedene - Merkmalsausprägungen auf, so kann man die Anschaulichkeit von Tabellen und graphischen Darstellungen unter Inkaufnahme eines Informationsverlustes durch Klassierung der Merkmalsausprägungen erhöhen. Vereinbarung 1.5.2 Gegeben sei ein Merkmal X mit der Urliste: ωi X(ω i ) = xi ω1 x1 ω2 x2 ··· ··· ωn xn Man wähle für festes l ∈ N Zahlen k0 , k1 , ..., kl ∈ R mit k0 < k1 < · · · < kl und k0 < xi ≤ kl für alle i = 1, ..., n. Man bezeichnet • Kj := (kj−1 , kj ], j = 1, ..., l, als Klasse Nr. j, • bj := kj − kj−1 , j = 1, ..., l, als zugehörige Klassenbreite, • mj := mitte, kj−1 + kj , j = 1, ..., l, als zugehörigen Klassenmittelpunkt oder zugehörige Klassen2 • hj =| i : kj−1 < xi ≤ kj |, j = 1, ..., l, als absolute Häufigkeit der Beobachtungswerte in der j-ten Klasse, hj , j = 1, ..., l, als relative Häufigkeit der Beobachtungswerte in der j-ten Klasse, n rj • fj = , j = 1, ..., l, als Häufigkeitsdichte der j-ten Klasse. bj • rj = Definition 1.5.3 Gegeben sei ein Merkmal X mit der Urliste: ωi X(ω i ) = xi ω1 x1 ω2 x2 ··· ··· ωn xn sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt ( fj für kj−1 < x ≤ kj , j = 1, . . . , l fˆX (x) = , x∈R 0 sonst Histogramm. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 14 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN Bemerkung 1.5.4 Für die Verteilungsfunktion F̂X von klassierten Daten gilt an der jeweiligen Klassenobergrenze kj : F̂X (kj ) = j X ri = | i : xi ≤ kj | n ω1 x1 ω2 x2 i=1 Definition 1.5.5 Gegeben sei ein Merkmal X mit der Urliste: ωi X(ω i ) = xi ··· ··· ωn xn sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt 0 F̂X (x) = F̂X (kj−1 ) + (x − kj−1 ) · fj 1 für x ≤ k0 für kj−1 < x ≤ kj ; für x > kl j = 1, . . . , l , x ∈ R Verteilungsfunktion des klassierten Merkmales X. Beispiel 1.5.6 (Allgemeine zeichnerische Darstellung) Gegeben seien die Bezeichnungen aus Vereinbarung (1.5.2). Als Histogramm zu einer gegebenen Klassierung bezeichnet man die folgende graphische Darstellung: In einem rechtwinkligen Koordinatensystem werden auf der Abszisse die Klassengrenzen k0 , ..., kl eingezeichnet. Über jeder Klasse Kj = (kj−1 , kj ] zeichnet man ein Rechteck mit der Breite bj und der Höhe fj . Wegen bj · fj = rj stimmt also der Flächeninhalt des j-ten Rechtecks mit der relativen Häufigkeit rj der j-ten Klasse überein. Die Summe der Flächeninhalte aller Rechtecke ist somit 1. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 15 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN Histogramm fi f4 6 f3 f2 f1 k0 k1 k2 k3 k4 k5 k6 - x Verteilungsfunktion F̂X (x) 6 r1 + r2 + r3 + r4 + r5 + r6 r 1 . .......... .......... .......... .......... .......... .......... . . . . . . . . . .... .......... ......... ....... ....... ....... ....... ....... . . . . . . .. ....... ....... ....... ....... ....... ....... ...... . . . ... .... ... .... ... .... ... . . . .. .... ... .... ... .... .... . . . .... ... .... .... .... .... . . . ...... ...... ...... ...... ...... ...... ...... . . . . . . ...... ...... ...... ...... ...... ...... ...... . . . . . ...... ....... ........ ....... ....... ....... ....... . . . . . . . ....... ....... ....... ........ ....... ....... .......... . . . . . . . . . .. .......... .......... .......... .......... .......... .......... .......... r r1 + r2 + r3 + r4 + r5 r r1 + r2 + r3 + r4 r r1 + r2 + r3 r1 + r2 r1 r r r k0 k1 k2 k3 k4 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung k5 k6 - x 16 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN Beispiel 1.5.7 In einer Bank wurde die Zeit X (in Minuten) notiert, die für die Beratung eines Kunden aufgewandt wurde. Man erhielt bei 100 Kunden folgende Urliste: 2.9, 1.5, 2.1, 2.6, 3.1, 3.5, 4.2, 5.1, 6.2, 7.1, 8.0, 2.0, 9.1, 10.1, 11.1, 4.3, 5.3, 6.4, 7.3, 10.8, 2.2, 3.1, 3.6, 1.4, 5.5, 6.5, 7.6, 8.4, 9.2, 10.3, 11.2, 12.5, 15.0, 2.2, 2.7, 3.2, 3.7, 1.7, 1.1, 11.9, 2.3, 2.7, 3.2, 3.4, 5.7, 6.6, 7.7, 12.9, 13.2, 1.1, 2.4, 8.6, 1.2, 4.6, 2.4, 2.8, 3.2, 3.8, 5.8, 18.8, 6.8, 0.8, 1.3, 13.8, 14.3, 2.5, 2.9, 3.3, 9.1, 1.2, 1.5, 9.5, 10.6, 1.3, 4.8, 1.4, 4.9, 14.9, 3.3, 19.7, 1.6, 4.1, 2.5, 1.7, 3.0, 1.8, 8.8, 5.9, 15.8, 16.4, 6.9, 7.9, 8.1, 3.0, 3.9, 2.0, 9.9, 17.6, 3.4, 1.9 . Es werde die folgende Klasseneinteilung vorgenommen: (0 ; 2], (2 ; 4], (4 ; 8], (8 ; 12], (12 ; 20]. Klasse Kj Klassenbreite Klassenmitte absolute Häufigkeit (kj−1 ; kj ] bj mi hj (0 ; 2] (2 ; 4] (4 ; 8] (8 ; 12] (12 ; 20] 2 2 4 4 8 1 3 6 10 16 18 30 24 16 12 100 relative Häufigkeit hj rj = n 0.18 0.30 0.24 0.16 0.12 1.00 Häufigkeitsdichte rj fj = bj 0.090 0.150 0.060 0.040 0.015 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Verteilungsfunktion F̂ (kj ) 0.18 0.48 0.72 0.88 1.00 17 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN Histogramm 0.150 f(x) 0.090 0.060 0.040 0.015 0.000 0 2 4 8 12 20 Ausprägungen x Verteilungsfunktion 1.0 ● ● 0.8 ● F(x) 0.6 ● 0.4 0.2 0.0 ● ● 0 2 4 8 12 Ausprägungen x c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 20 18 1.6. STEM-LEAF-DIAGRAMM (STAMM-BLATT-DIAGRAMM) 1.6 Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm) Eine weitere Möglichkeit größere Datensätze einschließlich ihrer Häufigkeitsverteilung graphisch übersichtlich darzustellen, ist durch das Stamm- und Blatt-Diagramm gegeben. Um ein Stamm- und Blatt-Diagramm zu erstellen, geht man wie folgt vor: (1) Ordnen der Daten der Größe nach und Feststellung des Wertebereiches, der durch x(1) und x(n) gegeben ist. (2) Unterteilen des Wertebereiches in Intervalle gleicher Breite, wobei die Breite das 0.5−, 1− oder 2−fache einer Zehnerpotenz ist. (3) Zerlegen der Beobachtungswerte in einen Stamm- und einen Blattanteil. (4) Auftragen der Beobachtungswerte. Die Vorgehensweise soll an einem Beispiel erläutert werden: Gegeben seien die folgenden geordneten Beobachtungswerte: 8 29 12 30 12 32 15 33 15 34 18 38 20 38 21 39 23 40 27 40 28 42 28 44 Wir unterteilen den Wertebereich in die gleichbreiten Intervalle [0, 10), [10, 20), . . . , [40, 50). Damit erhalten wir den Stamm: 0 1 2 3 4 Die beobachteten Werte werden dann als Blätter eingetragen, wobei z. B. der Beobachtungswert 38 durch eine 8 hinter der 3 des Stammes wiedergegeben wird (3 | 8). Gleiche Beobachtungswerte werden mehrfach eingetragen. Mit den obigen Daten erhält man dann das folgende Stamm- und Blatt-Diagramm: 0 |8 1 | 22558 2 | 0137889 3 | 0234889 4 | 0024 Bei diesem Diagramm kann man leicht sehen, in welchem Bereich sich die Daten häufen. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 19 1.7. LAGE- UND STREUUNGSMASSE 1.7 Lage- und Streuungsmaße 1.7.1 Lagemaße Definition 1.7.1 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn . Dann heißt n x̄ := 1X xi n i=1 arithmetischer Mittelwert sowie bei gegebenen Gewichten wi x̄ := w n X wi · x i n X mit i=1 wi = 1 und 0 ≤ wi ≤ 1 i=1 gewichteter arithmetischer Mittelwert. Bemerkung 1.7.2 (Eigenschaften des arithmetischen Mittelwertes) Es gilt 1. Pn 2. Pn i=1 (xi − x̄) = 0. Pn 2 2 i=1 (xi − x̄) für alle t ∈ R. i=1 (xi − t) ≥ Bemerkung 1.7.3 Liegen bei einem Merkmal X die Merkmalsausprägungen ai , i = 1, . . . , m, mit ihren relativen Häufigkeiten r(ai ) vor, dann kann man den arithmetischen Mittelwert x̄ auch wie folgt berechnen: m X x̄ = ai · r(ai ) =: ā i=1 Bemerkung 1.7.4 Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für die Berechnung des Mittelwertes die folgende Approximation x̄ = l X mi · ri i=1 Definition 1.7.5 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 20 1.7 Lagemaße Dann heißt 1 n = P x̄h := P 1 1 1 n n i=1 i=1 xi n xi harmonischer Mittelwert sowie bei gegebenen Gewichten wi x̄w h := Pn 1 i=1 wi xi mit n X wi = 1 und 0 ≤ wi ≤ 1 i=1 gewichteter harmonischer Mittelwert. Beispiel 1.7.6 (Anwendung des harmonischen Mittelwertes) Es sei • U = Gesamtumsatz • M = Gesamtmenge • P = durchschnittlicher Preis pro Mengeneinheit • ui = Einzelumsatz des i-ten Gutes • mi = umgesetzte Menge des i-ten Gutes • xi = Einzelpreis pro Mengeneinheit des i-ten Gutes P P Mit U = M · P, U = ni=1 ui , M = ni=1 mi und ui = xi · mi ergibt sich der durchschnittliche Preis pro Mengeneinheit P wie folgt: Pn Pn ui U 1 ui i=1 ui P P = = P i=1 ui = P = n wi mit wi = Pn u . n n m M i=1 i i=1 i i=1 i=1 xi xi Definition 1.7.7 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn . Dann heißt x̄g := √ n x1 · x2 · . . . · xn geometrischer Mittelwert sowie bei gegebenen Gewichten wi w1 w2 wn x̄w g := x1 · x2 · . . . · xn mit n X wi = 1 und 0 ≤ wi ≤ 1 i=1 gewichteter geometrischer Mittelwert. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 21 1.7 Lagemaße Beispiel 1.7.8 (Anwendung des geometrischen Mittelwertes) Gegeben seien die Produktionssteigerungen eines Betriebes in 4 Jahren: Jahr Produktionssteigerung 1. Jahr 2% 2. Jahr 11% 3. Jahr 4% 4. Jahr 7% Die durchschnittliche Produktionssteigerung pro Jahr x̄g it gegeben durch: √ 4 x̄g = 1.02 · 1.11 · 1.04 · 1.07 = 1.06 Definition 1.7.9 Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x(1) ≤ x(2) ≤ . . . ≤ x(n) . Jeder Wert xp , mit 0 < p < 1, für den gilt: | i ∈ {1, . . . , n} : xi ≤ xp | | i ∈ {1, . . . , n} : xi ≥ xp | ≥ p und ≥1−p n n heißt p−Quantil. D. h. ein p−Quantil xp ist ein Wert, für den mindestens ein Anteil p der Daten ≤ xp und mindestens ein Anteil 1 − p der Daten ≥ xp ist. Bemerkung 1.7.10 Ist für ein Merkmal X die empirische Verteilungsfunktion F̂X gegeben, dann ist xp ein p−Quantil, wenn gilt: F̂X (xp − 0) < p ≤ F̂X (xp ). Bemerkung 1.7.11 Aufgrund der Definition (1.7.9) ist ein p−Quantil oft nicht eindeutig. Daher definiert man, um Eindeutigkeit zu erhalten, das p−Quantil wie folgt: Definition 1.7.12 Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x(1) ≤ x(2) ≤ . . . ≤ x(n) . Weiterhin sei [y] die größte ganze Zahl ≤ y. Dann heißt: x([n·p]+1) für n · p ∈ /N xp = 1 2 · (x(n·p) + x(n·p+1) ) für n · p ∈ N p−Quantil. Speziell heißen x0,5 Median, x0,25 unteres Quartil und x0,75 oberes Quartil. Bemerkung 1.7.13 Aufgrund der Definition (1.7.12) gilt somit für den Median x̃ : ( x( n+1 ) für n ungerade 2 x̃ := x0.5 = 1 n n 2 · (x( 2 ) + x( 2 +1) ) für n gerade c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 22 1.7 Lagemaße Bemerkung 1.7.14 (Eigenschaft des Medians) Es gilt stets Pn Pn i=1 |xi − x̃| für alle t ∈ R. i=1 |xi − t| ≥ Bemerkung 1.7.15 Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für das p−Quantil xp = ki−1 + p − F̂ (ki−1 ) mit F̂ (ki−1 ) ≤ p < F̂ (ki ). fi Definition 1.7.16 Gegeben sei ein Merkmal X mit Merkmalsraum A = {a1 , ..., am } sowie den jeweiligen relativen Häufgkeiten r(ai ), i = 1, . . . , m. Dann heißt ein Wert amod mit r(amod ) ≥ r(ai ) für alle i = 1, . . . , m Modus oder Modalwert. Beispiel 1.7.17 Schulabschluss ai Verschlüsselung Relative Häufigkeit r(ai ) Volksschule 1 0.10 Realschule 2 0.25 Abitur 3 0.20 Fachhochschule 4 0.30 r(4) ≥ r(ai ) für alle ai 6= 4. Daher ist der Modus xmod = 4. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Universität 5 0.15 23 1.7 Einige Bemerkungen zu den Lagemaßen 1.7.2 Einige Bemerkungen zu den Lagemaßen Die Verteilung ist rechtsschief oder linkssteil, falls x̄ > x0.5 Rechtsschiefe Verteilung f(x) Ausprägungen x Die Verteilung ist linksschief oder rechtssteil, falls x̄ < x0.5 f(x) Linksschiefe Verteilung Ausprägungen x c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 24 1.7 Einige Bemerkungen zu den Lagemaßen Die Verteilung ist symmetrisch, falls x̄ = x0.5 f(x) Symmetrische Verteilung Ausprägungen x c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 25 1.7 Streuungsmaße 1.7.3 Streuungsmaße Definition 1.7.18 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn , n ≥ 2. Dann heißt s2X n n i=1 i=1 1X 1X = (xi − x̄)2 mit x̄ = xi n n Varianz oder Streuung und sX q = s2X Standardabweichung. Bemerkung 1.7.19 Für die Berechnung verwendet man häufig die äquivalente Formel 1 = n s2X n X ! x2i − x̄2 . i=1 Bemerkung 1.7.20 Liegen bei einem Merkmal X die Merkmalsausprägungen ai mit ihren relativen Häufigkeiten r(ai ), i = 1, . . . , m, vor, dann kann man die Varianz s2X auch wie folgt berechnen: s2X m X = (ai − ā)2 · r(ai ) = i=1 m X ! a2i · r(ai ) − ā2 mit ā = m X ai · r(ai ). i=1 i=1 Bemerkung 1.7.21 Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für die Berechnung des Mittelwertes die folgende Approximation: s2X = l X (mi − x̄) · ri = 2 i=1 l X ! m2i · ri − x̄ mit x̄ = i=1 2 l X mi · ri . i=1 Definition 1.7.22 Gegeben seien das metrisch skalierte Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn , n ≥ 2 und dem Median x̃. Dann heißt n d= 1X |xi − x̃| n i=1 mittlere absolute Abweichung. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.7 Streuungsmaße 26 Definition 1.7.23 Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x(1) ≤ x(2) ≤ . . . ≤ x(n) .Dann heißt x(n) − x(1) Spannweite und x0,75 − x0,25 Interquartilsabstand. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 27 1.7 Box-Plot 1.7.4 Box-Plot Eine kompakte graphische Darstellung, die besonders zum Vergleich wichtiger Kenngrößen mehrerer Datensätze geeignet ist, liegt in dem sogenannten Box-Plot vor. Als Box wird das Rechteck bezeichnet, welches durch das obere und untere Quartil begrenzt wird. Die Box umfasst 50% der Daten. Durch die Länge der Box ist der Interquartilsabstand abzulesen. Dies ist ein Maß der Streuung, welches durch die Differenz des oberen und unteren Quartils bestimmt ist. Als weiteres Quartil ist der Median in der Box eingezeichnet, welcher durch seine Lage innerhalb der Box einen Eindruck von der Schiefe der den Daten zugrunde liegenden Verteilung vermittelt.Der Boxplot wird über einem Zahlenstrahl dargestellt und fasst verschiedene Maße der zentralen Tendenz, Streuung und Schiefe in einem Diagramm zusammen. Alle Werte der Fünf-Punkte-Zusammenfassung, also der Median, die zwei Quartile und die beiden Extremwerte, sind dargestellt. Als Whisker“ werden die horizontalen/vertikalen Linien bezeichnet. ” Die Länge der Whisker beträgt maximal das 1,5-fache des Interquartilsabstands und wird immer durch einen Wert aus den Daten bestimmt. Werte, die über dieser Grenze liegen, werden separat in das Diagramm eingetragen und als Ausreißer bezeichnet. Gibt es keine Werte außerhalb der Whisker, so wird die Länge des Whiskers durch den maximalen bzw. minimalen Wert festgelegt. Definition 1.7.24 Gegeben sei ein metrisch skaliertes Merkmal X mit den geordneten Beobachtungswerten x(1) ≤ x(2) ≤ . . . ≤ x(n) und die aus diesen Daten berechneten Lagemaße: (1) Unteres Quartil: x0,25 (2) Median: x0,5 (3) Oberes Quartil: x0,75 . (4) Interquartilsabstand: x0,75 − x0,25 . (5) Whiskers: 1.5 × (x0,75 − x0,25 ). (6) Kleinster Wert x(1) und größter Wert x(n) . Dann heißt die folgende graphische Darstellung Box-Plot. u n te re s Q u a r til A u s r e iß e r o o x (1 ) o "W M e d ia n o b e re s Q u a r til u n te re r h is k e r s " o c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung "W o b e re r h is k e r s " o x (n ) 28 1.7 Box-Plot Bemerkung 1.7.25 Um mehr extreme Beobachtungswerte explizit sichtbar zu machen, zieht man bisweilen die links und rechts an die Box angesetzten Linien nicht bis x(1) bzw. x(n) durch, sondern für ein geeignet gewähltes k ∈ N bis x(k+1) bzw. x(n−k) und zeichnet x(1) , ..., x(k) und x(n−k+1) , ..., x(n) einzeln ein. Beispiel 1.7.26 Gegeben seien die Daten aus Beispiel 1.5.7. Der Boxplot ist dann wie folgt gegeben: Box−Plot ● 5 10 15 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung ● 20 29 1.8. HÄUFIGKEITSVERTEILUNGEN ZWEIDIMENSIONALER MERKMALE 1.8 1.8.1 Häufigkeitsverteilungen zweidimensionaler Merkmale Grundlagen Definition 1.8.1 Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und X := (X1 , X2 ) : Ω → M ⊆ R2 eine Abbildung mit X(ω) =: (X1 (ω), X2 (ω)) = (xi , yi ), i = 1, . . . , n. X heißt 2-dimensonales Merkmal und die resultierenden Werte (xi , yi ) Beobachtungswerte oder Merkmalswerte. Die Menge A := {a ∈ M : ∃ ω ∈ Ω mit X1 (ω) = a} = X1 (Ω) heißt Merkmalsraum von X1 und die Elemente von A heißen Merkmalsausprägungen von X1 . Entsprechend heißt die Menge B := {b ∈ M : ∃ ω ∈ Ω mit X2 (ω) = b} = X2 (Ω) Merkmalsraum von X2 und die Elemente von B heißen Merkmalsausprägungen von X2 . Definition 1.8.2 Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das 2-dimensionale Merkmal X = (X1 , X2 ). Man bezeichnet die tabellarische Darstellung ωi X(ω i ) = (xi , yi ) ω1 (x1 , y1 ) ω2 (x2 , y2 ) ··· ··· ωn (xn , yn ) der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste. Beispiel 1.8.3 Von 28 Studienanfängern wurden die Abiturnoten in Mathematik und Englisch erfasst. Man erhielt folgende Urliste (Mathematiknote, Englischnote): (4, 2); (3, 1); (3, 3); (2, 3); (4, 4); (3, 4); (3, 3); (1, 3); (3, 2); (5, 3); (3, 3); (3, 4); (3, 3); (3, 4); (2, 3); (2, 1); (2, 2); (3, 4); (3, 3); (3, 3); (1, 1); (4, 5); (5, 4); (2, 5); (2, 2); (2, 3); (2, 3); (3, 4). Definition 1.8.4 Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das zweidimensionale Merkmal X = (X1 , X2 ) mit den Merkmalsräumen A = {a1 , ..., al } und B = {b1 , ..., bm }. Man bezeichnet hij := h(ai , bj ) := |ω ∈ Ω : X(ω) = (ai , bj )| , (ai , bj ) ∈ A × B, i = 1, . . . , l, j = 1, . . . , m als absolute Häufigkeit der Merkmalsausprägung (ai , bj ), i = 1, . . . , l, j = 1, . . . , m und rij := r(ai , bj ) := h(ai , bj ) , i = 1, . . . , l, j = 1, . . . , m, n als relative Häufigkeit der Merkmalsausprägung (ai , bj ), i = 1, . . . , l, j = 1, . . . , m. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 30 1.8 Grundlagen Bemerkung 1.8.5 Es gilt: l X m X hij = n und i=1 j=1 l X m X rij = 1. i=1 j=1 Definition 1.8.6 Gegeben sei ein zweidimensionales Merkmal X = (X1 , X2 ) mit den Merkmalsräumen A = {a1 , ..., al }, B = {b1 , ..., bm } und den absoluten Häufigkeiten hij , i = 1, . . . , l, j = 1, . . . , m. Man nennt die tabellarische Darstellung B b1 b2 ··· bm a1 a2 .. . h11 h21 .. . h12 h22 .. . ··· ··· .. . h1m h2m .. . al hl1 hl2 ··· hlm A Kontingenztabelle. Beispiel 1.8.7 (Fortsetzung von Beispiel 1.8.3) Englischnote bj Mathematiknote ai 1 2 3 4 5 1 2 3 4 5 1 1 1 − − − 2 1 1 − 1 4 6 − 1 − − 5 1 1 − 1 − 1 − Bemerkung 1.8.8 An Stelle der absoluten Häufigkeiten hij in der Kontingenztabelle können auch die relativen Häufigkeiten rij stehen. Bemerkung 1.8.9 Im Gegensatz zur eindimensionalen Häufigkeitstabelle aus Definition 1.4.4 sind in der Tabelle von Definition 1.8.6 nicht alle relativen Häufigkeiten hij größer als Null, da nicht jedes Paar (ai , bj ) auch Trägerpunkt, d. h. Bildpunkt eines ω ∈ Ω sein muss. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 31 1.8 Grundlagen Definition 1.8.10 Gegeben sei ein zweidimensionales Merkmal X = (X1 , X2 ) mit den Pmabsoluten Häufigkeiten hij bzw. mit den relativen Häufigkeiten rij . Dann heißt hi· := j=1 hij , i = 1, ..., l, abPl solute Randhäufigkeit des Merkmals X1 und i=1 hij , j = 1, ..., m, absolute P h·j := r , i = 1, ..., l, relative Randhäufigkeit Randhäufigkeit des Merkmals X2 bzw. ri· := m j=1 ij Pl des Merkmals X1 und r·j := i=1 rij , j = 1, ..., m, relative Randhäufigkeit des Merkmals X2 . Beispiel 1.8.11 (Fortsetzung von Beispiel 1.8.3) Englischnote Mathematiknote h·j := 1 2 3 4 5 Pl i=1 hij 1 2 3 4 5 1 1 1 − − 3 − 2 1 1 − 4 1 4 6 − 1 12 − − 5 1 1 7 − 1 − 1 − 2 Pl c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung hi· := Pm = 2 8 13 3 2 Pm i=1 hi· j=1 hij j=1 h·j = 28 1.8 Bedingte Häufigkeitsverteilungen und Unabhängigkeit 1.8.2 32 Bedingte Häufigkeitsverteilungen und Unabhängigkeit Definition 1.8.12 Es sei X = (X1 , X2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten rij . Dann heißt für festes j rij hij r(ai |bj ) := = für alle ai r·j h·j bedingte relative Häufigkeit von ai unter der Bedingung bj . Entsprechend ist für ein festes i r(bj |ai ) := rij hij = für alle bj ri· hi· die bedingte relative Häufigkeit von bj unter der Bedingung ai definiert. Beispiel 1.8.13 (Fortsetzung von Beispiel 1.8.3) Es sei a2 ≡ Mathematiknote 2 und b3 ≡ Englischnote 3. Dann gilt für die bedingte relative Häufigkeit: h23 4 1 r(a2 | b3 ) = = = h·3 12 3 Definition 1.8.14 Es sei X =(X1 , X2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten rij . Die Merkmale X1 und X2 heißen unabhängig, wenn für die entsprechenden relativen Häufigkeiten die folgende Beziehung gilt: rij = ri· · r·j für alle i und j. Folgerung 1.8.15 Sind die Merkmale a und b unabhängig, dann gilt für die bedingten relativen Häufigkeiten r(ai |bj ) = r(ai ) für alle bj und i bzw. r(bj |ai ) = r(bj ) für alle ai und j. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 33 1.9. ABHÄNGIGKEITSMASSE 1.9 1.9.1 Abhängigkeitsmaße Kardinalskalierte Merkmale Definition 1.9.1 Gegeben sei ein zweidimensionales Merkmal X = (X, Y ) mit den Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ). Dann heißt sXY n n n i=1 i=1 i=1 1X 1X 1X = (xi − x̄) · (yi − ȳ) mit x̄ = xi und ȳ = yi n n n empirische Kovarianz zwischen X und Y. Folgerung 1.9.2 Für die empirische Kovarianz zwischen X und Y gilt die folgende Formel: ! n 1 X sXY = xi · yi − x̄ · ȳ n i=1 Folgerung 1.9.3 Liegt für das zweidimensionale Merkmal X = (X, Y ) die absolute Häufigkeitstabelle mit den Randverteilungen vor, B b1 b2 ··· bm hi· a1 a2 .. . h11 h21 .. . h12 h22 .. . ··· ··· .. . h1m h2m .. . h1· h2· .. . al h·j hl1 h·1 hl2 h·2 ··· ··· hlm h·m hl· n A dann gilt für die empirische Kovarianz sXY l X m l X m X X 1 1 = (ai − ā)(bj − b̄) · hij = ai bj · hij − ā · b̄ n n i=1 j=1 mit ā = i=1 j=1 l m i=1 j=1 1X 1X ai · hi· und b̄ = bj · h·j . n n c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 34 1.9 Kardinalskalierte Merkmale Definition 1.9.4 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ). Dann heißt rXY 1 Pn (xi − x̄) · (yi − ȳ) n i=1 = s 1 Pn 1 Pn 2 2 (xi − x̄) · (yi − ȳ) n i=1 n i=1 n n i=1 i=1 1X 1X mit x̄ = xi und ȳ = yi n n Pearson’scher Korrelationskoeffizient zwischen X und Y. Folgerung 1.9.5 Liegt für das zweidimensionale Merkmal X =(X, Y ) die Häufigkeitstabelle mit den Randverteilungen vor, B b1 b2 ··· bm hi· a1 a2 .. . h11 h21 .. . h12 h22 .. . ··· ··· .. . h1m h2m .. . h1· h2· .. . al h·j hl1 h·1 hl2 h·2 ··· ··· hlm h·m hl· n A dann gilt für den empirischen Korrelationskoeffizienten Pl Pm j=1 (ai − ā)(bj − b̄) · hij i hP i l m 2·h 2·h (a − ā) (b − b̄) i i· j ·j i=1 j=1 rXY = rh P mit ā = i=1 l m i=1 j=1 1X 1X ai · hi· und b̄ = bj · h·j n n Bemerkung 1.9.6 Liegt ein klassiertes Merkmal vor, dann sind die ai bzw. bj als Klassenmitten zu interpretieren. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.9 Kardinalskalierte Merkmale 35 Satz 1.9.7 Es seien X =(X, Y ) ein zweidimensionales Merkmal und rXY der Pearson’sche Korrelationskoeffizient. Dann gilt: (1) −1 ≤ rXY ≤ 1, (2) rXY = 1, (bzw. = −1), genau dann wenn Y = a · X + b mit a > 0, (bzw. mit a < 0), gilt. (3) Sind X und Y unabhängig, so gilt rXY = 0. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 36 1.9 Ordinalskalierte Merkmale 1.9.2 Ordinalskalierte Merkmale Definition 1.9.8 Gegeben sei eine mindestens ordinal skalierte Beobachtungsreihe x1 , x2 , . . . xn . Dann heißt ri := Rang(xi ) := 1 + n X d(xi − xj ) mit j=1 j6=i 0 für u < 0 1 d(u) = für u = 0 2 1 für u > 0 Rang von xi , i = 1, . . . , n. Definition 1.9.9 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) und den Rängen ri := Rang(xi ) und si := Rang(yi ), i = 1, . . . , n. Dann heißt 1 Pn (ri − r̄) · (si − s̄) n i=1 rS = s 1 Pn 1 Pn 2 2 (ri − r̄) · (si − s̄) n i=1 n i=1 mit r̄ = n n i=1 i=1 1X 1X ri und s̄ = si n n Spearmanscher Rangkorrelationskoeffizient zwischen X und Y. Satz 1.9.10 Gegeben seien die Voraussetzungen aus Definition (1.9.9). Dann gilt: n · (n + 1)2 r · s − i i=1 i 4 rS = s . 2 Pn 2 n · (n + 1)2 Pn 2 n · (n + 1) · i=1 ri − i=1 si − 4 4 Pn Satz 1.9.11 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) mit xi 6= xj für i 6= j und yi 6= yj für i 6= j und den Rängen ri := Rang(xi ) und si := Rang(yi ). Dann gilt: P 6 · ni=1 d2i mit di = ri − si . rS = 1 − n · (n2 − 1) c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.9 Ordinalskalierte Merkmale 37 Satz 1.9.12 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) und den Rängen ri := Rang(xi ) und si := Rang(yi ). Dann gilt: (1) −1 ≤ rS ≤ 1, (2) rS = 1 ist äquivalent mit ri = si für alle i, (3) rS = −1 ist äquivalent mit ri = n + 1 − si für alle i. Bemerkung 1.9.13 Da der Spearmansche Rangkorrelationskoeffizient nur auf die Ränge der Messwerte angewendet wird, deutet ein Wert in der Nähe von ±1 auch bei kardinal skalierten Merkmalen nicht unbedingt auf einen starken linearen Zusammenhang der Messwerte hin, sondern möglicherweise nur auf ein monotones Verhalten der beiden Messwertefolgen. Werte in der Nähe von 0 deuten darauf hin, dass wenig oder kein monotoner Zusammenhang zwischen den Messwertefolgen vorliegt. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 38 1.9 Beliebiges Skalenniveau 1.9.3 Beliebiges Skalenniveau Definition 1.9.14 Für das zweidimensionale Merkmal X = (X, Y ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der absoluten Häufigkeiten hij und den absoluten Randhäufigkeiten hi· bzw. h·j gegeben: B b1 b2 ··· bm hi· a1 a2 .. . h11 h21 .. . h12 h22 .. . ··· ··· .. . h1m h2m .. . h1· h2· .. . al h·j hl1 h·1 hl2 h·2 ··· ··· hlm h·m hl· n A mit hi· > 0 für i = 1, ..., l und h·j > 0 für j = 1, ..., m. Man bezeichnet χ2XY := hi· · h·j 2 ] n hi· · h·j n l X m [hij − X i=1 j=1 als quadratische Kontingenz der Merkmale X und Y, ϕ2XY := 1 · χ2 n XY als mittlere quadratische Kontingenz der Merkmale X und Y. s s ϕ2XY χ2XY C := + = 1 + ϕ2XY n + χ2XY als Pearsonschen Kontingenzkoeffizienten und s min{l, m} Ckorr = C · min{l, m} − 1 als korrigierten Pearsonschen Kontingenzkoeffizienten. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1.9 Beliebiges Skalenniveau 39 Folgerung 1.9.15 Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (1.9.14) und l, m > 1. Dann gilt: (1) ϕ2XY = (2) ϕ2XY = Pm [rij − ri· · r·j ]2 hij h·j hi· mit rij = , ri· = , r·j = , j=1 i=1 ri· · r·j n n n ! 2 Xl Xm rij − 1, i=1 j=1 ri· · r·j Pl (3) 0 ≤ ϕ2XY ≤ min{l, m} − 1, (4) 0 ≤ C < 1, (5) 0 ≤ Ckorr ≤ 1, (6) X und Y sind genau dann unabhängig, falls ϕ2XY = C = Ckorr = 0. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 2 Wahrscheinlichkeitsrechnung 2.1 Einleitung Wohl jedem ist seit früher Jugend das Auftreten des Zufalls bei Glücks- und Gesellschaftsspielen wie Lotto-Ziehungen, Roulette oder Skat bzw. Mensch ärgere dich nicht“ geläufig. ” Hierbei tritt der Zufall in einer besonders einfachen und durchsichtigen“ Form auf. Ziel dieser ” Vorlesung ist es, dem Zuhörer einen ersten Einstieg in die Welt des Zufalls zu vermitteln und ihn in die Lage zu versetzen, stochastische Phänomene korrekt zu beurteilen. Natürlich beschränkt sich der Anwendungsbereich der Stochastik nicht nur auf Glücksspiele. Stochastische Fragestellungen treten in unterschiedlichen Anwendungsbereichen auf wie z. B. • Informatik (z. B. Auslastung in Telefon- und Daten-Netzen) • Medizin (z. B. Vergleich des Erfolges verschiedener Therapien) • Versicherungswesen (Prämienkalkulation) • Produktion (z. B. statistische Qualitätskontrolle, Lagerhaltung) • Wirtschaft (Portfolioanalyse, Marketing-Strategien) • Verkehrswesen (Studium von Warteschlangensystemen) • Biologie (Planung und Auswertung von Versuchen) • Meinungsforschung (Gewinnung repräsentativer Stichproben und Hochrechnen“ auf die ” Grundgesamtheit.) Diese Anwendungsbereiche unterstreichen die wachsende Bedeutung der Stochastik für die berufliche Laufbahn. Zum Schluss der Einleitung noch ein Beispiel aus dem Gebiet der Meinungsforschung. 40 41 2.1. EINLEITUNG Beispiel 2.1.1 Bundestagswahl am 18. September 2005 Vorläufiges amtliches Endergebnis der Bundestagswahl: SPD 34.3 CDU/CSU 35.2 GRÜNE 8.1 FDP 9.8 LINKE 8.7 ANDERE 3.9 GRÜNE 8.0 FDP 10.5 LINKE 8.0 ANDERE 3.5 GRÜNE 8.5 FDP 10.5 LINKE 7.5 ANDERE 4.0 Prognose des ZDF um 18.00 Uhr: SPD 33.0 CDU/CSU 37.0 Prognose der ARD um 18.00 Uhr: SPD 34.0 CDU/CSU 35.5 Aus diesen beiden Prognosen wird ersichtlich, dass mit Hilfe der Stochastik schon kurz nach Schließung der Wahllokale sehr verlässliche Ergebnisse bzgl. des vorläufigen amtlichen Endergebnisses durch Hochrechnung geliefert werden konnten. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 42 2.2. DAS WAHRSCHEINLICHKEITSTHEORETISCHE MODELL 2.2 2.2.1 Das wahrscheinlichkeitstheoretische Modell Der Ergebnisraum Ω Um Vorgänge und Situationen der wirklichen Welt mathematisch beschreiben zu können, muss man durch Abstraktion mathematische Modelle konstruieren, die die wesentlichen Eigenschaften der Wirklichkeit wiedergeben. Ein erster Schritt bei der Modellbildung besteht darin, die zu betrachtenden Ergebnisse eines Zufallsexperimentes zu einer mathematischen Menge zusammenzufassen. Es ist üblich, diese Menge als Ergebnisraum zu bezeichen und durch Ω zu symbolisieren. Einige Beispiele mögen dies untermauern: Zufallsexperiment Ergebnisraum 1. Werfen mit einem Würfel Ω = {1, 2, 3, 4, 5, 6} 2. Zweimaliges Werfen einer Münze Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)} 3. Erfassung der Ausschussteile, die auf einer Maschine während einer Schicht produziert werden 4. Ermittlung der Lebensdauer von PKW-Reifen Ω = {0, 1, 2, 3, . . . , n} Ω = {t : t ≥ 0, t ∈ R} Erster Schritt der Modellbildung: Für jedes Zufallsexperiment wird eine Menge Ω von Ergebnissen so festgelegt, dass jedes dieser Ergebnisse als ein möglicher Versuchsausgang interpretiert werden kann. Dabei soll Ω so gewählt werden, dass bei jeder Durchführung des Versuchs der Ausgang durch eines und nur eines dieser Ergebnisse gekennzeichnet ist. Da jeder Ergebnisraum durch einen Abstraktionsprozess aus dem realen Zufallsexperiment gewonnen wird, ist es verständlich, dass umgekehrt zu einem mathematischen Ergebnisraum Ω durchaus verschiedene reale Zufallsexperimente gehören können. So kann Ω = {0, 1} i. a. aufgefasst werden als Ergebnisraum folgender realer Zufallsexperimente: 1. Münzwurf mit den Ergebnissen 0 := Wappen und 1 := Zahl 2. Würfelwurf mit den Ergebnissen 0 := gerade Augenzahl und 1 := ungerade Augenzahl 3. Ziehen einer Kugel aus einer Urne mit roten und schwarzen Kugeln mit den Ergebnissen 0 := rot und 1 := schwarz 4. Qualitätskontrolle mit den Ergebnissen 0 := brauchbar und 1 := unbrauchbar 5. Ziehen eines Loses mit den Ergebnissen 0 := Niete und 1 := Treffer c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Ereignisse und Ereignisraum F 2.2.2 43 Ereignisse und Ereignisraum F Reale Fragestellungen beziehen sich meist nicht auf einzelne Ergebnisse, die bei einem Zufallsexperiment auftreten, sondern auf gewisse Teilmengen von Ω. Dies soll an einem Beispiel erläutert werden. Beispiel 2.2.1 Eine Urne enthalte 3 rote Kugeln, 2 schwarze Kugeln und 1 grüne Kugel. Es werden 2 Kugeln nacheinander ohne Zurücklegen gezogen. Für dieses Zufallsexperiment eignet sich folgender Ergebnisraum: Ω = {(r, r), (r, s), (r, g), (s, r), (s, s), (s, g), (g, r), (g, s)}. Interessiert man sich z. B. dafür, dass zwei gleichfarbige Kugeln gezogen werden, kann dies durch die Menge A1 = {(r, r), (s, s)} dargestellt werden. Solche interessierenden Teilmengen von Ω nennt man Ereignisse. Interessiert man sich dafür, mindestens eine rote Kugel zu ziehen, so kann dieses Ereignis durch die Menge A2 = {(r, r), (r, s), (r, g), (s, r), (g, r)} dargestellt werden. Interessiert man sich für das Ereignis, keine rote Kugel zu ziehen, so kann dieses Ereignis durch die Menge A3 = {(s, s), (s, g), (g, s)} dargestellt werden. Wie man leicht sieht, kann man das Ereignis A3 auch mittels Komplement darstellen. Es gilt nämlich A3 = Ā2 = {(s, s), (s, g), (g, s)}. Interessiert man sich für das Ereignis, genau zwei rote Kugeln zu ziehen, so kann dieses Ereignis durch die Menge A4 = {(r, r)} dargestellt werden. Das Ereignis A4 lässt sich aber auch als Durchschnitt darstellen, nämlich A4 = A1 ∩ A2 . Man sieht, dass die Menge {(r, r)} eine einelementige Teilmenge aus Ω ist. Solche einelementigen Teilmengen aus Ω nennt man häufig Elementarereignisse. Interessiert man sich für das Ereignis, genau zwei gleichfarbige Kugeln oder genau eine schwarze und grüne Kugel zu ziehen, so kann dieses Ereignis durch die Menge A5 = {(r, r), (s, s), (s, g), (g, s)} dargestellt werden. Auch hier sieht man leicht, dass sich das Ereignis A5 als Vereinigung darstellen lässt, nämlich A5 = A1 ∪ A3 . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 44 2.2 Mengenalgebra 2.2.3 Mengenalgebra Definition 2.2.2 Ω sei eine beliebige Menge. Eine Menge A heißt Teilmenge von Ω, i. Z.: A ⊂ Ω, wenn jedes Element von A auch Element von Ω ist, d. h. ω ∈ A ⇒ ω ∈ Ω für alle ω ∈ A. 9 ) Definition 2.2.3 Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Vereinigung von A und B, i. Z.: A ∪ B ist wie folgt definiert: A ∪ B := {ω ∈ Ω : ω ∈ A ∨ ω ∈ B}. 9 ) ) 9 * * c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 45 2.2 Mengenalgebra Definition 2.2.4 Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Der Durchschnitt von A und B, i. Z.: A ∩ B ist wie folgt definiert: A ∩ B := {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}. 9 ) 8 * ) * Definition 2.2.5 Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Differenz von A und B, i. Z.: A \ B ist wie folgt definiert: A \ B := {ω ∈ Ω : ω ∈ A ∧ ω ∈ / B}. 9 ) \ * ) * c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 46 2.2 Mengenalgebra Definition 2.2.6 Ω sei eine beliebige Menge und A eine Teilmenge von Ω. Das Komplement von A, i. Z.: Ā ist wie folgt definiert: Ā := {ω ∈ Ω : ω ∈ / A}. 9 ) ) Definition 2.2.7 Ω sei eine beliebige Menge. Die Gesamtheit aller Teilmengen von Ω heißt Potenzmenge, i. Z.: P(Ω), d. h.: P(Ω) = {A : A ⊂ Ω}. Beispiel 2.2.8 Ω = {1, 2, 3} P(Ω) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, Ω} Satz 2.2.9 Ist Ω endlich mit n Elementen, d. h. ist Ω = {ω 1 , . . . , ω n }, dann besitzt die Potenzmenge P(Ω) 2n Elemente. Satz 2.2.10 (Rechenregeln) Ω sei eine beliebige Menge und A, B, C seien Teilmengen von Ω. Dann gilt: (1) (2) (3) A∪∅=A A∪A=A A∩∅=∅ A∪Ω=Ω A∩B ⊂A A∩A=A A∩Ω=A A∩B ⊂B A∪B =B∪A Kommutativgesetz A∩B =B∩A A ∪ (B ∪ C) = (A ∪ B) ∪ C Assoziativgesetz A ∩ (B ∩ C) = (A ∩ B) ∩ C c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 47 2.2 Mengenalgebra (4) (5) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) Distributivgesetz A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (A ∪ B) = Ā ∩ B̄ De Morgansche Gesetze (A ∩ B) = Ā ∪ B̄) (6) A = (A ∩ B) ∪ (A ∩ B̄) mit (A ∩ B) ∩ (A ∩ B̄) = ∅ Für die Verknüpfung von Ereignissen ergeben sich daraus die folgenden Darstellungen: A oder B oder beide treten ein“ ” entspricht ω ∈A∪B A und B treten (beide) ein“ ” entspricht ω ∈A∩B A und B treten nie gleichzeitig ein“ ” entspricht A∩B =∅ A tritt nicht ein“ ” entspricht ω ∈ Ā ⇔ ω ∈ /A A tritt ein, aber B tritt nicht“ ” entspricht ω∈A\B mindestens ein Ai tritt ein“ ” entspricht ω∈ alle Ai treten ein“ ” entspricht ∞ S Ai i=1 ω∈ Bemerkung 2.2.11 Statt A ∩ B = ∅ sagt man auch A und B sind disjunkt“. ” c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung ∞ T i=1 Ai 48 2.2 Mengenalgebra Zweiter Schritt der Modellbildung: Ist die Ergebnismenge wie in Beispiel 2.2.1 endlich oder ist die Ergebnismenge Ω auch abzählbar unendlich, dann bezeichnet man jede Teilmenge A ⊂ Ω als Ereignis. Die Menge aller Ereignisse ist die Potenzmenge und heißt in diesem Kontext Ereignisalgebra. Die leere Menge ∅ nennt man unmögliches Ereignis, da ω ∈ ∅ nie auftritt. Das Ereignis Ω nennt man sicheres Ereignis, da Ω immer eintritt. Ein Ereignis der Form A = {ω} für ein ω ∈ Ω heißt Elementarereignis. Bei der Ermittlung der Lebensdauer von PKW Reifen ist Ω = {t : t ≥ 0, t ∈ R}, d. h. Ω ist überabzählbar. Ein tiefliegendes Ergebnis der Mathematik zeigt, dass bei überabzählbaren Ergebnismengen Ω nicht allen Teilmengen von Ω eine Wahrscheinlichkeit zugeordnet werden kann. Als Ausweg betrachtet man nicht alle Teilmengen von Ω, sondern eine kleinere Auswahl F ⊆ P(Ω), so dass Ereignisse sinnvoll kombiniert werden können. Dies führt dann zu folgender Definition: Definition 2.2.12 (σ-Algebra, Ereignisalgebra) Es sei Ω 6= ∅ eine Menge und F eine Menge von Teilmengen von Ω, d. h. F ⊆ P(Ω). F heißt σ-Algebra (Ereignisalgebra) über Ω, wenn gilt: (1) Ω ∈ F, (2) A ∈ F ⇒ Ā ∈ F, (3) A1 , A2 , . . . ∈ F ⇒ S Aj ∈ F. j∈N Satz 2.2.13 Es sei F eine σ-Algebra über Ω 6= ∅. Dann gilt (1) ∅ ∈ F, (2) A1 , A2 , . . . ∈ F ⇒ T Aj ∈ F. j∈N Bemerkung 2.2.14 Eine σ-Algebra ist somit stabil bezüglich (1) Komplementbildung (2) abzählbar unendlicher Vereinigungsbildung (3) abzählbar unendlicher Durchschnittsbildung c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 49 2.2 Mengenalgebra Folgerung 2.2.15 Es sei F eine σ-Algebra über Ω 6= ∅, weiterhin sei n ∈ N. Dann gilt: (1) A1 , ..., An ∈ F ⇒ n S Aj ∈ F, j=1 (2) A1 , ..., An ∈ F ⇒ n T Aj ∈ F, j=1 (3) A, B ∈ F ⇒ A \ B ∈ F. Bemerkung 2.2.16 Ist E ⊂ P(Ω) irgendeine Teilmenge von Ω, dann gibt es eine kleinste σ-Algebra, bezeichnet mit σ(E), die E umfasst, nämlich den Durchschnitt aller σ-Algebren, die E umfassen. E nennt man Erzeuger. Beispiel 2.2.17 • Die Potenzmenge P(Ω) ist die größte σ-Algebra über Ω. • F ={∅, Ω} ist die kleinste σ-Algebra über Ω. • Es sei A ⊂ Ω 6= ∅ und Ω 6= A 6= ∅, dann ist F ={A, Ā, ∅, Ω} die kleinste σ-Algebra über Ω, die A enthält. • Es sei Ω = {(x, y) : x2 + y 2 ≤ 1}. Weiterhin betrachtet man die folgenden Ereignisse: 1 1 2 2 R1 = {(x, y) : x2 + y 2 ≤ }, R2 = {(x, y) : < x2 + y 2 ≤ } und R3 = {(x, y) : < 3 3 3 3 2 2 x + y ≤ 1}, dann ist F ={R1 , R2 , R3 , R1 ∪ R2 , R1 ∪ R3 , R2 ∪ R3 , ∅, Ω} die kleinste σ-Algebra über Ω, die R1 , R2 , R3 enthält. Bemerkung 2.2.18 Für uns sind die folgenden Fälle wichtig: • Ω endlich oder abzählbar unendlich. Dann nimmt man als Ereignisalgebra F = P(Ω). • Ω = R. Hier konstruiert man die sogenannte Borelsche σ-Algebra B, indem man als Erzeuger die Menge aller endlichen Intervalle der Form (a, b] nimmt mit a ≤ b, a, b ∈ R. Die Elemente von B heißen Borelsche Mengen des R. • Ω = X ⊂ R. Ereignisse sind hier alle Mengen der Form B ∩ X, wobei B eine Borelsche Teilmenge von R ist. Man wählt daher die Ereignisalgebra B(X) = {B ∩ X : B ∈ B}. B(X) heißt auch Spur-σ-Algebra. • Ω = Rn . Hier konstruiert man die sogenannte Borelsche σ-Algebra Bn , indem man als Erzeuger die Menge aller Rechtecke der Form (a, b] = (a1 , b1 ] × (a2 , b2 ] × · · · × (an , bn ] nimmt mit a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ Rn . Die Elemente von Bn heißen Borelsche Mengen des Rn . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Mengenalgebra 50 • Ω = X ⊂ Rn . Ereignisse sind hier alle Mengen der Form B ∩ X, wobei B eine Borelsche Teilmenge von Rn ist. Man wählt daher die Ereignisalgebra B(X) = {B ∩ X : B ∈ Bn }. B(X) heißt ebenfalls Spur-σ-Algebra. Bemerkung 2.2.19 Die Borel σ−Algebra B besitzt folgende Eigenschaften: (1) Jede einelementige Teilmenge von R ist Element von B. (2) Jede endliche Teilmenge von R ist Element von B. (3) Jede abzählbar unendliche Teilmenge von R ist Element von B. (4) Jedes beliebige Intervall (halboffen, abgeschlossen) aus R ist Element von B. Bemerkung 2.2.20 Die Borel σ−Algebra Bn besitzt folgende Eigenschaften: (1) A ∈ Bn , falls A abzählbare Teilmenge von Rn , (2) In ∈ Bn , falls In = (a1 , b1 ] × (a2 , b2 ] × · · · × (an , bn ] ein beliebiges n-dimensionales Rechteck im Rn ist. (4) O ∈ Bn für alle offenen Teilmengen O ⊂ Rn , (5) G ∈ Bn für alle abgeschlossenen Teilmengen G ⊂ Rn . Definition 2.2.21 Ein Paar (Ω, F) bestehend aus einer nichtleeren Menge Ω und einer σ−Algebra F über Ω nennt man Messraum. Ω heißt Ergebnisraum und die Elemente von Ω heißen Ergebnisse, F heißt Ereignisraum und die Elemente von F heißen Ereignisse. Bemerkung 2.2.22 Jedes Ereignis ist Teilmenge von Ω, aber nicht jede Teilmenge von Ω ist auch ein Ereignis. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Wahrscheinlichkeitsräume 2.2.4 51 Wahrscheinlichkeitsräume 3. Schritt der Modellbildung Die Aufgabe im 3. Schritt wird darin bestehen, jedem Ereignis A aus dieser σ-Algebra bzw. Ereignisalgebra eine geeignete Zahl zuzuordnen, die uns die Chance dafür angibt, dieses Ereignis bei einem Zufallsexperiment zu erhalten, d. h. man sucht eine auf der Menge der Ereignisse derart definierte Funktion, dass die einzelnen Funktionswerte sinnvollerweise Wahrscheinlichkeiten heißen dürfen. Aufgrund dieser 3 Schritte ist man jetzt in der Lage, ein Zufallsexperiment bzw. einen Wahrscheinlichkeitsraum zu definieren. Definition 2.2.23 Es sei (Ω, F) ein Messraum und P : F → R eine Abbildung. Das Tripel (Ω, F, P) heißt Wahrscheinlichkeitsraum oder Zufallsexperiment, wenn gilt: (A1) A ∈ F ⇒ P(A) ≥ 0, (A2) (A1 , A2 , .... ∈ F) und (Ai ∩ Aj = ∅ für i 6= j) ⇒ ∞ ∞ S P P( Ai ) = P(Ai ), i=1 i=1 (A3) P(Ω) = 1. P heißt Wahrscheinlichkeit oder Wahrscheinlichkeitsmaß. Bemerkung 2.2.24 (A1) ist die Forderung der Nichtnegativität einer Wahrscheinlichkeit, (A2) ist die Forderung der σ-Additivität, (A3) ist die Forderung der Normierung. Bemerkung 2.2.25 (A1), (A2) und (A3) heißen auch die Axiome von Kolmogoroff. Bemerkung 2.2.26 Wird ein Wahrscheinlichkeitsraum (Ω, F, P) zur Beschreibung eines Zufallsexperimentes benutzt, so sagt man, ein bestimmtes Ereignis A ∈ F sei bei einer Durchführung des Experimentes eingetreten, wenn das beobachtete Ergebnis ω ∈ Ω ein Element von A ist, d. h. wenn gilt ω ∈ A. Satz 2.2.27 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B ∈ F. Dann gilt: (1) P(Ā) = 1 − P(A); (2) P(A ∪ B) = P(A) + P(B) − P(A ∩ B); (3) P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C); (4) P(A ∪ B) ≤ P(A) + P(B); c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 52 2.2 Wahrscheinlichkeitsräume (5) A ⊆ B ⇒ P(A) ≤ P(B); (6) P(A ∩ B̄) = P(A) − P(A ∩ B); (7) P(A ∩ B) ≥ 1 − (P(Ā) + P(B̄)); (8) P(A) ≤ 1. Satz 2.2.28 Es seien Ω ein endlicher oder abzählbar unendlicher Ergebnisraum und P F := P(Ω). Weiterhin sei p : Ω → [0, 1] eine Abbildung mit p(ω) ≥ 0 für alle ω ∈ Ω und ω∈Ω p(ω) = 1. Dann ist durch X P(A) := p(ω) für alle A ∈ F ω∈A eine Wahrscheinlichkeit P : F → R definiert und damit (Ω, F, P) ein Wahrscheinlichkeitsraum. Insbesondere gilt P({ω}) = p(ω) für alle ω ∈ Ω. Definition 2.2.29 (Diskreter Wahrscheinlichkeitsraum) Der Wahrscheinlichkeitsraum (Ω, F, P) mit F := P(Ω) aus dem Satz (2.2.28) und auch das Wahrscheinlichkeitsmaß P heißen diskret. Die Abbildung p : Ω → [0, 1] heißt Wahrscheinlichkeitsfunktion. Bemerkung 2.2.30 Ein diskreter Wahrscheinlichkeitsraum ist durch Angabe von Ω und p(ω) vollständig bestimmt. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 53 2.2 Laplace-Experimente und Grundlagen der Kombinatorik 2.2.5 Laplace-Experimente und Grundlagen der Kombinatorik Definition 2.2.31 Es sei (Ω, P(Ω), P) ein diskreter Wahrscheinlichkeitsraum mit endlichem Ergebnisraum Ω und 1 der Wahrscheinlichkeitsfunktion p(ω) = für alle ω ∈ Ω. Das durch |Ω| (∗) X P(A) = ω∈A p(ω) = |A| |Ω| A ∈ P(Ω) definierte Wahrscheinlichkeitsmaß heißt Laplacesches Wahrscheinlichkeitsmaß über Ω und der Wahrscheinlichkeitsraum (Ω, P(Ω), P) Laplacescher Wahrscheinlichkeitsraum. Bemerkung 2.2.32 Die Gleichung (*) formuliert man auch P(A) = Anzahl der f ür A g ünstigen F älle . Anzahl der möglichen F älle Satz 2.2.33 (Additionsprinzip der Kombinatorik) Es seien Ω1 , Ω2 , ..., Ωr endliche Mengen mit r ∈ N endlich und Ωi ∩ Ωj = ∅ für i 6= j. Dann gilt: | Ω1 ∪ Ω2 ∪ . . . ∪ Ωr |=| Ω1 | + | Ω2 | + . . . + | Ωr | . Satz 2.2.34 (Multiplikationsprinzip der Kombinatorik) Es seien Ω1 , Ω2 , ..., Ωr endliche Mengen mit r ∈ N endlich. Dann gilt mit Ω1 × Ω2 × . . . × Ωr = {(ω 1 , . . . , ω r ) : ω 1 ∈ Ω1 , . . . , ω r ∈ Ωr } : | Ω1 × Ω2 × . . . × Ωr |=| Ω1 | · | Ω2 | · . . . · | Ωr | . Definition 2.2.35 Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel (ω 1 , ..., ω r ) ∈ Ωr als geordnete Probe (Variation) mit Wiederholung vom Umfang r aus Ω. Folgerung 2.2.36 Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N, und es sei r ∈ N. Dann gibt es w Vnr = nr geordnete Proben (Variationen) mit Wiederholung vom Umfang r aus Ω. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Laplace-Experimente und Grundlagen der Kombinatorik 54 Beispiel 2.2.37 In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1, . . . , 9. Es werden 3 Kugeln gezogen, wobei vor dem nächsten Zug die bereits zuvor gezogene Kugel wieder in die Urne zurückgelegt wird ( Ziehen mit Zurücklegen“). Wieviel verschiedene Möglichkeiten gibt es, ” 3 Kugeln zu ziehen? Antwort: w Vnr = nr = 103 = 1000. Definition 2.2.38 (1) Für jedes n ∈ N ∪ {0} definiert man die Zahl n! ∈ N (gelesen ,,n-Fakultät“) durch 0! := 1 und (n + 1)! := (n + 1) · n! für alle n ∈ N , (2) Für n, r ∈ N ∪ {0} mit 0 ≤ r ≤ n definiert man die Zahl (n)r (gelesen ,,n tief r“) durch (n)r := n! = n · (n − 1) · · · · · (n − r + 1) , (n − r)! (3) Für n, r ∈ N ∪ {0} und 0 ≤ r ≤ n definiert man den Binomialkoeffizienten (nr ) (gelesen ,,n über r“) durch n n! . := (n − r)! · r! r Definition 2.2.39 Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel (ω 1 , ..., ω r ) ∈ Ωr mit ω i 6= ω j für i 6= j als geordnete Probe (Variation) ohne Wiederholung vom Umfang r aus Ω. Satz 2.2.40 Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N und es sei r ∈ N mit 1 ≤ r ≤ n. Dann gibt es Vnr = n(n − 1)...(n − r + 1) = (n)r geordnete Proben (Variationen) ohne Wiederholung vom Umfang r aus Ω. Beispiel 2.2.41 In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1, . . . , 9. Es werden nacheinander 3 Kugeln gezogen, wobei die bereits zuvor gezogenen Kugeln nicht wieder in die Urne zurückgelegt werden ( Ziehen ohne Zurücklegen“). Wieviel verschiedene Möglichkeiten gibt ” es, 3 Kugeln zu ziehen? n! 10! 10! Antwort: Vnr = (n)r = = = = 10 · 9 · 8 = 720. (n − r)! (10 − 3)! 7! c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Laplace-Experimente und Grundlagen der Kombinatorik 55 Definition 2.2.42 Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N. Jedes n-Tupel (ω 1 , ..., ω n ) ∈ Ωn mit ω i 6= ω j für i 6= j heißt eine Permutation von Ω. Folgerung 2.2.43 Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N. Dann gibt es n! Permutationen von Ω. Bemerkung 2.2.44 Jede endliche Menge kann man ordnen. Definition 2.2.45 Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel (ω 1 , ..., ω r ) ∈ Ωr mit ω 1 < ω 2 < . . . < ω r als ungeordnete Probe (Kombination) ohne Wiederholung vom Umfang r aus Ω. Satz 2.2.46 Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N und es sei r ∈ N mit 1 ≤ r ≤ n. Dann gibt es n r Cn = r ungeordnete Proben (Kombinationen) ohne Wiederholung vom Umfang r aus Ω. Beispiel 2.2.47 In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1, . . . , 9. Es werden gleichzeitig 3 Kugeln gezogen ( Gleichzeitiges Ziehen“). Wieviel verschiedene Möglichkeiten gibt es, 3 ” Kugeln zu ziehen? n n! 10! 10! Antwort: Cnr = = = = = 120. r r! · (n − r)! 3! · (10 − 3)! 3! · 7! Definition 2.2.48 Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel (ω 1 , ..., ω r ) ∈ Ωr mit ω 1 ≤ ω 2 ≤ . . . ≤ ω r als ungeordnete Probe (Kombination) mit Wiederholung vom Umfang r aus Ω. Satz 2.2.49 Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N und es sei r ∈ N. Dann gibt es n+r−1 w r Cn = r ungeordnete Proben (Kombinationen) mit Wiederholung vom Umfang r aus Ω. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 56 2.2 Laplace-Experimente und Grundlagen der Kombinatorik Beispiel 2.2.50 Es wird mit 3 gleichartigen Würfeln gleichzeitig gewürfelt. Wieviele verschiedene Zahlenkombinationen sind möglich? n+r−1 6+3−1 8 w r Antwort: Cn = = = = 56 r 3 3 Bemerkung 2.2.51 Die Interpretation der zuvor behandelten Kombinationen und Variationen anhand geeigneter Urnenmodelle ist im folgenden Tableau gegeben: Interpretation als Urnenmodell n ∈ N Urnen, r ∈ N Kugeln Bedingung über r 1≤r≤n 1≤r≤n Kugeln sind in jeder Urne sind Kugelverteilung entspricht unterscheidbar (durchnumeriert) unterscheidbar (durchnumeriert) nicht unterscheidbar nicht unterscheidbar maximal r Kugeln höchstens eine Kugel maximal r Kugeln höchstens eine Kugel geordnete Probe mit Wiederholung geordnete Probe ohne Wiederholung ungeordnete Probe mit Wiederholung ungeordnete Probe ohne Wiederholung Anzahl der Kugelverteilungen w Vnr := nr Vnr := (n)r w Cnr := Cnr := n+r−1 r n r Definition 2.2.52 (Multinomialkoeffizient) P Es seien k, k1 , . . . , kr ∈ N ∪ {0} mit ri=1 ki = k. Dann heißt k k! := k1 , . . . , k r k1 ! · . . . · kr ! Multinomialkoeffizient. Beispiel 2.2.53 In einer Urne befinden sich sich 18 Kugeln, von denen 3 rot, 4 blau, 5 weiß und 6 schwarz sind. Wieviele verschiedene Möglichkeiten gibt es, diese 18 Kugeln anzuordnen? k k! 18! Antwort: := = = 514594080. k1 , . . . kr k1 ! · . . . · kr ! 3! · 4! · 5! · 6! c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 57 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 2.2.6 Bedingte Wahrscheinlichkeit und Unabhängigkeit Beispiel 2.2.54 (Motivation) Eine Firma bezieht 5000 Speicherchips von zwei verschiedenen Firmen A und B. Firma A hat 1000 Speicherchips und Firma B 4000 Speicherchips geliefert. Unter den 5000 Speicherchips sind 300 Speicherchips defekt. 100 defekte Speicherchips stammen von Firma A, 200 defekte Speicherchips stammen von Firma B. Ein geeignetes Modell zur Beschreibung des zufälligen Ziehens eines Speicherchips aus der gesamten Lieferung ist das folgende: Ω: Menge aller Speicherchips, |Ω| = 5000 A: Menge der Speicherchips von Firma A, |A| = 1000 B: Menge der Speicherchips von Firma B, |B| = 4000 D: Menge der defekten Speicherchips, |D| = 300 A ∩ D : Menge der defekten Speicherchips von Firma A, |A ∩ D| = 100 B ∩ D : Menge der defekten Speicherchips von Firma B, |B ∩ D| = 200 Ein Speicherchip wird nun rein zufällig gezogen. Dieses Zufallsexperiment wird durch ein Laplace-Modell beschrieben. Wie groß ist die Wahrscheinlichkeit, dass der Speicherchip defekt ist, wenn er von Firma A stammt? |D ∩ A| 100 |D ∩ A| 1 P(D ∩ A) |Ω| P(D | A) := = = = 5000 = . 1000 |A| |A| P(A) 10 5000 |Ω| Umgekehrt lässt sich auch nach der Wahrscheinlichkeit fragen, dass der Speicherchip von Firma A stammt, wenn er defekt ist. |A ∩ D| 100 1 |A ∩ D| P(A ∩ D) |Ω| 5000 = . P(A | D) := = = = 300 |D| |D| P(D) 3 5000 |Ω| Diese Vorüberlegungen legen die folgende allgemeine Definition für den Begriff der bedingten Wahrscheinlichkeit nahe. Definition 2.2.55 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B ∈ F mit P(A) > 0. Man nennt P(B | A) := P(B ∩ A) P(A) die bedingte Wahrscheinlichkeit von B unter der Bedingung A. Bemerkung 2.2.56 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und A ∈ F mit P(A) > 0. Man kann leicht nachweisen, dass die bedingte Wahrscheinlichkeit P(· | A) als Abbildung P(· | A) : F → R die Eigenschaften (A1), (A2), (A3) einer Wahrscheinlichkeit hat, die Begriffsbildung in Definition (2.2.55) somit berechtigt ist. Also ist durch (Ω, F, P(· | A)) ein weiterer Wahrscheinlichkeitsraum gegeben. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 58 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit Bemerkung 2.2.57 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B ∈ F. P(A ∩ B) Aus P(B | A) = mit P(A) > 0 folgt: P(A) (∗) P (A ∩ B) = P (A) · P (B | A). Nach Satz (2.2.27) (5) gilt wegen A ∩ B ⊆ A stets P(A ∩ B) ≤ P(A), insbesondere folgt aus P(A) = 0 auch P(A ∩ B) = 0. Allerdings ist P(B | A) für P(A) = 0 nicht definiert, man setzt deshalb fest P(A) · P(B | A) := 0 für P(A) = 0, so dass die Gleichung (∗) für alle A ∈ F gültig ist. Satz 2.2.58 (Multiplikationssatz) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A1 , A2 , ..., An ∈ F für n ∈ N. Dann gilt: P(A1 ∩ ... ∩ An ) = P(A1 ) · P(A2 | A1 ) · P(A3 | A1 ∩ A2 ) · ... · P(An | A1 ∩ ... ∩ An−1 ). Dabei sei vereinbart, die untere Zeile gleich Null zu setzen, wenn mindestens eine der WahrT scheinlichkeiten P ( ki=1 Ai ) für k = 1, 2, ..., n − 1 verschwindet, also mindestens eine der bedingten Wahrscheinlichkeiten nicht definiert ist. Beispiel 2.2.59 Eine Urne enthält 12 Kugeln, von denen 4 weiß und 8 schwarz sind. Es werden nacheinander ohne Zurücklegen 3 Kugeln entnommen. Wie groß ist die Wahrscheinlichkeit dafür, dass alle 3 gezogenen Kugeln schwarz sind? Lösung: Es sei Ai das Ereignis, dass beim i-ten Zug eine schwarze Kugel gezogen wird. Gesucht ist also die folgende Wahrscheinlichkeit: 8 7 6 14 P(A1 ∩ A2 ∩ A3 ) = P(A1 ) · P(A2 | A1 ) · P(A3 | A1 ∩ A2 ) = · · = . 12 11 10 55 Satz 2.2.60 (Satz der totalen Wahrscheinlichkeit) Es seien (Ω, F, P) ein WahrscheinlichkeitsraumSund A1 , A2 , ..., An ∈ F für n ∈ N eine Folge von Ereignissen mit Ai ∩ Aj = ∅ für i 6= j und nj=1 Aj = Ω. Für jedes B ∈ F gilt dann: P(B) = n X P(B | Aj ) · P(Aj ). j=1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 59 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 9 A 1 A A 3 n -1 B A 2 A n Beispiel 2.2.61 In einem Betrieb wird ein Massenartikel auf drei Maschinen M1 , M2 und M3 hergestellt. Die Maschinen sind an der Gesamtproduktion wie folgt beteiligt: M1 mit 50%, M2 mit 40% und M3 mit 10%. Die Maschinen arbeiten nicht fehlerfrei. Der Ausschussanteil beträgt bei M1 3%, bei M2 6% und bei M3 11%. Wie groß ist der Ausschussanteil an der Gesamtproduktion? Lösung: Wir betrachten die Ereignisse: Ai : Ein zufällig aus der Gesamtproduktion gewähltes Stück wurde von Maschine Mi hergestellt (i = 1, 2, 3). B : Ein zufällig aus der Gesamtproduktion gewähltes Stück gehört zum Ausschuss. Aus den gegebenen Daten liest man folgendes ab: P(A1 ) = 0.5 und P(B | A1 ) = 0.03, P(A2 ) = 0.4 und P(B | A2 ) = 0.06, P(A3 ) = 0.1 und P(B | A3 ) = 0.11. Somit erhalten wir: Satz der totalen Wahrscheinlichkeit: P(B) = P(B | A1 ) · P(A1 ) + P(B | A2 ) · P(A2 ) + P(B | A3 ) · P(A3 ) = 0.03 · 0.5 + 0.06 · 0.4 + 0.11 · 0.1 = 0.05. Der Ausschussanteil an der Gesamtproduktion beträgt 5%. Satz 2.2.62 (Bayes) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A1 , A2 , ..., An ∈ F eine Folge von EreigS nissen mit Ai ∩ Aj = ∅ für i 6= j und nj=1 Aj = Ω. Weiter sei B ∈ F mit P(B) > 0. Dann gilt: P(B | Ak ) · P(Ak ) , k = 1, 2, . . . , n. P(Ak | B) = Pn j=1 P(B | Aj ) · P(Aj ) c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 60 Beispiel 2.2.63 (Fortsetzung von Beispiel 1.4.2) Ein zufällig aus der Gesamtproduktion gewähltes Stück wird überprüft und zum Ausschuss gerechnet. Wie groß ist die Wahrscheinlichkeit dafür, dass ein derartiges Stück von Maschine Mj (j = 1, 2, 3) hergestellt wurde? Lösung: Satz von Bayes: P(B | A1 ) · P(A1 ) 0.03 · 0.5 P(A1 | B) = P3 = 0.30, = 0.05 j=1 P(B | Aj ) · P(Aj ) P(B | A2 ) · P(A2 ) 0.06 · 0.4 P(A2 | B) = P3 = = 0.48, 0.05 P(B | A ) · P(A ) j j j=1 0.11 · 0.1 P(B | A3 ) · P(A3 ) = P(A3 | B) = P3 = 0.22. 0.05 j=1 P(B | Aj ) · P(Aj ) Definition 2.2.64 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, und es seien A, B ∈ F. A und B heißen stochastisch unabhängig bzgl. P, wenn gilt: P(A ∩ B) = P(A) · P(B). Satz 2.2.65 Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum, A, B ∈ F mit P(A) > 0, P(B) > 0. Dann sind die folgenden Aussagen äquivalent: (1) A und B sind stochastisch unabhängig, (2) P(A | B) = P(A), (3) P(B | A) = P(B). c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 61 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit Satz 2.2.66 Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum und A, B ∈ F. Dann sind die folgenden Aussagen äquivalent: (1) A, B sind stochastisch unabhängig, (2) A, B̄ sind stochastisch unabhängig, (3) Ā, B sind stochastisch unabhängig, (4) Ā, B̄ sind stochastisch unabhängig. Definition 2.2.67 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und (Ai )i∈I eine Familie von Ereignissen aus F. Die Familie heißt stochastisch unabhängig, wenn für jede endliche Teilmenge K ⊆ I gilt: \ Y P( Ai ) = P(Ai ). i∈K i∈K Bemerkung 2.2.68 Für 3 Ereignisse A1 , A2 , A3 lautet die Definition (2.2.67): A1 , A2 , A3 sind stochastisch unabhängig, wenn gilt: (1) P(A1 ∩ A2 ) = P(A1 ) · P(A2 ), (2) P(A1 ∩ A3 ) = P(A1 ) · P(A3 ), (3) P(A2 ∩ A3 ) = P(A2 ) · P(A3 ), (4) P(A1 ∩ A2 ∩ A3 ) = P(A1 ) · P(A2 ) · P(A3 ). Beispiel 2.2.69 Es wird mit 2 unverfälschten Münzen geworfen. Dieses Zufallsexperiment wird durch ein Laplace-Modell beschrieben mit W ≡ Wappen und Z ≡ Zahl. Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)} Gegeben seien weiterhin die folgenden Ereignisse: A1 := {Wappen auf der ersten Münze} = {(W, W ), (W, Z)} A2 := {Wappen auf der zweiten Münze} = {(W, W ), (Z, W )} A3 := {Wappen auf genau einer Münze} = {(W, Z), (Z, W )} Es gilt: 2 1 P(A1 ) = P(A2 ) = P(A3 ) = = , 4 2 1 P(A1 ∩ A2 ) = P({(W, W )}) = , 4 1 P(A1 ∩ A3 ) = P({(W, Z)}) = , 4 1 P(A2 ∩ A3 ) = P({(Z, W )}) = . 4 Daher gilt: c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 62 P(A1 ∩ A2 ) = P(A1 ) · P(A2 ), P(A1 ∩ A3 ) = P(A1 ) · P(A3 ), P(A2 ∩ A3 ) = P(A2 ) · P(A3 ). Damit sind die Ereignisse A1 , A2 und A3 paarweise unabhängig. Es gilt aber weiterhin 1 P(A1 ∩ A2 ∩ A3 ) = P(∅) 6= P(A1 ) · P(A2 ) · P(A3 ) = . 8 Daher sind die Ereignisse A1 , A2 und A3 stochastisch abhängig. Merke: Aus der paarweisen Unabhängigkeit der Ereignisse folgt nicht die Unabhängigkeit aller Ereignisse ! Bemerkung 2.2.70 Durch vollständige Induktion kann man zeigen, dass auch die Verallgemeinerung von Satz (2.2.66) auf n ∈ N Ereignisse gilt. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 3 Messbare Abbildungen und Zufallsvektoren 3.1 Allgemeine Begriffe Definition 3.1.1 Es seien X : Ω → Rn eine Abbildung und B ⊂ Rn . Man bezeichnet X−1 (B) = {ω ∈ Ω : X(ω) ∈ B} als Urbild von B bzgl. X. Definition 3.1.2 Es seien (Ω, F) und (Rn , Bn ) zwei Messräume. Eine Abbildung X : Ω → Rn heißt F − Bn −messbar, wenn gilt: X−1 (B) ∈ F für alle B ∈ Bn . Bemerkung 3.1.3 Für B1 schreiben wir im folgenden B. Definition 3.1.4 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Eine F − Bn −messbare Abbildung X : Ω → Rn , ω 7−→ X(ω) = (X1 (ω), . . . , Xn (ω)) heißt n-dimensionaler Zufallsvektor. Im Falle n = 1 spricht man von einer Zufallsariablen über (Ω, F, P). Bemerkung 3.1.5 Ist F = P(Ω), dann ist jede Abbildung X : Ω → Rn n-dimensionaler Zufallsvektor. Ebenso ist jede stetige Funktion X : Ω → Rn n-dimensionaler Zufallsvektor. 63 64 3.1. ALLGEMEINE BEGRIFFE Satz 3.1.6 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und X ein n-dimensionaler Zufallsvektor. Dann ist durch PX (B) := P(X−1 (B)) für alle B ∈ Bn eine Wahrscheinlichkeit PX : Bn → R definiert und (Rn , Bn , PX ) ist ein Wahrscheinlichkeitsraum. Definition 3.1.7 Man bezeichnet die durch PX (B) := P(X−1 (B)) für alle B ∈ Bn definierte Wahrscheinlichkeit PX : Bn → R als Wahrscheinlichkeitsverteilung des Zufallsvektors X. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 4 Eindimensionale Zufallsvariablen 4.1 Einführung Beispiel 4.1.1 Dreimaliger Münzwurf mit einer unverfälschten Münze Ω = {(W, W, W ), (W, W, Z), (W, Z, W ), (Z, W, W ), (W, Z, Z), (Z, W, Z), (Z, Z, W ), (Z, Z, Z)}, F = P(Ω) |A| P : F → R mit P(A) = für alle A ∈ F. |Ω| X : Ω → R mit X ≡ Anzahl der Wappen (W, W, W ) → 3 (W, W, Z) → 2 (W, Z, W ) → 2 (Z, W, W ) → 2 X := (W, Z, Z) → 1 (Z, W, Z) → 1 (Z, Z, W ) → 1 (Z, Z, Z) → 0 1 PX ({3}) := P(X −1 ({3})) = P({(W, W, W )}) = , 8 3 −1 PX ({2}) := P(X ({2})) = P({(W, W, Z), (W, Z, W ), (Z, W, W )}) = , 8 3 −1 PX ({1}) := P(X ({1})) = P({(W, Z, Z), (Z, W, Z), (Z, Z, W )}) = , 8 1 PX ({0}) := P(X −1 ({0})) = P({(Z, Z, Z)}) = . 8 65 66 4.1. EINFÜHRUNG Bemerkung 4.1.2 Man führt für das Urbild X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} auch die folgenden Kurzschreibweise ein: {ω ∈ Ω : X(ω) ∈ B} =: {X ∈ B}. Speziell schreibt man: {ω ∈ Ω : X(ω) ≤ a} =: {X ≤ a}, {ω ∈ Ω : X(ω) = a} =: {X = a} usw. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 67 4.2. DISKRETE ZUFALLSVARIABLEN 4.2 Diskrete Zufallsvariablen Definition 4.2.1 Eine eindimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B ⊂ R gibt mit PX (B) = P{X ∈ B} = 1. Definition 4.2.2 Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .} und der Wahrscheinlichkeitsverteilung PX . Dann heißt die Abbildung p : R → [0, 1] mit p(x) = PX {x} für x ∈ X(Ω) 0 für x ∈ R \ X(Ω) Wahrscheinlichkeitsfunktion von X. Die Menge T = {x ∈ R : p(x) > 0} heißt Träger, die Elemente x ∈ T heißen Trägerpunkte und die Werte p(x) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung 4.2.3 Es gilt: PX (B) = X p(x) für alle B ⊂ X(Ω). x∈B Satz 4.2.4 Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) ≥ 0 für x ∈ R, (2) P x∈X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Bemerkung 4.2.5 Es sei X eine eindimensionale diskrete Zufallsvariable mit dem endlichen Wertebereich X(Ω) := {x1 , x2 , . . . , xn } und der Wahrscheinlichkeitsfunktion p(xi ), i = 1, 2, . . . , n. Dann lässt sich die Verteilung von X stets mittels der folgenden Tabelle darstellen: x1 p(x1 ) x2 p(x2 ) ... ... ... ... xn p(xn ) c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 68 4.2. DISKRETE ZUFALLSVARIABLEN Beispiel 4.2.6 Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Für die Darstellung der Verteilung von X erhält man die folgende Tabelle: 0 1 8 xi p(xi ) = PX {xi } 1 3 8 2 3 8 3 1 8 Definition 4.2.7 Eine diskrete Zufallsvariable heißt symmetrisch verteilt um a ∈ R, wenn mit jedem Trägerpunkt xi auch 2a − xi Trägerpunkt ist und weiterhin PX {xi } = PX {2a − xi } für alle i ∈ I ⊆ N gilt. Beispiel 4.2.8 Gegeben sei eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x) : xi 1 2 3 4 5 p(xi ) = PX {xi } 1 9 2 9 3 9 2 9 1 9 F N N Es gilt gilt für alle Trägerpunkte xi = 1, 2, 3, 4, 5 : PX {xi } = PX {2 · 3 − xi }. Damit ist X symmetrisch um 3 verteilt. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 69 4.3. STETIGE ZUFALLSVARIABLEN 4.3 Stetige Zufallsvariablen Definition 4.3.1 R∞ Jede Riemann-integrierbare Funktion f : R → R mit f (x) ≥ 0, x ∈ R und −∞ f (x)dx = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw. Dichte). Beispiel 4.3.2 Gegeben sei die Funktion f (x) : f (x) = 6x(1 − x) 0 Es gilt f (x) ≥ 0, x ∈ R und R∞ −∞ f (x)dx = für 0≤x≤1 sonst R1 0 6x(1 − x)dx = 1. Damit ist f (x) eine Dichte. fX(x) 1.4 1.2 1.0 0.8 0.6 0.4 0.2 x 0.0 −0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 Definition 4.3.3 Es sei X eine eindimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Dichtefunktion fX . Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a, b] ⊂ R gilt: Z b PX (a, b] = P{a < X ≤ b} = fX (x)dx. a c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 70 4.3. STETIGE ZUFALLSVARIABLEN fX(x) P((a,b]) x a b Definition 4.3.4 Eine stetige Zufallsvariable X heißt symmetrisch um a ∈ R verteilt, wenn es eine Dichte fX gibt mit: fX (a − x) = fX (a + x) für alle x ∈ R, bzw. fX (x) = fX (2a − x) für alle x ∈ R. Beispiel 4.3.5 Es sei fX (x) eine Dichte mit fX (x) = 6x(1 − x) Es gilt: fX (x) = fX (2 · 0 für 0≤x≤1 sonst 1 1 − x) für alle x ∈ R, daher ist X symmetrisch um verteilt. 2 2 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 4.4 71 Die Verteilungsfunktion von eindimensionalen Zufallsvariablen Definition 4.4.1 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX . Die Abbildung FX : R → R mit FX (x) := PX ((−∞, x]) = P({X ≤ x}) für alle x ∈ R heißt Verteilungsfunktion der Zufallsvariablen X. Vereinbarung 4.4.2 Im folgenden schreiben wir für PX ((−∞, x]) =: PX (−∞, x] und für P({X ≤ x}) =: P{X ≤ x}. Bemerkung 4.4.3 Aufgrund der Definition einer Verteilungsfunktion gilt: P i:xi ≤x p(xi ) falls X diskret FX (x) = R x f (t)dt falls X stetig −∞ X Bemerkung 4.4.4 Die Verteilungsfunktion einer diskreten Zufallsvariablen ist eine Treppenfunktion. Die Verteilungsfunktion einer stetigen Zufallsvariablen ist eine totalstetige Funktion. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 72 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN Beispiel 4.4.5 (Diskrete Zufallsvariable) Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Mit Hilfe der folgenden Tabelle: 0 1 8 xi p(xi ) = P {X = xi } erhält man die Verteilungsfunktion 0 für 1 für 8 P 4 FX (x) = i:xi ≤x p(xi ) = für 8 7 für 8 1 für F 2 3 8 3 1 8 wie folgt: x<0 0≤x<1 1≤x<2 . 2≤x<3 x≥3 . ( x ) X 1 3 8 . . . -2 -1 0 1 2 3 4 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5 x 73 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN Beispiel 4.4.6 (Stetige Zufallsvariable) Es sei fX (x) eine Dichte mit 6x(1 − x) für 0 ≤ x ≤ 1 fX (x) = 0 sonst Für die Verteilungsfunktion FX erhält man: Z x 0 für x<0 3x2 − 2x3 für 0 ≤ x ≤ 1 FX (x) = fX (t)dt = −∞ 1 für x>1 . N : 1 0 .7 5 0 .5 0 .2 5 0 -0 .5 0 0 .5 1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 1 .5 N 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 74 Satz 4.4.7 (Eigenschaften einer Verteilungsfunktion) Es sei FX (·) Verteilungsfunktion einer eindimensionalen Zufallsvariablen X. Dann gilt: (1) FX ist monoton wachsend, d. h.: x < y => FX (x) ≤ FX (y), (2) FX ist rechtsseitig stetig, d. h.: lim FX (x + h) = FX (x) für alle x ∈ R, h→0 h>0 (3) lim FX (x) =: FX (∞) = 1, x→∞ (4) lim FX (x) =: FX (−∞) = 0. x→−∞ Satz 4.4.8 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·) und a, b ∈ R mit a < b. Dann gilt: PX (a, b] = P{a < X ≤ b} = FX (b) − FX (a). Satz 4.4.9 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·) und a ∈ R. Dann gilt: PX {a} = PX [a, a] = P{X = a} = FX (a) − FX (a − 0) mit FX (a − 0) := lim FX (a − h). h→0 h>0 Folgerung 4.4.10 Es sei X eine stetige Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX . Dann gilt: PX {x} = 0 für alle x ∈ R. Satz 4.4.11 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·) und a, b ∈ R mit a < b. Dann gilt: (1) PX (a, b) = P{a < X < b} = FX (b − 0) − FX (a); (2) PX [a, b] = P{a ≤ X ≤ b} = FX (b) − FX (a − 0); (3) PX [a, b) = P{a ≤ X < b} = FX (b − 0) − FX (a − 0); (4) PX (−∞, b) = P{X < b} = FX (b − 0); c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 75 (5) PX (a, ∞) = P{X > a} = 1 − P{X ≤ a} = 1 − FX (a); (6) PX [a, ∞) = P{X ≥ a} = 1 − P{X < a} = 1 − FX (a − 0). Bemerkung 4.4.12 Aufgrund von Folgerung 4.4.10 gilt bei einer stetigen Zufallsvariablen X stets FX (x − 0) = FX (x) für alle x ∈ R. Definition 4.4.13 Es sei X eine Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·). Gilt für ein x ∈ R PX {x} = P{X = x} = FX (x) − FX (x − 0) > 0, so heißt x eine Sprungstelle von FX und PX {x} die zugehörige Sprunghöhe. Bemerkung 4.4.14 Eine Verteilungsfunktion hat höchstens abzählbar unendlich viele Sprungstellen. Bemerkung 4.4.15 Besitzt eine diskrete Zufallsvariable X die Sprungstellen xi , i ∈ N, und die Verteilungsfunktion FX (x), dann erhält man die Wahrscheinlichkeitsfunktion p(xi ), i ∈ N, mittels der folgenden Formel: p(xi ) = FX (xi ) − FX (xi − 0) Satz 4.4.16 Es sei X eine Zufallsvariable mit der Verteilungsfunktion FX . X ist symmetrisch um a ∈ R verteilt, genau dann, wenn FX (a + x) = 1 − FX (a − x − 0) für alle x ∈ R gilt. Satz 4.4.17 Ist FX : R → [0, 1] eine totalstetige Verteilungsfunktion, die auf dem Komplement einer endlichen oder leeren Menge C stetig differenzierbar ist, so wird durch fX (x) = dFX (x) dx (x ∈ R \ C) eine Dichte fX zu FX definiert. (Auf C kann man fX beliebig festsetzen.) c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 76 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN Beispiel 4.4.18 Es sei X eine Zufallsvariable mit der Verteilungsfunktion FX (x) : 0 für x<1 1 1 x− für 1 ≤ x < 3 4 4 FX (x) = x − 5 für 3 ≤ x < 7 2 2 7 1 für x≥ 2 . N : 1 0 .7 5 0 .5 0 .2 5 0 0 1 2 1 4 dFX (x) fX (x) = = 1 dx 0 3 4 für 1<x<3 7 für 3<x< 2 7 für x < 1 oder x > 2 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5 N 77 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN f X ( x ) o 1 o 0 .7 5 0 .5 o o 0 .2 5 0 0 o 1 2 3 o 4 7 Hier ist C = {1, 3, }. 2 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5 x 4.5. LINEARE TRANSFORMATIONEN VON EINDIMENSIONALEN ZUFALLSVARIABLEN 4.5 78 Lineare Transformationen von eindimensionalen Zufallsvariablen Satz 4.5.1 (a) Es seien X eine eindimensionale Zufallsvariable, a, b ∈ R mit a 6= 0 und G : R → R die Abbildung mit G(x) = ax + b für alle x ∈ R. Dann ist Y := G(X) = aX + b ebenfalls eine Zufallsvariable und es gilt: y−b FX ( ) für a FY (y) = y−b 1 − FX ( − 0) für a a>0 a<0 für alle y ∈ R. (b) Ist FX totalstetig, dann ist auch FY totalstetig und für eine Dichte fY (·) gilt an allen ◦ y−b ◦ Stetigkeitsstellen y von fY (·), für die Stetigkeitsstelle von fX ist: a ◦ fY (y) = ◦ y−b 1 · fX ( ). |a | a Beispiel 4.5.2 Es sei X eine Zufallsvariable mit der Verteilungsfunktion FX : 0 für x<0 1 für 0 ≤ x < 1 4 1 FX (x) = für 1 ≤ x < 2 2 3 für 2 ≤ x < 3 4 1 für x≥3 Dann gilt für die Verteilungsfunktion von Y = −2X y−4 FY (y) = 1 − FX ( − 0) = −2 +4: 0 1 4 1 2 3 4 1 für y < −2 für −2 ≤ y < 0 für 0≤y<2 für 2≤y<4 für y≥4 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 4.6 79 Momente von eindimensionalen Zufallsvariablen Definition 4.6.1 Es sei X eine diskrete eindimensionale Zufallsvariable mit den Trägerpunkten xi und den Punktwahrscheinlichkeiten PX {xi } = p(xi ), (i ∈ J ⊆ N). Gilt |xi | · p(xi ) < ∞ , dann heißt P (2) E(X) := i∈J xi · p(xi ) der Erwartungswert (Mittelwert) der Zufallsvariable X. (1) P i∈J Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht. Bemerkung 4.6.2 Hat eine diskrete Zufallsvariable nur endlich viele Trägerpunkte, so ist (4.6.1) (1) trivialerweise erfüllt, d. h. der Erwartungswert existiert dann immer. Folgerung 4.6.3 Die Zufallsvariable X habe eine Einpunktverteilung auf a ∈ R, d. h. PX {a} = 1. Dann gilt: E(X) = a. Definition 4.6.4 Es sei X eine stetige eindimensionale Zufallsvariable und fX : R → R eine Dichte von X. Gilt (1) R∞ −∞ |x| · fX (x)dx < ∞, dann heißt R∞ (2) E(X) := −∞ x · fX (x)dx der Erwartungswert (Mittelwert) der Zufallsvariable X. Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht. Vereinbarung 4.6.5 Zur Vereinfachung soll im Folgenden bei der Benutzung des Symbols E(X) und nicht spezifizierter Verteilung von X die Existenz des Erwartungswertes ohne ausdrückliche Erwähnung vorausgesetzt werden. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 80 4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN Satz 4.6.6 Es seien X eine eindimensionale Zufallsvariable und G : R → R eine B − B−messbare Abbildung. (a) Ist X diskret verteilt mitP den Trägerpunkten xi und den Punktwahrscheinlichkeiten PX {xi } = p(xi ) und gilt weiterhin i |G(xi )|·p(xi ) < ∞, dann existiert der Erwartungswert E(G(X)) und es gilt: X X E(G(X)) = G(xi ) · p(xi ) = G(xi ) · PX {xi }. i i R∞ (b) Ist X stetig verteilt mit einer Dichte fX und gilt −∞ |G(x)| · fX (x)dx < ∞, dann existiert der Erwartungswert E(G(X)), und es gilt: Z ∞ G(x) · fX (x)dx. E(G(X)) = −∞ Satz 4.6.7 Es seien X eine eindimensionale Zufallsvariable und G : R → R, H : R → R B − B−messbare Abbildungen. Existieren E(|G(X)|) und E(|H(X)|), dann gilt: E(G(X) + H(X)) = E(G(X)) + E(H(X)). Satz 4.6.8 Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und G : R → R die Abbildung mit G(x) = ax + b, a, b ∈ R. Dann existiert auch der Erwartungswert der Zufallsvariable G(X) = aX + b und es gilt: E(aX + b) = aE(X) + b. Satz 4.6.9 Ist die Zufallsvariable X symmetrisch um a ∈ R verteilt und existiert ihr Erwartungswert, so gilt: E(X) = a. Definition 4.6.10 Es sei X eine eindimensionale Zufallsvariable. Man bezeichnet den Erwartungswert E(X k ), k = 0, 1, 2, ..., falls er existiert, als das Moment k-ter Ordnung um Null von X und schreibt: µk := E(X k ) =: µk (X). Weiterhin bezeichnet man den Erwartungswert E[(X −E(X))k ], k = 0, 1, 2, ..., falls er existiert, als das zentrale Moment k-ter Ordnung von X und schreibt σ k := E[(X − E(X))k ] =: σ k (X). c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 81 Satz 4.6.11 Die zentralen Momente sind translationsinvariant, d. h. σ k (X) = σ k (X + a) für a ∈ R, k = 0, 1, 2, ..... Definition 4.6.12 Das zweite zentrale Moment einer Zufallsvariable X bezeichnet man als Streuung oder Varianz von X und schreibt: E[(X − E(X))2 ] =: Var(X) =: σ 2X =: σ 2 . Die positive Wurzel aus der Streuung bezeichnet man als Standardabweichung von X und schreibt p + E[(X − E(X))2 ] =: σ X =: σ. Satz 4.6.13 Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X). Dann gilt: (1) Var(aX + b) = a2 Var(X) für alle a, b ∈ R, (2) Var(X) = E(X 2 ) − [E(X)]2 (Varianzzerlegungssatz). Satz und Definition 4.6.14 Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X) > 0. Weiterhin sei X − E(X) Y := p . Var(X) Dann gilt: E(Y ) = 0 und Var(Y ) = 1. Man nennt Y eine standardisierte Zufallsvariable. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 82 4.7. MODUS UND QUANTILE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 4.7 Modus und Quantile von eindimensionalen Zufallsvariablen Definition 4.7.1 Als wahrscheinlichsten Wert, häufigsten Wert, Modus oder Modalwert einer Zufallsvariablen X bezeichnet man (1) im diskreten Fall: jeden Trägerpunkt xi , dessen Wahrscheinlichkeitsmasse PX {xi } =: p(xi ) maximal ist, (2) im stetigen Fall: jeden Punkt x, zu dem es eine Dichte fX gibt, die dort maximal und mindestens halbseitig stetig ist. Nach der Anzahl der Modalwerte heißt die Wahrscheinlichkeitsverteilung PX uni-, bi- bzw. multimodal. Definition 4.7.2 Es sei X eine eindimensionale Zufallsvariable. Jeder Wert x ∈ R mit 1 1 und P {X ≥ x} ≥ 2 2 heißt Median oder Zentralwert der Zufallsvariablen X. Man bezeichnet einen solchen Wert auch mit xM ed oder x0,5 . P {X ≤ x} ≥ Definition 4.7.3 Es sei X eine eindimensionale Zufallsvariable und p ∈ (0, 1). Jeder Wert x ∈ R mit P {X ≤ x} ≥ p und P {X ≥ x} ≥ 1 − p heißt Quantil p-ter Ordnung, p-Quantil oder p-Fraktil von X. Man bezeichnet einen solchen Wert oft mit dem Symbol qp . Insbesondere spricht man vom unteren Quartil für p = 0, 25 und vom oberen Quartil für p = 0, 75. Folgerung 4.7.4 Für eine Zufallsvariable X mit der Verteilungsfunktion FX ist x ∈ R genau dann ein p-Quantil, falls gilt: FX (x − 0) ≤ p ≤ FX (x), für eine stetige Verteilungsfunktion also insbesondere genau dann, wenn gilt: FX (x) = p. Bemerkung 4.7.5 Für die Lageparameter gelten folgende Empfehlungen: Skalierung zu verwendender Lageparameter nominal ordinal kardinal Modalwert Median Erwartungswert c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 83 4.8. SPEZIELLE DISKRETE ZUFALLSVARIABLEN 4.8 4.8.1 Spezielle diskrete Zufallsvariablen Bernoulli-Verteilung (Zweipunktverteilung) Die Zufallsvariable X habe nur die beiden Realisationen 0 und 1. Es mag ein Zufallsexperiment zugrunde liegen, das ausschließlich nur die beiden Ausgänge A und Ā kennt, wobei A als Erfolg und Ā als Misserfolg bezeichnet werde. Das Ereignis A trete mit der Wahrscheinlichkeit p und das Ereignis Ā mit der Wahrscheinlichkeit 1 − p auf. Solche Experimente heißen Bernouli-Experimente. Tritt ein Erfolg ein, wird durch die Zufallsvariable der Wert 1 zugeordnet, tritt ein Misserfolg ein, wird der Wert 0 zugeordnet. Definition 4.8.1 Die Zufallsvariable X besitzt eine Bernoulli-Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = {0, 1}, falls die Wahrscheinlichkeitsfunktion durch 1 − p für x = 0 p für x = 1 p(x) = PX {x} = 0 sonst gegeben ist. p ( x ) p 1 - p x 0 1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 84 4.8 Bernoulli-Verteilung (Zweipunktverteilung) Satz 4.8.2 Besitzt X eine Bernoulli-Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = {0, 1}, dann lautet deren Verteilungsfunktion für x<0 0 1 − p für 0 ≤ x < 1 FX (x) = 1 für x≥1 Satz 4.8.3 Besitzt X eine Bernoulli-Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = {0, 1}, dann gilt für deren Erwartungswert und Varianz E(X) = p; Var(X) = p(1 − p). c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 85 4.8 Binomialverteilung 4.8.2 Binomialverteilung Ein Bernoulli-Experiment wird mehrmals durchgeführt, wobei wieder nur interessiert, ob ein bestimmtes Ereignis eintritt (Erfolg) oder nicht eintritt (Misserfolg). Es werden folgende Bedingungen vorausgesetzt: (1) Die Wiederholungen werden jeweils unter gleichen Bedingungen durchgeführt. Insbesondere bleibt die Erfolgswahrscheinlichkeit p konstant. (2) Die Wiederholungen beeinflussen sich nicht, d. h. sie sind unabhängig voneinander. Es sei X die Zufallsvariable, welche die Anzahl der Erfolge in n Bernoulli-Versuchen mit der Erfolgswahrscheinlichkeit p angibt. Dann ist die Wahrscheinlichkeitsfunktion von X gegeben durch: n P{X = k} = · pk · (1 − p)n−k , k = 0, 1, . . . , n. k Definition 4.8.4 Die Zufallsvariable X besitzt eine Binomialverteilung mit den Parametern p ∈ (0, 1) und n ∈ N und dem Träger T = {0, 1, . . . n}, falls die Wahrscheinlichkeitsfunktion durch n x p (1 − p)n−x für x ∈ {0, 1, . . . n} p(x) = PX {x} = x 0 sonst gegeben ist. Satz 4.8.5 Besitzt X eine Binomialverteilung mit den Parametern p ∈ (0, 1) und n ∈ N und dem Träger T = {0, 1, . . . n}, dann lautet deren Verteilungsfunktion 0 für x < 0 k X n i FX (x) = p (1 − p)n−i für k ≤ x < k + 1, k = 0, . . . , n − 1 i i=0 1 für x ≥ n Satz 4.8.6 Besitzt X eine Binomialverteilung mit den Parametern p ∈ (0, 1) und n ∈ N und dem Träger T = {0, 1, . . . n}, dann gilt für deren Erwartungswert und Varianz E(X) = n · p; Var(X) = n · p(1 − p). c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 86 4.8 Binomialverteilung F N N Beispiel: p = 0.4, n = 6 Beispiel 4.8.7 (Urnenmodell mit Zurücklegen) In einer Urne befinden sich N ∈ N Kugeln. M Kugeln sind weiß, 0 ≤ M ≤ N, und N − M Kugeln sind schwarz. Aus der Urne werden n ∈ N Kugeln mit Zurücklegen gezogen. Da mit Zurücklegen gezogen wird, ist die Wahrscheinlichkeit eine weise Kugel zu ziehen bei jedem M Zug gegeben durch p = . Die Wahrscheinlichkeit bei n Ziehungen mit Zurücklegen k weiße N Kugeln zu ziehen ist gegeben durch: n PX {k} = P{X = k} = · pk · (1 − p)n−k , k = 0, 1, . . . , n. k c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.8 Hypergeometrische Verteilung 4.8.3 87 Hypergeometrische Verteilung Beispiel 4.8.8 (Urnenmodell ohne Zurücklegen) In einer Urne befinden sich N ∈ N Kugeln. M Kugeln sind weiß, 0 ≤ M ≤ N, und N − M Kugeln sind schwarz. Aus der Urne werden n ∈ N Kugeln ohne Zurücklegen gezogen. Da ohne Zurücklegen gezogen wird, ändert sich die Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug. Die Wahrscheinlichkeit bei n Ziehungen ohne Zurücklegen k weiße Kugeln zu ziehen ist gegeben durch: M N −M · k n−k PX {k} = P{X = k} = , max(0, n + M − N ) ≤ k ≤ min(n, M ) N n Definition 4.8.9 Die Zufallsvariable X besitzt eine hypergeometrische Verteilung mit den Parametern N, M, n ∈ N, 0 ≤ M ≤ N, n ≤ N und dem Träger T = {k : max{0, n + M − N } ≤ k ≤ min{n, M }}, falls die Wahrscheinlichkeitsfunktion durch M N −M x n−x für x ∈ T p(x) = PX {x} = N n 0 sonst gegeben ist. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 88 4.8 Hypergeometrische Verteilung F N N Beispiel: N = 20, M = 8, n = 6 Satz 4.8.10 Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n ∈ N, 0 ≤ M ≤ N, n ≤ N und dem Träger T = {k : max{0, n + M − N } ≤ k ≤ min{n, M }}, dann lautet deren Verteilungsfunktion 0 für x < max{0, n + M − N } M N − M k X i n−i k ≤ x < k + 1, FX (x) = für max{0, n + M − N } ≤ k ≤ min{n, M } − 1 N i=max{0,n+M −N } n 1 für x ≥ min{n, M } Satz 4.8.11 Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n ∈ N, 0 ≤ M ≤ N, n ≤ N und dem Träger T = {k : max{0, n + M − N } ≤ k ≤ min{n, M }}, dann gilt für deren Erwartungswert und Varianz E(X) = n · M ; N Var(X) = n · M M N −n · (1 − )· . N N N −1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.8 Geometrische Verteilung 4.8.4 89 Geometrische Verteilung Ein Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p werde so oft durchgeführt, bis zum ersten Mal Erfolg eintritt. Es sei X die Anzahl der vorausgegangenen Misserfolge. Die Wahrscheinlichkeit dabei genau k Misserfolge zu erzielen ist gegeben durch: PX {k} := P{X = k} = (1 − p)k · p für k = 0, 1, . . . . Definition 4.8.12 Die Zufallsvariable X besitzt eine geometrische Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = N ∪ {0}, falls die Wahrscheinlichkeitsfunktion durch (1 − p)x p für x ∈ T p(x) = PX {x} = 0 sonst gegeben ist. F N N Beispiel: p = 0.4 Satz 4.8.13 Besitzt X eine geometrische Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = N ∪ {0}, dann lautet deren Verteilungsfunktion 0 für x<0 FX (x) = . k+1 1 − (1 − p) für k ≤ x < k + 1, k = 0, 1, . . . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4.8 Geometrische Verteilung 90 Satz 4.8.14 Besitzt X eine geometrische Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = N ∪ {0}, dann gilt für deren Erwartungswert und Varianz E(X) = 1−p ; p Var(X) = 1−p . p2 Beispiel 4.8.15 (Urnenmodell) In einer Urne befinden sich N ∈ N Kugeln. M Kugeln sind weiß, 0 ≤ M ≤ N, und N − M Kugeln sind schwarz. Aus der Urne werden solange Kugeln mit Zurücklegen gezogen, bis zum ersten Mal eine weiße Kugel gezogen wird. Da mit Zurücklegen gezogen wird, ist die M Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug gegeben durch p = . Die N Wahrscheinlichkeit k schwarze Kugeln zu ziehen bis zum ersten Mal eine weiße Kugel gezogen wird, ist gegeben durch: PX {k} := P{X = k} = (1 − p)k · p für k = 0, 1, . . . . Bemerkung 4.8.16 Betrachtet man die Zufallsvariable Y, die die Anzahl der Versuche angibt bis zum ersten Mal ein Erfolg eintritt, dann ist die Wahrscheinlichkeitsfunktion von Y gegeben durch: PY {k} := P{Y = k} = (1 − p)k−1 · p für k = 1, 2, . . . . . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 91 4.8 Poisson-Verteilung 4.8.5 Poisson-Verteilung Die Poissonverteilung eignet sich zur Modellierung der Anzahl von bestimmten Vorkommnissen (z. B. Maschinenausfall während der Produktion, eingehender Notruf bei der Feuerwehr, Meldung eines Versicherungsschadens) während eines festgelegten Zeitintervalls. Wir gehen wieder von einer Bernoulli-Versuchsreihe aus. Wir nehmen an, dass das Bernoulli-Experiment sehr häufig wiederholt wird, n also groß ist. Andererseits sei die Wahrscheinlichkeit p für einen Erfolg sehr klein. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, d. h. n PX {k} = P{X = k} = · pk · (1 − p)n−k , k = 0, 1, . . . , n. k Lässt man nun • n gegen unendlich gehen und zugleich • p gegen Null gehen, derart, dass np gegen eine positive Zahl λ konvergiert, dann kann man zeigen, dass folgendes gilt: n i λi −λ n−i lim p (1 − p) = e . n→∞ i i! p→0 np=λ Definition 4.8.17 Die Zufallsvariable X besitzt eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N∪{0}, falls die Wahrscheinlichkeitsfunktion durch ( p(x) = PX {x} = λx −λ e für x ∈ T x! 0 sonst gegeben ist. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 92 4.8 Poisson-Verteilung F N N Beispiel: λ = 2.0 Satz 4.8.18 Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N∪{0}, dann lautet deren Verteilungsfunktion für x < 0 0 k i X λ −λ FX (x) = . e für k ≤ x < k + 1, k = 0, 1, . . . i! i=0 Satz 4.8.19 Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N∪{0}, dann gilt für deren Erwartungswert und Varianz E(X) = λ; Var(X) = λ. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 93 4.9. SPEZIELLE STETIGE VERTEILUNGEN 4.9 4.9.1 Spezielle stetige Verteilungen Stetige Gleichverteilung Definition 4.9.1 Die Zufallsvariable X besitzt eine stetige Gleichverteilung im Intervall [a, b] mit a, b ∈ R; a < b, falls die Dichte durch ( 1 für a ≤ x ≤ b fX (x) = b−a 0 sonst gegeben ist. B N 1 b - a b a x Satz 4.9.2 Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann lautet deren Verteilungsfunktion 0 x− a FX (x) = b−a 1 für x<a für a ≤ x ≤ b für x>b c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 94 4.9 Stetige Gleichverteilung . N = > N Satz 4.9.3 Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann gilt für deren Erwartungswert und Varianz (b − a)2 a+b ; Var(X) = . E(X) = 2 12 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 95 4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung) 4.9.2 Gaußverteilung N (0, 1) : (Standardnormalverteilung) Definition 4.9.4 Die Zufallsvariable X besitzt eine Standardnormalverteilung (Gaußverteilung), i. Z.: X ∼ N (0, 12 ), falls die Dichte durch x2 1 ϕ(x) = √ e 2 2π − für −∞ < x < ∞ gegeben ist. j N N c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 96 4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung) Satz 4.9.5 Besitzt X eine Standardnormalverteilung, dann lautet deren Verteilungsfunktion Rx Φ(x) = −∞ ϕ(y)dy für x ∈ R . N N Bemerkung 4.9.6 Die Verteilungsfunktion liegt vertafelt vor und ist in der folgenden Tabelle gegeben: c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 97 4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung) Tabelle zur Standardnormalverteilung 1 Φ(z) = √ 2π Z z 1 2 e− 2 x dx −∞ z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.1 0.2 0.3 0.4 0.5000 0.5398 0.5793 0.6179 0.6554 0.5040 0.5438 0.5832 0.6217 0.6591 0.5080 0.5478 0.5871 0.6255 0.6628 0.5120 0.5517 0.5910 0.6293 0.6664 0.5160 0.5557 0.5948 0.6331 0.6700 0.5199 0.5596 0.5987 0.6368 0.6736 0.5239 0.5636 0.6026 0.6406 0.6772 0.5279 0.5675 0.6064 0.6443 0.6808 0.5319 0.5714 0.6103 0.6480 0.6844 0.5359 0.5753 0.6141 0.6517 0.6879 0.5 0.6 0.7 0.8 0.9 0.6915 0.7257 0.7580 0.7881 0.8159 0.6950 0.7291 0.7611 0.7910 0.8186 0.6985 0.7324 0.7642 0.7939 0.8212 0.7019 0.7357 0.7673 0.7967 0.8238 0.7054 0.7389 0.7704 0.7995 0.8264 0.7088 0.7422 0.7734 0.8023 0.8289 0.7123 0.7454 0.7764 0.8051 0.8315 0.7157 0.7486 0.7794 0.8078 0.8340 0.7190 0.7517 0.7823 0.8106 0.8365 0.7224 0.7549 0.7852 0.8133 0.8389 1.0 1.1 1.2 1.3 1.4 0.8413 0.8643 0.8849 0.9032 0.9192 0.8438 0.8665 0.8869 0.9049 0.9207 0.8461 0.8686 0.8888 0.9066 0.9222 0.8485 0.8708 0.8907 0.9082 0.9236 0.8508 0.8729 0.8925 0.9099 0.9251 0.8531 0.8749 0.8944 0.9115 0.9265 0.8554 0.8770 0.8962 0.9131 0.9279 0.8577 0.8790 0.8980 0.9147 0.9292 0.8599 0.8810 0.8997 0.9162 0.9306 0.8621 0.8830 0.9015 0.9177 0.9319 1.5 1.6 1.7 1.8 1.9 0.9332 0.9452 0.9554 0.9641 0.9713 0.9345 0.9463 0.9564 0.9649 0.9719 0.9357 0.9474 0.9573 0.9656 0.9726 0.9370 0.9484 0.9582 0.9664 0.9732 0.9382 0.9495 0.9591 0.9671 0.9738 0.9394 0.9505 0.9599 0.9678 0.9744 0.9406 0.9515 0.9608 0.9686 0.9750 0.9418 0.9525 0.9616 0.9693 0.9756 0.9429 0.9535 0.9625 0.9699 0.9761 0.9441 0.9545 0.9633 0.9706 0.9767 2.0 2.1 2.2 2.3 2.4 0.9772 0.9821 0.9861 0.9893 0.9918 0.9778 0.9826 0.9864 0.9896 0.9920 0.9783 0.9830 0.9868 0.9898 0.9922 0.9788 0.9834 0.9871 0.9901 0.9925 0.9793 0.9838 0.9875 0.9904 0.9927 0.9798 0.9842 0.9878 0.9906 0.9929 0.9803 0.9846 0.9881 0.9909 0.9931 0.9808 0.9850 0.9884 0.9911 0.9932 0.9812 0.9854 0.9887 0.9913 0.9934 0.9817 0.9857 0.9890 0.9916 0.9936 2.5 2.6 2.7 2.8 2.9 0.9938 0.9953 0.9965 0.9974 0.9981 0.9940 0.9955 0.9966 0.9975 0.9982 0.9941 0.9956 0.9967 0.9976 0.9982 0.9943 0.9957 0.9968 0.9977 0.9983 0.9945 0.9959 0.9969 0.9977 0.9984 0.9946 0.9960 0.9970 0.9978 0.9984 0.9948 0.9961 0.9971 0.9979 0.9985 0.9949 0.9962 0.9972 0.9979 0.9985 0.9951 0.9963 0.9973 0.998 0.9986 0.9952 0.9964 0.9974 0.9981 0.9986 3.0 3.1 3.2 3.3 3.4 0.9987 0.9990 0.9993 0.9995 0.9997 0.9987 0.9991 0.9993 0.9995 0.9997 0.9987 0.9991 0.9994 0.9995 0.9997 0.9988 0.9991 0.9994 0.9996 0.9997 0.9988 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9997 0.9998 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 98 4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung) Satz 4.9.7 Besitzt X eine Standardnormalverteilung, dann gilt für deren Erwartungswert und Varianz E(X) = 0; Var(X) = 1. Satz 4.9.8 Besitzt X eine Standardnormalverteilung, dann gilt: (1) (2) ϕ(x) = ϕ(−x) für alle x ∈ R, Φ(−x) = 1 − Φ(x) für alle ∈ R c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 99 4.9 Normalverteilung N (µ, σ 2 ) 4.9.3 Normalverteilung N (µ, σ 2 ) Definition 4.9.9 Die Zufallsvariable X besitzt eine Normalverteilung mit den Parametern µ ∈ R und σ > 0, i. Z.: X ∼ N (µ, σ 2 ), falls die Dichte durch 1 fX (x) = √ σ 2π 1 e 2 − · x−µ 2 σ für −∞ < x < ∞ gegeben ist. B N m = 0 s = 1 m = 2 s = 1 N c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 100 4.9 Normalverteilung N (µ, σ 2 ) B N m = 0 s = 1 m = 0 s = 2 N Satz 4.9.10 Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann lautet deren Verteilungsfunktion Rx x−µ FX (x) = −∞ fX (t)dt = Φ( ) für x ∈ R σ Satz 4.9.11 Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann gilt für deren Erwartungswert und Varianz E(X) = µ; Var(X) = σ 2 . Satz 4.9.12 Besitzt X eine Standardnormalverteilung, dann besitzt Y = σX + µ eine Normalverteilung mit den Parametern µ und σ. Satz 4.9.13 X −µ Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann besitzt Y = eine σ Standardnormalverteilung. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 101 4.9 Exponentialverteilung 4.9.4 Exponentialverteilung Die Anwendung der Exponentialverteilung als Verteilung von Wartezeiten (Zeit bis zum nächsten Vorkommnis, oder Zeit zwischen zwei Vorkommnissen, sogenannte Zwischenankunftszeit) ist immer dann möglich, wenn die Anzahl der Vorkommnisse einer Poissonverteilung folgt. Typische Vorkommnisse“ sind z.B. Eintreten von Schadensfällen, Maschinenstörungen, Ankunft ” einer Person an einem Bedienungsschalter, Anrufe in einer Telefonzentrale usw. Der Parameter λ, der als mittlere Anzahl von Vorkommnissen in der Zeiteinheit eine spezielle Poissonverteilung festlegt, charakterisiert auch die zugehörige Exponentialverteilung der Wartezeiten. Um die Exponentialverteilung zu formulieren, betrachten wir zunächst die beiden Zufallsvariablen X (Anzahl der Vorkommnisse in einer Zeiteinheit) und X(t) (Anzahl der Vorkommnisse in einer Zeitspanne der Länge t): λk −λ e , k! insbesondere P{X = 0} = e−λ (1) E(X) = λ, P{X = k} = (λt)k −λt e k! t insbesondere P{X(t) = 0} = e−λt = e−λ (2) E(X(t)) = λt, P{X(t) = k} = Wir bezeichnen die Wartezeit bis zum nächsten Vorkommnis mit Y . Dann ist Y > t gleichbedeutend damit, dass über die Zeitspanne t die Anzahl der Vorkommnisse gleich 0 ist, also P{Y > t} = P{X(t) = 0} = e−λt und somit FY (t) = P{Y ≤ t} = 1 − e−λt für t > 0 0 für t ≤ 0 Dies ist die Verteilungsfunktion der Exponentialverteilung. Die Dichtefunktion ergibt sich durch die Ableitung der Verteilungsfunktion. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 102 4.9 Exponentialverteilung Definition 4.9.14 Die Zufallsvariable X besitzt eine Exponentialverteilung mit dem Parameter a > 0, falls die Dichte durch a · e−ax für x ≥ 0 fX (x) = 0 sonst gegeben ist. B N = N c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 103 4.9 Exponentialverteilung Satz 4.9.15 Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann lautet deren Verteilungsfunktion 0 für x < 0 FX (x) = 1 − e−ax für x ≥ 0 . N N Satz 4.9.16 Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann gilt für deren Erwartungswert und Varianz 1 1 E(X) = ; Var(X) = 2 . a a c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 104 4.9 Exponentialverteilung Bemerkung 4.9.17 Während die Exponentialverteilung als Wartezeitverteilung mit stetiger Zeit verwendet werden kann, ist die geometrische Verteilung ein diskretes Gegenstück dazu. Wenn in einer Folge von Bernoulliversuchen die einzelnen Versuche mit Zeitperioden identifiziert werden und Y die Anzahl der Versuche (=Perioden) bis zum nächsten Treffer bezeichnet, dann ist Y > k gleichbedeutend damit, dass k Perioden hintereinander kein Treffer erzielt wird, also P {Y > k} = (1 − p)k wobei 1 − p die Wahrscheinlichkeit ist, dass in einer Periode kein Treffer erzielt wird. D. h. 1 − p entspricht e−λ . Die Verteilungsfunktion der geometrisch verteilten diskreten Wartezeit Y ist dann in den Sprungstellen k = 1, 2, 3, ... gegeben mit FY (k) = P {Y ≤ k} = 1 − P {Y > k} = 1 − (1 − p)k . Beachte dabei die Ähnlichkeit mit der Verteilungsfunktion der Exponentialverteilung t FX (t) = P {X ≤ t} = 1 − P {Y > t} = 1 − e−a . Die Wahrscheinlichkeitsfunktion hat wie schon in (2.8.5) gesehen einen fallenden Verlauf, ähnlich wie die Dichte der Exponentialverteilung. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 5 Zweidimensionale Zufallsvariablen 5.1 Einführung Beispiel 5.1.1 (Roulette) Spieler Einsatz Auszahlung bei Gewinn A (plain) B (carré) 1e 2e 36 e 18 e . " # . S p i e l e r A ! $ % 105 S p i e l e r B 106 5.1. EINFÜHRUNG Ω = {0, 1, 2, . . . , 36}, F = P(Ω), |E| für alle E ∈ F. |Ω| X sei die Auszahlung an Spieler A und B : X : Ω → R2 mit P : F → R mit P(E) = ω X(ω) 2 (36, 18) 3 (0, 18) 5 (0, 18) 6 (0, 18) sonst (0, 0) X (Ω, F, P) −→ (R2 , B2 , PX ), PX (B) = P(X−1 (B)) für alle B ∈ B2 , insbesondere gilt: PX ({(x, y)}) = P(X−1 ({(x, y)})) = P{ω ∈ Ω : X(ω) = (x, y)}, (x, y) (0, 0) (0, 18) (36, 18) PX ((x, y)) 33 37 3 37 1 37 Bemerkung 5.1.2 Bei einer zweidimensionalen Zufallsvariablen gilt: X(ω) = (X1 (ω), X2 (ω)) für alle ω ∈ Ω. Deshalb schreibt man auch X = (X1 , X2 ). c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 107 5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE 5.2 Zweidimensionale diskrete Zufallsvariable Definition 5.2.1 Eine zweidimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B ⊂ R2 gibt mit PX (B) = P{X ∈ B} = 1. Definition 5.2.2 Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .} und der Wahrscheinlichkeitsverteilung PX . Dann heißt die Abbildung p : R2 → [0, 1] mit PX {(x1 , x2 )} für (x1 , x2 ) ∈ X(Ω) p((x1 , x2 )) = 0 für (x1 , x2 ) ∈ R2 \ X(Ω) gemeinsame Wahrscheinlichkeitsfunktion von X. Die Menge T = {(x1 , x2 ) ∈ R2 : p((x1 , x2 )) > 0} heißt Träger, die Elemente (x1 , x2 ) ∈ T heißen Trägerpunkte und die Werte p((x1 , x2 )) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung 5.2.3 Es gilt: PX (B) = X p((x1 , x2 )) für alle B ⊂ X(Ω). (x1 ,x2 )∈B Satz 5.2.4 Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) ≥ 0 für x ∈ R2 , (2) P x∈X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine zweidimensinale Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Bemerkung 5.2.5 Um nicht zuviele Indizes zu gebrauchen, setzen wir oft für einen zweidimensionalen Zufallvektor X =: (X, Y ). c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 108 5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE Bemerkung 5.2.6 Ist X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den endlich vielen Trägerpunkten (xi , yj ) und den zugehörenden Punktwahrscheinlichkeiten p(xi , yj ) =: pij , i = 1, . . . , m, j = 1, . . . , n, dann lässt sich die Wahrscheinlichkeitsfunktion leicht mit Hilfe der folgenden Matrix darstellen: Y y1 · · · yj ··· yn X x1 .. . p11 .. . ··· .. . p1j .. . ... .. . p1n .. . xi .. . pi1 .. . ··· .. . pij .. . ··· .. . pin .. . xm pm1 ··· pmj ··· pmn Dabei setzt man pi0 j 0 = 0, falls (xi0 ; yj 0 ) kein Trägerpunkt von X ist. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 109 5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE 5.3 Zweidimensionale stetige Zufallsvariable Definition 5.3.1 Jede Funktion f : R2 → R mit f (x1 , x2 ) ≥ 0, (x1 , x2 ) ∈ R2 und R ∞ RRiemann-integrierbare ∞ −∞ −∞ f (x1 , x2 )dx1 dx2 = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw. Dichte). Beispiel 5.3.2 Gegeben sei die Funktion f (x1 , x2 ) : f (x1 , x2 ) = 1 für 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1 0 sonst R∞ R∞ R1R1 Es gilt f (x1 , x2 ) ≥ 0, (x1 , x2 ) ∈ R2 und −∞ −∞ f (x1 , x2 )dx1 dx2 = 0 0 1dx1 dx2 = 1. Damit ist f (x1 , x2 ) eine Dichte. Definition 5.3.3 Es sei X = (X1 , X2 ) eine zweidimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Dichtefunktion fX . Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a1 , b1 ] × (a2 , b2 ] ⊂ R2 gilt: Z b1 Z b2 fX (x1 , x2 )dx2 dx1 . PX ((a1 , b1 ] × (a2 , b2 ]) = P{a1 < X1 ≤ b1 , a2 < X2 ≤ b2 } = a1 a2 Bemerkung 5.3.4 Die Wahrscheinlichkeit ist zunächst nur für zweidimensionale Intervalle definiert. Man kann aber für alle reguläre Mengen, worunter alle bekannten geometrischen Objekte wie z. B. Kreis, Dreieck oder Vieleck durch Quadrate von unten und oben approximieren und damit die Wahrscheinlichkeit berechnen. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE Beispiel 5.3.5 Gegeben sei die Dichte einer 2-dimensionalen Zufallsvariablen X = (X, Y ) : fX (x, y) = 2 für 0 ≤ x ≤ y ≤ 1 0 sonst f(x,y) R 0.5 R 0.5 PX ((0, 0.5] × (0, 0.5]) = P{0 < X ≤ 0.5, 0 < Y ≤ 0.5} = 0 0 fX (x, y)dydx = R 0.5 R 0.5 R 0.5 R 0.5 0.5 2 0.5 x 2dydx = 0 [2y]x dx = 0 (1 − 2x)dx = [x − x ]0 = 0.25 0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 110 5.4. DIE VERTEILUNGSFUNKTION VON ZWEIDIMENSIONALEN ZUFALLSVARIABLEN 5.4 111 Die Verteilungsfunktion von zweidimensionalen Zufallsvariablen Definition 5.4.1 Es sei X = (X1 , X2 ) eine zweidimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX . Die Abbildung FX : R2 → R mit FX (x1 , x2 ) := PX ((−∞, x1 ] × (−∞, x2 ]) = P{X1 ≤ x1 , X2 ≤ x2 } für alle (x1 , x2 ) ∈ R2 heißt Verteilungsfunktion von X = (X1 , X2 ) oder gemeinsame Verteilungsfunktion der Zufallsvariablen X1 und X2 . Bemerkung 5.4.2 Aufgrund der Definition einer Verteilungsfunktion gilt: P P i:x1i ≤x1 j:x2j ≤x2 p(x1i , x2j ) falls X diskret FX (x1 , x2 ) = R x1 R x2 falls X stetig −∞ −∞ fX (t1 , t2 )dt2 dt1 Satz 5.4.3 (Eigenschaften einer 2-dim. Verteilungsfunktion) Für die Verteilungsfunktion einer 2-dimensionalen Zufallsvariablen X = (X, Y ) gilt: (1) FX (x, y) ≤ FX (x + h, y), h > 0, FX (x, y) ≤ FX (x, y + h), h > 0, d. h. FX ist monoton steigend in jeder Variablen, (2) lim FX (x + h, y) = FX (x, y), h→0 h>0 lim FX (x, y + h) = FX (x, y), h→0 h>0 d. h. FX ist rechtsseitig stetig, (3) x→∞ lim FX (x, y) =: FX (∞, ∞) = 1 y→∞ (4) (5) lim FX (x, y) =: FX (−∞, y) = 0 x→−∞ lim FX (x, y) =: FX (x, −∞) = 0 y→−∞ (6) Für a1 , a2 , b1 , b2 ∈ R mit a1 < a2 und b1 < b2 folgt: FX (a2 , b2 ) − FX (a1 , b2 ) − FX (a2 , b1 ) + FX (a1 , b1 ) ≥ 0. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.4. DIE VERTEILUNGSFUNKTION VON ZWEIDIMENSIONALEN ZUFALLSVARIABLEN 112 Satz 5.4.4 Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX . Dann gilt für alle (xi , yj ) ∈ R2 , i, j = 1, 2, PX ((x1 , x2 ] × (y1 , y2 ]) = FX (x2 , y2 ) − FX (x1 , y2 ) − FX (x2 , y1 ) + FX (x1 , y1 ). Graphische Veranschaulichung: PX (B) = PX ((x1 , x2 ] × (y1 , y2 ]) y 6 (x1 , y2 ) e y2 (x2 , y2 ) u B y1 e (x1 , y1 ) e (x2 , y1 ) x1 x2 x Satz 5.4.5 Ist fX eine Dichte zu der Verteilungsfunktion FX einer 2-dimensionalen Zufallsvariablen X, so ◦ ◦ gilt an allen Stetigkeitsstellen (x1 , x2 ) von fX : ∂ 2 FX (x1 , x2 ) fX (x1 , x2 ) = ∂x1 ∂x2 (x◦ 1 ,x◦ 2 ) ◦ ◦ Bemerkung 5.4.6 ◦ ◦ Unter den Voraussetzungen von Satz (5.4.5), dass die (x1 , x2 ) Stetigkeitsstellen von FX sind, gilt, dass die partiellen Ableitungen unabhängig von der Reihenfolge der Differentiationen sind. Beispiel 5.4.7 Gegeben sei die Verteilungsfunktion einer 2-dimensionalen stetigen Zufallsvariablen X = (X1 , X2 ) : x1 ≥ 0, x2 ≥ 0 1 − e−2x1 − e−x2 + e−2x1 −x2 für FX (x1 , x2 ) = 0 sonst Dann gilt für eine Dichte: −2x −x 2e 1 2 ∂ 2 FX (x1 , x2 ) fX (x1 , x2 ) = = ∂x1 ∂x2 0 für x1 ≥ 0, x2 ≥ 0 sonst c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 113 5.5. RANDVERTEILUNGEN ZWEIDIMENSIONALER ZUFALLSVARIABLEN 5.5 Randverteilungen zweidimensionaler Zufallsvariablen Satz und Definition 5.5.1 Es sei X = (X1 , X2 ) eine 2-dimensionale Zufallsvariable mit der Verteilungsfunktion FX . Dann werden durch FX1 (x1 ) = lim FX (x1 , x2 ) =: FX (x1 , ∞) für alle x1 ∈ R, x2 →∞ bzw. FX2 (x2 ) = lim FX (x1 , x2 ) =: FX (∞, x2 ) für alle x2 ∈ R. x1 →∞ zwei Verteilungsfunktionen definiert. Man nennt sie Randverteilungsfunktionen von X. Beispiel 5.5.2 Gegeben sei die 2-dimensionale Zufallsvariable Z = (X, Y ) mit der Verteilungsfunktion FX (x1 , x2 ) = 1 − e−2x1 − e−x2 + e−2x1 −x2 0 für x1 ≥ 0, x2 ≥ 0 sonst Dann gilt: 1 − e−2x1 FX1 (x1 ) = FX (x1 , ∞) = bzw. FX2 (x2 ) = FX (∞, x2 ) = 0 1 − e−x2 0 für x1 ≥ 0 sonst für x2 ≥ 0 sonst Satz und Definition 5.5.3 Es sei X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den Punktwahrscheinlichkeiten p(xi , yj ), i, j ∈ N. Dann werden durch X pi· := p(xi ) = p(xi , yj ), i ∈ N j∈N bzw. p·j := p(yj ) = X p(xi , yj ), j ∈ N. i∈N zwei Wahrscheinlichkeitsfunktionen definiert. Man bezeichnet sie als Randwahrscheinlichkeitsfunktionen von X. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 114 5.5. RANDVERTEILUNGEN ZWEIDIMENSIONALER ZUFALLSVARIABLEN Bemerkung 5.5.4 Ist X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den endlich vielen Trägerpunkten (xi , yj ) und den zugehörenden Punktwahrscheinlichkeiten p(xi , yj ) =: pij , i = 1, . . . , m, j = 1, . . . , n, deren Wahrscheinlichkeitsverteilung mittels einer Matrix angeordnet ist, dann ergeben sich die Randverteilungen pi· als Spaltensummen und die p·j als Zeilensummen: Y pi· = P y1 ··· yj ··· yn x1 .. . p11 .. . ··· .. . p1j .. . ... .. . p1n .. . p1· .. . xi .. . pi1 .. . ··· .. . pij .. . ··· .. . pin .. . pi· .. . xm P p·j = i pij pm1 p·1 ··· ··· pmj p·j ··· ··· pmn p·n pm· 1 X j pij Satz und Definition 5.5.5 Es sei X = (X, Y ) eine 2-dimensionale stetige Zufallsvariable mit Dichte fX . Dann werden durch Z ∞ fX (x) = fZ (x, y)dy für alle x ∈ R, −∞ bzw. fY (y) = Z ∞ fZ (x, y)dx für alle y ∈ R. −∞ zwei Dichten definiert. Man nennt sie Randdichten von X. Beispiel 5.5.6 Gegeben sei die 2-dimensionale Zufallsvariable X = (X, Y ) mit der Dichtefunktion fX (x, y) = Dann gilt: fX (x) = Z ∞ 2 für 0<x<y<1 . 0 sonst fX (x, y)dy = −∞ bzw. fY (y) = Z ∞ −∞ fX (x, y)dx = 2(1 − x) für 0<x<1 0 sonst 2y für 0<y<1 . 0 sonst c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 115 5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN 5.6 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen Beispiel 5.6.1 (Motivation) (siehe auch Beispiel 5.1.1) Spieler Einsatz Auszahlung bei Gewinn A (plain) B (carré) 1e 2e 36 e 18 e . " # S p i e l e r . A ! $ S p i e l e r B % Für die gemeinsame Verteilung des Zufallsvektors X = (X, Y ) mit X Auszahlung an Spieler ” A“ und mit Y Auszahlung an Spieler B“ erhielten wir in Beispiel 5.1.1 die folgende Wahr” scheinlichkeitsfunktion: (x, y) (0, 0) (0, 18) (36, 18) PX {(x, y)} 33 37 3 37 1 37 . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN 116 In Matrixdarstellung mit den Randverteilungen ergibt sich folgende Darstellung: Y 0 18 pi· 0 33 37 36 0 33 37 36 37 1 37 p·j 3 37 1 37 4 37 X 1 Spieler A verlässt für kurze Zeit den Spieltisch, nachdem er gesetzt und auch den Einsatz von Spieler B gesehen hat. Als er zurückkommt, hört er, dass Spieler B gewonnen hat. Wie groß ist die Wahrscheinlichkeit, dass auch Spieler A gewonnen hat? Gefragt wird somit nach der Wahrscheinlichkeit, dass Spieler A 36 e gewinnt unter der Bedingung, dass Spieler B 18 e gewonnen hat. Gemäß der Definition der bedingten Wahrscheinlichkeit erhält man: P({X = 36}|{Y = 18}) = P({ω : X(ω) = 36}|{ω : Y (ω) = 18}) = P{ω : X(ω) = 36 ∧ Y (ω) = 18} P({ω : X(ω) = 36} ∩ {ω : Y (ω) = 18}) = = P({ω : Y (ω) = 18}) P{ω : Y (ω) = 18} 1 P{2} 1 = 37 = . 4 P{2, 3, 5, 6} 4 37 Zur Berechung genügt aber auch nur die Kenntnis von PX und PY : 1 P{X = 36 ∧ Y = 18} P{(X, Y ) = (36, 18)} 1 37 P({X = 36}|{Y = 18}) = = = = . 4 P{Y = 18} P{Y = 18} 4 37 Ebenso berechnet man 3 P{(X, Y ) = (0, 18)} 3 P{X = 0 ∧ Y = 18} = = 37 = . P({X = 0}|{Y = 18}) = 4 P{Y = 18} P{Y = 18} 4 37 Die bedingte Wahrscheinlichkeitsverteilung von X unter der Bedingung Y = 18 ist gegeben durch: x 0 36 PX|Y =18 {x} 3 4 1 4 Dies führt nun zu der folgenden Definition. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN 117 Satz und Definition 5.6.2 Es sei X = (X, Y ) eine diskrete 2-dimensionale Zufallsvariable mit PX {(x, y)} = P{X = x; Y = y}. Für ein festes y gelte PY {y} = P{Y = y} > 0, dann ist durch PX|Y =y (·) : B → R mit PX|Y =y (A) := P{X ∈ A; Y = y} für alle A ∈ B P{Y = y} eine Wahrscheinlichkeitsverteilung gegeben. Man nennt sie die bedingte Wahrscheinlichkeitsverteilung von X unter der Bedingung Y = y. Entsprechend ist für ein festes x mit PX {x} = P{X = x} > 0 durch PY |X=x (B) := P{X = x; Y ∈ B} für alle B ∈ B P{X = x} die bedingte Wahrscheinlichkeitsverteilung von Y unter der Bedingung X = x definiert. Bemerkung 5.6.3 Besitzt die diskrete 2-dimensionale Zufallsvariable X = (X, Y ) die Punktwahrscheinlichkeiten PX {(xi , yj )} = P{X = xi ; Y = yj } = pij , und gilt für ein festes j PY {yj } = P{Y = yj } = p·j > 0, dann gilt: PX|Y =yj {xi } := P{X = xi ; Y = yj } pij = für alle xi . P{Y = yj } p·j Gilt für ein festes i PX {xi } = P{X = xi } = pi· > 0, dann gilt: PY |X=xi {yj } := pij P{X = xi ; Y = yj } = für alle yj . P{X = xi } pi· c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 118 5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN Satz und Definition 5.6.4 Es sei X = (X, Y ) eine 2-dimensionale stetige Zufallsvariable mit einer gemeinsamen Dichte fX und den Randdichten fX bzw. fY . An einer festen Stelle y ∈ R sei fY stetig und es gelte fY (y) > 0. Dann ist fX|Y =y (·) : R → R mit fX|Y =y (x) := fX (x, y) für alle x ∈ R fY (y) eine Dichte(funktion). Man nennt sie eine bedingte Dichte(funktion) von X unter der Bedingung Y = y. Entsprechend ist für eine feste Stetigkeitsstelle x ∈ R von fX mit fX (x) > 0 durch fY |X=x (y) := fX (x, y) für alle y ∈ R fX (x) eine bedingte Dichte(funktion) von Y unter der Bedingung X = x definiert. Beispiel 5.6.5 Gegeben sei die 2-dimensionale stetige Zufallsvariable X = (X, Y ) mit der Dichte 3 0≤y≤x≤2 (x − y) für 4 fX (x, y) = 0 sonst und der Randdichte 3 0≤x≤2 x2 für 8 fX (x) = 0 sonst Dann ist eine bedingte Dichte fY |X=x (·) gegeben durch 3 (x − y) 4 fZ (x, y) 3 2 fY |X=x (y) = = x fX (x) 8 0 bzw. 2(x − y) 2 fY |X=x (y) = 0 x für sonst für 0≤y≤x 0<x≤2 sonst 0≤y≤x 0 < x ≤ 2. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN 119 Bemerkung 5.6.6 Sowohl im diskreten als auch im stetigen Fall kann man bedingte Verteilungsfunktionen einführen, z. B. P pij für alle x ∈ R und p·j > 0, FX|Y =yj (x) := PX|Y =yj ((−∞, x]) = i:xi ≤x p·j FX|Y =y (x) := Rx −∞ fX|Y =y (t)dt für alle x ∈ R, y Stetigkeitsstelle und fY (y) > 0. Definition 5.6.7 Es seien X = (X, Y ) ein zweidimensionaler Zufallsvektor mit der gemeinsamen Verteilungsfunktion FX und den Randverteilungsfunktionen FX bzw. FY . Die Zufallsvariablen X und Y heißen (stochastisch) unabhängig, wenn gilt FX (x, y) = FX (x) · FY (y) für alle x, y ∈ R. Satz 5.6.8 Es sei X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den Trägerpunkten (xi , yj ) und den zugehörigen Punktwahrscheinlichkeiten pij := p(xi , yj ), i, j ∈ N sowie den Randwahrscheinlichkeiten pi· := p(xi ) bzw. p·j := p(yj ). Die Zufallsvariablen X und Y sind genau dann unabhängig, wenn gilt pij = pi· · p·j für alle (xi , yj ) ∈ R2 . (a) Sind X und Y stochastisch unabhängige Zufallsvariablen mit den Dichten fX bzw. fY , dann hat der Zufallsvektor X = (X, Y ) die Dichte fX mit fX (x, y) = fX (x) · fY (y) für alle x, y ∈ R. (b) Umgkehrt gilt: Hat X eine Dichte fX , dann sind X und Y stochastisch unabhängig mit den Dichten fX und fY . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 120 5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN 5.7 Momente zweidimensionaler Zufallsvariablen Satz 5.7.1 Es seien X = (X, Y ) eine zweidimensionale Zufallsvariable und G : R2 → R eine B2 − B−messbare Abbildung. Ist X = (X, Y ) diskret mit den Trägerpunkten (xi , yj ) und den Punktwahrscheinlichkeiten p(xi , yj ) =: pij , i = 1, . . . , m, j = 1, . . . , n, so existiert der Erwartungswert E(G(X, Y )), falls XX |G(xi , yj )| · pij < ∞ i j und es gilt E(G(X, Y )) = XX i G(xi , yj ) · pij . j Ist X = (X, Y ) stetig mit einer gemeinsamen Dichte fX , so existiert E(G(X, Y )), falls Z ∞Z ∞ |G(x, y)| · fX (x, y)dydx < ∞ −∞ −∞ und es gilt E(G(X, Y )) = Z ∞ −∞ Z ∞ G(x, y) · fX (x, y)dydx. −∞ Definition 5.7.2 Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable. Als Momente um Null (r + s)-ter Ordnung von X = (X, Y ) bezeichnet man: µrs := E(X r · Y s ) für r, s ∈ N ∪ {0}. Als zentrale Momente (r + s)-ter Ordnung von X = (X, Y ) bezeichnet man: σ rs := E[(X − E(X))r · (Y − E(Y ))s ] für r, s ∈ N ∪ {0}. Definition 5.7.3 Es sei X = (X, Y ) eine zweidimensionale Zufallsvariable. Das zentrale Moment zweiter Ordnung σ 11 = E[(X − E(X)) · (Y − E(Y ))] =: Cov(X, Y ) nennt man Kovarianz zwischen X und Y. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN 121 Satz 5.7.4 Es seien X, Y und Z eindimensionale Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P ) und a, b ∈ R. Dann gilt: (1) Cov(aX, bY ) = ab · Cov(X, Y ), (2) Cov(X + a, Y + b) = Cov(X, Y ) (Translationsinvarianz), (3) Cov(X, Y ) = E(X · Y ) − E(X) · E(Y ) (4) Cov(X, Y ) = Cov(Y, X) (Kovarianzzerlegungssatz), (Symmetrie), (5) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ). Satz 5.7.5 Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable. Dann gilt für die Komponenten X und Y : (1) E(X ± Y ) = E(X) ± E(Y ). Sind X und Y außerdem stochastisch unabhängig, dann gilt: (2) E(X · Y ) = E(X) · E(Y ). Satz 5.7.6 Gegeben sei die 2-dimensionale Zufallsvariable X = (X, Y ). Sind X und Y unabhängig, so gilt: Cov(X, Y ) = 0. Bemerkung 5.7.7 I.a. folgt aus Cov(X, Y ) = 0 nicht die Unabhängigkeit von X und Y. Satz 5.7.8 Gegeben sei die 2-dimensionale Zufallsvariable X = (X, Y ). Dann gilt: (1) Var(X ± Y ) = Var(X) + Var(Y ) ± 2 · Cov(X, Y ) Sind X und Y unabhängig, so folgt weiter: (2) Var(X ± Y ) = Var(X) + Var(Y ) c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN 122 Definition 5.7.9 Es seien X und Y zwei Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P). (a) Sind X und Y diskret mit P{X = x} > 0, dann ist der bedingte Erwartungswert von Y gegeben X = x definiert durch X E(Y |X = x) = y · PY |X=x {y} y und die bedingte Varianz von Y gegeben X = x ist definiert durch X Var(Y |X = x) = (y − E(Y |X = x))2 · PY |X=x {y}. y (b) Sind X und Y stetig mit fX (x) > 0, dann ist der bedingte Erwartungswert von Y gegeben X = x definiert durch Z ∞ y · fY |X=x (y)dy E(Y |X = x) = −∞ und die bedingte Varianz von Y gegeben X = x ist definiert durch Z ∞ Var(Y |X = x) = (y − E(Y |X = x))2 · fY |X=x (y)dy. −∞ Bemerkung 5.7.10 Entsprechendes gilt für E(X|Y = y) und Var(X|Y = y). Satz 5.7.11 (diskrete Zufallsvariable) P Es seien X und Y diskrete Zufallsvariablen und es möge E(Y 2 |X = x) := y y 2 · PY |X=x {y} existieren. Dann gilt: Var(Y |X = x) = E(Y 2 |X = x) − [E(Y |X = x)]2 . Satz 5.7.12 (stetige Zufallsvariable) R∞ Es seien X und Y stetige Zufallsvariablen und es möge E(Y 2 |X = x) := −∞ y 2 · fY |X=x (y)dy existieren. Dann gilt: Var(Y |X = x) = E(Y 2 |X = x) − [E(Y |X = x)]2 . Definition 5.7.13 Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable mit Var(X) > 0 und Var(Y ) > 0. Man bezeichnet die reelle Zahl Korr(X, Y ) := Cov(X, Y ) p =: ρ(X, Y ) + Var(X) · Var(Y ) als Korrelationskoeffizienten (nach Bravais-Pearson) zwischen X und Y. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 123 5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN Satz 5.7.14 Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable über (Ω, F, P) mit Var(X) > 0 und Var(Y ) > 0. Der Korrelationskoeffizient von X und Y hat die folgenden Eigenschaften: (1) −1 ≤ Korr(X, Y ) ≤ 1, (2) Korr(X, Y ) = 1, (bzw. = −1), genau dann wenn Y = aX + b mit a > 0, (bzw. mit a < 0), (3) Korr(X + a, Y + b) = Korr(X, Y ) für alle a, b ∈ R (Translationsinvarianz), (4) Korr(aX, bY ) = Korr(X, Y ) für alle a, b ∈ R mit a · b > 0, (bzw. Korr(aX, bY ) = − Korr(X, Y ) falls a · b < 0), (5) Korr(X, Y ) = Korr(Y, X) (Symmetrie), (6) Sind X und Y unabhängig, so gilt Korr(X, Y ) = 0. Bemerkung 5.7.15 Entsprechend zu Bemerkung (5.7.6) gilt auch für den Korrelationskoeffizienten, dass aus Korr(X, Y ) = 0 i.a. nicht die Unabhängigkeit von X und Y folgt, es kann aber in diesem Fall keine lineare Abhängigkeit zwischen X und Y gegeben sein. Man bezeichnet zwei Zufallsvariablen X und Y mit Korr(X, Y ) = 0 als unkorreliert. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 6 Mehrdimensionale Zufallsvariablen 6.1 Allgemeine Definitionen und Sätze Definition 6.1.1 Eine n-dimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B ⊂ Rn gibt mit PX (B) = P{X ∈ B} = 1. Definition 6.1.2 Es sei X eine n-dimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .} und der Wahrscheinlichkeitsverteilung PX . Dann heißt die Abbildung p : Rn → [0, 1] mit PX {(x1 , . . . , xn )} für (x1 , . . . , xn ) ∈ X(Ω) p((x1 , . . . , xn )) = 0 für (x1 , . . . , xn ) ∈ Rn \ X(Ω) gemeinsame Wahrscheinlichkeitsfunktion von X. Die Menge T = {(x1 , . . . , xn ) ∈ Rn : p((x1 , . . . , xn )) > 0} heißt Träger, die Elemente (x1 , . . . , xn ) ∈ T heißen Trägerpunkte und die Werte p((x1 , . . . , xn )) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung 6.1.3 Es gilt: PX (B) = X p((x1 , . . . , xn )) für alle B ⊂ X(Ω). (x1 ,...,xn )∈B 124 125 6.1. ALLGEMEINE DEFINITIONEN UND SÄTZE Satz 6.1.4 Es sei X eine n-dimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) ≥ 0 für x ∈ Rn , (2) P x∈X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine n-dimensinale Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Definition 6.1.5 Jede RRiemann-integrierbare Funktion f : Rn → R mit f (x1 , . . . , xn ) ≥ 0, (x1 , . . . , xn ) ∈ Rn R∞ ∞ und −∞ · · · −∞ f (x1 , . . . xn )dx1 · · · dxn = 1 heißt Riemann-Dichtefunktion (RiemannDichte oder auch kurz Dichtefunktion bzw. Dichte). Definition 6.1.6 Es sei X = (X1 , · · · Xn ) eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Dichtefunktion fX . Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a1 , b1 ] × · · · × (an , bn ] ⊂ R2 gilt: PX ((a1 , b1 ] × · · · × (an , bn ]) = P{a1 < X1 ≤ b1 , . . . , an < X2 ≤ bn } = R b1 a1 ··· R bn an fX (x1 , . . . , xn )dxn · · · dx1 . Definition 6.1.7 Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX . Die Abbildung FX : Rn → R mit FX (x1 , . . . , xn ) := PX ((−∞, x1 ] × · · · × (−∞, xn ]) = P{X1 ≤ x1 , . . . , Xn ≤ xn } für alle (x1 , . . . , xn ) ∈ Rn heißt Verteilungsfunktion von X = (X1 , . . . , Xn ) oder gemeinsame Verteilungsfunktion der Zufallsvariablen X1 , . . . , Xn . Bemerkung 6.1.8 Aufgrund der Definition einer Verteilungsfunktion gilt: FX (x1 , . . . , xn ) = P P i:x1i1 ≤x1 · · · i:xnin ≤xn p(x1i1 , . . . xnin ) falls X diskret R x1 R xn −∞ · · · −∞ fX (t1 , . . . , tn )dtn · · · dt1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung falls X stetig 126 6.1. ALLGEMEINE DEFINITIONEN UND SÄTZE Satz 6.1.9 Ist fX eine Dichte zu der Verteilungsfunktion FX einer n-dimensionalen Zufallsvariablen X, so ◦ ◦ gilt an allen Stetigkeitsstellen (x1 , . . . , xn ) von fX : ∂ n FX (x1 , . . . , xn ) fX (x1 , . . . , xn ) = ◦ ◦ ∂x1 . . . ∂xn (x1 ,...,x2 ) ◦ ◦ Satz und Definition 6.1.10 Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit der gemeinsamen Verteilungsfunktion FX . Dann wird für jedes i ∈ {1, . . . , n} durch FXi (xi ) = lim x1 , . . . , xi−1→∞ FX (x1 , . . . , xi−1 , xi , xi+1 , . . . , xn ) =: xi+1 , . . . , xn→∞ FX (∞, . . . , ∞, xi , ∞, . . . , ∞) für i = 1, . . . , n. eine Verteilungsfunktion definiert. Man nennt sie i-te Randverteilungsfunktion von X. Satz und Definition 6.1.11 Es sei X = (X1 , . . . , Xn ) eine n-dimensionale diskrete Zufallsvariable mit den Punktwahrscheinlichkeiten p(x1i1 , . . . xnin ), i1 , . . . , in ∈ N. Dann wird durch X p(xkik ) = p(x1i1 , . . . xnin ), ik ∈ N {i1 ,...,in }\ik eine Wahrscheinlichkeitsfunktion definiert. Man nennt sie i-te Randwahrscheinlichkeitsfunktion von X. Satz und Definition 6.1.12 Es sei X = (X1 , . . . , Xn ) eine n-dimensionale stetige Zufallsvariable mit der gemeinsamen Dichte fX . Dann wird durch: Z ∞ Z ∞ fXi (xi ) = ··· fX (t1 , . . . ti−1 , xi , ti+1 , . . . tn )dtn · · · dt1 , i = 1, . . . , n −∞ −∞ eine Dichte definiert. Man nennt sie i-te Randdichtefunktionen von X. Definition 6.1.13 Es seien X = (X1 , . . . Xn ) ein n-dimensionaler Zufallsvektor mit der gemeinsamen Verteilungsfunktion FX und den Randverteilungsfunktionen FXi , i = 1, . . . , n. Die Zufallsvariablen Xi , i = 1, . . . , n, heißen (stochastisch) unabhängig, wenn gilt FX (x1 , . . . , xn ) = FX1 (x1 ) × · · · × FXn (xn ) für alle (x1 , . . . , xn ) ∈ Rn . Satz 6.1.14 Es sei X = (X1 , . . . , Xn ) eine n-dimensionale diskrete Zufallsvariable mit der Wahrscheinlichkeitsfunktion p(x1 , . . . xn ) und den Randwahrscheinlichkeitsfunktionen p(xi ), i = 1, . . . , n. Die Zufallsvariablen Xi , i = 1, . . . , n, sind genau dann unabhängig, wenn gilt p(x1 , . . . xn ) = p(x1 ) × · · · × p(xn ) für alle (x1 , . . . , xn ) ∈ Rn . c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 127 6.1. ALLGEMEINE DEFINITIONEN UND SÄTZE Satz 6.1.15 (a) Sind Xi stochastisch unabhängige Zufallsvariablen mit den Dichten fXi , i = 1, . . . , n, dann hat der Zufallsvektor X = (X1 , . . . , Xn ) die Dichte fX mit fX (x1 , . . . , xn ) = fX1 (x1 ) × · · · × fXn (xn ) für alle (x1 , . . . , xn ) ∈ Rn . (b) Umgkehrt gilt: Hat X eine Dichte fX , dann sind die Xi stochastisch unabhängig mit den Dichten fXi , i = 1, . . . , n. Satz 6.1.16 Es seien X1 , . . . , Xk , k ∈ N, stochastisch unabhängige Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P) und gk : R → R, k ∈ N B − B−messbare Abbildungen. Dann sind g1 (X1 ), . . . , gk (Xk ) ebenfalls unabhängige Zufallsvariablen. Satz 6.1.17 Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit existierenden ErwartungswerP ten E(Xi ), i = 1, . . . , n. Dann existiert auch E( ni=1 Xi ) und es gilt n n X X E( Xi ) = E(Xi ). i=1 i=1 Satz 6.1.18 (a) Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit existierenden Varianzen P Var(Xi ), i = 1, . . . , n. Dann existiert auch Var( ni=1 Xi ) und es gilt n n X X Var( Xi ) = Var(Xi ) + 2 i=1 i=1 X Cov(Xi , Xj ) 1≤i<j≤n (b) Sind X1 , . . . , Xn außerdem stochastisch unabhängig, dann gilt: n n X X Var( Xi ) = Var(Xi ) i=1 i=1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 7 Summen von unabhängigen Zufallsvariablen 7.1 Bernoulli-, Binomial-, Poisson- und Normalverteilungen Satz 7.1.1 Es seien X1 , ..., Xn , n ∈ N, unabhängig, identisch verteilte Zufallsvariablen, die alle Bernoulliverteilt sind, d. h. x 0 1 , k = 1, ..., n, 0 < p < 1. PXk {x} 1 − p p Dann ist die Zufallsvariable Zn := X1 + · · · + Xn binomialverteilt mit den Parametern n und p, d. h. es gilt: PZn {i} = (ni )pi (1 − p)n−i für i ∈ {0, 1, ..., n}. Folgerung 7.1.2 Bei einem Zufallsexperiment trete ein Ereignis A mit der Wahrscheinlichkeit p ∈ (0, 1) ein. Wird das Experiment n-mal unabhängig wiederholt, so ist die Anzahl Z der Versuche, bei denen A eintritt, eine binomialverteilte Zufallsvariable mit den Parametern n und p. Satz 7.1.3 Die Zufallsvariablen X1 , . . . , Xk seien stochastisch unabhängig und binomialverteilt mit den Parametern (n1 , p), . . . , (nk , p), k ∈ N. Dann ist die Zufallsvariable Zk := X1 + · · · + Xk ebenfalls binomialverteilt mit den Parametern (n1 + · · · + nk , p). 128 7.1. BERNOULLI-, BINOMIAL-, POISSON- UND NORMALVERTEILUNGEN 129 Satz 7.1.4 Es seien X1 , . . . , Xk , k ∈ N, stochastisch unabhängige, poissonverteilte Zufallsvariablen mit den Parametern λi , i = 1, . . . , k. Dann ist die Zufallsvariable Zk := X1 + · · · + Xk ebenfalls poissonverteilt mit dem Parameter λ = λ1 + · · · + λk . Satz 7.1.5 Es seien X1 , . . . , Xk , k ∈ N, stochastisch unabhängige, N (µi , σ 2i )-verteilte Zufallsvariablen, i = 1, . . . , k. Dann ist die Zufallsvariable Zk := X1 + · · · + Xk N (µ, σ 2 )-verteilt mit µ = µ1 + · · · + µk und σ 2 = σ 21 + · · · + σ 2k . Folgerung 7.1.6 Es seien X1 , . . . , Xn , n ∈ N, stochastisch unabhängige, N (µ, σ 2 )-verteilte Zufallsvariablen, i = 1, . . . , n. Dann ist die Zufallsvariable X̄ := N (µ, 1 Xn Xi i=1 n σ2 )-verteilt. n c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 8 Ungleichung von Tschebyscheff und das schwache Gesetz der großen Zahlen 8.1 Ungleichung von Tschebyscheff Satz und Definition 8.1.1 Es sei X eine eindimensionale Zufallsvariable mit E(X) = µ und Var(X) = σ 2 . Dann gilt die sogenannte Ungleichung von Tschebyscheff: P{| X − µ |> } ≤ σ2 2 für alle > 0 Korollar 8.1.2 Es sei X eine eindimensionale Zufallsvariable mit E(X) = µ und Var(X) = σ 2 . Dann gilt P{| X − µ |≤ } ≥ 1 − σ2 2 für alle > 0 Bemerkung 8.1.3 Häufig wählt man = λσ mit λ ∈ N. Dann folgt aus Korollar (8.1.2): P{| X − µ |≤ λσ} ≥ 1 − Man erhält: λ 1 1− 2 λ 1 λ2 2 3 4 5 0, 75 0, 889 0, 937 0, 96 130 8.1. UNGLEICHUNG VON TSCHEBYSCHEFF 131 Das heißt z. B. für λ = 2, dass eine Zufallsvariable mit mindestens 75% Wahrscheinlichkeit einen Wert annimmt, der nicht weiter als 2σ von ihrem Erwartungswert entfernt liegt. Man bezeichnet [µ − λσ, µ + λσ] als λ − σ−Bereich um µ. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 132 8.2. DAS SCHWACHE GESETZ DER GROSSEN ZAHLEN 8.2 Das schwache Gesetz der großen Zahlen Definition 8.2.1 Es sei (Xj )j∈N eine Folge von eindimensionalen Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P). Man sagt, sie genüge dem schwachen Gesetz der großen Zahlen, wenn es eine Konstante c ∈ R gibt, so dass für die Zufallsvariablen n Yn := 1X Xj n n∈N j=1 gilt: lim P{|Yn − c| ≥ } = 0 n→∞ für alle > 0 Satz 8.2.2 Eine Folge (Xj )j∈N unabhängig identisch verteilter Zufallsvariablen mit E(Xj ) = µ und Var(Xj ) = σ 2 > 0 für alle j ∈ N genügt dem schwachen Gesetz der großen Zahlen, d. h. es gilt: n 1X lim P{| Xj − µ |≥ } = 0 für alle > 0. n→∞ n j=1 Bemerkung 8.2.3 Ein Zufallsexperiment werde durch (Ω, F,P) beschrieben. Es sei A ∈ F ein beliebiges Ereignis mit P(A) =: p. Das Experiment werde unabhängig wiederholt. Der Wiederholung j ∈ N sei die Zufallsvariable Xj zugeordnet mit 1 für ω ∈ A Xj (ω) = 0 für ω ∈ /A Dann genügen die Zufallsvariablen X1 , X2 , ... dem schwachen Gesetz der großen Zahlen d. h. es gilt: n 1X Xj − p |≥ } = 0 für alle > 0. lim P{| n→∞ n j=1 Man sagt, die relative Häufigkeit für das Auftreten des Ereignisses A konvergiere stochastisch gegen die Wahrscheinlichkeit P(A) = p. c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 133 8.2. DAS SCHWACHE GESETZ DER GROSSEN ZAHLEN Beispiel 8.2.4 Der Wahrscheinlichkeitsraum (Ω, F,P) mit Ω = {1, 2, . . . , 6}, F = P(Ω), P : F → R mit P{ω} = 1 6 für alle ω∈Ω beschreibe das Spiel mit einem fairen Würfel. Es sei A ∈ F ein Ereignis mit A = {1, 2} und folglich P(A) = 13 . Es werden 100 unabhängige Würfe durchgeführt. Dem Wurf k ∈ {1, . . . , 100} sei die Zufallsvariable Xk zugeordnet mit 1 für ω ∈ A Xk (ω) = . 0 für ω ∈ /A Die Realisierungen y1 , . . . , y100 der Zufallsvariablen n Yn = 1X Xk n k=1 sind für die 100 Würfe im folgenden Diagramm dargestellt: y 1,...,y 1 1 0 0 0 ,9 0 ,8 0 ,7 0 ,6 0 ,5 0 ,4 0 ,3 0 ,2 0 ,1 n 0 0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 8 0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 9 0 1 0 0 Kapitel 9 Zentraler Grenzwertsatz 9.1 Zentraler Grenzwertsatz von de Moivre-Laplace Satz 9.1.1 (Zentraler Grenzwertsatz von de Moivre-Laplace) Es sei (Yn )n∈N eine Folge von binomialverteilten Zufallsvariablen mit den Parametern n und p, d. h. n k p (1 − p)n−k für k = 0, 1, ..., n; p ∈ (0, 1) PYn {k} = k und (Zn )n∈N die Folge mit Yn − np Zn := p . np(1 − p) Dann gilt (a) limn→∞ P{Zn ≤ b} = √1 2π (b) limn→∞ P{a ≤ Zn ≤ b} = Rb 2 −∞ e √1 2π − t2 Rb a dt = Φ(b) für alle b ∈ R. t2 e− 2 dt = Φ(b) − Φ(a) für alle a, b ∈ R. 134 135 9.1. ZENTRALER GRENZWERTSATZ VON DE MOIVRE-LAPLACE Zeichnerische Darstellung Wahrscheinlichkeitsverteilung von Zn Wahrscheinlichkeitsverteilung von Yn p(x) p(y) 0.35 0.30 0.25 0.20 0.15 0.10 0.05 y x 0.00 0 1 2 3 4 −2 5 −1 0 1 2 3 p = 0.4, n = 5 p = 0.4, n = 5 Wahrscheinlichkeitsverteilung von Yn Wahrscheinlichkeitsverteilung von Zn p(y) p(x) 0.25 0.20 0.15 0.10 0.05 x 0.00 0 2 4 6 p = 0.4, n = 10 8 10 y −3 −2 −1 0 1 p = 0.4, n = 10 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2 3 4 136 9.1. ZENTRALER GRENZWERTSATZ VON DE MOIVRE-LAPLACE Wahrscheinlichkeitsverteilung von Yn Wahrscheinlichkeitsverteilung von Zn p(x) p(y) 0.20 0.15 0.10 0.05 x 0.00 0 5 10 15 20 y −4 −2 0 2 4 p = 0.4, n = 20 p = 0.4, n = 20 Approximation mittels Histogramm Approximation mittels Histogramm f(x) f(x) 0.40−− 0.40−− 6 x x −4 −2 0 p = 0.4, n = 5 2 4 −4 −2 0 p = 0.4, n = 10 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2 4 137 9.1. ZENTRALER GRENZWERTSATZ VON DE MOIVRE-LAPLACE Approximation mittels Histogramm Approximation mittels Histogramm f(x) f(x) 0.40−− 0.40−− x x −4 −2 0 2 4 −4 p = 0.4, n = 20 −2 0 2 p = 0.4, n = 50 Bemerkung 9.1.2 Praktisch wird der zentrale Grenzwertsatz von de Moivre-Laplace wie folgt angewandt: Will man für eine binomialverteilte Zufallsvariable Yn mit den Parametern p und n die Wahrscheinlichkeit l X n i P{Yn ≤ l} = p (1 − p)n−i i i=0 bzw. P{k ≤ Yn ≤ l} = l X n i=k i pi (1 − p)n−i bestimmen, so liefert im Fall np(1 − p) ≥ 9 die Approximation mittels des zentralen Grenzwertsatzes von de Moivre-Laplace Yn − np l − np l − np P{Yn ≤ l} = P{ p ≤p } ' Φ( p ) np(1 − p) np(1 − p) np(1 − p) bzw. P{k ≤ Yn ≤ l} = P{ p k − np Yn − np l − np l − np k − np ≤p ≤p } ' Φ( p ) − Φ( p ). np(1 − p) np(1 − p) np(1 − p) np(1 − p) np(1 − p) Eine bessere Approximation erhält man mittels Stetigkeitskorrektur: Yn − np l − np l − np + 0.5 P{Yn ≤ l} = P{ p ≤p } ' Φ( p ) np(1 − p) np(1 − p) np(1 − p) und k − np Yn − np l − np l − np + 0.5 k − np − 0.5 P{k ≤ Yn ≤ l} = P{ p ≤p ≤p } ' Φ( p ) − Φ( p ). np(1 − p) np(1 − p) np(1 − p) np(1 − p) np(1 − p) c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 4 138 9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY 9.2 Zentraler Grenzwertsatz von Lindeberg-Lévy Satz 9.2.1 (Zentraler Grenzwertsatz von Lindeberg-Lévy) Es sei (Xj )j∈N eine Folge unabhängig identisch verteilter Zufallsvariablen mit E(Xj ) = µ und Var(Xj ) = σ 2 > 0 für alle j ∈ N. Dann gilt für die Zufallsvariablen Pn 1 Pn j=1 Xj − µ √ j=1 Xj − nµ n √ Zn := n= , (n ∈ N) σ σ n (a) limn→∞ P{Zn ≤ z} = √1 2π 2 − t2 −∞ e Rz (b) limn→∞ P{z1 ≤ Zn ≤ z2 } = √1 2π R z2 z1 dt = Φ(z) für alle z ∈ R. t2 e− 2 dt = Φ(z2 ) − Φ(z1 ) für alle z1 , z2 ∈ R. Zeichnerische Darstellung anhand der Exponentialverteilung fXi (x) = 0 Yn = für x < 0 ae−ax für x ≥ 0 a>0 Pn i=1 Xi Yn − E(Yn ) Zn = p Var(Yn ) Dichtefunktion von Yn Dichtefunktion von Zn f(y) f(z) 1.0 1.0 −− 0.8 0.6 0.40 −− 0.4 0.2 y z 0.0 0 2 4 6 n = 1 und a = 1 8 10 −1 0 1 2 n=1 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 3 4 5 139 9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY Dichtefunktion von Yn Dichtefunktion von Zn f(z) f(y) 0.55 −− 0.4 0.3 0.40 −− 0.2 0.1 y z 0.0 0 2 4 6 8 −2 10 −1 0 1 2 3 n = 2 und a = 1 n=2 Dichtefunktion von Yn Dichtefunktion von Zn 4 5 f(y) f(z) 0.14 0.40−− 0.12 0.10 0.08 0.06 0.04 0.02 z 0.00 0 5 10 15 n = 9 und a = 1 20 25 y −2 0 n=9 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2 4 140 9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY Dichtefunktion von Zn Dichtefunktion von Yn f(y) f(z) 0.10 0.40 −− 0.08 0.06 0.04 0.02 y z 0.00 0 5 10 15 20 25 30 −4 35 −2 0 2 n = 16 und a = 1 n = 16 Dichtefunktion von Yn Dichtefunktion von Zn 4 f(y) f(z) 0.08 0.40 −− 0.06 0.04 0.02 y z 0.00 0 10 20 n = 25 und a = 1 30 40 −4 −2 0 n = 25 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 2 4 141 9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY Dichtefunktion von Zn Dichtefunktion von Yn f(y) f(z) 0.07 0.40 −− 0.06 0.05 0.04 0.03 0.02 0.01 z 0.00 0 10 20 30 40 50 60 y −4 −2 0 n = 36 und a = 1 n = 36 Dichtefunktion von Yn Dichtefunktion von Zn f(z) 2 4 2 4 f(y) 0.06 0.40 −− 0.05 0.04 0.03 0.02 0.01 y z 0.00 0 20 40 n = 49 und a = 1 60 80 −4 −2 0 n = 49 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung Kapitel 10 Statistische Tabellen 142 143 Tabelle zur Binomialverteilung Fn,p (x) = x X n i=0 i pi (1 − p)n−i Fn,1−p (n − x − 1) = 1 − Fn,p (x) n=1 n=2 n=3 n=4 n=5 n=6 n=7 n=8 x 0 1 0 1 2 0 1 2 3 0 1 2 3 4 0 1 2 3 4 5 0 1 2 3 4 5 6 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 8 p = 0.05 .9500 1.0 .9025 .9975 1.0 .8574 .9928 .9999 1.0 .8145 .9860 .9995 1.0 1.0 .7738 .9774 .9988 1.0 1.0 1.0 .7351 .9672 .9978 .9999 1.0 1.0 1.0 .6983 .9556 .9962 .9998 1.0 1.0 1.0 1.0 .6634 .9428 .9942 .9996 1.0 1.0 1.0 1.0 1.0 p = 0.10 .9000 1.0 .8100 .9900 1.0 .7290 .9720 .9990 1.0 .6561 .9477 .9963 .9999 1.0 .5905 .9185 .9914 .9995 1.0 1.0 .5314 .8857 .9842 .9987 .9999 1.0 1.0 .4783 .8503 .9743 .9973 .9998 1.0 1.0 1.0 .4305 .8131 .9619 .9950 .9996 1.0 1.0 1.0 1.0 p = 0.15 .8500 1.0 .7225 .97750 1.0 .6141 .9393 .9966 1.0 .5220 .8905 .9880 .9995 1.0 .4437 .8352 .9734 .9978 .9999 1.0 .3771 .7765 .9527 .9941 .9996 1.0 1.0 .3206 .7166 .9262 .9879 .9988 .9999 1.0 1.0 .2725 .6572 .8948 .9786 .9971 .9998 1.0 1.0 1.0 p = 0.20 .8000 1.0 .6400 .9600 1.0 .5120 .8960 .9920 1.0 .4096 .8192 .9728 .9984 1.0 .3277 .7373 .9421 .9933 .9997 1.0 .2621 .6554 .9011 .983 .9984 .9999 1.0 .2097 .5767 .8520 .9667 .9953 .9996 1.0 1.0 .1678 .5033 .7969 .9437 .9896 .9988 .9999 1.0 1.0 p = 0.25 .7500 1.0 .5625 .9375 1.0 .4219 .8438 .9844 1.0 .3164 .7383 .9492 .9961 1.0 .2373 .6328 .8965 .9844 .9990 1.0 .1780 .5339 .8306 .9624 .9954 .9998 1.0 .1335 .4449 .7564 .9294 .9871 .9987 .9999 1.0 .1001 .3671 .6785 .8862 .9727 .9958 .9996 1.0 1.0 p = 0.30 .7000 1.0 .4900 .9100 1.0 .3430 .7840 .9730 1.0 .2401 .6517 .9163 .9919 1.0 .1681 .5282 .8369 .9692 .9976 1.0 .1176 .4202 .7443 .9295 .9891 .9993 1.0 .0824 .3294 .6471 .8740 .9712 .9962 .9998 1.0 .0577 .2553 .5518 .8059 .9420 .9887 .9987 .9999 1.0 p = 0.35 .6500 1.0 .4225 .8775 1.0 .2746 .7183 .9571 1.0 .1785 .5630 .8735 .9850 1.0 .1160 .4284 .7648 .9460 .9947 1.0 .0754 .3191 .6471 .8826 .9777 .9982 1.0 .0490 .2338 .5323 .8002 .9444 .9910 .9994 1.0 .0319 .1691 .4278 .7064 .8939 .9747 .9964 .9998 1.0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung p = 0.40 0.6000 1.0 .3600 .8400 1.0 .2160 .6480 .9360 1.0 .1296 .4752 .8208 .9744 1.0 .0778 .3370 .6826 .9130 .9898 1.0 .0467 .2333 .5443 .8208 .9590 .9959 1.0 .0280 .1586 .4199 .7102 .9037 .9812 .9984 1.0 .0168 .1064 .3154 .5941 .8263 .9502 .9915 .9993 1.0 p = 0.45 .5500 1.0 .3025 .7975 1.0 .1664 .5748 .9089 1.0 .0915 .3910 .7585 .9590 1.0 .0503 .2562 .5931 .8688 .9815 1.0 .0277 .1636 .4415 .7447 .9308 .9917 1.0 .0152 .1024 .3164 .6083 .8471 .9643 .9963 1.0 .0084 .0632 .2201 .4770 .7396 .9115 .9819 .9983 1.0 p = 0.50 .5000 1.0 .2500 .7500 1.0 .1250 .5000 .8750 1.0 .0625 .3125 .6875 .9375 1.0 .0313 .1875 .5000 .8125 .9688 1.0 .0156 .1094 .3438 .6563 .8906 .9844 1.0 .0078 .0625 .2266 .5000 .7734 .9375 .9922 1.0 .0039 .0352 .1445 .3633 .6367 .8555 .9648 .9961 1.0 144 n=9 n = 10 n = 11 n = 12 n = 13 x 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10 11 0 1 2 3 4 5 6 7 8 9 10 11 12 0 1 2 3 4 5 6 7 8 9 10 11 12 13 p = 0.05 .6302 .9288 .9916 .9994 1.0 1.0 1.0 1.0 1.0 1.0 .5987 .9139 .9885 .9990 .9999 1.0 1.0 1.0 1.0 1.0 1.0 .5688 .8981 .9848 .9984 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .5404 .8816 .9804 .9978 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .5133 .8646 .9755 .9969 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.10 .3874 .7748 .9470 .9917 .9991 .9999 1.0 1.0 1.0 1.0 .3487 .7361 .9298 .9872 .9984 .9999 1.0 1.0 1.0 1.0 1.0 .3138 .6974 .9104 .9815 .9972 .9997 1.0 1.0 1.0 1.0 1.0 1.0 .2824 .659 .8891 .9744 .9957 .9995 .9999 1.0 1.0 1.0 1.0 1.0 1.0 .2542 .6213 .8661 .9658 .9935 .9991 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.15 .2316 .5995 .8591 .9661 .9944 .9994 1.0 1.0 1.0 1.0 .1969 .5443 .8202 .9500 .9901 .9986 .9999 1.0 1.0 1.0 1.0 .1673 .4922 .7788 .9306 .9841 .9973 .9997 1.0 1.0 1.0 1.0 1.0 .1422 .4435 .7358 .9078 .9761 .9954 .9993 .9999 1.0 1.0 1.0 1.0 1.0 .1209 .3983 .692 .882 .9658 .9925 .9987 .9998 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.20 .1342 .4362 .7382 .9144 .9804 .9969 .9997 1.0 1.0 1.0 .1074 .3758 .6778 .8791 .9672 .9936 .9991 .9999 1.0 1.0 1.0 .0859 .3221 .6174 .8389 .9496 .9883 .998 .9998 1.0 1.0 1.0 1.0 .0687 .2749 .5583 .7946 .9274 .9806 .9961 .9994 .9999 1.0 1.0 1.0 1.0 .0550 .2336 .5017 .7473 .9009 .9700 .9930 .9988 .9998 1.0 1.0 1.0 1.0 1.0 p = 0.25 .0751 .3003 .6007 .8343 .9511 .9900 .9987 .9999 1.0 1.0 .0563 .2440 .5256 .7759 .9219 .9803 .9965 .9996 1.0 1.0 1.0 .0422 .1971 .4552 .7133 .8854 .9657 .9924 .9988 .9999 1.0 1.0 1.0 .0317 .1584 .3907 .6488 .8424 .9456 .9857 .9972 .9996 1.0 1.0 1.0 1.0 .0238 .1267 .3326 .5843 .7940 .9198 .9757 .9944 .9990 .9999 1.0 1.0 1.0 1.0 p = 0.30 .0404 .1960 .4628 .7297 .9012 .9747 .9957 .9996 1.0 1.0 .0283 .1493 .3828 .6496 .8497 .9527 .9894 .9984 .9999 1.0 1.0 .0198 .1130 .3127 .5696 .7897 .9218 .9784 .9957 .9994 1.0 1.0 1.0 .0138 .0850 .2528 .4925 .7237 .8822 .9614 .9905 .9983 .9998 1.0 1.0 1.0 .0097 .0637 .2025 .4206 .6543 .8346 .9376 .9818 .9960 .9993 .9999 1.0 1.0 1.0 p = 0.35 .0207 .1211 .3373 .6089 .8283 .9464 .9888 .9986 .9999 1.0 .0135 .0860 .2616 .5138 .7515 .9051 .9740 .9952 .9995 1.0 1.0 .0088 .0606 .2001 .4256 .6683 .8513 .9499 .9878 .9980 .9998 1.0 1.0 .0057 .0424 .1513 .3467 .5833 .7873 .9154 .9745 .9944 .9992 .9999 1.0 1.0 .0037 .0296 .1132 .2783 .5005 .7159 .8705 .9538 .9874 .9975 .9997 1.0 1.0 1.0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung p = 0.40 .0101 .0705 .2318 .4826 .7334 .9006 .9750 .9962 .9997 1.0 .0060 .0464 .1673 .3823 .6331 .8338 .9452 .9877 .9983 .9999 1.0 .0036 .0302 .1189 .2963 .5328 .7535 .9006 .9707 .9941 .9993 1.0 1.0 .0022 .0196 .0834 .2253 .4382 .6652 .8418 .9427 .9847 .9972 .9997 1.0 1.0 .0013 .0126 .0579 .1686 .3530 .5744 .7712 .9023 .9679 .9922 .9987 .9999 1.0 1.0 p = 0.45 .0046 .0385 .1495 .3614 .6214 .8342 .9502 .9909 .9992 1.0 .0025 .0233 .0996 .2660 .5044 .7384 .898 .9726 .9955 .9997 1.0 .0014 .0139 .0652 .1911 .3971 .6331 .8262 .939 .9852 .9978 .9998 1.0 .0008 .0083 .0421 .1345 .3044 .5269 .7393 .8883 .9644 .9921 .9989 .9999 1.0 .0004 .0049 .0269 .0929 .2279 .4268 .6437 .8212 .9302 .9797 .9959 .9995 1.0 1.0 p = 0.50 .0020 .0195 .0898 .2539 .5000 .7461 .9102 .9805 .9980 1.0 .0010 .0107 .0547 .1719 .3770 .6230 .8281 .9453 .9893 .9990 1.0 .0005 .0059 .0327 .1133 .2744 .5000 .7256 .8867 .9673 .9941 .9995 1.0 .0002 .0032 .0193 .0730 .1938 .3872 .6128 .8062 .9270 .9807 .9968 .9998 1.0 .0001 .0017 .0112 .0461 .1334 .2905 .5000 .7095 .8666 .9539 .9888 .9983 .9999 1.0 145 n = 14 n = 15 n = 16 x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 p = 0.05 .4877 .8470 .9699 .9958 .9996 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .4633 .8290 .9638 .9945 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .4401 .8108 .9571 .993 .9991 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.10 .2288 .5846 .8416 .9559 .9908 .9985 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .2059 .5490 .8159 .9444 .9873 .9978 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .1853 .5147 .7892 .9316 .9830 .9967 .9995 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.15 .1028 .3567 .6479 .8535 .9533 .9885 .9978 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0874 .3186 .6042 .8227 .9383 .9832 .9964 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0743 .2839 .5614 .7899 .9209 .9765 .9944 .9989 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.20 .0440 .1979 .4481 .6982 .8702 .9561 .9884 .9976 .9996 1.0 1.0 1.0 1.0 1.0 1.0 .0352 .1671 .3980 .6482 .8358 .9389 .9819 .9958 .9992 .9999 1.0 1.0 1.0 1.0 1.0 1.0 .0282 .1407 .3518 .5981 .7982 .9183 .9733 .9930 .9985 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.25 .0178 .101 .2811 .5213 .7415 .8883 .9617 .9897 .9978 .9997 1.0 1.0 1.0 1.0 1.0 .0134 .0802 .2361 .4613 .6865 .8516 .9434 .9827 .9958 .9992 .9999 1.0 1.0 1.0 1.0 1.0 .0100 .0635 .1971 .4050 .6302 .8103 .9204 .9729 .9925 .9984 .9997 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.30 .0068 .0475 .1608 .3552 .5842 .7805 .9067 .9685 .9917 .9983 .9998 1.0 1.0 1.0 1.0 .0047 .0353 .1268 .2969 .5155 .7216 .8689 .9500 .9848 .9963 .9993 .9999 1.0 1.0 1.0 1.0 .0033 .0261 .0994 .2459 .4499 .6598 .8247 .9256 .9743 .9929 .9984 .9997 1.0 1.0 1.0 1.0 1.0 p = 0.35 .0024 .0205 .0839 .2205 .4227 .6405 .8164 .9247 .9757 .994 .9989 .9999 1.0 1.0 1.0 .0016 .0142 .0617 .1727 .3519 .5643 .7548 .8868 .9578 .9876 .9972 .9995 .9999 1.0 1.0 1.0 .0010 .0098 .0451 .1339 .2892 .4900 .6881 .8406 .9329 .9771 .9938 .9987 .9998 1.0 1.0 1.0 1.0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung p = 0.40 .0008 .0081 .0398 .1243 .2793 .4859 .6925 .8499 .9417 .9825 .9961 .9994 .9999 1.0 1.0 .0005 .0052 .0271 .0905 .2173 .4032 .6098 .7869 .905 .9662 .9907 .9981 .9997 1.0 1.0 1.0 .0003 .0033 .0183 .0651 .1666 .3288 .5272 .7161 .8577 .9417 .9809 .9951 .9991 .9999 1.0 1.0 1.0 p = 0.45 .0002 .0029 .0170 .0632 .1672 .3373 .5461 .7414 .8811 .9574 .9886 .9978 .9997 1.0 1.0 .0001 .0017 .0107 .0424 .1204 .2608 .4522 .6535 .8182 .9231 .9745 .9937 .9989 .9999 1.0 1.0 .0001 .0010 .0066 .0281 .0853 .1976 .3660 .5629 .7441 .8759 .9514 .9851 .9965 .9994 .9999 1.0 1.0 p = 0.50 .0001 .0009 .0065 .0287 .0898 .2120 .3953 .6047 .7880 .9102 .9713 .9935 .9991 .9999 1.0 .0000 .0005 .0037 .0176 .0592 .1509 .3036 .5000 .6964 .8491 .9408 .9824 .9963 .9995 1.0 1.0 .0000 .0003 .0021 .0106 .0384 .1051 .2272 .4018 .5982 .7728 .8949 .9616 .9894 .9979 .9997 1.0 1.0 146 n = 17 n = 18 n = 19 x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 p = 0.05 .4181 .7922 .9497 .9912 .9988 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .3972 .7735 .9419 .9891 .9985 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .3774 .7547 .9335 .9868 .998 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.10 .1668 .4818 .7618 .9174 .9779 .9953 .9992 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .1501 .4503 .7338 .9018 .9718 .9936 .9988 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .1351 .4203 .7054 .885 .9648 .9914 .9983 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.15 .0631 .2525 .5198 .7556 .9013 .9681 .9917 .9983 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0537 .2241 .4797 .7202 .8794 .9581 .9882 .9973 .9995 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0456 .1985 .4413 .6841 .8556 .9463 .9837 .9959 .9992 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.20 .0225 .1182 .3096 .5489 .7582 .8943 .9623 .9891 .9974 .9995 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0180 .0991 .2713 .5010 .7164 .8671 .9487 .9837 .9957 .9991 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0144 .0829 .2369 .4551 .6733 .8369 .9324 .9767 .9933 .9984 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.25 .0075 .0501 .1637 .353 .5739 .7653 .8929 .9598 .9876 .9969 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 .0056 .0395 .1353 .3057 .5187 .7175 .8610 .9431 .9807 .9946 .9988 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0042 .0310 .1113 .2631 .4654 .6678 .8251 .9225 .9713 .9911 .9977 .9995 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.30 .0023 .0193 .0774 .2019 .3887 .5968 .7752 .8954 .9597 .9873 .9968 .9993 .9999 1.0 1.0 1.0 1.0 1.0 .0016 .0142 .0600 .1646 .3327 .5344 .7217 .8593 .9404 .9790 .9939 .9986 .9997 1.0 1.0 1.0 1.0 1.0 1.0 .0011 .0104 .0462 .1332 .2822 .4739 .6655 .8180 .9161 .9674 .9895 .9972 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.35 .0007 .0067 .0327 .1028 .2348 .4197 .6188 .7872 .9006 .9617 .9880 .9970 .9994 .9999 1.0 1.0 1.0 1.0 .0004 .0046 .0236 .0783 .1886 .3550 .5491 .7283 .8609 .9403 .9788 .9938 .9986 .9997 1.0 1.0 1.0 1.0 1.0 .0003 .0031 .0170 .0591 .1500 .2968 .4812 .6656 .8145 .9125 .9653 .9886 .9969 .9993 .9999 1.0 1.0 1.0 1.0 1.0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung p = 0.40 .0002 .0021 .0123 .0464 .1260 .2639 .4478 .6405 .8011 .9081 .9652 .9894 .9975 .9995 .9999 1.0 1.0 1.0 .0001 .0013 .0082 .0328 .0942 .2088 .3743 .5634 .7368 .8653 .9424 .9797 .9942 .9987 .9998 1.0 1.0 1.0 1.0 .0001 .0008 .0055 .0230 .0696 .1629 .3081 .4878 .6675 .8139 .9115 .9648 .9884 .9969 .9994 .9999 1.0 1.0 1.0 1.0 p = 0.45 .0000 .0006 .0041 .0184 .0596 .1471 .2902 .4743 .6626 .8166 .9174 .9699 .9914 .9981 .9997 1.0 1.0 1.0 .0000 .0003 .0025 .0120 .0411 .1077 .2258 .3915 .5778 .7473 .8720 .9463 .9817 .9951 .9990 .9999 1.0 1.0 1.0 .0000 .0002 .0015 .0077 .0280 .0777 .1727 .3169 .4940 .6710 .8159 .9129 .9658 .9891 .9972 .9995 .9999 1.0 1.0 1.0 p = 0.50 .0000 .0001 .0012 .0064 .0245 .0717 .1662 .3145 .5000 .6855 .8338 .9283 .9755 .9936 .9988 .9999 1.0 1.0 .0000 .0001 .0007 .0038 .0154 .0481 .1189 .2403 .4073 .5927 .7597 .8811 .9519 .9846 .9962 .9993 .9999 1.0 1.0 .0000 .0000 .0004 .0022 .0096 .0318 .0835 .1796 .3238 .5000 .6762 .8204 .9165 .9682 .9904 .9978 .9996 1.0 1.0 1.0 147 n = 20 n = 21 x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 p = 0.05 .3585 .7358 .9245 .9841 .9974 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .3406 .7170 .9151 .9811 .9968 .9996 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.10 .1216 .3917 .6769 .8670 .9568 .9887 .9976 .9996 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .1094 .3647 .6484 .8480 .9478 .9856 .9967 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.15 .0388 .1756 .4049 .6477 .8298 .9327 .9781 .9941 .9987 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0329 .1550 .3705 .6113 .8025 .9173 .9713 .9917 .9980 .9996 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.20 .0115 .0692 .2061 .4114 .6296 .8042 .9133 .9679 .9900 .9974 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0092 .0576 .1787 .3704 .5860 .7693 .8915 .9569 .9856 .9959 .999 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.25 .0032 .0243 .0913 .2252 .4148 .6172 .7858 .8982 .9591 .9861 .9961 .9991 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0024 .0190 .0745 .1917 .3674 .5666 .7436 .8701 .9439 .9794 .9936 .9983 .9996 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.30 .0008 .0076 .0355 .1071 .2375 .4164 .6080 .7723 .8867 .9520 .9829 .9949 .9987 .9997 1.0 1.0 1.0 1.0 1.0 1.0 1.0 .0006 .0056 .0271 .0856 .1984 .3627 .5505 .7230 .8523 .9324 .9736 .9913 .9976 .9994 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 p = 0.35 .0002 .0021 .0121 .0444 .1182 .2454 .4166 .6010 .7624 .8782 .9468 .9804 .9940 .9985 .9997 1.0 1.0 1.0 1.0 1.0 1.0 .0001 .0014 .0086 .0331 .0924 .2009 .3567 .5365 .7059 .8377 .9228 .9687 .9892 .9969 .9993 .9999 1.0 1.0 1.0 1.0 1.0 1.0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung p = 0.40 .0000 .0005 .0036 .0160 .0510 .1256 .2500 .4159 .5956 .7553 .8725 .9435 .9790 .9935 .9984 .9997 1.0 1.0 1.0 1.0 1.0 .0000 .0003 .0024 .0110 .0370 .0957 .2002 .3495 .5237 .6914 .8256 .9151 .9648 .9877 .9964 .9992 .9998 1.0 1.0 1.0 1.0 1.0 p = 0.45 .0000 .0001 .0009 .0049 .0189 .0553 .1299 .2520 .4143 .5914 .7507 .8692 .9420 .9786 .9936 .9985 .9997 1.0 1.0 1.0 1.0 .0000 .0001 .0006 .0031 .0126 .0389 .0964 .1971 .3413 .5117 .6790 .8159 .9092 .9621 .9868 .9963 .9992 .9999 1.0 1.0 1.0 1.0 p = 0.50 .0000 .0000 .0002 .0013 .0059 .0207 .0577 .1316 .2517 .4119 .5881 .7483 .8684 .9423 .9793 .9941 .9987 .9998 1.0 1.0 1.0 .0000 .0000 .0001 .0007 .0036 .0133 .0392 .0946 .1917 .3318 .5000 .6682 .8083 .9054 .9608 .9867 .9964 .9993 .9999 1.0 1.0 1.0 148 Tabelle zur Poissonverteilung Fλ (x) = x X λi i=0 i! e−λ x λ = 0.1 0 .9048 1 .9953 2 .9998 3 1.0 4 1.0 5 1.0 6 1.0 7 1.0 8 1.0 λ = 0.2 .8187 .9825 .9989 .9999 1.0 1.0 1.0 1.0 1.0 λ = 0.3 .7408 .9631 .9964 .9997 1.0 1.0 1.0 1.0 1.0 λ = 0.4 .6703 .9384 .9921 .9992 .9999 1.0 1.0 1.0 1.0 λ = 0.5 .6065 .9098 .9856 .9982 .9998 1.0 1.0 1.0 1.0 λ = 0.6 .5488 .8781 .9769 .9966 .9996 1.0 1.0 1.0 1.0 λ = 0.7 .4966 .8442 .9659 .9942 .9992 .9999 1.0 1.0 1.0 λ = 0.8 .4493 .8088 .9526 .9909 .9986 .9998 1.0 1.0 1.0 λ = 0.9 .4066 .7725 .9371 .9865 .9977 .9997 1.0 1.0 1.0 λ = 1.0 .3679 .7358 .9197 .9810 .9963 .9994 .9999 1.0 1.0 x λ = 1.5 0 .2231 1 .5578 2 .8088 3 .9344 4 .9814 5 .9955 6 .9991 7 .9998 8 1.0 9 1.0 10 1.0 11 1.0 12 1.0 13 1.0 14 1.0 15 1.0 16 1.0 17 1.0 18 1.0 19 1.0 λ = 2.0 .1353 .406 .6767 .8571 .9473 .9834 .9955 .9989 .9998 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 λ = 2.5 .0821 .2873 .5438 .7576 .8912 .958 .9858 .9958 .9989 .9997 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 λ = 3.0 .0498 .1991 .4232 .6472 .8153 .9161 .9665 .9881 .9962 .9989 .9997 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 λ = 3.5 .0302 .1359 .3208 .5366 .7254 .8576 .9347 .9733 .9901 .9967 .9990 .9997 .9999 1.0 1.0 1.0 1.0 1.0 1.0 1.0 λ = 4.0 .0183 .0916 .2381 .4335 .6288 .7851 .8893 .9489 .9786 .9919 .9972 .9991 .9997 .9999 1.0 1.0 1.0 1.0 1.0 1.0 λ = 4.5 .0111 .0611 .1736 .3423 .5321 .7029 .8311 .9134 .9597 .9829 .9933 .9976 .9992 .9997 .9999 1.0 1.0 1.0 1.0 1.0 λ = 5.0 .0067 .0404 .1247 .2650 .4405 .6160 .7622 .8666 .9319 .9682 .9863 .9945 .9980 .9993 .9998 .9999 1.0 1.0 1.0 1.0 λ = 5.5 .0041 .0266 .0884 .2017 .3575 .5289 .6860 .8095 .8944 .9462 .9747 .9890 .9955 .9983 .9994 .9998 .9999 1.0 1.0 1.0 λ = 6.0 .0025 .0174 .0620 .1512 .2851 .4457 .6063 .7440 .8472 .9161 .9574 .9799 .9912 .9964 .9986 .9995 .9998 .9999 1.0 1.0 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 149 Tabelle zur Standardnormalverteilung 1 Φ(z) = √ 2π Z z 1 2 e− 2 x dx −∞ z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.1 0.2 0.3 0.4 0.5000 0.5398 0.5793 0.6179 0.6554 0.5040 0.5438 0.5832 0.6217 0.6591 0.5080 0.5478 0.5871 0.6255 0.6628 0.5120 0.5517 0.5910 0.6293 0.6664 0.5160 0.5557 0.5948 0.6331 0.6700 0.5199 0.5596 0.5987 0.6368 0.6736 0.5239 0.5636 0.6026 0.6406 0.6772 0.5279 0.5675 0.6064 0.6443 0.6808 0.5319 0.5714 0.6103 0.6480 0.6844 0.5359 0.5753 0.6141 0.6517 0.6879 0.5 0.6 0.7 0.8 0.9 0.6915 0.7257 0.7580 0.7881 0.8159 0.6950 0.7291 0.7611 0.7910 0.8186 0.6985 0.7324 0.7642 0.7939 0.8212 0.7019 0.7357 0.7673 0.7967 0.8238 0.7054 0.7389 0.7704 0.7995 0.8264 0.7088 0.7422 0.7734 0.8023 0.8289 0.7123 0.7454 0.7764 0.8051 0.8315 0.7157 0.7486 0.7794 0.8078 0.8340 0.7190 0.7517 0.7823 0.8106 0.8365 0.7224 0.7549 0.7852 0.8133 0.8389 1.0 1.1 1.2 1.3 1.4 0.8413 0.8643 0.8849 0.9032 0.9192 0.8438 0.8665 0.8869 0.9049 0.9207 0.8461 0.8686 0.8888 0.9066 0.9222 0.8485 0.8708 0.8907 0.9082 0.9236 0.8508 0.8729 0.8925 0.9099 0.9251 0.8531 0.8749 0.8944 0.9115 0.9265 0.8554 0.8770 0.8962 0.9131 0.9279 0.8577 0.8790 0.8980 0.9147 0.9292 0.8599 0.8810 0.8997 0.9162 0.9306 0.8621 0.8830 0.9015 0.9177 0.9319 1.5 1.6 1.7 1.8 1.9 0.9332 0.9452 0.9554 0.9641 0.9713 0.9345 0.9463 0.9564 0.9649 0.9719 0.9357 0.9474 0.9573 0.9656 0.9726 0.9370 0.9484 0.9582 0.9664 0.9732 0.9382 0.9495 0.9591 0.9671 0.9738 0.9394 0.9505 0.9599 0.9678 0.9744 0.9406 0.9515 0.9608 0.9686 0.9750 0.9418 0.9525 0.9616 0.9693 0.9756 0.9429 0.9535 0.9625 0.9699 0.9761 0.9441 0.9545 0.9633 0.9706 0.9767 2.0 2.1 2.2 2.3 2.4 0.9772 0.9821 0.9861 0.9893 0.9918 0.9778 0.9826 0.9864 0.9896 0.9920 0.9783 0.9830 0.9868 0.9898 0.9922 0.9788 0.9834 0.9871 0.9901 0.9925 0.9793 0.9838 0.9875 0.9904 0.9927 0.9798 0.9842 0.9878 0.9906 0.9929 0.9803 0.9846 0.9881 0.9909 0.9931 0.9808 0.9850 0.9884 0.9911 0.9932 0.9812 0.9854 0.9887 0.9913 0.9934 0.9817 0.9857 0.9890 0.9916 0.9936 2.5 2.6 2.7 2.8 2.9 0.9938 0.9953 0.9965 0.9974 0.9981 0.9940 0.9955 0.9966 0.9975 0.9982 0.9941 0.9956 0.9967 0.9976 0.9982 0.9943 0.9957 0.9968 0.9977 0.9983 0.9945 0.9959 0.9969 0.9977 0.9984 0.9946 0.9960 0.9970 0.9978 0.9984 0.9948 0.9961 0.9971 0.9979 0.9985 0.9949 0.9962 0.9972 0.9979 0.9985 0.9951 0.9963 0.9973 0.998 0.9986 0.9952 0.9964 0.9974 0.9981 0.9986 3.0 3.1 3.2 3.3 3.4 0.9987 0.9990 0.9993 0.9995 0.9997 0.9987 0.9991 0.9993 0.9995 0.9997 0.9987 0.9991 0.9994 0.9995 0.9997 0.9988 0.9991 0.9994 0.9996 0.9997 0.9988 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9997 0.9998 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung 150 (Pseudo-)Zufallszahlen 03 97 16 12 55 47 74 76 56 59 43 24 62 85 56 73 67 27 99 35 86 62 66 26 64 36 42 56 96 38 96 81 50 96 54 47 14 26 68 82 36 57 71 27 46 61 20 07 31 22 46 42 32 05 31 98 53 90 03 62 63 32 79 72 43 71 37 78 93 09 62 32 53 15 90 33 27 13 57 06 26 07 55 12 18 16 36 38 10 44 80 07 58 14 32 45 51 59 21 53 16 84 63 33 57 22 42 01 21 60 77 17 63 12 86 94 53 78 34 31 39 31 59 29 44 49 57 16 78 09 54 24 95 64 47 43 55 55 56 27 54 06 67 07 96 82 88 19 82 54 17 77 98 52 49 37 04 10 42 17 93 74 50 07 46 23 47 71 44 09 78 67 75 38 62 87 21 12 15 90 35 76 86 51 52 20 33 73 00 84 96 50 58 13 77 43 25 07 42 27 18 26 23 52 37 18 62 42 36 85 07 38 40 28 94 92 97 64 19 35 46 75 74 95 12 44 84 82 50 83 17 16 97 92 39 16 07 77 26 50 58 44 77 11 08 09 99 81 97 30 79 83 07 00 42 83 11 45 56 34 86 46 32 76 07 19 32 14 31 96 62 24 08 38 88 06 20 32 80 54 76 14 98 22 42 50 85 94 02 06 03 88 07 53 87 10 45 72 53 98 70 56 99 16 31 29 62 49 08 16 17 18 57 15 93 12 37 22 04 32 13 35 77 72 43 40 96 88 33 50 33 83 42 27 27 20 50 95 14 89 38 87 45 34 87 26 75 72 09 19 13 97 16 45 20 89 12 64 59 15 51 25 36 34 37 03 93 16 68 00 74 47 00 49 49 17 70 04 12 52 76 33 43 72 85 37 24 18 07 66 13 03 66 34 60 04 54 79 45 44 68 74 27 00 29 34 57 43 39 94 30 25 37 68 98 13 65 86 29 94 70 76 53 61 24 55 59 48 66 68 74 29 55 37 49 30 97 90 32 69 77 68 65 20 10 40 60 72 30 82 44 71 96 77 53 22 91 57 84 75 78 38 69 57 91 84 67 36 03 93 26 54 10 29 30 04 13 96 10 34 33 58 46 45 25 46 18 92 65 20 09 24 42 04 57 52 76 45 26 27 16 11 35 38 31 90 27 24 23 96 82 94 10 16 25 66 75 16 86 91 59 06 20 38 47 83 06 33 42 96 62 09 32 38 44 64 19 51 79 33 11 74 26 01 49 12 66 38 50 13 67 02 79 87 34 19 94 78 75 86 00 37 45 66 82 71 34 04 81 53 74 02 91 41 91 60 76 16 40 00 47 70 92 01 52 21 90 53 74 43 29 30 56 91 48 68 86 16 62 85 66 14 68 20 64 67 90 05 46 19 40 84 51 78 58 67 45 18 73 97 14 11 00 90 79 64 75 33 97 15 05 73 96 51 06 71 88 02 40 15 95 05 75 14 93 86 90 19 02 20 11 52 07 04 01 05 27 60 02 90 65 41 62 33 10 09 14 93 31 75 68 86 55 08 06 76 22 59 39 40 83 98 33 54 78 20 12 82 16 78 37 22 43 49 89 90 08 90 36 62 05 07 68 26 14 26 97 71 99 65 93 10 86 61 52 70 88 85 65 68 60 23 85 53 75 22 09 54 58 87 35 98 87 37 59 85 42 66 78 36 15 99 47 80 22 13 64 54 70 41 92 61 73 42 26 03 71 32 10 78 51 62 08 50 63 59 99 11 67 06 77 15 12 42 55 59 06 44 32 13 56 51 95 17 08 78 29 92 55 27 06 16 63 85 01 83 93 16 74 50 17 90 41 60 91 53 26 23 20 25 77 59 52 50 38 58 21 55 81 05 71 19 99 69 90 71 23 31 31 94 41 52 04 99 58 61 23 49 73 28 50 33 69 68 41 72 12 96 68 36 12 96 10 35 45 41 93 47 81 37 94 02 48 33 59 96 18 45 03 03 26 39 88 76 09 44 07 13 24 90 95 02 41 30 35 27 18 43 12 57 36 36 89 48 29 99 07 20 60 12 c R. Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung