————————————————————————————————————————————————————————————Fakultät Verkehrswissenschaften ”Friedrich List” Professur für Ökonometrie und Statistik, insb. im Verkehrswesen ————————————————————————————————————————————————————————————- Formelsammlung zu Vorlesungen ”Statistik” Deskriptive Statistik Wahrscheinlichkeitstheorie c I. Okhrin, Dresden, 2015 Inhaltsverzeichnis 1 Deskriptive Statistik 4 1.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Kenngrößen einer univariaten Datenmenge . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.1 Häufigkeiten, Verteilungsfunktion, Histogramm . . . . . . . . . . . . . . . . 4 1.2.2 Skalare Kenngrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Kenngrößen einer bivariaten Datenmenge . . . . . . . . . . . . . . . . . . . . . . . 9 1.3.1 Korrelationsmaße bei metrisch skalierten Merkmalen . . . . . . . . . . . . . 9 1.3.2 Korrelationsmaße bei ordinal skalierten Daten . . . . . . . . . . . . . . . . . 10 1.3.3 Bivariate Häufigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3.4 Korrelationsmaße bei nominal skalierten Merkmalen . . . . . . . . . . . . . 12 1.3 2 Wahrscheinlichkeitstheorie 14 2.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2 Grundgesamtheit, Ereignisse und Mengen . . . . . . . . . . . . . . . . . . . . . . . 15 2.3 Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.4 Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . . . . . . . . . . . . . . . . 17 2.5 Zufallsvariable und Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . 18 2.5.1 Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5.2 Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5.3 Diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5.4 Stetige Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5.5 2-dim. Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . 2 20 INHALTSVERZEICHNIS 3 2.5.6 Erwartungswert einer Zufallsvariable . . . . . . . . . . . . . . . . . . . . . 22 2.5.7 Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.5.8 Tschebyscheff-Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.5.9 Korrelationsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.5.10 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 A 26 A.1 Einige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 A.2 Verteilungsfunktion der Standardnormalverteilung . . . . . . . . . . . . . . . . . . . 30 Kapitel 1 Deskriptive Statistik 1.1 Grundbegriffe Grundgesamtheit (Population) : Ω = {ω}. Merkmalsvektor X : Ω → S, S – Merkmalsraum, x = X(ω) – Beobachtung (Merkmalsrealisation, Ausprägung, Realisation). Klassifizierung von Merkmalen (Skalentypen) 1. Nominalskala (klassifikatorische, kategoriale): 2. Ordinal- oder Rangskala: x = y, x 6= y. x < y, x = y, x > y. 3. Metrische Skala: (a) Intervallskala: wie 2. und x − y hat inhaltliche Bedeutung, (b) Verhältnisskala: wie 3.a und Nullpunkt. Merkmalstypen 1. Diskretes Merkmal: höchstens abzählbar viele Ausprägungen, 2. Stetiges (kontinuierliches) Merkmal: sonst 1.2 1.2.1 Kenngrößen einer univariaten Datenmenge Häufigkeiten, Verteilungsfunktion, Histogramm (I) Ohne Klassenbildung Voraussetzung: Stichprobe x1 , . . . , xn mit i.a. xi ∈ IR (univariat), Ausprägungen a1 , . . . , ak (k ≤ n) • absolute Häufigkeit von ai : n(ai ) = Anzahl der Fälle, in denen die Ausprägung ai in der Stichprobe x1 , . . . , xn auftritt • relative Häufigkeit von ai : h(ai ) = n(ai )/n 4 1.2. KENNGRÖSSEN EINER UNIVARIATEN DATENMENGE 5 zusätzliche Voraussetzung: mind. Ordinalskala ; a1 < .. < ak • absolute Summenhäufigkeit zu ai : N(ai ) = Anzahl der Elemente der Stichprobe, die kleiner oder gleich ai sind • relative Summenhäufigkeit zu ai : H(ai ) = N(ai )/n i – N(ai ) = i ∑ n(a j ) , H(ai) = j=1 ∑ h(a j ) j=1 – H(ai ) − H(ai−1 ) = h(ai ) • empirische Verteilungsfunktion : F̂(x) = relative Anzahl der Realisationen, die kleiner gleich x sind – F̂(x) = 0 für x < a1 , F̂(x) = 1 für x ≥ ak , – F̂(x) monoton steigend (nichtfallend), – F̂(x) rechtsseitig stetig, – F̂(x) = H(a j ), falls a j ≤ x < a j+1 , – F̂(a j ) − F̂(a j −) = h(a j ) (II) Mit Klassenbildung neue Voraussetzung: Klassenbildung , disjunkte Teilmengen Ki , wobei jede Ausprägung in genau eine Klasse fällt • absolute Klassenhäufigkeit von Ki : n(Ki ) = Anzahl der Ausprägungen in Ki • relative Klassenhäufigkeit von Ki : h(Ki ) = n(Ki )/n zusätzliche Voraussetzung: X sei reellwertig, d.h. S ⊂ IR, S = r S Ki , Klassen seien Intervalle i=1 h(Ki ) • Histogramm: fˆ(x) = |Ki | für x ∈ Ki , |Ki | – Klassenbreite von Ki – Fläche zur Klasse Ki : h(Ki )/|Ki | · |Ki | = h(Ki ), d. h. die entscheidende Information über das Histogramm ist die Fläche des Rechtecks! Z∞ – −∞ r fˆ(x) dx = ∑ h(Ki ) = 1 i=1 – Wahl der Klassenanzahl: √ 1. Sind die Daten gleich über ein Intervall verteilt, so k = [ n ] 6 KAPITEL 1. DESKRIPTIVE STATISTIK 2. Kompromißvorschlag: k = [10 log10 (n)] • Stamm-und-Blätter-Diagramm Beispiel: 1215, 1410, 1300, 1320, 1420, 1385, 1510 Einheit 10 ; 122, 141, 130, 132, 142, 139, 151 12 2 13 029 14 12 15 1 feinere Unterteilung: 12 12 13 13 14 14 15 1.2.2 2 02 9 12 1 Skalare Kenngrößen (I) Lagemaße Aussage über das Zentrum der Stichprobe. Voraussetzung: metrische Daten x1 , . . . , xn Bezeichnung: geordnete Daten x(1) ≤ x(2) ≤ . . . ≤ x(n) mit x(i) – i-te Ordnungsstatistik. • Mittelwert (arithmetisches Mittel, Durchschnitt): 1 x̄ = n – 1 n 1 ∑ xi = n i=1 k k ∑ n(ai) ai = ∑ h(ai) ai i=1 i=1 n ∑ (xi − x̄) = 0 i=1 n – n n ∑ (xi − x̄)2 ≤ ∑ (xi − a)2 i=1 ∀a ∈ IR i=1 – Für yi = a xi + b ist ȳ = a x̄ + b . – Der Mittelwert reagiert empfindlich auf Ausreißer. – Der Mittelwert ist nur repräsentativ bei in etwa symmetrischen Daten, ansonsten schwer interpretierbar. – Mittelwert für klassierte Daten: Klassen K1 ,. . . ,Kr mit Klassenmittel m1 , . . . , mr r 1 r x̄K = ∑ n(Ki ) mi = ∑ h(Ki ) mi n i=1 i=1 1.2. KENNGRÖSSEN EINER UNIVARIATEN DATENMENGE • α-getrimmtes Mittel x̄α 1 x̄α = n − 2 [n α] n−[n α] ∑ α ∈ (0, 0.5) x(i) , i=[n α]+1 ... ist robuster in Bezug auf Ausreißer als der Mittelwert • p-Quantil x̃ p : p ∈ (0, 1] x([n p]+1) x̃ p = x(n p) + x(n p+1) /2 x̃0.25 – Sonderfälle: x̃0.5 = med x̃0.75 für np ∈ / ZZ , für np ∈ ZZ unteres Quartil heißt Median oberes Quartil – Die Anzahl der Beobachtungen, die kleiner gleich x̃ p ist, ist größer gleich [n p] – x([n p]) ≤ x̃ p ≤ x([n p]+1) n – n ∑ |xi − med| ≤ ∑ |xi − a| ∀a ∈ IR i=1 i=1 – Der Median ast eine äußerst robuste Größe – Der Median kann auch als Kenngröße bei nichtsymmetrischen Daten verwendet werden (II) Streuungsmaße Aussage über die Streuung der Daten um das Zentrum. • empirische Varianz (Populationsvarianz) s̃ 2 1 = n = 1 n n 1 ∑ (xi − x̄) = n i=1 n 2 ∑ xi2 − x̄2 i=1 k k ∑ n(ai) (ai − x̄)2 = ∑ h(ai) (ai − x̄)2 i=1 i=1 – (empirische) Standardabweichung s̃ = √ s̃2 – Stichprobenvarianz (Vgl. induktive Statistik): s2 = – s2 = n 2 n−1 s̃ 1 n−1 n 1 n n ∑ (xi − x̄)2 = n − 1 ∑ xi2 − n − 1 x̄2 i=1 =⇒ i=1 s2 > s̃2 – Für yi = a xi + b sind s̃2y = a2 s̃2x und s̃y = |a| s̃x – Die empirische Varianz reagiert empfindlich auf Ausreißer. – Die empirische Varianz ist nur sinnvoll bei symmetrischen Daten. 7 8 KAPITEL 1. DESKRIPTIVE STATISTIK – Empirische Varianz für klassierte Daten: K1 , . . . , Kr s̃2K = r 1 n ∑ n(Ki) (mi − x̄K )2 = i=1 1 n r ∑ n(Ki) m2i − x̄K2 i=1 • MAD (median absolute deviation) ist der Median von |xi − x̃0.5 | , i = 1, . . . , n – ... ist robust gegenüber Ausreißern. – verwandte, weniger robuste Varianten: d1 = 1 n ∑ |xi − x̃0.5|, d2 = 1 n ∑ |xi − x̄| . • Spannweite: R̃ = x(n) − x(1) – nicht robust • Quartilabstand : QA = x̃0.75 − x̃0.25 – Der Quartilabstand ist resistent gegenüber Ausreißern. – Es liegen mindestens [n/2] aller Beobachtungen im Intervall [x̃0.25 , x̃0.75 ]. (III) Schiefheitsmaße Aussage über die Abweichung der Häufigkeitsverteilung von der Symmetrie. Voraussetzung: unimodale (eingipflige) Verteilung Bezeichnung: Häufigkeitsverteilung heißt rechtsschief, falls der Gipfel auf der linken Seite liegt, ansonsten linksschief. • (empirische) Stichprobenschiefe: 1 n n ∑ i=1 xi − x̄ s̃ 3 – Stichprobenschiefe > 0 → Rechtsschiefe, – Stichprobenschiefe < 0 → Linksschiefe. 1.3. KENNGRÖSSEN EINER BIVARIATEN DATENMENGE 9 (IV) Zusammenfassung skalarer Maße: Box-Plot ? ◦ ◦ ◦◦ ◦ ?? x0.25 − 3QA x0.25 − 1.5QA x0.25 x0.5 QA 1.5QA x0.75 + 1.5QA x0.75 x0.75 + 3QA 1.5QA Beachte Maßstab bei der Konstruktion!! 1.3 1.3.1 Kenngrößen einer bivariaten Datenmenge Korrelationsmaße bei metrisch skalierten Merkmalen • (empirische) Kovarianz zwischen X und Y : s̃XY 1 = n n 1 ∑ (xi − x̄)(yi − ȳ) = n i=1 n ∑ xi yi − x̄ ȳ . i=1 – s̃XY = s̃Y X – empfindlich auf Ausreißer. • Stichprobenkovarianz sXY = n 1 n−1 ∑ (xi − x̄)(yi − ȳ) = i=1 1 n−1 n ∑ xi yi − i=1 n x̄ ȳ n−1 • (empirischer) Korrelationskoeffizient nach Bravais/Pearson rXY = s̃XY sXY = s̃X s̃Y sX sY n ∑ (xi − x̄)(yi − ȳ) = s i=1 n n ∑ (xi − x̄)2 ∑ (yi − ȳ)2 i=1 i=1 n ∑ xi yi − nx̄ ȳ = s i=1 n n ( ∑ xi2 − nx̄2 )( ∑ y2i − nȳ2 ) i=1 i=1 . x 10 KAPITEL 1. DESKRIPTIVE STATISTIK – rXY = rY X – rXY ∈ [−1; 1]. – Es ist rXY = 1 (bzw. -1), falls alle Beobachtungen (xi , yi ) auf einer Geraden mit positiver (negativer) Steigung liegen. Dabei ist yi = ȳ + m xi − x̄ mit m > 0 (m < 0). – Der Korrelationskoeffizient nach Bravais/Pearson ist ein Maß für den linearen Zusammenhang. 1.3.2 Korrelationsmaße bei ordinal skalierten Daten Voraussetzung: X und Y sind wenigstens ordinal skaliert • Rangbildung Stichprobe x1 , . . . , xn , geordnete Stichprobe x(1) ,. . . ,x(n) : R(x j ) mit R(x j ) = v ⇔ x j = x(v) heißt Rang der Beobachtung x j . – Durchschnittsrangbildung bei gleichen Beobachtungen (Bindungen), z. B. für zwei gleiche Beobachtungen: x j = xk ; R(x j ) = R(xk ) = j6=k v + v+1 2 (x j = x(v) = x(v+1) = xk ) – Stichprobe (x1 , y1 ), . . . , (xn , yn ), Ränge (R(x1 ), R(y1 )), . . . , (R(xn ), R(yn )). – Mittelwert R̄ = n+1 2 • Rangkorrelationskoeffizient von Spearman n ∑ (R(xi) − R̄) (R(yi) − R̄) i=1 n RXY = rR(X),R(Y ) = s 2 ∑ (R(xi) − R̄) i=1 n 2 ∑ (R(yi) − R̄) i=1 n ∑ R(xi) R(yi) − n R̄2 = v u u t i=1 ! n ∑ R(xi)2 − n R̄2 i=1 Falls keine Bindungen vorliegen: n 2 6 ∑ R(xi ) − R(yi ) RXY = 1 − i=1 n (n2 − 1) . n ∑ R(yi)2 − n R̄2 i=1 ! 1.3. KENNGRÖSSEN EINER BIVARIATEN DATENMENGE 11 – |RXY | ≤ 1 – Es ist RXY = 1 (−1) genau dann, wenn R(yi ) = R̄ + m (R(xi ) − R̄) für alle i. bzw. für i 6= j xi < x j ⇔ yi < y j (yi > y j ) . – RXY ist ein Maß für den monotonen Zusammenhang! Perfekter monotoner Zusammenhang tritt für R2XY = 1 auf. – RXY ist invariant in Bezug auf monoton wachsende Transformationen. – RXY ist robust in Bezug auf Ausreißer. – Bei viele Bindungen ist es empfehlenswert, zur Bestimmung der Ränge die entsprechenden Formeln in der Kontingenztafel auf Seite 12 nutzen. 1.3.3 Bivariate Häufigkeiten Voraussetzung: Stichprobe (x1 , y1 ), . . . , (xn , yn ), Ausprägungen von X seien a1 , . . . , ak bzw. b1 , . . . , bl von Y • absolute Häufigkeit für (ai , b j ): ni j = n(X = ai ,Y = b j ) = Anzahl der Fälle, in denen das Paar (ai , b j ) in der Stichprobe auftritt. • absolute Randhäufigkeit von ai : ni· = Anzahl der Fälle, in denen die Ausprägung ai in x1 , . . . , xn auftritt (analog n· j ) ni· = ∑lj=1 ni j • relative Häufigkeit für (ai , b j ): ni j hi j = h(X = ai ,Y = b j ) = n • relative Randhäufigkeit von ai : l ni· = ∑ hi j hi· = h(X = ai ) = n j=1 12 KAPITEL 1. DESKRIPTIVE STATISTIK • Kontingenztafel der absoluten Häufigkeiten Y X b1 ··· b2 bl Σ a1 n11 n12 ··· n1l n1· a2 .. . n21 .. . n22 .. . ··· .. . n2l .. . n2· .. . ak nk1 nk2 ··· nkl nk· Σ n·1 n·2 ··· n·l n R̄Y 1 + n·1 2 1 + n·2 n·1 + 2 ··· 1 + n·l ∑l−1 j=1 n· j + 2 • bedingte relative Häufigkeit für ai von X, falls Y den Wert b j besitzt: n(X = ai ,Y = b j ) ni j = n(Y = b j ) n· j h(X = ai ,Y = b j ) hi j = = h(Y = b j ) h· j h(X = ai |Y = b j ) = Rechenregeln – 0 ≤ h(X = ai |Y = b j ) ≤ 1 k 1 – ∑ h(X = av |Y = b j ) = h(Y = b j ) v=1 k ∑ h(X = av,Y = b j ) = 1 v=1 – Satz der totalen Wahrscheinlichkeit: l h(X = ai ) = ∑ h(X = ai |Y = b j ) h(Y = b j ) j=1 – Satz von Bayes: h(X = ai |Y = b j ) = 1.3.4 h(Y = b j | X = ai ) h(X = ai ) h(Y = b j ) Korrelationsmaße bei nominal skalierten Merkmalen Voraussetzung: X und Y sind wenigstens nominal skaliert (z. B. Kontingenztafel) • Unabhängigkeit X heißt unabhängig von Y , falls für alle i ∈ {1, . . . , k} gilt h(X = ai |Y = b1 ) = h(X = ai |Y = b2 ) = . . . = h(X = ai |Y = bl ) ist äquivalent zu R̄X (mittlerer Rang) 1 + n1· 2 1 + n2· n1· + 2 .. . k−1 ni· + ∑i=1 1 + nk· 2 1.3. KENNGRÖSSEN EINER BIVARIATEN DATENMENGE 13 – h(X = ai ) = h(X = ai |Y = b j ) für alle j ∈ {1, . . . , l} – Y ist unabhängig von X ; Bezeichnung X und Y sind unabhängig. – X und Y sind genau dann unabhängig, wenn für alle i, j gilt h(X = ai ,Y = b j ) = h(X = ai ) h(Y = b j ), d. h. es ist hi j = hi· h· j ni j = ni· n· j /n bzw. für alle i, j. • χ2 -Koeffizient 2 2 χ = ∑ki=1 ∑lj=1 (ni j −ni· n· j /n) ni· n· j /n = n ∑ki=1 n2i j ∑lj=1 ni· n· j −1 =n ∑ki=1 – χ2 „groß“; X und Y nicht unabhängig. • Pearsonscher Kontingenzkoeffizient s χ2 C= , χ2 + n s wobei C ≤ Cmax = min{k, l} − 1 ≤1 min{k, l} ; korrigierter Pearsonscher K. CKorr = C/Cmax . – je kleiner CKorr , desto „schwächer“ist die Abhängigkeitsstruktur – es ist CKorr = 0 genau dann, wenn X und Y unabhängig sind – CKorr ∈ [0; 1] h2i j ∑lj=1 hi· h· j −1 . Kapitel 2 Wahrscheinlichkeitstheorie 2.1 Kombinatorik Um |A| zu bestimmen, muß man häufig Probleme der Art lösen: Wieviele Möglichkeiten gibt es, aus n Elementen k auszuwählen. Dabei unterscheidet man Ziehungen, bei denen die Reihenfolge eine Rolle spielt oder nicht, sowie ob gezogene Elemente wieder zurückgelegt werden. Dabei ergeben sich folgende Anzahlen: Zurücklegen Reihenfolge ja ja nein nein n! V̄nk = nk Vnk = (n−k)! n + k − 1 n C̄nk = Cnk = k k V– Variationen C– Kombinationen n n! Dabei ist = (mit n! = 1 · 2 · . . . · (n − 1) · n) der Binomialkoeffizient. k k! (n − k)! Der Binomialkoeffizient hat u. a. folgende Eigenschaften: n 0 n 1 n k n n + k−1 k = 1, = n, n = , n−k n+1 = (Pascalsches Dreieck) . k 14 2.2. GRUNDGESAMTHEIT, EREIGNISSE UND MENGEN 15 Verallgemeinerung von Cnk : n verschiedene Objekte sollen in k verschiedene Mengen vom Umfang n1 , . . . , nk eingeteilt werden, wobei n1 + . . . + nk = n ist. Anzahl der Möglichkeiten beträgt hierbei = n! n1 ! . . . nk ! n Diese Größe heißt Multinomialkoeffizient. Man schreibt hierfür n1 . . . nk 2.2 Grundgesamtheit, Ereignisse und Mengen Identifikation: Ereignis = Menge Ereignis: Teilmenge von Ω Elementarereignis: einelementiges Ereignis Grundgesamtheit Ω: Ergebnismenge, Menge aller Elementarereignisse Mengenoperationen Voraussetzung: A, B ⊆ Ω. Durchschnitt A∩B = {ω ∈ Ω : ω ∈ A und ω ∈ B} Vereinigung A∪B = {ω ∈ Ω : ω ∈ A oder ω ∈ B} Differenz A−B = {ω ∈ Ω : ω ∈ A und ω ∈ / B} Komplement Ā = {ω ∈ Ω : ω ∈ / A} 0/ – unmögliches Ereignis Ω – sicheres Ereignis A ∩ B = 0/ – disjunkte (unvereinbare) Ereignisse A, B A ∪ B = B ∪ A, A∩B = B∩A (A ∪ B) ∪C = A ∪ (B ∪C), (A ∩ B) ∩C = A ∩ (B ∩C) A ∩ (B ∪C) = (A ∩ B) ∪ (A ∩C), A ∪ (B ∩C) = (A ∪ B) ∩ (A ∪C) (A ∩ B) = Ā ∪ B̄, (A ∪ B) = Ā ∩ B̄ A − B = A ∩ B̄ 16 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE 2.3 Wahrscheinlichkeitsbegriff • Laplace-Wahrscheinlichkeit Ist Ω endlich und sind alle Elementarereignisse gleichwahrscheinlich, so gilt P(A) = |A| Anzahl der für A “günstigen” Fälle = , |Ω| Anzahl der möglichen Fälle wobei |A| die Anzahl der Elemente von A bezeichne, analog |Ω|. Voraussetzung: Ereignisse A, B ⊆ Ω, n Versuche, rel. Häufigkeit h(A) bzw. hn (A) • Rechenregeln für relative Häufigkeiten – 0 ≤ h(A) ≤ 1 – h(Ω) = 1 / =0 – h(0) – h(Ā) = 1 − h(A) – h(A ∪ B) = h(A) + h(B) , falls A ∩ B = 0/ – h(A ∪ B) = h(A) + h(B) − h(A ∩ B) – h(A) = h(A ∩ B) + h(A ∩ B̄) • Statistische Definition der Wahrscheinlichkeit (von Mises, 1931) P(A) := lim hn (A) n→∞ • Axiomatik nach Kolmogorov, 1933 (vereinfacht) Eine Funktion P : Ω → [0, 1] mit den Eigenschaften 1. ∀ A ⊆ Ω : 0 ≤ P(A) ≤ 1 2. P(Ω) = 1 3. P(A ∪ B) = P(A) + P(B) ∀ A, B ⊆ Ω mit A ∩ B = 0/ 4. für A1 , A2 , . . . ⊂ Ω mit ∞ S An ⊂ Ω gilt P(A1 ∪ A2 ∪ . . .) ≤ P(A1 ) + P(A2 ) + . . . n=1 heißt Wahrscheinlichkeitsmaß. P(A) heißt die Wahrscheinlichkeit des Ereignisses A. • Rechenregeln – P(Ā) = 1 − P(A) / =0 – P(0) – P(A) = P(A ∩ B) + P(A ∩ B̄) – Ist B ⊆ A, so ist P(B) ≤ P(A) – P(A ∪ B) = P(A) + P(B) − P(A ∩ B) – Ist Ω endlich, so gilt für A ⊆ Ω: P(A) = ∑ P({a}) a∈A 2.4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHÄNGIGKEIT 2.4 17 Bedingte Wahrscheinlichkeit und Unabhängigkeit • Bedingte Wahrscheinlichkeit für ein Ereignis A ⊆ Ω unter der Bedingung B ⊆ Ω (für A, wenn B vorliegt) ist P(A | B) = P(A ∩ B) P(B) für P(B) > 0 . Bei fixer Bedingung B ist P(· | B) ein Wahrscheinlichkeitsmaß, für das die in 2.3 genannten Regeln gelten. • Multiplikationssatz für bedingte Wahrscheinlichkeiten Es seien A1 , . . . , Ak Ereignisse. Dann gilt für k ≥ 2 (bei P(A1 ∩ · · · ∩ Ak−1 ) > 0): P(A1 ∩ · · · ∩ Ak ) = P(A1 ) · P(A2 | A1 ) · P(A3 | A1 ∩ A2 ) · . . . · P(Ak | A1 ∩ · · · ∩ Ak−1 ). • Satz von der totalen Wahrscheinlichkeit Es seien A1 , . . . , Ak paarweise disjunkte Ereignisse mit A1 ∪ · · · ∪ Ak = Ω. Dann gilt für ein beliebiges Ereignis B k P(B) = ∑ P(B | Ai ) · P(Ai ) i=1 • Satz von Bayes (1702 – 1761) Es seien A1 , . . . , Ak paarweise disjunkte Ereignisse mit A1 ∪ · · · ∪ Ak = Ω. Dann gilt für i ∈ {1, . . . , k} P(Ai | B) = P(B | Ai ) · P(Ai ) k ∑ P(B | A j ) · P(A j ) j=1 – z.B., für P(B) 6= 0 P(A | B) = P(B | A) · P(A) P(B) • Unabhängigkeit von Ereignissen Zwei Ereignisse A, B ⊆ Ω heißen (stochastisch) unabhängig, falls gilt P(A ∩ B) = P(A) · P(B) . ; bei P(A) · P(B) > 0 P(A) = P(A | B) , P(B) = P(B | A) . Ereignisse A1 , . . . , An (n ≥ 2) sind (stochastisch) unabhängig (in der Gesamtheit), falls für alle Teilmengen {i1 , . . . , ir } von {1, . . . , n} gilt: P(Ai1 ∩ · · · ∩ Air ) = P(Ai1 ) · . . . · P(Air ) . 18 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE 2.5 Zufallsvariable und Verteilungsfunktionen 2.5.1 Zufallsvariable Merkmal (Merkmalsvektor) X: Abbildung von Grundgesamtheit Ω in Bildraum S S ⊂ IR ; Zufallsvariable X: Ω→S Zufallsvariablen X1 , . . . , Xn ; X = (X1 , . . . , Xn ) heißt n-dim. Zufallsvariable (Zufallsvektor) 2.5.2 Verteilungsfunktion Voraussetzung: Zufallsvariable X • Verteilungsfunktion FX (x) = P ω ∈ Ω : X(ω) ≤ x , x ∈ IR kurz: F(x) = P(X ≤ x) – 0 ≤ F(x) ≤ 1 für alle x – F(∞) = lim F(x) = 1, x→∞ F(−∞) = lim F(x) = 0 x→−∞ – F(x) ist monoton wachsend in x – F ist rechtsseitig stetig, d. h. F(x + 0) = F(x) ∀x • Berechnung von Wahrscheinlichkeiten Es gilt für a < b: – P(a < X ≤ b) = F(b) − F(a) – P(a ≤ X ≤ b) = F(b) − F(a − 0) – P(X > a) = 1 − P(X ≤ a) = 1 − F(a), P(X ≥ a) = 1 − P(X < a) = 1 − F(a − 0) – P(X = a) = F(a) − F(a − 0) mit F(a − 0) = lim F(a − ε) = lim F(a − ε) ε↓0 ε→+0 2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN 2.5.3 19 Diskrete Zufallsvariable Nimmt X höchstens abzählbar viele verschiedene Werte an, so heißt X eine diskrete Zufallsvariable und FX eine diskrete Verteilungsfunktion. Werte von X: x1 < x2 < x3 < . . ., pi = P(X = xi ) • Wahrscheinlichkeitsfunktion von X ist p , falls x = x i i fX (x) = 0 , falls x 6= x ∀i i • Verteilungsfunktion ist i FX (x) = ∑ f (xv) = P(X = x1 ) + · · · + P(X = xi ) v=1 für xi ≤ x < xi+1 . Insbesondere: F(x) = 0 für x < x1 , F(x) = 1 für x ≥ xn . Beispiele für diskrete Verteilungen siehe Seite 27. 2.5.4 Stetige Zufallsvariable • X heißt stetige Zufallsvariable, falls eine nicht-negative Funktion f existiert mit: Zx F(x) = f (t) dt , für alle x ∈ IR . −∞ f heißt Dichte (Wahrscheinlichkeitsdichte) von X • Eigenschaften für a ≤ b ∈ IR: Z∞ f (t) dt = 1 – −∞ – P(a < X ≤ b) = Zb Z∞ f (t) dt , P(X > a) = a f (t) dt a – P(a < X < b) = P(a ≤ X ≤ b) , P(X = a) = 0 – F differenzierbar: f (x) = F 0 (x) 20 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE • Beispiele für stetige Verteilungen – Gleichverteilung: Wartezeitprobleme, – Exponentialverteilung: Lebensdauern, – Normalverteilung: Bedeutung → Zentraler Grenzwertsatz (Vgl. Seite 24) Siehe auch Seite 28f. • Normalverteilung Bezeichnungen: X ∼ N(µ, σ2 ), Dichte nµ,σ2 , Verteilungsfunktion N µ,σ2 , Standardnormalverteilung: Φ = N 0,1 , φ = n0,1 Dichte ( ) 1 1 x−µ 2 fµ,σ2 (x) = √ exp − 2 σ σ 2π – φ(x) = φ(−x) – Φ(x) = 1 − Φ(−x) – X ∼ N(µ, σ2 ) ; a X + b ∼ N(a µ + b, a2 σ2 ) – X ∼ N(µ, σ2 ) ; – X ∼Φ X−µ σ ∼ Φ, d. h. FX (x) = Φ x−µ σ ; µ + σ X ∼ N(µ, σ2 ) – X1 ∼ N(µ1 , σ21 ), X2 ∼ N(µ2 , σ22 ) und X1 und X2 sind unabhängig ; X1 + X2 ∼ N(µ1 + µ2 , σ21 + σ22 ) – maxx∈IR f (x) = f (µ) • Exponentialverteilung Bezeichnungen: X ∼ E(λ) Motivation: Zeit T zwischen zwei Ereignissen bei Poissonverteilung, d. h. mit X ∼ P(λ) Dichte (mit λ > 0) 0 ,x<0 f (x) = λ exp(−λ x) , x ≥ 0 Verteilungsfunktion (mit λ > 0) F(x) = 1 − exp(−λ x), 2.5.5 x≥0 2-dim. Verteilungsfunktionen Voraussetzung: X = (X1 , X2 ) – 2-dim. ZV: • 2-dim. Verteilungsfunktion des Zufallsvektors X FX (x1 , x2 ) = P {ω ∈ Ω : X1 (ω) ≤ x1 , X2 (ω) ≤ x2 } , x1 , x2 ∈ IR kurz: F(x) = P(X ≤ x) 2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN 21 • X diskret, falls X höchstens abzählbar viele verschiedene Werte annimmt, und ; f (x1 , x2 ) = P(X1 = x1 , X2 = x2 ) – Wahrscheinlichkeitsfunktion von (X1 , X2 ) • X heißt stetig, falls für alle x1 , x2 ∈ IR Zx1 Zx2 F(x1 , x2 ) = f (t1 ,t2 ) dt2 dt1 −∞ −∞ mit f (t1 ,t2 ) ≥ 0 für alle t1 ,t2 . f heißt Dichte von (X1 , X2 ). • Randverteilung von X1 ist F1 (x1 ) = FX (x1 , ∞) = P(X1 ≤ x1 ) von X2 ist F2 (x2 ) = FX (∞, x2 ) = P(X2 ≤ x2 ) P(X1 = x1 ) = ∑ P(X1 = x1 , X2 = x2, j ) – bei distreter Verteilung j Z+∞ – bei stetiger Verteilung fX1 (x1 ) = f (x1 , x2 ) dx2 −∞ • Eigenschaften einer 2-dim. Verteilungsfunktion – 0 ≤ F(x1 , x2 ) ≤ 1, – lim F(x1 , x2 ) = 0, lim F(x1 , x2 ) = 1 x1 → −∞ x1 → ∞ , (x2 → −∞) x2 → ∞ – Monotonie: x1 ≤ y1 , x2 ≤ y2 → F(x1 , x2 ) ≤ F(y1 , y2 ) – rechtsseitig stetig: F(x1 , x2 ) = F(x1 + 0, x2 ) = F(x1 , x2 + 0) = F(x1 + 0, x2 + 0) – x1 < y1 , x2 < y2 : P(x1 < X1 ≤ y1 , x2 < X2 ≤ y2 ) = F(y1 , y2 ) − F(y1 , x2 ) − F(x1 , y2 ) + F(x1 , x2 ) ≥ 0 • Bedingte Verteilungen Voraussetzung: f Wahrscheinlichkeitsfunktion/Dichte von (X1 , X2 ), fi die Wahrscheinlichkeitsfunktion/Dichte von Xi (Randverteilung) f1 (x1 | x2 ) = f (x1 , x2 ) f2 (x2 ) für f2 (x2 ) > 0 heißt “bedingte Wahrscheinlichkeitsfunktion/Dichte von X1 , wenn X2 den Wert x2 annimmt”. F1 (x1 | x2 ) = Zx1 f (u1 | x2 ) du1 −∞ • Unabhängigkeit von Zufallsvariablen Definition: Zufallsvariablen X1 , . . . , Xn heißen unabhängig, falls für alle x1 , . . . , xn ∈ IR n F(x1 , . . . , xn ) = ∏ F(xi ). i=1 22 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE Äquivalente Definitionen: n – diskrete ZV: ∀x1 , . . . , xn : P(X1 = x1 , . . . , Xn = xn ) = ∏ P(Xi = xi ) i=1 n – stetige ZV: ∀x1 , . . . , xn : f (x1 , . . . , xn ) = ∏ f (xi ) i=1 – 2dim. ZV, f1 , f2 Wahrscheinlichkeitsfunktion/Dichte: ∀x1 , x2 mit f2 (x2 ) > 0 : f1 (x1 ) f1 (x1 | x2 ) = Sind x1 , . . . , xn ∈ IR - unabhängig und sind g1 , . . . , gn Funktionn, so sind auch g1 (x1 ), . . . , qn (xn ) ∈ IR unabhängig • Anwendung auf Summen von ZV Voraussetzung: X1 , X2 unabhängige ZV – diskret: P(X1 + X2 = x) = ∑ P(X1 = x − t)P(X2 = t) t Z∞ f1 (x − t) f2 (t) dt – stetig: fX1 +X2 (x) = −∞ • Beispiele – Xi ∼ N(µi , σ2i ) ; ∑ni=1 Xi ∼ N ∑ni=1 µi , ∑ni=1 σ2i – Xi ∼ N(µ, σ2 ) ; X̄ ∼ N(µ, σ2 /n) – Xi ∼ B(1, p) ; n ∑ Xi ∼ B(n, p) i=1 2.5.6 Erwartungswert einer Zufallsvariable E(X) = ∑ xi P(X = xi ). Erwartungswert einer diskreten Zufallsvariable X: i Z∞ E(X) = Erwartungswert einer stetigen Zufallsvariable X: x f (x) dx. −∞ • f sei Wahrscheinlichkeits- oder Dichtefunktion: Ist f symmetrisch bzgl. m, d. h. f (m + x) = f (m − x) ∀x so ist E(X) = m, falls existent. • Es sei Y = g(X). Ist X diskret, so gilt (falls existent) E(Y ) = ∑ g(xi ) f (xi ) . i Z∞ Ist X stetig, so gilt (falls existent) Beispiel: Y = a X + b: E(Y ) = g(x) f (x) dx . −∞ E a X + b = a E(X) + b . 2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN • Sind X1 , . . . , Xn Zufallsvariable mit jeweils existierendem Erwartungswert, so ist ! n E n = ∑ E(Xi ) . ∑ Xi i=1 i=1 Sind die Zufallsvariablen X1 , . . . , Xn zusätzlich noch unabhängig, so ist auch ! n E ∏ Xi i=1 2.5.7 n = ∏ E(Xi ) . i=1 Varianz Varianz einer Zufallsvariable X: σ2 = Var(X) = E [X − E(X)]2 . p Standardabweichung σ = Var(X). • Verschiebungssatz (mit µ := E(X)): Var(X) = E [X − µ]2 = E(X 2 ) − µ2 • Für alle a, b ∈ IR ist Var(a X + b) = a2 Var(X) • Sind die Zufallsvariablen X1 , . . . , Xn unabhängig und existieren jeweils die Varianzen, so ist n Var ∑ Xi i=1 2.5.8 ! n = ∑ Var(Xi ) i=1 Tschebyscheff-Ungleichung Voraussetzung: Zufallsvariable X mit der Verteilungsfunktion F Es gilt für alle ε > 0: P(|X − µ| ≥ ε) ≤ Var(X) ε2 bzw. äquivalent P(|X − µ| < ε) ≥ 1 − Var(X) . ε2 23 24 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE 2.5.9 Korrelationsmaße • Kovarianz von X und Y Voraussetzung: Zufallsvariablen X und Y Cov(X,Y ) = E [X − E(X)] [Y − E(Y )] = E(X Y ) − E(X) E(Y ) • Korrelationskoeffizient von Bravais-Pearson von X und Y Voraussetzung: Zufallsvariablen X und Y mit Var(X) > 0 und Var(Y ) > 0 Cov(X,Y ) Corr(X,Y ) = p Var(X)Var(Y ) Bemerkung: Ist Corr(X,Y ) = 0, so heißen X und Y unkorreliert. • Eigenschaften – Corr(a X + b, cY + d) = Corr(X,Y ) (Invarianz bez. Lage- und Skalenverschiebungen) – |Corr(X,Y )| ≤ 1 – |Corr(X,Y )| = 1, falls X und Y auf einer Geraden liegen, d. h. Y = α + β X . – Sind X und Y unabhängig, so ist Cov(X,Y ) = 0. Die Umkehrung gilt i. A. nicht! – Für alle a, b ∈ IR und zwei beliebige Zufallsvariablen X und Y gilt Var a X + bY ) = a2 Var(X) + 2 a bCov(X,Y ) + b2 Var(Y ) . 2.5.10 Grenzwertsätze • Schwaches Gesetz der großen Zahlen Voraussetzung: Folge unabhängiger, identisch verteilter Zufallsvariabler X1 , X2 , . . . mit E(X1 ) = µ lim P |X̄ − µ > ε = 0 n→∞ P Man schreibt hierfür kurz X̄ → µ (convergence in probability) • Zentraler Grenzwertsatz Voraussetzung: Es seien X1 , X2 , . . . unabhängig und identischverteilt Zufallsvariablen mit E(Xi ) = µ und Var(Xi ) = σ2 √ X̄ − µ lim P n ≤ x = Φ(x) n→∞ σ Andere Schreibweise – lim P ∑√Xi −n2 µ ≤ x = Φ(x) nσ n→∞ X̄−E(X̄) – lim P √ ≤ x = Φ(x) n→∞ Var(X̄) 2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN 25 • Spezialfall ZGWS Moivre-Laplace n Xi ∼ B(1, p) sowie ∑ Xi =: Yn ∼ B(n, p); Mit a, b ∈ IN i=1 P(a < Yn ≤ b) = P(a + 0.5 < Yn ≤ b + 0.5) a + 0.5 − n p Yn − n p b + 0.5 − n p =P p <p ≤p n p (1 − p) n p (1 − p) n p (1 − p) ! ! b + 0.5 − n p a + 0.5 − n p ≈Φ p −Φ p . n p (1 − p) n p (1 − p) ! Bemerkung – Yn ∼ B(n, p) ist für große n “rund” normalverteilt, – +0.5 – sogenannte Stetigkeitskorrektur; verbessert Approximation – Faustregel: n p (1 − p) > 9 – gute, n p (1 − p) > 5 – brauchbare Näherungen. • Grenzwertsatz von Poisson Yn ∼ B(n, p): Mit p → 0 und np → λ > 0 für n → ∞ konvergiert Yn gegen Z ∼ P(λ) Bemerkung – Yn ∼ B(n, p) ist für große n “rund” poissonverteilt, wenn p gleichzeitig klein ist, – Faustregel: n p ≤ 10 und n ≥ 1500 p. Anhang A Im Anhang finden Sie eine Reihe von Tabellen, so 1. einen Überblick über einige Verteilungen 2. die Verteilungsfunktion der Standardnormalverteilung, A.1 Einige Verteilungen 26 Poisson Poissona P(λ) Geometrisch geometryczny G(p) Hypergeometrisch hipergeometryczny H(N, M, n) Binomial dwumianowy B(n, p) Verteilung λm −λ e m! m ∈ {0, 1, . . .} λ>0 0< p<1 p (1 − p)m−1 m ∈ {1, 2, . . .} mmin := max 0, n − (N−M) , mmax := min{n, M} N ∈ {1, 2, . . .}, M ∈ {0, 1, . . . , N}, n ∈ {1, 2, . . . N} 0< p<1 n ∈ {1, 2, . . .} Parameterraum n−m N n m ∈ {mmin , mmin +1, . . . , mmax}, m Wahrscheinlichkeitsfunktion f (m) n pm (1 − p)n−m m m ∈ {0, 1, . . . , n} M N−M Diskrete Verteilungen λ 1 p n M N np M N −M N −n N N N −1 λ 1− p p2 (N > 1) n n p (1 − p) Erwartungswert Varianz µ = E(X) σ2 = E [X −µ]2 A.1. EINIGE VERTEILUNGEN 27 Student∗∗ tn Chi-Quadrat χ2n ∗ Exponential E(λ) Normal N(µ, σ2 ) Gleich U(a, b) Verteilung n 2 n x 1 x 2 −1 e− 2 , x ≥ 0 n 2 Γ 2 − n+1 2 x2 Γ n+1 1 + 2 n √ , x ∈ IR Γ n2 πn f (x) = λ e−λx , x ≥ 0 2 1 − (x−µ) √ e 2 σ2 , x ∈ IR 2πσ2 1 , x ∈ [a, b] b−a Wahrscheinlichkeitsfunktion f (x) n ∈ IN n ∈ IN λ>0 µ ∈ IR σ>0 −∞ < a < b < ∞ Parameterraum Stetige Verteilungen 0 n n−2 2n 1 λ2 1 λ n σ2 µ (n > 2) (b − a)2 12 a+b 2 (n > 1) Varianz σ2 = E [X − µ]2 Erwartungswert µ = E(X) 28 ANHANG A. Laplace Cauchy Gamma Γ(r, λ1 ) Fm,n Fisher∗∗∗ Verteilung m m 2 n n 2 m m − m+n 2 x 2 −1 1 + x , n : i=1 µ λ > 0 , µ ∈ IR ∑ Xi2 ∼ χ2n mit unabhängigen Xi ∼ N (0, 1), i = n - r λ n n−2 (n > 2) Erwartungswert µ = E(X) β > 0 , α ∈ IR λ > 0, r > 0 m, n ∈ IN Parameterraum 1, 2, .., n ∗∗ : pX ∼ tn mit unabhängigen X ∼ N (0, 1) und Y /n Y ∼ χ2n ∗∗∗ : X/m ∼ F 2 m,n mit unabhängigen X ∼ χm und Y ∼ Y /n χ2n ∗ 1 , x ∈ IR π β {1 + [(x − α)/β]2 } 1 − |x−µ| e λ , x ∈ IR 2λ λr r−1 −λx x e ,x≥0 Γ(r) Γ m+n 2 Γ m2 Γ x≥0 Wahrscheinlichkeitsfunktion f (x) Stetige Verteilungen 2 λ2 - r λ2 2 n2 (m + n − 2) m (n − 2)2 (n − 4) (n > 4) Varianz σ2 = E [X − µ]2 A.1. EINIGE VERTEILUNGEN 29 30 A.2 ANHANG A. Verteilungsfunktion der Standardnormalverteilung φ(ξ) X ∼ N (0, 1) =⇒ P(X ≤ x) = Φ(x) = Zx −∞ z }| { 1 −ξ2 √ exp dξ 2 2π Φ(x) = 1 − Φ(−x) zq = −z1−q (Quantil der Standardnormalverteilung) Y ∼ N (µ, σ2 ) ⇐⇒ Y −µ ∼ N (0, 1) σ Yq = µ + σzq (Quantil der Normalverteilung) φξ º º º º º º º º º º º º º º ºººººººººººººº ºººººººº º º º º º º ººº ººº ººº ºº ººº ºº ººººº ººº ºº ººº º º º º ººººººººººº ºººººººº ººº ººº ººº º ººº º º º º º º º º ºººººººººººººº ººº º º º º º º º º º º ºº ºº ººº ººººº ººº ººº ººº ºº ºº ºº ºº ººººº ºº ºº ºººº º º º º º º º º º º º º ººº ººº ººº ººººººººº ºº ºº ººººº ººº ººººº ºº º º º º ºº º º º º º º º º º º ººººº ººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººº ºº ºº ººººº ºº ººº ººº ºº ºº ººº ººº ºººº ººººº ºº ºº ººº ºº ººº º ººº ººº ººº ººº ºº ººº ººº ººº ººº ººº ººº ººº ºº ºººººº ººº ººººº ººº ºº º º º º º º º º º º º º º º º º º º º º º º ººº ººº ººº ººº ººº ººº ººº ºº ººº ººº ººº ººº ººº ººº ºº ººº ºººº ººº ººº ººº ººº ºº ºº ºº º ººº º º º º º º º º º º º º º º º º º º º º º º º ºººº º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººººººººººººººººº ºº ºº ºººº º º º ººº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºººººº ºº ºº ºº ºº ºº º º º º º º º º º º º º º º º º º º º º º º º ºººººº º º º º º º º º º º º º º º º º º º º º º º º º º ººº ººº ººº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ººº ºº ºº ººº ººº ººº ººº ººº º ºººº ººº ººº ººº ººº ººº ººº ººº ººº ºº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºº ºººº ººº ººº ººº ººº ººº ºº ºº ºº ºººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººººººººººººººººººººººººººººººººººººººººº ººº ººººººº ººº ºººººº º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººººººººººººº ººº ººº ººº ººº ººº ººº ººººº ººº ººº ººººººº ºº ºººººº ººº ººº ºº ºººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººº ººº ººº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºººººº ºº ººº ºº ººº ººº ººº ººº ººº º ººººººººº ºº ººº ººº ººº ººº ººº ººº ººº ºº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºº ºº ºº ººº ººº ººº ººº ººº ººº ººº ºººººº ººº ºº º º ººººººººººº º ººº ººº ººº ººº ºº º ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ººº ººº ººº ººº ºººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººº ºº º ºººº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºº ºººººººººººººººººººººº ººº ººººººººº ºº ºº ºº ºº ºº ºº ºººº ºº ºº ºº ººº ºº ººº º ºººººººº º ºººº ºº ººº ºº ºº ºº ºº ºº ºº ºº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºº ºº ºº ºº ºº ºº ººº ºº ººº ººº ºº ºº ººº ºº ºººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºº ººº ººº ºººººººººººººººººººººººººº º ººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººº º ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ººº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºº º ºººººººººººººººººººººº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº ºº º ººº ººº º º º º º º º º º º º º º º º º º ºº º º º º º º º º º º º º º º º º ºººººººººººººººººººººººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºººººººººººººººººººººººººººººººººººººººººººº º º º ººº ººº ººº ººº ººº ººº ººº ººº ººº ººººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºººº ººº ººº ººº ººº ººº ººº ººº ººººººººººººººººººººººººººººººººººº º º º ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº º ººº ººº ºº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºº º º º º º º º º º º º º º ººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººººººººººººººººº º ºº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººººººººººººººººººººººººººº ººººººººº ººº ººº ººººººººººººººººººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººº ººº ººº ººº ººººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºººº ººº ººº ººº ººº ººº ººº ººº º ººº ºººººººººººººººººººººººººººººººººººººººººººº ººº º º ººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººº ººº ººº ººº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººº ºººººººººººººººººººººººººººººººººººººº º º ºººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººº ººº ººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º º ºººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººº º º º ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºººº ººº ººº ººº ººº ººº ººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººº ººº º º º ºººº º º º ººº ººº ººº ººº ººº ººº ººº ººº ºº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ºº º ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ºººº º º º º º ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º º º º º º ºººººººººººººººººººººº ººº ººººººº ººº ººº ººº ººººº ººººººººººº ººº ººººººº ººººººº ººº ººº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º º º º º º º º º º º º º º º º º º º º º º º º º º º ºººººººººººº º º º º º ººººººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººº ººººº ººº ººº ººº ººº ººººº ººº ººº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º º º º º º º º º º ºººº º º º º º º º º º º º º º º º º ºº ººººººººººººººººººººººººººººººººººººººººººººººººººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººººººººººººººººº ººººººººººººººººººººººººººººººººººººººººººº ººººººººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººº ººººººº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº Φx . . ... . . ... . . .. ... .. x Beispiele: Φ(0) Φ(1.3) Φ(2.64) Φ(−0.83) = = = = 0.5 0.9032 0.9959 1 − Φ(0.83) = 1 − 0.7967 = 0.2033 Ab x ≥ 3.7 ist Φ(x) ≈ 1 bzw. x ≤ −3.7 ist Φ(x) ≈ 0. ξ A.2. VERTEILUNGSFUNKTION DER STANDARDNORMALVERTEILUNG x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.1 0.2 0.3 0.4 0.5000 0.5398 0.5793 0.6179 0.6554 0.5040 0.5438 0.5832 0.6217 0.6591 0.5080 0.5478 0.5871 0.6255 0.6628 0.5120 0.5517 0.5910 0.6293 0.6664 0.5160 0.5557 0.5948 0.6331 0.6700 0.5199 0.5596 0.5987 0.6368 0.6736 0.5239 0.5636 0.6026 0.6406 0.6772 0.5279 0.5675 0.6064 0.6443 0.6808 0.5319 0.5714 0.6103 0.6480 0.6844 0.5359 0.5753 0.6141 0.6517 0.6879 0.5 0.6 0.7 0.8 0.9 0.6915 0.7257 0.7580 0.7881 0.8159 0.6950 0.7291 0.7611 0.7910 0.8186 0.6985 0.7324 0.7642 0.7939 0.8212 0.7019 0.7357 0.7673 0.7967 0.8238 0.7054 0.7389 0.7704 0.7995 0.8264 0.7088 0.7422 0.7734 0.8023 0.8289 0.7123 0.7454 0.7764 0.8051 0.8315 0.7157 0.7486 0.7794 0.8078 0.8340 0.7190 0.7517 0.7823 0.8106 0.8365 0.7224 0.7549 0.7852 0.8133 0.8389 1.0 1.1 1.2 1.3 1.4 0.8413 0.8643 0.8849 0.9032 0.9192 0.8438 0.8665 0.8869 0.9049 0.9207 0.8461 0.8686 0.8888 0.9066 0.9222 0.8485 0.8708 0.8907 0.9082 0.9236 0.8508 0.8729 0.8925 0.9099 0.9251 0.8531 0.8749 0.8944 0.9115 0.9265 0.8554 0.8770 0.8962 0.9131 0.9279 0.8577 0.8790 0.8980 0.9147 0.9292 0.8599 0.8810 0.8997 0.9162 0.9306 0.8621 0.8830 0.9015 0.9177 0.9319 1.5 1.6 1.7 1.8 1.9 0.9332 0.9452 0.9554 0.9641 0.9713 0.9345 0.9463 0.9564 0.9649 0.9719 0.9357 0.9474 0.9573 0.9656 0.9726 0.9370 0.9484 0.9582 0.9664 0.9732 0.9382 0.9495 0.9591 0.9671 0.9738 0.9394 0.9505 0.9599 0.9678 0.9744 0.9406 0.9515 0.9608 0.9686 0.9750 0.9418 0.9525 0.9616 0.9693 0.9756 0.9429 0.9535 0.9625 0.9699 0.9761 0.9441 0.9545 0.9633 0.9706 0.9767 2.0 2.1 2.2 2.3 2.4 0.9772 0.9821 0.9861 0.9893 0.9918 0.9778 0.9826 0.9864 0.9896 0.9920 0.9783 0.9830 0.9868 0.9898 0.9922 0.9788 0.9834 0.9871 0.9901 0.9925 0.9793 0.9838 0.9875 0.9904 0.9927 0.9798 0.9842 0.9878 0.9906 0.9929 0.9803 0.9846 0.9881 0.9909 0.9931 0.9808 0.9850 0.9884 0.9911 0.9932 0.9812 0.9854 0.9887 0.9913 0.9934 0.9817 0.9857 0.9890 0.9916 0.9936 2.5 2.6 2.7 2.8 2.9 0.9938 0.9953 0.9965 0.9974 0.9981 0.9940 0.9955 0.9966 0.9975 0.9982 0.9941 0.9956 0.9967 0.9976 0.9982 0.9943 0.9957 0.9968 0.9977 0.9983 0.9945 0.9959 0.9969 0.9977 0.9984 0.9946 0.9960 0.9970 0.9978 0.9984 0.9948 0.9961 0.9971 0.9979 0.9985 0.9949 0.9962 0.9972 0.9979 0.9985 0.9951 0.9963 0.9973 0.9980 0.9986 0.9952 0.9964 0.9974 0.9981 0.9986 3.0 3.1 3.2 3.3 3.4 0.9987 0.9990 0.9993 0.9995 0.9997 0.9987 0.9991 0.9993 0.9995 0.9997 0.9987 0.9991 0.9994 0.9995 0.9997 0.9988 0.9991 0.9994 0.9996 0.9997 0.9988 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9994 0.9996 0.9997 0.9989 0.9992 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9996 0.9997 0.9990 0.9993 0.9995 0.9997 0.9998 3.5 3.6 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9999 0.9999 0.9999 0.9998 0.9998 0.9998 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 31