Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1.1 ohne Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 mit Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 2 Variation 2.1 ohne Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 mit Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 3 Kombination 3.1 ohne Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 mit Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 4 Ereignisse 2 5 Geschichte des Wahscheinlichkeits-Begriffs 2 6 Wahrscheinlichkeitsraum 6.1 Rechenregeln . . . . . . . . . . . . . 6.2 Ω sei diskret . . . . . . . . . . . . . . 6.3 Ω sei stetig . . . . . . . . . . . . . . 6.4 Unvereinbarkeit ←→ Unabhängigkeit 6.5 bedingte Wahrscheinlichkeit . . . . . 6.6 Multiplikationssatz . . . . . . . . . . 3 4 4 5 6 6 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Ereignisbäume 8 Zufalls-variablen, Verteilungsfunktion 8.1 Diskrete Zufalls-variablen . . . . . . 8.2 Stetige Zufalls-Variablen . . . . . . . 8.3 Symmetrische ZV . . . . . . . . . . . 8.4 Verteilungsparameter . . . . . . . . . 8.4.1 Erwartungswert E(X) = µ . . 8.4.2 Varianz V (X) = σ . . . . . . 8.4.3 Eigenschaften (Rechenregeln) 8.5 Spezielle Zufalls-Variablen . . . . . . 8.5.1 Diskrete Verteilung . . . . . . 8.5.2 Stetige Verteilung . . . . . . . . . . . . . 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 . 7 . 8 . 8 . 8 . 8 . 9 . 9 . 10 . 10 . 11 1 Permutation Ümsortierung”der Elemente einer endlichen Menge, d.h. eine eineindeutige Abblidung der Mende auf sich. 1.1 ohne Wiederholungen Anzahl aller Permutationen mit n unterscheidbaren Elementen: 1.2 n! mit Wiederholungen Anzahl aller Permutationen mit n Elementen, n1 ; · · · nk nicht unterscheidbar: 2 n! n1 !•···•nk ! Variation Anordnung (Ziehung) von k der n der Elemente, welche nach der Reihenfolge (der Ziehung) angeordnet werden. 2.1 ohne Wiederholungen Keines der n Elemente darf mehrfach auftauchen. (Ziehung ohne Zurücklegen) n! Anzahl aller Variationen: (n−k)! 2.2 mit Wiederholungen Jedes der n Elemente darf mehrfach auftauchen. (vor nächster Ziehung wird Zurücklegt) Anzahl aller Variationen: nk 3 Kombination Auswahl von k der n der Elemente ohne Berücksichtigung der Reihenfolge. 3.1 ohne Wiederholungen Keines der n Elemente darf mehrfach auftauchen. (Ziehung ohne Zurücklegen) n n! Anzahl aller Kombinationen: = k!·(n−k)! k 3.2 mit Wiederholungen Jedes der n Elemente darf mehrfach auftauchen. (vor nächster Ziehung wird Zurücklegt) (n+k−1)! n+k−1 Anzahl aller Kombinationen: = k!·(n−k)! k 1 4 Ereignisse Ω⊂Ω ”sicheres Ereignis” ⊂Ω ”unmögliches Ereignis” A, B ∈ E(Ω) A ∩ B ∈ E(Ω) ”A und B treten gemeinsam ein” A ∪ B ∈ E(Ω) ”A oder B ist eingetreten” A \ B ∈ E(Ω) ”A ist eingetreten B nicht” Ω \ A ∈ E(Ω) ”A ist nicht eingetreten” E(Ω) muss abgeschlossen sein A∩B = ”A und B sind unvereinbar” A ⊂ B ∈ E(Ω) Ω\A=A ”A impliziert B” ”A zieht B nach sich” ”Komplementäres Ereignis” ”Wahrscheinlichkeit” weist jedem Ergebnis eine Zahl, ”seine Wahrscheinlichkeit” zu: P : E(Ω) → R mit gewissen Eigenschaften. 5 Geschichte des Wahscheinlichkeits-Begriffs 1. Wahrscheinlichkeit als relative Häufigkeit: A⊂Ω fn (A) = hn (A) −−−→ n n→∞ P (A) 2. Subjektive Wahrscheinlichkeit 3. Laplace-Wahrscheinlichkeit; klassischer W-Begriff: • Ω endlich • alle Möglichkeiten sind gleich wahrscheinlich Dann: A ⊂ Ω P (A) = |A| |Ω| = Anzahl der f uer A guenstigen Anzahl aller moeglichkeiten 4. Axiomatik der Wahrscheinlichkeits-Theorie 2 6 Wahrscheinlichkeitsraum Definition: Ein Wahrscheinlichkeitsraum ist ein Tripel [Ω, E(Ω), P ], wobei Ω die Menge aller möglichen Ausgänge eines Zufallsexperiments, E(Ω) eine Menge von Ereignissen und P : E(Ω) → R eine Funktion ist mit 1. P (A) ≥ 0 für alle A ∈ E(Ω) 2. P (Ω) = 1 3. P (A ∪ B) = P (A) + P (B), falls A, B ∈ E(Ω) unvereinbar sind E(Ω) ist gleich P (Ω), falls Ω endlich oder abzählbar unendlich (diskret) ist, für überabzählbares Ω (stetig oder kontinuierlich) ist E(Ω) eine Familie von Teilmengen von Ω mit folgenden Eigenschalten: • Ω ∈ E(Ω) • A ⊂ E(Ω) ⇒ A = Ω \ A ∈ E(Ω) S • Ai ∈ E(Ω), i ∈ N ⇒ ∞ i=1 Ai ∈ E(Ω) σ - Algebra (sigma - Algebra) Verschärfung von 3. Ai ∈ E(Ω), Ai ∩ Aj = für i 6= j (paarweise unvereinbar) Dann P∞ S gilt P( ∞ i=1 P (A) i=1 Ai ) = 3 6.1 Rechenregeln 1. P (A) = 1 − P (A) A ∪ A = A ∪ (Ω \ A) = Ω und A ∩ (Ω \ A) = ⇒ P (Ω) = 1 = P (A) + P (A) 2. P () = 0 3. A1 , A2 , · · · , An ∈ E(Ω) mit Ai ∩ Aj = für i 6= j ⇒ P (A1 ∪ A2 ∪ · · · ∪ An ) = P (A1 ) + P (A2 ) + · · · + P (An ) 4. P (A \ B) = P (A) − P (A ∩ B) A = (A \ B) ∪ (A ∩ B) (A \ B) ∩ (A ∩ B) = 5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) 6. A ⊂ B ⇒ P (A) ≤ P (B) B = (B \ A) ∪ A ⇒ P (B) = P (B \ A) + P (A) ≥ 0 6.2 Ω sei diskret {ei } Elementarereignis Ω = {e1 } ∪ · · · ∪ {en }(∪ · · · ) P (Ω) = 1 = P1 + · · · + Pn (+ · · · ) P ({ei }) = Pi =≥ 0 A ⊃ Ω: A = {ei1 , · · · , eik } ⇒ P (A) = Pi1 + · · · + Pik 4 Spezialfall:”Laplace-Experiment” Ω = {e1 } ∪ · · · ∪ {en } ⇒ p = pi = 1 n mit i = 1, · · · , n und p = pi und P (A) = |A| n Urnenmodell I N Kugeln, davon M rote alle übrigen schwarz, Ziehung von n Kugeln (gleichzeitig ⇒ Laplace W.) ohne zurücklegen. M ≤ N und n ≤ N P (A) = A Wahrscheinlichkeit um k rote Kugeln zu ziehen −M (Mk )·(Nn−k ) N (n) Urnenmodell II N Kugeln, davon M rote alle übrigen schwarz, Ziehung von n Kugeln (gleichzeitig ⇒ Laplace W.) mit zurücklegen. M ≤ N und n ≤ N ziehen P (A) = M N 0≤k≤n P (B) = 6.3 A Wahrscheinlichkeit um beim 1. mal eine rote Kugeln zu M k N B Wahrscheinlichkeit für k rote der n Kugeln · 1− M n−k N · n k Ω sei stetig ”Alle Elementarereignisse sind gleich wahrscheinlich” P ({e}) = 0 ! Beispiele: 1. Ω = R (Ω = s1 ) P (A) ∼ ”Länge” von A P (Bogen) ∼ ”Bogenlänge” von = 2. ”Tor” Bogenlaenge 2π Ω = [0; 3]x[0; 2] P (A) ∼ ”Fläche” von A = F (A) 6 5 6.4 Unvereinbarkeit ←→ Unabhängigkeit [Ω, E(Ω), P ] 1. A, B ∈ E(Ω) A, B sind unvereinbar, falls A ∩ B = 2. A1 , · · · , An ∈ E(Ω) heißen paarweise unvereinbar, falls Ai ∩ Aj = für i 6= j 3. A1 , · · · , An ∈ E(Ω) heißen Vollständig unvereinbar, falls für jedes k ≤ n Ai1 ∩ Aik = für ir = 6 is 6.5 bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit für A unter der Bedingung B. P (A|B) = P (A∩B) P (B) P ( |B) erfüllt die Axiome eines Wahrscheinlichkeitsmaßes für E(Ω), d.h.: 1. P (A|B) ≥ 0 2. P (Ω|B) = P (Ω∩B) P (B) =1 3. A1 ∩ A2 = : P (A1 ∩ A2 |B) = P (A1 |B) + P (A2 |B) 4. P (A1 ∪ A2 |B) = 6.6 P ((A1 ∪A2 )∩B) P (B) = P ((A1 ∩B)∪(A2 ∩B)) P (B) = P (A1 ∩B)+P (A2 ∩B) P (B) Multiplikationssatz P (A ∩ B) = P (A|B) · P (B) A; B ∈ E(Ω) heißen unabhängig, falls eine der Folgenden Bedingungen erfüllt ist: 1. P (A|B) = P (A|B) 2. P (A) = P (A|B) P (B) = P (B|A) 3. P (A ∩ B) = P (A) · P (B) Wenn A und B unabhängig sind MULTIPLIZIEREN sich die einzelnen Wahrscheinlichkeiten. P (A ∩ B ∩ C) = P (A) · P (A|B) · P (C|A ∩ B) 6 7 Ereignisbäume Nur für Mehrstufige Zufallsexperimente anwendbar. An den Zweigen steht die bedingbte Wahrscheinlichkeit dafür das das Ereignis am Ende des Zweigs eintritt. Pfadregeln: 1. Multiplikationsregel: Die Wahrscheinlichkeit für das Ereignis am Ende eines Pfades ist das Produkt der Wahrscheinlichkeiten der Zweige die zu diesem Ereignis führen. 2. Additionsregel: Die Wahrscheinlichkeit für ein Ereignis ist gleich der Summe der Wahrscheinlichkeiten aller Pfade, längs derer es erreicht werden kann. 8 8.1 Zufalls-variablen, Verteilungsfunktion Diskrete Zufalls-variablen [Ω, E(Ω), P ], X : Ω → R ZV X heißt diskret, falls X nur endlich oder abzählbar unendlich viele Werte annimmt. Dann ist X durch seine Verteilung bestimmt also die Werte x1 , x2 , · · · , xn (, · · · ) und die Wahrscheinlichkeiten pi = P (X = xi ) = P ({e ∈ Ω|X(e) = xi }) > 0 X { (xi ; pi )} mit i = 1, 2, ·, n(, · · · ) P (X ≤ x) = FX (x) P (X > x) = 1 − P (X ≤ x) = 1 − FX (x) a < b: P (a < X ≤ b) = P ({X ≤ b} \ {x ≤ a}) = P (X ≤ b) − P (X ≤ a) = FX (b) − FX (a) P (a ≤ X ≤ b) = P ({a < X ≤ b} ∪ {X = a}) = FX (b) − FX (a) + P (X = a) P (X = a) = FX (a) − FX0 (a) mit FX0 (a) = linksseitigen GW von FX in a ( 0 ,falls a keine Sprungstelle von FX ist. P (X = a) = sprunghöhe ,falls a Sprungstelle von FX ist. 7 8.2 Stetige Zufalls-Variablen [Ω, E(Ω), P ], X : Ω → R ZV X heißt stetig, falls X eine Dichte (funktion) f hat, d.h. eine Funktion f : R → R mit 1. f (x) ≥ 0 für alle x, R +∞ 2. −∞ f (x)dx = 1 und Rx 3. P (X ≤ x) = FX (x) = −∞ f (t)dt Rx −∞ gilt. f (t)dt = FX (x) ⇒ FX0 (x) = f (x) cR < x: Rx Rc x f (t)dt = f (t)dt − f (t)dt = FX (x) − FX (c) −−−−→ FX (x) c −∞ −∞ c→−∞ Folgerung: X stetig ⇒ P (X = x) = 0 für alle x ∈ R. P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) = FX (b) − FX (a) 8.3 Symmetrische ZV Die Zufalls-Variable X heißt symmterisch zu c ∈ R, falls für alle x ∈ R P (X ≤ c − x) = P (X ≥ c + x) gilt. P (X ≤ c − x) = FX (c − x) P (X ≥ c + x) = 1 − P (X < c + x) = 1 − P (X ≤ c + x) = 1 − FX (c + x) FX (c − x) = 1 − FX (c + x) Rotations symmetrisch um (c; FX (c)). Folgerung: Ist die ZV X stetig und symmetrisch zu c, dann gilt für ihre Dichte f (c − x) = f (c + x), der Graph geht also unter Spiegelung an der Geraden x = c in sich über. c = 0 → f gerade 8.4 Verteilungsparameter entsprechen dem arithmetischen Mittel der Statistik 8.4.1 Erwartungswert E(X) = µ X diskret, d.h. Pdurch {(xi ; pi )} beschrieben µ = E(X) = i pi · xi X stetig R +∞ µ = E(X) = −∞ x · f (x)dx 8 8.4.2 Varianz V (X) = σ X diskret σ = V (X) = E(X 2 ) − (E(X))2 = E((X − E(X))2 ) X stetig R +∞ R +∞ σ = V (X) = −∞ (x − µ)2 · f (x)dx = −∞ (X − E(X))2 · f (x)dx 8.4.3 Eigenschaften (Rechenregeln) g(x) = b · x + a 1. E(g(x)) = b · E(X) + a 2. X symmetrisch zu c ∈ R =⇒ E(X) = c X − µx 3. zentrieren von X : =⇒ E(X − µx ) = 0 (µx = E(X)) 4. V (g(x)) = b2 · V (X) 5. Standardisieren von X : X−µx σx p mit µx = E(X) und σx = V (X) > 0 =⇒ E(Z) = E σ1x · X − µσxx = σ1x · E(X) − µσxx = 0 =⇒ Z(Z) = V σ1x · X − µσxx = σ12 · V (X) = 1 Z= x 6. Tschebyscheff-Ungleichung (grobe Abschätzung) P (|X − µx | ≤ ε) ≥ 1 − P (|X − µx | ≥ ε) ≤ ε = λ · σx : σx2 ε2 σx2 ε2 λ = 1; 2; 3 P (|X − µx | ≥ λ · σx ) ≤ 1 λ2 λ=2 P (|µx − 2σx ≤ X ≤ µx + 2σx ) ≥ 3 4 2σx -Bereich λ=3 P (|µx − 3σx ≤ X ≤ µx + 3σx ) ≥ 8 9 3σx -Bereich 9 8.5 8.5.1 Spezielle Zufalls-Variablen Diskrete Verteilung A ∈ E(Ω) [Ω, E(Ω), P ] mit P (A) = Π > 0 Bernoulli - Experiment es wird n mal unabhängig ausgeführt. X gibt an wie oft A eingetreten ist. Werte von X: 0; 1; 2; 3; · · · ; n pi = P (X = i) = n i · Πi · (1 − Π)n−i Binomial Verteilung mit n ∈ N 0 < Π < 1 X ∼ B(n; Π) µx = E(X) = n · Π; σx2 = V (X) = n · Π · (1 − Π) für sehr große n und sehr kleine Π: Faustregel: Π ≤ 0, 1; n ≥ 50 und n · Π ≤ 9 B(n; Π) → Po (µ) X ∼ Po (µ) Po (µ) = P (X = i) = e−µ · µi i! mit µ = n · Π E(X) = µ = V (X) Bernoulli - Experiment X gibt die Anzahl der Wiederholungen an bis A erstmalig eingetreten ist. Werte von X: N pi = P (X = i) = Π · (1 − Π)i−1 X ∼ G(Π) heißt Geometrische Verteilung E(X) = 1 ; Π V (X) = 1−Π Π2 Hypergeometrische Verteilung Modell: Urne mit N Kugeln, 0 < M < N rote, Rest schwarz, es werden n Kugeln ohne zurücklegen gezogen. X = Anzahl der roten unter n gezogenen Kugeln. Werte von X: 0; 1; 2; 3; · · · ; n mit i ≤ M ; n − i ≤ N − M pi = P (X = i) = E(X) = n · M N −M (Mi )·(Nn−i ) N (n) V (X) = n · M N · 1− M N 10 · N −n N −1 8.5.2 Stetige Verteilung Rechteck- oder Gleichverteilung: Exp.: zufällige Wahl einer Zahl im Intervall [α; β], α < β ,x < α 0 1 Dichte f (x) = β−2 , α ≤ x ≤ β 0 ,x ≥ β ,x ≤ α 0 Rx x−α Verteilungfunktion F (x) = −∞ f (t)dt = β−α ,α < x < β 1 ,x ≥ β Rb b−a P (a ≤ X ≤ b) = a f (x)dx = β−α Exponentialverteilung: Seltenes Ereignis wird mit der Poission-Verteilung beschrieben. Dann ist die Zeit, die bis zum nächsten Eintreten dieses Ereignisses vergeht- die Wartezeit-exponential-Verteilt. ( 0 ,x < 0 f (x) = Dichte λ · e−λx , x ≥ 0 Verteilungfunktion F (x) = Rx −∞ f (t)dt = E(X) = λ1 ; V (X) = Rx 0 x λ · e−λt dt = −e−λt 0 = 1 − e−λx = ( 0 1 − e−λx 1 λ2 Satz: Die Exponentialverteilung hat ”kein Gedächtnis”; d.h. P (X > s + t|X > t) = P (X > s) für alle s, t. Normalverteilung: ϕµ,σ2 (x) = √1 2π·σ Φµ,σ2 (x) = Rx · e− −inf ty (x−µ)2 2σ 2 ϕµ,σ2 (t)dt (Gaus-Verteilung) tabeliert für µ = σ 2 = 1 11 ,x < 0 ,x ≥ 0