1 2. Seien B ⊂ Ω und A eine σ-Algebra übern Ω, dann gilt: B∩A := {B∩A|A ∈ A} ist eine σ-Algebra über B (Spur-σAlgebra) Diskrete Wahrscheinlichkeitstheorie Definition 1.1. Sei Ω eine höchstens abzählbare Menge, A := p(Ω) := {A|A ⊆ Ω} und p:Ω → [0, 1] eine Abbildung mit X p(ω) = 1. Die durch P(A) = Permutation Bemerkung 1.7. Pot(Ω) ist σ-Algebra über Ω; Pot(Ω) ist die feinste, A = {∅, Ω} ist die gröbste σ-Algebra. ω∈Ω X 3. Sei Ω 6= ∅, A = {A ⊂ Ω|A oder AC ist höchstens abzählbar über Ω} ist eine σAlgebra über Ω k-mal ziehen aus n Kugeln mit Reihenfolge Kombi- ohne naReitionen henfolge p(ω) mit ohne Zurück- Zurücklegen legen LaplaceRaum |Ω1 | = nk LaplaceRaum |Ω2 | = (n)k = unterscheidbare Murn! meln (n−k)! kein Laplace- ununterLaplace- Raum scheidRaum |Ω3 | = bare Mur|Ω4 | = nk n+k−1 meln k mit ohne k Mehr- Mehr- Murfachfachmeln belebelevergung gung teilt auf n Urnen Bemerkung 1.8. Man kann zeigen: Es gibt stets eine kleinste σ-Algebra, die ein vorgedefinierte Abbildung heißt (diskrete) gebenes System von einfachen“ Mengen ” Wahrscheinlichkeitsverteilung (WV) enthält. über Ω. Die Funktion p heißt Zähldichte. Das Tripel (Ω, A, P) heißt (diskreter) Satz 1.9. Seien Ω 6= ∅, F ⊂ Pot(Ω) Wahrscheinlichkeitsraum, (Ω, A) heißt die kleinste σ-Algebra, die F enthält, diediskreter messbarer Raum. se ist gegeben durch: A(F ) := {A ∈ Pot(Ω)|für jede σ − AlgebraA mit F ⊂ Bezeichnung 1.2. Ω heißt Grundmenge, A gilt: A ∈ A} A(F ) heißt die von F erErgebnisraum, Stichprobenraum; A ⊂ zegte σ-Algebra. Ω heißt Ereignis und speziell ElementaDefinition 2.2 (Hypergeometrische Verteirereignis falls |A| = 1; Kurzschreibweise: Definition 1.10 (Wahrscheinlichkeitsverteilung). Betrachte eine Urne mit S schwarzen Abk. P ({ω}) = P (ω) = p(ω), ω ∈ Ω lung). Sei A eine σ-Algebra über Ω 6= ∅ eine und W weißen Kugeln, n = W + S, Ziehe Abbildung P : A → [0, 1] mit k(≤ n) Kugeln ohne Zurücklegen. Gesucht Lemma 1.3. 1. Gegeben sei die Situatiist die Wahrscheinlichkeit, dass die Stichproon aus (Def. 1.1). Dann gilt: 1. P(A) ≥ 0, ∀A ∈ A be genau s schwarze und k − s = w weiße 2. P(Ω) = 1 (a) P(A) ≤ 1 für alle A ∈ p(Ω) Kugeln enthält. S∞ P∞ (b) P(Ω) = 1 3. P n=1 An = n=1 P(An ) für alle n−S S · k−s paarweise disjunkten A1 , A2 , ... ∈ A(σ(c) P ist σ-Additiv, d.h. für paars h( |{z} s ; k, n, S ) = ,0 ≤ s ≤ k n Additivität) weise disjunkte A1 , A2 , ... ∈ p(Ω) | {z } k V ariable P arameter (d.h. Ai ∩ Aj = ∅ für i 6= j) gilt: heißt Wahrscheinlichkeitsverteilung ω∈A F P ∞ [ ! Ai = ∞ X P(Ai ) i=1 i=1 S insbesondere ist P n = i=1 Ai Pn P(A i ), ∀n ∈ N und P(Ω) = i=1 P ω∈Ω p(ω) = 1 2. Sei P : Pot(Ω) → R eine Abbildung mit obigen Eigenschaften, dann gibt es genau eine Funktion p : Ω → [0, 1] mit P P(A) = ω∈A p(ω), ∀A ∈ Ω Bezeichnung 1.4 (Laplace-Verteilung). Sei Ω = {1, ..., n}, p(ω) = n1 , ∀ω ∈ Ω, so heißt P diskrete Gleichverteilung oder Laplace-Verteilung. Es gilt P(A) = |A| = |Ω| 1 |A|, ∀A ⊆ Ω n Definition 1.5 (σ-Algebra). Sei Ω 6= ∅ und A ⊆ Pot(Ω) (System von Teilmengen von Ω). A heißt σ-Algebra (von Ereignissen) über Ω, falls gilt: 1. Ω ∈ A 2. A ∈ A → AC ∈ A für alle A ∈ A 3. (An )n∈N ⊂ A ⇒ S∞ n=1 An ∈ A oder Wahrscheinlichkeitsmaß auf A. (Ω, A, P) heißt Wahrscheinlichkeitsraum, Die durch h bestimmte Zähldichte (h(0) + h(1) + ... + h(k) = 1) definiert die hyper(Ω, A) heißt messbarer Raum. geometrische Verteilung. Definition 1.11 (Dirac-Verteilung). Sei Ω 6= ∅ abzählbar, ω ∈ Ω fest. Die durch εω (A) = Definition 2.3 (Binomialverteilung). Ge1, falls ω ∈ A die s (A ∈ p(Ω) fest- sucht ist die Anzahl der Stichproben, 0, sonst (falls ω 6∈ A) defekte Teile enthalten. b s; k, Sn = n1k · a k−1 gelegte Wahrscheinlichkeitsverteilung εω : k s S (n − k)k−s = ks Sn · 1 − Sn = p(Ω) → R heißt Dirac-Verteilung oder ks s k−s S (Schlechtanteil). p (1−p) wobei p := n Einpunktverteilung im Punkt ω. εω ist s Die durch b bestimmte Zähldichte (als FunkWahrscheinlichkeitsverteilung. tion von s) definiert die sogenannte BinomiDefinition 1.12 (Träger von P). Sei alverteilung; kurz b(s; k, p) oder b(k, p). In(Ω, A, P) ein diskreter Wahrscheinlichkeits- tuitiv folgt, dass für große n kaum ein Unterschied zwischen Ziehen mit und ohne Rückleraum. gen besteht. T := supp(P) := {ω ∈ Ω|P(ω) > 0} Lemma 2.4. Sei (Sn )n∈N mit lim Snn = n→∞ heißt Träger von P. p ∈ (0, 1). Dann gilt: limn→∞ h(s; k, n, Sn ) = Lemma 1.13. Sei (Ω, A, P) ein diskreter b(s; k, p) Wahrscheinlichkeitsraum und T Träger von Lemma 2.5. Gegeben sei Folge von BinoP. Dann gilt: mialverteilungen b(s; k, pk ); k ∈ N mit k · X pk = λ > 0 für alle k ∈ N. Dann gilt: P(A) = P(ω)εω (A), A ∈ A s limk→∞ b(s; k, pk ) = λs! e−λ für alle s ∈ N0 . ω∈T d.h. Eine σ-Algebra ist abgeschlossen geλs −λ eine genüber der Bildung von Komplementen und d.h. P ist darstellbar als gewichtete Summe Offensichtlich definiert p(s) := s! e Zähldichte auf Ω = N 0 abzählbaren Vereinigungen. von Einpunktverteilungen. ∞ X P λs −λ Sei λ > 0 beliebig: ∞ = Lemma 1.6. 1. Sei A eine σ-Algebra. s=1 p(s) = e s! s=0 Dann gilt: | {z } (a) ∅ ∈ A(∅ = ΩC ∈ A) (b) A, B ∈ A ⇒ A ∩ B ∈ Ω(A ∩ B = (|{z} AC ∪ |{z} B C )C ∈ A) A {z ∈A} ∈A T (An )n∈N ∈ A ⇒ ∞ n=1 An ∈ A ∈ | (c) 2 Grundformeln Kombinatorik der eλ 1 Merkregel: Die Anzahl der k-elemetigen Bezeichnung 2.6. Die Wahrscheinlichkeits- 0 definiert durch die ZählTeilmengen einer n-elementigen Menge ist verteilung auf N s n dichte p(s) = λs! e−λ , s ∈ N0 , λ > 0 heißt . k Poissonverteilung mit Parameter λ. Kurz: po(s; λ) bzw. po(λ) Satz 2.1. 3 Eigenschaften Wahrscheinlichkeitsräumen von S ∞ iv) P n=1 An Additivität) ≤ P∞ n=1 i) P (A|B) = P (B|A) · P (An ) (Sub-σ- Tn P (A) P (B) = P (A1 ) · P (A2 |A1 ) · ii) P i=1 Ai T Lemma 3.5. Für Ereignisse (An )n∈N P (A3 |A1 ∩ A2 ) · ... · P An | n−1 i=1 Ai in einem Wahrscheinlichkeitsraum Sn )n ⊂ = Lemma 4.3. Gegeben A ∈ A, (B (Ω, A , P ) gilt: P Sn k=1 Ak P P ∞ Lemma 3.1. Es gelten für A, B ∈ A: n Bn A , B n paarweise disjunkt und A ⊂ P (A ) − P (A ∩ A ) + i i k n=1 1 2 S 1≤i1 <i2 ≤n Pk=1 (häufig Bn = Ω, d.h. disjunkte Zerlegung 1≤i1 <i2 <i3 ≤n P (Ai1 ∩ Ai2 ∩ Ai3 ) ± ... + Tn i) P (A∪B) = P (A)+P (B), falls A∩B = ∅ von Ω). Dann gilt: (−1)n+1 P k=1 Ak ii) P (B\A) = P (B) − P (A), falls A ⊂ B Korrolar 3.6. Aus der Sylvester-Pointcaré- ∞ X P (A|Bn ) · P (Bn ) Siebformel: Seien A1 , ..., An Ereignisn=1 se aus A im Wahrscheinlichkeitsraum (Ω, A, P), dann gilt: Pnk=1SnP (Ak ) − (Ist P (Bk ) = 0, so ist zunächst P (A|Bk ) nicht iii) P (AC ) = 1 − P (A) P k=1 Ak ≤ definiert; setze dann P (Bk ) · P (A|Bk ) = 0) 1≤i1 <i2 ≤n P (Ai1 ∩ Ai2 ) ≤ P Pn P (A ) k k=1 iv) A ⊂ B ⇒ P (A) ≤ P (B) (Monotonie Satz 4.4. Seien A, (Bn )n ⊂ A, Bn paarweise S von P ) Bemerkung 3.7 (Zusammenfassung). disjunkt, A ⊂ ∞ Bn und P (A) > 0. Dann P (A) = (Subtraktivität von P ) n=1 v) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) vi) P Sn i=1 Ai ≤ Pn i=1 P (Ai ); Ai ∈ A Definition 3.2. Sei (An )n∈N ⊆ sei σ-Algebra über Ω 6= ∅. (A ) heißt monoton n n∈N wachsend , falls An ⊆ An+1 ∀n ∈ N fallend , falls An ⊇ An+1 ∀n ∈ N (kurz: (An )n∈N ↑ bzw. (An )n∈N &) Für monoton wachsende bzw. fallende Ereignisfolgen heißt jeweils A, A ∞ [ lim An = n→∞ An n=1 bzw. ∞ \ lim An = n→∞ An n=1 der Limes von (An )n∈N . Für eine beliebige Ereignisfolge (An )n∈N heißen lim sup An = lim n→∞ n→∞ ! ∞ [ Ak = ∞ [ ∞ \ Ak n=1 k=n k=n | {z } fallend der Limes superior und lim inf An = lim n→∞ n→∞ ∞ \ Ak ! = ∞ \ ∞ [ Ak n=1 k=n k=n | {z } wachsend der limes inferior von (An )n∈N . Mathematisches Interpretation Objekt Ω Grundraum (Ereignisraum) ω∈Ω (mögliches) Ergebnis A∈A Ereignis A Menge der (möglichen) Ereignisse Ω sicheres Ereignis ∅ unmögliches Ereignis ω∈A Ereignis A tritt ein ω ∈ AC Ereignis A tritt nicht ein ω ∈A∪B Ereignis A oder B tritt ein ω ∈A∩B Ereignis A und B tritten ein A⊆B Eintreten von Ereignis A impliziert das Eintreten von Ereignis B A∩B =∅ Ereignisse A und B schließen einander aus S ω ∈ i∈I Ai mindestens ein Ereignis Ai , i ∈ I tritt ein T ω ∈ i∈I Ai alle Ereignis Ai , i ∈ I tretten ein ω ∈ unendlich viele Ereignisse lim supi∈I Ai Ai , i ∈ I treten ein ω ∈ alle bis auf endlich viele lim inf i∈I Ai Ereignisse Ai , i ∈ I treten ein (fast alle) P (A) Wahrscheinlichkeit, dass das Ereignis A ∈ A eintritt (Wahrscheinlichkeit für A) P (A) = 1 A tritt (fast) sicher ein P (A) = 0 A tritt sicher nicht ein P (A) > P (B) A ist wahrscheinlicher als B gilt: P (Bk )P (A|Bk ) P (Bk |A) = P∞ , ∀k ∈ N n=1 P (A|Bn )P (Bn ) 5 Stochastische abhängigkeit Un- Definition 5.1. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, A, B ∈ A heißen stochastisch unabhängig, falls P (A ∩ B) = P (A) · P (B) Lemma 5.2. Mit A, B sind auch A, B C und AC , B C stochastisch unabhängig. i) Ist P (B) > 0, so gilt: A, B stochastisch unabhängig ⇔ P (A|B) = P (A) ii) Ist A eine Nullmenge, d.h. P (A) = 0, so sind A, B stochastisch unabhängig für alle B ∈ A. Definition 5.3. Eine Familie (Ai )i∈I ⊂ A, I belibige Indexmenge, heißt paarweise stochastisch unabhängig, falls gilt: P (Ai ∩ Aj ) = P (Ai ) · P (Aj ), ∀i, j ∈ I, i 6= j. Definition 5.4. Eine Familie (AI )i∈I heißt (vollständig) stochastisch unabhängig, falls für jede endliche Auswahl von Ereignissen gilt: P \ ! Aj = Y P (Aj )∀0 6= J ⊆ I, |J| < ∞. j∈J j∈J Bemerkung 3.3. Es ist mit (An )n∈N ⊂ A: lim supn→∞ An ∈ A, lim inf n→∞ An ∈ Bemerkung 5.5. 1. (Ai )i∈I stochasA nach Definition der σ-Algebra tisch unabhängig ⇒ (AI )i∈I paarweise und lim supn→∞ An = {ω ∈ stochastisch unabhängig. Umkehrung ∼ Ω|ω liegt in unendlich vielen der An 0 s} = gilt nicht! unendlich viele der An ’s treten 2. jede Teilfamilie einer stochastisch unein; lim inf n→∞ An = {ω ∈ abhängigen Familie ist stochastisch unΩ|ω liegt in allen der An ’s, bis auf endlich viele} ∼ = abhängig. alle, bis auf endlich viele der A0n s treten ein (fast alle Ai ’s treten ein). 3. Beachte, dass die Definition ein System Definition 4.1. Sei (Ω, A, P ) ein Wahrvon Gleichungen leifert! scheinlichkeitsraum. Für jedes B ∈ A mit Lemma 3.4. (Ω, A, P ) WahrscheinlichkeitsP (B) > 0 wird durch raum, (An )n∈N ⊆ A, dann gilt: Satz 5.6. 1. Seien (Ai )i∈I Familien sto S∞ P (A ∩ B) chastisch unabhängiger Ereignisse, k ∈ / = P (lim sup A ) = i) P A n n P (A|B) = , A ∈ A n→∞ n=1 P (B) I und P(Ak ) ∈ {0, 1} ⇒ (Ai )i∈I∪{k} limn→∞ P (An ), falls (An )n∈N ↑ (Stetigstochastisch unabhängig. keit von P von unten) eine Wahrscheinlichkeitsverteilung P (·|B) auf 4 T Bedingte Wahrscheinlichkeiten ∞ ii) P = P (lim inf n→∞ An ) = A definiert, die sogenannte bedingte Vern=1 An limn→∞ P (An ), falls (An )n∈N & (Stetig- teilung unter (der Hypothese) B. P (A|B) heißt elementar bedingte Wahrkeit von P von oben) scheinlichkeit von A unter B. iii) P (lim sup A )= n→∞ S n ∞ limn→∞ P k=n Ak P (lim inf n→∞ A )= T∞ n limn→∞ P k=n Ak Lemma 4.2. Sei A, B, AT A, 1 , A2 , ... ∈ n−1 P (A) > 0, P (B) > 0, P A > 0. i i=1 Dann: 2. (Ai )i∈I stochastisch unabhängig und Bi ∈ {Ai , AC i , ∅, Ω}∀i ∈ I ⇒ (Bi )i∈I stochastisch unabhängig. 3. Sei I = {1, ..., n}, n ∈ N fest gewählt: (AiT )i∈I stochastisch unabhängig ⇔ Qn P( n = ∈ i=1 Bi ) i=1 P (Bi ), ∀Bi {Ai , AC }, ∀i ∈ I i Bemerkung 5.7. Sei die Familie (Ai )i∈{1,...,n} stochastisch unabhängig oder kurz A1 , ..., A stochastisch unabhängig, Tn Snn C A = 1 − P = dann gilt: P i i=1 Ai i=1 Q Qn n (1 − P (A )) 1 − i=1 P (AC i i ) = 1− i=1 Bemerkung 5.8. Relation stochasti” sche Unabhängigkeit“ ist nicht transitiv, d.h. aus A1 , A2 stochastisch unabhängig und A2 , A3 stochastisch unabhängig folgt nicht notwendig A1 , A3 stochastisch unabhängig. Definition 5.9. Sei (An )n∈N (An )n heißt Konvergent lim supn→∞ An = lim inf n→∞ An A. ⊂ ⇔ Bemerkung 5.10. Es gilt stets: lim inf n→∞ An ⊂ lim supn→∞ An . Weiterhin: (lim supn→∞ An )C = C S ∞ T∞ T∞ S ∞ C = = k=n Ak n=1 k=n Ak n=1 lim inf n→∞ AC n Lemma 5.11. Sei Ω, A, P ) ein Wahrscheinlichkeitsraum und (An )n∈N ⊂ A, dann gilt: i) P∞ < n=1 P (An ) P (lim supn→∞ An ) = 0 ∞ ⇒ ii) Ist zusätzlich (A ) stochastisch unP∞ n n∈N = ∞ ⇒ abhängig, n=1 P (An ) P (lim supn→∞ An ) = 1 Definition 6.1. Sei T : Ω → 0 eine Abbildung, so heißt T −1 : p(Ω0 ) → p(Ω) A0 7→ T −1 (A0 ) : {ω ∈ Ω|T (ω) ∈ A0 } die zu T gehörige Urbildfunktion oder Umkehrabbildung/ Pseudoinverse Definition 6.9. Sei X1 , .., Xm Zufallsverteilungen. Die Verteilung von X = (X1 , ..., Xm ) heißt die gemeinsame Verteilung der Zufallsvariablen X1 , ..., Xm . Schreibweise: P X = P (X1 ,...,Xm ) Die Verteilung von (Xi1 , ..., Xil , 1 ≤ i1 < ... < il ≤ m, l < m heißt l-dimensionale RandverLemma 6.2 ((Eigenschafte der Urbildfunkteilung (Marginalverteilung) zu (i1 , ..., il ). 0 0 0 0 tion)). Seien A , B , Ai ∈ Pot(Ω ), so gilt: Die Verteilung von Xi heißt i-te Randveri) T −1 (∅) = ∅, T −1 (Ω0 ) = Ω teilung (Marginalverteilung) 1 ≤ i ≤ m. ii) T −1 (A0 \B 0 ) = T −1 (A0 )\T −1 (B 0 ) Bemerkung 6.10. Die gemeinsame Verteispeziell: T −1 (B 0C ) = (T −1 (B 0 ))C lung ist durch die Angabe aller WahrscheinT T iii) T −1 ( i∈I A0i ) = i∈I T −1 (A0i ) lichkeiten P (X1 ∈ A1 , ..., Xm ∈ Am ), Ai ∈ Ai S S iv) T −1 ( i∈I A0i ) = i∈I T −1 (A0i ) bestimmt. 0 Spezielle disjunkte B : (mit Symi P bol P für disjunkte Vereinigung) Bemerkung 6.11. Die eindimensionale P −1 0 −1 0 Randverteilungen legen die gemeinsame VerT B = T (B i i) i∈I i∈I teilung nicht eindeutig fest. 0 0 −1 0 −1 0 v) A ⊂ B ⇒ T (A ) ⊂ T (B ) vi) Ist S : Ω0 → Ω00 eine beliebige Abildung, Definition 6.12. Eine Familie von Zufallsvariablen Xi : (Ω, A, P ) → (Ωi , Ai , P Xi ), i ∈ I dann gilt (S ◦ T )−1 = T −1 ◦ S −1 heißt stochastisch unabhängig (oder die Lemma 6.3. Sei (Ω, A, P ) ein diskreter Zufallsvariablen Xi , i ∈ I heißen stochasWahrscheinlichkeitsraum und X : Ω → R, tisch unabhängig), falls die Mengensysteme dann ist PX : Pot(R) → [0, 1] mit P X = X −1 (A) stochastisch unabhängig sind, d.h. jei P(X −1 (A)) = P({ω ∈ Ω|X(ω) ∈ A}) eine des Repräsentantensystem Bi ∈ X −1 (Ai ), i ∈ i diskrete Wahrscheinlichkeitsverteilung über I bildet eine unabhängige Familie von Ereig(einer abzählbaren Teilmenge von) R, bzw. nissen. über X(Ω). Kurz: Verteilung von X unter P. Bemerkung 6.13. Die Zufallsvariablen Definition 6.4. Eine Abbildung X : Ω → Ω0 Xi , i ∈ I sind stochastisch unabhängig ge0 1 von einem messbaren Raum (Ω, A) in einen 0 0 anderen messbaren Raum (Ω , A ) heißt messBT C ∈ Ai }C nau dann, wenn P B = bar, wenn ∀A0 ∈ A0 : X −1 (A0 ) ∈ A. @ i∈J |{Xi {z }A Ω Bemerkung 5.12.P 1. Analog gilt (mit ∞ C deMorgan) < ∞ ⇒ n=1 P (An ) P (lim inf n→∞ An ) = P 1; (An )n stoC chastisch unabhaengig, ∞ n=1 P (An ) = Xi−1 (Ai ) ∞ ⇒ P (lim inf n→∞ An ) = 0 Definition 6.5. Eine messbare Funktion im Q i∈J P (Xi ∈ Ai )∀J ⊆ I, |J| < ∞, ∀Ai ∈ 2. Für stochastsich unabhängige Ereignis- obigen Sinne von einem WahrscheinlichkeitsA i, i ∈ J raum in einen anderen heißt Zufallsvariase (Ai )i gilt stets P (lim supn→∞ An ) , ble (ZV), bzw. Zufallsvektor, falls Ω0 ⊂ Satz 6.14. Sind die Zufallsvariablen X : P (lim inf n→∞ An ) ∈ {0, 1} i n Ω → Ωi , i ∈ I, stochastisch unabhängig und 3. Sei (An )n ⊂ A; falls eine unabhängi- R (auch Zufallsgröße). ge Teilfolge (Ank )k von (An )n existiert Bemerkung 6.6. i) Ist A = Pot(Ω) sind die Abbildungen fi : Ωi → Ω0i messbar, P∞ mit P (Ank )k = ∞, dann folgt wie beim diskreten Wahrscheinlichkeits- so sind die Zufallsvariablen fi ◦ Xi , i ∈ I stok=1 P (lim supn→∞ An ) = 1 raum, so ist jede Abbildung X : Ω → Ω0 castisch unabhängig. Weiterhin: Seien Ij ⊂ I für j ∈ J disjunkte messbar. Definition 5.13. Für diskrete WahrscheinTeilmengen und Gi : Xi∈Ij Ωi → Ω00i messii) Kurzschreibweise: {X ∈ A} := lichkeitsräume (Ωi , Ai , PQ i ), 1 ≤ i ≤ n heißt bar ⇒ gj ◦ (Xi , i ∈ Ij )j ∈ J, stochastisch unn X −1 (A) = {ω ∈ Ω|X(ω) ∈ A}, dann (Ω, A, P ) mit Ω = = {ω = i=1 Ωi abhängig (messbare Funktionen von Zufallsauch kurz P (X ∈ A) = ... (ω1 , ..., ωn )|ωi ∈ Ω, 1 ≤ i ≤ n} := variablen mit disjunkten Indexmengen) n × Ωi und P definiert durch P (ω) = iii) Die Komposition messbarer Funktionen Qi=1 n n Lemma 6.15. Sei (Ω, A, P ) ein diskreter ist messbar. i=1 Pi (ωi ) (P := ×i=1 Pi ) A ist Potenzmenge über Ω) Wahrscheinlichkeitsraum. Dann gilt: Xi , i ∈ 6.7. Das Wahrscheinlich- I, stochastisch unabhängig ⇔ P (Xj = xj , j ∈ Produkt der Wahrscheinlich- Definition X definiert durch P X (A) = J) = Q P (Xj = xj ), ∀xj ∈ Xj (Ω), ∀j ∈ keitsräume (Ωi , Ai , Pi ), 1 ≤ i ≤ n (Pro- keitsmaß P j∈J −1 P (X (A)), A ⊆ R heißt Verteilung von J, ∀J ⊆ I, |J| < ∞ duktraum) X X unter P (kurz P oder P) oder X Bezeichnung 5.14. hat Verteilung P X , X ist verteilt wie P X , Satz 6.16. Seien X, Y seien stochastisch p : Erfolgswahrscheinlichkeit unabhängige Zufallsvariablen auf Z mit den X ∼ P X, X ∼ P . ωi = 1 : Erfolg im i-ten Teilexperiment Zähldichten f bzw. g (d.h. P (X = n) = in n sogenannten Bernoulli-Experimenten mit Bezeichnung 6.8. i) Zufallsvariable X f (n), P (Y = m) = g(m); n, m ∈ Z) Dann ist binomialverteilt, falls P X (k) = hat X + Y die Zähldichte h gegeben durch Erfolgswahrscheinlichkeit p. Pn n k P P (X = k) = k p (1 − p)n−k Die durch Ek := {ω ∈ Ωi | i=1 ωi = P (X + Y = k) = h(k) = j∈Z f (j)g(k − j) = P k} ≡ Genau k Erfolge mit k ≤ n; P (Ek ) = ii) Zufallsvariable X ist poisson-verteilt, j∈Z f (k − j)g(j), h ∈ Z n k p (1 − p)n−k (Ej0 s sind disjunkt k falls für λ > 0 gilt P X (k) = P (X = k) = Bezeichnung 6.17. h ist die Faltung der definierte Wahrscheinlichkeitsverteilung auf λk · e−λ , k ∈ N0 k! Dichten f und g : h = f ? g. {0, 1, ..., n} heißt Binomialverteilung. iii) Seien Ω 6= ∅, P eine diskrete Wahrscheinlichkeitsverteilung über Ω, A ⊆ Ω. Definition 6.18. Seien (Ω, A, P ) ein Wahrscheinlichkeitsraum und X eine ZufallsvariaDie Funktion IA : Ω → R definiert durch ble mit Wahrscheinlichkeitsverteilung P X. 1 ,ω ∈ A 1 IA (ω) = heißt Indika1 R → R Zufallsvorgänge werden beschrieben durch 0 , sonst Die Funktion: F X x 7→ P X ((−∞, x]) einen Wahrscheinlichkeitsraum (Ω, A, P). Datorfunktion von A und ist eine ZufallsX bei ist häufig nicht ω ∈ Ω von Interesse, variable. heißt die zu P gehörige Verteilungssondern eine Funktion X von ω. Diese beDabei gilt IA ∼ b(1, p): P (IA = 0) = funktion (kurz: Verteilungsfunktion von X, zeichnet man als Zufallsvariable. Die zu1 − p, P (IA = 1) = p, zusätzlich gilt F Verteilungsfunktion von X, X verteilt nach gehörige Wahrscheinlichkeitsverteilung wird noch: IA∪B = max(IA , IB ), IA∪B = F ,..., X ∼ F ) durch P X (B) = P ({ω ∈ Ω|X(ω) ∈ B}) = IA + IB (falls A ∩ B = ∅), IA∩B = P (Xi ≤ x) = Fi (x) P (X −1 (B)), B ∈ Pot(Ω) angegeben. min(IA , IB ) = IA · IB , IAC = 1 − IA 6 Zufallsvariablen Bemerkung 6.19. i) Sei pX die Zähl- Lemma 7.3. Sei (an )n∈NP eine FolgeP aus R+ , 2. V ar(X) = E(X 2 ) − (EX)2 (Häufig zur P∞ ∞ ∞ X n· b = a , dann gilt: dichte von P X , dann ist F (x) = b := Berechnung von V ar(X)) j n=1 j=1 j n=j n P X a P X ((−∞, x]) = p (ω) = n ω≤X 3. V ar(X) = 0 ⇔ P (X 6= EX) = 0 P X ω≤x,ω∈suppP X p (ω), x ∈ R (Träger) 4. V ar(X) = mina∈R E((X − a)2 ) Korrolar 7.4. Sei (Ω, A, P) ein diskreter ii) Für P X ((−∞, x]) = P (X ≤ x) d.h. Wahrscheinlichkeitsraum, X : Ω → N0 , P∞ Bezeichnung 7.14. Eine Zufallsvariable X F X (x) ist die Wahrscheinlichkeit dafür, dann gilt: E(X) = n · P X (n) = Pn=1 P∞ mit EX = 0 und V ar(X) = 1 heißt Stan∞ X dass die Zufallvariable X Werte ≤ x an≥ n) = n=1 P(X n=1 P ([n, ∞)) dardisiert. X nimmt. (P(X ≥ n) = 1 − F (n − 1)) Weiterhin: Sei Y Zufallsvariable mit EY = Lemma 6.20. Sei F X die zu P X gehörige Bezeichnung 7.5. Die Wahrscheinlichkeits- µ < ∞ und 0 < V ar(Y ) =: σ 2 , dann gilt: Y −EY = Y σ−µ erfüllt gerade EX = 0 Verteilungsfunktion. Dann gilt: verteilung P X (n) = (1−p)n−1 ·p, n ∈ N nennt X := √ V ar(Y ) 1. (a) F X ist monoton wachsend man Geometrische Verteilung. Satz 7.6. Sei (Ω, A, P) ein diskreter Wahr1, scheinlichkeitsraum, X : Ω → Rk ein Zufallsvektor und f : Rk → R eine mesbare Abbil2. P X ist durch F X eindeutig betsimmt. dung. Ferner existiert der Erwartungswert der Zufallsvariablen f ◦ X. Dann gilt: E(f ◦ X) = P P Definition 6.21. Sei X = (X1 , ..., Xn ) ein (f ◦X)(ω)·P(ω) = x∈R x·P f ◦X (x) = ω∈Ω P X Zufallsvektor mit der Wahrscheinlichkeitsvert∈Rk f (t) · P (t) = EP X (f ). X X X teilung P . Die durch F := P ((−∞, x1 ]× ... × (−∞, xn ]), (x1 , ..., xn ) ∈ Rn definier- Lemma 7.7. Seien X, Y Zufallsvariablen mit te Funktion heißt Multiplikative Vertei- endlichen Erwartungswerten, a ∈ R, dann gilt: lungsfunktion. (b) F X ist rechtsseitig stetig (c) limx→∞ F X (x) = limx→−∞ F X (x) = 0 Bemerkung 6.22. Sind X1 , X2 stochastischt unabhängig, so gilt: F (X1 ,X2 ) (x1 , x2 ) = F X1 (x1 ) · F X2 (x2 ), (x1 , x2 ) ∈ R2 ; Insbesondere ist bei stochastisch unabhängigen Zufallsvariablen die gemeinsame Verteilungsfunktion eindeutig durch die Verteilungsfunktionen der eindimensionalen Randwerte bestimmt. 7 Erwartungswerte (a) E(a) = a (b) E(aX) = a · E(X) (c) E(|X + Y |) ≤ E(|X|) + E(|Y |) und V ar(X) = 1. Satz 7.15. Seien X, Y Zufallsvariablen mit V ar(X), V ar(Y ) < ∞, da gilt V ar(X + Y ) = V ar(X) + V ar(Y ) + 2 · Cov(X, Y ) wobei Cov(X, Y ) = E((X − EX) · (Y − EY )) = E(XY ) − EX · EY Bemerkung 7.16. Der Varianzoperator ist nicht lienar sondern benötigt den Korrekturterm Cov(X, Y ). Satz 7.17. Seien X, Y Zufallsvariablen mit EX 2 , EY 2 < ∞, dann gilt: (E(X · Y ))2 ≤ EX 2 · EY 2 , wobei Gleichheit genau dann gilt, wenn ∃a ∈ R P (aX = Y ) = 1 gilt, d.h. X ein Vielfaches von Y ist. 1. Cov(X, Y ) = E(X · (d) E(X + Y ) = E(X) + E(Y ) (zusammen Lemma 7.18. Y ) − EX · EY mit (b) ergibt sich die Linearität) 2. Cov(X, X) = V ar(X) (e) X ≤ Y ⇒ E(X) ≤ E(Y ) (speziell: 3. Coc(X, Y ) = Cov(Y, X) Y ≥ 0 ⇒ E(Y ) ≥ 0, E(X) ≤ E(|X|)) (dabei X < Y : X(ω) ≤ Y (ω)∀ω ∈ Ω) 4. Cov(aX + b, Y ) = a · Cov(X, Y ) 5. Cov 2 (X, Y ) ≤ V ar(X) · V ar(Y ) (f) E(|X|) = 0 ⇔ P (X 6= 0) = 0 Definition 7.1. Sei (Ω, P) ein diskreter Lemma 7.8. Seien (Xi )i∈I Zufallsvariablen Wahrscheinlichkeitsraum. mit endlichen Erwartungswerten, dann gilt: 1. Sei X(Ω) ⊂ R+ Poder X(Ω) ⊂ R− : 1. E(supi∈I Xi ) ≥ supi∈I E(Xi ) EX := E(X) := ω∈Ω X(ω) · P ({ω}) 2. E(inf i∈I Xi ) ≤ inf i∈I E(Xi ) heißt Erwartungswert von X unter P. Satz 7.9. Seien X, Y stochastisch un2. Sei X eine allgemeine Zufallsvaria- abhängige Zufallsvariablen und E(|X|) < ble mit E(max(X, 0)) < ∞ oder ∞ > E(|Y |), dann gilt: E(X · Y ) < ∞ und E(max(X, 0)) >P −∞, dann heißt E(X · Y ) = E(X) · E(Y ) EX := E(X) := ω∈Ω X(ω) · P ({ω}) der Erwartungswert von X unter P. Definition 7.10. Seien X, Y Zufallsvaria(Definition verhindert −∞+∞“ in der blen und c ∈ R, k ∈ N: ” Summe) 1. E((X − c)k ) heißtk-tes Moment von X und c (nichtzentrales Moment, c = Bemerkung 7.2. 1. Für nicht-negative 0 (zentrales) Moment ⇒ 1.Moment Zufallsvariablen ist E immer wohldefi= E(X), V ar(X) = 2. Momentniert. E(X) = ∞ ist erlaubt. (1.Moment)2 ) 2. Für Zufallsvariablen mit positiven und 2. E((X − EX)2 ) heißt Varianz oder negativen Werten mussP die WohlStreuung von X, kurz: V ar(X) oder definiertheit der Reihe ω∈Ω X(ω) · V arX = E(X 2 ) − E 2 (X) = E(X(X − P(ω) gewährleistet werden. Werden 1)) + E(X) − E 2 (X) nur die endlichen Erwartungswerte betrachtet, kann absoluete Konvergenz 3. E((X − EX)(Y − EY )) heißt KovariP ω∈Ω |X(ω)|·P(ω) < ∞ gefordert weranz von X und Y , kurz: Cov(X, Y ) = den, d.h. die Änderung der SummatiE(XY )−E(X)·E(Y ) (Maß für linearen onsreihenfolge ist erlaubt. Zusammenhang zwische X und Y ) 3. Im Folgenden wird stets die Wohldefiniertheit der auftretenden Erwartungs- Satz 7.11. Sei X eine Zufallsvariable, f : R → R eine konvexe Funktion, so dass werte vorausgesetzt. E(f ◦ X) und E(X) existieren, dann gilt: 4. E(X) hängt von der Verteilung von X E(f ◦X) ≥ f (EX). Speiziell E(X 2 ) ≥ (EX)2 ab: Sei x1 , x2 , ... eine Abzählung von P∞ X(Ω), dann gilt: E(X) = i=1 xi · Korrolar 7.12. Sei X eine reelwertige ZuP X (xi ), P X (x) = 0 falls x ∈ / supp(P ), fallsvariable, E(|X|r ) < ∞ für ein r ∈ (0, ∞). d.h.P E(X) kann ebenso über die Sum- Dann existiert auch E(|X|s )∀0 < s ≤ r und 1 1 me xi · P X (xi ) erklärt werden. (E(|X|r )) r ≥ (E(|X|s ) s 5. der Erwartungswert (als mögliche Kenngröße) dient dem Vergleich von Lemma 7.13. Sei X < ∞; a, b ∈ R Verteilungen. 1. V ar(aX + b) = a2 V ar(X) 6. X, Y stochastisch unabhängig ⇒ Cov(X, Y ) = 0 Umkehrung gilt nicht! 7. Cov(X + Y, Z) Cov(Y, Z) = Cov(X, Z) + Bemerkung 7.19. 1. Die Kovarianz ist symmetrische Bilinearform 2. X, Y stochastisch unabhängig V ar(X + Y ) = V ar(X) + V ar(Y ) 3. X, Y heißen unkorreliert, Cov(X, Y ) = 0 ⇒ wenn 4. Der Korrelationskoeffizient ist definiert durch Korr(X, Y ) := √ Cov(X,Y ) ∈ [−1, 1] V ar(X)·V ar(Y ) 5. Aus der Unkorreliertheit folgt im Allgemeinen nicht die Unabhängigkeit! 8 Das schwache Gesetzt großer Zahlen Definition 8.1. 1. Eine Folge (Xn )n von Zufallsvariablen über (Ω, A, P) heißt stochastisch konvergent gegen 0, falls limn→∞ P (|Xn | > ε) = 0, ∀ε > 0 (Schreibweise P − limn→∞ Xn = 0) 2. Eine Folge (Xn )n heißt stochastisch konvergent gegen c ∈ R bzw. gegen Zufallsvariable X, falls P − limn→∞ (Xn − c) = 0 bzw. P − limn→∞ (Xn − X) = 0 Satz 8.2. Der Grenzwert einer P −stochastisch konvergenten Folge ist im P folgenden Sinne eindeutig definiert: Xn → X P und Xn → Y ⇒ P (X = Y ) = 1 aber nicht zwangsläufig X = Y ! P P Satz 8.3. 1. Xn → X, Yn → Y, g : R × P R → R stetig ⇒ g(Xn , Yn ) → g(X, Y ) 2. Xn → X (punktweise Konvergenz) ⇒ Ist µ(Ω) < ∞, so X(ω) = limn→∞ Xn (ω), ∀ω ∈ Ω ⇒ vii) Komplementarität: gilt: µ(AC ) = µ(Ω) − µ(A) P Xn → X viii) Stetigkeit von unten: Ist die Folge Satz 8.4 (Markov’sche Ungleichung). Sei X (An )n∈NSisoton (monoton wachsend), so Zufallsvariable, g : R+ → R+ monoton wachgilt: µ ∞ n=1 An = limn→∞ µ(An ) send, dann gilt: P (|X| > ε) ≤ P (|X| ≥ ε) ≤ ix) Stetigkeit von oben: Ist die Folge 1 · E(g(|X|)), ∀ε > 0, g(ε) > 0 g(ε) (A ) antiton (monoton fallend), so T n n∈N ∞ n=1 An = limn→∞ µ(An ) Satz 8.5. Seien (Xi )i∈N paarweise unkorrex) Sub-Additivität: Für lierte Zufallsvariablen mit EXI =: µ∀i ∈ PEreignisse Sn A ≤ n A , .., A gilt: µ i 1 n N und ar(Xi ) ≤ ∞, dann gilt: i=1 µ(Ai ) i=1 1 PV M ≤ M n→∞ n >ε ≤ P n i=1 Xi − µ −→ 0 ⇒ xi) Subσ-Additivität: Für Seine Ereign·ε2 P P − limn→∞ n1 n ≤ nisfolge (Ai )i∈N gilt: µ n i=1 Xi = µ, d.h. das arithi=1 Ai Pn metische Mittel von Einzelversuchen“ (beµ(A ) i i=1 ” schrieben durch X1 , X2 , ...) konvergiert stochastisch gegen den (unbekannten) Erwar- Satz 9.6. Sei G : R → R eine monoton wachsende, rechtsseitig stetige Funktion. tungswert µ. Dann existiert genau ein Maß µ auf (R, B) mit µ((a, b]) = G(b) − G(a), ∀a, b ∈ R, a < b gilt: µ 9 Borelmengen und Maße Lemma 9.1. Ist E ⊂ Pot(Ω), so existiert eine kleinste σ-Algebra A(E), die E enthält, d.h. • f (x) ≥ 0, ∀x ∈ Rn vi) Subtraktivität: Sind A ⊂ B und µ(Ω) < ∞, so gilt: µ(B\A) = µ(B) − µ(A) • f ist Riemann-integrierbar mit • a ii) Ist E σ-Algebra ⇒ A(E) = E iii) E = {A} ⇒ A(E) = {∅, A, AC , Ω} Bezeichnung 9.3. Seien k ∈ N und E n := {(a, b]|a, b ∈ R} (für n = 1 : F X (b) − F X (a) = P (X ∈ (a, b]))) so heißt Bn := A(E n )(B1 = B) Borel’sche σ-Algebra oder σ-Algebra der Borelmenge über Rn . Jedes B ∈ Bn heißt Borelmenge Definition 9.4. Sei (Ω, A) ein messbarer Raum. Eine Abbildung µ : A → [0, ∞] heißt Mass über (Ω, A), falls gilt: 1. µ(∅) = 0 2. Für alle Familien (Ai )i∈I von paarweise disjunkten Ai ∈ A mitP abzählhba rer Indexmenge I gilt: µ = i∈I Ai P i∈I µ(Ai ) R +∞ −∞ f (x1 , ...xn )dx1 ...dxn = 1 Bemerkung 10.9. Es gelten (weiterhin) nach dem Ersetzen von Summen durch Integrale: R +∞ • E(g ◦ X) = −∞ g(x)f (x)dx, z.B. g(x) := (XR − EX)2 ⇒ E(g ◦ X) = +∞ V ar(X) = −∞ (X − EX)2 f (x)dx • Eigenschaften der Erwartungswerte, Varianz, Kovarianz • Ungleichungen von Jensen, Ljapunoff, Cauchy-Schwarz und Markov und Techebyscheff i) erzeugte σ-Algebra ... Bezeichnung 10.8. Sei f die RiemannR +∞ Dichte von X, so heißt EX := −∞ x · f (x)dx Erwartungswert von X (falls wohldefiniert). f (x)dx = 1 (Riemann-Integral) A(E) ist eine σ-Algebra 10 Wahrscheinlichkeitsii) E ⊂ A(E) maße mit Riemanniii) Ist A0 eine σ-Algebra mit E ⊂ A0 ⇒ 0 A(E) ⊆ A Dichten über R Bemerkung 9.2. i) A(E) heißt die von E Beispiel 10.1 (Rechteckverteilung (stetige −∞ Satz 10.7. Ist f eine Dichte über n R F (x1 , ..., xn ) = Rsox1 definiert R xn, f (y1 , ..., yn )dy1 ...dyn , (x1 , ..., xn ) ∈ ... −∞ −∞ Rn eine stetige Verteilungsfunktion über Rn . Ist P das zugehörige Wahrscheinlichkeitsmaß über (Rn , Bn ) heißt f eine Dichte von P. Dann ist P (×n i=1 [ai , bi ]) = R bn R b1 ... f (y , ..., y )dy ...dy , ∀a 1 n 1 n i ≤ bi ∈ R. an a1 Lemma 9.7. Sei f : R → R+ und I = (a, b) ⊂ R, −∞ ≤ a < b ≤ ∞, R ∞mit f (x) = 0∀x ∈ I C , f stetig auf I und −∞ f (x)dx = Rb R +∞ Beispiel 10.10. X∼ E(X) b(n, p) n·p po(λ) λ b+a 2 R(a, b) E(X 2 ) Var(X) np(1 − p) λ 1 2 (b + 3 (a−b)2 12 Gleichverteilung)). (a, b), a, b ∈ R f (x) = ab + auf 1 , x ∈ [a, b] a2 ) 1 b−a · I[a,b] (x) = ,x ∈ R 1 1 b−a 0 , sonst Exp(λ) λ λ2 2 −β Die durch Dichtefunktion definierte Wahr- W ei(α, β) α− β1 · α · scheinlichkeitsverteilung über (a, b) heißt steΓ β1 + 1 Γ β2 + 1 − tige Gleichverteilung. Verteilungsfunkti 8 Γ2 β1 + 1 0 ,x < a < x−a p p , a ≤ x ≤ b Zum Be- Γ(b, p) on: F (x) = b b2 : b−a 1 ,x > b N (µ, σ 2 ) µ σ2 rechnen der Wahrscheinlichkeiten: P (X ∈ Rd 10.11 (Ausfallrate). (c, d)) = c f (x)dx = F (d) − F (c), (c, d) ⊂ Bemerkung f (x) h(x) = (X ∼ Exp(λ) ⇒ (a, b) 1−F (x) h(x) = λ; X ∼ W ei(α, β) ⇒ h(x) = Beispiel 10.2 (Exponentialverteilung). 8 ↑ , β > 1 ≡ Abnutzung < λ · e−λx x > 0 ) f (x) = , x ∈ R, λ > 0 : konst. , β = 1 ≡ keine Alterung 0 ,x ≤ 0 ↓ , β < 1 ≡ System wird stabiler 0 x≤0 F (X) = Schreibweise: Bezeichnung 10.12. Verteilungsfunktion 1 − e−λx , x > 0 wurde eingeführt als Integral mit oberer Exp(λ) Grenze als Argument. Die so eingeführte VerBeispiel ( 10.3 (Weibull-Verteilung). teilungsfunktion hat (sogar) die Eigenschaft β αβxβ−1 e−αx , x > 0 , x ∈ der absoluten Stetigkeit, 0 d.h. die Dichte f (x) = f von X ist gegeben durch F (x) = f (x). 0 ,x ≤ 0 (Ω, A, µ) heißt Massraum. Ein Maß µ mit µ(Ω) = 1 heißt Wahrscheinlichkeitsmass P und (Ω, A, P heißt WahrscheinlichkeitsR, α, β raum. > (0, u.a. für die Lebensdauer: 0 x≤0 F (X) = Schreibβ Satz 9.5. Seien (Ω, A, µ) ein Maßraum und 1 − e−αx ,x > 0 A, B, A1 , A2 , ... ∈ A. Das Maß µ bestitzt fol- weise: W ei(α, β) gende Eigenschaften: Beispiel 10.4 (Gammaverteilung). f (x) = i) Nulltreue: µ(∅) = 0 pb ·e−bx ·xp−1 ·I(0,∞) (x), x ∈ R, a, p > 0 (Für Γ(p) ii) Positivität: µ(A) ≥ 0, ∀A ∈ A (µ(A) = b = λ, p = 1 ergibt sich Exp(λ)) ⇒ Problem ∞ ist möglich!) bei der Angabe von F , da dies geschlossen nur iii) Additivität: Ist A ∩ B = ∞, so gitl für p ∈ N möglich ist. µ(A ∪ B) = µ(A) + µ(B) Beispiel 10.5 (Gauß’sche Normalvertei 2 iv) Additivität: Aus iii) folgt für paar1 lung). f (x) = √2π·σ · exp − (x−µ) , µ, x ∈ 2 2σ weise disjunkte Mengen A , ..., A : 1 n Pn Pn R, σ > 0 Schreibweise: N (µ, σ) µ i=1 AI = i=1 µ(Ai ) Bemerkung 10.13. Die Zufallsvariablen X1 , ..., Xn : (Ω, A, P) → (R, B) sind stochastisch unabhängig ⇐⇒ F (X1 ,...,Xn ) (x1 , ..., xn ) = F X (x) = F X1 (x1 ) · ... · F Xn (xn ), ∀(x1 , ..., x ) ∈ Rn , d.h. P(X1 ≤ Qn n x1 , ..., Xn ≤ xn ) = i=1 P (Xi ≤ xi ), ∀xi ∈ R ist notwendig und hinreichend für die stochastische Unabhängigkeit von X1 , ..., Xn Lemma 10.14. Sei X = (X1 , ..., Xn ) ein absolut stetiger Zufallsvektor mit Dichtefunktion f X . Dann gilt für die i-te Randdichte F Xi (x) = f Xi (x) = Z Z +∞ +∞ f X (x1 , ..., xi−1 , x, xi+1 , ..., xn ) ... | −∞ {z −∞ } v) Isotonie: Ist A ⊂ B, so gilt: µ(A) ≤ Definition 10.6. Eine Funktion f : Rn → R n−1 Integrale µ(B) heißt (Riemann-)Dichte auf Rn , falls gilt: dx1 ...dxi−1 dxi+1 ...dxn , x ∈ R. Ferner gilt: f X (x1 , ..., xn ) = iii) Ist m durch 4 teilbar, so muss auch a − 1 Xi durch 4 teilbar sein d (x ), ∀x ∈ R ⇐⇒ X1 , ..., Xn i i i=1 stochastisch unabhängig mit Dichten Bemerkung 11.5 (Regel). Auch bei maxif X1 , ..., f Xn . maler Periodenlänge dürfen nicht alle mögliKorrolar 10.15. Sei (X1 , X2 ) ein absolut chen Pseudozufallszahlen für eine Simulatistetiger Zufallsvektor mit der Dichtefunktion on ”verbraucht“ werden. Etwa wäre stets die f (X1 ,X2 ) dann ist Y = X1 + X2 absolut ste- letzte Zahl vorhersagbar. Qn tig mit der Dichte f Y (y) = z)dt, y ∈ R R +∞ −∞ ∞ X (λ · t)k n=0 n X i=1 n X 12 Einführung Statistik in die = eλt n(n + 1)(2n + 1) 6 i2 = f X (t, y − Bemerkung 10.16. Sind X1 und X2 stochastisch unabhängig, dann ist f (X1 ,X2 ) (x1 , x2 ) = f X1 (x1 )·f X2 R(x), ∀x1 , x2 ∈ Definition 12.1. Die Menge aller +∞ R und damit f X1 +X2 (y) = −∞ f X1 (t) · möglichen Realisationen ist Xn = n f X2 (y − t)dt, y ∈ R (X(Ω)) . Jede messbare Abbidlung δ : n X →D heißt statistiBezeichnung 10.17. Die Verteilung X1 + x = (x1 , ..., xn ) 7→ d X2 heißt Faltung von X1 und X2 . sche Entscheidungsfunktion (SEF). Bezeichnung 10.18. X1 + X2 besitzt eine Bezeichnung 12.2. Eine Klasse P von Dreiecksverteilung. Wahrscheinlichkeitsverteilungen heißt para- k! i= i=1 n(n + 1) 2 ! n k ! = ∞ X (1 − p)i = i=0 n X n n−k 1 1 = 1 − (1 − p) p a · qk = a · i=0 q n+1 − 1 q−1 ! n metrisch, falls ∃Θ ⊂ Rl , Abbildung h : X n i n−i Bezeichnung 10.19. Die Klasse der Γ- ab = (a + b)n Θ →P Verteilungen (bei festem Parameter) ist Fali , h bijektiv (Identifizierbari=1 θ 7→ Pθ tungstabil, d.h. die Faltung führt nicht aus keit). X λk −λ der Klasse der Verteilungen heraus. e =1 Bezeichnung 12.3. Gegeben sei eine pak! Definition 10.20. Sei (Xi )i∈N eine Folge von rametrische Klasse P = {Pθ |θ ∈ Θ} von k=0 stochastisch unabhängig iid. nicht-negativen Wahrscheinlichkeiten. Eine SEF (statistische ∞ X 1 1 Zufallsvariablen. Die Folge der Partiasummen Entscheidungsfunktion) δ : Xn → Θ heißt 0 1 = 1 j 2 1 − Schätzfunktion. (Parameterschätzung, 2 j=0 B n C BX C Punktschätzung) B C Xi C mit S0 = 0 heißt Erneuen! B lim =1 n √ Definition 12.4. Gegeben sei eine paramtri@ i=1 A n→∞ n | {z } 2πn e sche Klasse P von Wahrscheinlichkeitsvertei=:Sn n n∈N ! rungsprozess. Für jedes t ≥ 0 wird die Zu- lungen, ein Stichprobenraum X , ein Pam m! rameterraum Θ = D ⊂ R und eine Men= fallsvariable Nt P definiert durch Nt := sup{n ∈ n m1 , ..., mn m1 ! · ... · mn ! ∞ ge ∆ = {δ|δ : X → Θ} von SchätzN, Sn ≤ t}(= i=1 I{Si ≤t} ). (Nt )t≥0 heißt funktionen. δ ∈ ∆ nennt man erwartungsErneuerungsprozess. treu, R falls gilt: Eθ (δ(X)) = θ∀θ ∈ Θ = Lemma 13.1 (Regeln der Mengenlehre). δ(x) · f stetig Lemma 10.21. Sei Xi die Lebensdauer von θ (x)dx P (Im Mittel lie1. A ∪ B = B ∪ A, A ∩ B = B ∩ A δ(xi ) · pθ (xi ) diskret Komponenten und Sn die Gesamtlebensdauer, so ist Nt die Anzahl der ausgefallenen fert die Schätzfunktion den wahren Wert) 2. (A∪B)∪C = A∪(B ∪C), (A∩B)∩C = Komponenten bis zum Zeitpunkt t. Es gilt: Bezeichnung 12.5. Gegeben sei P = A ∩ (B ∩ C) Sn ≤ t ⇔ Nt ≥ n∀t > 0∀n ∈ N {Pθ |θ ∈ Θ} auf Xn mit Riemann- bzw. 3. (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C), Dann gilt: Xi ∼ Exp(λ)∀i ∈ N gilt Nt ∼ Lebesque-Dichten f , θ ∈ Θ oder diskrete θ (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) po(λ · t)∀t > 0 Wahrscheinlichkeitsverteilung, so heißt L = 8 < ( Xn , Θ) 11 Grundlagen der Simulation → [0, 1] fθ (x) kontinu. Fall (x, θ) 7→ : Pθ (X = x) diskreter Fall Likelihood-Funktion zur Realisation X. (Funktion des Parameters θ bei festem x) Lemma 11.1. Für [u, v] ⊂ [0, 1] gilt: Bezeichnung 12.6. Fehler 1. Art: p ∈ P 0 1 |Pm ({ω ∈ Ωm |u ≤ ω ≤ v}) − (v − u)| ≤ m ablehnen, obwohl richtig; Fehler 2. Art: p ∈ Wobei (v −u) die Wahrscheinlichkeit nach der P 0 annehnen, obwohl falsch; Rechteckverteilung für das Intervall [u, v] ist. P0 P1 0 kein Fehler Fehler 2. Art Lemma 11.2. Sind r1 , ..., rn , s1 , ..., sn ∈ P 1 P Fehler 1. Art kein Fehler [0, 1] mit rj − sj ≤ ε, ∀j ∈ {1, ..., n}, so folgt Q Qn n j=1 rj − j=1 sj ≤ n · ε 4. (A ∪ B)C = AC ∩ B C , (A ∩ B)C = AC ∪ B C 5. A\B = A ∩ B C Lemma 13.2 (Bernoulli). (1 + p)n > 1 + np, (1 − p)n > 1 − np für 0 < p < 1, n > 1 Lemma 13.3 (Logarithmen). loga (b · c) = loga b + loga c, loga (b : c) = loga b − loba c, loga (br ) = r · loga b p q Bemerkung 12.7. Im Allgemeinen ist es Lemma 13.4 (Potenzgesetze). a · a = p+q p r p−r p r p·r ,a : a = a , (a ) = a nicht möglich beide Fehlerwahrscheinlichkei- a Bezeichnung 11.3. Sei m ∈ N (Modul), ten simultan zu minimieren. Lemma 13.5 (Ableitungsregeln). (f ± a ∈ N0 (Faktor), b ∈ N0 (Inkrement), z0 ∈ N0 , Bemerkung 12.8. Durch statistischen Test g)0 = f 0 ± g 0 , (f · g)0 = f0 · g + f · z0 ≤ m − 1 (Anfangsglied). Kongruenzschekann immer nur die Aussage in der Alterna- 0 f 0 0 0 0 0 ·g ma: zj+1 = (a · zj + b)(modm), j ∈ N0 ; g, g = f ·g−f , g1 = gg2 , (g ◦ tiven Hypothese belegt werden. g2 Rb Klar ist: 0 ≤ zj ≤ m − 1, ∀j ∈ N0 ; Norf )0 = (g 0 ◦ f ) · f 0 , a (f ◦ g)(x) · g 0 (x)dx = mierung: xj := zmk , j ∈ N0 liefert die Folge R g(b) Rb 0 f (z)dz, a f (x)·g(x)dx = f (x)·g(x)|ba − (xn )n∈N ⊂ [0, 1]. Rg(a) b f (x)ġ 0 (x)dx a Satz 11.4. Für b ≥ 1 wird die maximal mögliche Periodenlänge genau dann erreicht, Lemma 13.6 (Ableitungen). f (x) = x1 ⇒ √ wenn: F (x) = ln|x|, f (x) = x ⇒ F (x) = 3 i) b ist teilerfremd zu m iid = stochastisch unabhängig, identisch ver- 23 x 2 , f (x) = ln(x) ⇒ F (x) = x(ln(x) − ii) Jede Primzahl, die m teilt, teilt auch a−1 teilt 1), f (x) = ln(a) · ax ⇒ F (x) = ax 13 Formeln (aus anderen Bereichen der Mathematik