4 ei 2. Wahrscheinlichkeitsräume (Ω, F, P) Stochastische Signale * * kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr Ein Wahrscheinlichkeitsraum (Ω, F, P) besteht aus • Ergebnismenge Ω = ω1 , ω2 , ... : Menge aller möglichen Ergebnisse ωi • Ereignisalgebra F = A1 , A2 , ... : Menge von Ereignisen Ai ⊆ Ω • Wahrscheinlichkeitsmaß P 1. Mengenalgebra 1.1. Mengen- und Boolsche Algebra A∩ · B = B∩ · A A⊎B =B⊎A (A ∩ · B) ∩ · C = A∩ · (B ∩ · C) (A ⊎ B) ⊎ C = A ⊎ (B ⊎ C) A∩ · (B ⊎ C) = (A ∩ · B) ⊎ (A ∩ · C) A ⊎ (B ∩ · C) = (A ⊎ B) ∩ · (A ⊎ C) Kommutativ Assoziativ Distributiv Indempotenz Absorbtion Neutralität Dominant Komplement A∩ · A=A A∩ · (A ⊎ B) = A A∩ · Ω=A A∩ · ∅=∅ A∩ · A=∅ A⊎A=A A ⊎ (A ∩ · B) = A A⊎∅=A A⊎Ω=Ω A⊎A=Ω De Morgan A=A A∩ · B =A⊎B Ω=∅ A ⊎ B = A∩ · B 2.1. Ereignisalgebra F ⊆ P(Ω) • Ω∈F • Ai ∈ F ⇒ A∁ i ∈ F • A1 ,...,Ak ∈ F ⇒ k S Mit Wiederholung Ohne Wiederholung Mit Reihenfolge Reihenfolge egal nk n+k−1 k n k n! (n−k)! n! Permutation von n mit jeweils k gleichen Elementen: k !·k 1 2 !·... 5 n 4 n n! = 10 =6 = n−k = k!·(n−k)! 2 2 k 1.3. Grundbegriffe Tupel Ungeordnetes Paar Potenzmenge (i, j) ̸= (j, i) für i ̸= j {i, j} = {j, i} P(Ω) ist Menge aller Teilmengen von Ω Bedingte Wahrscheinlichkeit für A falls B bereits eingetreten ist: PB (A) = P(A|B) = P(A∩B) P(B) P(Bk |A) = Ai ∈ F | F | = 2Anzahl disjunkter Teilmengen (muss endlich sein) 2.1.1 σ-Algebra Entwicklung k → ∞. Unendlich viele Ergebnisse, aber jedes Ai besteht aus abzählbar vielen Ergebnissen. Besitzt mindestens 2 Ereignisse. 1 xq+1 q+1 √ 2 ax3 3 xq √ ax qxq−1 x ln(ax) − x ln(ax) a x x · eax eax (ax + 1) 1 a2 ´ ´ f ′ (x) f (x) eax (ax − 1) ax ln(a) dt √ at+b at te = dt = √a 2 ax x a √ 2 at+b a at−1 at e a2 = P Aπ(1) P Aπ(2) |Aπ(1) P Aπ(3) |Aπ(2) ∩ Aπ(1) × ···× P Aπ(k) |Aπ(k−1) ∩···∩ Aπ(1) h→0 • FX (x) = 0 ; lim FX (x) = 1 x→∞ x→−∞ Bezeichnung Abk. Zusammenhang Wahrscheinlichkeitsmassenfkt. Kumulative Verteilungsfkt. pmf cdf pX (x) = P({X = x}) P pX (ξ) FX (x) = P(A) = |Ω| P(A ∪ B) = P(A) + P(B) − P(A ∩ B) 2.2.1 Axiome von Kolmogorow Nichtnegativität: P(A) ≥ 0 ⇒ P : F 7→ [0, 1] Normiertheit: P(Ω) = 1 ! ∞ ∞ S P Additivität: P Ai = P(Ai ), i=1 i=1 wenn Ai ∩ Aj = ∅, ∀i ̸= j 2.2.2 Weitere Eigenschaften • P(Ac ) = 1 − P(A) • P(∅) = 0 • P(A\B) = P(A ∩ B c ) = P(A) − P(A ∩ B) • P(A ∪ B) = P(A) + P(B) − P(A ∩ B) • A ⊂ B ⇒ P(A) ≤ P(B) S Pk • P( k i=1 Ai ) ≤ i=1 P(Ai ) 5.0.4 Verteilung stetiger Zufallsvariablen Allgemein: ! T Q P Ai = P (Ai ) mit Indexmenge I und ∅ = ̸ J ⊆I i∈J i∈J Bezeichnung Abk. Zusammenhang Wahrscheinlichkeitsdichtefkt. pdf fX (x) = Kumulative Verteilungsfkt. cdf FX (x) = dFX (x) dx x́ fX (ξ) dξ −∞ Berechnung von fX (x): x+ϵ ´ fX (x) = lim 1 fX (ξ) dξ = lim 1 P (x ≤ X ≤ x + ϵ) ϵ→0 ϵ x ϵ→0 ϵ 4. Zufallsvariablen 4.1. Definition X : Ω 7→ Ω′ ist Zufallsvariable, wenn für jedes Ereignis A′ ∈ F′ im Bildraum ein Ereignis A im Urbildraum F existiert, sodass ω ∈ Ω| X (ω) ∈ A′ ∈ F Normiertheit P ´ ! p(x) + R fX (x) dx = 1 5.1. Mehrdimensionale Verteilungen 4.2. Unabhängigkeit von Zufallsvariablen Zufallsvariablen X 1 ,···, X n sind stochastisch unabhängig, wenn für jedes ⃗ x = [x1 ,···, xn ]⊤ ∈ Rn gilt: n Y P({X i ≤ xi }) FX 1 ,···,X n (x1 ,···, xn ) = pX 1 ,···,X n (x1 ,···, xn ) = fX 1 ,···,X n (x1 ,···, xn ) = i=1 n Q i=1 n Q i=1 ⃗ ≤⃗ FX 1 ,···,X n (x1 ,···, xn ) = F⃗ (⃗ x) = P({X x}) = X P({X 1 ≤ x1 ,···, X n ≤ xn }) 5.1.3 Diskrete Zufallsvariablen: ⃗ =⃗ pX 1 ,···,X n (x1 ,···, xn ) = P({X x}) (joint probability mass function) FX (xi ) 5.1.4 Stetige Zufallsvariablen: x ´1 x´n FX 1 ,···,X n (x1 ,···, xn ) = ··· fX 1 ,···,X n (ξ1 ,···, ξn ) dξn ···dξ1 pX (xi ) fX 1 ,···,X n (x1 ,···, xn ) = Gleichbedeutend: n Q 5.1.1 Mehrdimensionale Zufallsvariable: ⃗ = [X 1 ,···, X n ]T mit Xi Zufallsvariablen X 5.1.2 Gemeinsame kumulative Verteilungsfunktion: −∞ −∞ ∂ n F⃗ (x1 ,···,xn ) X ∂x1···∂xn i i fX ,Y = fY ,X (joint probability density function) 5.1.5 Marginalisierung Prinzip: Lasse alle vernachlässigbaren ZV gegen unendlich gehen. FX 1 ,···,X m (x1 ,···, xm ) = FX 1 ,···,X n (x1 ,···, xm , ∞,···, ∞) fX (xi ) i 4.3. Bedingte Zufallsvariablen Bedingte Wahrscheinlichkeit für Zufallsvariablen: Ereignis A gegeben: FX |A (x|A) = P X ≤ x |A ZV Y gegeben: FX | Y (x|y) = P X ≤ x | Y = y fX | Y (x|y) = pX ,Y (x,y) pY (y) fX ,Y (x,y) fY (y) = dFX|Y (x|y) dx Randverteilung: Spezialfall der Marginalisierung um aus der mehrdimensionalen KVF die KVF für eine ZV zu erhalten. FX 1 (x1 ) = FX 1 ,···,X n (x1 , ∞,···, ∞) Randverteilung der P Wahrscheinlichkeitsmasse (PMF) pX 1 (x1 ) = pX 1 ,···,X n (x1 ,···, xn ) (für diskrete ZV) x2 ,···,xn Randverteilung der Wahrscheinlichkeitsdichte (WDF) ( für stetige ZV) ∞ ∞ ´ ´ fX 1 (x1 ) = ··· fX 1 ,···,X n (x1 ,···, xn ) dxn ···dx2 −∞ Homepage: www.latex4ei.de – Fehler bitte sofort melden. ∀x ∈ R lim ξ∈Ω′ :ξ≤x Ereignise A und B sind unabhängig falls: P(A ∩ B) = P(A) P(B) ⇒ P(B|A) = P(B) pX | Y (x|y) = (a ± b)2 = a2 ± 2ab + b2 a2 − b2 = (a − b)(a + b) (a ± b)3 = a3 ± 3a2 b + 3ab2 ± b3 (a + b + c)2 = a2 + b2 + c2 + 2ab + 2ac + 2bc • FX (x) ist rechtsseitig stetig: ∀h > 0 : lim FX (x + h) = FX (x) 3.2. Stochastische Unabhängigkeit a ln(a) 1.5. Binome, Trinome • FX (x) ≥ 0 x ´ 2 at (ax−1)2 +1 at t e dt = e a3 ´ ax2 1 eax2 xe dx = 2a Eigenschaften • FX (x) ist monoton wachsend • P({a < X ≤ b}) = FX (b) − FX (a) i=1 F (x) 5.0.2 Kumulative Verteilungsfunktion (KVF bzw. CDF) • P({X > c}) = 1 − FX (c) 5.0.3 Verteilung diskreter Zufallsvariablen Beliebig viele Ereignisse: P (A ∩···∩ 1 ∩ A2 Ak ) P({X 1 ≤ x1 ,···, X n ≤ xn }) = 1.4. Integralgarten P(A|Bk ) P(Bk ) P P(A|Bi ) P(Bi ) i∈I 3.1.2 Multiplikationssatz P(A ∩ B) = P(A|B) P(B) = P(B|A) P(A) Daraus folgt: • ∅∈F • Ai \Aj ∈ F Tk • i=1 Ai ∈ F ∀A′ ∈ F′ FX (x) = P({X ≤ x}) 3.1.1 Totale Wahrscheinlichkeit und Satz von Bayes S Es muss gelten: Bi = Ω für Bi ∩ Bj = ∅, ∀i ̸= j i∈I P Totale Wahrscheinlichkeit: P(A) = P(A|Bi ) P(Bi ) Satz von Bayes: i≥1 |A| Mögliche Variationen/Kombinationen um k Elemente von maximal n Elementen zu wählen bzw. k Elemente auf n Felder zu verteilen: 5.0.1 Definition PX (A′ ) = P({ω ∈ Ω| X (ω) ∈ A′ }) = P({X ∈ A′ }) 3.1. Bedingte Wahrscheinlichkeit i∈I 2.2. Wahrscheinlichkeitsmaß P 1.2. Kombinatorik 5. Wahrscheinlichkeitsverteilungen 3. Bedingte Wahrscheinlichkeit und Unabhängigkeit von Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik Böttcher, Samuel Harder – Mail: [email protected] −∞ Stand: 9. Februar 2016 1/4 6. Funktionen von Zufallsvariablen ′ ′ Ω′′ ′ X : Ω → Ω = R und jetzt g :Ω → P(A′′ ) = P(Y ∈ A′′ ) = P( X ∈ Ω Ω g(X (ω)) ∈ A′′ =R g(X ) ∈ A′′ = P( ω ∈ 6.1. Transformation von Zufallsvariablen Berechnung von fY (y) aus fX (x) g(x) streng monoton & differenzierbar: −1 dg(x) fY (y) = fX g −1 (y) dx x=g −1 (y) g(x) nur differenzierbar: −1 N P dg(x) fY (y) = mit i ∈ {1, . . . , N } fX (xi ) dx x=xi i=1 xi sind Nullstellen von y − g(x) = 0 6.1.1 Beispiel: lineare Funktion Y = aX + b ⇔ g(x) = ax + b mit a ∈ R\0, b ∈ R: ⇒ fY (y) = FY (y) = FX 1 |a| fX y−b a 1 − FX y−b 7.3. Bernoulliverteilung (p ∈ [0, 1]) 7.6. Geometrische Verteilung (p ∈ [0, 1]) 7.8. Normalverteilung (µ ∈ R, σ > 0) Wahrscheinlichkeitsmasse 2 Ereignisse: Erfolg und Misserfolg p: Wahrscheinlichkeit k=1 0, p, FX (k) = 1 − p pX (k) = 1 − p k = 0 1 0 sonst Erster Erfolg eines Bernoulli-Experiments beim k-ten Versuch, Gedächtnislos WMF/PMF: KVF/CDF: pX [k] = (1 − p)k−1 p, k ∈ N FX [k] = 1 − (1 − p)k , k ∈ N WDF/PDF: k<0 0≤k<1 k≥1 y−b a E[X ] = p Var[X ] = p(1 − p) Erwartungswert Varianz E[X ] = ⇒ fZ=X + Y (z) = (fX ∗ fY ) (z) = Erwartungswert sonst ∞ ´ fX (z − y)fY dy Var[X ] = np(1 − p) Erwartungswert Varianz n GX (z) = (pz + 1 − p) Wahrscheinlichkeitserz. Funktion 7.1. Begriffe 7.5. Poisson-Verteilung (λ ≥ 0) Gedächtnislos Eine Zufallsvariable X ist gedächtnislos, falls: P({X > a + b)}|{X > a}) = P({X > b}), a, b > 0 Asymptotischer Grenzfall der Binomialverteilung n → ∞, p → 0, np → λ pX (k) = lim B n→∞ WMF/PMF: k pX [k] = λk! e−λ 7.2. Gleichverteilung Erwartungswert k ∈ N0 n, λ n Var[X ] = (b − a)2 Varianz 12 Varianz GX (z) = pz 0.4 -1 -3 -2 -1 0.0 −4 −3 −2 −1 0 x 1 fX (x) = √ E(X ) = µ 1 − z + pz 3 2 4 5 Erwartungswert 1 2πσ 2 e − Var(X ) = σ Varianz −5 −4 (x−µ)2 2σ 2 2 −3 −2 −1 0 x 1 2 3 4 5 x∈R 2 2 jωµ− ω σ 2 φX (ω) = e Charakt. Funktion Wahrscheinlichkeitserz. Funktion Wie geometrische Verteilung für stetige Zufallsvariablen (“Lebensdauer“), Gedächtnislos WDF/PDF: KVF/CDF: fX (x) = λe−λx x≥0 FX (x) = 1 − e−λx x≥0 Schreibweise X ∼ N (µ, σ ) Beispiele: Rauschen, Ort eines Teilchens relativ zu seiner Anfangsposition bei brownscher Molekularbewegung, abgefahrene Sachen, die man nicht genauer bestimmen will oder kann 7.8.1 Standartnormalverteilung ist der Spezialfall X ∼ N (0, 1) 2 1 −x ϕ(x) = √ e 2 2π Es gilt außerdem: 1 2 (Y −µ) ∼ N (0, 1) • Y ∼ N (µ, σ ) ⇒ X = σ 2 • X ∼ N (0, 1) ⇒ Y = σ X +µ ∼ N (µ, σ ) KVF/CDF: FX [k] = zu kompliziert E(X ) = φX (s) = -2 (k) x ∈ {1, . . . , |Ω|} Beispiele: Wurf einer fairen Münze, Lottozahlen 7.2.2 Stetig (a, b : −∞ < a < b < ∞) ( 0 1 x ∈ [a, b] x−a fX (x) = b−a FX (x) = b−a 0 sonst 1 2 p2 7.7. Exponentialverteilung (λ > 0) E[X ] = np 7. Stochastische Standardmodelle a+b 1−p Charakteristische Funktion φX (s) = 1 − (1 − p)eıs Beispiele: diskrete Dauer bis ein technisches Gerät zum ersten Mal ausfällt, Anzahl der Würfe bis man eine ”6”würfelt k ∈ {0, . . . , n} s n Charakteristische Funktion φX (s) = 1 − p + pe Beispiele: Anzahl der Übertragungsfehler in einem Datenblock endlicher Länge, Wiederholtes Werfen einer Münze E[X ] = Var[X ] = 2 2 Wahrscheinlichkeitsmasse (n pk (1 − p)n−k k pX (k) = Bn,p (k) = 0 n! mit n = k!(n−k)! k −∞ 7.2.1 Diskret 1 , pX (x) = |Ω| 1 p Φμ,σ (x) 0.2 WDF Beispiele: Einmaliger Wurf einer (unfairen) Münze μ = 0, σ 2 = 0.2, μ = 0, σ 2 = 1.0, μ = 0, σ 2 = 5.0, μ = −2, σ 2 = 0.5, 0.6 -3 GX (z) = pz + 1 − p Wahrscheinlichkeitserz. Funktion 6.2. Summe unabhängiger Zufallsvariablen Z = X + Y mit X und Y unabhängig. 0.8 0.6 −5 peıs a<0 0.8 0.0 7.4. Binomialverteilung (p ∈ [0, 1], n ∈ N) a>0 1.0 μ = 0, σ 2 = 0.2, μ = 0, σ 2 = 1.0, μ = 0, σ 2 = 5.0, μ = −2, σ 2 = 0.5, 0.2 a KVF/CDF: φμ,σ (x) 2 0.4 Folgen von Bernoulli-Experimenten p: Wahrscheinlichkeit n: Anzahl der Bernoulli-Experimente 1.0 1 λ Erwartungswert x<a x ∈ [a, b] Var(X ) = Varianz 1 λ2 φX (ω) = λ λ − jω Charakt. Funktion Beispiele: Lebensdauer von el. Bauteilen, Zeitdauer zwischen zwei Anrufen in einem Call-Center x>b ejωb − ejωa E[X ] = λ Var[X ] = λ jω(b − a) Erwartungswert Varianz Charakt. Funktion Beispiele: Winkel beim Flaschendrehen, Phase einer empf. Sinusschwingung Homepage: www.latex4ei.de – Fehler bitte sofort melden. λ(s−1) GX (s) = e Wahrscheinlichkeitserz. Funktion Charakteristische Funktion φX (s) = exp λ(es − 1) Beispiele: Zahl der Phänomene in einem Zeitintervall, Google-Anfragen in einer Stunde, Schadensmeldungen an Versicherungen in einem Monat von Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik Böttcher, Samuel Harder – Mail: [email protected] Stand: 9. Februar 2016 2/4 8. Erwartungswert 9. Varianz und Kovarianz 10. Erzeugende und charakter. Funktionen 11. Reelle Zufallsfolgen 8.1. Definition 9.1. Varianz 10.1. Wahrscheinlichkeitserzeugende Funktion Eine reelle Zufallsfolge ist ganz einfach eine Folge reeller Zufallsvariablen. Gibt den mittleren Wert einer Zufallsvariablen an ist ein Maß für die Stärke der Abweichung vom Erwartungswert für X : Ω → N0 Var[X] = E (X − E[X ])2 = E[X 2 ] − E[X ]2 8.2. diskrete (reelle) Zufallsvariablen E[X ] = X x P({X = x}) = x∈Ω′ X ∞ X X GX (z) = E[z ] = k k=0 xpx (x) x∈Ω′ für X : Ω → Ω′ ⊂ R Für Funktionen von Zufallsvariablen: P E[Y ] = E[g(X )] = g(x)pX (x) 9.1.1 Standard Abweichung p σ = Var[X ] Anwendungen 1 dn pX (n) = P( X = n ) = [ GX (z)]z=0 , n! dz n 9.2. Kovarianz x∈Ω′ Cov[X , Y ] = E[(X − E[X ])(Y − E[Y ])] = Cov[Y , X ] mit X : Ω → Ω′ ⊂ R und g : R → R E[X ] = [ andere Darstellungen: Cov[X , Y ] = E[X Y ] − E[X ] E[Y ] = Cov[Y , X ] 8.3. stetige Zufallsvariablen x · fX (x) dx für X : Ω → R R Für Funktionen von Zufallsvariablen: ´ E[Y ] = E[g(X )] = g(x)fX (x) dx R mit X : Ω → R und g : R → R Var[X ] = [ Kovarianz mit sich selbst: Var[X ] = Cov[X , X ] aus den Definitionsgleichungen: Cov[α X +β, γ Y +δ] = αγ Cov[X , Y ] Cov[X + U, Y + W] = Cov[X , Y ] + Cov[X , W] + Cov[U, Y ] + Cov[U, W] E[α X +β Y ] = αE[X ] + βE[Y ] X ≤ Y ⇒ E[X ] ≤ E[Y ] Beweis mit der Definition und der Linearität des Integrals bzw. der Summe. Falls X und Y stochastisch unabhängig: E[X Y ] = E[X ] E[Y ] Achtung: Umkehrung nicht möglich. Stoch. Unabhängig ⇒ Unkorrelliertheit E[X ] = 0 ∞ P P(X > k) (diskret) k=0 n Y i=1 i=1 i=1 j̸=i i 11.2. Random Walk 10.2. Charakteristische Funktion h i ıω X φX (ω) = E e , fX (−x) 9.4. Unkorreliertheit b r φ(ω) ω∈R φX = n E[X ] = Summe von ZV: Z = wenn ZV normalverteilt (sonst nicht!): Unkorreliertheit ⇒ stoch. Unabhängigkeit Z = bei paarweisen unkorrellierten Zufallsvariablen: n n P P Var[ X i] = Var[X i ] i=1 1 " ın dn n X Pn dω n Xi i=1 E[X Y ] = 0 φZ (ω) = i=1 Var[Y ] Eine Zufallsfolge ist stationär, wenn um ein beliebiges k (k ∈ N) zueinander verschobene Zufallsvektoren die selbe Verteilung besitzen. Im weiteren Sinne stationär (W.S.S.), wenn: n Y φX (ω) i i=1 c ,Y = σ Xσ mit ρX ,Y ∈ [−1, 1] X Y µX (i) = µX (i + k) rX (i1 , i2 ) = rX (i1 + k, i2 + k) = rX (i1 − i2 ) stationär ⇒ WSS (aber nicht anders herum!) Definition: Seien X i , i ∈ 1, ..., n, stochastisch unabhängige und identisch verteilte reelle Zufallsvariablen und gelte E[X i ] = µ < ∞ und V ar[X i ] = σ 2 < ∞. Dann konvergiert die Verteilung der standardisierten Summe n (X P µ) − √ Zn = i=1 9.6. Korrelationskoeffizient Var[X ] 11.3. Stationarität ω=0 Xi ⇒ E[X i ] = (2p − 1)δ V ar[X i ] = 4p(1 − p)δ 2 # φX (ω) 10.3. Der zentrale Grenzwertsatz 9.5. Orthogonalität Cov[X ,Y ] √ ρX ,Y = √ eıωx fX (x) dx E[S] = µS (n) = n(2p − 1)δ V ar[S] = σS2 (n) = 4np(1 − p)δ 2 Stoch. Unabhängig ⇒ Unkorrelliertheit i=1 ∞ ´ n ∈ N Schritte mit 2 möglichen Bewegungsrichtungen X ∈ {+δ, −δ} P ({X i = +δ}) = p n X P ({X i = −δ}) = 1 − p Sn = Xi 1 , µ (n) = 0 symmetrisch ⇔ p = 2 S i=1 −∞ Erwartungswert: wenn gilt: Erwartungswert µX (n) = E[X n ] 2 2 (n) = V ar[X n ] = E[X 2 Varianzfolge σX n ] − E[X n ] Autokorrelation rX (k, l) = E[X k X l ] Autokovarianz cX (k, l) = Cov[X k , X l ]= rX (k, l) − µX (k)µX (l) GX (z) i=1 wegen der Linearität des Erwartungswerts: Var[α X +β] = α2 Var[X ] für die Summe von Zufallsvariablen: n n n P P P P Var[ X i] = Var[X i ] + Cov[X i , X j ] Cov[X , Y ] = 0 ⇔ E[X Y ] = E[X ] E[Y ] Spezialfall für X : Ω → R+ : ∞ ´ E[X ] = P(X > t) dt (stetig) 11.1. Verteilungen und Momente 2 GX (z)]z=1 − E[X ] + E[X ] GZ (z) = Pfad ⃗ Sn = (Sn , Sn−1 , . . . , S1 ) : Ω(n) → Rn ω ⃗ n 7→ ⃗ sn (⃗ ωn ) = (sn (⃗ ωn ), sn−1 (⃗ ωn ), . . . , s1 (⃗ ωn )), n ∈ N Erklärung: Die Abfolge der Realisierungen von S1 bis Sn (also der Pfad von S) und somit auch jedes einzelne Sk kann als Ergebnis des Ereignisses ω ⃗ n angesehen werden. GX (z)]z=1 dz 2 dz 2 Für X i : Ω → N0 , i ∈ 1,P . . . , n stochastisch unabhängige, diskrete, n nichtnegative ZV und Z = i=1 X i 8.4. Eigenschaften des Erwartungswerts Linearität: Monotonie: d2 GX (z)]z=1 dz d 2 9.3. Spezialfälle d ∀n ∈ N0 2 E[X ] − E[X ] = [ ˆ E[X ] = Ensemble Sn : Ωn × Ωn−1 × · · · × Ω1 → R (ωn , ωn−1 , . . . , ω1 ) 7→ sn (ωn , ωn−1 , . . . , ω1 ), n ∈ N Erklärung: Jede Realisierung von Sn wird erzeugt durch die Menge (das Ensemble) aufeinanderfolgender Realisierungen X k mit k ∈ {1, . . . , n}. |z| ≤ 1 pX (k)z , σ n d.h E[Z n ] = 0 und V ar[Z n ] = 1, für n → ∞ gegen die Standartnormalverteilung. Es gilt also: limn→∞ P(Z n ≤ z) = Φ(z) Korrelationskoeffizient von X und Y negativ korreliert ρX ,Y ∈ [−1, 0) Es gilt: unkorreliert ρX ,Y = 0 positiv korreliert ρX ,Y ∈ (0, 1] 11.4. Markow-Ungleichung E[| X |] P( |X | ≥ a ) ≤ a 11.5. Tschebyschow-Ungleichung Var[X ] P( |X − E[X ]| ≥ a ) ≤ a2 11.6. Das schwache Gesetz der großen Zahlen Sei (X i : i ∈ N) eine Folge reeller, paarweise unkorrelierter Zufallsvariablen mit beschränkter Varianz: n 1 P (X − E[X ]) → 0 i i n i=1 Für stochastisch unabhängige und identisch verteilte Folgenelemente mit E[X i ] = E[X] und V ar[X i ] = V ar[X] < ∞ gilt: n 1 P (X ) → E[X ] i i n i=1 Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik Böttcher, Samuel Harder – Mail: [email protected] Stand: 9. Februar 2016 3/4 12. Markowketten (bedingte Unabhängigkeit: Abschnitt 14) 12.1. Markowketten 12.1.1 Allgemein Eine Zufallsfolge (X n : n ∈ N) heißt Markowkette, falls ∀ ni ∈ N, i ∈ 1, . . . k mit n1 < · · · < nk gilt: (X n1 , X n2 , . . . X nk−2 ) → X nk−1 → X nk ⇒ Die Verteilung eines Folgeelements hängt nur vom direkten Vorgänger ab pX n k | Xn ,X ,...,X n (xnk |xnk−1 , xnk−2 , ..., xn1 ) 1 k−1 nk−2 = pX n k fX n k (xnk |xnk−1 ) | Xn k−1 | Xn k−1 ,X n k−2 ,...,X n 1 13. Reelle Zufallsprozesse 13.5. Wiener-Prozess (σ > 0) 13.1. Ensemble und Musterfunktion Als Basis benutzen wir den Random Walk. Durch Multiplikation mit einer Heaviside-Funktion wird der Random Walk zeitkontinuierlich: n n P P Sn = Xi ⇒ St = X i u(t − iT ) T >0 • Ein Zufallsprozess kann als Ensemble einer nicht abzählbaren Menge von Zufallsvariablen Xt mit t ∈ R interpretiert werden. • Ein Zufallsprozess kann als Schar von Musterfunktionen X t (ω) : R 7→ R, mit X (ω) als deterministische Funktion von t, mit einem gegebenen Ereignis ω ∈ Ω interpretiert werden. (xnk |xnk−1 , xnk−2 , ..., xn1 ) Autokorrelationsfunktion: rX (s, t) = E[X s X t ] Hinweis: Bei Integration über rX immer darauf achten, dass s − t > 0. Bei Bedarf Integral aufteilen und Grenzen anpassen. n−1 Verbund-WMF: n Q pX 1 ,...,X n (x1 , ..., xn ) = pX 1 (x1 ) pX | X (xi |xi−1 ) i i−1 i=2 Zustandsübergangsdicht: fX n | X n−1 (xn |xn−1 ) Verbund-WDF: fX 1 ,...,X n (x1 , ..., xn ) = fX 1 (x1 ) n+1+k n+k 12.1.3 Chapman-Kologorow Gleichung 2-Schritt-Übergangswahrscheinlichkeit: pX | X n (xn+2 |xn ) = Pn+2 (xn+2 |ξ)pX (ξ|xn ) pX n+2 | X n+1 n+1 | X n ξ∈X m+l-Schritt-Übergangswahrscheinlichkeit: pX | X n (xn+m+l |xn ) = Pn+m+l pX (xn+m+l |xn+m )pX |X ξ∈X n+m+l n+m (xn+m |xn ) n+m | X n 12.1.4 Markowketten im endlichen Zustandsraum pX n (x1 ) p X n (x2 ) p ⃗n ≜ pn ]i = pX n (xi ) ∈ [0, 1]N mit [⃗ . . . pX n (xN ) p11 . Übergangsmatrix: Π = . . pN 1 ··· .. Ein Zufallsprozess ist stationär, wenn um ein beliebiges s (s ∈ R) zueinander verschobene Zufallsvektoren die selbe Verteilung besitzen. p1N . µX (t) = µX (t + s) ∧ rX (t1 , t2 ) = rX (t1 + s, t2 + s) Daraus folgt mit s = t + τ rX (s, t) = E[X s X t ] = E[X t+τ X t ] = rX (s − t) = rX (τ ) Im weiteren Sinne zyklisch stationär, wenn: µX (t) = µX (t + T ) ∧ rX (t1 , t2 ) = rX (t1 + T, t2 + T ) stationär ⇒ WSS ⇒ im weiteren Sinne zyklisch stationär (aber nicht anders herum!) 13.4. Mehrere Zufallsvariablen auf dem selben Wahrscheinlichkeitsraum Kreuzkorrelationsfunktion: rX ,Y (s, t) = E[X s Y t ] = rY ,X (t, s) Kreuzkovarianzfunktion: cX ,Y (s, t) = rX ,Y (s, t) − µX (s)µY (t) = cY ,X (t, s) 13.4.1 Gemeinsame Stationarität Zwei Zufallsprozesse auf demselben Wahrscheinlichkeitsraum sind gemeinsam stationär, wenn die einzelnen ZPs jeweils selbst stationär sind und ihre gemeinsamen Verteilungen verschiebungsinvariant sind. 13.4.2 Gemeinsam im weiteren Sinne stationär Voraussetzung: X t und Y t sind gemeinsam WSS wenn, exp pN N Übergangswahrscheinlichkeit: pij = pX (ξ , ξ ) n+1 | X n i j Spaltensumme muss immer 1 ergeben! p ⃗n+1 = Π⃗ pn n ∈ N p ⃗n+m = Πm p ⃗n n, m ∈ N Eine Verteilung heißt stationär, wenn gilt: ∞ ´ h(t − τ )v(τ ) dτ −∞ Im Frequenzbereich: W (f ) = H(f )V (f ) 2 − w2 V 2σ t Wt Ausgang Vt Eingang h(s, t) Impulsantwort W Eigenschaften • Kein Zählprozess! • P({W0 = 0}) = 1 • hat unabhängige Inkremente → rxy (s, t) = 0 Falls Zufallsprozesse WSS: • Wt ∼ N (0, σ 2 t), ∀0 ≤ t Autokorrelationsfkt: rW = E[Ws Wt ] = (h̃ ∗ h ∗ rV )(τ ) mit h̃(τ ) = h(−τ ) • Wt − Ws ∼ N (0, σ 2 (t − s)), ∀0 ≤ s ≤ t • Wt (ω) ist eine stetige Musterfunktion mit Wahrscheinlichkeit 1 Erwartungswertfunktion. Varianz Autokorrelationsfunktion Autokovarianzfunktion ∞ ´ Erwartungswert: µW = µV h(t) dt ∞ Kreuzkorrelationsfkt: rW,V (τ ) = E[Ws Vt ] = (h ∗ rV )(τ ) 15.2. Leistungsdichtespektrum (LDS) µW (t) = 0 2 σW (t) = σ 2 t rW (s, t) = σ 2 min{s, t} cW (s, t) = σ 2 min{s, t} 13.6. Poisson-Prozess (Nt :∈ R+ ) Beim Poisson-Prozess wird der Zeitpunkt der Sprünge durch ZV modelliert, nicht die Amplitude. ∞ i P P Nt = u(t − Ti ), Ti = Xj Nicht WSS ⇒ Kein LDS ˆ∞ SV (f ) = rV (τ )e −j2πf τ dτ i=1 j=1 X t und Y t einzelnd WSS und rX ,Y (t1 , t2 ) = rX ,Y (t1 + s, t2 + s) gemeinsam stationär ⇒ gemeinsam WSS (aber nicht umgekehrt!) Daraus folgt mit s = t + τ rX (s, t) = E[X t+τ X t ] = rX (τ ) = rX (−τ ) rX (τ ) ≤ rX (0) rX ,Y (τ ) = E[X t+τ Y t ] = E[Y t X t+τ ] = rY ,X (−τ ) 13.4.3 Stochastische Unkorreliertheit cX ,Y (s, t) = 0 ⇔ rX ,Y (s, t) = µ(s)µ(t), 13.4.4 Orthogonalität rX ,Y (s, t) = 0, ∀s, t ∈ R ∀s, t ∈ R b r b r b r rV (τ ) SV (f ) SV,W (f ) rV,W (τ ) ∗ rV,W (−τ ) SV,W (f ) Auf Frequenz bezogene Signalleistung für infitisimales Frequenzband. SY (f ) = |H(f )|2 SX (f ) SY,X (f ) = H(f )SX (f ) SX,Y (f ) = H ∗ (f )SX (f ) X j ist exponentiell verteilt, Ti ist Gamma-verteilt i λ fTi (t) = (i−1)! ti−1 e−λt , t ≥ 0 (λt)n P ({Nt = n}) = n! e−(λt) , ∀n ∈ N, t ∈ R+ Eigenschaften • ist ein Zählprozess • ist Gedächtnislos • hat unabhängige Inkremente • Nt − Ns ist Poisson-verteilt mit Parameter (λ(t − s) für alle 0≤s≤t • hat eine Rate λ • Zeitintervalle zwischen den Inkremetierungen sind unabhängig und identisch exponentialverteilt mit Parameter λ Erwartungswertfunktion Varianz Autokorrelationsfunktion Autokovarianzfunktion µN (t) = λt 2 σN (t) = λt rN (s, t) = λ min{s, t} + λ2 st cN (s, t) = λ min{s, t} 14. Bedingte Unabhängigkeit ∈ [0, 1]N ×N Im Zeitbereich: w(t) = (h ∗ v)(t) = −∞ Im weiteren Sinne stationär (W.S.S.), wenn: fX | X (xi |xi−1 ) i i−1 i=2 Eine Markowkette heißt homogen, wenn die Übergangswahrscheinlichkeit unabhängig vom Index ist pX (xn+1 |xn ) = pX (xn+1 |xn ) n+1 | X n n+1+k | X n+k fX (xn+1 |xn ) | X n (xn+1 |xn ) = fX |X n+1 13.3. Stationarität FXt ,...,Xt (x1 , . . . xn ) = FX (x1 , . . . xn ) t1 +s ,...,Xtn +s n 1 n Q √ σ 2 T folgt der Für n → ∞ und T → 0, mit Schrittweite δ = Wiener Prozess: Wt 15.1. Allgemeines Zeitlich, Kontinuierlich veränderliche Zufallsvariable X t Autokovarianzfunktion: cX (s, t) = Cov(X s , X t ) = rX (s, t) − µX (s)µX (t) 12.1.2 Zustandsübergang Zustandsübergangswahrscheinlichkeit: pX n | X (xn |xn−1 ) i=1 2πσ 2 t Erwartungswertfunktion: µX (t) = E[X t ] = fX n | X n (xnk |xnk−1 ) k k−1 i=1 fWt (w) = √ 1 13.2. Verteilungen und Momente 15. Zufallsprozesse(ZP) und lineare Systeme X Y A B SY ,X (f ) ( n Q i=1 = ( n Q Hi (f ))( i=1 ∗ SX (f ) = SX (f ) ∞ ´ Hi (f ))SX (f ) SX ,Y (f ) = Hi∗ (f ))SX (f ) SY ,B (f ) = ( −∞ n Q i=1 m Q j=1 & Gj (f ))∗ SX ,A (f ) ∗ SX ,Y (f ) = SY ,X (f ), SX (f ) = SX (−f ), ∀f ∈ R ∀f ∈ R 2 SX (f ) df = rX (0) = Var[X ] + E[X ]2 = σX + µ2 X SX (f ) ≥ 0, ∀f ∈ R Momenterzeugende Funktion, Multivariate Normalverteilung, Multivariate reelle Zufallsvariablen und Komplexe Zufallsvariablen waren im WS 2015/16 nicht prüfungsrelevant und werden hier deshalb nicht behandelt. P.S. Stochastik ♡ dich. 14.1. Bedingte Unabhängigkeit A und C heißen bedingt unabhängig gegeben B, wenn gilt: P(A ∩ C|B) = P(A|B) P(C|B) bzw. P(A|B ∩ C) = P(A|B) Dann gilt: pZ | Y ,X (y|y, x) = pZ | Y (z|y) fZ | Y ,X (z|y, x) = fZ | Y (z|y) X , Z sind bedingt unabhängig gegeben Y , kurz: X → Y → Z p ⃗∞ = Π⃗ p∞ Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik Böttcher, Samuel Harder – Mail: [email protected] Stand: 9. Februar 2016 4/4