Stichworte der Einführung in die Wahrscheinlichkeitstheorie (entstanden aus dem Einführung in die Wahrscheinlichkeitstheorie Skript von Herrn Prof Dr Potthof) Author: Ralf Nicklas Stand: 24. Januar 2006 A 1 A a posteriori Wahrscheinlichkeiten : P (Bk |A) absolut stetig verteilet : siehe stetig verteilt antiton : Folge (An , n ∈ N ) falls An+1 ⊂ An ∀n ∈ N gilt lim An := n ∞ � An n=1 falls (An , n ∈ N ) antiton ist Axiom zur σ − Algebra : Sei Ω der Grundraum der Elementarereignisse eines Experiments. Die Menge aller Ereignisse A ist eine Familie von Teilmengen von Ω, die eine σ − Algebra bildet. B Bayes’sche Formel : Sei B1 , . . . , Bn ∈ A eine Zerlegung von Ω mit P (Bk ) > 0 k=1, . . . , n und A ∈ A mit P(A)¿0. Es gilt für k ∈ {1, . . . , n} P (A|Bk )P (Bk ) k) k )P (Bk ) P (Bk |A) = P (A∩B = P (A|B = � n P (A) P (A) P (A|Bk )P (Bk ) k=1 BBW : = Brownsche Bewegung bedingte diskrete Dichte : siehe diskrete Wahrscheinlichkeitsverteilung BE : = bedingte Erwartung p(x ,y ) bedingte Entropie : mit bedingter Dichte p(xi , yi ) = pY i(yjj) = P (X = xi |Y = � � yj ) ⇒ H(X, Y = yj ) = − log2 (p(xi |yj ))p(xi |yj ) = − log2 (p(xi |Y ))p(xi |Y ) i i Lemma: H(X|Y ) = H(Y ) + E(H(X|Y )) Satz: E(H(X|Y )) ≤ H(x) bedingte Erwartung : Eine ZV, die BE1 und BE2 erfüllt, heißt die bedingte Erwartung von X gegeben Y und wird mit E(X|Y ) notiert. � bedingte Erwartung (Vorbereitung) : Setze Z:= E(X|Y ) ⇒ Z(ω) = xi p(xi |y) ∀ω ∈ i � � Ω mit Y (ω) = y ⇒ Z = xi p(xi |Y ) oder Z = g◦Y mit g(y) = xi p(xi , y) i ⇒ BE1 − BE11 i bedingte Erwartung 1 : Z ist eine Funktion von Y, d.h. es gibt eine meßbare Funktion g, so dass Z(ω) = g(Y(ω)), ω ∈ Ω � � bedingte Erwartung 2 : Für jedes B ∈ B(R) gilt: ZdP = XdP {Y ∈B} � � � {Y ∈B} ⇒ ZdP = E(X|Y )dP = · · · = XdP {Y ∈B} {Y ∈B} {Y ∈B} Fakt zwischen BE2 und BE3 : Seien X,Y zwei ZV auf einem W-raum, X integreirbar oder positiv. Dann gibt es eine ZV Z, die die Eigenschaften BE1 und BE2 hat und fast sicher eindeutig ist (falls Z’ eine andere solche ZV ist gilt P(Z=Z’)=1 ) B 2 bedingte Erwartung 3 : E(·|Y ) ist linear: seien X1 , X2 reellwertige ZV α1 , α2 ∈ R. Dann �gilt fast sicher E(α1 X�1 + α2 X2 |Y ) = α1 E(X1 |Y ) + α2 (X2 |Y ) au­ ßerdem: f (Y )E(X|Y )dP = f (Y )XdP bedingte Erwartung 4 : Für jede meßbare Funktion f (derart, dass die Inte­ grale existieren) gilt die Gleichung: � f (Y )E(X|Y )dP = intf (Y )XdP bedingte Erwartung 5 : Für jede Konstante C gilt E(C|Y ) = C bedingte Erwartung 6 : F¨ ur jede meßbare Funktion ϕ gilt E(ϕ(Y )X|Y ) = ϕ(Y )E(X|Y ) bedingte Erwartung 7 : E(E(X|Y )|Y ) = E(X|Y ) bedingte Erwartung 8 : E(E(X|Y )) = E(X) bedingte Erwartung 9 : E(·|Y ) ist symmetrisch im Sinne, dass für alle X, Z E(Z|E(X|Y )) = E(E(Z|Y )|X) gilt bedingte Erwartung 10 : Sei ϕ meßbar, Y=ϕ(Z). Es gilt E(E(X|Z)|Y ) = E(X|Y ) bedingte Erwartung 11 : Falls X und Y unabhängig sind, gilt E(X|Y ) = E(X) bedingte Wahrscheinlichkeit : Sei (Ω,A,P) ein W-raum, B ∈ A mit P(B)¿0, A∈A ⇒ P (A|B) = P P(A∩B) (B) = bedingte Wahrscheinlichkeit von A unter B ⇔ P (A ∩ B) = P (A|B) · P (B) Bernoullie-Experiment : Ω = R, A = B(R), x1 , x2 ∈ R, x1 �= x2 , p ∈ [0, 1], P1 = εx1 , P2 = εx2 dann ist P = pεx1 + (1-p)εx2 ⇔ 2 Elemtarereignisse die nicht unmöglich sind p f alls x1 ∈ [a, b] + x2 ∈ / [a, b] / [a, b] + x2 ∈ [a, b] 1 − p f alls x1 ∈ Bernoullie-Zufallsvariable : P (X ∈ [a, b]) = { 1 f alls x1 ∈ [a, b] + x2 ∈ [a, b] 0 sonst mit x1 , x2 ∈ R, x1 �= x2 , p ∈ [0, 1] und W = pεx1 + (1 − p)εx2 Binomialverteilte Zufallsvariable : mit Parametern (n,p), n ∈ N , p ∈ [0, 1]: n � � � n k n−k W= εk k p (1 − p) k=0 → wobei x fast sicher die Werte � � k = 0, . . . , n annimmt und dabei den Wert k mit Wahrscheinlichkeit nk pk (1 − p)n−k Borelmenge : Sei Ω = R: Es gibt eine kleinste σ-Algebra B(R), die alle Inter­ valle enthält (=Boral-σ-Algebra) oder auch Ω = Rn : B(Rn ) ist kleinste σ-Algebra, die alle Hyperquader enthält. Brownsche Bewegung : = Wienerprozess C 3 Brownsche Bewegung Eigenschaften : * die BBW ist ein Markovprozess, da P (B(t) ∈ A|{B(u), u ≤ s}) = P (B(t) ∈ A|B(s)) gilt die BBW ist ein Martingal, da: sei t ≥ s > 0 E(B(t)|{B(u), u ≤ s}) = . . . = B(s) C Cauchyverteilung : f(x) = 1 1 π 1+x2 Chapman-Kolmogorov-Gleichung : Sei n, k in N0 dann gilt für jede Wahl von m zwischen k und k+n � und alle i,j in N P(X(k+n)) = i(X(k)=j) = P (X(k + n)) = i(X(m =) = l)P (X(m) = l l|X(k) = j) charakteristische Funktion von X : Sei f(x) = eiλx = cos(λx) + isin(λx) ⇒ Φ(λ) = E(eiλx ) λ ∈ R D Dichte : Fall wie bei (absolut) stetig verteilt ⇒ f heißt die Dichte der Verteilung bzw. der Zufallsvariablen Diracmaß : Sei Ω ein beliebiger Grundraum, A eine σ-Algebra von Ereignis­ 1 f alls ω0 ∈ A sen uber Ω Ferner sei ω0 ∈ Ω. Setze: P(A):={ heißt ¨ 0 sonst Diracmaß in ω0 es wird mit εω0 bezeichnet. ∞ � diskret verteilt : Sei {xn , n ∈ N } ∈ R, (pn , n ∈ N ), pn ∈ [0, 1], das Maß W = ∞ � pn = 1, n=1 pn εxn ⇒ führt die Abbildung A �→ W (A) zu einer n=1 Verteilung + damit zu einer diskret verteilten Zufallsvariablen diskrete Gleichverteilung : x1 , . . . , xn ∈ R: W = 1 n n � εxk k=1 � � diskrete Wahrscheinlichkeitsverteilung : PX = px (xi )εxi ; PY = pY (yj )εyj i j � � mit pX (xi ) = p(xi , yj ); pY (yj ) = p(xi , yj ) ¿ 0 ⇒ P (X = x|Y = y) = j P (X=x,Y =y) P (Y =y) i P (x,y) PY (y) = = p(x|y) Damit ist die Verteilung von X unter der � Bedingung Y=y als diskrete Wahrscheinlichkeitsverteilung: p(xi |y)εxi i gegeben auf (R,B(R)) mit p(x|y) ist die bedingte (diskrete) Dichte von X gegeben � Y=y gegeben. ⇒ bedingte Erwartung von X unter Y=y: E(X|Y = y) := xi p(xi |y) außerdem E(X|Y )(ω):= E(X|Y = y) für alle ω ∈ Ω mit i Y (ω) = y E 4 E Elementarereignis : ω ∈ Ω ¨ Entropie : = mittlerer Informationsgehalt = mittlere Uberaschung n � E(S) = − (log2 (pi ))pi = iH(x) i=1 � man setzt auch: H(x):= − (log2 (ϕ(x)))ϕ(x)dx mit H(x) ≤ log2 (n) R Ereignis : A ist Menge von ω ⇒ A ⊂ Ω, A ∈ P(Ω) insbesondere ordnet man ω ∈ Ω das Ereignis {ω} ⊂ Ω zu Ergodenkette für Markovketten : Falls k0 ∈ N existiert, so dass Pi,j (k0 ) > ur alle i,j in {1, . . . , n} dann ist die Markovkette ergodisch. Dabei ist 0 f¨ der Invariante Zustand α der eindeutig bestimmte Eigenvektor von P zum Eigenwert 1 Erwartungswert : Sei X eine positive oder � integrierbare Zufallsvariable auf einem W-raum (Ω,A,P). Dann heißt XdP der mathematische ErwarA tungswert � oder Mittelwert von X E(x) := XdP Ω � g(x, y)f (x, y)dxdy Anmerkung: E(g(X,Y)) = { R2 ∞ � g(xi , yj )pij gemeinsam stetig gemeinsam diskret i,j=1 Korollar: X1 , . . . , Xn unabhängig, f1 , . . . , fn meßbar E(f1 (X1 ) · · · fn (Xn )) = E(f1 (X1 ))· · ·E(fn (Xn )) � E bei X Bernoulli ZV : E(f ◦ X) = f (x)dPx (X) = pf (1) + (1 − p)f (0) E bei X normalverteilt : mit µ, σ ∈ R f=id: � 2 1 E(X) = x √2πσ exp(− (x−µ) 2 2σ 2 )dx = . . . = µ Exponentialverteilung : λ > 0 f (x) = λ1R+ (x)e−λx F G Gaußfunktion : f(x) = 2 √ 1 exp( −(x−µ) 2σ 2 2πσ 2 ) mit µ, σ ∈ R gemeinsame Entropie : X,Y ZVs mit gemeinsamer Verteilung PX⊗Y = � ⇒ H(X,Y) = − log2 (p(xi , yk ))p(xi , yk ) � p(xi , yj )ε(xi , yj ) i,j i,j gemeinsame Verteilung : V W-maß auf (R2 , B(R2 )), Ω = R2 , A = B(R2 ), P = V, X = π1 , Y = π2 , πi = i − teP rojektion d.h. ω=(x,y)∈ R2 ist π1 (ω) = x, π2 (ω) = y. Dann haben X, Y die gemeinsame Verteilung V H 5 gemeinsame Verteilungsfunktion : wähle B = (−∞, x) × (−∞, x), x,y∈ R dann heißt FX◦Y ((x, y)) = PX◦Y ((−∞, x) × (−∞, y)) = P (X < x, Y < y) die ge­ meinsame Verteilungsfunktion von X und Y λ2 t geometrische Brownsche Bewegung : Sei T=R+ X(t):=eλB(t)− 2 t ∈ R+ mit λ ∈ R: Der stochastische Prozess (X(t), t ∈ R+ ) wird geometrische BBW genannt und ist ein Martingal geordent ohne Wiederholung : falls, man auf die Reihenfolge der Auswahl achtet und kein element mehr als einmal gewählt werden darf ⇒ (ωi1 , . . . , ωik ) (k ≤ n) = k-Tupel geordent mit Wiederholung : falls die Reihenfolge registriert wird und die Elemente wiederholt ausgew¨ahlt werden d¨ urfen ⇒ (ωi1 , . . . , ωik ) = k-Tupel mit Einträgen aus Ω Gleichverteilung auf [a,b :] sei a,b ∈ R, a¡b, f = (b − a)−1 1[a,b] � 1 W(A) = b−a 1[a,b] (x)dx = λ(A∩[a,b]) b−a A wobei λ = Labesguemaß auf ([a, b], B([a, b])) ist GM : geordnet mit Wiederholung GO : geordnet ohne Wiederholung größte σ-Algebra : P(Ω) Grundmenge : Ω = sicheres Ereignis H ’hit and miss’-Monte-Carlo-Methode : man sch¨atzt die Fl¨ache unter dem Graphen von f dadurch, dass man n viele Punkte gleichverteilt im Qua­ drat [0, 1] × [0, 1] erzeugt und den Anteil bestimmt der unter dem Gra­ phen liegt. Seien X, Y unabhängig auf [0, 1] gleichverteilte ZVs setze Z �1 = 1{Y ≤f (X)} (= Bernoullie-ZV) ⇒ p = f (x)dx und es gilt E(Z) = p 0 ⇒ 1 n n � Zk →n→∞ 1 �1 f (x)dx 0 Hypothese : Bk I Irrfahrt : Sei T = N0 und betrachte eine uiv Folge (Y (n), n ∈ N ) von Bernoul­ lizufallsvariablen zu Parameter p ∈ [0, 1], mit Werten -1 und 1, P (Yi = n � 1) = p. Setze X(0) = 0 und X(n) := Y (i) n ∈ N ⇒ der stochastische i=1 Prozess (X(n), n ∈ N0 ) heißt Irrfahrt. J 6 ∞ isoton : Folge (An , n ∈ N ) falls An ⊂ An+1 ∀n ∈ N gilt lim An := n An falls n=1 (An , n ∈ N )isoton ist J K kleinste σ-Algebra : A = {Ω, �} Kodierung : X nehme die Werte x1 , . . . , xN , N ∈ N an. Es gibt genau dann are Kodierung von x1 , . . . , xN mit L¨angen n1 , . . . , nN , wenn gilt eine bin¨ N � 2−ni ≤ 1 i=1 Kodierung ist m¨ oglich falls f¨ ur alle n in N gilt: n � i=1 2−j ωj ≤ 1 ⇔ N � 2−ni ≤ i=1 1 Konstruktionsprinzip : Sei W W-maß auf (R,B(R)). Dann gibt es einen W­ raum (Ω,A,P) und darauf eine Zufallsvariable X, so dass W gleich der Verteilung PX von X ist. Man wählt ganz einfach: Ω = R, A = B(R), P = W, X = id ⇒ X(ω) = ω für ω ∈ Ω = R noch zu zeigen dass PX = W PX ((−∞, x)) = P (X ∈ (−∞, x)) = P ({ω, X(ω) < x}) = P ({ω, ω < x}) = W ({ω, ω < x}) = W ((−∞, x)) Konvergenz (eidwt) : (Xn , n ∈ N ) sei eine Folge von reellwertigen ZVs auf einem W-raum (Ω,A,P), X sei ZV auf (Ω,A,P) i) (Xn , n ∈ N ) konvergiert fast sicher gegen X, wenn P ({ω; Xn (ω) →n→∞ X(ω)}) = 1 ii) (Xn , n ∈ N ) konvergiert stochastisch gegen X, wenn f¨ ur jedes � > 0: P ({ω; |Xn (ω) − X(ω)| > �}) →n→∞ 0 iii) (Xn , n ∈ N ) konvergiert in Verteilung gegen X, wenn die Folge (PXn , n ∈ N ) der Verteilung von (Xn , n ∈ N ) schwach gegen die Verteilung PX kon­ � vergiert, d.h. wenn f¨ ur alle beschr¨ ankte, stetige Funktionen f: f (x)dP Xn (x) →n→∞ � f (x)dPX (x) gilt iv) (X � n , n ∈ N ) konvergiert im p-ten Mittel oder in L’(P), p ≥ 1 gegen X falls |Xn − X|p dP →n→∞ 0 Ω KV in L� (P ), p ≥ 1 ⇓ 1 f ast sichere KV ⇒ stochastische KV ⇐ KV in L (P ) ⇓ KV in V erteilung Korrelation : Falls die Varianz V(X), V(Y) verschwinden, so heißt die Größe ρ(X, Y ) = √Cov(X,Y ) die Korrelation V (X)V (Y ) Kovarianz : Sei X, Y quadratintegrierbare ZV. Dann heißt Cov(X,Y) = E((X-E(X))(Y-E(Y))) die Kovarianz von X und Y L 7 Korollar: Sei X und Y unabhängig mit endlicher Varianz, dann sind X und Y unkorreliert: Cov(X,Y) = 0 KV : = Konvergenz L Laplace-Experiment : endlicher Grundraum und alle elementarereignisse sind gleichwahrscheinlich. hier gilt: k � p = n1 ⇒ P(A) = |A| P ({ωij }) = k · n1 mit A = {ωi1 , . . . , ωik } |Ω| = j=1 Lebesguemaß : Sei Ω = [0, 1], A = B([0, 1]), d.h. unser Experiment produziert eine reelle Zahl zwischen 0 und 1. Es gibt ein W-maß λ, das jedem Intervall [a, b] in [0, 1] als W-keit dessen Länge zuordnet: λ([a, b]) = b − a Lemma i (eidwt) : Sei X1 , . . . , Xn unabhängig. Dann gilt PX1 +···+Xn = PX1 · · · PXn Lemma ii (eidwt) : Sei X1 , . . . , Xn unabhängige ZVs mit momenterzeugende Funktionen ψX1 , . . . , ψXn . Dann gilt ψX1 +···+Xn (t) = ψX1 (t) · · · ψXn (t) t ∈ R Falls X1 , . . . , Xn uiv ZVs sind, gilt insbesondere ψX1 +···+Xn (t) = (ψX1 (t))n Lemma zur bedingten Wahrscheinlichkeit : Sei A1 , . . . , An ∈ A dann gilt P(A1 ∩. . .∩An ) = P (A1 )·P (A2 |A1 )·P (A3 |A1 ∩A2 ) · · · P (An |A1 ∩· · ·∩An−1 ) Lemma zu meßbar und Zufallsvariablen : Sei (Ω, A) vorgelegt, g eine meß­ bare Funktion von Ω nach R, f eine meßbare Funktion von R nach R. Dann ist f ◦ g meßbar ⇔ Die Komposition meßbarer Abbildungen ist meßbar ⇒ f ◦ X ist eine Zuvallsvariable M Markoveigenschaft : P (X(n + 1) ∈ B|X(0), . . . , X(n)) = P (X(n + 1) ∈ B|Xn ) Interpretattion: Der Prozess hat kein Gedächtnis Markovprozess : Prozess mit ME z.B. Irrfahrt Martingal : ein stochastischer Prozess (X(n), n ∈ N ) mit der Eigenschaft MTG für alle n in N heißt Martingal z.B. ist die Irrfahrt ein Martingal wenn p= 12 ist Martingalkette : (X(t), t ∈ T ) ein stochastischer Prozess mit diskreter Zeit T=N0 oder T={0, . . . , n} der die Markoveigenschaft erfüllt ⇔ Markovket­ te Maß : Sei Ω eine Menge, A eine σ-Algebra uber Ω, P eine Abbildung von A ¨ ¯ + := [0, +∞] nach R P heißt Maß, falls gilt: i) P( N 8 oslash) = 0 ii) P ist σ-additiv: falls (An , n ∈ N ) eine paarweise disjunkte Folge in A ∞ � ist, so gilt: P( ∞ P (An ) n=1 An ) = n=1 ME : = Markoveigenschaft meßbar : Sei Ω eine Menge, A eine σ-Algebra über Ω, f eine reellwertige Funk­ tion auf Ω mit f −1 ((−∞, x)) ∈ A∀x ∈ R ⇒ f heißt meßbar Fakt: f ist genau dann meßbar, wenn f¨ ur jede Borelmenge B ∈ B(R) f −1 (B) ∈ A gilt Methode der kleinsten Fehlerquadrate nach Gauß-Laplace : Die größte E((X − g(Y ))2 ), g meßbare Funktion, hat bei g(Y) = E(X|Y ) ihr Mini­ mum Mittelwert : siehe Erwartungswert ¨ mittlerer Informationsgehalt : = Entropie = mittlere Uberraschung ¨ mittlere Uberaschung : = Entropie = mittlerer Informationsgehalt Moment : siehe auch n-tes Moment momenterzeugende Funktion von X : ψ(λ) = E(eλX ) λ ∈ R Monte-Carlo-Methoden : Methoden zur numerischen Berechnung von Inte­ gralen zum Beispiel siehe auch: ’hit and miss’-Monte-Carlo-Methode zweit Monte-Carlo-Methode MTG : = Martingaleigenschaft (siehe auch Martingal) E(X(n + 1)|X(1), . . . , X(n)) = X(n) N n-tes Moment : Sei X ZV: E(X n ) heißt das n-te Moment von X siehe Erwartungswert Normalverteilung : N(µ, σ 2 ), µ, σ ∈ R: � 1 2 W(A) = √2πσ exp(− (x−µ) 2 2σ 2 )dx A ∈ B(R) A O ω : ω = Elementarereignis Ω : Ω = Grundraum aller Elemtarereignissen P 9 P Pfad : von einem stochastischen Prozess X ist eine zufällige reellwertige Funk­ tion auf T Poissonprozess : T=R+ , (X(t), t ≥ 0) ein stochastischer Prozess mit i) X(0) = 0 fast sicher ii) unabh¨ angige, station¨are Zuw¨achse iii) die Zuwächse X(t) - X(s), s¡t habe die Poissonverteilung mit Parameter λ(t − s), λ > 0 heißt Poissonprozess mit Rate λ → Markovprozess aber kein Martingal Poisonverteilung : mit Parameter λ > 0: W = e−λ ∞ � k=0 1 k k ! λ εk ⇒ X nimmt fast sicher Werte in N0 an, dabei für k ∈ N k P(x=k) = e−λ λk! Produktmaß : siehe Versuchsreihe P1 ⊗ P2 = P Q R realisiert : Ist A Ereignis und gilt ω ∈ A ⇒ ω realisiert A S S1 : S(1) = 0 S2 : S strikt monoton fallend auf (0, 1] S3 : S ist stetig auf (0, 1] ur alle p,q in (0, 1] S4 : S(pq) = S(p) + S(q) f¨ Satz von Bayes : Sei B1 , . . . , Bn ∈ A eine (paarweise disjunkte) Zerlegung von Ω d.h. Ω = nk=1 Bk Dann kann man jedes Ereignis A ∈ A nach {Bk , k = 1, . . . , n} zerlegen: A = nk=1 (Bk ∩ A) n n � � RightarrowP (A) = P (A|Bk )P (Bk ) = P (Bk ∩ A) k=1 k=1 Satz von Bienaym : X1 , . . . , Xn seien paarweise unkorrelierte ZVs. Dann gilt: V(X1 + · · · + Xn ) = V(X1 )+ · · · +V(Xn ) S 10 Satz von Fubini : Sei f reellwertig, meßbare Funktion auf Ω1 × Ω2 a) Für jedes ω1 ∈ Ω1 ist die Funktion f(ω1 , ·) auf Ω2 meßbar ur jedes ω1 ∈ Ω1 die Funktion b) Falls f¨ f(ω1 , ·) positiv oder µ2 -integrierbar � ist, dann ist die Funktion ω1 �→ f (ω1 , ω2 )dµ(ω2 ) auf Ω1 meßbar � Ω2� c) f ist µ1 ⊗ µ2 -integrierbar⇔ ( |f (ω1 , ω2 )|dµ2 (ω2 ))dµ1 (ω1 ) < +∞ Ω1 Ω2 d) amaloge Aussage zu a), b) und c) gelten mutatis mutandis, wenn die Rolle der Indizes 1 und 2 vertauscht ist � e) Falls f positiv oder µ1 ⊗ µ2 -integrierbar ist, dann gilt f dµ1 ⊗ µ2 = Ω ×Ω 1 2 � � � � ( f (ω1 , ω2 )dµ2 (ω2 ))dµ1 (ω1 ) ( f (ω1 , ω2 )dµ1 (ω1 ))dµ2 (ω2 ) Ω1 Ω2 Ω2 Ω1 Merke: Dei der Integration bezüglich eines Produktmaßes kann man die Integration Variable f¨ ur Variable durchf¨ uhren und es kommt nicht auf die Reihenfolge der Integration an. Satz von Poisson : Sei (Xn , n ∈ N ) eine Folge von binomialverteilte ZV, wo­ bei Xn Parameter (n,pn ) mit lim npn = λ > 0 hat. Dann konvergiert n (Xn , n ∈ N ) in Verteilung gegen eine Poissonzufallsvariable mit Parame­ ter λ Satz von Shannon : Für jede Kodierung C einer ZV X mit Werten x1 , . . . , xN gilt E(LC ) ≥ H(X) Satz zum Produkt : Gegeben seien k Mengen M1 , . . . , Mk mit |Mi | = ni ∈ N , i=1, . . . , k. Dann ist die Anzahl aller k-Tupel der Form (m1 , . . . , mk ); mi ∈ Mi i=1, . . . , k gleich k � ni i=1 Satz zur Anzahl der Möglichkeiten : zu den verschiedenen Proben gibt es jeweils die folgende Anzahl von Möglichkeiten: n! GO: (n−k)! Maxwell-Boltzmann-Statistik � n� UO: k Fermi-Dirac-Statistik GM: �nk � UM: n+k−1 Bose-Einstein-Statistik k Satz zur gemeinsamen Verteilung und dem Produktmaß : Seien die ZV X1 , . . . , Xn unabhängig. Dann ist die gemeinsame Verteilung PX1 ⊕···⊕Xn gleich dem Produktmaß PX1 ⊕ · · · ⊕ PXn der Verteilung σ − Algebra : Sei Ω eine Menge, A eine Menge von Teilmengen von Ω dann heißt A σ-Algebra falls gilt: i) Ω ∈ A ii) für jedes A ∈ A gilt Ac ∈ A ∞ iii) für jede Folge (An , n ∈ N ) ∈ A gilt An ∈ A Bsp) A = {Ω, A, Ac , �} Standardabweichung : siehe Streuung n=1 T 11 Starkes Gesetz der großen Zahlen : Sei (Xn , n ∈ N ) eine unabhängige Fol­ ge von identisch verteilte ZVs, deren viertes Moment existiert. E(X14 ) ¡ n � −∞. Dann konvergiert snn mit sn = Xn fast sicher gegen E(X1 ) k=1 Stetigkeit von W-maßen : Sei (An , n ∈ N ) eine isotone oder antitone Folge von Ereignissen. Dann gilt: P(lim An ) = lim P (An ) n n � (absolut) stetig verteilt : f ≥ 0 st¨ uckweise stetige Funktion mit f (x)dx = � 1 ⇒ führt die Abbildung A �→ W (A) = f (x)dx zu einer Verteilung + A damit zu einer (absolut) stetig verteilten Zufallsvariablen Stetigkeitslemma von P. Lvy : Sei (Yn , n ∈ N ) eine Folge von ZV mit exi­ stierenden momenterzeugenden Funktionen: ψYn (t) = E(exp(tYn )) < +∞ mit t in R und n in N. Ferner sei Y ZV mit existierender momenter­ zeugender Funktion ψY . Falls ψYn punktweise gegen ψY konvergiert, so konvergiert Yn in Verteilung gegen Y. stochastischer Prozess : Sei T eine Teilmenge von R+ , (Ω,B,P) ein W-raum, (E,E ) ein meßbarer Raum (d.h. eine Menge, die mit einer σ-Algebra aus­ gestattet ist). Eine Abbildung T in einer Menge von ZV über (Ω,B,P) mit Wertebereich E heißt stochastischer Prozess mit Zustandsraum E. (Die Menge T wird typischerweise als Bereich eines Zeitparameters aufgefasst. Gebräuchlich sin T \ N, R+ ) Notationen: X(t)(ω) ≡ X(t, ω) ≡ Xt (ω) mit t in T und ω ∈ Ω � Streuung : von X: V (X) (oder auch Standardabweichung) T Transformationssatz : Sei (Ω,A,µ) Maßraum, (Ω� ,A� ) Meßraum, g meßbare Abbildung von Ω nach Ω� . Auf (Ω� ,A� ) sei µg (A� ) := µ(g −1 (A� )), A’ ∈ A� � ein Maß. Sei f reellwertige, meßbare Funktion � � auf Ω , die positiv oder µg -integrierbar ist. Dann gilt f ◦ gdµ = f dµg Fakt: sei Px (B) = Ω Ω� � � φ(x)dxB ∈ B(R) mit φ(x) stückweise stetig, sowie φ ≥ 0 und φ(x)dx = B R 1 sei f stückweise stetig und somit messbar und so dass das (uneigentliche) +�∞ Riemanintegral |f (x)|φ(x)dx endlich ist. Dann gilt: −∞ � R f dPx = +�∞ f (x)φ(x)dx −∞ +�∞ f dPx = f (x)φ(x)dx mit X ZV und φ Dichte R � −∞ � αn εxn , f meßbar und so dass die Reihe αn f (xn ) Lemma: Sei Px = n n � � absolut konvergiert. Dann gilt: f dPx = αn f (xn ) ⇒ E(f ◦ X) = � R n U 12 U Überraschung : S als Funktion der W-keit p ∈ [0, 1], p=0 bei großem S und p=1 bei kleinem S siehe S1-S4 Satz: Eine Funktion auf (0, 1], die S1-S4 erf¨ ullt ist von der Form: S(p) = -C log2 (p) wobei C eine positive Konsante ist. (Konvention: C=1) UM : ungeordent mit Wiederholung unabhängig (eidwt) : Sei (Xn , n ∈ N ) eine Folge von ZV aif einem W-raum (Ω,A,P). Sie heißt unabh¨angig, falls f¨ ur jedes n ∈ N , jede Wahl von k1 , . . . , kn ∈ N und jede Wahl xk1 , . . . , xkn ∈ R, n � P(Xk1 < xk1 , . . . , Xkn < xkn ) = P (Xkl < xkl )gilt l=1 unabhängig (2 Ereignisse) (eidwt) : Seien A1 , . . . , An Ereignisse. Sie hei­ ßen unabh¨ angig falls f¨ ur jede Wahl von k ∈ {1, . . . , n} und jede Wahl von k Ereignissen Ai1 , . . . , Aik die Gleichung P (Ai1 ∩· · ·∩Aik ) = P (Ai1 ) · · · P (Aik ) gilt k k � � P( Aij ) = P (Aij ) j=1 j=1 unabhängige standard normalverteilte Zustandsvariable : Seien U1 und U2 zwei unabh¨ ZV � angige auf [0, 1] gleichverteilte � setze: X= −2ln(U1 )cos(2πU2 ); Y= −2ln(U1 )sin(2πU2 ) dann sind X,Y unabhängige standard normalverteilte ZVs. uiv : = unabhängig identisch verteilt Unabhängigkeit von Zufallsvariablen : X1 , . . . , Xn n ∈ N wenn alle Ereig­ nisse der Form {Xi ∈ Bi }, Bi ∈ B(R) i=1, . . . , n unabhängig sind. ungeordent mit Wiederholung : falls man nicht die Reihenfolge berück­ sichtigt und die Elemente wiederholt ausgew¨ahlt werden d¨ urfen ⇒ {ωi1 , . . . , ωik } (k ≤ n) = Menge und ∀j �= k gilt ωij �= ωik ungeordent ohne Wiederholung : falls man die Reihenfolge nicht registriert und kein Element mehr als einmal gewählt werden darf ⇒< ωi1 , . . . , ωik > (k ≤ n) = Sammlung von Elementen aus Ω mit Vielfachheit zwischen 0 und k unkorreliert : falls Cov(X,Y) = 0 und damit ρ(X, Y ) = 0 gilt, so heißt X und Y unkorreliert. UO : ungeordnet ohne Wiederholung V Varianz : Die Größe V(X) = E((X − E(X))2 ) heißt Varianz W 13 Versuchsreihe : unabh¨ angige Ausf¨ uhrung von Experimenten Bsp: 2 Experi­ mente W-räume (Ω1 ,A1 ,P1 ), (Ω2 ,A2 ,P2 ) ⇒ Ω1 × Ω2 = {(ω1 , ω2 )} ist der grund­ raum aller ω das kombinierte Experiment (zuerst 1., dann 2.) A1 × A2 = im Experiment1 tritt A1 und in Experiment2 tritt A2 ein definiere A1 ⊗A2 als kleinste σ-Algebra die alle Ereignisse A1 × A2 enthält ⇒ P(A1 × A2 ) := P1 (A1 ) · P2 (A2 ) heißt Produktmaß Verteilung : Sei (Ω,A,P) ein W-raum, X feste Zuvallsvariable. Dann können wir für jedes B ∈ B(R) den Wert P (X ∈ B) = P (X −1 (B)) ermitteln ⇒ Abbildung PX von B(R) und [0, 1] : PX (B) := P (X ∈ B) ⇒ PX = V erteilung → Die Funktion F(x) = PX ((−∞, x)) = P (X < x) heißt Verteilungsfunktion von X Satz: PX ist ein W-maß auf (R,B(R)) W Wärmeleitungsgleichung : Verteilung B(t), Dichte p(t,x) ⇒ WLGL: ( δδt − 1 δ2 2 δx2 )p(t, x) = 0 Wärmeleitungskern : siehe Wienerprozess W-keit : = Wahrscheinlichkeit W-maß : = Wahrscheinlichkeitsmaß W-raum : = Wahrscheinlichkeitsraum Wahrscheinlichkeit : Sei Ω der Grundraum aller Elementarereignisse eines Experiments, A eine σ-Algebra von Ereignissen. Falls P ein W-maß auf (Ω,A) ist, so heißt für iedes A ∈ A, P(A) die Wahrscheinlichkeit des Ereignisses A. Wahrscheinlichkeiten : Ω = {ω1 , . . . , ωn } endlich, falls wir wählen p1 , . . . , pn ∈ n � [0, 1] mit pi = 1 dann k¨onnen wir P({ωi }) = pi f¨ ur die W-keit des Er­ i=1 eignisses setzen. ⇒ wir erhalten ein W-maß auf (Ω,(P )(Ω)) k k � � P(A) = P ({wij }) = pj mit A = {wi1 , . . . , wik } j=1 j=1 Wahrscheinlichkeitsmaß : Es werden alle Voraussetzungen von einem Maß benötigt und dazu: iii) P(Ω) = 1 Wahrscheinlichkeitsmaß mit α : Sei Ω ein Grundraum, A eine σ-Algebra, P1 , . . . , Pn W-maße, α1 , . . . , αn Zahlen in [0, 1] mit α1 + · · · + αn = 1 n n � � ⇒ P := αk Pk ⇒ P (A) = αk Pk (A) A ∈ A k=1 k=1 X 14 Wahrscheinlichkeitsmaß mit Integral : Sei Ω = R, A = B(R), f stückweise �stetig + positiv mit f (x)dx = 1 dann definiert: R � P(A) := f (x)dx, A ⊂ B(R) ein W-maß auf (R,B(R)) A Wahrscheinlichkeitsraum : Das Tripel (Ω,A,P) heißt Wahrscheinlichkeits­ raum Wahrscheinlichkeitstheoretische Interpretationen für Operationen auf Mengen : Ω = sicheres Ereignis, � = unmögliches Ereignis A ∪ B = A oder B tritt ein , A ∩ B = A und B tritt ein Ac = A tritt nicht ein , A � B = entweder A oder B tritt ein A \ B = A tritt ein und B nicht , A ⊂ B = A zieht B nach sich ∞ An = für ein gewisses n ∈ N tritt An ein n=1 ∞ � An = für alle n ∈ N tritt An ein n=1 lim inf (An ) := n lim sup(An ) := n ∞ ∞ � n=1 k=n ∞ ∞ � Ak = für fast alle n ∈ N tritt An ein Ak = für unendlich viele n ∈ N tritt An ein n=1 k=n Wienerprozess : Wir w¨ ahlen T=R+ als Bereich f¨ ur den Zeitparameter. Ein Prozess B=(B(t), t ≥ 0) heißt Wienerprozess falls gilt: i) B(0) = 0 (fast sicher) ii) B hat unabh¨ angige, station¨are Zuw¨achse iii) der Zuwachs B(t) - B(s), 0 ≤ s ≤ t ist N(0,t-s)-verteilt iv) die Pfade von B sind fast sicher stetig Meist ist es die Dichte ft1 ,...,tn (x1 , . . . , xn ) in dem Zeitpunkt t1 , . . . , tn der gemeinsam verteilten ZVs B(t1 ), . . . , B(tn ) zu kennen. ⇒ Falls 0 < t1 < . . . < tn gilt: ft1 ,...,tn (x1 , . . . , xn ) = p(t1 , x1 )p(t2 − t1 , x2 − x1 ) · · · p(tn − 2 1 exp(− x2t ) x ∈ R, t > 0 der soge­ tn−1 , xn − xn−1 ) wobei p(t, x) = √2πε nannte Wärmeleitungskern ist X Y Z Zentraler Grenzwertsatz : Sei (Xn , n ∈ N ) eine Folge von uiv ZVs mit E(X1 ) = µ und V(X1 ) = σ ¿ 0. Falls die momenterzeugende Funktion ψX1 auf ganz R endlich und in einer Umgebung des Ursprungs zweimal stetig diffbar ist, dann konvergiert die Folge (Zn , n ∈ N ), definiert durch n −nµ √ ,n ∈ N Zn = X1 +···+X nσ 2 Z 15 Zufallsvariable : Ist (Ω, A, P ) ein W-raum, so heißt eine meßbare Abbildung X von Ω nach R eine Zufallsvariable Zufallszahlenalgorithmus : Zn = a·Zn−1 +cmodM (Z0 = seed) a, c, M ∈ N = kongruente Generatoren mit c=0 == multiplikativ kongruente oder einfach kongruente Generatoren Lemma: Sei X stetig verteilt mit Dichte fx und Verteilungsfunktion Fx �∞ Fx (x) = fx (y)dy, x ∈ R. Dann ist die ZV Fx ◦ X auf [0, 1] gleichver­ −∞ teilt. Korollar:Sei U eine auf [0, 1] gleichverteilte ZV. Dann hat Fx−1 ◦U diessel­ be Verteilung wie X = Mthode der inversen Verteilungsfunktion = Trans­ formationsmethode Zustandsraum : siehe stochastischer Prozess ZV : = Zufallsvariable zweidimensionale Brownsche Bewegung : BBW in der Ebene = 2 BBW: jeweils für die x- und y-Koordinate: B(t) = (B1 (t), B2 (t)) zweite Monte-Carlo-Methode : Sei Z=f ◦ X wobei X eine auf [0, 1] gleich­ �1 verteilte ZV. Dann gilt mit dem Transformationssatz E(Z) = f (x)dx ⇒ 0 fast sicher 1 � 1 f (x)dx n 0 Zylindermenge : ((Ωn , An , Pn )n ∈ N ) Ω = � Ωn ω ∈ Ω = (ω1 , . . . , ωn , . . .) n∈N A = ⊗An mit A = A1 × · · · × An × · · · wobei nur endlich viele An ∈ An verschieden von Ωn sind ⇒ A = Ω1 ×· · ·×Ai1 ×Ωi+1 ×· · ·×Ai2 ×· · · ⇒ P (A) = Pi1 (Ai1 ) · · · Pik (Aik ) INHALT 16 Inhalt A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 1 1 Bayes’sche Formel . . . . . . . . . . BBW . . . . . . . . . . . . . . . . . bedingte diskrete Dichte . . . . . . . BE . . . . . . . . . . . . . . . . . . . bedingte Entropie . . . . . . . . . . bedingte Erwartung . . . . . . . . . bedingte Erwartung (Vorbereitung) . bedingte Erwartung 1 . . . . . . . . bedingte Erwartung 2 . . . . . . . . Fakt zwischen BE2 und BE3 . . . . bedingte Erwartung 3 . . . . . . . . bedingte Erwartung 4 . . . . . . . . bedingte Erwartung 5 . . . . . . . . bedingte Erwartung 6 . . . . . . . . bedingte Erwartung 7 . . . . . . . . bedingte Erwartung 8 . . . . . . . . bedingte Erwartung 9 . . . . . . . . bedingte Erwartung 10 . . . . . . . . bedingte Erwartung 11 . . . . . . . . bedingte Wahrscheinlichkeit . . . . . Bernoullie-Experiment . . . . . . . . Bernoullie-Zufallsvariable . . . . . . Binomialverteilte Zufallsvariable . . Borelmenge . . . . . . . . . . . . . . Brownsche Bewegung . . . . . . . . Brownsche Bewegung Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 Cauchyverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Chapman-Kolmogorov-Gleichung . . . . . . . . . . . . . . . . . . . . . charakteristische Funktion von X . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 Dichte . . . . . . . . . . . . . . . . . . Diracmaß . . . . . . . . . . . . . . . . diskret verteilt . . . . . . . . . . . . . diskrete Gleichverteilung . . . . . . . . diskrete Wahrscheinlichkeitsverteilung 3 3 3 3 3 3 a posteriori Wahrscheinlichkeiten absolut stetig verteilt . . . . . . . antiton . . . . . . . . . . . . . . . Axiom zur σ − Algebra . . . . . . . . . B C D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INHALT 17 E Elementarereignis . . . . . . . . Entropie . . . . . . . . . . . . . Ereignis . . . . . . . . . . . . . Ergodenkette f¨ ur Markovketten Erwartungswert . . . . . . . . . E bei X Bernoulli ZV . . . . . E bei X normalverteilt . . . . . Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . F 4 4 4 4 4 4 4 4 4 4 G . . . . . . . . . . . . 4 4 4 4 5 5 5 5 5 5 5 5 5 ’hit and miss’-Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . isoton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 Gaußfunktion . . . . . . . . . . . . gemeinsame Entropie . . . . . . . . gemeinsame Verteilung . . . . . . . gemeinsame Verteilungsfunktion . geometrische Brownsche Bewegung geordent ohne Wiederholung . . . geordent mit Wiederholung . . . . Gleichverteilung auf [a, b] . . . . . GM . . . . . . . . . . . . . . . . . GO . . . . . . . . . . . . . . . . . . gr¨ oßte σ-Algebra . . . . . . . . . . Grundmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H I J 6 K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 6 6 6 6 7 Laplace-Experiment . . . . . . . . . . . . Lebesguemaß . . . . . . . . . . . . . . . . Lemma i (eidwt) . . . . . . . . . . . . . . Lemma ii (eidwt) . . . . . . . . . . . . . . Lemma zur bedingten Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 7 7 7 kleinste σ-Algebra . Kodierung . . . . . . Konstruktionsprinzip Konvergenz (eidwt) . Korrelation . . . . . Kovarianz . . . . . . KV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . L INHALT 18 Lemma zu meßbar und Zufallsvariablen . . . . . . . . . . . . . . . . . 7 Markoveigenschaft . . . . . . . . . . . . . . . . . . . . . . Markovprozess . . . . . . . . . . . . . . . . . . . . . . . . Martingal . . . . . . . . . . . . . . . . . . . . . . . . . . . Martingalkette . . . . . . . . . . . . . . . . . . . . . . . . Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . meßbar . . . . . . . . . . . . . . . . . . . . . . . . . . . . Methode der kleinsten Fehlerquadrate nach Gauß-Laplace Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . mittlerer Informationsgehalt . . . . . . . . . . . . . . . . . ¨ mittlere Uberaschung . . . . . . . . . . . . . . . . . . . . Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . momenterzeugende Funktion von X . . . . . . . . . . . . . Monte-Carlo-Methoden . . . . . . . . . . . . . . . . . . . MTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 7 7 7 8 8 8 8 8 8 8 8 8 8 n-tes Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 8 ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ω. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 8 Pfad . . . . . . . Poissonprozess . Poisonverteilung Produktmaß . . . 9 9 9 9 9 M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . N O P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Q 9 R realisiert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . S S1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . S3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . S4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . Satz von Bienaym . . . . . . . . . . . . . . . . . . . . . Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . Satz von Poisson . . . . . . . . . . . . . . . . . . . . . . Satz von Shannon . . . . . . . . . . . . . . . . . . . . . Satz zum Produkt . . . . . . . . . . . . . . . . . . . . . Satz zur Anzahl der M¨ oglichkeiten . . . . . . . . . . . . Satz zur gemeinsamen Verteilung und dem Produktmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 9 9 9 9 9 9 10 10 10 10 10 10 INHALT σ − Algebra . . . . . . . . . . . Standardabweichung . . . . . . . Starkes Gesetz der großen Zahlen Stetigkeit von W-maßen . . . . . (absolut) stetig verteilt . . . . . . Stetigkeitslemma von P. Lvy . . stochastischer Prozess . . . . . . Streuung . . . . . . . . . . . . . 19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 11 11 11 11 11 11 Transformationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 ¨ Uberraschung . . . . . . . . . . . . . . . . . . . . . . . . UM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . unabh¨ angig (eidwt) . . . . . . . . . . . . . . . . . . . . . unabh¨ angig (2 Ereignisse) (eidwt) . . . . . . . . . . . . unabh¨ angige standard normalverteilte Zustandsvariable uiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Unabh¨ angigkeit von Zufallsvariablen . . . . . . . . . . . ungeordent mit Wiederholung . . . . . . . . . . . . . . . ungeordent ohne Wiederholung . . . . . . . . . . . . . . unkorreliert . . . . . . . . . . . . . . . . . . . . . . . . . UO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 12 12 12 12 12 12 12 12 12 12 Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Versuchsreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 13 13 T U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V W W¨ armeleitungsgleichung . . . . . . . . . . . . . . W¨ armeleitungskern . . . . . . . . . . . . . . . . . W-keit . . . . . . . . . . . . . . . . . . . . . . . . W-maß . . . . . . . . . . . . . . . . . . . . . . . W-raum . . . . . . . . . . . . . . . . . . . . . . . Wahrscheinlichkeit . . . . . . . . . . . . . . . . . Wahrscheinlichkeiten . . . . . . . . . . . . . . . . Wahrscheinlichkeitsmaß . . . . . . . . . . . . . . Wahrscheinlichkeitsmaß mit α . . . . . . . . . . . Wahrscheinlichkeitsmaß mit Integral . . . . . . . Wahrscheinlichkeitsraum . . . . . . . . . . . . . . Wahrscheinlichkeitstheoretische Interpretationen f¨ ur Operationen auf Mengen . . . . . . . . . Wienerprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 13 13 13 13 13 13 13 13 14 14 . . . . . . . . . . . . . . . . . . . . . . . . 14 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . X 14 Y 14 INHALT 20 Z Zentraler Grenzwertsatz . . . . . . . . . Zufallsvariable . . . . . . . . . . . . . . Zufallszahlenalgorithmus . . . . . . . . . Zustandsraum . . . . . . . . . . . . . . . ZV . . . . . . . . . . . . . . . . . . . . . zweidimensionale Brownsche Bewegung zweite Monte-Carlo-Methode . . . . . . Zylindermenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 14 15 15 15 15 15 15 15