Skript_Einführung-in-die-Wahrscheinlichkeitstheorie_Ralf

Werbung
Stichworte der Einführung in die
Wahrscheinlichkeitstheorie
(entstanden aus dem Einführung in die Wahrscheinlichkeitstheorie Skript
von Herrn Prof Dr Potthof)
Author: Ralf Nicklas
Stand: 24. Januar 2006
A
1
A
a posteriori Wahrscheinlichkeiten : P (Bk |A)
absolut stetig verteilet : siehe stetig verteilt
antiton : Folge (An , n ∈ N ) falls An+1 ⊂ An ∀n ∈ N gilt lim An :=
n
∞
�
An
n=1
falls (An , n ∈ N ) antiton ist
Axiom zur σ − Algebra : Sei Ω der Grundraum der Elementarereignisse eines
Experiments. Die Menge aller Ereignisse A ist eine Familie von Teilmengen
von Ω, die eine σ − Algebra bildet.
B
Bayes’sche Formel : Sei B1 , . . . , Bn ∈ A eine Zerlegung von Ω mit P (Bk ) > 0
k=1, . . . , n und A ∈ A mit P(A)¿0. Es gilt für k ∈ {1, . . . , n}
P (A|Bk )P (Bk )
k)
k )P (Bk )
P (Bk |A) = P (A∩B
= P (A|B
= �
n
P (A)
P (A)
P (A|Bk )P (Bk )
k=1
BBW : = Brownsche Bewegung
bedingte diskrete Dichte : siehe diskrete Wahrscheinlichkeitsverteilung
BE : = bedingte Erwartung
p(x ,y )
bedingte Entropie : mit bedingter Dichte p(xi , yi ) = pY i(yjj) = P (X = xi |Y =
�
�
yj ) ⇒ H(X, Y = yj ) = − log2 (p(xi |yj ))p(xi |yj ) = − log2 (p(xi |Y ))p(xi |Y )
i
i
Lemma: H(X|Y ) = H(Y ) + E(H(X|Y ))
Satz: E(H(X|Y )) ≤ H(x)
bedingte Erwartung : Eine ZV, die BE1 und BE2 erfüllt, heißt die bedingte
Erwartung von X gegeben Y und wird mit E(X|Y ) notiert.
�
bedingte Erwartung (Vorbereitung) : Setze Z:= E(X|Y ) ⇒ Z(ω) = xi p(xi |y) ∀ω ∈
i
�
�
Ω mit Y (ω) = y ⇒ Z = xi p(xi |Y ) oder Z = g◦Y mit g(y) = xi p(xi , y)
i
⇒ BE1 − BE11
i
bedingte Erwartung 1 : Z ist eine Funktion von Y, d.h. es gibt eine meßbare
Funktion g, so dass Z(ω) = g(Y(ω)), ω ∈ Ω
�
�
bedingte Erwartung 2 : Für jedes B ∈ B(R) gilt:
ZdP =
XdP
{Y ∈B}
�
�
� {Y ∈B}
⇒
ZdP =
E(X|Y )dP = · · · =
XdP
{Y ∈B}
{Y ∈B}
{Y ∈B}
Fakt zwischen BE2 und BE3 : Seien X,Y zwei ZV auf einem W-raum, X
integreirbar oder positiv. Dann gibt es eine ZV Z, die die Eigenschaften
BE1 und BE2 hat und fast sicher eindeutig ist (falls Z’ eine andere solche
ZV ist gilt P(Z=Z’)=1 )
B
2
bedingte Erwartung 3 : E(·|Y ) ist linear: seien X1 , X2 reellwertige ZV α1 , α2 ∈
R. Dann �gilt fast sicher E(α1 X�1 + α2 X2 |Y ) = α1 E(X1 |Y ) + α2 (X2 |Y ) au­
ßerdem: f (Y )E(X|Y )dP = f (Y )XdP
bedingte Erwartung 4 : Für jede meßbare Funktion f (derart, dass die Inte­
grale
existieren) gilt die Gleichung:
�
f (Y )E(X|Y )dP = intf (Y )XdP
bedingte Erwartung 5 : Für jede Konstante C gilt E(C|Y ) = C
bedingte Erwartung 6 : F¨
ur jede meßbare Funktion ϕ gilt E(ϕ(Y )X|Y ) =
ϕ(Y )E(X|Y )
bedingte Erwartung 7 : E(E(X|Y )|Y ) = E(X|Y )
bedingte Erwartung 8 : E(E(X|Y )) = E(X)
bedingte Erwartung 9 : E(·|Y ) ist symmetrisch im Sinne, dass für alle X, Z
E(Z|E(X|Y )) = E(E(Z|Y )|X) gilt
bedingte Erwartung 10 : Sei ϕ meßbar, Y=ϕ(Z). Es gilt E(E(X|Z)|Y ) =
E(X|Y )
bedingte Erwartung 11 : Falls X und Y unabhängig sind, gilt E(X|Y ) =
E(X)
bedingte Wahrscheinlichkeit : Sei (Ω,A,P) ein W-raum, B ∈ A mit P(B)¿0,
A∈A
⇒ P (A|B) = P P(A∩B)
(B) = bedingte Wahrscheinlichkeit von A unter B
⇔ P (A ∩ B) = P (A|B) · P (B)
Bernoullie-Experiment : Ω = R, A = B(R), x1 , x2 ∈ R, x1 �= x2 , p ∈ [0, 1],
P1 = εx1 , P2 = εx2 dann ist P = pεx1 + (1-p)εx2
⇔ 2 Elemtarereignisse die nicht unmöglich sind
p
f alls x1 ∈ [a, b] + x2 ∈
/ [a, b]
/ [a, b] + x2 ∈ [a, b]
1 − p f alls x1 ∈
Bernoullie-Zufallsvariable : P (X ∈ [a, b]) = {
1
f alls x1 ∈ [a, b] + x2 ∈ [a, b]
0
sonst
mit x1 , x2 ∈ R, x1 �= x2 , p ∈ [0, 1] und W = pεx1 + (1 − p)εx2
Binomialverteilte Zufallsvariable : mit Parametern (n,p), n ∈ N , p ∈ [0, 1]:
n � �
�
n k
n−k
W=
εk
k p (1 − p)
k=0
→ wobei x fast sicher die Werte
� � k = 0, . . . , n annimmt und dabei den Wert
k mit Wahrscheinlichkeit nk pk (1 − p)n−k
Borelmenge : Sei Ω = R: Es gibt eine kleinste σ-Algebra B(R), die alle Inter­
valle enthält (=Boral-σ-Algebra)
oder auch Ω = Rn : B(Rn ) ist kleinste σ-Algebra, die alle Hyperquader
enthält.
Brownsche Bewegung : = Wienerprozess
C
3
Brownsche Bewegung Eigenschaften : * die BBW ist ein Markovprozess,
da P (B(t) ∈ A|{B(u), u ≤ s}) = P (B(t) ∈ A|B(s)) gilt
die BBW ist ein Martingal, da: sei t ≥ s > 0
E(B(t)|{B(u), u ≤ s}) = . . . = B(s)
C
Cauchyverteilung : f(x) =
1 1
π 1+x2
Chapman-Kolmogorov-Gleichung : Sei n, k in N0 dann gilt für jede Wahl
von m zwischen k und k+n �
und alle i,j in N
P(X(k+n)) = i(X(k)=j) =
P (X(k + n)) = i(X(m =) = l)P (X(m) =
l
l|X(k) = j)
charakteristische Funktion von X : Sei f(x) = eiλx = cos(λx) + isin(λx)
⇒ Φ(λ) = E(eiλx ) λ ∈ R
D
Dichte : Fall wie bei (absolut) stetig verteilt ⇒ f heißt die Dichte der Verteilung
bzw. der Zufallsvariablen
Diracmaß : Sei Ω ein beliebiger Grundraum, A eine σ-Algebra von Ereignis­
1 f alls ω0 ∈ A
sen uber
Ω Ferner sei ω0 ∈ Ω. Setze: P(A):={
heißt
¨
0
sonst
Diracmaß in ω0 es wird mit εω0 bezeichnet.
∞
�
diskret verteilt : Sei {xn , n ∈ N } ∈ R, (pn , n ∈ N ), pn ∈ [0, 1],
das Maß W =
∞
�
pn = 1,
n=1
pn εxn ⇒ führt die Abbildung A �→ W (A) zu einer
n=1
Verteilung + damit zu einer diskret verteilten Zufallsvariablen
diskrete Gleichverteilung : x1 , . . . , xn ∈ R: W =
1
n
n
�
εxk
k=1
�
�
diskrete Wahrscheinlichkeitsverteilung : PX = px (xi )εxi ; PY = pY (yj )εyj
i
j
�
�
mit pX (xi ) = p(xi , yj ); pY (yj ) = p(xi , yj ) ¿ 0 ⇒ P (X = x|Y = y) =
j
P (X=x,Y =y)
P (Y =y)
i
P (x,y)
PY (y)
=
= p(x|y) Damit ist die Verteilung von X unter der
�
Bedingung Y=y als diskrete Wahrscheinlichkeitsverteilung:
p(xi |y)εxi
i
gegeben auf (R,B(R)) mit p(x|y) ist die bedingte (diskrete) Dichte von X
gegeben
� Y=y gegeben. ⇒ bedingte Erwartung von X unter Y=y: E(X|Y =
y) :=
xi p(xi |y) außerdem E(X|Y )(ω):= E(X|Y = y) für alle ω ∈ Ω mit
i
Y (ω) = y
E
4
E
Elementarereignis : ω ∈ Ω
¨
Entropie : = mittlerer Informationsgehalt = mittlere Uberaschung
n
�
E(S) = − (log2 (pi ))pi = iH(x)
i=1
�
man setzt auch: H(x):= − (log2 (ϕ(x)))ϕ(x)dx mit H(x) ≤ log2 (n)
R
Ereignis : A ist Menge von ω ⇒ A ⊂ Ω, A ∈ P(Ω) insbesondere ordnet man
ω ∈ Ω das Ereignis {ω} ⊂ Ω zu
Ergodenkette für Markovketten : Falls k0 ∈ N existiert, so dass Pi,j (k0 ) >
ur alle i,j in {1, . . . , n} dann ist die Markovkette ergodisch. Dabei ist
0 f¨
der Invariante Zustand α der eindeutig bestimmte Eigenvektor von P zum
Eigenwert 1
Erwartungswert : Sei X eine positive oder
� integrierbare Zufallsvariable auf
einem W-raum (Ω,A,P). Dann heißt XdP der mathematische ErwarA
tungswert
� oder Mittelwert von X
E(x) := XdP
Ω
�
g(x, y)f (x, y)dxdy
Anmerkung: E(g(X,Y)) = {
R2
∞
�
g(xi , yj )pij
gemeinsam stetig
gemeinsam diskret
i,j=1
Korollar: X1 , . . . , Xn unabhängig, f1 , . . . , fn meßbar
E(f1 (X1 ) · · · fn (Xn )) = E(f1 (X1 ))· · ·E(fn (Xn ))
�
E bei X Bernoulli ZV : E(f ◦ X) = f (x)dPx (X) = pf (1) + (1 − p)f (0)
E bei X normalverteilt : mit µ, σ ∈ R f=id:
�
2
1
E(X) = x √2πσ
exp(− (x−µ)
2
2σ 2 )dx = . . . = µ
Exponentialverteilung : λ > 0 f (x) = λ1R+ (x)e−λx
F
G
Gaußfunktion : f(x) =
2
√ 1
exp( −(x−µ)
2σ 2
2πσ 2
) mit µ, σ ∈ R
gemeinsame Entropie : X,Y ZVs mit gemeinsamer Verteilung PX⊗Y =
�
⇒ H(X,Y) = − log2 (p(xi , yk ))p(xi , yk )
�
p(xi , yj )ε(xi , yj )
i,j
i,j
gemeinsame Verteilung : V W-maß auf (R2 , B(R2 )), Ω = R2 , A = B(R2 ),
P = V, X = π1 , Y = π2 , πi = i − teP rojektion d.h. ω=(x,y)∈ R2 ist
π1 (ω) = x, π2 (ω) = y. Dann haben X, Y die gemeinsame Verteilung V
H
5
gemeinsame Verteilungsfunktion : wähle B = (−∞, x) × (−∞, x), x,y∈ R
dann heißt
FX◦Y ((x, y)) = PX◦Y ((−∞, x) × (−∞, y)) = P (X < x, Y < y) die ge­
meinsame Verteilungsfunktion von X und Y
λ2 t
geometrische Brownsche Bewegung : Sei T=R+ X(t):=eλB(t)− 2 t ∈ R+
mit λ ∈ R: Der stochastische Prozess (X(t), t ∈ R+ ) wird geometrische
BBW genannt und ist ein Martingal
geordent ohne Wiederholung : falls, man auf die Reihenfolge der Auswahl
achtet und kein element mehr als einmal gewählt werden darf
⇒ (ωi1 , . . . , ωik ) (k ≤ n) = k-Tupel
geordent mit Wiederholung : falls die Reihenfolge registriert wird und die
Elemente wiederholt ausgew¨ahlt werden d¨
urfen
⇒ (ωi1 , . . . , ωik ) = k-Tupel mit Einträgen aus Ω
Gleichverteilung auf [a,b :] sei a,b ∈ R, a¡b, f = (b − a)−1 1[a,b]
�
1
W(A) = b−a
1[a,b] (x)dx = λ(A∩[a,b])
b−a
A
wobei λ = Labesguemaß auf ([a, b], B([a, b])) ist
GM : geordnet mit Wiederholung
GO : geordnet ohne Wiederholung
größte σ-Algebra : P(Ω)
Grundmenge : Ω = sicheres Ereignis
H
’hit and miss’-Monte-Carlo-Methode : man sch¨atzt die Fl¨ache unter dem
Graphen von f dadurch, dass man n viele Punkte gleichverteilt im Qua­
drat [0, 1] × [0, 1] erzeugt und den Anteil bestimmt der unter dem Gra­
phen liegt. Seien X, Y unabhängig auf [0, 1] gleichverteilte ZVs setze Z
�1
= 1{Y ≤f (X)} (= Bernoullie-ZV) ⇒ p = f (x)dx und es gilt E(Z) = p
0
⇒
1
n
n
�
Zk →n→∞
1
�1
f (x)dx
0
Hypothese : Bk
I
Irrfahrt : Sei T = N0 und betrachte eine uiv Folge (Y (n), n ∈ N ) von Bernoul­
lizufallsvariablen zu Parameter p ∈ [0, 1], mit Werten -1 und 1, P (Yi =
n
�
1) = p. Setze X(0) = 0 und X(n) :=
Y (i) n ∈ N ⇒ der stochastische
i=1
Prozess (X(n), n ∈ N0 ) heißt Irrfahrt.
J
6
∞
isoton : Folge (An , n ∈ N ) falls An ⊂ An+1 ∀n ∈ N gilt lim An :=
n
An falls
n=1
(An , n ∈ N )isoton ist
J
K
kleinste σ-Algebra : A = {Ω, �}
Kodierung : X nehme die Werte x1 , . . . , xN , N ∈ N an. Es gibt genau dann
are Kodierung von x1 , . . . , xN mit L¨angen n1 , . . . , nN , wenn gilt
eine bin¨
N
�
2−ni ≤ 1
i=1
Kodierung ist m¨
oglich falls f¨
ur alle n in N gilt:
n
�
i=1
2−j ωj ≤ 1 ⇔
N
�
2−ni ≤
i=1
1
Konstruktionsprinzip : Sei W W-maß auf (R,B(R)). Dann gibt es einen W­
raum (Ω,A,P) und darauf eine Zufallsvariable X, so dass W gleich der
Verteilung PX von X ist. Man wählt ganz einfach:
Ω = R, A = B(R), P = W, X = id
⇒ X(ω) = ω für ω ∈ Ω = R noch zu zeigen dass PX = W PX ((−∞, x)) =
P (X ∈ (−∞, x)) = P ({ω, X(ω) < x}) = P ({ω, ω < x}) = W ({ω, ω <
x}) = W ((−∞, x))
Konvergenz (eidwt) : (Xn , n ∈ N ) sei eine Folge von reellwertigen ZVs auf
einem W-raum (Ω,A,P), X sei ZV auf (Ω,A,P)
i) (Xn , n ∈ N ) konvergiert fast sicher gegen X, wenn P ({ω; Xn (ω) →n→∞
X(ω)}) = 1
ii) (Xn , n ∈ N ) konvergiert stochastisch gegen X, wenn f¨
ur jedes � > 0:
P ({ω; |Xn (ω) − X(ω)| > �}) →n→∞ 0
iii) (Xn , n ∈ N ) konvergiert in Verteilung gegen X, wenn die Folge (PXn , n ∈
N ) der Verteilung von (Xn , n ∈ N ) schwach gegen die Verteilung
PX kon­
�
vergiert,
d.h.
wenn
f¨
ur
alle
beschr¨
ankte,
stetige
Funktionen
f:
f
(x)dP
Xn (x) →n→∞
�
f (x)dPX (x) gilt
iv) (X
� n , n ∈ N ) konvergiert im p-ten Mittel oder in L’(P), p ≥ 1 gegen X
falls |Xn − X|p dP →n→∞ 0
 Ω

KV in L� (P ), p ≥ 1


⇓


1
 f ast sichere KV ⇒ stochastische KV

⇐ KV in L (P ) 



⇓
KV in V erteilung
Korrelation : Falls die Varianz V(X), V(Y) verschwinden, so heißt die Größe
ρ(X, Y ) = √Cov(X,Y ) die Korrelation
V (X)V (Y )
Kovarianz : Sei X, Y quadratintegrierbare ZV. Dann heißt
Cov(X,Y) = E((X-E(X))(Y-E(Y))) die Kovarianz von X und Y
L
7
Korollar: Sei X und Y unabhängig mit endlicher Varianz, dann sind X
und Y unkorreliert: Cov(X,Y) = 0
KV : = Konvergenz
L
Laplace-Experiment : endlicher Grundraum und alle elementarereignisse sind
gleichwahrscheinlich. hier gilt:
k
�
p = n1 ⇒ P(A) = |A|
P ({ωij }) = k · n1 mit A = {ωi1 , . . . , ωik }
|Ω| =
j=1
Lebesguemaß : Sei Ω = [0, 1], A = B([0, 1]), d.h. unser Experiment produziert
eine reelle Zahl zwischen 0 und 1. Es gibt ein W-maß λ, das jedem Intervall
[a, b] in [0, 1] als W-keit dessen Länge zuordnet: λ([a, b]) = b − a
Lemma i (eidwt) : Sei X1 , . . . , Xn unabhängig. Dann gilt PX1 +···+Xn = PX1 · · · PXn
Lemma ii (eidwt) : Sei X1 , . . . , Xn unabhängige ZVs mit momenterzeugende
Funktionen ψX1 , . . . , ψXn . Dann gilt ψX1 +···+Xn (t) = ψX1 (t) · · · ψXn (t) t ∈
R Falls X1 , . . . , Xn uiv ZVs sind, gilt insbesondere ψX1 +···+Xn (t) = (ψX1 (t))n
Lemma zur bedingten Wahrscheinlichkeit : Sei A1 , . . . , An ∈ A dann gilt
P(A1 ∩. . .∩An ) = P (A1 )·P (A2 |A1 )·P (A3 |A1 ∩A2 ) · · · P (An |A1 ∩· · ·∩An−1 )
Lemma zu meßbar und Zufallsvariablen : Sei (Ω, A) vorgelegt, g eine meß­
bare Funktion von Ω nach R, f eine meßbare Funktion von R nach R. Dann
ist f ◦ g meßbar
⇔ Die Komposition meßbarer Abbildungen ist meßbar
⇒ f ◦ X ist eine Zuvallsvariable
M
Markoveigenschaft : P (X(n + 1) ∈ B|X(0), . . . , X(n)) = P (X(n + 1) ∈
B|Xn )
Interpretattion: Der Prozess hat kein Gedächtnis
Markovprozess : Prozess mit ME z.B. Irrfahrt
Martingal : ein stochastischer Prozess (X(n), n ∈ N ) mit der Eigenschaft
MTG für alle n in N heißt Martingal z.B. ist die Irrfahrt ein Martingal
wenn p= 12 ist
Martingalkette : (X(t), t ∈ T ) ein stochastischer Prozess mit diskreter Zeit
T=N0 oder T={0, . . . , n} der die Markoveigenschaft erfüllt ⇔ Markovket­
te
Maß : Sei Ω eine Menge, A eine σ-Algebra uber
Ω, P eine Abbildung von A
¨
¯ + := [0, +∞]
nach R
P heißt Maß, falls gilt:
i) P(
N
8
oslash) = 0
ii) P ist σ-additiv: falls (An , n ∈ N ) eine paarweise disjunkte Folge in A
∞
�
ist, so gilt: P( ∞
P (An )
n=1 An ) =
n=1
ME : = Markoveigenschaft
meßbar : Sei Ω eine Menge, A eine σ-Algebra über Ω, f eine reellwertige Funk­
tion auf Ω mit f −1 ((−∞, x)) ∈ A∀x ∈ R
⇒ f heißt meßbar
Fakt: f ist genau dann meßbar, wenn f¨
ur jede Borelmenge B ∈ B(R) f −1 (B) ∈
A gilt
Methode der kleinsten Fehlerquadrate nach Gauß-Laplace : Die größte
E((X − g(Y ))2 ), g meßbare Funktion, hat bei g(Y) = E(X|Y ) ihr Mini­
mum
Mittelwert : siehe Erwartungswert
¨
mittlerer Informationsgehalt : = Entropie = mittlere Uberraschung
¨
mittlere Uberaschung
: = Entropie = mittlerer Informationsgehalt
Moment : siehe auch n-tes Moment
momenterzeugende Funktion von X : ψ(λ) = E(eλX ) λ ∈ R
Monte-Carlo-Methoden : Methoden zur numerischen Berechnung von Inte­
gralen zum Beispiel siehe auch:
’hit and miss’-Monte-Carlo-Methode
zweit Monte-Carlo-Methode
MTG : = Martingaleigenschaft (siehe auch Martingal)
E(X(n + 1)|X(1), . . . , X(n)) = X(n)
N
n-tes Moment : Sei X ZV: E(X n ) heißt das n-te Moment von X
siehe Erwartungswert
Normalverteilung : N(µ, σ 2 ), µ, σ ∈ R:
� 1
2
W(A) = √2πσ
exp(− (x−µ)
2
2σ 2 )dx A ∈ B(R)
A
O
ω : ω = Elementarereignis
Ω : Ω = Grundraum aller Elemtarereignissen
P
9
P
Pfad : von einem stochastischen Prozess X ist eine zufällige reellwertige Funk­
tion auf T
Poissonprozess : T=R+ , (X(t), t ≥ 0) ein stochastischer Prozess mit
i) X(0) = 0 fast sicher
ii) unabh¨
angige, station¨are Zuw¨achse
iii) die Zuwächse X(t) - X(s), s¡t habe die Poissonverteilung mit Parameter
λ(t − s), λ > 0
heißt Poissonprozess mit Rate λ
→ Markovprozess aber kein Martingal
Poisonverteilung : mit Parameter λ > 0: W = e−λ
∞
�
k=0
1 k
k ! λ εk
⇒ X nimmt fast sicher Werte in N0 an, dabei für k ∈ N
k
P(x=k) = e−λ λk!
Produktmaß : siehe Versuchsreihe
P1 ⊗ P2 = P
Q
R
realisiert : Ist A Ereignis und gilt ω ∈ A ⇒ ω realisiert A
S
S1 : S(1) = 0
S2 : S strikt monoton fallend auf (0, 1]
S3 : S ist stetig auf (0, 1]
ur alle p,q in (0, 1]
S4 : S(pq) = S(p) + S(q) f¨
Satz von Bayes : Sei B1 , . . . , Bn ∈ A eine (paarweise disjunkte) Zerlegung
von Ω d.h. Ω = nk=1 Bk
Dann kann man jedes Ereignis A ∈ A nach {Bk , k = 1, . . . , n} zerlegen:
A = nk=1 (Bk ∩ A)
n
n
�
�
RightarrowP (A) =
P (A|Bk )P (Bk ) =
P (Bk ∩ A)
k=1
k=1
Satz von Bienaym : X1 , . . . , Xn seien paarweise unkorrelierte ZVs. Dann gilt:
V(X1 + · · · + Xn ) = V(X1 )+ · · · +V(Xn )
S
10
Satz von Fubini : Sei f reellwertig, meßbare Funktion auf Ω1 × Ω2
a) Für jedes ω1 ∈ Ω1 ist die Funktion f(ω1 , ·) auf Ω2 meßbar
ur jedes ω1 ∈ Ω1 die Funktion
b) Falls f¨
f(ω1 , ·) positiv oder µ2 -integrierbar
�
ist, dann ist die Funktion ω1 �→ f (ω1 , ω2 )dµ(ω2 ) auf Ω1 meßbar
� Ω2�
c) f ist µ1 ⊗ µ2 -integrierbar⇔ ( |f (ω1 , ω2 )|dµ2 (ω2 ))dµ1 (ω1 ) < +∞
Ω1 Ω2
d) amaloge Aussage zu a), b) und c) gelten mutatis mutandis, wenn die
Rolle der Indizes 1 und 2 vertauscht ist
�
e) Falls f positiv oder µ1 ⊗ µ2 -integrierbar ist, dann gilt
f dµ1 ⊗ µ2 =
Ω
×Ω
1
2
� �
� �
( f (ω1 , ω2 )dµ2 (ω2 ))dµ1 (ω1 ) ( f (ω1 , ω2 )dµ1 (ω1 ))dµ2 (ω2 )
Ω1 Ω2
Ω2 Ω1
Merke: Dei der Integration bezüglich eines Produktmaßes kann man die
Integration Variable f¨
ur Variable durchf¨
uhren und es kommt nicht auf die
Reihenfolge der Integration an.
Satz von Poisson : Sei (Xn , n ∈ N ) eine Folge von binomialverteilte ZV, wo­
bei Xn Parameter (n,pn ) mit lim npn = λ > 0 hat. Dann konvergiert
n
(Xn , n ∈ N ) in Verteilung gegen eine Poissonzufallsvariable mit Parame­
ter λ
Satz von Shannon : Für jede Kodierung C einer ZV X mit Werten x1 , . . . , xN
gilt E(LC ) ≥ H(X)
Satz zum Produkt : Gegeben seien k Mengen M1 , . . . , Mk mit |Mi | = ni ∈
N , i=1, . . . , k. Dann ist die Anzahl aller k-Tupel der Form (m1 , . . . , mk );
mi ∈ Mi i=1, . . . , k gleich
k
�
ni
i=1
Satz zur Anzahl der Möglichkeiten : zu den verschiedenen Proben gibt es
jeweils die folgende Anzahl von Möglichkeiten:
n!
GO: (n−k)!
Maxwell-Boltzmann-Statistik
� n�
UO: k Fermi-Dirac-Statistik
GM: �nk
�
UM: n+k−1
Bose-Einstein-Statistik
k
Satz zur gemeinsamen Verteilung und dem Produktmaß : Seien die ZV
X1 , . . . , Xn unabhängig. Dann ist die gemeinsame Verteilung PX1 ⊕···⊕Xn
gleich dem Produktmaß PX1 ⊕ · · · ⊕ PXn der Verteilung
σ − Algebra : Sei Ω eine Menge, A eine Menge von Teilmengen von Ω dann
heißt A σ-Algebra falls gilt:
i) Ω ∈ A
ii) für jedes A ∈ A gilt Ac ∈ A
∞
iii) für jede Folge (An , n ∈ N ) ∈ A gilt
An ∈ A
Bsp) A = {Ω, A, Ac , �}
Standardabweichung : siehe Streuung
n=1
T
11
Starkes Gesetz der großen Zahlen : Sei (Xn , n ∈ N ) eine unabhängige Fol­
ge von identisch verteilte ZVs, deren viertes Moment existiert. E(X14 ) ¡
n
�
−∞. Dann konvergiert snn mit sn =
Xn fast sicher gegen E(X1 )
k=1
Stetigkeit von W-maßen : Sei (An , n ∈ N ) eine isotone oder antitone Folge
von Ereignissen. Dann gilt:
P(lim An ) = lim P (An )
n
n
�
(absolut) stetig verteilt : f ≥ 0 st¨
uckweise stetige
Funktion mit f (x)dx =
�
1 ⇒ führt die Abbildung A �→ W (A) = f (x)dx zu einer Verteilung +
A
damit zu einer (absolut) stetig verteilten Zufallsvariablen
Stetigkeitslemma von P. Lvy : Sei (Yn , n ∈ N ) eine Folge von ZV mit exi­
stierenden momenterzeugenden Funktionen: ψYn (t) = E(exp(tYn )) < +∞
mit t in R und n in N. Ferner sei Y ZV mit existierender momenter­
zeugender Funktion ψY . Falls ψYn punktweise gegen ψY konvergiert, so
konvergiert Yn in Verteilung gegen Y.
stochastischer Prozess : Sei T eine Teilmenge von R+ , (Ω,B,P) ein W-raum,
(E,E ) ein meßbarer Raum (d.h. eine Menge, die mit einer σ-Algebra aus­
gestattet ist). Eine Abbildung T in einer Menge von ZV über (Ω,B,P) mit
Wertebereich E heißt stochastischer Prozess mit Zustandsraum E. (Die
Menge T wird typischerweise als Bereich eines Zeitparameters aufgefasst.
Gebräuchlich sin T \ N, R+ )
Notationen:
X(t)(ω) ≡ X(t, ω) ≡ Xt (ω) mit t in T und ω ∈ Ω
�
Streuung : von X: V (X) (oder auch Standardabweichung)
T
Transformationssatz : Sei (Ω,A,µ) Maßraum, (Ω� ,A� ) Meßraum, g meßbare
Abbildung von Ω nach Ω� . Auf (Ω� ,A� ) sei µg (A� ) := µ(g −1 (A� )), A’ ∈ A�
�
ein Maß. Sei f reellwertige, meßbare
Funktion
�
� auf Ω , die positiv oder
µg -integrierbar ist. Dann gilt f ◦ gdµ =
f dµg Fakt: sei Px (B) =
Ω
Ω�
�
�
φ(x)dxB ∈ B(R) mit φ(x) stückweise stetig, sowie φ ≥ 0 und φ(x)dx =
B
R
1 sei f stückweise stetig und somit messbar und so dass das (uneigentliche)
+�∞
Riemanintegral
|f (x)|φ(x)dx endlich ist. Dann gilt:
−∞
�
R
f dPx =
+�∞
f (x)φ(x)dx
−∞
+�∞
f dPx =
f (x)φ(x)dx mit X ZV und φ Dichte
R
� −∞
�
αn εxn , f meßbar und so dass die Reihe
αn f (xn )
Lemma: Sei Px =
n
n
�
�
absolut konvergiert. Dann gilt: f dPx = αn f (xn )
⇒ E(f ◦ X) =
�
R
n
U
12
U
Überraschung : S als Funktion der W-keit p ∈ [0, 1], p=0 bei großem S und
p=1 bei kleinem S siehe S1-S4
Satz: Eine Funktion auf (0, 1], die S1-S4 erf¨
ullt ist von der Form: S(p) =
-C log2 (p) wobei C eine positive Konsante ist. (Konvention: C=1)
UM : ungeordent mit Wiederholung
unabhängig (eidwt) : Sei (Xn , n ∈ N ) eine Folge von ZV aif einem W-raum
(Ω,A,P). Sie heißt unabh¨angig, falls f¨
ur jedes n ∈ N , jede Wahl von
k1 , . . . , kn ∈ N und jede Wahl xk1 , . . . , xkn ∈ R,
n
�
P(Xk1 < xk1 , . . . , Xkn < xkn ) =
P (Xkl < xkl )gilt
l=1
unabhängig (2 Ereignisse) (eidwt) : Seien A1 , . . . , An Ereignisse. Sie hei­
ßen unabh¨
angig falls f¨
ur jede Wahl von k ∈ {1, . . . , n} und jede Wahl von k
Ereignissen Ai1 , . . . , Aik die Gleichung P (Ai1 ∩· · ·∩Aik ) = P (Ai1 ) · · · P (Aik )
gilt
k
k
�
�
P(
Aij ) =
P (Aij )
j=1
j=1
unabhängige standard normalverteilte Zustandsvariable : Seien U1 und
U2 zwei unabh¨
ZV
� angige auf [0, 1] gleichverteilte
�
setze: X= −2ln(U1 )cos(2πU2 ); Y= −2ln(U1 )sin(2πU2 ) dann sind X,Y
unabhängige standard normalverteilte ZVs.
uiv : = unabhängig identisch verteilt
Unabhängigkeit von Zufallsvariablen : X1 , . . . , Xn n ∈ N wenn alle Ereig­
nisse der Form {Xi ∈ Bi }, Bi ∈ B(R) i=1, . . . , n unabhängig sind.
ungeordent mit Wiederholung : falls man nicht die Reihenfolge berück­
sichtigt und die Elemente wiederholt ausgew¨ahlt werden d¨
urfen
⇒ {ωi1 , . . . , ωik } (k ≤ n) = Menge und ∀j �= k gilt ωij �= ωik
ungeordent ohne Wiederholung : falls man die Reihenfolge nicht registriert
und kein Element mehr als einmal gewählt werden darf
⇒< ωi1 , . . . , ωik > (k ≤ n) = Sammlung von Elementen aus Ω mit
Vielfachheit zwischen 0 und k
unkorreliert : falls Cov(X,Y) = 0 und damit ρ(X, Y ) = 0 gilt, so heißt X und
Y unkorreliert.
UO : ungeordnet ohne Wiederholung
V
Varianz : Die Größe V(X) = E((X − E(X))2 ) heißt Varianz
W
13
Versuchsreihe : unabh¨
angige Ausf¨
uhrung von Experimenten Bsp: 2 Experi­
mente
W-räume (Ω1 ,A1 ,P1 ), (Ω2 ,A2 ,P2 ) ⇒ Ω1 × Ω2 = {(ω1 , ω2 )} ist der grund­
raum aller ω das kombinierte Experiment (zuerst 1., dann 2.) A1 × A2 =
im Experiment1 tritt A1 und in Experiment2 tritt A2 ein definiere A1 ⊗A2
als kleinste σ-Algebra die alle Ereignisse A1 × A2 enthält ⇒ P(A1 × A2 )
:= P1 (A1 ) · P2 (A2 ) heißt Produktmaß
Verteilung : Sei (Ω,A,P) ein W-raum, X feste Zuvallsvariable. Dann können
wir für jedes B ∈ B(R) den Wert P (X ∈ B) = P (X −1 (B)) ermitteln ⇒
Abbildung PX von B(R) und [0, 1] : PX (B) := P (X ∈ B)
⇒ PX = V erteilung → Die Funktion F(x) = PX ((−∞, x)) = P (X < x)
heißt Verteilungsfunktion von X
Satz: PX ist ein W-maß auf (R,B(R))
W
Wärmeleitungsgleichung : Verteilung B(t), Dichte p(t,x) ⇒ WLGL: ( δδt −
1 δ2
2 δx2 )p(t, x) = 0
Wärmeleitungskern : siehe Wienerprozess
W-keit : = Wahrscheinlichkeit
W-maß : = Wahrscheinlichkeitsmaß
W-raum : = Wahrscheinlichkeitsraum
Wahrscheinlichkeit : Sei Ω der Grundraum aller Elementarereignisse eines
Experiments, A eine σ-Algebra von Ereignissen. Falls P ein W-maß auf
(Ω,A) ist, so heißt für iedes A ∈ A, P(A) die Wahrscheinlichkeit des
Ereignisses A.
Wahrscheinlichkeiten : Ω = {ω1 , . . . , ωn } endlich, falls wir wählen p1 , . . . , pn ∈
n
�
[0, 1] mit
pi = 1 dann k¨onnen wir P({ωi }) = pi f¨
ur die W-keit des Er­
i=1
eignisses setzen.
⇒ wir erhalten ein W-maß auf (Ω,(P )(Ω))
k
k
�
�
P(A) =
P ({wij }) =
pj mit A = {wi1 , . . . , wik }
j=1
j=1
Wahrscheinlichkeitsmaß : Es werden alle Voraussetzungen von einem Maß
benötigt und dazu:
iii) P(Ω) = 1
Wahrscheinlichkeitsmaß mit α : Sei Ω ein Grundraum, A eine σ-Algebra,
P1 , . . . , Pn W-maße, α1 , . . . , αn Zahlen in [0, 1] mit α1 + · · · + αn = 1
n
n
�
�
⇒ P :=
αk Pk ⇒ P (A) =
αk Pk (A) A ∈ A
k=1
k=1
X
14
Wahrscheinlichkeitsmaß mit Integral : Sei Ω = R, A = B(R), f stückweise
�stetig + positiv mit
f (x)dx = 1 dann definiert:
R
�
P(A) := f (x)dx, A ⊂ B(R) ein W-maß auf (R,B(R))
A
Wahrscheinlichkeitsraum : Das Tripel (Ω,A,P) heißt Wahrscheinlichkeits­
raum
Wahrscheinlichkeitstheoretische Interpretationen für Operationen auf Mengen :
Ω = sicheres Ereignis, � = unmögliches Ereignis
A ∪ B = A oder B tritt ein , A ∩ B = A und B tritt ein
Ac = A tritt nicht ein , A � B = entweder A oder B tritt ein
A \ B = A tritt ein und B nicht , A ⊂ B = A zieht B nach sich
∞
An = für ein gewisses n ∈ N tritt An ein
n=1
∞
�
An = für alle n ∈ N tritt An ein
n=1
lim inf (An ) :=
n
lim sup(An ) :=
n
∞
∞ �
n=1 k=n
∞
∞ �
Ak = für fast alle n ∈ N tritt An ein
Ak = für unendlich viele n ∈ N tritt An ein
n=1 k=n
Wienerprozess : Wir w¨
ahlen T=R+ als Bereich f¨
ur den Zeitparameter. Ein
Prozess B=(B(t), t ≥ 0) heißt Wienerprozess falls gilt:
i) B(0) = 0 (fast sicher)
ii) B hat unabh¨
angige, station¨are Zuw¨achse
iii) der Zuwachs B(t) - B(s), 0 ≤ s ≤ t ist N(0,t-s)-verteilt
iv) die Pfade von B sind fast sicher stetig
Meist ist es die Dichte ft1 ,...,tn (x1 , . . . , xn ) in dem Zeitpunkt t1 , . . . , tn der
gemeinsam verteilten ZVs B(t1 ), . . . , B(tn ) zu kennen. ⇒ Falls 0 < t1 <
. . . < tn gilt: ft1 ,...,tn (x1 , . . . , xn ) = p(t1 , x1 )p(t2 − t1 , x2 − x1 ) · · · p(tn −
2
1
exp(− x2t ) x ∈ R, t > 0 der soge­
tn−1 , xn − xn−1 ) wobei p(t, x) = √2πε
nannte Wärmeleitungskern ist
X
Y
Z
Zentraler Grenzwertsatz : Sei (Xn , n ∈ N ) eine Folge von uiv ZVs mit
E(X1 ) = µ und V(X1 ) = σ ¿ 0. Falls die momenterzeugende Funktion
ψX1 auf ganz R endlich und in einer Umgebung des Ursprungs zweimal
stetig diffbar ist, dann konvergiert die Folge (Zn , n ∈ N ), definiert durch
n −nµ
√
,n ∈ N
Zn = X1 +···+X
nσ 2
Z
15
Zufallsvariable : Ist (Ω, A, P ) ein W-raum, so heißt eine meßbare Abbildung
X von Ω nach R eine Zufallsvariable
Zufallszahlenalgorithmus : Zn = a·Zn−1 +cmodM
(Z0 = seed) a, c, M ∈
N = kongruente Generatoren mit c=0 == multiplikativ kongruente oder
einfach kongruente Generatoren
Lemma: Sei X stetig verteilt mit Dichte fx und Verteilungsfunktion Fx
�∞
Fx (x) =
fx (y)dy, x ∈ R. Dann ist die ZV Fx ◦ X auf [0, 1] gleichver­
−∞
teilt.
Korollar:Sei U eine auf [0, 1] gleichverteilte ZV. Dann hat Fx−1 ◦U diessel­
be Verteilung wie X = Mthode der inversen Verteilungsfunktion = Trans­
formationsmethode
Zustandsraum : siehe stochastischer Prozess
ZV : = Zufallsvariable
zweidimensionale Brownsche Bewegung : BBW in der Ebene = 2 BBW:
jeweils für die x- und y-Koordinate: B(t) = (B1 (t), B2 (t))
zweite Monte-Carlo-Methode : Sei Z=f ◦ X wobei X eine auf [0, 1] gleich­
�1
verteilte ZV. Dann gilt mit dem Transformationssatz E(Z) = f (x)dx ⇒
0
fast sicher
1
�
1
f (x)dx
n
0
Zylindermenge : ((Ωn , An , Pn )n ∈ N ) Ω =
�
Ωn ω ∈ Ω = (ω1 , . . . , ωn , . . .)
n∈N
A = ⊗An mit A = A1 × · · · × An × · · · wobei nur endlich viele An ∈ An
verschieden von Ωn sind
⇒ A = Ω1 ×· · ·×Ai1 ×Ωi+1 ×· · ·×Ai2 ×· · · ⇒ P (A) = Pi1 (Ai1 ) · · · Pik (Aik )
INHALT
16
Inhalt
A
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
1
1
Bayes’sche Formel . . . . . . . . . .
BBW . . . . . . . . . . . . . . . . .
bedingte diskrete Dichte . . . . . . .
BE . . . . . . . . . . . . . . . . . . .
bedingte Entropie . . . . . . . . . .
bedingte Erwartung . . . . . . . . .
bedingte Erwartung (Vorbereitung) .
bedingte Erwartung 1 . . . . . . . .
bedingte Erwartung 2 . . . . . . . .
Fakt zwischen BE2 und BE3 . . . .
bedingte Erwartung 3 . . . . . . . .
bedingte Erwartung 4 . . . . . . . .
bedingte Erwartung 5 . . . . . . . .
bedingte Erwartung 6 . . . . . . . .
bedingte Erwartung 7 . . . . . . . .
bedingte Erwartung 8 . . . . . . . .
bedingte Erwartung 9 . . . . . . . .
bedingte Erwartung 10 . . . . . . . .
bedingte Erwartung 11 . . . . . . . .
bedingte Wahrscheinlichkeit . . . . .
Bernoullie-Experiment . . . . . . . .
Bernoullie-Zufallsvariable . . . . . .
Binomialverteilte Zufallsvariable . .
Borelmenge . . . . . . . . . . . . . .
Brownsche Bewegung . . . . . . . .
Brownsche Bewegung Eigenschaften
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
1
1
1
1
1
1
1
1
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
3
Cauchyverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Chapman-Kolmogorov-Gleichung . . . . . . . . . . . . . . . . . . . . .
charakteristische Funktion von X . . . . . . . . . . . . . . . . . . . . .
3
3
3
3
Dichte . . . . . . . . . . . . . . . . . .
Diracmaß . . . . . . . . . . . . . . . .
diskret verteilt . . . . . . . . . . . . .
diskrete Gleichverteilung . . . . . . . .
diskrete Wahrscheinlichkeitsverteilung
3
3
3
3
3
3
a posteriori Wahrscheinlichkeiten
absolut stetig verteilt . . . . . . .
antiton . . . . . . . . . . . . . . .
Axiom zur σ − Algebra . . . . .
.
.
.
.
B
C
D
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INHALT
17
E
Elementarereignis . . . . . . . .
Entropie . . . . . . . . . . . . .
Ereignis . . . . . . . . . . . . .
Ergodenkette f¨
ur Markovketten
Erwartungswert . . . . . . . . .
E bei X Bernoulli ZV . . . . .
E bei X normalverteilt . . . . .
Exponentialverteilung . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
F
4
4
4
4
4
4
4
4
4
4
G
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
4
5
5
5
5
5
5
5
5
5
’hit and miss’-Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . .
Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
5
Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
isoton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
6
Gaußfunktion . . . . . . . . . . . .
gemeinsame Entropie . . . . . . . .
gemeinsame Verteilung . . . . . . .
gemeinsame Verteilungsfunktion .
geometrische Brownsche Bewegung
geordent ohne Wiederholung . . .
geordent mit Wiederholung . . . .
Gleichverteilung auf [a, b] . . . . .
GM . . . . . . . . . . . . . . . . .
GO . . . . . . . . . . . . . . . . . .
gr¨
oßte σ-Algebra . . . . . . . . . .
Grundmenge . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
H
I
J
6
K
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
6
6
6
6
6
7
Laplace-Experiment . . . . . . . . . . . .
Lebesguemaß . . . . . . . . . . . . . . . .
Lemma i (eidwt) . . . . . . . . . . . . . .
Lemma ii (eidwt) . . . . . . . . . . . . . .
Lemma zur bedingten Wahrscheinlichkeit
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
7
7
7
kleinste σ-Algebra .
Kodierung . . . . . .
Konstruktionsprinzip
Konvergenz (eidwt) .
Korrelation . . . . .
Kovarianz . . . . . .
KV . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
L
INHALT
18
Lemma zu meßbar und Zufallsvariablen . . . . . . . . . . . . . . . . .
7
Markoveigenschaft . . . . . . . . . . . . . . . . . . . . . .
Markovprozess . . . . . . . . . . . . . . . . . . . . . . . .
Martingal . . . . . . . . . . . . . . . . . . . . . . . . . . .
Martingalkette . . . . . . . . . . . . . . . . . . . . . . . .
Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
meßbar . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Methode der kleinsten Fehlerquadrate nach Gauß-Laplace
Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . .
mittlerer Informationsgehalt . . . . . . . . . . . . . . . . .
¨
mittlere Uberaschung
. . . . . . . . . . . . . . . . . . . .
Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . .
momenterzeugende Funktion von X . . . . . . . . . . . . .
Monte-Carlo-Methoden . . . . . . . . . . . . . . . . . . .
MTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
7
7
7
8
8
8
8
8
8
8
8
8
8
n-tes Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
8
ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ω. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
8
Pfad . . . . . . .
Poissonprozess .
Poisonverteilung
Produktmaß . . .
9
9
9
9
9
M
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
N
O
P
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Q
9
R
realisiert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
S
S1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
S3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
S4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . .
Satz von Bienaym . . . . . . . . . . . . . . . . . . . . .
Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . .
Satz von Poisson . . . . . . . . . . . . . . . . . . . . . .
Satz von Shannon . . . . . . . . . . . . . . . . . . . . .
Satz zum Produkt . . . . . . . . . . . . . . . . . . . . .
Satz zur Anzahl der M¨
oglichkeiten . . . . . . . . . . . .
Satz zur gemeinsamen Verteilung und dem Produktmaß
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
9
9
9
9
9
9
10
10
10
10
10
10
INHALT
σ − Algebra . . . . . . . . . . .
Standardabweichung . . . . . . .
Starkes Gesetz der großen Zahlen
Stetigkeit von W-maßen . . . . .
(absolut) stetig verteilt . . . . . .
Stetigkeitslemma von P. Lvy . .
stochastischer Prozess . . . . . .
Streuung . . . . . . . . . . . . .
19
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
11
11
11
11
11
11
Transformationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11
¨
Uberraschung
. . . . . . . . . . . . . . . . . . . . . . . .
UM . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
unabh¨
angig (eidwt) . . . . . . . . . . . . . . . . . . . . .
unabh¨
angig (2 Ereignisse) (eidwt) . . . . . . . . . . . .
unabh¨
angige standard normalverteilte Zustandsvariable
uiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unabh¨
angigkeit von Zufallsvariablen . . . . . . . . . . .
ungeordent mit Wiederholung . . . . . . . . . . . . . . .
ungeordent ohne Wiederholung . . . . . . . . . . . . . .
unkorreliert . . . . . . . . . . . . . . . . . . . . . . . . .
UO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
12
12
12
12
12
12
12
12
12
12
12
12
Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Versuchsreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
12
13
13
T
U
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
V
W
W¨
armeleitungsgleichung . . . . . . . . . . . . . .
W¨
armeleitungskern . . . . . . . . . . . . . . . . .
W-keit . . . . . . . . . . . . . . . . . . . . . . . .
W-maß . . . . . . . . . . . . . . . . . . . . . . .
W-raum . . . . . . . . . . . . . . . . . . . . . . .
Wahrscheinlichkeit . . . . . . . . . . . . . . . . .
Wahrscheinlichkeiten . . . . . . . . . . . . . . . .
Wahrscheinlichkeitsmaß . . . . . . . . . . . . . .
Wahrscheinlichkeitsmaß mit α . . . . . . . . . . .
Wahrscheinlichkeitsmaß mit Integral . . . . . . .
Wahrscheinlichkeitsraum . . . . . . . . . . . . . .
Wahrscheinlichkeitstheoretische Interpretationen
f¨
ur Operationen auf Mengen . . . . . . . . .
Wienerprozess . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
13
13
13
13
13
13
13
13
13
13
14
14
. . . . . . . . . . . .
. . . . . . . . . . . .
14
14
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
X
14
Y
14
INHALT
20
Z
Zentraler Grenzwertsatz . . . . . . . . .
Zufallsvariable . . . . . . . . . . . . . .
Zufallszahlenalgorithmus . . . . . . . . .
Zustandsraum . . . . . . . . . . . . . . .
ZV . . . . . . . . . . . . . . . . . . . . .
zweidimensionale Brownsche Bewegung
zweite Monte-Carlo-Methode . . . . . .
Zylindermenge . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
15
15
15
15
15
15
15
Herunterladen