1 Mathematische Grundlagen 2 Grundlagen der

Werbung
1 Mathematische Grundlagen
• Exponentialfunktion, Euler-Zahl: ex =
• Binomische Formel: (a + b)n =
n
P
k=0
• Gauß:
n
P
i=
i=1
• Integration:
n
P
n(n+1)
2
i2 =
i=1
n
k
∞
P
n=0
xn
n!
e = lim (1 + n1 )n
n→∞
n
k
ak bn−k
n!
(n−k)!k!
=
=
n
n−k
n(n+1)(2n+1)
6
Rb
f (x) dx = [F (x)]ba = F (b) − F (a)
Rb
Rb
• Partielle Integration: a f (x) · g(x) dx = [F (x) · g(x)]ba − a F (x) · g 0 (x) dx
a
• Ableitung (Kettenregel): (f (g(x)))0 = f 0 (g(x)) · g 0 (x)
• Ableitung (Produktregel): (f (x)g(x))0 = f 0 (x)g(x) + f (x)g 0 (x)
n
P
• Geometrische Reihe:
1−q n+1
1−q
qk =
k=0
=
∞
P
q n+1 −1
q−1
√
qi =
i=0
1
1−q
• Stirling Formel für Fakultäten: n! ≈ 2πn e
0
• Spezielle Ableitungen: ekx = kekx
ln0 (x) = x1
sin0 (x) = cos(x)
cos0 (x) = − sin(x)
arcsin0 (ax + b) = √
n n
• Ableitung der Umkehrfunktion: (f −1 )0 (x) =
R
• Integrationen: sin(α) dα = − cos(α) + C
• Kombinatorik
arccos0 (ax + b) = − √
a
1−(ax+b)2
a
1−(ax+b)2
1
f 0 (f −1 (x))
R
sin(α) dα = − cos(α) + C
ohne Zurücklegen
mit Zurücklegen
n!
Permutation
n!
k1 !·...·kn !
Variation (Reihenfolge wichtig) n ·(n − 1) · . . . · (n − k + 1) nk
n+k−1
Kombination (Reihenfolge egal) nk
k
2 Grundlagen der Wahrscheinlichkeitsrechnung
• Kolmogorow: 0 ≤ P (A) ≤ 1 P (Ω) = 1 Ai ∩ Aj = ∅ : P (
∞
S
Ai ) =
i=1
• Siebformel: P
n
S
i=1
Ai
=
n
P
(−1)k+1
k=1
P
P (Ai )
i=0
T
P
I⊆{1,...,n},|I|=k
∞
P
Ai
i∈I
n = 2 : P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 )
• Bedingte Wahrscheinlichkeit: P (A|B) =
P (A∩B)
P (B) ,
es gilt auch: P (A|B) = 1 − P (A|B)
• zwei Ereignisse sind genau dann unabh., wenn: P (A ∩ B) = P (A) · P (B) ⇔ P (A|B) = P (A) ⇔ P (A|B)
• Satz der totalen Wahrscheinlichkeit: P (B) =
• Satz von Bayes: P (A|B) =
P (B|A)·P (A)
P (B)
∞
P
i=1
P (B|Ai ) · P (Ai ) Ai sind ausschöpfend und disjunkt
P (Ai |B) =
1
P (B|Ai )·P (Ai )
PN
j=1 P (B|Aj )·P (Aj )
=
P (B|Ai )·P (Ai )
P (B)
3 Zufallsvariablen
3.1 Allgemeines
• Zufallsvariable: X : Ω → R
• diskret: Werte xi sind endlich oder abzählbar unendlich, Wkt. pi = f (xi ) = P (X = xi )
• stetig: Werte xi liegen in beliebigem Intervall in R
Rx
• Verteilungsfunktion FX (x) = P (X < x) = −∞ f (t) dt = P ({ω : X(ω) < x})
Eigenschaften: lim F (x) = 0, lim F (x) = 1
x→∞
x→−∞
• Dichtefunktion, Eigenschaften: für alle x ∈ R gilt: f (x) ≥ 0 und
R∞
−∞ f (x)
dx = 1
• X heißt stetig, wenn eine Dichtefunktion f existiert mit: FX (x) = P (X < x)
• gültige Aussagen: P (a ≤ X < b) = P (X < b) − P (X < a)
• Erwartungswert: E(X) =
∞
P
i=1
pi xi bzw. E(X) =
R∞
−∞ x
· f (x) dx
Eigenschaften: E(c) = c, E(c · X) = c · E(X), E(a · X + b · Y ) = a · E(X) + b · E(Y )
∞
R∞
P
Regel des faulen Statistikers: E(g(X)) = −∞
g(x)f (x) dx (stetige ZV) bzw.
g(xi )pi (diskrete ZV)
i=1
• E(X · Y ) =
PP
x
x · y · P (X = x, Y = y)
y
• p-tes Moment: E(X p ) und p-tes zentrales Moment: E((X − E(X))p )
• Varianz: V ar(X) = E((X − E(X))2 ) = E(X 2 ) − (E(X))2
Covarianz: cov(X, Y ) = E((X − E(X))(Y − E(Y ))) = E(X · Y ) − E(X) · E(Y )
V ar(X + c) = V ar(X), V ar(a · X) = a2 · V ar(X), V ar(X + Y ) = V ar(X) + V ar(Y ) + 2 · cov(X, Y )
Wenn X und Y unabhängig sind, dann gilt cov(X, Y ) = 0 und somit E(X · Y ) = E(X) · E(Y ).
3.2 Diskrete Verteilungen
• Gleichverteilung: pi =
1
N
• Binomial: Anzahl der i Erfolge bei n Versuchen. X ∼ B(p, n) P (X = i) =
E(X) = n · p V ar(X) = np(1 − p)
• Geometrisch: Schritte zum 1. Erfolg X ∼ Geo(p) P (X = i) = p(1 − p)i−1
Sie ist gedächtnislos : P (Y > s + t|Y > t) = P (Y > s)
n
k
pk (1 − p)n−k
E(X) =
1
p
• Hypergeom.: N Stück mit n schlechten, Stichprobe von m Stück. Wkt., dass in Stichprobe x Stück schlecht
(n)·(N −n)
sind: P (X = x) = x Nm−x , kann für große N als Ziehung ohne Zurücklegen als Binomial modelliert werden.
(m)
• Poisson: X ∼ P oi(λ) P (X = n) = λn! · e−λ eingetroene Kunden, zerfallene Teilchen
E(X) = λ (mittl. Ankunftsrate) V ar(X) = λ
n
3.3 Stetige Zufallsvariablen
• (0, 1)-Gleichvert.: X ∼ R(0, 1)
F (x) = {x < 0 : 0, 0 ≤ x < 1 : x, x ≥ 1 : 1} f (x) = {x < 0 : 0, 0 ≤ x < 1 : 1, x ≥ 1 : 0}
2
(b−a)
• (a, b)-Gleichvert.: X ∼ R(a, b) E(X) = a+b
2 V ar(X) =
12
F (x) = {x ≤ a : 0, a < x < b : x−a
,
x
≥
b
:
1}
f
(x)
=
{x
<
a : 0, a ≤ x < b :
b−a
1
b−a , x
• Exponentialvert.: X ∼ Exp(λ) λ > 0 E(X) = λ1 V ar(X) = λ12 , gedächtnislos
F (x) = {x ≥ 0 : 1 − e−λx , x < 0 : 0} f (x) = {x ≥ 0 : λ · e−λx , x < 0 : 0}
Überlebensfunktion: G(t) = 1 − F (t) = e−λt
2
≥ b : 0}
• Normalvert.: X ∼ N (µ, σ 2 ) F (x) =
E(X) = µ V ar(X) = σ 2
√1
2πσ
− 21 ( t−µ
σ )
−∞ e
Rx
2
2
dt f (x) =
1 x−µ
√ 1 e− 2 ( σ )
2πσ
2
2
R x −x
x
√1 · e− 2 Vert.: Φ(x) = √1 ·
2
−∞ e
2π
2π
X−µ
Transformation: X ∼ N (0, 1) ⇔ σX + µ ∼ N (µ, σ 2 ) und X ∼ N (µ, σ 2 ) ⇔ σ ∼ N (0, 1)
x−µ
x−µ
Beispiel: Sei X ∼ N (µ, σ 2 ). Dann ist P (X < x) = P ( X−µ
σ < σ ) = Φ( σ ).
• Standardnormalvert.: X ∼ N (0, 1) Dichte: ϕ(x) =
dx
Eigenschaften: ϕ(x) = ϕ(−x) und Φ(x) = 1 − Φ(−x)
α-Quantil: für welches x gilt Φ(x) = α, außerdem P (a < X < b) = Φ(b) − Φ(a).
3.4 Besonderes
• eindimensionale Transformationsformel für Y = g(X) mit X ∼ F :
diskret: P (Y = y) = P (g −1 (y))
R
−1
stetig: h(y) = |gf0(g(g−1(y))
HY (y) = P (Y < y) = P (g(X) < y) = P (x : g(x) < y) = P (Ay ) = Ay fX (x) dx
(y))|
Wenn X ∼ F , dann ist Y = F (X) ∼ R(0, 1). Wenn U ∼ R(0, 1), dann ist Y = F −1 (U ) ∼ F.
• Mehrdimensionale ZV X = (X1 , X2 ): FX (x1 , x2 ) = P (X1 < x1 , X2 < x2 )
· FX2 (x2 )
X1 und X2 sind genau dann unabh., wenn: FX1 ,X2 (x1 , x2 ) = FX1 (x1 )P
diskret: P (X1 = i, X2 = j) = pij , Randvert. von X1 : P (X1 = xi ) = j∈N pij = pi·
unabh. ⇔ pij = pi · pjR für Ralle i, j
x2
x1
stetig: FX (x1 , x2 ) = −∞
−∞ f (t1 , t2 ) dt1 t2
unabh. ⇔ fX1 ,X2 (x1 , x2 ) = fX1 (x1 ) · fX2 (x2 )
Randvert. von X bzgl. X1 : lim F (x1 , x2 ) = FX1 (x1 ) = P (X1 < x1 )
x2 →∞
R +∞
Randdichte von X bzgl. X1 : fX1 (x1 ) = FX0 1 (x1 ) = −∞
f (x1 , x2 ) dx2
• Transformationssatz
für den EW: sei X = (U, V ) P
mehrdim. und g : R2 → R
P
diskret: wennR x |g(x)| · f (x) < ∞, dann E(g(X)) = x g(x) · f (x)
R
R
R +∞ R +∞
stetig: wenn R2 |g(u, v)| · fU,V (u, v) du dv < ∞, dann E(g(X)) = R2 g(u, v) · fU,V (u, v) du dv ( R2 = −∞
−∞ )
3.5 Grenzwertsätze
• Sei Sn = X1 + . . . + Xn mit Xi unabh. identisch vert. (iid) ZV mit µ = E(Xi ) und σ 2 = V ar(Xi ).
Sei P (Sn < x) gesucht. Sn kann durch die Normalvert. mit N (nµ, nσ 2 ) approx. werden.
n −n·µ
Die zugehörige Standardnormalvert. ist Zn = S√
.
n·σ
x−n·µ
x−n·µ
n −n·µ
√
√
<
=
Φ
.
Zentraler Grenzwertsatz: limn→∞ P (Zn < z) = Φ(z) = limn→∞ P S√
n·σ
n·σ
n·σ
P
• Moivre-Laplace: Sei Xi ∼ Bi(n, p) iid. Dann gilt ni=1 Xi = Zn ∼ Bi(n, p).
Mit dem zentralen Grenzwertsatz und E(Xi ) = np und V ar(X
i ) = np(1 −
p) gilt dann:
limn→∞ Zn ∼ N (np, np(1 − p)). Also gilt z.B.: P (Zn < x) = Φ
√ x−np
np(1−p)
.
Vorbedingung: es muss folgende Faustregel erfüllt sein: n · p ≥ 10 und n · (1 − p) ≥ 10.
3.6 Beispiele
• Reihensystem: X = min Xi , Rel = P (X ≥ t) =
E(X) =
1
n
P
n
Q
P (Xi ≥ t) =
i=1
n
Q
e−λi t
i=1
λi
i=1
• Parallelsystem: X = max Xi , Rel = P (X ≥ t) = 1 − P (X < t) = 1 −
E(X) =
1
λ
n
P
i=1
1
i
• k-aus-n System: E(T ) =
1
λ
k
P
i=1
1
n−i+1
3
n
Q
i=1
P (Xi < t) = 1 − (1 − e−λt )n
3.7 Korrelation
• ρ(X1 , X2 ) = √
cov(X1 ,X2 )
√
V ar(X1 )· V ar(X2 )
ist der Korrelationskoezient (0 = unkorreliert)
3.8 Aufgaben
• Qualitätskontrolle: Ausgangspunkt ist P (X < x), dabei ist X die Anzahl schlechter Chips und x die Grenze.
x−1
P
Für Binomialverteilungen kann man daraus
P (X = i) machen.
i=0
• Schrauben: 0.1 = P (X < 70mm) = P ( X−µ
σ <
).
Φ(x) = 1 − Φ(−x), also 0.9 = Φ(− 70mm−µ
σ
70mm−µ
)
σ
= Φ( 70mm−µ
) = 0.1
σ
• Maximal:
FX (x) = P (X < x) = P (max{T1 , ..., Tn } < x) = P (Ti < y|∀i) = P (T1 < x ∩ ... ∩ Tn < x)
Q
= P (Ti < x)
• Minimal:
Q FX (x) = P (min{T
Q1 , . . . , Tn } < x) = P (Ti < x|∃i) = 1 − P (∀i : Ti ≥ x))
= 1 − P (Ti ≥ x) = 1 − (1 − P (Ti < x)
• Alternativ Minimal: P (min{X, Y } ≤ x), 1: P (X = k), dann P (X ≤ x),
dann P (min ...) = P (X ≤ x ∨ Y < x), dann Siebformel
• 2-D Bernoulli/Binomial Tafel, Erwartungswert-Produkt ist nur da wo 2x eine Eins steht,
normale Erwartungswerte bei p2. und p.2
3.9 Markov-Ketten
• n-Schritt-Übergangswahrscheinlichkeit von i nach j : pij (n) = P (Xn = j|X0 = i) =
P
k∈S
pik (n − 1) · pkj (1)
• n-Schritt-Übergangsmatrix: M n , wobei M die Einschrittübergangsmatrix ist
• Zustandsklassikation:
i und j kommunizieren (i ↔ j ), falls pij (n) > 0 und pji (n) > 0.
↔ ist eine Äquivalenzrelation: reexiv (i ↔ i), symmetrisch (i ↔ j gdw. j ↔ i)
und transitiv (aus i ↔ j und j ↔ k folgt i ↔ k)
Zustandsraum lässt sich in Äquivalenzklassen (ÄK) zerlegen (nicht jeder Zustand
muss in einer ÄK enthalten sein)
weitere Unterteilung der Zustände in den ÄK: i ist unwesentlich, falls pij (n) > 0 (Hinweg),
aber für alle m ist pji (m) = 0 (kein Rückweg). Sonst ist i wesentlich.
hat eine Äquivalenzklasse nur einen Zustand i dann ist i absorbierend
Markov-Kette ist irreduzibel wenn Zustandsraum aus genau einer Klasse wesentlicher Zustände besteht
3.10 Spezielle Funktionen
• Exponentialfunktion: e0 = 1, limx→−∞ = 0
• Logarithmusfunktion ln(x): ln(1) = 0, limx→0 = −∞
• Winkelfunktionen: sin(x) ∈ [−1, 1], cos(x) ∈ [−1, 1], arcsin : [−1, 1] → [− π2 , π2 ], arcsin : [−1, 1] → [0, π2 ],
arctan : (−∞, ∞) → [− π2 , π2 ]
4
Herunterladen