Inhaltsverzeichnis

Werbung
Dozent: Andreas Nestke
Lehrfach: Mathe 3
Thema: Wahrscheinlichkeitstheorie
Datum: 24.01.2011
Autor: René Pecher
Inhaltsverzeichnis
1 Permutation
1.1 ohne Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 mit Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
1
2 Variation
2.1 ohne Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 mit Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
1
3 Kombination
3.1 ohne Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 mit Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
1
4 Ereignisse
2
5 Geschichte des Wahscheinlichkeits-Begriffs
2
6 Wahrscheinlichkeitsraum
6.1 Rechenregeln . . . . . . . . . . . . .
6.2 Ω sei diskret . . . . . . . . . . . . . .
6.3 Ω sei stetig . . . . . . . . . . . . . .
6.4 Unvereinbarkeit ←→ Unabhängigkeit
6.5 bedingte Wahrscheinlichkeit . . . . .
6.6 Multiplikationssatz . . . . . . . . . .
3
4
4
5
6
6
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 Ereignisbäume
8 Zufalls-variablen, Verteilungsfunktion
8.1 Diskrete Zufalls-variablen . . . . . .
8.2 Stetige Zufalls-Variablen . . . . . . .
8.3 Symmetrische ZV . . . . . . . . . . .
8.4 Verteilungsparameter . . . . . . . . .
8.4.1 Erwartungswert E(X) = µ . .
8.4.2 Varianz V (X) = σ . . . . . .
8.4.3 Eigenschaften (Rechenregeln)
8.5 Spezielle Zufalls-Variablen . . . . . .
8.5.1 Diskrete Verteilung . . . . . .
8.5.2 Stetige Verteilung . . . . . . .
.
.
.
.
.
.
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
. 7
. 8
. 8
. 8
. 8
. 9
. 9
. 10
. 10
. 11
1
Permutation
Ümsortierung”der Elemente einer endlichen Menge, d.h. eine eineindeutige Abblidung
der Mende auf sich.
1.1
ohne Wiederholungen
Anzahl aller Permutationen mit n unterscheidbaren Elementen:
1.2
n!
mit Wiederholungen
Anzahl aller Permutationen mit n Elementen, n1 ; · · · nk nicht unterscheidbar:
2
n!
n1 !•···•nk !
Variation
Anordnung (Ziehung) von k der n der Elemente, welche nach der
Reihenfolge (der Ziehung) angeordnet werden.
2.1
ohne Wiederholungen
Keines der n Elemente darf mehrfach auftauchen. (Ziehung ohne Zurücklegen)
n!
Anzahl aller Variationen:
(n−k)!
2.2
mit Wiederholungen
Jedes der n Elemente darf mehrfach auftauchen. (vor nächster Ziehung wird Zurücklegt)
Anzahl aller Variationen:
nk
3
Kombination
Auswahl von k der n der Elemente ohne Berücksichtigung der Reihenfolge.
3.1
ohne Wiederholungen
Keines der n Elemente darf mehrfach auftauchen. (Ziehung ohne Zurücklegen)
n
n!
Anzahl aller Kombinationen:
= k!·(n−k)!
k
3.2
mit Wiederholungen
Jedes der n Elemente darf mehrfach auftauchen.
(vor nächster Ziehung wird Zurücklegt)
(n+k−1)!
n+k−1
Anzahl aller Kombinationen:
= k!·(n−k)!
k
1
4
Ereignisse
Ω⊂Ω
”sicheres Ereignis”
⊂Ω
”unmögliches Ereignis”
A, B ∈ E(Ω)
A ∩ B ∈ E(Ω)
”A und B treten gemeinsam ein”
A ∪ B ∈ E(Ω)
”A oder B ist eingetreten”
A \ B ∈ E(Ω)
”A ist eingetreten B nicht”
Ω \ A ∈ E(Ω)
”A ist nicht eingetreten”
E(Ω) muss abgeschlossen sein
A∩B =
”A und B sind unvereinbar”
A ⊂ B ∈ E(Ω)
Ω\A=A
”A impliziert B”
”A zieht B nach sich”
”Komplementäres Ereignis”
”Wahrscheinlichkeit” weist jedem Ergebnis eine Zahl, ”seine Wahrscheinlichkeit”
zu: P : E(Ω) → R mit gewissen Eigenschaften.
5
Geschichte des Wahscheinlichkeits-Begriffs
1. Wahrscheinlichkeit als relative Häufigkeit:
A⊂Ω
fn (A) =
hn (A)
−−−→
n
n→∞
P (A)
2. Subjektive Wahrscheinlichkeit
3. Laplace-Wahrscheinlichkeit; klassischer W-Begriff:
• Ω endlich
• alle Möglichkeiten sind gleich wahrscheinlich
Dann: A ⊂ Ω
P (A) =
|A|
|Ω|
=
Anzahl der f uer A guenstigen
Anzahl aller moeglichkeiten
4. Axiomatik der Wahrscheinlichkeits-Theorie
2
6
Wahrscheinlichkeitsraum
Definition: Ein Wahrscheinlichkeitsraum ist ein Tripel [Ω, E(Ω), P ], wobei
Ω die Menge aller möglichen Ausgänge eines Zufallsexperiments,
E(Ω) eine Menge von Ereignissen und
P : E(Ω) → R eine Funktion ist mit
1. P (A) ≥ 0 für alle A ∈ E(Ω)
2. P (Ω) = 1
3. P (A ∪ B) = P (A) + P (B), falls A, B ∈ E(Ω) unvereinbar sind
E(Ω) ist gleich P (Ω), falls Ω endlich oder abzählbar unendlich (diskret) ist, für
überabzählbares Ω (stetig oder kontinuierlich) ist E(Ω) eine Familie von Teilmengen
von Ω mit folgenden Eigenschalten:
• Ω ∈ E(Ω)
• A ⊂ E(Ω) ⇒ A = Ω \ A ∈ E(Ω)
S
• Ai ∈ E(Ω), i ∈ N ⇒ ∞
i=1 Ai ∈ E(Ω)
σ - Algebra
(sigma - Algebra)
Verschärfung von 3.
Ai ∈ E(Ω),
Ai ∩ Aj = für i 6= j
(paarweise unvereinbar)
Dann
P∞
S gilt
P( ∞
i=1 P (A)
i=1 Ai ) =
3
6.1
Rechenregeln
1. P (A) = 1 − P (A)
A ∪ A = A ∪ (Ω \ A) = Ω und A ∩ (Ω \ A) = ⇒ P (Ω) = 1 = P (A) + P (A)
2. P () = 0
3. A1 , A2 , · · · , An ∈ E(Ω) mit
Ai ∩ Aj = für i 6= j
⇒ P (A1 ∪ A2 ∪ · · · ∪ An ) = P (A1 ) + P (A2 ) + · · · + P (An )
4. P (A \ B) = P (A) − P (A ∩ B)
A = (A \ B) ∪ (A ∩ B)
(A \ B) ∩ (A ∩ B) = 5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
6. A ⊂ B ⇒ P (A) ≤ P (B)
B = (B \ A) ∪ A
⇒ P (B) = P (B \ A) + P (A) ≥ 0
6.2
Ω sei diskret
{ei } Elementarereignis
Ω = {e1 } ∪ · · · ∪ {en }(∪ · · · )
P (Ω) = 1 = P1 + · · · + Pn (+ · · · )
P ({ei }) = Pi =≥ 0
A ⊃ Ω:
A = {ei1 , · · · , eik }
⇒ P (A) = Pi1 + · · · + Pik
4
Spezialfall:”Laplace-Experiment”
Ω = {e1 } ∪ · · · ∪ {en }
⇒ p = pi =
1
n
mit i = 1, · · · , n
und p = pi
und
P (A) =
|A|
n
Urnenmodell I
N Kugeln, davon M rote alle übrigen schwarz, Ziehung von n Kugeln (gleichzeitig
⇒ Laplace W.) ohne zurücklegen.
M ≤ N und n ≤ N
P (A) =
A Wahrscheinlichkeit um k rote Kugeln zu ziehen
−M
(Mk )·(Nn−k
)
N
(n)
Urnenmodell II
N Kugeln, davon M rote alle übrigen schwarz, Ziehung von n Kugeln (gleichzeitig
⇒ Laplace W.) mit zurücklegen.
M ≤ N und n ≤ N
ziehen
P (A) =
M
N
0≤k≤n
P (B) =
6.3
A Wahrscheinlichkeit um beim 1. mal eine rote Kugeln zu
M k
N
B Wahrscheinlichkeit für k rote der n Kugeln
· 1−
M n−k
N
·
n
k
Ω sei stetig
”Alle Elementarereignisse sind gleich wahrscheinlich”
P ({e}) = 0 !
Beispiele:
1. Ω = R
(Ω = s1 )
P (A) ∼ ”Länge” von A
P (Bogen) ∼ ”Bogenlänge” von =
2. ”Tor”
Bogenlaenge
2π
Ω = [0; 3]x[0; 2]
P (A) ∼ ”Fläche” von A
=
F (A)
6
5
6.4
Unvereinbarkeit ←→ Unabhängigkeit
[Ω, E(Ω), P ]
1. A, B ∈ E(Ω)
A, B sind unvereinbar, falls A ∩ B = 2. A1 , · · · , An ∈ E(Ω) heißen paarweise unvereinbar, falls Ai ∩ Aj = für i 6= j
3. A1 , · · · , An ∈ E(Ω) heißen Vollständig unvereinbar, falls für jedes k ≤ n
Ai1 ∩ Aik = für ir =
6 is
6.5
bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit für A unter der Bedingung B.
P (A|B) =
P (A∩B)
P (B)
P ( |B) erfüllt die Axiome eines Wahrscheinlichkeitsmaßes für E(Ω), d.h.:
1. P (A|B) ≥ 0
2. P (Ω|B) =
P (Ω∩B)
P (B)
=1
3. A1 ∩ A2 = : P (A1 ∩ A2 |B) = P (A1 |B) + P (A2 |B)
4. P (A1 ∪ A2 |B) =
6.6
P ((A1 ∪A2 )∩B)
P (B)
=
P ((A1 ∩B)∪(A2 ∩B))
P (B)
=
P (A1 ∩B)+P (A2 ∩B)
P (B)
Multiplikationssatz
P (A ∩ B) = P (A|B) · P (B)
A; B ∈ E(Ω) heißen unabhängig, falls eine der Folgenden Bedingungen erfüllt ist:
1. P (A|B) = P (A|B)
2. P (A) = P (A|B)
P (B) = P (B|A)
3. P (A ∩ B) = P (A) · P (B)
Wenn A und B unabhängig sind MULTIPLIZIEREN sich die einzelnen Wahrscheinlichkeiten.
P (A ∩ B ∩ C) = P (A) · P (A|B) · P (C|A ∩ B)
6
7
Ereignisbäume
Nur für Mehrstufige Zufallsexperimente anwendbar.
An den Zweigen steht die bedingbte Wahrscheinlichkeit dafür das das Ereignis am
Ende des Zweigs eintritt.
Pfadregeln:
1. Multiplikationsregel: Die Wahrscheinlichkeit für das Ereignis am Ende eines
Pfades ist das Produkt der Wahrscheinlichkeiten der Zweige die zu diesem
Ereignis führen.
2. Additionsregel: Die Wahrscheinlichkeit für ein Ereignis ist gleich der Summe
der Wahrscheinlichkeiten aller Pfade, längs derer es erreicht werden kann.
8
8.1
Zufalls-variablen, Verteilungsfunktion
Diskrete Zufalls-variablen
[Ω, E(Ω), P ], X : Ω → R ZV
X heißt diskret, falls X nur endlich oder abzählbar unendlich viele Werte annimmt.
Dann ist X durch seine Verteilung bestimmt also die Werte x1 , x2 , · · · , xn (, · · · ) und
die Wahrscheinlichkeiten pi = P (X = xi ) = P ({e ∈ Ω|X(e) = xi }) > 0
X { (xi ; pi )} mit i = 1, 2, ·, n(, · · · )
P (X ≤ x) = FX (x)
P (X > x) = 1 − P (X ≤ x) = 1 − FX (x)
a < b:
P (a < X ≤ b) = P ({X ≤ b} \ {x ≤ a}) = P (X ≤ b) − P (X ≤ a) = FX (b) − FX (a)
P (a ≤ X ≤ b) = P ({a < X ≤ b} ∪ {X = a}) = FX (b) − FX (a) + P (X = a)
P (X = a) = FX (a) − FX0 (a) mit FX0 (a) = linksseitigen GW von FX in a
(
0
,falls a keine Sprungstelle von FX ist.
P (X = a) =
sprunghöhe ,falls a Sprungstelle von FX ist.
7
8.2
Stetige Zufalls-Variablen
[Ω, E(Ω), P ], X : Ω → R ZV
X heißt stetig, falls X eine Dichte (funktion) f hat, d.h. eine Funktion f : R → R
mit
1. f (x) ≥ 0
für alle x,
R +∞
2. −∞ f (x)dx = 1
und
Rx
3. P (X ≤ x) = FX (x) = −∞ f (t)dt
Rx
−∞
gilt.
f (t)dt = FX (x) ⇒ FX0 (x) = f (x)
cR < x:
Rx
Rc
x
f
(t)dt
=
f
(t)dt
−
f (t)dt = FX (x) − FX (c) −−−−→ FX (x)
c
−∞
−∞
c→−∞
Folgerung:
X stetig ⇒ P (X = x) = 0 für alle x ∈ R.
P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) = FX (b) − FX (a)
8.3
Symmetrische ZV
Die Zufalls-Variable X heißt symmterisch zu c ∈ R, falls für alle x ∈ R
P (X ≤ c − x) = P (X ≥ c + x) gilt.
P (X ≤ c − x) = FX (c − x)
P (X ≥ c + x) = 1 − P (X < c + x) = 1 − P (X ≤ c + x) = 1 − FX (c + x)
FX (c − x) = 1 − FX (c + x)
Rotations symmetrisch um (c; FX (c)).
Folgerung: Ist die ZV X stetig und symmetrisch zu c, dann gilt für ihre Dichte
f (c − x) = f (c + x), der Graph geht also unter Spiegelung an der Geraden x = c in
sich über.
c = 0 → f gerade
8.4
Verteilungsparameter
entsprechen dem arithmetischen Mittel der Statistik
8.4.1
Erwartungswert E(X) = µ
X diskret, d.h.
Pdurch {(xi ; pi )} beschrieben
µ = E(X) = i pi · xi
X stetig
R +∞
µ = E(X) = −∞ x · f (x)dx
8
8.4.2
Varianz V (X) = σ
X diskret
σ = V (X) = E(X 2 ) − (E(X))2 = E((X − E(X))2 )
X stetig
R +∞
R +∞
σ = V (X) = −∞ (x − µ)2 · f (x)dx = −∞ (X − E(X))2 · f (x)dx
8.4.3
Eigenschaften (Rechenregeln)
g(x) = b · x + a
1. E(g(x)) = b · E(X) + a
2. X symmetrisch zu c ∈ R
=⇒ E(X) = c
X − µx
3. zentrieren von X :
=⇒ E(X − µx ) = 0
(µx = E(X))
4. V (g(x)) = b2 · V (X)
5. Standardisieren von X :
X−µx
σx
p
mit µx = E(X) und σx = V (X) > 0
=⇒ E(Z) = E σ1x · X − µσxx = σ1x · E(X) − µσxx = 0
=⇒ Z(Z) = V σ1x · X − µσxx = σ12 · V (X) = 1
Z=
x
6. Tschebyscheff-Ungleichung (grobe Abschätzung)
P (|X − µx | ≤ ε) ≥ 1 −
P (|X − µx | ≥ ε) ≤
ε = λ · σx :
σx2
ε2
σx2
ε2
λ = 1; 2; 3
P (|X − µx | ≥ λ · σx ) ≤
1
λ2
λ=2
P (|µx − 2σx ≤ X ≤ µx + 2σx ) ≥
3
4
2σx -Bereich
λ=3
P (|µx − 3σx ≤ X ≤ µx + 3σx ) ≥
8
9
3σx -Bereich
9
8.5
8.5.1
Spezielle Zufalls-Variablen
Diskrete Verteilung
A ∈ E(Ω)
[Ω, E(Ω), P ]
mit P (A) = Π > 0
Bernoulli - Experiment es wird n mal unabhängig ausgeführt. X gibt an wie oft
A eingetreten ist.
Werte von X:
0; 1; 2; 3; · · · ; n
pi = P (X = i) =
n
i
· Πi · (1 − Π)n−i
Binomial Verteilung mit n ∈ N 0 < Π < 1
X ∼ B(n; Π)
µx = E(X) = n · Π;
σx2 = V (X) = n · Π · (1 − Π)
für sehr große n und sehr kleine Π:
Faustregel: Π ≤ 0, 1; n ≥ 50 und n · Π ≤ 9
B(n; Π) → Po (µ)
X ∼ Po (µ)
Po (µ) = P (X = i) = e−µ ·
µi
i!
mit µ = n · Π
E(X) = µ = V (X)
Bernoulli - Experiment X gibt die Anzahl der Wiederholungen an bis A erstmalig
eingetreten ist.
Werte von X:
N
pi = P (X = i) = Π · (1 − Π)i−1
X ∼ G(Π) heißt Geometrische Verteilung
E(X) =
1
;
Π
V (X) =
1−Π
Π2
Hypergeometrische Verteilung
Modell: Urne mit N Kugeln, 0 < M < N rote, Rest schwarz, es werden n Kugeln
ohne zurücklegen gezogen.
X = Anzahl der roten unter n gezogenen Kugeln. Werte von X:
0; 1; 2; 3; · · · ; n
mit i ≤ M ; n − i ≤ N − M
pi = P (X = i) =
E(X) = n ·
M
N
−M
(Mi )·(Nn−i
)
N
(n)
V (X) = n ·
M
N
· 1−
M
N
10
·
N −n
N −1
8.5.2
Stetige Verteilung
Rechteck- oder Gleichverteilung:
Exp.: zufällige Wahl einer Zahl im Intervall [α; β], α < β


,x < α
0
1
Dichte
f (x) = β−2 , α ≤ x ≤ β


0
,x ≥ β


,x ≤ α
0
Rx
x−α
Verteilungfunktion
F (x) = −∞ f (t)dt = β−α
,α < x < β


1
,x ≥ β
Rb
b−a
P (a ≤ X ≤ b) = a f (x)dx = β−α
Exponentialverteilung:
Seltenes Ereignis wird mit der Poission-Verteilung beschrieben. Dann ist die Zeit, die
bis zum nächsten Eintreten dieses Ereignisses vergeht- die Wartezeit-exponential-Verteilt.
(
0
,x < 0
f (x) =
Dichte
λ · e−λx , x ≥ 0
Verteilungfunktion
F (x) =
Rx
−∞
f (t)dt =
E(X) = λ1 ; V (X) =
Rx
0
x
λ · e−λt dt = −e−λt 0 = 1 − e−λx =
(
0
1 − e−λx
1
λ2
Satz: Die Exponentialverteilung hat ”kein Gedächtnis”; d.h.
P (X > s + t|X > t) = P (X > s)
für alle s, t.
Normalverteilung:
ϕµ,σ2 (x) =
√1
2π·σ
Φµ,σ2 (x) =
Rx
· e−
−inf ty
(x−µ)2
2σ 2
ϕµ,σ2 (t)dt
(Gaus-Verteilung) tabeliert für µ = σ 2 = 1
11
,x < 0
,x ≥ 0
Herunterladen