Formeln Stochastik

Werbung
Formeln Stochastik
Inhaltsverzeichnis
1 Zufällige Ereignisse und deren Wahrscheinlichkeiten
1.1 Ereignisalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Wahrscheinlichkeit eines zufälligen Ereignis . . . . . . . . . . . . . . . . . .
1.2.1 Klassische “Wahrscheinlichkeitstheorie“ . . . . . . . . . . . . . . . .
1.2.2 Axiomatischer Wahrscheinlichkeitsbegriff: Wahrscheinlichkeitsraum .
1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit von Ereignissen . . . . . .
1.3.1 Definition der Bedingten Wahrscheinlichkeit und Multiplikationssatz
1.3.2 Unabhängigkeit von Ereignissen . . . . . . . . . . . . . . . . . . . .
1.3.3 Satz von der totalen Wahrscheinlichkeit und Satz von Bayes . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
2
2
3
4
4
5
6
2 Zufallsgrößen
2.1 Zufallsgrößen und ihre Verteilungsfunktion .
2.2 Diskrete und stetige Zufallsgrößen . . . . .
2.3 Erwartungswert und Varianz . . . . . . . .
2.3.1 Bedeutung des Erwartungswertes . .
2.3.2 Bedeutung der Varianz . . . . . . . .
2.4 Wichtige diskrete Verteilungen . . . . . . .
2.4.1 Diskrete gleichmäßige Verteilung . .
2.4.2 Binomialverteilung . . . . . . . . . .
2.4.3 Hypergeometrische Verteilung . . . .
2.4.4 Poission-Verteilung . . . . . . . . . .
2.5 Wichtige stetige Verteilungen . . . . . . . .
2.5.1 Stetige gleichmäßige Verteilungen . .
2.5.2 Exponentialverteilung . . . . . . . .
2.5.3 Normalverteilung . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
7
8
9
9
10
10
10
10
11
12
12
12
13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 Zufällige Ereignisse und deren Wahrscheinlichkeiten
1.1 Ereignisalgebra
Mit Ereignissen A, B, . . . kann gerechnet werden wie mit Teilmengen:
A=B
A ⊆ B oder B ⊇ A
A∪B
A∩B
A\B
Insbes.: Ω \ B := B
AMB
(= B C )
(A tritt genau dann ein, wenn B eintritt)
(Eintreten von A zieht das Eintretten von B nach sich)
(Summe oder ,,Vereinigung“ von A und B, tritt genau dann ein, wenn
mindestens eines der Ereignisse A oder B eintritt)
(Produkt oder ,,Durchschnitt“ von A und B, tritt genau dann ein, wenn
sowohl A und B eintreten, d. h. A und B eintreten)
(Differenz von A und B tritt genau dann ein, wenn A eintritt aber B
nicht)
(Komplementärereignis oder ,,Komplement“ von B, tritt genau dann ein,
wenn B nicht eintritt)
(Symmetrische Differenz von A und B, tritt genau dann ein, wenn A oder
B eintritt, nicht aber beide Ereignisse, d. h. A M B tritt genau dann ein,
wenn eines der Eregnisse A oder B eintritt.)
1.2 Wahrscheinlichkeit eines zufälligen Ereignis
Absolute Häufigkeit
Hn (A) = kn
relative Häufigkeit
hn (A) =
kn
n
1.2.1 Klassische “Wahrscheinlichkeitstheorie“
4 Grundaufgaben der Kombinatorik
1. Wiederholung zugelassen, Reihenfolge wird berücksichtigt
Variation mit Wiederholung
Ṽnk = nk
2. Wiederholung nicht zugelassen, Reihenfolge wird berücksichtigt
Variation ohne Wiederholung
Vnk =
Spezialfall: n = k
n!
(n − k)!
Vnk = n!
3. Wiederholung nicht zugelassen, Reihenfolge wird nicht berücksichtigt
Kombination ohne Wiederholung
n!
n
Cnk =
=
(n − k)k!
k
2
4. Wiederholung zugelassen, Reihenfolge wird nicht berücksichtigt
Kombination mit Wiederholung
n+k−1
(n + k − 1)!
n+k−1
C̃nk =
=
=
k
k!(n − 1)!
n−1
1.2.2 Axiomatischer Wahrscheinlichkeitsbegriff: Wahrscheinlichkeitsraum
Da im allgemeinen nicht jede Teilmenge von Ω eine Wahrscheinlichkeit zugeordnet werden kann, muss
zunächst eine geeignete Familie von Teilmengen ausgewählt werden (σ-Algebra).
Eine Familie A von Teilmengen von Ω heißt eine σ-Algebra, falls gilt:
1. ∅ ∈ A
2. aus A ∈ A folgt A ∈ A
3. aus {Aj }j∈N ⊆ A folgt
!
∞
S
Aj
∈A
j=1
Eigenschaften einer σ-Algebra
1. es ist Ω ∈ A
2. Für n ∈ N und {Aj }nj=1 ⊆ A ist

n
[


Aj 
∈ A
j=1
3. Für jede endliche oder unendliche Folge {Aj } ⊆ A gilt:
\
Aj ∈ A
j
4. Ist A, B ∈ A, so ist
A\B ∈A
und A4B ∈ A
Eine Funktion
P :
A
→ [0, 1]
auf einer σ-Algebra heißt Wahrscheinlichkeitsmaß, falls
(i) Normiertheit
P (Ω)
=
(ii) σ-Additivität (des Wahrscheinlichkeitsmaßes P )


∞
∞
[
X
P
Aj  =
P (Aj )
j=1
1
für jede {Aj }j∈N ⊆ A
j=1
paarweise disjunkte Mengen (d. h. Aj ∩ Ak = ∅ für alle j, k ∈ N, j 6= k) gilt.
3
Ein Tripel (Ω, A, P ) aus einer Menge Ω, einer σ-Algebra A von Teilmengen von Ω und eines Wahrscheinlichkeitsmaß P auf A heißt Wahrscheinlichkeitsraum.
Interpretation
Ω - Menge der Elementarereignisse
A - Familie der zufälligen Ereignisse
P (A) - Wahrscheinlichkeit des zufälligen Ereignisses A, wobei A ∈ A
Eigenschaften von Wahrscheinlichkeiten
(i) P (∅) = 0
Aus A ∈ A und P (A) = 0 folgt i.a. nicht das A = ∅
(ii) ist A ⊆ B, A, B ∈ A, so ist
P (B\A) = P (B) − P (A)
Insbesondere
P (A) ≤ P (B)
(iii) Für A ∈ A ist
P (A) = 1 − P (A)
(iv) Für A, B ∈ A beliebig gilt:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
(v) (Siebformel)
Verallgemeinerung auf drei Ereignisse A, B, C ∈ A
P (A ∪ B ∪ C)
= P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit von Ereignissen
1.3.1 Definition der Bedingten Wahrscheinlichkeit und Multiplikationssatz
Zusätzliche Informationen über ein Zufallsexperiment, z. B. die Information, dass ein gewisses Ereignis
eingetreten ist, können die Wahrscheinlichkeiten der Ereignisse verändern. Das kann mit dem folgendem
Begriff beschrieben werden.
Seien A, B ∈ A und P (A) > 0. Dann heißt
P (B|A)
=
P (A ∩ B)
P (A)
die Bedingte Wahrscheinlichkeit von B unter der Bedingung A (ausführlicher: unter der Bedingung, dass
A eingetreten ist).
Multiplikationssatz: Sind A, B ∈ A mit P (A) > 0, so ist
P (A ∩ B)
= P (A) · P (B|A)
Verallgemeinerung des Multiplikationssatz auf n Ereignisse, n ∈ N, n ≥ 2:
P (A1 ∩ A2 ∩ . . . ∩ An ) =P (A1 ) · P (A2 |A1 ) · P (A3 |(A1 ∩ A2 )) · . . .
· P (An |A1 ∩ A2 ∩ . . . ∩ An−1 )
4
1.3.2 Unabhängigkeit von Ereignissen
Zwei Ereignisse A, B ∈ A heißen (stochastisch) unabhängig, falls
P (A ∩ B)
= P (A) · P (B)
gilt.
Sind A und B unabhängig und ist P (A) > 0, so ist
P (B|A)
P (A ∩ B)
P (A)
P (A) · P (B)
=
P (A)
= P (B)
=
, d. h. eine Kenntnis vom Eintreten von A beeinflusst die Wahrscheinlichkeit von B nicht.
Sind A und B unabhängig, so sind auch A und B, bzw. A und B bzw. A und B unabhängig.
Sei n ∈ N, n ≥ 2. Die n Ereignisse A1 , . . . , An ∈ A heißen (stochastisch) unabhängig oder vollständig
(stochastisch) unabhängig, falls für jede mindestens zweielementige Teilmenge J von {1, . . . , n} die Gleichung
[
Y
P(
Aj ) =
P (Aj )
j∈J
j∈J
gilt.
Sie heißen paarweise (stochastisch) unabhängig, falls für jede genau zweielementige Teilmenge J von
{1, . . . , n} die Gleichung
[
Y
P(
Aj ) =
P (Aj )
j∈J
j∈J
gilt.
Eine Familie {Aλ }λ∈Λ heißt (stochastisch) unabhängig oder vollständig (stochastisch) unabhängig,
falls jede endliche Teilmenge (stochastisch) unabhängig ist.
Sie heißt paarweise (stochastisch) unabhängig, falls
P (Aλ1 ∩ Aλ2 )
= P (Aλ1 ) · P (Aλ2 )
für beliebige λ1 , λ2 ∈ Λ, λ1 6= λ2 gilt.
Die drei Ereignisse A, B, C ∈ A sind unabhängig oder vollständig, g. d. w. die vier Gleichungen
P (A ∩ B)
= P (A) · P (B)
P (A ∩ C)
= P (A) · P (C)
P (B ∩ C)
= P (B) · P (C)
P (A ∩ B ∩ C)
= P (A) · P (B) · P (C)
erfüllt sind.
Anwendung des Begriffes der stochastischen Unabhängigkeit:
Zufällige Ereignisse in der Praxis, die sich gegenseitig nicht beeinflussen werden häufig als stochastisch unabhängige Ereignisse modelliert. (Insbesondere: Bei mehrfachen Versuchsdurchführungen werden Ereignisse,
die sich auf unterschiedliche Versuche beziehen, üblicherweise als stochastisch unabhängig angeben.) Die
Entscheidung, ob sich in praktischen Ereignisse gegenseitig beeinflussen, ist oft eine Ermessensfrage.
5
1.3.3 Satz von der totalen Wahrscheinlichkeit und Satz von Bayes
Eine endliche oder unendliche Folge {Aj }j∈J ⊆ A von Ereignissen heißt ein vollständiges Ereignissystem,
falls
[
Aj = Ω
und
j∈J
Aj ∩ Ak
= ∅
für j, k ∈ J, j 6= k
Satz von der totalen Wahrscheinlichkeit:
Sei {Aj }j∈J ein vollständiges Ereignissystem, P (Aj ) > 0 j ∈ J. Dann gilt für jedes B ∈ A:
X
P (B) =
P (Aj ) · P (B|Aj )
j∈J
Wichtiger Spezialfall: Falls P (A) > 0 und P (A) > 0, so ist
P (B)
= P (A) · P (B|A) + P (A) · P (B|A)
für jedes B ∈ A.
Satz von Bayes:
Sei {Aj }j∈J ein vollständiges Ereignissystem mit P (Aj ) > 0, j ∈ J. Sei B ∈ A und P (B) > 0. Dann ist
P (Ak |B)
=
P (A ) · P (B|Ak )
P k
P (Ak ) · P (B|Ak )
j∈J
2 Zufallsgrößen
2.1 Zufallsgrößen und ihre Verteilungsfunktion
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Eine Funktion
X:Ω→R
Jedem zufälligen Ereignis wird eine reelle Zahl zugeordnet, z.B. Würfelergebnis, Gewinn
von der Menge Ω der Elementarereignisse in die Menge der reellen Zahlen heißt (reelle) Zufallsgröße, falls
die folgende Bedingung erfüllt ist
(*) Für jedes x ∈ R gehört das Urbild X −1 ((−∞, x]) des Intervalls (−∞, x], d. h. die Menge
{ω ∈ Ω : X(ω) ∈ (−∞, x]}
=:
(X ≤ x)
zur σ-Algebra.
Die Eigenschaft (*) heißt Meßbarkeit von X. Die reellen Zufallsgrößen sind also genau alle meßbaren reellwertigen Funktionen auf Ω.
Sei X : Ω ∈ R eine Zufallsfunktion. Die durch
FX (x)
=: P (X −1 ((−∞, x]) = P (X ≤ x)
definierte Funktion FX := F heißt Verteilungsfunktion von X.
6
x∈R
Sei F eine Verteilungsfunktion von X. Dann gilt:
(i) 0 ≤ F (x) ≤ 1 für alle x ∈ R,
(ii) F ist monoton wachsend, d. h. F (x1 ) ≤ F (x2 ) für x1 , x2 ∈ R mit x1 < x2 ,
(iii) F ist rechtsseitig stetig,
(iv)
lim F (x) = 0,
x→−∞
lim F (x) = 1,
x→∞
Mit Hilfe von FX lassen sich verschiedene Wahrscheinlichkeiten, die X betreffen, ausrechnen.
Sei F eine Verteilungsfunktion einer Zufallsgröße X und seien a, b ∈ R mit a < b. Dann gilt:
(i)
P (a < X ≤ b)
= F (b) − F (a)
(ii)
P (X = a)
= F (a) − F (a − 0)
, wobei F (a − 0) den linksseitigen Grenzwert in a bezeichnet.
(iii)
= F (b − 0) − F (a)
P (a < X < b)
(iv)
P (a ≤ X < b)
= F (b − 0) − F (a − 0)
(v)
P (a ≤ X ≤ b)
= F (b) − F (a − 0)
2.2 Diskrete und stetige Zufallsgrößen
Eine Zufallsgröße heißt diskret, falls sie endlich viele oder abzählbar unendlich viele verschiedene Werte
annehmen kann.
Beschreibung einer diskreter Zufallsgröße X möglich durch Angabe der Werte xj die X annehmen kann,
sowie durch Angabe der Einzelwahrscheinlichkeiten pj := P (X = xj ), j ∈ J. Diese Angaben sind äquivalent zur Angabe der Verteilungsfunktion FX der diskreten Zufallsgröße X. Es gilt nämlich der folgende
Zusammenhang.
Eine diskrete Zufallsgröße X nehme paarweise verschiedene Werte xj mit den Wahrscheinlichkeiten pj :=
P (X = xj ), j ∈ J und sonst keinen weiteren Werte an. Dann gelten folgende Aussagen:
(i) pj ≥ 0
X
pj
=
1
j∈J
(ii)
FX (x)
=
X
j∈J
xj ≤x
, wobei die Summation mit xj ≤ x zu erstrecken ist.
7
pj
(iii) Fx ist eine Treppenfunktion, die Sprünge genau in den Punkten xj mit Sprunghöhe pj hat, j ∈ J.
Eine Zufallsgröße heißt stetig, falls ihr Verteilungsfunktion überall stetig ist, bis auf eventuell endlich viele
Ausnahmen überall differenzierbar und ihre Ableitung F 0 integrierbar ist (in den eventl. vorhanden Ausnahmenpunkten ist F 0 gleich 0 gesetzt).
Die Ableitung F 0 =: f heißt Verteilungsdichte der Zufallsgröße.
Zx
FX (x)
x∈R
f (y) dy,
=
−∞
d. h. bei einer stetigen Zufallsgröße ist die Angabe der Verteilungsfunktion äquivalent zur Angabe der
Verteilungsdichte f . Üblicherweiße wird f angegeben. Die Berechnung von Wahrscheinlichkeiten erfordert
häufig eine Integration, z. B.:
P (a < X ≤ b)
= P ((X ≤ b) \ (X ≤ a))
= P (X ≤ b) − P (X ≤ a)
Zb
Za
f (y) dy −
f (y) dy
=
−∞
−∞
Zb
=
f (y) dy,
a, b ∈ R, a < b
a
Da die Verteilungsfunktion FX einer stetigen Zufallsgröße stetig ist, folgt die folgende Beziehung:
(i)
P (X = a)
=
FX (a) − FX (a − 0) = 0
für jedes a ∈ R, d. h. eine stetige Zufallsgröße nimmt jeden konkreten Wert mit Wahrscheinlichkeit 0
an.
(ii)
P (a < X ≤ b) =P (a < X < b)
=P (a ≤ X < b)
=P (a ≤ X ≤ b)
=FX (a) − FX (b)
für alle a, b ∈ R, a < b.
2.3 Erwartungswert und Varianz
Diskrete Zufallsgröße
Sei X P
eine diskrete Zufallsgröße, die genau die Werte xj mit pj = P (X = xj ), j ∈ J annimmt. Falls die
Reihe
xj pj absolut konvergiert, so heißt
j∈J
EX
X
:=
j∈J
8
xj pj
Erwartungswert von X. Weiter heißt
V ar(X) = σ 2 (X) = D2 X
:=
X
(xj − EX)2 pj
j∈J
die Varianz (oder Streuung) und
σ(X)
p
:=
V ar(X)
die Standardabweichung von X.
Stetige Zufallsgröße
R∞
Sei X eine stetige Zufallsgrößen mit Verteilungsdichte f . Falls
|x|f (x) dx < ∞, so heißt
−∞
Z∞
EX
:=
xf (x) dx
−∞
Erwartungswert von X. Weiter heißt
2
Z∞
2
V ar(X) = σ (X) = D X
:=
(x − EX)2 f (x) dx
−∞
die Varianz (oder Streuung) und
σ(X)
p
:=
V ar(X)
die Standardabweichung von X.
Sei X eine diskrete oder stetige Zufallsgröße, für die EX definiert ist. Dann gilt:
(i)
E(aX + b)
=
aEX + b
für a, b ∈ R
(ii) Ist X ≥ 0, so ist EX ≥ 0
(iii)
V ar(X)
=
E(X − EX)2 = EX 2 − (EX)2
(iv)
V ar(aX + b)
=
a2 V ar(X)
für a, b ∈ R
2.3.1 Bedeutung des Erwartungswertes
Der Erwartungswert entspricht bzgl. der Zufallsgröße die das arithmetische Mittel bzgl. einer Datenmenge
spielt.
2.3.2 Bedeutung der Varianz
Die Varianz ist ein Maß dafür, wie stark die Werte der Zufallsgröße getrennt sind. Grob gesagt gilt:
Je stärker die Streuung, d.h. je größer die Varianz, desto unsicherer sind die Aussagen die über die Zufallsgröße
gemacht werden können.
9
2.4 Wichtige diskrete Verteilungen
2.4.1 Diskrete gleichmäßige Verteilung
Sei n ∈ N. Eine Zufallsgröße X, die genau die n paarweise verschiedene Werte x1 , . . . , xn ∈ R annimmt, heißt
(diskrete) gleichmäßig verteilt (auf den Werten x1 , . . . , xn ), falls
P (X = xi )
1
n
=
i = 1, . . . , n
gilt.
2.4.2 Binomialverteilung
Ein gewissen Ereignis A trete bei einem Zufallsexperiment mit Wahrscheinlichkeit P (A) =: p ein. Sei q :=
1 − p = 1 − P (A) = P (A). Sei n ∈ N. Die Zufallsgröße X gebe die Anzahl des Eintretens von A in einer Serie
von n unabhängig und unter gleichen Bedingungen ablaufenden Ausführung des Zufallsexperiment an.
Eine Zufallsgröße X, die genau die n+1 Werte 0, 1, . . . , n mit der Wahrscheinlichkeit
n k n−k
P (X = k) =
p q
,
k = 0, 1, . . . , n
k
annimmt heißt binomialverteilt mit den Parametern n und p oder B(n, p)-verteilt.
Für eine B(n, p)-verteilte Zufallsgröße X gilt
EX
=
np
V ar(X)
=
npq
und
Ist X eine B(n, p)-verteilte Zufallsgröße, so ist
E
X
n
=
p
2.4.3 Hypergeometrische Verteilung
Seien N, M, n ∈ N, n ≤ N, M ≤ N . Aus N Elementen, von denen genau M ein gewisses Merkmal aufweisen,
werden n Elemente ohne zurücklegen ausgewählt. Die Zufallsgröße X gebe an, wieviel der ausgewählten
Elemente das Merkmal aufweisen.
Seien N, M, n ∈ N, n ≤ N, M ≤ N . Eine Zufallsgröße X besitzt eine hypergeometrische Verteilung mit
den Parametern N, M und n oder H(N, M, n)-Verteilung, falls
M N −M
P (X = k)
=
k
n−k
N
n
für max(0, n + M − N ) ≤ k ≤ min(n, M ) und
P (X = k)
=
0
für 0 ≤ k < n + M − N oder M < k ≤ n gilt, k ∈ N ∪ {0}
Für eine (H, M, n)-verteilte Zufallsgröße X gilt:
EX
=
V ar(X)
=
Mn
N
N
M n(N − M )(N − n)
N 2 (N − 1)
10
Beispiel
Unter 100 Werkstücken sind 5 Ausschuß. Es werden zufällig 10 Werkstücke ausgewählt
(i) mit zurücklegen,
(ii) ohne zurücklegen,
Wahrscheinlichkeit, dass sich unter 10 ausgewählten Werkstücken genau ein Ausschussteil befindet
1
(i) X - Anzahl der Auschussteile ist B(10; 20
)-verteilt
19
19
10
1
·
P (X = 1) =
·
20
20
1
≈ 0, 32
(ii) X - Anzahl der Auschussteile ist H(100; 5; 10)-verteilt
5
1
P (X = 1)
=
·
100−5
10−1
100
10
≈ 0, 34
Man erkennt an diesem Beispiel:
• Mit zurücklegen ⇒ Binomialverteilung
• Ohne zurücklegen ⇒ Hypergeometrischeverteilung
Sei n ∈ N. Für k = 0, 1, . . . , n gilt:
M
k
lim
N →∞
M →∞
M
N →p
N −M
n−k
N
n
n k n−k
=
p q
k
2.4.4 Poission-Verteilung
Sei λ ∈ R, λ > 0. Eine Zufallsgröße X, die genau die Zahlen 0, 1, 2, . . . mit den Wahrscheinlichkeiten
λk −λ
e
k!
annimmt heißt Piosson-verteilt mit dem Parameter λ.
P (X = k)
=
k = 0, 1, 2, . . .
Gibt eine Zufallsgröße X die Anzahl des Eintretens gewisser Ereignisse an, die zahlreich sind, aber jedes für
sich nur eine geringe Eintrittswahrscheinlichkeit hat, so wird häufig angenommen, dass X näherungsweise
eine Piosson-Verteilung besitzt.
• Anzahl der Anrufe in einer Telefonzentrale während eines geeigneten Zeitintervalls
• Anzahl der pro geeigneten Zeitintervall zerfallenden Atome eines spaltbaren Materials
Ist X Piosson-verteilt mit Parameter λ, so ist
EX = V ar(X)
= λ
Grenzwertsatz für Poisson)
Für k = 0, 1, 2, . . . gilt:
lim
n→∞
p→0
np=λ=cons
n k
p (1 − p)n−k
k
=
⇒ Annäherung der Binomialverteilung durch die Poissonverteilung
11
λk −λ
e
k!
2.5 Wichtige stetige Verteilungen
2.5.1 Stetige gleichmäßige Verteilungen
Seien a, b ∈ R, a < b. Eine stetige Zufallsgröße X heißt gleichmäßig verteilt (über dem Intervall [a, b]),
falls ihre Verteilungsdichet fX die Form
(
1
x ∈ [a, b]
b−a
fX (x) =
0
x ∈ R \ [a, b]
hat.
Ist X gleichmäßig über [a, b] veteilt, so ist
FX (x)
=


0
x−a
 b.a

EX
=
V ar(X)
=
1
x<a
a≤x<b
x≥b
a+b
2
(b − a)2
12
2.5.2 Exponentialverteilung
Sei α ∈ R, α > 0. Eine stetige Zufallsgröße X besitzt eine Exponentialverteilung mit Parameter α, falls
ihre Verteilungsdichte fX folgende Form
(
αe−αx x ≥ 0
fX (x) =
0
x<0
hat.
12
Als (näherungsweise) exponentialverteilte Zufallsgröße werden häufig modelliert:
• Service- und Wartezeiten
• Lebensdauer von Geräten, bei denen der Verschleiß vernachlässigbar ist (z. B. Glühlampe)
• Zerfallszeit eines Atoms eines radioaktiven Elements
Ist X exponentialverteilt mit Parameter α, α ∈ R, α > 0, so ist
(
0
x<0
FX (x) =
1 − e−αx x ≥ 0
EX
=
V ar(X)
=
1
α
1
α2
2.5.3 Normalverteilung
Seien µ, σ ∈ R, σ > 0. Eine stetige Zufallsgröße X besitzt eine Normalverteilung mit den Parametern µ
und σ 2 oder eine N (µ, σ 2 )-Verteilung, falls ihre Verteilungsdichte fX die Form
fX (x)
√
=
(x−µ)2
1
e− 2σ2
2πσ
x∈R
hat.
Kurvendiskussion: für fX :
Sei zunächst µ = 0. Dann ist fX gerade, also ihr Bild ist symmetrisch zur Ordinatenachsen. Es ist
lim fX (x) = lim fX (x)
x→−∞
=
x→∞
0
Die Kurve für µ 6= 0 erhält man durch Verschiebung von µ entlang der Abszissenachse.
Einfluss von σ 2 : Je größer σ 2 , desto flacher wird die Kurve.
Außerdem gilt:
µ+3σ
Z
fX (x) dx
≈ 0, 997
µ−3σ
, d. h. die Wahrscheinlichkeit, dass eine N (µ, σ 2 )-verteiltes Zufallsgröße X eines Wertes ausserhalb von
[µ − 3σ, µ + 3σ] annimmt ist gering (≈ 0, 003) ⇒ 3σ-Regel für die Praxis
P (|x − µ| ≥ 3σ)
=
0
Es ist
Z∞
e−
x2
x
dx
−∞
13
=
√
2π
Ist X eine N (µ, σ 2 )-verteilte Zufallsgröße, so ist
EX
= µ
= σ2
V ar(X)
Ermittlung von Wahrscheinlichkeiten:
Seien a, b ∈ R, a < b. Sei X eine N (µ, σ 2 )-verteilte Zufallsgröße, dann ist
P (a < X < b)
=
1
√
2πσ
Zb
e−
(x−µ)2
2σ 2
dx
a
(x−µ)2
Dieses Integral lässt sich nicht exakt berechnen, da sich eine Stammfunktion x → e− 2σ2 nicht formelmäßig
ausdrücken lässt. Deshalb erfolgt näherungsweise die Berechnung mit Methoden der numerischen Mathematik. Ergebnisermittlung mit Hilfe von Computern oder Tabellen.
Überführung auf standardisierte Normalverteilung:
Von besonderer Bedeutung ist die N (0, 1)-Verteilung oder standardisierte Normalverteilung. Verteilungsfunktion bzw. Verteilungsdichte einer Zufallsgröße mit N (0, 1)-Verteilung werden häufig mit Φ oder ϕ bezeichnet.
Eine N (µ, σ 2 )-verteilte Zufallsgröße X kann durch die einfache Transformation
X −µ
σ
=: Z
in eine Zufallsgröße Z mit N (0, 1)-Verteilung überführt werden.
Sei X eine N (µ, σ 2 )-verteilte Zufallsgröße und seine na ∈ R \ {0} und b ∈ R. Dann ist Y := a(X + b) eine
N (aµ + ab; a2 σ 2 )-verteilte Zufallsgröße.
Bedeutung der Normalverteilung:
Sehr viele Zufallsgrößen, die als Modell für praktische Probleme dienen, können (näherungsweise) als normalverteilt angenommen werden. Die theoretische Begründung dafür liefert die Zentrale Grenzwertsatz, aus
dem, grob gesagt, folgt, dass eine Zufallsgröße, die sich als Summe einer sehr großen Anzahl unabhängiger
Zufallsgrößen darstellen läßt, von denen jede auf die Summe nur einen unbedeutigen zufälligen Einfluß hat,
näherungsweise normalverteilt ist.
14
Herunterladen