Formelsammlung

Werbung
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Formelsammlung
II. Wahrscheinlichkeitsrechnung
Zufällige Ereignisse
Zufälliger Versuch
V
Beliebig oft unter den gleichen Bedingungen wiederholbares
Experiment, bei dem die (Beobachtungs-) Ergebnisse zufällig, also
nicht eindeutig vorhersagbar sind.
Zufällige Ereignisse
A,B,C,...
Beobachtungsergebnisse in einem zufälligen Versuch V.
Werden durch Mengen beschrieben!
Elementarereignisse
{ω}
Zusammengesetzte
Ereignisse
Unmittelbar im Versuch V beobachtete (kleinste bzw. atomare)
Ereignisse
Entstehen aus den Elementarereignissen durch Anwendung von
Mengenoperationen ∩, ∪, ¬ (Komplement), \ .
Ereignisfeld
Menge aller zu V definierbaren Ereignisse.
– Elementarereignis,
- Menge aller zu einem zufälligen Versuch V
definierbaren Elementarereignisse,
- beliebiges Ereignis zu V,
A⊆ Ω
A := Ω\A
– Komplementärereignis zu A ( A := ‘nicht A‘ bzw. ‘¬A‘ ),
℘(Ω)={A | A⊆ Ω} - Ereignisfeld (Menge aller zu V definierbaren
Ereignisse.
Bezeichnungen: {ω}
Ω
Sicheres Ereignis:
Ein Ereignis, was bei jeder Durchführung von V (also immer)
eintritt. (Beispiel: Ω)
Unmögliches Ereignis: Ein Ereignis, was bei jeder Durchführung von V niemals eintritt
(Beispiel: Ω := Ω \Ω = Φ)
Beispiel: Versuch V = ‘2 maliger Münzwurf‘
Struktur eines Elementarereignis:
{ω} mit ω=(W1, W2)
Wi∈{K(opf), Z(ahl)} für i=1,2
Menge aller Elementarereignisse zu V:
Ω = {(K,K), (K,Z), (Z,K), (Z,Z)}
Menge aller möglichen zu V definierbaren Ereignisse:
℘(Ω) ={φ, {(K,K)},{(K,Z)}, {(Z,K)},{(Z,Z)}, {(K,K),(K,Z)}, {(K,K),(Z,K)},
{(K,K),(Z,Z)},{(K,Z),(Z,K)}, {(K,Z),(Z,Z)}, {(Z,K),(Z,Z)},
{(K,K), (K,Z), (Z,K)}, {(K,K), (K,Z), (Z,Z)}, {(K,K), (Z,K), (Z,Z)},
{(K,Z), (Z,K), (Z,Z)}, Ω}
Ein spezielles Ereignis:
A= {(K,K),(Z,Z)} – ‘bei beiden Würfen das gleiche Ergebnis‘
A = {(K,Z),(Z,K)} – ‘beide Würfe haben unterschiedliche Ergebnisse‘
1
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Axiomatische Definition der Wahrscheinlichkeit (Kolmogorow)
Def: Sei V ein zufälliger Versuch und Ω die Menge der Elementarereignisse zu V.
Dann heißt eine Abbildung P : A⊆ Ω → P(A)∈[0,1], die jedem Ereignis von V
eine reelle Zahl im abgeschlossenen Intervall zwischen 0 und 1 zuordnet,
Wahrscheinlichkeitsmaß auf dem Ereignisfeld von V, falls P folgende 3 Axiome
erfüllt:
A1: ∀A ⊆ Ω : 0 ≤ P( A) ≤ 1 und
P(Φ ) = 0,
P ( Ω) = 1
A2: ∀A ⊆ Ω∀B ⊆ Ω : A ⊆ B ⇒ P( A) ≤ P( B)
A3: ∀A ⊆ Ω∀B ⊆ Ω : P( A ∪ B) = P( A) + P( B) − P( A ∩ B)
∞
∞
A4: P(∪ Ai ) = ∑ P( Ai ) , falls alle Ai gegenseitig disjunkt.
i =1
(Normiertheit) (N)
(Monotonie) (M)
(Additivität) (A)
(σ-Additivität) (σ-A)
i =1
Bemerkungen:
1) P(A) ist ein Vorhersagemaß für die Wahrscheinlichkeit (Chance) des Eintretens von A bei einmaliger
Durchführung des Versuchs V.
2) (N), (M), (A) sind auch Eigenschaften der relativen Häufigkeit hn(A). Damit bildet das axiomatische
Modell für die Wahrscheinlichkeit P(A) die Eigenschaften der beobachteten relativen Häufigkeit hn(A) in
der Praxis ab.
3) Man kann experimentell nachweisen, daß die relative Häufigkeit hn(A) eines Ereignisse A
gegen die Wahrscheinlichkeit P(A) konvergiert, wenn man die Anzahl n der Versuchswiederholungen
unendlich groß werden läßt (n →∞).
Damit kann die Wahrscheinlichkeit P als relative Häufigkeit bei unendlich vielen Versuchen aufgefaßt
werden: P(A):= h∞(A).
(oder: die Zahl P(A) ist die erwartete relative Häufigkeit des Eintretens von A bei einer
genügend großen Anzahl n von Versuchswiederholungen)
P(A) = 0.2 wird so interpretiert:
bei 100 maliger Veruchsdurchführung sollte das
Ereignis A ca. 20 mal eintreten.
bzw. A tritt in genau 20 % aller Versuche ein.
4) Auf den 4 Axiomen beruht die gesamte Theorie der Wahrscheinlichkeitsrechnung, d.h.
weitere Axiome sind nicht erforderlich.
Bedingte Wahrscheinlichkeit:
P(A / B): =
P( A ∩ B)
- Wahrscheinlichkeit des Eintretens von A unter der Bedingung
P( B)
(Voraussetzung), daß B eingetreten ist.
Die bedingte Wahrscheinlichkeit P( ⋅ /B) ist bei fester Bedingung B ein
Wahrscheinlichkeitsmaß auf ℘(Ω) !
Es gilt insbesondere :
P( A /B) = 1-P(A/B)
2
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Unabhängigkeit von Ereignissen:
Zwei Ereignisse A und B heißen stochastisch unabhängig, falls gilt: P(A ∩ B) = P(A)P(B)
Folgerung: Sind A und B stochastisch unabhängig, so gelten folgende Beziehungen:
P( A / B) = P( A)
P( A / B ) = P ( A)
P( B / A) = P( B)
P( B / A ) = P( B)
k Ereignisse A1, A2, ..., Ak heißen gegenseitig stochastisch unabhängig, falls für jede
Teilmenge {Ai1, ..., Aim}, i1,...,im∈{1,...,k} dieser Ereignisse gilt:
P(Ai1 ∩... ∩Aim) = P(Ai1)⋅P(Ai2)⋅...⋅P(Aim)
Folgerung: Sind B, A1, A2, ..., Ak gegenseitig stochastisch unabhängig, so gilt
für alle Teilmengen {Ai1, ..., Aim}⊆{ A1, A2, ..., Ak}:
P( B / Ai1 ∩... ∩Aim) = P(B)
Eigenschaften der Wahrscheinlichkeit P: (folgen aus den 3 Axiomen A1, A2, A3)
1) P( A ) = 1 - P(A)
2) P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
3) P( A1 ∪ A2 ∪ ... ∪ Ak ) = P( A1 ) + P( A2 ) + ... + P( Ak ) , falls Ai ∩ A j = Φ für i≠j.
4) Multiplikationssatz:
P( A1 ∩ A2 ∩ ... ∩ Ak ) = P( A1 ) ⋅ P( A2 / A1 ) ⋅ P( A3 /( A1 ∩ A2 ) ⋅ ... ⋅ P( Ak /( A1 ∩ A2 ∩ ... ∩ Ak −1 ))
5) P( A1 ∩ A2 ∩ ... ∩ Ak ) = P( A1 ) ⋅ P( A2 ) ⋅ P( A3 ) ⋅ ... ⋅ P( Ak ) , falls A1, A2, ..., Ak gegenseitig
stochastisch unabhängig sind.
6) Bedingte Wahrscheinlichkeit von A unter B:
P(A / B): =
P( A ∩ B)
P( B)
7) P( A /B) = 1-P(A/B)
8) Formel der Totalen Wahrscheinlichkeit:
Seien A1, A2, ..., Ak ein vollständiges Ereignissystem in Ω, d.h. es gelte Ai ∩ A j = Φ für
alle i≠j und Ω = A1 ∪A2 ∪ ... ∪Ak . Dann gilt für jedes Ereignis B⊆Ω:
k
P(B) =
∑ P( B / A ) P( A )
i =1
i
i
9) Satz von Bayes:
Seien A1, A2, ..., Ak und B wie unter 8) definiert. Dann gilt:
P ( Ai / B ) =
P ( B / Ai ) P ( Ai )
P( B)
3
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Die klassische Wahrscheinlichkeit
(Berechnung von Wahrscheinlichkeiten in Laplace-Versuchen (Glücksspielen))
Def: V heißt Laplace-Versuch, falls gilt:
1) die Menge Ω = {ω 1 ,..., ω m } der zu V gehörenden Elementarereignisse ist endlich (m < ∞) .
1
2) die Elementarereignisse sind gleichwahrscheinlich, d.h. P ({ω i }) =
für i=1,...,m.
m
Satz: Ist V Laplace-Versuch, so gilt P(A) =
A
Ω
(|M|:=Anzahl der Elemente in der Menge M)
Laplace-Versuche sind bei Glücksspielen typisch, P(A) ist als Chance des Eintretens von A
interpretierbar. (P(A) = Anzahl aller für A günstigen Versuchsausgänge im Verhältnis zur
Anzahl aller möglichen Versuchsausgänge)
Nützliche kombinatorische Formeln zur Berechnung klassischer Wahrscheinlichkeiten:
n
1)   = Anzahl aller k-elementigen Teilmengen, die man aus einer n-elementigen Menge
k 
auswählen kann.
2) n! = Anzahl aller Vertauschungen von n Elementen auf n Plätze.
Wahrscheinlichkeitsverteilungen diskreter und stetiger Zufallsgrößen
Def.
Eine Zufallsgröße X ist ein in einem zufälligen Versuch beobachtetes Merkmal, dessen
Wertebereich (direkt oder nach Skalierung) in der Menge der reellen Zahlen liegt.
Bezeichnungen:
X,Y,Z,..
- Zufallsgröße
x,y,z ,...
- Beobachtungen (Stichprobenwerte) der Zufallsgröße
, ...
- Wertebereich
a1,a2,.. bzw. b1,b2,...- mögliche Werte aus dem Wertebereich der Zufallsgröße
Eine Zufallsgröße X heißt diskret, falls ihr Wertebereich χ endlich oder abzählbar ist, d.h.,
falls χ={a1,...,ak}; k ≤ ∞. Andernfalls heißt X stetig. D.h., X ist stetig, falls der Wertebereich
χ ein Intervall (a,b) ⊆ R, a < b, enthält.
4
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
Diskrete Zufallsgröße
Wertebereich χ
Wahrscheinlichkeitsverteilung P
II Wahrscheinlichkeitsrechnung
Stetige Zufallsgröße
χ={a1,...,ak } endlich oder abzählbar viel Werte
Wahrscheinlichkeitsverteilung von X:
Gesamtheit aller Einzelwahrscheinlichkeiten
pi = P(X = ai) , i =1,...,k
∃(a,b) ⊆ R, a < b, mit (a,b) ⊆ χ ∞ viele Werte
Wahrscheinlichkeitsverteilung wird durch eine
Dichtefunktion f : χ ⊆ R R definiert:
Dichtefunktion f
Eigenschaften:
Verteilungsfunktion
(Summenhäufigkeitsfunktion) F
0 ≤ p i ≤ 1,
F (a) := P( X < a) =
Eigenschaften:
k
∑p
i =1
=1
i
∑ P( X = ai )
i:ai < a
f ( x) ≥ 0∀x ∈ χ ,
∞
∫ f ( x)dx = 1
−∞
a
F (a ) := P ( X < a ) =
∫ f ( x)dx
−∞
(F: Stammfunktion von f)
Eigenschaften:
1) 0 ≤ F(x) ≤1, 2) F(x) monoton nicht fallend
3) lim F ( x) = 0, lim F ( x) = 1
x → −∞
Berechnung von
Wahrscheinlichkeiten
P( X ∈ A) =
∑ P( X = a )
z.B.:
P( X ≤ a) =
P( X ∈ A) = ∫ f ( x)dx
i
i : ai ∈ A
x →∞
A
∑ P ( X = ai )
z.B.:
i:ai ≤ a
P ( a ≤ X ≤ b) =
P( a ≤ X ≤ b) = P( a < X < b)
b
= ∫ f ( x)dx = F (b) − F (a )
∑ P( X = a )
i :a ≤ ai ≤ b
i
a
Modalwert xM
x M : P( X = x M ) = max P( X = ai )
x M : f ( x M ) = max f ( x)
α-Quantil xα
xα : F ( xα ) ≤ α < F ( xα + ε )
xα : F ( xα ) = α
Erwartungswert EX
EX = ∑ a i P ( X = a i )
ai ∈χ
k
EX =
i =1
Varianz Var(X)
x∈χ
∞
∫ xf ( x)dx
−∞
∞
k
Var(X) = ( x − EX ) 2 f ( x)dx
∫
Var ( X ) = ∑ ( ai − EX ) 2 P ( X = ai )
i =1
−∞
Beispielverteilungen 2-Punkt-Verteilung, Binomialverteilung
Poissonverteilung,
Diskrete Gleichverteilung
5
Normalverteilung, Log-Normalverteilung
Exponentialverteilung, Stetige Gleichverteilung
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Berechnung diskreter Verteilungen:
V-zufälliger Versuch mit der Menge Ω der Elementarereignisse, X wird in V beobachtet.
Jedem Elementarereignis ω∈Ω wird ein Wert a für X zugeordnet: X(ω) = a∈χ
Dann gilt folgende Äquivalenz: X = a ⇔ A={ω / X(ω) = a} und P(X = a) = P(A).
Unabhängigkeit zweier Zufallsgrößen
Def: Seien X∈χ und Y∈ zwei Zufallsgrößen. Dann heißen X und Y stochastisch
unabhängig falls gilt:
P(X∈A und Y∈B) = P(X∈A) P(Y∈B) ∀ A⊆χ und ∀B⊆
Folgerung für den Spezialfall:
Sind X und Y diskret, also χ={a1,...,ak} und ={b1,...,bl}, dann sind X und Y stochastisch
unabhängig, falls gilt:
P( X = a i ∧ Y = b j ) = P( X = a i ) P(Y = b j ) für alle i=1,...,k und j=1,...,l.
Eigenschaften von Erwartungswerten und Varianz von Zufallsgrößen
X – diskret oder stetig (beliebig)
Satz: 1.) E (aX ) = aEX
2.) E (a ) = a
3.) E ( X + Y ) = EX + EY
4.) E ( X ⋅ Y ) = (EX ) ⋅ (EY )
falls X und Y stochastisch unabhängig
[ ]
Satz: 1.) Var ( X ) = E X 2 − E [X ] = E ( X − EX )
2.) Var (a ) = 0
2
2
3.) Var (aX + b ) = a 2 ⋅ Var ( X )
4.) Var (aX + bY ) = a 2 ⋅ Var ( X ) + b 2 ⋅ Var (Y ) , falls X und Y stochastisch unabhängig
Def.: Eine Zufallsgröße X mit EX = 0 und Var (X)=1 heißt Standardisierte Zufallsgröße
X→
Def.:
Var ( X )
X − EX
Var ( X )
–
Standardisierung einer Zufallsgröße
– Standardabweichung von X.
Die Tschebyscheff-Ungleichung
Satz: Es gilt ∀ε>0:
a ) P(( X − EX ) > ε ) ≤
Var ( X )
ε
2
b) P (( X − EX ) ≤ ε ) ≥ 1 −
bzw.
6
Var ( X )
ε2
Formelsammlung 2005 Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Zusammenhang zwischen I (Deskr. Stat.) und II (WR):
Begründung der Formeln für EX, Var(X) usw.
Sei X – diskret, X = {a 1 , a 2 ,..., a k }
deskriptive Statistik
ai
a1
a2
hn(ai)
hn(a1)
hn(a2)
ak
hn(ak)
Wahrscheinlichkeitsrechnung
n
→
→∞
hn (ai ) → pi
n →∞
ai
a1
pi = P(X = ai)
p1
ak
pk
rel.
Häufigkeitsverteilung
Wahrscheinlichkeitsverteilung
Aus der Konvergenz der relativen Häufigkeit gegen die Wahrscheinlichkeit ergibt sich:
arithm. Mittel:
=
k
1
n
x=
∑x
i
n
→
→∞
i =1
k
∑ a h (a )
i
n
EX =
k
∑a p
i
– Erwartungswert von X
i
i =1
i
i =1
Streuung:
s2 =
=
=
1
n
n
∑ (x
i
i =1
1
n −1
n
n −1
− x)
k
∑ (a
i =1
k
∑
i =1
2
− x ) ⋅ H n (a i )
2
i
( a i − x ) ⋅ h n (a i )
2
n
→
→∞
Var ( X) =
k
∑ (a
i =1
− EX) ⋅ p i - Varianz von X
2
i
Empirische Verteilungsfunktion:
Fn ( x) =
n
→ F( x) =
→∞
∑ h (a )
n
i
1:a i ≤ x
∑p
i:a i ≤ x
i
= P( X ≤ x)
– Verteilungsfunktion von X
– Anteil aller Beobachtungen
x j , j = 1,..., n mit
xj ≤ x
Hauptsatz der Statistik (Formuliert die stochastische Konvergenz für n→∞)
Satz: (Hauptsatz der Statistik)
Unter bestimmten Voraussetzungen gilt:


1) P (lim hn ( A) − P ( A) = 0) = 1 und 2) P  lim sup Fn ( x) − F( x) = 0 = 1
n →∞
 n→∞ x∈ℵ

D.h., die Wahrscheinlichkeit eines Ereignisses A entspricht der relativen Häufigkeit des Ereignisses nach ∞
vielen Versuchswiederholungen und die empirische Verteilungsfunktion der Beobachtungen einer Zufallsgröße
konvergiert mit Sicherheit gegen die (theoretische) Verteilungsfunktion der Zufallsgröße.
7
Formelsammlung Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Spezielle diskrete Wahrscheinlichkeitsverteilungen
Verteilung der Parameter
Zufallsgröße X
n, p
Binomialn=1,2,...
verteilung
0<p<1
Siehe auch *3)
unten
Poissonverteilung
Hypergeometrische
Verteilung
Geometrische
Verteilung
Diskrete
Gleichverteilung auf
einer Menge
ℵ={a1,...,ak}
Bezeichnung
Einzelwahrscheinlichkeiten EX
X~B(n,p)
n=1:
n k
n−k
Bernoulli- bzw. P(X = k) =  k  p (1 − p )
 
Zweipunktfür k = 0,1,...,n
verteilung
λ>0
X~P(λ)
N=1,2,...
M=1,2,...,N
n=1,2,...,N
X~H(N,M,n)
P(X = k) =
λk
e −λ
np
Var(X)
np(1-p)
Wahrscheinlichkeit dafür, daß bei n-maliger Wiederholung eines zweipunktverteilten Versuches mit der
Erfolgswahrscheinlichkeit p die Anzahl
der Erfolge X gleich k ist.
Wie bei der Binomialverteilung; aber p
und /oder n unbekannt und EX=np= λ
bekannt. Beschreibt Ankunftsströme.
Bsp: Anzahl X eintreffender Signale in
Einer Empfängerstation pro Zeiteinheit.
λ
λ
M
n
N
n
1
p
1− p
p2
k!
für k = 0,1,2.....
 M  N − M 

 
k  n − k 

P(X = k) =
N
 
n
für k=0,1,..., min{M,n}
0<p<1
X~Geo(p)
P(X = k) = p(1 − p)
k = 1,2,3,...
{a1,...,ak}⊆R
X~G({a1,...,ak})
P( X = ai ) =
k −1
Versuchsschema
(Anwendungsgebiet)
M
M N −n
(1 − )
N
N N −1
Wahrscheinlichkeit dafür, aus einer
Menge, die N Kugeln und davon M
Schwarze enthält, bei n-maligem
Ziehen ohne Zurücklegen X=k
Schwarze Kugeln zu ziehen.
Wahrscheinlichkeit dafür, bei n-maliger
Wiederholung eines 2-Punktverteilten
Versuchs mit Erfolgswahrscheinlichkeit
P erst beim k.ten Mal Erfolg zu haben.
2 Wahrscheinlichkeit dafür, daß bei einma1 k
1 k 2  1 k  liger Durchführung eines Versuches
a
∑ i ∑ ai −  ∑ ai 
k i =1
k i =1
 k i =1  eines von k gleichberechtigten
1
k
i = 1,2,...,k
Ereignissen eintritt. Wird bei Glücksspielen verwendet. Bsp.: X – zufällige
Augenzahl beim Würfeln.
8
Formelsammlung Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Spezielle stetige Wahrscheinlichkeitsverteilungen
Verteilung der
Zufallsgröße X
Stetige Gleichverteilung auf
Exponentialverteilung
einem Intervall zwischen a und b
Normalverteilung
Logarithmische NormalVerteilung
Parameter
a,b ∈R, a<b
λ>0
µ, σ2
µ, σ2
Bezeichnung
X~R(a,b)
X~E(λ)
X~N(µ, σ2)
Dichtefunktion
EX
Var(X)
Anwendungsgebiete
 1

f (t ) =  b − a
 0
falls a ≤ t ≤ b
sonst
a+b
2
(b − a) 2
12
Man weiß: Beobachtungen von X
liegen zwischen a und b und es gibt
keine Häufung.
Wird deshalb auch als
nichtinformative Verteilung
bezeichnet.
λe − λt
f (t ) = 
0
µ∈R, σ>0
X~logN(µ, σ2)
(t − µ )
−
falls t ≥ 0
1
2
f (t ) =
e 2σ ,
sonst
σ 2π
2
(ln t − µ )
 1
−
2σ 2

für t > 0
f (t ) = σt 2π e

0
sonst

2
∀t ∈ R
µ
1
e
λ
1
-zuf. Abbauzeit einer Droge
-zuf. Tel.gesprächsdauern
-zuf. Zeit zwischen 2 eintreffenden Nachrichten *2)
9
µ+
σ2
2
σ2
e 2 µ +σ (eσ − 1)
Beschreibung von symmetrischen
Häufigkeitsverteilungen.
Besonderheiten: siehe *1)
Beschreibung von schiefsymmetrischen Häufigkeitsverteilungen.
(Häufung auf der linken Seite)
nichtnegativer Zufallsgrößen .
λ2
Beschreibung von Wachstums- oder Abklingvorgängen, Bediendauern und
Zwischenankunftszeiten.
µ∈R, σ>0
-zufällige Körpergröße
-zufälliges Gewicht
-zufälliger IQ
-Meßfehler
-zuf. Rauschen
2
2
X unterliegt einer logarithmischen
Normalverteilung, wenn ln(X) eine
Normalverteilung besitzt.
Formelsammlung Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Besonderheiten der Verteilungen
*1) Besonderheiten der Normalverteilung:
1,2,3-σ Bereiche: Sei X~N(µ ,σ 2 ) . Dann gilt:
1) P( X − µ ≤ σ ) =0,682
2) P( X − µ ≤ 2σ ) = 0,954 3) P( X − µ ≤ 3σ ) = 0,998
Standardnormalverteilung : N(0,1)
Bezeichnung der Dichtefunktion : ϕ (t)
Bezeichnung der Verteilungsfunktion: φ(t)
Bezeichnung des α -Quantils: u α
Die Standardnormalverteilung (Φ (t)) ist tabelliert. Die Berechnung von beliebigen
Normalverteilungswahrscheinlichkeiten erfolgt über die Transformation in die
Standardnormalverteilung!
Umrechnung von N( µ , σ2 ) (F) zu N(0,1) (Φ ):
t −µ 
F(t) = Φ

 σ 
*2) Zusammenhang zwischen der Poisson- und der Exponentialverteilung
Satz: Sei X die zuf. Anzahl von eintreffenden Forderungen pro Zeiteinheit und T die zuf.
Zeit zwischen 2 eintreffenden Forderungen. Dann gilt:
X~P(λ) ⇔ T∼E(λ)
Bsp: Die Anzahl eintreffender Nachrichten sei poissonverteilt. Im Schnitt kommen 6
Nachrichten pro Stunde an. Dann ist die Zeit zwischen dem Eintreffen zweier Nachrichten
1
1
1
exponentialverteilt. Diese Zeit beträgt im Mittel ET= = −1 = h = 10 min
λ 6h
6
*3) Approximationen der Binomialverteilung
a) Approximation durch die Poisssonverteilung:
n k
λk −λ
n−k


=
Satz: Es gilt: lim   p (1 − p )
e
 n→∞  k
k!
  

 p →0 
 np = λ 


B(n,p) ≈ P(λ=np) für große n und kleine p (Empfehlung: n ≥ 20, p ≤ 0,01 )
b) Approximation durch die Normalverteilung
Aus dem Satz von Moivre – Laplace (siehe unten) folgt :
B(n,p) ≈ N(np, np(1-p)) für große n (Empfehlung: n ≥ 120 )
10
Formelsammlung Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Reproduktionssatz
Satz: (Reproduktionssatz)
Seien X und Y zwei stochastisch unabhängige Zufallsgrößen. Dann gelten folgende Aussagen:
(
(
)
1.) X ~ N µ , σ 2 ⇒ aX + b ~ N aµ + b, a 2 σ 2
)
(Typ der Normalverteilung bleibt bei linearen Transformationen erhalten.)
(
(
)
)
2
2.) X ~ N µ 1 , σ 1 

2
2
 ⇒ X + Y ~ N µ 1 + µ 2 , σ1 + σ 2
2
Y ~ N µ2 ,σ2 

(
)
3.) X ~ B(n1 , p )
⇒ X + Y ~ B(n1 + n2 , p )
Y ~ B(n2 , p ) 
4.) X ~ P(λ1 )
⇒ X + Y ~ P(λ1 + λ 2 )
Y ~ P(λ 2 ) 
Verteilung des arithmetischen Mittels einer Stichprobe normalverteilten ZG
σ2
1 n
)
X = ∑ X i ~ N(µ,
n
n i =1
Grenzwertsätze
Satz: (Zentraler Grenzwertsatz (ZGWS))
Seien X1,...,Xn n stochastisch unabhängige Zufallsgrößen mit EX i = µ i und = 1,...,n. Dann gilt:
n
∑ (X
i
i =1
− µi )
ist für große n standardnormalverteilt.
n
∑σ
2
i
i =1
n
∑ (X
Es gilt also:
i
i =1
− µi )
n
∑σ
≈ N(0, 1) bzw. äquivalent dazu :
2
n
 n
2
X i ≈ N µ i , σ i  ,

 i =1
i =1
i =1
n
∑
∑ ∑
i
i =1
falls n groß genug ist.
Empfehlung: n ≥ 120
(falls keine weiteren Informationen über die
Verteilung der Xi vorliegen)
D.h., wenn man n stochastisch unabhängige Zufallsgrößen additiv überlagert, so ist die entstehende
Summe approximativ für große n normalverteilt.
11
Formelsammlung Statistik Prof.Dr.B.Grabowski
II Wahrscheinlichkeitsrechnung
Spezialfälle des ZGWS
1) Approximation des arihmetischen Mittels einer Stichprobe:
Satz:
Sei X eine Zufallsgröße mit dem Erwartungswert EX = µ und der Varianz Var(X)=σ2. Seien
Xi für i=1,...,n eine Stichprobe von X. Dann gilt für das arithmetische Mittel der Stichprobe:
n(X − µ)
σ
→ N (0,1)
n→ ∞
Approximation:
X =
σ2
1 n
)
≈
N(
µ,
X
∑ i
n
n i =1
2) Approximation der Binomialverteilung durch eine Normalverteilung
(im ZGWS einsetzen: Xi Bernoulliverteilt mit Erfolgswahrscheinlichkeit p,
n
X := ∑ X i ~ B(np, np(1-p))
i =1
Satz: (Grenzwertsatz von Moivre – Laplace)
Sei X ~ B( n, p) . Dann gilt:
X − EX
Var ( X)
X − n⋅p
=
n ⋅ p(1 − p)
→ N (0,1)
n →∞
Approximation:
B(n , p) ≈ N(np, np(1-p) )
Approximative Verteilung der relativen Häufigkeit hn(A) eines Ereignisses A:
hn ( A) ≈ N ( p,
p (1 − p )
)
n
12
Herunterladen