Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik

Werbung
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Beispiele:
Fragestellung:
Schädlichkeit von Passivrauchen.
Ist das Risiko für eine Erkältungserkrankung bei Passivrauchern höher als bei
Nichtrauchern?
3 Gruppen von Testpersonen
1. Gruppe
2. Gruppe
3. Gruppe
40 Raucher
32 Passivraucher
44 Nichtraucher
Häufigkeit von Erkältungserkrankungen während der letzten 12 Monate:
In Gruppe 1: 24
In Gruppe 2: 20
In Gruppe 3: 16
24/40 = 60 %
20/32 = 63 %
16/32 = 36 %
⇒ Die Ergebnisse sind vom Zufall beeinflußt.
Zufallsexperiment
Beispiel:
-
Werfen eines Würfels
Ziehen einer Spielkarte
Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang, dessen
Ausgang nicht im Voraus schon feststeht.
-
Entnahme eines Bauteils aus einer Produktion und Prüfung.
Bestimmung der Lebensdauer eines Fernsehgerätes von bestimmten Typ.
Die Ausgänge eines Zufallsexperiment heißen (elementare) Zufallsereignisse.
Beispiel:
-
beim Würfelexperiment:
Werfen einer 1 =
Werfen einer 2 =
…
Werfen einer 6 =
A
B
…
C
-
beim Kartenexperiment:
A1 = gezogene Karte ist ein Kreuz As
A2 = gezogene Karte ist ein Herz König
…
…
-
beim Prüfexperiment:
A = geprüftes Bauteil ist in Ordnung
B = geprüftes Bauteil ist defekt
Seite 1
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
-
beim Lebensdauerexperiment:
A = die Lebensdauer beträgt 3,5 Jahre
B = die Lebensdauer beträgt 4,2 Jahre
Verknüpfungsoperationen für Zufallsereignisse
Beispiel:
A = Werfen einer 6
B = Werfen einer 4
A ∪ B = Werfen einer 6 oder 4
Zusammengesetztes Zufallsereignis
„Oder - Ereignis“
„Summen - Ereignis“
B ∪ A = Werfen einer 4 oder 6
Kommutativgesetz
C = Werfen einer 2
(A ∪ B) ∪ C = Werfen einer 6 oder 4 oder 2
A ∪ (B ∪ C) = A ∪ B ∪ C
Assoziativgesetz
E = Werfen einer 6 oder 5 oder 4 oder 3 oder 2 oder 1:
Sicheres Ereignis
A = Werfen einer geraden Zahl
B = Werfen einer durch 3 teilbaren Zahl
A ∩ B = Werfen einer geraden und durch 3 teilbaren Zahl
„Und-Ereignis“
„Produkt-Ereignis“
B ∩ A = Werfen einer durch 3 teilbaren Zahl und geraden Zahl
Kommutativgesetz
(A ∩ B) ∩ C = A ∩ (B ∩ C) = A ∩ B ∩ C
Assoziativgesetz
A = Werfen einer geraden Zahl
B = Werfen einer ungeraden Zahl
∅ = Werfen einer geraden und ungeraden Zahl
unmögliches Ereignis
Seite 2
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
A = Werfen einer geraden Zahl
= Werfen einer ungeraden Zahl : Komplementäres Ereignis zu A
A = Werfen einer geraden Zahl
B = Werfen einer 4
B impliziert A
B⊂A
A⊃B
(B hat A zur Folge)
Implikation von Ereignissen
A = Werfen einer 6
B = Werfen einer Zahl > 5
A ⊂ B und B ⊂ A
Wechselseitige Implikation
A=B
A = Werfen einer ungeraden Zahl
B = Werfen einer 6
__
A ∩ B = Werfen einer 2 oder 4
= A – B Differenzereignis
Zusammenhang zwischen Zufallsereignissen und Mengen
A∪B
A-B
E
A∩B
A
B
Wurfwand
A = Punktmenge auf der Wurfwand
Wenn der Pfeil in der Punktmenge A landet, dann ist Ereignis A eingetreten.
Entsprechen für Punktmenge B.
Seite 3
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
A⊂B
A
B
Mengenbild der Ereignisse
Rechenregeln für Zufallsereignisse
A∪E=E
A∪∅=A
A∪A=A
A∪
A∪B=B∪A
(A ∪ B) ∪ C = A ∪ (B ∪ C) = A ∪ B ∪ C
A∩E=A
A∩∅=∅
A∩A=A
A∩
∅
A∩B=B∩A
(A ∩ B) ∩ C = A ∩ (B ∩ C) = A ∩ B ∩ C
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) = A ∩ B ∪ A ∩ C
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
_
______
A∪
______
A∩
_
∩B
_
∪B
Algebra der Zufallsergebnisse
Relative Häufigkeit von Zufallsereignissen
Ein Zufallsexperiment wird n mal ausgeführt.
z. B.: Ein Würfel wird 100 mal geworfen.
z.B.:
Bei den n Ausführungen tritt ein Ereignis A k mal ein.
Bei den 100 Würfen, erscheint 20 mal eine sechs.
h( A) =
k
20
=
= 20 %
n 100
Relative Häufigkeit von A
Seite 4
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Eigenschaften der relativen Häufigkeit:
0
h (E) = 1,
h (∅) = 0
wenn A=B, dann h (A) = h(B)
h (A ∪ B)= ?
1.Beispiel:
A = Werfen einer Sechs
B = Werfen einer Fünf
Es wurde 100 mal gewürfelt, dabei ist 20 mal eine Sechs und 15 mal eine Fünf
erschienen.
20
15
h (A) =
= 20 %
h (B) =
= 15 %
100
100
20 + 15
h (A ∪ B) =
= 35 % = h (A) + h (B)
100
2.Beispiel:
A = Werfen einer geraden Zahl
B = Werfen einer durch 3 teilbaren Zahl
Es wurde 100 mal gewürfelt, dabei ist 54 mal eine gerade Zahl erschienen und 30
mal einen durch 3 teilbare Zahl.
54
30
h (A) =
= 54 %
h (B) =
= 30 %
100
100
Die Sechs ist 20 mal erschienen
54 + 30 − 20
= 64 %
h (A ∪ B) =
100
h (A ∪ B) = h (A) + h (B) – h (A ∩ B)
Wahrscheinlichkeit eines Zufallsereignisses
lim h ( A ) = P ( A )
n→ ∞
Wahrscheinlichkeit von A
Beispiel:
A = Werfen einer durch 3 teilbaren Zahl
n
Würfelergebnis
k
1
2
3
4
5
6
7
8
9
10
…
5
1
6
2
3
4
4
6
1
5
…
0
0
1
1
2
2
2
3
3
3
…
h (A) =
k
n
0/1 = 0
0/2 = 0
1/3 = 0,33
¼ = 0,25
2/5 = 0,40
2/6 = 0,33
2/7 = 0,28
3/8 = 0,38
3/9 = 0,33
3/10 = 0,30
…
Seite 5
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
h (A)
1,0
0,5
P (A)
0,1
1 2
3
4
5
6 7
8
9 10
1000 1001 ...
n
Eigenschaften der Wahrscheinlichkeit
0
P (E) = 1
P (∅) = 0
Wenn A = B, dann P (A) = P (B)
Wenn A und B sich gegenseitig ausschließen, dann gilt P(A ∪ B) = P (A) + P (B)
Für beliebige Ereignisse A und B gilt: P (A ∪ B) = P (A) + P (B) – P (A ∩ B)
Axiome der Wahrscheinlichkeit
Man kann die gesamte Wahrscheinlichkeitsrechnung aufbauen auf die
Wahrscheinlichkeitsaxiome.
Folgerungen aus den Axiomen:
A∪ =E
P (A ∪ ) = P (E)
P (A) + P( ) = 1
P( ) = 1 – P (A)
P (E) = 1 – P (E)
P(∅) = 1 – 1 = 0
P (E) = 1
A∪B
A-B
A∩B
A
B
Seite 6
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
(A-B) ∪ B = A ∪ B
P((A-B) ∪ B) = P (A ∪ B)
(A-B) ∪ (A ∩ B) = A
P ((A-B) ∪ (A ∩ B) = P (A)
P (A-B) + P (B) = P (A ∪ B)
I
P (A-B) + P (B) = P (A)
II
I-II : P (B) – P (A ∩ B) =P (A ∪ B) – P(A)
P (A) + P (B) – P (A ∩ B) = P (A ∪ B)
Zerlegung von sicheren Ereignissen
H1 = Werfen einer 1
H2 = Werfen einer 2
…
H6 = Werfen einer 6
H1 ∪ H2 ∪ ... ∪ H6 = E
Hi ∪ Hj = ∅
für i ≠ j
Die Ereignisse H1, H2, ..., H6 bilden eine Zerlegung vom sicheren Ereignis E.
allgemein:
Ein System von Ereignissen H1, H2, ..., Hm bilden eine Zerlegung vom sicheren Ereignis E,
wenn gilt:
H1 ∪ H2 ∪ ... ∪ Hm = E
Hi ∩ Hj = ∅ für i ≠ j
Folgerung:
Für jede Zerlegung
von E gilt:
P (H1 ∪ H2 ∪ ... ∪ Hm ) = P (E)
P (H1) + P(H2) + ... + P(Hm) = 1
Bei einem symmetrischen Würfel gilt:
P (H1) = P (H2) = ... = P (H6)
1/6
1/6
1/6
Eine Zerlegung von E heißt symmetrisch, wenn gilt:
P (H1) = P (H2) = ... = P (Hn)
Folgerung: Für jede symmetrische Zerlegung von E gilt:
1
m
1
P (H2) =
m
…
1
P (Hm) =
m
P (H1) =
Seite 7
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
A = Werfen einer durch 3 teibaren Zahl
A = H3 ∪ H6
P (A)= P (H3 ∪ H6) = P(H3) + P(H6) =
2 1
=
6 3
B = Werfen einer geraden Zahl
B = H2 ∪ H4 ∪ H6
P (B) = P (H2 ∪ H4 ∪ H6) = P(H2) + P (H4) + P(H6)=
A=
3 1
=
6 2
ein Ereignis, welches zusammengesetzt ist aus g Ereignissen der symmetrischen
Zerlegung.
P (A) =
g
=
m
Anzahl der für A günstigen Fälle
Anzahl der gleichmöglichen Fälle
klassische Wahrscheinlichkeit
Beispiel:
-
Ziehen einer Karte aus einem Kartenspiel von 32 Karten
A = Die gezogene Karte ist ein Kreuz – Ass
1
P (A) =
32
B = Die gezogene Karte ist ein Ass
4 1
P (B) =
=
32 8
-
12 Kugeln, davon 3 rot
Es wird auf zufällige Weise 1 Kugel gezogen.
Wie groß ist die Wahrscheinlichkeit, daß die gezogene Kugel rot ist ?
A = Die gezogene Kugel ist rot
3
P (A) =
12
Werfen mit 2 symmetrischen Würfeln:
A12 = gewürfelte Augenzahlsumme beträgt 12
→
(1,1), (1,2), (1,3), (1,4), (1,5), (1,6)
→
(2,1), (2,2), (2,3), (2,4), (2,5), (2,6)
→
(3,1), (3,2), (3,3), (3,4), (3,5), (3,6)
→
(4,1), (4,2), (4,3), (4,4), (4,5), (4,6)
→
(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)
→
(6,1), (6,2), (6,3), (6,4), (6,5), (6,6)
↑
↑
↑
↑
↑
↑
36 gleichmögliche Fälle
1
1 günstiger Fall ⇒ P (A12) =
36
Seite 8
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
2
,
36
5
P (A8) = ,
36
4
P (A5) = ,
36
1
P (A2) =
36
P (A11) =
3
,
36
6
P (A7) = ,
36
3
P (A4) = ,
36
P (A10) =
4
36
5
P (A6) =
36
2
P (A3) =
36
P (A9) =
Beispiel:
1. Würfel hat 6 Flächen
2. Würfel hat 10 Flächen
(1,1), (1,2), …
(2,1), …
…
(6,1), …
, (1,10)
, (2,10)
, (6,10)
6 x 10 = 60 gleichmäßige Fälle
1
P(A2) =
60
3 Würfel (symmetrisch)
1. Würfel hat 6 Flächen
2. Würfel hat 10 Flächen
3. Würfel hat 12 Flächen
(1,1,1), (1,2,1), … , (6,10,12)
6 x 10 x 12 = 720 gleichmögliche Fälle
r symmetrische Würfel
der 1. Würfel hat n1 Flächen
der 2. Würfel hat n2 Flächen
der r. Würfel hat nr Flächen
(a1, a2, … ,ar)
mit
r-Tupel
1 ≤ a1 ≤ n1
1 ≤ a2 ≤ n2
…
1 ≤ ar ≤ nr
n1 x n2 x … x nr
-
gleichmögliche Fälle
Für die Beziehung der 1. Position des r-Tupels n1 Möglichkeiten
Für die Beziehung der 2. Position des r-Tupels n2 Möglichkeiten
…
Für die Beziehung der 3. Position des r-Tupels nr Möglichkeiten
Seite 9
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
n1 ⋅ n2 ⋅
⋅ nr
gleichmöglicher Fälle
Fundamentalprinzip der Kombinatorik
Spezialfall: n1 = n2 = = nr = n ⇒ n r gleichmöglicher Fälle
(a1, a2, … ,ar) mit 1 ≤ ai ≤ n für i = 1,2, ,r
z.B.: 63 = 216
Die r-Tupel heißen geordnete Proben vom Umfang r aus einer Menge von nElementen. (mit Wiederholung)
Anzahl beträgt 63
Andere Bezeichnungsweise:
Man nennt auch die r-Tupel Variationen r-ter Ordnung mit Wiederholungen.
geordnete Proben vom Umfang r aus einer Menge von n-Elementen. (ohnen
Wiederholung)
(a1, a2, … ,ar) mit 1 ≤ ai ≤ n für i = 1,2, ,r
alle ai verschieden
Anzahl: n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − r + 1)
Variationen r-ter Ordnung ohne Wiederholungen
Spezialfall:
n=r
z.B.: n = 3, r = 3
(1,2,3)
(1,3,2)
(2,3,1)
(2,1,3)
(3,1,2)
(3,2,1)
Permutationen
anhand der Formel:
3 ⋅ 2 ⋅1 = 6
Anzahl der Permutationen von n verschiedenen Elementen
beträgt:
n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅1 = n! (Fakultät)
Geordnete Probe mit Wiederholung: nr
Geordnete Probe mit Wiederholung:
n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − r + 1)(n − r )(n − r − 1) 1
n!
n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − r + 1) =
=
(n − r )(n − r − 1) 1
(n − r )!
Permutation von n verschiedenen Elementen: n!
Seite 10
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Ungeordnete Proben vom Umfang r aus einer Menge von n Elementen ohne Wiederholung
z.B.:
n = 6, r = 3
1. {1,2,3}
2. {1,2,4}
…
X. {4,5,6}
={1,3,2}={2,3,1}={2,1,3}={3,1,2}={3,2,1}
={1,4,2}={2,4,1}={2,1,4}={4,1,2}={4,2,1}
…
={…}={…}=…
Kombinationen r-ter Ordnung ohne Wiederholung
6⋅5⋅4 = x⋅6
x = 20
n ⋅ (n − 1) ⋅
allgemein:
⋅ (n − r + 1) = x ⋅ r!
n ⋅ (n − 1) ⋅
x=
⋅ (n − r + 1)  n 
=  
r!
r
Anzahl der ungeordneten Proben ohne Wiederholung:
Anzahl der ungeordneten Proben mit Wiederholung:
Binominalkoeffizient
(n über r)
 n
 
r
 n + r − 1


 r 
Anzahl der Permutationen von n Elementen, die nicht alle verschieden sind (Permutationen mit
Wiederholungen):
n Kugeln
davon n1 von Sorte 1
n2 von Sorte 2
…
ns von Sorte s
n!
n1!⋅n2! ns!
Lostrommel mit 6 Losen
Die Lose tragen die Nummern 1 bis 6
Es werden 3 Lose gezogen und die Nummern von links nach rechts aufgeschrieben.
z.B.: 4 1 5
Gewinn, wenn 1 2 3 entsteht
G = Gewinn
P (G) = ?
gleichmögliche Fälle =
geordnete Proben vom Umfang 3 aus einer Menge von 6
Elementen ohne Wiederholung.
Anzahl = n(n − 1) (n − r + 1) = 6 ⋅ 5 ⋅ 4 = 120
1 günstiger Fall
1
P (G) =
120
6 Lose wie vorher.
Seite 11
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
3 Lose nacheinander entnehmen.
Nummern von links nach rechts aufschreiben.
Nachdem die Nummer aufgeschrieben ist, wird das Los zurückgelegt
z.B.: 2 6 1, 5 1 5, 1 2 3
Gewinn wenn 1 2 3 entsteht
gleichmögliche Fälle: geordnete Proben mit Wiederholung
Anzahl der geordneten Proben mit Wiederholungen: nr = 63 = 216
1 günstiger Fall
1
P (G) =
216
3 Lose ziehen ohne zurücklegen:
Gewinn, wenn 1,2,3 gezogen wird in beliebiger Reihenfolge
2 Berechnungsmöglichkeiten:
a) gleichmögliche Fälle: geordnete Proben ohne Wiederholen
Anzahl = 6 ⋅ 5 ⋅ 4 = 120
Günstige Fälle: Permutation der 3 Elemente 1, 2, 3
Anzahl günstiger Fälle: 3! = 6
3!
1
P (G) =
=
6 ⋅ 5 ⋅ 4 20
1
b)
6
 
 3
gleichmögliche Fälle: ungeordnete Proben ohne Wiederholung:
{1,2,3}, {1,2,4}, …, {4,5,6}
6
Anzahl   = 20
 3
1
1 günstiger Fall → P (G) =
20
Losentnahme mit zurücklegen
Gewinn, wenn 1, 2, 3 gezogen wird in beliebiger Reihenfolge
gleichmögliche Fälle: ungeordnete Proben mit Wiederholung
Anzahl:
nr = 63 = 216
3! = 6 Günstige Fälle
3!
6
1
P (G) = 3 =
=
6
216 36
Zum Vergleich:
Anzahl der ungeordneten Proben mit Wiederholung:
 n + r − 1  6 + 3 − 1  8  8 ⋅ 7 ⋅ 6

 = 
 =   =
= 56
3!
 r   3   3
Seite 12
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
3 Würfel:
a) die Würfel sind unterscheidbar
Wahrscheinlichkeit für eine Augensumme von 3
gleichmögliche Fälle: geordnete Proben mit Wiederholung
Anzahl: 63 = 216
1
1 günstiger Fall → P (A) =
216
b) die Würfel sind ununterscheidbar
gleichmögliche Fälle: ungeordnete Proben ohne Wiederholung
 n + r − 1  6 + 3 − 1  8 
 =   = 56
 = 
Anzahl: 
 r   3   3
1 günstiger Fall
1
P (A) =
56
Beispiele:
-
9 Kugeln, davon 2 rote, 3 grüne und 4 blaue.
Es werden nacheinander alle Kugeln gezogen.
Wie groß ist die Wahrscheinlichkeit, daß zuerst die 3 roten, dann die 3 grünen und dann die 4
blauen Kugeln gezogen werden?
gleichmögliche Fälle = Permutation der 9 Kugeln
a) Anzahl der Permutationen = n!= 9!= 362880
Anzahl der günstigen Fälle 2!⋅3!⋅4!
2!⋅3!⋅4! 2 ⋅ 6 ⋅ 24
1
P( A) =
=
=
9!
362880 1260
b) Anzahl der Permutationen
1 günstiger Fall
-
9!
= 1260
2!⋅3!⋅4!
1
P( A) =
1260
Wahrscheinlichkeit für 6 richtige beim Lotto:
gleichmögliche Fälle = ungeordnete Proben ohne Wiederholung
 49 
Anzahl =   = 13983816
6
1 günstiger Fall
1
1
=
≈ 7 ⋅ 10 −8
 49  13983816
 
6
Wahrscheinlichkeit für 5 richtige mit Zusatzzahl:
 49 
gleichmögliche Fälle =   = 13983816
6
günstige Fälle:
R1, R2, R3, R4, R5, Z
R1, R2, R3, R4, Z, R6
…
Z, R2, R3, R4, R5, R6
P( A) =
-
Seite 13
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
6 günstige Fälle
-
P( A) =
6
 49 
 
6
2 Felder ausfüllen ( doppelter Einsatz)
Wahrscheinlichkeit für 6 Richtige:
A = 6 Richtige
A1 = 6 Richtige im 1. Feld
A2 = 6 Richtige im 2. Feld
1
1
P( A1 ) =
= 7 ⋅ 10 −8
P( A2 ) =
= 7 ⋅ 10−8
 49 
 49 
 
 
6
6
P( A) = A1 ∪ A2
P( A) = P( A1 ∪ A2 ) = P( A1 ) + P( A2 ) − P( A1 ∩ A2 )
Verschiedene Vorgehensweise beim Ausfüllen der Felder
1) Beim Ausfüllen des 2. Feldes wird darauf geachtet, daß mindestens eine Zahl verschieden
ist von denen des 1. Feldes
→ P( A1 ∩ A2 ) = 0 → P( A) = 14 ⋅ 10−8
2) Beim 2. Feld werden absichtlich die gleichen Zahlen verwendet wie im 1. Feld
→ P ( A1 ∩ A2 ) = 7 ⋅ 10 −8
→ P ( A) = 14 ⋅ 10−8 − 7 ⋅ 10 −8 = 7 ⋅ 10− 8
3) Die beiden Felder werden unabhängig voneinander ausgefüllt
→ P ( A1 ∩ A2 ) = P ( A1 ) ⋅ P ( A2 ) = 7 ⋅ 10−8 ⋅ 7 ⋅ 10−8 = 49 ⋅ 10 −16
→ P ( A) = 14 ⋅ 10 −8 − 49 ⋅ 10 −16 ≈ 14 ⋅ 10− 8
-
32 Karten.
Es werden 5 Karten gezogen. Wie groß ist die Wahrscheinlichkeit, daß (genau) 2 Asse
gezogen werden:
gleichmögliche Fälle = ungeordnete Proben ohne Wiederholung.
 32 
Anzahl =   = 201376
5
günstige Fälle:
2 Asse, 3 Nichtasse
Kreuz As, Herz As,
Kreuz As, Pik As,
Kreuz As, Karo As,
Herz As, Pik As,
Herz As, Karo As,
Pik As, Karo As,
 4
  = 6
 2
Karo zehn, Pik Dame, Herz Neun
…
…
…
…
…
 28 
  = 3276
3
Seite 14
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
6 ⋅ 3276 günstige Fälle
6 ⋅ 3276
P( A) =
= 9,8%
201376
 4   28 
  ⋅  
2
3
=   
 32 
 
5
-
N Kugeln, davon r rot und N - r schwarz.
Es werden n Kugeln gezogen (ohne Zurücklegen).
Wahrscheinlichkeit, daß k rote Kugeln gezogen werden.
Ak = Es werden k rote Kugeln gezogen
 r   N − r
  ⋅ 

k   n − k 

P( Ak ) =
N
 
n
hypergeometrische Wahrscheinlichkeit
-
Wahrscheinlichkeit für k richtige im Lotto ( k = 6, 5, 4, …,0)
 6   43 
  ⋅ 

k   6 − k 

P( Ak ) =
 49 
 
6
 6   43 
  ⋅  
6
0
1
P( A6 ) =     =
 49 
 49 
 
 
6
6
 6   43 
  ⋅  
5
1
6 ⋅ 43 258
P( A5 ) =     =
=
 49 
 49   49 
 
   
6
6 6
 6   43 
  ⋅  
4
2
P( A4 ) =     = 9,7 ⋅ 10− 4
 49 
 
6
P( A3 ) = 1,8%
Seite 15
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P( A2 ) = 13,2%
P( A1 ) = 41,3%
P( A0 ) = 43,6%
-
100 Bauteile in einer Schachtel, davon sind 6 defekt. Es werden 10 Bauteile entnommen und
in ein Gerät eingebaut.
Wie groß ist die Wahrscheinlichkeit, daß das Gerät dann 2 defekte Bauteile enthält?
P (D2) = ?
N = 100
r=6
N – r = 94
n = 10
k=2
 6   94 
  ⋅  
2
8
P(D2 ) =     = 9,65%
100 


 10 
 6   94 
  ⋅  
1
9
P(D1 ) =     = 36,9%
100 


 10 
-
Wie groß ist die Wahrscheinlichkeit, daß das Gerät keine defekten Bauteile enthält?
 6   94 
  ⋅  
0 10
P(D0 ) =     = 52,2%
100 


 10 
-
Wie groß ist die Wahrscheinlichkeit, daß mindestens ein defektes Bauteile eingebaut worden
ist?
P D0 = 1 − P (D0 ) = 47,8%
( )
andere Berechnungsmöglichkeit:
P(D1 ∩ D2 ∩ D3 ∩ D4 ∩ D5 ∩ D6 ) = P(D1 ) + P(D2 ) +
-
+ P(D6 ) = 36,9% + 9,65% +
Lieferung von 12 Elektrogeräten. Davon sind 3 Geräte defekt. Es werden 2 Geräte
entnommen:
a) Wie groß ist die Wahrscheinlichkeit, daß beide entnommenen Geräte einwandfrei sind?
Seite 16
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
C = beide entnommenen Geräte sind einwandfrei.
 3  9
  ⋅  
0 2
9 ⋅ 8 ⋅ 2!
P(C ) =     =
12 
2!⋅12 ⋅ 11
 
 2
b) Wie groß ist die Wahrscheinlichkeit, daß das 1. entnommene Gerät einwandfrei ist?
A = das 1. entnommene Gerät ist einwandfrei.
9
P( A) =
12
c) Wie groß ist die Wahrscheinlichkeit, daß das 2. entnommene Gerät einwandfrei ist?
B = das 2. entnommene Gerät ist einwandfrei.
P (B) = ?
8
= Wahrscheinlichkeit, daß das 2. entnommene Gerät einwandfrei ist, wenn das 1. Gerät
11
einwandfrei war.
9
= Wahrscheinlichkeit, daß das 2. entnommene Gerät einwandfrei ist, wenn das 1. Gerät
11
defekt war = P (B|A).
bedingte Wahrscheinlichkeit
C=A∩B
P(C) =P (A ∩ B)
9⋅8
9 8
= ⋅ ⇒ P( A ∩ B) = P( A) ⋅ P( B | A)
12 ⋅ 11 12 11
-
Multiplikationssatz
12 Geräte wie vorher. Es werden 2 Geräte entnommen. Wie groß ist die Wahrscheinlichkeit,
daß das 1 gerät in Ordnung ist und das 2. Gerät defekt ist?
A = das 1. entnommene Gerät ist in Ordnung.
B = das 2. entnommene Gerät ist defekt.
P(A ∩ B) = ?
9 3
9
P(A ∩ B) = P(A) ⋅ P(B|A)= ⋅ =
12 11 44
Multiplikationssatz für 3 bzw. n Ereignisse
P(A1 ∩ A2 ∩ A3) = ?
A
∩
B
Seite 17
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P(A ∩ B) = P(A)⋅P(B|A) = P(A1 ∩ A2) ⋅ P(A3| A1 ∩ A2)
= P (A1) ⋅ P(A2| A1) ⋅ P(A3| A1 ∩ A2)
-
12 Geräte wie vorher. Es werden 3 Geräte entnommen. Wie groß ist die Wahrscheinlichkeit,
daß das 1. Entnommene Gerät in Ordnung ist und das 2. Entnommene Gerät defekt und das 3.
Entnommene Gerät wieder in Ordnung ?
A1 = das 1. entnommene Gerät ist in Ordnung.
A2 = das 2. entnommene Gerät ist defekt.
A3 = das 3. entnommene Gerät ist in Ordnung.
P (A1∩A2∩A3)
= P (A1) ⋅ P(A2| A1) ⋅ P(A3| A1 ∩ A2)
9
3
8
=
⋅
⋅
12
11
10
P (A1 ∩ A2 ∩ A2 ∩ … ∩ An) =
P (A1) ⋅ P(A2| A1) ⋅ P(A3| A1 ∩ A2) ⋅ … ⋅ P(An| A1 ∩ A2 ∩ … ∩ An-1)
Multiplikationssatz für n Ereignisse
P( B | A) =
P( A ∩ B)
P( A)
Spezialfall:
vorausgesetzt P(A) > 0
Statt A das sichere Ereignis E eingesetzen
P( E ∩ B)
P( B | E ) =
= P( E ∩ B) = P( B)
P( E )
Es gibt Ereignisse A und B für welche gilt: P (B | A) = P (B)
Bsp.: Werfen mit 2 Würfeln
A = auf 1. Würfel erscheint eine 6
B = auf 2. Würfel erscheint eine 1
P (B | A) =
1
6
P (B) =
1
6
Die Gleichheit liegt vor, wenn A und B zwei Ereignisse sind, die sich nicht gegenseitig
beeinflussen, dann
P (B | A) = P (B)
P (A | B) = P (A)
Solche Ereignisse heißen Unabhängig.
Für beliebige Ereignisse gilt:
P (B ∩ A) = P (A) ⋅ P(A | B)
Für unabhängige Ereignisse:
P (B ∩ A) = P (A) ⋅ P (B)
Seite 18
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Unabhängigkeit von 3 bzw. n Ereignissen A, B, C
P (A ∩ B) = P (A) ⋅ P (B)
paarweise
P (A ∩ C) = P (A) ⋅ P (C)
Unabhängig
P (B ∩ C) = P (B) ⋅ P (C)
P (A ∩ B ∩ C) = P (A) ⋅ P (B) ⋅ P (C)
Beispiel für 3 Ereignisse, die zwar paarweise Unabhängig sind, aber nicht unabhängig
(insgesamt).
A = auf 1. Würfel erscheint eine gerade Zahl
B = auf 2. Würfel erscheint eine ungerade Zahl
C = Beide Zahlen haben die gleiche Parität
(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6)
(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)
(3, 1), …
(3, 6)
(4, 1), …
(4, 6)
(5, 1), …
(5, 6)
(6, 1), …
(6, 6)
P( A) =
18 1
=
36 2
P( A ∩ B) =
→
9 1
=
36 4
P( B) =
18 1
=
36 2
P( A ∩ C ) =
9 1
=
36 4
P(C ) =
18 1
=
36 2
P( B ∩ C ) =
9 1
=
36 4
Diese 3 Ereignisse sind
paarweise unabhängig
P (A ∩ B) = P (A) ⋅ P (B)
P (A ∩ C) = P (A) ⋅ P (C)
P (B ∩ C) = P (B) ⋅ P (C)
P (A ∩ B ∩ C) = 0
1 1 1 1
⋅ ⋅ =
2 2 2 8
P (A ∩ B ∩ C) ≠ P (A) ⋅ P (B) ⋅ P (C)
P (A) ⋅ P (B) ⋅ P (C) =
Diese 3 Ereignisse sind
nicht unabhängig
4 unabhängige Ereignisse:
P (A1 ∩ A2) = P (A1) ⋅ P (A2)
P (A1 ∩ A3) = P (A1) ⋅ P (A3)
P (A1 ∩ A4) = P (A1) ⋅ P (A4)
P (A2 ∩ A3) = P (A2) ⋅ P (A3)
P (A2 ∩ A4) = P (A2) ⋅ P (A4)
P (A3 ∩ A4) = P (A3) ⋅ P (A4)
paarweise
unabhängig
Seite 19
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P (A1 ∩ A2 ∩ A3) = P (A1) ⋅ P (A2) ⋅ P (A3)
P (A1 ∩ A2 ∩ A4) = P (A1) ⋅ P (A2) ⋅ P (A4)
P (A1 ∩ A3 ∩ A4) = P (A1) ⋅ P (A3) ⋅ P (A4)
P (A2 ∩ A3 ∩ A4) = P (A2) ⋅ P (A3) ⋅ P (A4)
 4
  = 4
 3
P (A1 ∩ A2 ∩ A3 ∩ A4) = P (A1) ⋅ P (A2) ⋅ P (A3) ⋅ P (A4)
 4
  = 1
 4
Anzahl der Gleichungen bei n unabhängigen Ereignissen:
 n  n  n  n
  +   +   +   +
 0   1   2  3 
 n  n  n
+   −   −  
 n  1  0
-n
2n
-1
Folgerung:
Die Anzahl der Gleichungen bei n unabhängigen Ereignissen beträgt:
2n - n –1
z.B. für
n=2
n=3
n=4
n=5
1 Gleichung
4 Gleichungen
11 Gleichungen
26 Gleichungen
Formel der totalen Wahrscheinlichkeit
Bsp.: Kugeln in 5 Urnen
2 Urnen enthalten jeweils 2 weiße und 1 schwarze Kugel
1 Urne enthält 10 schwarze Kugeln
2 Urnen enthalten jeweils 3 weiße und 1 schwarze Kugel
Auf zufällige weise wird eine Urne ausgewählt und daraus eine Kugel gezogen.
Wie groß ist die Wahrscheinlichkeit, daß die gezogene Kugel weiß ist ?
Herleitung der Formel der totalen Wahrscheinlichkeit:
d.h.:
H1, H2, … , Hm sei eine Zerlegung vom sicheren Ereignis.
H1 ∪ H2 ∪ … ∪ Hm = E
Hi ∩ Hj = ∅ für i ≠ j
B sei ein beliebiges Ereignis
B=B∩E
P (B) = P (B ∩ E)
Seite 20
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
= P ( B ∩ ( H1 ∪ H 2 ∪
∪ H m ))
= P(( B ∩ H1 ) ∪ ( B ∩ H 2 ) ∪
∪ ( B ∩ H m ))
= P ( B ∩ H1 ) + P ( B ∩ H 2 ) +
+ P( B ∩ H m )
m
= ∑ P( B ∩ H j )
j =1
m
P( B) = ∑ P( H j ) ⋅ P( B | H j )
j =1
Formel der totalen Wahrscheinlichkeit
B = die gezogene Kugel ist weiß
H1 = die ausgewählte Urne hat den Inhalt 2 weiße, 1 schwarze Kugel
H2 = die ausgewählte Urne hat den Inhalt 10 schwarze Kugeln
H3 = die ausgewählte Urne hat den Inhalt 3 weiße, 1 schwarze Kugel
H1, H2, H3 bilden eine Zerlegung von E
H1 ∪ H2 ∪ H3 = E
Hi ∩ Hj = ∅ für i ≠ j
⇒ die Formel der totalen Wahrscheinlichkeit ist anwendbar
m=3
P (H1) =
2
5
P (B | H1) =
P (H2) =
2
3
1
5
P (H3) =
P (B | H2) = 0
2
5
P (B | H3) =
3
4
P (B) = P (H1) ⋅ P (B | H1) + P (H2) ⋅ P (B | H2) + P (H3) ⋅ P (B | H3)
2 2 1
2 3 4
3 8 + 9 17
= ⋅ + ⋅0+ ⋅ = +
=
=
5 3 5
5 4 15 10
30
30
Baumdiagramm für die Formel der totalen Wahrscheinlichkeit
2
2
1
5
5
5
H1
B
H2
2
1
3
3
_
B
0
B
H3
1
_
B
B
Auswahl einer Urne
3
1
4
4
_
B
Ziehung einer Kugel
Seite 21
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P( B) =
-
2 2
2 3 17
⋅ + 1⋅ 0 + ⋅ =
5 3
5 4 30
12 Geräte, davon 3 defekt
Es werden nacheinander 2 Geräte entnommen.
Frage: Wie groß ist die Wahrscheinlichkeit, daß das 2. entnommene Gerät in Ordnung ist?
B = das 2. Gerät ist in Ordnung.
P (B) = ?
H1 = das 1. entnommene Gerät ist in Ordnung
H2 = das 2. entnommene Gerät ist defekt
9
3
P ( H1 ) =
P( H 2 ) =
12
12
8
9
P ( B | H1 ) =
P( B | H 2 ) =
11
11
9
3
12
12
H1
H2
Entnahme des 1. Gerätes
8
3
9
2
11
11
11
11
_
B
B
P( B) =
_
B
B
Entnahme des 2. Gerätes
9 8 3 9
9 8 3 9
⋅ + ⋅ = ⋅ +  =
11 11 12 11 12  11 12  12
9
3
12
12
H1
H2
8
3
9
2
11
11
11
11
_
B
B
B
Entnahme des 1. Gerätes
_
B
B
Entnahme des 2. Gerätes
7
3
8
2
8
2
9
1
10
10
10
10
10
10
10
10
_
B
B
_
B
B
_
B
B
_
B
Entnahme des 3. Gerätes
Seite 22
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
9 8 7
9 3 8
3 9 8
3 2 9
⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅
12 11 10 12 11 10 12 11 10 12 11 10
9 8 7
3 8
3 8
3 2
= ⋅ ⋅ + ⋅ + ⋅ + ⋅ 
12  11 10 11 10 11 10 11 10 
P (B) =
=
9 8 7
3 3 8
2 
⋅  ⋅  +  + ⋅  +  
12  11  10 10  11  10 10  
9 8 3
⋅ + 
12  11 11 
9
=
12
=
-
Das Zufallsexperiment mit den 5 Urnen wird ausgeführt
Es wurde eine weiße Kugel gezogen
Wie groß ist die Wahrscheinlichkeit, daß sie aus einer Urne stammt mit 2 weißen und 1
schwarzen Kugel?
P ( H1 | B ) = ?
2 2
⋅
P (H1 ∩ B ) P (H1 ) ⋅ P (B | H1 ) 5 3 8
P ( H1 | B ) =
=
=
=
17
P( B)
P( B )
17
30
entsprechend P( H 3 | B)
2 3
⋅
P (H 3 ∩ B ) P (H 3 ) ⋅ P (B | H 3 ) 5 4 9
P( H 3 | B) =
=
=
=
17
P( B)
P( B)
17
30
1
P( H 2
⋅0
P ( H 2 ∩ B ) P( H 2 ) ⋅ P ( B | H 2 ) 5
| B) =
=
=
=0
P( H i | B) =
i =1, 2 , 3
P( H i | B) =
i =1, 2 , 3
P( B)
P( B)
17
30
P (H i ) ⋅ P (B | H i )
P ( B)
P (H i ) ⋅ P (B | H i )
m=3
∑ P( H
j =1
j
) ⋅ P( B | H j )
Bayes’sche Formel
Seite 23
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P ( H1 ) =
2
5
P( H 2 ) =
P ( H 1 | B) =
8
17
1
5
P( H 3 ) =
P( H 2 | B) = 0
2
5
P( H 3 | B) =
apriori
Wahrscheinlichkeiten
9
17
aposteriori
Wahrscheinlichkeiten
Die Bayes’sche Formel wird verwendet zur Berechnung der aposteriori Wahrscheinlichkeiten.
-
Es liegen 2 Warenpartien vor:
Die eine ist einwandfrei, die andere enthält 25% defekte Stücke.
Es wird eine Warenpartie ausgewählt per Zufallsauswahl.
H1 = die gewählte Warenpartie ist die gute
H2 = die gewählte Warenpartie ist die schlechte
P ( H1 ) =
1
= 50%
2
P( H 2 ) =
1
= 50%
2
apriori - Wahrscheinlichkeiten
Aus der gewählten Warenpartie wird ein Stück entnommen und geprüft.
B = Das geprüfte Stück ist in Ordnung.
Wie groß ist jetzt die Wahrscheinlichkeit, daß die gewählte Warenpartie die gute ist (bzw. die
schlechte)?
P ( H1 | B ) = ?
P( H1 | B) =
bzw.
P( H 2 | B) = ?
P( H1 ) ⋅ P( B | H1 )
2
∑ P( H
j =1
j
) ⋅ P( B | H j )
=
aposteriori Wahrscheinlichkeiten
P ( H1 ) ⋅ P ( B | H1 )
P ( H1 ) ⋅ P ( B | H1 ) + P ( H 2 ) ⋅ P ( B | H 2 )
1
1
⋅ P ( B | H1 )
⋅1
4
4
2
2
=
=
=
= = 57,1%
1
1
1
1 3 4+3 7
⋅ P ( B | H1 ) + ⋅ P ( B | H 2 )
⋅1 + ⋅
2
2
2
2 4
P(H2|B)=42,9%
Es soll ein 2. Stück entnommen werden.
Das 1. geprüfte Stück wird in seine Warenpartie zurückgelegt und aus der gleichen Warenpartie
wird ein 2. Stück entnommen.
B2 = auch das 2. geprüfte Stück ist in Ordnung
Wie groß ist die Wahrscheinlichkeit, daß es sich bei dieser Warenpartie um die gute bzw.
schlechte handelt ?
4
⋅1
P( H1 ) ⋅ P( B2 | H1 )
7
P( H1 | B2 ) =
=
= 64%
P( H1 ) ⋅ P( B2 | H1 ) + P( H 2 ) ⋅ P( B2 | H 2 ) 4 ⋅ 1 + 3 ⋅ 3
7
7 4
Seite 24
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P( H 2 | B2 ) = 36%
Auch das 2. geprüfte Stück wird in seine Warenpartie zurückgelegt und daraus ein 3. Stück
entnommen.
B3 = auch das 3. geprüfte Stück ist in Ordnung
64% ⋅ 1
P( H1 | B3 ) =
= 70,3%
3
64% ⋅1 + 36% ⋅
4
P( H 2 | B3 ) = 29,7%
Anzahl der
geprüften Stücke
Wahrscheinlichkeit
für gute Warenpartie
0
1
2
3
…
15
16
50 %
57,1 %
64 %
70,3 %
…
98,68 %
99,01 %
Wahrscheinlichkeit für
schlechte Warenpartie
50 %
42,9 %
36 %
29,7 %
…
1,32 %
0,99 %
Gesamtheit von N Objekten, davon hat eine Unbekannte Anzahl ein Merkmal.
H0 = in der Gesamtheit haben 0 Objekte das Merkmal
H1 = in der Gesamtheit hat 1 Objekte das Merkmal
…
HN = in der Gesamtheit haben N Objekte das Merkmal
P(Hi) =
1
N +1
ariori Wahrscheinlichkeiten
Es wird eine Stichprobe von n Objekten entnommen (ohne Zurücklegen).
B = in der Stichprobe haben k Objekte das Merkmal
Wie groß ist die Wahrscheinlichkeit, daß in der Gesamtheit i Objekte mit Merkmal vorhanden
waren (i = 0, 1, … ,N) ?
P (Hi|B) = ?
Zahlenbeispiel:
aposteriori Wahrscheinlichkeiten
N = 100, n = 10, k = 6
P (H0|B) = 0, P (H1|B) = 0, …
, P (H5|B) = 0
k-1
P (H100|B) = 0,P (H99|B) = 0, …
N
N-1
, P (H97|B) = 0
N-(n-k)+1
Seite 25
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P( H i | B) =
i = 6 ,7 ,...,96
k , k +1,..., N − ( n − k )
P( H i ) ⋅ P( B | H i )
N − (n− k )
∑ P( H
j =k
j
) ⋅ P( B | H j )
Es wird noch benötigt P (B|Hi)
P (B|Hi) =
Wahrscheinlichkeit, daß in der Stichprobe k Objekte mit Merkmal gefunden
werden, wenn in der Gesamtheit i Objekte das Merkmal hatten.
 i   N − i
  ⋅ 

k   n − k 
hypergeometrische Formel

=
N
 
n
Hypergeometrische Formel einsetzen in die Bayes’sche Formel:
 i   N − i
  ⋅ 

k   n − k 

P( H i | B) = N − ( n − k )
 j  N − j
i = k , k +1,..., N − ( n − k )
  ⋅ 

∑
j =k  k   n − k 
im Zahlenbeispiel:
 i  100 − i 
 i  100 − i 
  ⋅ 

  ⋅ 

6  4 
6   4 


=
P( H i | B) = 96
1,589 ⋅ 1014
 j  100 − j 




⋅
∑
   4 
j =6  6  

 94 
1 ⋅  
6
 4  = 3,04 ⋅ 10 = 1,919 ⋅ 10 −8
P( H 6 | B) =
1,589 ⋅ 1014 1,589 ⋅ 1014
P( H 7 | B) = 1,286 ⋅ 10 −7
P( H 8 | B) = 4,922 ⋅ 10−7
…
P( H 59 | B) = 2,87 ⋅ 10−2 = 2,87%
P ( H 60 | B ) = 2,88%
P ( H 61 | B ) = 2,87%
…
Seite 26
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P( H 96 | B) = 5,83 ⋅ 10−6
P (H33|B) + P (H34|B) + … + P (H83|B) = 95,47 %
[33, 83]
zum Vergleich:
[49, 71]
95 % Konfidenzintervall für die unbekannte Anzahl an Merkmalsträgern in
der Gesamtheit.
N = 100, n = 40, k = 24
95 % Konfidenzintervall für die unbekannte Anzahl an Merkmalsträgern in
der Gesamtheit.
N = 100, n = 10, k = 6
[33% , 83%] 95 % Konfidenzintervall für den relativen Anteil an Merkmalsträgern in der
Gesamtheit.
N = 1000, n = 10, k = 6
≈ [33% , 83%]
95 % Konfidenzintervall für den relativen Anteil an
Merkmalsträgern in der Gesamtheit.
Näherungsformel für die Berechnung des Konfidenzintervalls
a) für den relativen Anteil an Merkmalsträgern in der Gesamtheit
 k +1
1
(k + 1) ⋅ (n − k + 1) k + 1
1
(k + 1) ⋅ (n − k + 1) 
,
−C⋅
⋅
+C⋅
⋅


n+2
n+3
n+2
n+2
n+3
n + 2

C = 1,960 für 95 % Konfidenzintervalle
C = 2,576 für 99 % Konfidenzintervalle
b) für die unbekannte Anzahl an Merkmalsträgern in der Gesamtheit
 k +1
1
(k + 1) ⋅ (n − k + 1) k + 1
1
(k + 1) ⋅ (n − k + 1) 
−C⋅
⋅
,
+C⋅
⋅

⋅N
n+2
n+3
n+2
n+2
n+3
n + 2

Voraussetzung:
1) n ≤
1
⋅N
10
N ≥ 10 ⋅ n
für k ≤
n
2
Seite 27
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
2)
k +1
⋅ (n + 3) ≈> 9
n − k +1
n − k +1
⋅ (n + 3) ≈> 9
k +1
für k >
Bsp.:
k=6
N = 100
n = 10
95 % Konfidenzintervall:
Voraussetzung prüfen:
n≤
n
2
1
N
10
n − k +1
⋅ (n + 3) ≈> 9
k +1
 6 +1
1
(6 + 1) ⋅ (10 − 6 + 1) 6 + 1
1
(6 + 1) ⋅ (10 − 6 + 1) 
,
− 1,96 ⋅
⋅
+ 1,96 ⋅
⋅

=
10
2
10
2
10
3
10
2
+
+
10
2
10
3
+
+
+
+


 7 1,96 7 ⋅ 5 7 1,96 7 ⋅ 5 
⋅
, +
⋅
 −
=
12
12
13
12
12
13


[32 %
,
85 %]
mit exakter Formel:
[33 %
,
83 %]
Vereinfachung der Näherungsformel, falls n > 500:
 k C k ⋅ (n − k ) k C k ⋅ (n − k ) 
, + ⋅
 − ⋅
=
n
n
n
n
n
n


k C
k ⋅ (n − k ) k C
k ⋅ (n − k ) 
⋅
, +
⋅
 −
=
n
n
⋅
n
n
n
⋅
n
n
n


k C
k  k k C
k  k 
⋅
⋅ 1 −  , +
⋅
⋅ 1 −  
 −
n  n n
n  n  
n
n
 n
Vergleich:
1)
n = 1000,
k = 600
k 600
=
= 60%
n 1000
Seite 28
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
C = 1,960
1,960
1,960


0,60 − 1000 ⋅ 0,60 ⋅ 0,40 ,0,60 + 1000 ⋅ 0,60 ⋅ 0,40 


[0,60 − 0,03,0,60 + 0,03]
95 % - Konfidenzintervall für den relativen Anteil
[57%,63%]
an Merkmalsträgern in der Geamtheit
2)
n = 4000,
k = 2400
k 2400
=
= 60%
n 4000
C = 1,960
1,960
1,960


0,60 − 4000 ⋅ 0,60 ⋅ 0,40 ,0,60 + 4000 ⋅ 0,60 ⋅ 0,40 


[0,60 − 0,015,0,60 + 0,015]
95 % - Konfidenzintervall für den relativen Anteil
[58,5%,61,5%]
an Merkmalsträgern in der Geamtheit
Folgerung:
Die Intervallänge halbiert sich bei Vervierfachung des Stichprobenumfangs n.
Zuverlässigkeit von technischen Geräten
Die Zuverlässigkeit eines Gerätes ist definiert als Wahrscheinlichkeit, daß das Gerät intakt
ist.
Typische Fragestellung:
Wie kann die Zuverlässigkeit eines Systems berechnet werden aus der Zuverlässigkeit der
Komponenten?
Arten von Systemen:
I)
II)
z.B.:
Systeme ohne Redundanz
Bei einem System ohne Redundanz müssen alle Komponenten funktionieren, damit das
System funktioniert.
Systeme mit Redundanz
Bei einem System mit Redundanz müssen nicht alle Komponenten funktionieren, damit
das System funktioniert.
Flugzeug hat 3 Triebwerke
Es müssen nicht alle Funktionieren, damit das Flugzeug flugfähig bleibt.
Seite 29
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Zuverlässigkeit eines Systems ohne Redundanz
K1
K2
Kn
Zuverlässigkeitsschaltbild eines Seriensystems
Zuverlässigkeit von Komponente K1 ist
Zuverlässigkeit von Komponente K2 ist
…
Zuverlässigkeit von Komponente Kn ist
Zuverlässigkeit des Seriensystems ist
p1 = P (K1 intakt)
p2 = P (K2 intakt)
pn = P (Kn intakt)
pSerie = P (Seriensystem intakt)
PSerie = P (K1 intakt ∩ K2 intakt ∩ … ∩ Kn intakt)
Voraussetzung:
Die Komponenten sind unabhängig voneinander intakt, bzw. defekt
⇒
pSerie = P (K1 intakt) ⋅ P(K2 intakt) ⋅ … ⋅ P(Kn intakt)
pSerie = p1 ⋅ p2 ⋅ … ⋅ pn
Bsp.: Ein System ohne Redundanz besteht aus 200 unabhängigen Komponenten.
Jede Komponente hat eine Zuverlässigkeit von 99,9 %
⇒
PSerie = 0,999 ⋅ 0,999 ⋅ … ⋅ 0,999
= 0,999200 = 0,819 = 81,9 %
Systeme mit Redundanz
Systeme aus n Komponenten, wovon mindestens eine Funktionieren muß.
K1
K2
Parallelsystem
Kn
pparallel = P (Parallelsystem intakt)
= P (K1 intakt ∪ K2 intakt ∪ … ∪ Kn intakt)
1- pparallel = P (Parallelsystem defekt)
= P (K1 defekt ∩ K2 defekt ∩ … ∩ Kn defekt)
= P (K1 defekt) ⋅ P (K2 defekt) ⋅ … ⋅ P (Kn defekt)
= (1 – p1) ⋅ (1 – p2) ⋅ … ⋅ (1 – pn)
⇒
pparallel = 1- (1 – p1) ⋅ (1 – p2) ⋅ … ⋅ (1 – pn)
Seite 30
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Beispiele:
-
Ein System besteht aus 6 Komponenten
K1, K2 und K3 müssen intakt sein.
Von den restlichen genügt es, wenn entweder K4 intakt ist oder K5 und K6 gemeinsam.
K4
K1
K2
K3
K5
K6
pSystem = p1 ⋅ p2 ⋅ p3 ⋅ [1 − (1 − p4 ) ⋅ (1 − p4 ⋅ p5 )]
-
Von den 3 Triebwerken desFlugzeugs müssen mindestens 2 Funktionieren
→ Ein 2 von 3 - System
Ein Beispiel für ein k von n - System
Das 2 von 3 System:
K1
K2
K1
K3
K2
K2
P2von3 = P (2 von 3 - System intakt)
P2von3 = P (2 von 3 - System intakt)
= P (K1 intakt ∩ K2 intakt ∪ K1 intakt ∩ K3 intakt ∪ K2 intakt ∩ K3 intakt)
A
C
Seite 31
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
= P (A) + P (B) + P (C) – P (A ∩ B) – P (A ∩ C) – P (B ∩ C) + P (A ∩ B ∩ C)
= P (K1 intakt ∩ K2 intakt) + P (K1 intakt ∩ K3 intakt) + P (K2 intakt ∩ K3 intakt) –
P (K1 intakt ∩ K2 intakt ∩ K1 intakt ∩ K3 intakt) –
P (K1 intakt ∩ K2 intakt ∩ K2 intakt ∩ K3 intakt) –
P (K1 intakt ∩ K3 intakt ∩ K2 intakt ∩ K3 intakt) +
P (K1 intakt ∩ K2 intakt ∩ K1 intakt ∩ K3 intakt ∩ K2 intakt ∩ K3 intakt)
= P (K1 intakt ∩ K2 intakt) + P (K1 intakt ∩ K3 intakt) + P (K2 intakt ∩ K3 intakt) –
P (K1 intakt ∩ K2 intakt ∩ K3 intakt) – P (K1 intakt ∩ K2 intakt ∩ K3 intakt) –
P (K1 intakt ∩ K3 intakt ∩ K2 intakt) + P (K1 intakt ∩ K2 intakt ∩ K3 intakt)
= p1 ⋅ p2 + p1 ⋅ p3 + p2 ⋅p3 – p1 ⋅ p2 ⋅ p3 – p1 ⋅ p2 ⋅ p3 – p1 ⋅ p2 ⋅ p3 + p1 ⋅ p2 ⋅ p3
P2von3 = p1 ⋅ p2 ⋅(1 – p3) + p1 ⋅ p3 ⋅(1 – p2) + p2 ⋅ p3 ⋅(1 – p1) + p1 ⋅ p2 ⋅ p3
P2von3 = p1⋅p2⋅p3⋅(1 – p4) + p1⋅p2⋅p3⋅(1 – p3) + p1⋅p3⋅p4⋅(1 – p2) + p2⋅p3⋅p4⋅(1 – p1) +
p1⋅p2⋅p3⋅p3
P2von4
K1
K2
K5
K3
K4
Das Brückensystem
Grenzfall I:
K5 defekt
K1
K2
K3
K4
1 – (1 – p1 ⋅ p2) ⋅ (1 – p3 ⋅ p4)
Seite 32
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Grenzfall II:
K5 intakt
K1
K2
K3
K4
[1 − (1 − p1 ) ⋅ (1 − p3 )] ⋅ [1 − (1 − p2 ) ⋅ (1 − p4 )]
Formel der totalen Wahrscheinlichkeit
m
P(Bn ) = ∑ P ( H i ) ⋅ P( B | H i )
i =1
m = 2 H1 = K5 defekt
H2 = K5 intakt
B = Brückensystem intakt
PBrückensystem
= P (H1) ⋅ P (B| H1) + P (H2) ⋅ P (B| H2)
= (1– p5) ⋅ Grenzfall I + p5 ⋅ Grenzfall II
PBrückensystem =
(1 − p5 ) ⋅ [1 − (1 − p1 ⋅ p2 ) ⋅ (1 − p3 ⋅ p4 )] + p5 ⋅ [1 − (1 − p1 ) ⋅ (1 − p3 )] ⋅ [1 − (1 − p2 ) ⋅ (1 − p4 )]
Zufallsvariable
Beispiele:
X = Augensumme beim Werfen von 2 Würfeln
X = Anzahl defekter Stücke in einer Stichprobe
X = Anzahl der Reparaturaufträge, die pro Woche
in einer Werkstatt eintreffen.
X = Lebensdauer eines Fernsehgerätes
X = Meßfehler bei einer Messung
X = Meßergebnis bei einer Messung
diskrete Zufallsvariablen
stetige Zufallsvariablen
Für das Arbeiten mit Zufallsvariablen verwendet man 3 Funktionen:
♦ Wahrscheinlichkeitsfunktion
für diskrete Zufallsvariablen
♦ Verteilungsfunktion
für stetige Zufallsvariablen
♦ Wahrscheinlichkeitsdichtefunktion
Seite 33
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Die Wahrscheinlichkeitsfunktion
z.B.:
X = Augensumme beim Würfeln
X kann die Werte annehmen:
2, 3, … , 7, … , 12
1 2
6
1
, , , , ,
36 36
36
36
Wertetabelle der
Wahrscheinlichkeitsfunktion
P (X=k)
6
36
5
36
4
36
3
36
2
36
Stabdiagramm der
Wahrscheinlichkeitsfunktion
1
36
1
2
3
P ( X = 5) =
4
5
6
7
8
9 10 11 12
k
4
36
P( X ≥ 9) = P( X = 9) + P( X = 10) + P( X = 11) + P( X = 12) =
P( X < 4) = P( X = 3) + P( X = 2) =
4
3
2
1 10
+
+
+
=
36 36 36 36 36
2
1
3
+
=
36 36 36
P(6 < X ≤ 9) = P( X = 7) + P( X = 8) + P( X = 9) =
6
5
4 15
+
+
=
36 36 36 36
Verteilungsfunktion
1
2
3
6
+
+
=
36 36 36 36
6
P( X ≤ 4,8) = P( X = 2) + P( X = 3) + P( X = 4) =
36
P( X ≤ 4) = P( X = 2) + P( X = 3) + P( X = 4) =
F (t ) = P( X ≤ t ) = ∑ P( X = k )
k ≤t
F(t) heißt Verteilungsfunktion
der Zufallsvariablen X
X = Augensumme beim Würfeln
Seite 34
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
t
t<2
2≤t<3
3≤t<4
4≤t<5
5≤t<6
6≤t<7
7≤t<8
8≤t<9
9 ≤ t < 10
10 ≤ t <11
11 ≤ t < 12
12 ≤ t
F(t)
0
1/36
3/36
6/36
10/36
15/36
21/36
26/36
30/36
33/36
35/36
36/36 = 1
F(3,6) = P(X≤3,6) = P(X=2) + P(X=3) = 1/36 + 2/36 = 3/36
1
F (t)
30
36
P(X=9)
24
36
P(X=8)
18
36
P(X=7)
12
36
P(X=6)
P(X=5)
6
36
t
-1
0
1
2
3
4
5
6
7
8
9
10
P(6 < X ≤ 9) = P( X = 7) + P( X = 8) + P( X = 9) = F (9) − F (6) =
11
12
13
30 15 15
−
=
36 36 36
P (a < X ≤ b) = F (b) – F (a)
Eigenschaften der Verteilungsfunktion F (t)
lim = 1
kürzer: F(∞) = 1
lim = 0
kürzer: F(-∞) = 0
t →∞
t → −∞
F (t) ist monoton steigend
Seite 35
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Verteilungsfunktion bei einer stetigen Zufallsvariablen
F (t) = p (X ≤ t)
Stufenhöhe ist die Wahrscheinlichkeit (bei stetiger Funktion
Stufenhöhe = 0)
P (X = b) = 0
P (a < X ≤ b) = F(b) – F(a)
= P (a < X < b)
= P (a ≤ X < b)
= P (a ≤ X ≤ b)
F (+∞) = 1
F (–∞) = 0
F ist monoton steigend
F‘ (t) = f (t)
= Wahrscheinlichkeitsdichtefunktion
t
F (t ) = ∫ f ( x )dx
−∞
F (−∞) = ∫
−∞
F (+∞) = ∫
+∞
−∞
−∞
f ( x)dx = 0
f ( x)dx = 1
Seite 36
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
f (x) = 0
P (a < X ≤ b) = F (b) – F (a)
∫
b
=
∫
b
P (a < X ≤ b) =
∫
b
=
−∞
a
a
f ( x)dx − ∫
a
−∞
f ( x )dx
f ( x)dx
f ( x)dx
Beispiel:
2π, 0
X
länge = 1m
3
π
2
π
2
π
Seite 37
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X kann Werte annehmen zwischen 0 und 2π
F (t) = P ( X ≤ t)
F (t) = 0
F (t) = 1
für t < 0
t ≥ 2π
für 0≤ t ≤ 2π
F (t) ~ t
F (t) = c ⋅ t
F (2π) = 1 = c ⋅ 2π
F (t) =
{
0
1
⇒c= π
2
für t < 0
1
⋅ t für 0 ≤ t ≤ 2π
2π
1
für t ≥ 2π
F (t)
1
t
2π
f (t) = F‘ (t) =
{
0
für t < 0
1
2π
1
für 0 ≤ t ≤ 2π
für t > 2π
f (t)
1
2π
2π
t
X hat eine gleichmäßige Verteilung in [0, 2π]
Seite 38
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Wie groß ist die Wahrscheinlichkeit, daß der Zeiger zwischen π und
3
π stehen bleibt:
2
3 

3 
P π ≤ X ≤ π  = F  π  − F (π )
2 

2 
1 3
1
=
⋅ π−
⋅π
2π 2
2π
3 1 1
= − =
4 2 4
allgemeine gleichmäßige Verteilung:
gleichmäßige Verteilung in [a,b]
F (t)
1
a
F (t) =
{
t
b
0
für t < 0
t−a
für a ≤ t ≤ b
b−a
1
für t > b
f (t)
1
b−a
a
b
t
Seite 39
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
f (t) =
{
1
für a ≤ t ≤ b
b−a
0
sonst
Spezialfall a = 0, b = 1
gleichmäßige Verteilung in [0, 1]
F (t)
1
t
1
F (t) =
{
0
t
1
für t < 0
für 0 ≤ t ≤ 1
für t > 1
f (t)
1
1
f (t) =
{
1
für 0 ≤ t ≤ 1
0
sonst
t
Seite 40
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
1, 0
X
länge =
3
4
1
2π
1
4
0,1963
0,5218
0,3084
0,8625
…
1
2
Zufalls(zahlen)generator
Folge von Zufallszahlen mit gleichmäßiger
Verteilung in [0, 1]
Anwendung von Zufallszahlen:
Bsp.:
Bei einer Produktion wird in Losen von jeweils 10000 Stück produziert. Jedes
produzierte Stück erhält nach Fertigstellung eine Identifikationsnummer.
z. B.: 0, 1, 2, 3, … , 9999
Für die Qualitätskontrolle soll eine Stichprobe von z. B. n = 100 Stück ausgewählt werden.
Zufallsauswahl soll realisiert werden:
0,19432
→
1943
0,57219
→
5721
0,63048
→
6304
0,27431
→
2743
…
…
… andere Losgröße, z. B.: 8000
0, 1, 2, 3, … , 7999
Multiplikation der Zufallszahlen mit 8000 (danach Abschneiden des Ergebnis)
oder: Vorgehensweise wie zuvor, und Identifikationsnummern größer gleich 8000 wegstreichen.
2. Bsp.:
Simulation von Zufallsprozessen
Es soll das Werfen zweier Münzen mit Hilfe von Zufallszahlen simuliert werden.
X = Anzahl der Wappen
X kann die Werte annehmen 0, 1, 2 Wappen
1
4
1
P (X = 0) =
2
1
P (X = 0) =
4
P (X = 0) =
Seite 41
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
1
4
2
4
↓
0
0,25
1
4
0,75
↓
X=0
X=1
→
→
→
→
→
0,19432
0,57219
0,63048
0,27431
0,83175
1
↓
X=2
X=0
X=1
X=1
X=1
X=2
Zufallsgeneratoren
9
8
9
0
8
1
7
2
6
5
4
0,2
3
4
7
1
7
2
5
0
8
1
7
6
9
0
3
6
…
2
5
4
3
5
0,1001011… 1
Zufallsgeneratoren, die auf elektronischen Rauschen beruhen.
Seite 42
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Anzahl der Nulldurchgänge …
ungerade = 1
gerade = 0
Pseudozufallszahlen
Verhalten sich ähnlich wie Zufallszahlen, werden aber mit einem Rechenprogramm
erzeugt (und sind aufgrund dieser Methode reproduzierbar).
Kongruenzmethoden:
1) multiplikative Kongruenzmethode
m, a, N0
(positive ganze Zahlen)
m > a, m > N0
a ⋅ N0 wird dividiert durch m
Divisionsrest = N1
a ⋅ N1 wird dividiert durch m
Divisionsrest = N2
Ni+1 = Divisionsrest bei Division von a ⋅ Ni durch m
Ni+1 = a⋅ Ni (mod m)
Abkürzende Schreibweise
0 ≤ Zi < m
N0, N1, N2, …
N
Z i = i → Z0, Z1, Z2, …
m
Pseudozufallszahlen
Günstige Wahl für m, a, N0:
b Binärstellen (z. B. b = 31)
b
m und a teilerfremd
m = 2b
a = 22 ± 3
N0 ungerade Zahl
negatives Beispiel (so sollte nicht vorgegangen werden)
m = 7, a = 5, N0 = 3
i
0
1
2
3
4
5
6
7
8
Ni
3
1
5
4
6
2
3
1
5
Zi
0,4286
0,1429
0,7143
0,5714
0,8571
0,2857
0,4286
0,1429
0,7143
Wiederholungen
spätestens nach m Werten kann beobachtet werden, daß
es zu Wiederholungen kommt.
Seite 43
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
2) lineare Kongruenzmethode
m, a, N0, C
N0, N1, N2, …
Ni+1 =a⋅ Ni + C (mod m)
N
Zi = i
m
Z0, Z1, Z2, …
m = 2b
wie vorher
für a, C, N0 kann keine allgemeine Regel aufgestellt werden.
Folgerung: Vor ihrer Verwendung sollten diese Pseudozufallszahlen „ getestet“ werden.
3) additive Kongruenzmethode
m, N0, N1, N2, … , Nr
Ni+1 = Ni + Ni-r (mod m)
z. B. für r = 15
N0, N1, … , N15
N16 = N15 + N0 (mod m)
N17 = N16 + N1 (mod m)
…
N
Zi = i
m
…
Z0, Z1, Z2, …
r ≥ 15 erzeugte Pseudozufallszahlen müssen getestet werden
Binomialverteilung
Bsp.:
Ein Würfel wird 10 mal geworfen.
Wie groß ist die Wahrscheinlichkeit, daß 2 mal eine Sechs erscheint ?
allgemein:
Ein Zufallsexperiment wird n mal unabhängig voneinander ausgeführt.
Bei jeder Ausführung kann ein Ereignis A mit einer Wahrscheinlichkeit von p
eintreten.
Wie groß ist die Wahrscheinlichkeit, daß das Ereignis A k mal eintritt ?
A = Werfen einer Sechs.
1
p=
6
n = 10
k=2
im Bsp.:
im Bsp.:
allgemein:
X = Anzahl der Ausführungen des Experiments, bei denen A eingetreten ist.
X = Anzahl der gewürfelten Sechsen.
P (X=2) = ?
P (X=k) = ?
Seite 44
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Spezielle Serie von Würfen:
(1)
1.
A
p⋅
2.
A
p⋅
3.
4.
5.
6.
7.
8.
9.
10.
A
A
A
A
A
A
A
A
(1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p) = p 2 ⋅ (1 − p)8
(2)
A
A
A
(1-p)⋅ (1-p)⋅ p ⋅
A
p⋅
(3)
…
(45)
Serie mit 2 A und 8 A
…
Serie mit 2 A und 8 A
A
A
A
A
A
A
(1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p) = p 2 ⋅ (1 − p)8
10  10 ⋅ 9
  =
= 45
2!
2
P((1) ∪ (2) ∪
∪ (45))
= P((1)) + P((2) ) +
+ P((45) )
= p ⋅ (1 − p ) + p ⋅ (1 − p ) +
8
2
2
8
= 45 ⋅ p 2 ⋅ (1 − p )
+ p 2 ⋅ (1 − p )
8
8
2
8
1 5
= 45 ⋅   ⋅   = 29,1%
 6  6
= P( X = 2)
allgemein:
 n
n−k
P( X = k ) =   ⋅ p k ⋅ (1 − p )
fürk = 0 ,1, , n
k
Binomialverteilung mit Parametern n und p
Wie groß ist die Wahrscheinlichkeit, daß bei 10 maligem Würfeln höchstens 2 mal eine 6
erscheint ?
P (X ≤ 2)
P (X = k)
= P (X=0) + P(X=1)+P(X=2)
= 16,2 % + 32,3 % + 29,1 % = 77,6 %
 n
n−k
=   ⋅ p k ⋅ (1 − p )
k
Anwendungsbeispiel:
Produktionsprozeß bei welchem jedes hergestellt Stück mit einer Wahrscheinlichkeit von 3
% defekt ist.
Es werden 100 Stück hergestellt.
Seite 45
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X = Anzahl der hergestellten defekten Stücke
100 
 ⋅ 0,034 ⋅ 0,97 96 =17,1 %
P (X = 4) = 
 4 
Warenlieferung von N Stück. Davon sind r Stück defekt.
Es werden n Stück entnommen.
Wie groß ist die Wahrscheinlichkeit, daß k defekte Stücke entnommen werden?
X = Anzahl der entnommenen defekten Stücke
a) Stichprobe ohne Zurücklegen
 r  N − r 
 

k  r − k 

P (X = k) =
N
 
n
b) Stichprobe mit Zurücklegen
n
P (X = k) =   ⋅ p k
k 
 r
⋅ 1 − 
 n
r
p= 
n
n−k
Vergleich a) mit b):
N = 100, r = 10, n = 20, k =2
10  98 
  
2 18
a) P (X=2) =    = 31,8 %
100 


 20 
 20   10 
b) P (X=2) =   ⋅ 

 2   100 
2
18
10 

⋅ 1 −
 = 28,5 %
 100 
Verteilungsfunktion der Exponentialverteilung
F(t) = P(X = t) =
t
0
−∞
−∞
∫ f ( x)dx = ∫
t
f ( x)dx + ∫ f ( x )dx
t≥0
0
0
λ ⋅ e −λ ⋅ x
Seite 46
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
[
t
]
= ∫ λ ⋅ e − λ ⋅ x dx = − e − λ ⋅ x 0 = −e − λ ⋅t + 1 = 1 − e − λ ⋅t
t
0
F(t) =
{
1-e-λ⋅t für t > 0
0
sonst
λ hat die Dimension Zeit–1 und ist ein gerätespezifischer Parameter
Beispiel:
N = 2000
r = 200
n = 20
k=2
 200  1800 

⋅

2   18 

a) P (X = 2) =
= 28,7%
 2000 


 20 
 200   2000 
b) P (X = 2) = 
 ⋅ 

 2   20 
2
18
200 

⋅ 1 −
 = 28,5%
 2000 
Folgerung:
 r   N − r
  ⋅ 

k
n−k
n   n − k   N   r  
r 

lim
=   ⋅   ⋅ 1 − 
r →∞
N
k N  N
r
 
→ konst
n
n
Die hypergeometrische Verteilung konvergiert gegen die Binomialverteilung bei
r
wachsendem N und konstantem
.
N
Seite 47
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Exponentialverteilung:
f (x) =
{
λ ⋅ e − λx für x ≤ 0
0
Dichtefunktion
sonst
Die Exponentialverteilung ist eine Lebensdauerverteilung.
X = Lebensdauer eines technischen Gerätes.
Unter bestimmten Voraussetzungen ist die Lebensdauer von technischen Geräten
exponential verteil.
Beispiel:
1
Jahre−1
2
1
Gerätetyp II: λ = Jahre−1
3
3
geplante Einsatzdauer Jahr
4
Gerätetyp I:
λ=
Welches der beiden Geräte hat die Größere Zuverlässigkeit für diese Einsatzdauer?
P (X >
3
3
Jahre) = 1 – ( X ≤ Jahre )
4
4
3
= 1 – F ( Jahre )
4
3
− λ ⋅ Jahre 


= 1 – 1 − e 4



=e
Gerät I:
Gerät II:
=e
=e
3
− λ ⋅ Jahre
4
1
3
− Jahre −1 ⋅ Jahre
2
4
1
3
− Jahre −1 ⋅ Jahre
3
4
= 68,7%
= 77,9%
Man würde sich also für Gerätetyp II entscheiden.
Seite 48
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
⇒ Das Gerät mit kleinerem λ besitzt die höhere Zuverlässigkeit.
Zuverlässigkeit für eine Einsatzdauer der Länge t
P (X > t) = 1 – P (X ≤ t) = 1 – F (t)
R (t)
R (t) = P ( X > t)
= 1 – F (t)
R(t) heißt Zuverlässigkeitsfunktion
Verlauf der Zuverlässigkeitsfunktion
R (t) =
λ=
{
e-λt
für t ≥ 0
1
für t < 0
1
Jahre-1
3
Frage: Wie groß ist die Wahrscheinlichkeit, daß das Gerät innerhalb einer Garantiezeit von
einem halben Jahr ausfällt ?
P (X ≤
1
2
Jahr) = F (
1
2
Jahr) = 1 − e
1
1
− Jahre −1 − Jahre
3
2
−
1
= 1− e 6
= 1- 0,846
= 0,154
= 15,4 %
Wie groß ist die Wahrscheinlichkeit, daß das Gerät die Garantiezeit von einem halben
Jahr besteht, aber spätestens nach 2 Jahren ausgefallen ist ?
Seite 49
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P(
1
2
< X ≤ 2) = F ( 2Jahre) – F (
= 1− e
=e
−
1
6
1
− Jahre −1 ⋅ 2 Jahre
3
−e
−
1
2
Jahr)
1
1
− Jahre −1 ⋅ Jahre 

2
− 1 − e 3



2
3
= 0,846 – 0,513
= 0,333 = 33,3 %
Das Gerät war 1 Jahr in Betrieb und funktioniert noch …
Wie groß ist die Zuverlässigkeit für ein weiteres halbes Jahr ?
P (X > 1,5 Jahre | X > 1 Jahr)
P( X > 1Jahr ∩ X > 1,5 Jahre)
P( X > 1Jahr )
P( X > 1,5 Jahre) R(1,5 Jahre)
=
=
P( X > 1Jahr )
R(1Jahr )
=
=
e
Allgemeingültig
1
− ⋅1,5
3
e
1
− ⋅1
3
−
1
6
=e
= 0,846 = 84,6%
Folgerung:
Bei Exponentialverteilung ist der Alterungsprozeß nicht enthalten, wird also
vernachlässigt. Die Exponentialverteilung ist eine Abstraktion bzw.
Näherung.
Konsequenz: Die Exponentialverteilung kann nur verwendet werden, wenn der
Alterungsprozeß vernachlässigt werden kann.
Dies ist der Fall, wenn …
1) … die betrachteten Einsatzdauern klein sind im Vergleich zur durchschnittlichen
Lebensdauer der Geräte
oder
2) … das Gerät einer vorsorglichen Wartung unterliegt.
Das Gerät hat ein Alter von t Jahren erreicht und funktioniert noch. Wie groß ist die
Wahrscheinlichkeit, daß das Gerät im nächsten Zeitraum der Länge ∆t ausfallen wird ?
Seite 50
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P (X ≤ t + ∆t | x > t)
P ( X > t ∩ X ≤ t + ∆t ) P (t < X ≤ t + ∆t )
=
P( X > t )
P( X > t )
F (t + ∆t ) − F (t )
=
R (t )
=
P( X ≤ t + ∆t | X > t ) F (t + ∆t ) − F (t )
=
∆t
∆t ⋅ R(t )
Ausfall Quote
Anfangs (Zeitnullpunkt) 1000 Geräte in Betrieb.
nach 1 Jahr (Alter = 1 Jahr) funktionieren noch 850
nach einem weiteren Monat fallen weitere 10 Geräte aus
1
10
P (X ≤ (1 + )Jahre | X > 1 Jahr) ≈
2
850


 1
P X ≤ 1 +  Jahr | X > 1Jahr 
10
 2

=
1
1
Jahr
Jahr ⋅ 850
12
12
120
12
=
= Jahre −1 = 14% pro Jahr
850 Jahre 85
Ausfallquote
P( X ≤ t + ∆t | X > t ) F (t + ∆t ) − F (t )
=
∆t
∆t ⋅ R(t )
Grenzfall:
Ausfallquote
∆t → 0
lim Ausfallquote = Ausfallrate
∆t → 0
= h (t)
F (t + ∆t ) − F (t )
∆t → 0
∆t ⋅ R(t )
1
F (t + ∆t ) − F (t )
=
⋅ lim
∆
t
→
0
R(t )
∆t
h (t) = lim
F‘ (t) = f (t)
h(t ) =
f (t )
R(t )
Seite 51
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Ausfallrate bei der Exponentialverteilung:
f (t) =
R (t) =
{
λ⋅e-λt für t ≥ 0
0
sonst
{
e-λt
für t ≥ 0
⇒ h(t ) =
0
sonst
λ ⋅ e − λt
=λ
e − λt
λ
t
Empirische Bestimmung der Ausfallrate
N0
N1
∆t
t0
N2
∆t
t1
N3
Ni
∆t
t2
Ni+1
∆t
t3
ti
ti+1
t
Zeit
Ausfallquote zum Zeitpunkt ti:
hi =
N i − N i +1
∆t ⋅ N i
für i = 0, 1, 2, …
Badewannenkurve
Frühausfälle
Zufallsausfälle
Altersausfälle
Burn in Phase
Nutzungsphase
Ersetzungshase
Seite 52
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Größenordnung der Ausfallrate für (elektrische) Bauteile:
Widerstände: 10-7 – 10-9 h-1
Kapazitäten: 10-7 – 10-8 h-1
ICs:
10-6 – 10-7 h-1
Beispiel:
Ein Gerät ist aus 100 Bauteilen ohne Redundanz aufgebaut.
λR = 1 ⋅ 10-7 h-1
λC = 3 ⋅ 10-7 h-1
λIC= 4 ⋅ 10-7 h-1
50 Widerstände
30 Kondensatoren
20 ICs
1) Wie groß ist die Zuverlässigkeit des Gerätes für einen Einsatz von 1 Jahr ?
2) Wie groß ist die Ausfallrate solcher Geräte ?
R (t) = Zuverlässigkeit des Gerätes
R1 (t) = Zuverlässigkeit des Bauteils 1
R2 (t) = Zuverlässigkeit des Bauteils 2
…
…
Rn (t) = Zuverlässigkeit des Bauteils n
Ri (t) = e-λt
Seriensystem:
PSerie = p1 ⋅ p2 ⋅ … ⋅ pn
R(t) = R1 (t) ⋅ R2 (t) ⋅ … ⋅ Rn (t)
R(t) = e − λ1t ⋅ e −λ 2 t ⋅ ⋅ e − λn t
= e −( λ1 + λ 2 + + λ n )⋅t
= e − λ ⋅t
wobei λ = λ1 + λ2 + … + λn
Folgerung:
I)
II)
Ein Seriensystem aus Komponenten mit exponential verteilten Lebensdauern hat selbst
eine exponential verteilte Lebensdauer.
Die Ausfallrate des Seriensystems ergibt sich als Summe der Ausfallraten der
Komponenten wobei λ = λ1 + λ2 + … + λn .
zu Frage 2:
λ = 50 ⋅ λR + 30 ⋅ λC + 20 ⋅ λIC
= 50 ⋅ 1 ⋅ 10-7 h-1 + 30 ⋅ 3 ⋅ 10-7 h-1 + 20 ⋅ 4 ⋅ 10-7 h-1
= 220 ⋅ 10-7 h-1 = 0,22 ⋅ 10-4 h-1
zu Frage 1:
−4
−1
R ( 8760 h) = e −0, 22⋅10 ⋅h ⋅8760⋅ h
= e −0,1927
= 0,825 = 82,5%
Seite 53
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Parallelsysteme bestehend aus Komponenten mit exponential verteilter Lebensdauer
R1 (t ) = e − λ1t
K1
R2 (t ) = e − λ2 t
K2
R (t) = Zuverlässigkeit des Systems
= 1 – (1 – R1(t)) ⋅ (1 – R2(t))
= 1 – (1 – e − λ1t ) ⋅ (1 – e − λ2 t )
Folgerung:
Ein Parallelsystem aus Komponenten mit exponential verteilten Lebensdauern hat
selbst keine exponential verteilte Lebensdauer.
f (t ) = F ′(t )
F (t ) = 1 − R(t )
(
)(
)
f (t ) = λ ⋅ e
⋅ (1 − e
) + (1 − e )⋅ λ ⋅ e
f (t ) λ ⋅ e
⋅ (1 − e
) + (1 − e )⋅ λ
⇒ h(t ) =
=
R(t )
)
1 − (1 − e ) ⋅ (1 − e
F (t ) = 1 − e − λ1 ⋅t ⋅ 1 − e − λ 2 ⋅t
− λ1 ⋅t
− λ 2 ⋅t
− λ1 ⋅t
i
− λ 2 ⋅t
2
− λ1 ⋅t
i
− λ 2 ⋅t
− λ1 ⋅t
− λ1 ⋅t
− λ 2 ⋅t
2
⋅ e − λ 2 ⋅t
Allgemeinere Lebensdauerverteilungen
Verteilungsfunktion:
1 − e − ( λ ⋅t )
für t ≥ 0
0
sonst
α
f (t) =
{
Parameter α > 0, λ > 0
für α = 1 ergibt sich die Exponentialverteilung
für α ≠ 1 ergibt sich eine Verallgemeinerung
Weibull – Verteilung mit Parameter λ und α.
Seite 54
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Bestimmung der Ausfallratefunktion:
h(t ) =
f (t )
R(t )
R(t ) = 1 − F (t ) = e − ( λ ⋅t )
α
f (t ) = F ′(t ) = e − (λ ⋅t ) ⋅ α ⋅ (λ ⋅ t )
α
⇒ h(t ) =
α −1
⋅λ
λ ⋅ α ⋅ (λ ⋅ t )α −1 ⋅ e − (λ ⋅t )
α −1
= λ ⋅ α ⋅ (λ ⋅ t )
− (λ ⋅t )α
e
α
Erlangverteilung
Dichtefunktion:
f (t) =
{
λk
⋅ x k −1 ⋅ e − λ ⋅ x
(k − 1)!
für x ≥ 0
0
sonst
Parameter
k ≥ 1, k ganzzahlig
λ>0
für k = 1 ergibt sich die Dichte der Exponentialverteilung
für k > 1 ergibt sich die eine Verallgemeinerung
Verteilungsfunktion:
t
F (t) =
t
∫ f (x )dx = ∫ f (x )dx
−∞
t
=
0
λ
k
∫ (k − 1)! ⋅ x
−∞
k −1
= 1− ∑e
i =0
− λ ⋅t
k −1
⋅ e − λ ⋅ x dx
(
λ ⋅ t )i
⋅
i!
Seite 55
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Zuverlässigkeitsfunktion:
k −1
R (t) = 1 – F (t) =
∑e
− λ ⋅t
i =0
(
λ ⋅ t )i
⋅
i!
µ=3
Standardnormalverteilung
λk
⋅ t k −1 ⋅ e − λ ⋅t
f (t ) (k − 1)!
h(t ) =
= k −1
i
R(t )
− λ ⋅t (λ ⋅ t )
e
⋅
∑
i!
i=0
λk ⋅ t k −1
=
i
k −1
(k − 1)!⋅∑ (λ ⋅ t )
i!
i =0
für k = 2:
λ2 ⋅ t
λ ⋅t
h(t ) =
=λ⋅
1+ λ ⋅ t
1+ λ ⋅t
Normalverteilung
Dichtefunktion:
f (x ) =
−
1
⋅e
2π ⋅ σ
( x − µ )2
2 ⋅σ 2
für -∞ < x < +∞
µ beliebig
σ>0
Seite 56
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
µ = 0, σ = 1
Spezialfall:
f (x ) =
x2
−
1
⋅e 2
2π
Standardnormalverteilung
( x ⋅ 3) 2
−
1
µ = 3, σ = 1
f (x ) =
⋅e 2
2π
⇒ µ gibt die Lage des Maximums an
µ ist ein Lageparameter
−
f (x ) =
1
µ = 0, σ =
2
1
2π ⋅
⇒ σ ist ein Breiteparameter
1
2
⋅e
x2
1
2 ⋅ 
2
2
=
2
2
⋅ e− 2 x
2π
Die Normalverteilung kommt u. a. vor bei Meßvorgängen und bei Produktionsvorgängen.
z. B. Produktion von elektrische Widerständen.
X = Widerstandswert eines Widerstandes
X ist eine Zufallsvariable
X hat (näherungsweise) eine Normalverteilung
Verteilungsfunktion der Normalverteilung
t
F (t) =
↓
∫ f (x )dx
−∞
t
F(t; µ, σ) =
∫
−∞
t
F(t; 0, 1) =
∫
−∞
−
1
⋅e
2 ⋅π ⋅σ
x2
( x − µ )2
−
1
⋅ e 2 dx
2 ⋅π
2⋅σ 2
dx
= Φ (t )
Φ (t ) = Verteilungsfunktion der Standardnormalverteilung
Seite 57
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Φ (0) = 0,5
Φ (∞ ) = 1
Φ (− ∞ ) = 0
Φ (0,1) =
0 ,1
∫
−∞
0
∫
−∞
x2
−
1
⋅ e 2 dx
2 ⋅π
x2
−
1
⋅ e 2 dx +
2 ⋅π
0,5
0 ,1
∫
0
x2
−
1
⋅ e 2 dx
2 ⋅π
+ 0,0398 = 0,5398
Φ (0,2) = 0,5793
Φ (0,3) = 0,6179
…
Φ (− 0,1) = 0,5 - 0,0398 = 0,4602
Φ (− 0,2 ) = 0,5 –0,0793 = 0,4207
Φ (0,1) + Φ (− 0,1) = 1
Φ (− 0,1) = 1 - Φ (0,1)
Φ (− t ) = 1 - Φ (t )
D (t) = = Φ (t ) - Φ (− t )
Differenz
( x − µ )2
t
−
1
2
F (t; µ, σ) = ∫
⋅ e 2⋅σ dx
2 ⋅π ⋅σ
−∞
x−µ
Substitution:
=y
σ
x =σ ⋅ y+ µ
dx = σ ⋅ dy
=
t −µ
σ
∫
−∞
=
t −µ
σ
∫
−∞
y2
−
1
⋅ e 2 ⋅ σ ⋅ dy
2 ⋅π ⋅σ
y2
−
1
⋅ e 2 ⋅ dy
2 ⋅π
t −µ 
= Φ

 σ 
t − µ 
F (t; µ, σ) = Φ

 σ 
Seite 58
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
z.B.:
 62,5 − 60 
F (62,5; 60, 2) = Φ
 = Φ (1,25) = 0,8944
2


Bsp.:
X = Widerstand eines elektrischen Widerstands
Produktion von elektrischen Widerständen
Normalverteilt mit µ = 60 kΩ , σ = 2 kΩ
Toleranzbereich:
55 kΩ bis 68 kΩ
Wie groß ist der zu erwartende Anteil an unbrauchbaren Widerständen ?
1 – P (55 kΩ ≤ X ≤ 68 kΩ)
= 1 − [F (68kΩ;60kΩ,2kΩ ) − F (55kΩ;60kΩ,2kΩ )]
  68kΩ − 60kΩ 
 55kΩ − 60kΩ 
= 1 − Φ
 − Φ

2kΩ
2kΩ



 
= 1 − [Φ (4 ) − Φ (− 2,5)]
= 1 − [1 − 0,0062] = 0,0062 = 0,62 %
anderer Toleranzbereich:
55 kΩ bis 65 kΩ
1 – P (55 ≤ X ≤ 65)
= 1 − [F (65;60,2 ) − F (55;60,2 )]
  65 − 60 
 55 − 60 
= 1 − Φ
 − Φ

 2 
  2 
= 1 − [Φ (2,5) − Φ (− 2,5)]
= 1 − D(2,5) = 1 – 0,9876 = 0,0124 = 1,24 %
anderes σ:
µ = 60 kΩ , σ = 3 kΩ
1 – P (55 ≤ X ≤ 65)
= 1 − [F (65;60,3) − F (55;60,3)]
  65 − 60 
 55 − 60  
= 1 − Φ
 − Φ

 3 
  3 
= 1 − [Φ (1,67 ) − Φ (− 1,67 )]
= 1 − D(1,67 ) = 1 – 0,9051 = 0,0949 = 9,49 %
Folgerung: σ ist ein Maß für die Güte der Produktion. Kleine werte für σ sind günstiger.
Toleranzbereich:
55 kΩ bis 65 kΩ
Seite 59
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Wie groß darf σ sein, damit der zu erwartende Anteil an unbrauchbaren Widerständen
gerade 5 % beträgt ?
1 – P (55 ≤ X ≤ 65)
→ 1 − [F (65;60,σ ) − F (55;60,σ )] = 95%
 65 − 60 
 55 − 60 
Φ
 − Φ
 = 95%
 σ 
 σ 
5
 −5
Φ  − Φ
 = 95%
σ 
σ 
5
D  = 95%
σ 
5
5
⇒σ =
= 1,96
1,96 ist der 95 % – Punkt der D – Funktion
1,96
σ
σ = 2,55 kΩ
90 % – Punkt der D – Funktion
D(1,64) = 0,8990 = 89,90 %
D(1,65) = 0,9011 = 90,11 %
Interpolation zwischen 1,64 und 1,65
1,645 ist der 90 % – Punkt der D – Funktion
2,576 ist der 99 % – Punkt (Quantil) der D – Funktion
97,5 % – Punkt der Φ – Funktion
1,96 ist der 97,5% – Punkt der Φ – Funktion
D (z) = χ
z ist das χ – Quantil der D – Funktion
Φ( z ) − Φ (− z ) = χ
Φ( z ) − (1 − Φ ( z )) = χ
Φ( z ) − 1 + Φ ( z ) = χ
2 ⋅ Φ(z ) − 1 = χ
Φ( z ) =
1
(1 + χ )
2
z ist das
1
(1 + χ ) Quantil der Φ – Funktion.
2
Normalverteilte Produktion von Widerständen mit:
µ = 60 kΩ , σ = 2 kΩ
Was für Widerstandswerte werden durchschnittlich hergestellt ?
Seite 60
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Widerstände aus dieser Produktion:
61,3 58,5 60,4 62,1 …
Erwartungswert einer Zufallsvariablen
X = Augensumme beim Werfen mit 2 Würfeln.
Welche Augensumme ergibt sich durchschnittlich bei einer großen Zahl von Würfen ?
8, 5, 7, 9, … , 2, 12, …
N = 36000 mal gewürfelt
8 + 5 + 7 + 9 + + 2 + 12 +
36000
2+2+
=
+ 2+3+3+
+ 3+
36000
+ 12 + 12 +
+ 12
Die Augensumme 2 kommt bei N = 36000 Würfen ca. 1000 mal vor.
Die Augensumme 3 kommt bei N = 36000 Würfen ca. 2000 mal vor.
…
Die Augensumme 7 kommt bei N = 36000 Würfen ca. 6000 mal vor.
…
Die Augensumme 12 kommt bei N = 36000 Würfen ca. 1000 mal vor.
1000 =
1
1
⋅ 36000 =
⋅N
36
36
Gesamtsumme an gewürfelten Augen:
≈ 2 ⋅ 1000 + 3 ⋅ 2000 + + 7 ⋅ 6000 + + 12 ⋅ 1000
1
2
6
1
= 2 ⋅ ⋅ N + 3 ⋅ ⋅ N + + 7 ⋅ ⋅ N + + 12 ⋅ ⋅ N
36
36
36
36
Durchschnittswert der gewürfelten Augen pro Wurf
≈
2⋅
1
2
⋅ N + 3⋅ ⋅ N +
36
36
1
2
= 2⋅ + 3⋅ +
36
36
+ 7⋅
N
6
+ 7⋅ +
36
6
⋅N +
36
+ 12 ⋅
Gesamtzahl
1
2
= 2⋅ + 3⋅ +
N →∞
N
36
36
Erwartungswert
der Augensumme X
= E (X)
lim
+ 12 ⋅
1
⋅N
36
1
36
+7⋅
6
+
36
+ 12 ⋅
1
=7
36
E (X) = 7
Seite 61
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X sei eine diskrete Zufallsvariable, die die Werte x1, x2, … annehmen kann mit den
Wahrscheinlichkeiten p1, p2, …
E ( X ) = x1 ⋅ p1 + x2 ⋅ p2 +
=
∑x ⋅ p
i
falls die betreffende Reihe absolut
konvergent ist, d.h. ∑|xi|⋅pi < ∞
i
alle i
X sei eine stetige Zufallsvariable mit Dichtefunktion f(x)
E(X ) =
+∞
∫ x ⋅ f (x )dx
falls das betreffende Integral absolut
konvergent ist, d.h. |x|⋅f(x) < ∞
−∞
Erwartungswert einer gleichmäßigen Verteilung
gleichmäßige Verteilung in [a, b]
f (t)
1
b−a
a
f (x) =
{
E(X) =
b
t
1
für a ≤ x ≤ b
b−a
0
sonst
+∞
a
b
+∞
−∞
a
b
∫ x ⋅ f (x )dx = ∫ x ⋅ f (x )dx + ∫ x ⋅ f (x )dx + ∫ x ⋅ f (x )dx =
−∞
b
= 0 + ∫ x ⋅ f (x )dx + 0
a
b
b
1
1
= ∫x⋅
⋅ xdx
dx =
b−a
b − a ∫a
a
b
1  x2 
1 1 2
=
⋅  =
⋅ ⋅ b − a2
b − a  2 a b − a 2
=
(
)
1 1
⋅ ⋅ (b − a ) ⋅ (b + a )
b−a 2
Seite 62
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
E(X)
=
a +b
2
gleichmäßige Verteilung in [0, 1]
Spezialfall:
z. B: Zufallszahlen mit gleichmäßiger Verteilung in [0, 1]
Was ist der Durchschnittswert bei einer großen Zahl von solchen Zufallszahlen ?
E( X ) =
1
2
Es wird n = 30 mal mit einem symmetrischen Würfel gewürfelt.
Wie viele Sechsen sind durchschnittlich zu erwarten ?
X = Anzahl der Sechser bei 30maligem Würfeln
X kann die Werte 0, 1, 2, … , 30 annehmen
P (X = i) = pi
i
30 − i
 30   1   1 
pi =   ⋅   ⋅ 1 − 
 i  6  6
Binomialverteilung mit den Parametern
n = 30
p=
1
6
n
 n
n −i
E ( X ) = ∑ i ⋅   ⋅ p i ⋅ (1 − p )
i
i =0
 
 n
n ⋅ (n − 1) (n − 1 + 1)
i ⋅   = i ⋅
i!
i
n ⋅ (n − 1) (n − 1 + 1)
=
(i − 1)!
= n⋅
für i ≠ 0
(n − 1) (n − 1 + 1) = n ⋅  n − 1
 i −1
(i − 1)!


i = 0 leistet keinen Beitrag zur Summe:
 n
∑ i ⋅  i  ⋅ p ⋅ (1 − p )
n
i
i =1
n −i
 
Seite 63
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
n
 n − 1 i
 ⋅ p ⋅ (1 − p )n − i
E (X) = ∑ n ⋅ 
i =1
 i −1
n
 n − 1 i
n−i
 ⋅ p ⋅ (1 − p )
= n ⋅ ∑ 
i =1  i − 1 
j = i −1
n −1
 n − 1 j +1
n −1− j
 ⋅ p ⋅ (1 − p )
= n ⋅ ∑ 
j 
j =0 
n −1 n − 1

 j
 ⋅ p ⋅ p ⋅ (1 − p )n −1− j
= n ⋅ ∑ 
j 
j =0 
n −1 n − 1

 j
 ⋅ p ⋅ (1 − p )n −1− j
= n ⋅ p ⋅ ∑ 
j 
j =0 
= n ⋅ p ⋅1
E (X) = n ⋅ p
Erwartungswert der Binomialverteilung mit
Parameter n und p
im Beispiel:
1
=5
6
1
n = 10 , p =
6
E (X) = 30 ⋅
E ( X ) = n ⋅ p = 10 ⋅
1 5
= = 1,67
6 3
Erwartungswert einer Zufallsvariablen
E (X) =
{
∑x ⋅ p
i
i
diskret
alle i
+∞
∫ x ⋅ f (x )dx
stetig
−∞
Erwartungswert der Normalverteilung
z. B.: X = Widerstandswert eines hergestellten Widerstandes
Normalverteilte Produktion von elektrischen Widerständen
Parameter µ = 60 ,
σ = 2 kΩ
Was für ein Widerstandswert ist durchschnittlich zu erwarten bei einer solchen Produktion ?
Seite 64
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
E (X) = ?
+∞
+∞
−
1
E ( X ) = ∫ x ⋅ f ( x ) ⋅ dx = ∫ x ⋅
⋅e
2 ⋅π ⋅σ
−∞
−∞
( x − µ )2
2 ⋅σ 2
⋅ dx
x−µ
σ
x =σ ⋅ y⋅µ
y=
Substitution:
dx = σ ⋅ dy
+∞
−
1
E(X) = ∫ (σ ⋅ y ⋅ µ ) ⋅
⋅e
2 ⋅π ⋅σ
−∞
+∞
y2
2
⋅ σ ⋅ dy
y2
−
1
= ∫ (σ ⋅ y ⋅ µ ) ⋅
⋅ e 2 ⋅ dy
2 ⋅π
−∞
+∞
+∞
y2
y2
−
−
1
1
=σ ⋅
⋅ ∫ y ⋅ e 2 ⋅ dy + µ ⋅ ∫
⋅ e 2 ⋅ dy
2 ⋅π −∞
2 ⋅π
−∞
 −y
⋅ − e 2

2
1
=σ ⋅
2 ⋅π
+∞

 + µ ⋅1
 − ∞
E (X) = µ
im Beispiel:
E (X) = 60 kΩ
Bei einer Normalverteilten Produktion von
durchschnittlich 60 kΩ Widerstände hergestellt
elektrischen
Widerständen
werden
Folgerung µ = 60 kΩ
Aus der Produktion werden n Widerstände auf zufällige Weise entnommen und
ausgemessen:
x1, x2, … , xn
z.B.:
58,3 kΩ
60,8 kΩ
…
61,7 kΩ
1 n
⋅ ∑ xi = x
n i =1
für hinreichend großes n stimmt x näherungsweise mit E(X) überein und folglich:
µ≈x
→ Parameterabschätzung
Seite 65
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Allgemein gilt:
Bei einer symmetrischen Verteilung stimmt die Symmetriestelle überein mit dem
Erwartungswert E (X). (falls der Erwartungswert existiert)
Dichtefunktion der
Normalverteilung
1
5
0
1
E (X) = 5
2
3
4
5
6
7
8
9
10
↑
Symmetriestelle
1
b-a
Symmetriestelle:
a
a+b
= E( X )
2
b
Seite 66
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
6
36
5
36
4
36
3
36
2
36
1
36
0
1
2
3
4
5
6
7
8
9
10
11
12
13
↑
Symmetriestelle
E (X) = 7
1
6
1
2
3
4
5
6
Symmetriestelle = 3,5
= E (X)
Die Lebensdauer von einem Gerätetyp ist Exponentialverteilt mit Parameter λ =
1
Jahre−1
4
Seite 67
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Wie groß ist die durchschnittlich zu erwartende Lebensdauer bei solchen Geräten ?
E (X) = Lebenserwartung
=
+∞
∫ x ⋅ f (x )dx
−∞
=
+∞
∫x⋅λ ⋅e
−λ ⋅ x
dx
0
[ (
= x⋅ −e
+∞
)] + ∫ e
−λ ⋅ x ∞
0
−λ⋅x
dx
0
∞
1
 1

= 0 + − ⋅ e − λ ⋅ x  =
 λ
0 λ
E (X) =
E(X ) =
Beispiel:
1
λ
1
1
Jahre−1
4
λ=
= 4 Jahre
1
Jahre−1
4
1
= 4 Jahre
λ
Lebensdauer
Lebensdauer des 2. Gerätes
Lebensdauer des
3. Gerätes
Zeit
↑
Inbetriebnahme
↑
Ausfall
Inbetriebnahme
eines 2. Gerätes
↑
Ausfall des 2.
Gerätes
Inbetriebnahme
eines 3. Gerätes
Mittlere Zeit zwischen den Ausfällen
Mean Time Between Failure
MTBF – Wert =
Betriebszeit
1
λ
Reparaturzeit
Betriebszeit
Zeit
↑
Inbetriebnahme
↑
Ausfall
Seite 68
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Erwartungswert der Reparaturzeit
Mean Time To Repair
MTTR – Wert
MTBF
= Verfügbarkeit
MTBF + MTTR
Erwartungswert ausgedrückt durch die Verteilungsfunktion
E (X) =
+∞
∫ x ⋅ f (x )dx
−∞
0
=
+∞
∫ x ⋅ f (x )dx + ∫ x ⋅ f (x )dx
−∞
0
0
= [x ⋅ F ( x )]− ∞ − ∫1 ⋅ F ( x )dx +[x ⋅ F ( x )]0 −
∞
0
−∞
0
+∞
−∞
0
= 0 − ∫1 ⋅ F ( x )dx + 0 −
0
+∞
−∞
0
E (X) = − ∫1 ⋅ F ( x )dx +
+∞
∫ (F (x ) − 1)dx
0
∫ (F (x ) − 1)dx
∫ (1 − F (x ))dx
gilt auch für diskrete Verteilungen
diskrete Verteilung:
1
+
x
Seite 69
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X sei eine Zufallsvariable, die keine negativen Werte annimmt, z. B. eine Lebensdauer
∞
∞
0
0
E ( X ) = ∫ (1 − F ( X ))dx = ∫ R ( X )dx
Verallgemeinerung des Erwartungswertbegriffs
{
∑x ⋅ p
i
i
alle i
E (X) =
+∞
∫ x ⋅ f (x )dx
−∞
E (X2) = ?
E (X3) = ?
E (u(x)) = ?
Erwartungswert einer Funktion und einer Zufallsvariablen X
Beispiel:
Es werden 2 Münzen geworfen.
X = Anzahl der Wappen
X kann die Werte 0, 1, 2 Annehmen mit den Wahrscheinlichkeiten
1
2
1
P (X = 0) = , P (X = 1) = , P (X = 2) =
4
4
4
E (X) = 0 ⋅ P (X = 0) + 1 ⋅ P (X = 1) + 2 ⋅ P (X = 2)
1
2
1
=0⋅
+1⋅
+2⋅
4
4
4
2
2
4
=0+
+
= =1
4
4
4
Y = Gewinn in Abhängigkeit der geworfenen Wappen
Y = 0 DM
Y = 1 DM
Y = 4 DM
bei X = 0 Wappen
bei X = 1 Wappen
bei X = 2 Wappen
Wie groß ist die Gewinnerwartung ?
E (Y) = ?
Y = X2
E (Y) = E(X2)
E (Y) = 02 ⋅ P (Y = 0) + 12 ⋅ P (Y = 1) + 22 ⋅ P (Y = 4)
1
2
1
= 02 ⋅
+ 12 ⋅
+ 22 ⋅
4
4
4
2 4 3
= + =
4 4 2
Durchschnittlicher Gewinn 1,50 DM
Seite 70
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
( ) ∑x
2
i
⋅ pi
( ) ∑x
3
i
⋅ pi
( ) ∑e
xi
⋅ pi
E X2 =
alle i
E X3 =
alle i
E eX =
alle i
E (u ( X )) =
∑ u(x ) ⋅ p
i
i
für diskrete Zufallsvariablen
alle i
+∞
( ) ∫x
E X2 =
⋅ f ( x ) ⋅ dx
3
⋅ f ( x ) ⋅ dx
−∞
+∞
( ) ∫x
E X3 =
2
−∞
+∞
E (u ( X )) = ∫ u ( x ) ⋅ f ( x ) ⋅ dx
−∞
Anwendung:
E (a ⋅ X + b) =
+∞
∫ (a ⋅ x + b) ⋅ f (x )dx
−∞
+∞
= ∫ a ⋅ x ⋅ f ( x ) + b ⋅ f ( x ) ⋅ dx
−∞
+∞
+∞
= ∫ a ⋅ x ⋅ f (x ) ⋅ dx + ∫ b ⋅ f ( x ) ⋅ dx
−∞
−∞
+∞
+∞
−∞
−∞
= a ⋅ ∫ x ⋅ f (x ) ⋅ dx + b ⋅
= a ⋅ E(X ) + b ⋅1
∫ f (x ) ⋅ dx
E (a ⋅ X + b) = a ⋅ E (X) + b
( )
E X 2 ≠ (E ( X ))
2
 +∞

 ∫ x ⋅ f ( x ) ⋅ dx 
x
⋅
f
(
x
)
⋅
dx
≠
∫−∞


 −∞

+∞
2
2
Seite 71
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
∑ (x )
k
{
E (Xk) =
i
⋅ pi
alle i
+∞
∫x
k
⋅ f ( x ) ⋅ dx
−∞
E (Xk) wird bezeichnet als k-tes Moment der Zufallsvariablen X = mk
m1 = E (X1) = (X)
m2 = E (X2)
Anwendung der Momente einer Zufallsvariablen
E (X) kann geschätzt werden durch x =
1 n
⋅ ∑ xi , wobei x1, x2, … , xn eine Stichprobe von
n i =1
Beobachtungsdaten ist.
es gilt:
E (X2) kann geschätzt werden durch
1 n 2
⋅ ∑ xi
n i =1
E (X3) kann geschätzt werden durch
1 n 3
⋅ ∑ xi
n i =1
…
E (Xk) kann geschätzt werden durch
k-tes Moment der
Zufallsvariablen X
1 n
k
⋅ ∑ ( xi )
n i =1
k-tes Stichprobenmoment
Das k-te Moment der Zufallsvariablen X (mk = E(xk)) kann geschätzt werden durch das k1 n
k
te Stichprobenmoment Mk = ⋅ ∑ ( xi )
n i =1
diese Feststellung kann zur Parameterschätzung verwendet werden:
Schätzung nach der Momentmethode
[
E ( X − c)
k
]
Spezialfall:
[
k-tes Moment der Zufallsvariablen X in Bezug auf c.
c = m1 = E (X)
] [
E ( X − m1 ) = E ( X − E ( X ))
k
k
]
Seite 72
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
k-tes Zentralmoment = µ k
[
]
µ 1 = E ( X − m1 ) = E( X − m1 ) = E( X ) − m1 = 0
1
[
µ 2 = E ( X − E ( X ))
2
]
Beispiel:
X = Augensumme beim Werfen von zwei Würfeln
[
µ 2 = E ( X − 7)
2
]
X – 7 = Abweichung der Augensumme X vom Erwartungswert E(X) = 7
(X – 7)2 = quadratische Abweichung der Augensumme X vom Erwartungswert E(X)
=7
E[(X–7)2] = erwartete quadratische
Erwartungswert E(X) = 7
Abweichung
der
Augensumme
X
vom
= Varianz der Augensumme X
= V(X)
V (X) = µ 2 = E[(X–E(X))2]
Die Varianz V(X) ist ein Maß für die Stärke der Streuung der Zufallsvariablen X.
Die Varianz ist ein quadratisches Maß (Einheit ist das Quadrat der Einheit von X).
V ( X ) = σ ( X ) = Standardabweichung von X
Die Standardabweichung (σ(x)) ist ebenfalls eine Maßzahl für die Stärke der Streuung der
Zufallsvariablen X (σ(x) hat die gleiche Dimension wie X).
E (Xk) =
{
∑ (x
i
− E ( X ) ) ⋅ pi
2
diskret
alle i
+∞
∫ (x − E( X ))
2
⋅ f ( x ) ⋅ dx
stetig
−∞
Seite 73
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Berechnung der Varianz der Normalverteilung
Dichtefuntion:
−
1
⋅e
2 ⋅π ⋅σ
f (x ) =
( x − µ )2
2 ⋅σ 2
E (X) = µ
+∞
−
1
V (x ) = ∫ (x − µ ) ⋅
⋅e
2 ⋅π ⋅σ
−∞
2
Substitution:
( x − µ )2
2⋅σ 2
⋅ dx
(x − µ ) = y
σ
x−µ =σ ⋅ y
dx = σ ⋅ dy
V(X) =
+∞
∫σ
2
⋅ y2 ⋅
−∞
=σ
2
=σ
2
−
1
⋅e
2 ⋅π
+∞
−
1
⋅ ∫ y2 ⋅ e
2 ⋅π −∞
⋅
+∞
y2
2
y2
2
−
1
⋅ ∫ y ⋅ y ⋅e
2 ⋅π −∞
⋅
⋅d
⋅ dy
y2
2
⋅ dy
partielle Integration: u = y
v′ = y ⋅ e
u′ = 1
v = −e
−
−
y2
2
y2
2
  − y 2   +∞ + ∞ − y 2

1


2
2 
2

=σ ⋅
⋅  y ⋅ − e
 + ∫ e ⋅ dy 

2 ⋅ π  

 −∞ − ∞

+∞
y2
−
1
=σ ⋅
⋅ ∫ e 2 ⋅ dy = 1
2 ⋅ π −∞
2
Dichtefunktion der
Standartnormalverteilung
V (X) = σ 2
σ ( X ) = V (X ) = σ
[
V(X) = E ( x − E ( X ))
2
]
Seite 74
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
[
= E [x − 2 ⋅ X ⋅ m + m ]
= E (x ) − 2 ⋅ m ⋅ E ( X ) + m
= E x 2 − 2 ⋅ X ⋅ E ( X ) + E ( X )) 2
2
]
2
1
1
2
2
1
1
= m2 − 2 ⋅ m1 ⋅ m1 + m12
= m2 − 2 ⋅ m12 + m12
= m2 − m12
V ( X ) = m2 − m12
( )
V ( X ) = E X 2 − (E ( X ))
2
Schätzung von σ 2 und σ
σ 2 = V ( X ) = m2 − m12
mk kann geschätzt werden durch:
Wobei x1, x2, … ,xn eine
Stichprobe von
Beobachtungsdaten darstellt
1 n
k
M k = ⋅ ∑ (xi )
n i =1
Schätzwert für σ 2 ist (Momentenmethode):
1 n 
1 n
M 2 − M = ⋅ ∑ xi2 −  ⋅ ∑ xi 
n i =1
 n i =1 
2
2
1
Der Ausdruck kann umgeformt werden in:
(
)
(
)
2
1 n
⋅ ∑ xi − x
n i =1
Beweis:
[
2
2
1 n
1 n
⋅ ∑ xi − x = ⋅ ∑ xi2 − 2 ⋅ xi ⋅ x + x
n i =1
n i =1
=
1 n 2 1 n
1 n 2
⋅ ∑ xi − ⋅ ∑ 2 ⋅ xi ⋅ x + ⋅ ∑ x
n i =1
n i =1
n i =1
=
1 n 2 2⋅ x n
1 n 2
⋅ ∑ xi −
⋅ ∑ xi + ⋅ ∑ x
n i =1
n i =1
n i =1
=
2
1 n 2
1 n
⋅ ∑ xi − 2 ⋅ x ⋅ ⋅ ∑ xi + 1 ⋅ x
n i =1
n i =1
=
2
1 n 2
⋅ ∑ xi − x
n i =1
]
Seite 75
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Schätzwert für σ 2 ist
(
)
(
)
()
2
2
1 n
1 n 2
⋅ ∑ xi − x = ⋅ ∑ xi − x
n i =1
n i =1
2
~
1 n
⋅ ∑ xi − x = S 2
n i =1
σ 2 kann auch geschätzt werden durch:
S2 =
(
)
(
)
n
2
1
⋅ ∑ xi − x
n − 1 i =1
n
2
1
⋅ ∑ xi − x
n − 1 i =1
S=
Varianz der Exponentialverteilung
f (x)
λ ⋅ e −λ ⋅ x
für x > 0
0
sonst
{
V(X) = m2 − m12
m2 = ∫ x 2 ⋅ f ( x ) ⋅ dx = ∫ x 2 ⋅ λ ⋅ e − λ ⋅ x ⋅ dx
+∞
+∞
−∞
−∞
partielle Integration:
u = x2
v′ = λ ⋅ e − λ ⋅ x
u′ = 2 ⋅ x
v = −e − λ ⋅ x
[ (
= x 2 ⋅ − e−λ ⋅ x
)]
∞
0
+∞
+ 2 ⋅ ∫ x ⋅ e − λ ⋅ x ⋅ dx
0
+∞
= 0 + 2 ⋅ ∫ x ⋅ e − λ ⋅ x ⋅ dx
0
= 2⋅
+∞
1
∫ x⋅ λ ⋅λ ⋅e
−λ⋅x
⋅ dx
0
∞
1
= 2 ⋅ ⋅ ∫ x ⋅ λ ⋅ e − λ ⋅ x ⋅ dx
λ 0
= 2⋅
=
1
⋅ E(X )
λ
E( X ) =
1
λ
2
λ2
Seite 76
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
m1 = E ( X ) =
1
λ
⇒ V ( X ) = m2 − m1 =
2
V (X ) =
1
λ2
σ (X ) =
1
λ
2
1
1
− 2 = 2
2
λ λ λ
Varianz und Standardabweichung der Normalverteilung
{
∑ (x
i
− E ( X )) ⋅ pi
2
diskret
alle i
V (x)
+∞
∫ ( X − E ( X ))
2
∫ (X − µ )
2
⋅
−∞
Substitution:
+∞
V(X) =
∫ (σ ⋅ y )
2
⋅
−∞
=σ ⋅
2
stetig
−∞
+∞
V(X) =
⋅ f ( x ) ⋅ dx
1
2 ⋅π
1
2 ⋅π ⋅σ
⋅e
−
( X − µ )2
2⋅σ 2
x−µ =σ ⋅ y
x−µ
=y
σ
1
2 ⋅π ⋅σ
⋅e
+∞
⋅ ∫ y ⋅e
2
−
−
y2
2
y2
2
⋅ dx
dx = σ ⋅ dy
⋅ dy
⋅ dy
−∞
+∞
2
y
−
1
=σ ⋅
⋅ ∫ y ⋅ y ⋅ e 2 ⋅ dy
2 ⋅π −∞
2
partielle Integration:
u′ = 1
v = −e
−
y2
2
Seite 77
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
1
=σ 2 ⋅
2 ⋅π
  − y 2

⋅  y ⋅  e 2

 
+∞
+∞

+∞
y2

−
  + e 2 ⋅ dy 
∫


 −∞ −∞
2
y
−
1
=σ ⋅
⋅ e 2 ⋅ dy
2 ⋅ π −∫∞
2
=σ 2
V (X ) = σ 2
σ ( X ) = V (x ) = σ
Schätzung der Varianz σ2, bzw. Standardabweichung σ einer Normalverteilung
Stichprobe von Beobachtungsdaten (Widerstände):
x1, x2, … , xn
62,3 kΩ
59,8 kΩ
…
60,4 kΩ
1 n
⋅ ∑ xi
n i =1
Schätzwert für µ = x =
m1 = E(X) = µ
kann geschätzt werden durch:
M1 =
m2 = E(X2)
1 n
⋅ ∑ xi = x
n i =1
kann geschätzt werden durch:
M2 =
mk = E(Xk)
1 n
2
⋅ ∑ ( xi )
n i =1
kann geschätzt werden durch:
Mk =
1 n
k
⋅ ∑ (xi )
n i =1
Schätzung der Varianz bzw. Standarderhebung
[
= E [X
= E [X
V (X) = E ( X − E ( X ))
2
2
2
]
]
− 2 ⋅ X ⋅ E ( X ) + (E ( X )) ]
− 2 ⋅ X ⋅ E ( X ) + (E ( X ))
2
2
( )
= E X 2 − E (2 ⋅ X ⋅ m1 ) + m12
= m2 − m12
V (X) = m2 − m12
= E(X2) – (E(X))2
Seite 78
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
m1 kann geschätzt werden durch:
M1 =
1 n
⋅ ∑ xi = x
n i =1
m2 kann geschätzt werden durch:
M
2
n
1
=
⋅ ∑ (x i
n i =1
)2
V(X) = m2 − m12 kann geschätzt werden durch:
M 2 − M 12 =
2
1 n
2
⋅ ∑ ( xi ) − x
n i =1
(
)
Es gilt:
2
1 n
1 n
2
⋅ ∑ ( xi ) − x = ⋅ ∑ xi − x
n i =1
n i =1
Beweis:
1 n
1 n
1 n 2
2
⋅ ∑ ( xi ) − ⋅ ∑ 2 ⋅ xi ⋅ x + ⋅ ∑ x
n i =1
n i =1
n i =1
2
2
2
1 n
1
2
⋅ ∑ ( xi ) − 2 ⋅ x + ⋅ n ⋅ x
n i =1
n
n
2
1
2
= ⋅ ∑ ( xi ) − x
n i =1
=
Zusammengefaßt:
V (X) kann geschätzt werden durch
(
)
2
1 n
~
⋅ ∑ xi − x = S 2
n i =1
S2 =
(
n
1
⋅ ∑ xi − x
n − 1 i =1
)
2
Stichprobenvarianz
ist ebenfalls ein Schätzwert für V(X)
Es kann gezeigt werden, daß S2 i.a. die genauere Schätzung liefert.
S=
(
n
1
⋅ ∑ xi − x
n − 1 i =1
(
~
1 n
S =
⋅ ∑ xi − x
n i =1
)
2
)
2
Stichprobenstandardabweichung
Stichprobenstandardabweichung
Varianz bei der gleichm. Verteilung in [a, b]
Seite 79
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Dichtefunktion der gleichmäßigen Verteilung in [a, b]
f (x) =
{
1
b−a
a≤x≤b
0
sonst
b
b
a
a
E ( X ) = ∫ x ⋅ f ( x ) ⋅ dx = ∫ x ⋅
1
a+b
⋅ dx =
b−a
2
V (X) = m2 − m12
( )
=E X
2
a +b
−

 2 
2
a +b
= ∫ x ⋅ f ( x ) ⋅ dx − 

 2 
a
b
2
2
1
a +b
= ∫x ⋅
⋅ dx − 

b−a
 2 
a
2
1
a +b
=
⋅ ∫ x 2 ⋅ dx − 

b−a a
 2 
2
b
2
b
1 1 3   a + b 
=
⋅ ⋅x  −

b − a  3
a  2 
b
2
1 1 3
(a + b )
=
⋅ ⋅ b − a3 −
b−a 3
4
2
3
3
1 4 ⋅ b − a − 3 ⋅ (a + b ) ⋅ (b − a )
= ⋅
b−a
12
3
3
1 4 ⋅ b − a − 3 ⋅ a 2 + 2 ⋅ a ⋅ b + b 2 ⋅ (b − a )
= ⋅
b−a
12
3
3
2
1 4b − 4a − 3a b − 6ab 2 − 3b 3 + 3a 3 + 6a 2b + 3ab 2
= ⋅
b−a
12
2
(b − a )
=
12
(
)
(
)
(
)
σ (X ) = V ( X ) =
2
(
)
b−a
12
Seite 80
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Varianz und Standardabweichung der Exponentialverteilung
V (X) = [(X – E(X))2]
2
= E X 2 − (E ( X ))
( )
∞
E ( X ) = ∫ x ⋅ λ ⋅ e − λ ⋅ x ⋅ dx =
0
( )
2
λ
∞
E X 2 = ∫ x 2 ⋅ λ ⋅ e −λ ⋅ x ⋅ dx =
0
1
λ2
2
V (X ) =
2 1
1
−  = 2
2
λ λ  λ
V (X ) =
1
λ2
σ (X ) =
1
λ
n
1
≈ x = ∑ xi
λ
i =1
1
≈S=
λ
n
1
2
⋅ ∑ ( xi − x )
n − 1 i =1
Varianz bzw. Standardabweichung der Binomialverteilung
n
n−k
P( X = k ) =   ⋅ p k ⋅ (1 − p )
k 
für k = 0, 1, … , n
n
n
 n
n−k
E ( X ) = ∑ k ⋅ P( X = k ) = ∑ k ⋅   ⋅ p k ⋅ (1 − p )
k =0
k =0
k 
E(X ) = n ⋅ p
( )
V ( X ) = E X 2 − (E ( X ))
2
n
n
 n
n−k
E X 2 = ∑ k ⋅ P( X = k ) = ∑ k ⋅   ⋅ p k ⋅ (1 − p )
k =0
k =0
k
2
2
E X = n ⋅ (n − 1) ⋅ p + n ⋅ p
( )
( )
Seite 81
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Einsetzten
V (X) = n ⋅ (n − 1) ⋅ p 2 + n ⋅ p − (n ⋅ p )
2
= −n ⋅ p 2 + n ⋅ p
= n ⋅ p − n ⋅ p2
= n ⋅ p ⋅ (1 − p )
V ( X ) = n ⋅ p ⋅ (1 − p )
σ ( X ) = n ⋅ p ⋅ (1 − p )
X ist eine Normalverteilte Zufallsvariable mit Erwartungswert µ und Standardabweichung σ
µ-σ
µ
µ+σ
x
± 1σ - Bereich
Wie groß ist der Anteil innerhalb (bzw. außerhalb des ±1 σ - Bereich ?
P (µ − σ ≤ X ≤ µ + σ ) = F (µ + σ ) − F ( µ − σ )
 µ +σ − µ 
 µ −σ − µ 
= Φ
 − Φ

σ
σ




= Φ (1) − Φ(− 1)
= D(1) = 0,6827 = 68,27%
 x−µ
F ( X ) = Φ

 σ 
Anteil bei einer Normalverteilung innerhalb des ±1 σ - Bereich beträgt 68,27 %
Anteil außerhalb des ±1 σ - Bereich beträgt 31,73 %
Anteil innerhalb des ±2 σ - Bereich bei einer Normalverteilung
P (µ − 2 ⋅ σ ≤ X ≤ µ + 2 ⋅ σ ) = F (µ + 2 ⋅ σ ) − F (µ − 2 ⋅ σ )
 µ + 2 ⋅σ − µ 
 µ − 2 ⋅σ − µ 
= Φ
 − Φ

σ
σ




= Φ (2) − Φ (− 2 )
= D(2) = 0,9545 = 95,45%
Anteil außerhalb des ±2 σ - Bereich beträgt 4,55 %
Anteil innerhalb des ±3 σ - Bereich bei einer Normalverteilung
P(µ − 3 ⋅ σ ≤ X ≤ µ + 3 ⋅ σ ) = F (µ + 3 ⋅σ ) − F (µ − 3 ⋅ σ ) = 99,73%
Anteil außerhalb des ±3 σ - Bereich beträgt 0,27 %
Seite 82
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
σ = 2 kΩ
Bsp.: µ = 60 kΩ
3 ⋅σ
6kΩ
=
= 10% Toleranzangabe
µ
60kΩ
σ
µ
Variationskoeffizient
P (µ − k ⋅ σ ≤ X ≤ µ + k ⋅ σ ) = F (µ + k ⋅ σ ) − F (µ − k ⋅ σ ) = D (k ) =
Anteil innerhalb des ± k σ - Bereichs
P ( X − µ ≥ k ⋅ σ ) = 1 − D (k ) =
Anteil außerhalb des ± k σ - Bereichs
Anteil innerhalb des ± 2 σ - Bereichs bei der Exponentialverteilung:
P(E ( X ) − 2 ⋅ σ ( X ) ≤ X ≤ E ( X ) + 2 ⋅ σ ( X ))
1
1
1
1
= P − 2 ⋅ ≤ X ≤ + 2 ⋅ 
λ
λ
λ
λ
3
 1
= P − ≤ X ≤ 
λ
 λ
3
 1
= F  − F − 
λ 
 λ
= 1− e
= 1− e
−λ⋅
3
λ
−3
= 95%
−0
Anteil innerhalb des ± 2 σ - Bereichs bei der Binomialverteilung:
Zum Beispiel mit:
n = 16
p=
1
4
P(E ( X ) − 2 ⋅ σ ( X ) ≤ X ≤ E ( X ) + 2 ⋅ σ ( X ))
(
= P(4 − 2 ⋅
= P n ⋅ p − 2 ⋅ n ⋅ p ⋅ (1 − p ) ≤ X ≤ n ⋅ p + 2 ⋅ n ⋅ p ⋅ (1 − p )
3 ≤ X ≤ 4 + 2⋅ 3
)
)
Seite 83
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
= P(4 − 3,46 ≤ X ≤ 4 + 3, 46)
= P(0,54 ≤ X ≤ 7,46 )
= P( X = 1) + P( X = 2 ) +
16   1 
=   ⋅  
 1   4
+ P( X = 7 )
16   1 
3
⋅   +   ⋅  
4
 2   4
= 0,053 + 0,134 + + 0,052
1
15
2
14
 3
⋅  +
 4
16   1 
+   ⋅  
 7  4
7
 3
⋅ 
 4
9
= 0,963 = 96,3%
Es gilt:
Bei den meisten Verteilungen sind die Anteile innerhalb, bzw. außerhalb des
± k ⋅ σ(X) – Bereichsvon ähnlicher Größe wie bei der Normalverteilung.
Für alle Verteilungen gilt:
P( X − E ( X ) ≥ k ⋅ σ ( X )) ≤
1
k2
Ungleichung von Tschebyscheff
k=2
P( X − E ( X ) ≥ 2 ⋅ σ ( X )) ≤
1 1
= = 25%
22 4
P( X − E ( X ) ≥ 3 ⋅ σ ( X )) ≤
1 1
= ≈ 11%
32 9
P( X − E ( X ) ≥ 4 ⋅ σ ( X )) ≤
1
1
=
≈ 6%
2
4
16
k=3
k=4
[
(
V X = E ( X − E ( X ))
[
µ 3 = E ( X − E ( X ))3
2
]) = µ
2
2. Zentralmoment
]
µ 3 ist Null, wenn die Verteilung symmetrisch ist.
µ3
3
µ2 2
= γ = Schiefe der Verteilung
γ=0
Seite 84
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
γ>0
γ<0
Schätzung der Schiefe γ:
Stichprobe von Beobachtungsdaten: X1, X2, … , Xn
Schätzwert für µ 2:
Schätzwert für µ 3:
1 n
2
⋅ ∑ ( xi − x )
n i =1
1
3
 ⋅ ∑ ( xi − x ) 
 n i =1

n
3
2
1 n
2
⋅ ∑ ( xi − x )
n i =1
1 n
3
⋅ ∑ ( xi − x )
n i =1
Schätzwert für die Schiefe γ
Transformation von Verteilungen
Bsp.: X sei eine Zufallsvariable mit Standardnormalverteilung
Y = 2 ⋅ X + 60
Frage: Was für eine Verteilung hat Y ?
Seite 85
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
allgemein:
X sei eine Zufallsvariable mit vorgegebener Verteilungsfunktion F(x)
Y=a⋅X+b
Frage: Was für eine Verteilung hat Y ?
noch allgemeiner:
Y = u(X)
F (X) = P (X ≤ x)
vorgegeben
G (y) = P (Y ≤ y)
gesucht
G (Y) = P(a ⋅ X + b ≤ y)
= P(a ⋅ X ≤ y − b )
y −b

 y−b
für a > 0
= P X ≤
 = F

a
a




y −b
y −b
y − b  für a < 0


 y −b

= P X ≥
 = 1 − P X <
 = 1− F 
 + P X =

a 
a 
a 


 a 

 y −b
F

 a 
für a > 0
y −b
 y−b

1− F
 + P X =

a 
 a 

für a < 0
G (Y) =
y −b

wenn X stetig ist, dann P X =
=0
a 

Transformation von Verteilungen
X eine Zufallsvariable mit vorgegebener Verteilung
F (X) = Verteilungsfunktion von X
y = a ⋅ X + b lineare Funktion von X
G (y) = Verteilungsfunktion von y
 y −b
F

 a 
für a > 0
y −b
 y −b

1− F 
 + P X =

a 
 a 

für a < 0
G (Y) =
Seite 86
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
y −b

P X =
 = 0 falls X eine stetige Zufallszahl
a 

Bsp.: X hat eine Standardnormalverteilung
y = 2 ⋅ x + 60
ges.:
Verteilung von y
Einschub:
X sei eine stetige Zufallsvariable
f (x) = Dichtefunktion von X
f ( X ) = F ′( X )
Dichtefunktion von y
 y −b 1
f
⋅
 a  a
für a > 0
 y −b 1
− f
⋅
 a  a
für a < 0
g ( y ) = G ′( y ) =
 y−b 1
g(y) = f 
für a ≠ 0
⋅
 a  a
f (X ) =
1
2 ⋅π
⋅e
−
x2
2
Dichtefunktion, die zu diesem X gehört
 y − 60  1
g (y) = f 
⋅
 2  2
1  y − 60 

2 
2
− ⋅
1
=
⋅e 2 
2 ⋅π
−
1
=
⋅e
2 ⋅π ⋅ 2
Folgerung:
⋅
1
2
( y − 60 ) 2
2⋅ 2 2
Das y hat eine Normalverteilung mit E (y) = 60 und σ (y) = 2
Seite 87
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Die Verteilungsfunktion von X ist Φ (X)
 y − 60 
Die Verteilungsfunktion von y ist G (y) = Φ 

 2 
Anwendung: Auf einem Rechner soll eine Produktion von elektrischen Widerständen simuliert
werden. Die simulierten Widerstandswerte sollen normalverteilt sein mit Parameter
µ = 60 kΩ σ = 2 kΩ.
Zur Verfügung stehen Zufallszahlen X mit Standardnormalverteilung.
z.B.: X = 1,3721 -0,4613
0,8425
…
y = 2 ⋅ x + 60
y = 62,7442
59,0774 61,6858 …
X ist eine Zufallsvariable mit Verteilungsfunktion F(X) = P(X ≤ X)
Y = u(X)
gesucht:
Verteilungsfunktion G(Y) = P(Y ≤ y)
G(y) = P(Y ≤ y) = P( u(X) ≤ y)
X = v(Y) Umkehrfunktion zu u
monoton steigend/fallend
keine umkehrbare
Funktion
y
y
x
x
– Unkehrfunktion existiert, wenn u streng monoton steigend oder fallend ist –
P( X ≤ v(Y ))
G( y ) = 
P( X ≥ v(Y ))
falls u steigend
falls u fallend
falls u steigend
Transformationsformel
für
falls u fallend
Seite 88
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
F (v(Y ))

G( y ) = 
1 − F (v(Y )) + P( X = v( y ))
 F (v(Y ))
G( y ) = 
1 − F (v (Y ))
falls u steigend
falls u fallend
Transformationsformel
für stetige X
Dichtefunktion:
 f (v( y )) ⋅ v’( y )
g ( y ) = G ’( y ) = 
− f (v( y )) ⋅ v’( y )
falls u steigend
falls u fallend
g ( y ) = f (v( y )) ⋅ v ’( y )
Beispiel:
X sei eine Zufallsvariable mit gleichmäßiger Verteilung in [0, 1]
0 für x < 0
X für 0 ≤ X ≤ 1
1 für X > 1
F=
1 für 0 ≤ x ≤ 1
f(x) =
0 sonst
1
1
1
Verteilungsfunktion
1
Dichtefunktion
1
⋅ ln (1 − x )
λ > 0 konstant
λ
gesucht: Verteilung von Y
Y =−
Bestimmung der Umkehrfunktion u
Auflösen nach X
Seite 89
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
− λ ⋅ Y = ln(1 − X )
e − λ ⋅Y = 1 − X
X = 1 − e − λ ⋅Y
G ( y ) = F (v( y )) = v( y ) = 1 − e − λ ⋅ y
für y ≥ 0
1 − e − λ ⋅ y
G( y ) = 
 0
für y < 0
Folgerung:
Y hat eine Exponentialverteilung mit Parameter λ
Anwendung: Für die Simulation einer Exponentialverteilung werden Zufallszahlen
benötigt.
Diese können nach der Formel
1
Y = − ⋅ ln (1 − x )
λ
berechnet werden aus Zufallszahlen X mit gleichmäßiger Verteilung in [0, 1].
Zahlenbeispiel:
Es soll die Lebensdauer von Geräten simuliert werden mit einer Lebenserwartung von 4 Jahren.
1
1
= 4 Jahre ⇒ λ = Jahre −1
λ
4
Y = – 4 ⋅ ln(1 – x)
Y = – 4 ⋅ ln(1 – x)
8,11 Jahre
1,12 Jahre
3,12 Jahre
X
0,86846
0,24440
0,54235
Es sollen Zufallszahlen Y mit Weiballverteilung mit Parameter λ und α erzeugt werden.
zur Verfügung stehen Zufallsvariablen X mit gleichmäßiger Verteilung in [0, 1].
Wie muss die Berechnungsvorschrift Y = u(X) gewählt werden ?
Verteilungsfunktion der Weiballverteilung
1 − e − (λ ⋅ y )
G( y ) = 

0
α
für y ≥ 0
sonst
X = G( y )
X = 1 − e − (λ ⋅Y )
α
e − (λ ⋅Y ) = 1 − X
α
Seite 90
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
− ( X ⋅ Y ) = ln (1 − X )
α
λ ⋅ Y = [− ln (1 − X )]α
1
1
Y = ⋅ [− ln(1 − X )]α
λ
−1
Umkehrfunktion zu G
G (X ) =
1
Allgemein:
Zur Erzeugung von Zufallszahlen Y mit vorgegebener Verteilungsfunktion G(y) aus Zufallszahlen
X mit gleichmäßiger Verteilung in [0, 1] kann die Berechnungsvorschrift:
Y = G-1 (X)
verwendet werden, wobei G-1 die Umkehrfunktion von G ist.
Das Verfahren heißt Inversionsmethode.
Beispiel:
Es sollen Zufallszahlen Y mit Weiballverteilung mit Parameter λ =
1
Jahre −1 und α = 3,2 erzeugt
4
werden.
X
0,86846
0,24440
0,54135
…
Y=4
4,989
2,688
3,7
…
grafische Veranschaulichung
x
1
x
G(y)
stetige Verteilung
x
y
y
x
1
x
P1
P2
y1
P3
y2
P4
y3
P5
y4
P6
y5
diskrete Verteilung
y6
y
Seite 91
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Anwendung der Inversionsmethode auf die Normalverteilung:
Es sollen Zufallszahlen Y mit Standardnormalverteilung erzeugt werden. Wie lautet die
Berechnungsvorschrift ?
Verteilungsfunktion der Standardnormalverteilung:
G( y ) = Φ( y )
X = Φ( y )
Auflösen nach Y
y
X =
2
t
−
1
⋅ ∫ e 2 dt
2 ⋅π −∞
Kann nicht in geschlossener Form invertiert werden.
Folgerung:
Für die N-Verteilung ist die Inversionsmethode praktisch ungeeignet.
Erzeugung von Zufallszahlen Y mit vorgegebener Dichtefunktion g(y)
1) Die Dichtefunktion sei nur in einem endlichen Intervall [a, b] von Null verschieden.
2) Es gibt eine obere Schranke C für die Funktionswerte von g(y)
g(y) ≤ C
C
g(y)
a
b
Seite 92
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X1, X2 zwei unabhängige Zufallszahlen mit gleichmäßiger Verteilung in [0, 1].
Z1 = (b – a) ⋅ X1 + a
Z2 = C ⋅ X2
Z1 ist gleichmäßig Verteilt in [a, b].
Z2 ist gleichmäßig Verteilt in [0, C].
C
g(y)
Z1, Z1
Z1
a
Ziel:
Z2
∆y
∆y
y
b
y+∆y
Die zu erzeugenden Zufallszahlen Y sollen folgende Eigenschaft haben:
P ( y ≤ Y ≤ y + ∆y ) =
y + ∆y
∫ g (t )dt ≈ g ( y ) ⋅ ∆y
y
Folgerung:
In Bereichen, wo g(y) groß ist, müssen die Zufallszahlen Y mit größerer
Wahrscheinlichkeit erzeugt werden als in Bereichen, wo g(y) klein ist.
Falls Z2 ≤ g(Z1), dann setze Y = Z1
Andernfalls verwerfe Z1, Z2
„ Rückweisungsmethode“
Beispiel:
es sollen Zufallszahlen Y erzeugt werden mit der Dichtefunktion:
3
5
 8
⋅ ( y − 1)2 ⋅ (3 − y )2
g ( y ) = 3 ⋅ π

0
falls 1 ≤ y ≤ 3
sonst
Seite 93
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
a = 1 b= 3 b–a = 2
g’(y) = 0
⇒ g(y) besitzt ein maximum bei y = 1,75
g(1,75) = 0,963…
g(y) ≤ 1
C=1
Z1 = 2 ⋅ X1 + 1
Z2 = 1 ⋅ X2 = X2
X1
0,87331
0,28104
0,83640
0,68764
0,37995
X2
0,82442
0,26432
0,17323
0,84728
0,96106
Z1
2,74662
1,56208
2,6728
2,37528
1,7599
Z2
0,82442
0,26432
0,17323
0,84728
0,96106
g(Z1)
0,06332
0,88686
0,11243
0,42215
0,9626
Y
verwerfen
0,88686
verwerfen
verwerfen
1,7599
Es sollen Zufallszahlen Y mit Standardnormalverteilung erzeugt werden:
1. Die Rückweisungsmethode ist (exakt) nicht anwendbar auf die Standardnormalverteilung,
da die Normalverteilung nicht nur in einem endlichen Intervall von 0 verschieden ist.
2. Näherungsweise kann die Rückweisungsmethode verwendet werden, wenn die
Dichtefunktion der Normal-Verteilung „ abgeschnitten“ wird, z.B. außerhalb des Bereichs
[-3, 3].
Seite 94
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Transformation von Verteilungen
X eine Zufallsvariable mit Dichtefunktion f(x)
Y = u(x)
Dichtefunktion von Y ist
g ( y ) = f (v( y )) ⋅ v’( y )
wobei v die Umkehrfunktion zu u ist.
X1, X2 seien zwei unabhängige Zufallsvariablen mit Dichten f1(x1) und f2(x2)
Y1 = u1(X1, X2)
Y2 = u2(X1, X2)
gesucht :
Dichtefunktion von Y1 und Y2
A, B zwei unabhängige Ereignisse
P(A ∩ B) = P(A) ⋅ P(B)
P((X1 ≤ x1) ∩ (X2 ≤ x2) ) = P(X1 ≤ x1) ⋅ P(X2 ≤ x2)
= F1(x1) ⋅ F2(x2)
F(x1, x2)
Verteilungsfunktion von X1 und X2
f(x1, x2) = f1(x1) ⋅ f2(x2)
gilt für unabhängige Zufallsvariablen
g ( y1 , y2 ) = f1 (v1 ( y1 , y2 )) ⋅ f 2 (v2 ( y1, y2 )) ⋅ J
∂v1
,
∂y1
J=
∂v2
,
∂y1
∂v1
∂y2
∂v2
∂y2
Funktionaldeterminante
wobei v1 und v2 die Umkehrfunktionen zu u1 und u2 sind.
Seite 95
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Beispiel:
X1 und X2 seien zwei unabhängige Zufallsvariablen mit gleichmäßiger Verteilung in [0, 1].
1
f1 ( x1 ) = 
0
für 0 ≤ x1 ≤ 1
1
f 2 ( x2 ) = 
0
für 0 ≤ x1 ≤ 1
sonst
sonst
Y1 = (− 2 ⋅ ln X1 )2 ⋅ cos(2π ⋅ X 2 )
= u1(X1, X2)
Y2 = (− 2 ⋅ ln X 1 )2 ⋅ sin (2π ⋅ X 2 )
= u2(X1, X2)
1
1
gesucht Dichtefunktion g(y1, y2) von Y1 und Y2
Berechnung der Umkehrfunktionen:
[
]
Y1 + Y2 = −2 ⋅ ln X 1 ⋅ cos2 (2π ⋅ X 2 ) + sin 2 (2π ⋅ X 2 )
2
2
Y + Y2
− 1
= ln X 1
2
2
X1 = e
2
−
1
Y1 2 + Y2 2
2
= v1(Y1, Y2)
Y2
= tan (2π ⋅ X 2 )
Y1
Y 
arctan 2  = 2π ⋅ X 2
 Y1 
Y 
1
X2 =
⋅ arctan 2 
2π
 Y1 
−
∂v1
= −e
∂y1
Y12 + Y22
2
−
∂v1
= −e
∂y2
Y12 + Y22
2
= v2(Y1, Y2)
⋅ Y1
⋅ Y2
 Y 
⋅  − 22 
 Y   Y1 
1 +  2 
 Y1 
∂v2
1
1
1
=
⋅
⋅
2
∂y2 2π
 Y  Y1
1 +  2 
 Y1 
∂v2
1
=
⋅
∂y1 2π
1
2
Seite 96
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Y 2 +Y 2
Y 2 +Y 2
2
2
− 1
− 1
∂v1
∂v1
= −e 2 ⋅ Y1 ,
= −e 2 ⋅ Y2
∂y1
∂y2
 Y  ∂v2
J = ∂v2
1
1
1
1
1
=
⋅
⋅  − 22 ,
=
⋅
⋅
2 
2
∂y1 2π
 Y   Y1  ∂y2 2π
 Y  Y1
1 +  2 
1 +  2 
 Y1 
 Y1 
= −e
−
Y12 + Y22
2
1 −
=−
⋅e
2π
1 −
=−
⋅e
2π
1
⋅ Y1 ⋅
⋅
2π
Y12 + Y22
2
⋅
−
1
⋅ −e
2
 Y  Y1
1 +  2 
 Y1 
1
Y12 + Y22
2
⋅ ( − Y2 ) ⋅
1
⋅
2π
 Y 
⋅  − 22 
 Y   Y1 
1 +  2 
 Y1 
1
2
 Y2 2 
⋅
1+ 2 
2 
 Y2   Y1 
1 +  
 Y1 
1
Y12 + Y22
2
1 −
J =
⋅e
2π
Y12 + Y22
2
g ( y1 , y2 ) = f1 (v1 ( y1 , y2 )) ⋅ f 2 (v2 ( y1 , y2 )) ⋅ J
1
1 −
g ( y1, y2 ) =
⋅e
2π
g ( y1, y2 ) =
1
Y12 + Y22
2
−
1
⋅e
2π
Y12
2
Dichtefunktion der
Standardnormalverteilung
−
1
⋅
⋅e
2π
Y22
2
Dichtefunktion der
Standardnormalverteilung
Folgerung:
Y1 und Y2 sind zwei unabhängige Zufallsvariablen, beide mit
Standardnormalverteilung.
X1
0,83721
0,68219
0,21943
…
X2
0,46839
0,73215
0,58214
…
Y1
-0,58440
-0,09788
-1,51482
…
Y2
0,11762
0,8691
-0,8595
…
„ Direkte Methode“ (zur Erzeugung von Standardnormalverteilten Zufallszahlen)
Seite 97
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Modifizierte Direkte Methode
X1, X2 zwei unabhängige Zufallszahlen mit gleichmäßiger Verteilung in [0, 1]
V1 = 2 ⋅ X1 – 1
V2 = 2 ⋅ X2 – 1
V1 V2 sind zwei unabhängige Zufallszahlen mit gleichmäßiger Verteilung in [–1, 1]
1
(V1, V2)
V2
V 1 2 + V 22
θ
-1
V1
1
-1
S = V12 + V22
θ ist gleichmäßig Verteilt in [0, 2π]
Bei Beschränkung auf den Einheitskreis hat
S eine gleichmäßige Verteilung in [0, 1]
cosθ =
V1
S
sin θ =
V21
S
Algorithmus:
1)
Aus X1, X2 berechne V1 = 2 ⋅ X1 – 1
V2 = 2 ⋅ X2 – 1
2)
Berechne S = V12 + V22
Falls S > 1 dann beginne mit zwei neuen Werten X1, X2
andernfalls berechne:
Seite 98
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Y1 = V1 ⋅
− 2 ⋅ ln S
S
Y2 = V2 ⋅
− 2 ⋅ ln S
S
Y1, Y2 sind zwei Zufallszahlen mit Standardnormalverteilung
Weitere Fragestellungen, die mit Transformationen von Verteilungen behandelt werden
können.
Beispiel:
Zwei Schachteln von elektrischen Widerständen.
I: Widerstände mit 60 kΩ
II: Widerstände mit 100 kΩ
10% Toleranz
9% Toleranz
Serienschaltung eines Widerstandes I und II
Was für einen Nennwert und was für eine Toleranz hat die Reihenschaltung dieser beiden
Widerstände?
Voraussetzung:
die Widerstandswerte I und II sind Normalverteilt.
X1 = Widerstandswert des Widerstandes I
X2 = Widerstandswert des Widerstandes II
Y = Widerstandswert der Reihenschaltung
Y = X1 + X2
Was für eine Verteilung hat Y?
X1 hat N-Verteilung mit
X2 hat N-Verteilung mit
allgemeiner:
µ 1 = 60 kΩ,
σ1 = 2kΩ
µ 2 = 100 kΩ,
σ2 = 3kΩ
X1 , X2 zwei unabhängige Zufallsvariablen mit vorgegebener Verteilung
gesucht:
Verteilung der beiden Zufallsvariablen.
Entsprechend gibt es Fragestellungen, wo die Verteilungen der Differenz oder des
Produktes oder des Quotienten der beiden Zufallsvariablen X1 , X2 ermittelt werden
muß.
allgemein:
X1 , X2 zwei unabhängige Zufallsvariablen mit vorgegebenen
Dichtefunktionen f1(X1), f2(X2)
Y = u(X1 , X2)
gesucht :
(3)
Dichtefunktion von Y : g(y)
Seite 99
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
bisher: Y = u(X)
g (y) = f(v(y) ⋅ |v’(y)|
(1)
Y1 = u1(X1, X2)
(2)
Y2 = u2(X1, X2)
g(y1, y2) = f1(v1(y1, y2) ⋅ f2(v2(y1, y2) ⋅ |J|
g(y) =
+∞
∂v
∫ f ( X ) ⋅ f (v( X , y )) ⋅ ∂y ⋅ dx
1
1
2
1
1
−∞
wobei : X2 = v(X1, y) die Auflösung von Y = u(X1 , X2)
Anwendung auf die Addition von Zufallszahlen
= u(X1, X2)
= v(X1, Y)
Y = X1 + X2
X2 = Y - X1
∂v
=1
∂y
g(y) =
+∞
∫ f ( X ) ⋅ f (Y − X ) ⋅ 1 ⋅ dx
1
1
2
1
1
−∞
g wird berechnet durch Faltung
von f1 mit f2
Faltungsintegral
Addition von zwei Zufallsvariablen erfordert Faltung der Zugehörigen Dichtefunktionen.
Subtraktion:
= u(X1, X2)
= v(X1, Y)
Y = X1 – X2
X2 = X1 – Y
∂v
= −1
∂y
g(y) =
∂v
=1
∂y
+∞
∫ f (X )⋅ f (X
1
1
2
1
− Y ) ⋅ dx1
−∞
Multiplikation:
Y = X1 ⋅ X2
Y
X2 =
X1
∂v 1
=
∂y X 1
= u(X1, X2)
= v(X1, Y)
Seite 100
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
g(y) =
+∞
Y
∫ f ( X ) ⋅ f  X
1
1
2
−∞
 1
 ⋅
⋅ dx1
1  X1
Division:
X1
X2
X
X2 = 1
Y
∂v
X
= − 21
∂y
Y
= u(X1, X2)
Y=
g(y) =
= v(X1, Y)
X
∂v
= − 21
∂y
Y
+∞
X
∫ f ( X ) ⋅ f  Y
1
1
1
2
−∞
 X1
 ⋅ 2 ⋅ dx1
 Y
Addition von Normalverteilten Zufallsvariablen
Y = X1 + X2
−
( X 1 − µ1 ) 2
Dichte von X1:
f1 (x1 ) =
Dichte von X2:
−
1
f 2 ( x2 ) =
⋅e
2 ⋅π ⋅σ 2
Dichte von Y:
g(y) =
1
⋅e
2 ⋅π ⋅σ1
2 ⋅σ 12
( X 2 − µ 2 )2
2 ⋅σ 22
+∞
∫ f ( X ) ⋅ f (Y − X ) ⋅ dx
1
1
2
2
1
−∞
=
+∞
∫
−∞
−
1
⋅e
2π ⋅ σ 1
( X 1 − µ1 ) 2
2 ⋅σ 1
2
−
1
⋅
⋅e
2π ⋅ σ 2
(Y − X 1 − µ 2 )2
2⋅σ 2 2
⋅ dx1
=
=
Folgerung:
1
2π ⋅ σ 1 + σ 2
2
2
⋅e
−
(Y − µ 1 − µ 2 ) 2
(
2⋅ σ 1 2 + σ 2 2
)
die Summe Y hat ebenfalls eine Normalverteilung mit Parametern
µ = µ1 + µ2
σ = σ 12 + σ 2 2
Seite 101
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
µ = µ 1 + µ 2 = 60 kΩ + 100kΩ = 160 kΩ
σ = σ 12 + σ 2 2 = 2 2 + 5 2 kΩ = 13kΩ ≈ 3,61kΩ
Toleranz:
3 ⋅ σ 10,8kΩ
=
= 6,8%
µ
160kΩ
E(X1) = µ 1
E(X2) = µ 2
E(X1 + X2) = E(X1) + E(X2)
gilt nicht nur für normalverteilte Zufallsvariablen,
sondern allgemein, d. h. für Zufallsvariablen mit beliebigem
Verteilungstyp und sowohl für unabhängige, als auch für
abhängige Zufallsvariablen.
Subtraktion:
Y = X1 – X2
g(y) =
1
2 ⋅π ⋅ σ1 + σ 2
2
2
⋅e
−
(Y − µ1 − µ 2 )2
(
2 ⋅ σ 12 + σ 22
)
µ = µ1 − µ 2
σ = σ 12 + σ 2 2
E(X1 – X2) = E(X1) – E(X2)
σ 2 = σ 12 + σ 22
V(X1 + X2) = V(X1) + V(X2)
V(X1 – X2) = V(X1) – V(X2)
gilt nicht nur für normalverteilte Zufallsvariablen,
sondern allgemein auch für andere Verteilungen,
allerdings nur für unabhängige Zufallsvariablen.
Seite 102
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Weiteres Beispiel für die Addition von Zufallsvariablen
Gegeben ein System, welches aus zwei Komponenten besteht.
Komponente II ist eine Reservekomponente, die erst eingeschaltet wird, wenn Komponente I
ausgefallen ist.
(System mit kalter Redundanz)
Beide Komponenten haben eine Lebenserwartung von je 10000 Stunden.
Für beide Komponenten ist die Lebensdauer exponentialverteilt.
Das System ist vorgesehen für eine Einsatzdauer von 6000 Stunden.
Wie groß ist die Zuverlässigkeit des Systems für diese Einsatzdauer ?
X1 = Lebensdauer von Komponente I
X2 = Lebensdauer von Komponente II
Y = Lebensdauer des Systems
Y = X1 + X2
Addition von Zufallsvariablen mit Exponentialverteilung
Dichte von X1:
λ ⋅ e − λ1 ⋅ x1
f1 ( X 1 ) =  1
0

Dichte von X2:
f2 (X 2 ) = 
sonst
λ2 ⋅ e −λ 2 ⋅ x2
für x2 ≥ 0

sonst
0
E(X1) =
1
1
= 10000 h → λ1 =
= 10 − 4 h −1
λ1
10000
E(X2) =
1
1
= 10− 4 h −1
= 10000 h → λ2 =
λ2
10000
Gesucht:
für x1 ≥ 0
P(Y > 6000 h) = ?
Zur Berechnung wird die Verteilung von Y benötigt.
Dichte von Y
g(y) =
+∞
∫ f (x ) ⋅ f ( y − x ) ⋅ dx
1
1
2
1
1
−∞
für y ≥ 0
=
0
∫
−∞
y
+∞
0
y
f1 ( x1 ) ⋅ f 2 ( y − x1 ) ⋅ dx1 + ∫ f1 ( x1 ) ⋅ f 2 ( y − x1 ) ⋅ dx1 +
∫ f (x ) ⋅ f ( y − x ) ⋅ dx
1
1
2
1
1
Seite 103
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
y
= ∫ f1 ( x1 ) ⋅ f 2 ( y − x1 ) ⋅ dx1
0
y
= ∫ λ1 ⋅ e − λ1 ⋅ x1 ⋅ λ2 ⋅ e − λ2 ⋅( y − x1 ) ⋅ dx1
0
y
= ∫ λ1 ⋅ λ2 ⋅ e − (λ1 − λ2 )⋅ x1 ⋅ e − λ 2 ⋅ y ⋅ dx1
0
y
= λ1 ⋅ λ2 ⋅ e
− λ2 ⋅ y
⋅ ∫ e − (λ1 − λ2 )⋅ x1 ⋅ dx1
0
y

1
− (λ1 − λ 2 )⋅ y 
− λ − λ ⋅ e

2
 1
0
für λ1 ≠ λ2 :
−
1
1
⋅ e − (λ1 − λ2 )⋅ y + −
λ1 − λ2
λ1 − λ2
 λ1 ⋅ λ2
⋅ e − λ2 ⋅ y − e − λ1 ⋅ y

g ( y ) =  λ1 − λ2

0
(
)
für y ≥ 0
sonst
für λ1 = λ2 = λ
g(y) = λ ⋅ e
2
y
−λ ⋅ y
⋅ ∫ e − (λ − λ )⋅ x1 ⋅ dx1
0
y
g ( y ) = λ2 ⋅ e − λ ⋅ y ⋅ ∫1 ⋅ dx1
0
g(y) = λ ⋅ e
2
−λ ⋅ y
⋅ [x ]0
y
g ( y ) = λ2 ⋅ e − λ ⋅ y ⋅ y
λ2 ⋅ e − λ ⋅ y ⋅ y für y ≥ 0
g(y) = 
0

sonst
Erlang – Verteilung mit Parameter λ und k (k = 2)
Dichtefunktion:
 λk

⋅ e − λ ⋅ k ⋅ y k −1
g ( y ) =  (k − 1)!

0
für y ≥ 0
sonst
k = 1 entspricht der Exponentialverteilung
k=2
g(y) =
λ2 − λ ⋅ y
⋅e
⋅y
1!
Seite 104
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Zuverlässigkeitsfunktion der Erlangverteilung
R (t) = P (y > t)
i
k −1 − λ ⋅t
e ⋅ (y ⋅ t )
=∑
i!
i =0
für k = 2 :
e − λ ⋅t ⋅ ( y ⋅ t )
R (t) = ∑
i!
i =0
i
1
e − λ ⋅t ⋅ (λ ⋅ t ) e − λ ⋅t ⋅ (λ ⋅ t )
=
+
0!
1!
− λ ⋅t
− λ ⋅t
= e + e ⋅λ ⋅t
0
1
= e − λ ⋅t ⋅ (1 + λ ⋅ t )
R (6000) = e −10
=e
−4
−0 , 6
⋅ h −1 ⋅ 6000 h
(
⋅ 1 + 10−4 ⋅ h −1 ⋅ 6000h
⋅ (1 + 0,6 )
)
= e − 0,6 ⋅ 1,6
= 0,549 ⋅ 1,6
= 0,878 = 87,8%
für k = 3
Komponenten

(λ ⋅ t )2 
R(t ) = e − λ ⋅t ⋅ 1 + λ ⋅ t +
2 

R(6000 ) = e −0, 6 ⋅ (1 + 0,6 + 0,18)
= 0,549 ⋅1,78
= 97,7%
X sei eine stetige Zufallsvariable mit Verteilungsfunktion F(x) = P(X ≤ x)
Y = x2
Gesucht:
Verteilung von Y
Verteilungsfunktion von Y: G(y) = P(X ≤ x)
G(y) = ?
G(y) = P(Y ≤ y)
wenn y < 0, dann G(y) = 0
Seite 105
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
sei y > 0 :
(
G(y) = P(Y ≤ y ) = P X 2 ≤ y
(
)
= F ( Y ) − F (− Y )
)
=P− Y ≤X ≤ Y
( ) (
F Y − F − Y
G( y ) = 
0

)
für y ≥ 0
sonst
Dichte von Y :
g ( y ) = G′( y ) = f
( y )⋅ 2 ⋅1 y − f (− y )⋅  − 2 ⋅1 y 

[ ( y )+ f (− y )]
 1
⋅ f

g(y) = 2 ⋅ y


für y > 0
sonst
0
Beispiel:
X eine Zufallsvariable mit Standardnormalverteilung
Y = X2
Gesucht:
Verteilung von Y
x2
−
1
Dichte von X: f ( x ) =
⋅e 2
2 ⋅π
Dichte von Y: g ( y ) =
g(y) =
g(y) =
1
2⋅ y
[ ( y )+ f (− y )]
⋅ f
y
y
−
− 
 1
1
2
2
⋅
⋅e +
⋅e 
2 ⋅ y  2 ⋅π
2 ⋅π

1
1
2⋅ y
y
⋅2⋅
−
1
⋅e 2
2 ⋅π
y
−
 1
1
⋅
⋅e 2

g(y) =  2 ⋅π
y

0

für y > 0
sonst
χ2 – Verteilung mit 1 Freiheitsgrad
Seite 106
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Dichtefunktion der χ2 – Verteilung mit n Freiheitsgraden:
n
y
−1
−

1
2
2
⋅ y ⋅e
 n
g ( y ) =  2 2 ⋅ Γ n 
 2

0

für y > 0
sonst
Gamma – Funktion Γ(z)
∞
Γ( z ) = ∫ t z −1 ⋅ e− t dt
0
Eigenschaften:
∞
[
Γ(1) = ∫ t 0 ⋅ e −t dt = − e− t
]
∞
0
=1
0
∞
Γ( z + 1) = ∫ t z ⋅ e − t dt
0
u = tz
v′ = e − t
u′ = z ⋅ t z −1
v = −e − t
[ (
= t z ⋅ − e −t
∞
)] + ∫ z ⋅ t
∞
0
z −1
⋅ e −t dt
0
∞
= 0 + z ⋅ ∫ t z −1 ⋅ e − t dt
0
= z ⋅ Γ( z )
Γ( z + 1) = z ⋅ Γ (z )
Funktionalgleichung der
Γ-Funktion
Γ(2 ) = Γ(1 + 1) = 1 ⋅ Γ(1) = 1 ⋅1 = 1
Γ(3) = Γ(2 + 1) = 2 ⋅ Γ(2) = 2 ⋅1 = 2!
Γ(4 ) = Γ(3 + 1) = 3 ⋅ Γ(3) = 3 ⋅ 2!= 3!
Γ(5) = 4!
Γ(m ) = (m − 1)!
m ganzzahlig positiv
Seite 107
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
∞
−
1
Γ  = ∫ t 2 ⋅ e− t dt = π
2 0
1
3
1 
Γ  = Γ + 1 =
2
2 
5
3 
Γ  = Γ + 1 =
2
2 
1 1 1
⋅ Γ  = ⋅ π
2  2 2
5
3 
Γ  = Γ + 1 =
2
2 
7
5 
Γ  = Γ + 1 =
2
2 
3  3 3 1
⋅ Γ  = ⋅ ⋅ π
2  2 2 2
3  3 3 1
⋅ Γ  = ⋅ ⋅ π
2  2 2 2
5  5 5 3 1
⋅ Γ  = ⋅ ⋅ ⋅ π
2  2 2 2 2
 11 
9  9 9 9 7 5 3 1
Γ  = Γ + 1 = ⋅ Γ  = ⋅ ⋅ ⋅ ⋅ ⋅ π
2
 2  2  2 2 2 2 2 2
χ2 – Verteilung mit 1 Freiheitsgrad
g(y) =
g(y) =
1
1
2 ⋅ Γ 
 2
1
2
⋅y
1
−1
2
−
y
2
−1
−
y
2
−1
−
y
2
⋅e
1
1 − 2y
⋅
⋅e
2⋅ π
y
1
1 − 2y
g(y) =
⋅
⋅e
2π
y
χ2 – Verteilung mit 2 Freiheitsgrad
g(y) =
1
 2
2 2 ⋅ Γ 
 2
2
g(y) =
1 − 2y
⋅e
2
g(y) =
1
2
⋅ y2 ⋅ e
χ2 – Verteilung mit 3 Freiheitsgrad
 3
2 2 ⋅ Γ 
 2
3
3
⋅ y2 ⋅e
y
−
1
g(y) =
⋅ y ⋅e 2
1
2⋅ 2 ⋅ ⋅ π
2
y
−
1
g(y) =
⋅ y ⋅e 2
2π
Seite 108
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
χ2 – Verteilung mit 4 Freiheitsgrad
g(y) =
1
 4
2 ⋅ Γ 
 2
4
2
⋅y
4
−1
2
⋅e
−
y
2
y
−
1
⋅ y ⋅e 2
4 ⋅1
y
−
1
2
g(y) = ⋅ y ⋅ e
4
g(y) =
X1, X2 zwei unabhängige Zufallsvariablen mit Standardnormalverteilung
Y = X12 + X22
gesucht :
Verteilung von Y
Y1 = X12
Y2 = X22
Y1 hat χ2 –Verteilung mit 1 Freiheitsgrad
Y2 hat χ2 –Verteilung mit 1 Freiheitsgrad
Dichte g1(y1)
Dichte g2(y2)
Y = Y1 + Y2
Die Verteilung von Y ergibt sich durch Faltung der beiden χ2 –Verteilungen mit je 1 Freiheitsgrad
Dichte von Y: g ( y ) =
+∞
∫ g ( y ) ⋅ g ( y − y ) ⋅ dy
1
1
2
1
1
−∞
y
g(y) = ∫
0
y
− 1
−
1
1
1
1
⋅
⋅e 2 ⋅
⋅
⋅e
2 ⋅π
y1
2 ⋅π
y − y1
y − y1
2
⋅ dy1
y
=
1 −
= ⋅e 2
2
χ2 –Verteilungen mit 2 Freiheitsgraden
Folgerung:
X1, X2, … , Xn unabhängige Zufallsvariablen mit Standardnormalverteilung
Y = X12 + X22 + … + Xn2
Y hat eine χ2 –Verteilungen mit n Freiheitsgraden
Beispiel:
Es wurden 6 Zufallszahlen mit Standardnormalverteilung erzeugt nach der direkten
Methode:
X12, X22, … , X62
0,8377, -1,4392, … , 2,5164
Y = X12 + X22 + … + X62
Y ist eine Zufallszahl mit χ2 –Verteilung mit 6 Freiheitsgraden
Seite 109
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Wie groß ist die Wahrscheinlichkeit, dass Y einen Wert annimmt ≤ 10,64 ?
P (Y ≤ 10,64) = ?
mit G = Verteilungsfunktion der χ2 –Verteilung mit 6 Freiheitsgraden
= G (10,64)
G( y ) =
y
=∫
0
y
y
−∞
0
∫ g (t )dt = ∫ g (t )dt
n
1
n
2 2 ⋅ Γ 
 2
n
−1
−
t
⋅ t 2 ⋅ e 2 ⋅ dt
Verteilungsfunktion
der χ2 –Verteilung mit
n Freiheitsgraden
für n = 6
y
t
−
1
G ( y ) = ∫ 3 ⋅ t 2 ⋅ e 2 ⋅ dt
2 ⋅2
0
G (10,64) =
10 , 64
∫
0
t
1 2 −2
⋅ t ⋅ e ⋅ dt = 0,9 = 90%
24
90 %
g(t)
t
10,64
0
10,64 ist der 90 % - Punkt der χ2 –Verteilung mit 6 Freiheitsgraden
Die χ2 –Verteilung gehört zu den „ Testverteilungen“
X1 sei eine Zufallsvariable mit Standardnormalverteilung.
x2
−
1
f1 ( x1 ) =
⋅e 2
2π
W sei eine Zufallsvariable mit χ2 –Verteilung mit n Freiheitsgraden
X1, W sind unabhängig voneinander.
Seite 110
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
g (w) =
n
2 ⋅ Γ 
2
n
2
X1
W
n
Y=
−1
⋅ w2 ⋅ e
−
t
2
für w > 0
gesucht:
Verteilung von Y
W
n
X2 =
Y=
n
1
X1
X2
Dichte von X2:
f1(x2)
W = n ⋅ X2
dw
= 2 ⋅ n ⋅ x2
dx2
2
(
)
f 2 ( x2 ) = g n ⋅ x2 ⋅ 2 ⋅ n ⋅ x2
=
2
1
n n
2 ⋅ Γ 
2  2
(
)
⋅ n ⋅ x2 ⋅ e
2
n
−
n2 ⋅2
n −1
= n
⋅ x2 ⋅ e
n
2 2 ⋅ Γ 
 2
−
n⋅ x 2
2
n⋅ x 2 2
2
⋅ 2 ⋅ n ⋅ x2
2
f1 und f2 einsetzen in:
h( y ) =
+∞
 x1  x1
∫ f (x ) ⋅ f  y  ⋅ y
1
1
2
2
⋅ dx1
−∞
=
=
 n + 1
Γ

 2 
h( y ) =
 n
Γ  ⋅ n ⋅ π
 2
⋅
1
n +1

y2  2
1 + 
n

Dichte von Y für -∞ < Y < +∞
Studentsche t-Verteilung
mit n Freiheitsgraden
Seite 111
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
z. B.: für n = 1
 1 + 1
Γ

2 

h( y ) =
1
Γ  ⋅ 1 ⋅ π
 2
1
1
⋅
π ⋅ π 1 + y2
1
1
= ⋅
π 1 + y2
=
(
1
⋅
1+1
2

y2 
1 + 
1 

)
für n = 2
 3
Γ 
 2 ⋅
h( y ) =
Γ(1) ⋅ 2 ⋅ π
1
⋅ π
=2
⋅
1⋅ π
1
3

y2 2
1 + 
2

1
3

y2 2
1 + 
2

Verteilungsfunktion der Student’schen t-Verteilung mit n Freiheitsgraden
 n +1
Γ

2 

F (z ) = ∫
n
− ∞ Γ  ⋅ n ⋅ π
 
 2
z
1
⋅

y 
1 + 
n

2
n +1
2
⋅ dy
z.B. für n = 1
F (z ) =
z
−∞
F (z ) =
1
1
∫ π ⋅ 1+ y
2
⋅ dy =
1
z
⋅ [arctan( y )]− ∞
π
1
1
1
1
⋅ arctan(z ) − ⋅ arctan(− ∞ ) = ⋅ arctan( z ) +
π
π
π
2
Seite 112
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
arctan:
π
2
−
F(3,08) = 0,90 = 90 %
π
2
3,08 ist der 90% - Punkt der Student’schen t-Verteilung mit 1
Freiheitsgrad.
F(1,38) = 0,80
F-Verteilung mit (m, n) Freiheitsgraden
V1, V2 zwei unabhängige Zufallsvariable mit χ2 –Verteilung mit m bzw. n Freiheitsgraden.
V1
n V
Y= m = ⋅ 1
V2 m V2
n
Die Verteilung Y heißt F-Verteilung mit (m, n) Freiheitsgraden
Dichte von Y:

m+ n
m
−1
 m n Γ 2 
2
Y


2
2
m ⋅ n ⋅
⋅

 m   n  (m ⋅ y + n )m2+ n
g(y) = 
Γ  ⋅ Γ 
 2  2



0

für
y>0
sonst
Verteilungsfunktion:
z
G ( z ) = ∫ g ( y )dy
0
Seite 113
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
z.B.:
m = 7, n = 5
Z = 4,88
G (4,88) =
4 ,88
∫7
7
2
5
2
⋅5 ⋅
0
4,88
7
2
7
−1
2
Γ(6)
y
⋅
dy
 7   5  (7 ⋅ y + 5)6
Γ  ⋅ Γ 
 2  2
5
2
y
dy
6
5 3 1
3 1
(
7
⋅
y
+
5
)
0
⋅ ⋅ ⋅ π⋅ ⋅ ⋅ π
2 2 2
2 2
numerische Integration
=
∫
7 ⋅5 ⋅
120
5
2
⋅
= 0,95 = 95%
4,88 ist der 95% - Punkt der F-Verteilung mit (7, 5) Freiheitsgraden
10,5 ist der 99% - Punkt der F-Verteilung mit (7, 5) Freiheitsgraden
X1, X2, … , Xn seien unabhängige Zufallsvariable mit Normalverteilung mit Parameter µ und σ
Y = X1 + X2 + … + Xn
Y hat eine Normalverteilung mit Parameter µ y und σy
es gilt: µ y = µ + µ + µ + … + µ = n ⋅ µ
σ y = σ 2 +σ 2 +
1
1
⋅ Y = ⋅ (X1 + X 2 +
n
n
+ σ 2 = n ⋅σ 2 = n ⋅ σ
+ Xn) =
1 n
⋅ ∑ Xi = X
n i =1
hat eine Normalverteilung mit Parameter µ X und σ X
X
1
1
1  1
µ X = E (X ) = E  ⋅ Y  = ⋅ E (Y ) = ⋅ µ y = ⋅ n ⋅ µ
n
n
n  n
µX = µ
1
1  1
2
σ X = V (X ) = V  ⋅ y  = 2 ⋅ V ( y ) = 2 ⋅ n ⋅ σ 2
n
n  n
σX =
σ
n
Seite 114
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Anwendungsbeispiel:
Messung, z.B. ein Körper wird gemessen
Der Körper hat eine Masse von 1000g.
Das Messergebnis ist der Messwert X.
Der Messwert könnte sein
z.B.:
oder
oder
X = 1003 g
X = 998 g
X = 1000 g
⇒ Messfehler von 3g.
⇒ Messfehler von -2g.
⇒ Messfehler von 0g.
Der Messfehler besteht im allgemeinen aus einem systematischen und einem zufälligen Anteil.
Bei einem guten Messgerät ist der systematische Messfehler Null oder zumindest sehr klein. Es
verbleibt der zufällige Messfehler Z.
Z ist eine Zufallsvariable
Z ist i.a. normalverteilt
die Parameter seien µ z und σz
µz = 0
σz ist festgelegt durch die Bauart (bei Präzisionswaage ist σz klein, bei einer
ungenauen Waage ist σz größer.
X = 1000 g + Z
X ist eine Zufallsvariable mit Normalverteilung mit Parameter µ und σ
µ = E(X) = E(1000g + Z) = 1000 g + E(Z) = 1000 g
σ2 = V(X) = V(1000 g + Z) = V(Z) = σz2
σ = σz
z.B.:
σz = 2 g
µ = 1000 g
Das Messergebnis X wird (mit nahezu 100% Sicherheit) im Bereich 994 g bis 1006 g
liegen (3σ Bereich).
Der Körper wird n mal gewogen (z.B. n = 4)
Messwerte X1, X2, … , Xn
n unabhängige Zufallsvariablen mit Parameter m und σ
(µ = tatsächliche Masse des Körpers
σ ist durch die Bauart festgelegt, z.B. σ = 2 g)
X=
1 n
⋅ ∑ X i arithmetisches Mittel der Messwerte
n i =1
Seite 115
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X ist ebenfalls eine Zufallsvariable mit Normalverteilung mit Parametern
µ X = µ und
σ
2g
σX =
=
n
n
z.B. n = 4
σX =
2g
= 1g
4
X1, X2, … , Xn
n Messwerte mit N-Verteilung mit µ und σ
In welchem Bereich liegt der tatsächliche Wert µ ?
X=
1 n
⋅ ∑ Xi
n i =1
hat N-Verteilung mit µ X = µ und σ X =
σ
n
σ
σ 

P µ − C ⋅
≤ X ≤ µ +C⋅

n
n

σ
σ




−µ
−µ
µ +C⋅
 µ −C⋅
n
n
 − Φ

= Φ
σ
σ








n
n




Φ (C ) − Φ (− C ) = D (C ) = γ
für γ = 99 %
für γ = 95 %
für γ = 99,73 %
für γ = 95,45 %
C = 2,576
C = 1,960
C = 3,0
C = 2,0
σ
σ
≤ X ≤ µ +C⋅
−µ
n
n
σ
σ
−C⋅
≤ X −µ ≤C⋅
⋅ (− 1)
n
n
σ
σ
C⋅
≥ µ − X ≥ −C ⋅
n
n
σ
σ
−C⋅
≤ µ − X ≤C⋅
+X
n
n
σ
σ
X −C⋅
≤ µ ≤ X +C⋅
n
n
σ
σ 

P X − C ⋅
≤ µ ≤ X +C⋅
=γ
n
n

µ −C⋅
Seite 116
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
σ
σ 

X − C ⋅ n , X + C ⋅ n 


ist Konfidenzintervall für den Parameter µ einer
Normalverteilung mit der Konfidenzzahl γ bei bekanntem σ
Zahlenbeispiel:
Ein Körper wurde 4 mal gewogen auf einer Waage mit Standardabweichung σ = 2 g
Messwerte: X1 = 1003 g
X2 = 998 g
X3 = 1001 g
X4 = 1000 g
Bestimmung eines 99 % Konfidenzintervall für die tatsächliche Masse µ des Körpers
γ = 99 %
C = 2,576
X=
1 4
⋅ ∑ X i = 1000,5 g
4 i =1
σ
= 1000,5 − 2,576 ⋅
n
σ
X +C⋅
= 1000,5 + 2,576 ⋅
n
X −C⋅
[997,924 , 1003,076]
2
= 997,924
4
2
= 1003,076
4
ein 99 % Konfidenzintervall für die unbekannte Masse µ des
Körpers.
γ = 95 %
C = 1,960
X −C⋅
σ
= 1000,5 − 1,960 ⋅
n
σ
X +C⋅
= 1000,5 + 1,960 ⋅
n
2
= 998,54
4
2
= 1002,46
4
[998,54 , 1002,46]
ein 95 % Konfidenzintervall für die unbekannte Masse µ des
Körpers.
Bestimmung eines Konfidenzintervalls für den Parameter µ einer Normalverteilung bei
unbekanntem σ.
s=
n
1
2
⋅ ∑ (X i − X )
n − 1 i =1
Schätzwert für σ
Seite 117
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X1, X2, … , Xn
n unabhängige Zufallsvariablen mit N-Verteilung mit Parameter µ, σ
Xi - µ
hat N-Verteilung mit Parameter 0 und σ
Xi − µ
σ
hat N-Verteilung mit Parameter 0 und 1 (Standardnormalverteilung)
 Xi − µ 


 σ 
2
hat χ2-Verteilung mit 1 Freiheitsgrad
 Xi − µ 

 =
∑
σ 
i =1 
2
n
n
1
σ2
∑ (X
1
σ2
∑ (X
i =1
i
− µ)
i
− X)
2
n
i =1
hat χ2-Verteilung mit n Freiheitsgraden
2
Verteilung = ?
für n = 2:
1
σ2
∑ (X
n
i =1
−X)
2
i
[
]
1
2
2
⋅ ( X 1 − X ) + (X 2 − X )
2
σ
2
2
1 
X1 + X 2  
X1 + X 2  
= 2 ⋅  X 1 −
 
 +  X2 −
2
2  
σ 
 
=
=
2
2
1  2 ⋅ X 1 − X 1 + X 2   2 ⋅ X 2 − X 1 − X 2  
⋅
+
 
 

2
2
σ 2 
 
 
2
2
1  X 1 − X 2   X 2 − X 1  
= 2 ⋅ 
 +
 
σ  2   2  
=
1
 X − X2 
⋅ 2⋅ 1

2
2 
σ

2
1
(X − X 2 )
= 2 ⋅2⋅ 1
4
σ
2
 X − X2 
= 1

 2 ⋅σ 
X1 – X2
2
hat N-Verteilung mit Parameter 0 und 2 ⋅ σ
Seite 118
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
X1 − X 2
2 ⋅σ
 X1 − X 2 


 2 ⋅σ 
hat Standardnormalverteilung
2
hat χ2-Verteilung mit 1 Freiheitsgrad
Folgerung:
1
σ2
X −µ
σ
n
s2 =
i =1
− X ) hat χ2-Verteilung mit n-1 Freiheitsgraden
2
i
hat Standardnormalverteilung
n
1
2
⋅ ∑ (X i − X )
n − 1 i =1
(n − 1) ⋅ s 2 =
σ
∑ (X
n
2
1 n
2
⋅ (X i − X )
2 ∑
σ i =1
X −µ
σ
n
=T
(n − 1) ⋅ s 2
σ2
(n − 1)
hat χ2-Verteilung mit n-1 Freiheitsgraden
hat eine Student’sche t-Verteilung mit n-1
Freiheitsgraden
X −µ
σ
n = X −µ
T=
s
s
σ
n
Konstante C mit:
P(− C ≤ T ≤ +C ) = γ
F (C ) − F (− C ) = γ
F (C ) − [1 − F (C )] = γ
F (C ) − 1 + F (C ) = γ
2 ⋅ F (C ) − 1 = γ
γ ist eine vorgegebene Wahrscheinlichkeit, z.B. 99%
F: Verteilungsfunktion der Student’schen t-Verteilung
mit n-1 Freiheitsgraden
2 ⋅ F (C ) = 1 + γ
F (C ) =
1
⋅ (1 + γ )
2
Seite 119
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
C=
1
⋅ (1 + γ ) - Prozentpunkt der Student’ schen t-Verteilung mit n-1 Freiheitsgraden
2
C = t1
2
z.B.:
⋅(1+ γ ); n −1
n = 4, γ = 99 %
C = t1
2
⋅(1+ γ );n −1
= t0, 995;3 = 5,84
P(− 5,84 ≤ T ≤ 5,84) = 99%
−C ≤T ≤C
X −µ
≤C
s
n
s
s
−C⋅
≤ X −µ ≤C⋅
n
n
s
s
C⋅
≥ X − µ ≥ −C ⋅
n
n
s
s
−C⋅
≤ µ − X ≤C⋅
n
n
s
s
X −C⋅
≤ µ ≤ X +C⋅
n
n
s

P X − C ⋅
≤ µ ≤ X +C⋅
n

−C ≤
⋅ (− 1)
+X
s 
 =γ
n
s
s 

X − C ⋅ n , X + C ⋅ n 


wobei C = t 1
2
⋅(1+ γ ); n −1
Konfidenzintervall für µ (bei unbekanntem σ)
Zahlenbeispiel:
n = 4 Messwerte
X=
X1 = 1003 g
X2 = 998 g
X3 = 1001 g
X4 = 1000 g
1 4
⋅ ∑ X i = 1000,5 g
4 i =1
Seite 120
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Gesucht:
99 % Konfidenzintervall für µ
s = 2,0817 g
C = t1
2
⋅(1+ γ );n −1
= t0, 995;3 = 5,84
X −C⋅
s
2,0817
= 1000,5 − 5,84 ⋅
= 994,42
n
4
X +C⋅
s
2,0817
= 1000,5 + 5,84 ⋅
= 1006,58
n
4
[994,42
,
1006,58]
99 % Konfidenzintervall für µ
Konfidenzintervall für den Parameter σ einer Normalverteilung
X1, X2, … , Xn Beobachtungsdaten (z.B. n Messwerte)
Xi ist eine Zufallsvariable mit Normalverteilung mit Parameter µ und σ
Schätzwert für σ bzw σ2
n
1
2
⋅ ∑ (X i − X )
n − 1 i =1
s=
bzw.
s2 =
n
1
2
⋅ ∑ (X i − X )
n − 1 i =1
Wie genau ist dieser Schätzwert ?
Um wie viel kann σ von s abweichen ?
(n − 1) ⋅ s 2 = Y
σ
hat χ2-Verteilung mit n-1 Freiheitsgraden
2
C1, C2
zwei Konstanten mit
P(C1 ≤ Y ≤ C2 ) = γ
Dichtefunktion der χ2-Verteilung
γ
0
C1
C2
Y
Seite 121
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
P(Y < C1 ) = P(Y > C2 ) =
F (C1 ) =
1
⋅ (1 − γ )
2
1
⋅ (1 − γ )
2
F: Verteilungsfunktion der χ2-Verteilung mit n-1 Freiheitsgraden
1
1 1
1
P(Y ≤ C2 ) = 1 − P(Y > C2 ) = 1 − ⋅ (1 − γ ) = + ⋅ γ = ⋅ (1 + γ )
2
2 2
2
F (C2 ) =
z.B.:
1
⋅ (1 + γ )
2
F: Verteilungsfunktion der χ2-Verteilung mit n-1 Freiheitsgraden
n = 25
Beobachtungsdaten X1, X2, ., X25
n-1 = 24
γ = 95 %
F (C1 ) =
1
⋅ (1 − γ ) = 2,5% = 0,0025
2
1
⋅ (1 + γ ) = 97,5% = 0,975
2
1
⋅ (1 − γ ) = 0,0025
2
C1 = 12,4
C2 = 39,4
C1 = χ 2 1 (1−γ );n−1
2
C2 = χ
2
1
(1+γ );n −1
2
P(12,4 ≤ Y ≤ 39,4) = 95%
P(C1 ≤ Y ≤ C2 ) = γ

(n − 1) ⋅ s 2 ≤ C  = γ
P C1 ≤
2
σ2


1
σ2
1 
P ≥
≥  = γ
2
C2 
 C1 (n − 1) ⋅ s
 1
σ2
1

P
≤
≤  = γ
2
C1 
 C2 (n − 1) ⋅ s
 (n − 1) ⋅ s 2
(n − 1) ⋅ s 2  = γ
P
≤σ 2 ≤

C1
 C2

 (n − 1)
P
⋅s ≤σ ≤
C
2

 (n − 1)
⋅s
,

C
2

(n − 1) ⋅ s  = γ


(n − 1) ⋅ s

C1

C1
Konfidenzintervall für σ
Seite 122
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Zahlenbeispiel:
Aus einer normalverteilten Produktion von elektrischen Widerständen
wurde eine Stichprobe von 25 Widerständen entnommen:
X1 = 50,72 kΩ; X2 = 49,69 kΩ, X3 = 45,86 kΩ, … , X25 = 53,13 kΩ
Gesucht: Ein 95 % - Konfidenzintervall für den Parameter σ dieser Produktion
s=
n
1
2
⋅ ∑ ( X i − X ) = 2,713
n − 1 i =1
γ = 95 %
C1 = χ 2 1 (1−γ );n−1 = χ 2 0 , 0025; 24 = 12, 4
2
C2 = χ
(n − 1) ⋅ s =
C1
1
(1+γ ); n−1
2
= χ 2 0 , 975 ; 24 = 39,4
24
⋅ 2,713 = 2,12
39,4
C2
(n − 1)
2
24
⋅ 2,713 = 3,77
12,4
⋅s =
[2,12
,
3,77]
95%-Konfidenzintervall für σ
[1,96
,
4,22]
99%-Konfidenzintervall für σ
Testen von Hypothesen
Beispiel:
Bei einer Produktion werden pro Tag im Mittel 40 Mengeneinheiten hergestellt.
Die pro Tag produzierte Menge ist normalverteilt mit einer Standardabweichung
von σ = 2 Mengeneinheiten.
Verbesserungsvorschlag zur Steigerung der Produktionsmenge
µ = Erwartungswert der Produktion nach Durchführung des
Verbesserungsvorschlags.
H0:
A:
µ = 40
µ > 40
Nullhypothese
Alternativhypothese
In Probezeit von 10 Tagen:
X1 = 38,2
X6 = 45,0
X2 = 42,3
X7 = 42,1
X3 = 41,9
X8 = 43,1
X4 = 39,9
X9 = 41,3
X5 = 39,1
X10 = 41,2
X = 41,41
Seite 123
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Verwerfungs
bereich von
H
X
40
Entscheidungsregel: H0 wird verworfen, wenn X > C
C heißt kritische Zahl
Fehler 1. Art: H0 wird verworfen, obwohl H0 zutrifft.
Die Wahrscheinlichkeit für den Fehler 1. Art heißt Risiko 1. Art
Ziel:
z.B.:
Das Risiko soll klein sein
α = Signifikanzzahl
α = kleine Vorgegebene Wahrscheinlichkeit
α=5%
P ( X > C | H 0 ) = Risiko 1. Art
= α
X ist eine Zufallsvariable mit µ X und σ X =
P(X > C | H 0 ) = 1 − α
σ
n
95%
 C − 40 
 =1−α
Φ

σ
X






C
−
40

 =1−α
Φ
 2  95%


 10 
C − 40
= 1,645
2
W1−α
10
⇒ C = 40 + 1,645 ⋅
µ0
W1−α
2
σ
= µ0 + W1−α ⋅
10
n
σ
n
= 41,04


H0 wird verworfen, da das beobachtete X größer als C ist  41, 41 > 41,04 


C
 X

Fehler 2. Art: H0 wird nicht verworfen, obwohl H0 nicht zutrifft
Risiko für Fehler 2. Art ist die Wahrscheinlichkeit für den Fehler 1. Art
=β
Seite 124
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Berechnung des β-Risikos:
β (λ ) = P(X ≤ C | A)
= P (X ≤ C | µ = 40 + λ ⋅ σ )
λ >0




(
)
−
+
⋅
C
40
λ
σ

β (λ ) = Φ
σ




n


σ

− 40 − λ ⋅ σ
 40 + 1,645 ⋅
n

=Φ
σ


n









= Φ1,645 − λ ⋅ n 
 W

10 
 1−α
Wertetabelle für das β-Risiko:
λ
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
…
(
1,645 − λ ⋅ 10 β (λ ) = Φ 1,645 − λ ⋅ 10
1,645
95 %
1,329
90,8 %
1,013
84,4%
0,696
75,7%
0,380
64,8%
0,064
52,5%
-0,252
40,0%
-0,569
28,5%
-0,885
18,8%
-1,201
11,5%
-1,517
6,5%
-1,834
3,3%
)
Seite 125
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
OC – Kurve (Operationscharakteristik)
100 %
90 %
β(λ)
80 %
70 %
α verkleinert
60 %
50 %
40 %
30 %
n vergrößert
20 %
10 %
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
Die Kostensituation sei so, dass Steigerungen bei µ erst ab µ = 42 von Interesse sind
λ=
λ=1
µ = 42
β(λ) = β(1) = 6,5 %
Interpretation:
µ − 40
2
Wenn sich µ auf 42 vergrößert hat, dann wird dies bei dem Test mit einer
Wahrscheinlichkeit von 6,5 % entdeckt ( mit 93,5 % Wahrscheinlichkeit
wird eine solche Steigerung entdeckt).
Wenn bereits Steigerung bei m auf 41,6 von Interesse ist
zum Vergleich:
λ = 0,8
µ = 41,6
β(0,8) = 18,8 %
Verkleinerung von α bewirkt eine Vergrößerung von β(λ)
(< )
Beispiel:
α=1%
Gewünscht β (1) = 2%
Wie groß muss n gewählt werden?
(
β (λ ) = Φ W1−α − λ ⋅ n
↑
1
(
↑
↑
2 ,326
1
)
)
(< )
Φ 2,326 − 1 ⋅ n = 2%
Φ(− 2,054 ) = 2%
2,326 − n = −2,054
n = 4,380
n = 19,184
n = 20
Seite 126
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
β(λ) gibt das Risiko an, dass eine Steigerung bei µ um λ Standardabweichungen
nicht entdeckt wird bei dem Test.
H0:
A:
µ = µ0
µ < µ0
Stichprobe von Beobachtungsdaten X1, X2, … , Xn
X = Prüfgröße des Tests
α = vorgegebene Signifikanzzahl
Verwerfungsbereich
von H0
C
µ0
Entscheidungsregel: H0 verwerfen, wenn X < C
P(X < C | H 0 ) = α
C = µ 0 − W1−α ⋅
⇒
β (λ ) = P(X ≥ C | A)
σ
10
= P (X ≥ C | µ = µ 0 − λ ⋅ σ )
(
Φ W1−α − λ ⋅ n
)
β(λ) gibt das Risiko an, dass eine Verkleinerung bei µ um λ Standardabweichungen
nicht entdeckt wird.
H0:
A:
µ = µ0
µ ≠ µ0
Stichprobe von Beobachtungsdaten X1, X2, … , Xn
X = Prüfgröße
α = vorgegebene Signifikanzzahl
Verwerfungs
bereich für
H
C1
Verwerfungs
bereich für X
H
µ0
C2
Entscheidungsregel: H0 wird verworfen, wenn X < C1 oder X > C2
Seite 127
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
C1 = µ 0 − W
α
1−
2
⋅
C2 = µ0 + W
σ
n
α
1−
2
⋅
σ
n
β (λ ) = P(C1 ≤ X ≤ C2 | A)
= P(C1 ≤ X ≤ C2 | µ = µ 0 + λ ⋅ σ )
mit λ ≠ 0








(
)
(
)
C
−
µ
+
λ
⋅
σ
C
−
µ
+
λ
⋅
σ
0
0
 − Φ 1

= Φ 2
σ
σ








n
n




σ
σ



− µ0 − λ ⋅ σ
− µ0 − λ ⋅ σ 
 µ0 + W α ⋅
 µ0 − W α ⋅
1−
1−
n
n



2
2
=Φ
−Φ



σ
σ



n
n







= ΦW α − λ ⋅ n  − Φ − W α − λ ⋅ n 
 1− 2

 1− 2

z. B.:






α = 1%
W α = W99, 5% =2,576
1−
2
n = 10
β (λ ) = Φ 2,576 − λ ⋅ 10 − Φ − 2,576 − λ ⋅ 10
(
) (
)
α
β(λ)
1
β(1) = 8 %
0
1
λ
als Beispiel
Wenn sich µ um 1 (λ) Standardabweichung verändert hat, dann wird es bei
dem Test mit einer Wahrscheinlichkeit von 8 % (β(λ)) nicht bemerkt.
Seite 128
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
H0 wird
verworfen
H0 wird nicht
verworfen
H0
α
A
1-α
1-β
β
Abänderung der Tests für den Fall, dass σ unbekannt ist:
1) bei den kritischen Zahlen
σ
wird ersetzt durch
n
s
C = µ0 + t1−α ; n −1 ⋅
n
C = µ 0 + W1−α ⋅
σ
wird ersetzt durch
n
s
C = µ0 − t1−α ; n −1 ⋅
n
C = µ0 − W1−α ⋅
σ
wird ersetzt durch
n
s
C 1 = µ0 ± t α ⋅
1− ; n −1
2
n
2
C 1 = µ 0 ± W1−α ⋅
2
2) Beim β–Risiko
(
)
Φ W1−α − λ ⋅ n wird ersetzt durch




 t1−α ;n −1 − λ ⋅ n 
≈ Φ

t 12−α ;n−1 

 1+

2 ⋅ (n − 1) 





ΦW α − λ ⋅ n  − Φ − W α − λ ⋅ n  wird ersetzt durch
 1− 2

 1− 2





t


−λ⋅ n
−t
−λ⋅ n 

 1− α ; n −1

 1− α ;n −1
2
− Φ
≈ Φ 2


t 12−α ;n−1 
t 12−α ;n−1



 1+

 1+

2 ⋅ (n − 1) 
2 ⋅ (n − 1) 


Seite 129
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
Tests für σ
H0:
A:
Beispiele:
σ = σ0
σ > σ0
Bei einer Produktion betrug bisher die Standardabweichung 2 Einheiten. Im Laufe
der Zeit entsteht die Vermutung, dass die Standardabweichung sich vergrößert hat.
H0:
A:
σ=2
σ>2
Stichprobe von Beobachtungsdaten X1, X2, … , Xn
z.B.:
Aus der Produktion werden n = 25 Stück entnommen und die Werte ausgemessen.
Prüfgröße
S=
n
1
2
⋅ ∑ (X i − X )
n − 1 i =1
Verwerfungsbereich
für H0
0
µ0
C
S
Entscheidungsregel: H0 wird verworfen, wenn S > C
α = vorgegebene Signifikanzzahl
P(S > C | H 0 ) = α
P(S ≤ C | H 0 ) = 1 − α
(
)
P S 2 ≤ C2 | H0 = 1 − α
n
 1
2

P
⋅ ∑ (X i − X ) ≤ C 2 | H 0  = 1 − α
 n − 1 i =1

 n
2

P ∑ (X i − X ) ≤ (n − 1) ⋅ C 2 | H 0  = 1 − α
 i =1

n
2
(n − 1) ⋅ C 2 | H  = 1 − α
 1
P 2 ⋅ ∑ ( X i − X ) ≤
0
σ2
 σ i =1

hat eine χ2–Verteilung mit
n-1 Freiheitsgraden
 (n − 1) 2 
F 
⋅ C  = 1 − α
2
 σ0

Verteilungsfunktion der
χ2–Verteilung mit (n-1) Freiheitsgraden
χ 21−α ; n −1 = (n-1) – Prozentpunkt der χ2–Verteilung mit (n-1) Freiheitsgraden (Tabellenwert)
Seite 130
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
(
)
F χ 21−α ; n −1 = 1 − α
(n − 1) ⋅ C 2 = χ 2
1−α ; n −1
σ 02
C2 =
σ 02
⋅ χ 21−α ; n −1
(n − 1)
C =σ0 ⋅
z. B.:
H0:
A:
χ 21−α ; n −1
(n − 1)
σ = 2 (σ0)
σ>2
n=5
α=5%
χ 21−α ; n −1 = χ 20,95; 4 = 9,49
9,49
= 3,08
4
C = 2⋅
S > 3,08
dann H0 verwerfen
Berechnung des β-Risikos:
β (λ ) = P(S ≤ C | A)
β (λ ) = P(S ≤ C | σ = λ ⋅ σ 0
β (λ ) = P(S 2 ≤ C 2 | σ = λ ⋅ σ 0 )
mit
λ > 1)
(n − 1) ⋅ C 2 | σ = λ ⋅ σ 
 (n − 1)
β (λ ) = P 2 ⋅ S 2 ≤
0
σ2
 σ

hat eine χ2–Verteilung mit
n-1 Freiheitsgraden
 (n − 1)

= F  2 2 ⋅ C 2 
 λ ⋅σ 0

 (n − 1) σ 02

= F  2 2 ⋅
⋅ χ 21−α ; n −1 
 λ ⋅ σ 0 (n − 1)

Verteilungsfunktion der
χ –Verteilung mit (n-1) Freiheitsgraden
2
 χ 21−α ;n −1 

β (λ ) = F 
2
λ


Seite 131
Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik
z. B.:
 9,49 
β (1,5) = F  2  = F (4,218) = 62,3%
 1,5 
F(3,36) = 50 %
F(5,39) = 75 %
F(4,218) = 62,3 %
lineare Interpolation:
4,218 – 3,36 = 0,858
5,39 – 3,36 = 2,03
10,7 %
25 %
50 % + 10,7 % = 60,7 %
Wenn sich σ gegenüber σ0 um Faktor 1,5 vergrößert hat, dann wird es mit einer
Wahrscheinlichkeit von 62,3 % nicht bemerkt.
Wie groß ist die Wahrscheinlichkeit, dass es bei dem Test nicht bemerkt wird, wenn sich
verdoppelt hat ?
 9,49 
β (2) = F  2  = F (2,3725) = 33%
 2 
H0:
A:
σ = σ0
σ < σ0
X1, X2, … , Xn
S=
Prüfgröße
n
1
2
⋅ ∑ (X i − X )
n − 1 i =1
Verwerfungsbereich
für H0
C
0
σ0
S
Entscheidungsregel: H0 wird verworfen, wenn S < C
α = vorgegebene Signifikanzzahl
P(S < C | H 0 ) = α
⇒ C =σ0 ⋅
χα2; n −1
(n − 1)
β (λ ) = P(S ≥ C | A)
β (λ ) = P(S ≥ C | σ = λ ⋅ σ 0
mit λ > 1)
β (λ ) = 1 − P(S < C | σ = λ ⋅ σ 0
mit λ > 1)
 χ 2α ; n −1 

β (λ ) = 1 − F 
2
 λ 
Seite 132
Herunterladen