Skript zur Wahrscheinlichkeitsrechnung

Werbung
II. Wahrscheinlichkeitsrechnung
Vorlesungsmitschrift - Kurzfassung
Prof. Dr. rer. nat. B. Grabowski
© HTW des Saarlandes 2005
Inhalt
INHALTSVERZEICHNIS
II. Wahrscheinlichkeitsrechnung
1 GRUNDLAGEN / DEFINITION DER
WAHRSCHEINLICHKEIT ......................................................................................................3
1.1 ZUFÄLLIGES EREIGNIS / ZUFÄLLIGER VERSUCH ...............................................................3
1.2 DEFINITION DER WAHRSCHEINLICHKEIT VON EREIGNISSEN ..................................5
1.2.1
1.2.2
Relative Häufigkeit von Ereignissen ...............................................................................................6
Axiomatische Definition der Wahrscheinlichkeit .....................................................................8
1.3 DIE KLASSISCHE WAHRSCHEINLICHKEIT ...............................................................................9
1.4 BEDINGTE WAHRSCHEINLICHKEIT UND BERECHNEN VON
VERBUNDWAHRSCHEINLICHKEITEN ......................................................................................................12
1.5 UNABHÄNGIGKEIT VON EREIGNISSEN......................................................................................16
1.6 SATZ VON BAYES UND FORMEL DER TOTALEN WAHRSCHEINLICHKEIT .......18
1.7 ÜBUNGSAUFGABEN
2
..........................................................................................................................22
ZUFALLSGRÖßEN UND IHRE VERTEILUNGEN........24
2.1 ZUFALLSGRÖßEN (WIEDERHOLUNG)........................................................................................24
2.2 WAHRSCHEINLICHKEITSVERTEILUNG DISKRETER ZUFALLSGRÖßEN .............24
2.3 PARAMETER DISKRETER VERTEILUNGEN .............................................................................28
2.3.1
2.3.2
Erwartungswert, Varianz und Verteilungsfunktion...............................................................28
Quantile diskreter Verteilungen ......................................................................................................30
2.4 STETIGE ZUFALLSGRÖßEN UND IHRE VERTEILUNGEN,
VERTEILUNGSFUNKTION UND VERTEILUNGSDICHTE ................................................................30
2.5 PARAMETER STETIGER VERTEILUNGEN .................................................................................34
2.5.1
2.5.2
Erwartungswert und Varianz ...........................................................................................................34
Quantile .....................................................................................................................................................35
2.6 EIGENSCHAFTEN VON ERWARTUNGSWERTEN UND VARIANZ VON
ZUFALLSGRÖßEN....................................................................................................................................................37
2.7 DIE TSCHEBYSCHEFF-UNGLEICHUNG......................................................................................39
2.8 HAUPTSATZ DER STATISTIK .............................................................................................................39
2.9 ÜBUNGSAUFGABEN
........................................................................................................................40
3 MEHRDIMENSIONALE (“ZWEIDIMENSIONALE”)
VERTEILUNGEN ...................................................................................................................................41
3.1 ZWEIDIMENSIONALE DISKRETE VERTEILUNGEN.............................................................41
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
I
Inhalt
3.2 ZWEIDIMENSIONALE STETIGE VERTEILUNGEN ................................................................42
3.3 PARAMETER ZWEIDIMENSIONALER VERTEILUNGEN ...................................................45
3.3.1
3.3.2
Erwartungswert und Varianz ...........................................................................................................45
Kovarianz und Korrelation................................................................................................................46
3.4 ZUSAMMENFASSUNG ..............................................................................................................................47
3.5 ÜBUNGSAUFGABEN
.....................................................................................................................48
4 SPEZIELLE
WAHRSCHEINLICHKEITSVERTEILUNGEN .................................49
4.1 DISKRETE VERTEILUNGEN................................................................................................................49
4.1.1
4.1.2
4.1.3
4.1.4
Zweipunktverteilung.............................................................................................................................49
Diskrete Gleichverteilung...................................................................................................................49
Binomialverteilung ...............................................................................................................................50
Die Poissonverteilung ..........................................................................................................................54
4.2 SPEZIELLE STETIGE VERTEILUNGEN.........................................................................................58
4.2.1
4.2.2
4.2.3
Die stetige Gleichverteilung ..............................................................................................................60
Die Exponentialverteilung .................................................................................................................60
Die Normalverteilung (Gauß-Verteilung)...................................................................................63
4.3 ÜBUNGSAUFGABEN
5
.....................................................................................................................70
REPRODUKTIONS- UND GRENZWERTSÄTZE .............72
5.1 REPRODUKTIONSSÄTZE .......................................................................................................................72
5.2 GRENZWERTSÄTZE .................................................................................................................................74
5.3 ÜBUNGSAUFGABEN
6
....................................................................................................................................78
ZAHLENTABELLEN ..........................................................................................................79
6.1 VERTEILUNGSFUNKTION DER STANDARDNORMALVERTEILUNG .........................79
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
II
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
II. Wahrscheinlichkeitsrechnung
1 Grundlagen / Definition der Wahrscheinlichkeit
1.1 Zufälliges Ereignis / zufälliger Versuch
Def.: Zufälliger Versuch = Ein beliebig oft wiederholbarer Vorgang mit unbestimmtem
Ausgang
Zufälliges Ereignis = Ergebnis eines zufälligen Versuchs
Beispiel 1:
Zufälliger Versuch:
Zufälliges Ereignis:
1 x Würfeln
A1 = “Würfeln einer geraden Zahl”
A2 = “Würfeln einer 6”
Wir beschreiben zufällige Ereignisse nicht nur durch Aussagen, sondern (und das
ist die Regel) durch Mengen:
⇒ A 1 = {2,4,6} A 2 = {6}
⇒ Wir können weitere zufällige Ereignisse zu diesem Versuch definieren, die sich
durch Aussagenverknüpfungen (∧, ∨, ¬) oder Mengenoperationen (∩, ∪, \) bilden
lassen.
A3 – Würfeln von 2 oder 4
A3 = A1 \ A2 bzw. A 3 = {2} ∪ {4}
Bedeutungen:
Mengenlehre
A∪B
A∩B
Aussagen-Logik
A∨B
A∧B
Bedeutung
A oder B treten ein
A und B treten ein
A\B
A ∧ (¬B)
A und nicht B treten ein
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
3
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Unterschiedliche Ereignistypen:
Def.: Die Ereignisse, die man unmittelbar in einem Versuch beobachtet, heißen
Elementarereignisse (Bezeichnung: {ω}).
Ereignisse, die sich als Mengenoperationen aus den Elementarereignissen bilden
lassen, heißen zusammengesetzte Ereignisse.
Beispiel 2:
Versuch: 1 x Würfeln
Elementarereignisse: {1}, {2},...,{6}
Zusammengesetzte Ereignisse:
{123
2,4,6}
gerade Augenzahl
{112
,3,5}
3
,
, {3,4,5,6}
1
424
3
ungerade Augenzahl Augenzahl> 2
Seien {ω1}, {ω2},..., {ωm},... alle Elementarereignisse zu einem Versuch. Sei Ω:={ω1, ω2,...,
ωm,...} = {ω1}∪ {ω2}∪ ... ∪{ωm}∪... die Menge aller Elementarereignisse.
Def.: Ω heißt sicheres Ereignis (tritt immer ein!).
Ein Ereignis, das nie eintritt Ω bzw. ¬Ω heißt unmögliches Ereignis.
(
)
Bezeichnung für das unmögliche Ereignis: Φ
( Φ = Ω = Ω \ Ω)
Def.: A = Ω \ A heißt komplementäres Ereignis zu A und bedeutet: "A tritt nicht ein".
Def.: Zwei Ereignisse A und B heißen unvereinbar bzw. disjunkt, falls sie nicht gemeinsam
eintreten, d.h., falls gilt: A∩B=∅.
Alle zu einem zufälligen Versuch definierbaren Ereignisse sind Teilmengen von Ω.
Def.: Die Potenzmenge ℘(Ω) = {A | A ⊆ Ω} von Ω heißt Ereignisfeld zum zufälligen
Versuch V mit der Menge von Elementarereignissen Ω.
Def: Sei V ein zufälliger Versuch mit der Menge Ω der Elementarereignisse und dem
Ereignisfeld E. Eine Menge von n Ereignissen A1, A2, ..., An (Ai ⊆Ω ) heißt
vollständiges Ereignissystem in E, falls gilt: a) Ai ∩ A j = ∅ für i≠j und b)
n
UA
i
=Ω
i =1
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
4
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Sei V der zufällige Versuch: "1x Würfeln".
a) Geben Sie Ω an!
b) Geben Sie einige Ereignisse des Ereignisfeldes zu V an!
c) Wieviele Ereignisse enthält das Ereignisfeld zu V?
d) Geben Sie mindestens zwei vollständige Ereignis-Systeme zu V an!
Ziel: Gesucht ist eine Funktion P: A ⊆ Ω → P(A ) , die jedem Ereignis A, welches man zu
einem Versuch definieren kann, eine Wahrscheinlichkeit (Chance) P(A)
des Eintretens von A zuordnet.
Es soll gelten: a) Φ – unmögliches Ereignis
→ P( Φ) = 0 (0 % Chance des
Eintretens)
b) Ω – sicheres Ereignis
-> P(Ω) = 1 (100% Chance des
A
Eintretens)
c) A ⊆ Ω
Ω
0 ≤ P ( A) ≤ 1
->
Bedeutung der Wahrscheinlichkeit:
Sei A ⊆ Ω beliebig: P: A → P(A)
heißt
P( A) ⋅ 100% = Prozentualer Anteil des Eintretens von A bei n Versuchen
Beispiel 3:
Versuch: 2 × Münzwurf
ω = (w1 , w2 ),
{
ω i ∈ {K , Z } für i=1,2.
}
Ω = ( K, K), ( K, Z), ( Z, K), ( Z, Z)
Ereignisfeld:
(K4, 4
), (4
)},{1
(K4, 4
), (4
)},
℘(Ω) = {∅, {(K , K )},{(K , Z )},{(Z , K )},{(Z , Z )},{1
K2
K ,4
Z3
K2
Z ,4
K3
{1
(K4, 4
), (4
)},{1
(K4,4
), (4
)},...} usw.
K2
Z ,4
Z3
Z2
Z ,4
K3
2× das gleiche
1. Versuch = K
2. Versuch = K
2× versch. Ergebnisse
Ich weiß: P(Φ ) = 0,
P (Ω ) = 1
Aber wie groß ist zum Beispiel: P
({(K, K), (Z, Z)}) ?
1.2 Definition der Wahrscheinlichkeit von Ereignissen
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
5
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
1.2.1 Relative Häufigkeit von Ereignissen
Ich möchte wissen, wie groß die Chance des Eintretens eines Ereignisses A bei
Durchführung eines zufälligen Versuchs ist. Dazu führe ich den Versuch n mal durch und
berechne die relative Häufigkeit des Eintretens von A:
h n (A ) =
Anzahl der Versuche, in denen A eingetreten ist
Anzahl der Versuche ( n)
Kann man dieses Maß als Wahrscheinlichkeit P(A) verwenden?
Münzwurf:
Beispiel 4:
A = “Kopf tritt auf” = {K}
hn(K)
1
0,5
n
1
2
3
10
1000
1.000.000
Ergebnisfolge:
K,
Z,
Z,
K,
Z,
K,
Z,
Z,
Z,
Z,...
h 1 ( K) = 1
h 2 ( K) =
relative
Häufigkeiten in
Abhängigkeit
von n
1
2
h 3 ( K) =
h 10 ( K) =
1
3
3
10
Stellen wir die relative Häufigkeit hn(K) in Abhängigkeit von n dar, so sehen wir, daß sich
1
diese bei wachsendem n stets auf den Wert p = einpegelt.
2
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
6
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Würfeln A = {6}
Beispiel 5:
hn(A)
1
1, 2, 2, 5, 3, 6, 1, 6,.....
( )
h n {6} n
→ p =
→∞
1
6
1
6
n
Vorschlag: a) Wir definieren den Grenzwert p als Wahrscheinlichkeit, also
p(A ): = lim h n (A )
n →∞
→ nicht praktisch verwendbar, da er nicht berechenbar ist.
b) P(A ): = h 100 (A ) (Wir legen n auf 100 fest)
→ ist zufallsbehaftet ⇒ geht auch nicht!
Trick: Wir untersuchen, welche Eigenschaften die relative Häufigkeit hat und definieren P so,
daß P die gleichen Eigenschaften wie die relative Häufigkeit hat!
Eigenschaften der relativen Häufigkeit:
1. 0 ≤ h n (A ) ≤ 1,
0
n
= 0, h n (Ω) = = 1
n
n
2. A ⊆ B ⇒ h n (A ) ≤ h n ( B)
3.
h n (∅ ) =
(Normiertheit)
(Monotonie)
hn ( A ∪ B ) = hn ( A) + hn (B ) − hn ( A ∩ B )
Beispiel 6: Würfeln: A 1 = {2,4,6}
(Additivität)
– gerade Zahl
A 2 = {6}
A 3 = {4,5,6}
– Zahl ≥ 4
n = 10 Versuche: 2, 5, 3,
4, 6,
2 5,
6 4
1
Zu 2.) A 2 ⊆ A 1 , h n (6) =
2
6
, h n (2 ∪ 4 ∪ 6) =
10
10
Zu 3.) h n (A 1 ∪ A 3 ) = h n ( A 1 ) + h n (A 3 ) − h n ( A 1 ∩ A 3 ) f
14243
{ 2 ,4 ,5,6}
8
10
=
6
10
+
6
10
©Prof. Dr. rer. nat. B. Grabowski
−
4
10
HTW des Saarlandes (2005)
7
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
1.2.2 Axiomatische Definition der Wahrscheinlichkeit
Def.: Sei V ein zufälliger Versuch mit der Ereignismenge Ω und sei ℘(Ω) = {A| A ⊆ Ω} das
Ereignisfeld zu V. Dann heißt jede Abbildung P :℘(Ω) → [0,1] Wahrscheinlichkeitsmaß
auf ℘(Ω) , falls P folgende Eigenschaften erfüllt:
1. 0 ≤ P(A ) ≤ 1 , P(∅) = 0 , P(Ω) = 1
2. A ⊆ B → P(A ) ≤ P( B)
3. P ( A ∪ B ) = P ( A) + P (B ) − P ( A ∩ B )
∞
(Normiertheit)
(Monotonie)
(Additivität)
∞
U A ) = ∑ P( A ) , falls A ∩A =∅ für i≠j
4. P (
i
i =1
i =1
i
i
(σ-Additivität)
j
Bemerkungen: 1.) Verallgemeinerung von 3:
Seien A 1 ,..., A n paarweise disjunkt, d.h. A i ∩ A j = ∅ , für i ≠ j.
Dann gilt:
P( A 1 ∪ A 2 ∪L∪A n ) =
n
∑ P(A )
i
i =1
2.) Das Axiom 4 ist eine weitere Verallgemeinerung von Axiom 3 auf
abzählbar viele paarweise disjunkte Ereignisse.
Wenn A ∩ B = ∅ (disjunkt) ( A ∩ B treten nicht gemeinsam auf), dann
folgt aus 3:
Folgerungen: 1.
P(A ∪ B) = P(A ) + P( B)
2.
( )
P A = 1 − P (A )
(
()
)
Beweis: Zu 2.) P(Ω) = P(A ∪ (Ω \ A )) = P A ∪ A = P ( A) + P A
( )
⇒ P A = 1 − P (A )
qed.
Bei der Herstellung eines Produktes treten 2 Fehler "nicht maßhaltig" (A1)
und "nicht funktionsfähig" (A2) mit den Wahrscheinlichkeiten 0,1 bzw. 0,15
auf. Beide Fehler treten gleichzeitig bei 5% aller Produkte auf. Ein Produkt
ist nur dann verkäuflich, wenn es keinen der beiden Fehler hat. Mit welcher
Wahrscheinlichkeit ist ein Produkt verkäuflich?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
8
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
1.3 Die klassische Wahrscheinlichkeit
{
Def.: Sei V ein zufälliger Versuch. Wenn für die Menge Ω = ω1 ,..., ω m
Elementarereignisse gilt:
1. Ω = m < ∞
(Ω = endlich)
2. P({ω i }) = p ∀i = 1...m
} aller
(alle {ωi } sind gleichwahrscheinlich)
dann heißt V Laplace-Versuch. (Laplace-Versuche: typisch für Glücksspiele)
Satz: Sei V ein Laplace-Versuch, Ω = {ω 1 ,..., ω m } und sei A ⊆ Ω mit A = {ω i1 ,... ω il }
(i, j ∈{1,..., m}) . Dann gilt:
1. P ({ω i }) =
1
∀i = 1,..., m
m
2. P(A ) = l : m =
A
(Chance für das Eintreten von A)
Ω
(
) (
= P({ω }) + P({ω }) +L+ P({ω })
)
Beweis: Zu 1: P(Ω) = 1 = P {ω 1 ,..., ω m } = P {w 1 } ∪ {ω 2 }∪L∪{ω m }
1
=
⇒ p=
p
2
+
p
m
+L+
p
= m⋅p
1
m
(
) (
)
Zu 2: P(A ) = P {ω i1 ,..., ω il } = P {ω i1} ∪ {ω i 2 }∪L∪{ω il }
1
1 l
= P({ω i1 }) + L + P({ω il }) = + L + =
m
m m
ged.
Beispiel 7: 2× Werfen einer Münze
Ω = ( K, K), ( K, Z), ( Z, K), ( Z, Z)
{
P(“2 gleiche Ergebnisse”) = P
}
({(K, K), (Z, Z)}) = 2 : 4 = 21
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
9
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Beispiel 8: Spiel: 5DM Einsatz, eine Zahl zwischen 0 und 50 zufällig ziehen. Ist die Zahl
durch 6 oder 8 teilbar, bekommen Sie 20 DM.
Würden Sie dieses Spiel spielen?
Lösung: A6: Zahl ist durch 6 teilbar
A8: Zahl ist durch 8 teilbar
Ω = {1,...,50}
⇒ A6 = {6, 12, 18, 24, 30, 36, 42, 48}
A8 = {8, 16, 24, 32, 40, 48}
AG = A8 ∪ A6
AG = 12
P( A G ) =
12
50
12
= − 0,2
50
Wie groß muß der Gewinn sein, damit der Spieler (im Schnitt) keinen Verlust
macht?
12
− 5DM + xDM ⋅
= 0DM
50
50
xDM = 5DM ⋅
12
x = 20,83 DM
Wahrscheinlicher Gewinn pro Spiel: − 5DM + 20DM ⋅
Beispiel 9: Ich merke mir 6-stellige Zahl z= z1z2z3z4z5z6,
z i ∈{1,...,9}
z i ≠ z j für alle i ≠ j
Wie hoch ist die Wahrscheinlichkeit, diese Zahlen zu erraten?
9!
Ω = 9 ⋅8⋅ 7 ⋅ 6⋅5⋅ 4 =
3!
A =1
A: “richtige Zahl tippen”
P( A ) =
A
Ω
=
1 3!
= = 0,0000165
9! 9!
3!
Nützliche kombinatorische Formeln
n
n!
Möglichkeiten eine k-elementige Teilmenge aus n
Satz: a) Es gibt   =
 k  (n − k )!⋅k!
Elementen auszuwählen.
b) Es gibt genau n! Vertauschungen von n Elementen auf n Plätzen.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
10
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Beispiel 10: 32 Spielkarten (8 × 4 Farben).
Spieler zieht 2 Karten, ohne Zurücklegen. Wie groß ist die Wahrscheinlichkeit
dafür,
A1: 2 Buben
A2: 1 Bube
A3: 0 Buben
zu ziehen?
Elementarereignis
ω = {K 1 , K 2 } , i ∈{1,...,32} K 1 ≠ K 2
Ω = Menge aller 2-elementigen Teilmengen aus {K1,...,K32}
 32 31 ⋅ 32
→ Ω =  =
= 496
2
 2
Beispiel 11:
 4
4!
A1 =   =
=6
 2 2 ! 2 !
⇒ P( A 1 ) =
6
= 0,012
496
 4  28
A 2 =   ⋅   = 4 ⋅ 28 = 112
 1  1 
⇒ P( A 2 ) =
112
= 0,226
496
 28
28!
A3 =   =
= 378
 2  26! 2 !
⇒ P( A 3 ) =
378
= 0,762
496
4 × “i”
4 × “s”
2 × “p”
1 × “m”
11 Buchstaben werden der Reihe nach aus der Urne gezogen und zu einem
Wort angelegt. Wie groß ist die Wahrscheinlichkeit dafür , daß das Wort
“mississippi” entsteht?
Ω = b 1 ,..., b 11 | b i ∈{4 × i, 4 × s, 2 × p, 1 × m}
{
}
Ω = 11!
A = {b 1 ,..., b 11 | b 1 ,..., b 11 = m i s s i s s i p p i}
A = 1 ⋅ 4! ⋅ 4! ⋅ 2!
4!
4!
2!
1!
Möglichkeiten i auf 4 Plätzen anzuordnen
Möglichkeiten s auf 4 Plätzen anzuordnen
Möglichkeiten p auf 2 Plätzen anzuordnen
Möglichkeiten für m
1 4 ! ⋅ 4 ! ⋅ 2 ! ⋅ 1!
=
⇒ P( A ) =
Ω
11!
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
11
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
1.4 Bedingte Wahrscheinlichkeit und Berechnen von
Verbundwahrscheinlichkeiten
Beispiel 12: Wir betrachten eine Urne mit 2 weißen und 3 schwarzen Kugeln aus der
nacheinander Kugeln zufällig entnommen werden.
Gezogene Kugeln werden nicht zurückgelegt.
W i: weiß im i-ten Versuch
Si: schwarz im i-ten Versuch
P(W2 / W1 ) =
1
(W2 unter der Voraussetzung, daß im 1. Versuch weiß gezogen wurde )
4
2
P(W2 / S1 ) =
4
Def.: Sei V ein zufälliger Versuch mit der Menge der Elementarereignisse Ω und seien
A ⊆ Ω und B ⊆ Ω zwei Ereignisse zu diesem Versuch.
P(A ∩ B)
Dann heißt die Wahrscheinlichkeit P(A / B): =
bedingte Wahrscheinlichkeit
P( B)
von A unter der Bedingung (Zusatzinfo), daß B eingetreten ist.
Das folgende Beispiel macht die Definition der bedingten Wahrscheinlichkeit plausibel:
Beispiel 13: Kasten ● ∇ ∇ ← 300 LED’s
Farbe: rot/grün
Form: /∇
∇
grün
rot
∑
Seien
B=
40
120
160
und
∇
60
80
140
A = grün
∑
100
200
n = 300
zwei Ereignisse.
Dann gilt :
P(grün) =
100
300
P() =
160
300
©Prof. Dr. rer. nat. B. Grabowski
P(grün ∩ ) =
40
300
HTW des Saarlandes (2005)
12
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
P(A/B) = P(grün / ) =
40
=
160
P(A ∩ B)
P( B)
40
= 300
160
300
analog:
P(∇
∇ / rot) =
80
P(∇ ∩ rot )
=
200
P( rot )
Interpretation der bedingten Wahrscheinlichkeit:
A∩B
Ω
A
P(A ) =
B
A
Ω
; P(A / B) =
A∩B⋅
B⋅
1
Ω
1
Ω
=
A∩B
B
P(A / B) ⇒ Ω wird auf die Menge B eingeschränkt.
Berechnen Sie zum Beispiel 13 folgende Wahrscheinlichkeiten:
P( grün/∇), P(/rot) !
Satz : Es gilt :
Das Maß PA():= P( / A) ist für festes A∈Ω ein Wahrscheinlichkeitsmaß auf der
Potenzmenge von Ω, d.h. P( / A) erfüllt für jedes festes A∈Ω die 4 Axiome der
Wahrscheinlichkeit.
Insbesondere gilt dann auch : P ( B / A) = 1 − P ( B / A)
Achtung: Es gilt nicht !!! : P ( B / A ) = 1 − P ( B / A)
a) Berechnen Sie zur vorigen -Aufgabe die Wahrscheinlichkeit dafür, daß ein
zufällig ausgewähltes Produkt auch den Fehler A2 besitzt, wenn bekannt ist,
daß es den Fehler A1 hat!
b) Wie groß ist die Wahrscheinlichkeit, daß das Produkt den Fehler A2 nicht
hat, wenn bekannt ist, daß es bereits den Fehler A1 hat?
Berechnen von Verbundwahrscheinlichkeiten:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
13
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Die Berechnung von P(A ∩ B) nach der klassischen Methode ( P(A ∩ B) =
A∩B
Ω
) ist
manchmal sehr aufwendig. P(A ∩ B) kann man wesentlich leichter unter Verwendung der
bedingten Wahrscheinlichkeiten berechnen.
Es gilt offensichtlich:
P(A ∩ B) = P( B / A ) ⋅ P(A )
Satz: (Multiplikationssatz)
Sei Ω die Menge der Elementarereignisse zu einem zufälligen Versuch.
Seien A1, A2,...,An mit Ai ∈ Ω beliebige Ereignisse.
Dann gilt:
a) P(A 1 ∩ A 2 ) = P(A 2 / A 1 ) ⋅ P(A 1 )
b) P(A 1 ∩ A 2 ∩ A 3 ) = P(A 1 ) ⋅ P(A 2 / A 1 ) ⋅ P( A 3 / (A 1 ∩ A 2 ))
(
c) P( A 1 ∩ A 2 ∩ A 3 ∩L∩A n ) = P( A 1 ) ⋅ P(A 2 / A 1 ) ⋅ P A 3 / ( A 1 ∩ A 2 )
(
) (
)
⋅ P A 4 / ( A 1 ∩ A 2 ∩ A 3 ) ⋅ P A n / ( A 1 ∩ A 2 ∩L∩A n −1 )
)
Beweis: Vollständige Induktion über n!
P( A1 ∩ A2 ) = P( A2 / A1 ) P( A1 )
IA:
a) Es gilt:
IS: vor:
⇒
c) gilt für A 1 ,..., A n −1
c) gilt auch für A 1 ,..., A n
stellvertretend zeigen wir b):


 = P( B / A ) ⋅ P ( A )
P  (A 1 ∩ A 2 ) ∩ A
 14243 {3 

B 
A
(
= P A 3 / (A 1 ∩ A 2 )) ⋅ P(A 1 ∩ A 2 )
14243
IA a )
= P( A 3 / (A 1 ∩ A 2 )) ⋅ P(A 2 / A 1 ) ⋅ P(A 1 )
qed.
Beispiel 14:
Wi–
weiß bei i-ter Ziehung
si – schwarz bei i-ter Ziehung
P( w 1 ∩ s 2 ∩ s 3 ∩ w 4 )
(
) (
= P( w 1 ) ⋅ P ( s 2 / w 1 ) ⋅ P s 3 / ( w 1 ∩ s 2 ) ⋅ P w 4 / ( w 1 ∩ s 2 ∩ s 3 )
©Prof. Dr. rer. nat. B. Grabowski
)
HTW des Saarlandes (2005)
14
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
=
=
2
5
3
4
⋅
2
3
⋅
1
2
⋅
1
10
Beispiel 15: Zustandsautomat (Markowgraph)
1
2
1
2
1
4
1
2
1
1
2
2
1
4
3
1
2
Zustände:1 – Leitung frei
2 – Leitung belegt
3 – Leitung gestört
Leitung ändert Zustände taktweise
n
- Takt
X( n) ∈{1,2,3} – Zustand der Leitung im Takt n
Vor.:
P(X(0)= 1) = 1
(Leitung ist zu Beginn frei)
Taktweise werden die Zustände gemäß Zustandsautomat mit den
angegebenen Zustandsübergangswahrscheinlichkeiten geändert.
Offensichtlich gilt:
P( X (n) = i n / X (0) = 1, X (1) = i1 ,..., X (n − 1) = in − 1)
= P( X (n) = i / X (n − 1) = in − 1) = pi ,in −1
d.h. der Zustand imTakt n hängt nur vom Zustand im Takt n-1 ab und nicht von
der ganzen Vergangenheit! Die sogenannten (Zustands-)
Übergangswahrscheinlichkeiten hängen nicht vom Takt n ab.
(X(n), n=0,1,..., wird auch als homogene Markowkette bezeichnet)
Wie groß ist die Wahrscheinlichkeit für folgenden Zustandsverlauf:
n
i
0
1
1
1
2
2
©Prof. Dr. rer. nat. B. Grabowski
3
2
4
1
HTW des Saarlandes (2005)
15
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Nach Multiplikationssatz gilt:
P(X(0)=1 ∩ X(1) = 1 ∩ X(2) = 2 ∩ X(3) = 2 ∩ X(4) = 1)
= P(X(0) = 1) ⋅ P(X(1) = 1 / X(0) = 1) ⋅ P(X(2) = 2 / X(0) = 1 ∩ X(1) = 1) •
P(X(3) = 2 / X(0) = 1 ∩ X(1) = 1 ∩ X(2) = 2) ⋅ P(X(4) = 1 / X(0) = 1 ⋅⋅⋅ X(3) = 2)
= P(X(0) = 1) ⋅ P(X(1) = 1 / X(0) = 1) ⋅ P(X(2) = 2 / X(1) = 1) •
P(X(3) = 2 / X(2) = 2) ⋅ P(X(4) = 1 / X(3) = 2)
= 1⋅
=
1 1 1 1
⋅ ⋅ ⋅
2 2 4 2
1
32
1.5 Unabhängigkeit von Ereignissen
1
P( w 2 / w 1 ) = 
4 Ziehen ohne Zurücklegen

1
P( w 2 / s 1 ) = 
2 
2
P( w 2 / w 1 ) = 
5 Ziehen mit Zurücklegen P w = 2
( 2) 5

2
P( w 2 / s 1 ) = 
5 
Def.: Zwei Ereignisse A und B heißen stochastisch unabhängig, falls gilt:
P( A ∩ B ) = P( A) P(B )
Folgerung:
Seien A und B stochastisch unabhängig, dann gelten folgende Beziehungen:
a) P ( A / B ) = P( A) ⋅ P (B )
b) P A / B = P( A) ⋅ P B ,
(
)
( )
( )
d) P (A / B ) = P (A ) ⋅ P (B )
( )
c) P A / B = P A ⋅ P (B )
(d.h. die Wahrscheinlichkeit für das Eintreten von A bzw. A hängt nicht von B und B ab!)
Def.: A 1 , A 2 ,..., A n heißen gegenseitig stochastisch unabhängig
⇔ ∀ Teilmengen {A i1 ,..., A il } ⊆ {A 1 ,..., A n } gilt:
P(A i1 ∩ A i 2 ∩L∩A il ) = P(A in ) ⋅ P(A i 2 )⋅L⋅P(A il )
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
16
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Beispiel 16: Zwei Studenten versuchen unabhängig voneinander die gleiche StatistikAufgabe zu lösen. Jeder löst die Aufgabe mit Wahrscheinlichkeit 0,6. Wie groß
ist die Wahrscheinlichkeit dafür, daß mindestens einer der beiden die Augabe
löst?
, i = 1,2
Si – Student i löst Ausgabe
P(S i ) = 0,6
P (mindestens einer löst die Aufgabe) =
P(S1 ∪ S 2 ) = P(S1 ) + P(S 2 ) − P(S1 ∩ S 2 )
= P(S1 ) + P(S 2 ) − P(S1 ) ⋅ P(S 2 )
= 0,6 + 0,6 − 0,6 ⋅ 0,6
= 1,2 − 0,36 = 0,84
Beispiel 17: Statistik-Klausur,
10 Aufgaben
Jede Aufgabe hat 3 Antwortalternativen, von denen genau eine richtig ist.
Wie groß ist die Wahrscheinlichkeit dafür, daß ein Student, der rät, alle
Aufgaben richtig löst?
Ai – Aufgabe i richtig geraten
10
 1
P(A 1 ∩ A 2 ∩L∩A 10 ) = P(A 1 ) ⋅ P(A 2 )⋅L⋅P(A 10 ) =  
 3
(Aufgaben werden unabhängig voneinander geraten
Ratewahrscheinlichkeit = P( Ai ) = 1 / 3 )
Gerät:
Beispiel 18:
E1
E2
E3
E4
Seien folgende Ereignisse definiert :
G - Gerät ist OK, G -Gerät ist nicht OK,
Ei - Bauelement Ei ist OK, E i - Bauelement Ei ist nicht OK.
Ziel: von Ausfallhäufigkeit q des Geräts G auf Ausfallhäufigkeit einer bestimmten
Baugruppe Ei (Bauelement) schließen.
Wir vereinfachen dazu unser Modell und treffen folgende Annahmen:
1. Alle Bauelemente sind identisch
2. Alle Bauelemente fallen unabhängig voneinander und mit der gleichen Wahrscheinlichkeit
p aus: P( E i )=p, i=1,2,3,4.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
17
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
3. Funktionsweise des Gerätes :
Reihe funktioniert, falls beide Baugruppen funktionieren,
Gerät funktioniert, falls eine Reihe funktioniert.
Gegeben ist nun q=P( G ). Gesucht ist p.
Lösung: Wir stellen einen Zusammenhang zwischen p und q her:
( )
P G = P( Reihe 1 not OK ∩ Reihe 2 not OK)
= P( Reihe 1 not OK) ⋅ P( Reihe 2 not OK)
(
= 1 − P( Reihe 1 OK) ⋅ 1 − P( Reihe 2 OK))
= (1 − P( E 1 ∩ E 2 )) ⋅ (1 − P( E 3 ∩ E 4 ))
(
)(
= 1 − (1 − p) ⋅ 1 − (1 − p)
2
(
⇒ q = 1 − (1 − p)
2
)=q
)
2 2
⇔ 1− 1− q = p
Sei q = 0,1:
⇒ 1 − 1 − 0,1 = 1 − 0,827 = 0,173
D.h., die Ausfallwahrscheinlichkeit der Bauelemente darf 17,3% nicht überschreiten, damit
das Gerät mit 90%tiger Wahrscheinlichkeit nicht ausfällt.
1.6 Satz von Bayes und Formel der totalen Wahrscheinlichkeit
Beispiel 19:
wi – weiß in i-ter Ziehung
si – schwarz in i-ter Ziehung (ohne Zurücklegen)
offensichtlich ist:
3
P(w2 / s1 ) = ,
4
1
P(w2 / w1 ) = ,
2
P(s1 ) =
2
5
3
P(w1 ) =
5
Wie groß ist aber die Wahrscheinlichkeit dafür, 'Weiß' in der zweiten Ziehung zu
ziehen (unabhängig davon, was beim ersten Mal gezogen wurde)?
Es gilt:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
18
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
P(w2 ) = P((w2 ∩ w1 ) ∪ (w2 ∩ s1 ))
= P(w2 ∩ w1 ) + P(w2 ∩ s1 )
= P(w2 / w1 ) ⋅ P(w1 ) + p(w2 / s1 ) ⋅ P(s1 )
=
1 3 3 2 3
⋅ + ⋅ =
2 5 4 5 5
Satz.: Sei V ein zufälliger Versuch mit der Menge Ω von Elementarereignissen, sei E das
Ereignisfeld zu V.
Seien weiterhin B⊆Ω ein beliebiges Ereignis zu V und A1,...,An ein vollständiges
Ereignissystem in E (d.h., Ai ⊆ Ω∀i = 1,..., n , A i ∩ A j = ∅ für i ≠ j und
A 1 ∪ A 2 ∪L∪A n = Ω ).
Dann gilt:
P( B) = P( B / A 1 ) ⋅ P(A 1 ) + P( B / A 2 ) ⋅ P(A 2 )+L+ P( B / A n ) ⋅ P(A n )
(Formel der totalen Wahrscheinlichkeit).
Beweis:
A1
Ω
A2
B
A3
An
P(B ) = P((B ∩ A1 ) ∪ (B ∩ A2 ) ∪ L ∪ (B ∩ An ))
= P(B ∩ A1 ) + L+ P(B ∩ An )
= P(B / A1 ) ⋅ P( A1 ) +L+ P(B / An ) ⋅ P( An )
qed.
Satz: (von Bayes)
a) Es gilt: P(A / B) =
P (A ) ⋅ P ( B / A )
P( B)
b) (Verallgemeinerung):
Seien A i ⊆ Ω i = 1,..., n Ereignisse mit A i ∩ A j und A 1 ∪ A 2 ∪L∪A n = Ω . Sei
B⊆Ω.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
19
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
Dann gilt:
P(A i / B) =
P(A i ) ⋅ P( B / A i )
P( B)
=
P(A i ) ⋅ P( B / A i )
n
∑ P( A ) ⋅ P( B / A )
j
j
j=1
Beweis: zu a) P(A / B) =
P(A ∩ B)
=
P( B)
P( B / A ) ⋅ P(A )
P( B)
zu b) analog
qed.
Anwendung der Sätze zu folgenden Fällen:
P(A )
Gegeben:
P(A / B)
Gesucht:
, P( B / A )
Beispiel 20: Sei A – technische Fehlerart, die mit 10 % bei allen Geräten eines bestimmten
Typs vorkommt
B – Merkmal, anhand dessen die Fehlerart A diagnostiziert werden kann
Merkmal
TechB
niker
B
Entscheidung
A (defekt)
A (nicht
defekt)
Fehlentscheidung: Das Merkmal tritt nicht auf ( B ), aber Gerät ist trotzdem
defekt (A).
Das Merkmal B tritt auf, aber die Gerät ist O.K ( A )
Wirklichkeit
O.K
A
- ---
Ent-
O.K
B
scheidung defekt
B
P( A /B)
Fehlentscheidungswahrscheinlichkeiten:
(
----
)
– Wahrscheinlichkeit dafür, dass ein Gerät defekt ist, welches als
)
gesund eingestuft wurde.
– Wahrscheinlichkeit dafür, dass ein Gerät O.K ist, welches als defekt
PA/B
(
defekt
A
P(A/ B )
P A/B
eingestuft wurde.
Ziel: Ein solches Merkmal B finden, dass die Wahrscheinlichkeit für Fehlentscheidungen
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
20
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
gering ist!
geg.: P( B / A ) = 0,8
(
)
(
)
P B / A = 0,3
(
)
P(A ) = 0,1
ges.: P A / B , P A / B
Wie groß sind die Fehlerwahrscheinlichkeiten für unser Merkmal?
Anwendung des Satzes von Bayes und “totaler Wahrscheinlichkeit”:
(
)
(
)
Es gilt: P A / B =
(
)
P B / A ⋅ P(A )
( )
P B
 NR: P B / A = 1 − P( B / A ) = 0,2





und


P( B) = P( B / A ) ⋅ P(A ) + P B / A ⋅ P A 



= 0,8 ⋅ 0,1 + 0,3 ⋅ 0,9




= 0,35




P
B
P
B
,
⇒
=
−
=
1
0
65
(
)


(
) ( )
( )
0,2 ⋅ 0,1 0,02 2
=
=
= 0,03
0,65
0,65 65
⇒ In 3 % aller Diagnosen wird ein defektes Gerät als O.K eingestuft!
(
)
⇒P A/ B =
(
)
Berechnen Sie zu Beispiel 20 die Irrtumswahrscheinlichkeit P A / B !
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
21
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
1.7 Übungsaufgaben
1. Ein zufälliger Versuch bestehe im Werfen zweier Würfel. Man berechne die
Wahrscheinlichkeit dafür, daß die Summe 6, 7 oder 8 ist!
(Hinweis: Klassische Wahrscheinlichkeitsdefinition benutzen!)
2. Jemand bewirbt sich bei zwei Firmen A und B. Die Wahrscheinlichkeit der Annahme
seiner Bewerbung schätzt er bei Firma A mit 0,5 und bei Firma B mit 0,6 ein. Weiterhin
rechnet er mit einer Wahrscheinlichkeit von 0,3 von beiden Firmen angenommen zu
werden.
Wie groß ist die Wahrscheinlichkeit dafür, von wenigstens einer der beiden Firmen eine
Zusage zu erhalten?
(Hinweis: Axiom 3 benutzen!)
3. (Aus einer USA-Studie über den Zusammenhang zwischen Hautfarbe und
Beschäftigungsstatus)
Es werden folgende Symbole benutzt: F – Farbig, W–Weiß, B – Beschäftigt, U –
Arbeitslos.
Bei einer Untersuchung der Bevölkerung auf Hautfarbe und Beschäftigungsstatus ergab
sich folgende Häufigkeitstabelle:
U
B
W
6.604.000
F
1.418.000
Total
8.022.000
83.549.000
8.838.000
92.387.000
a) Vervollständigen Sie die Tabelle!
b) Berechnen Sie für ein zufälliges Individuum die Wahrscheinlichkeiten: P(U), P(F), P(U/F)!
c) Sind dei Ereignisse "die Hautfarbe ist weiß" und " Beschäftigt" stochastisch
unabhängig voneinander?
4. G sei ein Gerät mit 2n parallel geschalteten Bauelementen gleichen Typs. Dabei sind
jeweils 2 Bauelemente in Reihe geschaltet.
Das Gerät fällt aus, falls die Reihe ausfallen.
Eine Reihe fällt aus, falls eines der beiden Bauelemente ausfällt.
Die Bauelemente Ei j fallen unabhängig voneinander mit der gleichen Wahrscheinlichkeit
P(Ei j = not OK) = 0,1 für alle i = 1,...,n; j = 1, 2, aus.
Wieviele Reihen muß das Gerät haben, damit die Ausfallwahrscheinlichkeit p des
Gerätes 0,1 % nicht überschreitet, d.h. damit gilt
p = P(G = not OK) ≤ 0,001 ?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
22
Kapitel II
Wahrscheinlichkeitsrechnung-Grundlagen
G
E11
E12
E21
E22
En1
En2
5. 50 % einer bestimmten Population seien Frauen, 30 % Männer, 20 % Kinder.
5 % der Männer, 1 % der Frauen und 0,5 % der Kinder seien zuckerkrank.
a) Wie groß ist die Wahrscheinlichkeit dafür, daß eine zufällig ausgewählte Person
zuckerkrank ist?
b) Sind die Ereignisse “Die Person ist zuckerkrank” und “Die Person ist weiblich”
stochastisch unabhängig voneinander?
c) Eine zufällig ausgewählte Person ist zuckerkrank. Mit welcher Wahrscheinlichkeit ist
diese Person ein Mann?
(Hinweis: Satz von Bayes, Formel der totalen Wahrscheinlichkeit)
6. Ein Arzt hat es sich zur Lebensaufgabe gemacht, zu diagnostizieren, ob eine von zwei
Krankheiten A1 oder A2 oder keine von beiden bei einem Patienten vorliegen.
Der Arzt diagnostiziert dabei anhand der Beobachtung eines bestimmten Blutwertes,
ob der Patient eine der beiden Krankheiten hat oder nicht; d.h. die Diagnoseregel des
Arztes lautet:
Blutwert erhöht entweder nur A1 oder nur A2 oder beide Krankheiten liegen vor
Blutwert nicht erhöht weder A1 noch A2 liegen vor.
Es sei bekannt, daß bei 90% aller Personen, die sowohl A1 als auch A2 haben der Blutwert
erhöht ist; sowie bei 80% aller Personen, die nur die Krankheit A1 haben (und nicht A2), bei
70% aller Personen, die nur A2 haben (und nicht A1) und in 10% aller Fälle, die weder A1
noch A2 haben. Weiterhin sei bekannt, daß A2 mit 5%iger Wahrscheinlichkeit und A1 mit
2%iger Wahrscheinlichkeit in der Bevölkerung vorkommen, und 20% der Personen, die A1
haben, auch die Krankheit A2 haben.
Berechnen Sie die Wahrscheinlichkeit dafür,
a) daß eine Person einen erhöhten Blutwert und die Krankheit A1 hat,
b) daß eine Person, die einen erhöhten Blutwert aufweist, die Krankheit A1 hat!
c) daß eine Person, die einen erhöhten Blutwert hat, weder A1 noch A2 hat!
Hinweis: Berechnen Sie zunächst die Wahrscheinlichkeiten für folgende 4 Fälle:
- A1 und A2 liegen vor
- A1 und nicht A2 liegt vor
- A2 und nicht A1 liegt vor
- Weder A1 noch A2 liegt vor
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
23
Kapitel II
Zufallsgrößen und ihre Verteilungen
2 Zufallsgrößen und ihre Verteilungen
2.1 Zufallsgrößen (Wiederholung)
Def.: Zufallsgrößen sind zufällige Merkmale, die in einem zufälligen Versuch beobachtet
werden und deren Merkmalsausprägungen (Realisierungen) durch Zahlenwerte (direkt
oder durch Skalierung) charakterisiert werden.
X – Zufallsgröße
x – Realisierung, Beobachtung
X – Wertebereich von X,
X = {a 1 ,..., a k ,...}
∃ [ a , b] ⊆ X
Zufallsgröße
X – Blutgruppe
X – Anzahl der
Wappen bei 2×
Münzwurf
→ diskret
→ X stetig
Merkmalswerte
A, B, AB, ∅
ω = (M1 , M 2 )
Realisierung
0, 1, 2, 3
0, 1, 2
(K, K)
(K, Z)
2
M i ∈{K, Z}
Typ
diskret (nominal)
diskret (ordinal)
(festgelegte
Bedeutung der
Zahlen)
1
(Z, K)
(Z, Z)
0
[0, )
T – zufällige
Lebensdauer
stetig (proportional)
Uns interessieren folgende Wahrscheinlichkeiten:
1. P(X = x) – Wahrscheinlichkeit dafür, daß X den Wert x annimmt
2. P(a ≤ X ≤ b) – Wahrscheinlichkeit dafür, daß X ∈ [a, b]
3. P(X ≥ a), P(X ≤ a)
2.2 Wahrscheinlichkeitsverteilung diskreter Zufallsgrößen
Sei X – diskret,
X = {a 1 ,..., a k ,...} .
Wir benötigen nur pi = P(X = ai) für i = 1,..., k ,...
Mit Hilfe der pi können Sie alle Wahrscheinlichkeiten 1.–3. berechnen:
P(5 ≤ X ≤ 8) =
P(X = 5 ∨ X = 6 ∨ X = 7 ∨ X = 8) = P(X = 5) + P(X = 6) + P(X = 7) + P(X = 8)
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
24
Kapitel II
Zufallsgrößen und ihre Verteilungen
⇒ P(a ≤ X ≤ b) =
∑ P( X = a )
P(X ≥ a) =
und
i
ai :a ≤ ai ≤b
∑
P(X = ai)
a i :a i ≥ a
Def.: Die Gesamtheit ((pi = P(X = ai), ai ∈ X )) heißt Wahrscheinlichkeitsverteilung von X.
Darstellung:
grafisch:
Pi
Pi
p3
.....
p1
X
a1
a2
ak
p2
X
tabellarisch:
X
pi
a1
p1
a2
p2
ak
pk
analytisch als Funktion: p i = f (i, a i )
Beispiel 25: Zufallsexperiment: Werfen zweier Münzen
X – “Anzahl K”, X = {0,1,2,3} ,
Ω=
{( K, K), (K, Z), ( Z, K), ( Z, Z)}
X
X={
2
1
0 }
Gesucht: Wahrscheinlichkeitsverteilung von X
X
pi
0
p0
1
p1
p0 = P(X = 0) = P((Z, Z)) =
p1 = P(X = 1) = P
X
pi
2
p2
1
4
( {(K, Z), (Z, K)} ) = 42 = 21
0
1
2
1
4
1
2
1
4
Verallgemeinerung: (Berechnung der pi)
Man betrachte die Zufallsgröße X als Abbildung von Ω in X:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
25
Kapitel II
Zufallsgrößen und ihre Verteilungen
X⊆ℜ
X:Ω →
Äquivalenz von Ereignissen:
{
}
' X = x' ⇔ A = ω ∈ Ω | X(ω ) = x ⊆ Ω
⇒ P( X = x ) = P( A ) =
A
Ω
Beispiel 26: Versuch: Würfeln mit 2 Würfeln
X – Summe der Augenzahlen
ges.: Wahrscheinlichkeitsverteilung von X:
X
pi
2
p2
3
p3
4
p4
...
...
12
p12
pi = P( X = i ) , i = 2,...,12
i
ω
2
X( ω ) = i
A
(11,)
pi
Wahrscheinlichkeitsverteilung von X
1
3
(1,2) ( 2,1)
2
4
(1,2) ( 2,2) ( 3,1)
3
5
(1,4) ( 3,2) ( 2,3) ( 4,1)
4
6
(1,5) ( 2,4) ( 3,3) ( 4,2) (5,1)
5
7
(1,6) ( 2,5) ( 3,4) ( 4,3) (5,2) ( 6,1)
6
8
( 2,6) ( 3,5) ( 4,4) (5,3) ( 6,2)
5
9
( 3,6) ( 4,5) (5,4) ( 6,3)
4
10
( 4,6) (5,5) ( 6,4)
3
11
(5,6) ( 6,5)
2
12
( 6,6)
1
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
allgemein:
mit
 (i − 1)


p i =  36
 (13 − i)
 36
ω = ( w1 , w2 )
w i ∈ {1,...,6}
X( ω ) = w 1 + w 2
Ω = 36
i = 2,3,...,7
i = 8,9,...,12
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
26
Kapitel II
Zufallsgrößen und ihre Verteilungen
Beispiel 27: (Anwendung der Gesetze zum Rechnen mit Wahrscheinlichkeiten)
k Schlüssel
nur einer ist richtig!
a) Besoffen: Auswahl (Probieren) eines Schlüssels mit Zurücklegen
b) Nüchtern: Auswahl (Probieren) eines Schlüssels ohne Zurücklegen
Frage: Wie groß ist die mittlere Zahl der Versuche bis zum Finden des richtigen
Schlüssels?
Lösung: Wir berechnen zunächst die Wahrscheinlichkeitsverteilung für die
Anzahl X der Versuche bis zum Finden des richtigen Schlüssels:
1
0
Sei X i = 
Schlüssel
nicht
gefunden
das Ergebnis im i.-ten Versuch.
Schlüssel gefunden
zu a) X = {1,2,..., k}
pi = P( X = i ) = P(X 1 = 0 ∧ X 2 = 0 ∧ L∧ X i −1 = 0∧ X i = 1)
= P(X 1 = 0) ⋅ P( X 2 = 0) ⋅ L ⋅ P( X i −1= 0) ⋅ P( X i = 1)
k −1
⋅
k
=
i −1
k − 1)
(
p :=
i
,k ≥ 2
ki
Bsp.: k = 4
p1 =
1
,
4
k −1
⋅L⋅
k
k −1
k
⋅
k
k
=
( k − 1) i −1
ki
∀ i = 1,2,...
p2 =
(3) ,
4
p3 =
32
42
 3
L pi =  
 4
i −1
⋅
1
4
zu b) X = {1,2,..., k}
pi = P( X = i ) = P(X 1 = 0∧ X 2 = 0∧L∧ X i −1 = 0∧ X i = 1)
= P(X 1 = 0 ) ⋅ P(X 2 = 0/X1 = 0) ⋅ P( X 3 = 0/(X 1 = 0∧ X 2 = 0) ) ⋅ L ⋅
P( X i −1 = 0 /( X 1 = 0 ∧ ... ∧ X i − 2 = 0) ⋅ P(X i = 1/(X 1 = 0 ∧ ... ∧ X i −1 = 0) )
k −1
⋅
k
=
=
⇒ pi =
1
k
k−2
⋅L⋅
k −1
k−3
⋅
k−2
k − (i − 1)
k − (i − 1) + 1
⋅
1
k − (i − 1)
1
k
∀ i = 1,..., k
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
27
Kapitel II
Zufallsgrößen und ihre Verteilungen
Um die o.g.Frage nach der mittleren Anzahl der Versuche bis zum Finden des richtigen
Schlüssels zu beantworten, benötigen wir den Begriff des Erwartungswertes einer
Zufallsgröße, der im nächsten abschnitt eingeführt wird.
2.3 Parameter diskreter Verteilungen
2.3.1 Erwartungswert, Varianz und Verteilungsfunktion
X = {a 1 , a 2 ,..., a k }
Sei X – diskret,
Wahrscheinlichkeitsrechnung
deskriptive Statistik
ai
a1
a2
hn(ai)
hn(a1)
hn(a2)
ak
hn(ak)

→
n →∞
hn (ai ) → pi
n →∞
ai
a1
pi = P(X = ai)
p1
ak
pk
rel. Häufigkeitsverteilung
Wahrscheinlichkeitsverteilung
Aus der Konvergenz der relativen Häufigkeit gegen die Wahrscheinlichkeit ergibt sich:
arithm. Mittel:
1 k
x=
xi
n i =1
∑
=
n
→
→∞
k
∑ a h (a )
i
n
EX =
k
∑a p
i
i
– Erwartungswert von X
i =1
i
i =1
Streuung:
s2 =
1 n
( x i − x )2
∑
n − 1 i =1
=
1 k
2
∑ (ai − x ) ⋅ H n (ai )
n − 1 i =1
=
n
n −1
k
∑ (a
i =1
− x ) ⋅ h n (a i )
2
i
n
→
→∞ ( X ) =
Var
k
∑ (a
i =1
− EX) ⋅ p i - Varianz von X
2
i
Empirische Verteilungsfunktion:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
28
Kapitel II
Zufallsgrößen und ihre Verteilungen
Fn ( x ) =
∑ h (a )
i:ai ≤ x
n
n
→ F( x) =
→∞
i
∑p
i
i:a i ≤ x
= P( X ≤ x )
– Verteilungsfunktion von X – Anteil aller
Beobachtungen
x j , j = 1,..., n mit
xj ≤ x
Def.: Sei X diskret, X = {a 1 , a 2 ,..., a k ,...} und sei p i = P( X = a i ), i = 1,2,...
Dann heißt:
∞
EX := ∑ ai pi - Erwartungswert von X
i =1
∞
Var (X) := ∑ (ai − EX ) ⋅ pi - Varianz von X
2
i =1
F(x ) = P( X ≤ x ) - Verteilungsfunktion von X
Zu Beispiel 27:
k = 4, sei X – Zahl Versuche bis Finden des richtigen Schlüssels (ohne
Zurücklegen)
p i = P( X = i ) =
1
i = 1,2,3,4
4
Wieviel Versuche brauche ich im Mittel?
1
1
1
1
EX = 1 ⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ = 1 ⋅ 0,25 + 2 ⋅ 0,25 + 3 ⋅ 0,25 + 4 ⋅ 0,25 = 2,5
4
4
4
4
Zeigen Sie für das Beispiel 27 Fall a) daß für die erwartete Anzahl von
Versuchen bis zum Finden des richtigen Schlüssels gilt
 ∞  k − 1  i −1  1
⋅ = k
EX := ∑ i ⋅ pi =  ∑ i ⋅
 i =1  k   k
i =1


∞
:
Würfeln mit 2 Würfeln, Spiel: 1 DM Einsatz
Beispiel 28:
Gewinn: 10 DM – Summe der Augenzahlen = 12
5 DM – Summe der Augenzahlen = 6
1 DM – Summe der Augenzahlen = 2
Würden Sie dieses Spiel spielen?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
29
Kapitel II
Zufallsgrößen und ihre Verteilungen
⇒ Berechnung des erwarteten Gewinns pro Spiel:
p i = P( X = i )
Sei X – Summe der Augenzahlen und Y Gewinn bei Augenzahl X,
Gewinn X
pi
⇒
2
1
36
1
3
4
5
6
5
36
5
7
8
9
10
11
0
0
0
0
0
0
0
0
Gewinn Y
5
1
29
1
P(Y = 1) =
, P (Y = 5) =
, P (Y = 10 ) =
, P (Y = 0 ) =
.
36
36
36
36
EY = 1 ⋅
12
1
36
10
1
5
1
29
+ 5⋅
+ 10 ⋅
+ 0⋅
= 1 DM
36
36
36
36
Erwarteter realer Gewinn: EY – Einsatz = 0 DM
2.3.2 Quantile diskreter Verteilungen
Def.: Sei X diskret, X = {a 1 ,..., a k ,...} und sei p i = P( X = a i ),
i = 1,2,..., k ,... die
Wahrscheinlichkeitsverteilung von X und sei F ( x) = P ( X ≤ x ) =
∑p
ai ≤ x
Verteilungsfunktion von X. Dann heißt xα mit F( x α ) ≤ α < F( x α + ε )
α-Quantil der Verteilung X.
i
die
∀ ε > 0,
2.4 Stetige Zufallsgrößen und ihre Verteilungen, Verteilungsfunktion und
Verteilungsdichte
X – stetig, d.h. ∃ [a , b] ⊆ X .
Die Wahrscheinlichkeiten stetiger Zufallsgrößen werden mit Hilfe der Verteilungsfunktion
F(x) berechnet.
Die Gestalt der Verteilungsfunktion für stetige Zufallsgrößen erhalten wir, indem wir den
Übergang eines endlichen Wertebereich X = {a 1 ,..., a k } zu einem kontinuierlichen Bereich
betrachten (siehe folgende Abbildungen!).
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
30
Kapitel II
Zufallsgrößen und ihre Verteilungen
X ∈ X = {a 1 ,..., a k }
Diskrete Verteilungsfunktion:
F(x)
[
1
{
[
P2
{
[
P1
)
)
)
a1
X
a2
a3
ak
F(x)
1
X
a1
k groß
ak
Übegang zur stetigen Verteilungsfunktion:
F(x)
1
Stetiges F(x)
X
X stetig
kontinuierliches X
Def.: Wir bezeichnen jede Funktion F(x) mit folgenden Eigenschaften als
Verteilungsfunktion F ( x) = P ( X ≤ x ) von X:
0 ≤ F ( x) ≤ 1
1. ∀ x ∈ X :
2. x 1 ≤ x 2
→
F( x 1 ) ≤ F( x 2 )
(F: monoton wachsend)
3. lim F ( x) = 0, lim F ( x) = 1
x → −∞
x → +∞
4. F(x) ist überall stetig
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
31
Kapitel II
Zufallsgrößen und ihre Verteilungen
Folgerung: 1.–4. ⇒ F(x) ist bis auf höchstens endlich viele Stellen differenzierbar, und die
Ableitungen f ( x) = F ′( x) sind bis auf endlich viele Stellen auch stetig.
Def.: Die Ableitung F ′( x) = f ( x), x ∈ X heißt Wahrscheinlichkeitsdichte (Dichtefunktion)
von X.
x
F ( x) =
Es gilt:
∫ f (t )dt
−∞
Die Dichtefunktion hat folgende Eigenschaften:
1. f ( x) ≥ 0
∞
2.
∫ f ( x)dx = 1
−∞
Überlegen Sie sich anhand einer Grafik, wie die
Wahrscheinlichkeitsverteilung einer diskreten Zufallsgröße bei
Übergang zu einem kontinuierlichen Wertebereich (zu einer stetigen
Zufallsgröße) aussieht !
Wie kann man Wahrscheinlichkeiten, z.B. P(a<X<b), im stetigen Fall
berechnen?
Berechnung von Wahrscheinlichkeiten:
1. P ( X ≤ b ) = F (b) =
b
∫ f ( x)dx
−∞
2. P ( X ≥ a ) = 1 − P ( X ≤ a ) = 1 − F (a ) =
∞
∫ f ( x)dx
a
3. P (a ≤ X ≤ b ) = F (b) − F (a )
Graphisch:
f (x)
F (b) = P (X ≤ b)
X
b
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
32
Kapitel II
Zufallsgrößen und ihre Verteilungen
f (x)
P (X ≥ a)
X
a
f(x)
P(a ≤ X ≤ b)
X
a
b
Zu 3.) F (b) = P ( X ≤ b ) = P ( X < a ∨ X ∈ [a, b])
= P( X < a ) + P( a ≤ X ≤ b )
⇒ P( a ≤ X ≤ b ) = P( X ≤ b ) − P ( X < a )
= P( X ≤ b ) − P ( X ≤ a )
Es gilt weiterhin:
1
4. P( X = a ) = = 0
∞
5. P( X ≤ a ) = P( X < a ∨ X = a )
= P( X < a ) + P( X = a )
= P( X < a )
⇒ Zur Berechnung von Wahrscheinlichkeiten stetiger Zufallsgrößen benötigen wir “nur” die
Kenntnis von F(x) bzw. f(x).
Beispiel 29:
Sei X die Verspätung der U-Bahn an einer bestimmten Haltestelle.
X besitze folgende Dichtefunktion:
0,5 − 0,125 x für 0 ≤ x ≤ 4
f ( x) = 
0 für x ∉ [0,4]
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
33
Kapitel II
Zufallsgrößen und ihre Verteilungen
f(x)
0,5
X
2
1
3
5
4
Gesucht.: Wahrscheinlichkeit dafür, daß die Verspätung zwischen 1 und 2
Minuten liegt!
Lös.: P ( X ≤ 2 ) =
2
∫ f ( x)dx
1
2
=
∫ (0,5 − 0,125x)dx
1
2
1
5

1
= 0,312
=  x − x2  =
16  1 16
2
2.5 Parameter stetiger Verteilungen
2.5.1 Erwartungswert und Varianz
Übergang zu kontinuierlichem Wertebereich:
k
∑ (a
i =1
∞
i =1
−∞
∞
EX = ∑ a i pi →
X – diskret
Var ( X) =
k
− EX) p i
2
i
∫ x ⋅ f ( x)dx = EX
∫ (x − EX )
→
2
⋅ f ( x)dx =Var(X)
−∞
Def.: Sei X eine stetige Zufallsgröße. Dann heißen EX =
∞
∫ x ⋅ f ( x)dx Erwartungswert von X
−∞
und Var ( X ) =
∞
∫ (x − EX )
2
⋅ f ( x)dx Varianz von X.
−∞
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
34
Kapitel II
Zufallsgrößen und ihre Verteilungen
Beispiel 30: U-Bahn
ges.: Erwartete Verspätung der U-Bahn
EX =
∞
4
−∞
0
1 
1
∫ x ⋅ f ( x)dx = ∫ x 2 − 8 x dx
4
64 4
1 3
1
= ≈ 1 min 20 sek
=  x2 −
x  = 4−
24 3
24  0
4
2.5.2 Quantile
Def.: Sei X eine stetige Zufallsgröße mit der Verteilungsfunktion F(x) und Verteilungsdichte
f(x).
xα
Der Wert xα ∈ X, für den gilt: F(xα) = α bzw.
∫ f ( x)dx = P( X ≤ xα ) = α
heißt (unteres)
−∞
α–Quantil.
X
xα
Beispiel 31: Sei X die zufällige Dauer von Telefongesprächen und sei die Dichte von X
1
1 − x
durch f ( x) = e 5 gegeben.
5
a) Wie groß ist die mittlere Gesprächsdauer?
b) Welche Zeit überschreiten 80 % der Gespräche nicht?
c) Wie groß ist die Wahrscheinlichkeit dafür, daß die zufällige Gesprächsdauer
> 10 min ist? (Wie groß ist der Anteil aller Gespräche, die länger als 10 min.
dauern?)
Zu a) Mit α = 1/5 gilt:
EX =
∞
∞
−∞
0
−αx
∫ x ⋅ f ( x)dx = ∫ x ⋅ αe dx
∞
=α ⋅∫ x⋅e
−αx
→ partielle Integration
dx
0
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
35
Kapitel II
Zufallsgrößen und ihre Verteilungen
 − x −αx ∞ 1 ∞ −αx 
=  [
⋅ e ]0 + ∫ e dx  ⋅ α
α
α0


∞
1
 − x −αx

=
⋅ e − 2 e −αx dx  ⋅ α
α
α
0
1
1
= + 2 ⋅α =
α
α
1
Ergebnis: f ( x) =
1 −5x
1
1
EX = =
= 5 min.
⋅e
α  1
5
 
 5
Zu b)
0,8
80 %
t
⇒ Wir müssen das 80 % Quantil t0,8 berechnen!
t0,8
t 0,8 : ∫ f ( x)dx = 0,8
0
t0,8
↔
∫ 5⋅e
1
− x
5
diese Gleichung ist nach t0,8 aufzulösen!
dx = 0,8
0
t0 , 8
 −1 x 
↔ − e 5  = 0,8

0
↔ 1− e
1
− t0 , 8
5
= 0,8
↔ 1 − 0,8 = e
−
t0 , 8
5
↔ ln(1 − 0,8) = −
|ln
t 0 ,8
5
⇒ t 0,8 = −5 ⋅ ln(0,2) = −5 ⋅ ( − 1,6) = 8 min.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
36
Kapitel II
Zufallsgrößen und ihre Verteilungen
1
10
1 − x
P( X > 10 ) = 1 − ∫ ⋅ e 5 dx
5
0
Zu c)
10
 − 15 x

 − 15 x 
= 1 − − e  = 1 − − e − (− 1)



0
= 1 + e −2 − 1 = e −2 = 0,135 = 13,5%
2.6 Eigenschaften von Erwartungswerten und Varianz von Zufallsgrößen
X – diskret oder stetig (beliebig)
Satz: 1.) E(aX) = aEX
2.) E(a ) = a
3.) E( X + Y) = EX + EY
4.) E( X ⋅ Y) = ( EX) ⋅ ( EY)
Beweis.:
falls X und Y stochastisch unabhängig
Zu 4.) Seien X und Y diskret,
Z = X⋅Y
(
{
k
∈ Z = a i ⋅ b j | ij==11,...,
,...,l
) (
}
→ P Z = ai ⋅ b j = P X = ai ∧ Y = b j
=
stoch. unabh.
⇒ EZ = E( X ⋅ Y) =
X = {a 1 ,..., a k } ,
Y = {b 1 ,..., b k }
)
P( X = a i ) ⋅ P ( Y = b i )
∑a
i
(
⋅ b j ⋅ P Z = ai ⋅ b j
)
i, j
=
k
l
∑∑a
i =1 j=1
=
i
(
⋅ b j ⋅ P( X = a i ) ⋅ P Y = b j
k
)
l
∑ a ⋅ P( X = a ) ⋅ ∑ b ⋅ P( Y = b )
i
i
j
i =1
=
j
j=1
EX
⋅
EY
Satz: Es gilt:
2
2
1.) Var ( X ) = E X 2 − E [X ] = E ( X − EX )
2.) Var (a ) = 0
[ ]
3.) Var (aX + b ) = a 2 ⋅ Var ( X )
4.) Var (aX + bY ) = a 2 ⋅ Var ( X ) + b 2 ⋅ Var (Y ) , falls X und Y stochastisch
unabhängig sind
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
37
Kapitel II
Zufallsgrößen und ihre Verteilungen
Beweis: Zu 3.) X stetig
Var (aX + b ) =
∞
∫ (ax + b − E (aX + b ))
2
⋅ f ( x)dx
−∞
=
∞
∫ (ax − a ⋅ EX )
2
⋅ f ( x)dx
−∞
=
∞
∫ a (x − EX )
2
2
⋅ f ( x)dx
−∞
= a 2 ⋅ Var ( X )
Seien X und Y Zufallsgrößen mit EX = 3 und Var (X) = 1 bzw. EY = 10 und
Beispiel 32:
Var (Y) = 2.
Gesucht: Lineare Transformation Y ′ = aY + b von Y so, daß EY ′ = EX und
Var Y ′ = Var X .
Lösung:
EY ′ = EX ↔ E(aY + b) = 3
↔ a ⋅ EY + b = 3
Var (Y ′) = Var ( X) ↔ Var (aY + b) = 1
↔ a 2 ⋅ Var (Y) = 1
⇒a=±
Ergebnis:
Beispiel 33:
1
= ±0,707
2
Y ′ = 0,707 X − 4,07
↔ a ⋅ 10 + b = 3
↔ a2 ⋅ 2 = 1
b1 = 3 − 7,07 = −4,07
oder
b2 = 3 + 7,07 = 10,07
Y ′ = −0,707 X + 10,07
Seien µ: = EX, σ 2 = Var ( X)
1
1
 X − µ 1
E
 = ⋅ E( X − µ ) = ⋅ ( EX − Eµ ) = ⋅ ( EX − µ ) = 0
 σ  σ
σ
σ
1
1
 X − µ
Var 
⋅ Var ( X − µ ) = 2 ⋅ Var ( X) = 1
=
 σ  σ2
σ
Def.: Eine Zufallsgröße X mit EX = 0 und Var (X)=1 heißt Standardisierte Zufallsgröße
X − EX
X→
– Standardisierung einer Zufallsgröße
Var ( X)
Def.:
Var ( X)
– Standardabweichung von X.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
38
Kapitel II
Zufallsgrößen und ihre Verteilungen
2.7 Die Tschebyscheff-Ungleichung
Satz: Es gilt:
((
) )
((
) )
a ) P X − EX > ε ≤
Var ( X)
ε
b) P X − EX ≤ ε ≥ 1 −



∀ ε > 0


2
Var ( X)
ε2
Wir können also Wahrscheinlichkeiten ohne Kenntnis der Verteilung abschätzen, nur durch
Verwendung von EX, Var(X).
Beispiel 34: Produktion von Schrauben (∅ = 5mm – Norm! =: nd)
X – zufälliger Schraubendurchmesser
Es gilt:
EX = nd
und
Var X = 0,0025 mm2
Ausschuß: Jede Schraube, die um mehr als 0,12 mm vom nd abweicht.
Ges.: Ausschußrate der Produktion
(
Lös.: P X − nd > 012 mm) ≤
Satz a)
Var ( X)
(0,12)
2
mm
2
=
0,0025
(0,12) 2
= 0,173 = 17,3%
⇒ Ausschußrate überschreitet 17,3 % nicht!
2.8 Hauptsatz der Statistik
→ p i = P( X = a i ) beruht auf dem Hauptsatz der Statistik.
Die Konvergenz von h n (a i ) n
→∞
Satz: (Hauptsatz der Statistik)
Es gilt:


P  lim sup Fn ( x) − F( x) = 0 = 1
 n→∞ x∈ℵ

©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
39
Kapitel II
2.9 Übungsaufgaben
Zufallsgrößen und ihre Verteilungen
1. In einer Sendung von 8 Stück befinden sich 2 fehlerhafte Stücke. Es werden zufällig n = 3
Stück nacheinander ohne Zurücklegen entnommen.
X sei die zufällige Anzahl der fehlerhaften Stücke unter diesen 3 entnommenen.
a) Berechnen Sie die Wahrscheinlichkeitsverteilung von X und stellen Sie diese grafisch
dar!
b) Berechnen Sie EX und Var(X).
2.
für x < 1
0

Sei F ( x) =  x − 1 für1 ≤ x < 2
1
für x ≥ 2

a) Zeigen Sie, daß F(x) )eine Verteilungsfunktion einer Zufallsgröße X ist!
b) Stellen Sie die Verteilungsfunktion und die Dichtefunktion grafisch dar!
c) Bestimmen Sie die Dichtefunktion, den Erwartungswert und den Median!
3

d) Berechnen Sie P(0 < X < 1,5) und P X >  !

4
3. Bei der Herstellung von Wellen sind alle Wellen Ausschuß, die 1mm oder mehr vom
Sollmaß von 100mm Länge abweichen. Die zufällig schwankende Länge hat den
Erwartungswert 100mm und die Standardabweichung Var ( X) = 0,1mm .
Wie groß ist der Ausschußanteil höchstens?
4. Sei X eine Zufallsgröße mit EX = 0 und Var(X) = 4.
Wie muß man X transformieren, damit für die transformierte Zufallsgröße Y gilt: EY = 10,
Var(Y) = 1?
5. Sei X eine stetige Zufallsgröße mit um x=c symmetrischer Verteilungsdichte f(x), d.h. es
gelte: f(c-x) = f(c+x) für alle x∈R.
a) Zeigen Sie: EX=c !
b) Sei Var(X)=d. Berechnen Sie in Abhängigkeit von c und d ein möglichst kleines
Intervall I=[c-h, c+h] mit h>0 (also h) , in welchem X mit mindestens 80% iger
Wahrscheinlichkeit liegt !
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
40
Kapitel II
Zweidimensionale Verteilungen
3 Mehrdimensionale (“zweidimensionale”) Verteilungen
3.1 Zweidimensionale diskrete Verteilungen
Seien X, Y zwei diskrete Zufallsgrößen mit den Wertebereichen X = {a 1 ,..., a k } , Y
= {b 1 ,..., b l } .
Def.: Die zweidimensionale Wahrscheinlichkeitsverteilung von X und Y ist die Gesamtheit
aller Wahrscheinlichkeiten p i j : = P X = a i ∧ Y = b j ,
i = 1,..., k;
j = 1,..., l
(
)
Es gilt: 1.) 0 ≤ p ij = 1
k
2.)
l
∑∑p
ij
=1
i =1 j =1
Beispiel 35: Sei M eine Maschine mit 2 empfindlichen Bauelementen B1, B2. X, Y - Anzahl
{
}
der Ausfälle von B1 bzw. B2 pro Tag. Sei X = 0, 1, ≥ 2 , Y = {0,1, ≥ 2} . Die
gemeinsame Ausfallverteilung sei:
X/Y
0
1
≥2
∑
0
0,3
0,18
0,12
0,6
p ij = P( X = i ∧ Y = j)
≥2
0,14
0,1
0,06
0,3
1
0,02
0,02
0,06
0,1
∑
0,46
0,3
0,24
1
z.B.: p 01 = 0,02
Def.: Die bedingte Verteilung von X unter der Bedingung Y = bj ist die Gesamtheit aller
Wahrscheinlichkeiten.
(
)
Pi / j : = P X = ai / Y = b j =
(
P X = ai / Y = b j
(
P Y = bj
)
)=
Pij
P• j
∀ i = 1,..., k .
Def.: X ∈ X = {a 1 ,..., a k } , Y ∈ Y = {b 1 ,..., b l } . X und Y heißen stochastisch unabhängig,
falls gilt:
p i / j = Pi•
Folgerung:
∀ j = 1,..., k ,
∀ j = 1,..., l.
X und Y stochastisch unabhängig ⇔ Pij = p i• ⋅ p • j für alle i=1,...,k und j=1,...,l.
( P( X = a
i
)
(
∧ Y = b j = P( X = a i ) ⋅ P Y = b j
©Prof. Dr. rer. nat. B. Grabowski
))
HTW des Saarlandes (2005)
41
Kapitel II
Zweidimensionale Verteilungen
Zu Beispiel 35:
Sind die Ausfälle B1 und B2 voneinander unabhängig?
?
P00 = P( X = 0 ∧ Y = 0) = 0,3 = P0• ⋅ P•0
= P( X = 0) ⋅ P(Y = 0)
= 0,46 ⋅ 0,6
≠ 0,3
⇒ X und Y sind nicht stochastisch unabhängig.
3.2 Zweidimensionale stetige Verteilungen
Seien X, Y zwei stetige Zufallsgrößen
Def.: Die Funktion F ( x, y ) := P ( X < x ∧ Y < y ), x, y ∈ ℜ heißt zweidimensionale
Verteilungsfunktion von X und Y. Die Funktion f(x,y) mit den Eigenschaften
1. f ( x, y ) ≥ 0 ∀ x ∈ ℜ, ∀ y ∈ ℜ
x y
2. F ( x, y ) =
~ ~ ~ ~
∫ ∫ f ( x , y ) dx d v
− ∞∞
∞∞
∫ ∫ f ( x, y )dxdy = 1
3.
− ∞∞
heißt zweidimensionale Verteilungsdichte von X und Y.
Def.: Rand-Dichten (bzw. Rand-Verteilungen) für X und Y
f X ( x) :=
∞
∫ f ( x, y)dy
– heißt (Rand-) Dichte von X.
−∞
b


 P(a < X < b) = f X ( x)dx




a
∫
f Y ( y ) :=
∞
∫ f ( x, y )dx
– heißt (Rand-) Dichte von Y.
−∞
b


 P(a < Y < b) = f Y ( x)dy




a
∫
Def.: X und Y stetig mit der Dichtefunktion f(x, y). Dann heißen X und Y stochastisch
unabhängig genau dann wenn gilt:
f ( x, y ) = f X ( x) ⋅ f y (Y ) ∀ x ∈ R, ∀ y ∈ R .
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
42
Kapitel II
Zweidimensionale Verteilungen
Folgerung:
X,Y seien stetig. X und Y sind stochastisch unabhängig. Dann gilt:
F ( x, y ) = FX ( x) ⋅ Fy (Y )
( P( X < x ) ∧ Y < y ) = P ( X < x ) ⋅ P( Y = y )
X Y
Beweis: F ( x, y ) =
∫∫
X Y
f (~
x, ~
y )d~
x d~
y =
unabh .
− ∞− ∞
∫∫f
y
∫
∫
~ ⋅ f (~
~
f X (~
x ) dx
Y y ) dy
−∞
=
(~
x ) ⋅ fY ( ~
y )d~
x d~
y
X
− ∞− ∞
x
=
@
−∞
⋅ FY ( y)
FX ( x)
Beispiel 36: Seien X, Y zwei Zufallsgrößen mit der gemeinsamen Dichtefunktion f(x,y)
e − x ⋅ e − y für x ≥ 0 ∧ y ≥ 0
f ( x, y ) = 
 0 sonst
a) ges.: EX, EY
∞
Lös.: EX =
∫
∞
x ⋅ f X ( x)dx,
EY =
−∞
∫ y⋅f
Y ( y) dy
−∞
(X ∈ X ⊆ ℜ)
∞
∞
∞
−x − y
−x
−y
−x
−y
 ∫ f ( x, y )dy = ∫ e e dy = e ⋅ ∫ e dy = e − e
f X ( x ) = − ∞
0
0
 0 für x < 0

[
e − y
f Y ( y) = 
0
∞
⇒ EX =
∫
∞
0
= e − x für x ≥ 0
für y ≥ 0
für y < 0
[
∞
x ⋅ f X ( x)dx = x ⋅ e − x dx = − x ⋅ e − x + e − x dx
∫
−∞
analog:
]
0
∫
]
∞
=1
0
⇒ EY = 1
b) ges.: P( X < 2 ∧ Y < 3)
Lös.: P ( X < 2 ∧ Y < 3) = F (2,3)
2 3
=
∫ ∫ f ( x, y)dxdy
− ∞− ∞
2
=
3
∫ ∫e
−x
⋅ e − y dx dy
x=0 y=0
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
43
Kapitel II
Zweidimensionale Verteilungen
2
3
[
= e − x dx e − y dy = − e − x
∫
∫
0
0
(
)(
= 1 − e −2 1 − e −3
] ⋅ [− e ]
2
−y 3
0
0
)
c) Sind X und Y stochastisch unabhängig?
?
f ( x, y ) = f X ( x ) ⋅ f Y ( y )
e −x ⋅ e −y = e −x ⋅ e −y
∀ x, y ≥ 0
⇒ X und Y sind stochastisch unabhängig!
Beispiel 37:
B1
B2
B3
B4
Sei Xi die zufällige Lebensdauer von Bauelement Bi, i = 1,....,4 mit der
jeweiligen Dichte:
( X1 ): f1 ( x) = 5 ⋅ e −5x
( X 2 ): f 2 ( x) = 6 ⋅ e −6 x
( X 3 ): f 3 ( x) = e − x




x ≥ 0

1
1 −2x 
( X 4 ): f 4 ( x) = 2 ⋅ e 

Voraussetzung: Lebensdauern der Bauelemente sind unabhängig!
Berechnen Sie die Wahrscheinlichkeit dafür, daß das Gerät länger als 10 Jahre
funktioniert!
Ges.: P (G > 10 ) , G - zufällige Lebensdauer des Gerätes.
Lös.: P (G > 10 ) = P (1. Reihe > 10 ∨ 2.Reihe > 10 )
= P(1.Reihe > 10 ) + P(2.Reihe > 10 ) − P(1.Reihe > 10∧2.Reihe > 10 )
Ax . 3
= P(1.Reihe > 10 ) + P(2.Reihe > 10) − P(1.Reihe > 10) ⋅ P(2. Reihe > 10)
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
44
Kapitel II
Zweidimensionale Verteilungen
P(1. Re ihe > 10) = P( B1 > 10 ∧ B2 > 10)
= P( B1 > 10) ⋅ P( B2 > 10)
(
)(
= 1 − FX1 (10) ⋅ 1 − FX 2 (10)
)

  10
 10
=  1 − f1 ( x) dx ⋅  1 − f 2 ( x) dx

 

0
0
∫
∫
= L
Berechnen Sie zu Beispiel 37 die Wahrscheinlichkeit P(G>10) !
3.3 Parameter zweidimensionaler Verteilungen
3.3.1 Erwartungswert und Varianz
Seien (X, Y) – 2 Zufallsgrößen.
Zur Berechnung der Erwartungswerte EX, EY und Varianzen Var(X), Var(Y) sind
definitionsgemäß die (Rand-) Verteilungen von X und Y zu berechnen:
{
}
Seien X bzw. Y diskret mit den Wertebereichen X = {a 1 ,..., a k } bzw. Y = b 1 ,..., b j mit der
(
)
Wahrscheinlichkeitsverteilung p ij = P X = a i ∧ Y = b j ,
i = 1,..., k ,
j = 1,..., l .
Dann gilt:
EX =
k
∑a
i
⋅ p i•
j
⋅ p•j
i =1
bzw.
EY =
l
∑b
′ j=1
und
Var ( X) =
Var ( Y) =
k
∑ (a
i
− EX) p i•
j
− EY p • j
2
i =1
l
∑ (b
j=1
)
2
wobei p i• bzw. p • j die Randverteilungen der gemeinsamen Wahrscheinlichkeitsverteilung
(p
ij ,
i = 1,..., k ,
)
j = 1,..., l sind.
Seien X und Y stetig mit der gemeinsamen Dichtefunktion f(x,y).
Dann gilt:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
45
Kapitel II
Zweidimensionale Verteilungen
∞
EX =
∫x⋅f
x ( x) dx
∫y⋅f
y ( y) dy
−∞
∞
EY =
−∞
Var ( X) =
Var (Y) =
∞
∫ (x − EX)
2
⋅ f x ( x) dx
∫ (y − EY)
2
⋅ f y ( y) dy
−∞
∞
−∞
wobei fx(x) und fy(y) die Randdichten von f(x,y) sind.
3.3.2 Kovarianz und Korrelation
[
]
Def.: Cov( X, Y): = E ( X − EX) ⋅ (Y − EY) = E[ X ⋅ Y] − [ EX] ⋅ [ EY] heißt Kovarianz zwischen X
und Y.
Satz: 1.) Cov( X, X) = Var ( X)
2.) Cov( X, Y) = 0
falls X und Y stochastisch unabhängig
3.) Cov( X, Y + Z) = Cov( X, Y) + Cov( X, Z)
4.) Cov(a + bX, Y) = b ⋅ Cov( X, Y)
Def.: Unter der Korrelation zwischen X und Y verstehen wir den Term
R: =
Cov( X, Y)
Var ( X) ⋅ Var (Y)
Satz: Es gilt: 1.) R ≤ 1
1

2.) R = − 1
0

(− 1 ≤ R ≤ 1)
falls Y = aX + b
falls Y = aX + b
,a > 0
,a < 0
falls X und Y stochastisch unabhängig
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
46
Kapitel II
Zweidimensionale Verteilungen
Beweisen Sie den Satz !
3.4 Zusammenfassung
deskriptive Statistik
X  x1 
xn 
  L  
Y  y1 
yn 
Wahrscheinlichkeitsrechnung
− Stichprobe
Stichprobenkovarianz:
1 n
s xy : =
(x i ⋅ x)( y i ⋅ y)
n − 1 i =1
∑
sx x
sy y
Pearsonsche Korrelation:
s xy
rxy : =
s xx ⋅ s yy
n
→
→∞

 →

→
©Prof. Dr. rer. nat. B. Grabowski
E( X − EX) ⋅ (Y − EY) = Cov( X, Y)
Var (X)
Var (Y)
R=
Cov( X, Y)
Var ( X) ⋅ Var (Y)
HTW des Saarlandes (2005)
47
Kapitel II
Zweidimensionale Verteilungen
3.5 Übungsaufgaben
1. Ein Gerät bestehe aus 4 Bauelementen B1, B2, B3, B4 gemäß folgender Schaltung:
B1
B2
B3
B4
Xi sei die zufällige Lebensdauer des Bauelements Bi.
Die Zufallsgrößen Xi besitzen folgende Dichtefunktionen fi(x):
x
−
 1
⋅ e 4+ i
für x ≥ 0

f i ( x) =  4 + i
0
für x < 0

i = 1, 2, 3, 4
Die Bauelemente fallen unabhängig voneinander aus.
Berechnen Sie die Wahrscheinlichkeit dafür, daß das Gerät eine Lebensdauer von
mindestens 10 Jahren besitzt!
2. Eine Maschine habe zwei besonders empfindliche Bauteile B1 und B2, die häufig - aber
höchstens 2 mal pro Tag - ausfallen. Seien X bzw. Y die zufällige Anzahl der Ausfälle von
B1 bzw. B2 pro Tag. Die gemeinsame Wahrscheinlichkeitsverteilung von X und Y sei in
folgender Tabelle gegeben:
X/Y
0
1
2
0
1
2
0,3
0,2
0,05
0,2
0,05
0,05
0,1
0,05
0
a) Berechnen Sie P( X > 1 und Y ≥ 1) !
b) Berechnen Sie die erwartete Zahl EX und EY der Ausfälle von B1 und B2!
c) Fallen B1 und B2 stochastisch unabhängig voneinander aus?
3. Aus einer Gruppe von Ehepaaren, bei denen beide Partner berufstätig sind, wird ein Paar
zufällig ausgewählt. Wie groß ist die Korrelation zwischen dem Einkommen der beiden
Partner, wenn bekannt ist, daß für das Einkommen X des Mannes EX = 2600 DM, Var(X)
= 250 DM2 gilt, und für das Einkommen Y der Frau EY = 1850 DM, Var(Y) = 300 DM2 gilt,
sowie die Kovarianz zwischen X und Y Cox(X,Y) = 136 DM2 beträgt?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
48
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
4 Spezielle Wahrscheinlichkeitsverteilungen
4.1 Diskrete Verteilungen
Voraussetzung:
X diskret,
p i = P( X = a i ),
X ∈ X = {a 1 ,..., a k ,...}
i = 1,2,...
⇒ Wir können bei diskreten Zufallsgrößen die Wahrscheinlichkeitsverteilung aus der
Versuchsanordnung bestimmen!
4.1.1 Zweipunktverteilung
X,
X = {a 1 , a 2 }
a1 = p, a2 = (1 – p)
p 1 = P( X = a 1 ) = p
p 2 = P( X = a 2 ) = 1 − p
Def: Eine Zufallsgröße X, deren Wertebereich nur zwei Werte a1, a2 umfaßt, heißt
zweipunktverteilt.
a
Mißerfolg
(1 − p)
Schreibweise: X =  1
Erfo lg
p
a 2
Üblicherweise werden Zweipunktverteilungen wie folgt skaliert: a1 = 0, a2 = 1
Def: Eine zweipunktverteilte Zufallsgröße mit dem Wertebereich X = {0,1} heißt
Bernoulli-Variable.
Für eine Bernoulli-Variable gilt offensichtlich:
EX = p,
Beispiel: Münzwurf!
Var ( X) = p ⋅ (1 − p)
4.1.2 Diskrete Gleichverteilung
Def.: Eine diskrete Zufallsgröße X mit endlichem Wertebereich X = {a 1 ,..., a k } heißt
gleichverteilt auf X, falls gilt: P( X = a i ) =
(
1
k
für alle i=1,2,...,k.
)
Bezeichnung: X ~ G {a 1 ,..., a k }
[∼ bedeutet: „ist verteilt wie“
(X ∼ F bedeutet: X besitzt die Verteilungsfunktion F)]
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
49
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
pi =
Beispiele: a) Würfeln, ai = i, i = 1,...,6,
1
6
b) Simulation:
1
4
1
1
4
2
gleichwahrscheinlich: Routing
3
1
4
4
1
4
4.1.3 Binomialverteilung
Beispiel 38: Ich würfele 3 mal unabhängig voneinander. Sei X die zufällige Anzahl der
gewürfelten Sechsen.
Gesucht: Verteilung von X
Lösung:
Wir berechnen stellvertretend die Wahrscheinlichkeit P( X = 2) .
Sei wi - Würfelergebnis von Wurf i, i=1,2,3
(
= P(( w = 6, w = 6, w ≠ 6)) + P( w
P(( w ≠ 6, w = 6, w = 6))
P( X = 2) = P ( w 1 = 6, w 2 = 6, w 3 ≠ 6) ∨ ( w 1 = 6, w 2 ≠ 6, w 3 = 6) ∨ ( w 1 ≠ 6, w 2 = 6, w 3 = 6))
1
1
2
2
3
1
= 6, w 2 ≠ 6, w 3 = 6) +
3
= P( w 1 = 6) ⋅ P( w 2 = 6) ⋅ P( w 3 ≠ 6) + P( w 1 = 6) ⋅ P( w 2 ≠ 6) ⋅ P( w 3 = 6) +
P( w 1 ≠ 6) ⋅ P( w 2 = 6) ⋅ P( w 3 = 6)
= p ⋅ p ⋅ (1 − p) + p ⋅ (1 − p) ⋅ p + (1 − p) ⋅ p ⋅ p
= 32 ⋅ p 2 ⋅ (1 − p)
Verallgemeinerung:
 3
3− i
P( X = i) =   ⋅ p i ⋅ (1 − p)
 i
i = 0,1,2,3
Def.: Sei X eine Zufallsgröße (diskret) mit dem Wertebereich X = {0,1,..., n} . Wenn die
Wahrscheinlichkeitsverteilung von X die Gestalt
 n
n−i
p i = P( X = i) =   ⋅ p i ⋅ (1 − p)
∀ i = 0,..., n
 i
besitzt, nennt man X binomialverteilt mit den Parametern n und p.
Schreibweise: X ~ B( n, p)
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
50
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
Typisches Versuchsschema bei der Binomialverteilung: (Bernoulli'sches
Versuchsschema)
Ich wiederhole n mal unabhängig voneinander einen zweipunktverteilten Bernoulli-Versuch
mit der Erfolgswahrscheinlichkeit p:
1
Xi = 
0
p
Erfo lg
(1 − p)
Mißerfo lg
i= 1,...,n
⇒ X-Anzahl der Erfolge (der “1”) bei diesen n Wiederholungen → X =
n
∑X
i
i =1
Dann gilt: X ~ B( n, p)
Beispiel 39: Ich würfele 3 mal, X – zufällige Anzahl der 6 en,
Zweipunktverteilter Versuch:
1

Würfeln einer 6
p=
1
6
Xi = 
5
0
Würfeln keiner 6 p =

6
1
,
n=3
6
1

→ X ~ B n = 3, p = 

6
→ p=
Beispiel 40: Eine Statistikklausur umfasse 10 Aufgaben mit je 4 Antwortalternativen, von
denen nur eine richtig ist. Wie groß ist die Wahrscheinlichkeit dafür, nur durch
Raten wenigstens 4 Aufgaben zu lösen?
Lös.:
1

Aufgabe ist richtig geraten
p=
1
4
Xi = 
3
0
falsch
(1 − p) = 4

©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
51
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
X – Anzahl richtig geratener Aufgaben
P( X ≥ 4) = 1 − p( X ≤ 4) = 1 −
0
 10  1   3 
P( X = 0) =   ⋅   ⋅  
 0   4  4
1
1
→ X ~ B n = 10, p = 

4
4
∑ P( X = i )
i =0
10
=
310
4 10
9
 10  1   3 
10 ⋅ 39
P( X = 1) =   ⋅   ⋅   = 10
 1   4  4
4
M
M
Berechnung von EX und Var(X) der Binomialverteilung:
Satz : Sei X~B(n,p). Dann gilt:
EX = np und Var(X) = np(1-p)
Beweis:
Es gilt: X =
n
∑X
i =1
i
(1 − p) ,
0
, wobei X i ~ 
1
i = 1,...,n.
p
Unter Verwendung der Eigenschaften von Erwartungswert und Varianz erhalten wir:
 n

⇒ EX = E X i  =
 i =1 
∑
n
∑
EX i =
i =1
n
∑p = n⋅p
i =1


⇒ Var ( X) = Var  X i  =
 i =1 
n
∑
=
n
∑ Var(X )
i
i =1
n
∑ p ⋅ (1 − p) = n ⋅ p ⋅ (1 − p)
i =1
qed.
20 Personen werden gleichwahrscheinlich in 2 Gruppen G1, G2
Beispiel 41:
eingeordnet. Wie groß ist die Wahrscheinlichkeit dafür, daß am Ende in beiden
Gruppen gleichviele Personen sind?
X – Anzahl der Personen in G1
ges.: P( X = 10)

X ~ B n = 20, p =

1

2
Zweipunktverteilter Versuch:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
52
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret

1 → G 1 ( K)
Xi = 
0 → G 2 ( Z)

 20  1 
P( X = 10) =   ⋅  
 10  2 
10
 20  1 
=   ⋅ 
 10  2 
20
 1
⋅ 
 2
p=
1
2
1
(1 − p) = 2
i = 1,...,20 = n
(Münzwurf)
20 −10
 n
n!
 =
 k k !⋅ ( n − k )!
Beispiel 42: Die Wahrscheinlichkeit bei einer U-Bahn-Fahrt kontrolliert zu werden beträgt
10 %. Wie groß ist die Wahrscheinlichkeit dafür, innerhalb von 20 Fahrten
P( X ≤ 3) = P( X = 0 ∨ X = 1 ∨ X = 2 ∨ X = 3) = p 0 + p 1 + p 2 + p 3
a) höchstens 3x
P( X > 3) = 1 − P( X ≤ 3)
b) mehr als 3x
Ax .3
P( X < 3) = p 0 + p 1 + p 2
c) weniger als 3x
P( X = 3) = p 3
d) genau 3x
P( X ≥ 3) = 1 − P( X < 3)
e) mindestens 3x
P( X > 1 ∧ X < 4 ) = p 2 + p 3
f) mehr als 1x und weniger als 4x
kontrolliert zuwerden?
X – Anzahl der Kontrollen innerhalb von 20 Fahrten
X = {0,1,...,20}
1
0
Xi – Kontrolle bei Fahrt i = 
p = 0,1
(1 − p) = 0,9
⇒ X ~ B(20; 0,1)
 20
i
20 − i
p i = P = ( X = i) =   ⋅ (0,1) ⋅ (0,9)
 i
Rechnen Sie zu Beispiel 42 eine der Teilaufgaben a)-f) aus!
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
53
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
4.1.4 Die Poissonverteilung
Sei X ~ B( n, p)
 n
n−i
Wenn n sehr groß, p sehr klein, dann führt die Berechnung von p i =   ⋅ p i ⋅ (1 − p)
 i
manchmal zu “numerischen” Problemen. Man kann pi durch einen anderen Ausdruck
approximieren:
Satz: Es gilt:
(λ ) ⋅ e − λ
 n i
n−i
  ⋅ p 0 ⋅ (1 − p) =
i!
 i
i
lim
p→ 0
n →∞
n⋅p = λ = konst .
(ohne Beweis!)
Für n ≥ 20, p ≤ 0,01 ist die Approximation:
 n i
λi − λ
n−i
  ⋅ p (1 − p) ≈ ⋅ e
i!
 i
mit λ = n ⋅ p ausreichend gut.
Beispiel 43:
1000 Sandkörner, von einer Sorte keimen in der Regel 1 % nicht. Wie groß
ist die Wahrscheinlichkeit dafür, daß von diesen 1000 Körnern mehr als 4 nicht
keimen?
Lösung:
Sei X – Anzahl der nicht keimenden Samenkörner. Dann gilt:
X ~ B( n = 1000, p = 0,01)
 1000
1000 − i
i
⇒ pi = 
 ⋅ (0,01) (0,09)
i


≈
10 i −10
⋅e
i!
i = 0,...,4
Gesucht : P(X>4).
Es gilt: P( X > 4) = 1 − P( X ≤ 4) = 1 − p 0 − p 1 − p 2 − p 3 − p 4
λ2 − λ λ3 − λ λ4 − λ
⋅e −
⋅e −
⋅e
2!
3!
4!
= 1 − e − λ (1 − λ − λ2 / 2 − λ3 / 3!− λ4 / 4 !)
wobei λ = n ⋅ p = 10 .
Rechnen Sie die gesuchte Wahrscheinlichkeit zu Beispiel 43 aus!
= 1 − e −λ − λ ⋅ e −λ −
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
54
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
Rekursionsformel zur Berechnung der Wahrscheinlichkeiten p i =
p 0 = e −λ ,
pi =
λ
i
λi − λ
⋅e
i!
⋅ pi −1 , i =1,2,....
→ p 0 = e −λ
λ
λ
p1 = ⋅ e −λ = ⋅ p 0
1
1
2
λ
λ
p2 =
⋅ e −λ = ⋅ p1
2!
2
Bemerkung: Bei einer B(n, p) - verteilten Zufallsgröße X gilt:
EX = n ⋅ p = λ
Var ( X) = n ⋅ p ⋅ (1 − p)
Es gibt oft Situationen, in denen n und p unbekannt sind, aber n ⋅ p = λ bekannt
ist.
In diesen Situationen könne wir die Wahrscheinlichkeiten
 n
n−i
p i = P( X = i) =   ⋅ p i ⋅ (1 − p)
nicht berechnen, aber die diese
 i
approximierende Größe
λi − λ
⋅e
!
i!
Beispiel 44:
In einer Vermittlungsstelle gehen im Schnitt 5 Anrufe pro µs ein. Maximal
schafft die Vermittlungsstelle 10 Anrufe pro µs.
Wie groß ist die Wahrscheinlichkeit dafür, daß die Kapazität der
Vermittlungsstelle überschritten wird?
(Merke: Anzahl ist hier immer binomialverteilt!)
Anschlüsse
Vermittlungsstelle
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
55
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
Lösung:
X – Anzahl von Anrufen pro µs. Dann ist gesucht: P( X > 10) .
Sei
Es gilt:
X ~ B( n, p)
EX = n ⋅ p = 5
n = Anzahl der eingehenden Teilnehmer
p = Wahrscheinlichkeit für den Anruf eines Teilnehmers in einer µs.
n, p unbekannt aber
n > 20, p < 0,01 und n ⋅ p = λ = 5 bekannt
⇒ P( X > 10) = 1 − P( X ≤ 10)
=1−
10
∑p
i
i =0
≈1−
10
∑
i=0
 10 5i −5 
λi − λ
⋅e =1− 
⋅e 
i!

 i =0 i !
∑
Def.: X sei eine Zufallsgröße mit dem Wertebereich X = {0,1,2,...} = N 0 . Dann heißt X
poisson-verteilt mit dem Parameter λ, falls gilt:
P( X = i)
i
λ)
(
=
⋅ e −λ
i!
für i=0,1,2,....
Bezeichnung : X ~ P(λ )
Satz: Sei X ~ P(λ ) .
Dann gilt: EX = λ, Var(X) = λ.
Beweis: (Taylorreihe der e-Funktion)
EX =
∞
∑
i ⋅ pi =
i=0
∞
∑
i=0
i⋅
∞
 ∞ λi 
λi − λ
λ( i −1)
⋅ e = e −λ ⋅ λ ⋅
= e −λ ⋅ λ ⋅ 
 = e −λ ⋅ λ ⋅ e λ = λ
i!
i
i
−
1
!
!


(
)
i=0
i=0
∑
∑
Zur Var(X):
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
56
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-diskret
X ~ B( n, p)
Var ( X) = n ⋅ p ⋅ (1 − p)
→
n →∞
p→ 0
n⋅p = λ
n →∞
p→ 0
n⋅p = λ
X ~ P(λ )
→
Var(X) = λ
ged.
Beispiel 45:
Die mittlere Anzahl eintreffender Kunden bei Aldi sei 5 pro 10 Minuten (½
Kunde pro Minute). Wie groß ist die Wahrscheinlichkeit dafür, daß innerhalb von
10 Minuten genau 1 Kunde eintrifft?
Lösung:
Sei X zufällige Anzahl eintreffender Kunden pro Minute

→ X ~ P λ =

1

2
1
 1 −
→ P( X = 1) =   ⋅ e 2 = 0,303 = 30,3 %
 2
⇒ in 30,3 % aller Minutenintervallen kommt genau ein Kunde an!
Typische Anwendungen der Poissonverteilung:
− X – Anzahl eintreffender Signale in einer Empfängerstation pro Zeiteinheit
− X – Anzahl eintreffender Kunden in einer Verkaufseinrichtung pro Zeiteinheit
− X – Anzahl eintreffender Autos an einer Kreuzung pro Zeiteinheit
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
57
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
4.2 Spezielle stetige Verteilungen
Sei X stetig, X ⊆ ℜ . Die Wahrscheinlichkeitsverteilung wird hier durch die Dichtefunktion f(x)
bzw. Verteilungsfunktion F(x) beschrieben.
b
P(a ≤ X ≤ b ) = ∫ f ( x)dx = F (b) − F (a)
a
f(x)
P( a ≤ X ≤ b )
X
a
b
gesucht: f
Man unterscheidet verschiedene Typen von f. Diese entsprechen typischen beobachteten
Verläufen der Histogramme.
Beispiel 46: a) X – Lebensdauer von Kühlschränken, Beobachtungen: x1,...,xn
⇒ Klasseneinteilung K1,...,Kk, grafische Darstellung der relativen
Häufigkeitsdichte
h n (K i )
= h *n ( K i )
∆K i
Hn(Ki)
P(X ∈ K1)
n→∞
K1
Kk
X
X
α ⋅ e −αx , x ≥ 0
f ( x) = 
0 , x < 0
Weisen Sie nach, daß die Fläche unter der Funktion
 βe −αx , x ≥ 0
f ( x) = 
0 , x < 0
α > 0, β > 0
nur dann gleich 1 ist, wenn gilt: α = β !
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
58
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
a) X – zufällige Körpergröße von Personen
h *n ( K i )
x1,...,xn
n→∞
∆Ki → 0
X
X
µ
µ–σ
→ f ( x) =
1
2π ⋅ σ
µ+σ
⋅e
−
( x − µ )2
σ2
,x ∈ ℜ
Bemerkung:
Die Gestalt der Dichtefunktion ist zunächst vom Typ:
f ( x) = c ⋅ e
−
( x − µ )2
σ2
,x ∈ ℜ
Man kann zeigen, daß c=
1
2π ⋅ σ
sein muß, damit die Fläche unter der
Funktion f(x) gleich 1 ist; d.h., damit f(x) eine Verteilungsdichte ist!
c) X – zufällige Zeit zwischen Eintreffen zweier Autos an einer Kreuzung
h *n ( K i )
x1,...,xn
f(x)
n→∞
X
X
a
b
 1
, für x ∈ [a, b ]

f ( x) =  b − a
 0
sonst
Begründen Sie diese Wahl von f(x) als Verteilungsdichte für X!
Bemerkung: Im Unterschied zu Verteilungen diskreter Zufallsgrößen, die aus dem
Versuchsaufbau theoretisch hergeleitet werden, werden Verteilungen stetiger Zufallsgrößen
aus der Gestalt des Histogramms, also experimentell, bestimmt.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
59
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
4.2.1 Die stetige Gleichverteilung
Def.: Sei X stetig. X heißt auf dem Intervall [ a , b] ⊆ ℜ gleichverteilt, falls X die
Dichtefunktion
 1
, für x ∈[ a , b]

f ( x) =  b − a
 0
, für x ∉[ a , b]

besitzt.
Bezeichnung: X ~ R[ a , b]
Es gilt:
0
für
x<a

x − a
für
x ∈ [ a, b]
F ( x) = ∫ f (u )du = 
−∞
b − a
für
x>b
1

∞
b
x
b2 − a2 a + b
=
=
EX = ∫ x ⋅ f ( x)dx = ∫
b − a 2(b − a )
2
−∞
a
x
2
(
b − a)
Var ( X ) = ∫ ( x − EX ) ⋅ f ( x)dx =
∞
2
12
−∞
Weisen Sie das Ergebnis für die Varianz nach!
Anwendung: Systemtechnik II (Simulation)
4.2.2 Die Exponentialverteilung
Def.: Sei X stetig. X heißt exponentialverteilt mit dem Paramater α, falls die
Dichtefunktion die Gestalt
α ⋅ e − αx
,x ≥ 0
f ( x) = 
,x < 0
 0
α
α1
X
besitzt.
α–Intensitätsparameter (Geschwindigkeit des Abklingens gegen 0)
Bezeichnung: X ∼ ε(α)
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
60
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
Satz: Es gilt:
1 − e −αx , x ≥ 0
0 , x < 0
a) F ( x) = 
b) EX =
1
α
c) Var ( X) =
1
α2
Beweis: Zu a)
x
F ( x) =
∫ f (u)du
−∞
x
= ∫ α ⋅ e −α ⋅u du
0
x

 1
= α ⋅  − e − α⋅u  = − e − α⋅x − ( − 1) = 1 − e − α⋅x
0
 2
qed.
Weisen Sie die Aussagen b) und c) des Satzes nach!
Wie kann man bei einer exponentialverteilten Zufallsgröße den Parameter
α zumindest näherungsweise ermitteln ?
Typische Anwendungsgebiete:
−
−
−
−
−
X – zufällige Lebensdauer von Bauelementen
X – zufällige Gesprächsdauer von Telefonaten
X – zufälliger Zeitabstand zwischen 2 Signalen (,die in einer Empfangsstation eintreffen)
X - zufälliger Zeitabstand zwischen 2 Kunden (, die in einem Supermarkt eintreffen)
X – Abbauzeit von Drogen im menschlichen Blut
Beispiel 47:
Die zufällige Lebensdauer von Kühlschränken sei exponentialverteilt. Im
Mittel beträgt sie 10 Jahre:
a) Wieviel % aller Kühlschränke werden diese 10 Jahre überschreiten?
b) Nach welcher Zeit haben 80% aller Kühlschränke 'ihr Leben ausgehaucht'?
Lösung:
1


Jahre -1 
X – zufällige Lebensdauer, X ∼ ε  α =


10
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
61
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
Zu a)
P( X > 10) = 1 − P( X ≤ 10) = 1 − F (10)
1

− ⋅10 
10


= 1 − 1 − e



= e −1 =
1
= 0,31
e
⇒ 31% aller Kühlschränke werden älter als 10 Jahre.
Zu b)
P( X ≤ t 0,8 ) = 0,8
⇔ F( 0,8) = 0,8
⇔1− e
⇔e
−
−
1
⋅t 0 , 8
10
= 0,8
t 0,8
10
= 0,2
/ ln
t 0,8
= ln(0,2)
10
⇔ t 0,8 = −10 ⋅ ln(0,2) = 16,09 ≈ 16 Jahre
⇔−
0,8
t
⇒ Ca. 20% aller Kühlschränke überschreiten eine Lebensdauer von 16
Jahren.
Satz: (Zusammenhang zwischen der Poisson- und der Exponentialverteilung)
Sei X die zufällige Anzahl eintreffender Signale pro Zeiteinheit und sei T die zufällige
Zeit zwischen zwei Signalen.
Dann gilt:
X ~ P(λ ) ⇔ T ∼ ε (λ)
Beweis und Anwendungen: -> Vorlesung: Diskrete Simulation
Die zufällige Zeit T zwischen dem Eintreffen zweier Studenten zur
Vorlesung sei exponentialverteilt mit dem Erwartungswert ET=2 min.
a) Wie groß ist die Wahrscheinlichkeit dafür, daß mehr als 1 Student pro
Minute eintrifft?
b) Wieviele Studenten werden im Mittel pro Minute eintreffen?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
62
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
4.2.3 Die Normalverteilung (Gauß-Verteilung)
(
)
Def.: X sei stetig. X heißt normalverteilt mit den Parametern µ , σ 2 , falls die
Dichtefunktion f(x) folgende Gestalt besitzt:
f ( x) =
(
1
⋅e
2π ⋅ σ
Bezeichnung: X ~ N µ , σ 2
−
( x − µ )2
2⋅σ 2
x ∈ℜ.
)
f (x )
sy m m e trisch
µ – σ,
µ + σ
X = ℜ
µ – 3σ
µ – 2σ
µ
µ – σ
µ + σ
µ – L a g e p a ra m e te r
µ
µ
σ1 > σ
µ – σ1
µ
µ–σ
µ+σ
µ + σ1
σ – Streuungsparameter
Vervollständigen Sie diese Grafik, indem Sie die Dichte der
2
Normalverteilung N µ , σ 1 für σ1 > σ einzeichnen ! Wird diese steiler
oder flacher als die bereits eingezeichnete Dichte?
(
)
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
63
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
(
)
Var ( X) = σ 2
Satz: Sei X ~ N µ , σ 2 . Dann gilt: EX = µ ,
(ohne Beweis!).
Def.: Unter der Standardnormalverteilung versteht man die Verteilung N(0, 1), also die
Normalverteilung mit Erwartung 0 und Varianz 1.
Bezeichnungen:
ϕ (x) :=f(x) – Dichtefunktion der Standardnormalverteilung
Φ(x) :=F(x) – Verteilungsfunktion der Standardnormalverteilung
Berechnung der Wahrscheinlichkeiten:
(
)
Sei X ~ N µ , σ 2 . Gesucht P ( X < a ) = F (a ) =
a
∫ f ( x)dx =
−∞
a
1
2π ⋅ σ
⋅ ∫e
−
( x − µ )2
2⋅σ 2
dx
−∞
Analytisch nicht lösbar
→ numerisch lösen
→ zu aufwendig für uns
µ
a
→ Wir führen F(a) auf die Standardnormalverteilungsfunktion Φ zurück . Die Funktion Φ ist
tabelliert.
(
)
Satz: Sei X ~ N µ , σ 2 . Sei F die Verteilungsfunktion von X. Dann gilt:
a−µ
F (a) = Φ ⋅ 

 σ 
( Φ - Verteilungsfunktion von N(0, 1))
Beweis des Satzes: Es gilt:
Substitution:
u=
x: − ∞ → a
( x − µ)
σ
→
du 1
=
dx σ
→
dx = σdu
 a − µ
u: − ∞ → 

 σ 
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
64
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
(a − µ )
⇒ F (a) =
1
(a − µ )
=
⋅
2π ⋅ σ
σ
∫
e
−
u2
2
(a − µ )
⋅ σ dx =
−∞
σ
1
∫
−∞
2π
(
)
⋅e
−
u2
2
du
a−µ

σ 
σ
∫ ϕ (u )du = Φ ⋅ 
−∞
qed.
Bedeutung: Wir können jede beliebige N µ , σ 2 auf die Standardnormalverteilung
zurückführen. Wir brauchen nur die Werte Φ(x) .
Diese sind tabelliert (numerische Lösung des Integrals)
x
Φ( x) = ∫ ϕ (u )du =
−∞
1
2π
x
⋅ ∫e
−
u2
2
du .
−∞
Arbeit mit der Tabelle der Standardnormalverteilung (Anhang, Tabelle 1.1):
0
1
9
0,0
0,1
φ(1.01)
1,0
1,1
φ(3,09)
3,0
-3
x
3
φ(x) ist ∀ x in diesem Bereich ([0,3.09]) tabelliert
Begründen Sie, warum dieser Bereich ausreicht ! Welche
Eigenschaften besitzt die Normalverteilung N(0,1) ?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
65
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
Es gilt: φ(-a) = 1 –Φ(a)
1. Die N(0,1)-Verteilung ist symmetrisch !
φ(-a)
1 – φ(a)
–a
a
2. Es gilt: φ(x)=1 für alle x>3.09 !
Bemerkung : Wir können sogar zeigen, daß für eine beliebige Normalverteilung gilt:
F(x) = 1 für x > 3σ (siehe unten, 1-,2-,3-σ-Bereiche).
Rechenbeispiele:
u
0,0
:
1,0
:
2,0
:
3,0
0
1
2
...
9
0,8438
u
}
1) Φ (1,01) = 0,8438
2) Φ(2,73) = 0,9968
3) Φ(− 2) = 1 − Φ(2) = 1 − 0,9772 = 0,0228
(
Beispiel 48: Sei X der zufällige IQ eines Saarländers, X ~ N 100, (15)
Ges.: P( X > 70)
Lös.: P ( X ≥ 70 ) = 1 − P ( X ≤ 70 ) = 1 − F (70) = 1 − Φ (
= 1 − Φ(− 2) = Φ (2) = 0,9772
2
)
70 − 100
)
15
⇒ 97,72 % der Saarländer haben IQ ≥ 70
2,28 % der Saarländer haben IQ < 70
Beispiel 49: Sägewerk: Bretter:
Normallänge: n = 20 Meter
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
66
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
Aufgrund der Produktionstechnologie wird die Normlänge n nicht immer genau
erreicht, sondern die produzierte Länge schwankt zufällig um n.
(
Sei X – zufällige Länge mit X ~ N n = 20m, (2 mm)
2
)
Alle Bretter sind Ausschuß, für die gilt, daß ihre Länge um mehr als 3,6mm von n
= 20m abweicht.
a) Wieviel % der Werkstücke werden mit der gewünschten Qualität produziert?
b) Wieviel % der Bretter sind Ausschuß?
c) Wie groß darf die Abweichung von der Normlänge n maximal sein, damit
höchstens 5% aller Bretter Ausschuß sind ?
Lös.: a)
(
)
P X − 20000mm < 3,6mm


n − 3,6 ≤ X ≤ n123
= P 123
+ 3,6

 a
b
= F(n+3,6) - F(n - 3,6)
 n − 3,6 − n 
 n + 3,6 − n 
= Φ

 − Φ




2
2
(
= Φ(1,8) − Φ( − 1,8) = Φ(1,8) − 1 − Φ(1,8))
= 2 ⋅ Φ(1,8) − 1
= 2 ⋅ 0,9641 − 1
= 1,9282 − 1 = 0,9282 = 92,82%
b) 7,18 % sind Ausschuß!
Lösen Sie c) !
Veranschaulichen Sie sich die Lösungen zu a), b), c) grafisch anhand der
Dichte der Normalverteilung von X !
1, 2 und 3-σ
σ-Bereiche der Normalverteilung:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
67
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
(
X ~ N µ, σ 2
µ – 3σ
µ – 2σ
µ
µ–σ
µ+σ
µ + 2σ
)
µ + 3σ
1-σ-Bereich
2-σ-Bereich
3-σ-Bereich
(
)
Satz: Sei X ~ N µ , σ 2 . Dann gilt:
1.) P(µ − σ ≤ X ≤ µ + σ ) = 0,68
2.) P(µ − 2σ ≤ X ≤ µ + 2σ ) = 0,955
3.) P(µ − 3σ ≤ X ≤ µ + 3σ ) = 0,998
Beweis des Satzes:
P(µ − iσ ≤ X ≤ µ + iσ )
= F(µ + iσ ) − F(µ − iσ )
 µ + iσ/ − µ/ 
 µ/ − iσ/ − µ/ 
= Φ /
 − Φ





σ/
σ/
= Φ( i ) − Φ ( − i )
= 2 ⋅ Φ(i) − 1
Nun gilt: 1.) Φ(1) = 0,8413
,i = 1, 2, 3
⇒ P(µ − σ ≤ X ≤ µ + σ ) = 2 ⋅ 0,8413 − 1 = 0,68
2.) Φ(2) = 0,9772
⇒ P(µ − 2σ ≤ X ≤ µ + 2σ ) = 2 ⋅ 0,9772 − 1 = 0,955
3.) Φ(3) = 0,9987
⇒ P(µ − 3σ ≤ X ≤ µ + 3σ ) = 2 ⋅ 0,9987 − 1 = 0,998
q.e.d
2
aller beobachtbaren Werte von X liegen im 1-σ-Bereich.
3
– Fast alle beobachteten Werte von X liegen im 3-σ-Bereich.
Bedeutung: – Ca.
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
68
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
Für die Praxis:
(
)
X → Beobachtungen x1,...,xn über den Typ der Verteilung X ~ N µ , σ 2 .
Schätzung der Paramater:
µ ≈ x , σ 2 ≈ s2
(
⇒ N ≈ N x, s 2
)
Schluß von Stichprobe auf Gg:
68 % aller Werte von X sind ∈[ x − s, x + s]
fast alle (99,8 %) Werte von X sind ∈[ x − 3s, x + 3s]
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
69
Kapitel II
4.3 Übungsaufgaben
Spezielle Wahrscheinlichkeitsverteilungen-stetig
1. Ein Versicherungsvertreter schließt mit 5 Kunden, die das gleiche Alter besitzen,
Lebensversicherungsverträge ab. Nach der Sterbetafel beträgt die Wahrscheinlichkeit für
jeden der 5 Kunden, die nächsten 30 Jahre zu überleben, 0.60.
Berechnen Sie die Wahrscheinlichkeit dafür, daß nach 30 Jahren
a) genau 2 Kunden
b) alle 5 Kunden
c) wenigstens 2 Kundennoch am Leben sind!
d) Wieviele Kunden sind im Mittel nach 30 Jahren noch am Leben?
2. In einer Vermittlungsstelle werden im Durchschnitt 100 Anrufe pro Stunde gezählt. Die
maximale Kapazität der Vermittlungsstelle erlaubt die Vermittlung von höchstens 10
Anrufen pro Minute.
a)Wie groß ist die Wahrscheinlichkeit dafür, die maximale Kapazität zu überschreiten?
b) Wie groß ist die Wahrscheinlichkeit dafür, daß die Zeit zwischen dem Eintreffen
zweier Anrufe 20 Sekunden überschreitet?
3. In einem Experiment wurde die Zeit T für die Lösung einer Denkaufgabe gemessen.
Sie entspricht einer normalverteilten Zufallsgröße mit dem Mittelwert m = 20 Sekunden
und der Varianz = 25 (Sekunden)2. Man bestimme
a) die Wahrscheinlichkeit dafür, daß die Lösungszeit 25 Sekunden nicht überschreitet.
b) den prozentualen Anteil der Personen, deren Lösungen zwischen 11 und 22 Sekunden
liegt.
c) Welche Lösungszeit wird von 95 % aller Personen nicht überschritten?
4. Die zufällige Zeit, die ein Organismus benötigt, um eine Droge abzubauen sei
exponentialverteilt mit dem Parameter α = 0,25 (Stunde)-1. Die Fahrtüchtigkeit der Person
ist erst hergestellt, wenn die Droge in ihrem Organismus vollständig abgebaut ist.
a) Wie groß ist die mittlere Abbauzeit?
b) Wie groß ist die Wahrscheinlichkeit dafür, daß eine Person, der die Droge verabreicht
wurde, nach mindestens 4 und höchstens 6 Stunden wieder fahrtüchtig ist?
c) Nach welcher Zeit ist in 80 % der Fälle die Droge abgebaut?
5. Auf einem Markt wird an einer Würfelbude für 1 DM Einsatz folgendes Spiel angeboten:
Der Spieler würfelt gleichzeitig mit 3 Würfeln.
Hat er 3 Sechsen gewürfelt, so bekommt er 200 DM zurück.
Hat er 2 Sechsen gewürfelt, so bekommt er 50 DM und bei einer Sechs nur den Einsatz
von 1 DM zurück. In jedem anderen Fall bekommt er nichts.
Wie hoch ist der erwartete Gewinn (Erwartete Einnahme pro Spiel – Einsatz)?
Würden Sie dieses Spiel spielen?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
70
Kapitel II
Spezielle Wahrscheinlichkeitsverteilungen-stetig
6. Zwei Spieler A und B überlegen sich folgendes Glücksspiel: B merkt sich eine natürliche
Zahl zwischen 0 und 2 ( x ∈{0,1,2} ). A muß sie erraten. A hat das Spiel gewonnen, falls er
die Zahl richtig rät. Andernfalls hat B gewonnen.
A und B wollen nun 2 Spielserien unter folgenden Bedingungen austragen:
− Jede Serie besteht aus mehreren einzelnen unabhängigen Spielen: Die 1. Serie wird
über 4 Spiele, die 2. Serie über 2 Spiele ausgetragen.
− A hat eine Serie gewonnen, wenn er in dieser Serie mehr Spiele als B gewonnen hat.
− A setzt vor jedem Spiel 1 DM als Einsatz ein. Gewinnt A ein Spiel, dann erhält er 2 DM
zurück.
Man berechne
a) die Wahrscheinlichkeit dafür, daß der Spieler A die 1. Serie gewinnt!
b) die erwartete Zahl der durch A gewonnenen Spiele nach beiden Spielserien!
c) Wie groß ist der erwartete Gewinn von A (Erwartete Einnahme pro Spiel – Einsatz)
nach einem Spiel?
(Beachten Sie den Unterschied zwischen “Spiel” und “Spielserie”!
7. Ein Forstbetrieb liefert Stangenholz, dessen Länge normalverteilt mit N(20; (0,09))
(Angaben in Metern) um 20 Meter schwankt. Alle Stangen mit einer Länge von weniger
als 19,6 und mehr als 20,4 Metern gelten als Ausschuß!
a) Berechnen Sie die Ausschußrate der Produktion!
b) Wie groß ist die Wahrscheinlichkeit dafür, daß sich in einer Menge von 4
Stangenhölzern mindestens zwei Ausschußstangen befinden?
c) Wieviele Ausschußstangen muß man in einer Serie von 100000 Stück erwarten?
d) Berechnen Sie den Toleranzbereich um 20 herum, d.h. das ε, so daß genau 5%
aller Stangen außerhalb des Toleranzbereiches [20 - ε, 20 + ε] liegen!
8. Eine Schaltung besteht in der in der Skizze dargestellten Weise aus 3 Bauelementen.
Das Gerät fällt aus, wenn beide Reihen ausfallen. Eine Reihe fällt aus, wenn mindestens eines der
in Reihe geschalteten Elemente ausfällt.
Die zufällige Zeit bis zum Ausfall eins Bauelements ist wie folgt gegeben:
Bauelement B1 : T1∼ N(100, 4)
Bauelement B2 : T2∼ N(200, 9)
Bauelement B3 : T3 ∼ E(0,01)
(alle Angaben in Stunden)
Die Elemente B1, B2, B3 fallen unabhängig voneinander aus, d.h., T1, T2, T3 sind
stochastisch unabhängig.
Berechnen Sie die Wahrscheinlichkeit dafür, daß die Lebensdauer des Gerätes 100
Stunden nicht überschreitet !
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
71
Kapitel II
Reproduktions- und Grenzwertsätze
5 Reproduktions- und Grenzwertsätze
5.1 Reproduktionssätze
Beispiel 50: Der Aufzug in einer Firma ist zugelassen für 12 Personen bzw. 1000 kg. Das
Durchschnittsgewicht der Angestellten der Firma ist µ = 80 kg mit σ = 4 kg und
ist normalverteilt.
Wie groß ist die Wahrscheinlichkeit dafür, daß 12 Personen mehr als 1000 kg
wiegen?
Xi – zufälliges Gewicht von Person i
Xi ~ N(80, (4)2) , i=1,...,12
X = X 1 + L + X 12
ges.: P( X > 1000kg)
Zufallsgrößen.
⇒ Wir benötigen die Verteilung der Summe von
Beispiel 51:
Berlin
X
Vst.
Saarbrücken
Y
Vermittlungsstelle
X – Anzahl eintreffender Signale pro µs aus Berlin
Y – Anzahl eintreffender Signale pro µs aus Saarbrücken
( )
Es seien X ~ P(λ x ) und Y ~ P λ y
ges.: Wahrscheinlichkeit dafür, daß X + Y > c , c – Kapazität der Vst.
→ Wir benötigen die Kenntnis der Verteilung von X + Y!
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
72
Kapitel II
Reproduktions- und Grenzwertsätze
Beispiel 52:
A2
A1
Ankunftsstrom aus Richtung A1:
Xi – zufällige Anzahl von eintreffenden Autos in aus Richtung
Ai pro min.
Sei X 1 ~ P(λ 1 ) ,
X 2 ~ P( λ 2 ) ,
λ i = EX i .
Ges.: Wahrscheinlichkeitsverteilung für die Gesamtzahl X =X1 +X2 der an der
Kreuzung eintreffenden Autos.
X ~ F1
Allgemeine Problemstellung: geg.: 
Y ~ F2
ges.: X + Y ∼ ?
Satz: (Reproduktionssatz)
Seien X und Y zwei stochastisch unabhängige Zufallsgrößen.
Dann gelten folgende Aussagen:
(
(
)
1.) X ~ N µ , σ 2 ⇒ aX + b ~ N aµ + b, a 2 σ 2
)
(Typ der Normalverteilung bleibt bei linearen Transformationen erhalten.)
(
(
)
)
2
2.) X ~ N µ 1 , σ 1 

2
2
 ⇒ X + Y ~ N µ 1 + µ 2 , σ1 + σ 2
2
Y ~ N µ2 ,σ2 

(
)
3.) X ~ B(n1 , p )
⇒ X + Y ~ B(n1 + n2 , p )
Y ~ B(n2 , p ) 
3.) X ~ P(λ 1 ) 
 ⇒ X + Y ~ P( λ 1 + λ 2 )
Y ~ P(λ 2 )
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
73
Kapitel II
Reproduktions- und Grenzwertsätze
Anwendung: (zum Beispiel 50)
(
)
geg.: X i ~ N 80, (4) 2 , i = 1,...,12
ges.: P ( X > 1000 ) mit X ges = X 1 +L+ X 12


⋅3
80, (12) ⋅ (4) 2 
Es folgt: X ges ~ N 12
12


960
Daraus folgt:
 1000 − 960 
P (X ges > 1000) = 1 − P(X ges ≤ 1000) = 1 − F (1000) = 1 − Φ

12 ⋅ 4 

 40 
= 1 − Φ
 = 1 − Φ(2,89) = 1 − 0,998 = 0,002
 192 
Achtung: Es gilt nicht: Xges = X1 + X2 +...+ X12 = 12 X1 !!
Definition : Sei X eine Zufallsgröße mit der Verteilungsfunktion F(x). Wir bezeichnen
X1,...,Xn als (mathematische) Stichprobe von X, falls gilt:
a) X1,..., Xn sind gegenseitig stochastisch unabhängig
b) Xi hat die gleiche Verteilung (Verteilungsfunktion F) wie X.
(Xi ist die i.te (zufällige) Beobachtung von X)
Sei X ~N(µ, σ2) eine normalverteilte Zufallsgröße und X1, ...,Xn eine
Stichprobe von X.
Welche Verteilung besitzt das arithmetische Mittel
X =
1 n
∑ Xi ?
n i =1
5.2 Grenzwertsätze
 n
n−i
Wir kennen:   ⋅ p i ⋅ (1 − p)
 i
( B( n, p) ≈ P( n ⋅ p))

→
n →∞
p →∞
n⋅p = λ = const .
λi − x
⋅e
i!
Wir können die Binomialverteilung auch durch eine Normalverteilung approximieren:
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
74
Kapitel II
Reproduktions- und Grenzwertsätze
Satz: (Grenzwertsatz von Moivre – Laplace)
Sei X ~ B( n, p) .
Dann gilt:
X − EX
Var ( X)
X − n⋅p
=
n ⋅ p(1 − p)
ist für n → ∞ Standardnormalverteilt.
Dieser Satz besagt: Y =
X − n⋅p
n ⋅ p(1 − p)
≈ N(0,1)
n groß
bzw. ( wegen
X = Y ⋅ n ⋅ p(1 − p) + n ⋅ p und
Reproduktionssatz a))
(
X ~ B( n, p) ≈ N n ⋅ p, n ⋅ p(1 − p))
n groß
Beispiel 53:
Versuch: 600x Würfeln
Gesucht:
Wie groß ist die Wahrscheinlichkeit dafür, daß die Anzahl gewürfelter “6” bei
600 Würfeln zwischen 95 und 105 liegt?
Lösung:
Sei X – zufällige Anzahl gewürfelter “6” bei 600 Versuchen.
1

X ~ B n = 600, p = 

6
P(95 ≤ X ≤ 105) =
i
 600  1   5 

 ⋅  ⋅ 
i   6  6
i = 95 
105
∑
600 − i
Verwendung des obigen Satzes:
1
1 5

⇒ Es gilt: X ≈ N  600 ⋅ , 600 ⋅ ⋅ 

6
6 6
⇒ P(95 ≤ X ≤ 105) = F(105) − F( 95)








95 − 100 
105 − 100 


=Φ
−Φ


5 
5 
 10 ⋅

 10 ⋅



6 
6 
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
75
Kapitel II
Reproduktions- und Grenzwertsätze












5 
5 
−5 
Φ
− Φ
= 2 ⋅ Φ
−1



5
5
5
 10 ⋅

 10 ⋅

 10 ⋅




6
6
6
= 2 ⋅ Φ(0,55) − 1
= 2 ⋅ 0,7088 − 1 = 0,417
Verteilung der relativen Häufigkeit hn(A) eines Ereignisses A:
Sei A ein Ereignis mit der Eintrittswahrscheinlichkeit p:=P(A) und X das Ergebnis des
zufälligen Versuchs V in welchem das Eintreten von A beobachtet wird:
 1
X =
0
A
A
tritt
tritt
nicht
ein
ein
p
1− p
n
Sei Xi , i=1,...,n, eine Stichprobe von X. Dann gilt offensichtlich:
hn ( A) =
∑X
i =1
n
i
.
Wie ist hn ( A) verteilt?
Aus dem Satz von Moivre-Laplace folgt:
n
nhn ( A) = ∑ X i ~ B(n, p ) ≈ N (np, np (1 − p )) .
i =1
Aus dem Reproduktionssatz ergibt sich dann:
hn ( A) ≈ N ( p,
p (1 − p )
).
n
Sei W Wahrscheinlichkeit dafür, daß bei n= 150 Beobachtungen hn ( A)
von der Wahrscheinlichkeit p=P(A) um nicht mehr als 0,01 abweicht.
a) Geben Sie unter Verwendung der Abschätzung : p(1-p)≤ ¼ für alle
p∈[0,1] eine untere Schranke für die Wahrscheinlichkeit W an!
b) Wie viele Versuche muß man mindestens durchführen (d.h., wie groß
muß n mindestens sein), um P(A) durch die relative Häufigkeit hn ( A) mit
mindestens 99 % iger Sicherheit mit einer Abweichung von höchstens ±
0,002 genau zu schätzen ?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
76
Kapitel II
Reproduktions- und Grenzwertsätze
Satz: (Zentraler Grenzwertsatz (ZGWS))
n unabhängige Zufallsgrößen mit EX i = µ i und = 1,...,n.
Seien X1,...,Xn
Dann gilt:
n
∑ (X
i
i =1
− µi )
ist für große n standardnormalverteilt.
n
∑σ
2
i
i =1
n
∑ (X
Bemerkung:
i
i =1
− µi )
n
∑σ
≈ N(0, 1)
2
i
i =1
n
 n
2
X i ≈ N µ i , σ i 

 i =1
i =1
i =1
n
⇔
∑
∑ ∑
Wenn man n stochastisch unabhängige Zufallsgrößen additiv überlagert, ist die entstehende
Summe approximativ normalverteilt.
Spezialfälle des ZGWS
1.
Xi sind stochastisch unabhängige Bernouilli-verteilte Zufallsgrößen mit der
Erfolgswahrscheinlichkeit p.
Aus dem ZGWS erhält man in diesem Fall den Satz von Moivre-Laplace.
2.
Xi sind stochastisch unabhängige identisch verteilte Zufallsgrößen
Var ( X i ) = σ 2
,i=1,...,n (Stichprobe einer Zufallsgröße X mit
mit EX i = µ ,
EX=µ, Var(X)=σ2)
a) Zeigen Sie, daß der Satz von Moivre-Laplace aus dem Zentralen
Grenzwertsatz folgt!
b) Überlegen Sie sich, wie im 2. Fall das arithmetische Mittel
X =
1 n
∑ Xi
n i =1
für große n verteilt ist (Angabe der Parameter der Verteilung!)
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
77
Kapitel II
Reproduktions- und Grenzwertsätze
5.3 Übungsaufgaben
1. Eine Maschine packt X Gramm pulverförmiges Desinfektionsmittel in Y Gramm schwere
Schachteln.
X und Y seien normalverteilt gemäß
X ~ N 100g, 1g 2 ;
Y ~ N 5g, 0,5g 2 .
(
)
(
)
Mit wieviel % fertiger Packungen zwischen 104 g und 106 g ist dann zu rechnen?
2. Die Sterbewahrscheinlichkeit bei einer bestimmten Krankheit ist 5 %.
Wie groß ist die Wahrscheinlichkeit dafür, daß von 10000 Fällen mehr als 500 sterben?
3. Ein Marktforschungsinstitut soll eine Angabe über den durchschnittlichen
Wasserverbrauch µ aller Haushalte der BRD im Monat August machen.
Angenommen, es sei bekannt, daß der Wasserverbrauch im August über alle Haushalte
gesehen normalverteilt ist mit einer Standardabweichung von σ=3l.
a) Wie groß ist die Wahrscheinlichkeit dafür, daß das arithmetische Mittel einer
Stichprobe von n=40 Haushalten vom Mittel aller Haushalte höchstens um 2 l
abweicht?
b) Bei einer Stichprobe von n=40 Haushalten ergab sich in diesen
Haushalten ein arithmetisches Mittel von x = 100l . Geben Sie ein symmetrisches
Intervall um x an, in welchem µ mit 95% iger Sicherheit liegt!
c) Wieviele Haushalte müßte man unter der Annahme σ=3l untersuchen, damit die
Abweichung des Stichprobenmittels vom gesuchten Mittel aller Haushalte mit
mindestens 99% Sicherheit höchstens um 4 l abweicht?
4. Nach dem Verlieren eines Würfelspiels behauptet der verlierende Student wutentbrannt,
daß bei dem verwendeten Würfel die Wahrscheinlichkeit eine 6 zu würfeln nicht 1/6,
sondern 1/4 beträgt. Um seine Hypothese zu bekräftigen, schlägt er vor, n Versuche
(Versuch = 1 mal Würfeln) durchzuführen und die Wahrscheinlichkeit p:=P(A) des
Ereignisses A=“Würfeln einer 6“ durch die relative Häufigkeit hn ( A) zu schätzen.
a) Sei W Wahrscheinlichkeit dafür, daß bei n= 300 Beobachtungen hn ( A) von der
Wahrscheinlichkeit P(A) um nicht mehr als 0,01 abweicht. Geben Sie unter Verwendung
der Abschätzung : p(1-p)≤ ¼ für alle p∈[0,1] eine untere Schranke für die
Wahrscheinlichkeit W an!
b) Wieviele Versuche muß man mindestens durchführen (d.h., wie groß muß n
mindestens sein), um P(A) durch die relative Häufigkeit hn ( A) mit mindestens 99 % iger
Sicherheit mit einer Abweichung von höchstens ± 0,005 genau zu schätzen ?
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
78
Anhang
6 Zahlentabellen
6.1 Verteilungsfunktion der Standardnormalverteilung
Verteilungsfunktion und Quantile der Standardnormalverteilung
Beispiele: u=1,67 ⇒ Φ(u) = 0,9525;
u=1,673 ⇒ Φ(u) = 0,9528;
u=-0,82 ⇒ Φ(u) = 1-Φ(-u) = 1-0,7939 = 0,2061
©Prof. Dr. rer. nat. B. Grabowski
HTW des Saarlandes (2005)
79
Herunterladen