2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen

Werbung
2
Wahrscheinlichkeitsverteilungen und
Zufallsvariablen
In der beschreibenden Statistik werden Stichproben ubersichtlich tabellarisch oder graphisch beschrieben. Ein wichtiges Ziel ist jedoch, Schlusse von einer zufallig herausgegrienen Stichprobe auf die zugehorige Grundgesamtheit zu ziehen. In der Regel ist
die Grundgesamtheit mit den interessierenden Eigenschaften nicht vollstandig bekannt.
Das mag prinzipielle Grunde haben, weil es sich um eine hypothetische Grundgesamtheit handelt oder auch okonomische, weil die Erfassung der ganzen Grundgesamtheit
unwirtschaftlich ist. In dieser Situation soll eine Stichprobe aus dieser Grundgesamtheit helfen, eine Aussage uber die interessierenden Parameter zu machen. Betrachtet
man die Grundgesamtheit als groe Urne, so wird jede daraus gezogene Stichprobe
jeweils etwas andere Parameterwerte liefern. Um nun mit Hilfe einer einzigen Stichprobe eine Aussage, wenn auch nicht mit 100%-iger Sicherheit, zu machen, so mu
man wissen, wie sich die Parameterwerte aller moglichen Stichprobenwerte vom Umfang n in dieser Grundgesamtheit verteilen. Damit kommt man zu den theoretischen
Wahrscheinlichkeitsverteilungen, die die Gesetzmaigkeiten zwischen Parametern der
Grundgesamtheit und Parametern einer Stichprobe aufzeigen.
Die bisher behandelten Haugkeitsverteilungen, die aus Stichproben gewonnen wurden, werden als empirische Verteilungen bezeichnet, im Gegensatz zu den theoretischen Wahrscheinlichkeitsverteilungen, die als mathematische Modelle von
Grundgesamtheiten aufgefat werden konnen.
In Kapitel 3 werden einige wichtige Wahrscheinlichkeitsverteilungen vorgestellt, die
sich zum groen Teil in der Natur angenahert wiedernden. Sie werden zur statistischen Analyse benotigt, um einen Schlu von einer Stichprobe auf die Grundgesamtheit
ziehen zu konnen.
Im folgenden Kapitel erfolgt zunachst eine kurze Einfuhrung in die Kombinatorik,
die fur die Berechnung von klassischen Wahrscheinlichkeiten eine groe Bedeutung
hat. Im Anschlu daran werden Zufallsereignisse deniert und der Begri der Wahrscheinlichkeit mathematisch erfat. Die Wahrscheinlichkeitstheorie hat die Aufgabe,
mathematische Modelle fur zufallig ablaufende Experimente zu entwickeln. Grundlegende Arbeiten hierzu hat Kolmogoro geleistet, der 1933 den axiomatischen Aufbau
der Wahrscheinlichkeitstheorie vorschlug. Wahrscheinlichkeitsverteilungen ermoglichen
wahrscheinlichkeitstheoretische Aussagen uber hypothetische Zufallsvariablen. Der Abschlu des Kapitels behandelt die Beschreibung von Verteilungen durch geeignete Mazahlen.
72
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.1 Kombinatorik
Bei vielen Problemen, insbesondere in der Wahrscheinlichkeitstheorie, tritt die Frage
auf, wieviele verschiedene Anordnungen von Elementen einer Menge es gibt. Die Kombinatorik gibt Auskunft uber mogliche Zusammenstellungen und Anordnungen von
endlich vielen, beliebig gegebenen Elementen einer Menge. Zwei Zusammenstellungen
gelten zunachst als verschieden, wenn in ihnen nicht genau die gleichen Elemente auftreten oder die Elemente in verschiedener Anzahl vorkommen. Man dierenziert im
einzelnen:
Zusammenstellungen ohne Berucksichtigung der Anordnung
Zusammenstellungen mit Berucksichtigung der Anordnung
Je nachdem, ob in einer Zusammenstellung dieselben Elemente mehrmals auftreten
oder nicht, unterscheidet man auerdem zwischen:
Zusammenstellungen ohne Wiederholung
Zusammenstellungen mit Wiederholungen
Es gibt im wesentlichen drei Arten von Zusammenstellungen. Man bezeichnet diese wie
folgt:
Permutationen sind Zusammenstellungen, die alle gegebenen Elemente einer Menge enthalten
Variationen sind Zusammenstellungen von k Elementen aus einer Menge von n
Elementen mit Berucksichtigung der Anordnung (Variationen k-ter Klasse)
Kombinationen sind Zusammenstellungen von k Elementen aus einer Menge von
n Elementen ohne Berucksichtigung der Anordnung (Kombinationen k-ter Klasse)
2.1.1 Permutationen
Eine Zusammenstellung, in der alle n Elemente einer gegebenen Menge in irgendeiner
Anordnung stehen, heit Permutation. Unterschiedliche Anordnungen der n gegebenen Elemente sollen stets als verschiedene Permutationen aufgefat werden.
Permutationen ohne Wiederholung
Es seien n verschiedene Elemente (z.B. Personen, Gegenstande, Zahlen) gegeben, die
mit a1 ; a2 ; : : : ; an oder lediglich durch die Zahlen 1; 2; : : :; n gekennzeichnet seien. Diese
Elemente lassen sich auf mehrere Arten nebeneinander anordnen. Pn sei die Anzahl der
unterschiedlichen Permutationen von n verschiedenen Elementen. Fur n = 1; 2; 3 gibt
es folgende verschiedenen Permutationen:
Elemente
1
1; 2
1; 2; 3
n
Permutationen
Pn
1
1
1=1
2
12 21
2=12
3 123 213 312 132 231 321 6 = 1 2 3
2.1
Kombinatorik
73
Man kann sich Permutationen auch durch Anordnung verschieden farbiger Kugeln klarmachen (Bild 2.1).
n=1
n=2
n=3
1
r
r g
2
g r
r g b
r b g
g r b
g b r
b r g
b g r
6
Bild 2.1: Permutationen ohne Wiederholung
Entwickelt man dieses Schema weiter fur groere n, so folgt:
Die Anzahl Pn der Permutationen ohne Wiederholung, d.h. die Anordnung von
n verschiedenen Elementen ist:
Pn = 1 2 3 : : : n =
n! =
n
Y
i=1
n
Y
i=1
i = n!
(2.1)
i wird als \ n-Fakultat\ bezeichnet.
Der Beweis von Satz (2.1) erfolgt durch vollstandige Induktion.
Beispiel:
Vier Personen A,B,C,D sollen nebeneinander in einer Reihe aufgestellt werden. Es gibt
P4 = 4! = 24 verschiedene Anordnungen:
ABCD
BACD
CABD
DABC
ABDC
BADC
CADB
DACB
ACBD
BCAD
CBAD
DBAC
ACDB
BCDA
CBDA
DBCA
ADBC
BDAC
CDAB
DCAB
ADCB
BDCA
CDBA
DCBA
Die obige Auistung bezeichnet man als lexikographische Reihenfolge der Permutationen, da die einzelnen Permutationen wie in einem Lexikon der Reihe nach aufgefuhrt
sind.
Permutationen mit Wiederholungen
Mit den 3 Elementen a1 ; a2 ; b kann man 3! = 6 Permutationen bilden:
a1 a2 b a2 a1 b a1 ba2 a2 ba1 ba1 a2 ba2 a1
Ist nun a1 = a2 = a, so tritt das Element a zweimal auf. Von den 6 Permutationen
kann man nun diejenigen nicht mehr voneinander unterscheiden, die sich nur durch
eine Vertauschung der beiden Elemente a1 und a2 ergeben:
74
2
|
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
a1 a2 b a2 a1 b
a a b a a b
{z
aab
}|
a1 ba2 a2 ba1
a ba a ba
{z
aba
}|
ba1 a2 ba2 a1
ba a ba a
{z
baa
}
Auch hier kann man das Kugelbeispiel zur Verdeutlichung heranziehen (Bild 2.2).
g r
g r
g
r
r
r
r
r
r
r g
r g
r
g
r
Bild 2.2: Permutationen mit Wiederholungen
Untereinander abgebildete Kugelfolgen sind identisch, denn es interessiert nur die Kugelfarbe. Die beiden roten Kugeln konnen also beliebig vertauscht werden, ohne da
sich die Anordnung andert. Es gibt also nur noch 3!=2! = 3 verschiedene Permutationen.
A hnlich uberlegt man sich, da bei den 24 Permutationen der Elemente a1 , a2 , a3 und
b diejenigen zusammenfallen, die sich nur durch eine Permutation der Elemente a1 , a2
und a3 unterscheiden, wenn man a1 = a2 = a3 = a zulat, also das Element a dreimal
vorkommt. Es gibt 3! = 6 verschiedene Anordnungen der 3 Elemente a1 , a2 und a3 .
Also gibt es letztlich 4!=3! = 24=6 = 4 verschiedene Permutationen von vier Elementen,
von denen drei gleich sind:
a a a b, a a b a, a b a a, b a a a
Es gilt allgemein: Sind unter den n Elementen genau r gleiche Elemente, so wird eine
Anordnung der n Elemente durch Permutation der gleichen Elemente nicht geandert.
Samtliche Anordnungen lassen sich daher zusammenfassen in Gruppen von je r! gleichen Anordnungen. Es gibt also n!=r! verschiedene Permutationen. Dieser Schlu lat
sich verallgemeinern auf den Fall, da unter den n Elementen nicht nur gleiche Elemente
einer Art, sondern je r1 ; r2 ; : : : ; rp Elemente einander gleich sind:
Die Anzahl Pen der verschiedenen Permutationen mit Wiederholungen, also bei
r1 ; r2 ; : : : ; rp gleichen Elementen, ist:
Pen = r ! r !n!: : : r !
(2.2)
1
2
p
Beispiele:
1. Wie gro ist die Anzahl der Permutationen aus den 10 Elementen: a, a, a, a, b,
b, c, d, d, d? Es ist n = 10, r1 = 4, r2 = 2, r3 = 1, r4 = 3. Die Anzahl Pe10 der
verschiedenen Anordnungen ist: Pe10 = 4! 2!10!
1! 3! = 12600
2. Zwei Zwillingspaare (eineiig) A1 A2 und B1 B2 werden nebeneinander in einer Reihe
aufgestellt. Die Zwillinge sind nicht zu unterscheiden, also A1 = A2 = A und B1 =
4! = 6 verschiedene Anordnungen:
B2 = B. Es gibt dann Pe4 =
2! 2!
AABB
ABAB
ABBA
BBAA
BABA
BAAB
2.1
Kombinatorik
75
2.1.2 Variationen
Zusammenstellungen von k Elementen aus n Elementen (k n) unter Berucksichtigung
ihrer Anordnung nennt man Variationen von n Elementen zur k-ten Klasse. Ihre
Anzahl bezeichnet man mit Vn(k) . Auch hier wird unterschieden zwischen Variationen
mit oder ohne Wiederholungen, je nachdem ob einzelne Elemente mehrmals auftreten
oder nicht.
Variationen ohne Wiederholung
Aus n verschiedenen Elementen kann man Gruppen aus k Elementen bilden. Dies
entspricht prinzipiell dem Ziehen von Kugeln aus einer Urne ohne Zurucklegen. Sind 3
Kugeln der Farbe rot, grun und blau in der Urne, dann kann man V3(1) Anordnungen
mit einer Kugel, V3(2) mit zwei Kugeln und V3(3) Anordnungen mit 3 Kugeln bilden
(Bild 2.3).
r g b
1. Zug
g
r
3
b
2. Zug
g
b
r
b
r
g
32
3. Zug
b
g
b
r
g
r
321
Bild 2.3: Variationen ohne Wiederholung
Das Ziehen jeweils einer Kugel fuhrt zu V3(1) = 3 verschiedenen Moglichkeiten. Beim
zweiten Zug ist eine Kugel weniger in der Urne. Infolgedessen hat man nur noch zwei
Moglichkeiten, eine Kugel zu ziehen. Mit den drei Moglichkeiten des ersten Zugs ergibt
sich V3(2) = 3 2 = 6. Beim dritten Zug ist nur noch eine Kugel in der Urne. Es existiert
nur noch eine Moglichkeit. Die Anzahl der Variationen von drei Kugeln ist demnach
V3(3) = 3 2 1 = 6. Dies ist gleich der Anzahl der Permutationen von drei Kugeln.
Fur n Kugeln hat man folgende Moglichkeiten:
Zug
1:
2:
3:
..
.
Moglichkeiten
n
n,1
n,2
..
.
k: n , k + 1
76
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Daraus folgt:
Die Anzahl Vn(k) der Variationen ohne Wiederholung von n Elementen zur k-ten
Klasse betragt:
Vn(k) = n (n , 1) : : : (n , k + 1) = (n ,n! k)!
(2.3)
Permutationen konnen auch als Variationen n-ter Klasse aus n Elementen aufgefat
werden:
Pn = Vn(n)
(2.4)
Beispiel:
Aus den vier Nucleotiden Adenin, Thymin, Guanin und Cytosin kann man
V4(3) = (4 ,4! 3)! = 4!
1! = 4! = 24
Triplets mit verschiedenen Basen bilden.
Variationen mit Wiederholungen
Konnen in den Anordnungen Elemente auch mehrmals vorkommen, so erhalt man
Variationen mit Wiederholungen Ven(k) . Die entspricht dem Ziehen von Kugeln aus einer
Urne mit Zurucklegen (Bild 2.4).
r g b
1. Zug
2. Zug
3. Zug
g
r
r
g
b
r
g
3
b
b
r
g
b
r g b r g b r g b r g b r g b r g b r g b r g b r g b
32
33
Bild 2.4: Variationen mit Wiederholungen
Bei drei verschieden farbigen Kugeln hat man pro Zug 3 Moglichkeiten. Fur n Kugeln
existieren pro Zug n Moglichkeiten. Folglich gilt:
Die Anzahl Ven(k) der Variationen mit Wiederholungen von n Elementen zur k-ten
Klasse betragt:
Ven(k) = nk
(2.5)
2.1
Kombinatorik
77
Beispiel:
Aus den vier Nucleotiden Adenin, Thymin, Guanin und Cytosin kann man
Ve4(3) = 43 = 64
Triplets bilden, wenn gleiche Basen auch mehrfach auftreten durfen.
Bei Variationen mit Wiederholungen kann k > n sein, denn man kann beim Ziehen
von Kugeln mit Zurucklegen beliebig oft ziehen.
Beispiel:
Das Genom eines Bakteriums besteht aus ca. 4 Mio: Nucleotiden. Die Anzahl aller
moglichen Nucleotidsequenzen dieser Lange betragt:
Ve4(4 Mio:) = 4(4 Mio:) 10(2:4 Mio:)
Zum Vergleich: Die Gesamtzahl aller stabilen Elementarteilchen des Universums wird
auf ca. 1080 geschatzt.
2.1.3 Kombinationen
Verzichtet man bei Zusammenstellungen von k Elementen aus einer Menge von n Elementen auf die Berucksichtigung der Anordnung, so erhalt man Kombinationen k-ter
Klasse.
Kombinationen ohne Wiederholung
Betrachtet man zunachst wieder den Fall lauter verschiedener Elemente in einer Kombination. Es gibt n!=(n , k)! verschiedene Variationen k-ter Klasse, jedoch zahlen alle
Variationen, die die gleichen Elemente enthalten, nur als eine einzige Kombination.
Bei k Elementen sind das k! Moglichkeiten (Permutationen), d.h. k! Variationen gelten
als jeweils gleich. In Bild 2.5 werden die untereinander stehenden Kugelfolgen nicht
unterschieden, da lediglich die Reihenfolge der Kugeln verschieden ist.
k=2
ohne
Zurucklegen
r g b
r g
r b
g b
g r
b r
b g
Bild 2.5: Kombinationen ohne Wiederholung
Mit Berucksichtigung der Anordnung gabe es V3(2) = 6 Moglichkeiten. Da jedoch die
untereinander stehenden Anordnungen in diesem Fall als gleich gelten, reduzieren sich
(2)
die Moglichkeiten um den Faktor P2 = 2. Es ist also: C3(2) = VP3 = 26 = 3
2
78
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
(k)
Fur beliebige n gilt: Cn(k) = VPn Daraus folgt:
k
(k)
Die Anzahl Cn der Kombinationen ohne Wiederholung aus n Elementen zur
k-ten Klasse betragt:
Cn(k) = n (n , 11) 2:: :: ::(nk, k + 1) = (n , nk!)! k! = nk
(2.6)
n
Die abkurzende Schreibweise k wird gesprochen als \ n uber k\. Die Ausdrucke nk
heien Binomialkoezienten.
Beispiel:
Im Zahlenlotto 6 aus 49 gibt es 49
6 14 Mio: mogliche Tips.
Die Moglichkeiten, einen Vierer zu tippen sind 64 43
2 = 13545, denn die vier
Richtigen lassen sich auf 64 Arten aus den sechs Richtigen ziehen, die zwei Falschen
auf 43
2 Arten aus den Falschen.
Kombinationen mit Wiederholungen
A hnlich wie bei den Variationen mit Wiederholung erhalt man Kombinationen mit
Wiederholung, indem man aus einer n-elementigen Menge k-mal ein Element zieht
und wieder zurucklegt (Bild 2.6).
k=2
mit
Zurucklegen
r g b
r r
g g
b b
r g
r b
g b
g r
b r
b g
Bild 2.6: Kombinationen mit Wiederholungen
Die Anzahl der Kombinationen mit Wiederholung lat sich berechnen zu:
+ 2 , 2) = 3 + 2 , 1 = 6
Ce3(2) = (3 + 2 , 1)1 (3
2
2
2.1
Kombinatorik
79
Fur beliebige n gilt:
Die Anzahl Cen(k) der Kombinationen mit Wiederholungen aus n Elementen zur
k-ten Klasse betragt:
: : : (n + 1) n
Cn = n + kk , 1 = (n + k , 1) (1n +2 k: ,: : 2)
k
e (k)
Auch bei Kombinationen mit Wiederholungen ist k > n moglich.
Beispiel:
Ein Strau mit 10 Tulpen aus 5 verschiedenfarbigen Sorten kann auf
5
+
10
,
1
14!
(10)
e
C5 =
= 14
10
10 = 4! 10! = 1001
Arten zusammengestellt werden.
(2.7)
80
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.1.4 Zusammenfassung
Haug bereitet es Schwierigkeiten zu entscheiden, welche Anordnung von Elementen
vorliegt. Es empehlt sich folgende Vorgehensweise:
Man entscheidet zunachst welche Art der Anordnung vorliegt.
Besteht die Anordnung aus allen Elementen einer Menge, dann liegt eine Permutation
vor. Im anderen Fall kommt Variation oder Kombination in Frage.
Wird die Reihenfolge der Elemente berucksichtigt, so handelt es sich um eine Variation, ansonsten um eine Kombination.
Nach der Entscheidung, welche Anordnung vorliegt, fragt man, ob Wiederholungen
vorkommen oder nicht.
Die folgende Tabelle zeigt einen U berblick uber die verschiedenen Arten der Anordnung
von Elementen und die Berechnung der Anzahl der unterschiedlichen Moglichkeiten:
Anordnung
Permutation
ohne Wiederholung
mit Wiederholungen
Variation
ohne Wiederholung
Anzahl der Anordnungen
n!
n!
r1 ! r2 ! : : : rp !
n!
(n , k)!
nk
mit Wiederholungen
Kombination
ohne Wiederholung
(k n)
(k > n moglich)
n =
n!
(k n)
k
(n , k)! k!
mit Wiederholungen n + kk , 1 = ((nn +, k1)!,1)!
k! (k > n moglich)
2.2
Zufallsereignisse
81
2.2 Zufallsereignisse
2.2.1 Zufallsexperimente und Ereignisse
Kausal-determinierte Experimente sind Experimente, deren Ergebnisse eindeutig
vorhersagbar sind wie z.B. die Fallzeit beim freien Fall einer Kugel, die Bahnkurve
eines Satelliten in einer Erdumlaufbahn, die Konzentration eines chemischen Reaktionsprodukts oder Schmelz- und Siedetemperatur von Eis bzw. Wasser.
Zufallsexperimente sind Experimente, die man beliebig oft in genau der gleichen
Weise wiederholen kann und deren Ergebnisse nicht eindeutig vorhersagbar sind, sondern vom Zufall abhangen wie z.B. beim Werfen eines Wurfels, beim Ziehen von Losen,
der radioaktive Zerfall eines bestimmten Uranatoms, die Milchleistung einer zufallig
ausgewahlten Kuh aus einer Population, der Kornertrag einer Einzelpanze aus einem
Getreidefeld oder der Einschlagpunkt eines Schusses auf eine Scheibe.
Bei der Ausfuhrung eines Zufallsexperiments treten in der Regel verschiedene Ergebnisse oder Ereignisse auf.
Ein Elementarereignis ist ein Ergebnis bei einmaliger Ausfuhrung eines Zufallsexperiments.
Beispiele:
1. Beim Wurfeln existieren als mogliche Elementarereignisse die Augenzahlen 1, 2, 3,
4, 5 und 6.
2. Bei einem Munzwurf mit einem Zweimarkstuck gibt es nur zwei mogliche Ausgange:
Das Obenliegen von \Kopf\ oder von \Zahl\.
3. Die Milchleistung von zufallig ausgewahlten Kuhen kann innerhalb eines gewissen
Intervalls (z.B. 0 : : : 5000 kg=Jahr) liegen. In diesem Fall sind unendlich viele Elementarereignisse moglich.
4. Die Ergebnisse der bisherigen Beispiele kann man mit einer einzigen Zahl beschreiben. Fur das Ergebnis eines Schusses auf eine Scheibe ist es zweckmaig, die x- und
y-Koordinate des Treers bezogen auf einen Nullpunkt anzugeben. Die Menge der
Elementarereignisse besteht in diesem Fall aus allen Zahlenpaaren (x; y 2 IR)
Die Menge aller Elementarereignisse oder Ergebnisse eines Zufallsexperiments heit
Ergebnisraum.
Beispiele:
1.
2.
3.
4.
Wurfel = f1; 2; 3; 4; 5; 6g
Munze = fKopf ; Zahlg
Milchleistung = f0 : : : 5000 kg=Jahrg
Schu = f(x; y) : x; y 2 IRg
82
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Die mehrmalige Ausfuhrung eines Zufallsexperiments liefert nacheinander mehrere Ergebnisse. Man kann den Versuchsausgang auf bestimmte Merkmale untersuchen. Tritt
ein Ergebnis mit diesem Merkmal auf, so sagt man, das zugehorige Ereignis ist eingetreten.
Ein Zufallsereignis (oder kurz Ereignis) A ist eine Teilmenge des Ergebnisraums. Ein
Ereignis A tritt ein, wenn das eintretende Elementarereignis zur Teilmenge A gehort.
Die Menge aller Ereignisse heit Ereignisraum. Der Ereignisraum ist die Potenzmenge
P (
) des Ergebnisraums , da die Potenzmenge die Menge aller Teilmengen ist.
Beispiele:
1. Werfen einer Munze: Munze = fKopf ; Zahlg. Alle Teilmengen von Munze sind
Ereignisse, also:
A1 = ;, A2 = fKopf g, A3 = fZahlg, A4 = fKopf ; Zahlg
Wirft man mit der Munze Kopf, dann sind die Ereignisse A2 und A4 eingetreten.
2. Ziehen von Losen: Lose = fGewinn; Nieteg. Zieht man uberhaupt kein Los, dann
ist das Ereignis A = ; eingetreten.
3. Wurfeln: Wurfel = f1; 2; : : :; 6g.
Merkmal
Augenzahl ist 6
Augenzahl ist ungleich 3
Augenzahl ist zwischen 4 und 6
Augenzahl ist Primzahl
Augenzahl ist 7
Augenzahl ist ungerade
Ereignis
A1 = f6g
A2 = f1; 2; 4; 5; 6g
A3 = f5g
A4 = f2; 3; 5g
A5 = ;
A6 = f1; 3; 5g
4. Ermittlung der Milchleistung aus einer Population. Sei A = fxj3500 x 4000g.
Das Ereignis A tritt ein, wenn eine Kuh eine Milchleistung zwischen 3500 und
4000 kg hat. Sei B = fxjx > 4000g. Das Ereignis B besteht darin, eine Kuh
herauszugreifen, deren Milchleistung groer als 4000 kg ist.
Wahrend man in den ersten drei Beispielen alle Teilmengen von aufzahlen kann, ist
dies im 4. Beispiel nicht moglich.
2.2.2 Verknupfung von Zufallsereignissen
Bei der Durchfuhrung eines Zufallsexperiments ist es moglich, da mehrere Ereignisse,
die aus Verknupfungen von Ereignissen A; B; C : : : hervorgehen, gleichzeitig eintreten.
Ein Ereignis A + B ist die Menge aller Elementarereignisse, die mindestens zu einem
der beiden Ereignisse A oder B gehoren, also die Vereinigungsmenge von A und B
(Bild 2.7 a):
A+B =A[B
(2.8)
2.2
Zufallsereignisse
83
Ein Ereignis A B ist die Menge aller Elementarereignisse, die sowohl zu A als auch zu
B gehoren, also die Durchschnittsmenge von A und B (Bild 2.7 b):
AB =A\B
(2.9)
Das Ereignis A , B = A B besteht aus allen Elementen von A, die nicht zu B gehoren.
A , B ist also die Dierenzmenge von A und B (Bild 2.7 c):
A,B =AnB
(2.10)
A heit das Komplementarereignis von A bezuglich . A besteht aus allen Elementen von , die nicht zu A gehoren, d.h. A ist die Komplementarmenge von A (Bild 2.7
d):
A=
,A
(2.11)
A
B
a) A + B
A
A
B
b) A B
B
c) A , B
A
d) A
Bild 2.7: Verknupfung von Ereignissen
Beispiel:
Wurfeln (vgl. Tabelle im vorhergehenden Beispiel):
Merkmal
Augenzahl: 6 oder Primzahl
Augenzahl: ungerade, ungleich 3
Augenzahl: gerade
Augenzahl: prim, ungleich 5
Ereignis
A1 + A4 = f2; 3; 5; 6g
A6 A2 = f1; 5g
A6 = , A6 = f2; 4; 6g
A4 , A3 = A4 A3 = f2; 3g
84
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.2.3 Der Borelsche Mengenkorper
Jede Teilmenge aus der Menge ist ein Zufallsereignis. Man betrachtet nun insbesondere bei uberabzahlbar unendlich groen Mengen nicht alle theoretisch moglichen
Teilmengen (also die Potenzmenge), sondern beschrankt sich zweckmaigerweise auf
eine bestimmte Menge F von Teilmengen, soda man diesen Teilmengen bzw. Zufallsereignissen bequem Wahrscheinlichkeiten zuordnen kann. Diese Menge F wird durch
folgende Eigenschaften charakterisiert:
1. F enthalt als Element die Menge .
2. Wenn A und B Elemente aus F sind, so enthalt F auch die Mengen (Ereignisse)
A + B , A B , A und B .
Aus diesen beiden Eigenschaften folgt:
a) Nach 1. enthalt F die Menge , nach 2. auch die Menge , das ist die Menge, die
gar kein Elementarereignis enthalt, also die leere Menge ;.
b) Mit endlich vielen Ereignissen A1 ; A2 ; : : : ; An gehort auch stets das Ereignis A1 +
A2 + : : : + An zur Menge F .
Man verlangt von F noch eine weitere Eigenschaft:
3. Gehoren abzahlbar unendlich viele Ereignisse A1 ; A2 ; : : : ; An : : : zu F , so gehoren
auch die Ereignisse A1 A2 : : : An : : : und A1 + A2 + : : : + An + : : : zu F .
F ist dann ein sog. Borelscher Mengenkorper.
Zur eindeutigen Festlegung von F braucht man nicht alle drei Eigenschaften zu fordern. Das soll aber nicht weiter interessieren, denn es wird nur versucht, einige charakterisierende Eigenschaften der Menge F aufzuzahlen. Der Grund fur die Forderung
der genannten drei Eigenschaften besteht darin, da man den Ereignissen, welche die
Elemente von F darstellen, Wahrscheinlichkeiten zuordnen kann. Den Elementen der
Menge aller Teilmengen von kann man dagegen nicht immer eine Wahrscheinlichkeit
zuordnen. Darum beschrankt man sich auf die Menge F .
2.2.4 Unvereinbare Ereignisse
Zwei zufallige Ereignisse A und B heien unvereinbar, wenn sie keine gemeinsamen
Elemente (Elementarereignisse) haben, also wenn ihr Durchschnitt AB die leere Menge
; ist: A B = ;.
Beispiel:
Wurfeln: = f1; 2; 3; 4; 5; 6g.
A : Augenzahl gerade, B : Augenzahl ungerade, A B = ;.
A und B sind also unvereinbar.
2.2
Zufallsereignisse
2.2.5 Sicheres und unmogliches Ereignis
Ist A = , so nennt man A das sichere Ereignis.
Ist A = = ;, also die leere Menge, so heit A das unmogliche Ereignis.
Beispiel:
Wurfeln: = f1; 2; 3; 4; 5; 6g.
A : Augenzahl zwischen 1 und 6, A = .
A ist also das sichere Ereignis.
Ein unmogliches Ereignis ist das Wurfeln der Zahl 7 oder gar keiner Zahl.
85
86
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.3 Wahrscheinlichkeiten
2.3.1 Die mathematische Wahrscheinlichkeit
Es wird ein Borelscher Mengenkorper F zugrunde gelegt. Die mathematische Wahrscheinlichkeit deniert man durch folgende vier Axiome:
1. Jedem zufalligen Ereignis A aus F wird eine nichtnegative Zahl P (A) zugeordnet.
Diese Zahl P (A) heit die mathematische Wahrscheinlichkeit des Ereignisses
A:
P (A) 0
(2.12)
2. Die Menge aller Elementarereignisse erhalt die Wahrscheinlichkeit 1. Mit anderen
Worten: Die Wahrscheinlichkeit des sicheren Ereignisses ist 1:
P (
) = 1
(2.13)
3. Sind die zufalligen Ereignisse A und B unvereinbar, so gilt:
P (A + B ) = P (A) + P (B )
(2.14)
4. Fur die Folge A1 ; A2 ; : : : ; An ; : : : von paarweise unvereinbaren Ereignissen gilt:
P (A1 + A2 + : : : + An + : : :) = P (A1 ) + P (A2 ) + : : : + P (An ) + : : :
(2.15)
Axiom (2.15) unterscheidet sich von Axiom (2.14) durch die unendliche Folge von Ereignissen A1 ; A2 ; : : : ; An ; : : :. Die Vereinigung A1 + A2 + : : : + An + : : : ist das Ereignis, das
genau dann eintritt, wenn mindestens eines der genannten unendlich vielen Ereignisse
eintritt.
Folgerungen:
1. Die Wahrscheinlichkeit fur das Eintreen des Komplementarereignisses ist:
P (A) = 1 , P (A)
(2.16)
A und A sind unvereinbar (A A = ;) und A + A = ) 1 = P (
) = P (A + A) = P (A) + P (A) , P (A) = 1 , P (A)
2. P (A) und P (A) sind nach Axiom (2.12) nicht negativ, es kann P (A) also hochstens
1 sein. Daher gilt:
0 P (A) 1
(2.17)
3. Das unmogliche Ereignis erhalt die Wahrscheinlichkeit 0, das sichere Ereignis die
Wahrscheinlichkeit 1. Es gilt jedoch nicht, da ein Ereignis mit der Wahrscheinlichkeit 0 unmoglich eintreten kann. Ereignisse mit der Wahrscheinlichkeit 0 heien
fast unmoglich, solche mit der Wahrscheinlichkeit 1 heien fast sicher.
2.3
Wahrscheinlichkeiten
87
4. Sind A1 ; A2 ; : : : ; An paarweise unvereinbare Ereignisse von F , so gilt:
P (A1 + A2 + : : : + An ) = P (A1 ) + P (A2 ) + : : : + P (An )
(2.18)
Fur beliebige Ereignisse A und B aus F ist A + B = A + (B , A B ) und B =
A B + (B , A B ). Die einzelnen Summanden der rechten Seiten sind jeweils
unvereinbare Ereignisse (vgl. Bild 2.8). Also gilt:
P (A + B ) = P (A) + P (B , A B ), P (B ) = P (A B ) + P (B , A B )
A
AB B,AB
B
Bild 2.8: Veranschaulichung des Additionssatzes
Somit ergibt sich nach Substitution von P (B , A B ) der allgemeine Additionssatz:
P (A + B ) = P (A) + P (B ) , P (A B )
(2.19)
Fur drei Ereignisse A, B , C ndet man entsprechend:
P (A + B + C ) = P (A) + P (B ) + P (C ) ,
, P (A B ) , P (A C ) , P (B C ) +
+ P (A B C )
(2.20)
2.3.2 Die klassische Wahrscheinlichkeit
Sind bei einem Zufallsexperiment endlich viele Elementarereignisse gleichwahrscheinlich, so ist die Wahrscheinlichkeit P (A) eines beliebigen Zufallsereignisses A:
Anzahl der \ gunstigen\ unvereinbaren
gleichwahrscheinlichen Elementarereignisse
P (A) = Anzahl der \ moglichen\ unvereinbaren
gleichwahrscheinlichen Elementarereignisse
(2.21)
GUGE .
oder kurz als Merkregel: P (A) = MUGE
Diese sog. Abzahlregel kann man aus den Axiomen und Rechenregeln fur Wahrscheinlichkeiten ableiten. Wird das Experiment einmal realisiert, so tritt eines der gleichwahrscheinlichen Ereignisse A1 ; A2 ; : : : An ein. Es ist A1 + A2 + : : : + An = . Die Ereignisse
A1 ; A2 ; : : : ; An bilden dann eine sog. vollstandige Ereignismenge.
88
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Liegt eine vollstandige Ereignismenge vor, die aus paarweise unvereinbaren Ereignissen
besteht, so gilt nach Gleichung (2.18): P (A1 + A2 + : : : + An ) = P (A1 ) + P (A2 ) + : : : +
P (An ). Wegen A1 + A2 + : : : + An = folgt:
P (A1 + A2 + : : : + An ) = P (
) = 1
(2.22)
Auerdem sollen die Ereignisse gleichwahrscheinlich sein, d.h. es ist P (A1 ) = P (A2 ) =
: : : = P (An ) = 1=n. Betrachtet man nun ein Ereignis A = A1 + A2 + : : : + Am (m n),
dann ist nach Gleichung (2.18):
P (A) = P (A1 + A2 + : : : + Am )
= P (A1 ) + P (A2 ) + : : : + P (Am ) =
= m
n
(2.23)
P (A) ist also der Quotient aus der Anzahl m der zu A gehorigen gunstigen Ereignisse
Ai (i = 1; 2; : : : ; m) und der Anzahl n aller Ereignisse der vollstandigen Ereignismenge.
Beispiele:
1. Wie gro ist die Wahrscheinlichkeit, sechs Richtige im Lotto zu tippen?
Es gibt nur eine einzige Moglichkeit, einen Sechser zu tippen: GUGE = 1.
Die moglichen Zahlenkombinationen sind: MUGE = 49
6 = 13983816
1
7:15 10,8, also ungefahr 1 : 14 Mio.
P (6er) = 13983816
2. Es interessiere die Wahrscheinlichkeit, mit zwei symmetrischen Wurfeln bei einem
Wurf die Augensumme 5 zu wurfeln. Als Elementarereignis kann hier ein Augenpaar, d.h. die vom einen und vom anderen Wurfel gewurfelten Augenzahlen, betrachtet werden. Zum Ereignis A = Augensumme 5 gehoren die vier Augenpaare
(1; 4), (2; 3), (3; 2) und (4; 1) von insgesamt 6 6 = 36 moglichen Augenpaaren. Also
ist P (5) = 4=36 = 1=9. Die Anzahl m der \gunstigen\ Falle fur jede der in Frage
kommenden Augensumme S = 2; 3; : : : ; 12 und die zugehorigen Wahrscheinlichkeiten P (S ) = m
n zeigt folgende Tabelle.
S
2 3 4 5
1; 1 1; 2 1; 3 1; 4
2; 1 2; 2 2; 3
3; 1 3; 2
4; 1
m 1 2 3 4
1 2 3 4
P (S ) 36
36 36 36
6
1; 5
2; 4
3; 3
4; 2
5; 1
7
1; 6
2; 5
3; 4
4; 3
5; 2
6; 1
5 6
5 6
36 36
8
2; 6
3; 5
4; 4
5; 3
6; 2
9
3; 6
4; 5
5; 4
6; 3
10 11 12
4; 6 5; 6 6; 6
5; 5 6; 5
6; 4
5
5
36
4
4
36
3
3
36
2
2
36
1
1
36
2.3
Wahrscheinlichkeiten
89
Die klassische Denition der Wahrscheinlichkeit wurde von Laplace (1749-1837) eingefuhrt. Sie ist insbesondere im Bereich der Glucksspiele anwendbar, wenn endlich
viele gleichmogliche Elementarereignisse vorhanden sind. Bei vielen anderen praktischen Zufallsexperimenten kann man aber die Menge der Elementarereignisse nicht
in endlich viele gleichwahrscheinliche Falle unterteilen. Der klassische Wahrscheinlichkeitsbegri ist dann nicht mehr anwendbar. Ein Beispiel dafur ist ein Wurfelspiel mit
einem unsymmetrischen Wurfel oder das zufallige Herausnehmen eines Tieres aus einer
Population mit der Frage nach der Wahrscheinlichkeit, da dessen Gewicht zwischen
100 und 120 kg liegt. Die Saatzuchtforschung fragt evtl. nach der Wahrscheinlichkeit
einer ungewohnlich hohen Ertragssteigerung mit einer bestimmten Sorte. Die pharmazeutische Industrie ist an der Wahrscheinlichkeit interessiert, mit der ein Heilerfolg
bei einem neuen Medikament zu erwarten ist. In allen diesen Fallen kann man keine
Einteilung in endlich viele gleichwahrscheinliche Elementarereignisse angeben. Insofern
ist also die klassische Denition nach Laplace nicht immer eine befriedigende Denition. Man mute z.B. schon vor der Festlegung der Wahrscheinlichkeiten wissen, wann
verschiedene Ereignisse die gleiche Wahrscheinlichkeit besitzen.
Durch die Axiome (2.12) { (2.15) ist die Wahrscheinlichkeit fur ein gegebenes Problem
mit einer ganz bestimmten Menge von Elementarereignissen nicht eindeutig festgelegt.
Man kann z.B. den Augenzahlen eines Wurfels jeweils die gleiche Wahrscheinlichkeit,
namlich 1/6, zuordnen, wenn man einen symmetrischen Wurfel unterstellt. Man konnte
aber auch folgende Zuordnung von Wahrscheinlichkeiten zu den Elementarereignissen
1; 2; : : : ; 6 treen: P (1) = 1=10, P (2) = 1=5, P (3) = 1=5, P (4) = 1=5, P (5) = 1=5,
P (6) = 1=10 und hatte dann einen \unsymmetrischen\ Wurfel.
Jede dieser beiden Wahrscheinlichkeitsbelegungen wurde die Axiome erfullen. Das bedeutet: Man kann den Elementarereignissen oder den Ereignissen der Borelschen Ereignismenge F auf verschiedene Arten Wahrscheinlichkeiten zuordnen. Eine feste Zuordnung bedeutet, da man ein bestimmtes Wahrscheinlichkeitsmodell auf das Zufallsexperiment anwendet. Die primare Forderung bei dieser Zuordnung von Wahrscheinlichkeiten ist jedoch, da die Axiome nicht verletzt werden, denn sie stellen gewissermaen
die Grundrechenregeln dar, denen Wahrscheinlichkeiten unbedingt genugen mussen.
Die Zuordnung von Wahrscheinlichkeiten in einem praktischen Problem mu aufgrund
zusatzlicher U berlegungen getroen werden und gibt dann die Verteilung der Wahrscheinlichkeiten, oder kurz die Wahrscheinlichkeitsverteilung des betreenden zufalligen Experimentes an. Diese sind als Modelle aufzufassen, wie Wahrscheinlichkeiten
Elementarereignissen oder Ereignissen zugeordnet werden konnen. Ob die gewahlte
Zuordnung mit dem zugrundeliegenden realen Sachverhalt ubereinstimmt, ist eine andere Frage und mu separat uberpruft werden.
Glaubt man z.B. einen symmetrischen Wurfel vor sich zu haben, nimmt man die Gleichwahrscheinlichkeit fur die sechs Augenzahlen an. Scheint der Wurfel unsymmetrisch zu
sein, liegt eine andere Wahrscheinlichkeitsverteilung vor. Einen Anhaltspunkt fur diese
schiefe Wahrscheinlichkeitsverteilung wird man u.U. aus empirischen Wurfelversuchen
mit diesem Wurfel gewinnen und danach ein Modell aufstellen und dieses selbst wieder
mit statistischen Prufverfahren nachprufen.
Im speziellen Fall von endlich vielen gleichwahrscheinlichen Elementarereignissen kann
man die Wahrscheinlichkeit irgendeines Ereignisses einfach mit der Abzahlregel bestim-
90
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
men. In allen anderen Fallen wird die Wahrscheinlichkeit eines Ereignisses aufgrund der
unterstellten Wahrscheinlichkeitsverteilung und den Rechenregeln fur Wahrscheinlichkeiten bestimmt. Das Berechnen von Wahrscheinlichkeiten aufgrund von theoretischen
Modellen oder Wahrscheinlichkeitsverteilungen ist die Hauptaufgabe der Wahrscheinlichkeitstheorie. Die U berprufung, ob das gewahlte Modell mit der Wirklichkeit nicht
in Widerspruch steht, gehort u.a. zur Aufgabe der Statistik.
2.3.3 Die bedingte Wahrscheinlichkeit
In einer Urne seien 100 Lose, davon 40 rote und 60 blaue. Von den 40 roten seien
10 Gewinnlose, von den 60 blauen seien 30 Gewinnlose. Das Ziehen eines Loses stellt
ein Elementarereignis dar. Unter der Voraussetzung, da ein rotes Los gezogen wurde,
will man die Wahrscheinlichkeit berechnen, da dieses gezogene Los ein Gewinnlos ist.
Man fragt also nach der Wahrscheinlichkeit P (Gewinnjrot), da das Ereignis \Gewinn\
eintritt unter der Bedingung \rot\.
10 = 0:25.
Nach der Abzahlregel (2.21) folgt: P (Gewinnjrot) = 40
10 = 0:10.
Andererseits ist P (Gewinn und rot) = 100
Das Ereignis \Gewinn und rot\ unterscheidet sich vom Ereignis \Gewinn unter der
Bedingung rot\ dadurch, da man von vorneherein nicht wei, ob ein rotes Los gezogen
wird.
40 = 0:4
Auerdem ist: P (rot) = 100
Man kann nun folgern:
und rot) = 10=100 = 0:25
P (Gewinnjrot) = P (Gewinn
P (rot)
40=100
Ausgehend von diesem Beispiel, bei dem insgesamt n gleichmogliche Falle unterschieden
werden konnen, deniert man allgemein die bedingte Wahrscheinlichkeit P (B jA) eines
Ereignisses B aus F unter der Bedingung A, falls A nicht ein unmogliches oder fast
unmogliches Ereignis ist.
Die Wahrscheinlichkeit eines Ereignisses B unter der Bedingung A ist:
P (B jA) = P P(A(A B) ) ; falls P (A) 6= 0
(2.24)
Aus Gleichung (2.24) folgt unmittelbar der allgemeine Multiplikationssatz:
Die Wahrscheinlichkeit, da sowohl das Ereignis A als auch das Ereignis B eintritt, ist
gleich dem Produkt aus der Wahrscheinlichkeit von A und der Wahrscheinlichkeit von
B unter der Bedingung, da A eingetreten ist:
P (A B ) = P (A) P (B jA)
(2.25)
) sind Wahrscheinlichkeiten in
Die bedingten Wahrscheinlichkeiten P (B jA) = P P(A(A B
)
dem Sinn, wie sie fruher eingefuhrt wurden, denn sie erfullen die Axiome der Wahrscheinlichkeitsrechnung. Es gilt namlich:
2.3
Wahrscheinlichkeiten
91
1. P (B jA) 0 wegen P (A B ) 0 und P (A) > 0.
)
2. P (
jA) = P P(A(A )
) = PP ((A
A) = 1.
3. Falls die Ereignisse B und C unvereinbar sind, so sind auch A B und A C unvereinbar, und es gilt: P (A B + A C ) = P (A B ) + P (A C ).
C )) = P (A B + A C ) =
Daraus folgt: P (B + C jA) = P (A P((BA+
)
P (A)
P
(
A
B
)
P
(
A
C
)
= P (A) + P (A) = P (B jA) + P (C jA)
Es gilt also bei unvereinbaren Ereignissen B und C das Additionstheorem auch fur
bedingte Wahrscheinlichkeiten:
P (B + C jA) = P (B jA) + P (C jA)
(2.26)
Speziell: P (B + B jA) = P (B jA) + P (B jA) ) P (B jA) = 1 , P (B jA).
Aus der Denition fur die bedingte Wahrscheinlichkeit (2.24) und dem Multiplikationssatz (2.25) folgt fur beliebige Ereignisse B und C aus F :
P (B C jA) = P (AP(BA) C ) = P (A B )P(PA()C jA B ) =
= P (A) P (BPjA()A)P (C jA B )
(2.27)
Damit folgt der Produktsatz fur bedingte Wahrscheinlichkeiten:
P (A B C ) = P (A) P (B jA) P (C jA B )
(2.28)
Die Verallgemeinerung von Gleichung (2.28) auf mehrere Ereignisse liefert:
P (A1 A2 : : : An ) = P (A1 ) P (A2 A3 : : : An jA1 ) =
= P (A1 ) P (A2 jA1 ) P (A3 A4 : : : An jA1 A2 ) =
= P (A1 ) P (A2 jA1 ) P (A3 jA1 A2 ) : : : P (An jA1 A2 : : : An,1 )
(2.29)
Beispiel:
Ein Obsthandler kauft aus drei verschiedenen Landern jeweils eine Kiste Bananen.
Davon sind in der ersten Kiste 2%, in der zweiten Kiste 5% und in der dritten Kiste
10% verfault. Es soll die Wahrscheinlichkeit P (V ) berechnet werden, beim Zug einer
Banane aus einer beliebigen Kiste, eine verfaulte Banane zu ziehen.
92
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Das Zufallsexperiment besteht aus zwei Schritten:
1. Auswahl der Kiste
2. Auswahl der Banane
Die Wahrscheinlichkeit, eine beliebige Kiste zu wahlen, ist fur jede Kiste gleich:
P (K1 ) = P (K2 ) = P (K3 ) = 13
Die Wahrscheinlichkeit, aus einer ausgewahlten Kiste eine verfaulte Banane zu ziehen
ist:
1 , P (V jK ) = 5% = 1 , P (V jK ) = 10% = 1
P (V jK1 ) = 2% = 50
2
2
20
10
Das Ereignis \Banane verfault\ besteht aus drei unvereinbaren Ereignissen:
P (V ) = P (K1 V ) + P (K2 V ) + P (K3 V ) =
= P (K1 ) P (V jK1 ) + P (K2 ) P (V jK2) + P (K3 ) P (V jK3 ) =
1 +1 1 +1 1 =
= 13 50
3 20 3 10
= 0:057 = 5:7%
2.3.4 Unabhangige Ereignisse
Ein Ereignis B heit unabhangig vom Ereignis A, wenn:
P (B jA) = P (B )
(2.30)
Aus P (A B ) = P (B A) folgt nach dem allgemeinen Multiplikationssatz (2.25) stets
P (A) P (B jA) = P (B ) P (AjB ). Falls P (B jA) = P (B ), so ist auch P (AjB ) = P (A).
Ist also das Ereignis B unabhangig von A, so ist auch A unabhangig von B , d.h. die
Unabhangigkeit ist wechselseitig. Man kann daher sagen, die Ereignisse A und B sind
\voneinander unabhangig\. Der Produktsatz lautet dann speziell:
Sind A und B voneinander unabhangig, so ist:
P (A B ) = P (A) P (B )
(2.31)
In diesem Zusammenhang soll noch einmal die Verschiedenartigkeit der Begrie \Unvereinbarkeit zweier zufalliger Ereignisse\ und \Unabhangigkeit zweier zufalliger Ereignisse\ betont werden. Der Begri der Unvereinbarkeit spielt eine besondere Rolle
beim Additionstheorem. Der Begri der Unabhangigkeit ist insbesondere fur das Multiplikationstheorem wichtig.
Die Ereignisse A und B seien voneinander unabhangig, d.h. P (B jA) = P (B ) und
P (AjB ) = P (A). Betrachtet man zusatzlich die komplementaren Ereignisse A und B ,
dann gilt P (B jA) = 1 , P (B jA) und somit P (B jA) = 1 , P (B ) = P (B ). Wegen
der wechselseitigen Unabhangigkeit ist auch P (AjB ) = P (A). Damit sind A und B
unabhangig. Ganz analog zeigt man die Unabhangigkeit fur A und B sowie fur A und
B . Sind A und B voneinander unabhangig, so gilt dies demnach auch fur A und B , A
und B sowie A und B .
2.3
Wahrscheinlichkeiten
93
Die Entscheidung, ob zwei Ereignisse unabhangig sind, kann man aufgrund der Denition (2.30) prufen. Zwei Ereignisse sind dann unabhangig, wenn die Wahrscheinlichkeit
fur das Eintreten des einen Ereignisses stets dieselbe ist, ob nun das andere Ereignis eingetreten ist oder nicht. Bei manchen praktischen Aufgabenstellungen sieht man jedoch
aus den Bedingungen des zufalligen Versuchs und der gewahlten Zuordnung der Wahrscheinlichkeiten, da der Eintritt des Ereignisses A unmoglich die Wahrscheinlichkeit
fur den Eintritt des Ereignisses B beeinussen kann.
Beispiele:
1. Aus einem gut gemischten Kartenspiel mit 32 Karten werden zwei Karten der Reihe
nach gezogen.
Wie gro ist die Wahrscheinlichkeit P (KK ), da die beiden gezogenen Karten jeweils Konige sind, wenn die zuerst gezogene Karte wieder in das Spiel zuruckgemischt wird?
Die Ereignisse K1 = Konig beim 1. Zug und K2 = Konig beim 2. Zug sind oenbar
unabhangige Ereignisse. Also gilt:
P (KK ) = P (K1 und K2 ) = P (K1 K2) = P (K1 ) P (K2 ) =
4 4 = 1 = 0:016 = 1:6%
= 32
32 64
Wie gro ist die Wahrscheinlichkeit P (KK ), da die beiden gezogenen Karten jeweils Konige sind, wenn die zuerst gezogene Karte nicht mehr zuruckgelegt wird?
Die Ereignisse K1 und K2 sind nun nicht mehr voneinander unabhangig.
P (KK ) = P (K1 und K2) = P (K1 K2 ) = P (K1 ) P (K2 jK1 )
4 und P (K jK ) = 3 . Also folgt:
Es ist P (K1 ) = 32
2 1
31
4
3
3
P (KK ) = 32 31 = 248 = 0:012 = 1:2%
2. Es ist nicht immer intuitiv klar, ob Unabhangigkeit vorliegt oder nicht. Betrachtet
man z.B. Familien mit drei Kindern und nimmt an, da Knaben- und Madchengeburten gleichwahrscheinlich sind, so gibt es 23 = 8 gleichwahrscheinliche Moglichkeiten (jeweils mit Wahrscheinlichkeit 1=8), wie sich das Merkmal \mannlich-weiblich\
auf die drei Kinder verteilt. A sei das Ereignis, eine Familie hat Kinder beiderlei
Geschlechts und B das Ereignis, die Familie hat hochstens ein Madchen. Mit den
Bezeichnungen J fur Junge und M fur Madchen gilt dann:
P (A) = P (JMM ) + P (MJM ) + P (MMJ ) + P (JJM ) +
+ P (JMJ ) + P (MJJ ) = 68 = 0:75
P (B ) = P (JJJ ) + P (MJJ ) + P (JMJ ) + P (JJM ) = 84 = 0:5
Die Wahrscheinlichkeit, da eine Familie Kinder beiderlei Geschlechts, aber hochstens ein Madchen hat, ist:
P (A B ) = P (MJJ ) + P (JMJ ) + P (JJM ) = 38
Es gilt P (A B ) = P (A) P (B ). Also sind A und B voneinander unabhangig.
94
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Nun betrachtet man Familien mit zwei Kindern. Hier ist
P (A) = P (JM ) + P (MJ ) = 24 = 0:5
P (B ) = P (JJ ) + P (JM ) + P (MJ ) = 34 = 0:75
Die Wahrscheinlichkeit, da eine Familie Kinder beiderlei Geschlechts, aber hochstens ein Madchen hat, ist:
P (A B ) = P (JM ) + P (MJ ) = 42 = 0:5
Es gilt hier nicht P (A B ) = P (A) P (B ). Also sind in diesem Fall die Ereignisse
A und B nicht unabhangig voneinander.
Unabhangigkeit bei mehr als zwei Ereignissen
Wenn man den Begri der Unabhangigkeit auf mehr als zwei Ereignisse anwenden will,
genugt es nicht zu verlangen, da die Ereignisse paarweise unabhangig sind. Es konnen
z.B. die drei Ereignisse A1 , A2 und A3 paarweise voneinander unabhangig sein, aber
dennoch A3 vom Ereignis A1 A2 abhangig sein.
Beispiel:
Beim Spiel mit einem Wurfel sei A1 das Ereignis, beim ersten Wurf eine ungerade
Augenzahl und A2 das Ereignis beim zweiten Wurf eine ungerade Augenzahl zu wurfeln.
A3 sei das Ereignis, da die Summe der gewurfelten Zahlen ungerade ist. Die Ereignisse
A1 , A2 , A3 sind paarweise unabhangig. Es ist jedoch A3 nicht unabhangig vom Ereignis
A1 A2 .
Man deniert daher:
Zufallige Ereignisse Ai (i = 1; 2; : : :; n) heien voneinander unabhangig, wenn jedes
Ereignis Ai von jedem moglichen Ereignis Ai1 Ai2 : : : Aik (i 6= i fur = 1; 2; : : : ; k
und k = 1; 2; : : : ; n , 1) unabhangig ist.
Fur unabhangige Ereignisse A1 ; A2 ; : : : ; An gilt der allgemeine Produktsatz:
P (A1 A2 : : : An ) = P (A1 ) P (A2 ) : : : P (An )
(2.32)
Beispiele:
1. Ein Industrieprodukt bestehe aus drei Teilen. In der Fertigung bestehe Unabhangigkeit zwischen den Teilen. Die Wahrscheinlichkeit, da ein Teil Ausschu ist, betrage
fur die drei Teile jeweils 3%, 5% und 6%. Wie gro ist die Wahrscheinlichkeit P (ok),
da ein Endprodukt vollig einwandfrei ist?
P (ok) = P (1. Teil ok und 2. Teil ok und 3. Teil ok) =
= P (1. Teil ok) P (2. Teil ok) P (3. Teil ok) =
= 0:97 0:95 0:94 = 0:866 = 86:6%
2.3
Wahrscheinlichkeiten
95
2. Eine Munze wird funfmal geworfen. Wie gro ist die Wahrscheinlichkeit, da funfmal
hintereinander Wappen oben liegt?
Die funf Wurfe sind unabhangig voneinander. Die Wahrscheinlichkeit, da einmal
Wappen kommt, ist 0:5. Also ist die gesuchte Wahrscheinlichkeit 0:55 = 0:031 =
3:1%.
2.3.5 Das Bayessche Theorem
An dieser Stelle sei noch das beruhmte Theorem von Bayes erwahnt.
Man betrachte n unvereinbare Ereignisse A1 ; A2 ; : : : ; An einer vollstandigen Ereignismenge = A1 + A2 + : : : + An und ein Ereignis B aus der Menge F . Dann
sind die Ereignisse B Ai und B Ak (i 6= k) unvereinbare Ereignisse und es gilt:
B = B = (A1 + A2 + : : : + An ) B = A1 B + A2 B + : : : + An B . Daraus folgt:
P (B ) =
n
X
i=1
P (Ai B ) =
n
X
i=1
P (Ai ) P (B jAi )
(2.33)
Falls P (B ) 6= 0, gilt auerdem:
P (Ai jB ) = P (PA(iB )B ) = P (Ai )P(PB()B jAi )
(2.34)
Aus Gleichung (2.33) und (2.34) folgt der Satz von Bayes:
P (Ai ) P (B jAi )
P (Ai jB ) = X
n
P (Ak ) P (B jAk )
(2.35)
k=1
Beispiel:
Ein Patient leide an der Krankheit A1 oder der Krankheit A2 . Man wei auerdem, da
die Wahrscheinlichkeit P (A1 ) fur Krankheit A1 gleich 0:8 und die Wahrscheinlichkeit
P (A2 ) fur Krankheit A2 gleich 0:2 ist. Um eine genaue Diagnose zu stellen, fuhrt der
Arzt eine Enzymbestimmung durch, von der er wei, da sie bei Krankheit A1 in 90%
aller Falle positiv ist, bei A2 dagegen nur in 20%. Man nehme nun an, da der Enzymtest bei einem Patienten negativ verlauft (= Ereignis B ). Welche Wahrscheinlichkeiten
fur A1 bzw. A2 resultieren aus diesem Befund?
Es ist P (A1 ) = 0:8 und P (A2 ) = 0:2. Man sagt auch, dies seien die sog. A-prioriWahrscheinlichkeiten.
P (Test ist positivjA1 ) = 0:9; P (Test ist negativjA1 ) = 0:1
P (Test ist positivjA2 ) = 0:2; P (Test ist negativjA2 ) = 0:8
96
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Unter Anwendung von Gleichung (2.35) erhalt man:
P (A1 jTest ist negativ) = 0:8 00::18+ 00::12 0:8 = 13
P (A2 jTest ist negativ) = 0:8 00::12+ 00::82 0:8 = 23
Bei Anwendung des Bayesschen Satzes werden die Ereignisse A1 ; A2 ; : : : ; An haug als
Hypothesen und ihre Wahrscheinlichkeiten P (Ai ) A-priori-Wahrscheinlichkeiten
fur die Hypothese bezeichnet. P (Ai jB ) ist die Wahrscheinlichkeit fur Ai aufgrund der
Beurteilung, da das Ereignis B eingetreten ist, und heit daher auch A-posterioriWahrscheinlichkeit fur die Hypothese Ai.
Die Bayessche Formel liefert damit eine Vorschrift, wie man A-priori-Wissen (z.B. wie
haug treten die Krankheiten A1 und A2 auf) aufgrund von Beobachtungen (Enzymbestimmung) zu einem A-posteriori-Wissen korrigieren kann. In diesem Zusammenhang
spricht man auch haug von \Lernen durch Erfahrung\.
Die Groe P (B jAi ) konnte man zunachst als bedingte Wahrscheinlichkeit fur B unter
der festen Bedingung Ai auassen. Betrachtet man jedoch P (B jAi ) bei festem Ereignis
B als Funktion aller moglichen Ereignisse Ai ; i = 1; 2; : : : ; n, dann stellen die P (B jAi )
keine Wahrscheinlichkeiten fur Ai dar, sondern sie werden als sog. Mutmalichkeiten
oder Likelihoods fur die Ai aufgefat und die Gesamtheit der P (B jAi ) in Abhangigkeit der Ai wird als Likelihoodfunktion bezeichnet. Diese Likelihoodfunktion gibt
fur jedes mogliche Ereignis Ai an, welche Wahrscheinlichkeit das Ereignis B unter der
Hypothese Ai besitzt, aber sie gibt keine Wahrscheinlichkeiten sondern Mutmalichkeiten oder Plausibilitaten fur Ai an, nachdem das feste Ereignis B beobachtet wurde.
Man mu sich beim U bergang vom Begri Wahrscheinlichkeit zur Likelihood vergegenwartigen, da man die Rollen von B und Ai in dem Ausdruck P (B jAi ) einfach
vertauscht. Im obigen Beispiel besteht die Likelihoodfunktion unter der Magabe, da
die Beobachtung B (z.B. der Test ist negativ) gemacht wurde, aus den zwei Werten
P (B jA1 ) = 0:1 und P (B jA2 ) = 0:8.
Mit Hilfe der Likelihoods kann man das Bayessche Theorem in Worten folgendermaen
formulieren:
Die A-posteriori-Wahrscheinlichkeit fur Ai ist proportional zur A-priori-Wahrscheinlichkeit fur Ai und der Likelihood von Ai , nachdem die Beobachtung B gemacht wurde.
2.3.6 Interpretation von Wahrscheinlichkeiten
Die mathematische Wahrscheinlichkeit ist eine rein formelle Groe, welche durch die
Axiome (2.12) { (2.15) festgelegt wird. Die Wahrscheinlichkeitstheorie lehrt, wie man
neue Wahrscheinlichkeiten aus gegebenen Wahrscheinlichkeiten berechnet, sie sagt jedoch nichts daruber aus, was unter Wahrscheinlichkeit zu verstehen ist.
Fur den Anwender ist ublicherweise von groem Interesse, wie der Begri Wahrscheinlichkeit zu interpretieren ist. So ergeben sich in diesem Zusammenhang Fragen, z.B.
\Wie kommt man zu Wahrscheinlichkeitsaussagen?\ oder \Wie uberpruft man Wahrscheinlichkeitsaussagen?\ oder \Warum lassen sich Wahrscheinlichkeitsaussagen auf
Sachverhalte des taglichen Lebens anwenden?\
2.3
Wahrscheinlichkeiten
97
Es gibt im wesentlichen zwei miteinander konkurrierende Interpretationsmoglichkeiten,
einmal die frequentistische und zweitens die subjektivistische Interpretation.
Die Anhanger der ersten Theorie, die sog. Frequentisten, verstehen unter Wahrscheinlichkeit die relative Haugkeit auf lange Sicht, die Subjektivisten dagegen verstehen
unter Wahrscheinlichkeit den Grad der individuellen U berzeugung.
Beide Interpretationsversuche haben gewisse Schwierigkeiten. Im Rahmen dieser Einfuhrung soll der erste Standpunkt, also der frequentistische, eingenommen werden. Dies
hat seinen Grund in der bei Zufallsexperimenten gemachten Erfahrung folgender Art:
Man kann die nachste Realisation eines Experimentes nicht vorhersagen. Wenn man
aber das Experiment unter gleichen Bedingungen sehr oft durchfuhrt, so schwankt die
relative Haugkeit fur ein bestimmtes Ereignis, z.B. eine 6 zu wurfeln, umso weniger
um eine gewisse Zahl zwischen 0 und 1, je hauger man den Versuch durchfuhrt. Diese
Zahl kann man dem Ereignis, eine 6 zu wurfeln, als charakteristisch zuordnen. Man
versuchte sogar, auf diese Weise den Begri der Wahrscheinlichkeit als Grenzwert von
relativen Haugkeiten zu denieren.
Es sei hier nicht verschwiegen, da es bei dem Versuch jedoch prinzipielle Schwierigkeiten gibt, weil es sich dabei nicht um eine Konvergenz im ublichen mathematischen Sinn
handelt, sondern um eine Konvergenz der Wahrscheinlichkeiten, d.h. es wird versucht,
den Begri Wahrscheinlichkeit mit sich selbst zu erklaren.
Die oben erwahnte Erfahrungstatsache, da die relative Haugkeit fur hinreichend
groe Anzahlen von Versuchen eine beliebig gute Naherung fur die unbekannte Wahrscheinlichkeit ist, nennt man auch das empirische Gesetz der groen Zahlen.
Die Haugkeitsinterpretation der Wahrscheinlichkeit ist besonders dann sinnvoll, wenn
man sie auf Experimente anwendet, die beliebig oft durchgefuhrt werden konnen. Daher ist der frequentistische Standpunkt fur solche Anwender attraktiv, die mit groen
Versuchsreihen zu tun haben. Dies trit im wesentlichen auch auf den biologischen
und landwirtschaftlichen Bereich (Feldversuche) zu. Die Haugkeitsinterpretation hilft
dagegen nicht weiter, wenn man Wahrscheinlichkeiten von Einzelereignissen betrachtet.
Die oben experimentell als Haugkeit auf lange Sicht implizierte Wahrscheinlichkeit
nennt man auch statistische Wahrscheinlichkeit, weil sie aufgrund statistischer
Versuche bestimmt wird.
Viele statistische Methoden, z.B. Vertrauensintervalle und statistische Tests, gehen von
der Haugkeitsinterpretation aus.
2.3.7 Das Gesetz der groen Zahlen
Viele Lotto- oder Roulettespieler haben eine etwas \schiefe\ Vorstellung vom sog. Gesetz der groen Zahlen. Die Auassung besteht z.B. darin zu glauben, da, wenn
zehnmal \rot\ gekommen ist, nun bald \schwarz\ kommen mu. Oder wenn beim Lotto einige Zahlen sehr lange nicht gezogen wurden, tippen viele Spieler solche Zahlen,
denn nach ihrer Meinung sind diese Zahlen nun fallig. Die landlauge Auassung uber
das Gesetz der groen Zahlen ist die des Ausgleichs und der Kompensation innerhalb
endlicher Zeit oder endlich vieler Versuche. Wirft man eine Munze sehr oft hintereinander, so sollte etwa \Kopf\ und \Wappen\ gleich oft vorkommen. Das mu aber noch
98
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
nicht bei 1000 Wurfen oder bei 10000 Wurfen der Fall sein. Grob formuliert verlangt
das Gesetz der groen Zahlen eine Einstellung oder Einpendelung auf den erwarteten
Wert nur \auf lange Sicht\. Nach einer ungewohnlich groen Anzahl von \Kopfen\
ist es nicht wahrscheinlicher, da \Wappen\ als Ergebnis des nachsten Wurfs kommt.
Diese Auassung ist deshalb falsch, weil jeder Wurf der Munze vom vorhergehenden
und nachfolgenden Wurf unabhangig ist. In Worten kann man das Gesetz der groen
Zahlen etwa folgendermaen formulieren:
Wiederholt man ein zufalliges Experiment genugend oft unter den gleichen Bedingungen, dann kommt die relative Haugkeit eines bestimmten Ereignisses der theoretischen
Wahrscheinlichkeit dieses Ereignisses beliebig nahe.
Bei einer einzigen Wurfserie von 1000 Wurfen mit einer symmetrischen Munze braucht
jedoch die relative Haugkeit fur \Kopf\ noch nicht beliebig nahe bei 1=2 liegen, auch
noch nicht bei 10000 Wurfen, sondern moglicherweise erst viel spater. In mathematischer Form soll nun das Gesetz der groen Zahlen formuliert werden, das sog. Bernoullische Gesetz der groen Zahlen:
Es sei p die Wahrscheinlichkeit fur den Eintritt eines Ereignisses A bei einem Versuch.
In einer Serie von n unabhangigen Wiederholungen dieses Versuches trete m-mal das
Ereignis A auf. hn (A) = m=n bezeichne dann die relative Haugkeit fur das Auftreten
von A in einer solchen Serie. Gibt man nun eine beliebig kleine positive Zahl " vor,
dann strebt die Wahrscheinlichkeit dafur, da hn (A) von p um weniger als " nach oben
oder unten abweicht, mit wachsendem n gegen 1, wie klein auch " gewahlt sein mag:
lim P (p , " < hn (A) < p + ") = 1
n!1
(2.36)
Gleichung (2.36) lat sich mit den Axiomen und den Rechenregeln fur die Wahrscheinlichkeit beweisen. Der Beweis soll hier ubergangen werden. Dieser Satz manifestiert
die bereits fruher erwahnten Erfahrungstatsachen. Man kann z.B. sagen, ein Ereignis,
das eine sehr kleine Wahrscheinlichkeit hat, tritt sehr selten auf. Oder ein Ereignis
mit einer sehr nahe bei 1 gelegenen Wahrscheinlichkeit tritt praktisch sicher auf. Das
Gesetz der groen Zahlen schlagt sozusagen die Brucke von der Wahrscheinlichkeitsrechnung zur empirischen Wirklichkeit und bestatigt, da die axiomatische Einfuhrung
der Wahrscheinlichkeit mit der Wirklichkeit in Einklang steht.
So werden die Eigenschaften fur Wahrscheinlichkeiten, welche aus den Axiomen folgen,
bekanntlich auch von den empirischen Haugkeiten erfullt. Damit ist eine Verbindung
hergestellt zwischen der mathematischen Wahrscheinlichkeit und der relativen Haugkeit. Die mathematische Wahrscheinlichkeit kann als theoretisches Gegenstuck zu der
empirischen Haugkeit aufgefat werden.
Die Wahrscheinlichkeit kann also bei Zugrundelegung der Haugkeitsinterpretation empirisch als sog. statistische Wahrscheinlichkeit bestimmt werden, und darin liegt die
Bedeutung dieses Gesetzes der groen Zahlen.
2.4
Eindimensionale Zufallsvariablen
99
2.4 Eindimensionale Zufallsvariablen
Jedesmal wenn mit einer gegebenen Versuchsanordnung ein Zufallsexperiment einmal
ausgefuhrt wird (z.B. indem man einmal mit einem Wurfel wurfelt), stellt sich ein
bestimmtes Ergebnis ein. Es wird angenommen, da dieses Ergebnis durch eine reelle
Zahl xi beschrieben werden kann. Wird das Zufallsexperiment ein zweites Mal realisiert (wenn man z.B. noch einmal wurfelt), so stellt sich unter Umstanden ein anderes
Ergebnis xj ein. Bei dem Wurfelspiel ist oenbar, da es sechs verschiedene Ergebnisse
oder Elementarereignisse gibt, namlich die Augenzahlen 1 bis 6.
Dieser Tatbestand, da einem Elementarereignis eines zufalligen Versuches eine bestimmte reelle Zahl zugeordnet ist, soll mit dem Begri Zufallsvariable oder Zufallsgroe umschrieben werden. Um auseinanderzuhalten, um welche Versuchsanordnung
es sich jeweils handelt, wird die betrachtete Versuchsanordnung noch mit einem Namen
belegt. In dem Wurfelbeispiel hat man also die Zufallsvariable \Wurfel\ vor sich. Im allgemeinen werden die Namen der Zufallsvariablen mit groen Buchstaben X; Y; Z usw.
abgekurzt. Ihre Realisationen werden mit entsprechenden kleinen Buchstaben x; y; z
usw. bezeichnet. Die moglichen Werte oder Realisationen der Zufallsvariablen X =
\Wurfel\ lauten also: x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5 und x6 = 6.
Kurz zusammengefat: Eine Zufallsvariable ist eine den Ausgang eines zufalligen Versuches kennzeichnende Groe. Anders ausgedruckt: Eine eindimensionale Zufallsvariable
X ist eine Funktion, die jedem Elementarereignis aus der Menge aller moglichen
Elementarereignisse eine reelle Zahl zuordnet.
Diese Denition reicht z.B. ohne weiteres aus, solange die Menge aller moglichen Elementarereignisse endlich oder \abzahlbar\ ist. Wenn jedoch diese Menge \nicht abzahlbar\ 1 ist, kann man Schwierigkeiten mit dieser Denition haben. Von einer zufalligen
Variablen X verlangt man ublicherweise, da man die Wahrscheinlichkeit dafur angeben kann, da diese Zufallsvariable X Werte annimmt, die kleiner oder gleich einem
festen Wert x sind, d.h. die Groe P (X x) soll bestimmbar sein fur alle beliebigen,
aber festen Werte x. Diese Forderung ist jedoch nicht immer im allgemeinsten Fall der
Grundmenge fur alle moglichen Funktionen erfullbar. Ohne hier auf die mathematische Begrundung naher einzugehen, soll die Denition fur eine Zufallsvariable etwas
enger gefat werden. Das kann man mit gutem Gewissen tun, weil hier ausschlielich
solche Zufallsvariablen betrachtet werden, bei denen die obigen Forderungen automatisch erfullt sind.
Wenn hier von einer eindimensionalen Zufallsgroe die Rede ist, wird von nun an unterstellt, da die Wahrscheinlichkeit fur das Ereignis X 2 I , d.h. X nimmt Werte
aus dem Intervall I an, fur jedes Intervall I der reellen Zahlenachse bestimmbar ist.
Die Intervalle konnen endlich abgeschlossen, endlich oen oder endlich halboen sein.
Auerdem durfen diese Intervalle nach links oder rechts unbegrenzt sein, und schlielich wird noch zugelassen, da ein Intervall zu einem einzigen Punkt auf der reellen
Zahlenachse zusammenschrumpft.
1 Eine Menge heit \abzahlbar\, wenn man alle ihre Elemente mit den naturlichen Zahlen 1 2
durchnumerieren kann. Eine Menge heit \nicht abzahlbar\ oder \uberabzahlbar\, wenn die naturlichen Zahlen 1 2 nicht ausreichen, um sie durchzunumerieren. So ist z.B. die Menge der Punkte
zwischen 0 und 1 auf der Zahlengeraden eine solche nicht abzahlbare Menge. Es lat sich zeigen, da
man zu jeder moglichen Numerierung immer neue reelle Zahlen aus diesem Intervall angeben kann,
die nicht von der vorgeschlagenen Numerierung erfat werden.
;
;
;:::
;:::
100
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Die angenommenen Werte heien Realisationen der Zufallsvariablen. Sind nur
endlich viele oder abzahlbar unendlich viele Realisationen moglich, so heit die Zufallsvariable diskret. In allen ubrigen Fallen wird von einer stetigen Zufallsvariablen
gesprochen. Eine stetige Zufallsvariable kann also als Realisation jeden beliebigen Wert
aus einem Intervall annehmen.
Beispiele:
1. Die Jahresmilchleistung von Kuhen (in kg/a) kann als stetige Zufallsvariable aufgefat werden. Es interessieren z.B. folgende Wahrscheinlichkeiten:
P (X > 5000), P (X 3000), P (4000 < X 5000)
Bestimmt man die Jahresmilchleistung einer Kuh, dann ist deren genauer Wert x
bekannt. Man sagt dann, es ist die Realisation x eingetreten. Liegt nun die Realisation x von X im Intervall I , so ist das Ereignis X 2 I eingetreten, liegt x nicht in
I , so ist das Ereignis X 2 I nicht eingetreten. Die Milchleistung sei z.B. 4200 kg=a.
Dann ist das erste obige Ereignis, namlich X > 5000 nicht eingetreten, auch das
zweite Ereignis X 3000 ist nicht eingetreten. Das Ereignis 4000 < X 5000 ist
dagegen eingetreten.
2. Bei Sauen kann die Anzahl der Ferkel pro Wurf als diskrete Zufallsvariable aufgefat
werden. Das Herausgreifen einer bestimmten Sau kann man als Elementarereignis
ansehen. Die dabei beobachtete Ferkelzahl ist die Realisation dieser Zufallsvariablen.
3. Beispiele fur diskrete Zufallsvariablen:
a) Anzahl der jahrlichen Regentage.
b) Anzahl von Nichtrauchern in einer Gruppe von 50 Studenten.
4. Beispiele fur stetige Zufallsvariablen:
a) Gewichtszunahme eines Tieres innerhalb einer bestimmten Mastdauer.
b) Fullgewicht einer Abfullmaschine.
2.5
Verteilungsfunktion
101
2.5 Verteilungsfunktion
Eine Zufallsvariable X kann man genugend genau beschreiben, wenn man ihre Verteilungsfunktion kennt. Damit kann man alle wahrscheinlichkeitstheoretisch interessanten
Eigenschaften angeben.
Es sei X eine eindimensionale Zufallsvariable. Die durch
F (x) = P (X x)
(2.37)
fur alle reellen x-Werte denierte Funktion F (x) heit die Verteilungsfunktion von
X.
F (x) gibt also fur ein festes x die Wahrscheinlichkeit dafur an, da der bei Durchfuhrung
des betrachteten zufalligen Versuches von der Zufallsvariablen X angenommene Wert
nicht groer als x ausfallt. Das Ereignis X x bedeutet, da die Zufallsvariable X
eine Realisation annimmt, die in dem nach links oenen Intervall (,1 : : : x] liegt (vgl.
Bild 2.9).
I
..........
-
x
Bild 2.9: Intervall (,1 : : : x]
Fur jedes beliebige, aber feste x kann die Wahrscheinlichkeit P (X x) ausgerechnet
werden, denn nach der vorgestellten Denition einer Zufallsvariablen mu die Wahrscheinlichkeit angebbar sein, da X Werte in einem z.B. nach links oenen Intervall
annimmt.
Haug will man die Wahrscheinlichkeit angeben, da X Werte in einem endlichen
Intervall annimmt, also P (a < X b). Es wird angenommen, da b groer ist als a.
Dann schlieen sich die Ereignisse X a und a < X b gegenseitig aus, d.h. die
beiden Ereignisse sind unvereinbar (vgl. Bild 2.10).
Xb
..........
..........
Xa
a<X b
a
b
b
-
Bild 2.10: Veranschaulichung der Ereignisse X b, bzw. X a ^ a < X b
Aufgrund des Additionssatzes (2.14) fur Wahrscheinlichkeiten gilt dann:
P (X b) = P (X a) + P (a < X b)
(2.38)
102
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Fur P (X b) bzw. P (X a) kann man F (b) bzw. F (a) schreiben. Aus Gleichung
(2.38) folgt damit:
P (a < X b) = F (b) , F (a)
(2.39)
Die Wahrscheinlichkeit fur irgendein Ereignis a < X b lat sich also mit Hilfe der
Verteilungsfunktion F (x) bestimmen. Die Wahrscheinlichkeit eines beliebigen Ereignisses ist nach Denition der Wahrscheinlichkeit eine nichtnegative Groe. Daraus folgt,
da fur a < b stets F (a) F (b) gilt. Die Verteilungsfunktion F (x) ist also mit zunehmendem Argument x eine monoton nicht abnehmende Funktion. D.h. wenn die
Variable x Werte von ,1 bis +1 annimmt, wachst F (x) monoton nichtabnehmend
von 0 bis 1 (Bild 2.11).
F (x)
a)
1
x
F (x)
1
Bild 2.11: Verteilungsfunktionen
b)
x
Es ist leicht einzusehen, da
F (,1) = 0
und
F (1) = 1:
(2.40)
Eine Verteilungsfunktion kann stellenweise konstant bleiben oder um eine gewisse Hohe,
die naturlich kleiner als 1 sein mu, springen (Bild 2.11 a).
Beispiel:
Als einfache Zufallsgroe wird das Werfen einer Munze betrachtet. Der Ausgang dieses
zufalligen Experiments wird mit der Zufallsgroe X beschrieben, indem folgende Zuordnung (willkurlich!) getroen wird: X nimmt den Wert 0 an, wenn Kopf oben liegt,
X nimmt den Wert 1 an, wenn Zahl oben liegt. Vorausgesetzt wird eine symmetrische
Munze. Dann gilt:
P (Kopf) = P (Zahl) = 0:5 oder P (X = 0) = P (X = 1) = 0:5
Wie sieht die Verteilungsfunktion F (x) von X aus? Dazu wird die x-Achse in drei
Bereiche unterteilt:
x < 0: X kann per Denition keine negativen Werte x annehmen. Fur alle negativen
x-Werte ist also P (X x) = 0.
2.5
Verteilungsfunktion
103
0 x < 1: Von allen Werten des Intervalls 0 x < 1 nimmt die Zufallsvariable X nur
den Wert des linken Eckpunkts x = 0 an. Es ist einmal P (X = 0) = 0:5 (siehe oben).
Aber auch fur alle anderen x-Werte, die kleiner als 1 sind, gilt P (X x) = 0:5, weil
eben nach 0 keine Realisationen von X in diesem Bereich mehr vorkommen. Also folgt:
F (x) = 0:5 fur 0 x < 1.
x 1: Es ist P (X = 1) = 0:5 und damit P (X 1) = 1, denn X kann die Werte 0 oder 1
annehmen, beide jeweils mit der Wahrscheinlichkeit 0:5. Nachdem beide Moglichkeiten
unvereinbare Ereignisse darstellen gilt P (X 1) = 1. Fur jedes andere x, das groer
als 1 ist, gilt dieselbe Wahrscheinlichkeitsaussage. Das Ereignis X x fur alle x-Werte
mit x 1 ist das sichere Ereignis. Also ist F (x) = 1 fur x 1 (vgl. Bild 2.12).
f (x)
1:0
a)
0:5
F (x)
1:0
b)
0:5
0
x
1
0
1
Bild 2.12: Verteilung der Zufallsvariablen Munzwurf
x
Man lasse sich nicht dadurch irritieren, da die Verteilungsfunktion F (x) fur die ganze
x-Achse von ,1 bis +1 bestimmt wurde, obwohl die Zufallsvariable hier uberhaupt
nur zwei Werte, namlich 0 und 1 annehmen kann. Es ist F (0) = 0:5 und F (1) = 1.
Darum wurden im Bild 2.12 die betreenden Funktionswerte an den Stellen x = 0 und
x = 1 besonders gekennzeichnet.
104
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.6 Zufallsvariablen und ihre Verteilungen
2.6.1 Diskrete Zufallsvariablen
Eine Zufallsvariable X und ihre Wahrscheinlichkeitsverteilung heien diskret, wenn die
Variable X nur endlich viele oder abzahlbar unendlich viele reelle Werte mit positiver
Wahrscheinlichkeit annehmen kann.
Die Werte, welche die Zufallsvariable annimmt, werden mit x1 ; x2 ; : : : ; xn bezeichnet.
Die dazugehorigen Wahrscheinlichkeiten seien p1 ; p2 ; : : : ; pn . Es gilt also: P (X = x1 ) =
p1 ; P (X = x2 ) = p2 ; : : : ; P (X = xn ) = pn . Die Zufallsvariable X kann keine anderen
Werte als die oben angefuhrten x1 ; x2 ; : : : ; xn annehmen, d.h. die Wahrscheinlichkeit
fur alle ubrigen Werte ist jeweils 0.
Die Wahrscheinlichkeitsfunktion f (x) der Zufallsvariablen X gibt die Wahrscheinlichkeiten fur die moglichen Realisationen von X an:
f (x) =
pi fur x = xi (i = 1; 2; : : : ; n)
(2.41)
0 sonst
Da X bei Realisierung des Zufallsexperiments irgendeinen Wert annimmt, gilt:
p1 + p2 + : : : + pn =
n
X
i=1
pi = 1
(2.42)
f (x) bestimmt die Wahrscheinlichkeitsverteilung oder kurz die Verteilung (vgl.
Bild 2.13 a).
a)
1
f (x) = P (X = x)
p1 p2 p3
pi pn
x1x2 x3
xi xn x
b)
1
F (x) = P (X x)
x1x2 x3 xi xn x
Bild 2.13: Wahrscheinlichkeits- und Verteilungsfunktion einer diskreten Zufallsvariablen
Nach Denition (2.37) der Verteilungsfunktion ist F (x) = P (X x).
Um die Wahrscheinlichkeit P (X x) zu bestimmen, mu man die Wahrscheinlichkeitsfunktion f (xi ) fur alle Realisationen xi aufsummieren, die kleiner als x sind oder
den Wert x noch annehmen, also:
F (x) = P (X x) =
X
xi x
f (xi )
(2.43)
2.6
Zufallsvariablen und ihre Verteilungen
105
Die Verteilungsfunktion F (x) einer diskreten Zufallsvariablen ist eine Treppenfunktion. Sie springt jeweils an den Stellen xi , die die Zufallsvariable X annimmt, um das
Stuck pi bzw. f (xi ) nach oben. Zwischen zwei moglichen Werten verlauft die Verteilungsfunktion jeweils konstant. Fallen kann sie nicht, weil sie eine monoton nichtabnehmende Funktion ist (vgl. Bild 2.13 b).
Will man die Wahrscheinlichkeit P (a < X b) angeben, so gilt:
P (a < X b) = F (b) , F (a) =
X
a<xi b
f (xi )
(2.44)
Die Verteilungsfunktion F (x) bestimmt ebenfalls wie die Wahrscheinlichkeitsfunktion
f (x) die Wahrscheinlichkeitsverteilung der Zufallsvariablen X . Die beiden Funktionen
F (x) und f (x) enthalten also die gleiche Information, nur in verschiedenen Formen.
Wenn eine der beiden bekannt ist, kennt man die Zufallsvariable X genugend genau.
In vielen Fallen wird jedoch die Verteilungsfunktion bevorzugt.
Beispiele:
1. Es sei X die Zufallsvariable Munzwurf mit den Realisationen x1 = 0, wenn beim
Wurf Kopf kommt, x1 = 1, wenn Zahl kommt. Dann ist P (X = 0) = p1 = 0:5 und
P (X = 1) = p2 = 0:5 mit p1 + p2 = 1. Die Wahrscheinlichkeitsfunktion f (x) und
die Verteilungsfunktion F (x) sind in Bild 2.12 gezeichnet.
2. Die Zufallsvariable X sei die Augenzahl beim Wurf eines symmetrischen Wurfels.
Es gibt sechs mogliche Realisationen x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5, x6 = 6
(vgl. Bild 2.14). Alle sechs Realisationen haben die gleiche Wahrscheinlichkeit p1 =
p2 = p3 = p4 = p5 = p6 = 1=6. Es ist also:
8
8
0 fur x < 1
>
>
< i
< 1 f
u
r
x
=
1
;
:
:
:
;
6
f (x) = : 6
F (x) = > 6 fur i x < i + 1 (i = 1; : : : ; 5)
>
0 sonst
:
1 fur x 6
f (x) = P (X = x)
1
6
0
1 F (x) = P (X x)
0:5
0 1 2 3 4 5 6 7 x
0
0 1 2 3 4 5 6 7 x
Bild 2.14: Wahrscheinlichkeits- und Verteilungsfunktion der Zufallsvariablen Augenzahl eines Wurfels
106
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.6.2 Stetige Zufallsvariablen
Eine Zufallsvariable X und ihre Wahrscheinlichkeitsverteilung heien stetig, wenn ihre
Verteilungsfunktion F (x) = P (X x) in Integralform dargestellt werden kann:
F (x) =
Zx
,1
f (t) dt
(2.45)
Dabei ist der Integrand f (t) eine nichtnegative bis auf hochstens endlich viele Punkte
stetige Funktion.
Aus Denition (2.45) lat sich folgende Eigenschaft stetiger Zufallsvariablen ableiten:
Eine stetige Zufallsvariable X hat die Eigenschaft, da sie jeden beliebigen Wert innerhalb eines Intervalls der Zahlengeraden mit der Wahrscheinlichkeit Null annehmen
kann.
Der Integrand f (x) in (2.45) heit Wahrscheinlichkeitsdichte oder auch nur Dichte
der betreenden Verteilung. f (x) ist jedoch nicht die Wahrscheinlichkeit dafur, da
X den Wert x annimmt (wie bei einer diskreten Zufallsvariablen). Aber f (x) x ist
naherungsweise die Wahrscheinlichkeit dafur, da X einen Wert zwischen x und x +x
annimmt2 .
Es gilt noch folgende wichtige Beziehung zwischen F (x) und f (x): Fur jedes x, in dem
f (x) stetig ist, ist die Dichte f (x) gleich der Ableitung F 0 (x) der Verteilungsfunktion
F (x):
F 0 (x) = f (x)
(2.46)
Die Dichtefunktion f (x) ist so normiert, da die Flache zwischen der Kurve f (x) und
der x-Achse zwischen ,1 und +1 den Wert 1 hat. Das sieht man folgendermaen:
Irgendeinen Wert zwischen ,1 und +1 mu die Zufallsvariable X annehmen. Also
ist ,1 < X +1 das sichere Ereignis: P (,1 < X +1) = 1. Also ist:
F (1) = P (X +1) =
+
Z1
,1
f (x) dx = 1
(2.47)
Fur endliche Intervalle a < X b gilt:
Zb
P (a < X b) = F (b) , F (a) = f (x) dx
2 Da ( ) angenahert gleich (
f x
x
P x X x
Integralrechnung: (
P x X x
+ ) =
(2.48)
a
x+
Z x
x
()
f t
x
+ ) ist, ergibt sich nach dem Mittelwertsatz der
x
dt ( )
x f x
2.6
Zufallsvariablen und ihre Verteilungen
Interpretiert man das Integral
Zb
a
107
f (x) dx geometrisch, so heit das:
Die Wahrscheinlichkeit P (a < X b) ist gleich dem Flachenstuck zwischen der Dichtefunktion f (x), der x-Achse und den beiden senkrechten Geraden x = a und x = b
(vgl. Bild 2.15).
f (x)
P (a < X b) =
Zb
f (x) dx
a
1
F (b)
F (x) = P (X x)
F (a)
a
b
x
a
b
x
Bild 2.15: Dichte- und Verteilungsfunktion einer stetigen Zufallsvariablen
Bei stetigen Zufallsvariablen gilt, wie schon erwahnt, fur jede reelle Zahl a:
P (X = a) = 0
(2.49)
Die ganze Wahrscheinlichkeit von 1 ist hier uber die ganze x-Achse sozusagen \verschmiert\, so da fur einen einzelnen x-Wert keine positive Wahrscheinlichkeit mehr
ubrig bleibt.
Bei einer diskreten Verteilung ist die ganze Wahrscheinlichkeit von 1 dagegen in endlich
vielen x-Werten konzentriert. Bei einer stetigen Zufallsvariablen ist die Frage nach der
Wahrscheinlichkeit, da ein bestimmter Wert a angenommen wird, mehr oder weniger
sinnlos. Man mu hier nach der Wahrscheinlichkeit fragen, da X Werte in einem
Intervall a : : : b annimmt, um eine von Null verschiedene Wahrscheinlichkeit zu erhalten.
Wenn auch fur jedes a gilt: P (X = a) = 0, so heit das nicht, da X = a ein unmogliches Ereignis ist. Irgendeine reelle Zahl wird als Realisation angenommen. Nur mu
man diese Realisation bzw. diese Wahrscheinlichkeit innerhalb eines Intervalls suchen
bzw. bestimmen, um eine von Null verschiedene Wahrscheinlichkeit zu behalten.
Bei einer stetigen Zufallsvariablen ist es gleich, ob man bei Ungleichungen in Ereignissen
das Gleichheitszeichen mit angibt oder nicht:
P (a < X b) = P (a < X < b) = P (a X < b) = P (a X b)
(2.50)
108
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Beispiele:
1. Rechteck- oder Gleichverteilung (vgl. Bild 2.16)
Die Verteilungsdichte f (x) einer Rechteck- oder Gleichverteilung ist innerhalb eines
Intervalls von a bis b konstant, und zwar hat sie dort den Wert b ,1 a und auerhalb
des Intervalls den Wert Null:
8
8
0 fur x < a
>
>
1
<
<
f
u
r
a
x
b
x
,
a fur a x b
f (x) = : b , a
F (x) = >
b
,
a
>
0 sonst
:
1 fur x > b
f (x)
1
1 F (x)
b,a
b x
a
b x
a
Bild 2.16: Dichte- und Verteilungsfunktion einer Gleichverteilung
2. Gesucht8ist die Verteilungsfunktion der Zufallsvariablen X mit der Dichte:
fur 0 x 1
< x
f (x) = : 2 , x fur 1 < x 2
0 sonst
Die Dichtefunktion zeigt Bild 2.17 links.
1 f (x)
1 F (x)
0:5
0:5
x
0
x
1
2
0
1
2
Bild 2.17: Dichte- und Verteilungsfunktion einer Dreieckverteilung
f (x) ist tatsachlich Dichtefunktion, denn die Flache A unter der Kurve ist die Flache
eines Dreiecks mit A4 = 0:5 2 1 = 1. Dies kann man auch formal nach Gleichung
(2.47) zeigen:
A =
1
Z
f (x) dx =
,1 h
= 0 + 0:5t
2
i1
0
Z0
,1
h
0 dt +
Z1
Z1
1
2
t dt + (2 , t) dt + 0 dt =
0
i2
2
1
+ 2t , 0:5t
Z2
+ 0 = 0:5 + (4 , 2) , (2 , 0:5) = 1
2.6
Zufallsvariablen und ihre Verteilungen
109
Die Verteilungsfunktion F (x) hat an der Stelle x als Funktionswert den Flacheninhalt zwischen der x-Achse, der Kurve f (x) und der senkrechten Geraden durch x.
Bis zu x = 0 ist die Flache 0. Zwischen 0 x 1 ist:
Zx
ix
h
F (x) = t dt = 0:5t2 0 = 0:5x2
0
Im Intervall 1 < x 2 hat F (x) den Wert des Integrals der Dichtefunktion in
diesem Intervall zuzuglich zu der Flache, die bei x = 1 bereits vorhanden ist. Die
Flache bei x = 1 ist F (1) = 0:5 12 = 0:5. Es gilt also fur 1 < x 2:
Zx
ix
h
F (x) = 0:5 + (2 , t) dt = 0:5 + 2t , 0:5t2 1 =
1
= 0:5 + (2x , 0:5x2 ) , (2 , 0:5) = ,0:5x2 + 2x , 1
Der Wert von F (x) an der Stelle x = 2 ist F (2) = 1. F (x) darf auch nicht groer
werden. Fur x > 2 kommt keine weitere Flache hinzu, da die Dichtefunktion in
diesem Bereich den Wert 0 hat.
Damit lautet die Verteilungsfunktion:
8
0
fur x < 0
>
>
<
2
0
:
5
x
ur 0 x 1
F (x) = > ,0:5x2 + 2x , 1 f
f
ur 1 < x 2
>
:
1
fur x > 2
Die Verteilungsfunktion kann auch rein formal nach Gleichung (2.45) bestimmt
werden, wenn man den Denitionsbereich in Teilintervalle zerlegt:
x<0:
F (x) =
0 < x 1 : F (x) =
Zx
,1
Zx
,1
f (t) dt =
f (t) dt =
Zx
Zx
,1
Z0
,1
0 dt = 0
Zx
f (t) dt + f (t) dt =
h
0
ix
= F (0) + t dt = 0 + 0:5t2 = 0:5x2
0
0
1 < x 2 : F (x) =
Zx
,1
f (t) dt =
Zx
Z1
,1
Zx
f (t) dt + f (t) dt =
1
h
ix
= F (1) + (2 , t) dt = 0:5 + 2t , 0:5t2 =
1
1
= 0:5 + (2x , 0:5x2 ) , (2 , 0:5) = ,0:5x2 + 2x , 1
110
2
x>2:
F (x) =
Zx
,1
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
f (t) dt =
Zx
Z2
,1
Zx
f (t) dt + f (t) dt =
2
= F (2) + 0 dt = 1 + 0 = 1
2
2.6.3 Fraktilen und Grenzen einer Verteilung
In vielen Fallen (v.a. in der statistischen Testtheorie) verlangt man nicht die Kenntnis
der gesamten Verteilungsfunktion einer Zufallsvariablen. Es reicht meistens aus, gewisse
charakteristische Groen zu kennen.
Betrachtet man die Flache zwischen x-Achse und der Kurve der Wahrscheinlichkeitsdichte, dann heit derjenige x-Wert, bei dem K % der Gesamtache links von diesem
Wert liegt, die K %-Fraktile, K %-Quantile oder das K -te Perzentil (vgl. Bild
2.18). Dieser Wert wird als xK % geschrieben. Es ist in der Praxis ublich, die Fraktilen
mit den entsprechenden Prozentzahlen anzugeben, also z.B. 90%-Fraktile oder 95%Quantile. Haug sind aber auch die Bezeichnungen Fraktile bzw. Quantile zum Wert
0:9 oder 0:95 zu nden.
f (x)
100% = 1 F (x)
K%
(100 , K )% = K% = 1 , 0:5
xK % x
x0:5 xK %
Bild 2.18: K %-Fraktile einer stetigen Verteilung
x
Etwas mathematischer kann die Fraktile mit Hilfe der Verteilungsfunktion deniert
werden. Die K %-Fraktile ist Losung folgender Gleichung:
F (xK % ) =
xZK %
,1
K
f (x) dx = K % = 100
(2.51)
Man sucht also auf der y-Achse den K %-Wert und geht uber die Verteilungsfunktion
auf die x-Achse. Der abgelesene Wert ist die K %-Fraktile xK % . Sie wird haug auch
als (1 , )-Fraktile bezeichnet, wenn (100 , K )% = ist.
Die Wahrscheinlichkeit, da die Zufallsvariable X einen Wert unterhalb von xK % annimmt, betragt K % (vgl. Bild 2.18). Eine 50%-Fraktile oder ein 0:5-Quantil heit auch
Mediane.
2.6
Zufallsvariablen und ihre Verteilungen
111
Bei diskreten Verteilungen ist die Denition der Fraktilen etwas komplizierter, da keine
Flache unter der Wahrscheinlichkeitsfunktion existiert. Die zugehorige Verteilungsfunktion springt von einem Wert auf den nachsten. Fur bestimmte K %-Werte kann also
kein xK % -Wert gefunden werden, so da eine der Gleichung (2.51) analoge Beziehung
F (xK % ) =
X
xxK %
K
f (x) = K % = 100
(2.52)
erfullt ist. Andererseits existieren fur K %-Werte, bei denen dies moglich ist, unendlich
viele K %-Fraktilen (vgl. Bild 2.19). Man nimmt haug den kleinsten Wert des K %Fraktilenintervalls als die K %-Fraktile. Diese ist das Minimum aller x, bei denen F (x)
groer oder gleich K % ist:
xK % = minfxjF (x) K %g
(2.53)
100% = 1 F (x)
K%
L%
xK %
x
Bild 2.19: Existierende K %- und nichtexistierende L%-Fraktilen einer diskreten Verteilung
Beispiele:
1. Die Dichte- und Verteilungsfunktion einer stetigen Gleichverteilung zwischen den
Grenzen 1 und 3 (vgl. Beispiel auf Seite 108)
lauten:
8
ur x < 1
ur 1 x 3 F (x) = < 00:5x , 0:5 f
f
ur 1 x 3
f (x) = 00:5 f
sonst
:
1
fur x > 3
Die Mediane ist die 50%-Fraktile, also derjenige x-Wert, bei dem die Flache unter
der Dichtefunktion halb so gro wie die Gesamtache ist. Da eine Rechteckverteilung vorliegt, ist die Mediane die Mitte zwischen den Grenzen 1 und 3, also x0:5 = 2.
Dies folgt auch unmittelbar aus der Berechnung nach Gleichung (2.51):
F (x0:5 ) = 0:5x0:5 , 0:5 = 0:5 , x0:5 = 01:5 = 2
2. Bild 2.20 zeigt die Verteilungsfunktion der Augenzahlen beim Wurfeln. Die 50%Fraktile oder Mediane ist das gesamte Intervall [3; 4). Man nimmt meistens den
kleinsten Intervallwert als Fraktile, also x0:5 = 3. Die 90%-Fraktile existiert bei
der vorliegenden Verteilung eigentlich nicht. Haug wird jedoch derjenige Wert als
Fraktile herangezogen, bei dem der K %-Wert zum ersten mal uberschritten wird,
also x0:9 = 6.
112
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
1 F (x)
0:5
0
0 1 2 3 4 5 6 7 x
Bild 2.20: Fraktilen der Augenzahl beim Wurfeln
Bei symmetrischen Verteilungen mit der Symmetrieachse x = 0 ist es haug sinnvoll, mit K %-Grenzen zu operieren. Dies ist ein symmetrischer Bereich um den Symmetriepunkt 0 der Verteilung, in dem gerade K % der moglichen Realisationen liegen.
Wenn cK % die K %-Grenze einer Verteilung und f (x) die Wahrscheinlichkeitsdichte
bezeichnet, so gilt nach Bild 2.21:
F (cK %) , F (,cK %) =
cZK %
,cK%
K% = 1 , f (x) dx = K %
(2.54)
F (x)
100 , K % = 2
2
2
x
0 cK %
Bild 2.21: K %-Grenzen einer um 0 symmetrischen Verteilung
,cK %
2.7
Zweidimensionale Zufallsvariablen
113
2.7 Zweidimensionale Zufallsvariablen
Grundgesamtheiten konnen zwei oder auch mehrere Merkmale umfassen. Wird z.B. der
Brustumfang (X ) und die Kreuzhohe (Y ) einer Anzahl von Rindern aus einer Kuhpopulation gemessen, so hat man eine Stichprobe aus einer zweidimensionalen Grundgesamtheit gezogen und es interessieren die Wahrscheinlichkeiten da sowohl X Werte in
einem Intervall I und Y Werte in einem Intervall J annehmen. Die Groe (X; Y ) heit
eine zweidimensionale Zufallsgroe oder Zufallsvariable, wenn fur alle moglichen
Intervalle I und J durch X 2 I und Y 2 J ein Zufallsereignis gegeben ist, dem man in
U bereinstimmung mit den Axiomen von Kolmogoro eine Wahrscheinlichkeit zuordnen
kann. X und Y heien die Komponenten der zweidimensionalen Zufallsgroe.
Die folgende Denition der Verteilungsfunktion einer zweidimensionalen Zufallsvariablen ist eine Verallgemeinerung der entsprechenden Denition bei eindimensionalen
Zufallsgroen. Die Funktion
F (x; y) = P (X x; Y y)
(2.55)
heit Verteilungsfunktion der zweidimensionalen Zufallsgroe (X; Y ). Das Ereignis (X x; Y y) bedeutet, da sowohl X Werte kleiner als x als auch Y Werte
kleiner als y annehmen soll.
Fur diese Funktion F (x; y) gelten folgende Eigenschaften:
1. Gehen die Variablen x und y gegen 1, so geht F gegen 1.
2. Geht eine Variable gegen ,1, wahrend die andere konstant bleibt, so geht F gegen
0.
3. Wenn man eine Variable festhalt, so ist die Funktion F (x; y) in der anderen Variablen eine monoton nicht abnehmende Funktion.
Im eindimensionalen Fall interessiert haug die Wahrscheinlichkeit dafur, da X Werte
in einem Intervall a < x b annimmt. Wenn F (x) die Verteilungsfunktion der eindimensionalen Zufallsvariablen X ist, so gilt nach Gleichung (2.39) P (a < X b) =
F (b) , F (a).
Im zweidimensionalen Fall interessiert analog dazu die Wahrscheinlichkeit, da die eine
Komponente X Werte im Intervall a < x b annimmt, und die zweite Komponente Y
gleichzeitig einen Wert im Intervall c < y d. Die entsprechende Wahrscheinlichkeit
ist:
P (a < X b; c < Y d) = F (b; d) , F (a; d) , F (b; c) + F (a; c)
(2.56)
Dies sieht man leicht ein, wenn man sich fur die auf der rechten Seite vorkommenden
Verteilungsfunktionen die Wahrscheinlichkeiten der entsprechenden Ereignisse vergegenwartigt.
114
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.7.1 Diskrete zweidimensionale Zufallsvariablen
Eine Zufallsgroe (X; Y ) und ihre Wahrscheinlichkeitsverteilung heien diskret, wenn
sie abzahlbar viele verschiedene Wertepaare (xi ; yj ) mit den von Null verschiedenen
Wahrscheinlichkeiten pij annehmen kann und wenn die Summe aller Wahrscheinlichkeiten P (X = xi ; Y = yj ) = pij Eins ergibt, also:
XX
i
j
pij = 1
mit pij = P (X = xi ; Y = yj )
(2.57)
Die zweidimensionale Wahrscheinlichkeitsfunktion f (x; y) gibt die Wahrscheinlichkeit
an, mit der die moglichen Realisationen (xi ; yi ) angenommen werden.
f (x; y) =
pij fur x = xi und y = yj ; (i = 1; 2; : : : ; j = 1; 2; : : :)
0 sonst
(2.58)
Die Indizes i und j durchlaufen die Werte, mit denen alle Realisationen numeriert
wurden.
Die Verteilungsfunktion F (x; y) summiert wie bei eindimensionalen diskreten Zufallsvariablen alle Wahrscheinlichkeiten bis zu einem gewissen xi bzw. yi auf:
F (x; y) =
X X
xi x yj y
f (xi ; yj )
(2.59)
Beispiel:
Es werden zwei unterscheidbare Munzen geworfen. Da jede Munze Kopf oder Zahl
zeigen kann, ergeben sich insgesamt die vier Elementarereignisse (KK ), (KZ ), (ZK )
und (ZZ ). Es wird nun eine zweidimensionale Zufallsgroe (X; Y ) deniert:
Munze Kopf
0 2. Munze Kopf
X = 01 1.
Y
=
1. Munze Zahl
1 2. Munze Zahl
Anders ausgedruckt: Die Groen X und Y zahlen bei jeder Munze die Anzahl, wie oft
Zahl geworfen wird. Damit ergibt sich die folgende Wahrscheinlichkeitstabelle.
x1 = 0
x2 = 1
y1 = 0 y2 = 1
0:25 0:25
0:25 0:25
Die Verteilungsfunktion F (x; y) zeigt Bild 2.22.
2.7
Zweidimensionale Zufallsvariablen
115
F (x; y)
F (x; y)
1:0
0:5
y
1:0
0:5
x
2
1
1
2
0
0
Bild 2.22: Verteilungsfunktion F (x; y) einer diskreten zweidimensionalen Zufallsvariablen
2.7.2 Stetige zweidimensionale Zufallsvariablen
Eine zweidimensionale Zufallsgroe (X; Y ) und ihre dazugehorige Verteilung heien
stetig, wenn man die zugehorige Verteilungsfunktion F (x; y) durch ein Doppelintegral
von folgender Form darstellen kann:
F (x; y) =
Zx Zy
,1 ,1
f (u; v) du dv
(2.60)
Die Funktion f (x; y) soll dabei in der ganzen Ebene deniert sein, keine negativen Werte
annehmen, beschrankt sein und bis auf endlich viele glatte Kurven uberall stetig sein.
f (x; y) heit die zweidimensionale Wahrscheinlichkeitsdichte der Verteilung. Es
ist dann
+
Z1 +Z1
,1 ,1
f (u; v) du dv = 1
(2.61)
und
P (a < X b; c < Y d) =
Zb Zd
a c
f (u; v) du dv:
(2.62)
Besteht das zufallige Ereignis darin, da (X; Y ) einem beliebigen Bereich B (nicht
unbedingt einem Rechteck wie oben) angehort, so mu man die Integration uber diesen
Bereich B vollziehen:
P ((X; Y ) 2 B ) =
Z Z
B
f (u; v) du dv
(2.63)
116
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Beispiel:
Zweidimensionale Gleichverteilung
Die Zufallsgroe (X; Y ) sei in einem Rechteck R: a < x b, c < y d gleichverteilt, d.h. die Wahrscheinlichkeitsdichte f (x; y) ist in einem Rechteck R konstant. Die
Konstante8k ist dabei gleich dem Reziproken des Flacheninhalts.
1
<
fur (x; y) innerhalb R
f (x; y) = : (b , a)(d , c)
0
fur (x; y) auerhalb R
Bild 2.23 zeigt links die Dichtefunktion einer zweidimensionalen Gleichverteilung, die
durch ein Rechteck mit den Seitenlangen 2 und 1 deniert ist.
1:0
F (x; y) 1:0
f (x; y)
0:5
0:5
x
y
1
0
2 y
1
0
1
0
0
1
2
x
Bild 2.23: Dichte- und Verteilungsfunktion einer gleichverteilten zweidimensionalen
Zufallsgroe
Die formelm
aige Darstellung lautet:
ur 0 x 2; 0 y 1
f (x; y) = 00:5 f
sonst
Mit Gleichung (2.60) kann man nun die Verteilungsfunktion berechnen.
Fur ,1 < x < 0 oder ,1 < y < 0 ist F (x; y) = 0, da f (x; y) = 0 ist.
In den Grenzen 0 x 2 und 0 y 1 gilt:
F (x; y) =
Zx Zy
0 0
0:5 du dv =
Zx h
iy
0:5u dv =
0
0
Zx
0
h
ix
0:5y dv = 0:5yv = 0:5xy
0
Fur x = 2 und y = 1 ist F (2; 1) = 1. Also gilt fur alle x > 2 und y > 2 F (x) = 1.
Die Verteilungsfunktion
lautet demnach:
8
0 fur x < 0; y < 0
<
F (x; y) = : 0:5xy fur 0 x 2; 0 y 1
1 fur x > 2; y > 1
Bild 2.23 rechts zeigt diese Verteilungsfunktion. Bei negativem x und y bleibt die Funktion konstant auf dem Nullniveau. Im Bereich 0 x 2 und 0 y 1 entstehen zwei
Flanken mit konstanter Steigung. Die Steigung in y-Richtung ist doppelt so gro wie
die in y-Richtung, da die Dichte in y-Richtung auf den halben Bereich im Vergleich zur
x-Richtung konzentriert ist. Fur x > 2 und y > 1 bleibt die Funktion auf konstantem
Niveau 1.
2.7
Zweidimensionale Zufallsvariablen
117
2.7.3 Randverteilungen
Bei einer zweidimensionalen Zufallsvariablen interessieren haug nur Aussagen uber
eine Komponente allein. Es konnte z.B. sein, da man sich nur fur die Verteilung der
Kreuzhohe bei einer Rinderpopulation interessiert, ohne die Verteilung des Brustumfangs naher zu betrachten. Dazu ist festzuhalten, da man jeder zweidimensionalen
Verteilung zwei sog. Randverteilungen zuordnen kann.
Die durch die Funktionen
F1 (x) = F (x; 1) und F2 (y) = F (1; y)
(2.64)
gegebenen Verteilungen heien Randverteilungen der zweidimensionalen Zufallsgroe (X; Y ) und der Verteilungsfunktion F (x; y). Dabei ist denitionsgema:
F (x; 1) = P (X x; Y 1) = P (X x)
F (1; y) = P (X 1; Y y) = P (Y y)
(2.65)
Die Funktionen F1 (x) und F2 (y) sind tatsachlich eindimensionale Verteilungsfunktionen, da sie die entsprechenden Eigenschaften fur Verteilungsfunktionen erfullen.
Es sei noch fur den diskreten und stetigen Fall die Randverteilung angegeben:
Zunachst wird bei einer diskret verteilten Zufallsgroe (X; Y ) nach der Wahrscheinlichkeit gefragt, da X einen bestimmten Wert xi annimmt, ganz egal welchen Wert Y
annimmt.
P (X = xi ; Y beliebig) =
X
j
pij = pi :
(2.66)
Dabei ist uber alle Indizes j zu summieren.
Die Wahrscheinlichkeit, da Y einen bestimmten Wert yj annimmt, ganz gleich welchen
Wert X annimmt, ist dann:
P (X beliebig; Y = yj ) =
X
i
pij = p:j
(2.67)
Durch die pi : bzw. p:j sind die Randverteilungen gegeben.
Bei einer stetig verteilten Zufallsgroe (X; Y ) sei f (x; y) die Wahrscheinlichkeitsdichte
von (X; Y ). Die Randverteilungsfunktionen erhalt man, wenn man in Gleichung (2.60)
bzgl. einer Variablen von ,1 bis +1 integriert.
F1 (x) = F (x; 1) =
F2 (y) = F (1; y) =
Zx +Z1
,1 ,1
Zy +Z1
,1 ,1
f (u; v) dv du
(2.68)
f (u; v) du dv
118
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Die entsprechenden Dichten dieser Randverteilungen lauten:
+
Z1
1 (x)
f1 (x) = dFdx
=
2 (y )
f2 (y) = dFdy
=
,1
+
Z1
,1
f (x; y) dy
(2.69)
f (x; y) dx
2.7.4 Unabhangige Zufallsvariablen
Zwei Zufallsgroen X und Y heien voneinander unabhangig, wenn fur je zwei beliebige reelle Zahlen x und y die zufalligen Ereignisse (X x) und (Y y) unabhangig
sind.
Angenommen X und Y seien unabhangige Zufallsgroen. F1 (x) sei die Verteilungsfunktion von X und F2 (y) die Verteilungsfunktion von Y . X und Y werden jetzt
gemeinsam als zweidimensionale Zufallsgroe (X; Y ) betrachtet und ihre Verteilungsfunktion F (x; y) bestimmt. Es ist denitionsgema F (x; y) = P (X x; Y y). Die
beiden Ereignisse (X x) und (Y y) sind unabhangig, also gilt P (X x; Y y) =
P (X x) P (Y y) oder:
F (x; y) = F1 (x) F2 (y)
(2.70)
Damit ist man in der Lage festzustellen, ob zwei Zufallsgroen X und Y , deren gemeinsame Verteilungsfunktion F (x; y) gegeben ist, unabhangig sind. Man mu also nachprufen, ob die Beziehung (2.70) gilt, d.h. ob die zweidimensionale Verteilungsfunktion
gleich dem Produkt der beiden Randverteilungsfunktionen ist. Diese Denition der Unabhangigkeit stimmt mit dem landlaugen Begri der Unabhangigkeit uberein. Wenn
man z.B. mit zwei Wurfeln wurfelt, dann nimmt man selbstverstandlich Unabhangigkeit fur die beiden Zufallsvariablen (Augenzahlen der beiden Wurfel) an. Die Augenzahl
des einen Wurfels beeinut die Augenzahl des anderen Wurfels nicht. Spater werden
noch Methoden angegeben, wie man die Frage der Unabhangigkeit zweier Zufallsvariablen aufgrund vorliegender Realisationen entscheiden kann.
2.8
n-dimensionale Zufallsvariablen
119
2.8 n-dimensionale Zufallsvariablen
Im allgemeinsten Fall hat eine Zufallsvariable n Komponenten X1 ; X2; : : : ; Xn und
heit dann n-dimensionale Zufallsgroe oder Zufallsvariable. Wird das Zufallsexperiment ausgefuhrt, dann resultiert eine n-dimensionale Realisation (x1 ; x2 ; : : : ; xn ).
Diese Realisation kann durch einen Punkt im n-dimensionalen Raum mit den Koordinaten x1 ; x2 ; : : : ; xn dargestellt werden.
Beispiele:
1. Tab. A.10 im Anhang zeigt Stichprobenwerte aus einer achtdimensionalen Grundgesamtheit mit den Merkmalen Rasse, Milchleistung, Fettgehalt in %, Fettgehalt in
kg, Eiweigehalt, Gewicht, Kreuzhohe und Brustumfang.
2. Tab. 1.20 zeigt eine Stichprobe aus einer vierdimensionalen Grundgesamtheit mit
 und Panzen pro
den Merkmalen Ertrag, Tausendkorngewicht, Kornzahl pro Ahre
Quadratmeter.
Analog dem zweidimensionalen Fall wird folgende Denition gegeben:
Die Verteilungsfunktion F (x1 ; x2 ; : : : ; xn ) einer n-dimensionalen Zufallsgroe
(X1 ; X2 ; : : : ; Xn ) ist deniert als
F (x1 ; x2 ; : : : ; xn ) = P (X1 x1 ; X2 x2 ; : : : ; Xn xn )
(2.71)
fur alle beliebigen reellen Werte x1 ; x2 ; : : : ; xn .
Die Komponenten (die n eindimensionalen Zufallsgroen X1 ; X2 ; : : : ; Xn ) einer n-dimensionalen Zufallsgroe (X1 ; X2 ; : : : ; Xn ) heien dann unabhangig, wenn
die zufalligen Ereignisse (X1 x1 ), (X2 x2 ), : : :, (Xn xn ) fur alle beliebigen
x1 ; x2 ; : : : ; xn unabhangig sind. Daraus folgt wieder: Fur unabhangige Komponenten, d.h. also fur eindimensionale Zufallsgroen X1; X2; : : : ; Xn, gilt:
F (x1 ; x2 ; : : : ; xn ) = F1 (x1 ) F2 (x2 ) : : : Fn (xn )
(2.72)
Hier ist F (x1 ; x2 ; : : : ; xn ) die Verteilungsfunktion der Zufallsvariablen (X1 ; X2 ; : : : ; Xn )
und F1 (x1 ); F2 (x2 ); : : : ; Fn (xn ) sind die Randverteilungsfunktionen der Veranderlichen
X1 ; X2 ; : : : ; Xn .
120
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
2.9 Mazahlen einer Verteilung
Die Verteilungsfunktion oder die Wahrscheinlichkeitsfunktion im diskreten Fall bzw.
die Dichtefunktion im stetigen Fall charakterisieren eine Zufallsvariable X vollstandig. Haug genugt ein grober U berblick einer Verteilung, den man sich mit einigen
charakteristischen Mazahlen fur eine Verteilung verschat. Man unterscheidet im
wesentlichen Mittelwerte bzw. Erwartungswerte und Streuungsmae. Zusatzlich
werden manchmal noch Schiefheits- und Wolbungsmae berucksichtigt.
2.9.1 Mittelwert oder Erwartungswert einer Verteilung
Man bezeichnet den Erwartungswert oder Mittelwert einer Zufallsgroe X oder
ihrer Verteilung mit E(X ) und schreibt manchmal auch kurz .
Bei einer diskreten Zufallsgroe X mit endlich vielen Realisationen ist der Erwartungswert deniert als:
E(X ) =
n
X
i=1
xi f (xi )
(2.73)
Bei unendlich vielen Realisationen mu man fur die Existenz eines Erwartungswerts
voraussetzen, da die unendliche Summe konvergiert.
Bei einer stetigen Zufallsgroe X ist der Mittelwert deniert als:
E(X ) =
+
Z1
,1
x f (x) dx
Voraussetzung ist die Existenz des Integrals
(2.74)
+
Z1
,1
jxj f (x) dx.
Beispiele:
1. Die Zufallsvariable
X sei die Augenzahl beim Wurfeln.
8
1
<
f (x) = : 6 fur x = 1; 2; 3; 4; 5; 6
0 sonst
E(X ) = = 1 16 + 2 61 + 3 16 + 4 16 + 5 61 + 6 16 = 21
6 = 3:5
= 3:5 ist keine mogliche Realisation der betrachteten Zufallsvariablen, sondern
als Mittelwert der Augenzahl uber eine unendlich lange Reihe von Wurfelversuchen
zu verstehen. (Man sagt auch: Der auf lange Sicht durchschnittlich zu erwartende
Wert). Mit zunehmender Anzahl n von Wurfelversuchen wird die Summe S aller
erzielten Augenzahlen immer besser mit n 3:5 ubereinstimmen. Dies kann man in
der Praxis bestatigen.
2.9
Mazahlen einer Verteilung
121
Ein Simulationsversuch mit verschiedenen Anzahlen n von Wurfen zeigt z.B. folgendes Ergebnis:
S
3:5 n Abweichung in %
10
41
35
17:14
100
337
350
3:71
1000 3417 3500
2:37
10000 34901 35000
0:28
100000 349667 350000
0:10
n
2. X sei eine gleichverteilte Zufallsvariable (vgl. Beispiel auf Seite 108).
8
1
<
f (x) = : b , a fur a x b
0 sonst
+
Z1
Zb
b
Z
x
1
E(X ) = =
x f (x) dx = b , a dx = b , a x dx =
,1
a
a
2 , a2
1
b
(
b
+
a
)(
b
,
a
)
a
+
= b , a 2 = 2(b , a) = 2 b
In der Praxis kommen haug sog. symmetrische Verteilungen vor. Dies sind Verteilungen, deren Wahrscheinlichkeitsfunktionen bzw. Dichten f (x) symmetrisch bezuglich
eines reellen Wertes a sind (Bild 2.24).
f (x)
f (x)
a=
x
a=
Bild 2.24: Diskrete und stetige symmetrische Verteilung
x
Hat man nun eine symmetrische Verteilung, die symmetrisch bezuglich x = a ist, so
ist ihr Mittelwert gleich diesem Wert a (vgl. Bild 2.24).
Es kann vorkommen, da die Summe in Gleichung (2.73) mit unendlich vielen Realisationen nicht konvergiert oder das Integral in Gleichung (2.74) nicht existiert. Dann
besitzt die entsprechende Zufallsvariable auch keinen Mittelwert. Solche Verteilungen
sind fur praktische Anwendungen jedoch sehr selten.
122
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Rechenregeln fur Erwartungswerte
Der Erwartungswert einer Konstanten k ist trivialerweise wieder gleich dieser Konstanten:
E(k) = k
(2.75)
Einen konstanten Faktor k kann man vor den Erwartungswert setzen:
E(k X ) = k E(X )
(2.76)
Der Erwartungswert der Summe aus mehreren Zufallsvariablen X1 ; X2 ; : : : ; Xn ist die
Summe der Erwartungswerte der einzelnen Zufallsvariablen:
E(X1 + X2 + : : : + Xn ) = E(X1) + E(X2 ) + : : : + E(Xn )
(2.77)
Der Erwartungswert des Produkts zweier unabhangiger Zufallsvariablen X1 und X2 ist
das Produkt der Erwartungswerte von X1 und X2 :
E(X1 X2 ) = E(X1 ) E(X2 )
(2.78)
2.9.2 Varianz einer Verteilung
Die Varianz Var(X ) bzw. 2 einer Verteilung ist ein Ma fur die Streuung einer
Zufallsgroe.
Sie ist fur diskrete Zufallsvariablen deniert als:
Var(X ) =
n
X
i=1
(xi , )2 f (xi )
(2.79)
Bei stetigen Zufallsvariablen wird die Summe wie bei der Berechnung des Erwartungswerts durch das Integral ersetzt:
Var(X ) =
+
Z1
,1
p
(x , )2 f (x) dx
Die Groe = Var(X ) heit Standardabweichung der Verteilung.
(2.80)
2.9
Mazahlen einer Verteilung
123
Beispiele:
1. Sei X die Augenzahl beim Wurfeln mit = 3:5.
2
2
2
2
2 = Var(X ) = (1 ,63:5) + (2 ,63:5) + (3 ,63:5) + (4 ,63:5) +
2
2
+ (5 ,63:5) + (6 ,63:5) =
= (6:25 + 2:25 + 0:25 +6 0:25 + 2:25 + 6:25) =
= 176:50 = 2:9167
p
= 2 = 1:71
b
2. Sei X eine zwischen a und b gleichverteilte Zufallsgroe mit = a +
2 .
= Var(X ) =
2
=
Zb a
Zb
x, a+b
2
a
2
b ,1 a dx =
x2 , (a + b)x + (a +4 b)
2
b ,1 a dx =
3
a + b)x2 + (a + b)2 x b = (b , a)2
= 3(bx, a) , (2(
b , a) 4(b , a) a
12
2.9.3 Momente einer Verteilung
Erwartungswert und Varianz einer Zufallsvariablen sind Sonderfalle der sog. Momente
einer Verteilung oder einer Zufallsvariablen.
,
Allgemein wird das k-te Moment E X k (k = 1; 2; : : :) einer diskreten Verteilung
deniert als:
,
E Xk =
n
X
i=1
xki f (xi )
,
(2.81)
Das k-te Moment E X k (k = 1; 2; : : :) einer stetigen Verteilung ist:
,
E Xk =
+
Z1
,1
xk f (x) dx
(2.82)
Fur k = 1 ergibt sich der Mittelwert oder Erwartungswert E(X ) als 1. Moment der
Verteilung.
Man deniert das k-te zentrierte Moment E(X , )k im diskreten Fall:
,
E (X , )k =
n
X
i=1
(xi , )k f (xi )
(2.83)
124
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
Im stetigen Fall gilt:
+
Z1
,
E (X , )k =
,1
(x , )k f (x) dx
(2.84)
Fur k = 2 erhalt man das zweite zentrierte Moment oder die Varianz der Verteilung:
,
E (X , )2 = 2 = Var(X )
(2.85)
Die zentrierten Momente lassen sich durch die Momente selbst ausdrucken:
,
,
,
E (X , )2 = E ,X 2 , 2X + 2 = E, X 2 , 2E(X,) + 2 =
= E X 2 , 22 + 2 = E X 2 , 2 = E X 2 , E(X )2
(2.86)
Also folgt fur die Varianz:
,
,
2 = Var(X ) = E (X , )2 = E X 2 , E(X )2
(2.87)
Diese sog. Verschiebungsregel entspricht der Berechnungsformel fur die empirische
Varianz einer Stichprobe nach Gleichung (1.9).
Beispiel:
Man kann also die Varianz 2 der Zufallsvariablen X : Augenzahl beim Wurfeln einfacher, d.h. ohne Dierenzbildung und anschlieendem Quadrieren ausrechnen:
2
2
2
2
2
2
E(X 2 ) = 1 + 2 + 3 +6 4 + 5 + 6 = 91
= E(X ) = 3:5 = 72
6
,
91
49
182
,
147
35
2 = E X 2 , E(X )2 = 6 , 4 = 12 = 12 = 2:9167
2.9.4 Schiefe und Kurtosis
Die Schiefe einer Verteilung bzw. einer Zufallsvariablen X ist das dritte zentrierte
Moment bezogen auf 3 :
Schiefe(X ) =
,
E (X , )3
3
(2.88)
Der Exze oder die Kurtosis einer Verteilung bzw. einer Zufallsvariablen X ist das
vierte zentrierte Moment bezogen auf 4 minus 3:
Exze(X ) =
,
E (X , )4
4
,3
(2.89)
Zusatzlich zu Mittelwert und Varianz kann man mit den Mazahlen fur Schiefe und
Kurtosis die Gestalt einer Dichtefunktion f (x) etwas genauer angeben.
2.9
Mazahlen einer Verteilung
f (x)
Schiefe
125
a)
f (x)
neg.
0
pos.
neg.
b)
pos.
Kurtosis
x
Bild 2.25: Schiefe und Kurtosis
x
Man kann zeigen, da symmetrische Verteilungen die Schiefe 0 haben. Verteilungen wie
in Bild 2.25 a) links haben eine positive Schiefe, Verteilungen wie in Bild 2.25 a) rechts
eine negative Schiefe.
Nun konnen sich aber symmetrische Verteilungen noch durch die Art der Wolbung
ihrer Dichtefunktion voneinander unterscheiden. Diese Wolbung kann man in etwa mit
der Mazahl der Kurtosis oder des Exzesses erfassen. Eine positive Kurtosis haben
spitze Kurven, bauchige Kurven besitzen eine negative Kurtosis (Bild 2.25 b).
2.9.5 Mazahlen bei zweidimensionalen Verteilungen
Die Kovarianz Cov(X1 ; X2 ) einer zweidimensionalen Zufallsgroe (X1 ; X2 ) ist ahnlich
deniert wie die Varianz einer eindimensionalen Zufallsgroe. Anstelle des Erwartungswerts uber das Quadrat der Abweichung von X1 vom Mittelwert E(X1 ) wird jetzt der
Erwartungswert uber das Produkt der Abweichungen der beiden Zufallsgroen von
ihren Mittelwerten 1 = E(X1) und 2 = E(X2 ) gebildet:
,
,
Cov(X1 ; X2 ) = E X1 , E(X1 ) X2 , E(X2 )
(2.90)
Im stetigen Fall existiert eine zweidimensionale Dichte f (x1 ; x2 ) und es ist
Cov(X1 ; X2 ) =
+
Z1 +Z1
(x1 , 1 ) (x2 , 2 ) f (x1 ; x2 ) dx1 dx2
,1 ,1
(2.91)
mit 1 = E(X1) und 2 = E(X2 ).
Im diskreten Fall ist
Cov(X1 ; X2 ) =
XX
i
j
(x(1i) , 1 ) (x(2j) , 2 ) pij ;
wobei pij = P (X1 = x(1i) ; X2 = x(2j) ).
(2.92)
126
2
Wahrscheinlichkeitsverteilungen und Zufallsvariablen
A hnlich wie bei der Varianz kann man folgende Verschiebungsregeln fur Kovarianzen
herleiten:
Cov(X1 ; X2 ) = E(X1 X2 ) , E(X1 ) E(X2 )
(2.93)
Der Korrelationskoezient von X1 und X2 (oder der Korrelationskoezient
der zweidimensionalen Grundgesamtheit) ergibt sich durch Normierung der Kovarianz
Cov(X1 ; X2 ):
X1 ; X2 )
X1 , 1 X2 , 2
(X1 ; X2 ) = Cov(
1 2 = E
1
2
(2.94)
Vergleich der beiden Begrie unabhangig und unkorreliert:
Zwei Zufallsgroen X1 ; X2 , deren Kovarianz Cov(X1 ; X2 ) verschwindet, oder was das
Gleiche ist, deren Korrelationskoezient (X1 ; X2 ) gleich Null ist, heien unkorreliert.
Zwei Zufallsgroen X1 und X2 heien voneinander unabhangig, wenn die zweidimensionale Verteilungsfunktion F (x1 ; x2 ) sich als Produkt zweier Randverteilungen
darstellen lat:
F (x1 ; x2 ) = F1 (x1 ) F2 (x2 )
(2.95)
Der Korrelationskoezient (X1 ; X2 ) zweier Zufallsgroen X1 und X2 mit 12 > 0 und
22 > 0 liegt stets im Intervall zwischen ,1 und +1. Sind X1 und X2 unabhangig, so ist
der Korrelationskoezient (X1 ; X2 ) = 0, also X1 und X2 sind dann auch unkorreliert.
Die Umkehrung gilt allerdings nicht immer (siehe Beispiel unten).
Besteht mit der Wahrscheinlichkeit 1 zwischen X1 und X2 eine lineare Beziehung X2 =
aX1 + b (a; b = const.), so ist (X1 ; X2 ) = +1, wenn a > 0 und (X1 ; X2 ) = ,1,
wenn a < 0. Auch die Umkehrung gilt: Aus = 1 folgt, da zwischen X1 und X2
eine lineare Beziehung X2 = aX1 + b mit der Wahrscheinlichkeit 1 besteht, wobei
a = (X1 ; X2 ) 2 =1 .
Beispiel:
Es wird folgende einfache zweidimensionale diskrete Verteilung betrachtet.
,1
X1
X2
0
1
R:V:
,1 0:20 0:05 0:20 0:45
0 0:05 0 0:05 0:10
1 0:20 0:05 0:20 0:45
R:V: 0:45 0:10 0:45 1:00
2.9
Mazahlen einer Verteilung
127
Untersucht wird zunachst auf Unkorreliertheit:
1 = E(X1 ) = (,1) 0:45 + 0 0:10 + 1 0:45 = 0
2 = E(X2 ) = (,1) 0:45 + 0 0:10 + 1 0:45 = 0
,
Cov(X1 ; X2 ) = E (X1 , 1 )(X2 , 2 ) = E(X1 X2 ) =
=
3 X
3
X
(i)
i=1 j =1
x1 x(2j) pij = 0
Die beiden Zufallsvariablen X1 und X2 sind also unkorreliert.
Sind sie auch unabhangig? Dazu mute fur jede mogliche Realisation (x(1i) ; x(2j) ) gelten:
P (X1 = x(1i) ; X2 = x(2j) ) = P (X1 = x(1i) ) P (X2 = x(2j) ).
Es ist jedoch z.B. P (X1 = 0; X2 = 0) = 0 und P (X1 = 0) P (X2 = 0) = 0:10 0:10 =
0:01 6= 0. Also gilt zumindest fur eine Realisation die geforderte Relation nicht. X1 und
X2 sind nicht unabhangig voneinander.
Es gilt: Sind zwei Zufallsgroen voneinander unabhangig, so sind sie auch unkorreliert.
Die Umkehrung gilt jedoch nicht allgemein. Hat man speziell eine zweidimensionale
Normalverteilung, dann gilt auch die Umkehrung, denn im Fall der Normalverteilung
bedeutet Unkorreliertheit auch Unabhangigkeit.
2.9.6 Additionsregeln fur Varianzen
Gegeben seien zwei Zufallsvariablen X1 und X2 . Gesucht ist die Varianz der Zufallsvariablen k1 X1 + k2 X2 , also einer Linearkombination aus X1 und X2 . Es gilt:
Var(k1 X1 + k2 X2 ) = k12 Var(X1 ) + k22 Var(X2 ) + 2k1 k2 Cov(X1 ; X2)
(2.96)
Diese Formel lat sich auf n Zufallsvariablen X1 ; X2 ; : : : ; Xn verallgemeinern:
Var
n
X
i=1
!
ki Xi =
n
X
i=1
ki2 Var(Xi ) + 2
nX
,1 X
n
i=1 j =i+1
ki kj Cov(Xi ; Xj )
(2.97)
Sind die beiden Zufallsvariablen X1 und X2 unkorreliert, so gilt folgende einfache Additionsregel:
Var(k1 X1 + k2 X2 ) = k12 Var(X1 ) + k22 Var(X2 )
(2.98)
Sind die Zufallsvariablen X1 ; X2 ; : : : ; Xn paarweise unkorreliert, d.h. ist die Kovarianz
Cov(Xi ; Xj ) = 0 fur alle i 6= j , so gilt:
Var
n
X
i=1
!
ki Xi =
n
X
i=1
ki2 Var(Xi )
(2.99)
Herunterladen