2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen In der beschreibenden Statistik werden Stichproben ubersichtlich tabellarisch oder graphisch beschrieben. Ein wichtiges Ziel ist jedoch, Schlusse von einer zufallig herausgegrienen Stichprobe auf die zugehorige Grundgesamtheit zu ziehen. In der Regel ist die Grundgesamtheit mit den interessierenden Eigenschaften nicht vollstandig bekannt. Das mag prinzipielle Grunde haben, weil es sich um eine hypothetische Grundgesamtheit handelt oder auch okonomische, weil die Erfassung der ganzen Grundgesamtheit unwirtschaftlich ist. In dieser Situation soll eine Stichprobe aus dieser Grundgesamtheit helfen, eine Aussage uber die interessierenden Parameter zu machen. Betrachtet man die Grundgesamtheit als groe Urne, so wird jede daraus gezogene Stichprobe jeweils etwas andere Parameterwerte liefern. Um nun mit Hilfe einer einzigen Stichprobe eine Aussage, wenn auch nicht mit 100%-iger Sicherheit, zu machen, so mu man wissen, wie sich die Parameterwerte aller moglichen Stichprobenwerte vom Umfang n in dieser Grundgesamtheit verteilen. Damit kommt man zu den theoretischen Wahrscheinlichkeitsverteilungen, die die Gesetzmaigkeiten zwischen Parametern der Grundgesamtheit und Parametern einer Stichprobe aufzeigen. Die bisher behandelten Haugkeitsverteilungen, die aus Stichproben gewonnen wurden, werden als empirische Verteilungen bezeichnet, im Gegensatz zu den theoretischen Wahrscheinlichkeitsverteilungen, die als mathematische Modelle von Grundgesamtheiten aufgefat werden konnen. In Kapitel 3 werden einige wichtige Wahrscheinlichkeitsverteilungen vorgestellt, die sich zum groen Teil in der Natur angenahert wiedernden. Sie werden zur statistischen Analyse benotigt, um einen Schlu von einer Stichprobe auf die Grundgesamtheit ziehen zu konnen. Im folgenden Kapitel erfolgt zunachst eine kurze Einfuhrung in die Kombinatorik, die fur die Berechnung von klassischen Wahrscheinlichkeiten eine groe Bedeutung hat. Im Anschlu daran werden Zufallsereignisse deniert und der Begri der Wahrscheinlichkeit mathematisch erfat. Die Wahrscheinlichkeitstheorie hat die Aufgabe, mathematische Modelle fur zufallig ablaufende Experimente zu entwickeln. Grundlegende Arbeiten hierzu hat Kolmogoro geleistet, der 1933 den axiomatischen Aufbau der Wahrscheinlichkeitstheorie vorschlug. Wahrscheinlichkeitsverteilungen ermoglichen wahrscheinlichkeitstheoretische Aussagen uber hypothetische Zufallsvariablen. Der Abschlu des Kapitels behandelt die Beschreibung von Verteilungen durch geeignete Mazahlen. 72 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.1 Kombinatorik Bei vielen Problemen, insbesondere in der Wahrscheinlichkeitstheorie, tritt die Frage auf, wieviele verschiedene Anordnungen von Elementen einer Menge es gibt. Die Kombinatorik gibt Auskunft uber mogliche Zusammenstellungen und Anordnungen von endlich vielen, beliebig gegebenen Elementen einer Menge. Zwei Zusammenstellungen gelten zunachst als verschieden, wenn in ihnen nicht genau die gleichen Elemente auftreten oder die Elemente in verschiedener Anzahl vorkommen. Man dierenziert im einzelnen: Zusammenstellungen ohne Berucksichtigung der Anordnung Zusammenstellungen mit Berucksichtigung der Anordnung Je nachdem, ob in einer Zusammenstellung dieselben Elemente mehrmals auftreten oder nicht, unterscheidet man auerdem zwischen: Zusammenstellungen ohne Wiederholung Zusammenstellungen mit Wiederholungen Es gibt im wesentlichen drei Arten von Zusammenstellungen. Man bezeichnet diese wie folgt: Permutationen sind Zusammenstellungen, die alle gegebenen Elemente einer Menge enthalten Variationen sind Zusammenstellungen von k Elementen aus einer Menge von n Elementen mit Berucksichtigung der Anordnung (Variationen k-ter Klasse) Kombinationen sind Zusammenstellungen von k Elementen aus einer Menge von n Elementen ohne Berucksichtigung der Anordnung (Kombinationen k-ter Klasse) 2.1.1 Permutationen Eine Zusammenstellung, in der alle n Elemente einer gegebenen Menge in irgendeiner Anordnung stehen, heit Permutation. Unterschiedliche Anordnungen der n gegebenen Elemente sollen stets als verschiedene Permutationen aufgefat werden. Permutationen ohne Wiederholung Es seien n verschiedene Elemente (z.B. Personen, Gegenstande, Zahlen) gegeben, die mit a1 ; a2 ; : : : ; an oder lediglich durch die Zahlen 1; 2; : : :; n gekennzeichnet seien. Diese Elemente lassen sich auf mehrere Arten nebeneinander anordnen. Pn sei die Anzahl der unterschiedlichen Permutationen von n verschiedenen Elementen. Fur n = 1; 2; 3 gibt es folgende verschiedenen Permutationen: Elemente 1 1; 2 1; 2; 3 n Permutationen Pn 1 1 1=1 2 12 21 2=12 3 123 213 312 132 231 321 6 = 1 2 3 2.1 Kombinatorik 73 Man kann sich Permutationen auch durch Anordnung verschieden farbiger Kugeln klarmachen (Bild 2.1). n=1 n=2 n=3 1 r r g 2 g r r g b r b g g r b g b r b r g b g r 6 Bild 2.1: Permutationen ohne Wiederholung Entwickelt man dieses Schema weiter fur groere n, so folgt: Die Anzahl Pn der Permutationen ohne Wiederholung, d.h. die Anordnung von n verschiedenen Elementen ist: Pn = 1 2 3 : : : n = n! = n Y i=1 n Y i=1 i = n! (2.1) i wird als \ n-Fakultat\ bezeichnet. Der Beweis von Satz (2.1) erfolgt durch vollstandige Induktion. Beispiel: Vier Personen A,B,C,D sollen nebeneinander in einer Reihe aufgestellt werden. Es gibt P4 = 4! = 24 verschiedene Anordnungen: ABCD BACD CABD DABC ABDC BADC CADB DACB ACBD BCAD CBAD DBAC ACDB BCDA CBDA DBCA ADBC BDAC CDAB DCAB ADCB BDCA CDBA DCBA Die obige Auistung bezeichnet man als lexikographische Reihenfolge der Permutationen, da die einzelnen Permutationen wie in einem Lexikon der Reihe nach aufgefuhrt sind. Permutationen mit Wiederholungen Mit den 3 Elementen a1 ; a2 ; b kann man 3! = 6 Permutationen bilden: a1 a2 b a2 a1 b a1 ba2 a2 ba1 ba1 a2 ba2 a1 Ist nun a1 = a2 = a, so tritt das Element a zweimal auf. Von den 6 Permutationen kann man nun diejenigen nicht mehr voneinander unterscheiden, die sich nur durch eine Vertauschung der beiden Elemente a1 und a2 ergeben: 74 2 | Wahrscheinlichkeitsverteilungen und Zufallsvariablen a1 a2 b a2 a1 b a a b a a b {z aab }| a1 ba2 a2 ba1 a ba a ba {z aba }| ba1 a2 ba2 a1 ba a ba a {z baa } Auch hier kann man das Kugelbeispiel zur Verdeutlichung heranziehen (Bild 2.2). g r g r g r r r r r r r g r g r g r Bild 2.2: Permutationen mit Wiederholungen Untereinander abgebildete Kugelfolgen sind identisch, denn es interessiert nur die Kugelfarbe. Die beiden roten Kugeln konnen also beliebig vertauscht werden, ohne da sich die Anordnung andert. Es gibt also nur noch 3!=2! = 3 verschiedene Permutationen. A hnlich uberlegt man sich, da bei den 24 Permutationen der Elemente a1 , a2 , a3 und b diejenigen zusammenfallen, die sich nur durch eine Permutation der Elemente a1 , a2 und a3 unterscheiden, wenn man a1 = a2 = a3 = a zulat, also das Element a dreimal vorkommt. Es gibt 3! = 6 verschiedene Anordnungen der 3 Elemente a1 , a2 und a3 . Also gibt es letztlich 4!=3! = 24=6 = 4 verschiedene Permutationen von vier Elementen, von denen drei gleich sind: a a a b, a a b a, a b a a, b a a a Es gilt allgemein: Sind unter den n Elementen genau r gleiche Elemente, so wird eine Anordnung der n Elemente durch Permutation der gleichen Elemente nicht geandert. Samtliche Anordnungen lassen sich daher zusammenfassen in Gruppen von je r! gleichen Anordnungen. Es gibt also n!=r! verschiedene Permutationen. Dieser Schlu lat sich verallgemeinern auf den Fall, da unter den n Elementen nicht nur gleiche Elemente einer Art, sondern je r1 ; r2 ; : : : ; rp Elemente einander gleich sind: Die Anzahl Pen der verschiedenen Permutationen mit Wiederholungen, also bei r1 ; r2 ; : : : ; rp gleichen Elementen, ist: Pen = r ! r !n!: : : r ! (2.2) 1 2 p Beispiele: 1. Wie gro ist die Anzahl der Permutationen aus den 10 Elementen: a, a, a, a, b, b, c, d, d, d? Es ist n = 10, r1 = 4, r2 = 2, r3 = 1, r4 = 3. Die Anzahl Pe10 der verschiedenen Anordnungen ist: Pe10 = 4! 2!10! 1! 3! = 12600 2. Zwei Zwillingspaare (eineiig) A1 A2 und B1 B2 werden nebeneinander in einer Reihe aufgestellt. Die Zwillinge sind nicht zu unterscheiden, also A1 = A2 = A und B1 = 4! = 6 verschiedene Anordnungen: B2 = B. Es gibt dann Pe4 = 2! 2! AABB ABAB ABBA BBAA BABA BAAB 2.1 Kombinatorik 75 2.1.2 Variationen Zusammenstellungen von k Elementen aus n Elementen (k n) unter Berucksichtigung ihrer Anordnung nennt man Variationen von n Elementen zur k-ten Klasse. Ihre Anzahl bezeichnet man mit Vn(k) . Auch hier wird unterschieden zwischen Variationen mit oder ohne Wiederholungen, je nachdem ob einzelne Elemente mehrmals auftreten oder nicht. Variationen ohne Wiederholung Aus n verschiedenen Elementen kann man Gruppen aus k Elementen bilden. Dies entspricht prinzipiell dem Ziehen von Kugeln aus einer Urne ohne Zurucklegen. Sind 3 Kugeln der Farbe rot, grun und blau in der Urne, dann kann man V3(1) Anordnungen mit einer Kugel, V3(2) mit zwei Kugeln und V3(3) Anordnungen mit 3 Kugeln bilden (Bild 2.3). r g b 1. Zug g r 3 b 2. Zug g b r b r g 32 3. Zug b g b r g r 321 Bild 2.3: Variationen ohne Wiederholung Das Ziehen jeweils einer Kugel fuhrt zu V3(1) = 3 verschiedenen Moglichkeiten. Beim zweiten Zug ist eine Kugel weniger in der Urne. Infolgedessen hat man nur noch zwei Moglichkeiten, eine Kugel zu ziehen. Mit den drei Moglichkeiten des ersten Zugs ergibt sich V3(2) = 3 2 = 6. Beim dritten Zug ist nur noch eine Kugel in der Urne. Es existiert nur noch eine Moglichkeit. Die Anzahl der Variationen von drei Kugeln ist demnach V3(3) = 3 2 1 = 6. Dies ist gleich der Anzahl der Permutationen von drei Kugeln. Fur n Kugeln hat man folgende Moglichkeiten: Zug 1: 2: 3: .. . Moglichkeiten n n,1 n,2 .. . k: n , k + 1 76 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Daraus folgt: Die Anzahl Vn(k) der Variationen ohne Wiederholung von n Elementen zur k-ten Klasse betragt: Vn(k) = n (n , 1) : : : (n , k + 1) = (n ,n! k)! (2.3) Permutationen konnen auch als Variationen n-ter Klasse aus n Elementen aufgefat werden: Pn = Vn(n) (2.4) Beispiel: Aus den vier Nucleotiden Adenin, Thymin, Guanin und Cytosin kann man V4(3) = (4 ,4! 3)! = 4! 1! = 4! = 24 Triplets mit verschiedenen Basen bilden. Variationen mit Wiederholungen Konnen in den Anordnungen Elemente auch mehrmals vorkommen, so erhalt man Variationen mit Wiederholungen Ven(k) . Die entspricht dem Ziehen von Kugeln aus einer Urne mit Zurucklegen (Bild 2.4). r g b 1. Zug 2. Zug 3. Zug g r r g b r g 3 b b r g b r g b r g b r g b r g b r g b r g b r g b r g b r g b 32 33 Bild 2.4: Variationen mit Wiederholungen Bei drei verschieden farbigen Kugeln hat man pro Zug 3 Moglichkeiten. Fur n Kugeln existieren pro Zug n Moglichkeiten. Folglich gilt: Die Anzahl Ven(k) der Variationen mit Wiederholungen von n Elementen zur k-ten Klasse betragt: Ven(k) = nk (2.5) 2.1 Kombinatorik 77 Beispiel: Aus den vier Nucleotiden Adenin, Thymin, Guanin und Cytosin kann man Ve4(3) = 43 = 64 Triplets bilden, wenn gleiche Basen auch mehrfach auftreten durfen. Bei Variationen mit Wiederholungen kann k > n sein, denn man kann beim Ziehen von Kugeln mit Zurucklegen beliebig oft ziehen. Beispiel: Das Genom eines Bakteriums besteht aus ca. 4 Mio: Nucleotiden. Die Anzahl aller moglichen Nucleotidsequenzen dieser Lange betragt: Ve4(4 Mio:) = 4(4 Mio:) 10(2:4 Mio:) Zum Vergleich: Die Gesamtzahl aller stabilen Elementarteilchen des Universums wird auf ca. 1080 geschatzt. 2.1.3 Kombinationen Verzichtet man bei Zusammenstellungen von k Elementen aus einer Menge von n Elementen auf die Berucksichtigung der Anordnung, so erhalt man Kombinationen k-ter Klasse. Kombinationen ohne Wiederholung Betrachtet man zunachst wieder den Fall lauter verschiedener Elemente in einer Kombination. Es gibt n!=(n , k)! verschiedene Variationen k-ter Klasse, jedoch zahlen alle Variationen, die die gleichen Elemente enthalten, nur als eine einzige Kombination. Bei k Elementen sind das k! Moglichkeiten (Permutationen), d.h. k! Variationen gelten als jeweils gleich. In Bild 2.5 werden die untereinander stehenden Kugelfolgen nicht unterschieden, da lediglich die Reihenfolge der Kugeln verschieden ist. k=2 ohne Zurucklegen r g b r g r b g b g r b r b g Bild 2.5: Kombinationen ohne Wiederholung Mit Berucksichtigung der Anordnung gabe es V3(2) = 6 Moglichkeiten. Da jedoch die untereinander stehenden Anordnungen in diesem Fall als gleich gelten, reduzieren sich (2) die Moglichkeiten um den Faktor P2 = 2. Es ist also: C3(2) = VP3 = 26 = 3 2 78 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen (k) Fur beliebige n gilt: Cn(k) = VPn Daraus folgt: k (k) Die Anzahl Cn der Kombinationen ohne Wiederholung aus n Elementen zur k-ten Klasse betragt: Cn(k) = n (n , 11) 2:: :: ::(nk, k + 1) = (n , nk!)! k! = nk (2.6) n Die abkurzende Schreibweise k wird gesprochen als \ n uber k\. Die Ausdrucke nk heien Binomialkoezienten. Beispiel: Im Zahlenlotto 6 aus 49 gibt es 49 6 14 Mio: mogliche Tips. Die Moglichkeiten, einen Vierer zu tippen sind 64 43 2 = 13545, denn die vier Richtigen lassen sich auf 64 Arten aus den sechs Richtigen ziehen, die zwei Falschen auf 43 2 Arten aus den Falschen. Kombinationen mit Wiederholungen A hnlich wie bei den Variationen mit Wiederholung erhalt man Kombinationen mit Wiederholung, indem man aus einer n-elementigen Menge k-mal ein Element zieht und wieder zurucklegt (Bild 2.6). k=2 mit Zurucklegen r g b r r g g b b r g r b g b g r b r b g Bild 2.6: Kombinationen mit Wiederholungen Die Anzahl der Kombinationen mit Wiederholung lat sich berechnen zu: + 2 , 2) = 3 + 2 , 1 = 6 Ce3(2) = (3 + 2 , 1)1 (3 2 2 2.1 Kombinatorik 79 Fur beliebige n gilt: Die Anzahl Cen(k) der Kombinationen mit Wiederholungen aus n Elementen zur k-ten Klasse betragt: : : : (n + 1) n Cn = n + kk , 1 = (n + k , 1) (1n +2 k: ,: : 2) k e (k) Auch bei Kombinationen mit Wiederholungen ist k > n moglich. Beispiel: Ein Strau mit 10 Tulpen aus 5 verschiedenfarbigen Sorten kann auf 5 + 10 , 1 14! (10) e C5 = = 14 10 10 = 4! 10! = 1001 Arten zusammengestellt werden. (2.7) 80 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.1.4 Zusammenfassung Haug bereitet es Schwierigkeiten zu entscheiden, welche Anordnung von Elementen vorliegt. Es empehlt sich folgende Vorgehensweise: Man entscheidet zunachst welche Art der Anordnung vorliegt. Besteht die Anordnung aus allen Elementen einer Menge, dann liegt eine Permutation vor. Im anderen Fall kommt Variation oder Kombination in Frage. Wird die Reihenfolge der Elemente berucksichtigt, so handelt es sich um eine Variation, ansonsten um eine Kombination. Nach der Entscheidung, welche Anordnung vorliegt, fragt man, ob Wiederholungen vorkommen oder nicht. Die folgende Tabelle zeigt einen U berblick uber die verschiedenen Arten der Anordnung von Elementen und die Berechnung der Anzahl der unterschiedlichen Moglichkeiten: Anordnung Permutation ohne Wiederholung mit Wiederholungen Variation ohne Wiederholung Anzahl der Anordnungen n! n! r1 ! r2 ! : : : rp ! n! (n , k)! nk mit Wiederholungen Kombination ohne Wiederholung (k n) (k > n moglich) n = n! (k n) k (n , k)! k! mit Wiederholungen n + kk , 1 = ((nn +, k1)!,1)! k! (k > n moglich) 2.2 Zufallsereignisse 81 2.2 Zufallsereignisse 2.2.1 Zufallsexperimente und Ereignisse Kausal-determinierte Experimente sind Experimente, deren Ergebnisse eindeutig vorhersagbar sind wie z.B. die Fallzeit beim freien Fall einer Kugel, die Bahnkurve eines Satelliten in einer Erdumlaufbahn, die Konzentration eines chemischen Reaktionsprodukts oder Schmelz- und Siedetemperatur von Eis bzw. Wasser. Zufallsexperimente sind Experimente, die man beliebig oft in genau der gleichen Weise wiederholen kann und deren Ergebnisse nicht eindeutig vorhersagbar sind, sondern vom Zufall abhangen wie z.B. beim Werfen eines Wurfels, beim Ziehen von Losen, der radioaktive Zerfall eines bestimmten Uranatoms, die Milchleistung einer zufallig ausgewahlten Kuh aus einer Population, der Kornertrag einer Einzelpanze aus einem Getreidefeld oder der Einschlagpunkt eines Schusses auf eine Scheibe. Bei der Ausfuhrung eines Zufallsexperiments treten in der Regel verschiedene Ergebnisse oder Ereignisse auf. Ein Elementarereignis ist ein Ergebnis bei einmaliger Ausfuhrung eines Zufallsexperiments. Beispiele: 1. Beim Wurfeln existieren als mogliche Elementarereignisse die Augenzahlen 1, 2, 3, 4, 5 und 6. 2. Bei einem Munzwurf mit einem Zweimarkstuck gibt es nur zwei mogliche Ausgange: Das Obenliegen von \Kopf\ oder von \Zahl\. 3. Die Milchleistung von zufallig ausgewahlten Kuhen kann innerhalb eines gewissen Intervalls (z.B. 0 : : : 5000 kg=Jahr) liegen. In diesem Fall sind unendlich viele Elementarereignisse moglich. 4. Die Ergebnisse der bisherigen Beispiele kann man mit einer einzigen Zahl beschreiben. Fur das Ergebnis eines Schusses auf eine Scheibe ist es zweckmaig, die x- und y-Koordinate des Treers bezogen auf einen Nullpunkt anzugeben. Die Menge der Elementarereignisse besteht in diesem Fall aus allen Zahlenpaaren (x; y 2 IR) Die Menge aller Elementarereignisse oder Ergebnisse eines Zufallsexperiments heit Ergebnisraum. Beispiele: 1. 2. 3. 4. Wurfel = f1; 2; 3; 4; 5; 6g Munze = fKopf ; Zahlg Milchleistung = f0 : : : 5000 kg=Jahrg Schu = f(x; y) : x; y 2 IRg 82 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Die mehrmalige Ausfuhrung eines Zufallsexperiments liefert nacheinander mehrere Ergebnisse. Man kann den Versuchsausgang auf bestimmte Merkmale untersuchen. Tritt ein Ergebnis mit diesem Merkmal auf, so sagt man, das zugehorige Ereignis ist eingetreten. Ein Zufallsereignis (oder kurz Ereignis) A ist eine Teilmenge des Ergebnisraums. Ein Ereignis A tritt ein, wenn das eintretende Elementarereignis zur Teilmenge A gehort. Die Menge aller Ereignisse heit Ereignisraum. Der Ereignisraum ist die Potenzmenge P ( ) des Ergebnisraums , da die Potenzmenge die Menge aller Teilmengen ist. Beispiele: 1. Werfen einer Munze: Munze = fKopf ; Zahlg. Alle Teilmengen von Munze sind Ereignisse, also: A1 = ;, A2 = fKopf g, A3 = fZahlg, A4 = fKopf ; Zahlg Wirft man mit der Munze Kopf, dann sind die Ereignisse A2 und A4 eingetreten. 2. Ziehen von Losen: Lose = fGewinn; Nieteg. Zieht man uberhaupt kein Los, dann ist das Ereignis A = ; eingetreten. 3. Wurfeln: Wurfel = f1; 2; : : :; 6g. Merkmal Augenzahl ist 6 Augenzahl ist ungleich 3 Augenzahl ist zwischen 4 und 6 Augenzahl ist Primzahl Augenzahl ist 7 Augenzahl ist ungerade Ereignis A1 = f6g A2 = f1; 2; 4; 5; 6g A3 = f5g A4 = f2; 3; 5g A5 = ; A6 = f1; 3; 5g 4. Ermittlung der Milchleistung aus einer Population. Sei A = fxj3500 x 4000g. Das Ereignis A tritt ein, wenn eine Kuh eine Milchleistung zwischen 3500 und 4000 kg hat. Sei B = fxjx > 4000g. Das Ereignis B besteht darin, eine Kuh herauszugreifen, deren Milchleistung groer als 4000 kg ist. Wahrend man in den ersten drei Beispielen alle Teilmengen von aufzahlen kann, ist dies im 4. Beispiel nicht moglich. 2.2.2 Verknupfung von Zufallsereignissen Bei der Durchfuhrung eines Zufallsexperiments ist es moglich, da mehrere Ereignisse, die aus Verknupfungen von Ereignissen A; B; C : : : hervorgehen, gleichzeitig eintreten. Ein Ereignis A + B ist die Menge aller Elementarereignisse, die mindestens zu einem der beiden Ereignisse A oder B gehoren, also die Vereinigungsmenge von A und B (Bild 2.7 a): A+B =A[B (2.8) 2.2 Zufallsereignisse 83 Ein Ereignis A B ist die Menge aller Elementarereignisse, die sowohl zu A als auch zu B gehoren, also die Durchschnittsmenge von A und B (Bild 2.7 b): AB =A\B (2.9) Das Ereignis A , B = A B besteht aus allen Elementen von A, die nicht zu B gehoren. A , B ist also die Dierenzmenge von A und B (Bild 2.7 c): A,B =AnB (2.10) A heit das Komplementarereignis von A bezuglich . A besteht aus allen Elementen von , die nicht zu A gehoren, d.h. A ist die Komplementarmenge von A (Bild 2.7 d): A= ,A (2.11) A B a) A + B A A B b) A B B c) A , B A d) A Bild 2.7: Verknupfung von Ereignissen Beispiel: Wurfeln (vgl. Tabelle im vorhergehenden Beispiel): Merkmal Augenzahl: 6 oder Primzahl Augenzahl: ungerade, ungleich 3 Augenzahl: gerade Augenzahl: prim, ungleich 5 Ereignis A1 + A4 = f2; 3; 5; 6g A6 A2 = f1; 5g A6 = , A6 = f2; 4; 6g A4 , A3 = A4 A3 = f2; 3g 84 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.2.3 Der Borelsche Mengenkorper Jede Teilmenge aus der Menge ist ein Zufallsereignis. Man betrachtet nun insbesondere bei uberabzahlbar unendlich groen Mengen nicht alle theoretisch moglichen Teilmengen (also die Potenzmenge), sondern beschrankt sich zweckmaigerweise auf eine bestimmte Menge F von Teilmengen, soda man diesen Teilmengen bzw. Zufallsereignissen bequem Wahrscheinlichkeiten zuordnen kann. Diese Menge F wird durch folgende Eigenschaften charakterisiert: 1. F enthalt als Element die Menge . 2. Wenn A und B Elemente aus F sind, so enthalt F auch die Mengen (Ereignisse) A + B , A B , A und B . Aus diesen beiden Eigenschaften folgt: a) Nach 1. enthalt F die Menge , nach 2. auch die Menge , das ist die Menge, die gar kein Elementarereignis enthalt, also die leere Menge ;. b) Mit endlich vielen Ereignissen A1 ; A2 ; : : : ; An gehort auch stets das Ereignis A1 + A2 + : : : + An zur Menge F . Man verlangt von F noch eine weitere Eigenschaft: 3. Gehoren abzahlbar unendlich viele Ereignisse A1 ; A2 ; : : : ; An : : : zu F , so gehoren auch die Ereignisse A1 A2 : : : An : : : und A1 + A2 + : : : + An + : : : zu F . F ist dann ein sog. Borelscher Mengenkorper. Zur eindeutigen Festlegung von F braucht man nicht alle drei Eigenschaften zu fordern. Das soll aber nicht weiter interessieren, denn es wird nur versucht, einige charakterisierende Eigenschaften der Menge F aufzuzahlen. Der Grund fur die Forderung der genannten drei Eigenschaften besteht darin, da man den Ereignissen, welche die Elemente von F darstellen, Wahrscheinlichkeiten zuordnen kann. Den Elementen der Menge aller Teilmengen von kann man dagegen nicht immer eine Wahrscheinlichkeit zuordnen. Darum beschrankt man sich auf die Menge F . 2.2.4 Unvereinbare Ereignisse Zwei zufallige Ereignisse A und B heien unvereinbar, wenn sie keine gemeinsamen Elemente (Elementarereignisse) haben, also wenn ihr Durchschnitt AB die leere Menge ; ist: A B = ;. Beispiel: Wurfeln: = f1; 2; 3; 4; 5; 6g. A : Augenzahl gerade, B : Augenzahl ungerade, A B = ;. A und B sind also unvereinbar. 2.2 Zufallsereignisse 2.2.5 Sicheres und unmogliches Ereignis Ist A = , so nennt man A das sichere Ereignis. Ist A = = ;, also die leere Menge, so heit A das unmogliche Ereignis. Beispiel: Wurfeln: = f1; 2; 3; 4; 5; 6g. A : Augenzahl zwischen 1 und 6, A = . A ist also das sichere Ereignis. Ein unmogliches Ereignis ist das Wurfeln der Zahl 7 oder gar keiner Zahl. 85 86 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.3 Wahrscheinlichkeiten 2.3.1 Die mathematische Wahrscheinlichkeit Es wird ein Borelscher Mengenkorper F zugrunde gelegt. Die mathematische Wahrscheinlichkeit deniert man durch folgende vier Axiome: 1. Jedem zufalligen Ereignis A aus F wird eine nichtnegative Zahl P (A) zugeordnet. Diese Zahl P (A) heit die mathematische Wahrscheinlichkeit des Ereignisses A: P (A) 0 (2.12) 2. Die Menge aller Elementarereignisse erhalt die Wahrscheinlichkeit 1. Mit anderen Worten: Die Wahrscheinlichkeit des sicheren Ereignisses ist 1: P ( ) = 1 (2.13) 3. Sind die zufalligen Ereignisse A und B unvereinbar, so gilt: P (A + B ) = P (A) + P (B ) (2.14) 4. Fur die Folge A1 ; A2 ; : : : ; An ; : : : von paarweise unvereinbaren Ereignissen gilt: P (A1 + A2 + : : : + An + : : :) = P (A1 ) + P (A2 ) + : : : + P (An ) + : : : (2.15) Axiom (2.15) unterscheidet sich von Axiom (2.14) durch die unendliche Folge von Ereignissen A1 ; A2 ; : : : ; An ; : : :. Die Vereinigung A1 + A2 + : : : + An + : : : ist das Ereignis, das genau dann eintritt, wenn mindestens eines der genannten unendlich vielen Ereignisse eintritt. Folgerungen: 1. Die Wahrscheinlichkeit fur das Eintreen des Komplementarereignisses ist: P (A) = 1 , P (A) (2.16) A und A sind unvereinbar (A A = ;) und A + A = ) 1 = P ( ) = P (A + A) = P (A) + P (A) , P (A) = 1 , P (A) 2. P (A) und P (A) sind nach Axiom (2.12) nicht negativ, es kann P (A) also hochstens 1 sein. Daher gilt: 0 P (A) 1 (2.17) 3. Das unmogliche Ereignis erhalt die Wahrscheinlichkeit 0, das sichere Ereignis die Wahrscheinlichkeit 1. Es gilt jedoch nicht, da ein Ereignis mit der Wahrscheinlichkeit 0 unmoglich eintreten kann. Ereignisse mit der Wahrscheinlichkeit 0 heien fast unmoglich, solche mit der Wahrscheinlichkeit 1 heien fast sicher. 2.3 Wahrscheinlichkeiten 87 4. Sind A1 ; A2 ; : : : ; An paarweise unvereinbare Ereignisse von F , so gilt: P (A1 + A2 + : : : + An ) = P (A1 ) + P (A2 ) + : : : + P (An ) (2.18) Fur beliebige Ereignisse A und B aus F ist A + B = A + (B , A B ) und B = A B + (B , A B ). Die einzelnen Summanden der rechten Seiten sind jeweils unvereinbare Ereignisse (vgl. Bild 2.8). Also gilt: P (A + B ) = P (A) + P (B , A B ), P (B ) = P (A B ) + P (B , A B ) A AB B,AB B Bild 2.8: Veranschaulichung des Additionssatzes Somit ergibt sich nach Substitution von P (B , A B ) der allgemeine Additionssatz: P (A + B ) = P (A) + P (B ) , P (A B ) (2.19) Fur drei Ereignisse A, B , C ndet man entsprechend: P (A + B + C ) = P (A) + P (B ) + P (C ) , , P (A B ) , P (A C ) , P (B C ) + + P (A B C ) (2.20) 2.3.2 Die klassische Wahrscheinlichkeit Sind bei einem Zufallsexperiment endlich viele Elementarereignisse gleichwahrscheinlich, so ist die Wahrscheinlichkeit P (A) eines beliebigen Zufallsereignisses A: Anzahl der \ gunstigen\ unvereinbaren gleichwahrscheinlichen Elementarereignisse P (A) = Anzahl der \ moglichen\ unvereinbaren gleichwahrscheinlichen Elementarereignisse (2.21) GUGE . oder kurz als Merkregel: P (A) = MUGE Diese sog. Abzahlregel kann man aus den Axiomen und Rechenregeln fur Wahrscheinlichkeiten ableiten. Wird das Experiment einmal realisiert, so tritt eines der gleichwahrscheinlichen Ereignisse A1 ; A2 ; : : : An ein. Es ist A1 + A2 + : : : + An = . Die Ereignisse A1 ; A2 ; : : : ; An bilden dann eine sog. vollstandige Ereignismenge. 88 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Liegt eine vollstandige Ereignismenge vor, die aus paarweise unvereinbaren Ereignissen besteht, so gilt nach Gleichung (2.18): P (A1 + A2 + : : : + An ) = P (A1 ) + P (A2 ) + : : : + P (An ). Wegen A1 + A2 + : : : + An = folgt: P (A1 + A2 + : : : + An ) = P ( ) = 1 (2.22) Auerdem sollen die Ereignisse gleichwahrscheinlich sein, d.h. es ist P (A1 ) = P (A2 ) = : : : = P (An ) = 1=n. Betrachtet man nun ein Ereignis A = A1 + A2 + : : : + Am (m n), dann ist nach Gleichung (2.18): P (A) = P (A1 + A2 + : : : + Am ) = P (A1 ) + P (A2 ) + : : : + P (Am ) = = m n (2.23) P (A) ist also der Quotient aus der Anzahl m der zu A gehorigen gunstigen Ereignisse Ai (i = 1; 2; : : : ; m) und der Anzahl n aller Ereignisse der vollstandigen Ereignismenge. Beispiele: 1. Wie gro ist die Wahrscheinlichkeit, sechs Richtige im Lotto zu tippen? Es gibt nur eine einzige Moglichkeit, einen Sechser zu tippen: GUGE = 1. Die moglichen Zahlenkombinationen sind: MUGE = 49 6 = 13983816 1 7:15 10,8, also ungefahr 1 : 14 Mio. P (6er) = 13983816 2. Es interessiere die Wahrscheinlichkeit, mit zwei symmetrischen Wurfeln bei einem Wurf die Augensumme 5 zu wurfeln. Als Elementarereignis kann hier ein Augenpaar, d.h. die vom einen und vom anderen Wurfel gewurfelten Augenzahlen, betrachtet werden. Zum Ereignis A = Augensumme 5 gehoren die vier Augenpaare (1; 4), (2; 3), (3; 2) und (4; 1) von insgesamt 6 6 = 36 moglichen Augenpaaren. Also ist P (5) = 4=36 = 1=9. Die Anzahl m der \gunstigen\ Falle fur jede der in Frage kommenden Augensumme S = 2; 3; : : : ; 12 und die zugehorigen Wahrscheinlichkeiten P (S ) = m n zeigt folgende Tabelle. S 2 3 4 5 1; 1 1; 2 1; 3 1; 4 2; 1 2; 2 2; 3 3; 1 3; 2 4; 1 m 1 2 3 4 1 2 3 4 P (S ) 36 36 36 36 6 1; 5 2; 4 3; 3 4; 2 5; 1 7 1; 6 2; 5 3; 4 4; 3 5; 2 6; 1 5 6 5 6 36 36 8 2; 6 3; 5 4; 4 5; 3 6; 2 9 3; 6 4; 5 5; 4 6; 3 10 11 12 4; 6 5; 6 6; 6 5; 5 6; 5 6; 4 5 5 36 4 4 36 3 3 36 2 2 36 1 1 36 2.3 Wahrscheinlichkeiten 89 Die klassische Denition der Wahrscheinlichkeit wurde von Laplace (1749-1837) eingefuhrt. Sie ist insbesondere im Bereich der Glucksspiele anwendbar, wenn endlich viele gleichmogliche Elementarereignisse vorhanden sind. Bei vielen anderen praktischen Zufallsexperimenten kann man aber die Menge der Elementarereignisse nicht in endlich viele gleichwahrscheinliche Falle unterteilen. Der klassische Wahrscheinlichkeitsbegri ist dann nicht mehr anwendbar. Ein Beispiel dafur ist ein Wurfelspiel mit einem unsymmetrischen Wurfel oder das zufallige Herausnehmen eines Tieres aus einer Population mit der Frage nach der Wahrscheinlichkeit, da dessen Gewicht zwischen 100 und 120 kg liegt. Die Saatzuchtforschung fragt evtl. nach der Wahrscheinlichkeit einer ungewohnlich hohen Ertragssteigerung mit einer bestimmten Sorte. Die pharmazeutische Industrie ist an der Wahrscheinlichkeit interessiert, mit der ein Heilerfolg bei einem neuen Medikament zu erwarten ist. In allen diesen Fallen kann man keine Einteilung in endlich viele gleichwahrscheinliche Elementarereignisse angeben. Insofern ist also die klassische Denition nach Laplace nicht immer eine befriedigende Denition. Man mute z.B. schon vor der Festlegung der Wahrscheinlichkeiten wissen, wann verschiedene Ereignisse die gleiche Wahrscheinlichkeit besitzen. Durch die Axiome (2.12) { (2.15) ist die Wahrscheinlichkeit fur ein gegebenes Problem mit einer ganz bestimmten Menge von Elementarereignissen nicht eindeutig festgelegt. Man kann z.B. den Augenzahlen eines Wurfels jeweils die gleiche Wahrscheinlichkeit, namlich 1/6, zuordnen, wenn man einen symmetrischen Wurfel unterstellt. Man konnte aber auch folgende Zuordnung von Wahrscheinlichkeiten zu den Elementarereignissen 1; 2; : : : ; 6 treen: P (1) = 1=10, P (2) = 1=5, P (3) = 1=5, P (4) = 1=5, P (5) = 1=5, P (6) = 1=10 und hatte dann einen \unsymmetrischen\ Wurfel. Jede dieser beiden Wahrscheinlichkeitsbelegungen wurde die Axiome erfullen. Das bedeutet: Man kann den Elementarereignissen oder den Ereignissen der Borelschen Ereignismenge F auf verschiedene Arten Wahrscheinlichkeiten zuordnen. Eine feste Zuordnung bedeutet, da man ein bestimmtes Wahrscheinlichkeitsmodell auf das Zufallsexperiment anwendet. Die primare Forderung bei dieser Zuordnung von Wahrscheinlichkeiten ist jedoch, da die Axiome nicht verletzt werden, denn sie stellen gewissermaen die Grundrechenregeln dar, denen Wahrscheinlichkeiten unbedingt genugen mussen. Die Zuordnung von Wahrscheinlichkeiten in einem praktischen Problem mu aufgrund zusatzlicher U berlegungen getroen werden und gibt dann die Verteilung der Wahrscheinlichkeiten, oder kurz die Wahrscheinlichkeitsverteilung des betreenden zufalligen Experimentes an. Diese sind als Modelle aufzufassen, wie Wahrscheinlichkeiten Elementarereignissen oder Ereignissen zugeordnet werden konnen. Ob die gewahlte Zuordnung mit dem zugrundeliegenden realen Sachverhalt ubereinstimmt, ist eine andere Frage und mu separat uberpruft werden. Glaubt man z.B. einen symmetrischen Wurfel vor sich zu haben, nimmt man die Gleichwahrscheinlichkeit fur die sechs Augenzahlen an. Scheint der Wurfel unsymmetrisch zu sein, liegt eine andere Wahrscheinlichkeitsverteilung vor. Einen Anhaltspunkt fur diese schiefe Wahrscheinlichkeitsverteilung wird man u.U. aus empirischen Wurfelversuchen mit diesem Wurfel gewinnen und danach ein Modell aufstellen und dieses selbst wieder mit statistischen Prufverfahren nachprufen. Im speziellen Fall von endlich vielen gleichwahrscheinlichen Elementarereignissen kann man die Wahrscheinlichkeit irgendeines Ereignisses einfach mit der Abzahlregel bestim- 90 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen men. In allen anderen Fallen wird die Wahrscheinlichkeit eines Ereignisses aufgrund der unterstellten Wahrscheinlichkeitsverteilung und den Rechenregeln fur Wahrscheinlichkeiten bestimmt. Das Berechnen von Wahrscheinlichkeiten aufgrund von theoretischen Modellen oder Wahrscheinlichkeitsverteilungen ist die Hauptaufgabe der Wahrscheinlichkeitstheorie. Die U berprufung, ob das gewahlte Modell mit der Wirklichkeit nicht in Widerspruch steht, gehort u.a. zur Aufgabe der Statistik. 2.3.3 Die bedingte Wahrscheinlichkeit In einer Urne seien 100 Lose, davon 40 rote und 60 blaue. Von den 40 roten seien 10 Gewinnlose, von den 60 blauen seien 30 Gewinnlose. Das Ziehen eines Loses stellt ein Elementarereignis dar. Unter der Voraussetzung, da ein rotes Los gezogen wurde, will man die Wahrscheinlichkeit berechnen, da dieses gezogene Los ein Gewinnlos ist. Man fragt also nach der Wahrscheinlichkeit P (Gewinnjrot), da das Ereignis \Gewinn\ eintritt unter der Bedingung \rot\. 10 = 0:25. Nach der Abzahlregel (2.21) folgt: P (Gewinnjrot) = 40 10 = 0:10. Andererseits ist P (Gewinn und rot) = 100 Das Ereignis \Gewinn und rot\ unterscheidet sich vom Ereignis \Gewinn unter der Bedingung rot\ dadurch, da man von vorneherein nicht wei, ob ein rotes Los gezogen wird. 40 = 0:4 Auerdem ist: P (rot) = 100 Man kann nun folgern: und rot) = 10=100 = 0:25 P (Gewinnjrot) = P (Gewinn P (rot) 40=100 Ausgehend von diesem Beispiel, bei dem insgesamt n gleichmogliche Falle unterschieden werden konnen, deniert man allgemein die bedingte Wahrscheinlichkeit P (B jA) eines Ereignisses B aus F unter der Bedingung A, falls A nicht ein unmogliches oder fast unmogliches Ereignis ist. Die Wahrscheinlichkeit eines Ereignisses B unter der Bedingung A ist: P (B jA) = P P(A(A B) ) ; falls P (A) 6= 0 (2.24) Aus Gleichung (2.24) folgt unmittelbar der allgemeine Multiplikationssatz: Die Wahrscheinlichkeit, da sowohl das Ereignis A als auch das Ereignis B eintritt, ist gleich dem Produkt aus der Wahrscheinlichkeit von A und der Wahrscheinlichkeit von B unter der Bedingung, da A eingetreten ist: P (A B ) = P (A) P (B jA) (2.25) ) sind Wahrscheinlichkeiten in Die bedingten Wahrscheinlichkeiten P (B jA) = P P(A(A B ) dem Sinn, wie sie fruher eingefuhrt wurden, denn sie erfullen die Axiome der Wahrscheinlichkeitsrechnung. Es gilt namlich: 2.3 Wahrscheinlichkeiten 91 1. P (B jA) 0 wegen P (A B ) 0 und P (A) > 0. ) 2. P ( jA) = P P(A(A ) ) = PP ((A A) = 1. 3. Falls die Ereignisse B und C unvereinbar sind, so sind auch A B und A C unvereinbar, und es gilt: P (A B + A C ) = P (A B ) + P (A C ). C )) = P (A B + A C ) = Daraus folgt: P (B + C jA) = P (A P((BA+ ) P (A) P ( A B ) P ( A C ) = P (A) + P (A) = P (B jA) + P (C jA) Es gilt also bei unvereinbaren Ereignissen B und C das Additionstheorem auch fur bedingte Wahrscheinlichkeiten: P (B + C jA) = P (B jA) + P (C jA) (2.26) Speziell: P (B + B jA) = P (B jA) + P (B jA) ) P (B jA) = 1 , P (B jA). Aus der Denition fur die bedingte Wahrscheinlichkeit (2.24) und dem Multiplikationssatz (2.25) folgt fur beliebige Ereignisse B und C aus F : P (B C jA) = P (AP(BA) C ) = P (A B )P(PA()C jA B ) = = P (A) P (BPjA()A)P (C jA B ) (2.27) Damit folgt der Produktsatz fur bedingte Wahrscheinlichkeiten: P (A B C ) = P (A) P (B jA) P (C jA B ) (2.28) Die Verallgemeinerung von Gleichung (2.28) auf mehrere Ereignisse liefert: P (A1 A2 : : : An ) = P (A1 ) P (A2 A3 : : : An jA1 ) = = P (A1 ) P (A2 jA1 ) P (A3 A4 : : : An jA1 A2 ) = = P (A1 ) P (A2 jA1 ) P (A3 jA1 A2 ) : : : P (An jA1 A2 : : : An,1 ) (2.29) Beispiel: Ein Obsthandler kauft aus drei verschiedenen Landern jeweils eine Kiste Bananen. Davon sind in der ersten Kiste 2%, in der zweiten Kiste 5% und in der dritten Kiste 10% verfault. Es soll die Wahrscheinlichkeit P (V ) berechnet werden, beim Zug einer Banane aus einer beliebigen Kiste, eine verfaulte Banane zu ziehen. 92 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Das Zufallsexperiment besteht aus zwei Schritten: 1. Auswahl der Kiste 2. Auswahl der Banane Die Wahrscheinlichkeit, eine beliebige Kiste zu wahlen, ist fur jede Kiste gleich: P (K1 ) = P (K2 ) = P (K3 ) = 13 Die Wahrscheinlichkeit, aus einer ausgewahlten Kiste eine verfaulte Banane zu ziehen ist: 1 , P (V jK ) = 5% = 1 , P (V jK ) = 10% = 1 P (V jK1 ) = 2% = 50 2 2 20 10 Das Ereignis \Banane verfault\ besteht aus drei unvereinbaren Ereignissen: P (V ) = P (K1 V ) + P (K2 V ) + P (K3 V ) = = P (K1 ) P (V jK1 ) + P (K2 ) P (V jK2) + P (K3 ) P (V jK3 ) = 1 +1 1 +1 1 = = 13 50 3 20 3 10 = 0:057 = 5:7% 2.3.4 Unabhangige Ereignisse Ein Ereignis B heit unabhangig vom Ereignis A, wenn: P (B jA) = P (B ) (2.30) Aus P (A B ) = P (B A) folgt nach dem allgemeinen Multiplikationssatz (2.25) stets P (A) P (B jA) = P (B ) P (AjB ). Falls P (B jA) = P (B ), so ist auch P (AjB ) = P (A). Ist also das Ereignis B unabhangig von A, so ist auch A unabhangig von B , d.h. die Unabhangigkeit ist wechselseitig. Man kann daher sagen, die Ereignisse A und B sind \voneinander unabhangig\. Der Produktsatz lautet dann speziell: Sind A und B voneinander unabhangig, so ist: P (A B ) = P (A) P (B ) (2.31) In diesem Zusammenhang soll noch einmal die Verschiedenartigkeit der Begrie \Unvereinbarkeit zweier zufalliger Ereignisse\ und \Unabhangigkeit zweier zufalliger Ereignisse\ betont werden. Der Begri der Unvereinbarkeit spielt eine besondere Rolle beim Additionstheorem. Der Begri der Unabhangigkeit ist insbesondere fur das Multiplikationstheorem wichtig. Die Ereignisse A und B seien voneinander unabhangig, d.h. P (B jA) = P (B ) und P (AjB ) = P (A). Betrachtet man zusatzlich die komplementaren Ereignisse A und B , dann gilt P (B jA) = 1 , P (B jA) und somit P (B jA) = 1 , P (B ) = P (B ). Wegen der wechselseitigen Unabhangigkeit ist auch P (AjB ) = P (A). Damit sind A und B unabhangig. Ganz analog zeigt man die Unabhangigkeit fur A und B sowie fur A und B . Sind A und B voneinander unabhangig, so gilt dies demnach auch fur A und B , A und B sowie A und B . 2.3 Wahrscheinlichkeiten 93 Die Entscheidung, ob zwei Ereignisse unabhangig sind, kann man aufgrund der Denition (2.30) prufen. Zwei Ereignisse sind dann unabhangig, wenn die Wahrscheinlichkeit fur das Eintreten des einen Ereignisses stets dieselbe ist, ob nun das andere Ereignis eingetreten ist oder nicht. Bei manchen praktischen Aufgabenstellungen sieht man jedoch aus den Bedingungen des zufalligen Versuchs und der gewahlten Zuordnung der Wahrscheinlichkeiten, da der Eintritt des Ereignisses A unmoglich die Wahrscheinlichkeit fur den Eintritt des Ereignisses B beeinussen kann. Beispiele: 1. Aus einem gut gemischten Kartenspiel mit 32 Karten werden zwei Karten der Reihe nach gezogen. Wie gro ist die Wahrscheinlichkeit P (KK ), da die beiden gezogenen Karten jeweils Konige sind, wenn die zuerst gezogene Karte wieder in das Spiel zuruckgemischt wird? Die Ereignisse K1 = Konig beim 1. Zug und K2 = Konig beim 2. Zug sind oenbar unabhangige Ereignisse. Also gilt: P (KK ) = P (K1 und K2 ) = P (K1 K2) = P (K1 ) P (K2 ) = 4 4 = 1 = 0:016 = 1:6% = 32 32 64 Wie gro ist die Wahrscheinlichkeit P (KK ), da die beiden gezogenen Karten jeweils Konige sind, wenn die zuerst gezogene Karte nicht mehr zuruckgelegt wird? Die Ereignisse K1 und K2 sind nun nicht mehr voneinander unabhangig. P (KK ) = P (K1 und K2) = P (K1 K2 ) = P (K1 ) P (K2 jK1 ) 4 und P (K jK ) = 3 . Also folgt: Es ist P (K1 ) = 32 2 1 31 4 3 3 P (KK ) = 32 31 = 248 = 0:012 = 1:2% 2. Es ist nicht immer intuitiv klar, ob Unabhangigkeit vorliegt oder nicht. Betrachtet man z.B. Familien mit drei Kindern und nimmt an, da Knaben- und Madchengeburten gleichwahrscheinlich sind, so gibt es 23 = 8 gleichwahrscheinliche Moglichkeiten (jeweils mit Wahrscheinlichkeit 1=8), wie sich das Merkmal \mannlich-weiblich\ auf die drei Kinder verteilt. A sei das Ereignis, eine Familie hat Kinder beiderlei Geschlechts und B das Ereignis, die Familie hat hochstens ein Madchen. Mit den Bezeichnungen J fur Junge und M fur Madchen gilt dann: P (A) = P (JMM ) + P (MJM ) + P (MMJ ) + P (JJM ) + + P (JMJ ) + P (MJJ ) = 68 = 0:75 P (B ) = P (JJJ ) + P (MJJ ) + P (JMJ ) + P (JJM ) = 84 = 0:5 Die Wahrscheinlichkeit, da eine Familie Kinder beiderlei Geschlechts, aber hochstens ein Madchen hat, ist: P (A B ) = P (MJJ ) + P (JMJ ) + P (JJM ) = 38 Es gilt P (A B ) = P (A) P (B ). Also sind A und B voneinander unabhangig. 94 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Nun betrachtet man Familien mit zwei Kindern. Hier ist P (A) = P (JM ) + P (MJ ) = 24 = 0:5 P (B ) = P (JJ ) + P (JM ) + P (MJ ) = 34 = 0:75 Die Wahrscheinlichkeit, da eine Familie Kinder beiderlei Geschlechts, aber hochstens ein Madchen hat, ist: P (A B ) = P (JM ) + P (MJ ) = 42 = 0:5 Es gilt hier nicht P (A B ) = P (A) P (B ). Also sind in diesem Fall die Ereignisse A und B nicht unabhangig voneinander. Unabhangigkeit bei mehr als zwei Ereignissen Wenn man den Begri der Unabhangigkeit auf mehr als zwei Ereignisse anwenden will, genugt es nicht zu verlangen, da die Ereignisse paarweise unabhangig sind. Es konnen z.B. die drei Ereignisse A1 , A2 und A3 paarweise voneinander unabhangig sein, aber dennoch A3 vom Ereignis A1 A2 abhangig sein. Beispiel: Beim Spiel mit einem Wurfel sei A1 das Ereignis, beim ersten Wurf eine ungerade Augenzahl und A2 das Ereignis beim zweiten Wurf eine ungerade Augenzahl zu wurfeln. A3 sei das Ereignis, da die Summe der gewurfelten Zahlen ungerade ist. Die Ereignisse A1 , A2 , A3 sind paarweise unabhangig. Es ist jedoch A3 nicht unabhangig vom Ereignis A1 A2 . Man deniert daher: Zufallige Ereignisse Ai (i = 1; 2; : : :; n) heien voneinander unabhangig, wenn jedes Ereignis Ai von jedem moglichen Ereignis Ai1 Ai2 : : : Aik (i 6= i fur = 1; 2; : : : ; k und k = 1; 2; : : : ; n , 1) unabhangig ist. Fur unabhangige Ereignisse A1 ; A2 ; : : : ; An gilt der allgemeine Produktsatz: P (A1 A2 : : : An ) = P (A1 ) P (A2 ) : : : P (An ) (2.32) Beispiele: 1. Ein Industrieprodukt bestehe aus drei Teilen. In der Fertigung bestehe Unabhangigkeit zwischen den Teilen. Die Wahrscheinlichkeit, da ein Teil Ausschu ist, betrage fur die drei Teile jeweils 3%, 5% und 6%. Wie gro ist die Wahrscheinlichkeit P (ok), da ein Endprodukt vollig einwandfrei ist? P (ok) = P (1. Teil ok und 2. Teil ok und 3. Teil ok) = = P (1. Teil ok) P (2. Teil ok) P (3. Teil ok) = = 0:97 0:95 0:94 = 0:866 = 86:6% 2.3 Wahrscheinlichkeiten 95 2. Eine Munze wird funfmal geworfen. Wie gro ist die Wahrscheinlichkeit, da funfmal hintereinander Wappen oben liegt? Die funf Wurfe sind unabhangig voneinander. Die Wahrscheinlichkeit, da einmal Wappen kommt, ist 0:5. Also ist die gesuchte Wahrscheinlichkeit 0:55 = 0:031 = 3:1%. 2.3.5 Das Bayessche Theorem An dieser Stelle sei noch das beruhmte Theorem von Bayes erwahnt. Man betrachte n unvereinbare Ereignisse A1 ; A2 ; : : : ; An einer vollstandigen Ereignismenge = A1 + A2 + : : : + An und ein Ereignis B aus der Menge F . Dann sind die Ereignisse B Ai und B Ak (i 6= k) unvereinbare Ereignisse und es gilt: B = B = (A1 + A2 + : : : + An ) B = A1 B + A2 B + : : : + An B . Daraus folgt: P (B ) = n X i=1 P (Ai B ) = n X i=1 P (Ai ) P (B jAi ) (2.33) Falls P (B ) 6= 0, gilt auerdem: P (Ai jB ) = P (PA(iB )B ) = P (Ai )P(PB()B jAi ) (2.34) Aus Gleichung (2.33) und (2.34) folgt der Satz von Bayes: P (Ai ) P (B jAi ) P (Ai jB ) = X n P (Ak ) P (B jAk ) (2.35) k=1 Beispiel: Ein Patient leide an der Krankheit A1 oder der Krankheit A2 . Man wei auerdem, da die Wahrscheinlichkeit P (A1 ) fur Krankheit A1 gleich 0:8 und die Wahrscheinlichkeit P (A2 ) fur Krankheit A2 gleich 0:2 ist. Um eine genaue Diagnose zu stellen, fuhrt der Arzt eine Enzymbestimmung durch, von der er wei, da sie bei Krankheit A1 in 90% aller Falle positiv ist, bei A2 dagegen nur in 20%. Man nehme nun an, da der Enzymtest bei einem Patienten negativ verlauft (= Ereignis B ). Welche Wahrscheinlichkeiten fur A1 bzw. A2 resultieren aus diesem Befund? Es ist P (A1 ) = 0:8 und P (A2 ) = 0:2. Man sagt auch, dies seien die sog. A-prioriWahrscheinlichkeiten. P (Test ist positivjA1 ) = 0:9; P (Test ist negativjA1 ) = 0:1 P (Test ist positivjA2 ) = 0:2; P (Test ist negativjA2 ) = 0:8 96 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Unter Anwendung von Gleichung (2.35) erhalt man: P (A1 jTest ist negativ) = 0:8 00::18+ 00::12 0:8 = 13 P (A2 jTest ist negativ) = 0:8 00::12+ 00::82 0:8 = 23 Bei Anwendung des Bayesschen Satzes werden die Ereignisse A1 ; A2 ; : : : ; An haug als Hypothesen und ihre Wahrscheinlichkeiten P (Ai ) A-priori-Wahrscheinlichkeiten fur die Hypothese bezeichnet. P (Ai jB ) ist die Wahrscheinlichkeit fur Ai aufgrund der Beurteilung, da das Ereignis B eingetreten ist, und heit daher auch A-posterioriWahrscheinlichkeit fur die Hypothese Ai. Die Bayessche Formel liefert damit eine Vorschrift, wie man A-priori-Wissen (z.B. wie haug treten die Krankheiten A1 und A2 auf) aufgrund von Beobachtungen (Enzymbestimmung) zu einem A-posteriori-Wissen korrigieren kann. In diesem Zusammenhang spricht man auch haug von \Lernen durch Erfahrung\. Die Groe P (B jAi ) konnte man zunachst als bedingte Wahrscheinlichkeit fur B unter der festen Bedingung Ai auassen. Betrachtet man jedoch P (B jAi ) bei festem Ereignis B als Funktion aller moglichen Ereignisse Ai ; i = 1; 2; : : : ; n, dann stellen die P (B jAi ) keine Wahrscheinlichkeiten fur Ai dar, sondern sie werden als sog. Mutmalichkeiten oder Likelihoods fur die Ai aufgefat und die Gesamtheit der P (B jAi ) in Abhangigkeit der Ai wird als Likelihoodfunktion bezeichnet. Diese Likelihoodfunktion gibt fur jedes mogliche Ereignis Ai an, welche Wahrscheinlichkeit das Ereignis B unter der Hypothese Ai besitzt, aber sie gibt keine Wahrscheinlichkeiten sondern Mutmalichkeiten oder Plausibilitaten fur Ai an, nachdem das feste Ereignis B beobachtet wurde. Man mu sich beim U bergang vom Begri Wahrscheinlichkeit zur Likelihood vergegenwartigen, da man die Rollen von B und Ai in dem Ausdruck P (B jAi ) einfach vertauscht. Im obigen Beispiel besteht die Likelihoodfunktion unter der Magabe, da die Beobachtung B (z.B. der Test ist negativ) gemacht wurde, aus den zwei Werten P (B jA1 ) = 0:1 und P (B jA2 ) = 0:8. Mit Hilfe der Likelihoods kann man das Bayessche Theorem in Worten folgendermaen formulieren: Die A-posteriori-Wahrscheinlichkeit fur Ai ist proportional zur A-priori-Wahrscheinlichkeit fur Ai und der Likelihood von Ai , nachdem die Beobachtung B gemacht wurde. 2.3.6 Interpretation von Wahrscheinlichkeiten Die mathematische Wahrscheinlichkeit ist eine rein formelle Groe, welche durch die Axiome (2.12) { (2.15) festgelegt wird. Die Wahrscheinlichkeitstheorie lehrt, wie man neue Wahrscheinlichkeiten aus gegebenen Wahrscheinlichkeiten berechnet, sie sagt jedoch nichts daruber aus, was unter Wahrscheinlichkeit zu verstehen ist. Fur den Anwender ist ublicherweise von groem Interesse, wie der Begri Wahrscheinlichkeit zu interpretieren ist. So ergeben sich in diesem Zusammenhang Fragen, z.B. \Wie kommt man zu Wahrscheinlichkeitsaussagen?\ oder \Wie uberpruft man Wahrscheinlichkeitsaussagen?\ oder \Warum lassen sich Wahrscheinlichkeitsaussagen auf Sachverhalte des taglichen Lebens anwenden?\ 2.3 Wahrscheinlichkeiten 97 Es gibt im wesentlichen zwei miteinander konkurrierende Interpretationsmoglichkeiten, einmal die frequentistische und zweitens die subjektivistische Interpretation. Die Anhanger der ersten Theorie, die sog. Frequentisten, verstehen unter Wahrscheinlichkeit die relative Haugkeit auf lange Sicht, die Subjektivisten dagegen verstehen unter Wahrscheinlichkeit den Grad der individuellen U berzeugung. Beide Interpretationsversuche haben gewisse Schwierigkeiten. Im Rahmen dieser Einfuhrung soll der erste Standpunkt, also der frequentistische, eingenommen werden. Dies hat seinen Grund in der bei Zufallsexperimenten gemachten Erfahrung folgender Art: Man kann die nachste Realisation eines Experimentes nicht vorhersagen. Wenn man aber das Experiment unter gleichen Bedingungen sehr oft durchfuhrt, so schwankt die relative Haugkeit fur ein bestimmtes Ereignis, z.B. eine 6 zu wurfeln, umso weniger um eine gewisse Zahl zwischen 0 und 1, je hauger man den Versuch durchfuhrt. Diese Zahl kann man dem Ereignis, eine 6 zu wurfeln, als charakteristisch zuordnen. Man versuchte sogar, auf diese Weise den Begri der Wahrscheinlichkeit als Grenzwert von relativen Haugkeiten zu denieren. Es sei hier nicht verschwiegen, da es bei dem Versuch jedoch prinzipielle Schwierigkeiten gibt, weil es sich dabei nicht um eine Konvergenz im ublichen mathematischen Sinn handelt, sondern um eine Konvergenz der Wahrscheinlichkeiten, d.h. es wird versucht, den Begri Wahrscheinlichkeit mit sich selbst zu erklaren. Die oben erwahnte Erfahrungstatsache, da die relative Haugkeit fur hinreichend groe Anzahlen von Versuchen eine beliebig gute Naherung fur die unbekannte Wahrscheinlichkeit ist, nennt man auch das empirische Gesetz der groen Zahlen. Die Haugkeitsinterpretation der Wahrscheinlichkeit ist besonders dann sinnvoll, wenn man sie auf Experimente anwendet, die beliebig oft durchgefuhrt werden konnen. Daher ist der frequentistische Standpunkt fur solche Anwender attraktiv, die mit groen Versuchsreihen zu tun haben. Dies trit im wesentlichen auch auf den biologischen und landwirtschaftlichen Bereich (Feldversuche) zu. Die Haugkeitsinterpretation hilft dagegen nicht weiter, wenn man Wahrscheinlichkeiten von Einzelereignissen betrachtet. Die oben experimentell als Haugkeit auf lange Sicht implizierte Wahrscheinlichkeit nennt man auch statistische Wahrscheinlichkeit, weil sie aufgrund statistischer Versuche bestimmt wird. Viele statistische Methoden, z.B. Vertrauensintervalle und statistische Tests, gehen von der Haugkeitsinterpretation aus. 2.3.7 Das Gesetz der groen Zahlen Viele Lotto- oder Roulettespieler haben eine etwas \schiefe\ Vorstellung vom sog. Gesetz der groen Zahlen. Die Auassung besteht z.B. darin zu glauben, da, wenn zehnmal \rot\ gekommen ist, nun bald \schwarz\ kommen mu. Oder wenn beim Lotto einige Zahlen sehr lange nicht gezogen wurden, tippen viele Spieler solche Zahlen, denn nach ihrer Meinung sind diese Zahlen nun fallig. Die landlauge Auassung uber das Gesetz der groen Zahlen ist die des Ausgleichs und der Kompensation innerhalb endlicher Zeit oder endlich vieler Versuche. Wirft man eine Munze sehr oft hintereinander, so sollte etwa \Kopf\ und \Wappen\ gleich oft vorkommen. Das mu aber noch 98 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen nicht bei 1000 Wurfen oder bei 10000 Wurfen der Fall sein. Grob formuliert verlangt das Gesetz der groen Zahlen eine Einstellung oder Einpendelung auf den erwarteten Wert nur \auf lange Sicht\. Nach einer ungewohnlich groen Anzahl von \Kopfen\ ist es nicht wahrscheinlicher, da \Wappen\ als Ergebnis des nachsten Wurfs kommt. Diese Auassung ist deshalb falsch, weil jeder Wurf der Munze vom vorhergehenden und nachfolgenden Wurf unabhangig ist. In Worten kann man das Gesetz der groen Zahlen etwa folgendermaen formulieren: Wiederholt man ein zufalliges Experiment genugend oft unter den gleichen Bedingungen, dann kommt die relative Haugkeit eines bestimmten Ereignisses der theoretischen Wahrscheinlichkeit dieses Ereignisses beliebig nahe. Bei einer einzigen Wurfserie von 1000 Wurfen mit einer symmetrischen Munze braucht jedoch die relative Haugkeit fur \Kopf\ noch nicht beliebig nahe bei 1=2 liegen, auch noch nicht bei 10000 Wurfen, sondern moglicherweise erst viel spater. In mathematischer Form soll nun das Gesetz der groen Zahlen formuliert werden, das sog. Bernoullische Gesetz der groen Zahlen: Es sei p die Wahrscheinlichkeit fur den Eintritt eines Ereignisses A bei einem Versuch. In einer Serie von n unabhangigen Wiederholungen dieses Versuches trete m-mal das Ereignis A auf. hn (A) = m=n bezeichne dann die relative Haugkeit fur das Auftreten von A in einer solchen Serie. Gibt man nun eine beliebig kleine positive Zahl " vor, dann strebt die Wahrscheinlichkeit dafur, da hn (A) von p um weniger als " nach oben oder unten abweicht, mit wachsendem n gegen 1, wie klein auch " gewahlt sein mag: lim P (p , " < hn (A) < p + ") = 1 n!1 (2.36) Gleichung (2.36) lat sich mit den Axiomen und den Rechenregeln fur die Wahrscheinlichkeit beweisen. Der Beweis soll hier ubergangen werden. Dieser Satz manifestiert die bereits fruher erwahnten Erfahrungstatsachen. Man kann z.B. sagen, ein Ereignis, das eine sehr kleine Wahrscheinlichkeit hat, tritt sehr selten auf. Oder ein Ereignis mit einer sehr nahe bei 1 gelegenen Wahrscheinlichkeit tritt praktisch sicher auf. Das Gesetz der groen Zahlen schlagt sozusagen die Brucke von der Wahrscheinlichkeitsrechnung zur empirischen Wirklichkeit und bestatigt, da die axiomatische Einfuhrung der Wahrscheinlichkeit mit der Wirklichkeit in Einklang steht. So werden die Eigenschaften fur Wahrscheinlichkeiten, welche aus den Axiomen folgen, bekanntlich auch von den empirischen Haugkeiten erfullt. Damit ist eine Verbindung hergestellt zwischen der mathematischen Wahrscheinlichkeit und der relativen Haugkeit. Die mathematische Wahrscheinlichkeit kann als theoretisches Gegenstuck zu der empirischen Haugkeit aufgefat werden. Die Wahrscheinlichkeit kann also bei Zugrundelegung der Haugkeitsinterpretation empirisch als sog. statistische Wahrscheinlichkeit bestimmt werden, und darin liegt die Bedeutung dieses Gesetzes der groen Zahlen. 2.4 Eindimensionale Zufallsvariablen 99 2.4 Eindimensionale Zufallsvariablen Jedesmal wenn mit einer gegebenen Versuchsanordnung ein Zufallsexperiment einmal ausgefuhrt wird (z.B. indem man einmal mit einem Wurfel wurfelt), stellt sich ein bestimmtes Ergebnis ein. Es wird angenommen, da dieses Ergebnis durch eine reelle Zahl xi beschrieben werden kann. Wird das Zufallsexperiment ein zweites Mal realisiert (wenn man z.B. noch einmal wurfelt), so stellt sich unter Umstanden ein anderes Ergebnis xj ein. Bei dem Wurfelspiel ist oenbar, da es sechs verschiedene Ergebnisse oder Elementarereignisse gibt, namlich die Augenzahlen 1 bis 6. Dieser Tatbestand, da einem Elementarereignis eines zufalligen Versuches eine bestimmte reelle Zahl zugeordnet ist, soll mit dem Begri Zufallsvariable oder Zufallsgroe umschrieben werden. Um auseinanderzuhalten, um welche Versuchsanordnung es sich jeweils handelt, wird die betrachtete Versuchsanordnung noch mit einem Namen belegt. In dem Wurfelbeispiel hat man also die Zufallsvariable \Wurfel\ vor sich. Im allgemeinen werden die Namen der Zufallsvariablen mit groen Buchstaben X; Y; Z usw. abgekurzt. Ihre Realisationen werden mit entsprechenden kleinen Buchstaben x; y; z usw. bezeichnet. Die moglichen Werte oder Realisationen der Zufallsvariablen X = \Wurfel\ lauten also: x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5 und x6 = 6. Kurz zusammengefat: Eine Zufallsvariable ist eine den Ausgang eines zufalligen Versuches kennzeichnende Groe. Anders ausgedruckt: Eine eindimensionale Zufallsvariable X ist eine Funktion, die jedem Elementarereignis aus der Menge aller moglichen Elementarereignisse eine reelle Zahl zuordnet. Diese Denition reicht z.B. ohne weiteres aus, solange die Menge aller moglichen Elementarereignisse endlich oder \abzahlbar\ ist. Wenn jedoch diese Menge \nicht abzahlbar\ 1 ist, kann man Schwierigkeiten mit dieser Denition haben. Von einer zufalligen Variablen X verlangt man ublicherweise, da man die Wahrscheinlichkeit dafur angeben kann, da diese Zufallsvariable X Werte annimmt, die kleiner oder gleich einem festen Wert x sind, d.h. die Groe P (X x) soll bestimmbar sein fur alle beliebigen, aber festen Werte x. Diese Forderung ist jedoch nicht immer im allgemeinsten Fall der Grundmenge fur alle moglichen Funktionen erfullbar. Ohne hier auf die mathematische Begrundung naher einzugehen, soll die Denition fur eine Zufallsvariable etwas enger gefat werden. Das kann man mit gutem Gewissen tun, weil hier ausschlielich solche Zufallsvariablen betrachtet werden, bei denen die obigen Forderungen automatisch erfullt sind. Wenn hier von einer eindimensionalen Zufallsgroe die Rede ist, wird von nun an unterstellt, da die Wahrscheinlichkeit fur das Ereignis X 2 I , d.h. X nimmt Werte aus dem Intervall I an, fur jedes Intervall I der reellen Zahlenachse bestimmbar ist. Die Intervalle konnen endlich abgeschlossen, endlich oen oder endlich halboen sein. Auerdem durfen diese Intervalle nach links oder rechts unbegrenzt sein, und schlielich wird noch zugelassen, da ein Intervall zu einem einzigen Punkt auf der reellen Zahlenachse zusammenschrumpft. 1 Eine Menge heit \abzahlbar\, wenn man alle ihre Elemente mit den naturlichen Zahlen 1 2 durchnumerieren kann. Eine Menge heit \nicht abzahlbar\ oder \uberabzahlbar\, wenn die naturlichen Zahlen 1 2 nicht ausreichen, um sie durchzunumerieren. So ist z.B. die Menge der Punkte zwischen 0 und 1 auf der Zahlengeraden eine solche nicht abzahlbare Menge. Es lat sich zeigen, da man zu jeder moglichen Numerierung immer neue reelle Zahlen aus diesem Intervall angeben kann, die nicht von der vorgeschlagenen Numerierung erfat werden. ; ; ;::: ;::: 100 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Die angenommenen Werte heien Realisationen der Zufallsvariablen. Sind nur endlich viele oder abzahlbar unendlich viele Realisationen moglich, so heit die Zufallsvariable diskret. In allen ubrigen Fallen wird von einer stetigen Zufallsvariablen gesprochen. Eine stetige Zufallsvariable kann also als Realisation jeden beliebigen Wert aus einem Intervall annehmen. Beispiele: 1. Die Jahresmilchleistung von Kuhen (in kg/a) kann als stetige Zufallsvariable aufgefat werden. Es interessieren z.B. folgende Wahrscheinlichkeiten: P (X > 5000), P (X 3000), P (4000 < X 5000) Bestimmt man die Jahresmilchleistung einer Kuh, dann ist deren genauer Wert x bekannt. Man sagt dann, es ist die Realisation x eingetreten. Liegt nun die Realisation x von X im Intervall I , so ist das Ereignis X 2 I eingetreten, liegt x nicht in I , so ist das Ereignis X 2 I nicht eingetreten. Die Milchleistung sei z.B. 4200 kg=a. Dann ist das erste obige Ereignis, namlich X > 5000 nicht eingetreten, auch das zweite Ereignis X 3000 ist nicht eingetreten. Das Ereignis 4000 < X 5000 ist dagegen eingetreten. 2. Bei Sauen kann die Anzahl der Ferkel pro Wurf als diskrete Zufallsvariable aufgefat werden. Das Herausgreifen einer bestimmten Sau kann man als Elementarereignis ansehen. Die dabei beobachtete Ferkelzahl ist die Realisation dieser Zufallsvariablen. 3. Beispiele fur diskrete Zufallsvariablen: a) Anzahl der jahrlichen Regentage. b) Anzahl von Nichtrauchern in einer Gruppe von 50 Studenten. 4. Beispiele fur stetige Zufallsvariablen: a) Gewichtszunahme eines Tieres innerhalb einer bestimmten Mastdauer. b) Fullgewicht einer Abfullmaschine. 2.5 Verteilungsfunktion 101 2.5 Verteilungsfunktion Eine Zufallsvariable X kann man genugend genau beschreiben, wenn man ihre Verteilungsfunktion kennt. Damit kann man alle wahrscheinlichkeitstheoretisch interessanten Eigenschaften angeben. Es sei X eine eindimensionale Zufallsvariable. Die durch F (x) = P (X x) (2.37) fur alle reellen x-Werte denierte Funktion F (x) heit die Verteilungsfunktion von X. F (x) gibt also fur ein festes x die Wahrscheinlichkeit dafur an, da der bei Durchfuhrung des betrachteten zufalligen Versuches von der Zufallsvariablen X angenommene Wert nicht groer als x ausfallt. Das Ereignis X x bedeutet, da die Zufallsvariable X eine Realisation annimmt, die in dem nach links oenen Intervall (,1 : : : x] liegt (vgl. Bild 2.9). I .......... - x Bild 2.9: Intervall (,1 : : : x] Fur jedes beliebige, aber feste x kann die Wahrscheinlichkeit P (X x) ausgerechnet werden, denn nach der vorgestellten Denition einer Zufallsvariablen mu die Wahrscheinlichkeit angebbar sein, da X Werte in einem z.B. nach links oenen Intervall annimmt. Haug will man die Wahrscheinlichkeit angeben, da X Werte in einem endlichen Intervall annimmt, also P (a < X b). Es wird angenommen, da b groer ist als a. Dann schlieen sich die Ereignisse X a und a < X b gegenseitig aus, d.h. die beiden Ereignisse sind unvereinbar (vgl. Bild 2.10). Xb .......... .......... Xa a<X b a b b - Bild 2.10: Veranschaulichung der Ereignisse X b, bzw. X a ^ a < X b Aufgrund des Additionssatzes (2.14) fur Wahrscheinlichkeiten gilt dann: P (X b) = P (X a) + P (a < X b) (2.38) 102 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Fur P (X b) bzw. P (X a) kann man F (b) bzw. F (a) schreiben. Aus Gleichung (2.38) folgt damit: P (a < X b) = F (b) , F (a) (2.39) Die Wahrscheinlichkeit fur irgendein Ereignis a < X b lat sich also mit Hilfe der Verteilungsfunktion F (x) bestimmen. Die Wahrscheinlichkeit eines beliebigen Ereignisses ist nach Denition der Wahrscheinlichkeit eine nichtnegative Groe. Daraus folgt, da fur a < b stets F (a) F (b) gilt. Die Verteilungsfunktion F (x) ist also mit zunehmendem Argument x eine monoton nicht abnehmende Funktion. D.h. wenn die Variable x Werte von ,1 bis +1 annimmt, wachst F (x) monoton nichtabnehmend von 0 bis 1 (Bild 2.11). F (x) a) 1 x F (x) 1 Bild 2.11: Verteilungsfunktionen b) x Es ist leicht einzusehen, da F (,1) = 0 und F (1) = 1: (2.40) Eine Verteilungsfunktion kann stellenweise konstant bleiben oder um eine gewisse Hohe, die naturlich kleiner als 1 sein mu, springen (Bild 2.11 a). Beispiel: Als einfache Zufallsgroe wird das Werfen einer Munze betrachtet. Der Ausgang dieses zufalligen Experiments wird mit der Zufallsgroe X beschrieben, indem folgende Zuordnung (willkurlich!) getroen wird: X nimmt den Wert 0 an, wenn Kopf oben liegt, X nimmt den Wert 1 an, wenn Zahl oben liegt. Vorausgesetzt wird eine symmetrische Munze. Dann gilt: P (Kopf) = P (Zahl) = 0:5 oder P (X = 0) = P (X = 1) = 0:5 Wie sieht die Verteilungsfunktion F (x) von X aus? Dazu wird die x-Achse in drei Bereiche unterteilt: x < 0: X kann per Denition keine negativen Werte x annehmen. Fur alle negativen x-Werte ist also P (X x) = 0. 2.5 Verteilungsfunktion 103 0 x < 1: Von allen Werten des Intervalls 0 x < 1 nimmt die Zufallsvariable X nur den Wert des linken Eckpunkts x = 0 an. Es ist einmal P (X = 0) = 0:5 (siehe oben). Aber auch fur alle anderen x-Werte, die kleiner als 1 sind, gilt P (X x) = 0:5, weil eben nach 0 keine Realisationen von X in diesem Bereich mehr vorkommen. Also folgt: F (x) = 0:5 fur 0 x < 1. x 1: Es ist P (X = 1) = 0:5 und damit P (X 1) = 1, denn X kann die Werte 0 oder 1 annehmen, beide jeweils mit der Wahrscheinlichkeit 0:5. Nachdem beide Moglichkeiten unvereinbare Ereignisse darstellen gilt P (X 1) = 1. Fur jedes andere x, das groer als 1 ist, gilt dieselbe Wahrscheinlichkeitsaussage. Das Ereignis X x fur alle x-Werte mit x 1 ist das sichere Ereignis. Also ist F (x) = 1 fur x 1 (vgl. Bild 2.12). f (x) 1:0 a) 0:5 F (x) 1:0 b) 0:5 0 x 1 0 1 Bild 2.12: Verteilung der Zufallsvariablen Munzwurf x Man lasse sich nicht dadurch irritieren, da die Verteilungsfunktion F (x) fur die ganze x-Achse von ,1 bis +1 bestimmt wurde, obwohl die Zufallsvariable hier uberhaupt nur zwei Werte, namlich 0 und 1 annehmen kann. Es ist F (0) = 0:5 und F (1) = 1. Darum wurden im Bild 2.12 die betreenden Funktionswerte an den Stellen x = 0 und x = 1 besonders gekennzeichnet. 104 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.6 Zufallsvariablen und ihre Verteilungen 2.6.1 Diskrete Zufallsvariablen Eine Zufallsvariable X und ihre Wahrscheinlichkeitsverteilung heien diskret, wenn die Variable X nur endlich viele oder abzahlbar unendlich viele reelle Werte mit positiver Wahrscheinlichkeit annehmen kann. Die Werte, welche die Zufallsvariable annimmt, werden mit x1 ; x2 ; : : : ; xn bezeichnet. Die dazugehorigen Wahrscheinlichkeiten seien p1 ; p2 ; : : : ; pn . Es gilt also: P (X = x1 ) = p1 ; P (X = x2 ) = p2 ; : : : ; P (X = xn ) = pn . Die Zufallsvariable X kann keine anderen Werte als die oben angefuhrten x1 ; x2 ; : : : ; xn annehmen, d.h. die Wahrscheinlichkeit fur alle ubrigen Werte ist jeweils 0. Die Wahrscheinlichkeitsfunktion f (x) der Zufallsvariablen X gibt die Wahrscheinlichkeiten fur die moglichen Realisationen von X an: f (x) = pi fur x = xi (i = 1; 2; : : : ; n) (2.41) 0 sonst Da X bei Realisierung des Zufallsexperiments irgendeinen Wert annimmt, gilt: p1 + p2 + : : : + pn = n X i=1 pi = 1 (2.42) f (x) bestimmt die Wahrscheinlichkeitsverteilung oder kurz die Verteilung (vgl. Bild 2.13 a). a) 1 f (x) = P (X = x) p1 p2 p3 pi pn x1x2 x3 xi xn x b) 1 F (x) = P (X x) x1x2 x3 xi xn x Bild 2.13: Wahrscheinlichkeits- und Verteilungsfunktion einer diskreten Zufallsvariablen Nach Denition (2.37) der Verteilungsfunktion ist F (x) = P (X x). Um die Wahrscheinlichkeit P (X x) zu bestimmen, mu man die Wahrscheinlichkeitsfunktion f (xi ) fur alle Realisationen xi aufsummieren, die kleiner als x sind oder den Wert x noch annehmen, also: F (x) = P (X x) = X xi x f (xi ) (2.43) 2.6 Zufallsvariablen und ihre Verteilungen 105 Die Verteilungsfunktion F (x) einer diskreten Zufallsvariablen ist eine Treppenfunktion. Sie springt jeweils an den Stellen xi , die die Zufallsvariable X annimmt, um das Stuck pi bzw. f (xi ) nach oben. Zwischen zwei moglichen Werten verlauft die Verteilungsfunktion jeweils konstant. Fallen kann sie nicht, weil sie eine monoton nichtabnehmende Funktion ist (vgl. Bild 2.13 b). Will man die Wahrscheinlichkeit P (a < X b) angeben, so gilt: P (a < X b) = F (b) , F (a) = X a<xi b f (xi ) (2.44) Die Verteilungsfunktion F (x) bestimmt ebenfalls wie die Wahrscheinlichkeitsfunktion f (x) die Wahrscheinlichkeitsverteilung der Zufallsvariablen X . Die beiden Funktionen F (x) und f (x) enthalten also die gleiche Information, nur in verschiedenen Formen. Wenn eine der beiden bekannt ist, kennt man die Zufallsvariable X genugend genau. In vielen Fallen wird jedoch die Verteilungsfunktion bevorzugt. Beispiele: 1. Es sei X die Zufallsvariable Munzwurf mit den Realisationen x1 = 0, wenn beim Wurf Kopf kommt, x1 = 1, wenn Zahl kommt. Dann ist P (X = 0) = p1 = 0:5 und P (X = 1) = p2 = 0:5 mit p1 + p2 = 1. Die Wahrscheinlichkeitsfunktion f (x) und die Verteilungsfunktion F (x) sind in Bild 2.12 gezeichnet. 2. Die Zufallsvariable X sei die Augenzahl beim Wurf eines symmetrischen Wurfels. Es gibt sechs mogliche Realisationen x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5, x6 = 6 (vgl. Bild 2.14). Alle sechs Realisationen haben die gleiche Wahrscheinlichkeit p1 = p2 = p3 = p4 = p5 = p6 = 1=6. Es ist also: 8 8 0 fur x < 1 > > < i < 1 f u r x = 1 ; : : : ; 6 f (x) = : 6 F (x) = > 6 fur i x < i + 1 (i = 1; : : : ; 5) > 0 sonst : 1 fur x 6 f (x) = P (X = x) 1 6 0 1 F (x) = P (X x) 0:5 0 1 2 3 4 5 6 7 x 0 0 1 2 3 4 5 6 7 x Bild 2.14: Wahrscheinlichkeits- und Verteilungsfunktion der Zufallsvariablen Augenzahl eines Wurfels 106 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.6.2 Stetige Zufallsvariablen Eine Zufallsvariable X und ihre Wahrscheinlichkeitsverteilung heien stetig, wenn ihre Verteilungsfunktion F (x) = P (X x) in Integralform dargestellt werden kann: F (x) = Zx ,1 f (t) dt (2.45) Dabei ist der Integrand f (t) eine nichtnegative bis auf hochstens endlich viele Punkte stetige Funktion. Aus Denition (2.45) lat sich folgende Eigenschaft stetiger Zufallsvariablen ableiten: Eine stetige Zufallsvariable X hat die Eigenschaft, da sie jeden beliebigen Wert innerhalb eines Intervalls der Zahlengeraden mit der Wahrscheinlichkeit Null annehmen kann. Der Integrand f (x) in (2.45) heit Wahrscheinlichkeitsdichte oder auch nur Dichte der betreenden Verteilung. f (x) ist jedoch nicht die Wahrscheinlichkeit dafur, da X den Wert x annimmt (wie bei einer diskreten Zufallsvariablen). Aber f (x) x ist naherungsweise die Wahrscheinlichkeit dafur, da X einen Wert zwischen x und x +x annimmt2 . Es gilt noch folgende wichtige Beziehung zwischen F (x) und f (x): Fur jedes x, in dem f (x) stetig ist, ist die Dichte f (x) gleich der Ableitung F 0 (x) der Verteilungsfunktion F (x): F 0 (x) = f (x) (2.46) Die Dichtefunktion f (x) ist so normiert, da die Flache zwischen der Kurve f (x) und der x-Achse zwischen ,1 und +1 den Wert 1 hat. Das sieht man folgendermaen: Irgendeinen Wert zwischen ,1 und +1 mu die Zufallsvariable X annehmen. Also ist ,1 < X +1 das sichere Ereignis: P (,1 < X +1) = 1. Also ist: F (1) = P (X +1) = + Z1 ,1 f (x) dx = 1 (2.47) Fur endliche Intervalle a < X b gilt: Zb P (a < X b) = F (b) , F (a) = f (x) dx 2 Da ( ) angenahert gleich ( f x x P x X x Integralrechnung: ( P x X x + ) = (2.48) a x+ Z x x () f t x + ) ist, ergibt sich nach dem Mittelwertsatz der x dt ( ) x f x 2.6 Zufallsvariablen und ihre Verteilungen Interpretiert man das Integral Zb a 107 f (x) dx geometrisch, so heit das: Die Wahrscheinlichkeit P (a < X b) ist gleich dem Flachenstuck zwischen der Dichtefunktion f (x), der x-Achse und den beiden senkrechten Geraden x = a und x = b (vgl. Bild 2.15). f (x) P (a < X b) = Zb f (x) dx a 1 F (b) F (x) = P (X x) F (a) a b x a b x Bild 2.15: Dichte- und Verteilungsfunktion einer stetigen Zufallsvariablen Bei stetigen Zufallsvariablen gilt, wie schon erwahnt, fur jede reelle Zahl a: P (X = a) = 0 (2.49) Die ganze Wahrscheinlichkeit von 1 ist hier uber die ganze x-Achse sozusagen \verschmiert\, so da fur einen einzelnen x-Wert keine positive Wahrscheinlichkeit mehr ubrig bleibt. Bei einer diskreten Verteilung ist die ganze Wahrscheinlichkeit von 1 dagegen in endlich vielen x-Werten konzentriert. Bei einer stetigen Zufallsvariablen ist die Frage nach der Wahrscheinlichkeit, da ein bestimmter Wert a angenommen wird, mehr oder weniger sinnlos. Man mu hier nach der Wahrscheinlichkeit fragen, da X Werte in einem Intervall a : : : b annimmt, um eine von Null verschiedene Wahrscheinlichkeit zu erhalten. Wenn auch fur jedes a gilt: P (X = a) = 0, so heit das nicht, da X = a ein unmogliches Ereignis ist. Irgendeine reelle Zahl wird als Realisation angenommen. Nur mu man diese Realisation bzw. diese Wahrscheinlichkeit innerhalb eines Intervalls suchen bzw. bestimmen, um eine von Null verschiedene Wahrscheinlichkeit zu behalten. Bei einer stetigen Zufallsvariablen ist es gleich, ob man bei Ungleichungen in Ereignissen das Gleichheitszeichen mit angibt oder nicht: P (a < X b) = P (a < X < b) = P (a X < b) = P (a X b) (2.50) 108 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Beispiele: 1. Rechteck- oder Gleichverteilung (vgl. Bild 2.16) Die Verteilungsdichte f (x) einer Rechteck- oder Gleichverteilung ist innerhalb eines Intervalls von a bis b konstant, und zwar hat sie dort den Wert b ,1 a und auerhalb des Intervalls den Wert Null: 8 8 0 fur x < a > > 1 < < f u r a x b x , a fur a x b f (x) = : b , a F (x) = > b , a > 0 sonst : 1 fur x > b f (x) 1 1 F (x) b,a b x a b x a Bild 2.16: Dichte- und Verteilungsfunktion einer Gleichverteilung 2. Gesucht8ist die Verteilungsfunktion der Zufallsvariablen X mit der Dichte: fur 0 x 1 < x f (x) = : 2 , x fur 1 < x 2 0 sonst Die Dichtefunktion zeigt Bild 2.17 links. 1 f (x) 1 F (x) 0:5 0:5 x 0 x 1 2 0 1 2 Bild 2.17: Dichte- und Verteilungsfunktion einer Dreieckverteilung f (x) ist tatsachlich Dichtefunktion, denn die Flache A unter der Kurve ist die Flache eines Dreiecks mit A4 = 0:5 2 1 = 1. Dies kann man auch formal nach Gleichung (2.47) zeigen: A = 1 Z f (x) dx = ,1 h = 0 + 0:5t 2 i1 0 Z0 ,1 h 0 dt + Z1 Z1 1 2 t dt + (2 , t) dt + 0 dt = 0 i2 2 1 + 2t , 0:5t Z2 + 0 = 0:5 + (4 , 2) , (2 , 0:5) = 1 2.6 Zufallsvariablen und ihre Verteilungen 109 Die Verteilungsfunktion F (x) hat an der Stelle x als Funktionswert den Flacheninhalt zwischen der x-Achse, der Kurve f (x) und der senkrechten Geraden durch x. Bis zu x = 0 ist die Flache 0. Zwischen 0 x 1 ist: Zx ix h F (x) = t dt = 0:5t2 0 = 0:5x2 0 Im Intervall 1 < x 2 hat F (x) den Wert des Integrals der Dichtefunktion in diesem Intervall zuzuglich zu der Flache, die bei x = 1 bereits vorhanden ist. Die Flache bei x = 1 ist F (1) = 0:5 12 = 0:5. Es gilt also fur 1 < x 2: Zx ix h F (x) = 0:5 + (2 , t) dt = 0:5 + 2t , 0:5t2 1 = 1 = 0:5 + (2x , 0:5x2 ) , (2 , 0:5) = ,0:5x2 + 2x , 1 Der Wert von F (x) an der Stelle x = 2 ist F (2) = 1. F (x) darf auch nicht groer werden. Fur x > 2 kommt keine weitere Flache hinzu, da die Dichtefunktion in diesem Bereich den Wert 0 hat. Damit lautet die Verteilungsfunktion: 8 0 fur x < 0 > > < 2 0 : 5 x ur 0 x 1 F (x) = > ,0:5x2 + 2x , 1 f f ur 1 < x 2 > : 1 fur x > 2 Die Verteilungsfunktion kann auch rein formal nach Gleichung (2.45) bestimmt werden, wenn man den Denitionsbereich in Teilintervalle zerlegt: x<0: F (x) = 0 < x 1 : F (x) = Zx ,1 Zx ,1 f (t) dt = f (t) dt = Zx Zx ,1 Z0 ,1 0 dt = 0 Zx f (t) dt + f (t) dt = h 0 ix = F (0) + t dt = 0 + 0:5t2 = 0:5x2 0 0 1 < x 2 : F (x) = Zx ,1 f (t) dt = Zx Z1 ,1 Zx f (t) dt + f (t) dt = 1 h ix = F (1) + (2 , t) dt = 0:5 + 2t , 0:5t2 = 1 1 = 0:5 + (2x , 0:5x2 ) , (2 , 0:5) = ,0:5x2 + 2x , 1 110 2 x>2: F (x) = Zx ,1 Wahrscheinlichkeitsverteilungen und Zufallsvariablen f (t) dt = Zx Z2 ,1 Zx f (t) dt + f (t) dt = 2 = F (2) + 0 dt = 1 + 0 = 1 2 2.6.3 Fraktilen und Grenzen einer Verteilung In vielen Fallen (v.a. in der statistischen Testtheorie) verlangt man nicht die Kenntnis der gesamten Verteilungsfunktion einer Zufallsvariablen. Es reicht meistens aus, gewisse charakteristische Groen zu kennen. Betrachtet man die Flache zwischen x-Achse und der Kurve der Wahrscheinlichkeitsdichte, dann heit derjenige x-Wert, bei dem K % der Gesamtache links von diesem Wert liegt, die K %-Fraktile, K %-Quantile oder das K -te Perzentil (vgl. Bild 2.18). Dieser Wert wird als xK % geschrieben. Es ist in der Praxis ublich, die Fraktilen mit den entsprechenden Prozentzahlen anzugeben, also z.B. 90%-Fraktile oder 95%Quantile. Haug sind aber auch die Bezeichnungen Fraktile bzw. Quantile zum Wert 0:9 oder 0:95 zu nden. f (x) 100% = 1 F (x) K% (100 , K )% = K% = 1 , 0:5 xK % x x0:5 xK % Bild 2.18: K %-Fraktile einer stetigen Verteilung x Etwas mathematischer kann die Fraktile mit Hilfe der Verteilungsfunktion deniert werden. Die K %-Fraktile ist Losung folgender Gleichung: F (xK % ) = xZK % ,1 K f (x) dx = K % = 100 (2.51) Man sucht also auf der y-Achse den K %-Wert und geht uber die Verteilungsfunktion auf die x-Achse. Der abgelesene Wert ist die K %-Fraktile xK % . Sie wird haug auch als (1 , )-Fraktile bezeichnet, wenn (100 , K )% = ist. Die Wahrscheinlichkeit, da die Zufallsvariable X einen Wert unterhalb von xK % annimmt, betragt K % (vgl. Bild 2.18). Eine 50%-Fraktile oder ein 0:5-Quantil heit auch Mediane. 2.6 Zufallsvariablen und ihre Verteilungen 111 Bei diskreten Verteilungen ist die Denition der Fraktilen etwas komplizierter, da keine Flache unter der Wahrscheinlichkeitsfunktion existiert. Die zugehorige Verteilungsfunktion springt von einem Wert auf den nachsten. Fur bestimmte K %-Werte kann also kein xK % -Wert gefunden werden, so da eine der Gleichung (2.51) analoge Beziehung F (xK % ) = X xxK % K f (x) = K % = 100 (2.52) erfullt ist. Andererseits existieren fur K %-Werte, bei denen dies moglich ist, unendlich viele K %-Fraktilen (vgl. Bild 2.19). Man nimmt haug den kleinsten Wert des K %Fraktilenintervalls als die K %-Fraktile. Diese ist das Minimum aller x, bei denen F (x) groer oder gleich K % ist: xK % = minfxjF (x) K %g (2.53) 100% = 1 F (x) K% L% xK % x Bild 2.19: Existierende K %- und nichtexistierende L%-Fraktilen einer diskreten Verteilung Beispiele: 1. Die Dichte- und Verteilungsfunktion einer stetigen Gleichverteilung zwischen den Grenzen 1 und 3 (vgl. Beispiel auf Seite 108) lauten: 8 ur x < 1 ur 1 x 3 F (x) = < 00:5x , 0:5 f f ur 1 x 3 f (x) = 00:5 f sonst : 1 fur x > 3 Die Mediane ist die 50%-Fraktile, also derjenige x-Wert, bei dem die Flache unter der Dichtefunktion halb so gro wie die Gesamtache ist. Da eine Rechteckverteilung vorliegt, ist die Mediane die Mitte zwischen den Grenzen 1 und 3, also x0:5 = 2. Dies folgt auch unmittelbar aus der Berechnung nach Gleichung (2.51): F (x0:5 ) = 0:5x0:5 , 0:5 = 0:5 , x0:5 = 01:5 = 2 2. Bild 2.20 zeigt die Verteilungsfunktion der Augenzahlen beim Wurfeln. Die 50%Fraktile oder Mediane ist das gesamte Intervall [3; 4). Man nimmt meistens den kleinsten Intervallwert als Fraktile, also x0:5 = 3. Die 90%-Fraktile existiert bei der vorliegenden Verteilung eigentlich nicht. Haug wird jedoch derjenige Wert als Fraktile herangezogen, bei dem der K %-Wert zum ersten mal uberschritten wird, also x0:9 = 6. 112 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 1 F (x) 0:5 0 0 1 2 3 4 5 6 7 x Bild 2.20: Fraktilen der Augenzahl beim Wurfeln Bei symmetrischen Verteilungen mit der Symmetrieachse x = 0 ist es haug sinnvoll, mit K %-Grenzen zu operieren. Dies ist ein symmetrischer Bereich um den Symmetriepunkt 0 der Verteilung, in dem gerade K % der moglichen Realisationen liegen. Wenn cK % die K %-Grenze einer Verteilung und f (x) die Wahrscheinlichkeitsdichte bezeichnet, so gilt nach Bild 2.21: F (cK %) , F (,cK %) = cZK % ,cK% K% = 1 , f (x) dx = K % (2.54) F (x) 100 , K % = 2 2 2 x 0 cK % Bild 2.21: K %-Grenzen einer um 0 symmetrischen Verteilung ,cK % 2.7 Zweidimensionale Zufallsvariablen 113 2.7 Zweidimensionale Zufallsvariablen Grundgesamtheiten konnen zwei oder auch mehrere Merkmale umfassen. Wird z.B. der Brustumfang (X ) und die Kreuzhohe (Y ) einer Anzahl von Rindern aus einer Kuhpopulation gemessen, so hat man eine Stichprobe aus einer zweidimensionalen Grundgesamtheit gezogen und es interessieren die Wahrscheinlichkeiten da sowohl X Werte in einem Intervall I und Y Werte in einem Intervall J annehmen. Die Groe (X; Y ) heit eine zweidimensionale Zufallsgroe oder Zufallsvariable, wenn fur alle moglichen Intervalle I und J durch X 2 I und Y 2 J ein Zufallsereignis gegeben ist, dem man in U bereinstimmung mit den Axiomen von Kolmogoro eine Wahrscheinlichkeit zuordnen kann. X und Y heien die Komponenten der zweidimensionalen Zufallsgroe. Die folgende Denition der Verteilungsfunktion einer zweidimensionalen Zufallsvariablen ist eine Verallgemeinerung der entsprechenden Denition bei eindimensionalen Zufallsgroen. Die Funktion F (x; y) = P (X x; Y y) (2.55) heit Verteilungsfunktion der zweidimensionalen Zufallsgroe (X; Y ). Das Ereignis (X x; Y y) bedeutet, da sowohl X Werte kleiner als x als auch Y Werte kleiner als y annehmen soll. Fur diese Funktion F (x; y) gelten folgende Eigenschaften: 1. Gehen die Variablen x und y gegen 1, so geht F gegen 1. 2. Geht eine Variable gegen ,1, wahrend die andere konstant bleibt, so geht F gegen 0. 3. Wenn man eine Variable festhalt, so ist die Funktion F (x; y) in der anderen Variablen eine monoton nicht abnehmende Funktion. Im eindimensionalen Fall interessiert haug die Wahrscheinlichkeit dafur, da X Werte in einem Intervall a < x b annimmt. Wenn F (x) die Verteilungsfunktion der eindimensionalen Zufallsvariablen X ist, so gilt nach Gleichung (2.39) P (a < X b) = F (b) , F (a). Im zweidimensionalen Fall interessiert analog dazu die Wahrscheinlichkeit, da die eine Komponente X Werte im Intervall a < x b annimmt, und die zweite Komponente Y gleichzeitig einen Wert im Intervall c < y d. Die entsprechende Wahrscheinlichkeit ist: P (a < X b; c < Y d) = F (b; d) , F (a; d) , F (b; c) + F (a; c) (2.56) Dies sieht man leicht ein, wenn man sich fur die auf der rechten Seite vorkommenden Verteilungsfunktionen die Wahrscheinlichkeiten der entsprechenden Ereignisse vergegenwartigt. 114 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.7.1 Diskrete zweidimensionale Zufallsvariablen Eine Zufallsgroe (X; Y ) und ihre Wahrscheinlichkeitsverteilung heien diskret, wenn sie abzahlbar viele verschiedene Wertepaare (xi ; yj ) mit den von Null verschiedenen Wahrscheinlichkeiten pij annehmen kann und wenn die Summe aller Wahrscheinlichkeiten P (X = xi ; Y = yj ) = pij Eins ergibt, also: XX i j pij = 1 mit pij = P (X = xi ; Y = yj ) (2.57) Die zweidimensionale Wahrscheinlichkeitsfunktion f (x; y) gibt die Wahrscheinlichkeit an, mit der die moglichen Realisationen (xi ; yi ) angenommen werden. f (x; y) = pij fur x = xi und y = yj ; (i = 1; 2; : : : ; j = 1; 2; : : :) 0 sonst (2.58) Die Indizes i und j durchlaufen die Werte, mit denen alle Realisationen numeriert wurden. Die Verteilungsfunktion F (x; y) summiert wie bei eindimensionalen diskreten Zufallsvariablen alle Wahrscheinlichkeiten bis zu einem gewissen xi bzw. yi auf: F (x; y) = X X xi x yj y f (xi ; yj ) (2.59) Beispiel: Es werden zwei unterscheidbare Munzen geworfen. Da jede Munze Kopf oder Zahl zeigen kann, ergeben sich insgesamt die vier Elementarereignisse (KK ), (KZ ), (ZK ) und (ZZ ). Es wird nun eine zweidimensionale Zufallsgroe (X; Y ) deniert: Munze Kopf 0 2. Munze Kopf X = 01 1. Y = 1. Munze Zahl 1 2. Munze Zahl Anders ausgedruckt: Die Groen X und Y zahlen bei jeder Munze die Anzahl, wie oft Zahl geworfen wird. Damit ergibt sich die folgende Wahrscheinlichkeitstabelle. x1 = 0 x2 = 1 y1 = 0 y2 = 1 0:25 0:25 0:25 0:25 Die Verteilungsfunktion F (x; y) zeigt Bild 2.22. 2.7 Zweidimensionale Zufallsvariablen 115 F (x; y) F (x; y) 1:0 0:5 y 1:0 0:5 x 2 1 1 2 0 0 Bild 2.22: Verteilungsfunktion F (x; y) einer diskreten zweidimensionalen Zufallsvariablen 2.7.2 Stetige zweidimensionale Zufallsvariablen Eine zweidimensionale Zufallsgroe (X; Y ) und ihre dazugehorige Verteilung heien stetig, wenn man die zugehorige Verteilungsfunktion F (x; y) durch ein Doppelintegral von folgender Form darstellen kann: F (x; y) = Zx Zy ,1 ,1 f (u; v) du dv (2.60) Die Funktion f (x; y) soll dabei in der ganzen Ebene deniert sein, keine negativen Werte annehmen, beschrankt sein und bis auf endlich viele glatte Kurven uberall stetig sein. f (x; y) heit die zweidimensionale Wahrscheinlichkeitsdichte der Verteilung. Es ist dann + Z1 +Z1 ,1 ,1 f (u; v) du dv = 1 (2.61) und P (a < X b; c < Y d) = Zb Zd a c f (u; v) du dv: (2.62) Besteht das zufallige Ereignis darin, da (X; Y ) einem beliebigen Bereich B (nicht unbedingt einem Rechteck wie oben) angehort, so mu man die Integration uber diesen Bereich B vollziehen: P ((X; Y ) 2 B ) = Z Z B f (u; v) du dv (2.63) 116 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Beispiel: Zweidimensionale Gleichverteilung Die Zufallsgroe (X; Y ) sei in einem Rechteck R: a < x b, c < y d gleichverteilt, d.h. die Wahrscheinlichkeitsdichte f (x; y) ist in einem Rechteck R konstant. Die Konstante8k ist dabei gleich dem Reziproken des Flacheninhalts. 1 < fur (x; y) innerhalb R f (x; y) = : (b , a)(d , c) 0 fur (x; y) auerhalb R Bild 2.23 zeigt links die Dichtefunktion einer zweidimensionalen Gleichverteilung, die durch ein Rechteck mit den Seitenlangen 2 und 1 deniert ist. 1:0 F (x; y) 1:0 f (x; y) 0:5 0:5 x y 1 0 2 y 1 0 1 0 0 1 2 x Bild 2.23: Dichte- und Verteilungsfunktion einer gleichverteilten zweidimensionalen Zufallsgroe Die formelm aige Darstellung lautet: ur 0 x 2; 0 y 1 f (x; y) = 00:5 f sonst Mit Gleichung (2.60) kann man nun die Verteilungsfunktion berechnen. Fur ,1 < x < 0 oder ,1 < y < 0 ist F (x; y) = 0, da f (x; y) = 0 ist. In den Grenzen 0 x 2 und 0 y 1 gilt: F (x; y) = Zx Zy 0 0 0:5 du dv = Zx h iy 0:5u dv = 0 0 Zx 0 h ix 0:5y dv = 0:5yv = 0:5xy 0 Fur x = 2 und y = 1 ist F (2; 1) = 1. Also gilt fur alle x > 2 und y > 2 F (x) = 1. Die Verteilungsfunktion lautet demnach: 8 0 fur x < 0; y < 0 < F (x; y) = : 0:5xy fur 0 x 2; 0 y 1 1 fur x > 2; y > 1 Bild 2.23 rechts zeigt diese Verteilungsfunktion. Bei negativem x und y bleibt die Funktion konstant auf dem Nullniveau. Im Bereich 0 x 2 und 0 y 1 entstehen zwei Flanken mit konstanter Steigung. Die Steigung in y-Richtung ist doppelt so gro wie die in y-Richtung, da die Dichte in y-Richtung auf den halben Bereich im Vergleich zur x-Richtung konzentriert ist. Fur x > 2 und y > 1 bleibt die Funktion auf konstantem Niveau 1. 2.7 Zweidimensionale Zufallsvariablen 117 2.7.3 Randverteilungen Bei einer zweidimensionalen Zufallsvariablen interessieren haug nur Aussagen uber eine Komponente allein. Es konnte z.B. sein, da man sich nur fur die Verteilung der Kreuzhohe bei einer Rinderpopulation interessiert, ohne die Verteilung des Brustumfangs naher zu betrachten. Dazu ist festzuhalten, da man jeder zweidimensionalen Verteilung zwei sog. Randverteilungen zuordnen kann. Die durch die Funktionen F1 (x) = F (x; 1) und F2 (y) = F (1; y) (2.64) gegebenen Verteilungen heien Randverteilungen der zweidimensionalen Zufallsgroe (X; Y ) und der Verteilungsfunktion F (x; y). Dabei ist denitionsgema: F (x; 1) = P (X x; Y 1) = P (X x) F (1; y) = P (X 1; Y y) = P (Y y) (2.65) Die Funktionen F1 (x) und F2 (y) sind tatsachlich eindimensionale Verteilungsfunktionen, da sie die entsprechenden Eigenschaften fur Verteilungsfunktionen erfullen. Es sei noch fur den diskreten und stetigen Fall die Randverteilung angegeben: Zunachst wird bei einer diskret verteilten Zufallsgroe (X; Y ) nach der Wahrscheinlichkeit gefragt, da X einen bestimmten Wert xi annimmt, ganz egal welchen Wert Y annimmt. P (X = xi ; Y beliebig) = X j pij = pi : (2.66) Dabei ist uber alle Indizes j zu summieren. Die Wahrscheinlichkeit, da Y einen bestimmten Wert yj annimmt, ganz gleich welchen Wert X annimmt, ist dann: P (X beliebig; Y = yj ) = X i pij = p:j (2.67) Durch die pi : bzw. p:j sind die Randverteilungen gegeben. Bei einer stetig verteilten Zufallsgroe (X; Y ) sei f (x; y) die Wahrscheinlichkeitsdichte von (X; Y ). Die Randverteilungsfunktionen erhalt man, wenn man in Gleichung (2.60) bzgl. einer Variablen von ,1 bis +1 integriert. F1 (x) = F (x; 1) = F2 (y) = F (1; y) = Zx +Z1 ,1 ,1 Zy +Z1 ,1 ,1 f (u; v) dv du (2.68) f (u; v) du dv 118 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Die entsprechenden Dichten dieser Randverteilungen lauten: + Z1 1 (x) f1 (x) = dFdx = 2 (y ) f2 (y) = dFdy = ,1 + Z1 ,1 f (x; y) dy (2.69) f (x; y) dx 2.7.4 Unabhangige Zufallsvariablen Zwei Zufallsgroen X und Y heien voneinander unabhangig, wenn fur je zwei beliebige reelle Zahlen x und y die zufalligen Ereignisse (X x) und (Y y) unabhangig sind. Angenommen X und Y seien unabhangige Zufallsgroen. F1 (x) sei die Verteilungsfunktion von X und F2 (y) die Verteilungsfunktion von Y . X und Y werden jetzt gemeinsam als zweidimensionale Zufallsgroe (X; Y ) betrachtet und ihre Verteilungsfunktion F (x; y) bestimmt. Es ist denitionsgema F (x; y) = P (X x; Y y). Die beiden Ereignisse (X x) und (Y y) sind unabhangig, also gilt P (X x; Y y) = P (X x) P (Y y) oder: F (x; y) = F1 (x) F2 (y) (2.70) Damit ist man in der Lage festzustellen, ob zwei Zufallsgroen X und Y , deren gemeinsame Verteilungsfunktion F (x; y) gegeben ist, unabhangig sind. Man mu also nachprufen, ob die Beziehung (2.70) gilt, d.h. ob die zweidimensionale Verteilungsfunktion gleich dem Produkt der beiden Randverteilungsfunktionen ist. Diese Denition der Unabhangigkeit stimmt mit dem landlaugen Begri der Unabhangigkeit uberein. Wenn man z.B. mit zwei Wurfeln wurfelt, dann nimmt man selbstverstandlich Unabhangigkeit fur die beiden Zufallsvariablen (Augenzahlen der beiden Wurfel) an. Die Augenzahl des einen Wurfels beeinut die Augenzahl des anderen Wurfels nicht. Spater werden noch Methoden angegeben, wie man die Frage der Unabhangigkeit zweier Zufallsvariablen aufgrund vorliegender Realisationen entscheiden kann. 2.8 n-dimensionale Zufallsvariablen 119 2.8 n-dimensionale Zufallsvariablen Im allgemeinsten Fall hat eine Zufallsvariable n Komponenten X1 ; X2; : : : ; Xn und heit dann n-dimensionale Zufallsgroe oder Zufallsvariable. Wird das Zufallsexperiment ausgefuhrt, dann resultiert eine n-dimensionale Realisation (x1 ; x2 ; : : : ; xn ). Diese Realisation kann durch einen Punkt im n-dimensionalen Raum mit den Koordinaten x1 ; x2 ; : : : ; xn dargestellt werden. Beispiele: 1. Tab. A.10 im Anhang zeigt Stichprobenwerte aus einer achtdimensionalen Grundgesamtheit mit den Merkmalen Rasse, Milchleistung, Fettgehalt in %, Fettgehalt in kg, Eiweigehalt, Gewicht, Kreuzhohe und Brustumfang. 2. Tab. 1.20 zeigt eine Stichprobe aus einer vierdimensionalen Grundgesamtheit mit und Panzen pro den Merkmalen Ertrag, Tausendkorngewicht, Kornzahl pro Ahre Quadratmeter. Analog dem zweidimensionalen Fall wird folgende Denition gegeben: Die Verteilungsfunktion F (x1 ; x2 ; : : : ; xn ) einer n-dimensionalen Zufallsgroe (X1 ; X2 ; : : : ; Xn ) ist deniert als F (x1 ; x2 ; : : : ; xn ) = P (X1 x1 ; X2 x2 ; : : : ; Xn xn ) (2.71) fur alle beliebigen reellen Werte x1 ; x2 ; : : : ; xn . Die Komponenten (die n eindimensionalen Zufallsgroen X1 ; X2 ; : : : ; Xn ) einer n-dimensionalen Zufallsgroe (X1 ; X2 ; : : : ; Xn ) heien dann unabhangig, wenn die zufalligen Ereignisse (X1 x1 ), (X2 x2 ), : : :, (Xn xn ) fur alle beliebigen x1 ; x2 ; : : : ; xn unabhangig sind. Daraus folgt wieder: Fur unabhangige Komponenten, d.h. also fur eindimensionale Zufallsgroen X1; X2; : : : ; Xn, gilt: F (x1 ; x2 ; : : : ; xn ) = F1 (x1 ) F2 (x2 ) : : : Fn (xn ) (2.72) Hier ist F (x1 ; x2 ; : : : ; xn ) die Verteilungsfunktion der Zufallsvariablen (X1 ; X2 ; : : : ; Xn ) und F1 (x1 ); F2 (x2 ); : : : ; Fn (xn ) sind die Randverteilungsfunktionen der Veranderlichen X1 ; X2 ; : : : ; Xn . 120 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen 2.9 Mazahlen einer Verteilung Die Verteilungsfunktion oder die Wahrscheinlichkeitsfunktion im diskreten Fall bzw. die Dichtefunktion im stetigen Fall charakterisieren eine Zufallsvariable X vollstandig. Haug genugt ein grober U berblick einer Verteilung, den man sich mit einigen charakteristischen Mazahlen fur eine Verteilung verschat. Man unterscheidet im wesentlichen Mittelwerte bzw. Erwartungswerte und Streuungsmae. Zusatzlich werden manchmal noch Schiefheits- und Wolbungsmae berucksichtigt. 2.9.1 Mittelwert oder Erwartungswert einer Verteilung Man bezeichnet den Erwartungswert oder Mittelwert einer Zufallsgroe X oder ihrer Verteilung mit E(X ) und schreibt manchmal auch kurz . Bei einer diskreten Zufallsgroe X mit endlich vielen Realisationen ist der Erwartungswert deniert als: E(X ) = n X i=1 xi f (xi ) (2.73) Bei unendlich vielen Realisationen mu man fur die Existenz eines Erwartungswerts voraussetzen, da die unendliche Summe konvergiert. Bei einer stetigen Zufallsgroe X ist der Mittelwert deniert als: E(X ) = + Z1 ,1 x f (x) dx Voraussetzung ist die Existenz des Integrals (2.74) + Z1 ,1 jxj f (x) dx. Beispiele: 1. Die Zufallsvariable X sei die Augenzahl beim Wurfeln. 8 1 < f (x) = : 6 fur x = 1; 2; 3; 4; 5; 6 0 sonst E(X ) = = 1 16 + 2 61 + 3 16 + 4 16 + 5 61 + 6 16 = 21 6 = 3:5 = 3:5 ist keine mogliche Realisation der betrachteten Zufallsvariablen, sondern als Mittelwert der Augenzahl uber eine unendlich lange Reihe von Wurfelversuchen zu verstehen. (Man sagt auch: Der auf lange Sicht durchschnittlich zu erwartende Wert). Mit zunehmender Anzahl n von Wurfelversuchen wird die Summe S aller erzielten Augenzahlen immer besser mit n 3:5 ubereinstimmen. Dies kann man in der Praxis bestatigen. 2.9 Mazahlen einer Verteilung 121 Ein Simulationsversuch mit verschiedenen Anzahlen n von Wurfen zeigt z.B. folgendes Ergebnis: S 3:5 n Abweichung in % 10 41 35 17:14 100 337 350 3:71 1000 3417 3500 2:37 10000 34901 35000 0:28 100000 349667 350000 0:10 n 2. X sei eine gleichverteilte Zufallsvariable (vgl. Beispiel auf Seite 108). 8 1 < f (x) = : b , a fur a x b 0 sonst + Z1 Zb b Z x 1 E(X ) = = x f (x) dx = b , a dx = b , a x dx = ,1 a a 2 , a2 1 b ( b + a )( b , a ) a + = b , a 2 = 2(b , a) = 2 b In der Praxis kommen haug sog. symmetrische Verteilungen vor. Dies sind Verteilungen, deren Wahrscheinlichkeitsfunktionen bzw. Dichten f (x) symmetrisch bezuglich eines reellen Wertes a sind (Bild 2.24). f (x) f (x) a= x a= Bild 2.24: Diskrete und stetige symmetrische Verteilung x Hat man nun eine symmetrische Verteilung, die symmetrisch bezuglich x = a ist, so ist ihr Mittelwert gleich diesem Wert a (vgl. Bild 2.24). Es kann vorkommen, da die Summe in Gleichung (2.73) mit unendlich vielen Realisationen nicht konvergiert oder das Integral in Gleichung (2.74) nicht existiert. Dann besitzt die entsprechende Zufallsvariable auch keinen Mittelwert. Solche Verteilungen sind fur praktische Anwendungen jedoch sehr selten. 122 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Rechenregeln fur Erwartungswerte Der Erwartungswert einer Konstanten k ist trivialerweise wieder gleich dieser Konstanten: E(k) = k (2.75) Einen konstanten Faktor k kann man vor den Erwartungswert setzen: E(k X ) = k E(X ) (2.76) Der Erwartungswert der Summe aus mehreren Zufallsvariablen X1 ; X2 ; : : : ; Xn ist die Summe der Erwartungswerte der einzelnen Zufallsvariablen: E(X1 + X2 + : : : + Xn ) = E(X1) + E(X2 ) + : : : + E(Xn ) (2.77) Der Erwartungswert des Produkts zweier unabhangiger Zufallsvariablen X1 und X2 ist das Produkt der Erwartungswerte von X1 und X2 : E(X1 X2 ) = E(X1 ) E(X2 ) (2.78) 2.9.2 Varianz einer Verteilung Die Varianz Var(X ) bzw. 2 einer Verteilung ist ein Ma fur die Streuung einer Zufallsgroe. Sie ist fur diskrete Zufallsvariablen deniert als: Var(X ) = n X i=1 (xi , )2 f (xi ) (2.79) Bei stetigen Zufallsvariablen wird die Summe wie bei der Berechnung des Erwartungswerts durch das Integral ersetzt: Var(X ) = + Z1 ,1 p (x , )2 f (x) dx Die Groe = Var(X ) heit Standardabweichung der Verteilung. (2.80) 2.9 Mazahlen einer Verteilung 123 Beispiele: 1. Sei X die Augenzahl beim Wurfeln mit = 3:5. 2 2 2 2 2 = Var(X ) = (1 ,63:5) + (2 ,63:5) + (3 ,63:5) + (4 ,63:5) + 2 2 + (5 ,63:5) + (6 ,63:5) = = (6:25 + 2:25 + 0:25 +6 0:25 + 2:25 + 6:25) = = 176:50 = 2:9167 p = 2 = 1:71 b 2. Sei X eine zwischen a und b gleichverteilte Zufallsgroe mit = a + 2 . = Var(X ) = 2 = Zb a Zb x, a+b 2 a 2 b ,1 a dx = x2 , (a + b)x + (a +4 b) 2 b ,1 a dx = 3 a + b)x2 + (a + b)2 x b = (b , a)2 = 3(bx, a) , (2( b , a) 4(b , a) a 12 2.9.3 Momente einer Verteilung Erwartungswert und Varianz einer Zufallsvariablen sind Sonderfalle der sog. Momente einer Verteilung oder einer Zufallsvariablen. , Allgemein wird das k-te Moment E X k (k = 1; 2; : : :) einer diskreten Verteilung deniert als: , E Xk = n X i=1 xki f (xi ) , (2.81) Das k-te Moment E X k (k = 1; 2; : : :) einer stetigen Verteilung ist: , E Xk = + Z1 ,1 xk f (x) dx (2.82) Fur k = 1 ergibt sich der Mittelwert oder Erwartungswert E(X ) als 1. Moment der Verteilung. Man deniert das k-te zentrierte Moment E(X , )k im diskreten Fall: , E (X , )k = n X i=1 (xi , )k f (xi ) (2.83) 124 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen Im stetigen Fall gilt: + Z1 , E (X , )k = ,1 (x , )k f (x) dx (2.84) Fur k = 2 erhalt man das zweite zentrierte Moment oder die Varianz der Verteilung: , E (X , )2 = 2 = Var(X ) (2.85) Die zentrierten Momente lassen sich durch die Momente selbst ausdrucken: , , , E (X , )2 = E ,X 2 , 2X + 2 = E, X 2 , 2E(X,) + 2 = = E X 2 , 22 + 2 = E X 2 , 2 = E X 2 , E(X )2 (2.86) Also folgt fur die Varianz: , , 2 = Var(X ) = E (X , )2 = E X 2 , E(X )2 (2.87) Diese sog. Verschiebungsregel entspricht der Berechnungsformel fur die empirische Varianz einer Stichprobe nach Gleichung (1.9). Beispiel: Man kann also die Varianz 2 der Zufallsvariablen X : Augenzahl beim Wurfeln einfacher, d.h. ohne Dierenzbildung und anschlieendem Quadrieren ausrechnen: 2 2 2 2 2 2 E(X 2 ) = 1 + 2 + 3 +6 4 + 5 + 6 = 91 = E(X ) = 3:5 = 72 6 , 91 49 182 , 147 35 2 = E X 2 , E(X )2 = 6 , 4 = 12 = 12 = 2:9167 2.9.4 Schiefe und Kurtosis Die Schiefe einer Verteilung bzw. einer Zufallsvariablen X ist das dritte zentrierte Moment bezogen auf 3 : Schiefe(X ) = , E (X , )3 3 (2.88) Der Exze oder die Kurtosis einer Verteilung bzw. einer Zufallsvariablen X ist das vierte zentrierte Moment bezogen auf 4 minus 3: Exze(X ) = , E (X , )4 4 ,3 (2.89) Zusatzlich zu Mittelwert und Varianz kann man mit den Mazahlen fur Schiefe und Kurtosis die Gestalt einer Dichtefunktion f (x) etwas genauer angeben. 2.9 Mazahlen einer Verteilung f (x) Schiefe 125 a) f (x) neg. 0 pos. neg. b) pos. Kurtosis x Bild 2.25: Schiefe und Kurtosis x Man kann zeigen, da symmetrische Verteilungen die Schiefe 0 haben. Verteilungen wie in Bild 2.25 a) links haben eine positive Schiefe, Verteilungen wie in Bild 2.25 a) rechts eine negative Schiefe. Nun konnen sich aber symmetrische Verteilungen noch durch die Art der Wolbung ihrer Dichtefunktion voneinander unterscheiden. Diese Wolbung kann man in etwa mit der Mazahl der Kurtosis oder des Exzesses erfassen. Eine positive Kurtosis haben spitze Kurven, bauchige Kurven besitzen eine negative Kurtosis (Bild 2.25 b). 2.9.5 Mazahlen bei zweidimensionalen Verteilungen Die Kovarianz Cov(X1 ; X2 ) einer zweidimensionalen Zufallsgroe (X1 ; X2 ) ist ahnlich deniert wie die Varianz einer eindimensionalen Zufallsgroe. Anstelle des Erwartungswerts uber das Quadrat der Abweichung von X1 vom Mittelwert E(X1 ) wird jetzt der Erwartungswert uber das Produkt der Abweichungen der beiden Zufallsgroen von ihren Mittelwerten 1 = E(X1) und 2 = E(X2 ) gebildet: , , Cov(X1 ; X2 ) = E X1 , E(X1 ) X2 , E(X2 ) (2.90) Im stetigen Fall existiert eine zweidimensionale Dichte f (x1 ; x2 ) und es ist Cov(X1 ; X2 ) = + Z1 +Z1 (x1 , 1 ) (x2 , 2 ) f (x1 ; x2 ) dx1 dx2 ,1 ,1 (2.91) mit 1 = E(X1) und 2 = E(X2 ). Im diskreten Fall ist Cov(X1 ; X2 ) = XX i j (x(1i) , 1 ) (x(2j) , 2 ) pij ; wobei pij = P (X1 = x(1i) ; X2 = x(2j) ). (2.92) 126 2 Wahrscheinlichkeitsverteilungen und Zufallsvariablen A hnlich wie bei der Varianz kann man folgende Verschiebungsregeln fur Kovarianzen herleiten: Cov(X1 ; X2 ) = E(X1 X2 ) , E(X1 ) E(X2 ) (2.93) Der Korrelationskoezient von X1 und X2 (oder der Korrelationskoezient der zweidimensionalen Grundgesamtheit) ergibt sich durch Normierung der Kovarianz Cov(X1 ; X2 ): X1 ; X2 ) X1 , 1 X2 , 2 (X1 ; X2 ) = Cov( 1 2 = E 1 2 (2.94) Vergleich der beiden Begrie unabhangig und unkorreliert: Zwei Zufallsgroen X1 ; X2 , deren Kovarianz Cov(X1 ; X2 ) verschwindet, oder was das Gleiche ist, deren Korrelationskoezient (X1 ; X2 ) gleich Null ist, heien unkorreliert. Zwei Zufallsgroen X1 und X2 heien voneinander unabhangig, wenn die zweidimensionale Verteilungsfunktion F (x1 ; x2 ) sich als Produkt zweier Randverteilungen darstellen lat: F (x1 ; x2 ) = F1 (x1 ) F2 (x2 ) (2.95) Der Korrelationskoezient (X1 ; X2 ) zweier Zufallsgroen X1 und X2 mit 12 > 0 und 22 > 0 liegt stets im Intervall zwischen ,1 und +1. Sind X1 und X2 unabhangig, so ist der Korrelationskoezient (X1 ; X2 ) = 0, also X1 und X2 sind dann auch unkorreliert. Die Umkehrung gilt allerdings nicht immer (siehe Beispiel unten). Besteht mit der Wahrscheinlichkeit 1 zwischen X1 und X2 eine lineare Beziehung X2 = aX1 + b (a; b = const.), so ist (X1 ; X2 ) = +1, wenn a > 0 und (X1 ; X2 ) = ,1, wenn a < 0. Auch die Umkehrung gilt: Aus = 1 folgt, da zwischen X1 und X2 eine lineare Beziehung X2 = aX1 + b mit der Wahrscheinlichkeit 1 besteht, wobei a = (X1 ; X2 ) 2 =1 . Beispiel: Es wird folgende einfache zweidimensionale diskrete Verteilung betrachtet. ,1 X1 X2 0 1 R:V: ,1 0:20 0:05 0:20 0:45 0 0:05 0 0:05 0:10 1 0:20 0:05 0:20 0:45 R:V: 0:45 0:10 0:45 1:00 2.9 Mazahlen einer Verteilung 127 Untersucht wird zunachst auf Unkorreliertheit: 1 = E(X1 ) = (,1) 0:45 + 0 0:10 + 1 0:45 = 0 2 = E(X2 ) = (,1) 0:45 + 0 0:10 + 1 0:45 = 0 , Cov(X1 ; X2 ) = E (X1 , 1 )(X2 , 2 ) = E(X1 X2 ) = = 3 X 3 X (i) i=1 j =1 x1 x(2j) pij = 0 Die beiden Zufallsvariablen X1 und X2 sind also unkorreliert. Sind sie auch unabhangig? Dazu mute fur jede mogliche Realisation (x(1i) ; x(2j) ) gelten: P (X1 = x(1i) ; X2 = x(2j) ) = P (X1 = x(1i) ) P (X2 = x(2j) ). Es ist jedoch z.B. P (X1 = 0; X2 = 0) = 0 und P (X1 = 0) P (X2 = 0) = 0:10 0:10 = 0:01 6= 0. Also gilt zumindest fur eine Realisation die geforderte Relation nicht. X1 und X2 sind nicht unabhangig voneinander. Es gilt: Sind zwei Zufallsgroen voneinander unabhangig, so sind sie auch unkorreliert. Die Umkehrung gilt jedoch nicht allgemein. Hat man speziell eine zweidimensionale Normalverteilung, dann gilt auch die Umkehrung, denn im Fall der Normalverteilung bedeutet Unkorreliertheit auch Unabhangigkeit. 2.9.6 Additionsregeln fur Varianzen Gegeben seien zwei Zufallsvariablen X1 und X2 . Gesucht ist die Varianz der Zufallsvariablen k1 X1 + k2 X2 , also einer Linearkombination aus X1 und X2 . Es gilt: Var(k1 X1 + k2 X2 ) = k12 Var(X1 ) + k22 Var(X2 ) + 2k1 k2 Cov(X1 ; X2) (2.96) Diese Formel lat sich auf n Zufallsvariablen X1 ; X2 ; : : : ; Xn verallgemeinern: Var n X i=1 ! ki Xi = n X i=1 ki2 Var(Xi ) + 2 nX ,1 X n i=1 j =i+1 ki kj Cov(Xi ; Xj ) (2.97) Sind die beiden Zufallsvariablen X1 und X2 unkorreliert, so gilt folgende einfache Additionsregel: Var(k1 X1 + k2 X2 ) = k12 Var(X1 ) + k22 Var(X2 ) (2.98) Sind die Zufallsvariablen X1 ; X2 ; : : : ; Xn paarweise unkorreliert, d.h. ist die Kovarianz Cov(Xi ; Xj ) = 0 fur alle i 6= j , so gilt: Var n X i=1 ! ki Xi = n X i=1 ki2 Var(Xi ) (2.99)