SS 2015 Diskrete Wahrscheinlichkeitstheorie Susanne Albers Fakultat f ur Informatik TU M unchen http://www14.in.tum.de/lehre/2015SS/dwt/ Sommersemester 2015 DWT c Susanne Albers Kapitel 0 Organisatorisches Vorlesungen: Di 13:00{15:00 und Di 15:00{16:00 (MI HS1) Pichtvorlesung Bachelor IN, Bioinformatik Modulnr.: IN0018 bung: U 2SWS Tutorubung: siehe Webseite zur Ubung Ubungsleitung: Dennis Kraft, Richard Stotz Umfang: 6 ECTS-Punkte 3V+2TU, Sprechstunde: nach Vereinbarung DWT c Susanne Albers 1/460 bungsaufgaben: U Ausgabe jeweils am Montag auf der Webseite der Vorlesung, ab 8:00 Uhr Abgabe eine Woche spater, jeweils Montag bis 12:00 Uhr, Briefkasten Westseite Untergeschoss FMI Magistrale Vorbereitung in der Tutorubung vorauss. 12 Ubungsbl atter, das letzte am 13. Juli 2015, jedes 20 Punkte Bonusregelung: Werden bei den ersten sechs und zweiten sechs Ubungsbl attern jeweils mindestens 50% der insgesamt erreichbaren Punkte erzielt, so verbessert sich die Note einer bestandenen Klausur um 1/3 Notenstufe. Klausur: Klausur am 04. August 2015, 11{13 Uhr Wiederholungsklausur am 30. September 2015, 11{13 Uhr bei den Klausuren sind keine Hilfsmittel auer einem handbeschriebenen DIN-A4-Blatt zugelassen DWT c Susanne Albers 2/460 Vorkenntnisse: Einfuhrung in die Informatik I/II Diskrete Strukturen Weiterfuhrende Vorlesungen: Eziente Algorithmen und Datenstrukturen Randomisierte Algorithmen Online- und Approximationsalgorithmen Komplexitatstheorie ... Webseite: http://www14.in.tum.de/lehre/2015SS/dwt/ DWT c Susanne Albers 3/460 1. Vorlesungsinhalt Diskrete Wahrscheinlichkeitsraume Wahrscheinlichkeitsraum, Ereignis, Zufallsvariable spezielle Verteilungen Ungleichungen von Markov und Chebyshev Kontinuierliche Wahrscheinlichkeitsraume Normalverteilung, Exponentialverteilung Zentraler Grenzwertsatz Statistik Schatzvariablen Kondenzintervalle Testen von Hypothesen Stochastische Prozesse Markovketten Warteschlangen DWT c Susanne Albers 1 Vorlesungsinhalt 4/460 2. Literatur T. Schickinger, A. Steger: Diskrete Strukturen - Band 2, Springer Verlag, 2001 M. Greiner, G. Tinhofer: Stochastik fur Informatiker, Carl Hanser Verlag, 1996 H. Gordon: Discrete Probability, Springer-Verlag, 1997 M. Mitzenmacher, E. Upfal: Probability and Computing: Randomized Algorithms and Probabilistic Analysis, Cambridge University Press, 2005 DWT c Susanne Albers 5/460 R. Motwani, P. Raghavan: Randomized Algorithms, Cambridge University Press, 1995 M. Hofri: Probabilistic Analysis of Algorithms, Springer Verlag, 1987 L. Fahrmeir, R. Kunstler, I. Pigeot, G. Tutz: Statistik - Der Weg zur Datenanalyse, Springer-Verlag, 1997 DWT c Susanne Albers 2 Literatur 6/460 3. Einleitung Was bedeutet Zufall? Unkenntnis uber den Ausgang eines durchgefuhrten Experiments Ein Experiment wird vielfach mit eventuell sich anderndem Ergebnis ausgefuhrt Ereignisse stehen in keinem kausalen Zusammenhang physikalischer Zufall (Rauschen, Kernzerfall) DWT c Susanne Albers 3 Einleitung 7/460 Zufall in der diskreten Informatik Die Eingabe fur einen bestimmten Algorithmus wird aus einer groen Menge moglicher Eingaben zufallig gewahlt: average case Kombination von Worst-Case- und Average-Case-Analyse, in der Eingaben gema einer Verteilung leicht pertubiert werden: smoothed analysis Der Algorithmus verwendet Zufallsbits, um mit groer Wahrscheinlichkeit gewisse Problemsituationen zu vermeiden: Randomisierung DWT c Susanne Albers 3 Einleitung 8/460 Kapitel I Diskrete Wahrscheinlichkeitsraume 1. Grundlagen Denition 1 1 2 Ein diskreter Wahrscheinlichkeitsraum ist durch eine Ergebnismenge = f!1 ; !2 ; : : :g von Elementarereignissen gegeben. Jedem Elementarereignis !i ist eine (Elementar-)Wahrscheinlichkeit Pr[!i ] zugeordnet, wobei wir fordern, dass 0 Pr[!i ] 1 und X ! 2 DWT c Susanne Albers Pr[!] = 1: 1 Grundlagen 9/460 3 Eine Menge E heit Ereignis. Die Wahrscheinlichkeit Pr[E ] eines Ereignisses ist durch X Pr[E ] := deniert. DWT c Susanne Albers ! 2E 1 Grundlagen Pr[!] 10/460 Beispiel 2 Zwei faire Wurfel (einer wei, einer schwarz) werden geworfen. Wir sind an der Gesamtzahl der angezeigten Augen interessiert: = f (1; 1); (1; 2); (1; 3); (1; 4); (1; 5); (1; 6); (2; 1); (2; 2); (2; 3); (2; 4); (2; 5); (2; 6); (3; 1); (3; 2); (3; 3); (3; 4); (3; 5); (3; 6); (4; 1); (4; 2); (4; 3); (4; 4); (4; 5); (4; 6); (5; 1); (5; 2); (5; 3); (5; 4); (5; 5); (5; 6); (6; 1); (6; 2); (6; 3); (6; 4); (6; 5); (6; 6) g DWT c Susanne Albers 1 Grundlagen 11/460 1 Die Wahrscheinlichkeit Pr((i; j )) eines jeden Elementarereignisses (i; j ) ist 361 . 2 Die Wahrscheinlichkeit Pr(E ) des Ereignisses E = fDie Gesamtzahl der Augen ist 10g ist 121 . DWT c Susanne Albers 1 Grundlagen 12/460 Wir hatten aber auch sagen konnen: = f2; 3; 4; : : : ; 10; 11; 12g Die Wahrscheinlichkeiten der Elementarereignisse sind dann aber nicht mehr gleich. Es ist z.B. 1 Pr(2) = 1 ; 36 2 Pr(4) = 1 ; 12 3 Pr(7) = 1 . 6 DWT c Susanne Albers 1 Grundlagen 13/460 Beispiel 3 Eine faire Munze wird so lange geworfen, bis die gleiche Seite zweimal hintereinander fallt. Dann ist = fhh, tt, htt, thh, thtt, hthh, hthtt, ththh, : : :g Frage: Was sind die Wahrscheinlichkeiten der einzelnen Elementarereignisse? DWT c Susanne Albers 1 Grundlagen 14/460 E heit komplementares Ereignis zu E . Allgemein verwenden wir bei der Denition von Ereignissen alle bekannten Operatoren aus der Mengenlehre. Wenn also A und B Ereignisse sind, dann sind auch A [ B , A \ B , A n B etc. Ereignisse. Zwei Ereignisse A und B heien disjunkt oder auch unvereinbar, wenn A \ B = ; gilt. DWT c Susanne Albers 1 Grundlagen 15/460 Denition 4 relative Haugkeit von E absolute Haugkeit von E := Anzahl aller Beobachtungen Anzahl Eintreten von E : = Anzahl aller Beobachtungen DWT c Susanne Albers 1 Grundlagen 16/460 Denition 5 Ein Wahrscheinlichkeitsraum mit = f!1 ; : : : ; !n g heit endlicher Wahrscheinlichkeitsraum. Bei unendlichen Wahrscheinlichkeitsraumen werden wir gewohnlich nur den Fall = N0 betrachten. Dies stellt keine groe Einschrankung dar, da wir statt einer Ergebnismenge = f!1 ; !2 ; : : :g auch N0 als Ergebnismenge verwenden konnen, indem wir !i mit i 1 identizieren. Wir sagen, dass durch die Angabe der Elementarwahrscheinlichkeiten ein Wahrscheinlichkeitsraum auf deniert ist. DWT c Susanne Albers 1 Grundlagen 17/460 Beispiel 6 Wir beobachten die an einer Strae in Bayern vorbeifahrenden Autos. Dabei gelte: 1 Es fahren doppelt so viele Autos von links nach rechts wie von rechts nach links. 2 Von zehn Autos haben zwei die Farbe hellelfenbein, die u brigen eine andere Lackierung. Das Ereignis \Wir beobachten ein von links nach rechts fahrendes Auto" hat die Wahrscheinlichkeit 23 . Das Ereignis \Das nachste Auto ist ein Taxi von rechts" passiert mit Wahrscheinlichkeit 11: 3 5 DWT c Susanne Albers 1 Grundlagen 18/460 Beispiel 7 (Unendlicher Wahrscheinlichkeitsraum) Wir betrachten eine Munze, die mit Wahrscheinlichkeit p Kopf zeigt und mit Wahrscheinlichkeit q := 1 p Zahl. Wir fuhren Versuche aus, indem wir die Munze wiederholt solange werfen, bis Zahl fallt. Das Ergebnis eines solchen Versuchs ist die Anzahl der durchgefuhrten Munzwurfe. Damit ergibt sich hier als Ergebnismenge = N = f1; 2; 3; : : :g : DWT c Susanne Albers 1 Grundlagen 19/460 Beispiel 7 (Forts.) Sei, fur i 2 N, !i das Elementarereignis !i = b Die M unze wird i-mal geworfen : Dann gilt: und Pr[!i ] = pi 1 q ; X ! 2 Pr[!] = 1 X i=1 1 X q pi 1 q = q pi = i=0 1 p =1: (wie es sein soll!) DWT c Susanne Albers 1 Grundlagen 20/460 Lemma 8 Fur Ereignisse A; B; A1 ; A2 ; : : : gilt: 1 Pr[;] = 0, Pr[ ] = 1. 2 3 4 0 Pr[A] 1. Pr[A] = 1 Pr[A]. Wenn A B , so folgt Pr[A] Pr[B ]. DWT c Susanne Albers 1 Grundlagen 21/460 Lemma 8 (Forts.) 5 (Additionssatz) Wenn die Ereignisse A1 ; : : : ; An paarweise disjunkt sind (also wenn fur alle Paare i 6= j gilt, dass Ai \ Aj = ;), so folgt " Pr n [ i=1 # Ai = n X i=1 Pr[Ai ]: Fur disjunkte Ereignisse A, B erhalten wir insbesondere Pr[A [ B ] = Pr[A] + Pr[B ] : Fur eine unendliche Menge von disjunkten Ereignissen A1 ; A2 ; : : : gilt analog " Pr DWT c Susanne Albers 1 [ i=1 # Ai = 1 X i=1 1 Grundlagen Pr[Ai ] : 22/460 Beweis: Die Aussagen folgen unmittelbar aus Denition 1, den Eigenschaften der Addition und der Denition der Summe. DWT c Susanne Albers 1 Grundlagen 23/460 Eigenschaft 5 in Lemma 8 gilt nur fur disjunkte Ereignisse. Fur den allgemeinen Fall erhalten wir folgenden Satz 9 (Siebformel, Prinzip der Inklusion/Exklusion) Fur Ereignisse A1 ; : : : ; An (n 2) gilt: " Pr n [ i=1 # Ai = n X i=1 + ( 1)l + ( DWT c Susanne Albers Pr[Ai ] 1 X 1i1 <i2 n X Pr[Ai \ Ai ] + : : : 1 2 Pr[Ai \ : : : \ Ail ] + : : : 1 1i1 <:::<il n n 1 1) Pr[A1 \ : : : \ An ] : 1 Grundlagen 24/460 Satz 9 (Forts.) Insbesondere gilt fur zwei Ereignisse A und B Pr[A [ B ] = Pr[A] + Pr[B ] Pr[A \ B ] : Fur drei Ereignisse A1 , A2 und A3 erhalten wir Pr[A1 [ A2 [ A3 ] = Pr[A1 ] + Pr[A2 ] + Pr[A3 ] Pr[A1 \ A2 ] Pr[A1 \ A3 ] Pr[A2 \ A3 ] +Pr[A1 \ A2 \ A3 ] : DWT c Susanne Albers 1 Grundlagen 25/460 Beweis: Wir betrachten zunachst den Fall n = 2. Dazu setzen wir C := A n B = A n (A \ B ). Gema dieser Denition gilt, dass C und A \ B sowie C und B disjunkt sind. Deshalb konnen wir Eigenschaft 5 von Lemma 8 anwenden: Pr[A] = Pr[C [ (A \ B )] = Pr[C ] + Pr[A \ B ] : Wegen A [ B = C [ B folgt daraus Pr[A [ B ] = Pr[C [ B ] = Pr[C ] + Pr[B ] = Pr[A] Pr[A \ B ] + Pr[B ] und wir haben die Behauptung fur n = 2 gezeigt. DWT c Susanne Albers 1 Grundlagen 26/460 Beweis (Forts.): Der Fall n = 3: A1 A2 A3 Ω Man beachte, dass durch die im Satz angegebene Summe jedes Flachenstuck insgesamt genau einmal gezahlt wird. DWT c Susanne Albers 1 Grundlagen 27/460 Beweis (Forts.): Der allgemeine Fall kann nun durch Induktion uber n gezeigt werden (was wir aber hier nicht ausfuhren!). Satz 9 ndet man manchmal auch unter der Bezeichung Satz von Poincare-Sylvester, nach dem Franzosen Jules Henri Poincare (1854{1912) und dem Englander James Joseph Sylvester (1814{1897) benannt. DWT c Susanne Albers 1 Grundlagen 28/460 Boolesche Ungleichung: Die folgende Abschatzung ist nach George Boole (1815{1864) benannt: Korollar 10 Fur Ereignisse A1 ; : : : ; An gilt " Pr n [ i=1 # Ai n X i=1 Pr[Ai ] : Analog gilt fur eine unendliche Folge von Ereignissen A1 ; A2 ; : : :, dass " Pr DWT c Susanne Albers 1 [ i=1 # Ai 1 X i=1 1 Grundlagen Pr[Ai ] : 29/460 Beweis: Zunachst betrachten wir die linke Seite der Ungleichung fur den endlichen Fall und erhalten " # Pr Fur die rechte Seite gilt n [ i=1 n X i=1 Ai = Pr[Ai ] = X S !2 ni=1 Ai n X X i=1 !2Ai Pr[!] : Pr[!] : Jedes Elementarereignis kommt links also genau einmal und rechts mindestens einmal vor. DWT c Susanne Albers 1 Grundlagen 30/460 1.1 Wahl der Wahrscheinlichkeiten Frage: Wie konnen Wahrscheinlichkeiten sinnvoll festgelegt werden? Prinzip von Laplace (Pierre Simon Laplace (1749{1827)): Wenn nichts dagegen spricht, gehen wir davon aus, dass alle Elementarereignisse gleich wahrscheinlich sind. Also: Pr[E ] = jjE jj DWT c Susanne Albers 1.1 Wahl der Wahrscheinlichkeiten 31/460 1.2 Historische Anfange der Wahrscheinlichkeitstheorie Die ersten Hinweise auf mathematische Untersuchungen zu Problemen der Wahrscheinlichkeitstheorie nden sich in einem Briefwechsel zwischen den franzosischen Mathematikern Pierre Fermat (1601{1665) und Blaise Pascal (1623{1662). Pascal beschaftigte sich neben der Mathematik auch mit Fragestellungen aus dem Bereich der Physik und auch aus der Informatik! Sein Vater hatte als Steuerinspektor in Rouen umfangreiche Rechnungen durchzufuhren und so wurde Pascal zum Bau einer mechanischen Rechenmaschine, der so genannten Pascaline, motiviert. DWT c Susanne Albers 1.2 Historische Anfange der Wahrscheinlichkeitstheorie 32/460 In dem Briefwechsel taucht bereits der Ansatz Pr[E ] = jE j=j j zur Berechnung der Wahrscheinlichkeit von E auf. Auch den Begri des Erwartungswerts kann man dort berlegungen zur schon nden. Weder Fermat noch Pascal publizierten ihre U Wahrscheinlichkeitstheorie. Der Niederlander Christiaan Huygens (1629{1695) entwickelte ebenfalls Methoden zum Arbeiten mit Wahrscheinlichkeiten aus. Er publizierte im Jahre 1657 auch eine kleine Arbeit mit dem Titel De ratiociniis in ludo " ber die Gesetzmaigkeiten beim Wurfelspiel). aleae\ (U DWT c Susanne Albers 1.2 Historische Anfange der Wahrscheinlichkeitstheorie 33/460 2. Bedingte Wahrscheinlichkeiten Beispiel 11 A und B spielen Poker (52 Karten, 5 Karten pro Spieler, keine getauschten Karten). A halt vier Asse und eine Herz Zwei in der Hand. B kann dieses Blatt nur uberbieten, wenn er einen Straight Flush (funf Karten einer Farbe in aufsteigender Reihenfolge hat. Die Wahrscheinlichkeit fur das Ereignis F := B hat einen Straight Flush\ betragt " 31 = 2;02:: 10 5 : Pr[F ] = jjF jj = 3 528 +57 = 1533939 5 DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 34/460 Beispiel 11 (Forts.) A hat die Karten allerdings gezinkt und wei, dass B nur Kreuz in der Hand halt. Bezeichne nun 0 den Wahrscheinlichkeitsraum aller Moglichkeiten fur B und F 0 das Ereignis, dass B einen Straight Flush der Farbe Kreuz hat: 0 8 0;01 !! Pr[F 0 ] = jjF 0 jj = 128 = 792 5 DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 35/460 Fur Pr[AjB ] erforderliche Eigenschaften: 1 Pr[B jB ] = 1; 2 Pr[Aj ] = Pr[A]; 3 f ur festes B ist Pr[AjB ] proportional zu Pr[A \ B ]. Denition 12 A und B seien Ereignisse mit Pr[B ] > 0. Die bedingte Wahrscheinlichkeit Pr[AjB ] von A gegeben B ist deniert als A \ B] Pr[AjB ] := Pr[Pr[ : B] DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 36/460 Die bedingten Wahrscheinlichkeiten Pr[jB ] bilden fur ein beliebiges Ereignis B mit Pr[B ] > 0 einen neuen Wahrscheinlichkeitsraum uber . Es ist leicht nachzurechnen, dass dadurch die Denition eines diskreten Wahrscheinlichkeitsraums erfullt ist: X ! 2 Pr[!jB ] = Pr[! \ B ] = X Pr[!] = Pr[B ] = 1: Pr[B ] Pr[B ] Pr[B ] ! 2 ! 2B X Damit gelten alle Rechenregeln fur Wahrscheinlichkeiten auch fur bedingte Wahrscheinlichkeiten. Beispielsweise: Pr[;jB ] = 0 sowie Pr[AjB ] = 1 Pr[AjB ] : DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 37/460 Beispiel 13 (Reskalierung bei bedingten Wahrscheinlichkeiten) Betrachte folgenden gezinkten Wurfel: 0,7 Pr[x℄ 0,6 0,5 0,4 0,3 0,2 0,1 0,0 DWT c Susanne Albers 0 1 2 3 4 5 2 Bedingte Wahrscheinlichkeiten 6 7 38/460 Beispiel 13 (Forts.) Wir betrachten nun den durch B := f3; 4; 5g gegebenen bedingten Wahrscheinlichkeitsraum: 0,7 0,7 Pr[x℄ 0,6 0,6 0,5 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0,1 0,1 0,0 0 DWT c Susanne Albers 1 2 3 4 5 6 7 0,0 Pr[xjB ℄ 0 1 2 Bedingte Wahrscheinlichkeiten 2 3 4 5 6 7 39/460 Was genau war die Bedingung? Beispiel 14 (Zweikinderproblem) Wir nehmen an, dass bei der Geburt eines Kindes beide Geschlechter gleich wahrscheinlich sind. Wir wissen, dass eine bestimmte Familie zwei Kinder hat und eines davon ein Madchen ist. Wie gro ist die Wahrscheinlichkeit, dass beide Kinder der Familie Madchen sind? Naturlich 12 . Wirklich? DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 40/460 Beispiel 14 (Forts.) Eigentlich gilt: und := fmm; mj; jm; jj g M := fmm; mj; jmg : Wir bedingen auf M , und damit gilt fur A := fmmg: A \ M ] 1=4 1 Pr[AjM ] = Pr[Pr[ = 3=4 = 3 : M] DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 41/460 Beispiel 15 (Ziegenproblem) Sie nehmen an einer Spielshow im Fernsehen teil, bei der Sie eine von drei verschlossenen Turen auswahlen sollen. Hinter einer Tur wartet der Preis, ein Auto, hinter den beiden anderen stehen Ziegen. Sie zeigen auf eine Tur, sagen wir Nummer eins. Sie bleibt vorerst geschlossen. Der Moderator wei, hinter welcher Tur sich das Auto bendet; mit den Worten \Ich gebe Ihnen mal einen kleinen Hinweis" onet er eine andere Tur, zum Beispiel Nummer drei, und eine Ziege schaut heraus und meckert. Er fragt: \Bleiben Sie bei Nummer eins, oder wahlen sie Nummer zwei? " Frage: Welche Strategie ist gunstiger: S1 Der Spieler bleibt immer bei seiner ursprunglichen Wahl. S2 Der Spieler wechselt stets die ausgewahlte Tur. DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 42/460 Beispiel (Forts.) Wir betrachten hier eine Diskussion des Ziegenproblems mit Hilfe von bedingten Wahrscheinlichkeiten. Wir betrachten bei jeder Variante den Fall, dass der Spieler a) die \richtige", b) eine falsche Tur gewahlt hat. Ersteres geschieht mit Wahrscheinlichkeit 31 , Letzteres mit Wahrscheinlichkeit 23 . Mit der vom Moderator gegebenen Information ergeben sich fur die beiden Strategien die folgenden Gewinnwahrscheinlichkeiten: a) b) DWT c Susanne Albers S1 ? ? S2 ? ? 2 Bedingte Wahrscheinlichkeiten 43/460 Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Pr[A \ B ] = Pr[B jA] Pr[A] = Pr[AjB ] Pr[B ] : (1) Damit: Satz 16 (Multiplikationssatz) Seien die Ereignisse A1 ; : : : ; An gegeben. Falls Pr[A1 \ : : : \ An ] > 0 ist, gilt Pr[A1 \ : : : \ An ] = DWT c Susanne Albers Pr[A1 ] Pr[A2 jA1 ] Pr[A3 jA1 \ A2 ] : : : : : : Pr[An jA1 \ : : : \ An 1 ] : 2 Bedingte Wahrscheinlichkeiten 44/460 Beweis: Zunachst halten wir fest, dass alle bedingten Wahrscheinlichkeiten wohldeniert sind, da Pr[A1 ] Pr[A1 \ A2 ] : : : Pr[A1 \ : : : \ An ] > 0. Die rechte Seite der Aussage im Satz konnen wir umschreiben zu Pr[A1 ] Pr[A1 \ A2 ] Pr[A1 \ A2 \ A3 ] : : : Pr[A1 \ : : : \ An ] : 1 Pr[A1 ] Pr[A1 \ A2 ] Pr[A1 \ : : : \ An 1 ] Oensichtlich kurzen sich alle Terme bis auf Pr[A1 \ : : : \ An ]. DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 45/460 Beispiel 17 (Geburtstagsproblem) Wie gro ist die Wahrscheinlichkeit, dass in einer m-kopgen Gruppe zwei Personen am selben Tag Geburtstag haben? Umformulierung: Man werfe m Balle zufallig und gleich wahrscheinlich in n Korbe. Wie gro ist die Wahrscheinlichkeit, dass nach dem Experiment jeder Ball allein in seinem Korb liegt? Fur das Geburtstagsproblem: n = 365 DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 46/460 Oensichtlich muss m n sein, damit uberhaupt jeder Ball allein in einem Korb liegen kann. Wir nehmen an, dass die Balle nacheinander geworfen werden. Ai bezeichne das Ereignis Ball i landet in einem noch leeren Korb\. Das gesuchte Ereignis Alle Balle " " liegen allein in einem Korb\ bezeichnen wir mit A. Nach Satz 16 konnen wir Pr[A] berechnen durch Pr[A] = Pr [\mi=1 Ai ] = Pr[A1 ] Pr[A2 jA1 ] : : : Pr[Am j \mi=11 Ai ]: Unter der Bedingung, dass die ersten j 1 Balle jeweils in einem leeren Korb gelandet sind, bedeutet Aj , dass der j -te Ball in eine der n (j 1) leeren Korbe fallen muss, die aus Symmetriegrunden jeweils mit derselben Wahrscheinlichkeit gewahlt werden. DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 47/460 Daraus folgt Pr[Aj j \ij=11 Ai ] = n (nj 1) = 1 j n 1 : Mit der Abschatzung 1 x e x und wegen Pr[A1 ] = 1 erhalten wir Pr[A] = m Y j =1 m Y 1 j n 1 Pm 1 e (j 1)=n = e (1=n) j=1 j j =2 = e m(m 1)=(2n) DWT c Susanne Albers =: f (m) : 2 Bedingte Wahrscheinlichkeiten 48/460 1,0 f (m) 0,8 0,6 0,4 0,2 0,0 0 50 DWT c Susanne Albers 100 150 200 250 300 350 2 Bedingte Wahrscheinlichkeiten Verlauf von f (m) fur n = 365 49/460 Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A1 ; : : : ; An seien paarweise disjunkt und es gelte B A1 [ : : : [ An . Dann folgt Pr[B ] = n X i=1 Pr[B jAi ] Pr[Ai ] : S Analog gilt fur paarweise disjunkte Ereignisse A1 ; A2 ; : : : mit B 1 i=1 Ai , dass 1 X Pr[B ] = DWT c Susanne Albers i=1 Pr[B jAi ] Pr[Ai ] : 2 Bedingte Wahrscheinlichkeiten 50/460 Beweis: Wir zeigen zunachst den endlichen Fall. Wir halten fest, dass B = (B \ A1 ) [ : : : [ (B \ An ) : Da fur beliebige i; j mit i 6= j gilt, dass Ai \ Aj = ;, sind auch die Ereignisse B \ Ai und B \ Aj disjunkt. Wegen (1) folgt Pr[B \ Ai ] = Pr[B jAi ] Pr[Ai ] (auch fur den Fall, dass Pr[Ai ] = 0!). Wir wenden nun den Additionssatz (Lemma 8, Teil 5) an Pr[B ] = Pr[B \ A1 ] + : : : + Pr[B \ An ] = Pr[B jA1 ] Pr[A1 ] + : : : + Pr[B jAn ] Pr[An ] und haben damit die Behauptung gezeigt. Da der Additionssatz auch fur unendlich viele Ereignisse A1 ; A2 ; : : : gilt, kann dieser Beweis direkt auf den unendlichen Fall ubertragen werden. DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 51/460 Mit Hilfe von Satz 18 erhalten wir leicht einen weiteren nutzlichen Satz: Satz 19 (Satz von Bayes) Die Ereignisse A1 ; : : : ; An seien paarweise disjunkt, mit Pr[Aj ] > 0 fur alle j . Ferner sei B A1 [ : : : [ An ein Ereignis mit Pr[B ] > 0. Dann gilt fur ein beliebiges i = 1; : : : ; n Ai \ B ] P Pr[B jAi ] Pr[Ai ] = n Pr[B jA ] Pr[A ] : Pr[Ai jB ] = Pr[Pr[ B] j j j =1 S Analog gilt fur paarweise disjunkte Ereignisse A1 ; A2 ; : : : mit B 1 i=1 Ai , dass Ai \ B ] P Pr[B jAi ] Pr[Ai ] Pr[Ai jB ] = Pr[Pr[ = 1 Pr[B jA ] Pr[A ] : B] j j j =1 DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 52/460 Mit dem Satz von Bayes dreht man gewissermaen die Reihenfolge der Bedingung um. Gegeben die Wahrscheinlichkeit von B unter den Bedingungen Ai (sowie die Wahrscheinlichkeiten der Ai selbst), berechnet man die Wahrscheinlichkeit von Ai bedingt auf das Ereignis B . Thomas Bayes (1702{1761) war ein bekannter Theologe und Mitglied der Royal Society. Als sein bedeutendstes Werk gilt sein Beitrag zur Wahrscheinlichkeitstheorie Essay Towards Solving a Problem in the Doctrine of Chances\. Diese Arbeit wurde " erst 1763 publiziert. DWT c Susanne Albers 2 Bedingte Wahrscheinlichkeiten 53/460 3. Unabhangigkeit Bei einer bedingten Wahrscheinlichkeit Pr[AjB ] kann der Fall auftreten, dass die Bedingung auf B , also das Vorwissen, dass B eintritt, keinen Einuss auf die Wahrscheinlichkeit hat, mit der wir das Eintreten von A erwarten. Es gilt also Pr[AjB ] = Pr[A], und wir nennen dann die Ereignisse A und B unabhangig. DWT c Susanne Albers 3 Unabhangigkeit 54/460 Beispiel 20 (Zweimaliges Wurfeln) := f(i; j ) j 1 i; j 6g : Alle Elementarereignisse erhalten nach dem Prinzip von Laplace die Wahrscheinlichkeit 361 . Wir denieren die Ereignisse A := Augenzahl im ersten Wurf ist gerade; B := Augenzahl im zweiten Wurf ist gerade; C := Summe der Augenzahlen beider Wurfe betragt 7: Es gilt Pr[A] = Pr[B ] = 12 und Pr[C ] = 16 . Wie gro ist Pr[B jA]? DWT c Susanne Albers 3 Unabhangigkeit 55/460 Beispiel 20 (Forts.) Nach unserer Intuition beeinusst der Ausgang des ersten Wurfs den zweiten Wurf nicht. Daher gewinnen wir durch das Eintreten von A keine Information in Bezug auf das Ereignis B hinzu: B \ A = f(2; 2); (2; 4); (2; 6); (4; 2); (4; 4); (4; 6); (6; 2); (6; 4); (6; 6)g: Daraus folgt 9 36 = 1 = Pr[B ] : 1 2 2 Das Eintreen des Ereignisses B hat mit dem Ereignis A nichts zu tun\. " DWT c Susanne Albers B \ A] = Pr[B jA] = Pr[Pr[ A] 3 Unabhangigkeit 56/460 Denition 21 Die Ereignisse A und B heien unabhangig, wenn gilt Pr[A \ B ] = Pr[A] Pr[B ] : Falls Pr[B ] 6= 0, so konnen wir diese Denition zu A \ B] Pr[A] = Pr[Pr[ = Pr[AjB ] B] umschreiben. DWT c Susanne Albers 3 Unabhangigkeit 57/460 Beispiel 20 (Zweimaliges Wurfeln, Forts.) Zur Erinnerung: A := Augenzahl im ersten Wurf ist gerade; B := Augenzahl im zweiten Wurf ist gerade; C := Summe der Augenzahlen beider Wurfe betragt 7: Bei den Ereignissen A und B ist die Unabhangigkeit klar, da oensichtlich kein kausaler Zusammenhang zwischen den Ereignissen besteht. Wie steht es mit A und C ? A \ C = f(2; 5); (4; 3); (6; 1)g und damit 3 = 1 1 = Pr[A] Pr[C ] bzw. Pr[C jA] = Pr[C ] : Pr[A \ C ] = 36 2 6 DWT c Susanne Albers 3 Unabhangigkeit 58/460 Beispiel 20 (Forts.) Also sind auch A und C (und analog B und C ) unabhangig. Bemerkung: Im Beispiel ist A \ C 6= ;. Es gilt sogar allgemein fur zwei unabhangige Ereignisse A und B mit Pr[A]; Pr[B ] > 0, dass sie gar nicht disjunkt sein konnen, da ansonsten 0 = Pr[;] = Pr[A \ B ] 6= Pr[A] Pr[B ] : DWT c Susanne Albers 3 Unabhangigkeit 59/460 Beispiel 20 (Zweimaliges Wurfeln (Forts.)) Zur Erinnerung: A := Augenzahl im ersten Wurf ist gerade; B := Augenzahl im zweiten Wurf ist gerade; C := Summe der Augenzahlen beider Wurfe betragt 7: Wir betrachten das Ereignis A \ B \ C . Wenn A \ B eintritt, so sind beide gewurfelten Augenzahlen gerade und somit ergibt auch die Summe davon eine gerade Zahl. Daraus folgt Pr[A \ B \ C ] = 0 bzw. Pr[C jA \ B ] = 0 6= Pr[C ]. Das Ereignis A \ B liefert uns also Information uber das Ereignis C . DWT c Susanne Albers 3 Unabhangigkeit 60/460 Denition 22 Die paarweise verschiedenen Ereignisse A1 ; : : : ; An heien unabhangig, wenn fur alle Teilmengen I = fi1 ; : : : ; ik g f1; : : : ; ng mit i1 < i2 < : : : < ik gilt, dass Pr[Ai \ : : : \ Aik ] = Pr[Ai ] : : : Pr[Aik ]: 1 1 (2) Eine unendliche Familie von paarweise verschiedenen Ereignissen Ai mit i 2 N heit unabhangig, wenn (2) fur jede endliche Teilmenge I N erfullt ist. DWT c Susanne Albers 3 Unabhangigkeit 61/460 Lemma 23 Die (paarweise verschiedenen) Ereignisse A1 ; : : : ; An sind genau dann unabhangig, wenn fur alle (s1 ; : : : ; sn ) 2 f0; 1gn gilt, dass Pr[As1 \ : : : \ Asnn ] = Pr[As1 ] : : : Pr[Asnn ]; 1 1 (3) wobei A0i = Ai und A1i = Ai . DWT c Susanne Albers 3 Unabhangigkeit 62/460 Beweis: Zunachst zeigen wir, dass aus (2) die Bedingung (3) folgt. Wir beweisen dies durch Induktion uber die Anzahl der Nullen in s1 ; : : : ; sn . Wenn s1 = : : : = sn = 1 gilt, so ist nichts zu zeigen. Andernfalls gelte ohne Einschrankung s1 = 0. Aus dem Additionssatz folgt dann Pr[A1 \ As2 \ : : : \ Asnn ] = Pr[As2 \ : : : \ Asnn ] Pr[A1 \ As2 \ : : : \ Asnn ]: 2 2 2 Darauf konnen wir die Induktionsannahme anwenden und erhalten Pr[A1 \ As2 \ : : : \ Asnn ] = Pr[As2 ] : : : Pr[Asnn ] Pr[A1 ] Pr[As2 ] : : : Pr[Asnn ] = (1 Pr[A1 ]) Pr[As2 ] : : : Pr[Asnn ]; woraus die Behauptung wegen 1 Pr[A1 ] = Pr[A1 ] folgt. 2 2 2 2 DWT c Susanne Albers 3 Unabhangigkeit 63/460 Beweis (Forts.): Fur die Gegenrichtung zeigen wir nur, dass aus (3) Pr[A1 \ A2 ] = Pr[A1 ] Pr[A2 ] folgt. Es gilt wegen des Satzes von der totalen Wahrscheinlichkeit, dass Pr[A1 \ A2 ] = = X s3 ;:::;sn 2f0;1g X s3 ;:::;sn 2f0;1g Pr[A1 \ A2 \ As3 \ : : : \ Asnn ] 3 Pr[A1 ] Pr[A2 ] Pr[As3 ] : : : Pr[Asnn ] 3 = Pr[A1 ] Pr[A2 ] = Pr[A1 ] Pr[A2 ]; X s3 =0;1 Pr[As3 ] : : : 3 X sn =0;1 Pr[Asnn ] und es folgt die Behauptung. DWT c Susanne Albers 3 Unabhangigkeit 64/460 Aus der Darstellung in Lemma 23 folgt die wichtige Beobachtung, dass fur zwei unabhangige Ereignisse A und B auch die Ereignisse A und B (und analog auch A und B bzw. A und B ) unabhangig sind! Ebenso folgt: DWT c Susanne Albers 3 Unabhangigkeit 65/460 Lemma 24 Seien A, B und C unabhangige Ereignisse. Dann sind auch A \ B und C bzw. A [ B und C unabhangig. Beweis: Die Unabhangigkeit von A \ B und C folgt unmittelbar aus Denition 22. Aus Pr[(A [ B ) \ C ] = = = = Pr[(A \ C ) [ (B \ C )] Pr[A \ C ] + Pr[B \ C ] Pr[A \ B \ C ] Pr[C ] (Pr[A] + Pr[B ] Pr[A \ B ]) Pr[A [ B ] Pr[C ] folgt die Unabhangigkeit von A [ B und C . DWT c Susanne Albers 3 Unabhangigkeit 66/460 4. Zufallsvariablen 4.1 Grundlagen Anstatt der Ereignisse selbst sind wir oft an Auswirkungen\ oder Merkmalen\ der " " (Elementar)Ereignisse interessiert. Denition 25 Sei ein Wahrscheinlichkeitsraum auf der Ergebnismenge gegeben. Eine Abbildung X: !R heit (numerische) Zufallsvariable. Eine Zufallsvariable X uber einer endlichen oder abzahlbar unendlichen Ergebnismenge heit diskret. DWT c Susanne Albers 4.1 Grundlagen 67/460 Bei diskreten Zufallsvariablen ist der Wertebereich WX := X ( ) = fx 2 R; 9 ! 2 mit X (!) = xg ebenfalls wieder endlich (bzw. abzahlbar unendlich). DWT c Susanne Albers 4.1 Grundlagen 68/460 Beispiel 26 Wir werfen eine ideale Munze drei Mal. Als Ergebnismenge erhalten wir := fH; T g3 . Die Zufallsvariable Y bezeichne die Gesamtanzahl der Wurfe mit Ergebnis Head\. " Beispielsweise gilt also Y (HT H ) = 2 und Y (HHH ) = 3. Y hat den Wertebereich WY = f0; 1; 2; 3g. DWT c Susanne Albers 4.1 Grundlagen 69/460 Fur WX = fx1 ; : : : ; xn g bzw. WX = fx1 ; x2 ; : : :g betrachten wir (fur ein beliebiges 1 i n bzw. xi 2 N) das Ereignis Ai := f! 2 ; X (!) = xi g = X 1 (xi ): Bemerkung: Anstelle von Pr[X 1 (xi )] verwendet man haug auch die Schreibweise Pr["X = xi\ ]. Analog setzt man Pr["X xi\ ] = X x2WX : xxi Pr["X = x\ ] = Pr[f! 2 ; X (!) xi g] : Oft lasst man auch die Anfuhrungszeichen weg. DWT c Susanne Albers 4.1 Grundlagen 70/460 Denition 27 Die Funktion fX : R 3 x 7! Pr[X = x] 2 [0; 1] (4) nennt man (diskrete) Dichte(funktion) der Zufallsvariablen X . Die Funktion FX : R 3 x 7! Pr[X x] = X x0 2WX : x0 x Pr[X = x0 ] 2 [0; 1] (5) heit Verteilung(sfunktion) der Zufallsvariablen X . DWT c Susanne Albers 4.1 Grundlagen 71/460 Beispiel 28 Fur die Zufallsvariable Y erhalten wir Pr[Y = 0] = Pr[T T T ] = 18 ; Pr[Y = 1] = Pr[HT T ] + Pr[T HT ] + Pr[T T H ] = 38 ; Pr[Y = 2] = Pr[HHT ] + Pr[HT H ] + Pr[T HH ] = 38 ; Pr[Y = 3] = Pr[HHH ] = 18 : DWT c Susanne Albers 4.1 Grundlagen 72/460 FY fY 1,0 1,0 0,8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0 1 2 3 0,0 0 1 2 3 Dichte und Verteilung von Y Bemerkung: Man kann statt auch den zugrunde liegenden Wahrscheinlichkeitsraum uber WX betrachten. DWT c Susanne Albers 4.1 Grundlagen 73/460 4.2 Erwartungswert und Varianz Denition 29 Zu einer Zufallsvariablen X denieren wir den Erwartungswert E[X ] durch E[X ] := sofern P x 2W X Beispiel 30 X x 2W X x Pr[X = x] = X x 2W X x fX (x) ; jxj Pr[X = x] konvergiert. E[Y ] = 3 X i=0 i Pr[Y = i] = 1 Pr[Y = 1] + 2 Pr[Y = 2] + 3 Pr[Y = 3] = 1 83 + 2 83 + 3 18 = 32 : DWT c Susanne Albers 4.2 Erwartungswert und Varianz 74/460 Beispiel 31 Eine Munze wird so lange geworfen, bis sie zum ersten Mal Head\ zeigt. Sei k die " Anzahl der durchgefuhrten Wurfe. Wenn k ungerade ist, zahlt der Spieler an die Bank k Euro. Andernfalls (k gerade) zahlt die Bank k Euro an den Spieler. ( G := k falls k ungerade; k falls k gerade: Wie schon gesehen, gilt dann Pr["Anzahl Wurfe = k\ ] = (1=2)k : Damit erhalten wir E[G] = DWT c Susanne Albers 1 X k=1 ( 1)k 1 k k 1 2 4.2 Erwartungswert und Varianz : 75/460 Da 1 X k=1 j( 1)k 1 kj k 1 2 1 X k=1 k k 1 2 ; existiert der Erwartungswert E[G]. Es gilt 1 X " 2j # 1 2j 2j 21 E[G] = (2j 1) 12 j =1 1 1 2j 1 X = [(2j 1) j ] 2 j =1 j 1 1 1 X 1 = 2 (j 1) 14 = 12 4 1 2 = 29 : 1 4 j =1 DWT c Susanne Albers 4.2 Erwartungswert und Varianz 76/460 Wird jedoch, um das Risiko zu steigern, der zu zahlende Betrag von k Euro jeweils auf 2k Euro erhoht, also ( 2k falls k ungerade; G0 := 2k falls k gerade ; dann existiert E[G0 ] nicht, da k 1 X 1 0 k 1 k E[G ] = ( 1) 2 k=1 = DWT c Susanne Albers 1 X k=1 2 ( 1)k 1 = +1 1 + 1 1 + : : : : 4.2 Erwartungswert und Varianz 77/460 Berechnung des Erwartungswerts: E[X ] = = = X x 2W X X x Pr[X = x] = x X x2WX !2 :X (!)=x X ! 2 X x 2W X x fX (x) Pr[!] X (!) Pr[!] : Bei unendlichen Wahrscheinlichkeitsr aumen ist dabei analog zur Denition des P Erwartungswerts erforderlich, dass !2 jX (! )j Pr[! ] konvergiert (absolute Konvergenz). DWT c Susanne Albers 4.2 Erwartungswert und Varianz 78/460 Satz 32 (Monotonie des Erwartungswerts) Seien X und Y Zufallsvariablen uber dem Wahrscheinlichkeitsraum mit X (!) Y (!) fur alle ! 2 . Dann gilt E[X ] E[Y ]. Beweis: E[X ] = DWT c Susanne Albers X ! 2 X (!) Pr[!] X ! 2 Y (!) Pr[!] = E[Y ] : 4.2 Erwartungswert und Varianz 79/460 Aus Satz 32 folgt insbesondere, dass a E[X ] b gilt, wenn fur die Zufallsvariable X die Eigenschaft a X (! ) b fur alle ! 2 erfullt ist. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 80/460 4.2.1 Rechenregeln fur den Erwartungswert Oft betrachtet man eine Zufallsvariable X nicht direkt, sondern wendet noch eine Funktion darauf an: Y := f (X ) = f X ; wobei f : D ! R eine beliebige Funktion sei mit WX D R. Beobachtung: f (X ) ist wieder eine Zufallsvariable. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 81/460 Aus Pr[Y = y] = Pr[f! j f (X (!)) = yg] = X x : f (x)=y Pr[X = x] folgt E[f (X )] = E[Y ] = = = DWT c Susanne Albers X y2WY X ! 2 X y 2W Y y y Pr[Y = y] X x : f (x)=y Pr[X = x] = f (X (!)) Pr[!] : X x 2W X 4.2 Erwartungswert und Varianz f (x) Pr[X = x] 82/460 Satz 33 (Linearitat des Erwartungswerts, einfache Version) Fur eine beliebige Zufallsvariable X und a; b 2 R gilt E[a X + b] = a E[X ] + b : Beweis: E[a X + b] = X x 2W X =a (a x + b) Pr[X = x] X x 2W X x Pr[X = x] + b = a E[X ] + b : DWT c Susanne Albers 4.2 Erwartungswert und Varianz X x2WX Pr[X = x] 83/460 Satz 34 Sei X eine Zufallsvariable mit WX N0. Dann gilt E[X ] = 1 X i=1 Pr[X i] : Beweis: E[X ] = = DWT c Susanne Albers 1 X i=0 i Pr[X = i] = 1 X 1 X j =1 i=j i 1 X X i=0 j =1 Pr[X = i] = 1 X j =1 Pr[X = i] Pr[X j ] : 4.2 Erwartungswert und Varianz 84/460 Denition 35 Sei X eine Zufallsvariable und A ein Ereignis mit Pr[A] > 0. Die bedingte Zufallsvariable X jA besitzt die Dichte fX jA (x) := Pr[X = x j A] = Pr["X = x\ \ A] : Pr[A] Die Denition von fX jA ist zulassig, da X x 2W X fX jA (x) = Pr["X = x\ \ A] = Pr[A] = 1 : Pr[A] Pr[A] x2 W X X Der Erwartungswert E[X jA] der Zufallsvariablen X jA berechnet sich entsprechend: E[X jA] = DWT c Susanne Albers X x2 W X x fX jA (x) : 4.2 Erwartungswert und Varianz 85/460 Satz 36 Sei X eine Zufallsvariable. Fur paarweise disjunkte Ereignisse A1 ; : : : ; An mit A1 [ : : : [An = und Pr[A1]; : : : ; Pr[An] > 0 gilt E[X ] = n X i=1 E[X jAi ] Pr[Ai ] : S Fur paarweise disjunkte Ereignisse A1 ; A2 ; : : : mit 1 i=1 Ak = und Pr[A1 ], Pr[A2 ]; : : : > 0 gilt analog E[X ] = 1 X i=1 E[X jAi ] Pr[Ai ]; sofern die Erwartungswerte auf der rechten Seite alle existieren und die Summe P1 i=1 jE[X jAi ]j Pr[Ai ] konvergiert. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 86/460 Beweis: E[X ] = = X x2WX n X i=1 x Pr[X = x] = Pr[Ai ] X x2WX X x2 W X x n X i=1 Pr[X = xjAi ] Pr[Ai ] x Pr[X = xjAi ] = n X i=1 Pr[Ai ] E[X jAi ]: Der Beweis fur den unendlichen Fall verlauft analog. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 87/460 Beispiel 37 Wir werfen eine Munze so lange, bis zum ersten Mal Kopf\ erscheint. Dies geschehe " in jedem Wurf unabhangig mit Wahrscheinlichkeit p. Wir denieren dazu die Zufallsvariable X := Anzahl der Wurfe\. Wir haben bereits gesehen, dass " Pr[X = k] = p(1 p)k 1 und damit DWT c Susanne Albers E[X ] = 1 X k=1 k p(1 p)k 1 = p 1 1 (1 (1 p))2 = p : 88/460 Beispiel 37 Andere Berechnungsmethode: (gestutzt auf Satz 36) Deniere das Ereignis K1 := "Im ersten Wurf fallt Kopf\ : Oensichtlich gilt E[X jK1 ] = 1. Nehmen wir nun an, dass im ersten Wurf nicht Kopf\ gefallen ist. Wir starten das " Experiment neu. DWT c Susanne Albers 88/460 Beispiel 37 Sei X 0 die Anzahl der Wurfe bis zum ersten Auftreten von Kopf\ im neu gestarteten " Experiment. Wegen der Gleichheit der Experimente gilt E[X 0 ] = E[X ]. Damit schlieen wir E[X jK 1 ] = 1 + E[X 0 ] = 1 + E[X ] und erhalten mit Satz 36: E[X ] = E[X jK1 ] Pr[K1 ] + E[X jK 1 ] Pr[K 1 ] = 1 p + (1 + E[X ]) (1 p) : Daraus ergibt sich wiederum E[X ] = 1=p. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 88/460 4.2.2 Varianz Wir betrachten die beiden folgenden Zufallsexperimente: 1 Wir w urfeln (mit einem fairen Wurfel), bei gerader Augenzahl erhalten wir 1 Euro, bei ungerader Augenzahl mussen wir 1 Euro bezahlen. 2 Wir w urfeln (mit einem fairen Wurfel), bei 6 Augen erhalten wir 5 Euro, ansonsten mussen wir 1 Euro bezahlen. Beobachtung: In beiden Fallen ist der erwartete Gewinn = 0. Dennoch sind die Schwankungen\ im ersten Fall geringer als im zweiten. " DWT c Susanne Albers 4.2 Erwartungswert und Varianz 89/460 Eine nahe liegende Losung ware, E[jX j] zu berechnen, wobei = E[X ] sei. Dies scheitert jedoch meist an der unhandlichen\ " Betragsfunktion. Aus diesem Grund betrachtet man stattdessen E[(X )2 ], also die quadratische Abweichung vom Erwartungswert. Denition 38 Fur eine Zufallsvariable X mit = E[X ] denieren wir die Varianz Var[X ] durch Var[X ] := E[(X )2 ] = Die Groe := DWT c Susanne Albers X x2WX (x )2 Pr[X = x] : p Var[X ] heit Standardabweichung von X . 4.2 Erwartungswert und Varianz 90/460 Satz 39 Fur eine beliebige Zufallsvariable X gilt Var[X ] = E[X 2 ] E[X ]2 : Beweis: Sei := E[X ]. Nach Denition gilt Var[X ] = E[(X )2 ] = E[X 2 2 X + 2 ] X = (x2 2 x + 2 ) Pr[X = x] = x2WX X x2WX x2 Pr[X = x] = E[X 2 ] = E[X 2 ] DWT c Susanne Albers X x2WX 2 x Pr[X = x] + 2 E[X ] + 2 E[X ]2 : 4.2 Erwartungswert und Varianz X x 2W X 2 Pr[X = x] 91/460 Beispiel 40 1 Wir wurfeln (mit einem fairen Wurfel), bei gerader Augenzahl erhalten wir 1 Euro, bei ungerader Augenzahl mussen wir 1 Euro bezahlen. Es ist = 0 und Var[X ] = 2 1 12 + 1 ( 1)2 = 1 : 2 2 Wir wurfeln (mit einem fairen Wurfel), bei 6 Augen erhalten wir 5 Euro, ansonsten mussen wir 1 Euro bezahlen. Es ist 1 5 = 0 und Var[X ] = 52 + ( 1)2 = 5 : 6 DWT c Susanne Albers 6 4.2 Erwartungswert und Varianz 92/460 Satz 41 Fur eine beliebige Zufallsvariable X und a; b 2 R gilt Var[a X + b] = a2 Var[X ] : DWT c Susanne Albers 4.2 Erwartungswert und Varianz 93/460 Beweis: Aus der in Satz 33 gezeigten Linearitat des Erwartungswerts folgt E[Y Zusammen mit der Denition der Varianz ergibt sich damit sofort Y Var[ + b] = E[(Y + b E[Y + b])2 ] = E[(Y + b] = E[Y ] + b. E[Y ])2 ] = Var[Y ] : Weiter folgt mit Satz 39: a X ] = E[(aX )2 ] Var[ E[aX ]2 = a2 E[X 2 ] aE[X ])2 = a2 Var[X ] ; ( und daraus zusammen die Behauptung. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 94/460 Der Erwartungswert und die Varianz gehoren zu den so genannten Momenten einer Zufallsvariablen: Denition 42 Fur eine Zufallsvariable X nennen wir E[X k ] das k-te Moment und E[(X das k-te zentrale Moment. E[X ])k ] Der Erwartungswert ist also identisch zum ersten Moment, wahrend die Varianz dem zweiten zentralen Moment entspricht. DWT c Susanne Albers 4.2 Erwartungswert und Varianz 95/460 4.3 Mehrere Zufallsvariablen Beispiel 43 Aus einem Skatblatt mit 32 Karten ziehen wir zufallig eine Hand von zehn Karten sowie einen Skat von zwei Karten. Unter den Karten gibt es vier Buben. Die Zufallsvariable X zahlt die Anzahl der Buben in der Hand, wahrend Y die Anzahl der Buben im Skat angibt. Die Werte von X und Y hangen oensichtlich stark voneinander ab. Beispielsweise muss Y = 0 sein, wenn X = 4 gilt. Wie kann man mit mehreren Zufallsvariablen uber demselben Wahrscheinlichkeitsraum rechnen, auch wenn sie, wie im obigen Beispiel, sehr voneinander abhangig sind? Wir untersuchen Wahrscheinlichkeiten der Art Pr[X = x; Y = y] = Pr[f!; X (!) = x; Y (!) = yg] : DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 96/460 Beispiel 44 Wenn wir nur die Zufallsvariable X betrachten, so gilt fur 0 x 4 Pr[X = x] = 4 28 : 32 10 x 10 x Allgemein nennt man Zufallsvariablen mit der Dichte Pr[X = x] = b a x r x a+b r hypergeometrisch verteilt. Durch diese Dichte wird ein Experiment modelliert, bei dem r Elemente ohne Zurucklegen aus einer Grundmenge der Machtigkeit a + b mit b besonders ausgezeichneten Elementen gezogen werden. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 97/460 Beispiel 44 (Forts.) Die Zufallsvariable Y ist fur sich gesehen ebenfalls hypergeometrisch verteilt mit b = 4, a = 28 und r = 2. Fur X und Y zusammen gilt jedoch z.B. Pr[X = 4; Y = 1] = 0; und allgemein Pr[X = x; Y = y] = 4 28 4 x 28 (10 x) y 2 y : 32 22 10 2 x 10 x Bemerkung: Die Schreibweise Pr[X = x; Y = y] stellt eine Abkurzung von Pr["X = x ^ Y = y\ ] dar. Ein anderes Beispiel ist p Pr[X x; Y y1 ; Y = y2 ] : DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 98/460 Die Funktion fX;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y . Aus der gemeinsamen Dichte fX;Y kann man ableiten fX (x) = X y 2W Y fX;Y (x; y) bzw. fY (y) = X x 2W X fX;Y (x; y) : Die Funktionen fX und fY nennt man Randdichten. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 99/460 Die Ereignisse Y " es gilt daher = y\ bilden eine Partitionierung des Wahrscheinlichkeitsraumes, und Pr[X = x] = X y2WY Pr[X = x; Y = y] = fX (x) : Die Dichten der einzelnen Zufallsvariablen entsprechen also genau den Randdichten. Fur zwei Zufallsvariablen deniert man die gemeinsame Verteilung FX;Y (x; y) = Pr[X x; Y y] = Pr[f!; X (!) x; Y (!) yg] X X = fX;Y (x0 ; y0 ) : x0 x y0 y DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 100/460 Die Randverteilung ergibt sich gema FX (x) = sowie DWT c Susanne Albers FY (y) = X x0 x X y0 y fX (x0 ) = fY (y0 ) = X X x0 x y2WY X X y0 y x2WX 4.3 Mehrere Zufallsvariablen fX;Y (x0 ; y) fX;Y (x; y0 ) : 101/460 4.3.1 Unabhangigkeit von Zufallsvariablen Denition 45 Die Zufallsvariablen X1 ; : : : ; Xn heien unabhangig, wenn fur alle (x1 ; : : : ; xn ) 2 WX1 : : : WXn gilt Pr[X1 = x1 ; : : : ; Xn = xn ] = Pr[X1 = x1 ] : : : Pr[Xn = xn ] : Alternativ: fX1 ;:::;Xn (x1 ; : : : ; xn ) = fX1 (x1 ) : : : fXn (xn ) : Bei unabhangigen Zufallsvariablen ist also die gemeinsame Dichte gleich dem Produkt der Randdichten. Ebenso gilt FX1 ;:::;Xn (x1 ; : : : ; xn ) = FX1 (x1 ) : : : FXn (xn ) : DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 102/460 Satz 46 Seien X1 ; : : : ; Xn unabhangige Zufallsvariablen und S1 ; : : : ; Sn beliebige Mengen mit Si WXi . Dann sind die Ereignisse "X1 2 S1\, . . . , "Xn 2 Sn\ unabhangig. Beweis: Pr[X1 2 S1 ; : : : ; Xn 2 Sn ] X X = ::: Pr[X1 = x1 ; : : : ; Xn = xn ] x1 2S1 = Unabh. 0 =@ X xn 2Sn x 1 2S 1 X x1 2S1 ::: X x n 2S n Pr[X1 = x1 ] : : : Pr[Xn = xn ] 1 Pr[X1 = x1 ]A : : : X xn 2Sn ! Pr[Xn = xn ] = Pr[X1 2 S1 ] : : : Pr[Xn 2 Sn ] : DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 103/460 Satz 47 Seien f1 ; : : : ; fn reellwertige Funktionen (fi : R ! R fur i = 1; : : : ; n). Wenn die Zufallsvariablen X1 ; : : : ; Xn unabhangig sind, dann gilt dies auch fur f1 (X1 ); : : : ; fn (Xn ). Beweis: Sei zi 2 Wfi (Xi ) fur i = 1; : : : ; n und Si = fx; fi (x) = zi g. Pr[f1 (X1 ) = z1 ; : : : ; fn (Xn ) = zn ] = Pr[X1 2 S1 ; : : : ; Xn 2 Sn ] = Pr[X1 2 S1 ] : : : Pr[Xn 2 Sn ] = Pr[f1 (X1 ) = z1 ] : : : Pr[fn (Xn ) = zn ] : Unabh. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 104/460 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Wurfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewurfelten Augenzahlen. Fur Z gilt z.B.: Pr[Z = 1] = Pr[;] = 0, Pr[Z = 4] = Pr[f(1; 3); (2; 2); (3; 1)g] = 363 . DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 105/460 Fur die Verteilung der Summe zweier unabhangiger Zufallsvariablen gilt der folgende Satz: Satz 49 Fur zwei unabhangige Zufallsvariablen X und Y sei Z fZ (z ) = DWT c Susanne Albers X x2 W X := X + Y . Es gilt fX (x) fY (z x) : 4.3 Mehrere Zufallsvariablen 106/460 Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass fZ (z ) = Pr[Z = z ] = = = X x 2W X X x 2W X X x 2W X Pr[X + Y = z j X = x] Pr[X = x] Pr[Y = z x] Pr[X = x] fX (x) fY (z x) : P Den Ausdruck x2WX fX (x) fY (z x) aus Satz 49 nennt man in Analogie zu den entsprechenden Begrien bei Potenzreihen auch Faltung oder Konvolution der Dichten fX und fY . DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 107/460 Beispiel (Forts.) Berechne die Dichte von Z =X +Y: Pr[Z = z ] = = X x2WX Pr[X = x] Pr[Y = z x] 6;z 1g 1 Pr[Y = z x] = minfX 1: 6 36 x=1 x=maxf1;z 6g 6 X Fur 2 z 7 erhalten wir Pr[Z = z ] = Und fur 7 < z 12: DWT c Susanne Albers z 1 X 1 = z 1: 36 36 i=1 Pr[Z = z ] = 1336 z : 4.3 Mehrere Zufallsvariablen 108/460 4.3.3 Momente zusammengesetzter Zufallsvariablen Satz 50 (Linearitat des Erwartungswerts) Fur Zufallsvariablen X1 ; : : : ; Xn und X := a1 X1 + + an Xn mit a1 ; : : : ; an 2 R gilt E[X ] = a1 E[X1 ] + + an E[Xn ] : Beweis: E[X ] = = = DWT c Susanne Albers X ! 2 a1 a1 X1 (! ) + : : : + an Xn (! )) Pr[! ] ( X ! 2 X1 (! ) Pr[! ] ! + + an a1 E[X1 ] + : : : + an E[Xn ] : 4.3 Mehrere Zufallsvariablen X ! 2 Xn (! ) Pr[! ] ! 109/460 Beispiel 51 n betrunkene Seeleute torkeln nach dem Landgang in ihre Kojen. Sie haben vollig die Orientierung verloren, weshalb wir annehmen, dass jede Zuordnung der Seeleute zu den n Betten gleich wahrscheinlich ist (genau ein Seemann pro Bett). Wie viele Seeleute liegen im Mittel im richtigen Bett? Die Anzahl der Seeleute im richtigen Bett zahlen wir mit der Zufallsvariablen X , die als Summe der Zufallsvariablen X1 ; : : : ; Xn dargestellt wird, wobei ( Xi := Oenbar gilt X DWT c Susanne Albers 1 falls Seemann i in seinem Bett liegt, 0 sonst. := X1 + + Xn . 110/460 Beispiel 51 Fur die Variablen Xi erhalten wir Pr[Xi = 1] = n1 , da jedes Bett von Seemann i mit gleicher Wahrscheinlichkeit aufgesucht wird. Daraus folgt 1 und somit E[Xi ] = 0 Pr[Xi = 0] + 1 Pr[Xi = 1] = ; n E[X ] = n X i=1 E[Xi ] = n X i=1 1 = 1: n Im Mittel hat also nur ein Seemann sein eigenes Bett aufgesucht. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 110/460 Satz 52 (Multiplikativitat des Erwartungswerts) Fur unabhangige Zufallsvariablen X1 ; : : : ; Xn gilt E[X1 Xn ] = E[X1 ] E[Xn ] : Beweis: Wir beweisen den Fall n = 2. Der allgemeine Fall ist analog. E[X Y ] = X X xy Pr[X = x; Y = y] x2WX y2WY Unabh: X X = = x2WX y2WY X x2WX x Pr[X = x] = E[X ] E[Y ] : DWT c Susanne Albers xy Pr[X = x] Pr[Y = y] X y 2W Y 4.3 Mehrere Zufallsvariablen y Pr[Y = y] 111/460 Dass fur die Gultigkeit von Satz 52 die Unabhangigkeit der Zufallsvariablen wirklich notwendig ist, sieht man beispielsweise am Fall Y = X fur eine Zufallsvariable mit einer von Null verschiedenen Varianz. Dann gilt E[X Y ] = E[X 2 ] 6= (E[X ])2 = E[X ] E[Y ] : DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 112/460 Denition 53 Zu einem Ereignis A heit die Zufallsvariable ( IA := 1 falls A eintritt; 0 sonst Indikatorvariable des Ereignisses A. Beobachtung: Fur die Indikatorvariable IA gilt nach Denition E[IA ] = 1 Pr[A] + 0 Pr[A] = Pr[A] : Ebenso gilt E[IA : : : IAn ] = Pr[A1 \ : : : \ An ]; 1 da das Produkt von Indikatorvariablen genau dann gleich 1 ist, wenn alle entsprechenden Ereignisse eintreten. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 113/460 Beispiel (Forts.) Wir betrachten wieder das Beispiel der total betrunkenen Matrosen. Sei Ai das Ereignis, dass der i-te Seemann im richtigen Bett liegt. Mit der Notation der Indikatorvariablen sei Xi = IAi . Dann gilt fur beliebige i; j 2 f1; : : : ; ng, i 6= j : E[Xi Xj ] = E[IAi IAj ] = Pr[Ai \ Aj ] = sowie DWT c Susanne Albers 1 n(n 1) ; E[Xi2 ] = 02 Pr[Ai ] + 12 Pr[Ai ] = Pr[Ai ] = 1=n: 4.3 Mehrere Zufallsvariablen 114/460 Beispiel (Forts.) Daraus folgt wegen der Linearitat des Erwartungswerts fur X E[X 2 ] = 2 3 n n X X X E 4 Xi2 + Xi Xj 5 i=1 = X1 + + Xn : i=1 j 6=i = n n1 + n(n 1) n(n1 1) = 2 : Fur die Varianz erhalten wir somit den Wert Var[X ] = E[X 2 ] E[X ]2 = 2 1 = 1: DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 115/460 Einfacher Beweis fur Satz 9 mit Hilfe von Indikatorvariablen: Zur Erinnerung: Satz 9 (Siebformel, Prinzip der Inklusion/Exklusion) Fur Ereignisse A1 ; : : : ; An (n 2) gilt: " Pr n [ i=1 # Ai = n X i=1 + ( 1)l +( DWT c Susanne Albers Pr[Ai ] 1 X 1i1 <i2 n X Pr[Ai \ Ai ] + : : : 1 2 Pr[Ai \ : : : \ Ail ] + : : : 1 1i1 <:::<il n n 1 1) Pr[A1 \ : : : \ An ] : 4.3 Mehrere Zufallsvariablen 116/460 Beweis: Zur Erinnerung: Zu Ereignissen A1 ; : : : ; An wollen wir die Wahrscheinlichkeit Pr[B ] des Ereignisses B := A1 [ : : : [ An ermitteln. Wir betrachten die Indikatorvariablen Ii := IAi der Ereignisse A1 ; : : : ; An und die Indikatorvariable I des Ereignisses B . Qn B Das Produkt i=1 (1 Ii ) ist genau dann gleich 1, wenn I1 = : : : = In = 0, d.h. Q wenn B nicht eintritt. Somit gilt IB = ni=1 (1 Ii ) und wir erhalten: IB = 1 X 1in Ii + X 1i1 <i2 n Ii1 Ii2 + : : : + ( 1)n I1 : : : In ; also IB = 1 IB X = Ii 1in DWT c Susanne Albers X 1i1 <i2 n Ii1 Ii2 + : : : + ( 1)n 1 I1 : : : In : 117/460 Beweis: Wegen der Eigenschaften von Indikatorvariablen gilt Pr[B ] = 1 Pr[B ] = 1 E[IB ]: Mit Hilfe von Satz 50 verteilen\ wir den Erwartungswert auf die einzelnen Produkte " von Indikatorvariablen. Wenn wir nun E[Ii ] durch Pr[Ai ] und allgemein E[Ii1 : : : Iik ] durch Pr[Ai1 \ : : : \ Aik ] ersetzen, haben wir Satz 9 (dieses Mal vollstandig) bewiesen. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 117/460 Satz 54 Fur unabhangige Zufallsvariablen X1 ; : : : ; Xn und X := X1 + : : : + Xn gilt Var[X ] = Var[X1 ] + : : : + Var[Xn ] : Beweis: Wir betrachten nur den Fall n = 2 mit den Zufallsvariablen X und Y . E[(X + Y )2 ] = E[X 2 + 2XY + Y 2 ] = E[X 2 ] + 2E[X ]E[Y ] + E[Y 2 ] E[X + Y ]2 = (E[X ] + E[Y ])2 = E[X ]2 + 2E[X ]E[Y ] + E[Y ]2 Wir ziehen die zweite Gleichung von der ersten ab und erhalten E[(X + Y )2 ] E[X + Y ]2 = E[X 2 ] E[X ]2 + E[Y 2 ] Mit Hilfe von Satz 39 folgt die Behauptung. DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen E[Y ]2 : 118/460 Fur abhangige Zufallsvariablen X1 ; : : : ; Xn gilt Satz 54 im Allgemeinen nicht. Als Beispiel funktioniert wiederum der Fall X = Y : Var[X + Y ] = 0 6= 2 Var[X ] = Var[X ] + Var[Y ] : DWT c Susanne Albers 4.3 Mehrere Zufallsvariablen 119/460 5. Wichtige diskrete Verteilungen Wir diskutieren nun einige wichtige diskrete Verteilungen. Bei diesen Verteilungen handelt es sich um Funktionen, die von gewissen Parametern abhangen. Eigentlich betrachten wir also immer eine ganze Familie von ahnlichen Verteilungen. DWT c Susanne Albers 5.0 Mehrere Zufallsvariablen 120/460 5.1 Bernoulli-Verteilung Eine Zufallsvariable X mit WX = f0; 1g und der Dichte ( fX (x) = p 1 fur x = 1; p fur x = 0: heit Bernoulli-verteilt. Den Parameter p nennen wir Erfolgswahrscheinlichkeit. Eine solche Verteilung erhalt man z.B. bei einer einzelnen Indikatorvariablen. Es gilt mit q := 1 p E[X ] = p und Var[X ] = pq; wegen E[X 2 ] = p und Var[X ] = E[X 2 ] E[X ]2 = p p2 . DWT c Susanne Albers 5.1 Bernoulli-Verteilung 121/460 Der Name der Bernoulli-Verteilung geht zuruck auf den Schweizer Mathematiker Jakob Bernoulli (1654{1705). Wie viele andere Mathematiker seiner Zeit hatte auch Bernoulli nach dem Wunsch seines Vaters ursprunglich Theologe werden sollen. Sein Werk ars conjectandi stellt eine der ersten Arbeiten dar, die sich mit dem Teil der Mathematik beschaftigen, den wir heute als Wahrscheinlichkeitstheorie bezeichnen. DWT c Susanne Albers 5.1 Bernoulli-Verteilung 122/460 5.2 Binomialverteilung Eine Bernoulli-verteilte Zufallsvariable entspricht der Verteilung einer Indikatorvariablen. Haug betrachtet man jedoch Summen von Indikatorvariablen. Denition 55 Sei X := X1 + : : : + Xn als Summe von n unabhangigen, Bernoulli-verteilten Zufallsvariablen mit gleicher Erfolgswahrscheinlichkeit p deniert. Dann heit X binomialverteilt mit den Parametern n und p. In Zeichen schreiben wir X Bin(n; p) : DWT c Susanne Albers 5.2 Binomialverteilung 123/460 Es gilt WX = f0; : : : ; ng. Die Binomialverteilung besitzt die Dichte fX (x) := b(x; n; p) = n x n pq x x mit q := 1 p. Da die Binomialverteilung eine sehr wichtige Rolle spielt, fuhren wir fur die Dichtefunktion die Abkurzung b(x; n; p) ein. Mit den Satzen uber Erwartungswert und Varianz von Summen unabhangiger Zufallsvariablen erhalten wir sofort E[X ] = np und Var[X ] = npq : DWT c Susanne Albers 5.2 Binomialverteilung 124/460 0,4 b(x; 0,4 10; 0:1) 0,3 0,3 0,2 0,2 0,1 0,1 0,0 0 1 2 3 4 5 0,4 6 b(x; 7 8 9 10 0,0 0,3 0,2 0,2 0,1 0,1 0 1 2 3 4 5 6 7 8 0 1 0,4 10; 0:7) 0,3 0,0 b(x; 9 10 0,0 2 b(x; 0 1 2 10; 0:4) 3 4 5 6 7 8 9 10 5 6 7 8 9 10 10; 0:9) 3 4 Dichte der Binomialverteilung DWT c Susanne Albers 5.2 Binomialverteilung 125/460 Satz 56 Wenn X Bin(nx; p) und Y Bin(ny ; p) unabhangig sind, dann gilt fur Z := X + Y , dass Z Bin(nx + ny ; p). Beweis: Die Aussage folgt sofort, wenn man gema der Denition der Binomialverteilung X und Y als Summen von Indikatorvariablen darstellt. Z ist dann oensichtlich wieder eine Summe von unabhangigen Indikatorvariablen. DWT c Susanne Albers 5.2 Binomialverteilung 126/460 5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum Erfolg geometrisch verteilt. Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte fX (i) = pqi 1 fur i 2 N : Fur Erwartungswert und Varianz geometrisch verteilter Zufallsvariablen gilt E[X ] = DWT c Susanne Albers 1 und Var[X ] = q : p2 p 5.3 Geometrische Verteilung 127/460 Es gilt E[X ] = Ferner ist 1 X i=1 i pqi 1 E[X 2 ] = 1 X i=1 =p 1 X i=1 = p p23 DWT c Susanne Albers i=1 i qi 1 = p 1 1 (1 q)2 = p : i2 pqi 1 =p und damit 1 X i(i + 1) qi 1 1 = 2 p; p2 p2 1 X i=1 i qi 1 ! Var[X ] = pq2 : 5.3 Geometrische Verteilung 128/460 0,8 p = 0;8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 0,8 7 p 8 9 10 = 0;4 0,0 0,6 0,4 0,4 0,2 0,2 1 2 3 4 5 6 7 8 1 2 3 4 5 6 0,8 0,6 0,0 p 9 10 0,0 7 p 1 2 3 4 5 6 7 = 0;6 8 9 10 9 10 = 0;2 8 Dichte der geometrischen Verteilung DWT c Susanne Albers 5.3 Geometrische Verteilung 129/460 Sei X wieder geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binaren Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhangigen Wiederholung das erste Mal erfolgreich sind. Wie gro ist die Wahrscheinlichkeit Pr[X > y + x j X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das eigentliche\ Experiment erst ab dem (x + 1)-ten Versuch beginnt. Die Zeit bis zum " ersten Erfolg bei diesem neuen Experiment nennen wir X 0 . Damit X > y + x gilt, muss X 0 > y gelten. Es ist intuitiv, dass X 0 wieder geometrisch verteilt ist mit Erfolgswahrscheinlichkeit p, dass also fur x; y 2 N gilt: Pr[X > y + x j X > x] = Pr[X 0 > y]: DWT c Susanne Albers 5.3 Geometrische Verteilung (6) 130/460 Formal gilt Pr[X > x] = 1 X (1 p)i 1 p = (1 p)x p i=x+1 1 X i=0 (1 p)i = (1 p)x p 1 (11 p) = (1 p)x ; sowie > y + x; X > x] Pr[X > y + x j X > x] = Pr[X Pr[ X > x] X > y + x] = Pr[Pr[ X > x] = (1 p)y+x (1 p) x = (1 p)y = Pr[X > y] : DWT c Susanne Albers 5.3 Geometrische Verteilung 131/460 Diese Eigenschaft nennt man Gedachtnislosigkeit, da eine geometrisch verteilte Zufallsvariable gewissermaen vergisst, dass sie schon x Misserfolge hinter sich hat und sich deshalb zum Zeitpunkt y + x genauso verhalt wie ursprunglich zur Zeit y . DWT c Susanne Albers 5.3 Geometrische Verteilung 132/460 Warten auf den n-ten Erfolg. Wir betrachten n unabhangige Zufallsvariablen X1 ; : : : ; Xn , die jeweils geometrisch verteilt sind mit Parameter p, und bestimmen die Dichte der Zufallsvariablen Z := X1 + + Xn . Damit bezeichnet Z also die Anzahl der Versuche bis zum n-ten erfolgreichen Experiment (einschlielich). Falls Z = z ist, so werden also genau n erfolgreiche und z n nicht erfolgreiche Experimente durchgefuhrt. Dafur gibt es genau nz 11 Moglichkeiten, von denen jede mit Wahrscheinlichkeit pn (1 p)z n eintritt. Es gilt also z 1 fZ (z ) = n 1 pn(1 p)z n : Die Zufallsvariable Z nennt man negativ binomialverteilt mit Ordnung n. DWT c Susanne Albers 5.3 Geometrische Verteilung 133/460 Das Coupon-Collector-Problem In manchen Branchen legen Firmen den Verpackungen ihrer Produkte oft kleine Bilder oder andere Gegenstande bei, um den Kaufer zum Sammeln anzuregen. Wenn es insgesamt n verschiedene solche Beilagen gibt, wie viele Packungen muss man im Mittel erwerben, bis man eine vollstandige Sammlung besitzt? Hierbei nehmen wir an, dass bei jedem Kauf jede Beilage mit gleicher Wahrscheinlichkeit auftritt. Bezeichne X die Anzahl der zu tatigenden Kaufe und Phase i die Schritte vom Erwerb der (i 1)-ten Beilage (ausschlielich) bis zum Erwerb der i-ten Beilage (einschlielich). DWT c Susanne Albers 5.3 Geometrische Verteilung 134/460 Sei etwa n = 4, und seien die Beilagen mit den Zahlen 1; 2; 3; 4 identiziert. Ein Experiment ist z.B.: 2 ; |{z} 2; 1 ; 2| ;{z2; 3}; 1| ; 3; 2{z; 3; 1; 4} |{z} 1 2 3 4 : Beobachtung: Phase i endet genau dann, wenn wir eine der n i + 1 Beilagen erhalten, die wir noch nicht besitzen. Somit ist Xi geometrisch verteilt mit Parameter p = n ni+1 und es gilt E[Xi ] = n ni+1 . DWT c Susanne Albers 5.3 Geometrische Verteilung 135/460 Damit folgt aber sofort E[X ] = = n X i=1 n X E[Xi ] n n i+1 i=1 =n n X i=1 1 =nH ; n i P wobei Hn := ni=1 1i die n-te harmonische Zahl bezeichnet. Da Hn = ln n + O(1), folgt E[X ] = n ln n + O(n). DWT c Susanne Albers 5.3 Geometrische Verteilung 136/460 5.4 Poisson-Verteilung Die Poisson-Verteilung kann verwendet werden, um die Anzahl von Ereignissen zu modellieren, welche mit konstanter Rate und unabhangig voneinander in einem Zeitintervall auftreten. Eine Poisson-verteilte Zufallsvariable X mit dem Parameter 0 hat den Wertebereich WX = N0 und besitzt die Dichte fX (i) = e i fur i 2 N0 : i! fX ist eine zulassige Dichte, da 1 X i=0 DWT c Susanne Albers 1 X e i i! i=0 = e e = 1 : fX (i) = 5.4 Poisson-Verteilung 137/460 Fur den Erwartungswert erhalten wir E[X ] = 1 X i=0 = e = e = e DWT c Susanne Albers i e i i! 1 X i 1 (i 1)! i=1 1 i X i! i=0 e = : 5.4 Poisson-Verteilung 138/460 Da E[X (X 1)] = 1 X i=0 i(i 1) = 2 e = 2 e = 2 e 1 X e i i! i 2 (i 2)! i=2 1 i X i! i=0 e = 2 und E[X (X 1)] + E[X ] E[X ]2 = E[X 2 ] E[X ] + E[X ] E[X ]2 = Var[X ] ; DWT c Susanne Albers 5.4 Poisson-Verteilung 139/460 folgt Var[X ] = E[X (X 1)] + E[X ] E[X ]2 = 2 + 2 = : (7) Dafur, dass eine Zufallsvariable X Poisson-verteilt mit Parameter ist, schreiben wir auch X Po(). DWT c Susanne Albers 5.4 Poisson-Verteilung 140/460 Po(0;5) 0,6 0,5 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0,1 0,1 0,0 0 1 2 3 4 5 6 7 8 9 10 Po(2) 0,6 0,0 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0,1 0,1 0 2 4 6 8 0 1 2 3 4 5 6 10 0,0 7 8 9 10 9 10 Po(5) 0,6 0,5 0,0 Po(1) 0,6 0 1 2 3 4 5 6 7 8 Dichte der Poisson-Verteilung DWT c Susanne Albers 5.4 Poisson-Verteilung 141/460 5.4.1 Poisson-Verteilung als Grenzwert der Binomialverteilung Wir betrachten eine Folge von binomialverteilten Zufallsvariablen Xn mit Xn Bin(n; pn ), wobei pn = =n. Fur ein beliebiges k mit 0 k n ist die Wahrscheinlichkeit, dass Xn den Wert k annimmt, gleich n pkn (1 k k k = (n kp!n ) nnk k nk = k! nk 1 b(k; n; pn ) = DWT c Susanne Albers pn ) n k (1 pn) k (1 pn)n n k 5.4 Poisson-Verteilung 1 n n : 142/460 Wir betrachten nun n ! 1 und erinnern uns, dass k lim n = 1; n!1 nk lim (1 n ) k = 1; und n!1 n lim (1 ) = e : n!1 n Damit folgt k n k (1 p )n k = e : lim b ( k ; n; p ) = lim p n n n n!1 n!1 k k! DWT c Susanne Albers 5.4 Poisson-Verteilung 143/460 Die Wahrscheinlichkeit b(k; n; pn ) konvergiert also fur n ! 1 gegen die Wahrscheinlichkeit, dass eine Poisson-verteilte Zufallsvariable mit Parameter den Wert k annimmt. Insgesamt folgt somit, dass die Verteilung einer Zufallsvariablen X Bin(n; =n) sich fur n ! 1 der Poisson-Verteilung Po() annahert. DWT c Susanne Albers 5.4 Poisson-Verteilung 144/460 Vergleich von Binomial- und Poisson-Verteilung DWT c Susanne Albers 5.4 Poisson-Verteilung 145/460 Ist also n im Vergleich zu hinreichend gro, so kann man die Poisson-Verteilung als Approximation der Binomialverteilung verwenden. Diese Tatsache wird manchmal auch als Gesetz seltener Ereignisse bezeichnet, da die Wahrscheinlichkeit eines einzelnen Treers pn = =n relativ klein sein muss, wenn die Approximation gute Ergebnisse liefern soll. DWT c Susanne Albers 5.4 Poisson-Verteilung 146/460 Die folgenden Voraussetzungen mussen erfullt sein, damit die Annahme der Poisson-Verteilung gerechtfertigt ist: Die Ereignisse treten nie zur gleichen Zeit auf. Die Wahrscheinlichkeit, dass ein Ereignis in einem (kleinen) Zeitintervall auftritt, ist proportional zur Lange des Intervalls. Die Anzahl der Ereignisse in einem festen Zeitintervall hangt nur von dessen Lange ab, nicht aber von der Lage auf der Zeitachse. Wenn man zwei disjunkte Zeitintervalle betrachtet, so sind die Anzahlen der Ereignisse in diesen Zeitraumen voneinander unabhangig. DWT c Susanne Albers 5.4 Poisson-Verteilung 147/460 Beispiel 58 Wir wollen wissen, wie oft eine bestimmte Gegend im Durchschnitt von einer Naturkatastrophe (z.B. Vulkanausbruch) getroen wird. Aus Statistiken entnehmen wir, dass so ein Ereignis im Mittel 10 4 -mal pro Jahr auftritt. Wir interessieren uns nun fur die Wahrscheinlichkeit, dass die Region in einem Jahr mehr als einmal von einem solchen Ungluck heimgesucht wird. Die Voraussetzungen scheinen erfullt zu sein, die Anzahl X der Katastrophen durch eine Poisson-Verteilung mit Parameter = 10 4 zu modellieren. Damit gilt Pr[X 2] = 1 Pr[X = 0] Pr[X = 1] = 1 e e 1 0;999900005 0;000099990 = 5 10 9: DWT c Susanne Albers 5.4 Poisson-Verteilung 148/460 Summe von Poisson-verteilten Zufallsvariablen Satz 59 Sind X und Y unabhangige Zufallsvariablen mit X Z := X + Y DWT c Susanne Albers Po() und Y Po(), dann gilt Po( + ) : 5.4 Poisson-Verteilung 149/460 Beweis: fZ (z ) = 1 X x=0 fX (x) fY (z x) = z (+) ( + ) = e z! = z X z X e x=0 x!(z x=0 z X z! z x x! ez z x ( x)! x x)! + 1 e (+) ( + )z px (1 z ! x=0 x z x + p)z x ; wobei p := + . Da die Summe gleich 1 ist, folgt 1 fZ (z ) = e (+) ( + )z : z! DWT c Susanne Albers 5.4 Poisson-Verteilung 150/460 Erlauterungen und Beispiele zur Poisson-Verteilung In der Wikipedia nden sich ein paar weitere Details und Beispiele. Eine Anwendung der Poisson-Verteilung auf die Fuball-Bundesliga wird in einem Artikel prasentiert, der im Spektrum der Wissenschaft, Heft Juni 2010, erschienen ist. DWT c Susanne Albers 5.4 Poisson-Verteilung 151/460 6. Abschatzen von Wahrscheinlichkeiten 6.1 Die Ungleichungen von Markov und Chebyshev Satz 60 (Markov-Ungleichung) Sei X eine Zufallsvariable, die nur nicht-negative Werte annimmt. Dann gilt fur alle t 2 R mit t > 0, dass Aquivalent dazu: DWT c Susanne Albers Pr[X t] E[tX ] : Pr[X t E[X ]] 1=t : 6.1 Die Ungleichungen von Markov und Chebyshev 152/460 Beweis: t Pr[X t] = t X x2WX ; xt X x 2W X ; x t X x 2W X Pr[X = x] x Pr[X = x] x Pr[X = x] = E[X ] : DWT c Susanne Albers 6.1 Die Ungleichungen von Markov und Chebyshev 153/460 Alternativer Beweis: Es gilt E[X ] = E[X jX < t] Pr[X < t] + E[X jX t] Pr[X t] : Wegen E[X jX < t] Pr[X < t] 0 und E[X jX t] t folgt sofort E[X ] t Pr[X t] : DWT c Susanne Albers 6.1 Die Ungleichungen von Markov und Chebyshev 154/460 Die Markov-Ungleichung ist nach Andrey Andreyevich Markov (1856{1922) benannt, der an der Universitat von St. Petersburg bei Chebyshev studierte und spater dort arbeitete. Neben seiner mathematischen Tatigkeit el Markov durch heftige Proteste gegen das Zaren-Regime auf, und nur sein Status als vermeintlich harmloser Akademiker schutzte ihn vor Repressalien durch die Behorden. Im Jahr 1913 organisierte er parallel zum dreihundertjahrigen Geburtstag der Zarenfamilie Romanov eine Feier zum zweihundertjahrigen Geburtstag des Gesetzes der groen Zahlen (s.u.). DWT c Susanne Albers 6.1 Die Ungleichungen von Markov und Chebyshev 155/460 Die folgende Abschatzung ist nach Pavnuty Lvovich Chebyshev (1821{1894) benannt, der ebenfalls an der Staatl. Universitat in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable, und sei t 2 R mit t > 0. Dann gilt X] Pr[jX E[X ]j t] Var[ : 2 t Aquivalent dazu: DWT c Susanne Albers p Pr[jX E[X ]j t Var[X ]] 1=t2 : 6.1 Die Ungleichungen von Markov und Chebyshev 156/460 Beweis: Wir stellen fest, dass Pr[jX E[X ]j t] = Pr[(X E[X ])2 t2 ] : Setze Y := (X E[X ])2 : Dann gilt E[Y ] = Var[X ], und damit mit der Markov-Ungleichung: X] Pr[jX E[X ]j t] = Pr[Y t2 ] Et[Y2 ] = Var[ : 2 t DWT c Susanne Albers 6.1 Die Ungleichungen von Markov und Chebyshev 157/460 Beispiel 62 Wir werfen 1000-mal eine faire Munze und ermitteln die Anzahl X der Wurfe, in denen Kopf\ fallt. " X ist binomialverteilt mit X Bin(1000; p = 12 ), also gilt 1 2 1 4 E[X ] = n = 500 und Var[X ] = n = 250: Wie gro ist die Wahrscheinlichkeit, dass mehr als 550-mal Kopf\ fallt? " DWT c Susanne Albers 158/460 Beispiel 62 Chebyshev-Ungleichung: Pr[X 550] Pr[jX 500j 50] 250 502 = 0;1 : Setze nun n = 10000 und betrachte wieder eine maximal 10%-ige Abweichung vom Erwartungswert: E[X ] = 5000 und Var[X ] = 2500, und damit Pr[X 5500] Pr[jX 5000j 500] 2500 5002 = 0;01 : DWT c Susanne Albers 6.1 Die Ungleichungen von Markov und Chebyshev 158/460 6.2 Gesetz der groen Zahlen Wir haben diskutiert, wie Wahrscheinlichkeiten als Grenzwerte von relativen Haugkeiten aufgefasst werden konnen. Satz 63 (Gesetz der groen Zahlen) Gegeben sei eine Zufallsvariable X . Ferner seien "; > 0 beliebig aber fest. Dann gilt X] fur alle n Var[ "2 : Sind X1 ; : : : ; Xn unabhangige Zufallsvariablen mit derselben Verteilung wie X und setzt man X + : : : + Xn Z := 1 ; so gilt DWT c Susanne Albers n Pr[jZ E[X ]j ] ": 6.2 Gesetz der groen Zahlen 159/460 Beweis: Fur Z gilt 1 1 E[Z ] = (E[X1 ] + : : : + E[Xn ]) = n E[X ] = E[X ]; n n sowie Var[Z ] = n12 (Var[X1 ] + : : : + Var[Xn ]) = n12 n Var[X ] = Var[nX ] : Mit der Chebyshev-Ungleichung erhalten wir Z ] Var[X ] Pr[jZ E[X ]j ] = Pr[jZ E[Z ]j ] Var[ = n2 "; 2 nach Wahl von n. DWT c Susanne Albers 6.2 Gesetz der groen Zahlen 160/460 Wahrscheinlichkeit und relative Haugkeit. Sei X eine Indikatorvariable fur ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E[X ] = p. Z = n1 (X1 + : : : + Xn ) gibt die relative Haugkeit an, mit der A bei n Wiederholungen des Versuchs eintritt, denn Z= Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Pr[jZ pj ] "; fur genugend groes n. Also nahert sich die relative Haugkeit von A bei hinreichend vielen Wiederholungen des Experiments mit beliebiger Sicherheit beliebig nahe an die wahre\ Wahrscheinlichkeit p an. " DWT c Susanne Albers 6.2 Gesetz der groen Zahlen 161/460 Die obige Variante eines Gesetzes der groen Zahlen geht auf Jakob Bernoulli zuruck, der den Satz in seinem Werk ars conjectandi zeigte. Es soll betont werden, dass das Gesetz der groen Zahlen die P relative Abweichung j 1 Xi pj i n und nicht die absolute Abweichung j P i Xi npj abschatzt! DWT c Susanne Albers 6.2 Gesetz der groen Zahlen 162/460 6.3 Cherno-Schranken 6.3.1 Cherno-Schranken fur Summen von 0{1{Zufallsvariablen Die hier betrachtete Art von Schranken ist nach Herman Cherno ( 1923) benannt. Sie nden in der komplexitatstheoretischen Analyse von Algorithmen eine sehr hauge Verwendung. Satz 64 Seien X1 ; : : : ; Xn unabhangige Bernoulli-verteilte Zufallsvariablen mit Pr[P Xi = 1] = pi P und Pr[Xi = 0] = 1 pi . Dann gilt fur X := ni=1 Xi und := E[X ] = ni=1 pi , sowie jedes > 0, dass Pr[X (1 + )] DWT c Susanne Albers e (1 + )1+ 6.3 Cherno-Schranken : 163/460 Beweis: Fur t > 0 gilt Pr[X (1 + )] = Pr[etX et(1+) ] : Mit der Markov-Ungleichung folgt [etX ] : Pr[X (1 + )] = Pr[etX et(1+) ] Et(1+ ) e Wegen der Unabhangigkeit der Zufallsvariablen X1 ; : : : ; Xn gilt " E[etX ] = E exp n X i=1 Weiter ist fur i 2 f1; : : : ; ng: E[etXi ] = et1 pi + et0 (1 DWT c Susanne Albers !# tXi " =E n Y i=1 # etXi = n Y i=1 E[etXi ]: pi ) = et pi + 1 pi = 1 + pi (et 1) ; 164/460 Beweis (Forts.): und damit Pr[X (1 + )] = Qn t i=1 (1 + pi (e et(1+) Qn t i=1 exp(pi (e et(1+) Pn exp( i=1 pi (et et(1+) 1)) 1)) 1)) = e(et 1) et(1+) =: f (t) : Wir wahlen nun t so, dass f (t) minimiert wird, namlich t = ln(1 + ) : Damit wird DWT c Susanne Albers e(et 1) e f (t) = t(1+) = : e (1 + )(1+) 6.3 Cherno-Schranken 164/460 Beispiel 65 Wir betrachten wieder das Beispiel, dass wir eine faire Munze n-mal werfen und abschatzen wollen, mit welcher Wahrscheinlichkeit Kopf\ " n 2 (1 + 10%) oder ofter fallt. n 1000 10000 n DWT c Susanne Albers Chebyshev 0;1 0;01 1 4 n (0;1 12 n)2 Cherno 0;0889 0;308 10 e0;1 (1+0;1)1+0;1 6.3 Cherno-Schranken 10 1n 2 165/460 Satz 66 Seien X1 ; : : : ; Xn unabhangige Bernoulli-verteilte Zufallsvariablen mit Pr[P Xi = 1] = pi Pn und Pr[Xi = 0] = 1 pi . Dann gilt fur X := i=1 Xi und := E[X ] = ni=1 pi , sowie jedes 0 < < 1, dass e Pr[X (1 )] (1 )1 : Beweis: Analog zum Beweis von Satz 64. Bemerkung: Abschatzungen, wie sie in Satz 64 und Satz 66 angegeben sind, nennt man auch tail bounds, da sie Schranken fur die tails, also die vom Erwartungswert weit entfernten Bereiche angeben. Man spricht hierbei vom upper tail (vergleiche Satz 64) und vom lower tail (vergleiche Satz 66). Die Cherno-Schranken hangen exponentiell von ab! DWT c Susanne Albers 6.3 Cherno-Schranken 166/460 Lemma 67 Fur 0 < 1 gilt (1 )1 e +2 =2 und (1 + )1+ e+ =3 : Beweis: Wir betrachten 2 1 2 f (x) = (1 x) ln(1 x) und g(x) = x + x2 : Es gilt fur 0 x < 1: sowie g0 (x) = x 1 ln(1 x) 1 = f 0 (x) f (0) = 0 = g(0) ; also im angegebenen Intervall f (x) g (x). Die Herleitung der zweiten Ungleichung erfolgt analog. DWT c Susanne Albers 6.3 Cherno-Schranken 167/460 Korollar 68 Seien X1 ; : : : ; Xn unabhangige Bernoulli-verteilte Zufallsvariablen mit Pr[P Xi = 1] = pi und Pr[Xi = P 0] = 1 pi . Dann gelten folgende Ungleichungen fur X := ni=1 Xi und := E[X ] = ni=1 pi : 2 1 Pr[X (1 + )] e =3 fur alle 0 < 1, 2 2 Pr[X (1 )] e =2 fur alle 0 < 1, 3 4 5 Pr[jX j ] 2e =3 fur alle 0 < 1, (1+) Pr[X (1 + )] 1+e und Pr[X t] 2 t fur t 2e. DWT c Susanne Albers 2 6.3 Cherno-Schranken 168/460 Beweis: 1 und 2 folgen direkt aus Satz 64 bzw. 66 und Lemma 67. Aus 1 und 2 zusammen folgt 3. Die Abschatzung 4 erhalten wir direkt aus Satz 64, da fur den Zahler gilt e e(1+) : 5 folgt aus 4, indem man t = (1 + ) setzt, t 2e: e 1+ DWT c Susanne Albers (1+) e t= t 6.3 Cherno-Schranken t 12 : 169/460 Beispiel 69 Wir betrachten wieder balls into bins und werfen n Balle unabhangig und gleichverteilt in n Korbe. Sei Xi := Anzahl der Balle im i-ten Korb fur i = 1; : : : ; n, sowie X := max1in Xi . Fur die Analyse von Xi (i 2 f1; : : : ; ng beliebig) verwenden wir Aussage 5 von Korollar 68, mit p1 = : : : = pn = n1 , = 1 und t = 2 log n. Es folgt Pr[Xi 2 log n] 1=n2 : Daraus ergibt sich Pr[ X 2 log n] = Pr[X1 2 log n _ : : : _ Xn 2 log n] n 2 n 1 Es gilt also mit Wahrscheinlichkeit 1 DWT c Susanne Albers = 1 n : 1=n, dass X < 2 log n ist. 6.3 Cherno-Schranken 170/460 Literatur: Torben Hagerup, Christine Rub: A guided tour of Cherno bounds Inf. Process. Lett. 33, pp. 305{308 (1990) DWT c Susanne Albers 6.3 Cherno-Schranken 171/460 7. Erzeugende Funktionen 7.1 Einfuhrung Denition 70 Fur eine Zufallsvariable X mit WX Funktion deniert durch GX (s) := N0 ist die (wahrscheinlichkeits-)erzeugende 1 X k=0 Pr[X = k] sk = E[sX ] : Die obige Denition gilt fur allgemeine s 2 R, wir werden uns aber auf s 2 [ konzentrieren. 1; 1] Eine wahrscheinlichkeitserzeugende Funktion ist also die (gewohnliche) erzeugende Funktion der Folge (fi )i2N0 mit fi := Pr[X = i]. DWT c Susanne Albers 7.1 Einfuhrung 172/460 Bei wahrscheinlichkeitserzeugenden Funktionen haben wir kein Problem mit der Konvergenz, da fur jsj < 1 gilt jGX (s)j = DWT c Susanne Albers 1 X Pr[X k=0 1 X k=0 = k] sk Pr[X = k] jsk j 7.1 Einfuhrung 1 X k=0 Pr[X = k] = 1 : 173/460 Beobachtung: Sei Y := X + t mit t 2 N0 . Dann gilt GY (s) = E[sY ] = E[sX +t ] = E[st sX ] = st E[sX ] = st GX (s) : Ebenso lasst sich leicht nachrechnen, dass 1 X 0 GX (s) = k Pr[X = k] sk 1 , also k=1 0 GX (0) = Pr[X = 1], sowie G(i) (0) = Pr[X = i] i!, also X G(i) (0)=i! = Pr[X X DWT c Susanne Albers = i] : 7.1 Einfuhrung 174/460 Satz 71 (Eindeutigkeit der w.e. Funktion) Die Dichte und die Verteilung einer Zufallsvariablen X mit WX wahrscheinlichkeitserzeugende Funktion eindeutig bestimmt. N sind durch ihre Beweis: Folgt aus der Eindeutigkeit der Potenzreihendarstellung. DWT c Susanne Albers 7.1 Einfuhrung 175/460 Bernoulli-Verteilung Sei X eine Bernoulli-verteilte Zufallsvariable mit Pr[X = 0] = 1 p und Pr[X = 1] = p. Dann gilt GX (s) = E[sX ] = (1 p) s0 + p s1 = 1 p + ps : Gleichverteilung auf f0; : : : ; ng Sei X auf f0; : : : ; ng gleichverteilt, d.h. fur 0 k n ist Pr[X = k] = 1=(n + 1). Dann gilt GX (s) = E[sX ] = DWT c Susanne Albers n X 1 sk = sn+1 1 : n+1 (n + 1)(s 1) k=0 7.1 Einfuhrung 176/460 Binomialverteilung Fur X Bin(n; p) gilt nach der binomischen Formel GX (s) = E[sX ] = n X n k p (1 p)n k k=0 k sk = (1 p + ps)n : Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable mit Erfolgswahrscheinlichkeit p. Dann gilt GX (s) = E[sX ] = 1 X k=1 = ps DWT c Susanne Albers p(1 p)k 1 sk 1 X ((1 p)s)k 1 = 1 (1ps p)s : k=1 7.1 Einfuhrung 177/460 Poisson-Verteilung Fur X Po() gilt GX DWT c Susanne Albers (s) = E[sX ] = 1 X k=0 e k k! sk = e 7.1 Einfuhrung +s = e(s 1) : 178/460 Beispiel 72 Sei X binomialverteilt mit X GX (s) = 1 Bin(n; =n), Fur n ! 1 folgt s + n n n = 1 + (sn 1) n ! e(s 1) : Man kann beweisen, dass aus der Konvergenz der wahrscheinlichkeitserzeugenden Funktion die Konvergenz der Verteilung folgt. DWT c Susanne Albers 7.1 Einfuhrung 179/460 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da gilt GX (s) := 1 X k=0 Pr[X = k] sk = E[sX ] ; 1 X 0 GX (1) = k Pr[X = k] = E[X ] : k=1 DWT c Susanne Albers 7.1 Einfuhrung 180/460 Beispiel 73 Sei X binomialverteilt mit X Bin(n; p), also GX (s) = (1 p + ps)n : Dann gilt G0X (s) = n (1 p + ps)n 1 p und somit E[X ] = G0X (1) = np : DWT c Susanne Albers 181/460 Beispiel 73 Ebenso ergibt sich E[X (X 1) : : : (X i + 1)] = G(Xi) (1) ; also etwa Var[X ] = E[X (X 1)] + E[X ] E[X ]2 = G00X (1) + G0X (1) (G0X (1))2 : Andere Momente von X kann man auf ahnliche Art und Weise berechnen. DWT c Susanne Albers 7.1 Einfuhrung 181/460 Momenterzeugende Funktionen Denition 74 Zu einer Zufallsvariablen X ist die momenterzeugende Funktion gema MX (s) := E[eXs ] deniert. Es gilt MX (s) = E[eXs ] = E und fur Zufallsvariablen X mit WX " 1 X # 1 E[X i ] (Xs)i = X si i ! i ! i=0 i=0 N0 MX (s) = E[eXs ] = E[(es )X ] = GX (es ) : DWT c Susanne Albers 7.1 Einfuhrung 182/460 7.2 Summen von Zufallsvariablen Satz 75 (Erzeugende Funktion einer Summe) Fur unabhangige Zufallsvariablen X1 ; : : : ; Xn und die Zufallsvariable Z := X1 + : : : + Xn gilt GZ (s) = GX1 (s) : : : GXn (s) : Ebenso gilt MZ (s) = MX1 (s) : : : MXn (s) : Beweis: Wegen der Unabhangigkeit von X1 ; : : : ; Xn gilt GZ (s) = E[sX1 +:::+Xn ] = E[sX1 ] : : : E[sXn ] = GX1 (s) : : : GXn (s): DWT c Susanne Albers 7.2 Summen von Zufallsvariablen 183/460 Beispiel 76 Seien X1 ; : : : Xk mit Xi Bin(ni ; p) unabhangige Zufallsvariable und Z := X1 + : : : + Xk . Dann gilt GZ (s) = und somit k Y i=1 (1 p + ps)ni = (1 p + ps) Z Bin( k X i=1 Pk i=1 ni ni ; p) (vgl. Satz 56). Seien X1 ; : : : ; Xk Po() unabhangige Zufallsvariablen. Dann folgt fur Z := X1 + : : : + Xk k Y GZ (s) = e(s 1) = ek(s 1) i=1 und somit Z Po(k) (vgl. Satz 59). DWT c Susanne Albers 7.2 Summen von Zufallsvariablen 184/460 7.2.1 Zufallige Summen Wir betrachten die Situation, dass Z := X1 + : : : + XN , wobei N ebenfalls eine Zufallsvariable ist. Satz 77 Seien X1 ; X2 ; : : : unabhangige und identisch verteilte Zufallsvariablen mit der wahrscheinlichkeitserzeugenden Funktion GX (s). N sei ebenfalls eine unabhangige Zufallsvariable mit der wahrscheinlichkeitserzeugenden Funktion GN (s). Dann besitzt die Zufallsvariable Z := X1 + : : : + XN die wahrscheinlichkeitserzeugende Funktion GZ (s) = GN (GX (s)). DWT c Susanne Albers 7.2 Summen von Zufallsvariablen 185/460 Beweis: Nach Voraussetzung ist WN N0. Deshalb folgt mit Satz 36 GZ (s) = = = = 1 X n=0 1 X n=0 1 X n=0 1 X n=0 E[sZ j N = n] Pr[N = n] E[sX +:::+Xn ] Pr[N = n] 1 E[sX ] : : : E[sXn ] Pr[N = n] 1 (GX (s))n Pr[N = n] = E[(GX (s))N ] = GN (GX (s)) : DWT c Susanne Albers 7.2 Summen von Zufallsvariablen 186/460 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B , sowie A1 ; : : : ; An Ereignisse. Die Notation A ] B steht fur A [ B und zugleich A \ B = ; (disjunkte Vereinigung). A1 ] : : : ] An = bedeutet also, dass die Ereignisse A1 ; : : : ; An eine Partition der Ergebnismenge bilden. Pr[;] = 0 0 Pr[A] 1 Pr[A] = 1 Pr[A] A B =) Pr[A] Pr[B ] DWT c Susanne Albers 8.1 Gesetze zum Rechnen mit Ereignissen 187/460 8i 6=Sj : Ai \ APj = ; =) Pr [ n A]= i=1 i Additionssatz n Pr[A ] i i=1 Pr[A [ B ] = Pr[A] + Pr[B ] Pr[A \ B ] Inklusion/Exklusion, allgemeine Form: siehe Satz 9 Sn Pr [ i=1 Ai ] Siebformel Boolesche Ungleichung Pn i=1 Pr[Ai ] Pr[AjB ] = Pr[Pr[AB\B] ] fur Pr[B ] > 0 DWT c Susanne Albers Def. bedingte Ws. 8.1 Gesetze zum Rechnen mit Ereignissen 188/460 B A1 ]P: : : ] An =) Pr[B ] = ni=1 Pr[B jAi ] Pr[Ai ] Satz von der totalen Wahrscheinlichkeit Pr[B ] > 0, B A1 ] : : : ] An =) B jAi ]Pr[Ai ] Pr[Ai jB ] = PniPr[Pr[ B jAi ]Pr[Ai ] Satz von Bayes =1 Pr[A1 \ : : : \ An ] = Pr[A1 ] Pr[A2 jA1 ] Multiplikationssatz : : : Pr[An jA1 \ : : : \ An 1 ] A und B unabhangig () Pr[A \ B ] = Pr[A] Pr[B ] DWT c Susanne Albers Denition Unabhangigkeit 8.1 Gesetze zum Rechnen mit Ereignissen 189/460 8.2 Erwartungswert und Varianz diskreter Zufallsvariablen Sei X eine diskrete Zufallsvariable. Fur Erwartungswert und Varianz gelten die folgenden Formeln (sofern E[X ] und Var[X ] existieren). E[X ] = = Var[X ] = X x 2W X X ! 2 1 X i=1 x Pr[X = x] X (!) Pr[!] Pr[X i]; falls WX N0 Erwartungswert = E[(X E[X ])2 ] = x2WX Pr[X = x] (x E[X ])2 DWT c Susanne Albers P Varianz 8.2 Erwartungswert und Varianz diskreter Zufallsvariablen 190/460 8.3 Gesetze zum Rechnen mit Zufallsvariablen Seien a, b, a1 , . . . , an 2 R, f1 ; : : : ; fn : R ! R. X1 ; : : : ; Xn unabhangig () fur alle (a1 ; : : : ; an ): Pr[X1 = a1 ; : : : ; Xn = an ] = Pr[X1 = a1 ] : : : Pr[Xn = an ] X1 ; : : : ; Xn unabhangig =) f1 (X1 ); : : : ; fn (Xn ) unabhangig E[a X + b] = a E[X ] + b DWT c Susanne Albers 8.3 Gesetze zum Rechnen mit Zufallsvariablen 191/460 X (!) Y (!) fur alle ! 2 =) E[X ] E[Y ] E[X ] = Monotonie des Erwartungswerts Pn i=1 E[X jAi ] Pr[Ai ] Var[X ] = E[X 2 ] E[X ]2 Var[a X + b] = a2 Var[X ] DWT c Susanne Albers 8.3 Gesetze zum Rechnen mit Zufallsvariablen 192/460 E[a1 X1 + : : : + an Xn ] = a1 E[X1 ] + : : : + an E[Xn ] Linearitat des Erwartungswerts X1 ; : : : ; Xn unabhangig =) E[X1 : : : Xn ] = E[X1 ] : : : E[Xn ] Multiplikativitat des Erwartungswerts X1 ; : : : ; Xn unabhangig =) Var[X1 + : : : + Xn ] = Var[X1 ] + : : : + Varianz einer Summe Var[Xn ] DWT c Susanne Albers 8.3 Gesetze zum Rechnen mit Zufallsvariablen 193/460 X 0 =) Pr[X t] E[X ]=t fur t > 0 Markov Pr[jX E[X ]j t] Var[X ]=t2 fur t > 0 Chebyshev siehe Satz 63 Gesetz der groen Zahlen DWT c Susanne Albers 8.3 Gesetze zum Rechnen mit Zufallsvariablen 194/460 Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT c Susanne Albers 1.1 Motivation 195/460 Beispiel 78 Wir betrachten das Szenario: Bei einem Druckerserver kommen Auftrage in einer Warteschlange an, die alle 1=n Zeiteinheiten vom Server abgefragt wird. Der Server nimmt also zu den diskreten Zeitpunkte 1=n; 2=n; 3=n; : : : neue Auftrage entgegen. Durch den Grenzwert n ! 1 verschmelzen\ diese diskreten Zeitpunkte zu einer " kontinuierlichen Zeitachse, und fur die Zufallsvariable T , welche die Zeitspanne bis zum Eintreen des nachsten Auftrags misst, reicht eine diskrete Wertemenge WT nicht mehr aus. DWT c Susanne Albers 1.1 Motivation 196/460 1.2 Kontinuierliche Zufallsvariablen Denition 79 Eine kontinuierliche oder auch stetige Zufallsvariable X und ihr zugrunde liegender kontinuierlicher (reeller) Wahrscheinlichkeitsraum sind deniert durch eine integrierbare Dichte(-funktion) fX : R ! R+ 0 mit der Eigenschaft Z +1 fX (x) d x = 1: 1 S Eine Menge A R, die durch Vereinigung A = k Ik abzahlbar vieler paarweise disjunkter Intervalle beliebiger Art (oen, geschlossen, halboen, einseitig unendlich) gebildet werden kann, heit Ereignis. Ein Ereignis A tritt ein, wenn X einen Wert aus A annimmt. Die Wahrscheinlichkeit von A ist bestimmt durch Z Z Pr[A] = DWT c Susanne Albers A fX (x) d x = X k Ik fX (x) d x: 1.2 Kontinuierliche Zufallsvariablen 197/460 Beispiel 80 (Gleichverteilung) Eine besonders einfache kontinuierliche Dichte stellt die Gleichverteilung auf dem Intervall [a; b] dar. Sie ist deniert durch ( f (x) = 1 b a 0 fur x 2 [a; b], sonst. Analog zum diskreten Fall ordnen wir jeder Dichte fX eine Verteilung oder Verteilungsfunktion FX zu: FX (x) := Pr[X x] = Pr[ft 2 R j t xg] = DWT c Susanne Albers 1.2 Kontinuierliche Zufallsvariablen Z x 1 fX (t) d t: 198/460 Beispiel 81 Die Verteilungsfunktion der Gleichverteilung: F (x) = DWT c Susanne Albers Z x 1 8 > <0 f (t) d t = xb aa > : 1 fur x < a; fur a x b; fur x > b: 1.2 Kontinuierliche Zufallsvariablen 199/460 f (x) 1,4 1,2 1,0 1,0 0,8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 0,0 -0,2 -0,5 F (x) 1,4 1,2 0,0 0,0 0,5 1,0 -0,2 1,5 -0,5 0,0 0,5 1,0 1,5 Gleichverteilung uber dem Intervall [0; 1] DWT c Susanne Albers 1.2 Kontinuierliche Zufallsvariablen 200/460 Beobachtungen:(Eigenschaften der Verteilungsfunktion) FX ist monoton steigend. FX ist stetig. Man spricht daher auch von einer "stetigen Zufallsvariablen\. Es gilt: limx! 1 FX (x) = 0 und limx!1 FX (x) = 1. Jeder (auer an endlich vielen Punkten) dierenzierbaren Funktion F , welche die zuvor genannten Eigenschaften erfullt, konnen wir eine Dichte f durch f (x) = F 0 (x) zuordnen. Es gilt DWT c Susanne Albers Pr[a < X b] = FX (b) FX (a) : 1.2 Kontinuierliche Zufallsvariablen 201/460 Bei den von uns betrachteten Dichten besteht zwischen den Ereignissen a < X " a X b \, a X < b\ und a < X < b\ kein wesentlicher Unterschied, da " " " Z [a;b] DWT c Susanne Albers f (t) d t = Z ]a;b] f (t) d t = Z [a;b[ f (t) d t = 1.2 Kontinuierliche Zufallsvariablen Z ]a;b[ b\, f (t) d t: 202/460 1.3 Kolmogorov-Axiome und -Algebren 1.3.1 -Algebren Denition 82 Sei eine Menge. Eine Menge A P ( ) heit -Algebra uber , wenn folgende Eigenschaften erfullt sind: (E1) 2 A. (E2) Wenn A 2 A, dann folgt A 2 A. S (E3) Fur n 2 N sei An 2 A. Dann gilt auch 1 n=1 An 2 A. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 203/460 Fur jede (endliche) Menge stellt die Menge P ( ) eine -Algebra dar. Fur = R ist die Klasse der Borel'schen Mengen, die aus allen Mengen A R besteht, welche sich durch abzahlbare Vereinigungen und Schnitte von Intervallen (oen, halboen oder geschlossen) darstellen lassen, eine -Algebra. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 204/460 1.3.2 Kolmogorov-Axiome Denition 83 (Wahrscheinlichkeitsraum, Kolmogorov-Axiome) Sei eine beliebige Menge und A eine -Algebra uber . Eine Abbildung Pr[:] : A ! [0; 1] heit Wahrscheinlichkeitsma auf A, wenn sie folgende Eigenschaften besitzt: 1 (W1) Pr[ ] = 1. 2 (W2) A1 ; A2 ; : : : seien paarweise Ereignisse. Dann gilt " disjunkte # 1 1 [ X Pr i=1 Ai = i=1 Pr[Ai ]: Fur ein Ereignis A 2 A heit Pr[A] Wahrscheinlichkeit von A. Ein Wahrscheinlichkeitsraum ist deniert durch das Tupel ( ; A; Pr). DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 205/460 Die in obiger Denition aufgelisteten Eigenschaften eines Wahrscheinlichkeitsmaes wurden von dem russischen Mathematiker Andrei Nikolaevich Kolmogorov (1903{1987) formuliert. Kolmogorov gilt als einer der Pioniere der modernen Wahrscheinlichkeitstheorie, leistete jedoch auch bedeutende Beitrage zu zahlreichen anderen Teilgebieten der Mathematik. Informatikern begegnet sein Name auch im Zusammenhang mit der so genannten Kolmogorov-Komplexitat, einem relativ jungen Zweig der Komplexitatstheorie. Die Eigenschaften in obiger Denition nennt man auch Kolmogorov-Axiome. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 206/460 Lemma 84 Sei ( ; A; Pr) ein Wahrscheinlichkeitsraum. Fur Ereignisse A, B , A1 , A2 , : : : gilt 1 2 3 4 Pr[;] = 0, Pr[ ] = 1. 0 Pr[A] 1. Pr[A] = 1 Pr[A]. Wenn A B , so folgt Pr[A] Pr[B ]. DWT c Susanne Albers 207/460 Lemma 84 5 (Additionssatz) Wenn die Ereignisse A1 ; : : : ; An paarweise disjunkt sind, so folgt " Pr n [ i=1 # Ai = n X i=1 Pr[Ai ]: Fur disjunkte Ereignisse A, B erhalten wir insbesondere Pr[A [ B ] = Pr[A] + Pr[B ]: Fur eine unendliche Menge von paarweise disjunkten Ereignissen A1 ; A2 ; : : : gilt S P1 analog Pr [ 1 A ] = i=1 i i=1 Pr[Ai ]. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 207/460 Beweis: Wenn wir in Eigenschaft (W2) A = und A2 ; A3 ; : : : = ; setzen, so ergibt die P1 1 Eigenschaft, dass Pr[ ] + i=2 Pr[;] = Pr[ ]. Daraus folgt Pr[;] = 0. Regel 2 und Regel 5 gelten direkt nach Denition der Kolmogorov-Axiome und Regel 1. Regel 3 erhalten wir mit Regel 5 wegen 1 = Pr[ ] = Pr[A] + Pr[A]. Fur Regel 4 betrachten wir die disjunkten Ereignisse A und C := B n A, fur die gilt, dass A [ B = A [ C . Mit Regel 5 folgt die Behauptung. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 208/460 1.3.3 Lebesgue-Integrale Eine Funktion f : R ! R heit messbar, falls das Urbild jeder Borel'schen Menge ebenfalls eine Borel'sche Menge ist. Z.B. ist fur jede Borel'sche Menge A die Indikatorfunktion IA : x 7! ( 1 falls x 2 A, 0 sonst messbar. Jede stetige Funktion ist messbar. Auch Summen und Produkte von messbaren Funktionen sind wiederum messbar. Jeder messbaren Funktion kann man ein Integral, das so genannte Lebesgue-Integral, R geschrieben f d , zuordnen. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 209/460 Ist f : R ! R+ 0 eine messbare Funktion, so deniert R Pr : A 7! f IA d eine Abbildung auf den Borel'schen Mengen, die die Eigenschaft (W2) der Kolmogorov-Axiome erfullt. Gilt daher zusatzlich noch Pr[R] = 1, so deniert f auf naturliche Weise einen Wahrscheinlichkeitsraum ( ; A; Pr), wobei = R und A die Menge der Borel'schen Mengen ist. DWT c Susanne Albers 1.3 Kolmogorov-Axiome und -Algebren 210/460 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 1.4.1 Funktionen kontinuierlicher Zufallsvariablen Sei Y := g (X ) mit einer Funktion g : R ! R. Die Verteilung von Y erhalten wir durch FY (y) = Pr[Y y] = Pr[g(X ) y] = Z C fX (t) d t: Hierbei bezeichnet C := ft 2 R j g (t) y g alle reellen Zahlen t 2 R, fur welche die Bedingung Y y\ zutrit. Das Integral uber C ist nur dann sinnvoll deniert, " wenn C ein zulassiges Ereignis darstellt. Aus der Verteilung FY konnen wir durch Dierenzieren die Dichte fY ermitteln. DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 211/460 Beispiel 85 Sei X gleichverteilt auf dem Intervall ]0; 1[. Fur eine Konstante > 0 denieren wir die Zufallsvariable Y := (1=) ln X . FY (y) = Pr[ (1=) ln X y] = Pr[ln X y] = Pr[X e y ] = 1 FX (e y ) ( y f ur y 0; = 1 e 0 sonst: DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 212/460 Beispiel (Forts.) Damit folgt mit fY (y ) = FY0 (y ) sofort ( fY (y) = e 0 y fur y 0; sonst: Eine Zufallsvariable mit einer solchen Dichte fY nennt man exponentialverteilt. DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 213/460 Beispiel 86 Sei X eine beliebige Zufallsvariable. Fur a; b 2 R mit a > 0 denieren wir die Zufallsvariable Y := a X + b. Es gilt FY (y ) = Pr[aX + b y ] = Pr X und somit fY (y) = DWT c Susanne Albers d FY (y ) dy yab FX = y a b ; = d FX ((dy y b)=a) = fX y a b a1 : 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 214/460 Simulation von Zufallsvariablen Unter der Simulation einer Zufallsvariablen X mit Dichte fX versteht man die algorithmische Erzeugung von Zufallswerten, deren Verteilung der Verteilung von X entspricht. Dazu nehmen wir an, dass die zu simulierende Zufallsvariable X eine stetige, im Bildbereich ]0; 1[ streng monoton wachsende Verteilungsfunktion FX besitzt. Weiter nehmen wir an, dass U eine auf ]0; 1[ gleichverteilte Zufallsvariable ist, die wir simulieren konnen. Aus unserer Annahme uber FX folgt, dass es zu FX eine (eindeutige) inverse Funktion F 1 gibt mit FX (F 1 (x)) = x fur alle x 2]0; 1[. X DWT c Susanne Albers X 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 215/460 Sei nun X~ := FX 1 (U ) ; dann gilt Pr[X~ t] = Pr[FX 1 (U ) t] = Pr[U FX (t)] = FU (FX (t)) = FX (t) : DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 216/460 Beispiel 87 Im obigen Beispiel der Exponentialverteilung gilt FX (t) = 1 e t fur t 0, und wir erhalten auf ]0; 1[ die Umkehrfunktion FX 1 (t) = ln(1 t). Also gilt X~ = FX 1 (U ) = ln(1 U ). Statt X~ haben wir im Beispiel die Zufallsvariable oensichtlich dieselbe Verteilung besitzt. DWT c Susanne Albers ln U betrachtet, die aber 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 217/460 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir konnen aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir fur ein festes > 0 denieren X = n Fur X gilt DWT c Susanne Albers () X 2 [n; (n + 1)[ fur n 2 Z: Pr[X = n] = FX ((n + 1)) FX (n) : 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 218/460 1,0 FX (x) FXÆ (x) 0,8 0,6 0,4 0,2 0,0 -3,0 -2,0 -1,0 0,0 1,0 2,0 3,0 Fur ! 0 nahert sich die Verteilung von X der Verteilung von X immer mehr an. DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 219/460 1.4.3 Erwartungswert und Varianz Denition 88 Fur eine kontinuierliche Zufallsvariable X ist der Erwartungswert deniert durch E[X ] = Z 1 1 t fX (t) d t; R sofern das Integral 11 jtj fX (t) d t endlich ist. Fur die Varianz gilt entsprechend Z 1 2 Var[X ] = E[(X E[X ]) ] = (t 1 wenn E[(X E[X ])2 ] existiert. DWT c Susanne Albers E[X ])2 fX (t) d t; 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 220/460 Lemma 89 Sei X eine kontinuierliche Zufallsvariable, und sei Y := g(X ) : Dann gilt DWT c Susanne Albers E[Y ] = Z 1 1 g(t) fX (t) d t : 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 221/460 Beweis: Wir zeigen die Behauptung nur fur den einfachen Fall, dass g eine lineare Funktion ist, also Y := a X + b fur a; b 2 R und a > 0. Es gilt (siehe obiges Beispiel) E[a X + b] = Z 1 1 Durch die Substitution u := (t t fY (t) d t = 1 1 t fX t b a a1 d t: b)=a mit d u = (1=a) d t erhalten wir E[a X + b] = DWT c Susanne Albers Z Z 1 1 (au + b)fX (u) d u: 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 222/460 Beispiel 90 Fur Erwartungswert und Varianz der Gleichverteilung ergibt sich Z b Z b 1 1 E[X ] = t dt = b a t dt b a a a 1 2 b = 2(b a) [t ]a 2 2 = 2(b b aa) = a +2 b ; 1 Z b t2 d t = b2 + ba + a2 ; b a a 3 2 Var[X ] = E[X 2 ] E[X ]2 = : : : = (a 12b) : E[X 2 ] = DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 223/460 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsraumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich\ nicht immer ganz klar sein muss. " Bertrand'sches Paradoxon Wir betrachten einen Kreis mit einem eingeschriebenen gleichseitigen Dreieck. Was ist die Wahrscheinlichkeit, mit der die Lange einer zufallig gewahlten Sehne die Seitenlange dieses Dreiecks ubersteigt (Ereignis A)? DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 224/460 r 2 S 120Æ M DWT c Susanne Albers d S M 1.4 Rechnen mit kontinuierlichen Zufallsvariablen ' 225/460 Beobachtungen: Die Seiten des Dreiecks haben Abstand 2r vom Mittelpunkt M . Die Lage jeder Sehne ist (bis auf Rotation um M ) durch einen der folgenden Parameter festgelegt: Abstand d zum Kreismittelpunkt, Winkel ' mit dem Kreismittelpunkt. Wir nehmen fur jeden dieser Parameter Gleichverteilung an und ermitteln Pr[A]. 1 Sei d 2 [0; r ] gleichverteilt. A tritt ein, wenn d < r , und es folgt Pr[A] = 1 . 2 2 2 Sei ' 2 [0 ; 180 ] gleichverteilt. F ur A muss gelten ' 2]120 ; 180 ], und es folgt somit Pr[A] = 31 . Siehe auch diese graphischen Darstellungen! DWT c Susanne Albers 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 226/460 2. Wichtige stetige Verteilungen 2.1 Gleichverteilung ( f (x) = F (x) = 0 8 > <0 Z x 1 E[X ] = DWT c Susanne Albers fur x 2 [a; b]; sonst: 1 b a f (t) d t = xb aa > : 1 a+b 2 fur x < a; fur a x b; fur x > b: und Var[X ] = 2.1 Gleichverteilung (a b)2 : 12 227/460 2.2 Normalverteilung Die Normalverteilung nimmt unter den stetigen Verteilungen eine besonders prominente Position ein. Denition 91 Eine Zufallsvariable X mit Wertebereich WX = R heit normalverteilt mit den Parametern 2 R und 2 R+ , wenn sie die Dichte 1 exp f (x) = p 2 (x )2 =: '(x; ; ) 2 2 besitzt. In Zeichen schreiben wir X N (; 2 ). N (0; 1) heit Standardnormalverteilung. Die zugehorige Dichte '(x; 0; 1) kurzen wir durch '(x) ab. DWT c Susanne Albers 2.2 Normalverteilung 228/460 Die Verteilungsfunktion zu N (; 2 ) ist 1 F (x) = p 2 Z x 1 exp (t )2 d t =: (x; ; ) : 2 2 Diese Funktion heit Gau'sche -Funktion (' ist nicht geschlossen integrierbar). DWT c Susanne Albers 2.2 Normalverteilung 229/460 Lemma 92 I := Beweis: Wir berechnen zunachst I 2 : I2 = = Z 1 Z 1Z 1 Z 1 1 e 1 e x2 =2 d x = p2: Z x2 =2 d x 1 1 e y2 =2 d y 2 2 e (x +y )=2 d x d y : 1 1 Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin . Dann ist DWT c Susanne Albers @x @r @x @ @y @r @y @ sin = r(cos2 + sin2 ) = r = cos r sin r cos 2.2 Normalverteilung 230/460 Beweis (Forts.): und wir erhalten I2 = = DWT c Susanne Albers Z 2 Z 0 Z 0 2 0 1 e r2 =2 r d r d = Z 2 h 0 e r2 =2 i1 0 d 1 d = 2: 2.2 Normalverteilung 231/460 = 0;5 =1 =2 1,0 0,8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 0,0 DWT c Susanne Albers -3,0 -2,0 -1,0 = 0;5 =1 =2 1,0 0,0 1,0 2,0 3,0 0,0 -3,0 -2,0 -1,0 0,0 Dichte und Verteilung von N (0; 2 ) 2.2 Normalverteilung 1,0 2,0 3,0 232/460 Satz 93 (Lineare Transformation der Normalverteilung) Sei X eine normalverteilte Zufallsvariable mit X N (; 2 ). Dann gilt fur beliebiges a 2 R n f0g und b 2 R, dass Y = aX + b normalverteilt ist mit Y N (a + b; a2 2 ). Beweis: Wir betrachten zunachst den Fall a > 0\: " Pr[Y y] = Pr[aX + b y] = Pr X y a b Z (y b)=a 1 ( u )2 p = exp 22 d u: 2 1 Nach der Substitution u = (v DWT c Susanne Albers b)=a und d u = (1=a) d v erhalten wir 2.2 Normalverteilung 233/460 Beweis (Forts.): Z y 2 1 Pr[Y y] = p exp (v 2aa2 2 b) d v : 2a 1 Also Y N (a + b; a2 2 ). Fur a < 0 verlauft der Beweis analog. DWT c Susanne Albers 2.2 Normalverteilung 234/460 Sei also X eine beliebige N (; 2 )-verteilte Zufallsvariable X und Y Dann ist nach Satz 93 Y N (0; 1)-verteilt. Y := X . heit auch normiert. Ferner gilt Pr[a < X b] = Pr a < Y b b a = : DWT c Susanne Albers 2.2 Normalverteilung 235/460 Satz 94 X sei N (0; 1)-verteilt. Dann gilt E[X ] = 0 und Var[X ] = 1: Beweis: Z 1 1 x2 E[X ] = p x exp 2 d x: 2 1 Da der Integrand punktsymmetrisch zu (0; 0) ist, folgt E[X ] = 0. DWT c Susanne Albers 2.2 Normalverteilung 236/460 Beweis (Forts.): Mittels Lemma 92 und durch partielle Integration erhalten wir p 2 = Z 1 1 exp = x exp | x2 2 {z =0 x2 2 dx 1 1} + Z 1 1 x2 exp Daraus folgt, dass E[X 2 ] = 1 ist und somit Var[X ] = E[X 2 ] DWT c Susanne Albers 2.2 Normalverteilung x2 2 dx E[X ]2 = 1. 237/460 Satz 95 X sei N (; 2 )-verteilt. Dann gilt E[X ] = und Var[X ] = 2 : Beweis: Y := X ist standardnormalverteilt. Ferner gilt gema der Rechenregeln f ur Erwartungswert und Varianz E[X ] = E[Y + ] = E[Y ] + = und DWT c Susanne Albers Var[X ] = Var[Y + ] = 2 Var[Y ] = 2 : 2.2 Normalverteilung 238/460 2.3 Exponentialverteilung Die Exponentialverteilung ist in gewisser Weise das kontinuierliche Analogon zur geometrischen Verteilung. Wie die geometrische Verteilung ist sie gedachtnislos\. Sie " spielt daher vor allem bei der Modellierung von Wartezeiten eine groe Rolle. DWT c Susanne Albers 2.3 Exponentialverteilung 239/460 Denition 96 Eine Zufallsvariable X heit exponentialverteilt mit dem Parameter , > 0, wenn sie die Dichte ( e x falls x 0; f (x) = 0 sonst besitzt. Fur die entsprechende Verteilungsfunktion gilt (fur x 0) F (x) = Z x 0 e t d t = h e i t x 0 =1 e x : Fur x < 0 gilt selbstverstandlich F (x) = 0. DWT c Susanne Albers 2.3 Exponentialverteilung 240/460 E[X ] = Z h 0 1 te t d t Z i1 1 e t d t = t ( e t ) 0 + 1 0 1 =0+ e t = 1 : DWT c Susanne Albers 0 2.3 Exponentialverteilung 241/460 Analog erhalten wir E[X 2 ] = = Z h 1 t2 e t d t 0 i1 Z 1 2 t 2t e t d t t ( e ) + 0 0 = 0 + 2 E[X ] = 22 und somit DWT c Susanne Albers Var[X ] = E[X 2 ] E[X ]2 = 12 : 2.3 Exponentialverteilung 242/460 2,0 1,0 = 0;5 =1 =2 1,6 0,8 1,2 0,6 0,8 0,4 0,4 0,2 0,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 0,0 0,0 = 0;5 =1 =2 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 Dichte und Verteilung der Exponentialverteilung DWT c Susanne Albers 2.3 Exponentialverteilung 243/460 2.3.1 Eigenschaften der Exponentialverteilung Satz 97 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter . Fur a > 0 ist die Zufallsvariable Y := aX wieder exponentialverteilt mit dem Parameter =a. Beweis: FY (x) = Pr[Y x] = Pr[aX x] h i = Pr X xa = FX xa = 1 e xa : DWT c Susanne Albers 2.3 Exponentialverteilung 244/460 Gedachtnislosigkeit Satz 98 (Gedachtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R+ ist genau dann exponentialverteilt, wenn fur alle x; y > 0 gilt, dass Pr[X > x + y j X > y] = Pr[X > x] : (*) Beweis: Sei X exponentialverteilt mit Parameter . Dann gilt > x + y; X > y] Pr[X > x + y j X > y] = Pr[X Pr[ X > y] X > x + y] = Pr[Pr[ X > y] (x+y) y =ee DWT c Susanne Albers =e 2.3 Exponentialverteilung x = Pr[X > x] : 245/460 Beweis (Forts.): Sei umgekehrt X eine kontinuierliche Zufallsvariable, die die Gleichung () erfullt. Wir denieren g (x) := Pr[X > x]. Fur x; y > 0 gilt g(x + y) = Pr[X > x + y] = Pr[X > x + y j X > y] Pr[X > y] = Pr[X > x] Pr[X > y] = g(x)g(y) : Daraus folgt durch wiederholte Anwendung 1 1 = g 1 g(1) = g + + n} n |n {z n fur alle n 2 N n-mal und somit insbesondere auch g (1=n) = (g (1))1=n . DWT c Susanne Albers 2.3 Exponentialverteilung 246/460 Beweis (Forts.): Da X nur positive Werte annimmt, muss es ein n 2 N geben mit g (1=n) > 0. Wegen 0 < g(1) 1 muss es daher auch ein 0 geben mit g(1) = e . Nun gilt fur beliebige p; q 2 N g(p=q) = g(1=q)p = g(1)p=q ; und somit g (r) = e r fur alle r 2 Q+ . Aufgrund der Stetigkeit folgt daraus g(x) = e DWT c Susanne Albers x : 2.3 Exponentialverteilung 247/460 Beispiel 99 ber das Casium-Isotop 134 U 55 Cs ist bekannt, dass es eine mittlere Lebensdauer von ungefahr 3,03 Jahren oder 1;55 106 Minuten besitzt. Die Zufallsvariable X messe die Lebenszeit eines bestimmten 134 55 Cs-Atoms. X ist exponentialverteilt mit dem Parameter 1 = 1 0;645 10 = E[X ] 1;55 106 6 1 min Da den Kehrwert einer Zeit als Einheit besitzt, spricht man von der Zerfallsrate. Auch bei anderen Anwendungen ist es ublich, als Rate einzufuhren. DWT c Susanne Albers 2.3 Exponentialverteilung 248/460 2.3.2 Exponentialverteilung als Grenzwert der geometrischen Verteilung Erinnerung: Die Poisson-Verteilung lasst sich als Grenzwert der Binomialverteilung darstellen. Wir betrachten eine Folge geometrisch verteilter Zufallsvariablen Xn mit Parameter pn = =n. Fur ein beliebiges k 2 N ist die Wahrscheinlichkeit, dass Xn k n, gleich Pr[Xn kn] = kn X i=1 (1 pn )i 1 pn = pn = pn 1 (1p pn n DWT c Susanne Albers )kn =1 2.3 Exponentialverteilung kn X1 i=0 1 (1 pn )i n kn : 249/460 Wegen limn!1 (1 n n) = e gilt daher fur die Zufallsvariablen Yn := n1 Xn , dass lim Pr[Yn t] = nlim !1 Pr[Xn t n] n!1 " = nlim !1 1 =1 e 1 n tn # t : Die Folge Yn der (skalierten) geometrisch verteilten Zufallsvariablen geht also fur n ! 1 in eine exponentialverteilte Zufallsvariable mit Parameter uber. DWT c Susanne Albers 2.3 Exponentialverteilung 250/460 3. Mehrere kontinuierliche Zufallsvariablen 3.1 Mehrdimensionale Dichten Beobachtung Zu zwei kontinuierlichen Zufallsvariablen X , Y wird der zugrunde liegende gemeinsame Wahrscheinlichkeitsraum uber R2 durch eine integrierbare (gemeinsame) Dichtefunktion fX;Y : R2 ! R+ 0 mit Z 1 Z 1 1 1 fX;Y (x; y) d x d y = 1 beschrieben. Fur ein Ereignis A R2 (das aus abzahlbar vielen geschlossenen oder oenen Bereichen gebildet sein muss) gilt Pr[A] = DWT c Susanne Albers Z A fX;Y (x; y) d x d y: 3.1 Mehrdimensionale Dichten 251/460 Unter einem Bereich B verstehen wir dabei Mengen der Art B = f(x; y) 2 R2 j a x b; c y dg mit a; b; c; d 2 R: Dabei konnen die einzelnen Intervallgrenzen auch oen\ bzw. 1 sein. " DWT c Susanne Albers 3.1 Mehrdimensionale Dichten 252/460 Analog zum eindimensionalen Fall ordnen wir der Dichte fX;Y eine (gemeinsame) Verteilung FX;Y : R2 ! [0; 1] zu: FX;Y (x; y) = Pr[X x; Y DWT c Susanne Albers y] = Z y Z x 1 3.1 Mehrdimensionale Dichten 1 fX;Y (u; v) d u d v: 253/460 3.2 Randverteilungen und Unabhangigkeit Denition 100 Sei fX;Y die gemeinsame Dichte der Zufallsvariablen X und Y . Die Randverteilung der Variablen X ist gegeben durch FX (x) = Pr[X x] = Analog nennen wir fX (x) = Z x Z 1 1 1 Z 1 fX;Y (u; v) d v d u: fX;Y (x; v) d v 1 die Randdichte von X . Entsprechende Denitionen gelten symmetrisch fur Y . DWT c Susanne Albers 3.2 Randverteilungen und Unabhangigkeit 254/460 Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn Pr[X x; Y y] = Pr[X x] Pr[Y y] fur alle x; y 2 R gilt. Dies ist gleichbedeutend mit FX;Y (x; y) = FX (x) FY (y) : Dierentiation ergibt DWT c Susanne Albers fX;Y (x; y) = fX (x) fY (y) : 3.2 Randverteilungen und Unabhangigkeit 255/460 Fur mehrere Zufallsvariablen X1 ; : : : ; Xn gilt analog: X1 ; : : : ; Xn sind genau dann unabhangig, wenn FX1 ;:::;Xn (x1 ; : : : ; xn ) = FX1 (x1 ) : : : FXn (xn ) bzw. fX1 ;:::;Xn (x1 ; : : : ; xn ) = fX1 (x1 ) : : : fXn (xn ) fur alle x1 ; : : : ; xn 2 R. DWT c Susanne Albers 3.2 Randverteilungen und Unabhangigkeit 256/460 3.3 Warteprobleme mit der Exponentialverteilung Warten auf mehrere Ereignisse Satz 102 Die Zufallsvariablen X1 ; : : : ; Xn seien unabhangig und exponentialverteilt mit den Parametern 1 ; : : : ; n . Dann ist auch X := minfX1 ; : : : ; Xn g exponentialverteilt mit dem Parameter 1 + : : : + n . Beweis: Der allgemeine Fall folgt mittels Induktion aus dem fur n = 2. Fur die Verteilungsfunktion FX gilt: 1 FX (t) = Pr[X > t] = Pr[minfX1 ; X2 g > t] = Pr[X1 > t; X2 > t] = Pr[X1 > t] Pr[X2 > t] = e 1 t e 2 t = e (1 +2 )t : DWT c Susanne Albers 3.3 Warteprobleme mit der Exponentialverteilung 257/460 Anschaulich besagt Satz 102, dass sich die Raten addieren, wenn man auf das erste Eintreten eines Ereignisses aus mehreren unabhangigen Ereignissen wartet. Wenn beispielsweise ein Atom die Zerfallsrate besitzt, so erhalten wir bei n Atomen die Zerfallsrate n (wie uns auch die Intuition sagt). DWT c Susanne Albers 3.3 Warteprobleme mit der Exponentialverteilung 258/460 Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treer geometrisch verteilt ist, so ist ihre Anzahl in einer festen Zeitspanne binomialverteilt. Im Grenzwert n ! 1, wobei wir die Treerwahrscheinlichkeit mit pn = =n ansetzen, konvergiert die geometrische Verteilung gegen die Exponentialverteilung und die Binomialverteilung gegen die Poisson-Verteilung. Im Grenzwert n ! 1 erwarten wir deshalb die folgende Aussage: Wenn man Ereignisse zahlt, deren zeitlicher Abstand exponentialverteilt ist, so ist die Anzahl dieser Ereignisse in einer festen Zeitspanne Poisson-verteilt. DWT c Susanne Albers 3.3 Warteprobleme mit der Exponentialverteilung 259/460 Seien T1 ; T2 : : : unabhangige exponentialverteilte Zufallsvariablen mit Parameter . Die Zufallsvariable Ti modelliert die Zeit, die zwischen Treer i 1 und i vergeht. Fur den Zeitpunkt t > 0 denieren wir X (t) := maxfn 2 N j T1 + : : : + Tn tg: X (t) gibt also an, wie viele Treer sich bis zur Zeit t (von Zeit Null ab) ereignet haben. Es gilt: DWT c Susanne Albers 3.3 Warteprobleme mit der Exponentialverteilung 260/460 Fakt 103 Seien T1 ; T2 ; : : : unabhangige Zufallsvariablen und sei X (t) fur t > 0 wie oben deniert. Dann gilt: X (t) ist genau dann Poisson-verteilt mit Parameter t, wenn es sich bei T1 ; T2 ; : : : um exponentialverteilte Zufallsvariablen mit Parameter handelt. Zum Zufallsexperiment, das durch T1 ; T2 ; : : : deniert ist, erhalten wir fur jeden Wert t > 0 eine Zufallsvariable X (t). Hierbei konnen wir t als Zeit interpretieren und X (t) als Verhalten des Experiments zur Zeit t. Eine solche Familie (X (t))t>0 von Zufallsvariablen nennt man allgemein einen stochastischen Prozess. Der hier betrachtete Prozess, bei dem T1 ; T2 ; : : : unabhangige, exponentialverteilte Zufallsvariablen sind, heit Poisson-Prozess und stellt ein fundamentales und zugleich praktisch sehr bedeutsames Beispiel fur einen stochastischen Prozess dar. DWT c Susanne Albers 3.3 Warteprobleme mit der Exponentialverteilung 261/460 Beispiel 104 Wir betrachten eine Menge von Jobs, die auf einem Prozessor sequentiell abgearbeitet werden. Die Laufzeiten der Jobs seien unabhangig und exponentialverteilt mit Parameter = 1=30[1=s]. Jeder Job benotigt also im Mittel 30s. Gema Fakt 103 ist die Anzahl von Jobs, die in einer Minute vollstandig ausgefuhrt werden, Poisson-verteilt mit Parameter t = 60 (1=30) = 2. Die Wahrscheinlichkeit, dass in einer Minute hochstens ein Job abgearbeitet wird, betragt in diesem Fall (t = 2) e DWT c Susanne Albers t + te t 0;406 : 3.3 Warteprobleme mit der Exponentialverteilung 262/460 3.4 Summen von Zufallsvariablen Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt Z fZ (z ) = 1 1 fX (x) fY (z x) d x : Beweis: Nach Denition der Verteilungsfunktion gilt FZ (t) = Pr[Z t] = Pr[X + Y t] = Z A(t) fX;Y (x; y) d xd y wobei A(t) = f(x; y ) 2 R2 j x + y tg. DWT c Susanne Albers 3.4 Summen von Zufallsvariablen 263/460 Beweis (Forts.): Aus der Unabhangigkeit von X und Y folgt FZ (t) = = Z A(t) Z 1 1 fX (x) fY (y) d xd y fX (x) Z t x 1 fY (y) d y d x: Mittels der Substitution z := x + y , d z = d y ergibt sich Z t x 1 und somit FZ (t) = DWT c Susanne Albers fY (y) d y = Z t Z 1 1 1 Z t 1 fY (z x) d z fX (x)fY (z x) d x d z : 3.4 Summen von Zufallsvariablen 264/460 Satz 106 (Additivitat der Normalverteilung) Die Zufallsvariablen X1 ; : : : ; Xn seien unabhangig und normalverteilt mit den Parametern i ; i (1 i n). Es gilt: Die Zufallsvariable Z := a1 X1 + : : : + an Xn ist normalverteilt mit Erwartungswert = a1 1 + : : : + an n und Varianz 2 = a21 12 + : : : + a2n n2 . Beweis: Wir beweisen zunachst den Fall n = 2 und a1 = a2 = 1. Nach Satz 105 gilt fur Z := X1 + X2 , dass Z1 fZ (z ) = = DWT c Susanne Albers 1 fX1 (z 1 1 2 2 Z1 1 y ) fX2 (y ) d y exp 1 2 | z ( y 1 )2 (y 2 )2 + d y: 12 22 {z } =:v 3.4 Summen von Zufallsvariablen 265/460 Beweis (Forts.): Wir setzen := 1 + 2 2 := 12 + 22 v1 := (z )= v22 := v v12 Damit ergibt sich unmittelbar v22 = woraus wir ermitteln. DWT c Susanne Albers (z y 1 )2 + (y 2 )2 12 v2 = 22 y12 2 12 + y22 1 2 (z 1 2 )2 ; 12 + 22 z22 + 1 22 3.4 Summen von Zufallsvariablen 266/460 Beweis (Forts.): Damit folgt fur die gesuchte Dichte fZ (z ) = Wir substituieren noch und erhalten 1 2 1 2 exp v12 Z 2 1 exp t := v2 und d t = 1 2 d y: dy 1 2 Z 1 ( z )2 1 fZ (z ) = 2 exp 22 1 exp Mit Lemma 92 folgt, dass fZ (z ) = '(z ; ; ) ist. DWT c Susanne Albers v22 3.4 Summen von Zufallsvariablen t2 2 d t: 267/460 Beweis (Forts.): Daraus erhalten wir die Behauptung fur n = 2, denn den Fall Z := a1 X1 + a2 X2 fur beliebige Werte a1 ; a2 2 R konnen wir leicht mit Hilfe von Satz 93 auf den soeben bewiesenen Fall reduzieren. Durch Induktion kann die Aussage auf beliebige Werte n 2 N verallgemeinert werden. DWT c Susanne Albers 3.4 Summen von Zufallsvariablen 268/460 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen Fur diskrete Zufallsvariablen X haben wir die momenterzeugende Funktion MX (s) = E[eXs ] eingefuhrt. Diese Denition kann man unmittelbar auf kontinuierliche Zufallsvariablen ubertragen. Die fur MX (s) gezeigten Eigenschaften bleiben dabei erhalten. DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 269/460 Beispiel 107 Fur eine auf [a; b] gleichverteilte Zufallsvariable U gilt MU (t) = E[etX ] = etx = t(b a) etb eta Z b a b etx 1 dx b a a = t(b a) : DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 270/460 Beispiel (Forts.) Fur eine standardnormalverteilte Zufallsvariable N N (0; 1) gilt Z +1 1 MN (t) = p et e =2 d 2 1 Z +1 e (t ) =2 d = et =2 p1 2 1 t = 2 =e : 2 2 2 2 DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 271/460 Beispiel (Forts.) Daraus ergibt sich fur Y N (; 2) wegen Y N (0; 1) MY (t) = E[etY ] Y = et E[e(t) ] = et MN (t) = et+(t)2 =2 : DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 272/460 Weiterer Beweis von Satz 106: Beweis: Gema dem vorhergehenden Beispiel gilt MXi (t) = eti +(ti ) =2 : Wegen der Unabhangigkeit der Xi folgt 2 MZ (t) = E[et(a1 X1 ++an Xn ) ] = = = n Y i=1 n Y n Y i=1 E[e(ai t)Xi ] MXi (ai t) eai ti +(ai ti ) =2 2 i=1 = et+(t)2 =2 ; mit = a1 1 + + an n und 2 = a21 12 + + a2n n2 . DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 273/460 4. Zentraler Grenzwertsatz Satz 108 (Zentraler Grenzwertsatz) Die Zufallsvariablen X1 ; : : : ; Xn besitzen jeweils dieselbe Verteilung und seien unabhangig. Erwartungswert und Varianz von Xi existieren fur i = 1; : : : ; n und seien mit bzw. 2 bezeichnet ( 2 > 0). Die Zufallsvariablen Yn seien deniert durch Yn := X1 + : : : + Xn fur n 1. Dann folgt, dass die Zufallsvariablen Yn n p n asymptotisch standardnormalverteilt sind, also Zn N (0; 1) fur n ! 1. Zn := DWT c Susanne Albers 4 Zentraler Grenzwertsatz 274/460 Etwas formaler ausgedruckt gilt: Die Folge der zu Zn gehorenden Verteilungsfunktionen Fn hat die Eigenschaft lim F (x) = (x) fur alle n!1 n x 2 R: Wir sagen dazu auch: Die Verteilung von Zn konvergiert gegen die Standardnormalverteilung fur n ! 1. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 275/460 Dieser Satz ist von groer Bedeutung fur die Anwendung der Normalverteilung in der Statistik. Der Satz besagt, dass sich die Verteilung einer Summe beliebiger unabhangiger Zufallsvariablen (mit endlichem Erwartungswert und Varianz) der Normalverteilung umso mehr annahert, je mehr Zufallsvariablen an der Summe beteiligt sind. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 276/460 Beweis: Wir betrachten Xi := (Xi )= fur i = 1; : : : ; n mit E[Xi ] = 0 und Var[Xi ] = 1. Damit gilt (gema vorhergehendem Beispiel) p MZ (t) = E[etZ ] = E[et(X1 +:::+Xn )= n ] p p = MX1 (t= n) : : : MXn (t= n) : Fur beliebiges i betrachten wir die Taylorentwicklung von MXi (t) =: h(t) an der Stelle t=0 h00 (0) 2 h(t) = h(0) + h0 (0) t + t + O(t3): Aus der Linearitat des Erwartungswerts folgt 2 h0 (t) = E[etXi Xi ] und h00 (t) = E[etXi (Xi )2 ]: DWT c Susanne Albers 4 Zentraler Grenzwertsatz 277/460 Beweis (Forts.): Damit gilt h0 (0) = E[Xi ] = 0 und h00 (0) = E[(Xi )2 ] = Var[X ] = 1: Durch Einsetzen in die Taylorreihe folgt h(t) = 1 + t2 =2 + O(t3 ), und wir konnen MZ (t) umschreiben zu t2 t3 MZ (t) = 1 + + O 3=2 2n n n ! et =2 fur n ! 1: 2 Aus der Konvergenz der momenterzeugenden Funktion folgt auch die Konvergenz der Verteilung. Damit ist Z asymptotisch normalverteilt. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 278/460 Beweis (Forts.): Die momenterzeugende Funktion existiert leider nicht bei allen Zufallsvariablen und unser Beweis ist deshalb unvollstandig. Man umgeht dieses Problem, indem man statt der momenterzeugenden Funktion die so genannte charakteristische Funktion M~ X (t) = E[eitX ] betrachtet. Fur Details verweisen wir auf die einschlagige Literatur. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 279/460 Der Zentrale Grenzwertsatz hat die folgende intuitive Konsequenz: Wenn eine Zufallsgroe durch lineare Kombination vieler unabhangiger, identisch verteilter Zufallsgroen entsteht, so erhalt man naherungsweise eine Normalverteilung. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 280/460 Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgroen Bernoulli-verteilt sind. Korollar 109 (Grenzwertsatz von de Moivre) X1 ; : : : ; Xn seien unabhangige Bernoulli-verteilte Zufallsvariablen mit gleicher Erfolgswahrscheinlichkeit p. Dann gilt fur die Zufallsvariable Hn mit Hn := X1 + : : : + Xn fur n 1, dass die Verteilung der Zufallsvariablen Hn := Hn np np(1 p) p fur n ! 1 gegen die Standardnormalverteilung konvergiert. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 281/460 Beweis: Die Behauptung folgt unmittelbar aus dem Zentralen Grenzwertsatz, da = n1 E[Hn ] = p und 2 = n1 Var[Hn ] = p(1 p). Bemerkung Wenn man X1 ; : : : ; Xn als Indikatorvariablen fur das Eintreten eines Ereignisses A bei n unabhangigen Wiederholungen eines Experimentes interpretiert, dann gibt Hn die absolute Haugkeit von A an. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 282/460 4.1 Normalverteilung als Grenzwert der Binomialverteilung Korollar 109 ermoglicht, die Normalverteilung als Grenzwert der Binomialverteilung aufzufassen. Die folgende Aussage ist eine Konsequenz von Korollar 109: Korollar 110 Sei Hn Bin(n; p) eine binomialverteilte Zufallsvariable. Die Verteilung von Hn =n konvergiert gegen N (p; p(1 p)=n) fur n ! 1. DWT c Susanne Albers 4.1 Normalverteilung als Grenzwert der Binomialverteilung 283/460 0.4 0.4 Bin(10, 0.3) ϕ(x) 0.3 0.3 0.2 0.2 0.1 0.1 0.0 -4.0 -3.0 -2.0 -1.0 0.0 0.4 1.0 2.0 3.0 4.0 0.0 -4.0 0.3 0.2 0.2 0.1 0.1 -3.0 -2.0 -1.0 0.0 1.0 2.0 -3.0 -2.0 -1.0 0.0 0.4 Bin(50, 0.3) ϕ(x) 0.3 0.0 -4.0 Bin(20, 0.3) ϕ(x) 3.0 4.0 0.0 -4.0 1.0 2.0 3.0 4.0 3.0 4.0 Bin(100, 0.3) ϕ(x) -3.0 -2.0 -1.0 0.0 1.0 2.0 Vergleich von Binomial- und Normalverteilung n; 0:3) bei 0:3n zentriert, mit Bin( DWT c Susanne Albers p0:3 0:7n horizontal gestaucht und vertikal gestreckt 4.1 Normalverteilung als Grenzwert der Binomialverteilung 284/460 Historisch gesehen entstand Korollar 109 vor Satz 108. Fur den Fall p = 1=2 wurde Korollar 109 bereits von Abraham de Moivre (1667{1754) bewiesen. De Moivre war geburtiger Franzose, musste jedoch aufgrund seines protestantischen Glaubens nach England iehen. Dort wurde er unter anderem Mitglied der Royal Society, erhielt jedoch niemals eine eigene Professur. Die allgemeine Formulierung von Korollar 109 geht auf Pierre Simon Laplace (1749{1827) zuruck. Allerdings vermutet man, dass die Losung des allgemeinen Falls p 6= 1=2 bereits de Moivre bekannt war. DWT c Susanne Albers 4.1 Normalverteilung als Grenzwert der Binomialverteilung 285/460 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 Wir betrachten die Wahrscheinlichkeit Pr[a H2n b] fur p = 1=2 und a; b 2 R mit a b. Wenn die Verteilung von H2n , wieRin Korollar 109 angegeben, gegen N (0; 1) konvergiert, so sollte Pr[a H2n b] ab '(t) d t fur genugend groe n gelten. Wir schreiben f (n) 1 g (n) fur limn!1 f (n)=g (n) = 1, wollen also zeigen: Pr[a H 2n b] 1 Z b a '(t) d t: Da fur H2n Bin(2n; 1=2) gilt, dass E[H2n ] = n und Var[H2n ] = n=2 ist, erhalten wir H2n n ; H2n = p n=2 DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 286/460 und es folgt p p Pr[a H2n b] = Pr[n + a n=2 H2n n + b n=2] X = Pr[H2n = n + i] i2In p p fur In := fz 2 Z j a n=2 z b n=2g. Damit ist 2n 2n 1 2n b] = n + i {z 2 i2In | Pr[a H X =:pn;i DWT c Susanne Albers : } 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 287/460 Es gilt 2n max pn;i pn := 2n i 21 n und mit der Stirling'schen Approximation fur n! p 2n n)! 1 = (2 (n!)2 2 ; (2n)2n e 2n p 2 2n 1 2n = p1 : pn 1 2 n (nn e n 2n)2 Ersetzen wir nun die pn;i durch pn , so entsteht dabei ein Fehler, den wir mit qn;i := ppn;i n bezeichnen. DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 288/460 Fur i > 0 gilt qn;i = = 2n 1 2n n+i 2 2n 1 2n 2 n Qi 1 j =0 (n j ) Qi j =1 (n + j ) = (n + i(2)!n )!(n n! i)!n! (2n)! i i Y Y 2 j 1 n j+1 = 1 n+j : = n+j j =1 j =1 Wegen der Symmetrie der Binomialkoezienten gilt qn; i = qn;i , womit auch der Fall i < 0 abgehandelt ist. DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 289/460 Man macht sich leicht klar, dass 1 schlieen wir, dass 0 ln @ i Y j =1 p 1 1 A 1 2nj + j 1=x ln x x 1 fur x > 0 gilt. Damit = i X ln 1 2nj + j1 j =1 i X i X 2 j 1 2j 1 n+j n+i j =1 j =1 2 3 = i(i n++1)i i = in + n(ni + i) 2 = in + O p1n ; da i = O( n) fur i 2 In . DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 290/460 Ebenso erhalten wir 0 ln @ i Y j =1 1 1 A 1 2nj + j = i X 1 j =1 i X 1 2nj + j1 2j + 1 n j+1 j =1 i2 = n i = Zusammen haben wir e i2 n i =e i2 n O p1n qn;i e p Wegen eO(1= n) = 1 o(1) folgt daraus qn;i DWT c Susanne Albers 1 e i2 n i X 1! 2j 1 j =1 n i O p1n : i2 +O p1 n n i2 =n . 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 291/460 Damit schatzen wir nun Pr[a H2n b] weiter ab: X Pr[a H2n b] = pn qn;i 1 i2In Mit := p1n | X i 2I n e {z =:Sn i2 =n : } p 2=n konnen wir die Summe Sn umschreiben zu 1 X e (i) : Sn = p 2 i2In 2 1 2 R R 2 Diese Summe entspricht einer Naherung fur ab '(t) d t = p12 ab e t =2 d t durch Aufteilung der integrierten Flache in Balken der Breite ur n ! 1 konvergiert die R . F Flache der Balken gegen das Integral, d. h. Sn 1 ab '(t) d t. q. e. d. DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 292/460 4.3 Verschiedene Approximationen der Binomialverteilung Sei Hn Bin(n; p) eine binomialverteilte Zufallsvariable mit der Verteilungsfunktion Fn . Fur n ! 1 gilt Fn (t) = Pr[Hn =n t=n] ! t=n p ! p = p(1 p)=n ! t np p : p(1 p)n Wir konnen Fn somit fur groe n durch approximieren. Diese Approximation ist in der Praxis deshalb von Bedeutung, da die Auswertung der Verteilungsfunktion der Binomialverteilung fur groe n sehr aufwandig ist, wahrend fur die Berechnung der Normalverteilung eziente numerische Methoden vorliegen. DWT c Susanne Albers 4.3 Verschiedene Approximationen der Binomialverteilung 293/460 Beispiel 111 Wenn man die Wahrscheinlichkeit berechnen mochte, mit der bei 106 Wurfen mit einem idealen Wurfel mehr als 500500-mal eine gerade Augenzahl fallt, so muss man eigentlich folgenden Term auswerten: T := 10 X 106 6 i=5;00510 5 i 106 1 2 : Dies ist numerisch kaum ezient moglich. Die numerische Integration der Dichte ' der Normalverteilung ist hingegen relativ einfach. Auch andere Approximationen der Verteilung , beispielsweise durch Polynome, sind bekannt. Entsprechende Funktionen werden in zahlreichen Softwarebibliotheken als black box\ angeboten. " DWT c Susanne Albers 4.3 Verschiedene Approximationen der Binomialverteilung 294/460 Beispiel Mit der Approximation durch die Normalverteilung erhalten wir 5;005p 105 5 105 T 1 2;5 105 102 = 1 55 10 2 = 1 (1) 0;1573 : DWT c Susanne Albers ! 4.3 Verschiedene Approximationen der Binomialverteilung 295/460 Bei der Approximation der Binomialverteilung mit Hilfe von Korollar 109 fuhrt man oft noch eine so genannte Stetigkeitskorrektur durch. Zur Berechnung von Pr[X x] fur X Bin(n; p) setzt man Pr[X x] xp+ 0;5 np np(1 p) statt an. DWT c Susanne Albers Pr[X x] p x np np(1 p) ! ! 4.3 Verschiedene Approximationen der Binomialverteilung 296/460 Der Korrekturterm lat sich in der Histogramm-Darstellung der Binomialverteilung veranschaulichen. Die Binomialverteilung wird dort durch Balken angegeben, deren Flache in etwa der Flache unterhalb der Dichte ' von N (0; 1) entspricht. Wenn man die Flache der Balken mit X x\ durch das Integral von ' approximieren mochte, so " sollte man bis zum Ende des Balkens fur X = x\ integrieren und nicht nur bis zur " Mitte. Dafur sorgt der Korrekturterm 0;5. DWT c Susanne Albers 4.3 Verschiedene Approximationen der Binomialverteilung 297/460 Approximationen fur die Binomialverteilung Approximation durch die Poisson-Verteilung: Bin(n; p) wird approximiert durch Po(np). Diese Approximation funktioniert sehr gut fur seltene Ereignisse, d. h. wenn np sehr klein gegenuber n ist. Als Faustregel fordert man n 30 und p 0;05. Approximation durch die Cherno-Schranken: Bei der Berechnung der tails der Binomialverteilung liefern diese Ungleichungen meist sehr gute Ergebnisse. Ihre Starke liegt darin, dass es sich bei den Schranken nicht um Approximationen, sondern um echte Abschatzungen handelt. Dies ist vor allem dann wichtig, wenn man nicht nur numerische Naherungen erhalten mochte, sondern allgemeine Aussagen uber die Wahrscheinlichkeit von Ereignissen beweisen mochte. DWT c Susanne Albers 4.3 Verschiedene Approximationen der Binomialverteilung 298/460 Approximation durch die Normalverteilung: Als Faustregel sagt man, dass die Verteilungsfunktion Fn (t) von Bin(n; p) durch p Fn (t) ((t np)= p(1 p)n) approximiert werden kann, wenn np 5 und n(1 DWT c Susanne Albers p) 5 gilt. 4.3 Verschiedene Approximationen der Binomialverteilung 299/460 Kapitel III Induktive Statistik 1. Einfuhrung Das Ziel der induktiven Statistik besteht darin, aus gemessenen Zufallsgroen auf die zugrunde liegenden Gesetzmaigkeiten zu schlieen. Im Gegensatz dazu spricht man von deskriptiver Statistik, wenn man sich damit beschaftigt, groe Datenmengen verstandlich aufzubereiten, beispielsweise durch Berechnung des Mittelwertes oder anderer abgeleiteter Groen. DWT c Susanne Albers 1 Einfuhrung 300/460 2. Schatzvariablen Wir betrachten die Anzahl X von Lesezugrien auf eine Festplatte bis zum ersten Lesefehler und nehmen an, dass Pr[X = i] = (1 p)i 1 p, setzen also fur X eine geometrische Verteilung an. Dahinter verbirgt sich die Annahme, dass bei jedem Zugri unabhangig und mit jeweils derselben Wahrscheinlichkeit p ein Lesefehler auftreten kann. Unter diesen Annahmen ist die Verteilung der Zufallsvariablen X eindeutig festgelegt. Allerdings entzieht sich der numerische Wert des Parameters p noch unserer Kenntnis. Dieser soll daher nun empirisch geschatzt werden. Statt p konnen wir ebensogut E[X ] bestimmen, da wir daraus nach den Eigenschaften der geometrischen Verteilung p mittels p = E[1X ] berechnen konnen. DWT c Susanne Albers 2 Schatzvariablen 301/460 Dazu betrachten wir n baugleiche Platten und die zugehorigen Zufallsvariablen Xi (fur 1 i n), d. h. wir zahlen fur jede Platte die Anzahl von Zugrien bis zum ersten Lesefehler. Die Zufallsvariablen Xi sind dann unabhangig und besitzen jeweils dieselbe Verteilung wie X . Wir fuhren also viele Kopien eines bestimmten Zufallsexperiments aus, um Schlusse auf die Gesetzmaigkeiten des einzelnen Experiments ziehen zu konnen. Dies ist das Grundprinzip der induktiven Statistik. Die n Messungen heien Stichproben, und die Variablen Xi nennt man Stichprobenvariablen. DWT c Susanne Albers 2 Schatzvariablen 302/460 Grundprinzip statistischer Verfahren Wir erinnern an das Gesetz der groen Zahlen (Satz 63) bzw. den Zentralen Grenzwertsatz (Satz 108). Wenn man ein Experiment genugend oft wiederholt, so nahert sich der Durchschnitt der Versuchsergebnisse immer mehr dem Verhalten an, das man im Mittel\ erwarten wurde. Je mehr Experimente wir also durchfuhren, umso " genauere und zuverlassigere Aussagen konnen wir uber den zugrunde liegenden Wahrscheinlichkeitsraum ableiten. Auf diesem Grundprinzip beruhen alle statistischen Verfahren. DWT c Susanne Albers 2 Schatzvariablen 303/460 Um E[X ] empirisch zu ermitteln, bietet es sich an, aus den Zufallsvariablen Xi das arithmetische Mittel X zu bilden, das deniert ist durch n X 1 Xi : X := n i=1 Es gilt E[X ] = n n 1X 1X E[X ] = E[X ] = E[X ]: n i=1 i n i=1 X liefert uns also im Mittel den gesuchten Wert E[X ]. Da wir X zur Bestimmung von E[X ] verwenden, nennen wir X einen Schatzer fur den Erwartungswert E[X ]. Wegen der obigen Eigenschaft ist X sogar ein so genannter erwartungstreuer Schatzer. DWT c Susanne Albers 2 Schatzvariablen 304/460 Denition 112 Gegeben sei eine Zufallsvariable X mit der Dichte f (x; ). Eine Schatzvariable oder kurz Schatzer fur den Parameter der Dichte von X ist eine Zufallsvariable, die aus mehreren (meist unabhangigen und identisch verteilten) Stichprobenvariablen zusammengesetzt ist. Ein Schatzer U heit erwartungstreu, wenn gilt E[U ] = : Bemerkung: Die Groe E[U ] nennt man Bias der Schatzvariablen U . Bei erwartungstreuen Schatzvariablen ist der Bias gleich Null. DWT c Susanne Albers 2 Schatzvariablen 305/460 Der Schatzer X ist also ein erwartungstreuer Schatzer fur den Erwartungswert von X . Ein wichtiges Ma fur die Gute eines Schatzers ist die mittlere quadratische Abweichung, kurz MSE fur mean squared error genannt. Diese berechnet sich durch MSE := E[(U )2 ]. Wenn U erwartungstreu ist, so folgt MSE = E[(U E[U ])2 ] = Var[U ]. Denition 113 Wenn die Schatzvariable A eine kleinere mittlere quadratische Abweichung besitzt als die Schatzvariable B , so sagt man, dass A ezienter ist als B . Eine Schatzvariable heit konsistent im quadratischen Mittel, wenn MSE ! 0 fur n ! 1 gilt. Hierbei bezeichne n den Umfang der Stichprobe. DWT c Susanne Albers 2 Schatzvariablen 306/460 Fur X erhalten wir wegen der Unabhangigkeit von X1 ; : : : ; Xn " n 1X MSE = Var[X ] = Var Xi n = n12 DWT c Susanne Albers n X i=1 # i=1 Var[Xi ] = n1 Var[X ]: 2 Schatzvariablen 307/460 Bei jeder Verteilung mit endlicher Varianz folgt MSE = O(1=n) und somit MSE ! 0 fur n ! 1. Der Schatzer X ist also konsistent. Aus der Konsistenz von X im quadratischen Mittel konnen wir mit Hilfe des Satzes von Chebyshev (siehe Satz 61) folgende Konsequenz ableiten. Sei " > 0 beliebig, aber fest. Dann gilt X] !0 Pr[jX j "] = Pr[jX E[X ]j "] Var[ 2 " fur n ! 1. Fur genugend groe n liegen also die Werte von X beliebig nahe am gesuchten Wert = E[X ]. Diese Eigenschaft nennt man auch schwache Konsistenz, da sie aus der Konsistenz im quadratischen Mittel folgt. DWT c Susanne Albers 2 Schatzvariablen 308/460 Als nachstes betrachten wir eine weitere von X abgeleitete Schatzvariable: S := v u u t 1 n X n 1 i=1 (Xi X )2 : Wir zeigen, dass S 2 ein erwartungstreuer Schatzer fur die Varianz von X ist. Sei := E[X ] = E[Xi ] = E[X ]. ( Xi X )2 = (Xi = (Xi + X )2 )2 + ( X )2 + 2(Xi )2 + ( Xi = ( = DWT c Susanne Albers n 2 n Xi ( X )2 )2 + ( 2 n X n j =1 X )2 2 Schatzvariablen )( ( Xi 2 )(Xj X n j 6=i X) ( Xi ) )(Xj ): 309/460 Fur je zwei unabhangige Zufallsvariablen Xi , Xj mit i 6= j gilt E[(Xi )(Xj )] = E[Xi ] E[Xj ] = (E[Xi ] ) (E[Xj ] ) = 0 0 = 0: Daraus folgt n 2 E[(Xi )2] + E[( X )2] n = n n 2 Var[Xi ] + Var[X ]: E[(Xi X )2 ] = DWT c Susanne Albers 2 Schatzvariablen 310/460 Wegen Var[Xi ] = Var[X ] und Var[X ] = n1 Var[X ] folgt nun E[(Xi X )2 ] = n 1 Var[X ]; n und somit gilt fur S 2 E[S 2 ] = 1 n X E[(Xi X )2 ] n 1 i=1 = n 1 1 n n n 1 Var[X ] = Var[X ]: S 2 ist also eine erwartungstreue Schatzvariable fur die Varianz von X . DWT c Susanne Albers 2 Schatzvariablen 311/460 Die vorangegangene Rechnung erklart, warum man als Schatzer nicht n 1X (X n i=1 i ! X )2 6= S 2 verwendet, wie man vielleicht intuitiv erwarten wurde. DWT c Susanne Albers 2 Schatzvariablen 312/460 Denition 114 Die Zufallsvariablen X := n n 1X 1 X Xi und S 2 := (Xi X )2 n n 1 i=1 i=1 heien Stichprobenmittel bzw. Stichprobenvarianz der Stichprobe X1 ; : : : ; Xn . X und S 2 sind erwartungstreue Schatzer fur den Erwartungswert bzw. die Varianz. DWT c Susanne Albers 2 Schatzvariablen 313/460 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schatzvariablen fur Parameter von Verteilungen. Sei X~ = (X1 ; : : : ; Xn ): Bei X1 ; : : : ; Xn handelt es sich um unabhangige Kopien der Zufallsvariablen X mit der Dichte f (x; ). Hierbei sei der gesuchte Parameter der Verteilung. Wir setzen f (x; ) = Pr[X = x]; wobei ein Parameter der Verteilung ist. Wenn wir den Parameter explizit angeben wollen, so schreiben wir dafur auch f (x; ) = Pr [X = x]. Eine Stichprobe liefert fur jede Variable Xi einen Wert xi . Diese Werte fassen wir ebenfalls zu einem Vektor ~x = (x1 ; : : : ; xn ) zusammen. DWT c Susanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 314/460 Der Ausdruck L(~x; ) := n Y i=1 f (xi ; ) = n Y i=1 Pr [Xi = xi ] = Pr [X1 = x1 ; : : : ; Xn = xn ] unabh. entspricht der Wahrscheinlichkeit, dass wir die Stichprobe ~x erhalten, wenn wir den Parameter mit dem Wert belegen. Wir betrachten nun eine feste Stichprobe ~x und fassen L(~x; ) somit als Funktion von auf. In diesem Fall nennen wir L die Likelihood-Funktion der Stichprobe. DWT c Susanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 315/460 Es erscheint sinnvoll, zu einer gegebenen Stichprobe ~x den Parameter so zu wahlen, dass L(x; ) maximal wird. Denition 115 Ein Schatzwert b fur den Parameter einer Verteilung f (x; ) heit Maximum-Likelihood-Schatzwert (ML-Schatzwert) fur eine Stichprobe ~x, wenn gilt L(~x; ) L(~x; b) fur alle : DWT c Susanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 316/460 Beispiel 116 Wir konstruieren mit der ML-Methode einen Schatzer fur den Parameter p der Bernoulli-Verteilung. Es gilt Prp [Xi = 1] = p und Prp [Xi = 0] = 1 p. Daraus schlieen wir, dass Prp [Xi = xi ] = pxi (1 p)1 xi , und stellen die Likelihood-Funktion n Y L(~x; p) = pxi (1 p)1 xi i=1 auf. Wir suchen als Schatzer fur p den Wert, an dem die Funktion L maximal wird. Wir erhalten n ln L(~x; p) = X i=1 (xi ln p + (1 xi ) ln(1 p)) = nx ln p + (n nx) ln(1 p): P Hierbei bezeichnet x das arithmetische Mittel n1 ni=1 xi . DWT c Susanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 317/460 Beispiel (Forts.) Wir nden das Maximum durch Nullsetzen der Ableitung: d ln L(~x; p) dp = npx n1 npx = 0: Diese Gleichung hat die Losung p = x. DWT c Susanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 318/460 Beispiel 117 Die Zufallsvariable X sei N (; 2 )-verteilt, und wir suchen Schatzvariablen fur die Parameter und . Nach Denition der Likelihood-Funktion gilt L(~x; ; 2 ) = p1 2 n n Y i=1 exp (xi )2 : 2 2 Durch Logarithmieren erhalten wir X p ln L(~x; ; 2 ) = n(ln 2 + ln ) + i=1 n DWT c Susanne Albers (xi )2 : 2 2 319/460 Beispiel 117 Fur die Nullstellen der Ableitungen ergibt sich also n @ ln L X = xi2 =! 0; @ i=1 n (xi )2 =! 0; @ ln L n X = + @ i=1 3 = x und 2 = n 1X (x n i=1 i )2 : Wir haben also durch die ML-Methode fast\ das Stichprobenmittel und die " Stichprobenvarianz erhalten. Allerdings besitzt der Schatzer fur die Varianz hier den Vorfaktor n1 statt n 1 1 . Die ML-Schatzvariable fur die Varianz ist somit nicht erwartungstreu. DWT c Susanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 319/460 3. Kondenzintervalle Bei der Verwendung von Schatzvariablen geht man davon aus, dass der erhaltene Schatzwert nahe\ beim gesuchten Parameter liegt. Die Schatzungen werden " besser\, je groer die betrachtete Stichprobe ist. Diese Angaben sind aus " quantitativer Sicht naturlich unbefriedigend, da nicht erkennbar ist, wie gut man sich auf den Schatzwert verlassen kann. Die Losung dieses Problems besteht darin, statt einer Schatzvariablen U zwei Schatzer U1 und U2 zu betrachten. U1 und U2 werden so gewahlt, dass Pr[U1 U2 ] 1 : Die Wahrscheinlichkeit 1 heit Kondenzniveau und kann dem Sicherheitsbedurfnis\ angepasst werden. " DWT c Susanne Albers 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 320/460 Wenn wir fur eine konkrete Stichprobe die Schatzer U1 und U2 berechnen und davon ausgehen, dass 2 [U1 ; U2 ] ist, so ziehen wir hochstens mit Wahrscheinlichkeit einen falschen Schluss. [U1 ; U2 ] heit Kondenzintervall. In vielen Fallen verwendet man nur eine Schatzvariable U und konstruiert mittels U1 := U und U2 := U + ein symmetrisches Kondenzintervall [U ; U + ]. DWT c Susanne Albers 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 321/460 Sei X eine N (; 2 )-verteilte Zufallsvariable, und seien X1 ; : : : ; Xn n zugehorige Stichprobenvariablen. Gema der Additivitat der Normalverteilung (siehe Satz 106) ist 2 das Stichprobenmittel X ebenfalls normalverteilt mit X N (; n ). Wir suchen fur X ein symmetrisches Kondenzintervall. Nach Satz 93 ist standardnormalverteilt. DWT c Susanne Albers p X Z := n 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 322/460 Fur Z betrachten wir das Kondenzintervall [ c; c] fur ein geeignetes c > 0 und setzen Pr[ c Z c] =! 1 : Auosen nach ergibt Pr X pcn X + pcn =! 1 : Das gesuchte Kondenzintervall lautet also K = [X DWT c Susanne Albers pcn ; X + pcn ] : 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 323/460 Den Parameter c wahlen wir wie folgt: Pr[ c Z c] = (c) ( c) =! 1 : Wegen der Symmetrie von gilt ( x) = 1 (x) und wir erhalten (c) ( c) = 2 (c) 1 =! 1 () (c) = 1 2 ; also DWT c Susanne Albers c= 1 1 2 : 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 324/460 Denition 118 X sei eine stetige Zufallsvariable mit Verteilung FX . Eine Zahl x mit FX (x ) = heit -Quantil von X bzw. der Verteilung FX . Denition 119 Fur die Standardnormalverteilung bezeichnet z das -Quantil. DWT c Susanne Albers 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 325/460 Damit konnen wir das gesuchte Kondenzintervall angeben durch K= X DWT c Susanne Albers z(1 2 ) z(1 2 ) pn ; X + pn : 3.0 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen 326/460 4. Testen von Hypothesen 4.1 Einfuhrung Bislang haben wir versucht, Parameter von Verteilungen zu schatzen. In der Praxis ist man jedoch oft an der eigentlichen Kenntnis dieser Parameter gar nicht interessiert, sondern man mochte gewisse, damit zusammenhangende Behauptungen uberprufen. Im Folgenden stellen wir die Bestandteile eines statistischen Tests anhand eines abstrakten Beispiels vor. Wir betrachten dazu eine Zufallsvariable X mit Pr[X = 1] = p und Pr[X = 0] = 1 p. Durch einen Test soll uberpruft werden, ob p < 1=3 oder p 1=3 gilt. DWT c Susanne Albers 4.1 Einfuhrung 327/460 Denition eines Tests Wir betrachten eine Stichprobe von n unabhangigen Stichprobenvariablen X1 ; : : : ; Xn , die dieselbe Verteilung wie die Zufallsvariable X besitzen. Zu einem zugehorigen Stichprobenvektor ~x mussen wir nun die Frage beantworten, ob wir fur diesen Versuchsausgang die Hypothese p 1=3\ annehmen oder ablehnen. " Sei K := f~x 2 Rn ; ~x fuhrt zur Ablehnung der Hypotheseg: K nennen wir den Ablehnungsbereich oder den kritischen Bereich des Tests. DWT c Susanne Albers 4.1 Einfuhrung 328/460 Gewohnlich wird K konstruiert, indem man die Zufallsvariablen X1 ; : : : ; Xn zu einer neuen Variablen T , der so genannten Testgroe, zusammenfasst. Dann unterteilt man den Wertebereich R von T in mehrere Bereiche, die entweder zur Ablehnung der Hypothese fuhren sollen oder nicht. Dabei betrachtet man meist ein einzelnes halboenes oder abgeschlossenes Intervall und spricht dann von einem einseitigen bzw. von einem zweiseitigen Test. e R enthalte die Werte von T , die zur Ablehnung der Hypothese f Die Menge K uhren sollen. Da wir Tests immer uber eine Testgroe denieren, werden wir der Einfachheit e als Ablehnungsbereich bezeichnen. K e R entspricht direkt dem halber auch K 1 n e Ablehnungbereich K = T (K ) R , wie wir ihn oben festgelegt haben. DWT c Susanne Albers 4.1 Einfuhrung 329/460 Die zu uberprufende Hypothese bezeichnen wir mit H0 und sprechen deshalb auch von der Nullhypothese. Bei manchen Tests formuliert man noch eine zweite Hypothese H1 , die so genannte Alternative. Im Beispiel konnen wir H0 : p 1=3 und H1 : p < 1=3 setzen. Manchmal verzichtet man darauf, H1 anzugeben. Dann besteht die Alternative wie oben einfach darin, dass H0 nicht gilt. In diesem Fall nennen wir H1 triviale Alternative. DWT c Susanne Albers 4.1 Einfuhrung 330/460 Ein echter, also nicht-trivialer Alternativtest lage beispielsweise vor, wenn wir ansetzen H00 : p 1=3 und H10 : p 1=6: Beispiel 120 Wir untersuchen eine Festplatte, von der bekannt ist, dass sie zu einer von zwei Baureihen gehort. Die mittleren Zugriszeiten dieser Baureihen betragen 9ms bzw. 12ms. Wir mochten nun herausnden, zu welchem Typ die betrachtete Festplatte gehort, indem wir die Zugriszeit bei n Zugrien bestimmen. Hier wurde man dann ansetzen: H0 : 9 und H1 := 12, wobei die mittlere Zugriszeit bezeichnet. DWT c Susanne Albers 4.1 Einfuhrung 331/460 Fehler bei statistischen Tests Bei jedem statistischen Test konnen mit einer gewissen Wahrscheinlichkeit falsche Schlusse gezogen werden. Dieser Fall tritt beispielsweise ein, wenn H0 gilt, aber das Ergebnis ~x der Stichprobe im Ablehnungsbereich K liegt. Dann spricht man von einem Fehler 1. Art. Analog erhalten wir einen Fehler 2. Art, wenn H0 nicht gilt und ~x nicht im Ablehnungsbereich liegt. Fehler 1. Art : H0 gilt, wird aber abgelehnt. Fehler 2. Art : H0 gilt nicht, wird aber angenommen. DWT c Susanne Albers 4.1 Einfuhrung 332/460 Fur die Beurteilung eines Tests ist es wesentlich, mit welcher Wahrscheinlichkeit diese beiden Fehler eintreten konnen. Ziel ist es naturlich, diese Wahrscheinlichkeiten moglichst klein zu halten. Allerdings sind die Minimierung des Fehlers 1. Art und des Fehlers 2. Art gegenlauge Ziele, so dass ein vernunftiger Ausgleich zwischen beiden Fehlern gefunden werden muss. Wenn man beispielsweise K = ; setzt, so erhalt man Wahrscheinlichkeit Null fur den Fehler 1. Art, da H0 immer angenommen wird. Allerdings tritt der Fehler 2. Art dann mit Wahrscheinlichkeit Eins ein, wenn H0 nicht gilt. DWT c Susanne Albers 4.1 Einfuhrung 333/460 Die Wahrscheinlichkeit fur den Fehler 1. Art wird mit bezeichnet, und man spricht deshalb gelegentlich vom -Fehler. heit auch Signikanzniveau des Tests. In der Praxis ist es ublich, sich ein Signikanzniveau vorzugeben (ubliche Werte hierfur sind 0;05, 0;01 oder 0;001) und dann den Test so auszulegen (also den Ablehnungsbereich K so zu bestimmen), dass die Wahrscheinlichkeit fur den Fehler 1. Art den Wert besitzt. DWT c Susanne Albers 4.1 Einfuhrung 334/460 Konstruktion eines einfachen Tests Wir konstruieren einen Test fur den Parameter p einer Bernoulli-verteilten Zufallsvariablen X . Wir setzen H0 : p p0 ; H1 : p < p0 : Als Testgroe verwenden wir T := X1 + : : : + Xn : Fur groere Wahrscheinlichkeiten p erwarten wir auch groere Werte fur T . Deshalb ist es sinnvoll, einen Ablehnungsbereich der Art K := [0; k] fur T zu wahlen, wobei k 2 R geeignet festzulegen ist. Wir konstruieren hier also einen einseitigen Test, wahrend fur eine Nullhypothese H0 : p = p0 sowohl zu kleine als auch zu groe Werte von T zur Ablehnung von H0 fuhren sollten und somit ein zweiseitiger Test vorzuziehen ware. DWT c Susanne Albers 4.1 Einfuhrung 335/460 T ist binomialverteilt. Da wir von einem groen Stichprobenumfang n ausgehen, bietet es sich an, die Verteilung von T nach dem Grenzwertsatz von de Moivre (siehe Korollar 109) durch die Normalverteilung zu approximieren. Sei T~ := T~ ist annahernd standardnormalverteilt. DWT c Susanne Albers T np : np(1 p) p 4.1 Einfuhrung 336/460 Wir berechnen fur jeden Wert von k das zugehorige Signikanzniveau des Tests. 2 K] Pr [T k] = pmax 2H p Fehlerwahrscheinlichkeit 2. Art = sup Prp [T 62 K ] Fehlerwahrscheinlichkeit 1. Art = max Prp [T p2H0 0 p2H1 = sup Prp [T > k] p2H1 DWT c Susanne Albers 4.1 Einfuhrung 337/460 Fur den Fehler 1. Art erhalten wir = max Prp [T pp0 " k] = Prp=p [T k] 0 # = Prp=p0 T~ p k np np(1 p) " # k np 0 = Pr T~ p np0 (1 p0 ) DWT c Susanne Albers 4.1 Einfuhrung ! k np0 p : np0 (1 p0 ) 338/460 Unter Verwendung der Quantile der Standardnormalverteilung ergibt sich damit: p Ist k so gewahlt, dass (k np0 )= np0 (1 p0 ) = z , so ist das Signikanzniveau gleich . Ist das gewunschte Signikanzniveau des Tests vorgegeben, so erhalt man den Wert k = k(n) in Abhangigkeit vom Umfang n der Stichprobe durch p k = z np0 (1 p0 ) + np0 : (8) Kleinere Werte fur k verkleinern zwar den Fehler 1. Art, vergroern jedoch den Annahmebereich und damit die Wahrscheinlichkeit fur einen Fehler 2. Art. DWT c Susanne Albers 4.1 Einfuhrung 339/460 Verhalten der Testfehler Wie verhalten sich die moglichen Testfehler des konstruierten Verfahrens? Was geschieht beispielsweise, wenn p nur geringfugig kleiner als p0 ist? In diesem Fall betrachten wir beim Fehler 2. Art die Wahrscheinlichkeit Prp=p " [T k] Prp=p [T k] 1 : 0 0 Wenn sich also die wahren\ Verhaltnisse nur minimal von unserer Nullhypothese " unterscheiden, so werden wir diese im Zweifelsfall\ annehmen. " DWT c Susanne Albers 4.1 Einfuhrung 340/460 Bei echten Alternativtests werden fur hinreichend groe Stichproben und einen geeignet eingestellten Ablehnungsbereich beide Testfehler klein. Beispiel 121 Die Abbruchrate p der Transaktionen in einem Online-Datenbanksystem wurde bereits fruher einmal ermittelt. Allerdings sind die entsprechenden Daten verloren gegangen und die Entwickler erinnern sich nur noch, dass das Ergebnis entweder p = 1=3 oder p = 1=6 lautete. Unter dieser Annahme wurde man den Test wie folgt ansetzen: H0 : p 1=3; DWT c Susanne Albers H10 : p 1=6: 4.1 Einfuhrung 341/460 Beispiel (Forts.) Fur den Fehler 2. Art erhalt man nun: Fehlerwahrsch. 2. Art = max Prp [T > k] p1=6 ! 1 pk (1=6) n : (1=6) (5=6)n Mit den obigen Werten k = 25 und n = 100 ergibt sich mit p p 100 = ( 5) 0;9871 150 5 10 ein Fehler 2. Art der Groe 0;0129, wahrend sich fur die triviale Alternative H1 : p < 1=3 ein Wert von etwa 0;95 ergibt. DWT c Susanne Albers 4.1 Einfuhrung 342/460 Die so genannte Gutefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Fur unser hier entworfenes Testverfahren gilt ! k np : g(n; p) = Prp [T 2 K ] = Prp [T k] p np(1 p) DWT c Susanne Albers 4.1 Einfuhrung 343/460 n = 50 n = 100 n = 200 1,0 0,8 0,6 0,4 0,2 0,0 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 Gutefunktion g (n; p) fur verschiedene Werte von n DWT c Susanne Albers 4.1 Einfuhrung 344/460 Man erkennt deutlich, dass fur alle n der Wert von k = k(n) genau so gewahlt wurde, dass g (n; 1=3) = 0;05 gilt. Dies wird durch den in Gleichung 8 angegebenen Ausdruck erreicht. Fur Werte von p groer als 1=3 wird H0 : p 1=3 mit hoher Wahrscheinlichkeit angenommen, wahrend fur Werte deutlich unter 1=3 die Hypothese H0 ziemlich sicher abgelehnt wird. Ferner ist auallig, dass g fur groere Werte von n schneller von Eins auf Null fallt. Daran erkennt man, dass durch den Test die Falle H0 gilt\ und H0 gilt nicht\ umso " " besser unterschieden werden konnen, je mehr Stichproben durchgefuhrt werden. Fur Werte von p, bei denen g (n; p) weder nahe bei Eins noch nahe bei Null liegt, kann der Test nicht sicher entscheiden, ob die Nullhypothese abzulehnen ist. DWT c Susanne Albers 4.1 Einfuhrung 345/460 4.2 Praktische Anwendung statistischer Tests Das im vorhergehenden Abschnitt konstruierte Testverfahren taucht in der Literatur unter dem Namen approximativer Binomialtest auf. berblick uber die Eckdaten dieses Tests. Die folgende Tabelle 1 gibt einen U DWT c Susanne Albers 4.2 Praktische Anwendung statistischer Tests 346/460 Tabelle : Approximativer Binomialtest Annahmen: X1 ; : : : ; Xn seien unabhangig und identisch verteilt mit Pr[Xi = 1] = p und Pr[Xi = 0] = 1 p, wobei p unbekannt sei. n sei hinreichend gro, so dass die Approximation aus Korollar 109 brauchbare Ergebnisse liefert. Hypothesen: a) H0 : p = p0 gegen H1 : p 6= p0 , b) H0 : p p0 gegen H1 : p < p0 , c) H0 : p p0 gegen H1 : p > p0 . Testgroe: Z := h np0 ; np0 (1 p0 ) p wobei h := X1 + : : : + Xn die Haugkeit bezeichnet, mit der die Ereignisse Xi = 1 aufgetreten sind. Ablehnungskriterium fur H0 bei Signikanzniveau : a) jZ j > z1 =2 , b) Z < z , c) Z > z1 . DWT c Susanne Albers 4.2 Praktische Anwendung statistischer Tests 347/460 4.3 Allgemeines Vorgehen bei statistischen Tests 1. Schritt: Formulierung von Annahmen. Ganz ohne Annahmen kommt man meist nicht bliche Annahmen betreen meist die Verteilung der Stichprobenvariablen aus. U und deren Unabhangigkeit. 2. Schritt: Formulierung der Nullhypothese. 3. Schritt: Auswahl des Testverfahrens. 4. Schritt: Durchfuhrung des Tests und Entscheidung. DWT c Susanne Albers 4.3 Allgemeines Vorgehen bei statistischen Tests 348/460 4.4 Ausgewahlte statistische Tests 4.4.1 Wie ndet man das richtige Testverfahren? Statistische Tests kann man nach mehreren Kriterien in Klassen einteilen. Anzahl der beteiligten Zufallsgroen Sollen zwei Zufallsgroen mit potentiell unterschiedlichen Verteilungen verglichen werden, fur die jeweils eine Stichprobe erzeugt wird (Zwei-Stichproben-Test), oder wird nur eine einzelne Zufallsgroe untersucht (Ein-Stichproben-Test)? DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 349/460 Bei der Fragestellung Betragt die mittlere Zugriszeit auf einen Datenbankserver im Mittel hochstens 10ms? hat man es mit einem Ein-Stichproben-Test zu tun, wahrend die Untersuchung der Frage Hat Datenbankserver A eine kurzere mittlere Zugriszeit als Datenbankserver B? auf einen Zwei-Stichproben-Test fuhrt. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 350/460 Bei mehreren beteiligten Zufallsgroen wird zusatzlich unterschieden, ob aus voneinander unabhangigen Grundmengen Stichproben erhoben werden oder nicht. Beim vorigen Beispiel werden unabhangige Messungen vorgenommen, sofern die Server A und B getrennt voneinander arbeiten. Wenn man jedoch die Frage Lauft ein Datenbankserver auf einer Menge festgelegter Testanfragen mit Query-Optimierung schneller als ohne? untersucht, so spricht man von verbundenen Messungen. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 351/460 Gelegentlich betrachtet man auch den Zusammenhang zwischen mehreren Zufallsgroen. Beispielsweise konnte man sich fur die Frage interessieren: Wie stark wachst der Zeitbedarf fur eine Datenbankanfrage im Mittel mit der (syntaktischen) Lange der Anfrage, d. h. fuhren kompliziertere Formulierungen zu proportional langeren Laufzeiten? Mit solchen Fragenstellungen, bei denen ein funktionaler Zusammenhang zwischen Zufallsgroen ermittelt werden soll, beschaftigt sich die Regressionsanalyse. Wenn uberhaupt erst zu klaren ist, ob ein solcher Zusammenhang besteht oder ob die Zufallsgroen vielmehr unabhangig voneinander sind, so spricht man von Zusammenhangsanalyse. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 352/460 Formulierung der Nullhypothese Welche Groe dient zur Denition der Nullhypothese? Hierbei werden in erster Linie Tests unterschieden, die Aussagen uber verschiedene so genannte Lageparameter treen, wie z.B. den Erwartungswert oder die Varianz der zugrunde liegenden Verteilungen. Im Zwei-Stichproben-Fall konnte man beispielsweise untersuchen, ob der Erwartungswert der Zufallsgroe A groer oder kleiner als bei Zufallsgroe B ist. Gelegentlich wird zur Formulierung der Nullhypothese auch der so genannte Median betrachtet: Der Median einer Verteilung entspricht dem (kleinsten) Wert x mit F (x) = 1=2. Neben solchen Tests auf Lageparameter gibt es z.B. auch Tests, die auf eine vorgegebene Verteilung oder auf ein Ma fur die Abhangigkeit verschiedener Zufallsgroen testen. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 353/460 Annahmen uber die Zufallsgroen Was ist uber die Verteilung der untersuchten Groe(n) bekannt? Bei entsprechenden Annahmen konnte es sich z.B. um die Art der Verteilung, den Erwartungswert oder die Varianz handeln. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 354/460 4.4.2 Ein-Stichproben-Tests fur Lageparameter Beim approximativen Binomialtest wird ausgenutzt, dass die Binomialverteilung fur groe n nach dem Grenzwertsatz von de Moivre (Korollar 109) gegen die Normalverteilung konvergiert. Aus diesem Grund kann man diesen Test auch als Spezialfall eines allgemeineren Testverfahrens ansehen, namlich des Gautest, der nun dargestellt wird. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 355/460 Tabelle : Gautest Annahmen: X1 ; : : : ; Xn seien unabhangig und identisch verteilt mit Xi N (; 2 ), wobei 2 bekannt ist. Alternativ gelte E[Xi ] = und Var[Xi ] = 2 , und n sei gro genug. Hypothesen: a) H0 : = 0 gegen H1 : 6= 0 , b) H0 : 0 gegen H1 : < 0 , c) H0 : 0 gegen H1 : > 0 . Testgroe: Z := X 0 p n: Ablehnungskriterium fur H0 bei Signikanzniveau : a) jZ j > z1 =2 , b) Z < z , c) Z > z1 . DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 356/460 Der Gautest hat den Nachteil, dass man die Varianz 2 der beteiligten Zufallsgroen kennen muss. Wenn diese unbekannt ist, so liegt es nahe, die Varianz durch die Stichprobenvarianz S 2 (siehe Denition 114) anzunahern. Dies fuhrt auf den so bersicht dargestellt ist. genannten t-Test, der in der folgenden U DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 357/460 Tabelle : t-Test Annahmen: X1 ; : : : ; Xn seien unabhangig und identisch verteilt mit Xi N (; 2 ). Alternativ gelte E[Xi ] = und Var[Xi ] = 2 , und n sei gro genug. Hypothesen: a) H0 : = 0 gegen H1 : 6= 0 , b) H0 : 0 gegen H1 : < 0 , c) H0 : 0 gegen H1 : > 0 . Testgroe: T := X S 0 p n: Ablehnungskriterium fur H0 bei Signikanzniveau : a) jT j > tn 1;1 =2 , b) T < tn 1; , c) T > tn 1;1 . DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 358/460 Hierbei gibt tn 1;1 das (1 )-Quantil der t-Verteilung mit n 1 Freiheitsgraden an. Die t-Verteilung taucht manchmal auch unter dem Namen Student-Verteilung auf, da sie ursprunglich unter dem Pseudonym Student\ publiziert wurde. " Wir gehen an dieser Stelle nicht darauf ein, wieso die Testgroe die t-Verteilung besitzt, sondern weisen nur darauf hin, dass die Dichte dieser Verteilung (eigentlich handelt es sich um eine ganze Familie von Verteilungen, da die Anzahl der Freiheitsgrade jeweils noch gewahlt werden kann) der Dichte der Normalverteilung ahnelt. Fur groe n (Faustregel: n 30) liegen die beiden Dichten so genau ubereinander, dass man in der Praxis die t-Verteilung durch die Normalverteilung annahert. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 359/460 0,4 n=1 n=5 n = 20 n !1 0,3 0,2 0,1 0,0 -4,0 -2,0 0,0 2,0 4,0 Dichte der t-Verteilung mit n Freiheitsgraden DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 360/460 Als weitere Beispiele fur gangige Ein-Stichproben-Tests zu Lageparametern seien der Wilcoxon-Test und der 2 -Varianztest genannt. Ersterer dient zum Testen von Hypothesen zum Median, wahrend der zweite Test Hypothesen zur Varianz beinhaltet. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 361/460 4.4.3 Zwei-Stichproben-Tests fur Lageparameter Bei Zwei-Stichproben-Tests wollen wir das Verhaltnis von Lageparametern untersuchen. Besonders wichtig sind hierbei Tests zum Erwartungswert. Fur zwei Zufallsgroen X und Y konnten wir beispielsweise die Frage untersuchen, ob fur die Erwartungswerte X und Y gilt, dass X = Y ist. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 362/460 Tabelle : Zwei-Stichproben-t-Test Annahmen: X1 ; : : : ; Xm und Y1 ; : : : ; Yn seien unabhangig und jeweils identisch verteilt, wobei Xi Yi N (Y ; Y2 ) gelte. Die Varianzen seien identisch, also X2 = Y2 . Hypothesen: a) H0 : X b) H0 : X c) H0 : X Testgroe: T := s = Y gegen H1 : X 6= Y , gegen H1 : X < Y , gegen H1 : X > Y . Y Y n+m 2 1 m + n1 N (X ; X2 ) und q X Y (m 1) SX2 + (n 1) SY2 : Ablehnungskriterium fur H0 bei Signikanzniveau : a) jT j > tm+n 2;1 =2 , b) T < tm+n 2; , c) T > tm+n 2;1 . DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 363/460 Vom Zwei-Stichproben-t-Test ndet man in der Literatur noch zusatzliche Varianten, die auch dann einsetzbar sind, wenn die beteiligten Zufallsgroen nicht dieselbe Varianz besitzen. Der beim Ein-Stichproben-Fall erwahnte Wilcoxon-Test kann ebenfalls auf den Zwei-Stichproben-Fall ubertragen werden. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 364/460 4.4.4 Nicht an Lageparametern orientierte Tests Wir betrachten in diesem Abschnitt exemplarisch den 2 -Anpassungstest. Bei einem Anpassungstest wird nicht nur der Lageparameter einer Verteilung getestet, sondern es wird die Verteilung als Ganzes untersucht. Beim approximativen Binomialtest (siehe Tabelle 1) haben wir streng genommen bereits einen Anpassungstest durchgefuhrt. Bei der Nullhypothese H0 : p = p0 wird untersucht, ob es sich bei der betrachteten Zufallsgroe um eine Bernoulli-verteilte Zufallsvariable mit Parameter p0 handelt. Beim 2 -Test gehen wir nun einen Schritt weiter: Wir nehmen an, dass die Zufallsgroe X genau k verschiedene Werte annimmt. Ohne Beschrankung der Allgemeinheit sei WX = f1; : : : ; kg. Die Nullhypothese lautet nun H0 : Pr[X = i] = pi fur i = 1; : : : ; k: DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 365/460 Tabelle : 2 -Anpassungstest Annahmen: X1 ; : : : ; Xn seien unabhangig und identisch verteilt mit WXi Hypothesen: = f1; : : : ; kg. H0 : Pr[X = i] = pi fur i = 1; : : : ; k; H1 : Pr[X = i] 6= pi fur mindestens ein i 2 f1; : : : ; kg; Testgroe: T= k X i=1 (hi npi )2 ; np i wobei hi die Haugkeit angibt, mit der X1 ; : : : ; Xn den Wert i angenommen haben. Ablehnungskriterium fur H0 bei Signikanzniveau : T > 2k 1;1 ; dabei sollte gelten, dass npi 1 fur alle i und npi 5 fur mindestens 80% der Werte i = 1; : : : ; k. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 366/460 Fur die Testgroe T wird naherungsweise eine 2 -Verteilung mit k 1 Freiheitsgraden angenommen. Die Werte dieser Verteilung nden sich in entsprechenden Tabellen in der Literatur. Damit diese Approximation gerechtfertigt ist, sollte gelten, dass npi 1 fur alle i und npi 5 fur mindestens 80% der Werte i = 1; : : : ; k. Das -Quantil einer 2 -Verteilung mit k Freiheitsgraden bezeichnen wir mit 2k; . DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 367/460 1,0 n=1 n=2 n=3 n=5 0,8 0,6 0,4 0,2 0,0 0,0 1,0 2,0 3,0 4,0 5,0 Dichte der 2 -Verteilung mit n Freiheitsgraden DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 368/460 Beispiel 122 Als Anwendung fur den 2 -Test wollen wir uberprufen, ob der Zufallszahlengenerator von Maple eine gute Approximation der Gleichverteilung liefert. Dazu lassen wir Maple n = 100000 Zufallszahlen aus der Menge f1; : : : ; 10g generieren. Wir erwarten, dass jede dieser Zahlen mit gleicher Wahrscheinlichkeit p1 = : : : = p10 = 1=10 auftritt. Dies sei unsere Nullhypothese, die wir mit einem Signikanzniveau von = 0;05 testen wollen. Beispiel: i hi 1 2 3 4 5 6 7 8 9 10 10102 10070 9972 9803 10002 10065 10133 9943 10009 9901 Fur den Wert der Testgroe gilt T = 8;9946. Ferner erhalten wir 29;0;95 16;919. Der Test liefert also keinen Grund, die Nullhypothese abzulehnen. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 369/460 Das Prinzip des 2 -Anpassungstests kann in leicht abgewandelter Form auch noch zum Testen einiger anderer Hypothesen verwendet werden: Beim 2 -Homogenitatstest wird uberpruft, ob zwei oder mehrere Verteilungen identisch sind, wahrend beim 2 -Unabhangigkeitstest zwei Zufallsgroen auf Unabhangigkeit untersucht werden. Beschreibungen dieser Tests ndet man in der Literatur. DWT c Susanne Albers 4.4 Ausgewahlte statistische Tests 370/460 Kapitel IV Stochastische Prozesse 1. Einfuhrung Wir betrachten zeitliche Folgen von Zufallsexperimenten. Mathematisch beschreibt man diese durch einen so genannten stochastischen Prozess. Darunter versteht man eine Folge von Zufallsvariablen (Xt )t2T , die das Verhalten des Systems zu verschiedenen Zeitpunkten t angeben. DWT c Susanne Albers 1 Einfuhrung 371/460 Wenn wir T = N0 annehmen, sprechen wir von einem stochastischen Prozess mit diskreter Zeit. Lasst man andererseits T = R+ 0 zu, so spricht man von stochastischen Prozessen mit kontinuierlicher Zeit. Eine besonders einfache Art von stochastischen Prozessen sind so genannte Markov-Ketten. Diese haben die Eigenschaft, dass der nachste Zustand des Prozesses zwar vom aktuellen Zustand abhangen darf, nicht aber von der Historie, d.h. davon, wie der aktuelle Zustand erreicht wurde. DWT c Susanne Albers 1 Einfuhrung 372/460 2. Prozesse mit diskreter Zeit 2.1 Einfuhrung Denition 123 Eine (endliche) Markov-Kette (mit diskreter Zeit) uber der Zustandsmenge S = f0; : : : ; n 1g besteht aus einer unendlichen Folge von Zufallsvariablen (Xt )t2N0 mit Wertemenge S sowie einer Startverteilung q0 mit q0T 2 Rn . Die Komponenten von q0 sind hierbei 0 und addieren sich zu 1. Fur jede Indexmenge I f0; : : : ; t 1g und beliebige Zustande i; j; sk (k 2 I ) gilt Pr[Xt+1 = j j Xt = i; 8k 2 I : Xk = sk ] = Pr[Xt+1 = j j Xt = i] : DWT c Susanne Albers 2.1 Einfuhrung (9) 373/460 Sind die Werte pij := Pr[Xt+1 = j j Xt = i] von t unabhangig, so nennt man die Markov-Kette (zeit)homogen. In diesem Fall bergangsmatrix durch P = (pij )0i;j<n . Wenn man S = N0 zulasst, deniert man die U so spricht man von einer unendlichen Markov-Kette. Markov-Ketten sind nach Andrey Andreyevich Markov (1856{1922) benannt. DWT c Susanne Albers 2.1 Einfuhrung 374/460 Bedingung (9) heit Markov-Bedingung und besagt: Wenn wir den Zustand i zum Zeitpunkt t kennen, so hangt die bergangswahrscheinlichkeit zum Folgezustand j nur von i und j ab. Die U Vergangenheit (Zustande zu Zeitpunkten < t) der Markov-Kette spielt keine Rolle. Das Gedachtnis\ der Markov-Kette besteht also nur aus ihrem aktuellen Zustand und sie " wei\ nicht, wie sie dorthin gekommen ist. " Bei einer zeithomogenen Markov-Kette hat die (absolute) Zeit t keinen Einuss auf die bergangswahrscheinlichkeiten pij , d.h. das Systemverhalten wird nur durch den U aktuellen Zustand bestimmt und nicht durch eine absolute Uhr. DWT c Susanne Albers 2.1 Einfuhrung 375/460 Wahrscheinlichkeitsraum einer Markov-Kette Nehmen wir an, dass wir die Kette von der Zeit 0 bis zur Zeit t0 beobachten wollen. Wir bezeichnen die Folge von Zustanden, die von der Kette in dieser Zeit durchlaufen wurde, mit ~x = (x0 ; x1 ; : : : ; xt0 ). S t0 +1 sei die Menge moglicher Zustandsfolgen. Einer beliebigen Folge ! := (x0 ; x1 ; : : : ; xt0 ) 2 ordnen wir die Wahrscheinlichkeit Pr[!] = (q0 )x 0 t0 Y i=1 Pr[Xi = xi j Xi 1 = xi 1 ] zu. Dadurch erhalten wir einen diskreten Wahrscheinlichkeitsraum im Sinne der Denition. DWT c Susanne Albers 2.1 Einfuhrung 376/460 Beispiel 124 Pr[Xt+1 = 1 j Xt = 1] = 0;9; Pr[Xt+1 = 1 j Xt = 0] = 0;2 Pr[Xt+1 = 0 j Xt = 1] = 0;1; Pr[Xt+1 = 0 j Xt = 0] = 0;8 0;2 0;8 0 1 0;9 0;1 DWT c Susanne Albers 2.1 Einfuhrung 377/460 Einen bestimmten Ablauf des Systems kann man sich als so genannten Random Walk vorstellen. Wenn wir uns beispielsweise zum Zeitpunkt t = 0 im Knoten 1 (also X0 = 1) benden, dann fuhren von dort zwei Kanten weiter, namlich zu den Knoten 0 und 1. Diese Kanten sind mit Wahrscheinlichkeiten beschriftet, die sich zu Eins addieren. Gema dieser Wahrscheinlichkeiten entscheiden wir zufallig, wohin wir uns im nachsten Schritt begeben. DWT c Susanne Albers 2.1 Einfuhrung 378/460 Wir konnen auch die Frage beantworten, mit welcher Wahrscheinlichkeit wir uns zum Zeitpunkt t = 2 im Knoten 1 benden. Da wir vereinbarungsgema beim Knoten 1 starten, gibt es zwei mogliche Wege der Lange zwei durch den Graphen mit Endknoten 1, namlich 111\ und 101\. Die Wahrscheinlichkeiten fur diese Wege " " lauten 0;9 0;9 = 0;92 bzw. 0;1 0;2. Insgesamt erhalten wir also eine Wahrscheinlichkeit von 0;81 + 0;02 = 0;83. Auch eine Aussage uber die erwartete Anzahl Schritte, die wir im Knoten 1 bis zum bergang zu Knoten 0 verbleiben, ist schnell getroen. Die Wahrscheinlichkeit, ersten U dass man genau k Schritte verbleibt, ist (0;9)k 0;1. Die Anzahl Schritte ist also geometrisch verteilt mit Erfolgswahrscheinlichkeit 0;1. Der Erwartungswert ist daher 1=0;1 = 10. DWT c Susanne Albers 2.1 Einfuhrung 379/460 bergangswahrscheinlichkeiten 2.2 Berechnung von U Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor qt (den wir als Zeilenvektor schreiben). Die i-te Komponente (qt )i bezeichnet dabei die Wahrscheinlichkeit, mit der sich die Kette nach t Schritten im Zustand i aufhalt. Es gilt Pr[Xt+1 = k] = also bzw. in Matrixschreibweise DWT c Susanne Albers nX1 i=0 Pr[Xt+1 = k j Xt = i] Pr[Xt = i]; (qt+1 )k = nX1 i=0 pik (qt )i ; qt+1 = qt P: bergangswahrscheinlichkeiten 2.2 Berechnung von U 380/460 Mit der Matrixschreibweise konnen wir qt einfach durch die Startverteilung q0 ausdrucken: qt = q0 P t : Ebenso gilt wegen der Zeithomogenitat allgemein fur alle t; k 2 N: qt+k = qt P k : bergang vom Die Eintrage von P k geben an, mit welcher Wahrscheinlichkeit ein U Zustand i zum Zustand j in genau k Schritten erfolgt. p(ijk) := Pr[Xt+k = j j Xt = i] = (P k )ij : DWT c Susanne Albers bergangswahrscheinlichkeiten 2.2 Berechnung von U 381/460 Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B , so dass P = B D B 1 gilt. Diese erhalten wir durch Berechnung der Eigenwerte und Eigenvektoren von P und durch Transformation von P in den Raum der Eigenvektoren. Dann gilt DWT c Susanne Albers P k = B Dk B 1 : bergangswahrscheinlichkeiten 2.2 Berechnung von U 382/460 Beispiel 125 P = 00;;81 00;;29 Durch Bestimmung der Nullstellen des charakteristischen Polynoms der Matrix (P I ) erhalten wir die Eigenwerte 0;7 und 1, sowie die zugehorigen (rechten) Eigenvektoren 1 = DWT c Susanne Albers 2 und = 1 : 2 1 1 383/460 Beispiel 125 Damit und B 1= Damit ergibt sich beispielsweise P3 = DWT c Susanne Albers D = 00;7 01 und B = 12 11 2 1 1 1 0;73 0 0 13 1 3 1 3 : 2 3 1 3 1 3 1 3 1 3 0;562 2 0;219 3 bergangswahrscheinlichkeiten 2.2 Berechnung von U 0;438 0;781 383/460 bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustande i und j beziehen: Wie wahrscheinlich ist es, von i irgendwann nach j zu kommen? Wie viele Schritte benotigt die Kette im Mittel, um von i nach j zu gelangen? DWT c Susanne Albers bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 384/460 Denition 126 Die Zufallsvariable Tij := minfn 0 j Xn = j , wenn X0 = ig zahlt die Anzahl der Schritte, die von der Markov-Kette fur den Weg von i nach j bergangszeit (engl. hitting time) vom Zustand i benotigt werden. Tij nennen wir die U zum Zustand j . Wenn j nie erreicht wird, setzen wir Tij = 1. Ferner denieren wir hij := E[Tij ]. Die Wahrscheinlichkeit, vom Zustand i nach beliebig vielen Schritten in den Zustand j zu gelangen, nennen wir Ankunftswahrscheinlichkeit fij . Formal denieren wir fij := Pr[Tij < 1]: DWT c Susanne Albers bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 385/460 Im Fall i = j gilt Tii = 0 und somit auch hii = 0, sowie fii = 1. Anschaulich ist dies bergangszeit gleich klar: Wenn Anfangs- und Zielzustand identisch sind, so ist die U Null. Fur viele Zwecke ist es andererseits auch interessant zu messen, wie lange es dauert, bis Zustand i zu einem spateren Zeitpunkt wieder besucht wird. Wir erganzen Denition 126 fur diesen Fall. Denition 127 Die Zufallsvariable Ti := minfn 1 j Xn = i, wenn X0 = ig zahlt die Anzahl Schritte, die von der Markov-Kette benotigt werden, um von i nach i zuruckzukehren (Ruckkehrzeit, engl. recurrence time). Der Erwartungswert sei hi := E[Ti ]. Die Wahrscheinlichkeit, mit der Ti einen endlichen Wert annimmt, nennt man Ruckkehrwahrscheinlichkeit: fi := Pr[Ti < 1]: DWT c Susanne Albers bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 386/460 1,0 Beispiel 128 1,0 0,5 0 0,5 1 2 3 0,5 0,5 Beispiel zur Berechnung von fij und hij Wir betrachten die obige Markov-Kette. Einige Besonderheiten fallen sofort auf: Beginnt man im Zustand 0, so kann man niemals einen der ubrigen Zustande bergangszeiten T01 , T02 und T03 sind daher 1. erreichen. Die U DWT c Susanne Albers 387/460 1,0 Beispiel 128 1,0 0,5 0 0,5 2 1 3 0,5 0,5 Beginnt man im Zustand 1, so entscheidet sich im ersten Schritt, ob die Kette sich zukunftig im linken Teil\ (Zustand 0) oder im rechten Teil\ (Zustand 2 " bergangszeit T10 gilt daher " und 3) aufhalt. Fur die U ( T10 = 1 1 falls X1 = 0; falls X1 = 2: Wegen Pr[X1 = 0 j X0 = 1] = 0;5 folgt f10 = 0;5 und E[T10 ] = 1. DWT c Susanne Albers 387/460 1,0 Beispiel 128 1,0 0,5 0 0,5 1 2 3 0,5 0,5 Beginnt man im Zustand 2 oder 3, so wird die Kette auch weiterhin zwischen den Zustanden 2 und 3 hin und her pendeln\. Genauer: " Die Anzahl der Schritte, in denen die Kette im Zustand 3 bleibt, ist geometrisch verteilt mit Parameter 0;5. Der Zustand 3 wird daher im Mittel nach 1=0;5 = 2 Schritten verlassen. Da Zustand 2 der einzige Nachbar von 3 ist, folgt h32 = 2 und somit insbesondere auch f32 = 1. DWT c Susanne Albers bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 387/460 Lemma 129 Fur die erwarteten Ubergangs-/R uckkehrzeiten gilt hij = 1 + X hj = 1 + X k6=j k6=j pik hkj fur alle i; j 2 S; i 6= j; pjk hkj ; sofern die Erwartungswerte hij und hkj existieren. Fur die Ankunfts-/Ruckkehrwahrscheinlichkeiten gilt analog DWT c Susanne Albers fij = pij + X fj = pjj + X k6=j k6=j pik fkj fur alle i; j 2 S; i 6= j ; pjk fkj : bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 388/460 Beweis: Sei i 6= j . Wir bedingen auf das Ergebnis des ersten Schritts der Markov-Kette und erhalten aufgrund der Gedachtnislosigkeit Pr[Tij < 1 j X1 = k] = Pr[Tkj < 1] fur k 6= j sowie Pr[Tij < 1 j X1 = j ] = 1. fij = Pr[Tij < 1] = = pij + X k6=j X k 2S Pr[Tkj < 1 j X1 = k] pik Pr[Tkj < 1] pik = pij + X k6=j pik fkj : Die Ableitung fur fj (also i = j ) ist analog. DWT c Susanne Albers 389/460 Beweis: Sei wiederum i 6= j . Wegen der Gedachtnislosigkeit folgt E[Tij j X1 = k] = 1 + E[Tkj ] fur k 6= j . Ferner gilt E[Tij j X1 = j ] = 1. Bedingen wir wieder auf das Ergebnis des ersten Schritts, so folgt (siehe Satz 36): hij= E[Tij ] = = pij + X k6=j X k 2S E[Tij j X1 = k] pik (1 + E[Tkj ]) pik = 1 + X k6=j hkj pik : Wiederum ist die Herleitung fur hj analog. DWT c Susanne Albers bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 389/460 1,0 Beispiel 130 1,0 0,5 0 0,5 1 2 3 0,5 0,5 bergangszeiten fur die Zustande 2 und 3 erhalten wir die Fur die Berechnung der U Gleichungen h2 = 1 + h32 ; h3 = 1 + 21 h23 und h23 = 1; h32 = 1 + 12 h32 = 2 : Durch Losen dieses Gleichungssystems erhalten wir die Werte h2 = 3, h3 = 1;5, h23 = 1 und h32 = 2, die man leicht veriziert. Die Ankunftswahrscheinlichkeiten lassen sich analog herleiten. Man erhalt f2 = f3 = f23 = f32 = 1. DWT c Susanne Albers bergangszeiten 2.3 Ankunftswahrscheinlichkeiten und U 390/460 2.4 Das Gambler's Ruin Problem Anna und Bodo spielen Poker, bis einer von ihnen bankrott ist. A verfugt uber Kapital a, und B setzt eine Geldmenge in Hohe von m a aufs Spiel. Insgesamt sind also m Geldeinheiten am Spiel beteiligt. In jeder Pokerrunde setzen A und B jeweils eine Geldeinheit. A gewinnt jedes Spiel mit Wahrscheinlichkeit p. B tragt folglich mit Wahrscheinlichkeit q := 1 p den Sieg davon. Wir nehmen an, dass diese Wahrscheinlichkeiten vom bisherigen Spielverlauf und insbesondere vom Kapitalstand der Spieler unabhangig sind. DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem 391/460 Wir modellieren das Spiel durch die Markov-Kette p 1 0 q 1 q p 2 q p q m p 1 1 m A interessiert sich fur die Wahrscheinlichkeit, mit der sie B in den Ruin treibt, also fur die Wahrscheinlichkeit fa;m (wir schreiben hier der Deutlichkeit halber fi;j statt fij ). Wir erhalten: fi;m = p fi+1;m + q fi 1;m fur 1 i < m 1; fm 1;m = p + q fm 2;m ; f0;m = 0: DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem (10) 392/460 Wir wollen nun fi;m allgemein als Funktion von m berechnen. Dazu beobachten wir zunachst, dass wir (10) wegen fm;m = 1 umschreiben konnen zu fi+1;m = (1=p) fi;m (q=p) fi 1;m fur 1 i < m: (11) Wir erganzen (11) um die Anfangswerte f0;m = 0 und f1;m = : (Fur den Moment fassen wir als Variable auf. Nach Losung der Rekursion werden wir so wahlen, dass die Bedingung fm;m = 1 erfullt ist.) DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem 393/460 Als Losung dieser linearen homogenen Rekursionsgleichung 2. Ordnung (11) ergibt sich fur p 6= 1=2: ! p fi;m = 2p 1 1 1 p p i : Setzen wir nun i = m, so folgt aus fm;m = 1, dass = p 1 2p 1 1 p m p gelten muss. DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem 394/460 Insgesamt erhalten wir somit das Ergebnis: 1 fj;m = 1 1 p j p : 1 p m p Fur p = 1=2 verlauft die Rechnung ahnlich. DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem 395/460 Beispiel 131 Wir wollen berechnen, wie lange A und B im Mittel spielen konnen, bis einer von ihnen bankrott geht. ha;m eignet sich dazu i.a. nicht (warum?). Wir betrachten stattdessen: Ti0 := "Anzahl der Schritte von Zustand i nach Zustand 0 oder m\ und setzen di := E[Ti0 ]: Oensichtlich gilt d0 = dm = 0 und fur 1 i < m di = qdi 1 + pdi+1 + 1 : DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem 396/460 Beispiel (Forts.) Wir betrachten nun nur den Fall p = q = 1=2 und erhalten di = i (m i) fur alle i = 0; : : : ; m: Wegen di mi m2 folgt also, dass das Spiel unabhangig vom Startzustand im Mittel nach hochstens m2 Schritten beendet ist. DWT c Susanne Albers 2.4 Das Gambler's Ruin Problem 397/460 2.5 Stationare Verteilung Reale dynamische Systeme laufen oft uber eine lange Zeit. Fur solche Systeme ist es sinnvoll, das Verhalten fur t ! 1 zu berechnen. Wir betrachten wieder die Markov-Kette aus unserem Beispiel. Wir hatten gezeigt, bergangsmatrix P gilt: dass fur die U P =BDB 1 = DWT c Susanne Albers 2 1 107 0 1 1 0 1 2.5 Stationare Verteilung 1 3 1 3 1 3 2 : 3 398/460 Daraus folgt Pt = B Dt B 1 und fur t ! 1 erhalten wir lim t!1 DWT c Susanne Albers Pt = 12 11 7 t 10 0 = 12 11 00 01 1 3 1 3 2.5 Stationare Verteilung 0 1t 1 3 = 2 3 1 3 1 3 1 3 1 3 1 3 ; 2 3 2 3 : 2 3 399/460 Fur eine beliebige Startverteilung q0 = (a; 1 lim q t!1 t DWT c Susanne Albers = tlim q !1 0 Pt a) folgt = (a; 1 a) 1 3 1 3 2 3 2 3 = 13 a + 13 (1 a); 23 a + 32 (1 a) = ( 13 ; 23 ): 2.5 Stationare Verteilung 400/460 Das System konvergiert also unabhangig vom Startzustand in eine feste Verteilung. Der zugehorige Zustandsvektor = ( 13 ; 23 ) hat eine interessante Eigenschaft: 1 2 1 2 P = ( ; ) 00;;81 00;;29 = ( ; ) = : 3 3 3 3 ist also ein Eigenvektor der Matrix P zum Eigenwert 1 bezuglich Multiplikation von links. Dies bedeutet: Wenn die Kette einmal den Zustandsvektor angenommen hat, bergangen erhalten. so bleibt dieser bei allen weiteren U DWT c Susanne Albers 2.5 Stationare Verteilung 401/460 Denition 132 P sei die U bergangsmatrix einer Markov-Kette. Einen Zustandsvektor mit = P nennen wir stationare Verteilung der Markov-Kette. Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhangig vom Startzustand in eine bestimmte stationare Verteilung konvergieren? Nein! DWT c Susanne Albers 2.5 Stationare Verteilung 402/460 1 p 0 1 1 2 q Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem gamblers ruin problem\ fur m = 2. Man sieht " sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0; 0; 1) stationare Verteilungen sind. Die beiden Zustande 0 und 2 haben jeweils keine ausgehenden Kanten. Solche Zustande heien absorbierend. DWT c Susanne Albers 2.5 Stationare Verteilung 403/460 Denition 133 bergange Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine U herausfuhren, d.h. pij = 0 fur alle j 6= i und folglich pii = 1. Ein Zustand i heit transient, wenn fi < 1, d.h. mit positiver Wahrscheinlichkeit 1 fi > 0 kehrt der Prozess nach einem Besuch von i nie mehr dorthin zuruck. Ein Zustand i mit fi = 1 heit rekurrent. DWT c Susanne Albers 2.5 Stationare Verteilung 404/460 Denition 134 Eine Markov-Kette heit irreduzibel, wenn es fur alle Zustandspaare i; j 2 S eine Zahl n 2 N gibt, so dass p(ijn) > 0. Die Denition besagt anschaulich, dass jeder Zustand von jedem anderen Zustand aus mit positiver Wahrscheinlichkeit erreicht werden kann, wenn man nur genugend viele Schritte durchfuhrt. Dies ist bei endlichen Markov-Ketten genau dann der Fall, wenn bergangsdiagramms stark zusammenhangend ist. der gerichtete Graph des U DWT c Susanne Albers 2.5 Stationare Verteilung 405/460 Lemma 135 Fur irreduzible endliche Markov-Ketten gilt: fij = Pr[Tij < 1] = 1 fur alle Zustande i; j 2 S . Zusatzlich gilt auch, dass die Erwartungswerte hij = E[Tij ] alle existieren. DWT c Susanne Albers 2.5 Stationare Verteilung 406/460 Beweis: Wir betrachten zunachst den Beweis fur die Existenz von hij . Fur jeden Zustand k gibt es nach Denition der Irreduzibilitat ein nk , so dass p(kjnk ) > 0. Wir halten nk fest und setzen n := maxk nk und p := mink p(kjnk ) . Von einem beliebigen Zustand aus gelangen wir nach hochstens n Schritten mit Wahrscheinlichkeit mindestens p nach j . Wir unterteilen die Zeit in Phasen zu n Schritten und nennen eine Phase erfolgreich, wenn wahrend dieser Phase ein Besuch bei j stattgefunden hat. Die Anzahl von Phasen bis zur ersten erfolgreichen Phase konnen wir durch eine geometrische Verteilung mit Parameter p abschatzen. Die erwartete Anzahl von Phasen ist somit hochstens 1=p, und wir schlieen hij (1=p)n. Daraus folgt sofort, dass auch fij = Pr[Tij < 1] = 1. DWT c Susanne Albers 2.5 Stationare Verteilung 407/460 Satz 136 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationare Verteilung , und es gilt j = 1=hjj fur alle j 2 S . Beweis: Wir zeigen zunachst, dass es einen Vektor 6= 0 mit = P gibt. Sei e := (1; : : : ; 1)T bergangsmatrix P gilt P e = e, der All-1-Vektor und I die Einheitsmatrix. Fur jede U da sich die Eintrage der Zeilen von P zu Eins addieren. Daraus folgt 0 = P e e = (P I )e, und die Matrix P I ist somit singular. Damit ist auch die transponierte Matrix (P I )T = P T I singular. Es gibt also einen (Spalten-)Vektor P6= 0 mit (P T I ) = 0 bzw. T P = T . Wir betrachten zunachst den Fall, dass 6= 0. Dann konnen wir o.B.d.A. annehmen, dass normiert ist, also dass Pi i i i = 1 gilt. DWT c Susanne Albers 2.5 Stationare Verteilung 408/460 Beweis (Forts.): Wegen Lemma 135 existieren die Erwartungswerte hij . Fur jeden Zustand j 2 S gelten somit nach Lemma 129 die Gleichungen i hij = i 1 + X k6=j pik hkj fur i 2 S , i 6= j: j hj + X i6=j i hij = 1 + = 1+ XX i2S k6=j X k6=j hkj P i i i pik hkj Wir addieren diese Gleichungen und erhalten wegen X i2S =1 i pik = 1 + X k6=j k hkj : Wegen hj > 0 ist auch j = 1=hj positiv, und stellt somit einen zulassigen Zustandsvektor dar. P Fur den Fall i i = 0 zeigt die entsprechende Rechnung wie zuvor, dass j = 0 fur alle j 2 S gilt. Dies steht im Widerspruch zu 6= 0. DWT c Susanne Albers 2.5 Stationare Verteilung 409/460 Auch wenn eine Markov-Kette irreduzibel ist und somit eine eindeutige stationare Verteilung besitzt, so muss sie nicht zwangslaug in diese Verteilung konvergieren. 1 0 1 1 Eine Markov-Kette mit periodischen Zustanden Als Startverteilung nehmen wir q0 ( = (1; 0) an. Es gilt: (1; 0) falls t gerade, qt = (0; 1) sonst. Die Kette pendelt also zwischen den beiden Zustandsvektoren (1; 0) und (0; 1) hin und her. DWT c Susanne Albers 2.5 Stationare Verteilung 410/460 Denition 137 Die Periode eines Zustands j ist deniert als die grote Zahl 2 N, so dass gilt: fn 2 N0 j p(jjn) > 0g fi j i 2 N0g Ein Zustand mit Periode = 1 heit aperiodisch. Wir nennen eine Markov-Kette aperiodisch, wenn alle Zustande aperiodisch sind. DWT c Susanne Albers 2.5 Stationare Verteilung 411/460 bergangsdiagramm einen Fur ein n 2 N gilt p(iin) > 0 genau dann, wenn es im U geschlossenen Weg von i nach i der Lange n gibt. Damit folgt insbesondere: Ein Zustand i 2 S einer endlichen Markov-Kette ist sicherlich dann aperiodisch, wenn bergangsdiagramm er im U eine Schleife besitzt (also pii > 0) oder auf mindestens zwei geschlossenen Wegen W1 und W2 liegt, deren Langen l1 und l2 teilerfremd sind (fur die also ggT(l1 ; l2 ) = 1 gilt). DWT c Susanne Albers 2.5 Stationare Verteilung 412/460 Lemma 138 Ein Zustand i 2 S ist genau dann aperiodisch, falls gilt: Es gibt ein n0 2 N, so dass p(iin) > 0 fur alle n 2 N; n n0 . Beweis: Da je zwei aufeinanderfolgende naturliche Zahlen teilerfremd sind, folgt aus der Existenz eines n0 mit der im Lemma angegebenen Eigenschaft sofort die Aperiodizitat des Zustands. Nehmen wir daher umgekehrt an, dass der Zustand i aperiodisch ist. Mit Hilfe des erweiterten euklidischen Algorithmus kann man die folgende Aussage zeigen. Fur je zwei naturliche Zahlen a; b 2 N gibt es ein n0 2 N, so dass gilt: Bezeichnet d := ggT(a; b) den groten gemeinsamen Teiler von a und b, so gibt es fur alle n 2 N; n n0 nichtnegative Zahlen x; y 2 N0 mit nd = xa + yb. DWT c Susanne Albers 2.5 Stationare Verteilung 413/460 Beweis (Forts.): Wegen pii(xa+yb) (p(iia) )x (p(iib) )y folgt daraus unmittelbar: Gilt fur a; b 2 N, dass sowohl p(iia) als auch p(iib) positiv sind, so gilt auch p(iind) > 0 fur alle n 2 N, n n0 . Aus der Aperiodizitat des Zustand i folgt andererseits, dass es Werte a0 ; : : : ; ak geben muss mit p(iiai ) > 0 und der Eigenschaft, dass fur d1 = ggT(a0 ; a1 ) und di := ggT(di 1 ; ai ) fur i = 2; : : : ; k gilt: d1 > d2 > > dk = 1. Aus beiden Beobachtungen zusammen folgt die Behauptung. DWT c Susanne Albers 2.5 Stationare Verteilung 414/460 Korollar 139 Fur irreduzible, aperiodische endliche Markov-Ketten gilt: Es gibt ein t 2 N, so dass unabhangig vom Startzustand (qt )i > 0 fur alle i 2 S . Beweis: Aus der Irreduzibilitat folgt, dass die Markov-Kette jeden Zustand i 2 S irgendwann besuchen wird. Wegen Lemma 138 wissen wir ferner, dass die Kette hinreichend viele Schritte nach dem ersten Besuch in i in jedem folgenden Zeitschritt mit positiver Wahrscheinlichkeit zu i zuruckkehren wird. Da die Kette endlich ist, gibt es daher ein n0 , so dass die Kette sich unabhangig vom Startzustand fur alle n n0 in jedem Zustand i 2 S mit positiver Wahrscheinlichkeit aufhalt. DWT c Susanne Albers 2.5 Stationare Verteilung 415/460 Die Aperiodizitat einer irreduziblen Markov-Kette kann auf einfache Weise sichergestellt werden. Man fugt an alle Zustande so genannte Schleifen an. Diese bergangswahrscheinlichkeit p = 1=2 und halbiert die versieht man mit der U Wahrscheinlichkeiten an allen ubrigen Kanten. 0;5 1;0 0 0;7 2 1 0;3 1;0 ! 0;5 0;5 0 0;5 0;35 2 1 0;15 0;5 Einfuhrung von Schleifen Bei irreduziblen Ketten genugt es, eine einzige Schleife einzufuhren, um die Aperiodizitat der Kette sicherzustellen. Denition 140 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch. DWT c Susanne Albers 2.5 Stationare Verteilung 416/460 Satz 141 (Fundamentalsatz fur ergodische Markov-Ketten) Fur jede ergodische endliche Markov-Kette (Xt )t2N0 gilt unabhangig vom Startzustand lim q n!1 n = ; wobei die eindeutige stationare Verteilung der Kette bezeichnet. Beweis: Gema Satz 136 existiert eine stationare Verteilung . Wir zeigen, dass fur beliebige Zustande i und k gilt p(ikn) ! k fur n ! 1: Daraus folgt die Behauptung, da (qn )k = DWT c Susanne Albers X i2S (q0 )i p(ikn) ! k X i2S 2.5 Stationare Verteilung (q0 )i = k : 417/460 Beweis (Forts.): (Yt )t2N0 sei eine unabhangige Kopie der Kette (Xt )t2N0 . Fur den Prozess Zt := (Xt ; Yt ) (t 2 N0 ), bei dem die Ketten Xt und Yt gewissermaen "parallel\ betrieben werden, gilt also Pr[(Xt+1 ; Yt+1 ) = (jx ; jy ) j (Xt ; Yt ) = (ix ; iy )] = Pr[Xt+1 = jx j Xt = ix ] Pr[Yt+1 = jy j Yt = iy ] = pix jx piy jy : (Zt )t2N ist daher ebenfalls eine Markov-Kette. Fur die Wahrscheinlichkeit, in n Schritten von (ix ; iy ) nach (jx ; jy ) zu gelangen, erhalt man analog pi(xnj)x p(iynj)y , was fur genugend groes n gema Lemma 138 positiv ist. (Zt )t 2N ist daher ebenfalls 0 0 ergodisch. DWT c Susanne Albers 2.5 Stationare Verteilung 418/460 Beweis (Forts.): Wir starten nun Zt so, dass die Ketten Xt und Yt in verschiedenen Zustanden ix bzw. iy beginnen, und interessieren uns fur den Zeitpunkt H , bei dem sich Xt und Yt zum ersten Mal im gleichen Zustand benden. Die Menge der Zustande von Zt ist gegeben durch S S . Wir denieren die Menge M := f(x; y) 2 S S j x = yg: von Zustanden der Kette Zt , an denen sich Xt und Yt treen\. Denieren wir nun die " Trezeit H durch H := maxfT(ix ;iy );(jx ;jy ) j (ix ; iy ) 2 S S; (jx ; jy ) 2 M g; so folgt aus Lemma 135 und der Endlichkeit der Markov-Kette sofort, dass Pr[H < 1] = 1 und E[H ] < 1. DWT c Susanne Albers 2.5 Stationare Verteilung 419/460 Beweis (Forts.): Da die weitere Entwicklung der Ketten Xt und Yt ab dem Zeitpunkt H nur vom bergangsmatrix abhangt, wird jeder Zustand s 2 SZ zu Zustand XH = YH und der U den Zeiten t H von Xt und Yt mit derselben Wahrscheinlichkeit angenommen. Es gilt also Pr[Xt = s j t H ] = Pr[Yt = s j t H ] und somit auch Pr[Xt = s; t H ] = Pr[Yt = s; t H ]: (12) Als Startzustand wahlen wir fur die Kette Xt den Zustand i, wahrend Yt in der stationaren Verteilung beginnt (und naturlich auch bleibt). Damit erhalten wir fur einen beliebigen Zustand k 2 S und n 1 jp(n) j = jPr[X = k] Pr[Y = k]j ik DWT c Susanne Albers k n n = jPr[Xn = k; n H ] + Pr[Xn = k; n < H ] Pr[Yn = k; n H ] Pr[Yn = k; n < H ]j: 2.5 Stationare Verteilung 420/460 Beweis (Forts.): Nun konnen wir (12) anwenden und schlieen, dass jp(ikn) k j = jPr[Xn = k; n < H ] Pr[Yn = k; n < H ]j: Zur Abschatzung dieses Ausdrucks benutzen wir die Abschatzung jPr[A \ B ] Pr[A \ C ]j Pr[A]: fur beliebige Ereignisse A, B und C (die oensichtlich ist). Wir erhalten jp(ikn) k j Pr[n < H ]: Da Pr[H < 1] = 1, gilt Pr[n < H ] ! 0 fur n ! 1, d.h. die Wahrscheinlichkeiten p(ikn) konvergieren fur n ! 1 gegen k . DWT c Susanne Albers 2.5 Stationare Verteilung 421/460 2.6 Doppeltstochastische Matrizen Wie berechnet man die nach Satz 141 (eindeutig bestimmte) stationare Verteilung, gegen die ergodische endliche Markov-Ketten fur jede Startverteilung konvergieren? Eine Moglichkeit besteht darin, das lineare Gleichungssystem P = aufzustellen und zu losen. Fur groere Matrizen ist dieses Verfahren allerdings im Allgemeinen sehr aufwandig. Wir stellen hier einen anderen Ansatz vor. DWT c Susanne Albers 2.6 Doppeltstochastische Matrizen 422/460 Denition 142 Eine n n Matrix P = (pij )0i;j<n heit stochastisch, falls alle Eintrage pij nichtnegativ und alle Zeilensummen gleich Eins sind: nX1 j =0 pij = 1 fur alle i = 0; : : : ; n 1: Sind zusatzlich auch alle Spaltensummen gleich 1, also nX1 i=0 pij = 1 fur alle j = 0; : : : ; n 1; so nennt man P doppeltstochastisch. bergangsmatrix einer Markov-Kette ist immer stochastisch, und umgekehrt. Die U DWT c Susanne Albers 2.6 Doppeltstochastische Matrizen 423/460 Lemma 143 Ist P eine doppeltstochastische n n Matrix, so ist = ( n1 ; : : : ; n1 ) ein Eigenvektor zum Eigenwert 1 bezuglich Multiplikation von links: = P: Beweis: Fur alle 0 k < n gilt: nX1 1 ( P )k = i pik = n pik = n1 = k : i=0 i=0 nX1 | {z } =1 DWT c Susanne Albers 2.6 Doppeltstochastische Matrizen 424/460 Zusammen mit Satz 141 erhalten wir damit sofort: Satz 144 Fur jede ergodische endliche Markov-Kette (Xt )t2N0 mit doppeltstochastischer Ubergangsmatrix gilt unabhangig vom Startzustand lim q t!1 t = ( n1 ; : : : ; n1 ); wobei n die Kardinalitat der Zustandsmenge bezeichne. Beweis: Klar! DWT c Susanne Albers 2.6 Doppeltstochastische Matrizen 425/460 Beispiel 145 Anna und Bodo verabreden sich wieder einmal zu einer Partie Poker. Misstrauisch geworden durch ihre Verluste beim letzten Rendezvous verdachtigt Anna mittlerweile ihren Spielpartner, beim Mischen zu mogeln. Um ganz sicher zu gehen, dass die Karten zukunftig auch wirklich gut gemischt werden, schlagt sie folgendes Verfahren vor: Der Stapel mit Karten wird verdeckt hingelegt; dann werden m-mal jeweils zwei Karten daraus zufallig ausgewahlt und vertauscht. Soll Bodo dieser Prozedur zustimmen? DWT c Susanne Albers 426/460 Beispiel 145 Wir modellieren den oben skizzierten Mischvorgang durch eine Markov-Kette. Als Zustandsmenge S wahlen wir alle moglichen Anordnungen der Karten. Identizieren wir die Karten mit den Zahlen [n] = f1; : : : ; ng, so besteht S aus der Menge aller Permutationen der Menge [n]. Betrachten wir nun zwei verschiedene Permutationen ; 2 S . Nach Denition der bergangswahrscheinlichkeit p; genau dann positiv, wenn es Markov-Kette ist die U i; j 2 [n], i 6= j , gibt, so dass 8 > < (j ) falls k = i; (k) = (i) falls k = j; > : (k) sonst. DWT c Susanne Albers 426/460 Beispiel 145 Da nach Voraussetzung i und j zufallig gewahlt werden (und es genau n2 solcher Paare i; j gibt), gilt in diesem Fall p; = 1= n2 . Da man jede Vertauschung zweier Karten durch nochmaliges Vertauschen wieder ruckgangig machen kann, sieht man auch sofort ein, dass p; = p; gilt. Die bergangsmatrix P ist also symmetrisch und damit insbesondere auch U doppeltstochastisch. Aus Satz 144 folgt somit, dass die Markov-Kette unabhangig von der Startverteilung zur Gleichverteilung konvergiert. Der von Anna vorgeschlagene Mischvorgang ist also in der Tat sinnvoll: Fur m ! 1 konvergiert die Wahrscheinlichkeitsverteilung fur die sich ergebende Kartenreihenfolge gegen die Gleichverteilung, die Karten sind also bestens gemischt! DWT c Susanne Albers 426/460 Beispiel 145 Anmerkung: Man kann zeigen, dass fur n Karten bereits m = O(n log n) Vertauschungen genugen, um einen gut durchmischten Kartenstapel zu erhalten. DWT c Susanne Albers 2.6 Doppeltstochastische Matrizen 426/460