Knut Bartels / Hans Gerhard Strohe Arbeitsblätter zur Vorlesung im Wintersemester 2005/06 Statistik II – Induktive Statistik Dies ist kein Vorlesungsskript Wirtschafts- und Sozialwissenschaftliche Fakultät Lehrstuhl für Statistik und Ökonometrie Prof. Dr. Hans Gerhard Strohe Dr. Knut Bartels Sekretariat: Frau Viola Schölzel Campus Griebnitzsee, Haus 1, Zi. 307 Telefon: 0331 / 977 3225 Diese Blätter sind nicht die Statistik-Vorlesung, auch kein Vorlesungs-Skript, sondern nur eine unverbindliche und sehr unvollständige Mitschreibe- und Erinnerungshilfe. Sie finden darin die Begriffe und Schwerpunkte, mit denen Sie sich tiefer beschäftigen sollten. Sie können auf keinen Fall den Vorlesungsbesuch, die aktive Mitarbeit in den Übungen und das Literaturstudium ersetzen. Prüfungsrelevant sind nicht diese Folien, sondern die in der eigentlichen Vorlesung angebotenen Inhalte, die einer ständigen Aktualisierung und Ergänzung unterliegen. Prof. Dr. H. G. Strohe Statistik I I. 3 Gliederung 1. Wahrscheinlichkeitsrechnung in Mathematik und Wirtschaft 1.0 Voraussetzungen 1.1 Zufällige Ereignisse 1.1.1 Definition 1.1.2 Wirtschaftswissenschaftliche Relevanz 1.1.3 Ereignisoperationen 1.2 Wahrscheinlichkeit 1.2.1 Definitionen 1.2.2 Rechengesetze 1.2.3 Bedingte Wahrscheinlichkeit 1.2.4 Formel von Bayes und praktische Nutzung 1.3 Zufallsvariable und Verteilungen 1.3.1 Definitionen 1.3.2 Diskrete Zufallsvariable in Theorie und Praxis 1.3.3 Stetige Zufallsvariable in Mathematik und Wirtschaft 1.3.4 Allgemeine Verteilungsgesetze 1.4 Stichprobenfunktionen Prof. Dr. H. G. Strohe Statistik II I. 4 2. Schätzverfahren 2.1 Punktschätzung wirtschaftlicher Kennzahlen 2.1.1 Angestrebte Eigenschaften von Schätzern 2.1.2 Beispiele: Durchschnitt und Varianz 2.1.3 Schätzprinzipien LS und ML 2.2 Schätzen von Vertrauensintervallen 2.2.1 Schwankungsintervall 2.2.2 Konfidenzintervall, Konfidenzniveau 2.2.3 Intervallschätzung des Erwartungswertes wirtschaftlicher Größen 2.2.4 Intervallschätzung von ökonomischen Anteilszahlen Prof. Dr. H. G. Strohe Statistik II I. 5 3. Das Prüfen von Hypothesen 3.1 Signifikanztests in der Wirtschaft 3.2 Hypothesen über Durchschnitte 3.3 Hypothesen über Anteile 3.4 χ² -Tests 3.4.1 Prüfen der Varianz 3.4.2 Prüfen der Unabhängigkeit statistischer 3.4.3 Prüfen von Verteilungen 3.5 Prüfen des Medians 3.6 Fehler erster und zweiter Art Prof. Dr. H. G. Strohe Statistik II Merkmale I. 6 1 Wahrscheinlichkeitsrechnung in Mathematik und Wirtschaft 1.0 Voraussetzungen Fragen: Beispiele für Unsicherheiten im täglichen Leben ? In der Wirtschaft? Haben wir ein zuverlässiges Gefühl für Wahrscheinlichkeit? Wodurch wird die Wahrnehmung verzerrt? Was ist Wahrscheinlichkeit? - “Wahr” oder “Schein”? Subjektiv oder Objektiv? Prof. Dr. H. G. Strohe Statistik II I. 7 Fachliche Voraussetzungen: Mengenlehre Kombinatorik Grundbegriffe von BWL und VWL Bitte unbedingt wiederholen! Prof. Dr. H. G. Strohe Statistik II I. 8 Geschichte (I): Altertum und Mittelalter: - subjektiv - nicht quantitativ - wahrsagerisch 16. Jh.: Erste Versuche: - Cardano: De ludo aleae - Galilei ( Prof. Dr. H. G. Strohe - ) : 3 Würfel, Statistik II P(10)>P(9)? I. 9 Geschichte (II): 17. Jh.: - Glückspielprobleme des Chevalier de Meré: Teilungsproblem - Briefwechsel zwischen B. Pascal und P. Fermat (1654 Geburtsjahr der Wahrscheinlichkeitsrechnung = „Geometrie des Glücks“); - Ganz andere Fragen in England: Graunt’s .................... ( 1620-1674, s. Statistik I) Prof. Dr. H. G. Strohe Statistik II I. 10 Geschichte (III): 18. Jh.: - Theorie und Empirie: Datenanalyse Astronomie und Versicherung herausragend: - Jakob Bernoulli (Schweiz): Theorie, Kombinatorik, Binomialverteilung, Spiele und ökonomische Anwendungen - Bruder Nikolaus Bernoulli: Formel für die Ruin-Wahrscheinlichkeit Prof. Dr. H. G. Strohe Statistik II I. 11 Geschichte (IV): noch 18. Jh.: noch herausragend: - Bayes: Neuer, allgemeinerer Wahrscheinlichkeitsbegriff - Laplace: Wahrscheinlichkeit, Statistik und Prognose - ... Prof. Dr. H. G. Strohe I. Statistik II I. 12 Geschichte (V): 19. Jh.: Weiterentwicklung, Vervollständigung und Ausdehnung in fast alle Wissenschaften - Gauß ( ... - ... ): Normalverteilung, Methode d. kleinsten Quadrate, Schätztheorie - Poisson, Quetelet, Galton: Wahrscheinlichkeit in Wirtschafts- und Sozialwissenschaften und Biologie (Genetik) - ... Prof. Dr. H. G. Strohe Statistik II I. 13 Geschichte (VI): 20. Jh.: Unüberschaubar viel - Mathematische Statistik R.A.Fisher (1890-1962), Pearson, Gosset - Axiomatische Definition der Wahrscheinlichkeit (Kolmogorow 1933) - ... Neue Anwendungen: - Wahrscheinlichkeit am Finanzmarkt (........................... 1973; wieder zurück zum Glücksspiel?) Prof. Dr. H. G. Strohe Statistik II I. 14 1.1 Zufällige Ereignisse 1.1.1 Definition Zufallsversuch (= Zufallsvorgang, hier kurz V): (theoretisch) wiederholbarer Vorgang oder Fragestellung mit ungewissem Ausgang Beispiele ?? Zufälliges Ereignis: (genau definiertes, aber ungewisses) Resultat eines ........................... Prof. Dr. H. G. Strohe Statistik II I. 15 1.1 zufällige Ereignisse (II) Beispiele 1. V: Münzenwurf E1= „Zahl“ ; E2= „Bild“ 2. V: Erhebung der Beschäftigungsdauer eines Erwerbstätigen z.B.: A1= „weniger als 3 Monate“, A2=“ genau 5 Monate“ weitere?? 3. V: Kurs einer Aktie bei Börsenschluss? Zufällige Ereignisse?? Prof. Dr. H. G. Strohe Statistik II I. 16 1.1 zufällige Ereignisse (III) Spezielle theoretische zufällige Ereignisse: Sicheres Ereignis: (= Ereignisraum ) Unmögliches Ereignis: (=leere Menge Ø) Beispiel: V: Würfeln Sicheres Ereignis: „Augenzahl kleiner als 10 “ „Augenzahl größer als 0“ oder Unmögliches Ereignis: „Augenzahl = 20“ u.a. Besonderheit? Prof. Dr. H. G. Strohe Statistik II I. 17 1.1 zufällige Ereignisse (IV) Elementarereignisse entsprechen genau je einem unteilbaren Versuchsausgang, d. h. sie enthalten keine unterschiedlichen Möglichkeiten und schließen einander aus. Beispiele: V1: einfaches Würfeln, 6 Elementarereignisse: · : ·: :: :·: ::: V2: Aktienkurs bei Börsenschluss: Wie viele Elementarereignisse Prof. Dr. H. G. Strohe Statistik II I. 18 1.1 zufällige Ereignisse (V) weitere Beispiele: V3: Familienbildung mit 3 Kindern: Ereignis “drei Jungen” ist Elementarereignis Ereignis “zwei Jungen” - nicht. Warum nicht?? V4: Energieverbrauch eines Haushalts: jede einzelne nichtnegative reelle Zahl ist Elementarereignis Unterschiede? Prof. Dr. H. G. Strohe Statistik II I. 19 1.1 zufällige Ereignisse (VI) Ereignisraum, Ereignismenge, Stichprobenraum: Menge Ω aller Elementarereignisse eines Zufallsvorganges Beispiele Beim Würfeln = {· , : , ... , :: , :·: , ::: } Beim Energieverbrauch? Prof. Dr. H. G. Strohe Statistik II I. 20 1.1 zufällige Ereignisse (VII) Darstellung von Ereignissen wie in Mengenlehre A1 · · A2 A3 : Prof. Dr. H. G. Strohe Statistik II I. 21 1.1 zufällige Ereignisse (VIII) Beispiel Versuch: Würfeln; z. B. 3 Ereignisse A1 – „ungerade Augenzahl“ A2 – „Augenzahl 1“ A3 – „Augenzahl durch 3 teilbar“ Ist ein Elementarereignis darunter??? Jedes Ereignis setzt sich aus Elementarereignissen zusammen. Ausnahme: .................... Prof. Dr. H. G. Strohe Statistik II I. 22 1.1 zufällige Ereignisse (IX) 1.1.2 Wirtschaftswissenschaftliche Relevanz ..................... 1.1.3 Ereignisoperationen: Durchschnitt: A B = "A und B treten ein" Beispiele: - Würfel: A1 A3 = {} -Kurs: z.B. A = „ höher als 200„ B = „unter 210„ A B = „zwischen 200 und 210„ Prof. Dr. H. G. Strohe Statistik II I. 23 1.1 zufällige Ereignisse (X) Vereinigung: A B = „A oder B tritt ein“ (nicht „...............“ !) Beispiel: -Würfel: A1 A3 = {·,, :·:, } Prof. Dr. H. G. Strohe Statistik II I. 24 1.1 zufällige Ereignisse (XI) weiteres Beispiel: - Kurs: C = „zwischen 200 und 210" D = „zwischen 206 und 215" C D = „zwischen 200 und 215“ C D = ?? Prof. Dr. H. G. Strohe Statistik II I. 25 1.1 zufällige Ereignisse (XII) Komplementäres Ereignis (Negation): A = "A tritt nicht ein" Beispiel: - Würfeln: - Kurs: A1 = {: , :: , ::: } D = ?? Prof. Dr. H. G. Strohe Statistik II I. 26 1.1 zufällige Ereignisse (XIII) leicht zu zeigen (Übungsaufgabe) E E ............. E E ........ de-Morgansche Formeln: E D ED E D ED Prof. Dr. H. G. Strohe Statistik II I. 27 1.1 zufällige Ereignisse (XIV) Relationen (wie in der Mengenlehre): A B: Wenn Ereignis A eintritt, tritt auch B ein, d. h. “A zieht B nach sich” Beispiel: (Würfeln) A 2 A1 Analog: , Beispiele? Prof. Dr. H. G. Strohe Statistik II I. 28 1.1 zufällige Ereignisse (XV) Folgerungen: Aus AB und BA Aus AB folgt AB B folgt .................. Wiederholung: Jedes zufällige Ereignis ist selbst eine Menge von Ereignissen. Wann? Prof. Dr. H. G. Strohe Statistik II I. 29 1.1 zufällige Ereignisse (XVI) Ereignisfeld : Menge aller zufälligen Ereignisse (Mengen), die als Ausgang eines Zufallsversuchs eintreten können, einschließlich des unmöglichen Ereignisses, = Menge aller Ereignisse, die sich aus den Elementarereignissen des Ereignisraums bilden lassen: = Menge aller Teilmengen von = Potenzmenge des Ereignisraumes . Prof. Dr. H. G. Strohe Statistik II I. 30 1.1 zufällige Ereignisse (XVII) Beispiel: Würfeln: Ø , {·}, {:}, ..., {:::} (Anzahl = 7) {· , : }, {:·: , ::: } ( K6,2 {· , : , }, ... , ( ... = 20) {· , : , , , : : }, ... , ( ... = 15) {· , : , , , : :, :·: }, ... , ( ... = 7) Prof. Dr. H. G. Strohe 6! 15) 4!2! Statistik II I. 31 1.1 zufällige Ereignisse (XVIII) noch Beispiel: noch Würfeln: Summe aller Kombinationen ohne Wdh.: K (6,0) + K (6,1) + K (6,2) + ... + K (6,6) = 64 = 26 Verallgemeinert: Ereignisanzahl = ............... bei n Elementarereignissen Prof. Dr. H. G. Strohe Statistik II I. 32 1.2. Wahrscheinlichkeit 1.2.1 Wahrscheinlichkeit – Definitionen (I) Wahrscheinlichkeit als Maß für den Grad der Sicherheit des Eintretens eines Ereignisses bei einem Zufallsversuch. Definitionen b) Klassische Definition nach Laplace (1749-1827) Anz. d. für A “günstigen” Möglichkeiten P(A) = __________________________________________________ .................................................. Prof. Dr. H. G. Strohe Statistik II I. 33 1.2.1 Wahrscheinlichkeit – Definitionen (II) noch a) Klassische Definition nach LaPlace (1749-1827) Annahme: Alle Elementarereignisse gleichwahrscheinlich. Anzahl der in A enthalt. El.ereign. n (A) ______________________________________ _________ P(A) = = Gesamtanzahl an Elementarereign. n () Beispiele: c) (Münze) P("Zahl") = 1/2 = 0.5 e) (Würfel) P(A1) = 3/6 = 0.5 Prof. Dr. H. G. Strohe Statistik II I. 35 1.2.1 Wahrscheinlichkeit – Definitionen (III) noch Beispiele: c) Wahrscheinlichkeit des “Knackens” K ihres Kontos bei 4-stelligem Pin-Code, wenn dem Dieb bekannt ist, dass er mit einer 7 beginnt. Variationen (Reihenfolge spielt Rolle) mit Wiederholungen von 10 Elementen (Ziffern) zur Ordnung 3 (noch freie Pins): P(K) = 1/Vw(10;3) = 1/103 = 0,001 d.h.?? Prof. Dr. H. G. Strohe Statistik II I. 36 1.2.1 Wahrscheinlichkeit – Definitionen (IV) noch Beispiele: d) (nach Bamberg/Baur) 5 Folienschreiber, 2 Stifte wasserlöslich. Arbeit immer mit blind gegriffenem Stift. A = „Folien mit Wasser korrigierbar“ Frage 1): P(A) = ? Lösung: 1 = {wählbare Stifte} n(1) = 5; P(A) = 2/5 = 0,4 Prof. Dr. H. G. Strohe Statistik II n(A) = 2 I. 37 1.2.1 Wahrscheinlichkeit – Definitionen (V) weiterhin noch Beispiel d) : Jetzt 3 Tage Arbeit, jeden Tag zufällig einen Stift benutzen (abends zurücklegen!) B= "Keine Folie mit Wasser korrigierbar" Frage 2) P(B)=? Prof. Dr. H. G. Strohe Statistik II I. 38 1.2.1 Wahrscheinlichkeit – Definitionen (VI) weiterhin noch Beispiel d) : Lösung: Neuer Ereignisraum 2 (3 Tage): Jeden Tag n=5 Möglichkeiten: 1.Tag 5 2.Tag 5 3.Tag 5 = 125 Elementarereignisse Wiederholung möglich, Reihenfolge wichtig → Variationen n(2) = Vw(5,3) =53=125 Prof. Dr. H. G. Strohe Statistik II I. 39 1.2.1 Wahrscheinlichkeit – Definitionen (VII) Analog allein mit den 3 wasserfesten Stiften: n(B)=Vw(3,3)=33=27 Also P(B) = n(B)/n(Ω2) = 27/125 = ........... Interpretation?? Prof. Dr. H. G. Strohe Statistik II I. 40 1.2.1 Wahrscheinlichkeit – Definitionen (VIII) Ohne theoretisches Wissen: b) Statistische Definition der Wahrscheinlichkeit: Relative Häufigkeit, n-malige Wiederholung des Versuchs h-maliges Auftreten von A: Pn(A) =pn = ............... Von n abhängig, aber mit wachsendem n immer kleinere Unterschiede Prof. Dr. H. G. Strohe Statistik II I. 41 1.2.1 Wahrscheinlichkeit – Definitionen (IX) Beispiel: 400 importierte Kälber, V1 = Prüfung auf Rückst. v. Antibiotika (A1=positiv) V2 = Prüfung auf Hormongaben (A2 = positiv) V1 50-mal positiv , V2 40-mal pos., 20-mal beide positiv (= A1 A2) Prof. Dr. H. G. Strohe Statistik II I. 42 1.2.1 Wahrscheinlichkeit – Definitionen (X) noch Beispiel: 50 1 P400 (A1 ) 0,125 P(A1 ) 400 8 20 1 P400 (A1 A2 ) P(A1 A 2 ) 400 20 40 1 P400 (A 2 ) P(A 2 ) 400 10 Prof. Dr. H. G. Strohe Statistik II I. 43 1.2.1 Wahrscheinlichkeit – Definitionen (XI) c) Axiomatische Definition Wahrscheinlichkeitsbegriff erst Anfang 20.Jh. mathematisch präzisiert: Kolmogorowsches Axiomensystem 1) Für jedes E gilt 0 P(E) 1. 3) P() = 1 3) Für E1, E2 mit E1E2=Ø gilt P(E1 E2) = .................. (Additivität). Prof. Dr. H. G. Strohe Statistik II I. 44 1.2.2 Wahrscheinlichkeit – Rechengesetze (I) Aus den Axiomen abgeleitete Sätze: a) P(Ø) = ...................... Beispiel: (Würfeln) P(· ) = P(Ø) = 0 Achtung: Aus P(A) = 0 folgt nicht immer A = Ø Beispiel: P("DAX = 3937,117444...") = 0 warum?? Aber Ereignis nicht unmöglich. Elementarereignis ist hier „atomares“ Ereignis. Prof. Dr. H. G. Strohe Statistik II I. 45 1.2.2 Wahrscheinlichkeit – Rechengesetze (II) a) P(A ) = 1 - P(A) c) Additionssatz: P(A B) = P(A) + P(B) - P(A B) = P(A) + P( B) A Beweise?? Prof. Dr. H. G. Strohe Statistik II I. 46 1.2.2 Wahrscheinlichkeit – Rechengesetze (III) Beispiele: a) (Würfeln, Ereignissymbole wie zuletzt) P(A1 A3) = 3/6 + 2/6 - 1/6 = 4/6 = 2/3 b) (Kälber, entspr. Bezeichnungen) P(A1 A2) = 1/8 + 1/10 - 1/20 = 7/40 = 0.175 Aussage? Prof. Dr. H. G. Strohe Statistik II I. 47 1.2.2 Wahrscheinlichkeit – Rechengesetze (IV) d) A B P(A) P(B) Beispiel: (Würfeln) A2 A1 P(A1) = 3/6; P(A2) = 1/6 Komplexbeispiel: Lieferung eines Gerätes. Prof. Dr. H. G. Strohe Gelegentlich Zurückweisung, Statistik II I. 48 1.2.2 Wahrscheinlichkeit – Rechengesetze (V) noch Komplexbeispiel: Mögliche Gründe: Ereignisse A1 = Maße falsch A2 = Materialfehler A3 = Verspätung P(A1) = 0.08 P(A2) = 0.12 P(A3) = 0.05 Weiter vorgegeben: P(A1 A2) = 0.02; P(A2 A3) = 0.02 P(A1 A3) = 0.02; P(A1 A2 A3) = 0.01 Prof. Dr. H. G. Strohe Statistik II I. 49 1.2.2 Wahrscheinlichkeit – Rechengesetze (VI) Gesucht: a) Wahrscheinlichkeit, dass Lieferung zurückzuweisen ist b) Wahrscheinlichkeit, dass eine Lieferung nicht zurückzuweisen ist c) Wahrscheinlichkeit, dass an einer Lieferung nur Materialfehler zu bemängeln sind. Prof. Dr. H. G. Strohe Statistik II I. 50 1.2.2 Wahrscheinlichkeit – Rechengesetze (VII) Lösungen: a) P(A1 A2 A3) = P(A1 {A2 A3}) = P(A1) + P(A2 A3) - P(A1 {A2 A3}) = P(A1) + P(A2A3) - P( {A1A2} {A1A3} ) = P(A1) + [P(A2) + P(A3) - P(A2A3)] - [P(A1A2) + P(A1A3) - P(A1A2A3)] = 0,08 + 0,12 + 0,05 - 0,02 - [0,02 + 0,02 – 0,01] = 0,23 - 0,03 = 0,2 Interpretation? Prof. Dr. H. G. Strohe Statistik II I. 51 1.2.2 Wahrscheinlichkeit – Rechengesetze (VIII) noch Lösungen P A1 A2 A3 = 1 - P(A1 A2 A3) = 0.8 b) Mit Wk. v. 80% ist ein beliebiges Teil nicht fehlerhaft c) gesucht: ______ P(A2 {A1A3}) (nur A2!) zunächst: ______ A1 A2 A3 = (A1 A3) (A2 {A1A3}) warum? Prof. Dr. H. G. Strohe Statistik II I. 52 1.2.2 Wahrscheinlichkeit – Rechengesetze (IX) noch Lösungen noch c) Weil einander ausschließend: ______ P (A1A2A3) = P(A1 A3) + P(A2 {A1 A3}) Umgekehrt: ______ P (A2 {A1A3}) = P(A1A2A3) - P( A1 A3 ) = P(A1 A2 A3) - [P(A1) + P(A3) - P(A1 A3)] = 0.2 - [0.08 + 0.05 - 0.02] = 0.09 d.h.? Prof. Dr. H. G. Strohe Statistik II 53 1.2.3 Bedingte Wahrscheinlichkeit Frage nach stochastischer Unabhängigkeit von Ereignissen Wahrscheinlichkeit unter Zusatzinformationen P(A|B) = Wahrscheinlichkeit für Eintreffen d. Ereignisses A unter der Bedingung, dass Ereignis B eintritt (eingetreten ist) Prof. Dr. H. G. Strohe Statistik II I. 54 1.2.3 bedingte Wahrscheinlichkeit (II) Beispiele: a) (wieder mangelhafte Lieferung) P(A1|A2) ist Wahrscheinlichkeit, dass ein Stück mit Materialfehler (A2= Bedingung) nicht maßgerecht (A1) ist. Unterschied zu P(A1)?? Prof. Dr. H. G. Strohe Statistik II I. 55 1.2.3 bedingte Wahrscheinlichkeit (III) noch Beispiele: noch b) (Würfeln, alte Bezeichnungen) P(A2|A1) ist Wahrscheinlichkeit, dass eine „· “ (A2) gewürfelt, wenn eine ungerade Augenzahl (A1= Bedingung) gewürfelt wurde. Unterschied zu P(A2)?? Prof. Dr. H. G. Strohe Statistik II I. 56 1.2.3 bedingte Wahrscheinlichkeit (IV) noch Beispiele: c) Statistisch bestimmte Wahrscheinlichkeiten für 2002: Einwohner Deutschlands: n = 80975000 “Versuche” I = Tod eines beliebigen Einwohners Deutschlands 2002 durch Infektionskrankheit P(I) = n(I)/n = 0.000087 G = Tod durch Gewalt; P(G)=0.000038 (für Männer ...51; für Frauen ...27) Prof. Dr. H. G. Strohe Statistik II I. 57 1.2.3 bedingte Wahrscheinlichkeit (V) noch Beispiele: noch c) S = Sterben im geg. Jahr; P(S)=0.010592 Wahrscheinlichkeit, dass ein Infekt Ursache eines gegebenen Todesfalles war, zunächst intuitiv: P(I | S) Prof. Dr. H. G. Strohe P(I) 0,000087 0,008214 P(S) 0, 010592 Statistik II I. 58 1.2.3 bedingte Wahrscheinlichkeit (VI) noch nochBeispiele: noch c) analog: P(G | S) P(G) 0,000038 0,003588 P(S) 0,010592 gilt nur, weil I S, G S Prof. Dr. H. G. Strohe Statistik II I. 59 1.2.3 bedingte Wahrscheinlichkeit (VII) noch Beispiele: noch c) Jetzt schwieriger F=“Person ist weiblich“, n(F) = 41675000, Zahl weiblicher Gewalttoter: 1121 Wahrscheinlichkeit, dass weibliche Person durch Gewalt umkommt: P(G | F) 1121 0,0000269 41675000 Prof. Dr. H. G. Strohe Statistik II I. 60 1.2.3 bedingte Wahrscheinlichkeit (VIII) Oder erweitern mit n: P(G | F) 1121 / 80975000 41675000 / 80975000 P(G F) 0,000138 0,0000269 P(F) 0,51467 Zeigt allgemeine Formel: Prof. Dr. H. G. Strohe Statistik II I. 61 1.2.3 bedingte Wahrscheinlichkeit (IX) Sei P(B) … 0 Die bedingte Wahrscheinlichkeit von E bei gegebenem B (=Bedingung) ist dann P(E | B) P(E B) P(B) Prof. Dr. H. G. Strohe Statistik II I. 62 1.2.3 bedingte Wahrscheinlichkeit (X) Beispiele: a) (Lieferung mit Mängeln, alte Bezeichnungen) P(A 1 | A 2 ) P(A 1 A 2 ) 0,02 1 0,167 P(A 2 ) 0,12 6 mit Wahrscheinlichkeit von .............. ist ein Stück mit Materialfehler (A2) auch nicht maßgerecht (A1). a) (Würfeln, Forts.) P(A 2 | A 1 ) P(A2 A1 ) 1/6 ........... P(A1 ) 1/2 Interpretation? Prof. Dr. H. G. Strohe Statistik II I. 63 1.2.3 bedingte Wahrscheinlichkeit (XI) Rechenregeln für bedingte Wahrscheinlichkeit: b) P ( B) =...................... b) Additionssatz: P(A1A2 | B) = P(A1|B) + P(A2|B) - P(A1 A2 | B) c) speziell: A1A2 = Ø P(A1A2 | B) = P(A1| B) + P(A2 | B) Prof. Dr. H. G. Strohe Statistik II I. 64 1.2.3 bedingte Wahrscheinlichkeit (XII) d) Multiplikationssatz: P(A B ) = P(A | B) P(B) e) P(Ø | B) = 0 für alle B h) P( A| B) = 1 - P(A | B) g) B A P(A | B) = 1 Prof. Dr. H. G. Strohe Statistik II I. 65 1.2.3 bedingte Wahrscheinlichkeit (XIII) Beispiele: 1. (Würfeln) P(A1 | A2) = 1, weil A2 A1 Wahrscheinlichkeit, dass eine ungerade Zahl gewürfelt wird, wenn eine 1 gewürfelt wird, ist 100% 2. (Krankheiten) P (S| I) = 1 Interpretation??? Prof. Dr. H. G. Strohe Statistik II I. 66 1.2.4 Formel von Bayes und praktische Nutzung A1, A2, . . . An heißt vollständiges System von Ereignissen, wenn bei jedem Versuch genau eins dieser Ereignisse eintreten muss, d.h. A1 A2 . . . An = (Erschöpfend) Ai Aj = Ø für i …j (Disjunkt) Vgl. Klassifizierung in Statistik I Prof. Dr. H. G. Strohe Statistik II I. 67 1.2.4 Formel von Bayes und praktische Nutzung (II) A3 A4 EA4 EA2 A2 E EA1 A5 A1 EA6 A6 n P(E) P(E Ai ) i 1 Prof. Dr. H. G. Strohe Statistik II I. 68 1.2.4 Formel von Bayes und praktische Nutzung (III) Beispiele: b) Würfeln: A1 = "ungerade Zahl", A4 = "gerade Zahl"; {A1, A4} vollständiges System z.B. E={ ; ::}, EA1={}; EA4={::} 1 1 1 P(E)= + = 6 6 3 Prof. Dr. H. G. Strohe Statistik II I. 69 1.2.4 Formel von Bayes und praktische Nutzung (IV) noch Beispiele: b) Einkommensklassen u.v.a. Aus Multiplikationssatz: n P(E) P(E | A i )P(A i ) Totale Wahrscheinlichkeit i 1 (= gewogenes arithmetisches Mittel) Prof. Dr. H. G. Strohe Statistik II I. 70 1.2.4 Formel von Bayes und praktische Nutzung (V) Beispiel: Vermögensberatung Berater Betreuter Vermögensanteil Wahrscheinlichkeit v. Verlusten 1 2 3 60% 25% 15% 9% 12% 4% Mit welcher Wahrscheinlichkeit führt eine beliebige Empfehlung zu Verlusten? Prof. Dr. H. G. Strohe Statistik II I. 71 1.2.4 Formel von Bayes und praktische Nutzung (VI) noch Beispiel: E = „eine zufällige geprüfte Empfehlung bringt Verlust” Bi =„die Empfehlung stammt von i-tem Berater“ Drei Berater = vollständiges System. Verwendung der Vermögensanteile als Wahrscheinlichkeit P(E) = P(E|B1) P(B1) + P(E|B2) P(B2) + P(E|B3) P(B3) = 0,09 0,6 + 0,12 0,25 + 0,04 0,15 = ................. Interpretation? Prof. Dr. H. G. Strohe Statistik II I. 72 1.2.4 Formel von Bayes und praktische Nutzung (VII) Wenn P(E | B) = P(E), dann heißt E stochastisch unabhängig v. B Wenn P(E|B) =P(E) dann P(B|E) =P(B) Bitte beweisen Sie das! Multiplikationssatz für unabhängige Ereignisse: E, B stochastisch unabhängig P(E B) = P(E) P(B) Bitte beweisen! Prof. Dr. H. G. Strohe Statistik II I. 73 1.2.4 Formel von Bayes und praktische Nutzung (VIII) Herleitung der Formel von Bayes (1702 - 1761) A1, . . . An vollständiges System von Ereignissen Noch einmal totale Wahrscheinlichkeit: n P E = P E A i × P A i i1 Prof. Dr. H. G. Strohe Statistik II I. 74 1.2.4 Formel von Bayes und praktische Nutzung (IX) Umgekehrt: P A j E P Aj E = P E = = P EAj PE nach Definition der bedingten Wahrscheinlichkeit P E A j ×P A j PE Prof. Dr. H. G. Strohe nach Multiplikationssatz Statistik II I. 75 1.2.4 Formel von Bayes und praktische Nutzung (X) P E A j ×P A j n totale Wahrscheinlichkeit P E Ai × P Ai einsetzen i=1 P E A j ×P A j P Aj E = n P E Ai × P Ai Formel von Bayes i1 Prof. Dr. H. G. Strohe Statistik II I. 76 1.2.4 Formel von Bayes und praktische Nutzung (XI) P(Aj) - a-priori-Wahrscheinlichkeit P(Aj|E) - a-posteriori-Wahrscheinlichkeit Beispiel a) (Vermögensberatung) Eine spezielle Empfehlung bringt Verlust Mit welcher Wahrscheinlichkeit stammt sie von Berater 2 (a-posteriori)? P(B2) = 0,25 (a-priori) Warum? Prof. Dr. H. G. Strohe Statistik II I. 77 1.2.4 Formel von Bayes und praktische Nutzung (XII) noch Beispiel a) P( B2 E ) P( E B2 ) × P( B2 ) P ( E B1 ) × P( B1 ) P( E B2 ) × P( B2 ) P( E B3 ) × P ( B3 ) 0,12 × 0,25 0,333 0,09 Mit der Wahrscheinlichkeit von 33.33% stammt eine Empfehlung von Berater 2, wenn sie verlustreich ist. Prof. Dr. H. G. Strohe Statistik II I. 78 1.2.4 Formel von Bayes und praktische Nutzung (XIII) Beispiel b) Rasterfahndung Ereignisse: T = “Terrorist/in” RT = “verdächtig nach Raster” Schärfe des Raster kann eingestellt werden: P R T T =0,99, Sensitivität 99% P R T T =0,90, Spezifität 90% (Wie verhalten sich beide zueinander??) Prof. Dr. H. G. Strohe Statistik II I. 79 1.2.4 Formel von Bayes und praktische Nutzung (XIV) noch Beispiel b) angenommen 0.02% der Bevölkerung sind Terroristen/innen (oder “Schläfer/innen”), d.h. P(T)=0.0002 (a-priori) Ableitungen: P T =0,9998 P R T T =0,01 P R T T =0,10 Prof. Dr. H. G. Strohe Statistik II I. 80 1.2.4 Formel von Bayes und praktische Nutzung (XV) noch Beispiel b) Frage: Mit welcher Wahrscheinlichkeit ist ein im Raster „Gefangener“ wirklich Terrorist (a-posteriori)? Satz von Bayes: P T RT = = P RT T× P T P R T T × P T +P R T T × P T 0,99 × 0,0002 = 0,99 × 0,0002+0,10 × 0,9998 Prof. Dr. H. G. Strohe Statistik II I. 81 1.2.4 Formel von Bayes und praktische Nutzung (XVI) noch Beispiel b) 0,000198 0,100178 0,0019764 Interpretation ?? 0, 2%! P T R T =0,998024 d.h. v. 1000 verdächtigten Personen sind 998 in Wirklichkeit harmlos. Prof. Dr. H. G. Strohe Statistik II I. 82