Faktensammlung Statistik Teil 2 Induktive Statistik Prof. Dr. N. Wolik Fachbereich Wirtschaft FH Bochum University of Applied Sciences Wintersemester 2006/2007 Vorwort Die modernen Wirtschaftswissenschaften nutzen in selbstverständlicher Weise die Instrumente der Mathematik und Statistik. Diese Veranstaltung soll Ihnen die grundlegenden Verfahren und Methoden der Beschreibenden und Schließenden Statistik nahe bringen, die für die Wirtschaftswissenschaften besonders wichtig sind. Im Zentrum der Deskriptiven Statistik stehen analytische und graphische Methoden zur Datensammlung, -aufbereitung und –verdichtung wie Häufigkeitsverteilungen, Lage- und Streuungsparameter, Verhältnis- und Indexzahlen, Maßgrößen für die Konzentration, Korrelation und Regression sowie eine Einführung in die elementare Zeitreihenanalyse. Die Inhalte der Schließenden Statistik (Stichproben-, Schätz- und Testverfahren) basieren auf den Begriffen der Wahrscheinlichkeit und der Wahrscheinlichkeitsverteilung. Daher erfolgt zunächst eine Einführung in die Wahrscheinlichkeitsrechnung, um die Basis für die zu behandelnden induktiven Methoden zu legen. Diese Faktensammlung bildet den Stoff des Moduls „Wirtschaftsstatistik“ im Studiengang Bachelor of Arts „Wirtschaftswissenschaften“ ab. Sowohl Teil 1 (Deskriptive Statistik) als auch Teil 2 (Induktive Statistik) werden jeweils durch eine Klausur abgeprüft deren mit den Semesterwochenstunden gewichtetes Mittel die Modulnote ergibt. Das vorliegende Kurzskriptum kann und will weder die Lektüre eines Lehrbuches noch den regelmäßigen Besuch der Lehrveranstaltungen ersetzen. Vielmehr ist es seine Intention, Sie in den Vorlesungen und Übungen von einiger Schreibarbeit zu entlasten. Die Faktensammlung enthält Definitionen und Sätze der Vorlesungen. Dennoch kann auf ein Mitschreiben nicht verzichtet werden. Begleitend werden im Intranet Übungsaufgaben bereitgestellt, deren selbständige Bearbeitung das Verständnis fördert. Bochum, im Herbst 2006 N. Wolik Literatur. Fahrmeier et. al: Statistik, Der Weg zur Datenanalyse Springer Schira, J.: Statistische Methoden der VWL und BWL Pearson Steland, A.: Mathematische Grundlagen der empirischen Forschung Springer Weigand, C.: Statistik mit und ohne Zufall Physica Zoefel,P.: Statistik für Wirtschaftswissenschaftler Pearson 1 Einführung in die Wahrscheinlichkeitsrechnung Der Begriff der Wahrscheinlichkeitsrechnung ist wahrscheinlich einer der schillerndsten Begriffe der Alltagssprache über den vermutlich bereits die meisten Menschen einmal nachgedacht haben. Häufig wird dabei versucht die Zufälle zu quantifizieren, d. h. die „Chance“ auf einen Gewinn im Glücksspiel zu berechnen. Ist diese „Chance“ gering, sollte eine kleine Kennzahl resultieren; ist diese „Chance“ groß, sollte eine große Kennzahl resultieren. Man beachte, dass in einem umgangssprachlichen Satz wie: „Ich werde wahrscheinlich pünktlich sein.“ i. d. R. der Überzeugung Ausdruck verliehen wird, dass eher davon auszugehen ist, dass man pünktlich ist, als davon, unpünktlich zu sein. Eine mathematische Quantifizierung des Zufalls normiert diese Maßzahl auf das Intervall [0,1] . Einem unmöglichen Ereignis wird der Wahrscheinlichkeitswert 0 zugeordnet: P(Es regnet und es regnet [gleichzeitig] nicht) = 0; dem sicheren Ereignis wird das W-Maß 1 zugeordnet: P(Es regnet oder es regnet nicht) = 1. Der umgangssprachlichen Formulierung „Wahrscheinlich bin ich pünktlich“ kommt demnach die quantifizierte Äußerung P(„ich komme pünktlich“) > 0,5 zu. Dies wird generell so verstanden, dass bei einem häufigen Warten auf diese Person in mehr als der Hälfte aller Fälle diese Person pünktlich sein wird. Der mathematische Begriff der Wahrscheinlichkeit ordnet jedem (auch einem „unwahrscheinlichen“) Ereignis einen Wahrscheinlichkeitswert zu. Der letztgenannte Gedanke über die Frequenz des Ereignisses „pünktlich zu sein“ zeigt die nahe Verwandtschaft des Begriffes Wahrscheinlichkeit mit der relativen Häufigkeit der deskriptiven Statistik. Die nachfolgenden Unterkapitel versuchen, eine einführende Einsicht in den Begriff der Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung zu vermitteln. 1-1 Einführung in die Wahrscheinlichkeitsrechnung 1.1 Zufall und Wahrscheinlichkeit Definition: ( Zufallsvorgang, Zufallsexperiment ) Ein Zufallsvorgang führt auf sich gegenseitig ausschließende Ergebnisse, die nicht mit Sicherheit vorhersagbar sind. Wird dieser Zufallsvorgang geplant in Gang gesetzt, spricht man von Zufallsexperiment. Z.B.: Würfeln, Sollmaß eines Werkstückes, Stichprobenziehung „6 aus 49“ Definition ( Ergebnis, Ergebnisraum ) Der Ergebnisraum Ω = {ω1,..., ωn } ist die Menge aller Ergebnisse ωi eines Zufallsvorganges. Teilmengen von Ω heißen (Zufalls-Ereignisse). Die Ergebnisse heißen auch Elementarereignisse. Beispiel: Werfen eines Würfels Einmaliges Werfen: Ω = {1,2,3,4,5,6} Elementarereignisse: {1},{2},{3},{4},{5},{6}; Ereignisse: z. B.: {1,3,5} „Würfeln einer ungeraden Zahl“ {1,2} „Würfeln von 1 oder 2“ Um einem zufälligen Ereignis ein konkretes Wahrscheinlichkeitsmaß zuzuordnen gibt es verschiedene Möglichkeiten: Definition: ( Laplace-Wahrscheinlichkeit , klassische Wahrscheinlichkeit ) Geht man von endlich vielen gleichmöglichen Elementarereignissen (Ergebnissen) aus, dann ist die Wahrscheinlichkeit des Ereignisses A nach Laplace definiert als P(A) = Anzahl aller günstigen Ergebnisse Anzahl aller möglichen Ergebnisse 1-2 Einführung in die Wahrscheinlichkeitsrechnung Beispiel: Werfen eines fairen Würfels P ({1} ) = 1 = P ({2}) = ... = P ({6}) 6 P ({1,2} ) = P (1 oder 2 fällt) = 2 1 = 6 3 P (ungerade Zahl fällt) = P ({1,3,5} ) = 3 1 = 6 2 Übung: Eine Familie hat zwei Kinder. Wie groß ist die Wahrscheinlichkeit, dass mindestens ein Junge unter den Kindern ist, wenn die Geburt eines Jungen oder eines Mädchens gleich wahrscheinlich ist? Lösung: P(mindestens 1 Junge) = 3 4 Wären die Elementarereignisse stets gleichwahrscheinlich, käme man mit dem Laplace´schen Wahrscheinlichkeitsbegriff aus. Allerdings ist dies nicht so. Man denke an einen gezinkten Würfel. Würde man beobachten, dass ein Spieler 20mal hintereinander eine „6“ würfelt, begänne man spätestens dann an einen fairen Würfel zu zweifeln. Dem liegt die Überzeugung zugrunde, dass bei hinreichend häufiger Wiederholung die relative Häufigkeit eine (6) zu würfeln der Wahrscheinlichkeit P ({6} ) entspricht. Beobachtete man also bei sehr häufiger Wiederholung des Würfelns mit einem gezinkten Würfel eine relative Häufigkeit für „6“ von 2 2 unterstellt man P ({6} ) = 3 3 Definition ( statistische Wahrscheinlichkeit ) Der Grenzwert lim fn ( A ) , dem die relative Häufigkeit f des Ereignisses A bei n→∞ unendlich häufiger Wiederholung zustrebt, heißt statistische Wahrscheinlichkeit. Eine mathematische Begründung für diese Sicht auf die Wahrscheinlichkeit stellt das „Gesetz der großen Zahlen“ dar. 1-3 Einführung in die Wahrscheinlichkeitsrechnung Dieser frequentistische Wahrscheinlichkeitsbegriff schlägt die Brücke zwischen deskriptiver und induktiver Statistik, d. h. den relativen Häufigkeiten und den Wahrscheinlichkeiten: Zu jeder empirischen Verteilung eines Merkmales X mit der relativen Häufigkeits- ɶ mit zufälligen Werten x konstruieren, deren funktion f ( x ) lässt sich eine Variable X ( ) ɶ = x identisch mit den empirischen relativen Häufigkeiten Wahrscheinlichkeiten P X f ( x ) ist: ( ) ɶ = x = f (X = x) . P X Um dies zu verdeutlichen betrachte man eine Grundgesamtheit von 49% Männern und 51% Frauen. Diese bloße deskriptive Feststellung hat noch nichts mit Wahrscheinlichkeiten zu tun. Den Brückenschlag zur Wahrscheinlichkeitsrechnung schafft das Gedankenexperiments einer zufälligen Stichprobe vom Umfang 1. Da jede Person in einem solchen Experiment die gleiche Chance hat, ausgewählt zu werden, ist die Wahrscheinlichkeit dafür einen „Mann zu ziehen“ identisch mit der relativen Häufigkeit von 49%. Dasselbe gilt für das Ereignis „Frau wird gezogen“. Im Gegensatz zum Laplace´schen oder auch zum frequentistischen Wahrscheinlichkeitsbegriff ist es durchaus nicht notwendig, die Belegung eines Ereignisses mit einer Wahrscheinlichkeit nach objektiven Regeln durchzuführen. So ist es für einen Spieler lediglich wichtig, wie fest er daran glaubt, dass „die 17 fällt“, wenn er auf die 17 im Roulette wettet; unabhängig davon, wie eine objektive Wahrscheinlichkeit ist. Ob ein Anleger in eine Aktie investiert, hängt möglicherweise davon ab, welche subjektive Wahrscheinlichkeit er dem Ereignis „Kurs steigt“ zumisst. [Glauben hinreichend viele Anleger an einen steigenden Kurs, wird diese aufgrund der steigenden Nachfrage tatsächlich steigen. „Self-fullfilling prophecy“] Dieser subjektivistische Wahrscheinlichkeitsbegriff bleibt in sich logisch, wenn er gewissen Anforderungen genügt, die ein „vernünftiger“ Wahrscheinlichkeitsbegriff haben sollte. Z. B. sollte bei einem Wahrscheinlichkeitsmaß das auf [0,1] normiert ist gelten: P (Kurs steigt) = 1 − P (Kurs steigt nicht) Kolmogoroff begründet die moderne Wahrscheinlichkeitstheorie mit der axiomatischer Definition eines Wahrscheinlichkeitsmaßes: 1-4 Einführung in die Wahrscheinlichkeitsrechnung Definition ( Wahrscheinlichkeitsmaß ): Es sei E die Menge aller Ereignisse (Ereignismenge) über dem Ergebnisraum Ω. Eine Abbildung P : E → [0,1] mit (K1) P ( A ) ≥ 0 für jedes A ∈ E (K2) P ( Ω ) = 1 (für das sichere Ergebnis) (K3) P ( A ∪ B ) = P ( A ) + P (B ) für A ∩ B = ∅ heißt Wahrscheinlichkeitsmaß auf E und P ( A ) heißt Wahrscheinlichkeit für A Beispiel: einmaliger Münzwurf E = { },{Kopf },{Zahl},{Kopf,Zahl} Ω Ω = {Kopf,Zahl} Faire Münze: P ({ }) = 0 P ({Kopf,Zahl}) = 1 P ({Kopf }) = 1 2 P ({Zahl} ) = 1 2 Unfaire Münze (z.B.) P ({Kopf } ) = 0,9 P ({Zahl} ) = 0,1 Bemerkungen: 1. Das Axiom (K3) ist nur für 2 Ereignisse formuliert worden, weil bislang zumindest implizit von lediglich endlichen Egebnisräumen Ω ausgegangen wurde. In Zukunft werden wir uns auch mit unendlichen Ergebnisräumen beschäftigen. Tatsächlich formulierte Kolmogoroff allgemeiner ∞ ∞ i=1 i=1 (K`3): P(∪ A i ) = ∑ P(A i ) für paarweise disjunkte A i . 1-5 Einführung in die Wahrscheinlichkeitsrechnung 2. Bedenkt man Kolmogoroffs Axiome sorgfältig, dann fällt auf, dass die Ereignismenge E, die zugrunde gelegt wird, gewisse Eigenschaften aufweisen muss, damit überhaupt sinnvoll darauf ein Wahrscheinlichkeitsmaß definiert werden kann. Die erforderliche Struktur ist die einer σ-Algebra: - Ω ∈ E (Das sicher Ereignis gehört zu E) - A ∈ E ⇒ A ∈ E (mit A gehört auch das Gegenereignis zu E) ∞ - ∪ Ai ∈ E (Abgeschlossenheit bezüglich der Vereinigung) . i=1 3. Ist der Ergebnisraum Ω endlich, dann benutzt man als Ergebnismenge in der Regel die Potenzmenge 2Ω := {Menge aller Teilmengen von Ω }. n Die Potenzmenge einer n-elementigen Menge hat 2 Elemente Aus den Axiomen ergeben sich unmittelbar folgende Konsequenzen: Satz (Rechenregeln für Wahrscheinlichkeiten) Sei Ω ein Ergebnisraum, dann gilt für Ereignisse 1.) 0 ≤ P ( A ) ≤ 1 für A < Ω 2.) P ( ∅ ) = 0 3.) P ( A ) ≤ P (B ) falls A ⊂ B ( ) 4.) P A = 1 − P ( A ) mit A = Ω / A 5.) P ( A1 ∪ A 2 ∪ ... ∪ A k ∪ ...) = P ( A1 ) + P ( A 2 ) + ... + P ( A k ) + ... für paarweise disjunkte Ai 6.) P ( A ∪ B ) = P ( A ) + P (B ) − P ( A ∩ B ) 1-6 Einführung in die Wahrscheinlichkeitsrechnung Definition (Wahrscheinlichkeitsraum) Das Tripel ( Ω,E,P) mit dem Ergebnisraum Ω, dem Ereignisraum E und dem Wahrscheinlichkeitsmaß P heißt Wahrscheinlichkeitsraum. Ist Ω endlich oder abzählbar unendlich heißt der Warhrscheinlichkeitsraum diskret; die Mächtigkeit von Ω kann allerdings auch überabzählbar sein. In der obigen Grafik wird der Ereignisraum mit Σ bezeichnet. Dieser Konvention wird häufig gefolgt, um daran zu erinnern, dass es sich um eine σ-Algebra handelt. (vgl. oben). Beispiel (endlicher Gleichwahrscheinlichkeitsraum) Gegeben sei ein endlicher Ergebnisraum Ω = {ω1,..., ωn } mit gleichwahrscheinlichen Elementarereignissen P(ωi ) =: pi = n n 1 1 (Laplace). Dann ist ∑ pi =∑ = 1. n i=1 i=1 n Konkret: Einfacher Wurf mit einem fairen Würfel. Ω = {1,2,3,4,5,6} ; P(1) = P(2) = ... = P(6) = 1 und 6 n n i=1 i=1 ∑ P(i) =∑ pi = 1 1-7 Einführung in die Wahrscheinlichkeitsrechnung Beispiel (abzählbar unendlicher Gleichwahrscheinlichkeitsraum) Gegeben sei ein abzählbar unendlicher Ergebnisraum Ω = {ω1,..., ωn ,.....} mit gleichwahrscheinlichen Elementarereignissen P(ωi ) =: pi ≥ 0 . Dann muss nach ∞ Kolmogoroff wiederum gelten ∑ pi =1 und für ein beliebiges Ereignis A aus E i=1 ∑ pj . gilt P ( A ) = ωj∈A Konkret: Münzwurf bis zum ersten Mal „Kopf“ erscheint. Ω = {K,ZK,ZZK,ZZZK,...} ist abzählbar unendlich. P (K ) = p1 = pi = 1 2 1 i 2 P ( ZK ) = p2 = und ∞ ∞ i=1 1 ∑ pi = ∑ 1 2i 1 4 P ( ZZK ) = p3 = 1 usw. d.h. 8 =1 Die vermeintliche widersprüchliche Tatsache, dass sich (abzählbar!) unendlich viele positive Summanden 1 2i zum endlichen Wert 1 summieren verdeutlicht die folgende sukzessive Berechnung des Flächeninhaltes eines Quadrates der Kantenlänge Eins. 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1= + = + + = + + + = + + + + = .... 1/4 2 2 2 4 4 2 4 8 8 2 4 8 16 16 1 ∞ 1 =∑ i i=1 2 . 1 Bereits in der deskriptiven Statistik wurde betont, dass eine stetige metrische Variable, wie zum Beispiel die Körpergröße eines Menschen, lediglich im idealen Sinne jeden Wert eines reellen Intervalls annehmen kann. Die tatsächlichen Werte sind von der gewählten oder möglichen Messgenauigkeit abhängig. Im Bereich der Wahrscheinlichkeitsrechnung führt dies zu Konsequenzen, die stärker noch als im obigen Beispiel der Intuition widersprüchlich erscheinen. Das nachfolgende Beispiel verdeutlicht dies. 1-8 Einführung in die Wahrscheinlichkeitsrechnung Beispiel: (Überabzählbar unendlicher Gleichwahrscheinlichkeitsraum) Zufallsexperiment: zufällige Auswahl eines Elementarereignisses ω ∈ [0,1] . Wir betrachten Ω = [0,1] und suchen die Wahrscheinlichkeit P ( ω ∈ [0;0.5]) dafür, ein ω aus dem Intervall [0,0.5] zufällig auszuwählen, wenn jedes einzelne ω die gleiche Wahrscheinlichkeit hat ausgewählt zu werden. (überabzählbarer Gleichwahrscheinlichkeitsraum) Die gesuchte Wahrscheinlichkeit ist von der Messgenauigkeit abhängig: 1. Näherung auf eine Nachkommastelle genau: Ω = {0,0.1,0.2,...,0.9,1.0} ; pω = 1 ; 11 P ( ω ∈ [0,0.5] ) = P ({0,0.1,0.2,...,0.5} ) = 1 6 1 1 1 = + = + 11 2 22 2 2(101 + 1) 2. Näherung auf 2 Nachkommastellen genau: Ω = {0.00,0.01,...,0.99,1.00} ; pω = 1 ; 101 P ( w ∈ [0,0.5]) = P ({0.00,...,0.50}) = 51 1 1 1 1 = + = + 101 2 202 2 2 102 + 1 ( ) 3. Näherung auf n Nachkommastellen genau: Ω = 10n + 1; pω = 1 n 10 + 1 ; P ( ω ∈ [0,0.5 ]) = 1 1 + 2 2 10n + 1 ( Für n → ∞ folgt, dass im „Idealexperiment“ gilt: pω = 0 und P ( ω ∈ [0,0.5]) = Damit wird offenbar, dass im stetigen Fall P ( A ) ≠ ∑ pω ) 1 . 2 ist. Während die einzelnen ω∈A Elementarereignisse ein Wahrscheinlichkeit von 0 besitzen, hat das Ereignis, das sie bilden eine positive Wahrscheinlichkeit. Wollen wir also in einem stetigen Wahrscheinlichkeitsraum Wahrscheinlichkeiten berechnen, geht das nicht mehr über die Summierung. Stattdessen muss über diese Menge integriert werden. 1-9 Einführung in die Wahrscheinlichkeitsrechnung Intuitiv wird dies klar, wenn wir uns die Rechenregeln ins Gedächtnis rufen, die unmittelbar aus den Kolmogoroff-Axiomen folgen, und dabei beachten, dass die Wahrscheinlichkeit eines Ereignisses proportional zu seinem Flächeninhalt bei der grafischen Darstellung sein soll. Man erkennt, wie man mit Ereignissen „rechnen“ kann. 1-10 Einführung in die Wahrscheinlichkeitsrechnung 1.2 Grundzüge der Kombinatorik Wie wir bereits gesehen haben, ist die konkrete Berechnung von Wahrscheinlichkeiten insbesondere im Laplace-Fall häufig auf das Abzählen von Möglichkeiten zurückzuführen. Damit beschäftigt sich der mathematische Zweig der Kombinatorik, mit dessen Hilfe insbesondere mathematische Modelle für das Ziehen von Stichproben beschrieben werden können. Aus statistischer Sicht steht in der Kombinatorik die Zufallsstichprobe im Mittelpunkt. 1.2.1 Permutationen Mit Permutationen bezeichnet man eineindeutige Vertauschungen einer gegebenen Anzahl von Elementen. Eine prototypische Frage lautet: „Wie viel verschiedene Möglichkeiten haben n Personen sich auf eine Sitzreihe mit n Sitzen anzuordnen?“. Definition (Permutationen): Gegeben sei eine n-elementige Menge. Jede Anordnung aller n Elemente in einer bestimmten Reigenfolge heißt Permutation dieser Menge. Sind diese Elemente paarweise verschieden (unterscheidbar) dann ist die Anzahl aller möglichen Permutationen P ( n ) = n! . Zerfällt die Menge in k Gruppen gleicher von ni jeweils nicht unterscheidbarer Elemente ist die Anzahl P ( n1,n2 ,...,nk ) = n! n1 !n2 !...nk ! 1.2.2 Kombinationen Kombinationen sind Auswahlen aus einer gegebenen Grundgesamtheit. Für die Statistik stellen sie eine Stichprobe dar. Man kann sich damit vorstellen, dass die Kombination (Stichprobe) durch Ziehung aus einer Urne gewonnen wird. Dabei wird dann unterschieden, ob diese Ziehung „mit Zurücklegen“, „ohne Zurücklegen“, „mit Berücksichtigung der Anordnung“ oder „ohne Berücksichtigung der Anordnung“ erfolgt. 1-11 Einführung in die Wahrscheinlichkeitsrechnung Definition (Kombination) Gegeben sei eine Menge mit n verschiedenen Elementen. Jede Zusammenstellung von k Elementen daraus heißt Kombination. Betrachtet man Kombinationen, die sich in der Reihenfolge ihrer Elemente unterscheiden, als verschieden, so spricht man von Kombinationen mit Berücksichtigung der Anordnung (Reihenfolge). Diese heißen auch Variationen. Ansonsten spricht man von Kombinationen ohne Berücksichtigung der Anordnung (Reihenfolge). Definition (Kombination ohne Zurücklegen ohne Berücksichtigung der Reihenfolge) n n! Ck ( n ) = = k k! ( n − k ) ! Definition (Variation ohne Zurücklegen (mit Berücksichtigung der Reihenfolge)) n n! Vk ( n ) = k! = k (n − k )! Definition (Kombination mit Zurücklegen ohne Berücksichtigung der Reihenfolge) n + k − 1 C′k ( n ) = k 1-12 Einführung in die Wahrscheinlichkeitsrechnung Definition (Variation mit Zurücklegen (mit Berücksichtigung der Reihenfolge)) Vk′ = nk Die nachfolgende Tabelle fasst dies zusammen: Ziehung Ohne Zurücklegen Mit Zurücklegen Mit Berücksichtigung n Vk (n) = k! k Vk` (n) = nk n Ck (n) = k n + k − 1 Ck` (n) = k der Reihenfolge Ohne Berücksichtigung der Reihenfolge 1-13 Einführung in die Wahrscheinlichkeitsrechnung 1.3 Bedingte Wahrscheinlichkeiten Analog zu den bedingten Häufigkeitsverteilungen kann man auch den Begriff der bedingten Wahrscheinlichkeit einführen. Beispiel (Werfen eines fairen Würfels) Ω = {1,2,3,4,5,6} pi = 1 i = 1,...,6 6 A = {gerade Zahl} = {2,4,6} ( ) A = {ungeradeZahl} = {1,3,5} P(A) = P A = 3 1 = 6 2 Annahme: zusätzlich ist bekannt, dass B = {1.2.3} eingetreten ist. Neubewertung: P ( A B ) = Wahrscheinlichkeit dafür, dass A eintritt, wenn man weiß, dass B eingetreten ist := Anzahl der für A und B günstigen Fälle 1 P ( A ∩ B ) = = ; Anzahl der für B möglichen Fälle 3 P (B ) ( ) Für das Gegenereignis gilt P A B = 2 3 Beispiel (Kartenspiel) 1-14 Einführung in die Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeit dafür, eine Dame zu bekommen ist P("Dame ") = 4 1 = . Ist jedoch zusätzlich bekannt, dass ein „Bild“ vorliegt, ist 32 8 die Wahrscheinlichkeit unter dieser Bedingung P("Dame " | "Bild") = 4 1 = 16 4 Def.: (Bedingte Wahrscheinlichkeit) Sind A,B ⊂ Ω mit P (B ) > 0 . Dann ist die bedingte Wahrscheinlichkeit von „A unter der Bedingung B“ definiert durch P ( A B ) = P ( A ∩ B) P (B ) Beispiel: (Mitarbeiterzufriedenheit) Nicht Mitarbeiter krank Zufrieden 11 19 30 24 16 40 35 35 70 Nicht zufrieden P ( krank ) = P ( nicht krank ) = P ( krank zufrieden ) = krank 35 1 = 70 2 11 = 0,367 30 Man beachte die Analogie zu den bedingten Häufigkeitsverteilungen! Bemerkung: 1) Aus der Definition von P ( A B ) folgt P ( A ∩ B ) = P ( A B ) ⋅ P (B ) = P (B A ) ⋅ P ( A ) 2) Die bedingten Wahrscheinlichkeiten addieren sich bei gegebenem B wieder zu Eins: 1-15 Einführung in die Wahrscheinlichkeitsrechnung Genauer gilt: Satz: Seien A,B ⊂ Ω und P (B ) > 0 . Dann ist bei festgehaltenem B P ( ⋅ B ) : {A | A ⊂ Ω} → [0,1] A → P ( A B) wieder eine Wahrscheinlichkeitsverteilung mit P (B B ) = 1. Die Axiome von Kolmogoroff gelten also entsprechend. Speziell für das 3. Axiom gilt: Seien A1,A 2 ,B ⊂ Ω, A1 ∩ A 2 = ∅ und P (B ) > 0 , dann ist P ( A1 ∪ A 2 B ) = P ( A1 B ) + P ( A 2 B ) ( ) Für A 2 = A1 folgt P ( A1 B ) + P A 1 B = 1 Ist das Eintreffen eines Ereignisses A unabhängig vom Eintreffen des Ereignisses B (z. B. A: Würfeln mit Würfel Nr.1, B Würfeln mit Würfel Nr.2), dann ändert die Bedingung B nichts an der Realisierung des Ereignisses A. Definition: (Unabhängigen Ereignisse) Seien A,B ⊂ Ω zwei Ereignisse. A und B heißen (stochastisch) unabhängig, wenn gilt P ( A B ) = P ( A ) mit P (B ) > 0 oder P (B A ) = P (B ) mit P ( A ) > 0 oder P ( A ∩ B ) = P ( A ) ⋅ P (B ) 1-16 Einführung in die Wahrscheinlichkeitsrechnung Beispiel (Zweimaliges Würfeln) Ω = {(1,1) , (1,2 ) ,..., ( 6,6 )} P ({6,6} ) = oder: A: 1. Wurf 6 P ( A ) = P ( A ∩ B) = 1 36 1 1 B: 2. Wurf 6 P (B ) = 6 6 1 1 1 ⋅ = 6 6 36 Satz (Ziehen mit oder ohne Zurücklegen) Beim Ziehen mit Zurücklegen sind die einzelnen Ziehungen unabhängig voneinander. Beim Ziehen ohne Zurücklegen sind die einzelnen Ziehungen voneinander abhängig. Kenntnisse der bedingten Wahrscheinlichkeiten für ein Ereignis B können dazu führen, dass die Wahrscheinlichkeit des Ereignisses P (B ) bestimmt werden kann. Satz (Totale Wahrscheinlichkeit) Bilden A1,...,A k eine disjunkte Zerlegung von Ω . k P (B ) = ∑ P (B A i ) P ( A i ) Dann gilt für B ⊂ Ω i=1 Begründung: A1 A2 A3 A4 B P (B ) = P ( A1 ∩ B ) + P ( A 2 ∩ B ) + ... + P ( A 4 ∩ B ) = P (B A1 ) ⋅ P ( A1 ) + P (B A 2 ) ⋅ P ( A 2 ) + ... + P (B A 4 ) ⋅ P ( A 4 ) 1-17 Einführung in die Wahrscheinlichkeitsrechnung Beispiel: (Deutschland (D) ist bei der WM ins Halbfinale gelangt) Außerdem Italien (I), Frankreich (F) und Portugal (P) Klinsi schätzte die Wahrscheinlichkeit für einen Sieg der deutschen Mannschaft: gegen I: 0,7; gegen F: 0,65; gegen P: 0,2; Mit welcher Wahrscheinlichkeit müsste D ausgehend von dieser Einschätzung ins Finale gelangen, wenn der Gegner zufällig ausgelost wird? B = {D gewinnt}; A1 = {I ist Gegner}; A2 = {F ist Gegner}; A3 = {P ist Gegner} P(A1 ) = 1 3 P (B A1 = 0,7 ) ; P (B A 2 = 0,65 ) ; P (B A 3 = 0,2 ) ; P (B ) = 0,7 ⋅ 1 1 1 + 0,65 ⋅ + 0,2 ⋅ = 0,52 . 3 3 3 Satz von Bayes (Motivation): Ein Arzt beobachtet ein Symptom B am Patienten. Es ergibt sich das folgende diagnostische Problem: B tritt bei n Krankheiten A1,..., A n auf. Gesucht ist die Wahrscheinlich P ( A i B ) dafür, dass der Patient tatsächlich an der Krankheit Ai erkrankt ist. Bekannt sind die Wahrscheinlichkeiten P ( A i ) i = 1,...,n dafür, dass die Er- krankung Ai überhaupt auftritt, und P (B A i ) , die Auftretenswahrscheinlichkeit für das Symptom B, wenn die Krankheit Ai tatsächlich vorliegt. In der Qualitätskontrolle stellt man einen bestimmten Defekt B an einem technischen Produkt fest. Dieser Defekt kann ursächlich auf n Fehlerquellen A1,..., A n in der Produktion zurückgeführt werden. Die individuellen Einzelwahrscheinlichkeiten für das Auftreten eines Fehlers in den Quellen, P(Ai), seien bekannt. Gesucht ist die Wahrscheinlichkeit dafür, dass Ai tatsächlich ursächlich verantwortlich ist, wenn der Defekt B auftritt. Bekannt ist dabei zusätzlich, die Wahrscheinlichkeit dafür, dass der Defekt B auftritt, wenn in Ai tatsächlich ein Fehler vorliegt. Um Fragestellungen dieser Art zu beantworten, hilft der Satz von Bayes. Unter der Voraussetzung, dass die Ai den Ergebnisraum disjunkt zerlegen und natürlich, dass die Wahrscheinlichkeit für das bedingende Ereignis B positiv ist, stellt er folgenden Zusammenhang zwischen bedingten und unbedingten Wahrscheinlichkeiten her. 1-18 Einführung in die Wahrscheinlichkeitsrechnung Satz (von Bayes) A1,...,A k sei eine disjunkte Zerlegung von Ω mit P ( A i ) > 0 für i = 1,...,n . Dann gilt für jedes Ereignis B mit P (B ) > 0 . P ( Ai B ) = p (B A i ) P ( A i ) k . ∑ P (B A j ) P ( A j ) J=1 Herleitung: P ( Ai B) = Per Definition ist P ( Ai ∩ B) P (B ) = P (B A i ) ⋅ P ( A i ) P (B ) . Für P(B) gilt nach dem Satz von der Totalen Wahrscheinlichkeit P (B ) = P (B ∩ A i ) + ... + P (B ∩ A k ) = P (B A i ) ⋅ P ( A i ) + ... + P (B A k ) ⋅ P ( A k ) . Einsetzen liefert P ( Ai B) = P (B A i ) ⋅ P ( A i ) P (B A i ) ⋅ P ( A1 ) + ... + P (B A k ) ⋅ P ( A k ) . Beispiel: Das Ziegenproblem Eine Game-Show stellt einen Kandidaten vor folgende Entscheidung: Ausgangssituation: Hinter zwei Garagentoren befinden sich jeweils eine Ziege als Trostpreis. Hinter einem Tor befindet sich der Hauptgewinn in Gestalt eines Autos. Er gewinnt, was sich hinter dem von ihm geöffneten Tor befindet. Erste Spielstufe: Der Kandidat muss sich für ein Garagentor entscheiden. Zweite Spielstufe: Der Spielleiter öffnet allerdings dieses Tor nicht, sondern öffnet ein zweites Tor hinter dem eine Ziege steht. Nunmehr wird der Kandidat gefragt, ob er bei seiner ersten Auswahl bleibt, oder sich neu entscheidet und das andere verbleibende Tor öffnen lässt. Wie sollte sich der Kandidat verhalten? 1-19 Einführung in die Wahrscheinlichkeitsrechnung Lösung: Er verdoppelt die Wahrscheinlichkeit auf einen Gewinn, wenn er seine erste Entscheidung revidiert.!!!!! Heuristische Begründung: In der ersten Spielstufe wird sich ein Kandidat durchschnittlich in zwei von drei Fällen für ein Garagentor entscheiden hinter dem eine Ziege steht. Das bedeutet, dass der Spielleiter in zwei von drei Fällen gezwungen ist (n.b. er weiß wo sich das Auto befindet), die verbleibende Ziege zu zeigen. In der Konsequenz wird ein Kandidat in zwei von drei Fällen nach einer Umentscheidung hinter dem Garagentor sein Auto in Empfang nehmen können. Bleibt er bei seiner ursprünglichen Entscheidung wird er nur in einem von drei Fällen mit dem Auto nach Hause fahren Mathematisch formal lässt sich die hier vorgefundenen Entscheidungssituation mit den sogenannten „bedingten Wahrscheinlichkeiten“ und dem „Satz von Bayes“ am besten modellieren. Für die nachfolgende ausführlichere Untersuchung ist es hilfreich folgendes zu bemerken: Wesentlich für das oben besprochene Spiel ist der Informationsstand des Spielleiters. Wüsste er nicht, hinter welchem Tor das Auto steht, und würde er also folgerichtig zufällig ein (eins der verbleibenden zwei!) Tor öffnen bliebe die Wahrscheinlichkeit für einen Kandidaten ein Auto zu gewinnen auch nach Umentscheidung bei einem Drittel. Das „fehlende Drittel“ nimmt gewissermaßen der Spielleiter für sich in Anspruch. Da er in diesem Szenario nicht weiß, was sich hinter den Toren verbirgt, wird er in einem Drittel der Fälle ein Garagentor öffnen hinter dem sich das Auto verbirgt. Mathematische Begründung: Wir unterscheiden die Tore A,B und C und folgende Ereignisse: KX: Der Kandidat öffnet das Tor X. MX: Der Moderator öffnet das Tor X. GX: Der Gewinn steht hinter Tor X. (Jeweils X aus {A,B,C}.) o.B.d.A. nehmen wir an, dass sich der Kandidat zunächst für das Tor A ent1-20 Einführung in die Wahrscheinlichkeitsrechnung scheidet. A priori ist damit die Gewinnwahrscheinlichkeit für den Kandidaten 1:3. Der Moderator öffnet daraufhin das Tor B, hinter dem sich natürlich nicht der Gewinn befindet. Gesucht ist nun die Wahrscheinlichkeit dafür, dass sich der Gewinn hinter dem Tor C befindet, wenn man weiß, dass er sich nicht hinter Tor B ist: P(GC | MB ) = P(MB | GC )P(GC ) P(MB | GA )P(GA )P(MB | GB )P(GB )P(MB | GC )P(GC ) 1 2 3 = = 1 1 1 1 3 ⋅ + 0 ⋅ + 1⋅ 2 3 3 3 1⋅ 1-21