Induktive Statistik Kapitel 1

Werbung
Faktensammlung
Statistik
Teil 2
Induktive Statistik
Prof. Dr. N. Wolik
Fachbereich Wirtschaft
FH Bochum
University of Applied Sciences
Wintersemester 2006/2007
Vorwort
Die modernen Wirtschaftswissenschaften nutzen in selbstverständlicher Weise die
Instrumente der Mathematik und Statistik. Diese Veranstaltung soll Ihnen die grundlegenden Verfahren und Methoden der Beschreibenden und Schließenden Statistik
nahe bringen, die für die Wirtschaftswissenschaften besonders wichtig sind.
Im Zentrum der Deskriptiven Statistik stehen analytische und graphische Methoden
zur Datensammlung, -aufbereitung und –verdichtung wie Häufigkeitsverteilungen,
Lage- und Streuungsparameter, Verhältnis- und Indexzahlen, Maßgrößen für die
Konzentration, Korrelation und Regression sowie eine Einführung in die elementare
Zeitreihenanalyse.
Die Inhalte der Schließenden Statistik (Stichproben-, Schätz- und Testverfahren) basieren auf den Begriffen der Wahrscheinlichkeit und der Wahrscheinlichkeitsverteilung. Daher erfolgt zunächst eine Einführung in die Wahrscheinlichkeitsrechnung,
um die Basis für die zu behandelnden induktiven Methoden zu legen.
Diese Faktensammlung bildet den Stoff des Moduls „Wirtschaftsstatistik“ im Studiengang Bachelor of Arts „Wirtschaftswissenschaften“ ab. Sowohl Teil 1 (Deskriptive Statistik) als auch Teil 2 (Induktive Statistik) werden jeweils durch eine Klausur
abgeprüft deren mit den Semesterwochenstunden gewichtetes Mittel die Modulnote
ergibt.
Das vorliegende Kurzskriptum kann und will weder die Lektüre eines Lehrbuches
noch den regelmäßigen Besuch der Lehrveranstaltungen ersetzen. Vielmehr ist es
seine Intention, Sie in den Vorlesungen und Übungen von einiger Schreibarbeit zu
entlasten. Die Faktensammlung enthält Definitionen und Sätze der Vorlesungen.
Dennoch kann auf ein Mitschreiben nicht verzichtet werden.
Begleitend werden im Intranet Übungsaufgaben bereitgestellt, deren selbständige
Bearbeitung das Verständnis fördert.
Bochum, im Herbst 2006
N. Wolik
Literatur.
Fahrmeier et. al:
Statistik, Der Weg zur Datenanalyse
Springer
Schira, J.:
Statistische Methoden der VWL und BWL
Pearson
Steland, A.:
Mathematische Grundlagen der empirischen Forschung
Springer
Weigand, C.:
Statistik mit und ohne Zufall
Physica
Zoefel,P.:
Statistik für Wirtschaftswissenschaftler
Pearson
1 Einführung in die Wahrscheinlichkeitsrechnung
Der Begriff der Wahrscheinlichkeitsrechnung ist wahrscheinlich einer der schillerndsten Begriffe der Alltagssprache über den vermutlich bereits die meisten Menschen
einmal nachgedacht haben. Häufig wird dabei versucht die Zufälle zu quantifizieren,
d. h. die „Chance“ auf einen Gewinn im Glücksspiel zu berechnen.
Ist diese „Chance“ gering, sollte eine kleine Kennzahl resultieren; ist diese „Chance“
groß, sollte eine große Kennzahl resultieren.
Man beachte, dass in einem umgangssprachlichen Satz wie: „Ich werde wahrscheinlich pünktlich sein.“ i. d. R. der Überzeugung Ausdruck verliehen wird, dass eher davon auszugehen ist, dass man pünktlich ist, als davon, unpünktlich zu sein.
Eine mathematische Quantifizierung des Zufalls normiert diese Maßzahl auf das Intervall [0,1] .
Einem unmöglichen Ereignis wird der Wahrscheinlichkeitswert 0 zugeordnet:
P(Es regnet und es regnet [gleichzeitig] nicht) = 0;
dem sicheren Ereignis wird das W-Maß 1 zugeordnet:
P(Es regnet oder es regnet nicht) = 1.
Der umgangssprachlichen Formulierung „Wahrscheinlich bin ich pünktlich“ kommt
demnach die quantifizierte Äußerung P(„ich komme pünktlich“) > 0,5 zu. Dies wird
generell so verstanden, dass bei einem häufigen Warten auf diese Person in mehr
als der Hälfte aller Fälle diese Person pünktlich sein wird.
Der mathematische Begriff der Wahrscheinlichkeit ordnet jedem (auch einem „unwahrscheinlichen“) Ereignis einen Wahrscheinlichkeitswert zu. Der letztgenannte
Gedanke über die Frequenz des Ereignisses „pünktlich zu sein“ zeigt die nahe Verwandtschaft des Begriffes Wahrscheinlichkeit mit der relativen Häufigkeit der deskriptiven Statistik.
Die nachfolgenden Unterkapitel versuchen, eine einführende Einsicht in den Begriff
der Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung zu
vermitteln.
1-1
Einführung in die Wahrscheinlichkeitsrechnung
1.1
Zufall und Wahrscheinlichkeit
Definition: ( Zufallsvorgang, Zufallsexperiment )
Ein Zufallsvorgang führt auf sich gegenseitig ausschließende Ergebnisse, die
nicht mit Sicherheit vorhersagbar sind. Wird dieser Zufallsvorgang geplant in
Gang gesetzt, spricht man von Zufallsexperiment.
Z.B.: Würfeln, Sollmaß eines Werkstückes, Stichprobenziehung „6 aus 49“
Definition ( Ergebnis, Ergebnisraum )
Der Ergebnisraum Ω = {ω1,..., ωn } ist die Menge aller Ergebnisse ωi eines Zufallsvorganges. Teilmengen von Ω heißen (Zufalls-Ereignisse). Die Ergebnisse
heißen auch Elementarereignisse.
Beispiel: Werfen eines Würfels
Einmaliges Werfen:
Ω = {1,2,3,4,5,6}
Elementarereignisse:
{1},{2},{3},{4},{5},{6};
Ereignisse:
z. B.: {1,3,5} „Würfeln einer ungeraden Zahl“
{1,2} „Würfeln von 1 oder 2“
Um einem zufälligen Ereignis ein konkretes Wahrscheinlichkeitsmaß zuzuordnen
gibt es verschiedene Möglichkeiten:
Definition: ( Laplace-Wahrscheinlichkeit , klassische Wahrscheinlichkeit )
Geht man von endlich vielen gleichmöglichen Elementarereignissen (Ergebnissen) aus, dann ist die Wahrscheinlichkeit des Ereignisses A nach Laplace definiert als
P(A) =
Anzahl aller günstigen Ergebnisse
Anzahl aller möglichen Ergebnisse
1-2
Einführung in die Wahrscheinlichkeitsrechnung
Beispiel: Werfen eines fairen Würfels
P ({1} ) =
1
= P ({2}) = ... = P ({6})
6
P ({1,2} ) = P (1 oder 2 fällt) =
2 1
=
6 3
P (ungerade Zahl fällt) = P ({1,3,5} ) =
3 1
=
6 2
Übung: Eine Familie hat zwei Kinder. Wie groß ist die Wahrscheinlichkeit, dass
mindestens ein Junge unter den Kindern ist, wenn die Geburt eines Jungen
oder eines Mädchens gleich wahrscheinlich ist?
Lösung: P(mindestens 1 Junge) =
3
4
Wären die Elementarereignisse stets gleichwahrscheinlich, käme man mit dem
Laplace´schen Wahrscheinlichkeitsbegriff aus. Allerdings ist dies nicht so. Man denke an einen gezinkten Würfel. Würde man beobachten, dass ein Spieler 20mal hintereinander eine „6“ würfelt, begänne man spätestens dann an einen fairen Würfel
zu zweifeln. Dem liegt die Überzeugung zugrunde, dass bei hinreichend häufiger
Wiederholung die relative Häufigkeit eine (6) zu würfeln der Wahrscheinlichkeit
P ({6} ) entspricht.
Beobachtete man also bei sehr häufiger Wiederholung des Würfelns mit einem gezinkten Würfel eine relative Häufigkeit für „6“ von
2
2
unterstellt man P ({6} ) =
3
3
Definition ( statistische Wahrscheinlichkeit )
Der Grenzwert lim fn ( A ) , dem die relative Häufigkeit f des Ereignisses A bei
n→∞
unendlich häufiger Wiederholung zustrebt, heißt statistische Wahrscheinlichkeit.
Eine mathematische Begründung für diese Sicht auf die Wahrscheinlichkeit stellt das
„Gesetz der großen Zahlen“ dar.
1-3
Einführung in die Wahrscheinlichkeitsrechnung
Dieser frequentistische Wahrscheinlichkeitsbegriff schlägt die Brücke zwischen deskriptiver und induktiver Statistik, d. h. den relativen Häufigkeiten und den Wahrscheinlichkeiten:
Zu jeder empirischen Verteilung eines Merkmales X mit der relativen Häufigkeits-
ɶ mit zufälligen Werten x konstruieren, deren
funktion f ( x ) lässt sich eine Variable X
(
)
ɶ = x identisch mit den empirischen relativen Häufigkeiten
Wahrscheinlichkeiten P X
f ( x ) ist:
(
)
ɶ = x = f (X = x) .
P X
Um dies zu verdeutlichen betrachte man eine Grundgesamtheit von 49% Männern
und 51% Frauen. Diese bloße deskriptive Feststellung hat noch nichts mit Wahrscheinlichkeiten zu tun. Den Brückenschlag zur Wahrscheinlichkeitsrechnung schafft
das Gedankenexperiments einer zufälligen Stichprobe vom Umfang 1. Da jede Person in einem solchen Experiment die gleiche Chance hat, ausgewählt zu werden, ist
die Wahrscheinlichkeit dafür einen „Mann zu ziehen“ identisch mit der relativen Häufigkeit von 49%. Dasselbe gilt für das Ereignis „Frau wird gezogen“.
Im Gegensatz zum Laplace´schen oder auch zum frequentistischen Wahrscheinlichkeitsbegriff ist es durchaus nicht notwendig, die Belegung eines Ereignisses mit einer Wahrscheinlichkeit nach objektiven Regeln durchzuführen. So ist es für einen
Spieler lediglich wichtig, wie fest er daran glaubt, dass „die 17 fällt“, wenn er auf die
17 im Roulette wettet; unabhängig davon, wie eine objektive Wahrscheinlichkeit ist.
Ob ein Anleger in eine Aktie investiert, hängt möglicherweise davon ab, welche subjektive Wahrscheinlichkeit er dem Ereignis „Kurs steigt“ zumisst. [Glauben hinreichend viele Anleger an einen steigenden Kurs, wird diese aufgrund der steigenden
Nachfrage tatsächlich steigen. „Self-fullfilling prophecy“] Dieser subjektivistische
Wahrscheinlichkeitsbegriff bleibt in sich logisch, wenn er gewissen Anforderungen
genügt, die ein „vernünftiger“ Wahrscheinlichkeitsbegriff haben sollte. Z. B. sollte bei
einem Wahrscheinlichkeitsmaß das auf [0,1] normiert ist gelten:
P (Kurs steigt) = 1 − P (Kurs steigt nicht)
Kolmogoroff begründet die moderne Wahrscheinlichkeitstheorie mit der axiomatischer Definition eines Wahrscheinlichkeitsmaßes:
1-4
Einführung in die Wahrscheinlichkeitsrechnung
Definition ( Wahrscheinlichkeitsmaß ):
Es sei E die Menge aller Ereignisse (Ereignismenge) über dem Ergebnisraum
Ω.
Eine Abbildung P : E → [0,1] mit
(K1)
P ( A ) ≥ 0 für jedes A ∈ E
(K2)
P ( Ω ) = 1 (für das sichere Ergebnis)
(K3)
P ( A ∪ B ) = P ( A ) + P (B ) für A ∩ B = ∅
heißt Wahrscheinlichkeitsmaß auf E und P ( A ) heißt Wahrscheinlichkeit für A
Beispiel: einmaliger Münzwurf




E = { },{Kopf },{Zahl},{Kopf,Zahl}


Ω

Ω = {Kopf,Zahl}
Faire Münze:
P ({
}) = 0
P ({Kopf,Zahl}) = 1
P ({Kopf }) =
1
2
P ({Zahl} ) =
1
2
Unfaire Münze (z.B.)
P ({Kopf } ) = 0,9
P ({Zahl} ) = 0,1
Bemerkungen:
1. Das Axiom (K3) ist nur für 2 Ereignisse formuliert worden, weil bislang zumindest implizit von lediglich endlichen Egebnisräumen Ω ausgegangen
wurde. In Zukunft werden wir uns auch mit unendlichen Ergebnisräumen
beschäftigen. Tatsächlich formulierte Kolmogoroff allgemeiner
∞
∞
i=1
i=1
(K`3): P(∪ A i ) = ∑ P(A i ) für paarweise disjunkte A i .
1-5
Einführung in die Wahrscheinlichkeitsrechnung
2. Bedenkt man Kolmogoroffs Axiome sorgfältig, dann fällt auf, dass die Ereignismenge E, die zugrunde gelegt wird, gewisse Eigenschaften aufweisen
muss, damit überhaupt sinnvoll darauf ein Wahrscheinlichkeitsmaß definiert
werden kann. Die erforderliche Struktur ist die einer σ-Algebra:
-
Ω ∈ E (Das sicher Ereignis gehört zu E)
-
A ∈ E ⇒ A ∈ E (mit A gehört auch das Gegenereignis zu E)
∞
-
∪ Ai ∈ E (Abgeschlossenheit bezüglich der Vereinigung) .
i=1
3. Ist der Ergebnisraum Ω endlich, dann benutzt man als Ergebnismenge in
der Regel die Potenzmenge 2Ω := {Menge aller Teilmengen von Ω }.
n
Die Potenzmenge einer n-elementigen Menge hat 2 Elemente
Aus den Axiomen ergeben sich unmittelbar folgende Konsequenzen:
Satz (Rechenregeln für Wahrscheinlichkeiten)
Sei Ω ein Ergebnisraum, dann gilt für Ereignisse
1.) 0 ≤ P ( A ) ≤ 1 für A < Ω
2.) P ( ∅ ) = 0
3.) P ( A ) ≤ P (B ) falls A ⊂ B
( )
4.) P A = 1 − P ( A ) mit A = Ω / A
5.) P ( A1 ∪ A 2 ∪ ... ∪ A k ∪ ...) = P ( A1 ) + P ( A 2 ) + ... + P ( A k ) + ...
für paarweise disjunkte Ai
6.) P ( A ∪ B ) = P ( A ) + P (B ) − P ( A ∩ B )
1-6
Einführung in die Wahrscheinlichkeitsrechnung
Definition (Wahrscheinlichkeitsraum)
Das Tripel ( Ω,E,P) mit dem Ergebnisraum Ω, dem Ereignisraum E und dem
Wahrscheinlichkeitsmaß P heißt Wahrscheinlichkeitsraum.
Ist Ω endlich oder abzählbar unendlich heißt der Warhrscheinlichkeitsraum diskret; die Mächtigkeit von Ω kann allerdings auch überabzählbar sein.
In der obigen Grafik wird der Ereignisraum mit Σ bezeichnet. Dieser Konvention wird
häufig gefolgt, um daran zu erinnern, dass es sich um eine σ-Algebra handelt. (vgl.
oben).
Beispiel (endlicher Gleichwahrscheinlichkeitsraum)
Gegeben sei ein endlicher Ergebnisraum Ω = {ω1,..., ωn } mit gleichwahrscheinlichen Elementarereignissen P(ωi ) =: pi =
n
n
1
1
(Laplace). Dann ist ∑ pi =∑ = 1.
n
i=1
i=1 n
Konkret: Einfacher Wurf mit einem fairen Würfel. Ω = {1,2,3,4,5,6} ;
P(1) = P(2) = ... = P(6) =
1
und
6
n
n
i=1
i=1
∑ P(i) =∑ pi = 1
1-7
Einführung in die Wahrscheinlichkeitsrechnung
Beispiel (abzählbar unendlicher Gleichwahrscheinlichkeitsraum)
Gegeben sei ein abzählbar unendlicher Ergebnisraum Ω = {ω1,..., ωn ,.....} mit
gleichwahrscheinlichen Elementarereignissen P(ωi ) =: pi ≥ 0 . Dann muss nach
∞
Kolmogoroff wiederum gelten
∑ pi =1 und für ein beliebiges Ereignis A aus E
i=1
∑ pj .
gilt P ( A ) =
ωj∈A
Konkret: Münzwurf bis zum ersten Mal „Kopf“ erscheint.
Ω = {K,ZK,ZZK,ZZZK,...} ist abzählbar unendlich.
P (K ) = p1 =
pi =
1
2
1
i
2
P ( ZK ) = p2 =
und
∞
∞
i=1
1
∑ pi = ∑
1
2i
1
4
P ( ZZK ) = p3 =
1
usw. d.h.
8
=1
Die vermeintliche widersprüchliche Tatsache, dass sich (abzählbar!) unendlich
viele positive Summanden
1
2i
zum endlichen Wert 1 summieren verdeutlicht
die folgende sukzessive Berechnung des Flächeninhaltes eines Quadrates der
Kantenlänge Eins.
1 1 1 1 1 1 1 1 1 1 1 1 1
1
1= + = + + = + + + = + + +
+
= ....
1/4
2
2
2
4
4
2
4
8
8
2
4
8
16
16
1
∞
1
=∑ i
i=1 2 .
1
Bereits in der deskriptiven Statistik wurde betont, dass eine stetige metrische Variable, wie zum Beispiel die Körpergröße eines Menschen, lediglich im idealen Sinne jeden Wert eines reellen Intervalls annehmen kann. Die tatsächlichen Werte sind von
der gewählten oder möglichen Messgenauigkeit abhängig. Im Bereich der Wahrscheinlichkeitsrechnung führt dies zu Konsequenzen, die stärker noch als im obigen
Beispiel der Intuition widersprüchlich erscheinen. Das nachfolgende Beispiel verdeutlicht dies.
1-8
Einführung in die Wahrscheinlichkeitsrechnung
Beispiel: (Überabzählbar unendlicher Gleichwahrscheinlichkeitsraum)
Zufallsexperiment: zufällige Auswahl eines Elementarereignisses ω ∈ [0,1] .
Wir betrachten Ω = [0,1] und suchen die Wahrscheinlichkeit P ( ω ∈ [0;0.5]) dafür, ein ω aus dem Intervall [0,0.5] zufällig auszuwählen, wenn jedes einzelne ω
die gleiche Wahrscheinlichkeit hat ausgewählt zu werden. (überabzählbarer
Gleichwahrscheinlichkeitsraum)
Die gesuchte Wahrscheinlichkeit ist von der Messgenauigkeit abhängig:
1. Näherung auf eine Nachkommastelle genau:
Ω = {0,0.1,0.2,...,0.9,1.0} ; pω =
1
;
11
P ( ω ∈ [0,0.5] ) = P ({0,0.1,0.2,...,0.5} ) =
1
6 1 1 1
= +
= +
11 2 22 2 2(101 + 1)
2. Näherung auf 2 Nachkommastellen genau:
Ω = {0.00,0.01,...,0.99,1.00} ; pω =
1
;
101
P ( w ∈ [0,0.5]) = P ({0.00,...,0.50}) =
51 1
1
1
1
= +
= +
101 2 202 2 2 102 + 1
(
)
3. Näherung auf n Nachkommastellen genau:
Ω = 10n + 1; pω =
1
n
10 + 1
;
P ( ω ∈ [0,0.5 ]) =
1
1
+
2 2 10n + 1
(
Für n → ∞ folgt, dass im „Idealexperiment“ gilt: pω = 0 und P ( ω ∈ [0,0.5]) =
Damit wird offenbar, dass im stetigen Fall P ( A ) ≠
∑ pω
)
1
.
2
ist. Während die einzelnen
ω∈A
Elementarereignisse ein Wahrscheinlichkeit von 0 besitzen, hat das Ereignis, das sie
bilden eine positive Wahrscheinlichkeit.
Wollen wir also in einem stetigen Wahrscheinlichkeitsraum Wahrscheinlichkeiten berechnen, geht das nicht mehr über die Summierung. Stattdessen muss
über diese Menge integriert werden.
1-9
Einführung in die Wahrscheinlichkeitsrechnung
Intuitiv wird dies klar, wenn wir uns die Rechenregeln ins Gedächtnis rufen, die unmittelbar aus den Kolmogoroff-Axiomen folgen, und dabei beachten, dass die Wahrscheinlichkeit eines Ereignisses proportional zu seinem Flächeninhalt bei der grafischen Darstellung sein soll.
Man erkennt, wie man mit Ereignissen „rechnen“ kann.
1-10
Einführung in die Wahrscheinlichkeitsrechnung
1.2
Grundzüge der Kombinatorik
Wie wir bereits gesehen haben, ist die konkrete Berechnung von Wahrscheinlichkeiten insbesondere im Laplace-Fall häufig auf das Abzählen von Möglichkeiten zurückzuführen. Damit beschäftigt sich der mathematische Zweig der Kombinatorik, mit
dessen Hilfe insbesondere mathematische Modelle für das Ziehen von Stichproben
beschrieben werden können. Aus statistischer Sicht steht in der Kombinatorik die Zufallsstichprobe im Mittelpunkt.
1.2.1 Permutationen
Mit Permutationen bezeichnet man eineindeutige Vertauschungen einer gegebenen
Anzahl von Elementen. Eine prototypische Frage lautet: „Wie viel verschiedene Möglichkeiten haben n Personen sich auf eine Sitzreihe mit n Sitzen anzuordnen?“.
Definition (Permutationen):
Gegeben sei eine n-elementige Menge. Jede Anordnung aller n Elemente in
einer bestimmten Reigenfolge heißt Permutation dieser Menge.
Sind diese Elemente paarweise verschieden (unterscheidbar) dann ist die Anzahl aller möglichen Permutationen P ( n ) = n! .
Zerfällt die Menge in k Gruppen gleicher von ni jeweils nicht unterscheidbarer
Elemente ist die Anzahl P ( n1,n2 ,...,nk ) =
n!
n1 !n2 !...nk !
1.2.2 Kombinationen
Kombinationen sind Auswahlen aus einer gegebenen Grundgesamtheit. Für die Statistik stellen sie eine Stichprobe dar. Man kann sich damit vorstellen, dass die Kombination (Stichprobe) durch Ziehung aus einer Urne gewonnen wird. Dabei wird dann
unterschieden, ob diese Ziehung „mit Zurücklegen“, „ohne Zurücklegen“, „mit Berücksichtigung der Anordnung“ oder „ohne Berücksichtigung der Anordnung“ erfolgt.
1-11
Einführung in die Wahrscheinlichkeitsrechnung
Definition (Kombination)
Gegeben sei eine Menge mit n verschiedenen Elementen. Jede Zusammenstellung von k Elementen daraus heißt Kombination.
Betrachtet man Kombinationen, die sich in der Reihenfolge ihrer Elemente unterscheiden, als verschieden, so spricht man von Kombinationen mit Berücksichtigung der Anordnung (Reihenfolge). Diese heißen auch Variationen.
Ansonsten spricht man von Kombinationen ohne Berücksichtigung der Anordnung (Reihenfolge).
Definition (Kombination ohne Zurücklegen ohne Berücksichtigung der Reihenfolge)
n
n!
Ck ( n ) =   =
 k  k! ( n − k ) !
Definition (Variation ohne Zurücklegen (mit Berücksichtigung der Reihenfolge))
n
n!
Vk ( n ) = k!   =
 k  (n − k )!
Definition (Kombination mit Zurücklegen ohne Berücksichtigung der Reihenfolge)
 n + k − 1
C′k ( n ) = 

 k 
1-12
Einführung in die Wahrscheinlichkeitsrechnung
Definition (Variation mit Zurücklegen (mit Berücksichtigung der Reihenfolge))
Vk′ = nk
Die nachfolgende Tabelle fasst dies zusammen:
Ziehung
Ohne Zurücklegen
Mit Zurücklegen
Mit Berücksichtigung
n
Vk (n) = k!  
k 
Vk` (n) = nk
n
Ck (n) =  
k 
 n + k − 1
Ck` (n) = 

 k 
der Reihenfolge
Ohne Berücksichtigung
der Reihenfolge
1-13
Einführung in die Wahrscheinlichkeitsrechnung
1.3
Bedingte Wahrscheinlichkeiten
Analog zu den bedingten Häufigkeitsverteilungen kann man auch den Begriff der bedingten Wahrscheinlichkeit einführen.
Beispiel (Werfen eines fairen Würfels)
Ω = {1,2,3,4,5,6}
pi =
1
i = 1,...,6
6
A = {gerade Zahl} = {2,4,6}
( )
A = {ungeradeZahl} = {1,3,5}
P(A) = P A =
3 1
=
6 2
Annahme: zusätzlich ist bekannt, dass B = {1.2.3} eingetreten ist.
Neubewertung:
P ( A B ) = Wahrscheinlichkeit dafür, dass A eintritt, wenn man weiß, dass B
eingetreten ist :=
Anzahl der für A und B günstigen Fälle 1 P ( A ∩ B )
= =
;
Anzahl der für B möglichen Fälle
3
P (B )
(
)
Für das Gegenereignis gilt P A B =
2
3
Beispiel (Kartenspiel)
1-14
Einführung in die Wahrscheinlichkeitsrechnung
Die Wahrscheinlichkeit dafür, eine Dame zu bekommen ist
P("Dame ") =
4 1
= . Ist jedoch zusätzlich bekannt, dass ein „Bild“ vorliegt, ist
32 8
die Wahrscheinlichkeit unter dieser Bedingung P("Dame " | "Bild") =
4 1
=
16 4
Def.: (Bedingte Wahrscheinlichkeit)
Sind A,B ⊂ Ω mit P (B ) > 0 . Dann ist die bedingte Wahrscheinlichkeit von „A
unter der Bedingung B“ definiert durch P ( A B ) =
P ( A ∩ B)
P (B )
Beispiel: (Mitarbeiterzufriedenheit)
Nicht
Mitarbeiter
krank
Zufrieden
11
19
30
24
16
40
35
35
70
Nicht zufrieden
P ( krank ) = P ( nicht krank ) =
P ( krank zufrieden ) =
krank
35 1
=
70 2
11
= 0,367
30
Man beachte die Analogie zu den bedingten Häufigkeitsverteilungen!
Bemerkung:
1) Aus der Definition von P ( A B ) folgt P ( A ∩ B ) = P ( A B ) ⋅ P (B ) = P (B A ) ⋅ P ( A )
2) Die bedingten Wahrscheinlichkeiten addieren sich bei gegebenem B wieder
zu Eins:
1-15
Einführung in die Wahrscheinlichkeitsrechnung
Genauer gilt:
Satz:
Seien A,B ⊂ Ω und P (B ) > 0 . Dann ist bei festgehaltenem B
P ( ⋅ B ) : {A | A ⊂ Ω} → [0,1]
A → P ( A B)
wieder eine Wahrscheinlichkeitsverteilung mit P (B B ) = 1.
Die Axiome von Kolmogoroff gelten also entsprechend. Speziell für das 3. Axiom gilt:
Seien A1,A 2 ,B ⊂ Ω, A1 ∩ A 2 = ∅ und P (B ) > 0 , dann ist
P ( A1 ∪ A 2 B ) = P ( A1 B ) + P ( A 2 B )
(
)
Für A 2 = A1 folgt P ( A1 B ) + P A 1 B = 1
Ist das Eintreffen eines Ereignisses A unabhängig vom Eintreffen des Ereignisses B
(z. B. A: Würfeln mit Würfel Nr.1, B Würfeln mit Würfel Nr.2), dann ändert die Bedingung B nichts an der Realisierung des Ereignisses A.
Definition: (Unabhängigen Ereignisse)
Seien A,B ⊂ Ω zwei Ereignisse.
A und B heißen (stochastisch) unabhängig, wenn gilt
P ( A B ) = P ( A ) mit P (B ) > 0
oder P (B A ) = P (B ) mit P ( A ) > 0
oder P ( A ∩ B ) = P ( A ) ⋅ P (B )
1-16
Einführung in die Wahrscheinlichkeitsrechnung
Beispiel (Zweimaliges Würfeln)
Ω = {(1,1) , (1,2 ) ,..., ( 6,6 )} P ({6,6} ) =
oder:
A: 1. Wurf 6 P ( A ) =
P ( A ∩ B) =
1
36
1
1
B: 2. Wurf 6 P (B ) =
6
6
1 1 1
⋅ =
6 6 36
Satz (Ziehen mit oder ohne Zurücklegen)
Beim Ziehen mit Zurücklegen sind die einzelnen Ziehungen unabhängig voneinander.
Beim Ziehen ohne Zurücklegen sind die einzelnen Ziehungen voneinander abhängig.
Kenntnisse der bedingten Wahrscheinlichkeiten für ein Ereignis B können dazu führen, dass die Wahrscheinlichkeit des Ereignisses P (B ) bestimmt werden kann.
Satz (Totale Wahrscheinlichkeit)
Bilden A1,...,A k eine disjunkte Zerlegung von Ω .
k
P (B ) = ∑ P (B A i ) P ( A i )
Dann gilt für B ⊂ Ω
i=1
Begründung:
A1
A2
A3
A4
B
P (B ) = P ( A1 ∩ B ) + P ( A 2 ∩ B ) + ... + P ( A 4 ∩ B )
= P (B A1 ) ⋅ P ( A1 ) + P (B A 2 ) ⋅ P ( A 2 ) + ... + P (B A 4 ) ⋅ P ( A 4 )
1-17
Einführung in die Wahrscheinlichkeitsrechnung
Beispiel: (Deutschland (D) ist bei der WM ins Halbfinale gelangt)
Außerdem Italien (I), Frankreich (F) und Portugal (P)
Klinsi schätzte die Wahrscheinlichkeit für einen Sieg der deutschen Mannschaft:
gegen I: 0,7;
gegen F: 0,65;
gegen P: 0,2;
Mit welcher Wahrscheinlichkeit müsste D ausgehend von dieser Einschätzung
ins Finale gelangen, wenn der Gegner zufällig ausgelost wird?
B = {D gewinnt}; A1 = {I ist Gegner}; A2 = {F ist Gegner}; A3 = {P ist Gegner}
P(A1 ) =
1
3
P (B A1 = 0,7 ) ; P (B A 2 = 0,65 ) ; P (B A 3 = 0,2 ) ;
P (B ) = 0,7 ⋅
1
1
1
+ 0,65 ⋅ + 0,2 ⋅ = 0,52 .
3
3
3
Satz von Bayes (Motivation):
Ein Arzt beobachtet ein Symptom B am Patienten. Es ergibt sich das folgende diagnostische Problem: B tritt bei n Krankheiten A1,..., A n auf. Gesucht ist die Wahrscheinlich P ( A i B ) dafür, dass der Patient tatsächlich an der Krankheit Ai erkrankt
ist. Bekannt sind die Wahrscheinlichkeiten P ( A i )
i = 1,...,n dafür, dass die Er-
krankung Ai überhaupt auftritt, und P (B A i ) , die Auftretenswahrscheinlichkeit für das
Symptom B, wenn die Krankheit Ai tatsächlich vorliegt.
In der Qualitätskontrolle stellt man einen bestimmten Defekt B an einem technischen
Produkt fest. Dieser Defekt kann ursächlich auf n Fehlerquellen A1,..., A n in der Produktion zurückgeführt werden. Die individuellen Einzelwahrscheinlichkeiten für das
Auftreten eines Fehlers in den Quellen, P(Ai), seien bekannt. Gesucht ist die Wahrscheinlichkeit dafür, dass Ai tatsächlich ursächlich verantwortlich ist, wenn der Defekt
B auftritt. Bekannt ist dabei zusätzlich, die Wahrscheinlichkeit dafür, dass der Defekt
B auftritt, wenn in Ai tatsächlich ein Fehler vorliegt.
Um Fragestellungen dieser Art zu beantworten, hilft der Satz von Bayes. Unter der
Voraussetzung, dass die Ai den Ergebnisraum disjunkt zerlegen und natürlich, dass
die Wahrscheinlichkeit für das bedingende Ereignis B positiv ist, stellt er folgenden
Zusammenhang zwischen bedingten und unbedingten Wahrscheinlichkeiten her.
1-18
Einführung in die Wahrscheinlichkeitsrechnung
Satz (von Bayes)
A1,...,A k sei eine disjunkte Zerlegung von Ω mit P ( A i ) > 0 für i = 1,...,n .
Dann gilt für jedes Ereignis B mit P (B ) > 0 .
P ( Ai B ) =
p (B A i ) P ( A i )
k
.
∑ P (B A j ) P ( A j )
J=1
Herleitung:
P ( Ai B) =
Per Definition ist
P ( Ai ∩ B)
P (B )
=
P (B A i ) ⋅ P ( A i )
P (B )
.
Für P(B) gilt nach dem Satz von der Totalen Wahrscheinlichkeit
P (B ) = P (B ∩ A i ) + ... + P (B ∩ A k ) = P (B A i ) ⋅ P ( A i ) + ... + P (B A k ) ⋅ P ( A k ) .
Einsetzen liefert
P ( Ai B) =
P (B A i ) ⋅ P ( A i )
P (B A i ) ⋅ P ( A1 ) + ... + P (B A k ) ⋅ P ( A k )
.
Beispiel: Das Ziegenproblem
Eine Game-Show stellt einen Kandidaten vor folgende Entscheidung:
Ausgangssituation: Hinter zwei Garagentoren befinden sich jeweils eine Ziege
als Trostpreis. Hinter einem Tor befindet sich der Hauptgewinn in Gestalt eines
Autos. Er gewinnt, was sich hinter dem von ihm geöffneten Tor befindet.
Erste Spielstufe:
Der Kandidat muss sich für ein Garagentor entscheiden.
Zweite Spielstufe:
Der Spielleiter öffnet allerdings dieses Tor nicht, sondern
öffnet ein zweites Tor hinter dem eine Ziege steht.
Nunmehr wird der Kandidat gefragt, ob er bei seiner ersten Auswahl bleibt, oder sich neu entscheidet und das andere verbleibende Tor öffnen lässt.
Wie sollte sich der Kandidat verhalten?
1-19
Einführung in die Wahrscheinlichkeitsrechnung
Lösung:
Er verdoppelt die Wahrscheinlichkeit auf einen Gewinn, wenn er
seine erste Entscheidung revidiert.!!!!!
Heuristische Begründung:
In der ersten Spielstufe wird sich ein Kandidat durchschnittlich in zwei von drei
Fällen für ein Garagentor entscheiden hinter dem eine Ziege steht.
Das bedeutet, dass der Spielleiter in zwei von drei Fällen gezwungen ist (n.b. er
weiß wo sich das Auto befindet), die verbleibende Ziege zu zeigen.
In der Konsequenz wird ein Kandidat in zwei von drei Fällen nach einer Umentscheidung hinter dem Garagentor sein Auto in Empfang nehmen können.
Bleibt er bei seiner ursprünglichen Entscheidung wird er nur in einem von drei
Fällen mit dem Auto nach Hause fahren
Mathematisch formal lässt sich die hier vorgefundenen Entscheidungssituation
mit den sogenannten „bedingten Wahrscheinlichkeiten“ und dem „Satz von
Bayes“ am besten modellieren. Für die nachfolgende ausführlichere Untersuchung ist es hilfreich folgendes zu bemerken:
Wesentlich für das oben besprochene Spiel ist der Informationsstand des
Spielleiters.
Wüsste er nicht, hinter welchem Tor das Auto steht, und würde er also folgerichtig zufällig ein (eins der verbleibenden zwei!) Tor öffnen bliebe die Wahrscheinlichkeit für einen Kandidaten ein Auto zu gewinnen auch nach Umentscheidung bei einem Drittel. Das „fehlende Drittel“ nimmt gewissermaßen der
Spielleiter für sich in Anspruch. Da er in diesem Szenario nicht weiß, was sich
hinter den Toren verbirgt, wird er in einem Drittel der Fälle ein Garagentor öffnen hinter dem sich das Auto verbirgt.
Mathematische Begründung:
Wir unterscheiden die Tore A,B und C und folgende Ereignisse:
KX: Der Kandidat öffnet das Tor X.
MX: Der Moderator öffnet das Tor X.
GX: Der Gewinn steht hinter Tor X.
(Jeweils X aus {A,B,C}.)
o.B.d.A. nehmen wir an, dass sich der Kandidat zunächst für das Tor A ent1-20
Einführung in die Wahrscheinlichkeitsrechnung
scheidet. A priori ist damit die Gewinnwahrscheinlichkeit für den Kandidaten
1:3.
Der Moderator öffnet daraufhin das Tor B, hinter dem sich natürlich nicht der
Gewinn befindet.
Gesucht ist nun die Wahrscheinlichkeit dafür, dass sich der Gewinn hinter dem
Tor C befindet, wenn man weiß, dass er sich nicht hinter Tor B ist:
P(GC | MB )
=
P(MB | GC )P(GC )
P(MB | GA )P(GA )P(MB | GB )P(GB )P(MB | GC )P(GC )
1
2
3
=
=
1 1
1
1 3
⋅ + 0 ⋅ + 1⋅
2 3
3
3
1⋅
1-21
Zugehörige Unterlagen
Herunterladen