Beispiel

Werbung
Knut Bartels / Hans Gerhard Strohe
Arbeitsblätter
zur Vorlesung im Wintersemester 2005/06
Statistik II – Induktive Statistik
Dies ist kein Vorlesungsskript
Wirtschafts- und
Sozialwissenschaftliche Fakultät
Lehrstuhl für Statistik und
Ökonometrie
Prof. Dr. Hans Gerhard Strohe
Dr. Knut Bartels
Sekretariat:
Frau Viola Schölzel
Campus Griebnitzsee, Haus 1, Zi. 307
Telefon: 0331 / 977 3225
Diese Blätter sind nicht die Statistik-Vorlesung, auch kein Vorlesungs-Skript, sondern nur
eine unverbindliche und sehr unvollständige Mitschreibe- und Erinnerungshilfe.
Sie finden darin die Begriffe und Schwerpunkte, mit denen Sie sich tiefer beschäftigen
sollten.
Sie können auf keinen Fall den Vorlesungsbesuch, die aktive Mitarbeit in den Übungen
und das Literaturstudium ersetzen.
Prüfungsrelevant sind nicht diese Folien, sondern die in der eigentlichen Vorlesung
angebotenen Inhalte, die einer ständigen Aktualisierung und Ergänzung unterliegen.
Prof. Dr. H. G. Strohe
Statistik I
I. 3
Gliederung
1.
Wahrscheinlichkeitsrechnung in Mathematik und Wirtschaft
1.0 Voraussetzungen
1.1 Zufällige Ereignisse
1.1.1 Definition
1.1.2 Wirtschaftswissenschaftliche Relevanz
1.1.3 Ereignisoperationen
1.2 Wahrscheinlichkeit
1.2.1 Definitionen
1.2.2 Rechengesetze
1.2.3 Bedingte Wahrscheinlichkeit
1.2.4 Formel von Bayes und praktische Nutzung
1.3 Zufallsvariable und Verteilungen
1.3.1 Definitionen
1.3.2 Diskrete Zufallsvariable in Theorie und Praxis
1.3.3 Stetige Zufallsvariable in Mathematik und Wirtschaft
1.3.4 Allgemeine Verteilungsgesetze
1.4 Stichprobenfunktionen
Prof. Dr. H. G. Strohe
Statistik II
I. 4
2. Schätzverfahren
2.1 Punktschätzung wirtschaftlicher Kennzahlen
2.1.1 Angestrebte Eigenschaften von Schätzern
2.1.2 Beispiele: Durchschnitt und Varianz
2.1.3 Schätzprinzipien LS und ML
2.2 Schätzen von Vertrauensintervallen
2.2.1 Schwankungsintervall
2.2.2 Konfidenzintervall, Konfidenzniveau
2.2.3 Intervallschätzung des Erwartungswertes
wirtschaftlicher Größen
2.2.4 Intervallschätzung von ökonomischen
Anteilszahlen
Prof. Dr. H. G. Strohe
Statistik II
I. 5
3. Das Prüfen von Hypothesen
3.1 Signifikanztests in der Wirtschaft
3.2 Hypothesen über Durchschnitte
3.3 Hypothesen über Anteile
3.4 χ² -Tests
3.4.1 Prüfen der Varianz
3.4.2 Prüfen der Unabhängigkeit statistischer
3.4.3 Prüfen von Verteilungen
3.5 Prüfen des Medians
3.6 Fehler erster und zweiter Art
Prof. Dr. H. G. Strohe
Statistik II
Merkmale
I. 6
1 Wahrscheinlichkeitsrechnung in Mathematik und Wirtschaft
1.0 Voraussetzungen
Fragen:
Beispiele für Unsicherheiten im täglichen Leben ?
In der Wirtschaft?
Haben wir ein zuverlässiges Gefühl für Wahrscheinlichkeit?
Wodurch wird die Wahrnehmung verzerrt?
Was ist Wahrscheinlichkeit? - “Wahr” oder “Schein”?
Subjektiv oder Objektiv?
Prof. Dr. H. G. Strohe
Statistik II
I. 7
Fachliche Voraussetzungen:
Mengenlehre
Kombinatorik
Grundbegriffe von BWL und VWL
Bitte unbedingt wiederholen!
Prof. Dr. H. G. Strohe
Statistik II
I. 8
Geschichte (I):
Altertum und Mittelalter:
-
subjektiv
-
nicht quantitativ
-
wahrsagerisch
16. Jh.: Erste Versuche:
-
Cardano: De ludo aleae
-
Galilei (
Prof. Dr. H. G. Strohe
-
) : 3 Würfel,
Statistik II
P(10)>P(9)?
I. 9
Geschichte (II):
17. Jh.:
- Glückspielprobleme des Chevalier de Meré:
Teilungsproblem
- Briefwechsel zwischen B. Pascal und P. Fermat
(1654 Geburtsjahr der Wahrscheinlichkeitsrechnung
= „Geometrie des Glücks“);
- Ganz andere Fragen in England:
Graunt’s .................... ( 1620-1674, s. Statistik I)
Prof. Dr. H. G. Strohe
Statistik II
I. 10
Geschichte (III):
18. Jh.:
- Theorie und Empirie: Datenanalyse
Astronomie und Versicherung
herausragend:
- Jakob Bernoulli (Schweiz):
Theorie, Kombinatorik, Binomialverteilung,
Spiele und ökonomische Anwendungen
- Bruder Nikolaus Bernoulli:
Formel für die Ruin-Wahrscheinlichkeit
Prof. Dr. H. G. Strohe
Statistik II
I. 11
Geschichte (IV):
noch 18. Jh.:
noch herausragend:
- Bayes:
Neuer, allgemeinerer Wahrscheinlichkeitsbegriff
- Laplace:
Wahrscheinlichkeit, Statistik und Prognose
- ...
Prof. Dr. H. G. Strohe
I.
Statistik
II
I. 12
Geschichte (V):
19. Jh.: Weiterentwicklung, Vervollständigung und Ausdehnung in fast alle Wissenschaften
- Gauß ( ... - ... ):
Normalverteilung,
Methode d. kleinsten Quadrate,
Schätztheorie
- Poisson, Quetelet, Galton:
Wahrscheinlichkeit in Wirtschafts- und Sozialwissenschaften und
Biologie (Genetik)
-
...
Prof. Dr. H. G. Strohe
Statistik II
I. 13
Geschichte (VI):
20. Jh.: Unüberschaubar viel
- Mathematische Statistik
R.A.Fisher (1890-1962), Pearson, Gosset
- Axiomatische Definition der Wahrscheinlichkeit
(Kolmogorow 1933)
- ...
Neue Anwendungen:
- Wahrscheinlichkeit am Finanzmarkt (........................... 1973; wieder zurück zum
Glücksspiel?)
Prof. Dr. H. G. Strohe
Statistik II
I. 14
1.1 Zufällige Ereignisse
1.1.1 Definition
Zufallsversuch (= Zufallsvorgang, hier kurz V):
(theoretisch) wiederholbarer Vorgang oder Fragestellung mit ungewissem Ausgang
Beispiele ??
Zufälliges Ereignis: (genau definiertes, aber ungewisses) Resultat eines ...........................
Prof. Dr. H. G. Strohe
Statistik II
I. 15
1.1 zufällige Ereignisse (II)
Beispiele
1. V: Münzenwurf
E1= „Zahl“ ; E2= „Bild“
2. V: Erhebung der Beschäftigungsdauer eines Erwerbstätigen
z.B.: A1= „weniger als 3 Monate“,
A2=“ genau 5 Monate“
weitere??
3. V: Kurs einer Aktie bei Börsenschluss?
Zufällige Ereignisse??
Prof. Dr. H. G. Strohe
Statistik II
I. 16
1.1 zufällige Ereignisse (III)
Spezielle theoretische zufällige Ereignisse:
Sicheres Ereignis: (= Ereignisraum )
Unmögliches Ereignis: (=leere Menge Ø)
Beispiel:
V: Würfeln
Sicheres Ereignis: „Augenzahl kleiner als 10 “
„Augenzahl größer als 0“
oder
Unmögliches Ereignis: „Augenzahl = 20“ u.a.
Besonderheit?
Prof. Dr. H. G. Strohe
Statistik II
I. 17
1.1 zufällige Ereignisse (IV)
Elementarereignisse entsprechen genau je einem unteilbaren Versuchsausgang,
d. h. sie enthalten keine unterschiedlichen Möglichkeiten und schließen einander aus.
Beispiele:
V1: einfaches Würfeln, 6 Elementarereignisse:
· : ·: :: :·: :::
V2: Aktienkurs bei Börsenschluss:
Wie viele Elementarereignisse
Prof. Dr. H. G. Strohe
Statistik II
I. 18
1.1 zufällige Ereignisse (V)
weitere Beispiele:
V3: Familienbildung mit 3 Kindern:
Ereignis “drei Jungen” ist Elementarereignis
Ereignis “zwei Jungen” - nicht. Warum nicht??
V4: Energieverbrauch eines Haushalts:
jede einzelne nichtnegative reelle Zahl ist Elementarereignis
Unterschiede?
Prof. Dr. H. G. Strohe
Statistik II
I. 19
1.1 zufällige Ereignisse (VI)
Ereignisraum, Ereignismenge, Stichprobenraum:
Menge Ω aller Elementarereignisse eines Zufallsvorganges
Beispiele
Beim Würfeln
= {· , : , ... , :: , :·: , ::: }
Beim Energieverbrauch?
Prof. Dr. H. G. Strohe
Statistik II
I. 20
1.1 zufällige Ereignisse (VII)
Darstellung von Ereignissen wie in Mengenlehre
A1
·

·
A2


A3
:

Prof. Dr. H. G. Strohe
Statistik II
I. 21
1.1 zufällige Ereignisse (VIII)
Beispiel
Versuch: Würfeln; z. B. 3 Ereignisse
A1 – „ungerade Augenzahl“
A2 – „Augenzahl 1“
A3 – „Augenzahl durch 3 teilbar“
Ist ein Elementarereignis darunter???
Jedes Ereignis setzt sich aus Elementarereignissen zusammen.
Ausnahme: ....................
Prof. Dr. H. G. Strohe
Statistik II
I. 22
1.1 zufällige Ereignisse (IX)
1.1.2 Wirtschaftswissenschaftliche Relevanz
.....................
1.1.3 Ereignisoperationen:
Durchschnitt: A  B = "A und B treten ein"
Beispiele:
- Würfel: A1  A3 = {}
-Kurs: z.B. A = „ höher als 200„
B = „unter 210„
A  B = „zwischen 200 und 210„
Prof. Dr. H. G. Strohe
Statistik II
I. 23
1.1 zufällige Ereignisse (X)
Vereinigung: A  B = „A oder B tritt ein“
(nicht „...............“ !)
Beispiel:
-Würfel:
A1  A3 = {·,, :·:, }
Prof. Dr. H. G. Strohe
Statistik II
I. 24
1.1 zufällige Ereignisse (XI)
weiteres Beispiel:
- Kurs:
C = „zwischen 200 und 210"
D = „zwischen 206 und 215"
C  D = „zwischen 200 und 215“
C D
= ??
Prof. Dr. H. G. Strohe
Statistik II
I. 25
1.1 zufällige Ereignisse (XII)
Komplementäres Ereignis (Negation):
A = "A tritt nicht ein"
Beispiel:
- Würfeln:
- Kurs:
A1 = {: , :: , ::: }
D = ??
Prof. Dr. H. G. Strohe
Statistik II
I. 26
1.1 zufällige Ereignisse (XIII)
leicht zu zeigen (Übungsaufgabe)
E  E  .............
E  E  ........
de-Morgansche Formeln:
E D  ED
E D  ED
Prof. Dr. H. G. Strohe
Statistik II
I. 27
1.1 zufällige Ereignisse (XIV)
Relationen (wie in der Mengenlehre):
A  B:
Wenn Ereignis A eintritt, tritt auch B ein,
d. h. “A zieht B nach sich”
Beispiel: (Würfeln)
A 2  A1
Analog:
,
Beispiele?
Prof. Dr. H. G. Strohe
Statistik II
I. 28
1.1 zufällige Ereignisse (XV)
Folgerungen:
Aus
AB
und
BA
Aus
AB
folgt
AB  B
folgt ..................
Wiederholung:
Jedes zufällige Ereignis ist selbst eine Menge von Ereignissen.
Wann?
Prof. Dr. H. G. Strohe
Statistik II
I. 29
1.1 zufällige Ereignisse (XVI)
Ereignisfeld  :
Menge aller zufälligen Ereignisse (Mengen), die als Ausgang eines Zufallsversuchs eintreten können,
einschließlich des unmöglichen Ereignisses,
= Menge aller Ereignisse, die sich aus den Elementarereignissen des Ereignisraums 
bilden lassen:
= Menge aller Teilmengen von 
= Potenzmenge des Ereignisraumes .
Prof. Dr. H. G. Strohe
Statistik II
I. 30
1.1 zufällige Ereignisse (XVII)
Beispiel:
Würfeln:
Ø , {·}, {:}, ..., {:::}
(Anzahl = 7)
{· , : }, {:·: , ::: }
( K6,2 
{· , : , }, ... ,
(
...
= 20)
{· , : , ,  , : : }, ... ,
(
...
= 15)
{· , : , ,  , : :, :·: }, ... ,
(
...
= 7)
Prof. Dr. H. G. Strohe
6!
 15)
4!2!
Statistik II
I. 31
1.1 zufällige Ereignisse (XVIII)
noch Beispiel:
noch Würfeln:
Summe aller Kombinationen ohne Wdh.:
K (6,0) + K (6,1) + K (6,2) + ... + K (6,6) = 64 = 26
Verallgemeinert:
Ereignisanzahl = ...............
bei n Elementarereignissen
Prof. Dr. H. G. Strohe
Statistik II
I. 32
1.2. Wahrscheinlichkeit
1.2.1 Wahrscheinlichkeit – Definitionen (I)
Wahrscheinlichkeit als Maß für den Grad der Sicherheit des Eintretens eines Ereignisses bei
einem Zufallsversuch.
Definitionen
b)
Klassische Definition nach Laplace (1749-1827)
Anz. d. für A “günstigen” Möglichkeiten
P(A) =
__________________________________________________
..................................................
Prof. Dr. H. G. Strohe
Statistik II
I. 33
1.2.1 Wahrscheinlichkeit – Definitionen (II)
noch a) Klassische Definition nach LaPlace (1749-1827)
Annahme: Alle Elementarereignisse gleichwahrscheinlich.
Anzahl der in A enthalt. El.ereign.
n (A)
______________________________________
_________
P(A) =
=
Gesamtanzahl an Elementarereign.
n ()
Beispiele:
c)
(Münze) P("Zahl") = 1/2 = 0.5
e)
(Würfel) P(A1) = 3/6 = 0.5
Prof. Dr. H. G. Strohe
Statistik II
I. 35
1.2.1 Wahrscheinlichkeit – Definitionen (III)
noch Beispiele:
c)
Wahrscheinlichkeit des “Knackens” K ihres Kontos bei 4-stelligem Pin-Code, wenn dem
Dieb bekannt ist, dass er mit einer 7 beginnt.
Variationen (Reihenfolge spielt Rolle) mit Wiederholungen von 10 Elementen (Ziffern)
zur Ordnung 3 (noch freie Pins):
P(K) = 1/Vw(10;3) = 1/103 = 0,001
d.h.??
Prof. Dr. H. G. Strohe
Statistik II
I. 36
1.2.1 Wahrscheinlichkeit – Definitionen (IV)
noch Beispiele:
d)
(nach Bamberg/Baur)
5 Folienschreiber, 2 Stifte wasserlöslich. Arbeit immer mit blind gegriffenem Stift.
A = „Folien mit Wasser korrigierbar“
Frage 1):
P(A) = ?
Lösung:
1 = {wählbare Stifte} n(1) = 5;
P(A) = 2/5 = 0,4
Prof. Dr. H. G. Strohe
Statistik II
n(A) = 2
I. 37
1.2.1 Wahrscheinlichkeit – Definitionen (V)
weiterhin noch Beispiel d) :
Jetzt 3 Tage Arbeit, jeden Tag zufällig einen Stift benutzen (abends zurücklegen!)
B= "Keine Folie mit Wasser korrigierbar"
Frage 2)
P(B)=?
Prof. Dr. H. G. Strohe
Statistik II
I. 38
1.2.1 Wahrscheinlichkeit – Definitionen (VI)
weiterhin noch Beispiel d) :
Lösung: Neuer Ereignisraum 2 (3 Tage):
Jeden Tag n=5 Möglichkeiten:
1.Tag
5
2.Tag
5
3.Tag
5
= 125 Elementarereignisse
Wiederholung möglich, Reihenfolge wichtig
→
Variationen n(2) = Vw(5,3) =53=125
Prof. Dr. H. G. Strohe
Statistik II
I. 39
1.2.1 Wahrscheinlichkeit – Definitionen (VII)
Analog allein mit den 3 wasserfesten Stiften:
n(B)=Vw(3,3)=33=27
Also
P(B) = n(B)/n(Ω2) = 27/125 = ...........
Interpretation??
Prof. Dr. H. G.
Strohe
Statistik II
I. 40
1.2.1 Wahrscheinlichkeit – Definitionen (VIII)
Ohne theoretisches Wissen:
b) Statistische Definition der Wahrscheinlichkeit:
Relative Häufigkeit,
n-malige Wiederholung des Versuchs
h-maliges Auftreten von A:
Pn(A) =pn = ...............
Von n abhängig, aber mit wachsendem n immer kleinere Unterschiede
Prof. Dr. H. G. Strohe
Statistik II
I. 41
1.2.1 Wahrscheinlichkeit – Definitionen (IX)
Beispiel:
400 importierte Kälber,
V1 = Prüfung auf Rückst. v. Antibiotika
(A1=positiv)
V2 = Prüfung auf Hormongaben
(A2 = positiv)
V1 50-mal positiv , V2 40-mal pos.,
20-mal beide positiv (= A1  A2)
Prof. Dr. H. G. Strohe
Statistik II
I. 42
1.2.1 Wahrscheinlichkeit – Definitionen (X)
noch Beispiel:
50 1
P400 (A1 ) 
  0,125  P(A1 )
400 8
20
1
P400 (A1  A2 ) 

 P(A1  A 2 )
400 20
40
1
P400 (A 2 ) 

 P(A 2 )
400 10
Prof. Dr. H. G. Strohe
Statistik II
I. 43
1.2.1 Wahrscheinlichkeit – Definitionen (XI)
c) Axiomatische Definition
Wahrscheinlichkeitsbegriff erst Anfang 20.Jh. mathematisch präzisiert:
Kolmogorowsches Axiomensystem
1)
Für jedes E   gilt
0  P(E)  1.
3)
P() = 1
3)
Für E1, E2   mit E1E2=Ø gilt
P(E1  E2) = .................. (Additivität).
Prof. Dr. H. G. Strohe
Statistik II
I. 44
1.2.2 Wahrscheinlichkeit – Rechengesetze (I)
Aus den Axiomen abgeleitete Sätze:
a)
P(Ø) = ......................
Beispiel: (Würfeln) P(· ) = P(Ø) = 0
Achtung: Aus P(A) = 0 folgt nicht immer A = Ø
Beispiel: P("DAX = 3937,117444...") = 0
warum?? Aber Ereignis nicht unmöglich.
Elementarereignis ist hier „atomares“ Ereignis.
Prof. Dr. H. G. Strohe
Statistik II
I. 45
1.2.2 Wahrscheinlichkeit – Rechengesetze (II)
a)
P(A ) = 1 - P(A)
c)
Additionssatz:
P(A  B) = P(A) + P(B) - P(A  B)
= P(A) + P(  B)
A
Beweise??
Prof. Dr. H. G. Strohe
Statistik II
I. 46
1.2.2 Wahrscheinlichkeit – Rechengesetze (III)
Beispiele:
a) (Würfeln, Ereignissymbole wie zuletzt)
P(A1  A3) = 3/6 + 2/6 - 1/6 = 4/6 = 2/3
b) (Kälber, entspr. Bezeichnungen)
P(A1  A2) = 1/8 + 1/10 - 1/20
= 7/40 = 0.175
Aussage?
Prof. Dr. H. G. Strohe
Statistik II
I. 47
1.2.2 Wahrscheinlichkeit – Rechengesetze (IV)
d)
A B
P(A)  P(B)
Beispiel: (Würfeln)
A2  A1
P(A1) = 3/6;
P(A2) = 1/6
Komplexbeispiel:
Lieferung eines Gerätes.
Prof. Dr. H. G. Strohe
Gelegentlich Zurückweisung,
Statistik II
I. 48
1.2.2 Wahrscheinlichkeit – Rechengesetze (V)
noch Komplexbeispiel:
Mögliche Gründe:
Ereignisse A1 = Maße falsch
A2 = Materialfehler
A3 = Verspätung
P(A1) = 0.08
P(A2) = 0.12
P(A3) = 0.05
Weiter vorgegeben:
P(A1  A2) = 0.02;
P(A2  A3) = 0.02
P(A1  A3) = 0.02;
P(A1  A2  A3) = 0.01
Prof. Dr. H. G. Strohe
Statistik II
I. 49
1.2.2 Wahrscheinlichkeit – Rechengesetze (VI)
Gesucht:
a) Wahrscheinlichkeit, dass Lieferung zurückzuweisen ist
b) Wahrscheinlichkeit, dass eine Lieferung nicht zurückzuweisen ist
c) Wahrscheinlichkeit, dass an einer Lieferung
nur Materialfehler zu bemängeln sind.
Prof. Dr. H. G. Strohe
Statistik II
I. 50
1.2.2 Wahrscheinlichkeit – Rechengesetze (VII)
Lösungen:
a)
P(A1  A2  A3) = P(A1  {A2  A3})
= P(A1) + P(A2  A3) - P(A1  {A2  A3})
= P(A1) + P(A2A3) - P( {A1A2}  {A1A3} )
= P(A1) + [P(A2) + P(A3) - P(A2A3)] - [P(A1A2) + P(A1A3) - P(A1A2A3)]
= 0,08 + 0,12 + 0,05 - 0,02 - [0,02 + 0,02 – 0,01]
= 0,23 - 0,03 = 0,2
Interpretation?
Prof. Dr. H. G. Strohe
Statistik II
I. 51
1.2.2 Wahrscheinlichkeit – Rechengesetze (VIII)
noch Lösungen


P A1  A2  A3 = 1 - P(A1  A2  A3) = 0.8
b)
Mit Wk. v. 80% ist ein beliebiges Teil nicht fehlerhaft
c)
gesucht:
______
P(A2  {A1A3}) (nur A2!)
zunächst:
______
A1  A2  A3 = (A1  A3)  (A2  {A1A3})
warum?
Prof. Dr. H. G. Strohe
Statistik II
I. 52
1.2.2 Wahrscheinlichkeit – Rechengesetze (IX)
noch Lösungen
noch c)
Weil einander ausschließend:
______
P (A1A2A3) = P(A1 A3) + P(A2  {A1  A3})
Umgekehrt:
______
P (A2  {A1A3}) = P(A1A2A3) - P( A1  A3 )
= P(A1  A2  A3) - [P(A1) + P(A3) - P(A1  A3)]
= 0.2 - [0.08 + 0.05 - 0.02]
= 0.09
d.h.?
Prof. Dr. H. G. Strohe
Statistik II
53
1.2.3 Bedingte Wahrscheinlichkeit
Frage nach stochastischer Unabhängigkeit von Ereignissen
Wahrscheinlichkeit unter Zusatzinformationen
P(A|B) = Wahrscheinlichkeit für Eintreffen d. Ereignisses A unter der Bedingung, dass
Ereignis B eintritt (eingetreten ist)
Prof. Dr. H. G. Strohe
Statistik II
I. 54
1.2.3 bedingte Wahrscheinlichkeit (II)
Beispiele:
a)
(wieder mangelhafte Lieferung)
P(A1|A2) ist Wahrscheinlichkeit, dass ein Stück mit Materialfehler (A2= Bedingung)
nicht maßgerecht (A1) ist.
Unterschied zu P(A1)??
Prof. Dr. H. G. Strohe
Statistik II
I. 55
1.2.3 bedingte Wahrscheinlichkeit (III)
noch
Beispiele:
noch
b) (Würfeln, alte Bezeichnungen)
P(A2|A1) ist Wahrscheinlichkeit, dass eine „· “ (A2) gewürfelt, wenn eine ungerade
Augenzahl (A1= Bedingung) gewürfelt wurde.
Unterschied zu P(A2)??
Prof. Dr. H. G. Strohe
Statistik II
I. 56
1.2.3 bedingte Wahrscheinlichkeit (IV)
noch Beispiele:
c) Statistisch bestimmte Wahrscheinlichkeiten für 2002:
Einwohner Deutschlands: n = 80975000 “Versuche”
I = Tod eines beliebigen Einwohners Deutschlands 2002 durch Infektionskrankheit
P(I) = n(I)/n = 0.000087
G = Tod durch Gewalt;
P(G)=0.000038
(für Männer ...51; für Frauen ...27)
Prof. Dr. H. G. Strohe
Statistik II
I. 57
1.2.3 bedingte Wahrscheinlichkeit (V)
noch Beispiele:
noch c)
S = Sterben im geg. Jahr;
P(S)=0.010592
Wahrscheinlichkeit, dass ein Infekt Ursache eines gegebenen Todesfalles war,
zunächst intuitiv:
P(I | S) 
Prof. Dr. H. G. Strohe
P(I) 0,000087

 0,008214
P(S) 0, 010592
Statistik II
I. 58
1.2.3 bedingte Wahrscheinlichkeit (VI)
noch
nochBeispiele:
noch c)
analog:
P(G | S) 
P(G) 0,000038

 0,003588
P(S) 0,010592
gilt nur, weil I  S, G  S
Prof. Dr. H. G. Strohe
Statistik II
I. 59
1.2.3 bedingte Wahrscheinlichkeit (VII)
noch Beispiele:
noch c)
Jetzt schwieriger
F=“Person ist weiblich“, n(F) = 41675000,
Zahl weiblicher Gewalttoter: 1121
Wahrscheinlichkeit, dass weibliche Person durch Gewalt umkommt:
P(G | F) 
1121
 0,0000269
41675000
Prof. Dr. H. G. Strohe
Statistik II
I. 60
1.2.3 bedingte Wahrscheinlichkeit (VIII)
Oder erweitern mit n:
P(G | F) 

1121 / 80975000
41675000 / 80975000
P(G  F) 0,000138

 0,0000269
P(F)
0,51467
Zeigt allgemeine Formel:
Prof. Dr. H. G. Strohe
Statistik II
I. 61
1.2.3 bedingte Wahrscheinlichkeit (IX)
Sei P(B) … 0
Die bedingte Wahrscheinlichkeit von E bei gegebenem B (=Bedingung) ist dann
P(E | B) 
P(E  B)
P(B)
Prof. Dr. H. G. Strohe
Statistik II
I. 62
1.2.3 bedingte Wahrscheinlichkeit (X)
Beispiele:
a)
(Lieferung mit Mängeln, alte Bezeichnungen)
P(A 1 | A 2 ) 
P(A 1  A 2 ) 0,02 1

  0,167
P(A 2 )
0,12 6
mit Wahrscheinlichkeit von .............. ist ein Stück mit Materialfehler (A2) auch nicht
maßgerecht (A1).
a)
(Würfeln, Forts.)
P(A 2 | A 1 ) 
P(A2  A1 ) 1/6

 ...........
P(A1 )
1/2
Interpretation?
Prof. Dr. H. G. Strohe
Statistik II
I. 63
1.2.3 bedingte Wahrscheinlichkeit (XI)
Rechenregeln für bedingte Wahrscheinlichkeit:
b)
P (  B) =......................
b)
Additionssatz:
P(A1A2 | B) = P(A1|B) + P(A2|B) - P(A1  A2 | B)
c)
speziell:
A1A2 = Ø
 P(A1A2 | B) = P(A1| B) + P(A2 | B)
Prof. Dr. H. G. Strohe
Statistik II
I. 64
1.2.3 bedingte Wahrscheinlichkeit (XII)
d)
Multiplikationssatz:
P(A  B ) = P(A | B)  P(B)
e)
P(Ø | B) = 0
für alle B
h)
P( A| B) = 1 - P(A | B)
g)
B  A  P(A | B) = 1
Prof. Dr. H. G. Strohe
Statistik II
I. 65
1.2.3 bedingte Wahrscheinlichkeit (XIII)
Beispiele:
1. (Würfeln)
P(A1 | A2) = 1, weil A2  A1
Wahrscheinlichkeit, dass eine ungerade Zahl gewürfelt wird, wenn eine 1 gewürfelt wird,
ist 100%
2. (Krankheiten)
P (S| I) = 1
Interpretation???
Prof. Dr. H. G. Strohe
Statistik II
I. 66
1.2.4 Formel von Bayes und praktische Nutzung
A1, A2, . . . An   heißt vollständiges System von Ereignissen,
wenn bei jedem Versuch genau eins dieser Ereignisse eintreten muss,
d.h.
A1  A2  . . .  An =  (Erschöpfend)
Ai  Aj = Ø
für i …j (Disjunkt)
Vgl. Klassifizierung in Statistik I
Prof. Dr. H. G. Strohe
Statistik II
I. 67
1.2.4 Formel von Bayes und praktische Nutzung (II)
A3
A4
EA4
EA2
A2
E
EA1
A5
A1
EA6
A6

n
P(E)   P(E  Ai )
i 1
Prof. Dr. H. G. Strohe
Statistik II
I. 68
1.2.4 Formel von Bayes und praktische Nutzung (III)
Beispiele:
b)
Würfeln:
A1 = "ungerade Zahl",
A4 = "gerade Zahl";
{A1, A4} vollständiges System
z.B. E={ ; ::}, EA1={}; EA4={::}
1 1 1
P(E)= + =
6 6 3
Prof. Dr. H. G. Strohe
Statistik II
I. 69
1.2.4 Formel von Bayes und praktische Nutzung (IV)
noch Beispiele:
b) Einkommensklassen u.v.a.
Aus Multiplikationssatz:
n
P(E)   P(E | A i )P(A i )
Totale Wahrscheinlichkeit
i 1
(= gewogenes arithmetisches Mittel)
Prof. Dr. H. G. Strohe
Statistik II
I. 70
1.2.4 Formel von Bayes und praktische Nutzung (V)
Beispiel: Vermögensberatung
Berater
Betreuter Vermögensanteil
Wahrscheinlichkeit v. Verlusten
1
2
3
60%
25%
15%
9%
12%
4%
Mit welcher Wahrscheinlichkeit führt eine beliebige Empfehlung zu Verlusten?
Prof. Dr. H. G. Strohe
Statistik II
I. 71
1.2.4 Formel von Bayes und praktische Nutzung (VI)
noch Beispiel:
E = „eine zufällige geprüfte Empfehlung bringt Verlust”
Bi =„die Empfehlung stammt von i-tem Berater“
Drei Berater = vollständiges System.
Verwendung der Vermögensanteile als Wahrscheinlichkeit
P(E) = P(E|B1) P(B1) + P(E|B2) P(B2) + P(E|B3) P(B3)
= 0,09  0,6 + 0,12  0,25 + 0,04  0,15 = .................
Interpretation?
Prof. Dr. H. G. Strohe
Statistik II
I. 72
1.2.4 Formel von Bayes und praktische Nutzung (VII)
Wenn P(E | B) = P(E),
dann heißt E stochastisch unabhängig v. B
Wenn P(E|B) =P(E) dann P(B|E) =P(B)
Bitte beweisen Sie das!
Multiplikationssatz für unabhängige Ereignisse:
E, B stochastisch unabhängig  P(E  B) = P(E)  P(B)
Bitte beweisen!
Prof. Dr. H. G. Strohe
Statistik II
I. 73
1.2.4 Formel von Bayes und praktische Nutzung (VIII)
Herleitung der Formel von Bayes (1702 - 1761)
A1, . . . An vollständiges System von Ereignissen
Noch einmal totale Wahrscheinlichkeit:
n
P  E  =  P E A i  × P A i 
i1
Prof. Dr. H. G. Strohe
Statistik II
I. 74
1.2.4 Formel von Bayes und praktische Nutzung (IX)
Umgekehrt:

P A j E
P Aj E =
P E


=
=


P EAj
PE

nach Definition der bedingten
Wahrscheinlichkeit

  
P E A j ×P A j
PE
Prof. Dr. H. G. Strohe
nach Multiplikationssatz
Statistik II
I. 75
1.2.4 Formel von Bayes und praktische Nutzung (X)

  
P E A j ×P A j
 n
totale Wahrscheinlichkeit
 P  E Ai  × P Ai 
einsetzen
i=1



  
P E A j ×P A j
P Aj E = n
 P  E Ai  × P  Ai 
Formel von Bayes
i1
Prof. Dr. H. G. Strohe
Statistik II
I. 76
1.2.4 Formel von Bayes und praktische Nutzung (XI)
P(Aj)
- a-priori-Wahrscheinlichkeit
P(Aj|E)
- a-posteriori-Wahrscheinlichkeit
Beispiel a) (Vermögensberatung)
Eine spezielle Empfehlung bringt Verlust
Mit welcher Wahrscheinlichkeit stammt sie von Berater 2
(a-posteriori)?
P(B2) = 0,25 (a-priori)
Warum?
Prof. Dr. H. G. Strohe
Statistik II
I. 77
1.2.4 Formel von Bayes und praktische Nutzung (XII)
noch Beispiel a)
P( B2 E ) 

P( E B2 ) × P( B2 )
P ( E B1 ) × P( B1 )  P( E B2 ) × P( B2 )  P( E B3 ) × P ( B3 )

0,12 × 0,25
 0,333
0,09
Mit der Wahrscheinlichkeit von 33.33% stammt eine Empfehlung von Berater 2, wenn sie
verlustreich ist.
Prof. Dr. H. G. Strohe
Statistik II
I. 78
1.2.4 Formel von Bayes und praktische Nutzung (XIII)
Beispiel b)
Rasterfahndung
Ereignisse:
T = “Terrorist/in”
RT = “verdächtig nach Raster”
Schärfe des Raster kann eingestellt werden:
P  R T T  =0,99,
Sensitivität 99%
P R T T =0,90,
Spezifität


90%
(Wie verhalten sich beide zueinander??)
Prof. Dr. H. G. Strohe
Statistik II
I. 79
1.2.4 Formel von Bayes und praktische Nutzung (XIV)
noch Beispiel b)
angenommen 0.02% der Bevölkerung sind
Terroristen/innen (oder “Schläfer/innen”), d.h.
P(T)=0.0002 (a-priori)
Ableitungen:
 




P T =0,9998 P R T T =0,01 P R T T =0,10
Prof. Dr. H. G. Strohe
Statistik II
I. 80
1.2.4 Formel von Bayes und praktische Nutzung (XV)
noch Beispiel b)
Frage: Mit welcher Wahrscheinlichkeit ist ein im Raster „Gefangener“ wirklich
Terrorist (a-posteriori)?
Satz von Bayes:
P T RT  =
=
P RT T× P T

 
P  R T T  × P  T  +P R T T × P T
0,99 × 0,0002
=
0,99 × 0,0002+0,10 × 0,9998
Prof. Dr. H. G. Strohe
Statistik II
I. 81
1.2.4 Formel von Bayes und praktische Nutzung (XVI)
noch Beispiel b)
0,000198
0,100178
 0,0019764
Interpretation ??


 0, 2%!

P T R T =0,998024
d.h. v. 1000 verdächtigten Personen sind 998 in Wirklichkeit harmlos.
Prof. Dr. H. G. Strohe
Statistik II
I. 82
Herunterladen