3. Vorlesung

Werbung
Grundbegriffe
Zufallsexperiment
Verknüpfungen
Das Verknüpfen von Ereignissen entspricht den Operationen mit Mengen.
unter gleichen Bedingungen zumindest gedanklich
beliebig oft wiederholbarer Vorgang
Menge der möglichen Versuchsausgänge ist bekannt
konkreter Ausgang ist ungewiss (zufällig)
Ereignis A ∪ B (Vereinigung) tritt ein,
wenn mindestens eins der Ereignisse A,
B eintritt.
Grundraum/
Ereignisraum Ω
Menge aller möglichen einander ausschließenden
Versuchsausgänge
Elementarereignis ω
jede einelementige Teilmenge von Ω
Ereignis
Menge von Versuchsausgängen/Elementarereignissen,
Teilmenge von Ω
Ereignis A ∩ B (Durchschnitt) tritt ein,
wenn beide Ereignisse A, B eintreten.
Ereignis A \ B (Differenz) tritt ein,
wenn A eintritt, B nicht eintritt.
Ein Ereignis A tritt ein, wenn der beobachtete Versuchsausgang ω ein Element
von A ist.
Das Ereignis Ω ist das sichere Ereignis, das stets eintritt.
Die leere Menge ∅ bezeichnet das unmögliche Ereignis, das nie eintritt.
SS 2016
Prof. Dr. J. Schütze, FB GW
3.1
Wkt.1
1
Verknüpfungen
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
2
Wkt.1
4
Rechenregeln für Mengenverknüpfungen
Die Mengenoperationen Vereinigung und Durchschnitt entsprechen den
Operationen der Aussagenlogik und folgen deren Gesetzen:
∩ entspricht 'und' bzw. logischem Symbol ∧,
∪ entspricht 'oder' bzw. logischem Symbol ∨.
Komplementärereignis A tritt genau dann ein,
wenn A nicht eintritt.
Es gelten folgende Gesetze:
Zwei Ereignisse A, B heißen unvereinbar
oder disjunkt, wenn sie keine gemeinsamen
Elementarereignisse besitzen, A ∩ B = ∅.
Ereignis A zieht Ereignis B nach sich,
wenn A ⊆ B gilt.
Kommutativität:
A ∩ B = B ∩ A, A ∪ B = B ∪ A
Assoziativität:
( A ∩ B) ∩ C = A ∩ ( B ∩ C )
( A ∪ B) ∪ C = A ∪ ( B ∪ C )
Distributivität:
A ∩ ( B ∪ C ) = ( A ∩ B) ∪ ( A ∩ C )
A ∪ ( B ∩ C ) = ( A ∪ B) ∩ ( A ∪ C )
Regeln von de Morgan
A∪ B = A∩ B
3.2
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
3
SS 2016
A∩ B = A∪ B
Prof. Dr. J. Schütze, FB GW
Wahrscheinlichkeitsbegriffe
Wahrscheinlichkeitsbegriffe
Empirisches Gesetz der großen Zahlen
‚Zufall' von Ereignissen misst man, indem man den Ereignissen sinnvoll
eine Zahl zuordnet, die der Chance ihres Eintretens entspricht.
Diese Zahl nennt man Wahrscheinlichkeit.
Beispiel 1
Eine bestimmte Sorte von Energiesparlampen erreicht in bisherigen Beobachtungen
mit einem Anteil von 10% die Brenndauer von 4000 h nicht.
Man sagt, die Wahrscheinlichkeit, dass die Brenndauer < 4000 ist, liegt bei 0.10.
Solche Aussagen beruhen auf der Analyse der Brenndauern in der Vergangenheit.
Die beobachtete relative Häufigkeit wird als (geschätztes) Maß für die
Wahrscheinlichkeit des Ausfalls vor 4000 h genommen.
Relative Häufigkeiten (beobachtet) beziehen sich auf den Anteil in der Stichprobe,
Wahrscheinlichkeiten (Modell) beziehen sich auf die Grundgesamtheit.
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
5
Voraussetzungen:
nur endlich viele Elementarereignisse
alle mit gleicher Chance (z.B. idealer Würfel)
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
6
Permutationen ohne Wiederholung
Für n verschiedene Objekte gibt es genau
n!
Definition
Wahrscheinlichkeit für Eintreten des Ereignisses A ⊆ Ω
Möglichkeiten der Anordnung, wenn jedes Element genau einmal verwendet wird.
Kombinationen ohne Wiederholung
Aus einer n-elementigen Menge verschiedener Objekte werden k ausgewählt
ohne Wiederholung
ohne Berücksichtigung der Reihenfolge.
Anzahl der Elementarereignisse von A A
=
Anzahl der Elementarereignisse von Ω Ω
Wahrscheinlichkeiten nach Laplace können somit durch Auszählen
der Elementarereignisse berechnet werden.
Für komplizierte Sachverhalte braucht man kombinatorische Formeln.
Man erhält für die Anzahl solcher k-elementigen Teilmengen
3.3
Prof. Dr. J. Schütze, FB GW
Nachteil: die Folge der hn stabilisiert sich nicht immer zu einem Grenzwert
Zählprinzip
Menge M enthalte m verschiedene, Menge N enthalte n verschiedene Elemente.
Dann enthält M × N genau m·n verschiedene Elemente (geordnete Paare).
Laplace: 1749-1824
SS 2016
Dieser experimentelle Zugang zur Bestimmung von Wahrscheinlichkeiten
liefert 'nur' Schätzwerte (im realen Experiment ist n stets endlich).
Bezeichnung: Experimentelle/ statistische Wahrscheinlichkeit
Kombinatorische Formeln (Auswahl)
Wahrscheinlichkeit nach Laplace
P ( A) =
Wird ein Zufallsexperiment zur Beobachtung eines Ereignisses A n-mal
unter gleichen Bedingungen wiederholt, dann stabilisieren sich die
relativen Häufigkeiten
1
hn ( A) = ⋅ (Anzahl des Auftretens von A)
n
für n → ∞
zu einem Grenzwert, der Wahrscheinlichkeit P(A).
Wkt.1
7
n
n!
genau   =
Möglichkeiten.
k
k
!(
n
− k )!
 
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
8
Geometrische Berechnung von Wahrscheinlichkeiten
Interpretation
Nicht immer liegen nur endlich viele Elementarereignisse vor.
Interpretation der Wahrscheinlichkeit
Beispiel 2
• Wahrscheinlichkeit p als Chance des Eintretens eines zufälligen Ereignisses:
0≤p≤1
Gesucht ist Wahrscheinlichkeit, auf einer kreisförmigen Schießscheibe zufällig ins
Schwarze zu treffen. Voraussetzung ist, dass die Scheibe überhaupt getroffen wird.
Die Scheibe bestehe aus 10 konzentrischen Kreisen mit gleichem Zuwachs der
Radien, die kleinste davon ist der schwarzer Kreis.
• Wert p sagt nichts über den Ausgang eines konkreten Versuchs
• In langen Versuchsserien unter gleichen Bedingungen stabilisiert sich der Anteil
der Experimente, in denen A eintritt,
daraus ergibt sich die Möglichkeit der Näherung der Wahrscheinlichkeit von A
durch die relative Häufigkeit
Die Ergebnismenge Ω ist hier die Menge aller Punkte der Scheibe, also
überabzählbar unendlich, damit ist ein Auszählen von Ereignissen nicht möglich.
Die Berechnung der Wahrscheinlichkeit nach Laplace funktioniert also nicht.
Ausweg: Man setzt die Fläche A des gesuchten Ereignisses
ins Verhältnis zur Fläche der Ergebnismenge und erhält
Fläche A = r 2 ⋅ π, Gesamtfläche G = (10r ) 2 ⋅ π
A
r 2π
1
P ( A) = =
=
G 100r 2 π 100
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
9
Axiomatischer Wahrscheinlichkeitsbegriff
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
10
Wkt.1
12
Wahrscheinlichkeitsbegriffe
Die folgenden Axiome gehen zurück auf Kolmogorov.
Sie sind verträglich mit der Laplace- und der statistischen Wahrscheinlichkeit,
und sie gelten auch bei Modellen mit unendlich vielen Versuchsausgängen.
(1) Wahrscheinlichkeit nach Laplace-Modell
Voraussetzungen:
nur endlich viele Elementarereignisse
alle mit gleicher Chance (z.B. idealer Würfel)
Axiom 1
Jedem zufälligen Ereignis A ⊆ Ω ist eine Zahl P(A) zugeordnet mit
0 ≤ P ( A) ≤ 1 , die man Wahrscheinlichkeit von A nennt.
(2) Statistische/experimentelle Wahrscheinlichkeit
1
P( A) ≈ ⋅ ( Anzahl des Auftretens von A) für n → ∞
n
Axiom 2
Das sichere Ereignis hat die Wahrscheinlichkeit 1.
P (Ω ) = 1
(3) Axiomatische Definition der Wahrscheinlichkeit nach Kolmogorov
Axiom 3
Für disjunkte Ereignisse A1 ∩ A2 = ∅ gilt
P ( A1 ∪ A2 ) = P ( A1 ) + P ( A2 )
Bei einer unendlichen Ergebnismenge ist Axiom 3 auf unendlich viele paarweise
disjunkte Mengen zu erweitern:
∞  ∞
Die nach Laplace-Modell berechneten bzw. experimentell gewonnenen
Wahrscheinlichkeiten sind konform zu den Axiomen von Kolmogorov.
P   Ai  =  P( Ai )
 i=1  i =1
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
11
SS 2016
Prof. Dr. J. Schütze, FB GW
Rechnen mit Wahrscheinlichkeiten
Bedingte Wahrscheinlichkeit und Unabhängigkeit
Beispiel 3
Rechengesetze
Sicheres Ereignis Ω
Unmögliches Ereignis Ø
Monotonie
Additionssatz
Spezialfall: disjunkte
Ereignisse
Spezialfall: Ω diskret
Komplementäres Ereignis
Differenz
Lostrommel enthalte 500 Lose, davon seien 200 weiß, die restlichen 300 blau.
Unter den weißen Losen seien 10 Gewinne, unter den blauen seien 20 Gewinne.
Welche Losfarbe würden Sie nach dieser Kenntnis ziehen?
P (Ω) = 1
P (∅) = 0
A ⊂ B → P ( A) ≤ P ( B )
P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B )
W: zufällig gezogenes Los weiß
B: zufällig gezogenes Los blau
G: zufällig gezogenes Los ist ein Gewinn
P ( A ∪ B ) = P ( A) + P ( B ), falls A ∩ B = ∅
P ( A) = Σ P (ω)
ω∈A
P ( A) = 1 − P ( A)
P ( A \ B ) = P ( A) − P ( A ∩ B )
P(G) = 30/500 = 0.06
Nur weiße Lose
Nur blaue Lose
G∩W : Los ist weiß und ein Gewinn
G∩B :
P(G∩W) = 10/500 = 0.02
P(G∩B) = 20/500 = 0.04
P(B) = 300/500 = 0.6
P(W) = 200/500 = 0.4
3.4
Gewinnchance P (G ∩ W ) = 10 / 500 = 0.05
P (W )
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
13
Bedingte Wahrscheinlichkeit
Los ist blau und ein Gewinn
Gewinnchance
200 / 500
SS 2016
Prof. Dr. J. Schütze, FB GW
P (G ∩ B ) 20 / 500
=
= 0.06
P( B)
300 / 500
Wkt.1
14
Totale Wahrscheinlichkeit
Aus den bedingten Wahrscheinlichkeiten erhält man die Gewinnwahrscheinlichkeit
P (G ) = P (G ∩ W ) + P (G ∩ B ) = P (G / W ) ⋅ P (W ) + P (G ∩ B ) ⋅ P ( B )
Bedingte Wahrscheinlichkeit eines Ereignisses A unter der Bedingung B
P( A ∩ B)
P( A / B) =
P( B)
= 0.05 ⋅ 0.4 + 0.067 ⋅ 0.6 = 0.06
Satz der totalen Wahrscheinlichkeit
Dabei ist A, B ⊆ Ω und P ( B ) > 0
Ω = B1 ∪ B2 ∪ ... ∪ Bn , alle Bk seien paarweise disjunkt
Dann gilt
Interpretation
Die Berechnung einer bedingten Wahrscheinlichkeit bedeutet die Einschränkung
der gesamten Ergebnismenge Ω auf die durch die Bedingung definierte
Teilmenge B der gesamten Ergebnismenge Ω .
Gewinnchance unter der Bedingung ‚blau‘:
Gewinnchance unter Bedingung ‚weiß‘:
SS 2016
Gewinnchance ohne Farbinfo
P (G ∩ B )
P (G / B ) =
= 0.06
P( B)
P (W ∩ B )
P (G / W ) =
= 0.05
P( B)
Prof. Dr. J. Schütze, FB GW
Wkt.1
15
n
P ( A) =  P ( A / Bk ) ⋅ P ( Bk )
k =1
Bedeutung des Satzes
Das Ereignis A kann zunächst in Subpopulationen Bk beobachtet werden,
der Satz der totalen Wahrscheinlichkeit ermöglicht daraus die Berechnung der
Wahrscheinlichkeit für die Gesamtpopulation.
Es erfolgt dabei eine Wichtung der Subpopulationswahrscheinlichkeiten mit dem
Anteil der Subpopulation an der Gesamtpopulation.
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
16
Bedingte Wahrscheinlichkeit
Totale Wahrscheinlichkeit
Beispiel 4
Eine Fußballmanschaft spielt mit 2 Stürmern A und B.
Von Stürmer A kommen 50% aller Schüsse auf das Tor, Trefferwahrscheinlichkeit 70% .
Von Stürmer B kommen 40% aller Schüsse auf das Tor, Trefferwahrscheinlichkeit 80% .
Die restlichen Spieler R haben eine Trefferwahrscheinlichkeit von 30%.
Alternativ:
Berechnung mit Pfaddiagramm
a) Mit welcher Wahrscheinlichkeit ist ein Schuss auf das Tor ein Treffer?
b) Mit welcher Wahrscheinlichkeit wurde ein Treffer von Stürmer B erzielt?
Ergebnismenge Ω : alle Schüsse auf das Tor
Ereignis T :
Schüsse auf das Tor, die ein Treffer sind
Ereignisse A, B, R: Schüsse auf das Tor von Stürmer A, B bzw. vom Rest
P(A) = 0.5
P(B) = 0.4
P(R) = 0.1
Aufbau eines Pfaddiagramms
Wahrscheinlichkeiten nach einem Knoten summieren sich stets zu 1.
Pfad symbolisiert den Durchschnitt der Ereignisse, die er durchläuft.
Pfadwahrscheinlichkeit = Produkt der Wahrscheinlichkeiten entlang des Pfads, z.B.
P( A) ⋅ P (T / A) = P( A ∩ T )
P(T/A) = 0.7 Trefferwahrscheinlichkeit von A
P(T/B) = 0.8 Trefferwahrscheinlichkeit von B
P(T/R) = 0.3 Trefferwahrscheinlichkeit von R
Wahrscheinlichkeit eines Endereignisses =
Summe aller Pfadwahrscheinlichkeiten zu diesem Endereignis, z.B.
P(T ) = P (T / A) ⋅ P( A) + P(T / B) ⋅ P( B) + P(T / C ) ⋅ P(C )
Satz der totalen Wahrscheinlichkeit
P (T ) = P (T / A) ⋅ P ( A) + P (T / B ) ⋅ P ( B ) + P (T / R ) ⋅ P ( R )
P (T ) = 0.7 ⋅ 0.5 + 0.8 ⋅ 0.4 + 0.3 ⋅ 0.1 = 0.7
SS 2016
Prof. Dr. J. Schütze, FB GW
Im Beispiel
Wkt.1
17
Bayessche Formel
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
18
Bayessche Formel
Veränderte Fragestellung:
Ein Tor wurde erzielt.
Mit welcher Wahrscheinlichkeit kam
der Schuss von Stürmer B?
Satz (Bayessche Formel)
Ω = B1 ∪ B2 ∪ ... ∪ Bn , alle Bk seien paarweise disjunkt
Dann gilt
P ( Bi / A) =
Einschränkung der Grundgesamtheit
auf die Schüsse mit Torerfolg T (Kreis)
Ereignis ist nun ‚Schüsse von B , die zu
einem Tor führten‘ (gelbe Fläche).
P (T / B ) ⋅ P ( B )
P (T / A) ⋅ P ( A) + P (T / B ) ⋅ P ( B ) + P (T / R ) ⋅ P ( R )
0.8 ⋅ 0.4
0.8 ⋅ 0.4
P( B / T ) =
=
= 0.457
0.7 ⋅ 0.5 + 0.8 ⋅ 0.4 + 0.3 ⋅ 0.1
0.7
P( B / T ) =
Prof. Dr. J. Schütze, FB GW
P ( A / Bi ) ⋅ P ( Bi )
P ( A / Bi ) ⋅ P ( Bi )
= n
P ( A)
 P( A / Bi ) ⋅ P( Bi )
i =1
Die gesuchte Wahrscheinlichkeit P(B/T) ist der Anteil des gelben Segments an der
Fläche T.
SS 2016
P (T ) = 0.7 ⋅ 0.5 + 0.8 ⋅ 0.4 + 0.3 ⋅ 0.1 = 0.7
Wkt.1
19
Bedeutung des Satzes
Es erfolgt in gewissem Sinn die Umkehr von Ursache-Wirkungs-Beziehungen.
Man kennt die Wahrscheinlichkeit P(Wirkung / Ursache), mit der eine Ursache
eine bestimmte Wirkung nach sich zieht.
Oft fragt man dann bei Vorliegen einer Wirkung, mit welcher Wahrscheinlichkeit
eine bestimmte Ursache vorgelegen hat, d.h. man sucht P(Ursache / Wirkung).
So wird in der Medizin oft aufgrund einer Wirkung (Testergebnis, Befund) auf das
Vorhandensein einer Krankheit geschlossen.
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
20
Bayessche Formel
Bedingte Wahrscheinlichkeit und Diagnoseverfahren
Diagnostische Tests
Berechnung nach Bayes mit Pfaddiagramm
P (T / B ) ⋅ P ( B )
=
P (T )
P (T / B ) ⋅ P ( B )
P (T / A) ⋅ P ( A) + P (T / B ) ⋅ P ( B ) + P (T / R ) ⋅ P ( R )
Diagnostische Tests können i.a. Kranke und Gesunde nicht perfekt trennen.
Es liegt dann folgende Situation vor:
P( B / T ) =
Diagnose krank
DK
Diagnose gesund DG
krank K
gesund G
richtig positiv
falsch positiv
falsch negativ
richtig negativ
Die falsch negativen Fälle sind die nicht entdeckten Kranken.
Die falsch positiven Fälle sind die Gesunden, die der Test als krank einstuft.
Bedingte Wahrscheinlichkeiten liefern Kenngrößen zur Bewertung eines Tests,
Sensitivität, Spezifität (in Phase der Testkonstruktion)
positiv prädiktiver Wert, negativ prädiktiver Wert (in Phase der Anwendung)
P(B/T) erhält man, indem man das Verhältnis der Pfadwahrscheinlichkeit des
Pfades nach T über B zur Summe aller Pfadwahrscheinlichkeiten nach T
berechnet.
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
21
SS 2016
Prof. Dr. J. Schütze, FB GW
Bedingte Wahrscheinlichkeit und Diagnoseverfahren
Sensitivität und Spezifität
Entstehen eines Diagnoseverfahrens
Ereignisse und Wahrscheinlichkeiten
Ein bestimmter Parameter sei bei Erkrankten (im Mittel) deutlich erhöht.
Ziel: Festlegen eines Schwellwerts, bei Überschreitung Diagnose ‚Krank‘
Wie brauchbar ist das Verfahren?
G: gesund, K: krank, DK: Diagnose krank, DG: Diagnose gesund
Verteilung des Parameters in einer großen Gruppe Kranker und Gesunder:
Diagn. Gesund
Diagn. Krank
Fehldiagnosen
0.4
y 0.4
y
0.3
0.3
P(K)
P(DK/K)
P(DG/G)
Brauchbarkeit des Tests in Anwendungsphase (nach Bayes-Formel)
positiv prädiktiver Wert Anteil der Kranken unter ‚Diagnose krank‘
P(K/DK)
P ( K / DK ) =
Gesunde
0.0
0.0
15
15
16
16
17
17
18
18
Kranke
19
19
20
20
Schwellwert
21
21
Sensitivität ⋅ Prävalenz
Sensitivität ⋅ Prävalenz + (1 − Sensitivität) ⋅ (1 − Prävalenz)
negativ prädiktiver Wert Anteil der Gesunden unter ‚Diagnose gesund‘
22
22
P (G / DG ) =
xx
Falsch negative Falsch positive
22
Prävalenz Wahrscheinlichkeit für Auftreten der Krankheit
Sensitivität Anteil richtiger Diagnose unter den Kranken
Spezifität Anteil richtiger Diagnose unter den Gesunden
0.2
0.2
0.1
0.1
Wkt.1
P(G/DG)
Spezifität ⋅ (1 − Prävalenz)
Spezifität ⋅ (1 − Prävalenz) + (1 − Sensitivität) ⋅ Prävalenz
Anteile der Fehldiagnosen sind stark von Prävalenz abhängig!
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
23
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
24
Positive und negative Vorhersagewahrscheinlichkeit
Positive und negative Vorhersagewahrscheinlichkeit
Beispiel 5
0,03
Ω
0.97
0.03
0.97
0.99
DK
Kenngrößen in Anwendungsphase
0.01
DG
P(K/DK) für das Vorliegen der Krankheit,
wenn der Test positiv ist (PPV)
0.02
0.98
SS 2016
DK
G
DG
Wkt.1
25
Unabhängigkeit von Ereignissen
DK
DG
Zu berechnen sind (nach Bayes)
P(K/DK) bzw. P(G/DG)
P ( DK / K ) ⋅ P ( K )
P ( DK / K ) ⋅ P ( K ) + P ( DK / G ) ⋅ P (G )
0.99 ⋅ 0.03
=
= 0.60
0.99 ⋅ 0.03 + 0.02 ⋅ 0.97
d.h. nur 60% mit Diagnose Krank
sind auch wirklich krank,
40% der Fälle mit Diagnose Krank
sind Fehldiagnosen!
P ( DG / G ) ⋅ P (G )
P ( DG / G ) ⋅ P (G ) + P ( DG / K ) ⋅ P ( K )
0.97 ⋅ 0.98
=
= 0.999
0.97 ⋅ 0.98 + 0.01 ⋅ 0.03
d.h. 99.9% mit Diagnose Gesund
sind wirklich gesund,
0.1% der Kranken wird übersehen
SS 2016
Prof. Dr. J. Schütze, FB GW
3.5
Wkt.1
26
Wkt.1
28
A, B sind unabhängig, wenn
P ( A / B ) = P ( A / B ) = P ( A)
z.B. sind die Ereignisse
A: Proband hat Blinddarmentzündung
B: Proband hat Glaukom
vermutlich unabhängig.
Nach Definition der bedingten Wahrscheinlichkeit ist
P( A ∩ B)
, somit muss gelten P ( A) ⋅ P ( B ) = P ( A ∩ B )
P( A / B) =
P( B)
Definition
Der Begriff der Unabhängigkeit ist mathematisch fassbar über die bedingte
Wahrscheinlichkeit.
A, B sind stochastisch unabhängig, wenn gilt
P(A / B): Wahrscheinlichkeit, dass jemand Blinddarmentzündung bekommt, wenn er
ein Glaukom hat
P ( A ∩ B ) = P( A) ⋅ P( B)
Multiplikationssatz
P( A ∩ B) = P( A / B) ⋅ P( B)
P ( A ∩ B ) = P( A) ⋅ P( B), falls A, B unabhängig
P(A / B ): Wahrscheinlichkeit, dass jemand Blinddarmentzündung bekommt, wenn er
kein Glaukom hat
Prof. Dr. J. Schütze, FB GW
0.02
G
P(G) = 0.97, P(K) = 0.03
P(DK/K) = 0.99
P(DK/G) = 0.02
Unabhängigkeit von Ereignissen
Anschauliche Vorstellung über Unabhängigkeit der Ereignisse A, B:
Ereignis B hat keinen Einfluss darauf, ob Ereignis A eintritt oder nicht
SS 2016
DG
P (G / DG ) =
P(G/DG)für das Nichtvorliegen der Krankheit,
wenn der Test negativ ist (NPV)
Prof. Dr. J. Schütze, FB GW
0.01
P ( K / DK ) =
Wahrscheinlichkeiten im Pfaddiagramm
Ω
DK
0.98
P(G) = 0.97, P(K) = 0.03,
P(DK/K) = 0.99 (Sensitivität), folglich P(DG/K) = 0.01 (falsch negativ)
P(DK/G) = 0.02 (falsch positiv), folglich P(DG/G) = 0.98 (Spezifität)
K
0.99
K
Ein Diagnoseverfahren erkennt 99% der Erkrankten als krank, aber auch 2%
aller Gesunden werden als krank eingestuft.
Die Wahrscheinlichkeit für das Auftretens der Krankheit schätzt man in der
untersuchten Population mit 3%. Wie brauchbar ist das Verfahren?
Wkt.1
27
SS 2016
Prof. Dr. J. Schütze, FB GW
Rechnen mit Wahrscheinlichkeiten
Rechnen mit Wahrscheinlichkeiten
P ( A ∩ B ) , falls P(B)>0
P( B)
P ( A / B ) = P ( A)
P( A ∩ B) = P ( A / B) ⋅ P( B)
Beispiel 6
Ein idealer Würfel wird zweimal nacheinander gewürfelt.
Ereignis A: beim ersten Wurf fällt eine 6
Ereignis B: beim zweiten Wurf fällt eine 6
Sind A und B unabhängig?
Bedingte Wahrscheinlichkeit
Ergebnisraum bei zweimaligem Würfeln Ω = {(1,1),(1,2),...(1,6),(2,1),(2,1),...(2,6),...(6,6)}
Satz der totalen Wahrscheinlichkeit
Ω = B1 ∪ B2 ∪ ... ∪ Bn , paarweise disjunkt
P ( A) =  P ( A / Bk ) ⋅ P ( Bk )
somit
Bayessche Formel
Ω = B1 ∪ B2 ∪ ... ∪ Bn , paarweise disjunkt
P( Bi / A) =
Unabhängigkeit
Multiplikationssatz
P ( A ∩ B ) = P((6,6)) = 1 / 36
Andererseits ist
P( A / B) =
A = {(6,1),(6,2),...(6,6)}
P( A ∩ B) = P ( A) ⋅ P( B), falls A, B unabh.
n
k =1
P( A / Bi ) ⋅ P ( Bi )
n
 P( A / B ) ⋅ P( B )
k
k
k =1
B = {(1,6),(2,6),...(6,6)}
folglich ist
P ( A) = P ( B ) = 1/ 6
Wegen P ( A ∩ B ) = P ( A) ⋅ P( B ) sind die Ereignisse unabhängig.
SS 2016
Prof. Dr. J. Schütze, FB GW
3.6
Wkt.1
29
SS 2016
Prof. Dr. J. Schütze, FB GW
Wkt.1
30
Herunterladen