10.1 Über den Begriff “Stochastik” Die Wahrscheinlichkeitsrechnung

Werbung
10.1 Über den Begriff “Stochastik”
Die Wahrscheinlichkeitsrechnung ist eine Teildisziplin von
Stochastik.
Dabei kommt das Wort “Stochastik” aus dem Griechischen :
“die Kunst des Vermutens” (von “Vermutung, Ahnung, Ziel”).
in seinem Buch
Dieser Begriff wurde von Jacob Bernoulli
“Ars conjectandi” geprägt (1773), in dem
das erste Gesetz der großen Zahlen
bewiesen wurde.
Jacob Bernoulli I.(1654-1705)
1
Stochastik kann man in folgende Gebiete unterteilen:
• Wahrscheinlichkeitsrechnung
Wahrscheinlichkeitstheorie (Grundlagen)
• Statistik
(Umgang mit den Daten)
• Stochastische Prozesse
(Theorie zufälliger Zeitreihen und Felder)
2
10.2 Bemerkungen zur Geschichte
Die Ursprünge der Wahrscheinlichkeitstheorie liegen im
Dunklen der alten Zeiten. Ihre Entwicklung ist in der ersten
Phase den Glücksspielen zu verdanken.
Die ersten Würfelspiele konnte man in Alt-Ägypten, I. Dynastie
(ca. 3500 v. Chr.) nachweisen.
Auch später im klassischen Griechenland und im römischen
Reich waren solche Spiele Mode
 Kaiser Augustus (63 v. Chr. -14 n. Chr.)
 Kaiser Claudius (10 v.Chr. - 54 n. Chr.).
3
Ursprünge der Versicherungen
Gleichzeitig gab es erste wahrscheinlichkeitstheoretische
Überlegungen in der Versicherung und im Handel.
Die älteste uns bekannte Form der Versicherungsverträge
stammt aus dem Babylon (ca. 4000-3000 Jahre vor Chr.,
Verträge über die Seetransporte von Gütern).
Die ersten Sterbetafeln in der Lebensversicherung stammen
von dem römischen Juristen Ulpian (220 v.Chr.).
Die erste genau datierte Lebensversicherungspolice stammt
aus dem Jahre 1347, Genua.
4
Der erste Wissenschaftler, der sich mit diesen Aufgaben aus der
Sicht der Mathematik befasst hat, war
Gerolamo Cardano (1501-1576),
Erfinder der Cardan–Welle.
In seinem Buch “Liber de ludo alea” sind zum ersten Mal
Kombinationen von Ereignissen beim Würfeln beschrieben,
die vorteilhaft für den Spieler sind. Er hat auch als erster die
Anzahl vorteilhafter Ereignisse
Anzahl aller Ereignisse
als Maß für Wahrscheinlichkeit entdeckt.
5
Klassische Wahrscheinlichkeitstheorie (XVII-XVIII Jh.)
Diese Entwicklungsperiode beginnt mit dem Briefwechsel
zwischen Blaise Pascal und Pierre de Fermat.
Sie diskutierten Probleme, die von Chevalier de Méré (Antoine
Gombaud (1607-1684)) gestellt wurden.
Anbei ist eines seiner Probleme:
Was ist wahrscheinlicher ?
mindestens eine 6 bei 4 Würfen eines Würfels oder
mindestens ein Paar (6,6) bei 24 Würfen von 2 Würfeln zu
bekommen?
Die Antwort:
5 4
P(mind. eine 6 in 4 Würfen) = 1 – P(keine 6) = 1 - ( ) = 0,516
P(mind.1x (6,6) in 24 Würfen von 2 Würfeln) =
6
35 24
1-( )
36
= 0,492
6
Entwicklung analytischer Methoden (XVIII-XIX Jh.)
Abraham de Moivre,
Thomas Bayes,
Pierre Simon de Laplace
Carl Friedrich Gauß,
Simeon Denis Poisson
Entwicklung der Theorie der Beobachtungsfehler
und Theorie des Schießens (Artilleriefeuer)
Erste nicht–klassische Verteilungen
wie Binomial– und Normal-Verteilung, Poisson–Verteilung
zentraler Grenzwertsatz von De Moivre.
7
Entwicklung analytischer Methoden (XVIII-XIX Jh.)
„St.Petersburger Schule von Wahrscheinlichkeiten“
P.L. Tschebyschew
A.A. Markow
A.M. Ljapunow
Einführung von
Zufallsvariablen,
Erwartungswerten,
Wahrscheinlichkeitsfunktionen,
Markow–Ketten.
8
Moderne Wahrscheinlichkeitstheorie (XX Jh.)
David Hilbert,
8.8.1900,II. Mathematischer Kongress in Paris, Problem Nr. 6:
Axiometrisierung von physikalischen Disziplinen,
wie z.B. Wahrscheinlichkeitstheorie.
Antwort darauf:
A.N. Kolmogorow
führt Axiome der Wahrscheinlichkeitstheorie ein
basierend auf der Maß– und Integrationstheorie von
Borel und Lebesgue (1933) .
9
10.3 Typische Problemstellungen der Stochastik
Bemerkung:
Auf diesen „Kreislauf“ bezieht sich der Qualitätsregelkreis PDCA
PLAN
DO
CONTROLL
ACT
in der modernen Qualitätslehre.
10
10.3 Typische Problemstellungen der Stochastik
1.
Modellierung von Zufallsexperimenten, d.h. deren
adäquate theoretische Beschreibung.
2.
Bestimmung von
o Wahrscheinlichkeiten von Ereignissen
o Mittelwerten und Varianzen von Zufallsvariablen
o Verteilungsgesetzen von Zufallsvariablen
3. Näherungsformel und Lösungen mit Hilfe von
Grenzwertsätzen
4. Schätzung von Modellparametern in der Statistik, Prüfung
statistischer Hypothesen
11
Wahrscheinlichkeitstheorie
befasst sich mit (im Prinzip unendlich oft) wiederholbaren
Experimenten, in Folge derer ein Ereignis auftreten kann (oder
nicht).
Solche Ereignisse werden “zufällige Ereignisse” genannt.
Sei A ein solches Ereignis. Wenn n(A) die Häufigkeit des
Auftretens von A in n Experimenten ist, so hat man bemerkt,
n(A)
dass
→ c geht.
𝒏
Diese Konstante c nennt man “Wahrscheinlichkeit von A” und
bezeichnet sie mit P(A)* .
*P(ropability)
12
𝒏(𝑨)
Relative Häufigkeit
des Ereignisses „KOPF“
𝒏
beim n-maligen Münzwurf
13
Man kann leicht feststellen, dass
n(A)
𝑛
=> P(A) =
1
2
≈ für große n.
𝟏
𝟐
Um dies zu verifizieren,
hat Buffon in XVIII Jh. 4040 mal eine faire Münze geworfen,
n(A) 2048
davon war 2048 mal Kopf, so dass
=
= 0,508.
4040
𝑛
Pierson hat es 24.000 mal gemacht:
n(A) 12012
es ergab n(A) = 12012 und somit
=
= 0,5005.
𝑛
24000
In den Definitionen, die wir bald geben werden, soll diese
n(A)
empirische Begriffsbildung in P(A) = 𝐥𝐢𝐦
ihren Ausdruck
𝒏→∞
𝒏
finden.
14
10.4 Ereignisse
Sei E ein Grundraum und
Ω ⊂ E sei die Menge von Elementarereignissen 𝜔(Grundmenge).
Ω kann als Menge der möglichen Versuchsergebnisse interpretiert werden. Man nennt Ω manchmal auch Grundgesamtheit
oder Stichprobenraum.
Definition Ereignis
Eine Teilmenge A von Ω (A ⊂ Ω ) wird Ereignis genannt.
Dabei ist { 𝜔 } ⊂ Ω ein Elementarereignis,
das das Versuchsergebnis 𝜔 darstellt.
Falls bei einem Versuch das Ergebnis 𝜔 ∈ A erzielt wurde, so
sagen wir, dass A eintritt.
15
Beispiele
1. einmaliges Würfeln:
Ω = { 1, 2, 3, 4, 5, 6} E = N
2. n–maliger Münzwurf:
Ω = { (𝜔1 , 𝜔2 , … , 𝜔𝑛 ) : 𝜔𝑖 ∈ { 0, 1 } }
E = Nn =
1; falls ein “Kopf” im i–ten Wurf
0; sonst
16
Definition
Ein Zufallsexperiment ist ein Experiment mit folgenden
Eigenschaften:
1. Das Experiment ist unter gleichen äußeren Bedingungen
beliebig oft wiederholbar.
2. Das Experiment besitzt mehrere sich gegenseitig
ausschließende Ergebnisse.
3. Die Ergebnisse im Experiment sind zufallsbedingt.
17
Verknüpfungen von Ereignissen
Die Vereinigung (oder Summe) A∪B von Ereignissen
bedeutet:
Entweder tritt A ein oder B oder A und B gleichzeitig.
Der Durchschnitt (oder Produkt) A∩B von Ereignissen
bedeutet:
Die Ereignisse A und B treten gleichzeitig ein.
Das zu A komplementäre Ereignis 𝐀 bedeutet:
Das Ereignis A tritt nicht ein.
18
Beispiele
Zufallsexperiment Roulette
Die Elementarereignisse im Roulette sind die Zahlen
0,1,2,...,36.
Wir definieren zwei Ereignisse A und B, um sie zu verknüpfen:
A = "Alle geraden Zahlen",
A = {2,4,6,...,36}
B = "Alle Zahlen im 1.Drittel",
B = {1,2,3,...,12}.
Dann bedeuten:
A∪B = {1,2,3,...,11,12, 14,16,...,36}
A∩B = {2,4,6,8,10,12}
A=E\A= {0,1,3,5,...35}.
19
Beispiele
Zufallsexperiment Roulette
Die Elementarereignisse im Roulette sind die Zahlen
0,1,2,...,36.
Wir definieren zwei Ereignisse A und B, um sie zu verknüpfen:
A = "Alle geraden Zahlen",
A = {2,4,6,...,36}
B = "Alle Zahlen im 1.Drittel",
B = {1,2,3,...,12}.
Dann bedeuten:
A∪B = {1,2,3,...,11,12, 14,16,...,36}
A∩B = {2,4,6,8,10,12}
A=E\A= {0,1,3,5,...35}.
20
Beispiele
Zufallsexperiment Wurf mit zwei Würfeln
Die Elementarereignisse sind die 36 Zahlenpaare
(1,1),(1,2),...,(6,6).
Wir definieren zwei Ereignisse für die Verknüpfung:
A = "Beide Augenzahlen sind gleich":
A={(1,1),(2,2),...,(6,6)}
B="Der zweite Würfel hat die Augenzahl 5":
B={(1,5),(2,5),...(6,5)}
Dann bedeuten:
A∪B={(1,1),(2,2),...(6,6),(1,5),(2,5),...,(6,5)},
A∩B = {(5,5),
A=E\A = {(1,2),1,3)...,(2,1),(2,3)(2,4),...,(6,5)}
21
Zweckdienlich zur Berechnung von Problemen in der
Wahrscheinlichkeitstheorie sind die so genannten
De Morgan´schen Regeln:
Für zwei beliebige Ereignisse A und B gelten folgende
Regeln:
1. A ∪ B = 𝐀 ∩ 𝐁
2. A ∩ B = 𝐀 ∪ 𝐁
22
Tabelle: Wahrscheinlichkeitstheoretische Bedeutung von
Mengenoperationen
23
10.5 Wahrscheinlichkeiten
Laplace-Experiment
Wird ein Zufallsexperiment mit einer endlichen Ergebnismenge E
hinreichend oft wiederholt und zeigt sich dabei, dass keines der
Elementarereignisse gegenüber einem anderen bevorzugt
auftritt, so werden alle Ereignisse stets näherungsweise gleich
häufig auftreten
und wir sprechen von einem Laplace-Experiment.
Beispiele:
Wurf mit einer Münze
Wurf mit einem Würfel
24
Beispiel
Bei dem Ziehen einer Kugel aus einer Urne, die drei weiße und
zwei schwarze Kugeln enthält, gibt es die zwei Elementarereignisse:
A = Ziehen einer weißen Kugel,
B = Ziehen einer schwarzen Kugel.
1
5
3
2
4
Die Möglichkeit, eine weiße Kugel zu ziehen, ist größer als die
Möglichkeit, eine schwarze Kugel zu ziehen. Es liegt daher kein
Laplace-Experiment vor.
Wenn wir die Kugeln zusätzlich durchnummerieren und damit
unterscheiden, so erhalten wir ein Zufallsexperiment mit 5
gleichmöglichen Elementarereignissen und damit ein Laplace25
Experiment.
Mit dem Laplace- Experiment können wir einen ersten
Wahrscheinlichkeitsbegriff formulieren.
Besteht eine Ergebnismenge aus n gleichmöglichen Elementarereignissen, so wird für das einzelne Elementarereignis 𝒆𝒊
mit 1 ≤ i ≤ n definitionsgemäß die folgende positive Zahl als
Wahrscheinlichkeit definiert:
𝟏
P(𝒆𝒊 ) = 𝐩𝐢 =
.
𝒏
Setzt sich ein Ereignis A zusammen aus den g Elementen 𝒆𝒌 mit
1 ≤ k ≤ g, so wird die Wahrscheinlichkeit für das Eintreffen von A
definiert durch die Formel
P(A) =P({ 𝒆𝟏 , 𝒆𝟐 ,..., 𝒆𝒈 }) =
𝒈
𝒌=𝟏 P(𝒆𝒌 )=
𝟏
𝒈
𝒌=𝟏 𝒏
𝒈
𝒏
= ,
worin der Buchstabe g auch symbolisieren soll, dass es sich um
die für das Zufallsexperiment günstigen Fälle handelt.
26
Streng mathematisch müssten wir in der Schreibweise unterscheiden zwischen
P(𝒆𝒌 ), worin
𝒆𝒌 ein Element ist, und
P({𝒆𝒌 }), worin nun {𝒆𝒌 } ein Ereignis bzw. eine Teilmenge
symbolisiert. Darauf wollen wir aber verzichten.
Gemäß dieser Definition gilt natürlich für die Wahrscheinlichkeit
P(A) eines beliebigen Ereignisses stets:
P(A) ≤ 1,
und für das sichere Ereignis gilt:
P(E) = 1.
Außerdem gilt offensichtlich
P(𝐀) =1 - P(A).
Beispiele
1. Wurf mit einem Würfel ( 1 von 6 )
2. Roulette ( 1 von 37 )
3. Ziehung einer Kugel aus einer Urne ( 1 von 5, siehe oben )
4. Lottoziehung ( 6 von 49 )
5. Wie groß ist die Wahrscheinlichkeit P(B) bei zehnmaligem
Kartenziehen mindestens einen Buben zu ziehen?
27
In allen fünf Beispielen basiert die Berechnungsmöglichkeit
darauf, dass alle unterscheidbaren Elementarereignisse gleichwahrscheinlich waren. Dies ist aber meist nicht der Fall.
Wir müssen deshalb den Wahrscheinlichkeitsbegriff
verallgemeinern, um auch Zufallsexperimente mit nicht
gleichmöglichen Elementarereignissen untersuchen zu können.
28
Absolute und relative Häufigkeit
Die meisten Experimente erfüllen nicht die Voraussetzungen
eines Laplace-Experimentes. Wiederholen wir ein Experiment
hinreichend häufig, so werden wir aber feststellen, dass die
Ereignisse auf lange Dauer gewissen Gesetzmäßigkeiten
unterliegen, im Gegensatz zur zufälligen Unregelmäßigkeit der
einzelnen Ergebnisse.
Anhand dieser Erkenntnis werden wir den einzelnen Ereignissen
Wahrscheinlichkeiten zuordnen. Dabei werden wir den
Begriff der relativen Häufigkeit verwenden.
29
Die mathematische Aussage
"Das Ereignis A besitzt die Wahrscheinlichkeit P(A)"
soll dann folgenden Sachverhalt beschreiben:
Wenn sich mit wachsender Anzahl n der Ausführungen eines
Zufallexperiments die Schwankungen in der relativen Häufigkeit
ℎ𝑛 (A) klein werden und sich einem festen Zahlenwert
P(A) nähern, so werden wir diesen Zahlenwert definieren als
Wahrscheinlichkeit P(A) des Zufallexperiments, P(A) ≈ ℎ𝑛 (A),
falls n genügend groß ist.
Wir sagen auch, die relativen Häufigkeiten stabilisieren sich
für hinreichend viele Ausführungen um einen festen
Zahlenwert.
Für das Rechnen mit Wahrscheinlichkeiten werden wir
axiomatisch die Regeln formulieren, die für das Rechnen mit
relativen Häufigkeiten gelten. Dazu müssen wir zunächst die
Begriffe absolute Häufigkeit und relative Häufigkeit definieren
30
und anhand geeigneter Beispiele diskutieren.
Definition Absolute Häufigkeit
Bei einer n-fachen Ausführung eines Zufallsexperimentes
werden die einzelnen Ereignisse A, B, ... mit gewissen
absoluten Häufigkeiten H(A), H(B), ... auftreten. Wir ermitteln
die absoluten Häufigkeiten durch Abzählen.
Definition Relative Häufigkeit
Die relative Häufigkeit 𝒉𝒏 (A) eines Ereignisses A bei einer nfachen Ausführung eines Zufallsexperimentes errechnen wir,
indem wir die absolute Häufigkeit 𝐇𝐧 (A) durch einfaches
Abzählen ermitteln und dann den Quotienten bilden:
𝐡𝐧 (A) =
𝐇𝐧 (𝐀)
𝐧
.
31
Beispiel Augenzahl mit zwei identischen Würfeln
Wir würfeln mit zwei identischen Würfeln und untersuchen das
Zufallsereignis "Summe der beiden Augenzahlen".
In diesem Beispiel unterscheiden wir die Würfel nicht und
erklären die Summe der Augenzahlen als Elementarereignis.
Die 11 möglichen Elementarereignisse 2,3,...,12 sind nun nicht
gleichmöglich; es handelt sich um kein Laplace-Experiment.
Um die Wahrscheinlichkeiten der einzelnen Elementarereignisse
zu erforschen, führen wir umfangreiche Würfelserien durch. Die
Anzahlen n der Ausführungen betragen 𝒏𝟏 , 𝒏𝟐 und 𝒏𝟑 .
Wir zählen die Häufigkeiten der einzelnen Ereignisse absolut
und relativ und untersuchen, ob sich die relativen Häufigkeiten
an bestimmten Zahlenwerten stabilisieren.
Unsere Untersuchung stellen wir tabellarisch und grafisch dar:
𝒏𝟏 = 190, 𝒏𝟐 = 428 und 𝒏𝟑 = 997.
32
33
34
35
Zur Postulierung einer Wahrscheinlichkeit für die einzelnen
Elementarereignisse benötigen wir deren relative Häufigkeiten für
große n.
In der Tabelle und in der Grafik werden die relativen Häufigkeiten
für zunehmende Anzahlen n der Ausführungen dargestellt.
Außerdem ist die Wahrscheinlichkeit eingetragen, die
sich für ein Laplace-Element ergibt.
Nun handelt es sich in diesem Beispiel nicht um ein LaplaceElement; ansonsten wäre ja der ganze Aufwand zur Ermittlung
der Wahrscheinlichkeiten überflüssig.
Wir können aber aus unserem Experiment ein LaplaceExperiment machen, indem wir die Würfel gedanklich einfärben
und in die 36 gleichmöglichen Elementarereignisse
{(1,1),(1,2),...,(6,5),(6,6)} zerlegen.
Wir haben nun ein Laplace-Experiment.
36
Die Wahrscheinlichkeit seiner Elementarereignisse beträgt
Wir definieren die Teilmengen { A, B, C,...} durch
A = "Summe der Augenzahlen ist 2",
B = "Summe der Augenzahlen ist 3",
C = " Summe der Augenzahlen ist 4", ... u.s.w.
1
.
36
Ereignis A besteht aus einem günstigen Element A = {(1,1)},
1
die Laplace-Wahrscheinlichkeit von A ist also = 0,27.
36
Ereignis B besteht aus 2 Elementen B = {(1,2),(2,1)}, besitzt also
2
1
die Wahrscheinlichkeit = = 0,05. u.s.w.
36
18
Die exakten Wahrscheinlichkeiten sind in der Tabelle mit
angezeigt.
37
Ziehen einer Kugel
In einem Behälter befinden sich schwarze und weiße Kugeln
unbekannter Anzahlen. Durch zufälliges Herausnehmen
entstehen folgende relativen Häufigkeiten:
n
414
856
1803
3612
schwarz
54,35%
56,66%
58,01%
58,19%
weiß
45,65%
43,34%
41,99%
41,81%
38
Ziehen einer Kugel
In einem Behälter befinden sich schwarze und weiße Kugeln
unbekannter Anzahlen. Durch zufälliges Herausnehmen
entstehen folgende relativen Häufigkeiten:
Offensichtlich pendeln sich die relativen Häufigkeiten ℎ𝑠 bzw. ℎ𝑤
der schwarzen bzw. weißen Kugeln auf näherungsweise 0,582
bzw. 0,418 ein.
Wir erwarten, dass die relativen Häufigkeiten der beiden
Ereignisse sich in der Nähe dieser beiden Werte stabilisieren.
Wir werden die stabilen Werte der relativen Häufigkeiten großer
Stückzahlen als Maßzahl für die Wahrscheinlichkeit des
Eintreffens für die schwarzen bzw. weißen Kugeln postulieren.
39
Die Einführung eines empirischen Wahrscheinlichkeitsbegriffes
P(A) ≈ 𝒉𝒏 (A) aus den Messreihen bedarf aber einiger unterstützender Regeln.
Diese Regeln entsprechen den Eigenschaften, die wir bei den
relativen Häufigkeiten beobachten.
Bei einer n-fachen Ausführung eines Zufallexperimentes
beobachten wir die nachstehenden Gesetzmäßigkeiten für die
relativen Häufigkeiten der Ergebnismenge E:
40
1. Die relative Häufigkeit ℎ𝑛 (A) eines beliebigen Ereignisses A
ist eine nicht-negative Zahl, die höchstens 1 sein kann:
0 ≤ 𝒉𝒏 ≤ 1.
2. Für das sichere Ereignis E gilt: 𝒉𝒏 (E)=1.
3. Für sich ausschließende Ereignisse A, B gilt:
𝐡𝐧 (A∪B) = 𝐡𝐧 (A)+𝒉𝒏 (B) .
4. Für zwei beliebige Ereignisse A und B gilt:
𝒉𝒏 (A∪B) = 𝒉𝒏 (A) + 𝒉𝒏 (B) - 𝒉𝒏 (A∩B),
worin ℎ𝑛 (A∩B) das Ereignis beschreibt, in dem A und B
gleichzeitig eintreten.
5. Mit zunehmender Anzahl der Versuche n stabilisiert sich im
Regelfall die relative Häufigkeit 𝒉𝒏 (A) eines zufälligen
Ereignisses A und schwankt immer weniger um einen
bestimmten Wert A.
41
Axiomatik des Wahrscheinlichkeitsbegriffes
Jedem Ereignis A eines Zufallsexperimentes mit der
Ergebnismenge E können wir eine reelle Zahl P(A) ≈ 𝒉𝒏 (A)
zuordnen. Diese Zahl nennen wir Wahrscheinlichkeit des
Experiments und fordern von ihr folgende Eigenschaften:
Axiom 1: P(A) ist eine nicht-negative Zahl, die höchstens gleich
1 ist:
0 ≤ P(A) ≤ 1.
Axiom 2: Für das sichere Ereignis (Ergebnismenge E) soll
gelten
P(A) = 1.
Axiom 3: Für sich paarweise ausschließende Ereignisse A, B,
C... gilt:
P(A∪B∪C...) = P(A) + P(B) + P(C) + ...
Axiom 4: Für beliebige Ereignisse A und B (die sich nicht
notwendig gegenseitig ausschließen) gilt:
P(A∪B) = P(A) + P(B) - P(A∩B),
worin P(A∩B) die Wahrscheinlichkeit des Ereignisses eschreibt,
42
in dem A und B gleichzeitig auftreten.
Wahrscheinlichkeit P(A) eines Ereignisses A für LaplaceExperimente
P(A) =P({ 𝒆𝟏 , 𝒆𝟐 ,..., 𝒆𝒈 }) =
𝒈
𝒌=𝟏 P(𝒆𝒌 )=
𝟏
𝒈
𝒌=𝟏 𝒏
=
𝒈
,
𝒏
Wahrscheinlichkeit P(A) eines Ereignisses A für beliebige
Experimente
P(A) ≈ 𝒉𝒏 (A) ,
worin 𝒉𝒏 (A) die „stabilisierte" relative Häufigkeit des Ereignisses
A für hinreichend große Anzahlen n von Ausführungen des
Zufallexperimentes ist und die obige Axiomatik erfüllt.
Wir bezeichnen die Art der Festlegung der Wahrscheinlichkeit
für beliebige Experimente durch einen Näherungswert der
relativen Häufigkeit auch als eine statistische oder
empirische Definition. Diese empirische Definition muss im
Einklang mit den vorausgestellten Axiomen sein.
43
Wir leiten aus den Axiomen zwei weitere Eigenschaften her, die
in den Rechenanwendungen bedeutsam sind.
1.Für das unmögliche Ereignis ∅ ist die Wahrscheinlichkeit Null:
P(∅) = 0.
2. Für das zu A komplementäre Ereignis 𝐀 gilt:
P(𝑨) = 1 - P(A).
Das Gerüst der Axiomen gibt uns die Regeln, wie wir mit
Wahrscheinlichkeiten zu rechnen haben, die wir im Anschluss
an Axiom 4 definiert haben.
Durch die Einführung von Wahrscheinlichkeiten für die
Ereignisse haben wir den Ereignisraum erweitert zum
sogenannten Wahrscheinlichkeitsraum.
44
Definition Wahrscheinlichkeitsraum
Den Elementarereignissen 𝒆𝒊 aus der Ergebnismenge
E = { 𝒆𝟏 , 𝒆𝟐 ,...} eines Zufallexperimentes ordnen wir eine reelle
Wahrscheinlichkeit p(𝒆𝒊 ) = 𝐩𝐢 so zu, dass folgende Aussagen
erfüllt sind:
p(𝒆𝒊 ) ≥ 0 für alle i und
𝒏
𝒊=𝟏 𝒑𝒊
= 𝒑𝟏 + 𝒑𝟐 + 𝒑𝟑 + … = 1
Der Ereignisraum wird dadurch zum Wahrscheinlichkeitsraum.
Die Wahrscheinlichkeit P(A) einer Teilmenge A von Elementarereignissen (Ereignis 𝐀 𝐢 )
ist definiert als
Summe der Wahrscheinlichkeiten 𝐩𝒊 der in A enthaltenen
Elementarereignisse:
P(A) =
𝒏
𝒊=𝟏 p(𝒆𝒊 ) =
𝒏
𝒊=𝟏 𝐩𝒊
45
Bedingte Wahrscheinlichkeit
Es seien A und B Ereignisse, die bei einem Experiment
auftreten können. Manchmal interessiert die Frage:
Wie groß ist die Wahrscheinlichkeit, dass ein Ereignis B eintrifft,
wenn wir zusätzlich das Ereignis A als vorgegeben
voraussetzen?
46
Ereignisbäume
Für komplizierte Zufallsprozesse, die aus mehreren
nacheinander ablaufenden Zufallsexperimenten bestehen, gibt
es ein anschauliches Hilfsmittel, den sogen. Ereignisbaum.
© www.brinkmann-du.de
47
Ereignisbäume
Beispiel:
© www.brinkmann-du.de
48
Ereignisbäume
Beispiel:
In einer Urne sind 100 Kugeln, 70 Kugeln sind aus Holz, 30 aus
Kunststoff. Von den Holzkugeln sind 25 Stück rot gefärbt, 45
grün. Von den Kunststoffkugeln sind 10 rot und 20 grün.
Wie groß ist die Wahrscheinlichkeit, eine grüne Kugel gezogen
zu haben, wenn man weiß, das die gezogene Kugel aus
Kunststoff ist.
Um die im Baumdiagramm noch fehlenden Wahrscheinlichkeiten
auszurechnen, verwendet man die Pfadmultiplikationsregel:
P(A) • 𝐏𝐀 (𝑩 ) = P ( A ∩ B )
© www.brinkmann-du.de
49
Ereignisbäume
Regeln:
Berechnung von Wahrscheinlichkeiten bei mehrstufigen
Zufallsexperimenten mit Hilfe des Ereignisbaums
(sogenannte Pfadregeln)
1. Die Wahrscheinlichkeiten längs eines Pfades werden
miteinander multipliziert.
2. Führen mehrere Pfade zum gleichen Ergebnis, so addieren
sich ihre Wahrscheinlichkeiten.
50
Bedingte Wahrscheinlichkeit
Es seien A und B Ereignisse, die bei einem Experiment
auftreten können. Manchmal interessiert die Frage:
Wie groß ist die Wahrscheinlichkeit, dass ein Ereignis B eintrifft,
wenn wir zusätzlich das Ereignis A als vorgegeben
voraussetzen?
Zur Verdeutlichung nehmen wir ein Laplace - Experiment an,
indem n gleichmögliche Elementarereignisse eintreffen können,
von denen
• in k Fällen das Ereignis A,
• in l Fällen das Ereignis B, und schließlich
• in m Fällen das Ereignis A∩B, also A und B gleichzeitig,
eintrifft.
51
Bedingte Wahrscheinlichkeit
Aus der klassischen Wahrscheinlichkeitsdefinition gemäß
Laplace ergeben sich folgende Wahrscheinlichkeiten für die
einzelnen Ereignisse:
P(A) =
𝒌
𝒏
, P(B) =
𝒍
𝒏
, P(A∩B) =
𝒎
𝒏
.
Die Wahrscheinlichkeit von B, unter der zusätzlichen Bedingung,
dass wir nur Fälle untersuchen, in denen A vorkommt,
beschreiben wir durch den Ausdruck P(B|A).
Zur Berechnung dieser Zahlengröße überlegen wir uns, dass wir
nur die Fälle zur Untersuchung zulassen, in denen A eintrifft.
Dies sind k Fälle. Unter diesen gibt es m Möglichkeiten für ein
gleichzeitiges Eintreffen von B. Die Wahrscheinlichkeit für B,
unter der Bedingung, dass A vorliegt, beträgt dann:
P(A∩B) 𝒎 𝒏
P(B|A) =
=
P(A)
𝒌
𝒏
=
𝒎
𝒌
52
Beispiel: 1 Würfel
A : Augenzahl ist gerade
B : Augenzahl durch 3 teilbar
A∩B
A
= { 2, 4, 6 }
B
= { 3, 6 }
A∩B = { 6 }
k =3
l =2
m=1
Beispiel: 2 Würfel mit 𝐴𝑖 = { u, v } mit u,v ∈ { 1, 2, 3, 4, 5, 6 }
A : u=1 oder v=1
A = {(1,1); (1,2); …; (1,6); (2,1); (3,1);…; (6,1) }
B : u + v=5
B = { (1,4); (2,3); (3,2); (4,1) }
A∩B = { (1,4); (4,1) }
k = 11
l =4
m =2
53
Bedingte Wahrscheinlichkeit
Sind nun E und F zwei Ereignisse zu irgendeinem Experiment
(nicht notwendig ein Laplace-Experiment), so nennen wir den
Ausdruck P(E|F) die Wahrscheinlichkeit des Eintreffens
von E unter der Hypothese, dass F eingetroffen ist.
Für den Ausdruck P(E|F) gelten folgende Regeln:
1. Schließen sich E und F gegenseitig aus, so ist P(E|F) = 0.
2. Die Wahrscheinlichkeit des gleichzeitigen Eintreffens von E
und F lässt sich anhand der bedingten Wahrscheinlichkeit so
berechnen:
P(E∩F) = P(E) · P(F|E) = P(F) · P(E|F).
Multiplikationssatz
54
Beispiel: 2 Würfel mit 𝐴𝑖 = { u, v } mit u,v ∈ { 1, 2, 3, 4, 5, 6 }
E : u+v = 0 mod 4
E = {(1,3); (3,1);(2,2);
(2,6); (6,2);(3;5); (5,3); (4,4);
(6,6) }
F:u=3
F = { (3,1);(3,2); … ;(3,6) }
E∩ F =
k = 9
l =6
m =0
55
Beispiel: 2 Würfel mit 𝐴𝑖 = { u, v } mit u,v ∈ { 1, 2, 3, 4, 5, 6 }
E : u+v = 0 mod 4
E = {(1,3); (3,1);(2,2);
(2,6); (6,2);(3;5); (5,3); (4,4);
(6,6) }
F : u + v = 1 mod 2
F = { ….}
k = 9
l = 18
56
3. Für drei gleichzeitig eintreffende Ereignisse heißt der
Multiplikationssatz so:
P( A ∩ B ∩ C ) = P( A ) · P( B|A ) · P( C|A∩B) .
Darin bedeutet P(C|A∩B) die Wahrscheinlichkeit für das
Eintreffen des Ereignisses C unter der Wahrscheinlichkeit,
dass die Ereignisse A und B bereits eingetreten sind.
57
Beispiel: 2 Würfel mit 𝐴𝑖 = { u, v } mit u,v ∈ { 1, 2, 3, 4, 5, 6 }
A : u gerade, v ungerade
B : u+v = 0 mod 3
C : u = 3 oder v = 3
58
3. Für drei gleichzeitig eintreffende Ereignisse heißt der
Multiplikationssatz so:
P( A ∩ B ∩ C ) = P( A ) · P( B|A ) · P( C|A∩B) .
Darin bedeutet P(C|A∩B) die Wahrscheinlichkeit für das
Eintreffen des Ereignisses C unter der Wahrscheinlichkeit,
dass die Ereignisse A und B bereits eingetreten sind.
4. Zwei Ereignisse E und F heißen unabhängig, wenn die
Beziehung gilt:
P(E∩F) = P(E) · P(F).
Dann folgt aus
P(E∩F) = P(E) · P(F|E) = P(F) · P(E|F) : P(F|E) = P(F)
und
P(E|F) = P(E).
Mit anderen Worten: Die Wahrscheinlichkeit, dass E eintrifft, ist
unabhängig davon, ob F eingetroffen ist oder nicht, und
umgekehrt.
59
Hilfsmittel Kombinatorik ( siehe Mathematik 1 )
Statistische Untersuchungen, bei denen ein Ereignis wiederholt
beobachtet wird, können wir unterscheiden in Vorgänge, bei
denen sich nach jeder Beobachtung der Grundzustand wieder
herstellt, und in Ereignisse, die sich mit jeder Durchführung
verändern.
Wenn wir ein Würfelexperiment durchführen, so kehren wir nach
jedem Wurf zur Ausgangssituation zurück, weil sich der Würfel
nicht verändert.
Wenn wir aus einem Stapel Karten ziehen und sie nicht
zurückstecken, so verändern wir mit jeder entnommenen Karte
die Basis für die Zugwiederholung. Diese Situation tritt auch
beim Ziehen der Lottozahlen ein. Die Wahrscheinlichkeit
6
erfolgreich zu sein, ist mit dem ersten Zug offenbar ,
anschliessend
5
48
, dann
4
47
49
u.s.w.
60
Wir unterscheiden zwischen "Ziehen mit Zurücklegen" und
"Ziehen ohne Zurücklegen".
Vorgänge, die sich bei jeder Durchführung verändern, lassen
sich mit den Rechenregeln der bedingten Wahrscheinlichkeit im
Regelfall einfacher lösen.
Beispiele
1. In einem Behälter liegen 20 Glühbirnen, darunter sind 5
defekte. Wie groß ist die Wahrscheinlichkeit, keine defekte
zu erhalten, wenn wir zwei Glühbirnen entnehmen?
2. Ein Nahrungsmittel bestehe aus 3 Komponenten.
Die Wahrscheinlichkeit, dass die Komponenten nicht durch
Umweltgifte belastet sind, betrage bei einer Komponenten
10%; bei den zwei anderen jeweils 15%. Wie groß ist die
Wahrscheinlichkeit einer einwandfreien Nahrung?
3. Ziehung der Lottozahlen (6 aus 49)
61
ohne
Wiederholung
Kombinationen
k-ter
Ordnung
Variationen
K-ter
Ordnung
C(n;k) =
𝒏
𝒌
V(n;k) =
𝒏!
𝒏 −𝒌 !
ohne
Zurücklegen
mit
Wiederholung
𝐂𝐰 (n;k) =
𝒏+𝒌−𝟏
𝒌
𝑽𝒘 (n;k) = 𝒏𝒌
Ungeordnete
Stichproben
Geordnete
Stichproben
mit
Zurücklegen
62
63
Totale Wahrscheinlichkeit
Für eine beliebige Partition 𝐄𝟏 , 𝐄𝟐 , … , 𝐄𝒏 und ein beliebiges
Ereignis A ⊂ 𝛀 gilt
P( A ) =
𝒏
𝒌=𝟏 𝐏
𝐀 ∩ 𝐄𝐤 =
𝒏
𝒌=𝟏 𝐏
𝐄𝐤 𝐏 𝑨| 𝐄𝐤
( „Formel für die totale Wahrscheinlichkeit“ )
64
Definition Partition
Die Zerteilung der Ereignismenge Ω in unvereinbare (disjunkte)
Ereignisse 𝐄𝟏 , 𝐄𝟐 , … , 𝐄𝒏 nennt man eine Partition von Ω .
Ω = 𝐄𝟏 ∪ 𝐄𝟐 ∪ … ∪ 𝐄𝐧
𝐄𝐣 ∩ 𝐄𝐤 = ∅
Bemerkung:
Der einfachste Fall einer Partition ist 𝐄 = 𝐄𝟏 + 𝐄𝟐 => 𝐄𝟏 = 𝐄𝟐
65
Formel von Bayes
Für eine beliebige Partition 𝐄𝟏 , 𝐄𝟐 , … , 𝐄𝒏 und ein beliebiges
Ereignis A ⊂ 𝛀 gilt, die Wahrscheinlichkeit, dass eines der
Ereignisse 𝐄𝒋 unter der Bedingung von A eintritt, ist
𝐏 𝐄𝐣 𝐏 𝐀| 𝐄𝐣
P( 𝐄𝐣 | A ) =
𝐏(𝐀)
=
𝐏 𝐄𝐣 𝐏 𝐀| 𝐄𝐣
𝒏
𝒌=𝟏 𝐏
𝐄𝐤 𝐏 𝑨| 𝐄𝐤
 Bayes ´sche Klassifizierung
 Bayes´ SPAM – Filter
 Optimale Stoppstrategie
( Quelle: Teschl, Teschl, Band 2 )
66
Beispiel: PC Hersteller hat 3 Lieferanten
Anteil
𝜶
40%
𝜷
25%
𝜸
35%
Ausschuß
2%
1%
3%
a. Wie groß ist die Wahrscheinlichkeit, dass ein geliefertes
Produkt fehlerhaft ( Ereignis A ) ist ?
A : Produkt ist fehlerhaft .
P(𝛼) = 0,40
P(A|𝛼) = 0,02
P(𝛽) = 0,25
P(A|𝛽) = 0,01
P(𝛾) = 0,35
P(A|𝛾) = 0,03
P(A) = P(𝜶) P(A|𝜶)
+ P(𝜷) P(A|𝜷) + P(𝜸) P(A|𝜸)
= 0,40 • 0,02 + 0,25 • 0,01 + 0,35 • 0,03
= 0,021
= 2,1%
67
Beispiel: PC Hersteller hat 3 Lieferanten
Anteil
𝜶
40%
𝜷
25%
𝜸
35%
Ausschuß
2%
1%
3%
b. Wie groß ist die Wahrscheinlichkeit, dass ein defektes
Produkt vom Lieferant 𝛼 stammt ?
Mit Hilfe des Multiplikationssatzes
P(E∩F) = P(E) · P(F|E) = P(F) · P(E|F)
P(𝜶) P(A|𝜶) = P(A) P(𝜶|A)
P(𝜶) P(A|𝜶)
P(𝜶|A) =
P(A)
0,40 • 0,02
P(𝛼|A) =
= 38%
0,021
68
Herunterladen