128 2.2 Bayes-Aktionen Bsp. 2.35 (Beispiel: Lotterie vgl. Bsp. 1.8

Werbung
128
2.2
Bayes-Aktionen
Bsp. 2.35 (Beispiel: Lotterie vgl. Bsp. 1.8)
Urne mit g (hier: 50) grünen, b (30) blauen und r (20) restlichen Kugeln.
Man kann
a1 nicht spielen
a2 zum Preis von 20 auf Grün setzen
a3 zum Preis von 10 auf Blau setzen
Nur einmaliger zufälliger Zug aus der Urne, man erhält 100 Euro bei Treffer:
129
grün blau rest Min
a1
0
0 0
0
a2 80 -20 -20 -20
a3 -10 90 -10 -10
Wie würden Sie sich entscheiden?
130
Def. 2.36
Gegeben seien
• ein datenfreies Entscheidungsproblem (A, Θ, u(·)) in Nutzenform
• eine σ-Algebra σ(Θ) über Θ, die alle Einpunktmengen {ϑ} enthält.
• Ein Wahrscheinlichkeitsmaß π(·) über (Θ, σ(Θ)).
Dann heißt für jedes a ∈ A
Z
Eπ (u(a)) :=
u(a, ϑ) dπ(ϑ)
Θ
der Erwartungsnutzen von a.
(2.7)
131
Bem. 2.37
• u(a, ·) ist nun sozusagen eine Zufallsgröße u(a)!
Zufallsexperiment determiniert ϑ, damit also auch den konkret sich
einstellenden Nutzen
Θ → R bzw. (Θ, σ(Θ)) → (R, B)
u(a) :
ϑ 7→ u(a)(ϑ) := u(a, ϑ)
• Zu (2.7) sei nochmals an die Definition des allgemeinen Maßintegral
erinnert. Insbesondere gilt wiederum
132
∗ π(·) stetig mit Dichte f (·), dann
Z
E(u(a)) = u(a, ϑ)f (ϑ) d ϑ
∗ π(·) diskret mit Wahrscheinlichkeitsfunktion π({ϑ})ϑ∈Θ
X
E(u(a)) =
u(a, ϑ)π({ϑ})
ϑ∈Θ
133
Def. 2.38 (Bernoulliprinzip)
In der Situation von Def. 2.36 wähle man
Φ(·, π) : A → R
a 7−→ Φ(a, π) = Eπ u(a)
als Kriteriumsfunktion!
134
Bem. 2.40 (Einbeziehen der Varianz)
V.a. bei wirtschaftlichen Anwendungen wird manchmal ergänzend die
Varianz von u(a, ·) (oder ein anderes Risikomaß) mit einbezogen; man
spricht dann von (µ, σ)-Kriterien (µ Mittelwert, σ 2 Varianz).
Dies kann auf zwei Arten geschehen:
1) Zweistufige (µ, σ)-Kriterien (um zwischen Aktionen mit gleichen
Erwartungswerten zu differenzieren), also etwa:
Eu(a)
e
Φ:A→
Vu(a)
135
mit der lexikographischen Ordnung, also
e
e 0) ⇐⇒
Φ(a)
> Φ(a
E(u(a)) > E(u(a0)) oder
E(u(a)) = E(u(a0)) und V(u(a)) < V(u(a0))
2) einstufige (µ, σ)-Kriterien mit der Kriteriumsfunktion
p
Φ(a) = E(u(a)) − c · V(u(a))
c > 0 (üblich): risikoavers, eventuell aber auch c < 0: risikofreundlich
(z.B. Glücksspiel).
136
2.2.2
Grundlagen der Bayesianischen Ansätze
Aufgabe 19(V) a)Wahrscheinlichkeitsbegriffe
Aufgabe 2.2
a) Wette auf A: Man darf wählen, ob man als Bank oder als Wettender
auftritt
A = {a1, a2}
a1 Wettender
Wo ist Nutzen größer?
a2 Bank
137
Θ = {ϑ1, ϑ2}
ϑ1 A tritt ein
ϑ2 A tritt nicht ein
ϑ1 ϑ2
a1 1 − e −e
a2 e − 1 e
π({ϑ1}) =: πA;
Φπ (ai) =
m
X
i=1
π({ϑ2}) = 1 − πA
u(ai, ϑj )π({ϑj })
Φπ (a1) = (1 − e) · πA − e(1 − πA)
Φπ (a2) = (e − 1) · πA + e(1 − πA)
138
Wann ist Φπ (a1) ≥ Φπ (a2)?
(1 − e) · πA − e(a − πA)
⇐⇒ πA − e · πA − e + e · πA
⇐⇒ 2πA
⇐⇒ πA
≥
≥
≥
≥
(e − 1)πA + e(1 − πA)
e · πA − π A + e − e · π A
2e
e
Ich will Wettender sein, solange πA ≥ e, also solange der Preis höchstens
gleich der Auftretenswahrscheinlichkeit ist.
also Preis gegeben, wette wenn πA ≥ e
πA gegeben, wette wenn e ≤ πA
Indifferenz zwischen a1 und a2 ⇐⇒ πA = e
Dies führt zu
139
b)
Interpretation
/
operationale
Definition
subjektiver
Wahrscheinlichkeiten
πA ist derjenige Preis, bei dem man zwischen Bank und Wettendem
indifferent ist.
Messung von subjektiver Wahrscheinlichkeit
Fußball: Einschätzug der Situation über Wetten herausbringen
Abwandlung: Markt, auf dem Wetten gehandelt werden:
Solange e < πA kaufe Wetten, falls e > πA verkaufen
140
Exkurs
Unrealistisch: exakter Umschlagspunkt
πA
unter komplexer Unsicherheit (Unbestimmtheit): Indifferenzzone [π A, π A]
kaufen
Solange e < π A
verkaufen
Solange e > π A
Solange π A ≤ e ≤ π A Bestand halten, weder kaufen noch verkaufen
Intervallbreite π A − π A beschreibt Ausmaß der Unsicherheit, perfektes
probabilistisches Wissen π A = π A, kein Wissen π A = 0 π A = 1: immer
141
halten
−→ Walley (1991): subjektive Theorie von Intervall-wahrscheinlichkeiten
c)
Analoge operationale Definition der bedingten Wahrscheinlichkeit
π(A|B): Wahrscheinlichkeit des Eintretens von A, wenn B:
Betrachte sog. kontingente Spiele, die nur gespielt werden, wenn B
eingetreten ist (Ich wette auf Bayern, wenn Schweinsteiger spielt)
ϑ1 ϑ2 ϑ3
a1 1 − e −e 0
a2 e − 1 e 0
142
ϑ1 A und B treten ein
ϑ2 B tritt ein, aber nicht A
ϑ3 B tritt nicht ein
Φπ (a1) = (1 − e) · π(A ∩ B) − e · π(Ā ∩ B)
Φπ (a2) = (e − 1) · π(A ∩ B) + e · π(Ā ∩ B)
Φπ (a1) ≥ Φπ (a2) ⇐⇒
π(A ∩ B) − e · π(A ∩ B) − e · π(Ā ∩ B)
≥ π(A ∩ B)
= e · π(A ∩ B) − π(A ∩ B) + e · π(Ā ∩ B)
π(A ∩ B)
= π(A|B)
2π(A ∩ B) ≥ 2eπ(B) ⇐⇒ e ≤
π(B)
143
Allgemeiner:
B1, . . . , Bq : vollständige Zerlegung
π(A|B) Indifferenzpunkt bei dieser kontingenten Wette
Betrachte bedingte Einsätze e(Bj ), j = 1, . . . , q. Dies veranschaulicht
die Tatsache, dass π(A|σ(B1, . . . , Bq )) eine Funktion in Bj ist.
144
ohne Info
B
B
B
B
P (A)
B
BN
B1
B2
B3
B4
B5
P (A|σ(B1, . . . , Bk )) messbar bezügl. σ(B1, . . . , Bk ), d.h. konstant auf
einzelnen Zerlegungsgliedern.
Weiterer Exkurs: de Finetti begreift nicht Wahrscheinlichkeiten,
sondern Erwartungswerte (Preis für Spiele X mit unsicherem Ausgang
145
X(ω)) als Grundentität. Dies ist aber - im Rahmen der klassischen
Wahrscheinlichkeitsrechnung - äquivalent.
Bem. 2.41 (Bayesianisches / Subjektivistisches Paradigma)
Jede
Situation
unter
Unsicherheit
kann
durch
Wahrscheinlichkeitsraum (Ω, F, π(·)) beschrieben werden.
einen
Im Kontext eines datenfreien Entscheidungsproblems heißt die
Wahrscheinlichkeitsverteilung π(·) über (Θ, σ(Θ)) apriori-Verteilung
(Verteilung vor den Daten“) (zu (A, Θ, u(·))).
”
146
Def. 2.42 (Bayes-Aktion )
Gegeben sei ein datenfreies Entscheidungsproblem (A, Θ, u(·)).
a) Ist π(·) eine apriori-Verteilung zu (A, Θ, u(·)), so heißt
Φ(·, π) : A → R
R
a 7−→ Φ(a, π) = Eπ (u(a)) = Θ u(a, ϑ) dπ(ϑ)
Bayes-Kriterium zu π(·) und jede bezüglich dieses Kriteriums optimale
Aktion a∗ Bayes-Aktion bezüglich π(·).
B(π) := Φ(a∗, π)
heißt Bayes Nutzen bezüglich π(·)
147
b) Eine Aktion a∗∗ heißt Bayes-Aktion (schlechthin), wenn es eine
priori Bewertung π ∗∗(·) zu (A, Θ, u(·)) gibt, so dass a∗∗ Bayes Aktion
bezüglich π ∗∗(·) ist.
148
Bsp. 2.43
π 1 π 2 π 3 π4 π5
a1
a2
a3
a4
ϑ1
20
10
0
14
ϑ2
10
10
40
26
ϑ3
0
10
0
0
ϑ4
10
10
0
0
Betrachtet werden sollen fünf verschiedene apriori Verteilungen
149
π1({ϑ1}) = 0.5
π2({ϑ1}) = 0
π3({ϑ1}) = 0.1
π4({ϑ1}) = 2/3
π5({ϑ1}) = 0.25
π1({ϑ2}) = 0
π2({ϑ2}) = 0
π3({ϑ2}) = 0.7
π4({ϑ2}) = 1/3
π5({ϑ2}) = 0.25
Φ(a, π`) =
π1({ϑ3}) = 0
π2({ϑ3}) = 0.5
π3({ϑ3}) = 0.1
π4({ϑ3}) = 0
π5({ϑ3}) = 0.25
m
X
j=1
u(a, ϑj )π({ϑj })
π({ϑ4}) = 0.5
π({ϑ4}) = 0.5
π({ϑ4}) = 0.1
π({ϑ4}) = 0
π({ϑ4}) = 0.25
150
• Stützgeraden
Sei M ⊂ Rn eine Punktmenge. Eine Hyperebene H heißt
Stützhyperebene von M ⇐⇒
∗ Der Durchschnitt H ∩ M ist nicht leer.
∗ Alle Punkte von M liegen auf einer Seite von H.
Geometrisch läuft das Aufsuchen von Bayes-Aktionen also darauf
hinaus, Stützhyperebenen der Aktionenmenge A zu finden, die zu den
einzelnen Vektoren π orthogonal sind.
151
Satz 2.50 (Entbehrlichkeit randomisierter Aktionen)
Gegeben sei ein datenfreies Entscheidungsproblem (M(A0), Θ, u(·)),
das die gemischte Erweiterung eines datenfreien Entscheidungsproblems
(A0, Θ, u(·)) mit endlicher Aktionenmenge A0 darstellt. Dann gilt für jede
apriori-Verteilung
π(·):
a1 . . . a n
Ist e
a=
Bayes-Aktion zur Bewertung π(·), so gibt es auch
p1 . . . pn
eine reine Aktion a ∈ A0, die Bayes-Aktion zu π(·) ist.
152
Korollar 2.51
In der Situation von Satz 2.50 gilt für jede apriori-Verteilung π(·):
Bayes-Aktionen zu π(·) in A0 bleiben Bayes-Aktionen zu π(·) beim
Übergang zu M(A0).
Beweis des Korollars:
Angenommen a∗0 sei eine Bayes-Aktion in A, aber nicht Bayes-Aktion zu
π(·) in M(A0). Dann gibt es ein e
a∗ ∈ M(A) mit
Φ(e
a∗, π) > Φ(a∗0 , π)
(2.8)
Wegen Satz 2.50 gibt es dann eine reine Aktion a∗ ∈ A0, so dass auch a∗
Bayes-Aktion in M(A) ist.
D.h. Φ(e
a∗, π) = Φ(a∗, π). Wegen (2.8) ist damit
Φ(a∗, π) > Φ(a∗0 , π).
153
Beachte, dass a∗ ∈ A0; also ist a∗0 nicht Bayes-Aktion zu π(·) in A0.
Widerspruch!
(Reine Bayes-Aktion bildet so etwas wie eine wesentlich minimal
vollständige Klasse bezüglich der durch Φ(·, π) induzierten Ordnung)
Satz 2.52 (Zul. v. Bayes-A. zu nicht entarteten apriori-Vert.)
Gegeben sei ein datenfreies Entscheidungsproblem (A, Θ, u(·)) mit apriori
Bewertung π(·) so, dass π({ϑj }) > 0 für alle j.
Dann gilt: Jede Bayes Aktion Θ zu π(·) zulässig.
Beweis: siehe Übungsaufgabe.
154
Proposition 2.53
Gegeben sei ein datenfreies Entscheidungsproblem (A, Θ, u(·)). Ist
a ∈ A eine zulässige Bayes-Aktion, so ist a∗ auch zulässig im Problem
(M(A), Θ, u(·)).
Neu ist hier die Aussage für π({ϑj }) = 0 für manche j. Für π({ϑj }) > 0
folgt die Aussage bereits aus Korollar 2.51 und Satz 2.52; nach dem
Korollar ist a∗ auch Bayes-Aktion in der gemischten Erweiterung, auf die
dann Satz 2.52 angewendet werden kann.
155
Satz 2.54
Betrachtet werde ein datenfreies Entscheidungsproblem (A, Θ, u(·)). Ist
A konvex, z.B. A = M(A0) für eine geeignete Aktionenmenge A0, dann
gilt: Zu jeder zulässigen Aktion a gibt es eine apriori Verteilung π a(·) mit
π a({ϑj }) > 0, j = 1, . . . , m, so dass a Bayes-Aktion zur Bewertung π a(·)
ist.
Proposition 2.55
Eine Äquilisator-Aktion, die zugleich Bayes-Aktion ist, ist auch MaximinAktion.
Herunterladen