128 2.2 Bayes-Aktionen Bsp. 2.35 (Beispiel: Lotterie vgl. Bsp. 1.8) Urne mit g (hier: 50) grünen, b (30) blauen und r (20) restlichen Kugeln. Man kann a1 nicht spielen a2 zum Preis von 20 auf Grün setzen a3 zum Preis von 10 auf Blau setzen Nur einmaliger zufälliger Zug aus der Urne, man erhält 100 Euro bei Treffer: 129 grün blau rest Min a1 0 0 0 0 a2 80 -20 -20 -20 a3 -10 90 -10 -10 Wie würden Sie sich entscheiden? 130 Def. 2.36 Gegeben seien • ein datenfreies Entscheidungsproblem (A, Θ, u(·)) in Nutzenform • eine σ-Algebra σ(Θ) über Θ, die alle Einpunktmengen {ϑ} enthält. • Ein Wahrscheinlichkeitsmaß π(·) über (Θ, σ(Θ)). Dann heißt für jedes a ∈ A Z Eπ (u(a)) := u(a, ϑ) dπ(ϑ) Θ der Erwartungsnutzen von a. (2.7) 131 Bem. 2.37 • u(a, ·) ist nun sozusagen eine Zufallsgröße u(a)! Zufallsexperiment determiniert ϑ, damit also auch den konkret sich einstellenden Nutzen Θ → R bzw. (Θ, σ(Θ)) → (R, B) u(a) : ϑ 7→ u(a)(ϑ) := u(a, ϑ) • Zu (2.7) sei nochmals an die Definition des allgemeinen Maßintegral erinnert. Insbesondere gilt wiederum 132 ∗ π(·) stetig mit Dichte f (·), dann Z E(u(a)) = u(a, ϑ)f (ϑ) d ϑ ∗ π(·) diskret mit Wahrscheinlichkeitsfunktion π({ϑ})ϑ∈Θ X E(u(a)) = u(a, ϑ)π({ϑ}) ϑ∈Θ 133 Def. 2.38 (Bernoulliprinzip) In der Situation von Def. 2.36 wähle man Φ(·, π) : A → R a 7−→ Φ(a, π) = Eπ u(a) als Kriteriumsfunktion! 134 Bem. 2.40 (Einbeziehen der Varianz) V.a. bei wirtschaftlichen Anwendungen wird manchmal ergänzend die Varianz von u(a, ·) (oder ein anderes Risikomaß) mit einbezogen; man spricht dann von (µ, σ)-Kriterien (µ Mittelwert, σ 2 Varianz). Dies kann auf zwei Arten geschehen: 1) Zweistufige (µ, σ)-Kriterien (um zwischen Aktionen mit gleichen Erwartungswerten zu differenzieren), also etwa: Eu(a) e Φ:A→ Vu(a) 135 mit der lexikographischen Ordnung, also e e 0) ⇐⇒ Φ(a) > Φ(a E(u(a)) > E(u(a0)) oder E(u(a)) = E(u(a0)) und V(u(a)) < V(u(a0)) 2) einstufige (µ, σ)-Kriterien mit der Kriteriumsfunktion p Φ(a) = E(u(a)) − c · V(u(a)) c > 0 (üblich): risikoavers, eventuell aber auch c < 0: risikofreundlich (z.B. Glücksspiel). 136 2.2.2 Grundlagen der Bayesianischen Ansätze Aufgabe 19(V) a)Wahrscheinlichkeitsbegriffe Aufgabe 2.2 a) Wette auf A: Man darf wählen, ob man als Bank oder als Wettender auftritt A = {a1, a2} a1 Wettender Wo ist Nutzen größer? a2 Bank 137 Θ = {ϑ1, ϑ2} ϑ1 A tritt ein ϑ2 A tritt nicht ein ϑ1 ϑ2 a1 1 − e −e a2 e − 1 e π({ϑ1}) =: πA; Φπ (ai) = m X i=1 π({ϑ2}) = 1 − πA u(ai, ϑj )π({ϑj }) Φπ (a1) = (1 − e) · πA − e(1 − πA) Φπ (a2) = (e − 1) · πA + e(1 − πA) 138 Wann ist Φπ (a1) ≥ Φπ (a2)? (1 − e) · πA − e(a − πA) ⇐⇒ πA − e · πA − e + e · πA ⇐⇒ 2πA ⇐⇒ πA ≥ ≥ ≥ ≥ (e − 1)πA + e(1 − πA) e · πA − π A + e − e · π A 2e e Ich will Wettender sein, solange πA ≥ e, also solange der Preis höchstens gleich der Auftretenswahrscheinlichkeit ist. also Preis gegeben, wette wenn πA ≥ e πA gegeben, wette wenn e ≤ πA Indifferenz zwischen a1 und a2 ⇐⇒ πA = e Dies führt zu 139 b) Interpretation / operationale Definition subjektiver Wahrscheinlichkeiten πA ist derjenige Preis, bei dem man zwischen Bank und Wettendem indifferent ist. Messung von subjektiver Wahrscheinlichkeit Fußball: Einschätzug der Situation über Wetten herausbringen Abwandlung: Markt, auf dem Wetten gehandelt werden: Solange e < πA kaufe Wetten, falls e > πA verkaufen 140 Exkurs Unrealistisch: exakter Umschlagspunkt πA unter komplexer Unsicherheit (Unbestimmtheit): Indifferenzzone [π A, π A] kaufen Solange e < π A verkaufen Solange e > π A Solange π A ≤ e ≤ π A Bestand halten, weder kaufen noch verkaufen Intervallbreite π A − π A beschreibt Ausmaß der Unsicherheit, perfektes probabilistisches Wissen π A = π A, kein Wissen π A = 0 π A = 1: immer 141 halten −→ Walley (1991): subjektive Theorie von Intervall-wahrscheinlichkeiten c) Analoge operationale Definition der bedingten Wahrscheinlichkeit π(A|B): Wahrscheinlichkeit des Eintretens von A, wenn B: Betrachte sog. kontingente Spiele, die nur gespielt werden, wenn B eingetreten ist (Ich wette auf Bayern, wenn Schweinsteiger spielt) ϑ1 ϑ2 ϑ3 a1 1 − e −e 0 a2 e − 1 e 0 142 ϑ1 A und B treten ein ϑ2 B tritt ein, aber nicht A ϑ3 B tritt nicht ein Φπ (a1) = (1 − e) · π(A ∩ B) − e · π(Ā ∩ B) Φπ (a2) = (e − 1) · π(A ∩ B) + e · π(Ā ∩ B) Φπ (a1) ≥ Φπ (a2) ⇐⇒ π(A ∩ B) − e · π(A ∩ B) − e · π(Ā ∩ B) ≥ π(A ∩ B) = e · π(A ∩ B) − π(A ∩ B) + e · π(Ā ∩ B) π(A ∩ B) = π(A|B) 2π(A ∩ B) ≥ 2eπ(B) ⇐⇒ e ≤ π(B) 143 Allgemeiner: B1, . . . , Bq : vollständige Zerlegung π(A|B) Indifferenzpunkt bei dieser kontingenten Wette Betrachte bedingte Einsätze e(Bj ), j = 1, . . . , q. Dies veranschaulicht die Tatsache, dass π(A|σ(B1, . . . , Bq )) eine Funktion in Bj ist. 144 ohne Info B B B B P (A) B BN B1 B2 B3 B4 B5 P (A|σ(B1, . . . , Bk )) messbar bezügl. σ(B1, . . . , Bk ), d.h. konstant auf einzelnen Zerlegungsgliedern. Weiterer Exkurs: de Finetti begreift nicht Wahrscheinlichkeiten, sondern Erwartungswerte (Preis für Spiele X mit unsicherem Ausgang 145 X(ω)) als Grundentität. Dies ist aber - im Rahmen der klassischen Wahrscheinlichkeitsrechnung - äquivalent. Bem. 2.41 (Bayesianisches / Subjektivistisches Paradigma) Jede Situation unter Unsicherheit kann durch Wahrscheinlichkeitsraum (Ω, F, π(·)) beschrieben werden. einen Im Kontext eines datenfreien Entscheidungsproblems heißt die Wahrscheinlichkeitsverteilung π(·) über (Θ, σ(Θ)) apriori-Verteilung (Verteilung vor den Daten“) (zu (A, Θ, u(·))). ” 146 Def. 2.42 (Bayes-Aktion ) Gegeben sei ein datenfreies Entscheidungsproblem (A, Θ, u(·)). a) Ist π(·) eine apriori-Verteilung zu (A, Θ, u(·)), so heißt Φ(·, π) : A → R R a 7−→ Φ(a, π) = Eπ (u(a)) = Θ u(a, ϑ) dπ(ϑ) Bayes-Kriterium zu π(·) und jede bezüglich dieses Kriteriums optimale Aktion a∗ Bayes-Aktion bezüglich π(·). B(π) := Φ(a∗, π) heißt Bayes Nutzen bezüglich π(·) 147 b) Eine Aktion a∗∗ heißt Bayes-Aktion (schlechthin), wenn es eine priori Bewertung π ∗∗(·) zu (A, Θ, u(·)) gibt, so dass a∗∗ Bayes Aktion bezüglich π ∗∗(·) ist. 148 Bsp. 2.43 π 1 π 2 π 3 π4 π5 a1 a2 a3 a4 ϑ1 20 10 0 14 ϑ2 10 10 40 26 ϑ3 0 10 0 0 ϑ4 10 10 0 0 Betrachtet werden sollen fünf verschiedene apriori Verteilungen 149 π1({ϑ1}) = 0.5 π2({ϑ1}) = 0 π3({ϑ1}) = 0.1 π4({ϑ1}) = 2/3 π5({ϑ1}) = 0.25 π1({ϑ2}) = 0 π2({ϑ2}) = 0 π3({ϑ2}) = 0.7 π4({ϑ2}) = 1/3 π5({ϑ2}) = 0.25 Φ(a, π`) = π1({ϑ3}) = 0 π2({ϑ3}) = 0.5 π3({ϑ3}) = 0.1 π4({ϑ3}) = 0 π5({ϑ3}) = 0.25 m X j=1 u(a, ϑj )π({ϑj }) π({ϑ4}) = 0.5 π({ϑ4}) = 0.5 π({ϑ4}) = 0.1 π({ϑ4}) = 0 π({ϑ4}) = 0.25 150 • Stützgeraden Sei M ⊂ Rn eine Punktmenge. Eine Hyperebene H heißt Stützhyperebene von M ⇐⇒ ∗ Der Durchschnitt H ∩ M ist nicht leer. ∗ Alle Punkte von M liegen auf einer Seite von H. Geometrisch läuft das Aufsuchen von Bayes-Aktionen also darauf hinaus, Stützhyperebenen der Aktionenmenge A zu finden, die zu den einzelnen Vektoren π orthogonal sind. 151 Satz 2.50 (Entbehrlichkeit randomisierter Aktionen) Gegeben sei ein datenfreies Entscheidungsproblem (M(A0), Θ, u(·)), das die gemischte Erweiterung eines datenfreien Entscheidungsproblems (A0, Θ, u(·)) mit endlicher Aktionenmenge A0 darstellt. Dann gilt für jede apriori-Verteilung π(·): a1 . . . a n Ist e a= Bayes-Aktion zur Bewertung π(·), so gibt es auch p1 . . . pn eine reine Aktion a ∈ A0, die Bayes-Aktion zu π(·) ist. 152 Korollar 2.51 In der Situation von Satz 2.50 gilt für jede apriori-Verteilung π(·): Bayes-Aktionen zu π(·) in A0 bleiben Bayes-Aktionen zu π(·) beim Übergang zu M(A0). Beweis des Korollars: Angenommen a∗0 sei eine Bayes-Aktion in A, aber nicht Bayes-Aktion zu π(·) in M(A0). Dann gibt es ein e a∗ ∈ M(A) mit Φ(e a∗, π) > Φ(a∗0 , π) (2.8) Wegen Satz 2.50 gibt es dann eine reine Aktion a∗ ∈ A0, so dass auch a∗ Bayes-Aktion in M(A) ist. D.h. Φ(e a∗, π) = Φ(a∗, π). Wegen (2.8) ist damit Φ(a∗, π) > Φ(a∗0 , π). 153 Beachte, dass a∗ ∈ A0; also ist a∗0 nicht Bayes-Aktion zu π(·) in A0. Widerspruch! (Reine Bayes-Aktion bildet so etwas wie eine wesentlich minimal vollständige Klasse bezüglich der durch Φ(·, π) induzierten Ordnung) Satz 2.52 (Zul. v. Bayes-A. zu nicht entarteten apriori-Vert.) Gegeben sei ein datenfreies Entscheidungsproblem (A, Θ, u(·)) mit apriori Bewertung π(·) so, dass π({ϑj }) > 0 für alle j. Dann gilt: Jede Bayes Aktion Θ zu π(·) zulässig. Beweis: siehe Übungsaufgabe. 154 Proposition 2.53 Gegeben sei ein datenfreies Entscheidungsproblem (A, Θ, u(·)). Ist a ∈ A eine zulässige Bayes-Aktion, so ist a∗ auch zulässig im Problem (M(A), Θ, u(·)). Neu ist hier die Aussage für π({ϑj }) = 0 für manche j. Für π({ϑj }) > 0 folgt die Aussage bereits aus Korollar 2.51 und Satz 2.52; nach dem Korollar ist a∗ auch Bayes-Aktion in der gemischten Erweiterung, auf die dann Satz 2.52 angewendet werden kann. 155 Satz 2.54 Betrachtet werde ein datenfreies Entscheidungsproblem (A, Θ, u(·)). Ist A konvex, z.B. A = M(A0) für eine geeignete Aktionenmenge A0, dann gilt: Zu jeder zulässigen Aktion a gibt es eine apriori Verteilung π a(·) mit π a({ϑj }) > 0, j = 1, . . . , m, so dass a Bayes-Aktion zur Bewertung π a(·) ist. Proposition 2.55 Eine Äquilisator-Aktion, die zugleich Bayes-Aktion ist, ist auch MaximinAktion.