Guido Recke Entscheidungsanalyse unter Risiko und Unsicherheit

Werbung
Guido Recke
Entscheidungsanalyse unter
Risiko und Unsicherheit
Entscheidungscharakteristika
in ökonomischen Netzen
Göttingen 2004
Guido Recke
Entscheidungsanalyse unter
Risiko und Unsicherheit
Entscheidungscharakteristika
in ökonomischen Netzen
Habilitationsschrift
von
Guido Recke
Göttingen
2001
Vorwort
Die Entscheidungstheorie ist ein Wissensgebiet der Ökonomen, das in den letzten
Jahren eine besondere Aufmerksamkeit gewonnen hat. An dieser Entwicklung haben
der Nobelpreisträger Daniel Kahneman zusammen mit seinem Kollegen Amos
Tversky einen entscheidenden Anteil. Sie haben mit ihren Arbeiten die Entscheidungstheorie maßgeblich beeinflusst. Außerdem haben die Entwicklungen in den
Bereichen Computertechnik und Software dazu beigetragen, dass viele Analysen von
Entscheidungsproblemen inzwischen auch am PC durchgeführt werden können. Dadurch konnten neue Erkenntnisse aus der Entscheidungstheorie auch in der Praxis
umgesetzt werden.
Ziel dieser Schrift ist es, auf dem Gebiet der Entscheidungstheorie den Entscheidungsnetzansatz einzuführen. Dieser Ansatz erlaubt eine wesentliche Erweiterung
von Entscheidungsanalysen unter Risiko und Unsicherheit. Mit ihm können selbst
mehrfaktorielle netzartige Einflussstrukturen mittels der dafür abgeleiteten statistischen Kenngrößen deskriptiv und normativ analysiert werden. Neue Erkenntnisse
erschließen sich damit in der Entscheidungslehre und Spieltheorie, und auch für andere Forschungsgebiete der Ökonomik, in die Risiko und Unsicherheit eingehen, wie
z. B. in der Investitionslehre, sind neue Einsichten zu erwarten.
Mein herzlicher Dank gilt all denen, die mich bei dieser Arbeit unterstützt haben.
Besonders möchte ich meinen akademischen Lehrern am Institut für Agrarökonomie
in Göttingen danken. Herr Prof. em. Dr. Wilhelm Brandes, an dessen Lehrstuhl für
Theoretische Landwirtschaftliche Betriebslehre ich die Habilitationsschrift verfassen
konnte, hat maßgeblich zum Gelingen beigetragen. Er hat viele wichtige inhaltliche
Anregungen gegeben und sich stets viel Zeit für meine Fragen genommen. Bedanken
möchte ich mich auch bei Herrn Prof. Dr. Michael Leserer. Er ist der geistige Vater
der Entscheidungsnetze und hat wesentlich dazu beigetragen, den Ansatz der Entscheidungsnetze auch auf Entscheidungssituationen unter Risiko und Unsicherheit zu
übertragen und die zugehörigen statistischen Grundlagen und Konzepte zu entwickeln.
V
Mein Dank gilt auch den Kollegen am Institut und besonders den Doktoren Thomas
Berger, Jocelyn Braun, Hans-Joachim Budde, Alois Fenneker, Ludger HinnersTobrägel und Olaf Linnemann, die in vielen Lehrstuhlbesprechungen mit kritischen
Anmerkungen meine Arbeit vorangebracht haben.
Ohne die Entwicklung eines Programms, mit dem komplexe Entscheidungsnetze
analysiert werden können, wäre diese Schrift nicht möglich gewesen. Hier ist besonders Herr Manfred Tietze zu erwähnen, der das leistungsfähige Programm „Magic“
entwickelt hat. Danken möchte ich zudem den Herren Dipl.-Ing. agr. Cord Kröschell
und Jochen Meyer, die wichtige Makros zur graphischen Aufbereitung der Ergebnisse aus der Entscheidungsnetzanalyse entwickelt haben. Schließlich gilt mein Dank
Herrn M.Sc. Bernhard Link, der mich in der Schlussphase beim Layout der Arbeit
unterstützt hat.
Bedanken möchte ich mich auch bei den Gutachtern mit ihren wichtigen Anregungen
zu dieser Habilitationsschrift. Mein besonderer Dank gilt dabei Herrn Prof. Dr.
Michael Grings, der sich in dieses neue Gebiet intensiv eingearbeitet hat und wichtige Anmerkungen geben konnte, die entscheidend die vorliegende Monographie verbessert haben.
Mein Dank gilt auch Herrn Wolfgang Peinemann und Frau Martina Reichmann, die
viele Abbildungen erstellt und mich beim Schreiben der Endfassung unterstützt haben.
Schließlich gilt mein besonderer Dank meiner Frau, die mich in dieser Zeit stets unterstützt und es damit erst ermöglicht hat, dass diese Schrift nun vorliegt.
Göttingen, im Juni 2004
Guido Recke
VI
Inhaltsverzeichnis
Inhaltsverzeichnis ................................................................................................... VII
1
Einleitung ............................................................................................................ 1
2
Entscheidungen unter Risiko und Unsicherheit................................................ 4
2.1
Grundlagen der Entscheidungsfindung ................................................... 4
2.2
Entscheidungsansätze unter Risiko und Unsicherheit ........................... 7
2.2.1
Einführung ........................................................................................... 7
2.2.2
Grundlagen der Erwartungsnutzentheorie.......................................... 10
2.2.3
Alternativen zur Erwartungsnutzentheorie ........................................ 11
2.2.3.1
Modifikationen der Erwartungsnutzentheorie................................ 11
2.2.3.2
Erwartungswert-Varianz-Analyse.................................................. 15
2.2.3.3
Stochastische Dominanz ................................................................ 16
2.2.3.4
Prospect-Theorie ............................................................................ 18
2.3
Zur Interpretation von Wahrscheinlichkeiten ...................................... 23
2.3.1
Einführung ......................................................................................... 23
2.3.2
Exkurs zur Geschichte der Wahrscheinlichkeitstheorie..................... 24
2.3.3
Objektivistische Interpretation ........................................................... 25
2.3.4
Subjektivistische Interpretation.......................................................... 27
2.3.5
Verwirklichungstendenzen................................................................. 28
2.4
Entscheidungsverfahren .......................................................................... 31
2.4.1
Einführung ......................................................................................... 31
2.4.2
Entscheidungsbäume und -matrizen .................................................. 31
2.4.3
Einflussdiagramme............................................................................. 34
2.4.4
Entscheidungsnetze ............................................................................ 37
2.5
Charakteristika für Entscheidungsnetze ............................................... 44
2.5.1
Einführung ......................................................................................... 44
2.5.2
Zur Ermittlung von Charakteristika in Entscheidungsnetzen ............ 44
2.5.2.1
Wahrscheinlichkeitsmaßfunktionen............................................... 44
2.5.2.2
Erwartungswerte und Varianzen .................................................... 48
VII
3
2.5.2.3
Bedingte Erwartungswerte und bedingte Varianzen...................... 51
2.5.2.4
Varianzanalyse ............................................................................... 52
2.5.2.5
Multivariate Analysen.................................................................... 55
Entscheidungsnetzanalyse ................................................................................ 67
3.1
Sensitivitätsanalysen ................................................................................ 67
3.1.1
Einführung ......................................................................................... 67
3.1.2
Veränderungen in der Struktur........................................................... 67
3.1.3
Veränderungen in den Attributen....................................................... 75
3.1.4
Veränderungen in den Wahrscheinlichkeiten .................................... 78
3.2
Entscheidungsnetze und Spieltheorie..................................................... 83
3.2.1
Einführung ......................................................................................... 83
3.2.2
Grundlagen der Spieltheorie .............................................................. 84
3.2.3
Entscheidungsnetze und Nash-Gleichgewichte ................................. 86
4
Zusammenfassung und Ausblick ..................................................................... 98
5
Literaturverzeichnis ........................................................................................ 100
6
Anhang ............................................................................................................ 104
Anhang 1: Quellcode des Programms MAGIC.EXE in der Version 2.0 vom
November 2000, nach einer Idee von M. Leserer, weiterentwickelt und
überarbeitet von G. Recke, von M. Tietze programmiert.............................. 104
Anhang 2: Beschreibung der Routine NETZINP1.EXE zur Erstellung einer
Eingabedatei und des Programms MAGIC.EXE ........................................... 138
Anhang 3: Die Ausgabe von MAGIC.EXE..................................................... 144
VIII
Tabellenverzeichnis
Tabelle 2.1: Investitionsentscheidung unter Unsicherheit: Erwarteter Gewinn ........ 8
Tabelle 2.2: Entscheidungsmatrix Investitionsentscheidung: Erwarteter Gewinn.... 34
Tabelle 2.3: Beschreibung der Handlungsalternativen ............................................ 42
Tabelle 2.4: Zulässige Alternativenkombinationen und ihre wahrscheinlichkeitstheoretische Auswertung ................................................................................................... 43
Tabelle 2.5: Gemeinsame WMF................................................................................ 46
Tabelle 2.6: Gemeinsame WMF für das Anbieter-Nachfrager-Beispiel................... 46
Tabelle 2.7: Bedingte WMF ...................................................................................... 47
Tabelle 2.8: Bedingte WMF für das Anbieter-Nachfrager-Beispiel ......................... 48
Tabelle 2.9: Varianz-Kovarianz-Matrix.................................................................... 50
Tabelle 2.10: Korrelationsmatrix .............................................................................. 50
Tabelle 2.11: Bedingte Erwartungswerte .................................................................. 52
Tabelle 2.12: Bedingte Varianz................................................................................. 52
Tabelle 2.13: Varianzzerlegung................................................................................ 54
Tabelle 2.14: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 0 ................ 56
Tabelle 2.15: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 1 ................ 57
Tabelle 2.16: Multivariate gemeinsame WMF in Diagonalform.............................. 58
Tabelle 2.17: Multivariate gemeinsame WMF mit der Variable Z........................... 59
Tabelle 2.18: Multivariate bedingte WMF................................................................ 60
Tabelle 2.19: Multivariate gemeinsame WMF ......................................................... 64
Tabelle 2.20: Multivariate bedingte WMF und ausgewählte Parameter ................. 65
Tabelle 3.1: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes
Kaufsituation 1 ........................................................................................................... 72
Tabelle 3.2: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes
Kaufsituation 2 ........................................................................................................... 72
Tabelle 3.3: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes
Kaufsituation 3 ........................................................................................................... 73
Tabelle 3.4: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes
Kaufsituation 4 ........................................................................................................... 74
Tabelle 3.5: Angsthase (Variante 1) ......................................................................... 85
IX
Tabelle 3.6: Zwei-Personen-Spiel in strategischer Form ......................................... 87
Tabelle 3.7: Angsthase (Variante 2) ......................................................................... 89
Tabelle 3.8: Angsthase (Variante 1) mit Payoff und Bestimmtheitsmaß (KY | X ) ....... 94
Tabelle 3.9: Angsthase (Variante 2) mit Payoff und Bestimmtheitsmaß (KY | X ) ....... 94
X
Abbildungsverzeichnis
Abbildung 2.1: Verteilungsfunktionen und stochastische Dominanz........................ 17
Abbildung 2.2: Typische Wertfunktion (Prospect-Theorie) ...................................... 19
Abbildung 2.3: Wahrscheinlichkeitsgewichtungsfunktion (Prospect-Theorie) ....... 20
Abbildung 2.4: Wahrscheinlichkeitsgewichtungsfunktionen (kumulative ProspectTheorie) ...................................................................................................................... 22
Abbildung 2.5: Entscheidungsbaum Investitionsentscheidung ................................. 32
Abbildung 2.6: Einflussdiagramm Geldanlage......................................................... 35
Abbildung 2.7: Einflussformen in Einflussdiagrammen ........................................... 36
Abbildung 2.8: Entscheidungsnetz Kaufsituation ..................................................... 41
Abbildung 2.9: Entscheidungsnetz Anbieter-Nachfrager-Beispiel ........................... 45
Abbildung 3.1: Entscheidungsnetz Kaufsituation 1 .................................................. 68
Abbildung 3.2: Entscheidungsnetz Kaufsituation 2 .................................................. 69
Abbildung 3.3: Entscheidungsnetz Kaufsituation 3 .................................................. 70
Abbildung 3.4: Entscheidungsnetz Kaufsituation 4 .................................................. 71
Abbildung 3.5: Kaufsituation 3, Fall 1 (N2 bei A21 = 1) ........................................... 75
Abbildung 3.6: Kaufsituation 3, Fall 2 (N2 bei A21 = 10) ......................................... 76
Abbildung 3.7: Kaufsituation 4, Fall 1 (N2 bei A41 = 1) ........................................... 76
Abbildung 3.8: Kaufsituation 4, Fall 2 (N2 bei A41 = 10).......................................... 77
Abbildung 3.9: E(Y) der Kaufsituation 3 .................................................................. 78
Abbildung 3.10: Var(Y) der Kaufsituation 3............................................................. 79
Abbildung 3.11: KY | X der Kaufsituation 3 ................................................................ 80
Abbildung 3.12: E(Y) der Kaufsituation 4 ................................................................ 81
Abbildung 3.13: Var(Y) der Kaufsituation 4............................................................. 82
Abbildung 3.14: KY | X der Kaufsituation 4 ............................... ................................ 82
Abbildung 3.15: Entscheidungsnetz ausgehend von Spieler A ................................. 88
Abbildung 3.16: Entscheidungsnetz ausgehend von Spieler B ................................. 88
Abbildung 3.17: Entscheidungsnetz ausgehend von Spieler A, Variante 1 .............. 90
Abbildung 3.18: Entscheidungsnetz ausgehend von Spieler B, Variante 1 .............. 90
Abbildung 3.19: Entscheidungsnetz ausgehend von Spieler A, Variante 2 .............. 91
XI
Abbildung 3.20: Entscheidungsnetz ausgehend von Spieler B, Variante 2 .............. 91
Abbildung 3.21: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 1.... 93
Abbildung 3.22: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 1.... 93
Abbildung 3.23: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 2.... 95
Abbildung 3.24: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 2.... 96
XII
1
Einleitung
Wirtschaftssubjekte treffen für sich oder in Gruppen viele Entscheidungen, die mit
Risiko und Unsicherheit verbunden sind. Dabei bedienen sie sich auch einfacher Regeln. Sie wiederholen z. B. eine Entscheidung, wenn diese sich als gut herausgestellt
hat, oder sie orientieren sich am erfolgreichen Verhalten anderer Wirtschaftssubjekte.
Viele Entscheidungssituationen sind aber einmalig und/oder komplex, sodass die
einfachen Regeln nicht angewendet werden können. In solchen Fällen können einfache Heuristiken oder Analyseverfahren Entscheidungshilfe bieten. Dabei wird i. d. R.
eine präskriptive Analyse aus der Sicht des unmittelbar betroffenen Entscheiders
durchgeführt.
Zu diesen Analyseverfahren ist ein neuer Ansatz – der Entscheidungsnetzansatz – zu
zählen, der hier vorgestellt wird. Er erlaubt es, die Sichtweise eines außerhalb der
Entscheidungssituation sich befindenden Beobachters einzunehmen, der eine Entscheidungssituation beschreiben und erklären will. Dieser zunächst deskriptive Ansatz kann auch präskriptiv zur Entscheidungsunterstützung eingesetzt werden.
Entscheiden heißt, aus einem Bündel von Alternativen auszuwählen. Da in der Wirtschaftswelt ein Entscheider i. d. R. nicht unabhängig von anderen ist, sind die Alternativenbündel der verschiedenen Entscheider kausal verbunden. Die Alternativenbündel hängen bedingt voneinander ab, und jede Alternative hat in einer stochastischen Situation eine Tendenz sich zu verwirklichen (POPPER 1992, 347 ff.). So beeinflusst die Entscheidung des Anbieters, einen hohen oder niedrigen Preis für sein
Gut zu verlangen, die davon abhängige Entscheidung des Nachfragers zu kaufen
oder zu verzichten. Mit Entscheidungsnetzen kann die Analyse einer solchen stochastischen Entscheidungssituation aus der Sicht des nicht unmittelbar involvierten
Beobachters (Dritten) durchgeführt werden. Diesem wird mit dem Entscheidungsnetzansatz die Möglichkeit eröffnet, einmalige Entscheidungssituationen unter Risiko und Unsicherheit zu beschreiben, zu erklären und mittelbar gezielt auf die Entscheidungssituation Einfluss zu nehmen. In diesem Ansatz wird vorausgesetzt, dass
der Beobachter die Struktur des Entscheidungsproblems vollständig beschreiben und
1
außerdem den einzelnen Alternativen Verwirklichungstendenzen (Wahrscheinlichkeiten) zuordnen kann. Ob diese auf subjektiven Mutmaßungen basieren, Expertenwissen sind oder sich auf Daten ähnlicher Probleme aus der Vergangenheit stützen,
soll hier nicht weiter diskutiert werden. Auch werden die damit verbundenen Informationsprobleme in dieser Arbeit nicht näher behandelt.
In Kapitel 2 der vorliegenden Arbeit werden zunächst die Grundlagen der Analyse
von Entscheidungen und hier speziell solcher unter Risiko und Unsicherheit beschrieben. Abschnitt 2.1 stellt den Entscheidungsprozess als mehrstufigen Prozess
dar. Der folgende Abschnitt führt in die wichtigsten Entscheidungstheorien und Heuristiken für Entscheidungen unter Risiko und Unsicherheit ein. Neben präskriptiven
werden auch einige deskriptive Ansätze vorgestellt. Dabei wird untersucht, ob bei
der Entwicklung von Theorien zur Entscheidungsfindung empirisches Entscheidungsverhalten und axiomatische Eleganz miteinander zu verbinden sind.
Es folgt ein Abschnitt, in dem die bedeutendsten Wahrscheinlichkeitsinterpretationen
beschrieben werden. Für die vorliegende Arbeit wird der auf POPPER (1992, 347 ff.)
zurückgehende Propensitäten-Ansatz gewählt.
In Abschnitt 2.4 werden die wichtigsten Ansätze vorgestellt, mit denen Entscheidungen unter Risiko und Unsicherheit computergestützt untersucht werden können. Für
die Analyse der oben beschriebenen einmaligen Entscheidungsprobleme unter Risiko
und Unsicherheit aus der Sicht eines Beobachters ist die Entscheidungsnetzanalyse
am ehesten geeignet.
Danach werden die mathematisch-statistischen Grundlagen der Entscheidungsnetzanalyse ausführlich hergeleitet. Diese kann, was ihre Struktur angeht, auf die
FISZ’sche Regression erster Art zurückgeführt werden. Für diesen Ansatz werden
Charakteristika einer gemeinsamen Wahrscheinlichkeitsmaßfunktion (WMF) wie
Erwartungswerte sowie Varianzen eingeführt, und auf der Grundlage einer Varianzzerlegung wird ein Bestimmtheitsmaß ( KY | X ) abgeleitet. Dabei wird die Streuung, die
2
auf die unabhängigen Variablen zurückzuführen ist, ins Verhältnis zur Gesamtstreuung der abhängigen Variablen gesetzt.
In Kapitel 3 werden anhand von Entscheidungsnetzen zunächst verschiedene Strukturen von Entscheidungssituationen verglichen. Außerdem werden Sensitivitätsrechnungen für einzelne Attribute und Wahrscheinlichkeiten durchgeführt, um der Frage
nachzugehen, wie robust die Ergebnisse der Charakteristika sind. In Abschnitt 3.2
werden im Rahmen einer spieltheoretischen Anwendung Spiele mit gemischten Strategien analysiert. Damit soll beispielhaft gezeigt werden, wie der Entscheidungsnetzansatz in Teilbereichen der Ökonomie eingesetzt werden kann. In diesem Abschnitt
soll speziell der Frage nachgegangen werden, ob Entscheidungsnetze neue Erkenntnisse in der Frage der Differenzierbarkeit von Nash-Gleichgewichten liefern können.
Um insbesondere komplexe Entscheidungsnetze rechnen zu können, wurde das
Computerprogramm MAGIC entwickelt, das zusammen mit einigen Hilfsprogrammen im Anhang ausführlich beschrieben wird.
3
2
Entscheidungen unter Risiko und Unsicherheit
2.1
Grundlagen der Entscheidungsfindung
Entscheidungsfindung ist häufig ein komplexer Prozess, der ausgehend von einem
Problem über mehrere Stufen zu einer Entscheidung führt. Im Folgenden wird zunächst der Prozess für eine Entscheidung unter Sicherheit beschrieben. Auf Entscheidungen unter Risiko und Unsicherheit geht Abschnitt 2.2 ein. In Anlehnung an
HAMMOND et al. (1999, 4 ff.) und LAUX (1998, 8 ff.) kann der Prozess der Entscheidungsfindung in fünf Stufen unterteilt werden:
1. Problemdefinition
2. Zielsetzung
3. Ermittlung der Alternativen
4. Feststellen der Konsequenzen
5. Entscheidung
1. Problemdefinition
Ausgangspunkt jeder Entscheidungsfindung sind Entscheidungsprobleme. Diese besitzen einen Auslöser, ein Ereignis, das die Entscheidungsfindung anstößt. Die Analyse des Auslösers sollte der erste Schritt der Problemdefinition sein (HAMMOND et
al. 1999, 19 f.), um sicherzustellen, dass das eigentliche Problem erkannt wird. Im
Verlauf der Problemdefinition sollten ferner implizite Beschränkungen bzgl. der Entscheidungsprobleme hinterfragt werden, um die Lösungsalternativen nicht zu sehr
einzuschränken (HAMMOND et al. 1999, 20 f.).
2. Zielsetzung
Im Anschluss an die Problemdefinition sind die Ziele festzulegen. Beispielsweise
sollte in einem Unternehmen die Unternehmensführung die Zielfunktion so formulieren, dass in ihr sämtliche Ziele bzw. Teilziele enthalten sind. Da dieses in der betrieblichen Praxis schwer umzusetzen ist, wird die langfristige Gewinnmaximierung
4
häufig als Hauptziel unterstellt, und weitere Ziele werden in Form von Nebenbedingungen berücksichtigt (WÖHE/DÖRING 2000, 119).
Versucht man, Ziele oder Zielvorstellungen zu systematisieren, finden sich in der
betriebswirtschaftlichen Literatur die unterschiedlichsten Ansätze. Nach WÖHE/DÖRING
(2000, 119 f.) können beispielsweise monetäre von nicht-monetären Zie-
len unterschieden werden. Monetäre Ziele sind etwa die Steigerung des Gewinns und
die Steigerung des Umsatzes. Die nicht-monetären Ziele lassen sich in ökonomische,
– wie z. B. die Erhöhung des Marktanteiles – oder nichtökonomische, wie das Streben nach Prestige und Macht oder das Streben nach Unabhängigkeit, unterteilen
(HÖRSCHGEN 1992, 471 ff.).
Ziele können außerdem nach den Zielarten systematisiert werden (WÖHE/DÖRING
2000, 120 ff.). Z. B. kann nach
-
der Rangordnung der Ziele,
-
dem angestrebten Ausmaß der Zielerreichung,
-
den Beziehungen zwischen den Zielen und
-
dem zeitlichen Bezug der Ziele
unterteilt werden. Hinsichtlich der Rangordnung können Ober- von Zwischen- und
Unterzielen unterschieden werden. Beim Ausmaß der Zielerreichung sind unbegrenzte von begrenzten Zielen (Anspruchsniveau) zu unterscheiden.
Daneben können Ziele nach ihrer Zielbeziehung differenziert werden. Dabei sind in
erster Linie komplementäre von konkurrierenden Zielen zu unterscheiden. Neben
diesen Aspekten kann außerdem der zeitliche Bezug berücksichtigt werden, so ist
eine Systematisierung nach der Fristigkeit (kurz-, mittel- und langfristig) oder nach
dem zeitlichen Bezug (Zeitpunkt oder Zeitraum) möglich.
EISENFÜHR/WEBER (1999, 53 ff.) betonen, dass aus einer präskriptiven Sicht die Unterscheidung zwischen Fundamental- und Instrumentalzielen bedeutend ist. Zur Bewertung der Alternativen sollten nur fundamentale Ziele berücksichtigt werden. Ein
5
Fundamentalziel ist ein Ziel, das seiner selbst wegen angestrebt wird und in seinem
speziellen Entscheidungskontext zu sehen ist, während ein Instrumentalziel Mittel
zur Erreichung eines Fundamentalzieles ist. Die Fundamentalziele sollten ferner folgende Eigenschaften erfüllen (EISENFÜHR/WEBER 1999, 60 ff. und KEENEY 1992, 82
ff.):
1. Vollständigkeit
2. Redundanzfreiheit
3. Messbarkeit
4. Operationalität
5. Eindeutigkeit
6. Einfachheit
3. Ermittlung der Alternativen
Im Rahmen der Entscheidungsfindung sind ferner die Alternativen zu bestimmen,
zwischen denen der Entscheider zu wählen hat. Diese sollten so formuliert werden,
dass dieser zwischen verschiedenen sich ausschließenden Alternativen entscheidet.
Das bedeutet, dass mindestens zwei Alternativen vorliegen müssen und außerdem
Fälle vermieden werden sollten, in denen sich mehrere Alternativen gleichzeitig realisieren lassen (BAMBERG/COENENBERG 2000, 16 f.)
4. Feststellung der Konsequenzen
Die mit den jeweiligen Alternativen verbundenen Konsequenzen sind als vierte
Komponente im Entscheidungsprozess festzustellen. Nach HAMMOND et al. (1999,
66 f.) sollten die Konsequenzen
-
richtig,
-
vollständig und
-
genau
erfasst werden.
6
5. Entscheidung
Im letzten Schritt der Entscheidungsfindung sollte unter Berücksichtigung des Zielsystems und gegebener Beschränkungen eine möglichst gute Alternative gewählt
werden. In dieser Stufe können die in den folgenden Abschnitten noch ausführlicher
beschriebenen Analyseansätze als Hilfe bei der Entscheidungsfindung eingesetzt
werden.1
Entscheidungsfindung ist demnach ein Prozess, der sich in einzelne Stufen zerlegen
lässt. Diese dürfen aber nicht isoliert voneinander betrachtet werden, da sie oft miteinander verbunden sind. Auch können einzelne Stufen mehrfach durchlaufen werden. Und schließlich sollte eine Entscheidung nicht isoliert, sondern im Kontext mit
anderen Entscheidungen, als verknüpfte Entscheidung, gesehen werden.
Falls eine Entscheidung unter Risiko und Unsicherheit zu treffen ist, ist der Prozess
der Entscheidungsfindung komplexer. Die Entscheidungsfindung wird dann beispielsweise noch von einer sich ändernden Umwelt und/oder anderen Entscheidern
beeinflusst. Risiko und Unsicherheit erschweren den Prozess der Entscheidungsfindung. Ausführlich wird darauf in den folgenden Abschnitten eingegangen.
2.2
Entscheidungsansätze unter Risiko und Unsicherheit2
2.2.1
Einführung
Risiko und Unsicherheit3 sind ein wesentlicher Bestandteil des Lebens (VARIAN
1987, 211). Dieses zeigt sich insbesondere, wenn Menschen planen und Entscheidungen treffen. Risiko und Unsicherheit können sich aus natürlichen Ereignissen
1
Zusätzlich finden sich in Lehrbüchern zur Entscheidungstheorie wie z. B. bei BAM(2000) oder EISENFÜHR/WEBER (1999) weitere Ansätze, um Entscheidung zu
unterstützen. Auf diese wird aber im Rahmen dieser Arbeit nicht eingegangen.
2
Dieser Abschnitt stützt sich auf Kapitel 12 von BRANDES et al. (1997).
3
Bzgl. der Einordnung von Entscheidungen unter Risiko und Unsicherheit wird nicht der üblichen
Unterscheidung in Situationen unter Ungewissheit, Unsicherheit, Risiko und Sicherheit gefolgt, weil
es damit z. B. nicht möglich ist, ein Entscheidungsproblem einzuordnen, in dem in einigen Teilbereichen Ungewissheit und in anderen eine Situation unter Risiko vorliegt. Vereinfachend wird deshalb in
dieser Arbeit nur zwischen Entscheidungen unter Sicherheit und Entscheidungen unter Risiko und
Unsicherheit unterschieden.
BERG/COENENBERG
7
ergeben, aber auch aus den Handlungen anderer Individuen resultieren. Wenn Entscheidungen unter Unsicherheit analysiert werden, kommt noch erschwerend hinzu,
dass sich die Entscheider in ihrer Wahrnehmung und Einstellung zu Risiken und Unsicherheit unterscheiden. Deshalb sollten für das unsichere Ergebnis einer Handlung
nicht einfache Entscheidungskriterien, wie beispielsweise der in der Praxis häufig
verwendete Erwartungswert, eingesetzt werden4. Wenn dieser angewendet wird,
kann es zu Fehlentscheidungen kommen, die schon DANIEL BERNOULLI (1954 /
1738) erkannt und mit dem Petersburger Paradoxon verdeutlicht hat. Der Erwartungswert berücksichtigt die Streuung nicht, sodass je nach Risikoeinstellung daraus
falsche Entscheidungen resultieren können. Dieses kann exemplarisch anhand eines
einfachen Investitionsbeispiels (Tabelle 2.1) gezeigt werden.
Der Entscheidungsträger eines Unternehmens überlegt, ob er in eine neue Anlage
investieren soll. Er hat eine ungenaue Vorstellung darüber, ob mit hohen oder niedrigen Preisen für sein Produkt zu rechnen ist. Daher wird jeweils eine Wahrscheinlichkeit von 0.5 für einen hohen und niedrigen Preis unterstellt. In der folgenden Tabelle
werden die erwarteten Gewinne aufgeführt.
Tabelle 2.1: Investitionsentscheidung unter Unsicherheit: Erwarteter Gewinn
Preise
hoher Preis
niedriger Preis
(p=0.5)
(p=0.5)
alte Anlage
10000
5000
7500
neue Anlage
17000
-1000
8000
Alternativen
Erwartungswert
Wenn der Entscheidungsträger des Unternehmens nach dem ErwartungswertKriterium handelt, wird er sich für die Investition in die neue Anlage entscheiden,
denn der Erwartungswert des Gewinns für die neue Anlage beträgt 8000 und für die
alte Anlage 7500. Aber die alte Anlage wird im Gegensatz zur neuen Anlage auch
4
Neben dem Erwartungswert werden in der Praxis häufig auch die klassischen Entscheidungskriterien
eingesetzt, die bei Entscheidungen unter Unsicherheit, wenn keine Wahrscheinlichkeiten bestimmt
werden können, angewendet werden können. Ausführlich werden diese bei BAMBERG/COENENBERG
(2000, 131 ff.) BITZ (1980, 61 ff.) und LAUX (1998, 103 ff.) beschrieben.
8
bei niedrigen Preisen einen Gewinn abwerfen. Ein Entscheider, der vorrangig bestrebt ist, einen Konkurs zu vermeiden, wird sich deshalb gegen die Investition entscheiden und nicht nach dem Erwartungswert-Kriterium handeln. Befürworter des
Kriteriums argumentieren, dass bei entsprechender Anzahl von Wiederholungen der
Erwartungswert des Durchschnittsgewinns sich dem erwarteten Gewinn annähert
(LAUX 1998, 145 ff.) und die Streuung abnimmt. Ferner wird diskutiert, ob man an
den Durchschnittsgrößen die Entscheidung festmachen sollte. LAUX (1998, 145 ff.)
argumentiert, dass es besser sei, sich am Gesamtgewinn zu orientieren. Aber auch
dann ist der Erwartungswert kein allgemein gültiges Entscheidungskriterium, da die
Standardabweichung des Gesamtgewinns mit der Anzahl der Wiederholungen zunimmt (LAUX 1998, 149). Gegen diese Argumentationen lässt sich außerdem einwenden, dass die Voraussetzung, eine Aktion (Zufallsexperiment) kann unter identischen Bedingungen wiederholt durchgeführt werden, nur selten erfüllt ist.
Dass die Risikoeinstellung von Wirtschaftssubjekten von entscheidender Bedeutung
für die Analyse von Entscheidungen unter Risiko und Unsicherheit ist, kann durch
empirische Untersuchungen belegt werden. Sie zeigt sich in der Bereitschaft der Individuen, Versicherungen abzuschließen, obwohl die erwartete Versicherungsprämie
geringer ausfällt als die an die Versicherung zu zahlende Beiträge. In Unternehmen
wird teilweise stärker als zur Erzielung des maximalen Erwartungswerts des Gewinns diversifiziert. Andererseits gibt es Spieler, die mit kleinen Beträgen an einer
Lotterie teilnehmen und/oder größere Beträge z. B. im Roulette einsetzen; und jeweils ist der Erwartungswert des Spiels kleiner als der Einsatz (BRANDES/ODENING
1992, 195 f). Als risikofreudiger Entscheider kann auch ein Unternehmer gerechnet
werden, der bewusst Risiken eingeht und in sein Untenehmen investiert, weil er hohe
Preise für seine Produkte erwartet. In all diesen Fällen ist der Erwartungswert als
Entscheidungskriterium ungeeignet.
In den folgenden Abschnitten werden deshalb alternative Modelle und Ansätze vorgestellt, um Entscheidungen unter Risiko und Unsicherheit zu analysieren. Der Abschnitt 2.2.2 beschreibt zunächst die Grundlagen der axiomatisierten,
MANN-MORGENSTERNSCHEN
VON
NEU-
Entscheidungstheorie, die im Folgenden meistens Er-
9
wartungsnutzentheorie genannt wird. In Abschnitt 2.2.3 werden einige Modifikationen zur Erwartungsnutzentheorie vorgestellt und zwei Konzepte eingeführt, die in
der Praxis eine stärkere Verbreitung gefunden haben, nämlich die ErwartungswertVarianz-(EV)-Analyse und das Prinzip der stochastischen Dominanz. Abschließend
werden zwei deskriptive Präferenztheorieansätze, die Prospect-Theorie und die kumulative Prospect-Theorie, beschrieben.
2.2.2
Grundlagen der Erwartungsnutzentheorie
Das in der Ökonomie am häufigsten eingesetzte Entscheidungskriterium ist der
VON
NEUMANN-MORGENSTERNSCHE Erwartungsnutzen. Als Grundlage der Erwartungsnutzentheorie wird zunächst die Struktur des klassischen Entscheidungsproblems
unter Risiko und Unsicherheit eingeführt. Wenn ausgehend von dem Entscheidungsprozess, der in Abschnitt 2.1 dargestellt wurde, unterstellt wird, dass das Problem
definiert ist und der Entscheider das Ziel hat, den erwarteten Nutzen zu maximieren,
kann das Entscheidungsproblem wie folgt beschrieben werden:
(a) Der Akteur oder Entscheider kann aus einer Menge von Akten (Lotterien, Aktionen oder Alternativen) wählen. Ein Akt A setzt sich aus Konsequenzen (Ergebnissen)
xi
(i 1, , n) und den zugehörigen Wahrscheinlichkeiten pi
(i 1, , n) zu-
sammen.
(b) Der Entscheider kennt die Konsequenzen xi , die aus dem Akt A resultieren.
(c) Er ist in der Lage, den Konsequenzen Wahrscheinlichkeiten pi zuzumessen. Dabei gilt für alle i, pi t 0 und
¦p
i
1.
i
(d) Der Akteur kann jede mögliche Konsequenz xi bewerten.
Die Bewertung der Konsequenzen erfolgt über eine Nutzenfunktion:
V
u ( xi ) .
(2.1)
10
Wenn der Entscheider nach den Vollständigkeits-, Transitivitäts-, Stetigkeits- und
Unabhängigkeitsaxiomen handelt, wird er die Alternative mit den höchsten erwarteten Nutzen wählen (EISENFÜHR/WEBER 1999, 211 ff., BAMBERG/COENENBERG 2000,
100 ff. und STARMER 2000, 334 f.)
Er wird somit die Erwartungsnutzenfunktion
V ( A)
¦ p u( x )
i
(2.2)
i
i
maximieren. Auf das Problem der Informationsbeschaffung wird hier nicht eingegangen, d. h. in dem zugrundeliegenden Modell wird unterstellt, dass der Akteur „...
vollständige Gewissheit über die Ungewissheit ...“ (SCHNEIDER 1980, l41) besitzt.
2.2.3
2.2.3.1
Alternativen zur Erwartungsnutzentheorie
Modifikationen der Erwartungsnutzentheorie
In empirischen Studien hat sich gezeigt, dass regelmäßig das Unabhängigkeitsaxiom
verletzt wird. Einer der Ersten, der solche Effekte empirisch ermitteln konnte, war
ALLAIS (1953). Er konnte anhand von Lotterien den common consequence effect und
den common ratio effect feststellen.
Den common consquence effect hat ALLAIS (1953, 527) durch die folgenden Lotterievergleiche veranschaulicht. Falls Individuen einerseits vor die Wahl gestellt werden, sich zwischen der Lotterie A1 (100 Mio.; 1) und der Lotterie A2 (500 Mio., 0.1;
100 Mio., 0.89; 0, 0.01) und andererseits zwischen der Lotterie A3 (100 Mio., 0.11; 0,
0.89) und der Lotterie A4 (500 Mio., 0.1; 0, 0.9) zu entscheiden, dann zeigt sich häufig, dass sich die Individuen nicht so verhalten, wie es die Erwartungsnutzentheorie
fordert. Nach der Erwartungsnutzentheorie müssten die Individuen sich für A1 und A3
oder aber für A2 und A4 entscheiden. Häufig ist aber festzustellen, dass die Individuen
andere Präferenzen haben und sich für A1 und A4 oder aber für A2 und A3 entschei-
11
den. Sie zeigen also Präferenzen, die nicht mit der Erwartungsnutzentheorie vereinbar sind.
Ein zweiter empirisch häufig festzustellender Effekt ist der common ratio effect.
Wenn einerseits zwischen einer sicheren Alternative A5 (3000, 1) und einer Lotterie
A6 (4000, 0.8; 0, 0.2) sowie andererseits zwischen einer Lotterie A7 (3000, 0.25; 0,
0.75) und einer Lotterie A8 (4000, 0.2; 0, 0.8) zu wählen ist, dann, so zeigen auch in
diesem Fall empirische Untersuchungen, entscheiden sich die Individuen regelmäßig
nicht konform mit der Erwartungsnutzentheorie (STARMER 2000, 337). Bei der ersten
Entscheidung wird häufiger die sichere Variante und im zweiten Fall wird regelmäßig die Lotterie A8 der Lotterie A7 vorgezogen. Daneben hat es noch andere Beispiele, wie das ELLSBERG-Paradox gegeben, die alle darauf hindeuten, dass das Erwartungsnutzenmodell nicht immer geeignet ist, das Verhalten von einzelnen Entscheidern abzubilden (CAMERER 1995).
Als Folge dieser Widersprüche sind viele neue Modelle als Alternativen zur Erwartungsnutzentheorie entwickelt worden. In diesem Abschnitt können allerdings nur
einige wichtige vorgestellt werden. Eine wesentlich ausführlichere Darstellung findet
sich bei STARMER (2000, 332 ff.).
Zunächst werden einige Modifikationen der Erwartungsnutzenfunktion vorgestellt,
die ausschließlich den Term der Nutzenfunktion betreffen. Zu diesen Modifikationen
ist die verallgemeinerte Erwartungsnutzentheorie von MACHINA (1982) zu zählen.
Diese Theorie lässt im Gegensatz zur Erwartungsnutzentheorie nichtlineare Indifferenzkurven zu (STARMER 2000, 342), da sie auf das Unabhängigkeitsaxiom verzichtet und vermeidet so den common consequence und den common ratio effect. Neben
dieser Theorie gibt es Ansätze (z. B. CHEW (1983)), die wesentlich stringenter in der
Formulierung sind und z. B. nur lineare Indifferenzkurven zulassen, die aber nicht
notwendig parallel zueinander verlaufen müssen. Diese Ansätze sind spezielle Fälle
der verallgemeinerten Erwartungsnutzentheorie.
12
Ähnliche Ansätze, die einen eher psychologischen Hintergrund haben wie die
Regret-Theorie von BELL (1982), seien hier nur erwähnt. Dieses Modell kann empirisch sich zeigende Verhaltensweisen von Individuen wie Verletzungen des Unabhängigkeitsaxioms und Präferenzumkehrungen gut abbilden. Es weist aber auch gewisse Schwächen auf. So verletzt es die Monotonieeigenschaft, die Transitivitätseigenschaft und lässt eindeutige Präferenzen zwischen stochastisch gleichen Akten zu
(STARMER 2000, 357).
Daneben gibt es weitere Theorieansätze, wie z. B. die quadratische Nutzentheorie.
Das zugehörige Modell lässt Indifferenzkurven zu, die vom Konkaven zum Konvexen und umgekehrt wechseln können. Diese Modelle mit unterschiedlichen Funktionsformen basieren auf einer modifizierten Variante der Erwartungsnutzentheorie,
zeigen aber nicht die empirischen Schwächen, die das Erwartungsnutzenmodell aufweist.
Neben Modifikationen der Erwartungsnutzenfunktion gibt es noch Modifikationen
der Erwartungsnutzentheorie, die die Wahrscheinlichkeiten betreffen. Nach STARMER
(2000, 346) neigen Wirtschaftssubjekte dazu, objektive Wahrscheinlichkeiten
nicht richtig wahrzunehmen oder aber subjektiv zu gewichten. Diese Wahrscheinlichkeiten sind dann personenspezifisch und subjektiv. Für diesen Fall liegt eine Modellklasse vor, die durch eine Gewichtungsfunktion für die objektiven Wahrscheinlichkeiten charakterisiert ist (STARMER 2000, 346). Diese Modellklasse kann durch
Gleichung (2.3) beschrieben werden:
V ( A)
¦ w u( x ) .
i
(2.3)
i
i
Der Term wi kann als eine Gewichtung für den Term u ( xi ) interpretiert werden. In
der Variante der subjektiven Erwartungsnutzentheorie wird für wi eine Wahrscheinlichkeitsgewichtungsfunktion S ( pi ) eingeführt. Diese transformiert die Wahrscheinlichkeiten der jeweiligen Ergebnisse in Gewichte. Damit können die objektiven
Wahrscheinlichkeiten nichtlinear transformiert werden. Die funktionale Form dieses
13
Ansatzes kann für die subjektive Erwartungsnutzentheorie (SAVAGE, 1954) durch
Gleichung (2.4) beschrieben werden:
V ( A)
¦S ( p ) u( x ) .
i
(2.4)
i
i
Dieser Modellansatz kann die Monotonieeigenschaft stochastisch verletzen (FISHBURN
1978). Es hat daher Bestrebungen gegeben, für die Wahrscheinlichkeiten eine
Gewichtungsfunktion zu formulieren, die die Monotonieeigenschaft nicht mehr verletzt. Zu den Ansätzen, die diese Eigenschaft erfüllen, gehören die allgemein anerkannten rangplatzabhängigen Nutzentheorien.
Die Grundidee dieses Ansatzes ist, dass die Gewichtung eines Ergebnisses nicht nur
von der zugehörigen Wahrscheinlichkeit abhängt, sondern auch von dem Platz abhängt, den das Ergebnis in einer der Größe nach geordneten Reihe aller Ergebnisse
einnimmt (SORGER 2000, 124 f.). Es wird zunächst eine Rangordnung der Ergebnisse
erzeugt. Die entsprechende Gewichtung kann dann für i 1, , n 1 durch
wi
S ( pi p n ) S ( pi 1 p n )
(2.5)
und für i =n
wn
S ( pn )
ermittelt werden (STARMER 2000, 347). Damit wird die jeweilige transformierte
Wahrscheinlichkeit eines Ergebnisses in Abhängigkeit von seinem Rang (Platz) innerhalb einer der Größe nach geordneten Reihe aller Ergebnisse ermittelt. Der Rang
des Ergebnisses bestimmt also die Stärke der Transformation der Wahrscheinlichkeit. Damit wird einerseits die Monotonieeigenschaft gesichert und anderseits kann
das ALLAIS-Paradoxon vermieden werden (EISENFÜHR/WEBER 1999, 381 ff.). Allerdings hängen die Aussagen entscheidend von der Form der Gewichtungsfunktion
S (.) ab. Problematisch ist bei diesem Modell, dass durch eine kleine Änderung einer
Konsequenz die Reihenfolge der Ergebnisse beeinflusst werden kann, mit gegebe-
14
nenfalls erheblichen Auswirkungen auf die Ermittlung des zugehörigen Entscheidungsgewichts (STARMER 2000, 348).
2.2.3.2
Erwartungswert-Varianz-Analyse
In der Praxis werden statt des Erwartungsnutzenmodells und der daraus hervorgegangenen Modifikationen vielfach einfachere Ansätze, wie der ErwartungswertVarianz-Ansatz verwendet. Dieser Ansatz berücksichtigt neben dem Erwartungswert
noch ein Maß für die Streuung.
Dieser Ansatz wird nicht nur wegen seiner einfachen Umsetzbarkeit, sondern auch
wegen seiner Eigenschaft eingesetzt, dass Funktionen unter bestimmten Verteilungsannahmen bestimmt werden können, die mit der Erwartungsnutzentheorie konform
gehen. So zeigt SCHNEEWEIß (1967, 146 ff.), dass die Präferenzfunktion (2.6) im Bereich der Normalverteilungen im Einklang mit der Erwartungsnutzentheorie steht.
u(P ,V )
a
E ( X ) Var ( X ), a z 0
2
(2.6)
Var ( X ) ist die Varianz der Zufallsvariablen X und a ein Risikoaversionsparameter.
Wenn aber nicht von normalverteilten Zufallsvariablen ausgegangen werden kann,
ist diese Präferenzfunktion nicht rational.
Kann eine quadratische Nutzenfunktion unterstellt werden, lässt sich die Maximierung der Präferenzfunktion
u(P ,V )
b1 E ( X ) b2 ( E ( X )) 2 b2Var ( X )
(2.7)
mit der Maximierung des Erwartungsnutzens in Einklang bringen (SCHNEEWEIß
1967, S. 95 f.). Die Parameter b1 und b2 können beliebig gewählt werden. Diese
Funktionsform ist aber wegen der impliziten absoluten Risikoaversionen ökonomisch
nur in Teilbereichen sinnvoll.
15
Gegen den Erwartungswert-Varianz-Ansatz wird außerdem eingewendet, dass er
gegen das Dominanzprinzip verstoßen kann5 und höhere Momente einer Dichtefunktion nicht berücksichtigt. Ferner wird ein Entscheider, wenn er anhand des Erwartungswert-Varianz-Ansatzes die beste Alternative auswählt, nicht hinreichend zwischen links- oder rechtsschiefen Dichtefunktionen und solchen mit unterschiedlicher
Wölbung differenzieren können (ODENING 1994, 116 f.).
Weil der Erwartungswert-Varianz-Ansatz relativ leicht für die Anwendung umgesetzt werden kann, wird dieser trotz dieser erheblichen Einschränkungen statt des
Erwartungsnutzenmodells auch im Rahmen der Kapitalmarkttheorie eingesetzt.
2.2.3.3
Stochastische Dominanz
Bei einigen Entscheidungsproblemen unter Unsicherheit kann das Konzept der stochastischen Dominanz eine Alternative zum Erwartungsnutzen-Modell sein. Bei diesem Konzept werden i. d. R. zwei Grade von stochastischer Dominanz unterschieden. Man spricht von stochastischer Dominanz ersten Grades, wenn sich die Verteilungsfunktion F j eines Aktes A j mit derjenigen des Aktes Ai nicht schneidet und
F j rechts von Fi liegt (BRANDES et al. 1997, 303). Ein Entscheider wird bei einer
monoton steigenden Nutzenfunktion unabhängig von seiner Risikoeinstellung den
stochastisch dominanten Akt wählen. So wird der Akt A2 dem Akt A1 in Abbildung
2.1a vorgezogen. Eine Entscheidung wird schwieriger, wenn sich die Verteilungsfunktionen schneiden (Abbildung 2.1b und c) (BRANDES et al. 1997, 302 ff.).
5
Der Zusammenhang zwischen Entscheidungskriterien und dem Dominanzprinzip wird von LAUX
(1998, 156 ff.) ausführlich für die verschiedenen Risikoeinstellungen beschrieben.
16
Abbildung 2.1: Verteilungsfunktionen und stochastische Dominanz
In einigen Fällen kann dann das Konzept der stochastischen Dominanz 2. Grades zur
Entscheidungsfindung dienen. Von stochastischer Dominanz zweiten Grades spricht
man, wenn bei sich schneidenden Verteilungsfunktionen die untere Fläche A zwischen den Kurven nicht kleiner ist als die obere B. Dieses ist in Abbildung 2.1b zu
sehen, wo sich die beiden Verteilungen A3 und A4 schneiden. In diesem Fall wird
ein risikoaverser Entscheider i. d. R. Akt A4 wählen (HANF 1986, 98 ff.).
Es kann aber eine Situation eintreten, wie sie in Abbildung 2.1c zu sehen ist. Hier ist
die obere Fläche D größer ist als die untere Fläche C, wenn die beiden Alternativen
A5 und A6 miteinander verglichen werden. Dann ist das Konzept der stochastischen
17
Dominanz ersten und zweiten Grades nicht mehr geeignet, um zwischen den Alternativen zu diskriminieren. Je nach Höhe der Risikoaversion wird ein Entscheider A5
oder A6 wählen.
2.2.3.4
Prospect-Theorie
In vielen empirischen Studien hat sich gezeigt, dass sich Entscheider nicht entsprechend der Erwartungsnutzentheorie verhalten. Die Nobelpreisträger KAHNEMAN/TVERSKY
(1979) konnten in empirischen Arbeiten drei Phänomene feststellen,
die nicht im Einklang mit der Erwartungsnutzentheorie stehen. Erstens stellten sie
wie schon ALLAIS fest, dass Individuen bei mehreren Alternativen die sichere Alternative vorziehen (certainty effect). Zweitens konnten sie zeigen, dass das Risikoverhalten der Menschen sich bei Gewinnen und Verlusten unterscheidet. Während die
Individuen sich bei Gewinnen risikoavers verhalten, zeigt sich häufig ein risikofreudiges Verhalten bei Verlusten (reflection effect). Schließlich ist für die Wahl einer
Alternative auch die Art der Darstellung des Ergebnisses entscheidend (isolation
effect). Diese drei Phänomene haben KAHNEMAN/TVERSKY (1979) berücksichtigt,
als sie die Prospect-Theorie als Alternative zur Erwartungsnutzentheorie formulierten. Diese hat durch die kumulative Prospect-Theorie (TVERSKY/KAHNEMAN (1992)
und WAKKER/TVERSKY (1993)) eine Weiterentwicklung erfahren.
18
Die Entscheidungsfindung gemäß der Prospect-Theorie kann in zwei Phasen unterschieden werden. In der ersten Phase werden die Prospekte oder Alternativen aufbereitet, d. h. anhand von Heuristiken werden spezielle Festlegungen, Vereinfachungen
und Anpassungen vorgenommen6. In der zweiten Phase werden die aufbereiteten
Prospekte in eine besondere Wertfunktion v(x), durch die eine Bewertung der editierten Prospekte erfolgt, übertragen. Die Prospekte werden als Verluste oder Gewinne
in Bezug zu einem Referenzpunkt, z. B. dem Status quo, bewertet. Ein häufig festzustellender Verlauf der Wertfunktion, ist in der Abbildung 2.2 dargestellt (KAHNEMAN/TVERSKY
1979, 279).
Abbildung 2.2: Typische Wertfunktion (Prospect-Theorie)
6
Da diese Schritte formal nicht eindeutig festgelegt sind, ist das Ergebnis dieser sogenannten EditingPhase vom Entscheider abhängig. Unterschiedliche Entscheider können daher bei gleicher Entscheidungssituation nach Abschluss der Editing-Phase zu voneinander abweichenden Ergebnissen kommen
(EISENFÜHR/WEBER 1999, 378).
19
Die Funktion ist konkav im Bereich der Gewinne. Dagegen wird im Verlustbereich
ein konvexer Verlauf angenommen. Absolut gesehen werden Verluste höher bewertet als entsprechende Gewinne.
In die zu berechnende Nutzenfunktion geht noch eine Wahrscheinlichkeitsgewichtungsfunktion der Art ein, wie sie in Abbildung 2.3 zu sehen ist7 (KAHNEMAN/TVERSKY
1979, 283).
Abbildung 2.3: Wahrscheinlichkeitsgewichtungsfunktion (Prospect-Theorie)
Der erwartete Nutzen wird dann für eine Alternative A (EP(A)) wie folgt berechnet:
EP ( A) S ( p1 )v( x1 ) S ( p 2 )v( x 2 ) .
(2.8)
In der Arbeit von KAHNEMAN/TVERSKY (1979) hat sich gezeigt, dass die ProspectTheorie empirisches Entscheidungsverhalten abbilden kann. Allerdings kann der Fall
eintreten, dass die stochastische Dominanz einzelner Alternativen indirekt verletzt
wird. Außerdem können nicht beliebig viele Konsequenzen der Alternativen abgebildet werden (EISENFÜHR/WEBER 1999, 380 f.).
7
Die Wahrscheinlichkeitsgewichtungsfunktion ist in der Nähe der Endpunkte nicht definiert.
20
Hier setzt die kumulative Prospect-Theorie an. Diese überträgt das Konzept der kumulativen Wahrscheinlichkeitsverteilung aus der rangplatzabhängigen Nutzentheorie
(vgl. Abschnitt 2.2.3.1) auf die Prospect-Theorie, sodass stochastisch dominierte
Alternativen nicht mehr vorgezogen werden. Wie bei der rangplatzabhängigen Nutzentheorie werden die Ergebnisse einer Entscheidungsalternative der Größe nach
geordnet. Mit dem Referenzpunkt können analog der Prospect-Theorie Gewinne von
Verlusten getrennt werden und durch eine Wertfunktion bewertet werden. Der erwartete Nutzen einer Alternative (CPT(A)) kann dann gemäß der folgenden Formel ermittelt werden (EISENFÜHR/WEBER 1999, 384):
m
CPT ( A)
¦ u( xi )S ( pi ) i 1
n
¦ u ( x )S
i
( pi ) .
(2.9)
i m 1
Die Entscheidungsgewichte der positiven S ( pi ) und negativen Konsequenzen
S ( pi ) können nach folgenden Formeln bestimmt werden:
S ( pi )
S ( pi )
i
i 1
j 1
j 1
n
n
j 1
j i 1
g (¦ p j ) g (¦ p j )
(2.10)
g (¦ p j ) g ( ¦ p j ) .
(2.11)
Zwei typische umgekehrt s-förmige Wahrscheinlichkeitsgewichtungsfunktionen g(p)
finden
sich
in
Abbildung
2.4
(EISENFÜHR/WEBER
TVERSKY/KAHNEMAN 1992, 313):
21
1999,
385
und
Abbildung 2.4: Wahrscheinlichkeitsgewichtungsfunktionen (kumulative Prospect-Theorie)
Im Gegensatz zu den Wahrscheinlichkeitsgewichtungsfunktionen der ProspectTheorie (Abbildung 2.3) gibt es keine Sprungstellen an den Endpunkten.
Außerdem ist als weiterer Vorteil gegenüber der Prospect-Theorie hervorzuheben,
dass die nicht axiomatische Editing-Phase entfällt.
Abschließend lässt sich feststellen, dass es neben der immer noch häufig eingesetzten
Erwartungsnutzentheorie eine Reihe von Alternativen gibt, die weniger im Widerspruch zu dem empirisch festzustellenden Verhalten der Individuen stehen. Diese
und auch die zuletzt vorgestellten Ansätze, die der Prospect-Theorie zuzuordnen
sind, werden allerdings in der Anwendung kaum eingesetzt, weil sie schwer umzusetzen sind. In dieser Arbeit, in der Entscheidungen unter Risiko und Unsicherheit
aus der Sicht eines Beobachters untersucht werden sollen, wird deshalb ein Entscheidungsnetzansatz und dazu passende Entscheidungskriterien in Abschnitt 2.5
eingeführt, der als Weiterentwicklung des Erwartungswert-Varianz-Ansatzes zu sehen ist. Der Entscheidungsnetzansatz erlaubt es, neben dem Erwartungswert und der
22
Varianz weitere Parameter wie den bedingten Erwartungswert und zusätzliche Varianzparameter zu berechnen, die geeignet sind, zusätzliche Entscheidungshilfen zu
geben.
2.3
Zur Interpretation von Wahrscheinlichkeiten
2.3.1
Einführung
Im Zusammenhang mit Entscheidungen unter Unsicherheit ist es wichtig, den Begriff
der Wahrscheinlichkeit und die verschiedenen Interpretationen dieses Begriffs ausführlicher zu behandeln, auch wenn führende Statistiker wie KENDALL und STUART
(1963, 180) der Überzeugung sind, dass es für einen Statistiker ein Zeichen von Unreife ist, allzu viel über Wahrscheinlichkeitstheorie zu debattieren. Es wird allgemein
anerkannt, dass das mathematische Konzept der Wahrscheinlichkeiten durch die
KOLMOGOROFF-Axiome (1933) adäquat beschrieben werden (BUNGE 1988, 46).
Aber hinsichtlich der Interpretation des Wahrscheinlichkeitsbegriffs ist gerade auch
im Zusammenhang mit singulären Fällen eine lange Diskussion geführt worden. Dabei kristallisierten sich drei wichtige Interpretationsansätze heraus. Neben dem objektivistischen, sind der subjektivistische und schließlich der durch POPPER und
BUNGE entwickelte Interpretationsansatz der Verwirklichungstendenz (Propensitäten-Ansatz) hervorzuheben. Diese Ansätze werden im Anschluss an Abschnitt 2.3.2,
in dem ein Überblick zur Geschichte der Wahrscheinlichkeitstheorie gegeben wird,
in den Abschnitten 2.3.3 – 2.3.5 vorrangig unter dem Aspekt einmaliger Entscheidungsprobleme unter Risiko und Unsicherheit vergleichend diskutiert. Im Gegensatz
zu den experimentellen Wissenschaften wie z. B. der Physik und Chemie sind in den
Sozial- und Wirtschaftswissenschaften die Voraussetzungen, ein kontrolliertes Experiment wiederholt durchzuführen, selten gegeben. Ökonomische Entscheidungssituationen sind daher oft einmalig und nicht wiederholbar.
23
2.3.2
Exkurs zur Geschichte der Wahrscheinlichkeitstheorie
Die folgenden Ausführungen orientieren sich an MENGES (1968, 9 ff.) und HARTUNG
(1986, 10 ff.). MENGES beginnt seine Geschichte der Wahrscheinlichkeitsrechnung
mit GEROLAMO CARDANO (1501-1576). Dieser führte in seinem unveröffentlichten
Buchmanuskript „Liber de ludo aleae” (Buch über das Würfelspiel), das in der Zeit
um 1520 entstand, die Gleichmöglichkeitsdefinition, die Additionseigenschaft und
das Konzept der mathematischen Erwartung ein.
MENGES (1968, 9 f.) hebt die Verdienste von BLAISE PASCAL (1623-1662) und
PIERRE DE FERMAT (1601-1665) hervor, welche eine Briefkorrespondenz über Fragen
des Glückspiels führten und zu einer Begründung der Wahrscheinlichkeitsrechnung
beigetragen haben. Ihre Gedanken wurden von dem Holländer CHRISTIAN HUYGENS
(1629-1695) aufgenommen, der als Erster den Begriff der Urne in Zusammenhang
mit der Wahrscheinlichkeitsrechnung brachte und von einer mathematischen „Erwartung” sprach.
Nicht unerwähnt dürfen die besonderen Verdienste der Familie BERNOULLI bleiben.
JACOB BERNOULLI (1654-1705), ein Mathematikprofessor, nahm HUYGENS’ Buch
und erweiterte es um Teile der Kombinatorik und um eine Anwendung der Wahrscheinlichkeitsrechnung. Außerdem geht auf ihn das BERNOULLIsche Theorem zurück. Neben NIKOLAUS BERNOULLI (1695-1726), der großen Anteil an der Publikation der Ergebnisse seines Onkels JAKOB hatte, ist noch DANIEL BERNOULLI (17001782) hervorzuheben. Seine wissenschaftliche Leistung liegen in der Entdeckung des
Grenznutzenkonzepts und einige Untersuchungen zu Beobachtungsfehlern. Außerdem führte er das Konzept der moralischen Erwartung ein, das in die Entscheidungstheorie als „Bernoulli-Nutzen” eingegangen ist und als Ausgangspunkt für die
VON
NEUMANN-MORGENSTERNSCHE Erwartungsnutzentheorie gilt. Schließlich geht auf
ihn das Petersburger-Paradoxon zurück.
Eine besondere Stellung in der Geschichte der Wahrscheinlichkeitstheorie nimmt
auch THOMAS BAYES (1702-1761) ein. Sein Verdienst liegt in der Begründung des
nach ihm benannten BAYESSCHEN THEOREMS.
24
Bedeutende Wissenschaftler waren ferner SIMEON DENIS POISSON (1781-1840) und
CARL FRIEDRICH GAUSS (1777-1855). Während POISSON das Gesetz der großen Zahlen begründet hat, ist GAUSS über die Normalverteilung und die mathematische Formulierung der Methode der kleinsten Quadrate, die in der Regressionsrechnung eingesetzt wird, bekannt geworden.
Zur Entwicklung der Wahrscheinlichkeitsrechnung haben die angelsächsische Schule
mit so bedeutenden Gelehrten wie KARL PEARSON (1857-1936) und RONALD AYLMER
FISHER (1890-1962) sowie die stärker mathematisch ausgerichtete russische
Schule mit ANDREJ NICOLAEVIC KOLMOGOROFF (1903-1987), ANDREJ ANDREJEVIC
MARKOFF (1856-1922), ALEXANDER MICHAILOWITSCH LJAPUNOFF (1857-1918)
u. a., die dem bedeutenden Mathematiker PAFNUTI LWOWITSCH TSCHEBYSCHEFF
(1821-1894) folgten, beigetragen.
Zu erwähnen ist noch die Arbeit von ABRAHAM WALD (1902-1950), der die Theorie
des Sequenzialtests entwickelte und die VON NEUMANNschen Spieltheorie zur Theorie der statistischen Entscheidungsfunktionen weiterführte und die Aufgaben der Statistik, im Gegensatz zu FISCHER, nicht darauf beschränkt sah, Urteile zu fällen, sondern zusätzlich Entscheidungen zu treffen und Entscheidungshilfen zu geben. Spielund Entscheidungstheorie sind inzwischen wichtige Teilgebiete der Ökonomie geworden, die nicht ohne wahrscheinlichkeitstheoretische Grundlagen auskommen.
2.3.3
Objektivistische Interpretation
Die objektivistische Interpretation des Wahrscheinlichkeitsbegriffs kann wiederum in
einen klassischen und einen relativistischen Interpretationsansatz aufgeteilt werden.
Die klassische Interpretation geht auf LAPLACE zurück und definiert Wahrscheinlichkeit als den Quotienten aus der Zahl der „günstigen” Fälle durch die Zahl der
„gleichmöglichen” (gleichwahrscheinlichen) Fälle (POPPER 1984, 107 f.).
25
Weil nicht immer davon auszugehen ist, dass gleichmögliche Fälle vorliegen, z. B.
manipulierte Würfel, hat
VON
MISES die klassische Interpretation des Wahrschein-
lichkeitsbegriffs zu einer Theorie der relativen Häufigkeiten weiterentwickelt (MENGES
1968, 31 ff.). Nach dieser Theorie können Wahrscheinlichkeiten über relative
Häufigkeiten bestimmt werden.
Wenn bei n Versuchen k-mal ein Ereignis b zu beobachten ist, dann ist die Wahrscheinlichkeit dafür
p (b )
k
.
n
(2.12)
Der Kritik gegenüber diesem Ansatz, dass, wenn n nicht groß genug gewählt wird,
die Wahrscheinlichkeit über die relative Häufigkeit nicht gut wiedergegeben wird,
begegnet V. MISES, indem er die Wahrscheinlichkeit als Grenzwert betrachtet, dem
die relative Häufigkeit bei einer über alle Grenzen wachsenden Zahl von Versuchen
zustrebt.
lim ( k | n )
nof
(2.13)
p (b )
Wahrscheinlichkeit ist dann als Grenzwert der relativen Häufigkeit zu interpretieren.
Es ergeben sich aber mit dieser Interpretation des Wahrscheinlichkeitsbegriffs einige
Probleme. Einerseits weist BUNGE (1988, 37 ff.) auf die mathematischen Unterschiede zwischen Wahrscheinlichkeiten, wie sie KOLMOGOROFF definiert hat, und dem
von
VON
MISES eingeführten Wahrscheinlichkeitsbegriffs hin. Andererseits gibt es
mit dieser Interpretation des Wahrscheinlichkeitsbegriffs auch Schwierigkeiten,
wenn wie in den Sozial- und Wirtschaftswissenschaften die Stichproben klein sind
und im Gegensatz zu den experimentellen Disziplinen nicht durch ein wiederholtes
Experiment unter kontrollierten Bedingungen entsprechend vergrößert werden können. Die in den Wirtschafts- und Sozialwissenschaften weit verbreitete subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs, scheint dieses Problem zu lösen.
26
2.3.4
Subjektivistische Interpretation
Zur Diskussion über die subjektivistische und objektivistische Interpretation des
Wahrscheinlichkeitsbegriffs schreibt
DE
FINETTI, der neben SAVAGE als einer der
entschiedendsten Vertreter der subjektivistischen Position bezeichnet werden kann:
„Für alle, die es noch nicht wissen, muss gesagt werden, dass es meiner Auffassung
nach nur subjektive Wahrscheinlichkeiten gibt: Grad des Vertrauens - Englisch: Degree of belief - eines bestimmten Subjektes zu einem bestimmten Zeitpunkt aufgrund
einer bestimmten Informationsmenge in Bezug auf das Eintreten eines Ereignisses.”
(DE FINETTI 1981, 6). Ein noch schärferer Angriff gegen die objektivistische Interpretation des Wahrscheinlichkeitsbegriffs findet sich im Vorwort von DE FINETTI (1981,
X): „Es existiert keine objektive Wahrscheinlichkeit.“
Die subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs geht auf die Arbeiten von BAYES und D. BERNOULLI zurück. Im Rahmen dieses Ansatzes werden
Aussagen getroffen, über den Grad des Vertrauens einer Person zu einem bestimmten Zeitpunkt in Bezug auf die Möglichkeit, dass ein Ereignis eintritt.
Die subjektivistische Position wird von MENGES in eine „introspektive” und eine
„bayesianische” unterteilt. Zur ersten Gruppe zählt
DE
FINETTI. Diese Position wird
von MENGES wie folgt charakterisiert: „Eine Person nimmt bewußt Kenntnis von
einem Urteil über die Realität, die ihr vorgelegt wird. Sie „testet” dieses Urteil an
ihrer Intuition. Koinzidiert das ihr vorliegende Urteil R über die Realität mit ihrer
Introspektion völlig, so gibt sie R die Wahrscheinlichkeit 1, ist ihre Intuition dem
Urteil R genau entgegengesetzt, so gibt sie R die Wahrscheinlichkeit 0. In dem Maße, wie ihr subjektives Fürwahrhalten von R abweicht, tendiert ihre Wahrscheinlichkeitsfestlegung näher zu Null hin, und umgekehrt.“ (MENGES 1968, 33 f.). Die Position der zweiten Gruppe, auch „Bayesianer” genannt, zu der auch SAVAGE gehört,
lässt sich wie folgt beschreiben: „Sie wollen direkt den Grad des Fürwahrhaltens
(den „dispositional belief”) messen. Zu diesem Zweck wird das Konzept der hypothetischen Wetten in die Betrachtung eingeführt, das anhand eines Beispiels verdeut-
27
licht werden soll: A stellt die Behauptung D auf, z. B., daß es morgen regnen wird,
B die Behauptung E , daß es morgen nicht regnen wird. Um die Wahrscheinlichkeit
p für die Richtigkeit von D und entsprechend 1-p für die Richtigkeit von E festzustellen, bietet A dem B die Wette über D bzw. E an. Ist A bereit, auf D z. B. doppelt
so viel zu wetten wie B auf E , dann ist D doppelt so „wahrscheinlich” wie E .“
(MENGES 1968, 34).
Die entscheidende Schwäche der subjektivistischen Interpretation des Wahrscheinlichkeitsbegriffs liegt in deren strikten Verneinung objektiver Wahrscheinlichkeiten
(bzw. die a-priori Festlegung dieser) zu sehen. In letzter Konsequenz bedeutet das,
dass es keinen Indeterminismus geben kann, da jegliches Unwissen von den Subjektivisten auf mangelnde Information zurückgeführt werden muss. Ungewissheit, die
durch kein denkbares Wachstum an Erkenntnis beseitigt werden kann (physikalischen Indeterminismus) kann es nicht geben (STEGMÜLLER 1973, 66 f.).
Auch BUNGE (1988, 46 f.) greift die subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs an. Er schreibt: „ The personalist concept is mathematically invalid
because the probability measure defined in the calculus of probability makes no
room for any person.” Schließlich schreibt MENGES, ein entschiedener Gegner des
subjektivistischen Interpretationsansatzes, treffend: „Von subjektiver Wahrscheinlichkeit zu reden, ist genauso sinnvoll, wie von subjektiver Kausalität." (MENGES
1968, 34).
2.3.5
Verwirklichungstendenzen
Für einmalige (singuläre) Ereignisse scheint weder der häufigkeitstheoretische Ansatz von
VON
MISES noch der subjektivistische Ansatz geeignet, um numerische
Wahrscheinlichkeitsaussagen zu teffen. POPPER hat als weiteren Interpretationsansatz
den sogenannten Verwirklichungstendenzen (Propensitäten) -Ansatz eingeführt, der
sowohl als objektiver Ansatz für singuläre Ereignisse als auch für Grenzwertbetrachtungen eingesetzt werden kann. Die Grenzwertbetrachtungen werden hier nicht weiter behandelt, da der Schwerpunkt dieser Arbeit auf einer Analyse von Entscheidun-
28
gen unter Risiko und Unsicherheit liegt, die den singulären Ereignissen zuzuordnen
sind.
Bei der Propensitäteninterpretation wird im Gegensatz zur Häufigkeitsinterpretation
die Wahrscheinlichkeit als ein Merkmal der experimentellen Anordnung bzw. der
Situation gesehen und nicht als ein Merkmal einer Folge. Damit wird die Wahrscheinlichkeit des Ergebnisses eines einzelnen Experimentes oder Ereignisses in Bezug auf seine experimentelle Anordnung bzw. der Situation für grundlegend gehalten
und nicht die Häufigkeit von Ergebnissen in einer Experimentfolge (POPPER 1995a,
188 f.). Nach POPPER (1992, 287) liegt der eigentliche Unterschied zu der Häufigkeitstheorie in der Bedeutung, den die jeweiligen Ansätze den singulären Fällen beimessen. In der Häufigkeitstheorie haben Einzelfallwahrscheinlichkeiten nur eine
geringe Bedeutung im Gegensatz zu dem Theorieansatz der Verwirklichungstendenzen. In der Häufigkeitstheorie wird der Einzelfall als ein Ereignis angesehen, das zu
einer Folge von Ereignissen gehört. Der Einzelfall wird mit einer relativen Häufigkeit eintreten. Gemäß POPPER (1992, 287) ist die Wahrscheinlichkeit eines einzelnen
Ereignisses in der Propensitäteninterpretation zu verstehen, als wenn sie aus einer
virtuellen oder vorstellbaren Folge von Ereignissen entstammt. POPPER (1992, 287)
schreibt: „It attaches to the event a a probability p(a,b) by considering the conditions
which would define this virtual sequences: these are the conditions b, the conditions
that produce the hidden propensity, and that give the single case a certain numerical
probability.” Trotz der Nähe zur Häufigkeitstheorie von
VON
MISES bleiben doch
Unterschiede (POPPER 1984, 109), welche es gerechtfertigt erscheinen lassen, von
einem eigenständigen Theorieansatz zu sprechen.
POPPER (1995b, 26 f.) betont, dass eine Tendenz oder Propensität, ein Ereignis zu
realisieren, im Allgemeinen jeder Möglichkeit innewohnt, und dass die Situation die
Propensität bestimmt. Nach POPPER (1995b, 31) sind Propensitäten aber nicht Eigenschaften, die in einem Objekt liegen, sondern Eigenschaften, die einer Situation zuzuordnen sind, die das Objekt einschließt. Wenn also ein Zusammenhang zwischen
der Situation und der Propensität besteht, dann wird sich die Propensität mit sich
verändernder Situation ebenfalls ändern (POPPER 1995b, 32.).
29
Bei singulären Ereignissen besteht das Problem, die Propensitäten zu messen, um
darauf aufbauend eine Überprüfung vorzunehmen. Sie können nicht immer gemessen
werden. Wenn sich, wie bei biologisch-evolutionären Prozessen, die Situation ändert
und nicht im Sinne eines kontrollierten Experimentes wiederholbar ist, dann ist dennoch die Existenz solcher Propensitäten zu vermuten und diese sind zumindest zu
schätzen (POPPER 1995b, 36). Bei solchen Ereignissen scheint es demnach nicht
möglich zu sein, Propensitäten genau zu bestimmen, damit wäre die Möglichkeit zu
testen nicht gegeben, und es würde keine Überprüfung möglich sein.
Die Propensitäten-Interpretation kann auch auf ökonomische Entscheidungsprobleme
unter Unsicherheit angewendet werden. Auch hier hängen die Wahrscheinlichkeiten
des Eintretens eines Ereignisses letztlich von der Entscheidungssituation ab. Diese
kann von einzelnen Individuen unterschiedlich erfasst und bewertet werden, sodass
nach der subjektivistischen Wahrscheinlichkeitsinterpretation die vermeintlich subjektiven Wahrscheinlichkeiten von Person zu Person unterschiedlich ausfallen werden. Auch wenn die Wahrscheinlichkeitsurteile einzelner Individuen unterschiedlich
ausfallen, ist aber die Wahrscheinlichkeit des Eintretens eines Ereignisses objektiv
von der Situation abhängig (POPPER 1992, 348 ff.). Die Situation ändert sich nicht,
auch wenn sie von den einzelnen Individuen unterschiedlich wahrgenommen wird.
Dieser Gedanke fehlt im subjektivistischen Interpretationsansatz des Wahrscheinlichkeitsbegriffs. Diese nehmen das subjektive Wahrscheinlichkeitsurteil als gegeben
hin und ergründen nicht die objektiv beeinflussenden Rahmenbedingungen (Situation), welche ursächlich die Wahrscheinlichkeiten bestimmen8.
Zusammenfassend ist festzuhalten, dass für große Stichproben aus einem kontrollierten Experiment die objektivistische Interpretation des Wahrscheinlichkeitsbegriffs
bei numerischen Fragen angewendet werden kann. Schwieriger wird es, wenn singuläre Fragen untersucht werden und aus den oben beschriebenen Gründen die objekti-
8
Hier könnte ein Forschungsfeld für die Entscheidungstheorie entstehen, in dem untersucht wird, wie
bei singulären Ereignissen die objektiven Propensitäten (Wahrscheinlichkeiten) ermittelt werden können.
30
ve Interpretation nicht verwendbar ist. Da auch die subjektivistische Interpretation
des Wahrscheinlichkeitsbegriffs nicht geeignet scheint, wird die PropensitätenInterpretation Grundlage für diese Arbeit sein. Insbesondere wird das sich verwirklichen eines Ereignisses (Alternative) im nächsten Kapitel im Rahmen von Sensitivitätsanalysen untersucht.
2.4
Entscheidungsverfahren9
2.4.1
Einführung
Eine Entscheidungsanalyse unter Risiko und Unsicherheit wird mit Daten durchgeführt, die in aller Regel nicht aufgrund einer Versuchsanordnung, sondern im Systemzusammenhang geschichtlicher Ereignisse anfallen. Hintergrund dafür sind die
meist nicht wiederkehrenden Situationen, in denen Wirtschaftssubjekte regelmäßig
zu entscheiden haben. Um solche Situationen zu analysieren, kann man sich grafischer und numerischer Ansätze bedienen. Zu den am häufigsten angewendeten Ansätzen zählen Entscheidungsbäume und Entscheidungsmatrizen sowie Einflussdiagramme. In diesem Abschnitt soll als neuer Ansatz die Entscheidungsnetzanalyse
eingeführt werden, bei der es sich um eine erweiterte Entscheidungsbaumanalyse
handelt.
2.4.2
Entscheidungsbäume und -matrizen
Der Entscheidungsbaum ist ein grafischer Analyseansatz, mit dem Entscheidungen
unter Risiko und Unsicherheit analysiert werden können. Er kann mit folgenden Elementen erstellt werden:
-
Entscheidungen werden durch Rechtecke dargestellt,
-
das Kreissymbol steht für Ereignisse
-
und Ergebnisse (Auszahlungen) werden durch Dreiecke abgebildet.
9
In diesem Abschnitt stützte ich mich auf CLEMEN (1995), EISENFÜHR /WEBER (1999), LAUX (1998),
RAIFFA (1968) und RECKE/LESERER (1998).
31
Der Zusammenhang von einzelnen Elementen wird durch Verbindungslinien verdeutlicht, sodass sich ausgehend von einem Ausgangsknoten eine baumähnliche
Struktur entwickelt. Die folgende Abbildung zeigt beispielhaft einen solchen Aufbau.
Abbildung 2.5: Entscheidungsbaum Investitionsentscheidung
hoher Preis
50%
10000
alte Anlage
0
10000
Erwartungswert
7500
Falsch
niedriger Preis
50%
0
5000
5000
Investition
hoher Preis
neue Anlage
50%
17000
Richtig
0.5
17000
Erwartungswert
8000
niedriger Preis
50%
0.5
-1000
-1000
Bei diesem Entscheidungsbaum handelt es sich um die in Abschnitt 2.2 beschriebene
Entscheidungssituation. Ein Investor steht vor der Frage, ob er eine alte Anlage weiternutzen oder in eine neue Anlage investieren soll. Wenn der Investor in die neue
Anlage investiert, kann er bei einem hohen Preis einen Gewinn von 17000 € erzielen.
Bei einem niedrigen Preis wird er 1000 € Verlust erwirtschaften. Wenn er mit der
alten Anlage weiterproduziert, wird er bei einem hohen Preis 10000 € und bei einem
niedrigen Preis 5000 € Gewinn erzielen. Da hohe und niedrige Preise von dem Investor als gleichwahrscheinlich eingestuft werden, wird jeweils eine Wahrscheinlichkeit
von 0.5 unterstellt.
Um die optimale Entscheidungsstrategie in einem Entscheidungsbaum zu bestimmen, wird das auf BELLMAN (1972) zurückgehende roll-back-Verfahren angewendet.
Hierbei handelt es sich um einen Algorithmus, bei dem über Rückwärtsrekursion die
32
günstigste Entscheidungsstrategie bestimmt wird. Ausgangspunkt ist dabei die letzte
Stufe (der letzte Zeitpunkt) eines Entscheidungsbaumes. Auf dieser Stufe werden für
alle Alternativen die Erwartungswerte für die Zielgröße (z. B. Gewinn) berechnet
und Äste, die keine maximalen Werte aufweisen, nicht weiter berücksichtigt und
weggestrichen. Entsprechend wird von der vorletzten bis zur ersten Stufe verfahren.
Auch hier werden jeweils nur die maximalen erwarteten Gewinne gesucht. Als Ergebnis liefert dieser Algorithmus die optimale Strategie für einen risikoneutralen
Entscheider. Wenn das roll-back-Verfahren unter der Annahme eines risikoneutralen
Entscheiders in dem vorgestellten Beispiel angewendet wird, errechnet sich für die
optimale Entscheidung, in die neue Anlage zu investieren, ein Erwartungswert von
8000 €. Kann ein solches Risikoverhalten nicht unterstellt werden, muss auf Nutzenwerte ausgewichen werden. Die beste Entscheidung wird dann mit dem beschriebenen Algorithmus über die Maximierung der Nutzenerwartungswerte ermittelt. Allerdings liefert dieser Algorithmus nicht bei jeder Präferenztheorie zulässige Lösungen. Er kann im Rahmen der Erwartungsnutzentheorie eingesetzt werden, doch bei
Präferenztheorien, die das Unabhängigkeitsaxiom nicht erfüllen, kann das roll-back-
Verfahren unzulässige Lösungen errechnen (EISENFÜHR/WEBER 1999, 242 f.). Außerdem wird durch diesen Lösungsalgorithmus nur die optimale Strategie bestimmt,
sodass unmittelbar keine vergleichenden Aussagen über zweit- oder drittbeste Strategien möglich sind. Im Rahmen einer Sensitivitätsanalyse kann es aber durchaus
sinnvoll sein, neben der optimalen Strategie auch schlechtere Strategien zu untersuchen (EISENFÜHR/WEBER 1999, 242).
Entscheidungsbäume haben ferner den Nachteil, dass sie bei komplexen Fragestellungen schnell unübersichtlich werden. RAIFFA (1968, 240 ff.) spricht in diesem Zusammenhang von bushy mess. Diese Probleme können vermieden werden, indem
durch ein gezieltes Zusammenfassen von Alternativen oder ganzen Ästen die Komplexität und damit eine mögliche Unübersichtlichkeit reduziert wird. RAIFFA (1968,
240 ff.) schlägt ergänzend noch die Analyse in der Normalform (Entscheidungsmat-
33
rix) vor und verweist auf die zusätzliche Möglichkeit einer Analyse auf stochastische
Dominanz 1. und 2. Ordnung11.
Im Gegensatz zur Analyse mit einem Entscheidungsbaum wird bei einer Entscheidungsmatrix das Entscheidungsproblem in die Normalform übertragen. Damit ist ein
Vergleich zwischen den Ergebnissen unterschiedlicher Entscheidungsalternativen
leicht möglich und auch Analysen von zweitbesten Lösungen sind unproblematisch.
Für das schon beschriebene Investitionsbeispiel (Tabelle 2.1) ergibt sich folgende
Entscheidungsmatrix:
Tabelle 2.2: Entscheidungsmatrix Investitionsentscheidung: Erwarteter Gewinn
Preise
hoher Preis (p=0.5)
niedriger Preis (p=0.5)
alte Anlage
10000
5000
neue Anlage
17000
-1000
Alternativen
Entscheidungsmatrizen können beliebig erweitert werden, sodass auch Analysen von
komplexen Entscheidungsproblemen mit vielen Entscheidungsalternativen und selbst
mit mehreren Zielen möglich sind (EISENFÜHR/WEBER 1999, 36 f.).
2.4.3
Einflussdiagramme
Einflussdiagramme haben gegenüber Entscheidungsbäumen den Vorteil, dass sie
auch bei komplexen Problemen übersichtlich bleiben (EISENFÜHR/WEBER 1999, 45).
Im Gegensatz zu einem Entscheidungsbaum ist ein Einflussdiagramm nicht streng
hierarchisch aufgebaut. Vielfach werden folgende Elemente unterschieden:
11
Die Analyse auf stochastische Dominanz ist ausführlich in Abschnitt 2.2.3.3 behandelt worden.
34
-
Rechtecke symbolisieren Entscheidungen,
-
Ovale stellen Ereignisse dar
-
und Rauten symbolisieren Ergebnisse (Auszahlungen).
Die einzelnen Objekte werden durch Pfeile zueinander in Beziehung gesetzt. Damit
können sowohl Abhängigkeiten als auch sequenzielle Zusammenhänge abgebildet
werden (CLEMEN 1996, 53 f.). Beispielhaft soll das oben eingeführte Geldanlagebeispiel als Einflussdiagramm dargestellt werden:
Abbildung 2.6: Einflussdiagramm Geldanlage
Bedingungen
Investition
Payoff
Durch das Rechteck werden die Alternativen des Investors, in eine neue Anlage zu
investieren oder mit der alten Anlage weiter zu produzieren, abgebildet. Die guten
bzw. schlechten Preise, die im Rahmen der Investition eintreten können, werden
durch das Oval abgebildet. Die gerichteten Pfeile verdeutlichen, dass sowohl die Entscheidung als auch das Ereignis das Ergebnis (Raute) beeinflussen. Bei den Programmen, mit denen Einflussdiagramme erstellt und berechnet werden können, verbergen sich hinter den einzelnen Elementen (Symbolen) Eingabefelder. Mit diesen
können Entscheidungen formuliert oder Wahrscheinlichkeiten bestimmt werden.
Außerdem sind so Zwischenberechnungen und Berechnung der Ergebnisse möglich.
35
Im Gegensatz zu Entscheidungsbäumen können mit Einflussdiagrammen mehr Beziehungen zwischen Symbolen hergestellt werden. Im Wesentlichen können folgende
Einflussformen unterschieden werden (EISENFÜHR/WEBER 1999, 42 f. und CLEMEN
1996, 53 ff.):
Abbildung 2.7: Einflussformen in Einflussdiagrammen
1.
Sequenzen
a
b
c
d
e
f
g
h
i
j
2.
3.
4.
Abhängigkeiten
5.
6.
k
-
l
Im ersten Fall ist bei der Entscheidung b bekannt, für welche Alternative man
sich bei a entschieden hat.
-
Im zweiten Fall ist das Ereignis, das aus der Ereignismenge c eintritt, bei der
Entscheidung d bekannt.
-
Im dritten Fall hängt die Ausprägung der Zielgröße f von der Alternative ab,
für die man sich bei e entscheidet.
36
Im vierten Fall hängt die Ausprägung der Zielgröße h von dem Ereignis ab,
-
das aus der Ereignismenge g eintritt.
Im fünften Fall hängen die Wahrscheinlichkeiten für das Eintreten der Ereig-
-
nisse aus der Ereignismenge j von der Entscheidung bei i ab.
Im sechsten Fall hängen die Wahrscheinlichkeiten für das Eintreten der Er-
-
eignisse aus der Ereignismenge l von dem Ereignis ab, das aus der Menge der Ereignisse unter k eintritt.
Wenn ein Einflussdiagramm erstellt wird, muss sichergestellt werden, dass keine
Zyklen entstehen, d. h. dass zu keinem Ausgangsknoten zurückgeführt wird, da eine
solche Struktur nicht zu analysieren ist.
Einflussdiagramme bleiben zwar selbst bei komplexen Zusammenhängen gegenüber
den Entscheidungsbäumen übersichtlich, weil sich hinter den Symbolen ganze Mengen verbergen, aber wie aus der Abbildung 2.6 zu ersehen ist, fehlen im Gegensatz
zu Entscheidungsbäumen Detailinformationen. Die einzelnen Entscheidungsalternativen, Ereignisse und Konsequenzen werden von Einflussdiagrammen nicht abgebildet, sondern nur die jeweiligen Mengen (EISENFÜHR/WEBER 1999, 42 ff.).
2.4.4
Entscheidungsnetze
Entscheidungsnetze sind ein auf Strukturwissen basierender Analyseansatz für Entscheidungssituationen unter Risiko und Unsicherheit. Mit diesem Ansatz der auf die
Arbeiten von LESERER (1986 und 1987) zurückgeht, ist neben einer Untersuchung
aus der Sicht eines Entscheiders, wie es bei der Entscheidungsbaumanalyse der Fall
ist, zusätzlich eine eher normative Analyse aus der Sicht eines Beobachters
(z. B.
eines Ökonomen) möglich. Ferner können im Gegensatz zur Analyse mit Entscheidungsbäumen mit der Entscheidungsnetzanalyse simultan mehrere exogene Einflüsse
analysiert werden. Im Rahmen einer vergleichenden Untersuchung konnte gezeigt
werden, dass Entscheidungsnetze zu anderen Ergebnissen als Entscheidungsbäume
führen können (RECKE/LESERER 2001).
37
Gegenüber der Analyse mit Einflussdiagrammen hat die Entscheidungsnetzanalyse
den Vorteil, dass mit ihr die gesamte Detailinformation der Entscheidungssituation
berechnet werden kann. Größere Ähnlichkeiten weist die Entscheidungsnetzanalyse
mit dem in Expertensystemen eingesetzten Ansatz des „probabilistic reasoning“ auf
(vgl. z. B. PEARL (1988), NEAPOLITAN (1990), CASTILLO (1997) oder COWELL
(1999). Stochastizität und Kausalität werden hier ausgehend von bedingten Wahrscheinlichkeiten modelliert.
Ökonomen besitzen auch außerhalb wirtschaftsstatistischer Erhebungen Strukturwissen, etwa über im Verhalten von Wirtschaftssubjekten begründete Kausalzusammenhänge und über die Realisationschancen (Wahrscheinlichkeiten) der dort definierten
ökonomischen Größen. So weiß etwa ein Anbieter, dass bei einem seiner Kunden der
Kauf des Produktes von einem Kredit abhängt. Solches Wissen kann unter Anwendung elementarer wahrscheinlichkeitstheoretischer Hilfsmittel in eine systematische
Form gebracht werden und gibt so Auskunft über ökonomisches Geschehen in Entscheidungssituationen unter Risiko und Unsicherheit.
Diese Entscheidungssituationen können als ein Bündel endlich vieler Entscheidungsalternativen gesehen werden. Sie können jeweils mit bestimmten Chancen, die von
den Dispositionen der Entscheidungsträger und dem jeweiligen Entscheidungsrahmen abhängen, eintreten bzw. gewählt werden. Solche Alternativenbündel sind
i. d. R. kausalverbunden, d. h. die Wahl einer Alternative in einem Entscheidungsproblem beeinflusst, wie oben erläutert, in einem anderen Entscheidungsproblem die
Chancen der Alternativenwahl. Damit ist ein Entscheidungsnetz festgelegt. Es induziert ein Wahrscheinlichkeitsfeld, wenn man die Chancen der Alternativenwahl als
Wahrscheinlichkeiten angibt. Diese sind damit Maßzahlen zur Kennzeichnung von
Entscheidungsalternativen hinsichtlich ihrer Verwirklichungstendenz, d. h., sie quantifizieren die Neigung des Entscheidungsträgers, eine bestimmte Alternative zu wählen. Die Elemente der Grundmenge dieses Wahrscheinlichkeitsfeldes enthalten alle
unter Beachtung der Kausalrestriktionen wählbaren Alternativenkombinationen. Das
Wahrscheinlichkeitsmaß ist das Produkt der bedingten und unbedingten Alternati-
38
venchancen. Je nach Art des Analyseziels lassen sich dann über dieses Wahrscheinlichkeitsfeld Zufallsvariable definieren, die eine gemeinsame Wahrscheinlichkeitsmaßfunktion (WMF) besitzen. Damit ist eine Regression 1. Art13 möglich, bei der
unabhängige zu abhängigen Zufallsvariablen in Beziehung gesetzt werden. Im Gegensatz zu der in der Ökonometrie zur Kausalanalyse sonst eingesetzten gewöhnlichen Regressionsanalyse, sind aber bei der Regression 1. Art keine besonderen
Stichprobenerfordernisse und spezielle Annahmen, wie die Gauß-Markov-Annahmen, zu beachten, da die Regression 1. Art selbst bei singulären Entscheidungsproblemen unter Unsicherheit anwendbar ist.14 Für die Regression 1. Art können Charakteristika (Kenngrößen) der gemeinsamen WMF berechnet werden, die der Analyse
von Entscheidungssituationen unter Risiko und Unsicherheit dienen. So kann etwa
der bedingte Erwartungswert einer Zufallsvariablen auf der Einschränkung einer anderen als mittlere Reaktion einer von einer Ursachenvariablen bewirkten Variablen
gesehen werden, und die Varianz dieser mittleren Reaktion, bezogen auf die Varianz
der Randverteilung der Wirkungsvariablen, kann die Einflussstärke messen
(RECKE/LESERER 1998, 50).
Wie bei Entscheidungsbäumen und Einflussdiagrammen setzt sich ein Entscheidungsnetz aus mehreren verschiedenen Elementen zusammen. Diese sind:
-
Entscheidungsknoten,
-
Alternativen,
-
Wahrscheinlichkeiten und
-
Attribute (Werte der Alternativen).
Die einzelnen Elemente werden auch bei dieser Art der Analyse zueinander in Beziehung gesetzt. Mit Pfeilen werden wie bei Einflussdiagrammen Abhängigkeiten
und Sequenzen verdeutlicht. Hervorzuheben ist noch, dass im Gegensatz zu Einflussdiagrammen und Entscheidungsbäumen in Entscheidungsnetzen einzelne Entscheidungsknoten als unbedingte oder bedingte Zufallsvariable definiert werden
13
Die Regression 1. Art wird ausführlich im folgenden Abschnitt beschrieben. Eine gute Einführung
findet sich z. B. bei FISZ (1963, S. 91 ff.).
14
Ausführlich wird die Begründung für eine Regression 1. Art und der Vergleich zur gewöhnlichen
Regression (Regression 2. Art) in LESERER (1986, S. 97 ff.) beschrieben.
39
können. Dadurch ist eine Regressionsanalyse erster Art möglich, die wiederum die
Grundlage für die Berechnung der Charakteristika zur Vorhersage und Kontrolle ist.
Der Rechenaufwand, der notwendig ist, um die hier vorgestellte Art der Analyse von
Entscheidungssituationen unter Risiko und Unsicherheit durchzuführen, ist bereits
für vergleichsweise einfache Entscheidungsnetze beträchtlich. Mit MAGIC, einem
am Institut für Agrarökonomie in Göttingen entwickelten Programm, ist es möglich,
Entscheidungsnetze einzugeben, sie auf Konsistenz zu prüfen und aufbauend auf der
gemeinsamen WMF entsprechende Wahrscheinlichkeitscharakteristika zu berechnen15. Mit dem Programm können Entscheidungsnetze in eine Normalform übertragen werden, sodass auch komplexe Probleme analysiert werden können. Anhand
eines Beispiels soll im Folgenden verdeutlicht werden, wie eine ökonomische Entscheidungssituation unter Risiko und Unsicherheit in ein Entscheidungsnetz überführt werden kann.
In dem hier gewählten Beispiel wird unterstellt, dass es mehrere Entscheidungsträger
gibt, die jeweils zwischen zwei Alternativen wählen können. Außerdem wird angenommen, dass den einzelnen Alternativen Wahrscheinlichkeiten zugewiesen werden
können. Ferner wird unterstellt, dass die Entscheidungsträger voneinander abhängen
und damit eine kausale Struktur vorliegt. Diese Form von Kausalität kann durch die
Bestimmung von unbedingten und bedingten Zufallsvariablen vorgegeben werden.
Die Struktur des Entscheidungsproblems wird als Entscheidungsnetz in der Abbildung 2.8 dargestellt.
In dieser Abbildung ist eine Kaufsituation mit fünf Entscheidern zu sehen. Dabei
handelt es sich um zwei Nachfrager, einen Anbieter und zwei Kreditgeber. Der erste
Nachfrager (N1) scheint ein Snob zu sein, da er nur dann überlegt zu kaufen, wenn
der lokale Anbieter (A) sein Produkt zu einem hohen Preis (20) anbietet und außerdem der erste Kreditgeber (K1) einen Kredit (1) bereitstellt. Der zweite Nachfrager
(N2) wird dagegen nur dann bereit sein zu kaufen, wenn der Anbieter (A) einen nied-
15
Der Aufbau und die Funktionsweise des Programms sind im Anhang und in RECKE/LESERER (1998,
50 f.) beschrieben.
40
rigen Preis (10) verlangt und der zweite Kreditgeber (K2) ihm einen Kredit (1) gewährt. Angenommen ein Produzent (Beobachter) findet diese Situation vor und
möchte sie eingehend untersuchen, dann ist dies nicht die Sichtweise des involvierten
Entscheiders, sondern vielmehr die eines nicht unmittelbar involvierten Produzenten.
Angenommen dieser möchte von seinem Produkt über den lokalen Anbieter möglichst viel an die Nachfrager verkaufen, und er fragt sich, ob er durch Einflussnahme auf den lokalen Anbieter eine höhere Nachfrage erreichen kann und ob die Situation kontrollierbar ist. Durch die Entscheidungsnetzanalyse kann er Antworten auf
diese Fragen erhalten.
Zu beachten ist, dass sich die fünf Entscheider für den Produzenten stochastisch verhalten, sodass bei der Übertragung in ein Entscheidungsnetz diese als Zufallsvariablen definiert werden müssen.
Abbildung 2.8: Entscheidungsnetz Kaufsituation16
16
Die Werte in Klammern sind die Attribute der einzelnen Alternativen. Darunter befinden sich die
zugehörigen Werte für die Wahrscheinlichkeiten.
41
Die Wahrscheinlichkeiten sind den jeweiligen Alternativen in der Abbildung zugeordnet. Die Entscheidungssituation wird von dem Produzenten wie folgt charakterisiert: K1, A und K2 sind die unbedingten Entscheider, die als unbedingte Zufallsvariablen definiert und mit X1, X2 und X3 (X) im Folgenden bezeichnet werden. N1 und
N2 sind die bedingten Entscheider, die als bedingte Zufallsvariable Y definiert werden. Die einzelnen Handlungsalternativen werden in der folgenden Tabelle beschrieben.
Tabelle 2.3: Beschreibung der Handlungsalternativen
Alternative
A11
A12
A21
A22
A31
A32
A41
A42
A51
A52
Erläuterung
Kreditgeber 1 wird den Kredit mit einer Wahrscheinlichkeit von 0.5
vergeben (unbedingte Entscheidung)
Kreditgeber 1 wird den Kredit mit einer Wahrscheinlichkeit von 0.5
nicht vergeben (unbedingte Entscheidung)
Anbieter A entscheidet sich mit einer Wahrscheinlichkeit von 0.5, das
Produkt für 20 Einheiten zu verkaufen (unbedingte Entscheidung)
Anbieter A entscheidet sich mit einer Wahrscheinlichkeit von 0.5, das
Produkt für 10 Einheiten zu verkaufen (unbedingte Entscheidung)
Kreditgeber 2 wird den Kredit mit einer Wahrscheinlichkeit von 0.5
vergeben (unbedingte Entscheidung)
Kreditgeber 2 wird den Kredit mit einer Wahrscheinlichkeit von 0.5
nicht vergeben (unbedingte Entscheidung)
Wenn sich der Anbieter A auf einen Preis von 20 Einheiten und der
Kreditgeber K1 sich gleichzeitig auf die Kreditvergabe festlegen, kauft
der Nachfrager N1 mit einer 60%igen Wahrscheinlichkeit 10 Einheiten
(bedingte Entscheidung)
Wenn sich der Anbieter A auf einen Preis von 20 Einheiten und der
Kreditgeber K1 sich gleichzeitig auf die Kreditvergabe festlegen, kauft
der Nachfrager N1 mit einer 40%igen Wahrscheinlichkeit 5 Einheiten
(bedingte Entscheidung)
Wenn sich der Anbieter A auf einen Preis von 10 Einheiten und der
Kreditgeber K2 sich gleichzeitig auf die Kreditvergabe festlegen, kauft
der Nachfrager N2 mit einer 20%igen Wahrscheinlichkeit 10 Einheiten
(bedingte Entscheidung)
Wenn sich der Anbieter A auf einen Preis von 10 Einheiten und der
Kreditgeber K2 sich gleichzeitig auf die Kreditvergabe festlegen, kauft
der Nachfrager N2 mit einer 80%igen Wahrscheinlichkeit 5 Einheiten
(bedingte Entscheidung)
42
Für die Analyse des Entscheidungsnetzes sind von allen möglichen Alternativenkombinationen nur die zulässigen zu berücksichtigen. Die zulässigen Alternativenkombinationen werden in Tabelle 2.4 aufgeführt. Eine unzulässige Alternativenkombination ist z. B. (A11, A22, A32 und A51). Diese Kombination ist innerhalb des Entscheidungsproblems kausal nicht zulässig, da der zweite Nachfrager nur bei einem
Kredit von Kreditgeber 2 und einem niedrigen Preis des Anbieters kaufen wird. Dagegen ist die Alternativenkombination (A11, A21, A31 und A41) zulässig, da dann, wie
in der Abbildung 2.8 zu sehen ist, für den Nachfrager 1 beide Bedingungen für einen
Kauf des Produktes erfüllt sind.
Tabelle 2.4:
Zulässige Alternativenkombinationen und ihre wahrscheinlich-
keitstheoretische Auswertung
Spalte 1
K1: X1
A11 - 1 – 0.5
A11 - 1 – 0.5
A11 - 1 – 0.5
A11 - 1 – 0.5
A11 - 1 – 0.5
A11 - 1 – 0.5
A11 - 1 – 0.5
A12 - 0 – 0.5
A12 - 0 – 0.5
A12 - 0 – 0.5
A12 - 0 – 0.5
A12 - 0 – 0.5
Spalte 2
A: X2
A21 - 20 - 0.5
A21 - 20 - 0.5
A21 - 20 - 0.5
A21 - 20 - 0.5
A22 - 10 - 0.5
A22 - 10 - 0.5
A22 - 10 - 0.5
A21 - 20 - 0.5
A21 - 20 - 0.5
A22 - 10 - 0.5
A22 - 10 - 0.5
A22 - 10 - 0.5
Spalte 3
K2: X3
A31 – 1 - 0.5
A31 – 1 - 0.5
A32 – 0 - 0.5
A32 – 0 - 0.5
A31 – 1 - 0.5
A31 – 1 - 0.5
A32 – 0 - 0.5
A31 – 1 - 0.5
A32 – 0 - 0.5
A31 – 1 - 0.5
A31 – 1 - 0.5
A32 – 0 - 0.5
Spalte 4
N1
A41 -10 – 0.6
A42 – 5 – 0.4
A41 -10 – 0.6
A42 – 5 – 0.4
Spalte 5
N2
A51 -10 - 0.2
A52 - 5 - 0.8
A51 - 10 - 0.2
A52 - 5 - 0.8
Spalte 6 Spalte 7
Y
p(Y,X)
10
0.075
5
0.05
10
0.075
5
0.05
10
0.025
5
0.1
0
0.125
0
0.125
0
0.125
10
0.025
5
0.1
0
0.125
A11 - 1 - 0.5: Die Alternative A11, d. h., dass von der ersten Bank ein Darlehen an den
Kunden gegeben wird (1), wird mit einer Wahrscheinlichkeit von 0.5 eingeschätzt.
Y: Anzahl der Produkte.
p(Y,X): Wahrscheinlichkeit, dass bei der gegebenen Alternativenkombination eine
entsprechende Anzahl von Produkten nachgefragt wird.
Für das Entscheidungsnetz kann dann anhand dieser wahrscheinlichkeitstheoretischen Auswertung und mittels der im nächsten Abschnitt vorgestellten Regressions-
43
analyse erster Art eine multivariate Analyse durchgeführt werden. Durch ausgesuchte Charakteristika erhält der Produzent damit eine Entscheidungsunterstützung.
2.5
Charakteristika für Entscheidungsnetze
2.5.1
Einführung
In Abschnitt 2.2 sind neben der Erwartungsnutzentheorie und deren Alternativen
weitere Entscheidungsansätze wie das Erwartungswertkriterium und der Erwartungswert-Varianz-Ansatz eingeführt worden. Auf der Grundlage der Regression
erster Art sollen ausgehend von einer gemeinsamen Wahrscheinlichkeitsmaßfunktion
(WMF) in diesem Abschnitt Charakteristika (Kenngrößen) eingeführt werden, mit
denen einfache und komplexe Entscheidungsnetze analysiert werden können.
2.5.2
2.5.2.1
Zur Ermittlung von Charakteristika in Entscheidungsnetzen17
Wahrscheinlichkeitsmaßfunktionen
Wirtschaftssubjekte müssen häufig unter Unsicherheit entscheiden. Wenn solche
Entscheidungssituationen vorliegen, sind für eine Analyse Zufallsvariablen einzuführen. Zum besseren Verständnis beschränken sich die folgenden Ausführungen auf
zunächst zwei Zufallsvariablen; eine Zufallsvariable X mit den Ausprägungen x1,...,
xr und eine Zufallsvariable Y mit den Ausprägungen y1,..., yn.
Zur Verdeutlichung ein Beispiel:
Ein Marktbeobachter sieht, dass in einem Markt ein Anbieter (A) einem Nachfrager
(N) (Abbildung 2.9) gegenübersteht. Der Anbieter möchte sein Produkt zu einem
hohen Preis (x2) verkaufen. Da er aber unsicher ist, ob er das Produkt zu dem hohen
Preis verkaufen kann, überlegt er, ob er das Produkt nicht besser zu einem niedrigen
Preis (x1) verkaufen sollte. Der Anbieter wird mit einer Wahrscheinlichkeit von
17
Eine ausführlichere Beschreibung der statistischen Grundlagen zur Regressionsrechnung erster Art,
die in diesem Abschnitt eingeführt wird, findet sich bei z. B. FISZ (1963, 91 ff.), GOLDBERG (1964,
163 ff.), HÄRTTER (1987, 78 ff.) und ROHATGI (1984, 279 ff.).
44
p ( x1 ) = 0.5 das Produkt zu einem hohen (7) oder aber mit der Wahrscheinlichkeit
von p ( x 2 ) = 0.5 zu einem niedrigen Preis (5) anbieten. Der Nachfrager wird das Produkt nicht zu einem hohen Preis kaufen (y2) und nur, wenn der Preis niedrig ist, überlegen, ob er das Produkt kaufen soll (y1). Wenn der Anbieter das Produkt zu einem
niedrigen Preis anbietet, wird der Nachfrager mit einer Wahrscheinlichkeit von
p ( y1 ) = 0.5 kaufen und mit einer Wahrscheinlichkeit von p ( y 2 ) = 0.5 nicht kaufen.
Abbildung 2.9: Entscheidungsnetz Anbieter-Nachfrager-Beispiel
Dieses Entscheidungsproblem unter Risiko kann in eine gemeinsame WMF
p( xi , y j ) mit i 1, , r und j 1,, n überführt werden. Diese gibt die Wahrscheinlichkeit an, dass die Zufallsvariable X (der Preis des Anbieters) den Wert xi
(niedriger (5) oder hoher Preis (7)) und die Zufallsvariable Y (Kaufmenge des Nachfragers) den Wert yj (1) oder (0) annimmt mit 0 d p( x i , y j ) d 1 . Die gemeinsame
WMF für den Fall zweier Zufallsvariablen ist in Tabelle 2.5 dargestellt. In dieser
Tabelle werden außerdem noch die Rand-WMF von X und Y ausgewiesen, die ange-
45
ben, wie groß die Wahrscheinlichkeit einer Zufallsvariable ist, einen bestimmten
Wert anzunehmen, gleichgültig, welchen Wert die andere Zufallsvariable annimmt.
Tabelle 2.5: Gemeinsame WMF
unbedingte Zufalls–
bedingte Zufallsvariable Y
variable X
mögliche Realisationen
mögliche Realisationen
y1
Rand-WMF von X
yn
¦ p( x , y
j
)
¦ p( x , y
j
)
j
)
i
j
x1
p( xi , y j )
1
j
xr
¦ p( x , y
r
j
Rand-WMF von Y
¦ p( x , y
i
j
)
i
¦ p( x , y )
i
1
i
¦ p( x , y
i
n
1
)
i
Für das Anbieter-Nachfrager-Beispiel ergibt sich unter der Annahme, dass die möglichen Realisationen der beiden Zufallsvariablen jeweils mit einer Wahrscheinlichkeit von 0.5 eintreten, folgende gemeinsame WMF.
Tabelle 2.6: Gemeinsame WMF für das Anbieter-Nachfrager-Beispiel
unbedingte Zufalls–
gemeinsame Zufallsvariable Y
variable X
mögliche Realisationen
Rand-WMF von X
¦ p( x , y
i
j
mögliche Realisationen
0
1
5
0.25
0.25
0.5
7
0.5
0
0.5
0.75
0.25
1
Rand-WMF von Y
¦ p( x , y
i
j
)
i
46
j
)
Um Entscheidungsprobleme zu analysieren, in denen sich wie in dem gewählten Anbieter-Nachfrager-Beispiel Abhängigkeiten zeigen, d. h. Wirtschaftssubjekte bedingt
entscheiden, wird ausgehend von der gemeinsamen WMF auch die bedingte WMF
ermittelt. Die bedingte WMF weist die Wahrscheinlichkeit aus, dass eine Zufallsvariable Y eine bestimmte Ausprägung yj hat, unter der Bedingung, dass eine Zufallsvariable X eine Ausprägung xi annimmt. Die bedingte WMF wird in Tabelle 2.7 dargestellt.
Tabelle 2.7: Bedingte WMF
unbedingte Zufallsvariable
bedingte Zufallsvariable Y
X
mögliche Realisationen
mögliche Realisationen
y1
x1
p ( y j | xi )
xr
yn
Die bedingten Wahrscheinlichkeiten sind durch folgende Gleichung
p ( xi , y j )
p ( y j | xi )
(2.14)
p( xi ,.)
mit den Randwahrscheinlichkeiten
p ( xi ,.)
¦ p( x , y
i
j
)!0
(2.15)
j
definiert.
Für die Zeilensummen der bedingten Wahrscheinlichkeiten gilt:
47
¦ p( y
j
¦
| xi )
j
j
p( x i , y j )
p( x i ,.)
¦ p( x ,.)
p( x i ,.)
j
(2.16)
1.
i
Für das Anbieter-Nachfrager-Beispiel errechnet sich die folgende bedingte WMF.
Tabelle 2.8: Bedingte WMF für das Anbieter-Nachfrager-Beispiel
2.5.2.2
unbedingte Zufallsvariable
bedingte Zufallsvariable Y
X
mögliche Realisationen
mögliche Realisationen
0
1
5
0.5
0.5
7
1.0
0
Erwartungswerte und Varianzen
Auf der Grundlage der gemeinsamen WMF können in einem ersten Schritt Erwartungswerte und Varianzen als Parameter bestimmt werden, mit denen die Entscheidungsnetze analysiert werden können.
Sei X eine Zufallsvariable, die die Werte x1 , , x r mit den Wahrscheinlichkeiten
p ( x1 ), , p ( x r ) annimmt, dann ist
r
E( X )
¦ x p( x ,.)
i
(2.17)
i
i 1
der Erwartungswert dieser Zufallsvariablen. Entsprechend kann auch für die Zufallsvariable
Y,
die
die
Werte
y1 , , y n
mit
den
Wahrscheinlichkeiten
p ( y n ),, p ( y n ) annimmt, der zugehörige Erwartungswert ermittelt werden:
48
E (Y )
n
¦y
p (., y j ) .
j
(2.18)
j 1
¦ p ( xi , y j )
mit p(., y j )
i
Für das Beispiel errechnen sich folgende Erwartungswerte:
E( X )
6 und E (Y ) 0.25 .
Neben dem Erwartungswert sind noch Maße für die Streuung einzuführen. Dazu
wird die Varianz-Kovarianz-Matrix der Zufallsvariablen, die das gemeinsame Variieren der beiden Zufallsvariablen misst, ermittelt.
Die Varianz-Kovarianz-Matrix von Y und X kann gemäß
ª(Y E (Y )) º
E«
»
¬( X E ( X ))¼
Cov(Y , X )
>Y
ªY º
E« »
¬X ¼
X@
ªY º
E« »
¬X ¼
>(Y E (Y ))
E >Y
X@
( X E ( X ))@
(2.19)
mit den Erwartungswerten wie in (2.18) und (2.19) ermittelt werden. Dabei ist
ªY º
E« »
¬X ¼
>Y
X@
E (YY )
¦ y j y j p(., y j )
(2.21)
¦ xi xi p( xi ,.)
(2.22)
ª YY
E«
¬ XY
YX º
XX »¼
(2.20)
mit
j
E ( XX )
i
E ( XY )
E (YX )
¦¦ xi y j p( xi , y j ) .
i
j
49
(2.23)
Da die Werte der Varianz-Kovarianz-Matrix von den Einheiten abhängen, in denen Y
und X gemessen werden, wird die in Vielfachen der jeweiligen Standardabweichungen gemessene Abweichung von den einzelnen Erwartungswerten verwendet, um
den Effekt der Einheiten zu beseitigen. Man betrachtet also den Korrelationskoeffizient, der wie folgt definiert ist:
G (Y , X )
ª >Y E (Y )@ > X E ( X )@º
˜
E«
»
VX
¬ VY
¼
mit V Y
Var (Y ) und V X
Cov (Y , X )
VY ˜V X
(2.24)
Var ( X ) .
(2.25)
Der Wertebereich dieser Größe ist durch
1 d G (Y , X ) d 1
festgelegt.
In Tabelle 2.9 werden für das Beispiel die Werte für die Varianz-Kovarianz-Matrix
und in Tabelle 2.10 die Korrelationskoeffizienten ausgewiesen.
Tabelle 2.9: Varianz-Kovarianz-Matrix
Y
X
Y
0.1875
-0.2500
X
-0.2500
1
Tabelle 2.10: Korrelationsmatrix
Y
X
Y
1
-0.57735
X
-0.57735
1
50
2.5.2.3
Bedingte Erwartungswerte und bedingte Varianzen
Ein weiterer wichtiger Parameter ist der bedingte Erwartungswert, der die mittlere
Reaktion der bedingten Zufallsvariablen auf Veränderungen der unbedingten Zufallsvariable misst.
Der bedingte Erwartungswert18 ist definiert durch:
E (Y | X )
¦y
j
p ( y j | xi ) .
(2.26)
j
Sind die Variablen Y und X unabhängig, dann entspricht der bedingte Erwartungswert
E (Y | X )
E (Y )
(2.27)
dem Erwartungswert der bedingten Zufallsvariablen.
Für die bedingte Varianz gilt:
Var (Y | X )
¦(y
j
E (Y | X )) 2 p( y j | xi ) .
(2.28)
j
Der Wert für die bedingte Varianz fällt niedrig aus, wenn die Werte der Zufallsvariablen Y in der Nähe des zugehörigen bedingten Erwartungswertes liegen. Dann können aber auch die Werte der Zufallsvariablen Y anhand der Ausprägungen der Zufallsvariablen X umso genauer vorausgesagt werden. In den beiden folgenden Tabellen werden die bedingten Erwartungswerte und die bedingten Varianzen für das Beispiel ausgewiesen.
18
Die Erwartungswertbildung bezieht sich auf die bedingte Variable.
51
Tabelle 2.11: Bedingte Erwartungswerte
X
E(Y|X)
5
0.5
7
0
Tabelle 2.12: Bedingte Varianz
2.5.2.4
X
Var(Y|X)
5
0.25
7
0
Varianzanalyse
Die Varianz von Y kann auf zwei Weisen berechnet werden. Einerseits kann die Varianz der Zufallsvariablen Y als Differenz des Erwartungswertes von Y2 und des
Quadrates des Erwartungswertes von Y berechnet werden:
Var (Y )
E (Y 2 ) ( E (Y )) 2
E (Y 2 )
¦(y
(2.29)
mit
j
) 2 p(., y j )
(2.30)
j
wobei
p (., y j )
¦ p( x , y
i
j
(2.31)
)!0
i
52
und
2
( E (Y ))
2
§
·
¨ ¦ y j p( y j ) ¸ .
¨
¸
© j
¹
(2.32)
Für das Beispiel errechnet sich dann:
Var(Y) = 0.25 - 0.0625 = 0.1875.
Andererseits kann die Varianz ausgehend von der gemeinsamen WMF als Summe
aus dem Erwartungswert der bedingten Varianz und der Varianz des bedingten Erwartungswertes berechnet werden (ROSS 1994, 342):
Var (Y )
E (Var (Y | X )) Var ( E (Y | X )) .
(2.33)
Der Erwartungswert der bedingten Varianz, auch interne Varianz genannt, ist durch
folgende Gleichung definiert:
E (Var (Y | X ))
ª
¦ «¦ ( y
i
¬
j
j
º
E (Y | X )) 2 p ( y j | xi )» p ( xi ,.) .
¼
(2.34)
Die interne Varianz kann auch als die durch X nicht erklärte Varianz interpretiert
werden. Sie steht somit nicht unter dem Einfluss von X (RINNE 1997, 74 ff.).
Die Varianz des bedingten Erwartungswertes, auch externe Varianz genannt (durch X
erklärte Varianz), ist durch folgende Gleichung definiert:
Var ( E (Y | X ))
¦ ( E (Y | X ) E (Y ))
2
p( xi ,.) .
(2.35)
i
Die externe Varianz kann als die Varianz, die durch X erklärt wird, interpretiert werden. Dieser Varianzanteil von Y steht somit unter dem Einfluss von X (RINNE 1997,
74 ff.).
53
Wie im Folgenden gezeigt wird, können die beiden Varianzformeln ineinander überführt werden (LESERER 2001, S. 2 f.).
Var ( E (Y | X ))
E ( E (Y | X ) E ( E (Y | X ))) 2
(2.36)
E (( E (Y | X )) 2 ) ( E (Y )) 2
E (Var (Y | X ))
E ( E (Y E (Y | X )) 2 | X )
(2.37)
E (Y 2 ) E (( E (Y | X )) 2 )
Var ( E (Y | X )) E (Var (Y | X ))
E (( E (Y | X )) 2 ) ( E (Y )) 2 E (Y ) 2 E (( E (Y | X )) 2 )
E (Y 2 ) ( E (Y )) 2
(2.38)
Var (Y ).
Die Werte der internen und externen Varianz sind für das Beispiel in der folgenden
Tabelle aufgeführt.
Tabelle 2.13: Varianzzerlegung
X
E(Var(Y|X))
Var(E(Y|X))
5
0.125
0.03125
7
0
0.03125
Summe
0.125
0.0625
Für das Beispiel errechnet sich:
Var(Y) = 0.125 + 0.0625 = 0.1875.
Dabei sind die grundsätzlichen Unterschiede zu beachten. Im ersten Fall wird die
Varianz von Y unbedingt errechnet, während im zweiten Fall die Varianz von Y bedingt durch die Zufallsvariable X ermittelt wird.
54
Mit dem Wissen, dass die Varianz des bedingten Erwartungswertes den Varianzanteil von Y misst, der durch X erklärt wird, kann folgendes Verhältnis zwischen der
durch die bedingenden Größen erklärte Varianz und der Varianz von Y gebildet werden:
KY | X
Var ( E (Y | X ))
.
Var (Y )
(2.39)
Dieser Quotient hat die folgenden Eigenschaften:
1. 0 d KY | X d 1
2. KY | X
0:
Y ist von X nicht „beeinflusst“,
3. KY | X
1 :
Y ist von X vollständig „beeinflusst“.
Dieser Quotient, der als Bestimmtheitsmaß der Regression erster Art von X auf Y
interpretiert werden kann, misst den Einfluss von X auf Y und erlaubt eine Kontrolle
zwischen Ursache (im vorliegenden Beispiel der Handlung des Anbieters des Produktes) und Wirkung (der Handlung des Nachfragers).
Für das Beispiel berechnet sich ein KY | X von 0.3333. Das ist ein Hinweis auf eine nur
schwache Möglichkeit zur Kontrolle, da der nicht kontrollierbare interne Varianzanteil doppelt so hoch ist wie der kontrollierbare externe Varianzanteil.
2.5.2.5
Multivariate Analysen
Da in dieser Arbeit auch multivariate Fragestellungen untersucht werden, werden die
gemeinsame und bedingte WMFen auch für den Fall einer bedingten und mehrerer
unbedingter Zufallsvariablen in multivariater Form beschrieben. Diese Form wird,
weil sie bisher in der Literatur nicht beschrieben ist, im Folgenden ausführlich behandelt. Dazu wird zunächst gezeigt, wie über bivariate gemeinsame WMFen, über
Vektorisierung oder mittels einer Dummyvariablen Z die gemeinsame multivariate
WMF bestimmt werden kann.
55
1.
Über bivariate gemeinsame WMFen zur multivariaten gemeinsamen
WMF
Im vorigen Abschnitt wurde gezeigt, wie im bivariaten Fall mit zwei Zufallsvariablen die gemeinsame WMF ermittelt werden kann. Durch bivariate Analyse kann auch
eine gemeinsame multivariate WMF bestimmt werden. An einem Beispiel mit drei
Zufallsvariablen soll diese Vorgehensweise gezeigt werden. Zwei Zufallsvariablen
seien dabei unbedingt (X1 und X2) und eine Zufallsvariable bedingt (Y). Ferner wird
unterstellt, dass eine der unbedingten Zufallsvariablen zwei Ausprägungen (1 und 0)
hat. Wie im bivariaten Fall wird eine unbedingte Zufallsvariable in Beziehung zu
einer bedingten gesetzt. Außerdem wird unterstellt, dass die andere unbedingte Zufallsvariable den Wert 1 oder 0 annimmt. So kann eine multivariate gemeinsame
WMF mit einer multivariaten Rand-WMF aus zwei bivariaten gemeinsamen WMFen
gebildet werden, die jeweils eine univariate Rand-WMF aufweisen.
Tabelle 2.14: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 0
Zufallsvariable X1
Zufallsvariable Y
mögliche Realisationen
mögliche Realisationen
y1
x11
p x1i , X 2
x1r
px , X 2
0, y j
p x, X 2
0 , y1 n
56
p x11 , X 2
0, x
p x1r , X 2
0 ,Y
0,x
yn
p X1 , X 2
px , X 2
0 , yn
0,x
Tabelle 2.15: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 1
Zufallsvariable X1
Zufallsvariable Y
mögliche Realisationen
mögliche Realisationen
y1
x11
p x1i , X 2
x1r
px , X 2
1, y j
px , X 2
1, y1
p x11 , X 2
1, x
p x1r , X 2
1,Y
1, x
yn
p X1 , X 2
px , X 2
1, x
1, yn
Wenn die beiden Tabellen zusammengeführt werden, so erhält man die multivariate
gemeinsame WMF. Die multivariate bedingte WMF errechnet sich, indem der Quotient aus gemeinsamer Wahrscheinlichkeit und zugehöriger Randwahrscheinlichkeit
gebildet wird.
Sollte X2 mehr als zwei Ausprägungen aufweisen, müssen zusätzliche bivariate gemeinsame WMFen berechnet und zusammengefasst werden. Liegen weitere unbedingte Zufallsvariablen vor, können nach dem oben beschriebenen Verfahren die
erforderlichen bivariaten gemeinsamen WMF ermittelt und zu einer multivariaten
gemeinsamen WMF zusammengefasst werden.
2.
Multivariate gemeinsame WMF durch Vektorisierung
Wie im ersten Punkt gezeigt wurde, kann die multivariate gemeinsame WMF in bivariate gemeinsame WMFen aufgeteilt werden. Diese können als Blöcke in eine Diagonalmatrix mit einzelnen bivariaten WMFen übertragen werden. Für das im ersten
Punkt beschriebene Beispiel ergibt sich damit eine multivariate gemeinsame WMF
mit zwei Blöcken.
57
Tabelle 2.16: Multivariate gemeinsame WMF in Diagonalform
Zufallsvariable
Zufallsvariable Y
Zufallsvariable Y
X1, X2=0,1
mögliche Realisationen
mögliche Realisationen
y1
y1
mögliche Rea-
yn
p X1 X 2 x
yn
lisationen
x11
p x11 , X 2
p x1i , X 2
x1r
0, y j
x11
0
p x1i , X 2
x1r
pxx y
0
1, y j
0 , y1
px , X 2
0 , yn
px , X 2
1, y1
p x1r , X 2
0,x
p x11 , X 2
1, x
p x1r , X 2
px , X 2
px , X 2
1, yn
Auch bei dieser Form können viele Ausprägungen der einzelnen Zufallsvariablen
und weitere Zufallsvariablen dargestellt werden und aus der gemeinsamen WMF die
multivariate bedingte WMF berechnet werden, in dem wieder der Quotient aus gemeinsamer Wahrscheinlichkeit und zugehöriger Randwahrscheinlichkeit gebildet
wird.
3.
Multivariate gemeinsame WMF mit einer Zählvariable
Außerdem kann die multivariate gemeinsame WMF mit einer Zählvariablen Z gebildet werden. Die Realisationskombinationen von X werden einer Zählvariablen zugeordnet. Für die Zählvariable werden die gemeinsamen Wahrscheinlichkeiten zusammen mit den Realisationen der bedingten Zufallsvariablen Y ausgewiesen. In der
Tabelle 2.17 werden außerdem noch die Rand-WMF von Y und Z ausgewiesen.
58
0,x
1
1, x
Tabelle 2.17: Multivariate gemeinsame WMF mit der Variable Z
Z
Vektor der unbedingten
bedingte Zufallsvariable Y
p(Z,.)*
Zufallsvariablen X
mögliche Realisationen
mögliche RealisationsKombinationen
X1
Xm
z1
x11 xm1
zl
x1l
xm l
zp
x1 p
y1
yn
p ( z1 , ˜)
p( z l , y j ) xmp
p ( z p , ˜)
p(., y j )
Rand-WMF von Y
*
1
Rand-WMF einer Dummy-Variablen mit
X1 Z
­ z1
°
°
°z
°° l
®
°
°
°
°z p
¯°
Xm
x11 xml
, falls
x11 xml
x1 p xmp
Diese Form wird im Folgenden für die weiteren Berechnungen gewählt. Durch
p( Z , Y )
p( Z ,.)
p(Y | Z ) kann die multivariate bedingte WMF berechnet werden, wobei Z
die eben eingeführte Variable ist.
59
Die bedingten Wahrscheinlichkeiten werden in Tabelle 2.18 ausgewiesen. Diese
weist die Wahrscheinlichkeit aus, dass eine Zufallsvariable Y eine bestimmte Ausprägung hat unter der Bedingung, dass X bestimmte Wertekombinationen annimmt.
Tabelle 2.18: Multivariate bedingte WMF
Vektor der unbedingten
bedingte Zufallsvariable Y
Zufallsvariablen X
mögliche Realisations-
mögliche Realisationen
Kombinationen
X1
Xm
x1l
xml
y1
yn
p( y j | z l ) Ausgehend von der multivariaten gemeinsamen WMF können die entsprechenden
Kenngrößen für den multivariaten Fall abgeleitet werden. Im Folgenden wird in Anlehnung an die Schreibweise der allgemeinen Regressionsrechnung vielfach der Vektor X statt der Zählvariable Z verwendet.
Die Erwartungswerte können wie im bivariaten Fall berechnet werden. Die multivariate Varianz-Kovarianz-Matrix von Y und X, mit X
über:
60
> X 1 , , X m @
berechnet sich
Cov (Y , X)
ª (Y E (Y )) º
« ( X E ( X )) »
1
»
E« 1
«
»
«
»
¬( X m E ( X m ))¼
>(Y E(Y ) )
( X 1 E ( X 1 )) ( X m E(X m ))@
(2.40)
ª
E (Y E (Y )) 2
E (Y E (Y ))( X 1 E ( X 1 ))
«
E ( X 1 E ( X 1 )) 2
« E (Y E (Y ))( X 1 E ( X 1 ))
«
«
«¬ E (Y E (Y ))( X m E ( X m )) E ( X 1 E ( X 1 ))( X m E ( X m ))
E (Y E (Y ))( X m E ( X m )) º
»
E ( X 1 E ( X 1 ))( X m E ( X m ))»
»
»
2
E ( X m E ( X m ))
»¼
Hieraus kann entsprechend dem bivariaten Fall die Korrelationsmatrix ermittelt werden.
Ein weiterer wichtiger Parameter ist der bedingte Erwartungswert, der die mittlere
Reaktion des Vektors der unbedingten Zufallsvariablen X auf die bedingte Zufallsvariable Y misst:
E (Y | X)
¦y
j
p(Y | X) .
(2.41)
j
Der Wert für die bedingte Varianz
Var (Y | X)
¦( y
j
E (Y | X)) 2 p (Y | X)
(2.42)
j
wird wie im bivariaten Fall niedrig ausfallen, wenn die Werte der Zufallsvariablen Y
in der Nähe des zugehörigen bedingten Erwartungswertes liegen. Dann können aber
auch die Werte der Zufallsvariablen Y anhand der Ausprägungen des Zufallsvektors
X umso genauer vorausgesagt werden.
61
Die Varianz19 von Y kann wie im bivariaten Fall als Summe aus dem Erwartungswert der bedingten Varianz und der Varianz des bedingten Erwartungswertes berechnet werden:
Var (Y )
E (Var (Y | X)) Var ( E (Y | X)) .
(2.43)
Der Erwartungswert der bedingten Varianz, auch Streuung um die mittlere Reaktion
genannt, ist durch folgende Gleichung definiert:
E (Var (Y | X))
E (Y ) 2 E (( E (Y | X)) 2 ) .
(2.44)
Dieser kann auch im multivariaten Fall als der durch X nicht erklärte Varianzanteil
interpretiert werden und steht somit nicht unter dem Einfluss von X.
Die Varianz des bedingten Erwartungswertes kann auch als Streuung der mittleren
Reaktion beschrieben werden. Diese Streuung der mittleren Reaktion (durch X erklärte Varianz) ist durch folgende Gleichung definiert:
Var ( E (Y | X))
E (( E (Y | X)) 2 ) ( E (Y )) 2 .
(2.45)
Dieser Varianzanteil von Y steht unter dem Einfluss von X. Er kann für weitere Kontrollanalysen wichtige Hinweise liefern.
Auch hier kann man zeigen, dass sich die beiden Varianzformeln, wie im bivariaten
Fall ineinander überführen lassen.
Da die Varianz des bedingten Erwartungswertes den Varianzanteil von Y misst, der
durch X erklärt wird, kann ein Verhältnis zwischen der durch die bedingenden Größen erklärte Varianz und der Varianz von Y gebildet werden.
19
Die zweite Varianzformel wird hier nicht mehr für den multivariaten Fall beschrieben, da sie sich
nicht von dem bivariaten Fall unterscheidet.
62
KY |X
Var ( E (Y | X))
Var (Y )
(2.46)
Das Bestimmtheitsmaß kann als erklärbarer Streuungsanteil im Rahmen einer Regression erster Art interpretiert werden.
Die multivariate gemeinsame WMF weist für das Beispiel aus Abschnitt 2.4.4 die
Wahrscheinlichkeit aus, mit der die Zufallsvariablen X1, X2 und X3 sowie die Zufallsvariable Y bestimmte Wertekombinationen annehmen. Jede zulässige Alternativenkombination kann mit einer bestimmten Wahrscheinlichkeit eintreten. Der Wert
errechnet sich, indem das Produkt der entsprechenden bedingten und unbedingten
Einzelwahrscheinlichkeiten gebildet wird. Beispielsweise errechnet sich für die zulässige Alternativenkombination (A11, A21, A31 und A41), die Wahrscheinlichkeit von
0.075 (vgl. Tabelle 2.4). Die multivariate gemeinsame WMF ist in Tabelle 2.19 dargestellt. In dieser Tabelle werden außerdem noch die Rand-WMFen von Z und Y
ausgewiesen, die angeben, wie groß die Wahrscheinlichkeit einer Zufallsvariablen
ist, einen bestimmten Wert anzunehmen, gleichgültig welchen Wert die andere Zufallsvariable annimmt.
63
Tabelle 2.19: Multivariate gemeinsame WMF
Z
1
2
3
4
5
6
7
8
*
N0
Vektor der unbedingten
Zufallsvariablen X
mögliche RealisationsKombinationen
bedingte Zufallsvariable Y
N0
p(Z,.)
mögliche Realisationen
N2
N1
*
0
10
5
p(Y,X)
10
5
X1
X2
X3
1
0
1
0
1
0
1
0
20
20
10
10
20
20
10
10
1
1
1
1
0
0
0
0
0
0.125
0
0
0
0.125
0.125
0.125
0
0
0.025
0.025
0
0
0
0
0
0
0.100
0.100
0
0
0
0
0.075
0
0
0
0.075
0
0
0
0.050
0
0
0
0.050
0
0
0
0.125
0.125
0.125
0.125
0.125
0.125
0.125
0.125
Rand-WMF von Y
0.500
0.050
0.200
0.150
0.100
1
™ ( N1 › N 2 )
X1 X 2 X 3
Z
1
­1
°
°
°3 , falls 1
°°
®
°
°
°
0
°8
°¯
20
1
10
1
10
0
Für das in Abschnitt 2.4.4 eingeführte Beispiel mit den gewählten Ausgangswahrscheinlichkeiten ergibt sich folgende Tabelle der Ergebnisse.
64
Tabelle 2.20: Multivariate bedingte WMF und ausgewählte Parameter
Z
Vektor der unbedingten bedingte Zufallsvariable Y E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X))
Zufallsvariablen X
mögliche Realisationsmögliche Realisationen
Kombinationen
N0*
N2
N1
0
1
2
3
4
5
6
7
8
X1
X2
X3
1
0
1
0
1
0
1
0
20
20
10
10
20
20
10
10
1
1
1
1
0
0
0
0
10
5
10
5
p(Y|X)
0
1
0
0
0
1
1
1
0
0 0.6 0.4
0
0
0
0
0.2 0.8 0
0
0.2 0.8 0
0
0
0 0.6 0.4
0
0
0
0
0
0
0
0
0
0
0
0
Summe
*
N0
KY | X
8
0
6
6
8
0
0
0
6
0
4
4
6
0
0
0
0.75000
0.00000
0.50000
0.50000
0.75000
0.00000
0.00000
0.00000
2.53125
1.53125
0.78125
0.78125
2.53125
1.53125
1.53125
1.53125
0.16598
0.10041
0.05123
0.05123
0.16598
0.10041
0.10041
0.10041
2.50000
12.75000
0.83607
™ ( N1 › N 2 )
Die Ergebnisse der Kaufsituation können zusammenfassend wie folgt interpretiert
werden: Die höchsten bedingten Erwartungswerte für die Nachfrage errechnen sich,
wenn der erste Kreditgeber einen Kredit geben und der Anbieter einen hohen Preis
verlangen würde. Etwas niedrigere bedingte Erwartungswerte (6) weisen die Realisationskombinationen auf, wenn der zweite Kreditgeber einen Kredit geben und der
Anbieter einen niedrigen Preis nehmen würde. Allerdings weisen in diesem Beispiel
die Realisationskombinationen mit den hohen bedingten Erwartungswerten auch
große bedingte Varianzen (6) aus. Die Varianzanalyse ergibt, dass über 83% der Gesamtvarianz von Y extern durch X erklärbar sind, wobei sich für die erste und die
fünfte Realisationskombination mit 16.6% die höchsten Anteile an der Gesamtvarianz errechnen, somit der Wert für das partielle Bestimmtheitsmaß am höchsten ist.
Der Produzent, der eine hohe bedingte Nachfrage anstrebt und die hohe bedingte
Varianz vernachlässigt, sollte zwischen den Realisationskombinationen 1 und 5 wählen. Da aber die Einflussnahme auf den zweiten Kreditgeber die Ergebnisse nicht
verbessert, sollte der Produzent die Realisationskombination 5 wählen, d. h. er sollte
dem ersten Kreditgeber empfehlen, einen Kredit zu vergeben, und den Anbieter überzeugen, einen hohen Preis zu nehmen. Der Vergleich mit dem schon in Abschnitt
65
2.4.4 vorgestellten Ansatz des „probabilistic reasoning“ zeigt aber auch gewisse Unterschiede. Während der Entscheidungsnetzansatz auf Alternativen und das Aufstellen einer gemeinsamen WMF basiert, werden bei dem anderen Ansatz ausgehend
von Variablen sogenannte „conditional probability tables“ berechnet und als Ausgangspunkt weiterer Analysen verwendet. Die bei der Entscheidungsnetzanalyse
entwickelte Varianzanalyse scheint außerdem bislang noch nicht in dem Ansatz des
„probalistic reasoning“ eingeführt worden zu sein.
66
3
Entscheidungsnetzanalyse
In Kapitel 2 ist ergänzend zu den schon vorhandenen Ansätzen, um Entscheidungen
unter Risiko und Unsicherheit zu analysieren, neu die Entscheidungsnetzanalyse eingeführt worden. Für diesen Ansatz konnte in Abschnitt 2.5 eine Reihe zum Teil neuer Charakteristika (Kenngrößen) hergeleitet werden. In diesem Kapitel sollen Sensitivitätsanalysen für Entscheidungsnetze durchgeführt und die Möglichkeiten der
Entscheidungsnetzanalyse im Rahmen der Spieltheorie behandelt werden. In einem
ersten Schritt werden Sensitivitätsanalysen auf verschiedenen Stufen durchgeführt,
um zu untersuchen, wie ausgewählte Kenngrößen auf Variationen bzgl. der Struktur,
der Attribute oder der Wahrscheinlichkeiten reagieren. Anschließend werden spieltheoretische Fragen mit Entscheidungsnetzen analysiert, um herauszufinden, ob damit neue Erkenntnisse zu erwarten sind.
3.1
Sensitivitätsanalysen
3.1.1 Einführung
In diesem Kapitel werden Entscheidungsnetze anhand von Sensitivitätsanalysen untersucht. Dazu werden in einem ersten Schritt in Abschnitt 3.1.2 unterschiedliche
Strukturen miteinander verglichen. Im folgenden Abschnitt wird untersucht, wie sich
Veränderungen bei den Werten einzelner Attribute auf die Kenngrößen auswirken.
Dabei wird von einer festen Struktur ausgegangen, um den isolierten Effekt der Änderung eines Attributs aufzeigen zu können. In Abschnitt 3.1.4 werden schließlich
Veränderungen bei Wahrscheinlichkeiten analysiert, wobei von einer gegebenen
Struktur und festen Werten für die Attribute ausgegangen wird.
3.1.2 Veränderungen in der Struktur
Zunächst werden vier Entscheidungsnetze, in denen einfache Entscheidungssituationen unter Unsicherheit abgebildet werden, miteinander verglichen. Diese Entscheidungsnetze, die in den folgenden vier Abbildungen dargestellt werden, unterscheiden
sich in ihren Kausalstrukturen. Um eine bessere Vergleichbarkeit herzustellen, werden die Wahrscheinlichkeiten auf 0.5 gesetzt und auch die Werte der Attribute nicht
67
verändert. Die einfachste Struktur weist die Abbildung 3.1 auf, die etwas modifiziert
schon in Abschnitt 2.5.2.1 eingeführt wurde.
Abbildung 3.1: Entscheidungsnetz Kaufsituation 1
Das erste Entscheidungsnetz (Abbildung 3.1) zeigt beispielhaft die Kausalstruktur
einer Entscheidungssituation unter Risiko und Unsicherheit, bei der z. B. ein Autohändler (A) sein Produkt (z. B. ein Auto) einem Nachfrager (N) mit einer Wahrscheinlichkeit von 0.5 zu einem niedrigen Preis (1) anbieten wird. Mit einer Wahrscheinlichkeit von 0.5 wird er das Produkt an den Nachfrager zu einem hohen Preis
(2) anbieten. Der Nachfrager wird, wenn ihm das Produkt angeboten wird, mit einer
Wahrscheinlichkeit von 0.5 kaufen (1) und sonst verzichten (0). Wenn der Autohändler (Anbieter) sein Produkt zu einem hohen Preis (2) anbieten wird, findet er in diesem Beispiel keinen Nachfrager. Dieses einfache Entscheidungsnetz wird mit drei
weiteren Entscheidungsnetzen, in denen komplexere Situationen abgebildet werden,
verglichen. Die komplexeren Entscheidungsnetze werden in den folgenden drei Abbildungen dargestellt.
68
Abbildung 3.2: Entscheidungsnetz Kaufsituation 2
Das zweite Entscheidungsnetz (Abbildung 3.2) unterscheidet sich von dem Ersten
durch den zweiten Einflussfaktor (K), der auf die Entscheidung am dritten Knoten
(N) zusätzlich einwirkt. Es liegt hier somit eine zweifaktorielle Entscheidungssituation unter Risiko und Unsicherheit vor. Der Nachfrager (N) ist nur dann mit einer
Wahrscheinlichkeit von 0.5 bereit zu kaufen (1), wenn sich der Anbieter (A) für (1)
und der Kreditgeber (K) für (1) entscheiden, der Anbieter somit dem Nachfrager sein
Produkt zu einem niedrigen Preis anbietet und der Kreditgeber zusätzlich dem Nachfrager einen Kredit gibt. Ohne Kredit und/oder Angebot wird der Nachfrager das
Produkt nicht kaufen können.
69
Abbildung 3.3: Entscheidungsnetz Kaufsituation 3
Das dritte Entscheidungsnetz ist durch einen bedingenden (Anbieter) und zwei bedingte Knoten (Nachfrager) charakterisiert. Die zwei Nachfrager (N1 und N2) werden
das Produkt mit einer Wahrscheinlichkeit von jeweils 0.5 kaufen wollen (1), wenn
der Anbieter (A) ihnen sein Produkt anbietet. Es kann allerdings immer nur ein
Nachfrager kaufen, da der Anbieter sein Produkt nicht auf beide Nachfrager aufteilen
kann. Bei einem billigen Angebot (1) wird in diesem Beispiel der erste Nachfrager
N1 kaufen können, während bei einem hohen Angebot (2) der zweite Nachfrager N2
eher kaufen wird.
70
Abbildung 3.4: Entscheidungsnetz Kaufsituation 4
Das vierte Entscheidungsnetz (Abbildung 3.4) ist leicht modifiziert schon in Abschnitt 2.4.4 vorgestellt worden. Es unterscheidet sich von dem Zweiten (Abbildung
3.2) dadurch, dass ein weiterer Einflussfaktor (zweiter Kreditgeber (K2)) und ein
weiterer bedingter Knoten (zweiter Nachfrager (N2)) hinzukommen. Die Nachfrager
werden wie bei dem zweiten Entscheidungsnetz nur dann kaufen, wenn sie jeweils
die Kredite erhalten und der Anbieter wird sein Produkt entweder günstig dem ersten
Nachfrager oder teurer dem zweiten Nachfrager anbieten. Es ist aber auch bei dieser
Entscheidungssituation nicht möglich, dass beide Nachfrager gleichzeitig kaufen, da
der Anbieter nur einen Nachfrager beliefern kann. Ferner wird es ohne Kredite keine
Nachfrage geben.
In den folgenden vier Tabellen sind die Ergebnisse der Berechnungen zu den jeweiligen Entscheidungsnetzen mit den bedingten Wahrscheinlichkeiten und den wichtigsten Parametern zusammengestellt.
71
Tabelle 3.1: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 1
Z
unbedingte
bedingte Zufallsvariable E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X))
Zufallsvariable
Y
X
mögliche Realisationen
mögliche Reali™N
N
sationen
A
1
2
1
2
0
0
1
0
1
p(Y|X)
0.5
0
0.5
0
0.5
0
0.25
0
Summe
0.125
0
0.125
0.03125
0.03125
0.06250
KY | X
0.1667
0.1667
0.3334
In Tabelle 3.1 zeigt sich, dass der bedingte Erwartungswert am höchsten ist, wenn
der Autohändler sein Produkt dem Nachfrager mit einer Wahrscheinlichkeit von 0.5
anbietet (1). Die bedingte Varianz und der partielle Erwartungswert der bedingten
Varianz sind dann ebenfalls am höchsten. Die Varianz des partiellen bedingten Erwartungswertes ist für beide Realisationen des Autohändlers gleich, sodass auch das
partielle Bestimmtheitsmaß ( KY | X ) die gleichen Werte hat. Damit führt das Anbieten
des Produktes zum besten Ergebnis im Sinne einer Vorhersage wie auch einer Kontrolle (RECKE/LESERER 1998, 52 und Abschnitt 2.5.2.4).
Tabelle 3.2: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 2
Z
E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X))
Vektor der
bedingte
unbedingten
Zufallsvariable Y
Zufallsvariablen mögliche Realisationen
X
mögliche
RealisationsKombinationen
™N
N
0
1
2
3
4
A
1
2
1
2
Summe
K
1
1
0
0
0
1
1
1
0
p(Y|X)
0.5
0
0
0
KY | X
1
0.5
0
0
0
0.5
0
0
0
72
0.25
0
0
0
0.0625
0
0
0
0.0625
0.0352
0.0039
0.0039
0.0039
0.0469
0.3214
0.0357
0.0357
0.0357
0.4285
Beim zweiten Entscheidungsnetz wird der Nachfrager nur dann kaufen, wenn sowohl
der Anbieter sein Produkt zu einem niedrigen Preis verkauft als auch der Kreditgeber
einen Kredit vergibt. Bei dieser Kombination (1,1) sind, wie Tabelle 3.2 zeigt, der
bedingte Erwartungswert, die bedingte Varianz, der partielle Erwartungswert der
bedingten Varianz und auch die partielle Varianz des bedingten Erwartungswertes
und damit auch das partielle Bestimmtheitsmaß am höchsten. Für die anderen Kombinationen werden jeweils niedrigere Werte ausgewiesen.
Tabelle 3.3: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 3
Z
unbedingte
bedingte Zufallsvariable E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X))
Zufallsvariable
Y
X
mögliche Realisationen
mögliche
Realisationen
N1
N2
0
A
2
1
1
2
0
0.5
1
0
p(Y|X)
0
0.5
0.5
0
KY | X
1
0.5
0
0.5
0.5
Summe
0.25
0.25
0.125
0.125
0.250
0
0
0
0
0
0
Die Ergebnisse der Tabelle 3.3 weisen eine besondere Situation aus, in der es nicht
möglich ist, anhand der Kenngrößen zwischen den beiden Realisationen von A zu
wählen. Die Werte für alle Kenngrößen sind gleich. Außerdem errechnet sich für die
Varianz des bedingten Erwartungswertes ein Wert von 0, sodass auch für das Bestimmtheitsmaß eine 0 ausgewiesen wird. Es handelt sich damit um eine Situation,
die nicht kontrollierbar ist, da die gesamte Varianz von Y (der Nachfrage) aus der
internen Varianz, dem Erwartungswert der bedingten Varianz, kommt.
73
Tabelle 3.4: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 4
Z
1
2
3
4
5
6
7
8
Vektor der
bedingte Zufallsvariable Y
unbedingten
mögliche Realisationen
Zufallsvariablen X
mögliche
N1
N2
Realisations- ™N › N
1
2
Kombinationen
0
0
1
0
1
K1 A
1
1
0
1
1
2
0
1
1
1
0
2
1
2
0
2
Summe
K2
1
1
1
0
0
0
0
1
0
1
0
1
1
1
0
1
p(Y|X)
0,5 0,5
0.5 0.5
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0.5
0
0
0
0.5
0
0
0
0.5
0
0
0
0.5
0
E(Y|X) Var(Y|X)
0.5
0.5
0.5
0
0
0
0.5
0
0.25
0.25
0.25
0
0
0
0.25
0
E(Var(Y|X)) Var(E(Y|X))
0.0313
0.0313
0.0313
0
0
0
0.0313
0
0.1252
0.0078
0.0078
0.0078
0.0078
0.0078
0.0078
0.0078
0.0078
0.0624
KY | X
0.0417
0.0417
0.0417
0.0417
0.0417
0.0417
0.0417
0.0417
0.3336
Die Kaufsituation 4 schließlich ist in Abbildung 3.4 dargestellt. Aus den Ergebnissen
der zugehörigen Tabelle 3.4 kann man entnehmen, dass die bedingten Erwartungswerte entweder 0.5 oder 0 betragen. Die entsprechenden bedingten Varianzen nehmen einen Wert von 0.25 bzw. 0 an und die partiellen Erwartungswerte der bedingten Varianz sind 0.0313 bzw. 0. Die partiellen Varianzen der bedingten Erwartungswerte betragen 0.0078, sodass sich für jede Realisationskombination ein partielles
Bestimmtheitsmaß von 4.2% errechnet. Wenn eine effiziente Kontrolle, also eine
gezielte Einflussnahme, gewünscht ist, um ein bestimmtes Ergebnis zu erzielen,
reicht es aus, einen Kreditgeber zur Kreditvergabe und den Anbieter zum Verkauf an
den entsprechenden Nachfrager zu bewegen. Die Realisationskombination (1,1,1)
mit der Einflussnahme auf alle drei Faktoren verspricht keinen höheren bedingten
Erwartungswert und weist, wie die Tabelle 3.4 zeigt, keinen höheren Wert für das
partielles Bestimmtheitsmaß aus als die Realisationskombinationen (0,1,1), (1,2,1)
oder (1,2,0).
74
3.1.3 Veränderungen in den Attributen
In diesem Abschnitt wird gezeigt, wie sich Veränderungen bei den Werten für die
Attribute auf die Ergebnisse der Kenngrößen auswirken. Dazu werden beispielhaft
die Ergebnisse für das dritte und vierte Entscheidungsnetz aus Abschnitt 3.1.2 analysiert.
80
0,4
60
0,3
40
0,2
20
0,1
0
R^2
E(Y), Var(Y)
Abbildung 3.5: Kaufsituation 3, Fall 1 (N2 bei A21 = 1)
0
1
4
7
10
13
16
19
Attribut
E(Y)
Var(Y)
R^2
Abbildung 3.5 zeigt, dass mit steigendem Wert für das Attribut der Alternative A31
von N1 der zugehörige Erwartungswert und die Varianz von Y (der Nachfrage) ansteigen. Die Kurve für das Bestimmtheitsmaß ( KY | X ) wächst asymptotisch und erreicht bei 20 einen Wert über 0.3.
75
0,3
0,25
0,2
0,15
0,1
0,05
0
E(Y), Var(Y)
80
60
40
20
0
1
4
7
10
13
16
KR^2
Y|X
Abbildung 3.6: Kaufsituation 3, Fall 2 (N2 bei A21 = 10)
19
Attribut
E(Y)
Var(Y)
KR^2
Y|X
Wenn dagegen der Wert des Attributs bei der Nachfrage des zweiten Nachfragers
(A21) auf 10 gesetzt wird und der Wert des Attributs der Alternative A31 bei N1 von 1
auf 20 ansteigt, weist die Varianz von Y ein Minimum auf. Außerdem ergeben sich
im Vergleich zu Abbildung 3.5 deutliche Unterschiede beim Bestimmtheitsmaß
( KY | X ). Aus Abbildung 3.6 wird deutlich, dass der Wert für die Kontrollierbarkeit mit
steigendem Wert für das Attribut bis auf null fällt, um dann wieder anzusteigen. Das
Minimum des Bestimmtheitsmaßes liegt bei N1 = N2 = 10. Das Bestimmtheitsmaß
(externe Varianz) ist dann null und somit eine Einflussnahme über den Anbieter
(Kontrolle) nicht möglich.
50
0,5
40
0,4
30
0,3
20
0,2
10
0,1
0
0
1
4
7
10
13
16
Attribut
E(Y)
Var(Y)
76
KR^2
Y|X
19
KR^2
Y|X
E(Y), Var(Y)
Abbildung 3.7: Kaufsituation 4, Fall 1 (N2 bei A41 = 1)
In Abbildung 3.7 sind die Ergebnisse der Kenngrößen für das vierte Entscheidungsnetz dargestellt. Wenn zwei weitere bedingende Größen hinzugenommen werden,
verändern sich die Ergebnisse im Vergleich zu Abbildung 3.5. Mit wachsendem
Wert für das Attribut bei A51 des ersten Nachfragers steigen der Erwartungswert und
die Varianz langsamer. Dagegen nimmt die Kontrollierbarkeit mit steigendem Wert
für das Attribut bei A51 zu und liegt bei 20 über 0,4.
60
50
40
30
20
10
0
0,5
0,4
0,3
0,2
KR^2
Y|X
E(Y), Var(Y)
Abbildung 3.8: Kaufsituation 4, Fall 2 (N2 bei A41 = 10)
0,1
0
1
4
7
10
13
16
19
Attribut
E(Y)
Var(Y)
KR^2
Y|X
Abbildung 3.8 zeigt die Ergebnisse der Berechnungen, wenn im Entscheidungsnetz
der Kaufsituation 4 das Attribut (A41) des zweiten Nachfragers von 1 auf 10 gesetzt
wird und die Werte des Attributs beim ersten Nachfrager (A51) sukzessiv von 1 auf
20 erhöht werden. Die Ergebnisse weichen von den Ergebnissen aus Abbildung 3.7
ab. Die Erwartungswerte und die Varianz von Y sind größer. Das Bestimmtheitsmaß
dagegen weist ein Minimum bei 10 aus und steigt dann schwach an.
Schon bei diesen eher einfachen Beispielen zeigt sich, dass es kaum möglich ist, die
Ergebnisse der Entscheidungsnetze in Bezug auf die Kenngrößen vorherzubestimmen. Daher sind Sensitivitätsanalysen notwendig, um das Reaktionsverhalten von
Entscheidungsnetzen zu untersuchen.
77
3.1.4 Veränderungen in den Wahrscheinlichkeiten
In diesem Abschnitt wird gezeigt, wie sich ändernde Wahrscheinlichkeiten auf die
Ergebnisse der Entscheidungsnetzanalyse auswirken. Die Sensitivitätsanalysen für
den Erwartungswert, die Varianz und das Bestimmtheitsmaß ( KY | X ) werden auch hier
auf der Grundlage des dritten und vierten Entscheidungsnetzes aus Abschnitt 3.1.2
durchgeführt.
Bei dem dritten Entscheidungsnetz (Kaufsituation 3) werden die Wahrscheinlichkeiten für die Alternative A11 (p) und die Wahrscheinlichkeit für die Alternative A31 (r)
von 0.05 auf 0.95 erhöht und die entsprechenden Gegenwahrscheinlichkeiten (1-p)
und (1-r) entsprechend vermindert. Alle Werte für die Attribute und auch die Wahrscheinlichkeiten für den zweiten Nachfrager bleiben unverändert. Für das vierte Entscheidungsnetz (Kaufsituation 4) werden entsprechend die Wahrscheinlichkeiten für
die Alternative A22 (p) und für die Alternative A51 (r) von 0.05 auf 0.95 erhöht. Die
Werte der Attribute und der Wahrscheinlichkeiten für die beiden Kreditgeber und
den zweiten Nachfrager werden nicht geändert.
Abbildung 3.9: E(Y) der Kaufsituation 3
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,95
0,8
0,65
0,5
0,35
0,2
r
0,05
0,1
78
p
0,95
0,85
0,75
0,65
0,55
0,45
0,35
0,25
0,15
0,05
0
E(Y)
Es zeigt sich, dass die Erwartungswerte von Y sowohl von den Wahrscheinlichkeiten
der Nachfrage (r) als auch von den Wahrscheinlichkeiten des Anbieters (p) abhängen. Bei niedrigem p und gleichzeitig zunehmendem Wert für r steigt der Erwartungswert geringfügig. Wächst der Wert für p, wird die Spannweite größer.
Abbildung 3.10: Var(Y) der Kaufsituation 3
0,25
0,2
0,15
Var(Y)
0,1
0,05
0,95
0,85
0,75
0,65
0,55
0,45
0,35
0,25
0,15
0
0,05
0,95
0,8
0,65
0,5
0,35
0,2
0,05
r
p
Aus Abbildung 3.10 wird deutlich, dass auch die Varianz von Y von p und r abhängt.
Die abgebildete Fläche ist symmetrisch und nichtlinear. Das Maximum der Varianz
liegt immer bei r = 0.5, und auch hier zeigt sich, dass die Spannweite mit steigendem
p wächst.
79
Abbildung 3.11: KY | X der Kaufsituation 3
0,3
0,25
0,2
KR^2
Y|X
0,15
0,1
0,2
0,35
r
0,5
0,65
0,8
0,95
0
0,05
0,15
0,25
0,35
0,45
0,55
0,65
0,75
0,85
0,95
0,05
p
Die Abbildung 3.11 zeigt die Ergebnisse der Sensitivitätsanalyse in Bezug auf das
Bestimmtheitsmaß. Die abgebildete Fläche ist ebenfalls nichtlinear. Das Bestimmtheitsmaß ist 0, wenn r den Wert 0.5 annimmt. Die gesamte Varianz ist dann intern,
d.h. das Ergebnis der Kaufsituation ist über den Anbieter nicht zu kontrollieren. Die
höchsten Werte für das Bestimmtheitsmaß ( KY | X ) ergeben sich, wenn p den Wert 0.5
annimmt und r nahe 0 bzw. 1 liegt.
Zusammenfassend lässt sich festhalten, dass bei hohen Werten für p und r der Erwartungswert vergleichsweise hoch ist, aber die Varianz und das Bestimmtheitsmaß
niedrig ausfallen.
In den Abbildungen 3.12 bis 3.14 werden die Ergebnisse der Sensitivitätsanalysen
für die Kaufsituation 4 dargestellt. In der Abbildung 3.12 ist der Erwartungswert in
Abhängigkeit von den Wahrscheinlichkeiten p und r dargestellt. Wie in Abbildung
3.9 zu sehen ist, ist die Spannweite der Erwartungswerte bei niedrigen p-Werten
niedriger als bei hohen Werten.
80
Abbildung 3.12: E(Y) der Kaufsituation 4
0,5
0,45
0,4
0,35
0,3
0,25
E(Y)
0,2
0,15
0,1
0,95
0,8
0,65
0,5
0,35
r
0,2
0,05
0,05
0,95
0,85
0,75
0,65
0,55
0,45
0,35
0,25
0,15
0,05
0
p
Unterschiede zeigen sich dagegen bei den Varianzen von Y. Die Fläche in Abbildung 3.13 mit der Kaufsituation 4 ist im Vergleich zur Abbildung 3.10 zwar ebenfalls nichtlinear, aber nicht symmetrisch. Wenn p und r den Wert 0.95 haben, ist die
Varianz am höchsten. Der niedrigste Wert liegt bei p = 0.95 und r = 0.05.
81
Abbildung 3.13: Var(Y) der Kaufsituation 4
0,25
0,2
0,15
Var(Y)
0,1
0,95
0,8
0,65
0,5
0,35
r
0,2
0,05
0,05
0,95
0,85
0,75
0,65
0,55
0,45
0,35
0,25
0,15
0,05
0
p
Abbildung 3.14: KY | X der Kaufsituation 4
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
82
0,15
0,25
0,35
0,55
0,65
0,75
0,45
r
0,85
0
0,05
0,15
0,25
0,35
0,45
0,55
0,65
0,75
0,85
0,95
0,1
0,95
KR^2
Y|X
p
In Abbildung 3.14 sind die Werte für das Bestimmtheitsmaß der Kaufsituation 4 dargestellt. Die abgebildete Fläche zeigt eine nichtlineare Struktur, die sich von der in
Abbildung 3.11 unterscheidet. Die beste Einflussnahme (Kontrolle) ist gegeben,
wenn p und r hohe Werte aufweisen.
Wenn man die Ergebnisse der beiden Kaufsituationen vergleicht, zeigt sich, dass sich
die Abbildungen für die Erwartungswerte ähneln und mit hohem p und r die höchsten
Erwartungswerte vorliegen, Die jeweiligen Abbildungen für die Varianz und das
Bestimmtheitsmaß ( KY | X ) der Kaufsituationen unterscheiden sich. Während in der
Kaufsituation 3 bei hohen Wahrscheinlichkeiten die Varianz niedrig ausfällt, ist sie
in der Kaufsituation 4 am höchsten. Außerdem ist die Kaufsituation 4 bei dieser
Wertekombination besser zu kontrollieren, d. h. für das Bestimmtheitsmaß werden
hohe Werte ausgewiesen.
Zusammenfassend kann man festhalten, dass die Ergebnisse der Entscheidungsnetzanalysen von der Struktur der Netze sowie von den Werten für die Attribute und den
Wahrscheinlichkeiten abhängen. Die Ergebnisse dieses Abschnitts zeigen exemplarisch, dass bei unvollständiger Information über die Entscheidungssituation (Struktur, Werte der Attribute und Wahrscheinlichkeiten) es zu Fehlinterpretationen kommen kann. Daher sollten, wenn aufgrund fehlender Information die Struktur der Netze mit seinen Entscheidern und/oder Werten für die Attribute und Wahrscheinlichkeiten nicht eindeutig bestimmt werden können, Vergleichsrechnungen und umfassende Sensitivitätsanalysen durchgeführt werden.
3.2
Entscheidungsnetze und Spieltheorie
3.2.1 Einführung
In diesem Abschnitt werden einige ausgewählte Spiele aus der Spieltheorie, d. h.
strategische Entscheidungssituationen, mit Entscheidungsnetzen analysiert. In Abschnitt 3.2.2 werden zunächst die dafür notwendigen Grundlagen der Spieltheorie
eingeführt. Im letzten Abschnitt wird beschrieben, wie ein Spiel in Entscheidungsnetze umgewandelt und analysiert werden kann. Außerdem werden einige Kenngrö-
83
ßen aus dem Entscheidungsnetzansatz zur Analyse von einfachen und multiplen
Nash-Gleichgewichten eingesetzt, um die Frage zu untersuchen, ob mit den Kenngrößen zwischen mehreren Nash-Gleichgewichten differenziert werden kann.
3.2.2 Grundlagen der Spieltheorie
In der Erwartungsnutzentheorie, die in Abschnitt 2.2.2 eingeführt wurde, wird vielfach angenommen, dass die Wirtschaftssubjekte nicht miteinander interagieren (spielen). Im Gegensatz dazu geht die Spieltheorie, die auf JOHN VON NEUMANN und OSKAR
MORGENSTERN (1944) zurückgeht, davon aus, dass ein Spieler nicht nur allein,
sondern auch gemeinsam mit einem oder mehreren bewusst handelnden Gegen- oder
Mitspielern spielen kann, sich also strategisch entscheidet. Die Konsequenzen der
Aktionen eines Spielers sind dann sowohl von seinen als auch von den Aktionen der
Gegen- oder Mitspieler abhängig – und umgekehrt. Zu den wichtigsten Aufgaben der
Spieltheorie gehören eine sich ergebende Fragestellung als Spiel zu formulieren und
eine Lösung für eben dieses Spiel zu suchen.
Im Rahmen der Spieltheorie gibt es viele Möglichkeiten, Spiele zu klassifizieren. Zu
der wichtigsten ist die Unterscheidung nach den Spielformen zu zählen: Einerseits
kann ein Spiel in der extensiven Form, bei der das Spiel durch einen Spielbaum abgebildet wird, und andererseits in der strategischen Form, durch die die Ergebnisse
eines Spiels in Matrixform dargestellt werden, formuliert werden.
Es kann aber auch nach dem Informationsstand oder nach den Strategien der Spieler
klassifiziert werden. In dieser Arbeit wird unterstellt, dass die Spieler vollständige
Information besitzen. Damit wird impliziert, dass die Spielregeln und das jeweilige
rationale Verhalten der Spieler gemeinsames Wissen sind. Ferner werden neben reinen auch gemischte Strategien untersucht. Von reinen Strategien spricht man, wenn
ein Spieler genau eine von allen zulässigen Strategien auswählt. Bei gemischten Strategien bestimmt im Gegensatz zu reinen Strategien ein Zufallsprozess die Wahl der
(reinen) Strategien.
84
Außerdem kann zwischen simultanen und sequenziellen Spielen unterschieden werden. Beim simultanen Spiel entscheiden die Spieler gleichzeitig, während beim sequenziellen Spiel die einzelnen Spieler in einer bestimmten Reihenfolge entscheiden.
In diesem Abschnitt werden ausschließlich simultane Spiele untersucht.
Schließlich kann man noch zwischen kooperativen und nicht-kooperativen Spielen
klassifizieren. Die Analyse wird in dieser Arbeit auf die nicht-kooperativen Spiele
beschränkt, die dadurch charakterisiert sind, dass die Spieler keine bindenden Verträge miteinander abschließen können.
Mit der Entscheidungsnetzanalyse wird exemplarisch das Zwei-Personen-Spiel
„Angsthase“ untersucht. Das Spiel geht auf eine Mutprobe unter kalifornischen Teenagern in den 30er-Jahren zurück, wobei zwei Jungen mit ihren Autos auf einen Abgrund zufahren und derjenige, der den Wagen als Erster verlässt (a bzw. D), als
Angsthase bezeichnet wird; derjenige dagegen, der am längsten im Wagen bleibt (b
bzw. E) der Held ist (WEISE et al. 1993, 89). Die Strategien und Auszahlungen finden
sich in Tabelle 3.5.
Tabelle 3.5: Angsthase (Variante 1)
Spieler B
Spieler A
D
E
a
3;3
2;6
b
6;2
0;0
Wenn man, nachdem das Spiel formuliert ist, nach der Lösung der strategischen Entscheidungssituation sucht, wird in der Spieltheorie als wichtigstes Lösungskonzept
das Nash-Gleichgewicht genannt. Als Nash-Gleichgewicht wird eine Strategiekombination angesehen, bei der kein Spieler einen Anreiz hat, als Einziger seine Wahl zu
ändern. Es liegen wechselseitig beste Antworten vor.
85
Um Nash-Gleichgewichte in reinen Strategien hervorzuheben, sind in den Matrizen
für Spieler A die spaltenweise und für Spieler B die zeilenweise höchsten Werte unterstrichen. Das Angsthase-Spiel besitzt demnach zwei Nash-Gleichgewichte in reinen Strategien. Außerdem liegt noch ein Nash-Gleichgewicht in gemischten Strategien20 vor, wenn beide Spieler mit 40 Prozent Wahrscheinlichkeit (a bzw. D) wählen.
Dann erhalten beide Spieler eine erwartete Auszahlung von 2.4. Schon bei diesem
einfachen Spiel kann es demnach zu multiplen Nash-Gleichgewichten kommen.
Dann stellt sich aber die Frage, ob zwischen mehreren Nash-Gleichgewichten differenziert werden kann. Zur Lösung dieses Problems hat es Versuche gegeben, durch
Verfeinerungen des Nash-Gleichgewichtskonzeptes einzelne Gleichgewichte als unplausibel auszuschließen, um so zwischen multiplen Gleichgewichten zu differenzieren (HOLLER/ILLING 2000, S. 73 f.).
In dieser Arbeit wird ein neuer Weg gewählt, um zwischen mehreren Gleichgewichten zu differenzieren. Dazu wird exemplarisch das Spiel „Angsthase“ als Entscheidungsnetz formuliert und dann mittels ausgewählter Kenngrößen der Entscheidungsnetze näher untersucht.
Nash-Gleichgewichte und die verfeinerten Nash-Gleichgewichte sind zwar plausibel,
nicht jedoch die einzigen vernünftigen Lösungskonzepte. Eine Aufstellung und Diskussion weiterer Lösungskonzepte, insbesondere für die nicht-kooperative Spieltheorie, finden sich z. B. bei HOLLER/ILLING (2000) und BRANDENBURGER (1992).
3.2.3 Entscheidungsnetze und Nash-Gleichgewichte
Entscheidungsnetze können zur Analyse von Spielen eingesetzt werden, wie im Folgenden gezeigt wird.
Ausgangspunkt ist ein Spiel mit Nash-Gleichgewichten in reinen und gemischten
Strategien, in dem die Spieler zwischen jeweils zwei Alternativen wählen können. Es
wird ein simultanes Spiel unterstellt und angenommen, dass die Spieler vollständige
20
Die Formeln zur Berechnung der Nash-Gleichgewichte in gemischten Strategien finden sich z. B.
bei RIECK (1993, 56 ff.).
86
Information besitzen. In mehreren Schritten können, ausgehend von der Formulierung des Spiels über die Übertragung in ein Entscheidungsnetz und die Berechnung
der gemeinsamen WMF, schließlich die Kenngrößen für das Spiel ermittelt werden.
1.
Das oben eingeführte Zwei-Personen-Spiel kann in der strategischen Form
durch folgende Matrix beschrieben werden21:
Tabelle 3.6: Zwei-Personen-Spiel in strategischer Form
Spieler B
Spieler A
2.
D
E
a
1;2
3;4
b
5;6
7;8
Diese Tabelle kann in einem zweiten Schritt auseinander gezogen werden.
Dieser Schritt ist notwendig, weil sonst die Berechnung als Entscheidungsnetz nicht möglich ist. Einerseits wird das Spiel ausgehend von Spieler A gesehen (Abbildung 3.15). Dieser kann in dem in Tabelle 3.6 veranschaulichten
Spiel zwischen zwei Alternativen (a mit Wahrscheinlichkeit w und b mit der
Wahrscheinlichkeit 1-w) auswählen. Dadurch ergeben sich für den anderen
Spieler (B), der jeweils zwischen zwei Alternativen (D mit der Wahrscheinlichkeit p und E mit der Wahrscheinlichkeit 1-p) wählen kann, die entsprechenden Auszahlungen (Payoffs). Für die Analyse werden gemischte Strategien zugelassen.
21
Zur besseren Veranschaulichung werden die Auszahlungen gegenüber Tabelle 3.5 verändert, damit
keine gleichen Werte vorliegen und keine Verwechslung möglich ist.
87
Abbildung 3.15: Entscheidungsnetz ausgehend von Spieler A
Zufallsvariable
X
Spieler A
Wahrscheinlichkeit
Zufallsvariable
a
b
w
1-w
Y
Y
D
E
Attribut, Payoffs
2
Wahrscheinlichkeit
p
Spieler B
D
E
4
6
8
1-p
p
1-p
Gleichzeitig ist das Spiel auch ausgehend von Spieler B zu sehen (Abbildung
3.16). Spieler B entscheidet mit einer gemischten Strategie zwischen seinen
beiden Alternativen und dadurch bedingt kann Spieler A jeweils zwischen a
und b mit einer gemischten Strategie entscheiden.
Abbildung 3.16: Entscheidungsnetz ausgehend von Spieler B
Zufallsvariable
X
Spieler B
Wahrscheinlichkeit
Zufallsvariable
E
w
1-w
Y
Y
a
b
Attribute, Payoffs
1
Wahrscheinlichkeit
p
3.
D
Spieler A
a
b
5
3
7
1-p
p
1-p
Durch die Zerlegung des Spiels in zwei Entscheidungsnetze können mit dem
Programm MAGIC zwei gemeinsame WMF ermittelt werden.
4.
Schließlich können, wie schon in Abschnitt 2.5 beschrieben, aus den gemeinsamen WMF über die bedingten WMF auch die verschiedenen Kenngrößen
88
wie Erwartungswerte, bedingte Erwartungswerte, die Varianz-KovarianzMatrix, bedingte Varianz und die beiden Summanden der Varianzformel, der
Erwartungswert der bedingten Varianz und die Varianz des bedingten Erwartungswertes berechnet werden.
Anhand des Spiels „Angsthase“ (Tabelle 3.5), das schon ausführlich in Abschnitt
3.2.2 beschrieben wurde, soll die Frage der Differenzierbarkeit zwischen NashGleichgewichten untersucht werden. Außerdem soll ein leicht abgewandeltes asymmetrisches Angsthase-Spiel (Tabelle 3.7) analysiert werden. In beiden Spielen gibt es
zwei Nash-Gleichgewichte in reinen Strategien bei (a, E) bzw. (b, D) und jeweils ein
Nash-Gleichgewicht in gemischten Strategien. In der Variante 1 gibt es ein NashGleichgewicht in gemischten Strategien, wenn Spieler A mit einer Wahrscheinlichkeit von 0.4 a spielt und Spieler B mit einer Wahrscheinlichkeit von 0.4 D spielt.
Dann errechnen sich erwartete Payoffs von (2.4; 2.4). In der Variante 2 findet sich
das Nash-Gleichgewicht in gemischten Strategien, wenn A mit einer Wahrscheinlichkeit von 0.667 a wählt und B mit einer Wahrscheinlichkeit von 0.105 D wählt.
Hier ergeben sich erwartete Payoffs von (2.105; 2.667).
Tabelle 3.7: Angsthase (Variante 2)
Spieler B
Spieler A
D
E
a
3;3
2;4
b
20 ; 2
0;0
Diese Spiele können als Entscheidungsnetze abgebildet werden. In beiden Spielen
kann die Spielsituation ausgehend von Spieler A oder von Spieler B untersucht werden. Das erste Spiel als Entscheidungsnetz beschrieben, lässt (ausgehend von Spieler
A) diesen zwischen a und b und Spieler B zwischen D und E wählen. In Abbildung
3.17 wird diese Situation verdeutlicht, und die entsprechenden Payoffs für B werden
ausgewiesen.
89
Abbildung 3.17: Entscheidungsnetz ausgehend von Spieler A, Variante 1
Zufallsvariable
X
Spieler A
Wahrscheinlichkeit
Zufallsvariable
Attribut, Payoffs
Wahrscheinlichkeit
a
b
0.5
0.5
w
1-w
Y
Y
D
E
3
Spieler B
D
E
6
2
0
0.5
0.5
0.5
0.5
p
1-p
p
1-p
Das Spiel kann außerdem von B ausgehend als Entscheidungsnetz (Abbildung 3.18)
analysiert werden. Spieler B kann zwischen D und E wählen. Für Spieler A ergeben
sich in Abhängigkeit von seiner Entscheidung für a oder b die in Abbildung 3.18
dargestellten Payoffs.
Abbildung 3.18: Entscheidungsnetz ausgehend von Spieler B, Variante 1
Zufallsvariable
X
Spieler B
Wahrscheinlichkeit
Zufallsvariable
Attribut, Payoffs
Wahrscheinlichkeit
D
E
0.5
0.5
p
1-p
Y
Y
a
b
3
Spieler A
a
b
6
2
0
0.5
0.5
0.5
0.5
p
1-w
w
1-w
Für das asymmetrische Spiel in Tabelle 3.7 können wie beim symmetrischen Spiel
die Entscheidungsnetze abgeleitet werden. In Abbildung 3.19 und 3.20 sind die Entscheidungsnetze dargestellt. Im ersten Entscheidungsnetz kann sich Spieler A zwi-
90
schen a und b entscheiden und für Spieler B ergeben sich die in Abbildung 3.19 festgehaltenen Payoffs.
Abbildung 3.19: Entscheidungsnetz ausgehend von Spieler A, Variante 2
Zufallsvariable
X
Spieler A
Wahrscheinlichkeit
a
b
0.5
0.5
w
Zufallsvariable
1-w
Y
D
E
3
Spieler B
D
E
4
2
0
0.5
0.5
0.5
0.5
p
1-p
p
1-p
Attribut, Payoffs
Wahrscheinlichkeit
Y
Das gleiche Spiel ist ausgehend von Spieler B als Entscheidungsnetz in Abbildung
3.20 festgehalten. Spieler B kann zwischen D und E wählen und für Spieler A ergeben sich in Abhängigkeit von seiner Wahl zwischen a oder b die in Abbildung 3.20
dargestellten Payoffs.
Abbildung 3.20: Entscheidungsnetz ausgehend von Spieler B, Variante 2
Zufallsvariable
X
Spieler B
Wahrscheinlichkeit
Zufallsvariable
Attribut, Payoffs
Wahrscheinlichkeit
D
E
0.5
0.5
p
1-p
Y
Y
a
b
3
Spieler A
a
b
20
2
0
0.5
0.5
0.5
0.5
w
1-w
w
1-w
91
Da bei den einzelnen Spielen (Tabelle 3.5 bzw. Tabelle 3.7) die beiden Entscheidungsnetze z. B. über verknüpfen von einzelnen Zellen in einem Tabellenkalkulationsprogramms jeweils miteinander verbunden werden können, kann das jeweilige
Spiel durch verbundene Entscheidungsnetze beschrieben werden. Dadurch ist zusätzlich zur Ermittlung von Nash-Gleichgewichten und der entsprechenden Reaktionsfunktionen eine weitergehende Analyse möglich, die in der Variante der verbundenen Entscheidungsnetze auch die Varianzaspekte der Spiele berücksichtigen kann.
Der Schwerpunkt der Varianzanalyse in diesem Abschnitt soll auf der Frage liegen,
ob sich eine Kontrolle in dem Spiel zeigt, und ob es ferner möglich ist, zwischen
Nash-Gleichgewichten zu differenzieren. Dieses würde die Analyse von Spielen mit
gemischten Nash-Gleichgewichten entscheidend erweitern. Aber auch im Fall der
reinen Strategien könnte diese Analyse im Rahmen einer Grenzwertbetrachtung helfen, wenn eine hohe Wahrscheinlichkeit (Propensität) für eine Alternative festzustellen ist. Entscheidungsnetze könnten dann sowohl zur Analyse von gemischten als
auch fast reinen Nash-Gleichgewichten eingesetzt werden. Als fast reine NashGleichgewichte werden hier gemischte Strategien bezeichnet, wenn die Wahrscheinlichkeiten gegen 0 bzw. 1 gehen.
Wenn ein Beobachter (z. B. der Staat) über den Spieler A eine Möglichkeit besitzt,
auf das Spiel Einfluss zu nehmen, kann als Kenngröße zur Kontrolle das Bestimmtheitsmaß der Regression erster Art ( KY | X ) eingesetzt werden, das in Abschnitt 2.5
eingeführt wurde. In Abhängigkeit von den Wahrscheinlichkeiten w und 1-w, mit
denen Spieler A a oder b spielt, bzw. p und 1-p, mit denen Spieler B D oder E spielt,
wird das Bestimmtheitsmaß ermittelt (Abbildung 3.21). Es zeigt sich, dass unabhängig davon, mit welcher Wahrscheinlichkeit p Spieler B D spielt, das Bestimmtheitsmaß jeweils bei w = 0.4 den höchsten Wert hat.
Wenn der Staat nicht mehr die Kontrolle über den Spieler A ausüben kann, sondern
stattdessen eher über den Spieler B (Abbildung 3.22), dann wird unabhängig davon,
mit welcher Wahrscheinlichkeit w Spieler A a spielt, das Bestimmtheitsmaß für den
Spieler B immer bei p = 0.4 sein Maximum haben. Ferner zeigen sich in den folgenden beiden Abbildungen jeweils ein Sattelpunkt, der entweder bei w = 0.4 und
92
p = 0.86 (Abbildung 3.21) oder ausgehend von dem anderen Spieler entsprechend bei
p = 0.4 und w = 0.86 (Abbildung 3.22) liegt.
Abbildung 3.21: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 1
1
0,9
0,8
0,7
0,6
KY|X
R2
0,5
0,4
0,3
0,2
0,1
0,01
0,11
0,21
0,31
0,41
0,51
0,61
0,71
0,81
0,91
0,97
0,81
0,89
0,65
0,73
0,49
p
0,57
0,33
0,41
0,17
0,25
0,01
0,09
0
w
Abbildung 3.22: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 1
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,01
0,23
0,34
0,45
0,56
0,67
0,78
0,89
0,89
0,97
0,73
93
0,81
0,57
0,65
0,41
0,25
0,33
0,09
0,49
w
0,17
0
0,12
0,1
0,01
KY|X
R
2
p
In den folgenden beiden Tabellen sind in Klammern unter den Payoffs für die reinen
Strategien zusätzlich die Bestimmtheitsmaße für die fast reinen Nash-Gleichgewichte
ausgewiesen, wenn p und w Wahrscheinlichkeiten von 0.01 bzw. 0.99 annehmen.
Tabelle 3.8: Angsthase (Variante 1) mit Payoff und Bestimmtheitsmaß ( KY | X )
Spieler B
Spieler A
D
E
(p)
(1-p)
a
3;3
2;6
(w)
(0.110 ; 0.110)
(0.214 ; 0.798)
b
6;2
0;0
(0.798 ; 0.214)
(0.897 ; 0.897)
(1-w)
Tabelle 3.9: Angsthase (Variante 2) mit Payoff und Bestimmtheitsmaß ( KY | X )
Spieler B
Spieler A
D
E
(p)
(1-p)
a
3;3
2;4
(w)
(0.005 ; 0.507)
(0.171 ; 0.939)
b
20 ; 2
0;0
(0.578 ; 0.211)
(0.983 ; 0.799)
(1-w)
Der Wert für das Bestimmtheitsmaß bei w = 0.99 und p = 0.99 für Spieler A unter
der Kontrolle von Spieler B ist in dem symmetrischen Spiel 0.110. In einem symmetrischen Spiel ist die kontrollierbare Varianz wechselseitig gleich hoch, wie in der
Abbildung 3.21 und Abbildung 3.22 zu erkennen ist. Daraus ist zu folgern, dass bzgl.
der fast reinen Nash-Gleichgewichte nicht zu differenzieren ist. Allerdings kann man
zwischen dem gemischten und den fast reinen Nash-Gleichgewichten mit der Kennzahl Bestimmtheitsmaß differenzieren. Das gemischte Nash-Gleichgewicht mit p =
0.4 und w = 0.4 weist jeweils ein Bestimmtheitsmaß von 0.727 aus. Die fast reinen
94
Nash-Gleichgewichte weisen teilweise ein höheres Bestimmtheitsmaß auf. Es hängt
somit von der Kontrollsituation ab, wie zu entscheiden ist. Wenn diese nicht eindeutig ist, sollte das gemischte Nash-Gleichgewicht angestrebt werden. Wenn die Kontrollsituation eindeutig ist, kann das höchste Bestimmtheitsmaß ermittelt werden und
damit die optimale Kontrolle bestimmt werden.
Im Folgenden soll die Analyse auf die asymmetrische Situation gelenkt werden. In
den Abbildungen 3.23 und 3.24 sind die Bestimmtheitsmaße in Abhängigkeit von p
und w für die asymmetrische Spielsituation abgebildet. Das Spiel selber ist durch
asymmetrische Auszahlungen charakterisiert (Tabelle 3.7).
Die jeweilige Kontrollsituation ist in den folgenden beiden Abbildungen zu sehen.
Die Schaubilder unterscheiden sich sowohl untereinander als auch im Vergleich zu
den beiden Abbildungen der symmetrischen Analyse.
Abbildung 3.23: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 2
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
95
0,1
0,19
0,28
0,37
0,46
0,55
0,64
0,73
0,82
0,91
0,92
0,99
0,78
0,85
0,64
0,71
0,5
0,57
0,43
0,29
0,36
0,15
p
0,22
0,01
0
0,01
0,1
0,08
2
R
w
Abbildung 3.24: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 2
1
0,9
0,8
0,7
0,6
2
R
0,5
0,4
0,3
0,2
0,01
0,21
0,31
0,41
0,51
0,61
0,71
0,81
0,91
0,97
0,81
0,89
0,65
0,73
0,49
0,57
0,33
0,41
0,17
0,25
0,01
w
0,09
0
0,11
0,1
p
In Abhängigkeit von den Wahrscheinlichkeiten w und 1-w, mit denen Spieler A a
oder b spielt, und p und 1-p, mit denen Spieler B Doder E spielt, ist in der Abbildung
3.23 das Bestimmtheitsmaß ausgewiesen. Es zeigt sich, dass unabhängig davon, wie
der Spieler B sein p setzt, für den Spieler A die Kontrolle jeweils bei w = 0.667 den
höchsten Wert aufweist. Wenn der Staat nicht mehr über Spieler A kontrolliert, sondern stattdessen über den Spieler B (Abbildung 3.24), dann wird unabhängig davon,
mit welcher Wahrscheinlichkeit w der Spieler A a spielt, das Bestimmtheitsmaß für
den Spieler B immer bei p = 0.105 das Maximum haben. Auch bei diesem Spiel zeigt
sich für das Bestimmtheitsmaß wieder jeweils ein Sattelpunkt, der entweder bei w =
0.667 und p = 0.800 oder ausgehend von dem anderen Spieler entsprechend bei p =
0.105 und w = 0.952 liegt. Somit ist die Kontrollsituation nicht mehr wechselseitig
symmetrisch.
Für die fast reinen Nash-Gleichgewichte sind die Werte für das Bestimmtheitsmaß in
Tabelle 3.9 aufgeführt. Der Wert für das Bestimmtheitsmaß bei w = 0.99 und p =
0.01 für Spieler A unter der Kontrolle von Spieler B ist in dem asymmetrischen Spiel
mit 0.171 niedrig, was auf eine geringe Kontrolle hinweist. In diesem asymmetri-
96
schen Spiel ist die kontrollierbare Varianz nicht mehr wechselseitig gleich hoch, wie
in den Abbildungen 3.23 und 3.24 zu erkennen ist. Auch hier kann man zwischen
den fast reinen Nash-Gleichgewichten nicht differenzieren. Allerdings kann man
zwischen den gemischten und den fast reinen Nash-Gleichgewichten mit der Kennzahl Bestimmtheitsmaß unterscheiden.
Das gemischte Nash-Gleichgewicht mit p = 0.105 und w = 0.667 weist ein Bestimmtheitsmaß von (0.401; 0.941) aus. Die fast reinen Nash-Gleichgewichte weisen
teilweise ein höheres Bestimmtheitsmaß auf. Es hängt letztlich wieder von der Kontrolle ab, wie zu entscheiden ist. Wenn diese nicht eindeutig ist, sollte wieder das
gemischte Nash-Gleichgewicht angestrebt werden. Ist dagegen eindeutig, welcher
Spieler vom Staat kontrolliert wird, kann wiederum das höchste Bestimmtheitsmaß
ermittelt und damit die optimale Kontrolle bestimmt werden.
In der herkömmlichen Analyse von Spielen werden die Nash-Gleichgewichte ermittelt. Diese können dann allerdings nicht weiter differenziert werden; d. h. man kann
keine Rangordnung der Nash-Gleichgewichte ermitteln. Mit Entscheidungsnetzen
können Spiele aber auch anhand des Bestimmtheitsmaßes hinsichtlich einer Kontrolle untersucht werden, und es lässt sich dann durchaus eine Rangordnung von Gleichgewichten bilden. Für die weitere Forschung sollte der Bedeutung der Sattelpunkte,
die sich in den Abbildungen zeigten, nachgegangen werden. Außerdem bietet es sich
an, dass neben den behandelten gleichzeitigen Spielen auch z. B. sequenzielle Spiele
behandelt werden. Abschließend ist festzuhalten, dass es mit dem Konzept der Entscheidungsnetze möglich ist, viele Spielsituationen zu untersuchen und eine Rangordnung von Nash-Gleichgewichten aufgestellt werden kann., wenn eine bedingte
Struktur vorliegt und sich eine gemeinsame WMF bilden lässt.
97
4
Zusammenfassung und Ausblick
Entscheidungsprobleme unter Risiko und Unsicherheit sind vielfach einmalig und
können zudem ein hohes Maß an Komplexität aufweisen, sodass eine Entscheidungsunterstützung häufig nur mit computergestützten Analyseansätzen möglich ist.
Mit Hilfe von Entscheidungsbäumen und Einflussdiagrammen können viele solcher
Entscheidungssituationen untersucht werden. Mit ihnen sind aber keine umfassenden
normativen Analysen aus der Sicht eines Beobachters möglich. Zur Analyse solcher
Probleme ist in dieser Arbeit der Entscheidungsnetzansatz als neues Verfahren vorgestellt worden. Er gründet auf einer wissensbasierten Regressionsanalyse erster Art.
Für diesen Ansatz konnten eine Vielzahl von Charakteristika (Kenngrößen) zur
Prognose und Kontrolle wie Erwartungswert, bedingter Erwartungswert, Varianz,
bedingte Varianz, Korrelationskoeffizient und auch ein Bestimmtheitsmaß abgeleitet
werden. Damit eignet sich dieser Ansatz sowohl zur deskriptiven wie auch zur normativen Analyse und erweitert die Möglichkeiten der ökonomischen Analyse.
Zur Berechnung der gemeinsamen und bedingten Wahrscheinlichkeitsmaßfunktionen
und der daraus ableitbaren Kenngrößen ist mit MAGIC ein leistungsfähiges Programm entwickelt worden, mit dem selbst komplexe einmalige Situationen unter
Risiko und Unsicherheit analysiert werden können.
Da für diese Analyseform keine vergleichbaren Ergebnisse zur Verfügung standen,
wurden im angewandten Teil in Abschnitt 3.1 zunächst Vergleichs- und Sensitivitätsanalysen durchgeführt. Es zeigte sich, dass die Ergebnisse der Entscheidungsnetzanalysen von der Struktur, den Attributen der einzelnen Kanten und den Wahrscheinlichkeiten abhängen und sich die entsprechenden Abbildungen vielfach nichtlinear darstellen.
Um die Ergebnisse der Entscheidungsnetzanalyse richtig interpretieren zu können,
scheint es deshalb notwendig, in einem ersten Schritt die Struktur der Entscheidungssituation möglichst genau zu erfassen und in ein Entscheidungsnetz zu übertragen.
Dabei sollten sowohl die vollständige Struktur mit den gesamten Knoten als auch die
98
Abhängigkeiten in der Struktur (Kausalität) genau erfasst werden. Fehlen einzelne
Knoten oder Kanten, so sind die gemeinsame WMF und damit die zu berechnenden
Kenngrößen unmittelbar betroffen. Ein Vereinfachen des Entscheidungsnetzes kann
die Ergebnisse erheblich beeinflussen und sollte deshalb nur sehr vorsichtig zur
Komplexitätsreduktion eingesetzt werden.
Da die Ergebnisse der Entscheidungsnetzanalyse außerdem entscheidend und nicht
vorhersagbar von den Werten für die einzelnen Attribute und den Wahrscheinlichkeiten abhängen, sollten auch diese möglichst genau bestimmt werden, damit die Analyse nicht zu Fehlinterpretationen führt.
Der Entscheidungsnetzansatz kann in vielen Gebieten der Ökonomik zur Analyse
von Situationen unter Risiko und Unsicherheit eingesetzt werden. Dieses konnte in
der vorliegenden Arbeit exemplarisch anhand von spieltheoretischen Fragestellungen
gezeigt werden. Der Ansatz kann bei der Frage der Differenzierbarkeit von NashGleichgewichten einen bedeutenden Beitrag leisten. Außerdem können mit ihm auch
mehrperiodische Investitionsprobleme analysiert werden (LESERER, 2001), so dass
auch auf diesem Gebiet neue Erkenntnissen zu erwarten sind.
Für die weitere Forschung in diesem Bereich ergeben sich verschiedene Ansatzpunkte. Bislang ist eine gleichgewichtete, mehrfaktorielle Analyse möglich. Das heißt,
dass die unbedingten Zufallsvariablen mit dem gleichen Gewicht in die Analyse eingehen. Da aber nicht davon auszugehen ist, dass sämtliche Faktoren einer Entscheidungssituation mit dem gleichen Gewicht eingehen, scheint eine Erweiterung des
Ansatzes, um die Möglichkeit ungleichgewichtete, mehrfaktorielle Analysen durchzuführen, nahe liegend und wichtig. Außerdem müsste der Ansatz in Bezug auf die
Mehrzielanalyse weiterentwickelt werden, um unterschiedliche Gewichtungen der
Ziele zu erlauben.
99
5
Literaturverzeichnis
ALLAIS, M. (1953): Le Comportement de l’Homme Rationnel devant le Risque: Critique des Postulats et Axiomes de l’Ecole Américaine. Econometrica, Vol. 21,
S. 503-546.
BAMBERG, G. und A. G. COENENBERG (2000): Betriebswirtschaftliche Entscheidungslehre. 10. Aufl., München: Vahlen.
BELL, D. (1982): Regret in Decision Making under Uncertainty. Operations Research, Vol. 33, S. 961-981.
BELLMAN, R. (1972): Dynamic Programming, 6. Aufl., Princeton: Princeton University Press.
BERNOULLI, D. (1954): Exposition of a New Theory on the Measurement of Risk
(original 1738) Econometrica, Vol. 22, S. 23-36.
BITZ, M. (1981): Entscheidungstheorie. München: Vahlen.
BRANDENBURGER, A. (1992): Knowledge and Equilibrium in Games. Journal of
Economic Perspectives, Vol. 6, S. 87-101.
BRANDES, W. und M. ODENING (1992): Investition, Finanzierung und Wachstum in
der Landwirtschaft. Stuttgart: Ulmer.
BRANDES, W., G. RECKE und T. BERGER (1997): Produktions- und Umweltökonomik,
Bd. 1. Stuttgart: Ulmer.
BUNGE, M. (1988): Two Faces and Three Masks of Probability. In: Agazzi, E. (Hg.):
Probability in the Sciences, S. 27-49.
BUSACKER, R.G. und L. SAATY (1968): Endliche Graphen und Netzwerke. München:
Oldenbourg.
CAMERER, C.F. (1995): Individual Decision Making. In: Kagel, J. und A.E. Roth
(Hg.): Handbook of Experimental Economics. Princeton: Princeton University
Press.
CHEW, S.H. (1983): A Generalization of the Quasilinear Mean with Applications to
the Measurement of Income Inequality and Decision Theory Resolving the Allais Paradox. Econometria, Vol. 51, S. 1065-1092.
CLEMEN, R.T. (1996): Making Hard Decisions. An Introduction to Decision Analysis, 2. Aufl., Pacific Grove: Duxbury Press.
100
DE
FINETTI, B. (1981): Wahrscheinlichkeitstheorie: Einführende Synthese mit kritischem Anhang. Wien: Oldenbourg.
EISENFÜHR, F. und M. WEBER (1999): Rationales Entscheiden. 3. Aufl., Berlin:
Springer.
FISHBURN, P.C. (1978): On Handa´s New Theory of Cardinal Utility and the Maximization of Expected Return. Journal of Political Economy, Vol. 86, S. 321324.
FISZ, M. (1963): Probability Theory and Mathematical Statistics, 3. Aufl., New York:
John Wiley & Sons, Inc.
GOLDBERG, S. (1964): Die Wahrscheinlichkeit. Eine Einführung in Wahrscheinlichkeitsrechnung und Statistik. Braunschweig: Friedr. Vieweg & Sohn.
HAMMOND J.S., R.L. KEENEY und H. Raiffa (1999): Smart Choices – A Practical
Guide to Making Better Decisions. Boston, Massachusetts: Harvard Business
School Press.
HANF, C.-H. (1986): Entscheidungslehre. Einführung in Informationsbeschaffung,
Planung und Entscheidung unter Unsicherheit. München: R. Oldenbourg Verlag.
HÄRTTER, E. (1987): Wahrscheinlichkeitsrechnung, Statistik und mathematische
Grundlagen: Begriffe, Definition und Formeln. Göttingen: Vandenhoek & Ruprecht.
HARTUNG, J. (1986): Statistik. Lehr- und Handbuch der angewandten Statistik, 5.
Aufl., München: R. Oldenbourg Verlag.
HOLLER, M.J. und G. ILLING (2000): Einführung in die Spieltheorie, 4. Aufl., Berlin:
Springer.
HÖRSCHGEN, H. (1987): Grundbegriffe der Betriebswirtschaftslehre. 3. Aufl., Stuttgart: Schäffer-Pöschel.
KAHNEMAN D. und A. TVERSKY (1979): Prospect Theory: An Analysis of Decision
under Risk. Econometrica, Vol. 47, S. 263-291
KEENEY, R. (1992): Value-Focused Thinking – A Path to Creative Decisionmaking.
Cambridge: Harvard University Press.
KENDALL, M.G. und A. STUART (1963): The Advanced Theory of Statistics, Vol. 1:
Distribution Theory. 2. Aufl., London: Charles Griffin & Comp. Limited.
101
KOLMOGOROFF, A.N. (1933): Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin: Springer.
LAUX, H. (1998): Entscheidungstheorie. 4. Aufl., Berlin: Springer.
LESERER (1986): Kognitive Inferenz als ökonometrische Aufgabe. Einige Bemerkungen zur ökonometrieschen Grundsatzdiskussion. Jahrbücher für Nationalökonomie und Statistik, Bd. 201/2, Stuttgart und New York: Fischer, S. 97-106.
LESERER (1987): Zur Kontrolle aus Regressionen erster Art. In: H. Isermann et al.
(Eds.), Operations Research Proceedings, DGOR-Vorträge der 15. Jahrestagung, Berlin: Springer, S. 557-567.
LESERER (2001): Zur Stochastik sequentieller Entscheidungen. Diskussionsbeitrag
0101, Institut für Agrarökonomie der Universität Göttingen.
MACHINA, M.J. (1982): Expected Utility Theory without the Independence Axiom.
Econometrica, Vol. 50, S. 277-323.
MENGES, G. (1968): Grundriß der Statistik. Teil 1: Theorie. Köln und Opladen:
Westdeutscher Verlag.
NEUMANN, J.
VON
und O. MORGENSTERN (1953): Theory of Games and Economic
Behavior. 6. Aufl., Princeton: Princeton University Press.
ODENING, M. (1994): Komplexitätsreduktion in Entscheidungsmodellen. Frankfurt/M.: Peter Lang.
POPPER, K.R. (1984): Logik der Forschung. Tübingen: Mohr.
POPPER, K.R. (1992): Realism and the aim of science. London and New York:
Routledge.
POPPER, K.R. (1995a): Lesebuch. Ausgewählte Texte zu Erkenntnistheorie, Philosophie der Naturwissenschaften, Metaphysik, Sozialphilosophie. Tübingen:
Mohr.
POPPER, K.R. (1995b): Eine Welt der Propensitäten. Tübingen: Mohr.
RAIFFA, H. (1968): Decision Analysis. Introductory Lectures on Choices under Uncertainty. Reading/Mass.: Addison-Wesley.
RECKE, G. und M. LESERER (1998): Zur Analyse von Entscheidungsnetzen mit dem
Computerprogramm „magic“. Zeitschrift für Agrarinformatik 6, H. 3, S. 50-54.
RECKE, G. und M. LESERER (2001): Investitionsentscheidungen mit Zustandsnetzen
(in Vorbereitung).
102
RIECK, C. (1993): Spieltheorie. Einführung für Wirtschafts- und Sozialwissenschaftler. Wiesbaden: Gabler.
RINNE, H. (1997): Taschenbuch der Statistik. 2. Aufl., Thun und Frankfurt/M.: Verlag Harry Deutsch.
ROHATGI, V.K. (1984): Statistical Inference. New York: John Wiley & Sons.
ROSS, S. (1994): A First Course in Probability, 4. Aufl., New York: MacMillan Publishing Comp.
SAVAGE, L.J. (1954): The Foundations of Statistics. New York: Wiley.
SCHNEEWEIß, H. (1967): Entscheidungskriterien bei Risiko. Berlin: Springer.
SCHNEIDER, D. (1980): Investition und Finanzierung, 5. Aufl., Wiesbaden: Gabler.
SORGER, G. (2000): Entscheidungstheorie bei Unsicherheit. Grundlagen und Anwendungen. Stuttgart: Lucius & Lucius.
STARMER, C. (2000): Developments in Non-Expected Utility Theory: The Hunt for a
Descriptive Theory of Choice under Risk. Journal of Economic Literature, Vol.
38, S. 332-382.
STEGMÜLLER, W. (1973): Personelle und Statistische Wahrscheinlichkeit. 2. Halbband: Statistisches Schließen, statistische Begründung, statistische Analyse.
Berlin: Springer.
TVERSKY, A. und D. KAHNEMAN (1992): Advances in Prospect Theory: Cumulative
Representation of Uncertainty. Journal of Risk and Uncertainty, Vol. 5, S. 297323.
VARIAN, H.R. (1987): Intermediate Microeconomics: A Modern Approach. New
York: Norton.
WAKKER P. und A. TVERSKY (1993): An Axiomatization of Cumulative Prospect
Theory. Journal of Risk and Uncertainty, Vol. 7, S. 147-176.
WEISE, P., W. BRANDES, T. EGER und M. KRAFT (1993): Neue Mikroökonomie, 3.
Aufl., Heidelberg: Physica.
WÖHE, G. und U. DÖRING (2000): Einführung in die Allgemeine Betriebswirtschaftslehre. 20. Aufl., München: Vahlen.
103
6
Anhang
Anhang 1: Quellcode des Programms MAGIC.EXE in der Version
2.0 vom November 2000, nach einer Idee von M. Leserer, weiterentwickelt und überarbeitet von G. Recke, von M. Tietze programmiert.
104
105
"combination.h"
"edge.h"
"family.h"
"group.h"
"node.h"
"path.h"
"probtab1.h"
"probtab2.h"
"varcovar.h"
"variable.h"
unsigned int ksinum, depnum, idpnum, colnum, rownum;
Combination *combi;
Edge *edge;
Family *family;
Group *group;
Node *node;
Path *path;
Probtab1 *probtab1;
Probtab2 *probtab2;
VarCovar *varcovar;
Variable eta, *ksi;
bool clean;
char xlsFilename[120];
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
using namespace std;
#include <fstream>
#include <iomanip>
#include <iostream>
magic.cpp
106
}
return 0;
strcpy(xlsFilename, argv[1]); cp = strrchr(xlsFilename, '.'); strcpy(cp, ".txt");
FILE *out = fopen(xlsFilename, "wt"); if(!out) {
cout << "Kann " << xlsFilename << " nicht öffnen!" << endl;
exit(1);
}
read_input(argv[1]);
Node::report();
Edge::report();
Path::gen_pathtable();
Path::report();
Combination::gen_combitable();
Combination::report();
Group::gen_grouptable();
Group::renumber_cols();
Group::renumber_rows();
Group::report();
probtab1 = new Probtab1;
probtab1->report(out);
varcovar = new VarCovar;
varcovar->report(out);
probtab2 = new Probtab2;
probtab2->report(out);
fclose(out);
cout << "Dies ist MAGIC, Version 2.0" << endl;
cout << "(C) Michael Leserer 1986; realisiert von Manfred Tietze 1987" << endl;
cout << "(C) der völlig überarbeiteten Version: Guido Recke und Manfred Tietze 2000" << endl << endl;
char *cp;
int main(const int argc, const char *argv[]) {
unsigned int bit(const int);
void read_input(const char *);
107
for(e = 0; e < Edge::number; e++) {
edge[e].top--; edge[e].bot--;
if(0 <= edge[e].top && edge[e].top < Node::number) {
node[edge[e].top].inc_sucnum();
} else {
cout << "Knoten ungültig in Kante " << e+1 << endl;
for(e = 0; e < Edge::number; e++) {
in >> edge[e].top >> edge[e].bot >> edge[e].prb >> edge[e].val >> edge[e].label;
}
in >> n; clean = (n != 0);
in >> Edge::number; edge = new Edge[Edge::number];
if(edge) {
cout << "Platz für " << Edge::number << " Kanten reserviert." << endl;
} else {
cout << "Zu viele Kanten ..." << endl;
exit(3);
}
in >> Node::number; node = new Node[Node::number];
if(node) {
cout << "Platz für " << Node::number << " Knoten reserviert." << endl;
} else {
cout << "Zu viele Knoten ..." << endl;
exit(2);
}
ifstream in(filename); if(!in) {
cout << "Kann " << filename << " nicht öffnen!" << endl;
exit(1);
}
unsigned int e, i, j, n; int depnum, idpnum;
void read_input(const char *filename) {
108
Family::number = node[0].sucnum;
family = new Family[Family::number];
if(family) {
cout << "Platz für " << Family::number << " Familien reserviert." << endl;
} else {
cout << "Zu viele Familien ..." << endl;
exit(4);
}
Family::number = 0;
n = - depnum; ::depnum = n; ::idpnum = idpnum;
eta.edgnum = n;
eta.edg = new unsigned int[n];
for(e = 0; e < Edge::number; e++) {
edge[e].att = (edge[e].label) ? (1 << bit(edge[e].label)) : 0;
}
cout << "Die Bits 0 bis " << eta.edgnum-1 << " der Attribute stehen für Eta." << endl;
cout << "Die Bits " << eta.edgnum << " bis " << eta.edgnum+idpnum-1 << " der Attribute stehen für alle Ksi."
<< endl;
idpnum = depnum = edge[0].label;
for(e = 1; e < Edge::number; e++) {
if(edge[e].label > idpnum) idpnum = edge[e].label;
if(edge[e].label < depnum) depnum = edge[e].label;
}
node[0].edgptr = 0;
for(n = 1; n < Node::number; n++) {
node[n].edgptr = node[n-1].edgptr + node[n-1].sucnum;
}
Edge::sort_edges();
}
}
if(0 <= edge[e].bot && edge[e].bot < Node::number) {
node[edge[e].bot].inc_prenum();
} else {
cout << "Knoten ungültig in Kante " << e+1 << endl;
}
109
}
return (label < 0) ? label + eta.edgnum : label + eta.edgnum - 1;
unsigned int bit(const int label) {
}
in.close();
in >> ksinum;
ksi = new Variable[ksinum];
for(i = 0; i < ksinum; i++) {
in >> ksi[i].edgnum; ksi[i].edg = new unsigned int[ksi[i].edgnum];
for(j = 0; j < ksi[i].edgnum; j++) {
in >> n;
for(e = 0; e < Edge::number; e++) {
if(edge[e].label == n) {
ksi[i].edg[j] = e;
break;
}
}
}
}
for(e = 0, n = 0; e < Edge::number; e++) {
if(edge[e].label < 0) {
eta.edg[bit(edge[e].label)] = e;
}
}
110
Combination *combi;
Family *family;
Node *node;
Path *path;
"combination.h"
"family.h"
"node.h"
"path.h"
path = new unsigned int[Family::number];
f = 0;
for(pass = 1; pass < 3; pass++) {
for(f = 0; f < Family::number; f++)
index[f] = family[f].begin;
unsigned int *index = new unsigned int[Family::number], f, i, j, k, pass;
void Combination::gen_combitable(void) {
}
Combination::Combination(void) {
unsigned int Combination::number = 0;
extern
extern
extern
extern
#include
#include
#include
#include
using namespace std;
#include "iostream"
#include "iomanip"
combination.cpp
111
}
Combination *x = new Combination;
for(i = 0; i < number - 1; i++) {
k = i;
for(j = i + 1; j < number; j++) {
if(combi[j].att < combi[k].att) {
k = j;
}
}
if(k != i) {
*x = combi[k];
combi[k] = combi[i];
combi[i] = *x;
}
}
delete x;
}
delete [] index;
while(1) {
if(index[f] < family[f].end) {
/////
check(pass, index);
/////
f = 0;
} else {
index[f] = family[f].begin;
f++;
}
if(f >= Family::number) break;
index[f]++;
}
if(pass == 1) {
combi = new Combination[number];
cout << "Platz für " << number << " Kombinationen reserviert." << endl;
number = 0;
}
112
valid = true;
for(n = 1; n < Node::number-1; n++) {
if(node[n].prenum < 2) continue;
// Betrachte alle Knoten mit mehr als einem Vorgänger
// - Zähle, wie viele Pfade den Knoten enthalten
// - Stelle fest, ob ein Pfad ihn durchläuft.
through = false; counter = 0;
for(f = 0; f < Family::number; f++) {
p = ::path + index[f];
pos = Path::is_member(n, p);
if(pos > -1) {
through = through || (pos < p->length-1);
counter++;
}
}
valid = valid && (((counter == node[n].prenum) && through) || ((counter != node[n].prenum)
!through));
}
// Eine Kombination ist genau dann gültig, wenn für alle "bedingten" Knoten gilt:
// Die Zahl der ankommenden Pfade ist gleich der Zahl der Vorgänger _und_ der Knoten wird durchlaufen
// _oder_
// diese Zahlen unterscheiden sich _und_ der Knoten wird _nicht_ durchlaufen.
if(valid) {
if(pass == 2) {
// gültige Kombination in die Tabelle aufnehmen.
combi[number].att = 0;
combi[number].prb = 1.0F;
for(f = 0; f < Family::number; f++) {
combi[number].att |= ::path[index[f]].att;
combi[number].prb *= ::path[index[f]].prb;
combi[number].path[f] = index[f];
}
}
number++;
}
}
unsigned int counter, f, n; int pos; bool through, valid; Path *p;
void Combination::check(unsigned int pass, unsigned int *index) {
&&
113
}
cout << setw(12) << fixed << setprecision(6) << prb
<< "
$" << setw(8) << hex << setfill('0') << att << dec << setfill(' ');
for(i = 0; i < Family::number; i++) {
cout << setw(6) << (path[i] + 1) % 10000;
}
cout << endl;
unsigned int i;
void Combination::print(void) {
}
cout << endl << endl << endl;
cout << "Gültige Kombinationen:" << endl;
cout << "======================" << endl << endl;
cout << " Kombination
Wahrsch.
Attribut
Pfade" << endl;
cout << " -----------------------------" << endl;
for(unsigned int c = 0; c < number; c++) {
cout << setw(12) << c+1;
combi[c].print();
wsum += combi[c].prb;
}
cout << "
--------" << endl;
cout << "
Summe:
" << wsum << endl;
cout << endl;
unsigned int i = 1; float wsum = 0.0;
void Combination::report(void) {
114
Edge *edge;
Family *family;
Node *node;
int idpnum, depnum;
x = new Edge;
for(i = 0; i < number - 1; i++) {
k = i;
for(j = i + 1; j < number; j++) {
if((edge[j].top < edge[k].top) || ((edge[j].top == edge[k].top) && (edge[j].bot < edge[k].bot))) {
k = j;
}
}
if(k != i) {
*x = edge[k];
unsigned int i, j, k;
Edge *x;
void Edge::sort_edges(void) {
unsigned int Edge::number = 0;
using namespace std;
extern
extern
extern
extern
#include "edge.h"
#include "family.h"
#include "node.h"
#include <iomanip>
#include <iostream>
edge.cpp
115
}
cout << endl << endl << endl;
cout << "Kantentabelle:" << endl;
cout << "==============" << endl << endl;
cout << "
Kante
Anfang
Ende
Wahrsch. Markierung
Wert" << endl;
cout << "
-------------------- -------------" << endl;
for(unsigned int e = 0; e < number; e++) {
cout << setw(12) << e+1
<< setw(12) << edge[e].top+1
<< setw(12) << edge[e].bot+1;
if(edge[e].top) {
cout << setw(12) << fixed << setprecision(6) << edge[e].prb;
if(edge[e].label) {
cout << setw(12) << edge[e].label
<< setw(12) << fixed << setprecision(2) << edge[e].val;
}
}
cout << endl;
}
cout << endl;
void Edge::report(void) {
}
}
}
delete x;
edge[k] = edge[i];
edge[i] = *x;
116
Combination *combi;
Edge *edge;
Group *group;
Variable eta, *ksi;
unsigned int ksinum, depnum, idpnum, colnum, rownum;
bool clean;
"combination.h"
"edge.h"
"group.h"
"probtab1.h"
"variable.h"
unsigned int Group::number = 0;
unsigned int *Group::c_grp = 0;
unsigned int *Group::r_grp = 0;
extern
extern
extern
extern
extern
extern
#include
#include
#include
#include
#include
using namespace std;
#include "iostream"
#include "iomanip"
group.cpp
unsigned int Family::number = 0;
#include "family.h"
family.cpp
117
for(pass = 1; pass < 3; pass++ ) {
last_att = combi[0].att + 1;
for(c = 0; c < Combination::number; c++) {
if(last_att != combi[c].att) {
last_att = combi[c].att;
g = number++;
if(pass == 2) {
group[g].att = combi[c].att;
group[g].prb = combi[c].prb;
group[g].row = group[g].att >> depnum;
group[g].column = group[g].att & ((1 << depnum) - 1);
for(i = 0; i <= ksinum; i++) {
group[g].val[i] = 0.0;
jmax = (i == ksinum) ? eta.edgnum : ksi[i].edgnum;
for(j = 0; j < jmax; j++) {
e = (i == ksinum) ? eta.edg[j] : ksi[i].edg[j];
if(group[g].att & edge[e].att) {
group[g].val[i] += edge[e].val;
}
}
}
}
} else {
if(pass == 2) group[g].prb += combi[c].prb;
}
unsigned int c, e, g, i, j, jmax, pass; unsigned long last_att;
void Group::gen_grouptable(void) {
}
val = new float[ksinum+1];
col_renumbered = false;
row_renumbered = false;
Group::Group(void) {
118
}
for(new_index = 0; true; new_index++) {
for(g = 0; g < number; g++) {
if(group[g].col_renumbered) continue;
min = group[g].column;
break;
}
if(g >= number) {
colnum = new_index;
c_grp = new unsigned int[colnum];
for(col = 0; col < colnum; col++) {
for(g = 0; g < Group::number; g++) {
if(group[g].column == col) {
c_grp[col] = g;
break;
}
}
}
return;
}
for(; g < number; g++) {
if(group[g].col_renumbered) continue;
if(group[g].column < min) min = group[g].column;
unsigned int col, g, min, new_index;
void Group::renumber_cols(void) {
}
}
if(pass == 1) {
group = new Group[number];
cout << "Platz für " << number << " Gruppen reserviert." << endl;
number = 0;
} else { // pass == 2
if(clean) {
}
}
119
}
for(new_index = 0; true; new_index++) {
for(g = 0; g < number; g++) {
if(group[g].row_renumbered) continue;
min = group[g].row;
break;
}
if(g >= number) {
rownum = new_index;
r_grp = new unsigned int[rownum];
for(row = 0; row < rownum; row++) {
for(g = 0; g < Group::number; g++) {
if(group[g].row == row) {
r_grp[row] = g;
break;
}
}
}
return;
}
for(; g < number; g++) {
if(group[g].row_renumbered) continue;
if(group[g].row < min) min = group[g].row;
}
unsigned int g, min, new_index, row;
void Group::renumber_rows(void) {
}
}
for(g = 0; g < number; g++) {
if(group[g].col_renumbered) continue;
if(group[g].column == min) {
group[g].column = new_index;
group[g].col_renumbered = true;
}
}
120
}
unsigned int i;
void Group::print(void) {
}
cout << endl << endl << endl;
cout << "Wahrscheinlichkeitstabelle mit Wertekombinationen:" << endl;
cout << "==================================================" << endl << endl;
cout << "
Gruppe
Wahrsch.
Attribut
Eta";
for(i = 0; i < ksinum; i++) {
cout << "
Ksi" << i+1;
}
cout << endl << "
----------------------";
for(i = 0; i < ksinum; i++) {
cout << "
----";
}
cout << endl;
for(g = 0; g < number; g++) {
cout << setw(12) << g+1;
group[g].print();
}
cout << endl;
unsigned int g, i;
void Group::report(void) {
}
for(g = 0; g < number; g++) {
if(group[g].row_renumbered) continue;
if(group[g].row == min) {
group[g].row = new_index;
group[g].row_renumbered = true;
}
}
121
prenum = sucnum = 0;
void Node::inc_prenum(void) {
}
Node::Node(void) {
unsigned int Node::number = 0;
extern Node *node;
using namespace std;
#include "node.h"
#include <iomanip>
#include <iostream>
node.cpp
}
cout << setw(12) << fixed << setprecision(6) << prb
<< "
$" << setw(8) << hex << setfill('0') << att << dec << setfill(' ');
cout << setw(12) << setprecision(2) << val[ksinum]; // eta
for(i = 0; i < ksinum; i++) {
cout << setw(12) << setprecision(2) << val[i]; // ksi
}
cout << endl;
122
prenum++;
sucnum++;
#include "edge.h"
#include "family.h"
#include "node.h"
#include <iomanip>
#include <iostream>
path.cpp
}
cout << endl << endl << endl;
cout << "Knotentabelle:" << endl;
cout << "==============" << endl << endl;
cout << "
Knoten
Vorgänger Nachfolger" << endl;
cout << "
-------------- ----------" << endl;
for(unsigned int n = 0; n < number; n++) {
cout << setw(12) << n+1
<< setw(12) << node[n].prenum
<< setw(12) << node[n].sucnum
// << setw(5) << node[n].edgptr
<< endl;
}
void Node::report(void) {
}
void Node::inc_sucnum(void) {
}
123
Edge *edge;
Family *family;
Node *node;
Path *path;
tempth = new Path; tempth->nodes = new unsigned int[Node::number];
counter = new unsigned int[Node::number]; prob = new float[Node::number]; attr = new long[Node::number];
unsigned int edg, i, len, lastnode, *counter; bool progress;
float *prob; long *attr;
Path *tempth;
void Path::gen_pathtable(void) {
}
path[number].prb = tempth->prb;
path[number].att = tempth->att;
path[number].length = len;
path[number].nodes = new unsigned int[len];
for(unsigned int i = 0; i < len; i++) {
path[number].nodes[i] = tempth->nodes[i];
}
if(number == 0 || path[number].nodes[1] != path[number-1].nodes[1]) {
family[Family::number].begin = family[Family::number].end = number;
Family::number++;
}
family[Family::number-1].end++;
void Path::add(const unsigned int len, const Path *tempth) {
unsigned int Path::number = 0;
extern
extern
extern
extern
using namespace std;
#include "path.h"
124
}
{
}
delete tempth; delete[] counter; delete[] prob; delete[] attr;
}
if(pass == 1) {
path = new Path[number];
cout << "Platz für " << number << " Pfade reserviert." << endl;
number = 0;
}
}
if(progress) {
if(pass == 2) {
tempth->prb = prob[i]; tempth->att = attr[i]; add(len, tempth);
}
number++;
}
if(lastnode < Node::number-1 && node[lastnode].prenum > 1) {
if(node[lastnode].sucnum > 0) {
if(pass == 2) {
tempth->prb = prob[i]; tempth->att = attr[i]; add(len, tempth);
}
number++;
}
if(pass == 2) node[lastnode].sucnum = 0;
}
edg = node[lastnode].edgptr + counter[i]++;
len++; i = len - 1;
tempth->nodes[i] = edge[edg].bot;
counter[i] = 0;
prob[i] = prob[i-1] * edge[edg].prb;
attr[i] = attr[i-1] | edge[edg].att;
progress = true;
for(unsigned int pass = 1; pass < 3; pass++) {
tempth->nodes[0] = counter[0] = 0; prob[0] = 1.0; attr[0] = 0;
for(len = 1; len > 0; len--) {
progress = false;
i = len - 1;
for(lastnode = tempth->nodes[i]; counter[i] < node[lastnode].sucnum; lastnode = tempth->nodes[i])
125
for(i = 0; i < p->length; i++) {
unsigned int i;
int Path::is_member(const unsigned int n, const Path *p) {
}
cout << setw(12) << fixed << setprecision(6) << prb
<< "
$" << setw(8) << hex << setfill('0') << att << dec << setfill(' ');
for(unsigned int i = 0; i < length; i++) {
cout << setw(6) << nodes[i] + 1;
}
cout << endl;
void Path::print(void) {
}
cout << endl << endl << endl;
cout << "Pfadtabelle:" << endl;
cout << "============" << endl << endl;
cout << "Familie Pfad
Wahrsch.
Attribut
Knotenfolge" << endl;
cout << "------- ----------------------------" << endl;
for(unsigned int f = 0; f < Family::number; f++) {
cout << setw(7) << f+1;
for(p = family[f].begin; p < family[f].end; p++) {
cout << setw((p == family[f].begin) ? 5 : 12) << i++;
path[p].print();
}
cout << endl;
}
unsigned int i = 1, p;
void Path::report(void) {
126
*Probtab1::colsum
*Probtab1::rowsum
*Probtab1::commev
*Probtab1::condev
=
=
=
=
0;
0;
0;
0;
colsum = new float[colnum];
rowsum = new float[rownum];
condev = new float[rownum];
for(col = 0; col < colnum; col++) {
colsum[col] = 0.0;
}
for(row = 0; row < rownum; row++) {
rowsum[row] = condev[row] = 0.0;
unsigned int col, row, g, i; float p;
Probtab1::Probtab1(void) {
float
float
float
float
extern Group *group;
extern unsigned int ksinum, colnum, rownum;
#include "group.h"
#include "probtab1.h"
using namespace std;
#include <fstream>
#include <iomanip>
#include <iostream>
probtab1.cpp
}
if(p->nodes[i] == n) return i;
}
return -1;
127
}
for(g = Group::r_grp[row]; g < Group::number && group[g].row == row; g++) {
if(group[g].column == col) return group[g].prb;
}
return 0.0F;
unsigned int g;
float Probtab1::prb(unsigned int row, unsigned int col) {
}
commev = new float[ksinum+1];
for(i = 0; i <= ksinum; i++) {
commev[i] = 0.0;
if(i < ksinum) {
for(row = 0; row < rownum; row++) {
g = Group::r_grp[row];
commev[i] += rowsum[row] * group[g].val[i];
}
} else { // i == ksinum
for(col = 0; col < colnum; col++) {
g = Group::c_grp[col];
commev[i] += colsum[col] * group[g].val[i];
}
}
}
}
for(col = 0; col < colnum; col++) {
p = prb(row, col);
rowsum[row] += p;
colsum[col] += p;
g = Group::c_grp[col];
condev[row] += p * group[g].val[ksinum];
}
condev[row] /= rowsum[row];
128
// 2.
// 1.
<<
<<
<<
<<
endl << endl << endl;
"Gemeinsame Wahrscheinlichkeitsmaßfunktion:" << endl;
"==========================================" << endl;
endl;
for(i = 0; i < ksinum; i++) {
cout << "
Ksi" << i+1;
fprintf(out, "\tKsi%d", i+1);
}
for(col = 0; col < colnum; col++) {
cout << "
";
fputc('\t', out);
}
cout << "
summe
ErwWert" << endl;
fprintf(out, "\tsumme\tErwWert\n");
for(i = 0; i < ksinum-1; i++) {
cout << "
";
fputc('\t', out);
}
cout << "
Eta";
fprintf(out, "\tEta");
for(col = 0; col < colnum; col++) {
g = Group::c_grp[col];
cout << fixed << setw(12) << setprecision(6) << group[g].val[ksinum];
fprintf(out, "\t%12.6f", group[g].val[ksinum]);
}
cout << "
Zeilenbedingter" << endl;
fprintf(out, "\tZeilen-\tbedingter\n");
fprintf(out, "Gemeinsame Wahrscheinlichkeitsmaßfunktion:\n");
fprintf(out, "==========================================\n\n");
cout
cout
cout
cout
unsigned int col, g, i, row; float sum;
void Probtab1::report(FILE *out) {
129
// 5.
// 4.
// 3.
cout << endl;
cout << "Gemeinsame Erwartungswerte:" << endl;
cout << "===========================" << endl << endl;
cout << " E(Eta ) = " << setw(12) << setprecision(6) << commev[ksinum] << endl;
fprintf(out, "\nGemeinsame Erwartungswerte:\n");
for(i = 0; i < ksinum; i++) {
cout << "
";
fputc('\t', out);
}
for(col = 0, sum = 0.0; col < colnum; col++) {
cout << setw(12) << setprecision(6) << colsum[col];
fprintf(out, "\t%12.6f", colsum[col]);
sum += colsum[col];
}
cout << setw(12) << setprecision(6) << sum << endl;
fprintf(out, "\t%12.6f\n", sum);
cout << endl;
fputc('\n', out);
for(row = 0; row < rownum; row++) {
g = Group::r_grp[row];
for(i = 0; i < ksinum; i++) {
cout << setw(12) << setprecision(2) << group[g].val[i];
fprintf(out, "\t%12.2f", group[g].val[i]);
}
for(col = 0; col < colnum; col++) {
cout << setw(12) << setprecision(6) << prb(row, col);
fprintf(out, "\t%12.6f", prb(row, col));
}
cout << setw(12) << setprecision(6) << rowsum[row];
cout << setw(12) << setprecision(6) << condev[row];
cout << endl;
fprintf(out, "\t%12.6f\t%12.6f\n", rowsum[row], condev[row]);
}
cout << endl;
fputc('\n', out);
130
Probtab2::s1, Probtab2::s2, Probtab2::s3;
*Probtab2::colsum = 0;
*Probtab2::evcvar = 0;
*Probtab2::varcev = 0;
*Probtab2::convar = 0;
evcvar = new float[rownum];
s1 = 0.0;
for(row = 0; row < rownum; row++) {
unsigned int col, g, row;
Probtab2::Probtab2(void) {
float
float
float
float
float
extern Group *group;
extern unsigned int ksinum, colnum, rownum;
#include "group.h"
#include "probtab1.h"
#include "probtab2.h"
using namespace std;
#include <iomanip>
#include <iostream>
probtab2.cpp
}
fprintf(out, "===========================\n\n");
fprintf(out,"\tE(Eta ) =\t%12.6f\n", commev[ksinum]);
for(i = 0; i < ksinum; i++) {
cout << " E(Ksi" << i+1 << ") = " << setw(12) << setprecision(6) << commev[i] << endl;
fprintf(out, "\tE(Ksi%d) =\t%12.6f\n", i+1, commev[i]);
}
131
*
(group[g].val[ksinum]
s2 = 0.0;
varcev = new float[rownum];
convar = new float[rownum];
for(row = 0; row < rownum; row++) {
varcev[row] = Probtab1::rowsum[row]
*
(Probtab1::condev[row]
tab1::commev[ksinum]);
s2 += varcev[row];
convar[row] = 0.0;
for(col = 0; col < colnum; col++) {
g = Group::c_grp[col];
convar[row] += prb(row,col)
*
(group[g].val[ksinum]
tab1::condev[row]);
}
}
colsum = new float[colnum];
for(col = 0; col < colnum; col++) {
colsum[col] = 0.0;
for(row = 0; row < rownum; row++) {
colsum[col] += prb(row,col);
}
}
-
Probtab1::condev[row])
Probtab1::commev[ksinum])
*
*
(group[g].val[ksinum]
(Probtab1::condev[row]
s3 = 0.0;
for(col = 0; col < colnum; col++) {
g = Group::c_grp[col];
s3 += Probtab1::colsum[col] * group[g].val[ksinum] * group[g].val[ksinum];
}
evcvar[row] = 0.0;
for(col = 0; col < colnum; col++) {
g = Group::c_grp[col];
evcvar[row] += Probtab1::prb(row,col)
*
(group[g].val[ksinum]
Probtab1::condev[row])
tab1::condev[row]);
}
s1 += evcvar[row];
}
-
-
-
Prob-
Prob-
Prob-
132
return Probtab1::prb(row, col) / Probtab1::rowsum[row];
// 2.
// 1.
for(i = 0; i < ksinum; i++) {
cout << "
Ksi" << i+1;
for(i = 0; i < ksinum-1; i++) {
cout << "
";
fputc('\t', out);
}
cout << "
Eta";
fprintf(out, "\tEta");
for(col = 0; col < colnum; col++) {
g = Group::c_grp[col];
cout << fixed << setw(12) << setprecision(6) << group[g].val[ksinum];
fprintf(out, "\t%12.6f", group[g].val[ksinum]);
}
cout << "
Zeilenbedingte ErwWert d. Varianz d." << endl;
fprintf(out, "\tZeilen-\tbedingte\tErwWert d.\tVarianz d.\n");
cout << endl << endl << endl;
cout << "Bedingte Wahrscheinlichkeitsmaßfunktion:" << endl;
cout << "========================================" << endl;
cout << endl;
fprintf(out, "\n\n\nBedingte Wahrscheinlichkeitsmaßfunktion:\n");
fprintf(out, "========================================\n\n");
unsigned int col, g, i, row; float sum;
void Probtab2::report(FILE *out) {
}
float Probtab2::prb(unsigned int row, unsigned int col) {
}
133
// 4.
// 3.
for(i = 0; i < ksinum; i++) {
cout << "
";
fputc('\t', out);
}
for(col = 0; col < colnum; col++) {
cout << setw(12) << setprecision(6) << colsum[col];
cout << endl;
fputc('\n', out);
for(row = 0, sum = 0.0; row < rownum; row++) {
g = Group::r_grp[row];
for(i = 0; i < ksinum; i++) {
cout << setw(12) << setprecision(2) << group[g].val[i];
fprintf(out, "\t%12.6f", group[g].val[i]);
}
for(col = 0; col < colnum; col++) {
cout << setw(12) << setprecision(6) << prb(row, col);
fprintf(out, "\t%12.6f", prb(row, col));
}
cout << setw(12) << setprecision(6) << 1.0;
cout << setw(12) << setprecision(6) << convar[row];
cout << setw(12) << setprecision(6) << evcvar[row];
cout << setw(12) << setprecision(6) << varcev[row];
cout << endl;
fprintf(out, "\t1.000000\t%12.6f\t%12.6f\t%12.6f\n", convar[row], evcvar[row], varcev[row]);
sum += convar[row];
}
cout << endl;
fputc('\n', out);
fprintf(out, "\tKsi%d", i+1);
}
for(col = 0; col < colnum; col++) {
cout << "
";
fputc('\t', out);
}
cout << "
summe
Varianz bed.Varianz bed.ErwWert" << endl;
fprintf(out, "\tsumme\tVarianz\tbed.Varianz\tbed.ErwWert\n");
134
<< endl;
<< "Varianzgleichungen:" << endl;
<< "===================" << endl << endl;
<< " E(Eta²) = " << setw(12) << setprecision(6) << s3 << endl;
<< " E(Eta)² = " << setw(12) << setprecision(6)
<< Probtab1::commev[ksinum] * Probtab1::commev[ksinum] << endl;
cout << endl;
fprintf(out, "\nVarianzgleichungen:\n");
fprintf(out, "===================\n\n");
fprintf(out, "\tE(Eta²) =\t%12.6f\n", s3);
fprintf(out, "\tE(Eta)² =\t%12.6f\n\n", Probtab1::commev[ksinum] * Probtab1::commev[ksinum]);
s3 -= Probtab1::commev[ksinum] * Probtab1::commev[ksinum];
cout << " Var(Eta) = " << "S(EVcVar) + S(VarcEV) = " << setw(12) << setprecision(6) << s1 + s2 << endl;
cout << " Var(Eta) = " << " E(Eta²) - E(Eta)²
= " << setw(12) << setprecision(6) << s3 << endl;
fprintf(out, "\tVar(Eta) =\tS(EVcVar)\t+ S(VarcEV) =\t%12.6f\n", s1 + s2);
fprintf(out, "\tVar(Eta) =\tE(Eta²)\t- E(Eta)²
=\t%12.6f\n", s3);
cout
cout
cout
cout
cout
#include "group.h"
#include "probtab1.h"
using namespace std;
#include <iomanip>
#include <iostream>
varcovar.cpp
}
// 5.
fprintf(out, "\t%12.6f", colsum[col]);
}
cout << setw(12) << setprecision(6) << static_cast<float>(rownum);
cout << setw(12) << setprecision(6) << sum;
cout << setw(12) << setprecision(6) << s1;
cout << setw(12) << setprecision(6) << s2;
cout << endl;
fprintf(out, "\t%12.6f\t%12.6f\t%12.6f\t%12.6f\n", static_cast<float>(rownum), sum, s1, s2);
135
for(i = 0; i <= ksinum; i++) {
for(j = 0; j <= i; j++) {
COV(i,j) = 0.0;
if(i == ksinum && j == ksinum) {
for(col = 0; col < colnum; col++) {
gc = Group::c_grp[col];
COV(i,j) += Probtab1::colsum[col] * group[gc].val[i] * group[gc].val[j];
}
} else if(i == ksinum && j < ksinum) {
for(row = 0; row < rownum; row++) {
gr = Group::r_grp[row];
for(col = 0; col < colnum; col++) {
gc = Group::c_grp[col];
COV(i,j) += Probtab1::prb(row,col) * group[gc].val[i] * group[gr].val[j];
}
}
} else {
for(row = 0; row < rownum; row++) {
gr = Group::r_grp[row];
COV(i,j) += Probtab1::rowsum[row] * group[gr].val[i] * group[gr].val[j];
}
cov = new float[(ksinum+1) * (ksinum+1)];
unsigned int col, i, j, gc, gr, row;
VarCovar::VarCovar(void) {
#define COV(i,j) cov[(i)*(ksinum+1) + (j)]
float *VarCovar::cov = 0;
extern Group *group;
extern unsigned int ksinum, colnum, rownum;
#include "varcovar.h"
136
}
// 3.
// 2.
// 1.
cout << "
Eta" << fixed << setw(12) << setprecision(6) << COV(ksinum,ksinum) << endl << endl;
fprintf(out, "\tEta\t%12.6f\n\n", COV(ksinum,ksinum));
for(i = 0; i < ksinum; i++) {
cout << "
Ksi" << i+1 << setw(12) << setprecision(6) << COV(i,ksinum);
fprintf(out, "\tKsi%d\t%12.6f", i+1, COV(i,ksinum));
for(j = 0; j <= i; j++) {
cout << setw(12) << setprecision(6) << COV(i,j);
fprintf(out, "\t%12.6f", COV(i,j));
cout << "
Eta";
fprintf(out, "\t\tEta");
for(i = 0; i < ksinum; i++) {
cout << "
Ksi" << i+1;
fprintf(out, "\tKsi%d", i+1);
}
cout << endl << endl;
fprintf(out, "\n\n");
cout << endl << endl << endl;
cout << "Varianz-Kovarianz-Matrix:" << endl;
cout << "=========================" << endl;
cout << endl;
fprintf(out, "\n\n\nVarianz-Kovarianz-Matrix:\n");
fprintf(out, "=========================\n\n");
unsigned int i, j;
void VarCovar::report(FILE *out) {
}
}
}
COV(i,j) -= Probtab1::commev[i] * Probtab1::commev[j];
COV(j,i) = COV(i,j);
137
}
#include "variable.h"
variable.cpp
}
}
cout << endl << endl;
fprintf(out, "\n\n");
Anhang 2: Beschreibung der Routine NETZINP1.EXE zur Erstellung einer Eingabedatei und des Programms MAGIC.EXE
Ausgangspunkt sei eine Entscheidungssituation unter Risiko und Unsicherheit, die in
Abbildung A1 dargestellt ist. Ein Marktbeobachter vermutet, dass ein Anbieter (Knoten 2) sein Produkt mit einer Wahrscheinlichkeit von 0.5 zu einem hohen (A22) oder
niedrigem (A21) Preis verkauft. Falls er zu einem niedrigen Preis verkaufen würde,
würde der Nachfrager (Knoten 3) einen Kauf überlegen. Mit einer Wahrscheinlichkeit von je 0.5 wird er das Produkt kaufen (A32) oder nicht (A31). Dieses Entscheidungsproblem kann mit MAGIC.EXE näher analysiert werden.
Abbildung A1: Entscheidungsnetz
138
Dazu ist zunächst mit einem beliebigen Editor oder mit dem Hilfsprogramm NETZINP1.EXE die Eingabedatei für die Formulierung eines Entscheidungsproblems unter Risiko und Unsicherheit zu erstellen.
Erstellen einer Eingabedatei mit einem Editor oder mit dem Programm NETZ-
INP1.EXE
NETZINP1.EXE wird im DOS-Fenster ausgeführt. Es gibt dem Anwender zunächst
Hinweise zur Dateneingabe und richtet dann gezielt Anfragen an den Benutzer, mit
denen die von MAGIC.EXE zu lesende Datei erstellt werden kann. Zur Verdeutlichung soll die Eingabe anhand des einfachen Entscheidungsproblems unter Risiko
und Unsicherheit (Abbildung A1) erklärt werden.
Beschreibung der Eingabe anhand einer Abbildung
Wie in der Abbildung A1 zu sehen ist, gibt es vier Knoten. Der erste Knoten ist der
Startknoten und der vierte Knoten der Endknoten. Diese beiden Knoten sind technische Knoten, die für die weiteren Berechnungen notwendig sind. Das eigentlich zu
betrachtende ökonomische Entscheidungsnetz ist in der Mitte abgebildet. Es wird
durch die Knoten 2 und 3 gebildet. Dabei geht ein Pfeil von Knoten 2 nach Knoten 3.
Der Knoten 3 ist somit bedingt. Der Knoten 2 ist unbedingt, da zwar ein Pfeil von
Knoten 1 auf ihn gerichtet ist, dieser aber keine kausale Bedeutung hat, sondern nur
eine technische Verbindung mit dem Startknoten (1) bildet.
Das Netz (Abbildung A1) hat Kanten, die durch Pfeile gekennzeichnet sind. Insgesamt gibt es 5 Kanten, die eine kausale Richtung haben. Zur Beschreibung des Netzes ist es außerdem notwendig, auf die Werte einzugehen, die an den Pfeilen (Kanten) stehen. Die Werte in Klammern stehen für die Attribute an diesen Kanten. Die
jeweiligen Werte unter den Attributen sind die Wahrscheinlichkeiten, mit denen die
Kanten belegt sind. Diese müssen zwischen Null und Eins liegen. Ferner muss si-
139
chergestellt werden, dass die Summe aller Wahrscheinlichkeiten, die von einem Entscheider (Knoten) ausgehen, den Wert Eins ergibt.
Die Eingabedatei wird in drei Abschnitten erstellt.
I) Im ersten Abschnitt wird die Anzahl der Knoten im Netz (mit den technischen
Start- und Endknoten) eingegeben. Ferner ist die Anzahl der Kanten (Pfeile) des Netzes zu bestimmen und der Wert für den Parameter „clean“ auf 0 zu setzen, damit
nicht die Spalten mit gleichen Werte für die Attribute zusammengefasst werden.
Für das Beispiel ist folgende erste Zeile einzugeben:
4
5
0
Der erste Wert steht für die Anzahl der Knoten (4). Diese ergibt sich aus der Anzahl
der Knoten des Entscheidungsnetzes (kausale Knoten (hier 2)), zu denen die technischen Knoten (Start- und Endknoten (hier 2)) hinzugezählt werden müssen. Der
zweite Wert steht für die Anzahl der Kanten (5). Der letzte Wert setzt den Parameter
„clean“ auf 0.
II) Im zweiten Abschnitt werden für die miteinander verbundenen Knoten die Werte
der Wahrscheinlichkeiten, der Attribute und ein Hilfswert eingegeben, der angibt, ob
der Pfeil an dieser Kante von einem unbedingten oder von einem bedingten Knoten
ausgeht. Der Wert steigt von +1 bis zu der Anzahl der insgesamt vorhandenen unbedingten Kanten. Der Wert kann von -1 bis zu der Anzahl der insgesamt vorhandenen
bedingten Kanten fallen. Falls eine Kante nicht für die Berechnung der gemeinsamen
WMF berücksichtigt werden soll, wie beispielsweise die von einem Startknoten ausgehende, muss für sie der Wert 0 eingegeben werden. Schließlich ist zu beachten,
dass bei der Entscheidung, ob ein Knoten bedingt oder unbedingt ist, der Startknoten
keinen Einfluss hat.
140
Für das Beispielnetz sind dann folgende Zeilen einzugeben:
1
2
1
-1
0
2
3
.5
1
1
2
4
.5
0
2
3
4
.5
1
-1
3
4
.5
0
-2
Die ersten beiden Werte in der ersten Zeile stehen für die Knoten, die miteinander
verbunden werden. Der Pfeil in Abbildung A1 geht vom Knoten 1 (1. Wert) zum
Knoten 2 (2. Wert). Da es sich um eine technische Verbindung handelt, ist die Wahrscheinlichkeit an dieser Kante 1 (3. Wert). Der Wert des Attributs muss, da er von
einem Startknoten ausgeht -1 (4. Wert) sein. Da die Kante von einem Startknoten
ausgeht, bekommt sie eine 0 (5. Wert) zugewiesen.
In der zweiten Zeile wird eine kausale Verbindung vom zweiten Knoten (1. Wert)
zum dritten Knoten (2. Wert) geknüpft. Die Wahrscheinlichkeit für diese Kante ist
0.5 (3. Wert). Der Wert des Attributs ist 1 (4. Wert). Der 5. Wert ist +1. Es handelt
sich hier um die erste unbedingte Verknüpfung, da der Pfeil von dem unbedingten
zweiten Knoten ausgeht. .
In der dritten Zeile wird der zweite Knoten (1. Wert) mit dem vierten Knoten (2.
Wert) kausal verknüpft. Die Wahrscheinlichkeit für diese Kante ist mit auf 0.5 (3.
Wert) festgelegt worden. Der Wert des Attributs ist 0 (4. Wert). Der 5. Wert ist +2.
Hier liegt die zweite unbedingt Verknüpfung vor, weil der Pfeil von dem unbedingten zweiten Knoten ausgeht (Abbildung A1).
In der vierten Zeile wird der dritte Knoten (1. Wert) mit dem vierten Knoten (2.
Wert) kausal verbunden. Die Wahrscheinlichkeit für diese Kante ist wieder 0.5 (3.
Wert). Der Wert des Attributs ist 1 (4. Wert). Der 5. Wert ist –1. D. h., dass hier die
erste bedingte Verknüpfung vorliegt, weil der vierte Knoten durch den dritten Knoten bedingt ist, der selber von einem bedingten Knoten (dritte Knoten) ausgeht.
141
In der fünften Zeile wird eine kausale Verbindung mit einem Pfeil vom dritten Knoten (1. Wert) zum vierten Knoten (2. Wert) hergestellt (Abbildung A1). Die Wahrscheinlichkeit für diesen Kante ist auf 0.5 (3. Wert) festgelegt worden. Der Wert des
Attributs ist 0 (4. Wert). Der 5. Wert ist -2. Der vierte Knoten ist durch den dritten
Knoten bedingt. Es handelt sich hierbei um die zweite bedingte Verknüpfung, da sie
wieder von einem schon bedingten Knoten (dritte Knoten) ausgeht.
Bei der Eingabe ist darauf zu achten, dass ein Dezimalpunkt und nicht ein Dezimalkomma verwendet wird, um bei der Ausführung des Programms keine Fehlermeldungen zu erhalten.
III) Im letzten Abschnitt der Eingabe werden die Werte für die unbedingten Knoten
näher spezifiziert. Es wird die Anzahl der unbedingten Knoten und für jeden unbedingten Knoten die Anzahl der Kanten angegeben, die von ihm ausgehen. Die entsprechenden Werte werden in der nächsten Zeile eingegeben.
Für unser Beispiel sind dann folgende Zeilen einzugeben:
1
2
1
2
In dem Beispiel gibt es einen unbedingten Knoten (1. Zeile), von dem zwei relevante
Kanten (2. Zeile) ausgehen, denen in der dritten Zeile der Eingabe die Werte 1 und 2
zugewiesen werden (zum Vergleich dazu siehe auch die entsprechenden Werte in der
fünften Spalte von Abschnitt II der Eingabe).
142
Als Ergebnis dieses Programmdurchlaufs ergibt sich schließlich folgende Datei:
4
5
1
1
2
1
-1
0
2
3
.5
1
1
2
4
.5
0
2
3
4
.5
1
-1
3
4
.5
0
-2
1
2
1
2
Starten des Programms MAGIC.EXE und Erstellen einer Ausgabedatei
Das Programm MAGIC wird aus dem DOS-Fenster mit zwei Zeilenparametern für
die Eingabe- und die Ausgabedatei wie folgt gestartet:
MAGIC Eingabedatei > Ausgabedatei
Um eine für EXCEL lesbare Datei zu erzeugen, muss die Routine DOT2COL.EXE
ausgeführt werden. Auch hier sorgen Zeilenparameter für die Zuweisung der entsprechenden Dateien.
DOT2COL < Eingabedatei > Ausgabedatei
Die Klammerzeichen „<“ und „>“ sind als Operatoren erforderlich.
143
Anhang 3: Die Ausgabe von MAGIC.EXE
Die Ausgabe des Programms liefert eine Textdatei, die von EXCEL gelesen werden
kann. In dieser Datei ist die für die Analyse wichtige Ausgabe enthalten. Ferner kann
eine Datei mit der vollständigen Ausgabe erstellt werden. Zunächst soll aber der Programmalgorithmus näher beschrieben werden.
Ausgangspunkt ist die Überprüfung des Netzes mit einem graphentheoretischen Ansatz. Der Programmalgorithmus sorgt dafür, dass ausgehend von einem Startknoten
die Wege durch das Netz geprüft werden. Für die Netze verlangt der Algorithmus
endliche, einmalige, azyklische und gerichtete Graphen (BUSACKER/SAATY 1968).
Die Ermittlung der zulässigen Knotenwege orientiert sich an Wegprogressionen in
einem offenen, einfachen Graphen. Demnach führt jede Progression von einem Ausgangsknoten zu einem Endknoten, ohne dass sich ein Knoten wiederholt. Anfang und
Ende einer Progression sind somit grundsätzlich über die Anzahl vorhandener Vorgänger und Nachfolger für alle Knoten identifizierbar. Werden auf diese Weise sämtliche dem Netz zugrundeliegenden Progressionen durchgeführt, entstehen Knotenwege mit teilweise identischen Elementen. Zum einen, da die Pfadentwicklung über
den selben unbedingten Knoten führen – eine Eigenschaft, die den jeweiligen Pfad
einer so genannten Familie zuordnen – und zum anderen, weil an Kreuzungsknoten
mit einem Bedingtheitsgrad größer als Eins zwei oder mehrere Familien zusammenkommen. Da Letztere keine zusätzlichen Informationen enthalten, in diesem Sinne
also überflüssig sind, und außerdem nicht dem Netzinhalt genügen – bedingte Inhalte
werden nur einmal gewählt – werden diese „doppelten“ Elemente grundsätzlich einer
Progression zugeordnet. Kreuzungsknoten sind damit sekundär immer dann als Endknoten zu behandeln, sobald sie in einem regulären Pfad berücksichtigt worden sind.
Überträgt man dieses Prinzip konsequent auf jeden bedingten Knoten, resultieren
hieraus zwei Arten von Pfaden, die jeweils mit dem Startknoten beginnen und entweder mit dem Endknoten oder einem Kreuzungsknoten enden. Programmtechnisch
kann mit einem back-track-Algorithmus der Weg der gerichteten Graphen durch das
Entscheidungsnetz von unzulässigen Lösungen bereinigt werden. Nachdem die zu-
144
lässigen Pfade nicht automatisch disjunkte Ereignisse darstellen, kann die Summe
der Wahrscheinlichkeiten aller Pfade größer als Eins sein. Um aus den ermittelten
Pfaden jene Kombinationen zu erhalten, über denen die Wahrscheinlichkeitsfunktion
definiert ist, sind sie so miteinander zu verbinden, dass die ursprüngliche Netzstruktur regelrecht rekonstruiert wird. Man erreicht dies in zwei Schritten: Zunächst werden aus den Pfaden mögliche Kombinationen gebildet, derart, dass in jeder Kombination ein Pfad jeder Familie vorkommt. Anschließend werden Kombinationen, die
der kausalen Netzstruktur nicht entsprechen und in diesem Sinne ungültig sind, eliminiert. Die Gültigkeitsprüfung erfolgt dabei nach dem Kriterium, dass ein Knoten
immer dann durchlaufen, d. h. eine Entscheidung immer dann getroffen wird, wenn
zugleich sämtliche Bedingungen erfüllt sind. Die zulässigen Kombinationen der
Graphen durch die Entscheidungsnetze können schließlich genutzt werden, um die
Wahrscheinlichkeitscharakteristika von Entscheidungsnetzen zu berechnen.
Im Gegensatz zu der vorherigen Version von MAGIC, die in FORTRAN programmiert wurde, hat die mit C++ programmierte neue Version den Vorteil einer dynamischen Speicherverwaltung. Dadurch können die für die Berechnung der Wahrscheinlichkeitscharakteristika grundlegende WMF und die darin enthaltenen Wahrscheinlichkeiten berechnet werden, ohne dass vorher der Speicherort und somit auch der
Speicherbedarf festgelegt wird. Damit wird vermieden, dass die neue Version des
Programms schnell an Speichergrenzen stößt.
145
Abschließend wird für das beschriebene Beispiel die vollständige Ausgabedatei erläutert.
Ausgabedatei von MAGIC.EXE
Dies ist MAGIC, Version 2.0
(C) Michael Leserer 1986; realisiert von Manfred Tietze 1987
(C) der völlig überarbeiteten Version: Manfred Tietze 2000
Platz für 4 Knoten reserviert.
Platz für 5 Kanten reserviert.
Die Bits 0 bis 1 der Attribute stehen für Eta.
Die Bits 2 bis 3 der Attribute stehen für alle Ksi.
Platz für 1 Familien reserviert.
Zunächst wird eine Knotentabelle erstellt, in der die Anzahl der Vorgänger und
Nachfolger der jeweiligen Knoten festgehalten werden.
Knotentabelle:
==============
Knoten
-----1
2
3
4
Vorgänger
--------0
1
2
3
Nachfolger
---------1
2
1
0
In der Kantentabelle wird für jede Kante der Anfangs- und Endknoten ausgegeben
sowie ausgewiesen, mit welcher Wahrscheinlichkeit die jeweilige Kante belegt ist.
Außerdem wird noch in der Spalte „Markierung“ festgehalten, ob es sich um eine
bedingte oder unbedingte Kante (Zufallsveränderliche) handelt, und schließlich wird
der Wert (Attribut) der Kante festgelegt.
Kantentabelle:
==============
Kante
Anfang
---------1
1
2
2
3
2
4
3
5
3
Platz für 3 Pfade reserviert.
Ende
---2
3
4
4
4
146
Wahrsch.
--------
Markierung
----------
Wert
----
0.500000
0.500000
0.500000
0.500000
1
2
-1
-2
1.00
0.00
0.00
1.00
In der Pfadtabelle werden die jeweiligen Wahrscheinlichkeiten für die Pfade und
Knotenfolgen ausgewiesen.
Pfadtabelle:
============
Familie Pfad
------- ---1
1
2
3
Wahrsch.
-------0.250000
0.250000
0.500000
Attribut
-------$00000006
$00000005
$00000008
Knotenfolge
----------1
2
1
2
1
2
3
3
4
4
4
Platz für 3 Kombinationen reserviert.
Aus der Pfadtabelle werden die gültigen Kombinationen mit den Wahrscheinlichkeiten ermittelt und die Summe der Wahrscheinlichkeiten ausgegeben.
Gültige Kombinationen:
======================
Kombination
----------1
2
3
Summe:
Wahrsch.
-------0.250000
0.250000
0.500000
-------1.000000
Attribut
-------$00000005
$00000006
$00000008
Pfade
----2
1
3
Platz für 3 Gruppen reserviert.
147
Es folgt die Ermittlung der Wahrscheinlichkeitstabelle mit den zugehörigen Wertekombinationen für die als unbedingt (KSI) oder bedingt (ETA) definierten Zufallsvariablen. Ausgehend von der Wahrscheinlichkeitstabelle werden mittels der gemeinsamen WMF die weiteren Wahrscheinlichkeitscharakteristika, wie schon in Abschnitt 2.5 beschrieben, berechnet.
Wahrscheinlichkeitstabelle mit Wertekombinationen:
==================================================
Gruppe
-----1
2
3
Wahrsch.
-------0.250000
0.250000
0.500000
Attribut
-------$00000005
$00000006
$00000008
Eta
--1.00
0.00
0.00
Ksi1
---1.00
1.00
0.00
Gemeinsame Wahrscheinlichkeitsmaßfunktion:
==========================================
Eta
Ksi1
0.000000
1.000000
0.000000
Zeilensumme
bedingter
ErwWert
1.00
0.00
0.000000
0.500000
0.250000
0.000000
0.250000
0.000000
0.500000
0.500000
0.500000
0.000000
0.500000
0.250000
0.250000
1.000000
Gemeinsame Erwartungswerte:
===========================
E(Eta ) =
E(Ksi1) =
0.250000
0.500000
Varianz-Kovarianz-Matrix:
=========================
Eta
Eta
0.187500
Ksi1
0.125000
Ksi1
0.250000
148
149
0.500000
1.000000
0.250000
0.062500
0.187500
0.187500
0.500000
0.500000
0.000000
0.000000
2.000000
1.000000
1.000000
Zeilensumme
0.250000
0.250000
0.000000
0.125000
0.125000
0.000000
0.062500
0.031250
0.031250
bedingte ErwWert d. Varianz d.
Varianz bed.Varianz bed.ErwWert
Weitergehende Berechnungen können dann in einem nächsten Schritt in EXCEL oder einem anderen Programm erfolgen.
Var(Eta) = S(EVcVar) + S(VarcEV) =
Var(Eta) =
E(Eta²) - E(Eta)²
=
E(Eta²) =
E(Eta)² =
Varianzgleichungen:
===================
0.500000
0.000000
0.000000
1.000000
1.00
0.00
1.000000
0.000000
Eta
Ksi1
Bedingte Wahrscheinlichkeitsmaßfunktion:
========================================
Herunterladen