Guido Recke Entscheidungsanalyse unter Risiko und Unsicherheit Entscheidungscharakteristika in ökonomischen Netzen Göttingen 2004 Guido Recke Entscheidungsanalyse unter Risiko und Unsicherheit Entscheidungscharakteristika in ökonomischen Netzen Habilitationsschrift von Guido Recke Göttingen 2001 Vorwort Die Entscheidungstheorie ist ein Wissensgebiet der Ökonomen, das in den letzten Jahren eine besondere Aufmerksamkeit gewonnen hat. An dieser Entwicklung haben der Nobelpreisträger Daniel Kahneman zusammen mit seinem Kollegen Amos Tversky einen entscheidenden Anteil. Sie haben mit ihren Arbeiten die Entscheidungstheorie maßgeblich beeinflusst. Außerdem haben die Entwicklungen in den Bereichen Computertechnik und Software dazu beigetragen, dass viele Analysen von Entscheidungsproblemen inzwischen auch am PC durchgeführt werden können. Dadurch konnten neue Erkenntnisse aus der Entscheidungstheorie auch in der Praxis umgesetzt werden. Ziel dieser Schrift ist es, auf dem Gebiet der Entscheidungstheorie den Entscheidungsnetzansatz einzuführen. Dieser Ansatz erlaubt eine wesentliche Erweiterung von Entscheidungsanalysen unter Risiko und Unsicherheit. Mit ihm können selbst mehrfaktorielle netzartige Einflussstrukturen mittels der dafür abgeleiteten statistischen Kenngrößen deskriptiv und normativ analysiert werden. Neue Erkenntnisse erschließen sich damit in der Entscheidungslehre und Spieltheorie, und auch für andere Forschungsgebiete der Ökonomik, in die Risiko und Unsicherheit eingehen, wie z. B. in der Investitionslehre, sind neue Einsichten zu erwarten. Mein herzlicher Dank gilt all denen, die mich bei dieser Arbeit unterstützt haben. Besonders möchte ich meinen akademischen Lehrern am Institut für Agrarökonomie in Göttingen danken. Herr Prof. em. Dr. Wilhelm Brandes, an dessen Lehrstuhl für Theoretische Landwirtschaftliche Betriebslehre ich die Habilitationsschrift verfassen konnte, hat maßgeblich zum Gelingen beigetragen. Er hat viele wichtige inhaltliche Anregungen gegeben und sich stets viel Zeit für meine Fragen genommen. Bedanken möchte ich mich auch bei Herrn Prof. Dr. Michael Leserer. Er ist der geistige Vater der Entscheidungsnetze und hat wesentlich dazu beigetragen, den Ansatz der Entscheidungsnetze auch auf Entscheidungssituationen unter Risiko und Unsicherheit zu übertragen und die zugehörigen statistischen Grundlagen und Konzepte zu entwickeln. V Mein Dank gilt auch den Kollegen am Institut und besonders den Doktoren Thomas Berger, Jocelyn Braun, Hans-Joachim Budde, Alois Fenneker, Ludger HinnersTobrägel und Olaf Linnemann, die in vielen Lehrstuhlbesprechungen mit kritischen Anmerkungen meine Arbeit vorangebracht haben. Ohne die Entwicklung eines Programms, mit dem komplexe Entscheidungsnetze analysiert werden können, wäre diese Schrift nicht möglich gewesen. Hier ist besonders Herr Manfred Tietze zu erwähnen, der das leistungsfähige Programm „Magic“ entwickelt hat. Danken möchte ich zudem den Herren Dipl.-Ing. agr. Cord Kröschell und Jochen Meyer, die wichtige Makros zur graphischen Aufbereitung der Ergebnisse aus der Entscheidungsnetzanalyse entwickelt haben. Schließlich gilt mein Dank Herrn M.Sc. Bernhard Link, der mich in der Schlussphase beim Layout der Arbeit unterstützt hat. Bedanken möchte ich mich auch bei den Gutachtern mit ihren wichtigen Anregungen zu dieser Habilitationsschrift. Mein besonderer Dank gilt dabei Herrn Prof. Dr. Michael Grings, der sich in dieses neue Gebiet intensiv eingearbeitet hat und wichtige Anmerkungen geben konnte, die entscheidend die vorliegende Monographie verbessert haben. Mein Dank gilt auch Herrn Wolfgang Peinemann und Frau Martina Reichmann, die viele Abbildungen erstellt und mich beim Schreiben der Endfassung unterstützt haben. Schließlich gilt mein besonderer Dank meiner Frau, die mich in dieser Zeit stets unterstützt und es damit erst ermöglicht hat, dass diese Schrift nun vorliegt. Göttingen, im Juni 2004 Guido Recke VI Inhaltsverzeichnis Inhaltsverzeichnis ................................................................................................... VII 1 Einleitung ............................................................................................................ 1 2 Entscheidungen unter Risiko und Unsicherheit................................................ 4 2.1 Grundlagen der Entscheidungsfindung ................................................... 4 2.2 Entscheidungsansätze unter Risiko und Unsicherheit ........................... 7 2.2.1 Einführung ........................................................................................... 7 2.2.2 Grundlagen der Erwartungsnutzentheorie.......................................... 10 2.2.3 Alternativen zur Erwartungsnutzentheorie ........................................ 11 2.2.3.1 Modifikationen der Erwartungsnutzentheorie................................ 11 2.2.3.2 Erwartungswert-Varianz-Analyse.................................................. 15 2.2.3.3 Stochastische Dominanz ................................................................ 16 2.2.3.4 Prospect-Theorie ............................................................................ 18 2.3 Zur Interpretation von Wahrscheinlichkeiten ...................................... 23 2.3.1 Einführung ......................................................................................... 23 2.3.2 Exkurs zur Geschichte der Wahrscheinlichkeitstheorie..................... 24 2.3.3 Objektivistische Interpretation ........................................................... 25 2.3.4 Subjektivistische Interpretation.......................................................... 27 2.3.5 Verwirklichungstendenzen................................................................. 28 2.4 Entscheidungsverfahren .......................................................................... 31 2.4.1 Einführung ......................................................................................... 31 2.4.2 Entscheidungsbäume und -matrizen .................................................. 31 2.4.3 Einflussdiagramme............................................................................. 34 2.4.4 Entscheidungsnetze ............................................................................ 37 2.5 Charakteristika für Entscheidungsnetze ............................................... 44 2.5.1 Einführung ......................................................................................... 44 2.5.2 Zur Ermittlung von Charakteristika in Entscheidungsnetzen ............ 44 2.5.2.1 Wahrscheinlichkeitsmaßfunktionen............................................... 44 2.5.2.2 Erwartungswerte und Varianzen .................................................... 48 VII 3 2.5.2.3 Bedingte Erwartungswerte und bedingte Varianzen...................... 51 2.5.2.4 Varianzanalyse ............................................................................... 52 2.5.2.5 Multivariate Analysen.................................................................... 55 Entscheidungsnetzanalyse ................................................................................ 67 3.1 Sensitivitätsanalysen ................................................................................ 67 3.1.1 Einführung ......................................................................................... 67 3.1.2 Veränderungen in der Struktur........................................................... 67 3.1.3 Veränderungen in den Attributen....................................................... 75 3.1.4 Veränderungen in den Wahrscheinlichkeiten .................................... 78 3.2 Entscheidungsnetze und Spieltheorie..................................................... 83 3.2.1 Einführung ......................................................................................... 83 3.2.2 Grundlagen der Spieltheorie .............................................................. 84 3.2.3 Entscheidungsnetze und Nash-Gleichgewichte ................................. 86 4 Zusammenfassung und Ausblick ..................................................................... 98 5 Literaturverzeichnis ........................................................................................ 100 6 Anhang ............................................................................................................ 104 Anhang 1: Quellcode des Programms MAGIC.EXE in der Version 2.0 vom November 2000, nach einer Idee von M. Leserer, weiterentwickelt und überarbeitet von G. Recke, von M. Tietze programmiert.............................. 104 Anhang 2: Beschreibung der Routine NETZINP1.EXE zur Erstellung einer Eingabedatei und des Programms MAGIC.EXE ........................................... 138 Anhang 3: Die Ausgabe von MAGIC.EXE..................................................... 144 VIII Tabellenverzeichnis Tabelle 2.1: Investitionsentscheidung unter Unsicherheit: Erwarteter Gewinn ........ 8 Tabelle 2.2: Entscheidungsmatrix Investitionsentscheidung: Erwarteter Gewinn.... 34 Tabelle 2.3: Beschreibung der Handlungsalternativen ............................................ 42 Tabelle 2.4: Zulässige Alternativenkombinationen und ihre wahrscheinlichkeitstheoretische Auswertung ................................................................................................... 43 Tabelle 2.5: Gemeinsame WMF................................................................................ 46 Tabelle 2.6: Gemeinsame WMF für das Anbieter-Nachfrager-Beispiel................... 46 Tabelle 2.7: Bedingte WMF ...................................................................................... 47 Tabelle 2.8: Bedingte WMF für das Anbieter-Nachfrager-Beispiel ......................... 48 Tabelle 2.9: Varianz-Kovarianz-Matrix.................................................................... 50 Tabelle 2.10: Korrelationsmatrix .............................................................................. 50 Tabelle 2.11: Bedingte Erwartungswerte .................................................................. 52 Tabelle 2.12: Bedingte Varianz................................................................................. 52 Tabelle 2.13: Varianzzerlegung................................................................................ 54 Tabelle 2.14: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 0 ................ 56 Tabelle 2.15: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 1 ................ 57 Tabelle 2.16: Multivariate gemeinsame WMF in Diagonalform.............................. 58 Tabelle 2.17: Multivariate gemeinsame WMF mit der Variable Z........................... 59 Tabelle 2.18: Multivariate bedingte WMF................................................................ 60 Tabelle 2.19: Multivariate gemeinsame WMF ......................................................... 64 Tabelle 2.20: Multivariate bedingte WMF und ausgewählte Parameter ................. 65 Tabelle 3.1: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 1 ........................................................................................................... 72 Tabelle 3.2: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 2 ........................................................................................................... 72 Tabelle 3.3: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 3 ........................................................................................................... 73 Tabelle 3.4: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 4 ........................................................................................................... 74 Tabelle 3.5: Angsthase (Variante 1) ......................................................................... 85 IX Tabelle 3.6: Zwei-Personen-Spiel in strategischer Form ......................................... 87 Tabelle 3.7: Angsthase (Variante 2) ......................................................................... 89 Tabelle 3.8: Angsthase (Variante 1) mit Payoff und Bestimmtheitsmaß (KY | X ) ....... 94 Tabelle 3.9: Angsthase (Variante 2) mit Payoff und Bestimmtheitsmaß (KY | X ) ....... 94 X Abbildungsverzeichnis Abbildung 2.1: Verteilungsfunktionen und stochastische Dominanz........................ 17 Abbildung 2.2: Typische Wertfunktion (Prospect-Theorie) ...................................... 19 Abbildung 2.3: Wahrscheinlichkeitsgewichtungsfunktion (Prospect-Theorie) ....... 20 Abbildung 2.4: Wahrscheinlichkeitsgewichtungsfunktionen (kumulative ProspectTheorie) ...................................................................................................................... 22 Abbildung 2.5: Entscheidungsbaum Investitionsentscheidung ................................. 32 Abbildung 2.6: Einflussdiagramm Geldanlage......................................................... 35 Abbildung 2.7: Einflussformen in Einflussdiagrammen ........................................... 36 Abbildung 2.8: Entscheidungsnetz Kaufsituation ..................................................... 41 Abbildung 2.9: Entscheidungsnetz Anbieter-Nachfrager-Beispiel ........................... 45 Abbildung 3.1: Entscheidungsnetz Kaufsituation 1 .................................................. 68 Abbildung 3.2: Entscheidungsnetz Kaufsituation 2 .................................................. 69 Abbildung 3.3: Entscheidungsnetz Kaufsituation 3 .................................................. 70 Abbildung 3.4: Entscheidungsnetz Kaufsituation 4 .................................................. 71 Abbildung 3.5: Kaufsituation 3, Fall 1 (N2 bei A21 = 1) ........................................... 75 Abbildung 3.6: Kaufsituation 3, Fall 2 (N2 bei A21 = 10) ......................................... 76 Abbildung 3.7: Kaufsituation 4, Fall 1 (N2 bei A41 = 1) ........................................... 76 Abbildung 3.8: Kaufsituation 4, Fall 2 (N2 bei A41 = 10).......................................... 77 Abbildung 3.9: E(Y) der Kaufsituation 3 .................................................................. 78 Abbildung 3.10: Var(Y) der Kaufsituation 3............................................................. 79 Abbildung 3.11: KY | X der Kaufsituation 3 ................................................................ 80 Abbildung 3.12: E(Y) der Kaufsituation 4 ................................................................ 81 Abbildung 3.13: Var(Y) der Kaufsituation 4............................................................. 82 Abbildung 3.14: KY | X der Kaufsituation 4 ............................... ................................ 82 Abbildung 3.15: Entscheidungsnetz ausgehend von Spieler A ................................. 88 Abbildung 3.16: Entscheidungsnetz ausgehend von Spieler B ................................. 88 Abbildung 3.17: Entscheidungsnetz ausgehend von Spieler A, Variante 1 .............. 90 Abbildung 3.18: Entscheidungsnetz ausgehend von Spieler B, Variante 1 .............. 90 Abbildung 3.19: Entscheidungsnetz ausgehend von Spieler A, Variante 2 .............. 91 XI Abbildung 3.20: Entscheidungsnetz ausgehend von Spieler B, Variante 2 .............. 91 Abbildung 3.21: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 1.... 93 Abbildung 3.22: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 1.... 93 Abbildung 3.23: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 2.... 95 Abbildung 3.24: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 2.... 96 XII 1 Einleitung Wirtschaftssubjekte treffen für sich oder in Gruppen viele Entscheidungen, die mit Risiko und Unsicherheit verbunden sind. Dabei bedienen sie sich auch einfacher Regeln. Sie wiederholen z. B. eine Entscheidung, wenn diese sich als gut herausgestellt hat, oder sie orientieren sich am erfolgreichen Verhalten anderer Wirtschaftssubjekte. Viele Entscheidungssituationen sind aber einmalig und/oder komplex, sodass die einfachen Regeln nicht angewendet werden können. In solchen Fällen können einfache Heuristiken oder Analyseverfahren Entscheidungshilfe bieten. Dabei wird i. d. R. eine präskriptive Analyse aus der Sicht des unmittelbar betroffenen Entscheiders durchgeführt. Zu diesen Analyseverfahren ist ein neuer Ansatz – der Entscheidungsnetzansatz – zu zählen, der hier vorgestellt wird. Er erlaubt es, die Sichtweise eines außerhalb der Entscheidungssituation sich befindenden Beobachters einzunehmen, der eine Entscheidungssituation beschreiben und erklären will. Dieser zunächst deskriptive Ansatz kann auch präskriptiv zur Entscheidungsunterstützung eingesetzt werden. Entscheiden heißt, aus einem Bündel von Alternativen auszuwählen. Da in der Wirtschaftswelt ein Entscheider i. d. R. nicht unabhängig von anderen ist, sind die Alternativenbündel der verschiedenen Entscheider kausal verbunden. Die Alternativenbündel hängen bedingt voneinander ab, und jede Alternative hat in einer stochastischen Situation eine Tendenz sich zu verwirklichen (POPPER 1992, 347 ff.). So beeinflusst die Entscheidung des Anbieters, einen hohen oder niedrigen Preis für sein Gut zu verlangen, die davon abhängige Entscheidung des Nachfragers zu kaufen oder zu verzichten. Mit Entscheidungsnetzen kann die Analyse einer solchen stochastischen Entscheidungssituation aus der Sicht des nicht unmittelbar involvierten Beobachters (Dritten) durchgeführt werden. Diesem wird mit dem Entscheidungsnetzansatz die Möglichkeit eröffnet, einmalige Entscheidungssituationen unter Risiko und Unsicherheit zu beschreiben, zu erklären und mittelbar gezielt auf die Entscheidungssituation Einfluss zu nehmen. In diesem Ansatz wird vorausgesetzt, dass der Beobachter die Struktur des Entscheidungsproblems vollständig beschreiben und 1 außerdem den einzelnen Alternativen Verwirklichungstendenzen (Wahrscheinlichkeiten) zuordnen kann. Ob diese auf subjektiven Mutmaßungen basieren, Expertenwissen sind oder sich auf Daten ähnlicher Probleme aus der Vergangenheit stützen, soll hier nicht weiter diskutiert werden. Auch werden die damit verbundenen Informationsprobleme in dieser Arbeit nicht näher behandelt. In Kapitel 2 der vorliegenden Arbeit werden zunächst die Grundlagen der Analyse von Entscheidungen und hier speziell solcher unter Risiko und Unsicherheit beschrieben. Abschnitt 2.1 stellt den Entscheidungsprozess als mehrstufigen Prozess dar. Der folgende Abschnitt führt in die wichtigsten Entscheidungstheorien und Heuristiken für Entscheidungen unter Risiko und Unsicherheit ein. Neben präskriptiven werden auch einige deskriptive Ansätze vorgestellt. Dabei wird untersucht, ob bei der Entwicklung von Theorien zur Entscheidungsfindung empirisches Entscheidungsverhalten und axiomatische Eleganz miteinander zu verbinden sind. Es folgt ein Abschnitt, in dem die bedeutendsten Wahrscheinlichkeitsinterpretationen beschrieben werden. Für die vorliegende Arbeit wird der auf POPPER (1992, 347 ff.) zurückgehende Propensitäten-Ansatz gewählt. In Abschnitt 2.4 werden die wichtigsten Ansätze vorgestellt, mit denen Entscheidungen unter Risiko und Unsicherheit computergestützt untersucht werden können. Für die Analyse der oben beschriebenen einmaligen Entscheidungsprobleme unter Risiko und Unsicherheit aus der Sicht eines Beobachters ist die Entscheidungsnetzanalyse am ehesten geeignet. Danach werden die mathematisch-statistischen Grundlagen der Entscheidungsnetzanalyse ausführlich hergeleitet. Diese kann, was ihre Struktur angeht, auf die FISZ’sche Regression erster Art zurückgeführt werden. Für diesen Ansatz werden Charakteristika einer gemeinsamen Wahrscheinlichkeitsmaßfunktion (WMF) wie Erwartungswerte sowie Varianzen eingeführt, und auf der Grundlage einer Varianzzerlegung wird ein Bestimmtheitsmaß ( KY | X ) abgeleitet. Dabei wird die Streuung, die 2 auf die unabhängigen Variablen zurückzuführen ist, ins Verhältnis zur Gesamtstreuung der abhängigen Variablen gesetzt. In Kapitel 3 werden anhand von Entscheidungsnetzen zunächst verschiedene Strukturen von Entscheidungssituationen verglichen. Außerdem werden Sensitivitätsrechnungen für einzelne Attribute und Wahrscheinlichkeiten durchgeführt, um der Frage nachzugehen, wie robust die Ergebnisse der Charakteristika sind. In Abschnitt 3.2 werden im Rahmen einer spieltheoretischen Anwendung Spiele mit gemischten Strategien analysiert. Damit soll beispielhaft gezeigt werden, wie der Entscheidungsnetzansatz in Teilbereichen der Ökonomie eingesetzt werden kann. In diesem Abschnitt soll speziell der Frage nachgegangen werden, ob Entscheidungsnetze neue Erkenntnisse in der Frage der Differenzierbarkeit von Nash-Gleichgewichten liefern können. Um insbesondere komplexe Entscheidungsnetze rechnen zu können, wurde das Computerprogramm MAGIC entwickelt, das zusammen mit einigen Hilfsprogrammen im Anhang ausführlich beschrieben wird. 3 2 Entscheidungen unter Risiko und Unsicherheit 2.1 Grundlagen der Entscheidungsfindung Entscheidungsfindung ist häufig ein komplexer Prozess, der ausgehend von einem Problem über mehrere Stufen zu einer Entscheidung führt. Im Folgenden wird zunächst der Prozess für eine Entscheidung unter Sicherheit beschrieben. Auf Entscheidungen unter Risiko und Unsicherheit geht Abschnitt 2.2 ein. In Anlehnung an HAMMOND et al. (1999, 4 ff.) und LAUX (1998, 8 ff.) kann der Prozess der Entscheidungsfindung in fünf Stufen unterteilt werden: 1. Problemdefinition 2. Zielsetzung 3. Ermittlung der Alternativen 4. Feststellen der Konsequenzen 5. Entscheidung 1. Problemdefinition Ausgangspunkt jeder Entscheidungsfindung sind Entscheidungsprobleme. Diese besitzen einen Auslöser, ein Ereignis, das die Entscheidungsfindung anstößt. Die Analyse des Auslösers sollte der erste Schritt der Problemdefinition sein (HAMMOND et al. 1999, 19 f.), um sicherzustellen, dass das eigentliche Problem erkannt wird. Im Verlauf der Problemdefinition sollten ferner implizite Beschränkungen bzgl. der Entscheidungsprobleme hinterfragt werden, um die Lösungsalternativen nicht zu sehr einzuschränken (HAMMOND et al. 1999, 20 f.). 2. Zielsetzung Im Anschluss an die Problemdefinition sind die Ziele festzulegen. Beispielsweise sollte in einem Unternehmen die Unternehmensführung die Zielfunktion so formulieren, dass in ihr sämtliche Ziele bzw. Teilziele enthalten sind. Da dieses in der betrieblichen Praxis schwer umzusetzen ist, wird die langfristige Gewinnmaximierung 4 häufig als Hauptziel unterstellt, und weitere Ziele werden in Form von Nebenbedingungen berücksichtigt (WÖHE/DÖRING 2000, 119). Versucht man, Ziele oder Zielvorstellungen zu systematisieren, finden sich in der betriebswirtschaftlichen Literatur die unterschiedlichsten Ansätze. Nach WÖHE/DÖRING (2000, 119 f.) können beispielsweise monetäre von nicht-monetären Zie- len unterschieden werden. Monetäre Ziele sind etwa die Steigerung des Gewinns und die Steigerung des Umsatzes. Die nicht-monetären Ziele lassen sich in ökonomische, – wie z. B. die Erhöhung des Marktanteiles – oder nichtökonomische, wie das Streben nach Prestige und Macht oder das Streben nach Unabhängigkeit, unterteilen (HÖRSCHGEN 1992, 471 ff.). Ziele können außerdem nach den Zielarten systematisiert werden (WÖHE/DÖRING 2000, 120 ff.). Z. B. kann nach - der Rangordnung der Ziele, - dem angestrebten Ausmaß der Zielerreichung, - den Beziehungen zwischen den Zielen und - dem zeitlichen Bezug der Ziele unterteilt werden. Hinsichtlich der Rangordnung können Ober- von Zwischen- und Unterzielen unterschieden werden. Beim Ausmaß der Zielerreichung sind unbegrenzte von begrenzten Zielen (Anspruchsniveau) zu unterscheiden. Daneben können Ziele nach ihrer Zielbeziehung differenziert werden. Dabei sind in erster Linie komplementäre von konkurrierenden Zielen zu unterscheiden. Neben diesen Aspekten kann außerdem der zeitliche Bezug berücksichtigt werden, so ist eine Systematisierung nach der Fristigkeit (kurz-, mittel- und langfristig) oder nach dem zeitlichen Bezug (Zeitpunkt oder Zeitraum) möglich. EISENFÜHR/WEBER (1999, 53 ff.) betonen, dass aus einer präskriptiven Sicht die Unterscheidung zwischen Fundamental- und Instrumentalzielen bedeutend ist. Zur Bewertung der Alternativen sollten nur fundamentale Ziele berücksichtigt werden. Ein 5 Fundamentalziel ist ein Ziel, das seiner selbst wegen angestrebt wird und in seinem speziellen Entscheidungskontext zu sehen ist, während ein Instrumentalziel Mittel zur Erreichung eines Fundamentalzieles ist. Die Fundamentalziele sollten ferner folgende Eigenschaften erfüllen (EISENFÜHR/WEBER 1999, 60 ff. und KEENEY 1992, 82 ff.): 1. Vollständigkeit 2. Redundanzfreiheit 3. Messbarkeit 4. Operationalität 5. Eindeutigkeit 6. Einfachheit 3. Ermittlung der Alternativen Im Rahmen der Entscheidungsfindung sind ferner die Alternativen zu bestimmen, zwischen denen der Entscheider zu wählen hat. Diese sollten so formuliert werden, dass dieser zwischen verschiedenen sich ausschließenden Alternativen entscheidet. Das bedeutet, dass mindestens zwei Alternativen vorliegen müssen und außerdem Fälle vermieden werden sollten, in denen sich mehrere Alternativen gleichzeitig realisieren lassen (BAMBERG/COENENBERG 2000, 16 f.) 4. Feststellung der Konsequenzen Die mit den jeweiligen Alternativen verbundenen Konsequenzen sind als vierte Komponente im Entscheidungsprozess festzustellen. Nach HAMMOND et al. (1999, 66 f.) sollten die Konsequenzen - richtig, - vollständig und - genau erfasst werden. 6 5. Entscheidung Im letzten Schritt der Entscheidungsfindung sollte unter Berücksichtigung des Zielsystems und gegebener Beschränkungen eine möglichst gute Alternative gewählt werden. In dieser Stufe können die in den folgenden Abschnitten noch ausführlicher beschriebenen Analyseansätze als Hilfe bei der Entscheidungsfindung eingesetzt werden.1 Entscheidungsfindung ist demnach ein Prozess, der sich in einzelne Stufen zerlegen lässt. Diese dürfen aber nicht isoliert voneinander betrachtet werden, da sie oft miteinander verbunden sind. Auch können einzelne Stufen mehrfach durchlaufen werden. Und schließlich sollte eine Entscheidung nicht isoliert, sondern im Kontext mit anderen Entscheidungen, als verknüpfte Entscheidung, gesehen werden. Falls eine Entscheidung unter Risiko und Unsicherheit zu treffen ist, ist der Prozess der Entscheidungsfindung komplexer. Die Entscheidungsfindung wird dann beispielsweise noch von einer sich ändernden Umwelt und/oder anderen Entscheidern beeinflusst. Risiko und Unsicherheit erschweren den Prozess der Entscheidungsfindung. Ausführlich wird darauf in den folgenden Abschnitten eingegangen. 2.2 Entscheidungsansätze unter Risiko und Unsicherheit2 2.2.1 Einführung Risiko und Unsicherheit3 sind ein wesentlicher Bestandteil des Lebens (VARIAN 1987, 211). Dieses zeigt sich insbesondere, wenn Menschen planen und Entscheidungen treffen. Risiko und Unsicherheit können sich aus natürlichen Ereignissen 1 Zusätzlich finden sich in Lehrbüchern zur Entscheidungstheorie wie z. B. bei BAM(2000) oder EISENFÜHR/WEBER (1999) weitere Ansätze, um Entscheidung zu unterstützen. Auf diese wird aber im Rahmen dieser Arbeit nicht eingegangen. 2 Dieser Abschnitt stützt sich auf Kapitel 12 von BRANDES et al. (1997). 3 Bzgl. der Einordnung von Entscheidungen unter Risiko und Unsicherheit wird nicht der üblichen Unterscheidung in Situationen unter Ungewissheit, Unsicherheit, Risiko und Sicherheit gefolgt, weil es damit z. B. nicht möglich ist, ein Entscheidungsproblem einzuordnen, in dem in einigen Teilbereichen Ungewissheit und in anderen eine Situation unter Risiko vorliegt. Vereinfachend wird deshalb in dieser Arbeit nur zwischen Entscheidungen unter Sicherheit und Entscheidungen unter Risiko und Unsicherheit unterschieden. BERG/COENENBERG 7 ergeben, aber auch aus den Handlungen anderer Individuen resultieren. Wenn Entscheidungen unter Unsicherheit analysiert werden, kommt noch erschwerend hinzu, dass sich die Entscheider in ihrer Wahrnehmung und Einstellung zu Risiken und Unsicherheit unterscheiden. Deshalb sollten für das unsichere Ergebnis einer Handlung nicht einfache Entscheidungskriterien, wie beispielsweise der in der Praxis häufig verwendete Erwartungswert, eingesetzt werden4. Wenn dieser angewendet wird, kann es zu Fehlentscheidungen kommen, die schon DANIEL BERNOULLI (1954 / 1738) erkannt und mit dem Petersburger Paradoxon verdeutlicht hat. Der Erwartungswert berücksichtigt die Streuung nicht, sodass je nach Risikoeinstellung daraus falsche Entscheidungen resultieren können. Dieses kann exemplarisch anhand eines einfachen Investitionsbeispiels (Tabelle 2.1) gezeigt werden. Der Entscheidungsträger eines Unternehmens überlegt, ob er in eine neue Anlage investieren soll. Er hat eine ungenaue Vorstellung darüber, ob mit hohen oder niedrigen Preisen für sein Produkt zu rechnen ist. Daher wird jeweils eine Wahrscheinlichkeit von 0.5 für einen hohen und niedrigen Preis unterstellt. In der folgenden Tabelle werden die erwarteten Gewinne aufgeführt. Tabelle 2.1: Investitionsentscheidung unter Unsicherheit: Erwarteter Gewinn Preise hoher Preis niedriger Preis (p=0.5) (p=0.5) alte Anlage 10000 5000 7500 neue Anlage 17000 -1000 8000 Alternativen Erwartungswert Wenn der Entscheidungsträger des Unternehmens nach dem ErwartungswertKriterium handelt, wird er sich für die Investition in die neue Anlage entscheiden, denn der Erwartungswert des Gewinns für die neue Anlage beträgt 8000 und für die alte Anlage 7500. Aber die alte Anlage wird im Gegensatz zur neuen Anlage auch 4 Neben dem Erwartungswert werden in der Praxis häufig auch die klassischen Entscheidungskriterien eingesetzt, die bei Entscheidungen unter Unsicherheit, wenn keine Wahrscheinlichkeiten bestimmt werden können, angewendet werden können. Ausführlich werden diese bei BAMBERG/COENENBERG (2000, 131 ff.) BITZ (1980, 61 ff.) und LAUX (1998, 103 ff.) beschrieben. 8 bei niedrigen Preisen einen Gewinn abwerfen. Ein Entscheider, der vorrangig bestrebt ist, einen Konkurs zu vermeiden, wird sich deshalb gegen die Investition entscheiden und nicht nach dem Erwartungswert-Kriterium handeln. Befürworter des Kriteriums argumentieren, dass bei entsprechender Anzahl von Wiederholungen der Erwartungswert des Durchschnittsgewinns sich dem erwarteten Gewinn annähert (LAUX 1998, 145 ff.) und die Streuung abnimmt. Ferner wird diskutiert, ob man an den Durchschnittsgrößen die Entscheidung festmachen sollte. LAUX (1998, 145 ff.) argumentiert, dass es besser sei, sich am Gesamtgewinn zu orientieren. Aber auch dann ist der Erwartungswert kein allgemein gültiges Entscheidungskriterium, da die Standardabweichung des Gesamtgewinns mit der Anzahl der Wiederholungen zunimmt (LAUX 1998, 149). Gegen diese Argumentationen lässt sich außerdem einwenden, dass die Voraussetzung, eine Aktion (Zufallsexperiment) kann unter identischen Bedingungen wiederholt durchgeführt werden, nur selten erfüllt ist. Dass die Risikoeinstellung von Wirtschaftssubjekten von entscheidender Bedeutung für die Analyse von Entscheidungen unter Risiko und Unsicherheit ist, kann durch empirische Untersuchungen belegt werden. Sie zeigt sich in der Bereitschaft der Individuen, Versicherungen abzuschließen, obwohl die erwartete Versicherungsprämie geringer ausfällt als die an die Versicherung zu zahlende Beiträge. In Unternehmen wird teilweise stärker als zur Erzielung des maximalen Erwartungswerts des Gewinns diversifiziert. Andererseits gibt es Spieler, die mit kleinen Beträgen an einer Lotterie teilnehmen und/oder größere Beträge z. B. im Roulette einsetzen; und jeweils ist der Erwartungswert des Spiels kleiner als der Einsatz (BRANDES/ODENING 1992, 195 f). Als risikofreudiger Entscheider kann auch ein Unternehmer gerechnet werden, der bewusst Risiken eingeht und in sein Untenehmen investiert, weil er hohe Preise für seine Produkte erwartet. In all diesen Fällen ist der Erwartungswert als Entscheidungskriterium ungeeignet. In den folgenden Abschnitten werden deshalb alternative Modelle und Ansätze vorgestellt, um Entscheidungen unter Risiko und Unsicherheit zu analysieren. Der Abschnitt 2.2.2 beschreibt zunächst die Grundlagen der axiomatisierten, MANN-MORGENSTERNSCHEN VON NEU- Entscheidungstheorie, die im Folgenden meistens Er- 9 wartungsnutzentheorie genannt wird. In Abschnitt 2.2.3 werden einige Modifikationen zur Erwartungsnutzentheorie vorgestellt und zwei Konzepte eingeführt, die in der Praxis eine stärkere Verbreitung gefunden haben, nämlich die ErwartungswertVarianz-(EV)-Analyse und das Prinzip der stochastischen Dominanz. Abschließend werden zwei deskriptive Präferenztheorieansätze, die Prospect-Theorie und die kumulative Prospect-Theorie, beschrieben. 2.2.2 Grundlagen der Erwartungsnutzentheorie Das in der Ökonomie am häufigsten eingesetzte Entscheidungskriterium ist der VON NEUMANN-MORGENSTERNSCHE Erwartungsnutzen. Als Grundlage der Erwartungsnutzentheorie wird zunächst die Struktur des klassischen Entscheidungsproblems unter Risiko und Unsicherheit eingeführt. Wenn ausgehend von dem Entscheidungsprozess, der in Abschnitt 2.1 dargestellt wurde, unterstellt wird, dass das Problem definiert ist und der Entscheider das Ziel hat, den erwarteten Nutzen zu maximieren, kann das Entscheidungsproblem wie folgt beschrieben werden: (a) Der Akteur oder Entscheider kann aus einer Menge von Akten (Lotterien, Aktionen oder Alternativen) wählen. Ein Akt A setzt sich aus Konsequenzen (Ergebnissen) xi (i 1, , n) und den zugehörigen Wahrscheinlichkeiten pi (i 1, , n) zu- sammen. (b) Der Entscheider kennt die Konsequenzen xi , die aus dem Akt A resultieren. (c) Er ist in der Lage, den Konsequenzen Wahrscheinlichkeiten pi zuzumessen. Dabei gilt für alle i, pi t 0 und ¦p i 1. i (d) Der Akteur kann jede mögliche Konsequenz xi bewerten. Die Bewertung der Konsequenzen erfolgt über eine Nutzenfunktion: V u ( xi ) . (2.1) 10 Wenn der Entscheider nach den Vollständigkeits-, Transitivitäts-, Stetigkeits- und Unabhängigkeitsaxiomen handelt, wird er die Alternative mit den höchsten erwarteten Nutzen wählen (EISENFÜHR/WEBER 1999, 211 ff., BAMBERG/COENENBERG 2000, 100 ff. und STARMER 2000, 334 f.) Er wird somit die Erwartungsnutzenfunktion V ( A) ¦ p u( x ) i (2.2) i i maximieren. Auf das Problem der Informationsbeschaffung wird hier nicht eingegangen, d. h. in dem zugrundeliegenden Modell wird unterstellt, dass der Akteur „... vollständige Gewissheit über die Ungewissheit ...“ (SCHNEIDER 1980, l41) besitzt. 2.2.3 2.2.3.1 Alternativen zur Erwartungsnutzentheorie Modifikationen der Erwartungsnutzentheorie In empirischen Studien hat sich gezeigt, dass regelmäßig das Unabhängigkeitsaxiom verletzt wird. Einer der Ersten, der solche Effekte empirisch ermitteln konnte, war ALLAIS (1953). Er konnte anhand von Lotterien den common consequence effect und den common ratio effect feststellen. Den common consquence effect hat ALLAIS (1953, 527) durch die folgenden Lotterievergleiche veranschaulicht. Falls Individuen einerseits vor die Wahl gestellt werden, sich zwischen der Lotterie A1 (100 Mio.; 1) und der Lotterie A2 (500 Mio., 0.1; 100 Mio., 0.89; 0, 0.01) und andererseits zwischen der Lotterie A3 (100 Mio., 0.11; 0, 0.89) und der Lotterie A4 (500 Mio., 0.1; 0, 0.9) zu entscheiden, dann zeigt sich häufig, dass sich die Individuen nicht so verhalten, wie es die Erwartungsnutzentheorie fordert. Nach der Erwartungsnutzentheorie müssten die Individuen sich für A1 und A3 oder aber für A2 und A4 entscheiden. Häufig ist aber festzustellen, dass die Individuen andere Präferenzen haben und sich für A1 und A4 oder aber für A2 und A3 entschei- 11 den. Sie zeigen also Präferenzen, die nicht mit der Erwartungsnutzentheorie vereinbar sind. Ein zweiter empirisch häufig festzustellender Effekt ist der common ratio effect. Wenn einerseits zwischen einer sicheren Alternative A5 (3000, 1) und einer Lotterie A6 (4000, 0.8; 0, 0.2) sowie andererseits zwischen einer Lotterie A7 (3000, 0.25; 0, 0.75) und einer Lotterie A8 (4000, 0.2; 0, 0.8) zu wählen ist, dann, so zeigen auch in diesem Fall empirische Untersuchungen, entscheiden sich die Individuen regelmäßig nicht konform mit der Erwartungsnutzentheorie (STARMER 2000, 337). Bei der ersten Entscheidung wird häufiger die sichere Variante und im zweiten Fall wird regelmäßig die Lotterie A8 der Lotterie A7 vorgezogen. Daneben hat es noch andere Beispiele, wie das ELLSBERG-Paradox gegeben, die alle darauf hindeuten, dass das Erwartungsnutzenmodell nicht immer geeignet ist, das Verhalten von einzelnen Entscheidern abzubilden (CAMERER 1995). Als Folge dieser Widersprüche sind viele neue Modelle als Alternativen zur Erwartungsnutzentheorie entwickelt worden. In diesem Abschnitt können allerdings nur einige wichtige vorgestellt werden. Eine wesentlich ausführlichere Darstellung findet sich bei STARMER (2000, 332 ff.). Zunächst werden einige Modifikationen der Erwartungsnutzenfunktion vorgestellt, die ausschließlich den Term der Nutzenfunktion betreffen. Zu diesen Modifikationen ist die verallgemeinerte Erwartungsnutzentheorie von MACHINA (1982) zu zählen. Diese Theorie lässt im Gegensatz zur Erwartungsnutzentheorie nichtlineare Indifferenzkurven zu (STARMER 2000, 342), da sie auf das Unabhängigkeitsaxiom verzichtet und vermeidet so den common consequence und den common ratio effect. Neben dieser Theorie gibt es Ansätze (z. B. CHEW (1983)), die wesentlich stringenter in der Formulierung sind und z. B. nur lineare Indifferenzkurven zulassen, die aber nicht notwendig parallel zueinander verlaufen müssen. Diese Ansätze sind spezielle Fälle der verallgemeinerten Erwartungsnutzentheorie. 12 Ähnliche Ansätze, die einen eher psychologischen Hintergrund haben wie die Regret-Theorie von BELL (1982), seien hier nur erwähnt. Dieses Modell kann empirisch sich zeigende Verhaltensweisen von Individuen wie Verletzungen des Unabhängigkeitsaxioms und Präferenzumkehrungen gut abbilden. Es weist aber auch gewisse Schwächen auf. So verletzt es die Monotonieeigenschaft, die Transitivitätseigenschaft und lässt eindeutige Präferenzen zwischen stochastisch gleichen Akten zu (STARMER 2000, 357). Daneben gibt es weitere Theorieansätze, wie z. B. die quadratische Nutzentheorie. Das zugehörige Modell lässt Indifferenzkurven zu, die vom Konkaven zum Konvexen und umgekehrt wechseln können. Diese Modelle mit unterschiedlichen Funktionsformen basieren auf einer modifizierten Variante der Erwartungsnutzentheorie, zeigen aber nicht die empirischen Schwächen, die das Erwartungsnutzenmodell aufweist. Neben Modifikationen der Erwartungsnutzenfunktion gibt es noch Modifikationen der Erwartungsnutzentheorie, die die Wahrscheinlichkeiten betreffen. Nach STARMER (2000, 346) neigen Wirtschaftssubjekte dazu, objektive Wahrscheinlichkeiten nicht richtig wahrzunehmen oder aber subjektiv zu gewichten. Diese Wahrscheinlichkeiten sind dann personenspezifisch und subjektiv. Für diesen Fall liegt eine Modellklasse vor, die durch eine Gewichtungsfunktion für die objektiven Wahrscheinlichkeiten charakterisiert ist (STARMER 2000, 346). Diese Modellklasse kann durch Gleichung (2.3) beschrieben werden: V ( A) ¦ w u( x ) . i (2.3) i i Der Term wi kann als eine Gewichtung für den Term u ( xi ) interpretiert werden. In der Variante der subjektiven Erwartungsnutzentheorie wird für wi eine Wahrscheinlichkeitsgewichtungsfunktion S ( pi ) eingeführt. Diese transformiert die Wahrscheinlichkeiten der jeweiligen Ergebnisse in Gewichte. Damit können die objektiven Wahrscheinlichkeiten nichtlinear transformiert werden. Die funktionale Form dieses 13 Ansatzes kann für die subjektive Erwartungsnutzentheorie (SAVAGE, 1954) durch Gleichung (2.4) beschrieben werden: V ( A) ¦S ( p ) u( x ) . i (2.4) i i Dieser Modellansatz kann die Monotonieeigenschaft stochastisch verletzen (FISHBURN 1978). Es hat daher Bestrebungen gegeben, für die Wahrscheinlichkeiten eine Gewichtungsfunktion zu formulieren, die die Monotonieeigenschaft nicht mehr verletzt. Zu den Ansätzen, die diese Eigenschaft erfüllen, gehören die allgemein anerkannten rangplatzabhängigen Nutzentheorien. Die Grundidee dieses Ansatzes ist, dass die Gewichtung eines Ergebnisses nicht nur von der zugehörigen Wahrscheinlichkeit abhängt, sondern auch von dem Platz abhängt, den das Ergebnis in einer der Größe nach geordneten Reihe aller Ergebnisse einnimmt (SORGER 2000, 124 f.). Es wird zunächst eine Rangordnung der Ergebnisse erzeugt. Die entsprechende Gewichtung kann dann für i 1, , n 1 durch wi S ( pi p n ) S ( pi 1 p n ) (2.5) und für i =n wn S ( pn ) ermittelt werden (STARMER 2000, 347). Damit wird die jeweilige transformierte Wahrscheinlichkeit eines Ergebnisses in Abhängigkeit von seinem Rang (Platz) innerhalb einer der Größe nach geordneten Reihe aller Ergebnisse ermittelt. Der Rang des Ergebnisses bestimmt also die Stärke der Transformation der Wahrscheinlichkeit. Damit wird einerseits die Monotonieeigenschaft gesichert und anderseits kann das ALLAIS-Paradoxon vermieden werden (EISENFÜHR/WEBER 1999, 381 ff.). Allerdings hängen die Aussagen entscheidend von der Form der Gewichtungsfunktion S (.) ab. Problematisch ist bei diesem Modell, dass durch eine kleine Änderung einer Konsequenz die Reihenfolge der Ergebnisse beeinflusst werden kann, mit gegebe- 14 nenfalls erheblichen Auswirkungen auf die Ermittlung des zugehörigen Entscheidungsgewichts (STARMER 2000, 348). 2.2.3.2 Erwartungswert-Varianz-Analyse In der Praxis werden statt des Erwartungsnutzenmodells und der daraus hervorgegangenen Modifikationen vielfach einfachere Ansätze, wie der ErwartungswertVarianz-Ansatz verwendet. Dieser Ansatz berücksichtigt neben dem Erwartungswert noch ein Maß für die Streuung. Dieser Ansatz wird nicht nur wegen seiner einfachen Umsetzbarkeit, sondern auch wegen seiner Eigenschaft eingesetzt, dass Funktionen unter bestimmten Verteilungsannahmen bestimmt werden können, die mit der Erwartungsnutzentheorie konform gehen. So zeigt SCHNEEWEIß (1967, 146 ff.), dass die Präferenzfunktion (2.6) im Bereich der Normalverteilungen im Einklang mit der Erwartungsnutzentheorie steht. u(P ,V ) a E ( X ) Var ( X ), a z 0 2 (2.6) Var ( X ) ist die Varianz der Zufallsvariablen X und a ein Risikoaversionsparameter. Wenn aber nicht von normalverteilten Zufallsvariablen ausgegangen werden kann, ist diese Präferenzfunktion nicht rational. Kann eine quadratische Nutzenfunktion unterstellt werden, lässt sich die Maximierung der Präferenzfunktion u(P ,V ) b1 E ( X ) b2 ( E ( X )) 2 b2Var ( X ) (2.7) mit der Maximierung des Erwartungsnutzens in Einklang bringen (SCHNEEWEIß 1967, S. 95 f.). Die Parameter b1 und b2 können beliebig gewählt werden. Diese Funktionsform ist aber wegen der impliziten absoluten Risikoaversionen ökonomisch nur in Teilbereichen sinnvoll. 15 Gegen den Erwartungswert-Varianz-Ansatz wird außerdem eingewendet, dass er gegen das Dominanzprinzip verstoßen kann5 und höhere Momente einer Dichtefunktion nicht berücksichtigt. Ferner wird ein Entscheider, wenn er anhand des Erwartungswert-Varianz-Ansatzes die beste Alternative auswählt, nicht hinreichend zwischen links- oder rechtsschiefen Dichtefunktionen und solchen mit unterschiedlicher Wölbung differenzieren können (ODENING 1994, 116 f.). Weil der Erwartungswert-Varianz-Ansatz relativ leicht für die Anwendung umgesetzt werden kann, wird dieser trotz dieser erheblichen Einschränkungen statt des Erwartungsnutzenmodells auch im Rahmen der Kapitalmarkttheorie eingesetzt. 2.2.3.3 Stochastische Dominanz Bei einigen Entscheidungsproblemen unter Unsicherheit kann das Konzept der stochastischen Dominanz eine Alternative zum Erwartungsnutzen-Modell sein. Bei diesem Konzept werden i. d. R. zwei Grade von stochastischer Dominanz unterschieden. Man spricht von stochastischer Dominanz ersten Grades, wenn sich die Verteilungsfunktion F j eines Aktes A j mit derjenigen des Aktes Ai nicht schneidet und F j rechts von Fi liegt (BRANDES et al. 1997, 303). Ein Entscheider wird bei einer monoton steigenden Nutzenfunktion unabhängig von seiner Risikoeinstellung den stochastisch dominanten Akt wählen. So wird der Akt A2 dem Akt A1 in Abbildung 2.1a vorgezogen. Eine Entscheidung wird schwieriger, wenn sich die Verteilungsfunktionen schneiden (Abbildung 2.1b und c) (BRANDES et al. 1997, 302 ff.). 5 Der Zusammenhang zwischen Entscheidungskriterien und dem Dominanzprinzip wird von LAUX (1998, 156 ff.) ausführlich für die verschiedenen Risikoeinstellungen beschrieben. 16 Abbildung 2.1: Verteilungsfunktionen und stochastische Dominanz In einigen Fällen kann dann das Konzept der stochastischen Dominanz 2. Grades zur Entscheidungsfindung dienen. Von stochastischer Dominanz zweiten Grades spricht man, wenn bei sich schneidenden Verteilungsfunktionen die untere Fläche A zwischen den Kurven nicht kleiner ist als die obere B. Dieses ist in Abbildung 2.1b zu sehen, wo sich die beiden Verteilungen A3 und A4 schneiden. In diesem Fall wird ein risikoaverser Entscheider i. d. R. Akt A4 wählen (HANF 1986, 98 ff.). Es kann aber eine Situation eintreten, wie sie in Abbildung 2.1c zu sehen ist. Hier ist die obere Fläche D größer ist als die untere Fläche C, wenn die beiden Alternativen A5 und A6 miteinander verglichen werden. Dann ist das Konzept der stochastischen 17 Dominanz ersten und zweiten Grades nicht mehr geeignet, um zwischen den Alternativen zu diskriminieren. Je nach Höhe der Risikoaversion wird ein Entscheider A5 oder A6 wählen. 2.2.3.4 Prospect-Theorie In vielen empirischen Studien hat sich gezeigt, dass sich Entscheider nicht entsprechend der Erwartungsnutzentheorie verhalten. Die Nobelpreisträger KAHNEMAN/TVERSKY (1979) konnten in empirischen Arbeiten drei Phänomene feststellen, die nicht im Einklang mit der Erwartungsnutzentheorie stehen. Erstens stellten sie wie schon ALLAIS fest, dass Individuen bei mehreren Alternativen die sichere Alternative vorziehen (certainty effect). Zweitens konnten sie zeigen, dass das Risikoverhalten der Menschen sich bei Gewinnen und Verlusten unterscheidet. Während die Individuen sich bei Gewinnen risikoavers verhalten, zeigt sich häufig ein risikofreudiges Verhalten bei Verlusten (reflection effect). Schließlich ist für die Wahl einer Alternative auch die Art der Darstellung des Ergebnisses entscheidend (isolation effect). Diese drei Phänomene haben KAHNEMAN/TVERSKY (1979) berücksichtigt, als sie die Prospect-Theorie als Alternative zur Erwartungsnutzentheorie formulierten. Diese hat durch die kumulative Prospect-Theorie (TVERSKY/KAHNEMAN (1992) und WAKKER/TVERSKY (1993)) eine Weiterentwicklung erfahren. 18 Die Entscheidungsfindung gemäß der Prospect-Theorie kann in zwei Phasen unterschieden werden. In der ersten Phase werden die Prospekte oder Alternativen aufbereitet, d. h. anhand von Heuristiken werden spezielle Festlegungen, Vereinfachungen und Anpassungen vorgenommen6. In der zweiten Phase werden die aufbereiteten Prospekte in eine besondere Wertfunktion v(x), durch die eine Bewertung der editierten Prospekte erfolgt, übertragen. Die Prospekte werden als Verluste oder Gewinne in Bezug zu einem Referenzpunkt, z. B. dem Status quo, bewertet. Ein häufig festzustellender Verlauf der Wertfunktion, ist in der Abbildung 2.2 dargestellt (KAHNEMAN/TVERSKY 1979, 279). Abbildung 2.2: Typische Wertfunktion (Prospect-Theorie) 6 Da diese Schritte formal nicht eindeutig festgelegt sind, ist das Ergebnis dieser sogenannten EditingPhase vom Entscheider abhängig. Unterschiedliche Entscheider können daher bei gleicher Entscheidungssituation nach Abschluss der Editing-Phase zu voneinander abweichenden Ergebnissen kommen (EISENFÜHR/WEBER 1999, 378). 19 Die Funktion ist konkav im Bereich der Gewinne. Dagegen wird im Verlustbereich ein konvexer Verlauf angenommen. Absolut gesehen werden Verluste höher bewertet als entsprechende Gewinne. In die zu berechnende Nutzenfunktion geht noch eine Wahrscheinlichkeitsgewichtungsfunktion der Art ein, wie sie in Abbildung 2.3 zu sehen ist7 (KAHNEMAN/TVERSKY 1979, 283). Abbildung 2.3: Wahrscheinlichkeitsgewichtungsfunktion (Prospect-Theorie) Der erwartete Nutzen wird dann für eine Alternative A (EP(A)) wie folgt berechnet: EP ( A) S ( p1 )v( x1 ) S ( p 2 )v( x 2 ) . (2.8) In der Arbeit von KAHNEMAN/TVERSKY (1979) hat sich gezeigt, dass die ProspectTheorie empirisches Entscheidungsverhalten abbilden kann. Allerdings kann der Fall eintreten, dass die stochastische Dominanz einzelner Alternativen indirekt verletzt wird. Außerdem können nicht beliebig viele Konsequenzen der Alternativen abgebildet werden (EISENFÜHR/WEBER 1999, 380 f.). 7 Die Wahrscheinlichkeitsgewichtungsfunktion ist in der Nähe der Endpunkte nicht definiert. 20 Hier setzt die kumulative Prospect-Theorie an. Diese überträgt das Konzept der kumulativen Wahrscheinlichkeitsverteilung aus der rangplatzabhängigen Nutzentheorie (vgl. Abschnitt 2.2.3.1) auf die Prospect-Theorie, sodass stochastisch dominierte Alternativen nicht mehr vorgezogen werden. Wie bei der rangplatzabhängigen Nutzentheorie werden die Ergebnisse einer Entscheidungsalternative der Größe nach geordnet. Mit dem Referenzpunkt können analog der Prospect-Theorie Gewinne von Verlusten getrennt werden und durch eine Wertfunktion bewertet werden. Der erwartete Nutzen einer Alternative (CPT(A)) kann dann gemäß der folgenden Formel ermittelt werden (EISENFÜHR/WEBER 1999, 384): m CPT ( A) ¦ u( xi )S ( pi ) i 1 n ¦ u ( x )S i ( pi ) . (2.9) i m 1 Die Entscheidungsgewichte der positiven S ( pi ) und negativen Konsequenzen S ( pi ) können nach folgenden Formeln bestimmt werden: S ( pi ) S ( pi ) i i 1 j 1 j 1 n n j 1 j i 1 g (¦ p j ) g (¦ p j ) (2.10) g (¦ p j ) g ( ¦ p j ) . (2.11) Zwei typische umgekehrt s-förmige Wahrscheinlichkeitsgewichtungsfunktionen g(p) finden sich in Abbildung 2.4 (EISENFÜHR/WEBER TVERSKY/KAHNEMAN 1992, 313): 21 1999, 385 und Abbildung 2.4: Wahrscheinlichkeitsgewichtungsfunktionen (kumulative Prospect-Theorie) Im Gegensatz zu den Wahrscheinlichkeitsgewichtungsfunktionen der ProspectTheorie (Abbildung 2.3) gibt es keine Sprungstellen an den Endpunkten. Außerdem ist als weiterer Vorteil gegenüber der Prospect-Theorie hervorzuheben, dass die nicht axiomatische Editing-Phase entfällt. Abschließend lässt sich feststellen, dass es neben der immer noch häufig eingesetzten Erwartungsnutzentheorie eine Reihe von Alternativen gibt, die weniger im Widerspruch zu dem empirisch festzustellenden Verhalten der Individuen stehen. Diese und auch die zuletzt vorgestellten Ansätze, die der Prospect-Theorie zuzuordnen sind, werden allerdings in der Anwendung kaum eingesetzt, weil sie schwer umzusetzen sind. In dieser Arbeit, in der Entscheidungen unter Risiko und Unsicherheit aus der Sicht eines Beobachters untersucht werden sollen, wird deshalb ein Entscheidungsnetzansatz und dazu passende Entscheidungskriterien in Abschnitt 2.5 eingeführt, der als Weiterentwicklung des Erwartungswert-Varianz-Ansatzes zu sehen ist. Der Entscheidungsnetzansatz erlaubt es, neben dem Erwartungswert und der 22 Varianz weitere Parameter wie den bedingten Erwartungswert und zusätzliche Varianzparameter zu berechnen, die geeignet sind, zusätzliche Entscheidungshilfen zu geben. 2.3 Zur Interpretation von Wahrscheinlichkeiten 2.3.1 Einführung Im Zusammenhang mit Entscheidungen unter Unsicherheit ist es wichtig, den Begriff der Wahrscheinlichkeit und die verschiedenen Interpretationen dieses Begriffs ausführlicher zu behandeln, auch wenn führende Statistiker wie KENDALL und STUART (1963, 180) der Überzeugung sind, dass es für einen Statistiker ein Zeichen von Unreife ist, allzu viel über Wahrscheinlichkeitstheorie zu debattieren. Es wird allgemein anerkannt, dass das mathematische Konzept der Wahrscheinlichkeiten durch die KOLMOGOROFF-Axiome (1933) adäquat beschrieben werden (BUNGE 1988, 46). Aber hinsichtlich der Interpretation des Wahrscheinlichkeitsbegriffs ist gerade auch im Zusammenhang mit singulären Fällen eine lange Diskussion geführt worden. Dabei kristallisierten sich drei wichtige Interpretationsansätze heraus. Neben dem objektivistischen, sind der subjektivistische und schließlich der durch POPPER und BUNGE entwickelte Interpretationsansatz der Verwirklichungstendenz (Propensitäten-Ansatz) hervorzuheben. Diese Ansätze werden im Anschluss an Abschnitt 2.3.2, in dem ein Überblick zur Geschichte der Wahrscheinlichkeitstheorie gegeben wird, in den Abschnitten 2.3.3 – 2.3.5 vorrangig unter dem Aspekt einmaliger Entscheidungsprobleme unter Risiko und Unsicherheit vergleichend diskutiert. Im Gegensatz zu den experimentellen Wissenschaften wie z. B. der Physik und Chemie sind in den Sozial- und Wirtschaftswissenschaften die Voraussetzungen, ein kontrolliertes Experiment wiederholt durchzuführen, selten gegeben. Ökonomische Entscheidungssituationen sind daher oft einmalig und nicht wiederholbar. 23 2.3.2 Exkurs zur Geschichte der Wahrscheinlichkeitstheorie Die folgenden Ausführungen orientieren sich an MENGES (1968, 9 ff.) und HARTUNG (1986, 10 ff.). MENGES beginnt seine Geschichte der Wahrscheinlichkeitsrechnung mit GEROLAMO CARDANO (1501-1576). Dieser führte in seinem unveröffentlichten Buchmanuskript „Liber de ludo aleae” (Buch über das Würfelspiel), das in der Zeit um 1520 entstand, die Gleichmöglichkeitsdefinition, die Additionseigenschaft und das Konzept der mathematischen Erwartung ein. MENGES (1968, 9 f.) hebt die Verdienste von BLAISE PASCAL (1623-1662) und PIERRE DE FERMAT (1601-1665) hervor, welche eine Briefkorrespondenz über Fragen des Glückspiels führten und zu einer Begründung der Wahrscheinlichkeitsrechnung beigetragen haben. Ihre Gedanken wurden von dem Holländer CHRISTIAN HUYGENS (1629-1695) aufgenommen, der als Erster den Begriff der Urne in Zusammenhang mit der Wahrscheinlichkeitsrechnung brachte und von einer mathematischen „Erwartung” sprach. Nicht unerwähnt dürfen die besonderen Verdienste der Familie BERNOULLI bleiben. JACOB BERNOULLI (1654-1705), ein Mathematikprofessor, nahm HUYGENS’ Buch und erweiterte es um Teile der Kombinatorik und um eine Anwendung der Wahrscheinlichkeitsrechnung. Außerdem geht auf ihn das BERNOULLIsche Theorem zurück. Neben NIKOLAUS BERNOULLI (1695-1726), der großen Anteil an der Publikation der Ergebnisse seines Onkels JAKOB hatte, ist noch DANIEL BERNOULLI (17001782) hervorzuheben. Seine wissenschaftliche Leistung liegen in der Entdeckung des Grenznutzenkonzepts und einige Untersuchungen zu Beobachtungsfehlern. Außerdem führte er das Konzept der moralischen Erwartung ein, das in die Entscheidungstheorie als „Bernoulli-Nutzen” eingegangen ist und als Ausgangspunkt für die VON NEUMANN-MORGENSTERNSCHE Erwartungsnutzentheorie gilt. Schließlich geht auf ihn das Petersburger-Paradoxon zurück. Eine besondere Stellung in der Geschichte der Wahrscheinlichkeitstheorie nimmt auch THOMAS BAYES (1702-1761) ein. Sein Verdienst liegt in der Begründung des nach ihm benannten BAYESSCHEN THEOREMS. 24 Bedeutende Wissenschaftler waren ferner SIMEON DENIS POISSON (1781-1840) und CARL FRIEDRICH GAUSS (1777-1855). Während POISSON das Gesetz der großen Zahlen begründet hat, ist GAUSS über die Normalverteilung und die mathematische Formulierung der Methode der kleinsten Quadrate, die in der Regressionsrechnung eingesetzt wird, bekannt geworden. Zur Entwicklung der Wahrscheinlichkeitsrechnung haben die angelsächsische Schule mit so bedeutenden Gelehrten wie KARL PEARSON (1857-1936) und RONALD AYLMER FISHER (1890-1962) sowie die stärker mathematisch ausgerichtete russische Schule mit ANDREJ NICOLAEVIC KOLMOGOROFF (1903-1987), ANDREJ ANDREJEVIC MARKOFF (1856-1922), ALEXANDER MICHAILOWITSCH LJAPUNOFF (1857-1918) u. a., die dem bedeutenden Mathematiker PAFNUTI LWOWITSCH TSCHEBYSCHEFF (1821-1894) folgten, beigetragen. Zu erwähnen ist noch die Arbeit von ABRAHAM WALD (1902-1950), der die Theorie des Sequenzialtests entwickelte und die VON NEUMANNschen Spieltheorie zur Theorie der statistischen Entscheidungsfunktionen weiterführte und die Aufgaben der Statistik, im Gegensatz zu FISCHER, nicht darauf beschränkt sah, Urteile zu fällen, sondern zusätzlich Entscheidungen zu treffen und Entscheidungshilfen zu geben. Spielund Entscheidungstheorie sind inzwischen wichtige Teilgebiete der Ökonomie geworden, die nicht ohne wahrscheinlichkeitstheoretische Grundlagen auskommen. 2.3.3 Objektivistische Interpretation Die objektivistische Interpretation des Wahrscheinlichkeitsbegriffs kann wiederum in einen klassischen und einen relativistischen Interpretationsansatz aufgeteilt werden. Die klassische Interpretation geht auf LAPLACE zurück und definiert Wahrscheinlichkeit als den Quotienten aus der Zahl der „günstigen” Fälle durch die Zahl der „gleichmöglichen” (gleichwahrscheinlichen) Fälle (POPPER 1984, 107 f.). 25 Weil nicht immer davon auszugehen ist, dass gleichmögliche Fälle vorliegen, z. B. manipulierte Würfel, hat VON MISES die klassische Interpretation des Wahrschein- lichkeitsbegriffs zu einer Theorie der relativen Häufigkeiten weiterentwickelt (MENGES 1968, 31 ff.). Nach dieser Theorie können Wahrscheinlichkeiten über relative Häufigkeiten bestimmt werden. Wenn bei n Versuchen k-mal ein Ereignis b zu beobachten ist, dann ist die Wahrscheinlichkeit dafür p (b ) k . n (2.12) Der Kritik gegenüber diesem Ansatz, dass, wenn n nicht groß genug gewählt wird, die Wahrscheinlichkeit über die relative Häufigkeit nicht gut wiedergegeben wird, begegnet V. MISES, indem er die Wahrscheinlichkeit als Grenzwert betrachtet, dem die relative Häufigkeit bei einer über alle Grenzen wachsenden Zahl von Versuchen zustrebt. lim ( k | n ) nof (2.13) p (b ) Wahrscheinlichkeit ist dann als Grenzwert der relativen Häufigkeit zu interpretieren. Es ergeben sich aber mit dieser Interpretation des Wahrscheinlichkeitsbegriffs einige Probleme. Einerseits weist BUNGE (1988, 37 ff.) auf die mathematischen Unterschiede zwischen Wahrscheinlichkeiten, wie sie KOLMOGOROFF definiert hat, und dem von VON MISES eingeführten Wahrscheinlichkeitsbegriffs hin. Andererseits gibt es mit dieser Interpretation des Wahrscheinlichkeitsbegriffs auch Schwierigkeiten, wenn wie in den Sozial- und Wirtschaftswissenschaften die Stichproben klein sind und im Gegensatz zu den experimentellen Disziplinen nicht durch ein wiederholtes Experiment unter kontrollierten Bedingungen entsprechend vergrößert werden können. Die in den Wirtschafts- und Sozialwissenschaften weit verbreitete subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs, scheint dieses Problem zu lösen. 26 2.3.4 Subjektivistische Interpretation Zur Diskussion über die subjektivistische und objektivistische Interpretation des Wahrscheinlichkeitsbegriffs schreibt DE FINETTI, der neben SAVAGE als einer der entschiedendsten Vertreter der subjektivistischen Position bezeichnet werden kann: „Für alle, die es noch nicht wissen, muss gesagt werden, dass es meiner Auffassung nach nur subjektive Wahrscheinlichkeiten gibt: Grad des Vertrauens - Englisch: Degree of belief - eines bestimmten Subjektes zu einem bestimmten Zeitpunkt aufgrund einer bestimmten Informationsmenge in Bezug auf das Eintreten eines Ereignisses.” (DE FINETTI 1981, 6). Ein noch schärferer Angriff gegen die objektivistische Interpretation des Wahrscheinlichkeitsbegriffs findet sich im Vorwort von DE FINETTI (1981, X): „Es existiert keine objektive Wahrscheinlichkeit.“ Die subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs geht auf die Arbeiten von BAYES und D. BERNOULLI zurück. Im Rahmen dieses Ansatzes werden Aussagen getroffen, über den Grad des Vertrauens einer Person zu einem bestimmten Zeitpunkt in Bezug auf die Möglichkeit, dass ein Ereignis eintritt. Die subjektivistische Position wird von MENGES in eine „introspektive” und eine „bayesianische” unterteilt. Zur ersten Gruppe zählt DE FINETTI. Diese Position wird von MENGES wie folgt charakterisiert: „Eine Person nimmt bewußt Kenntnis von einem Urteil über die Realität, die ihr vorgelegt wird. Sie „testet” dieses Urteil an ihrer Intuition. Koinzidiert das ihr vorliegende Urteil R über die Realität mit ihrer Introspektion völlig, so gibt sie R die Wahrscheinlichkeit 1, ist ihre Intuition dem Urteil R genau entgegengesetzt, so gibt sie R die Wahrscheinlichkeit 0. In dem Maße, wie ihr subjektives Fürwahrhalten von R abweicht, tendiert ihre Wahrscheinlichkeitsfestlegung näher zu Null hin, und umgekehrt.“ (MENGES 1968, 33 f.). Die Position der zweiten Gruppe, auch „Bayesianer” genannt, zu der auch SAVAGE gehört, lässt sich wie folgt beschreiben: „Sie wollen direkt den Grad des Fürwahrhaltens (den „dispositional belief”) messen. Zu diesem Zweck wird das Konzept der hypothetischen Wetten in die Betrachtung eingeführt, das anhand eines Beispiels verdeut- 27 licht werden soll: A stellt die Behauptung D auf, z. B., daß es morgen regnen wird, B die Behauptung E , daß es morgen nicht regnen wird. Um die Wahrscheinlichkeit p für die Richtigkeit von D und entsprechend 1-p für die Richtigkeit von E festzustellen, bietet A dem B die Wette über D bzw. E an. Ist A bereit, auf D z. B. doppelt so viel zu wetten wie B auf E , dann ist D doppelt so „wahrscheinlich” wie E .“ (MENGES 1968, 34). Die entscheidende Schwäche der subjektivistischen Interpretation des Wahrscheinlichkeitsbegriffs liegt in deren strikten Verneinung objektiver Wahrscheinlichkeiten (bzw. die a-priori Festlegung dieser) zu sehen. In letzter Konsequenz bedeutet das, dass es keinen Indeterminismus geben kann, da jegliches Unwissen von den Subjektivisten auf mangelnde Information zurückgeführt werden muss. Ungewissheit, die durch kein denkbares Wachstum an Erkenntnis beseitigt werden kann (physikalischen Indeterminismus) kann es nicht geben (STEGMÜLLER 1973, 66 f.). Auch BUNGE (1988, 46 f.) greift die subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs an. Er schreibt: „ The personalist concept is mathematically invalid because the probability measure defined in the calculus of probability makes no room for any person.” Schließlich schreibt MENGES, ein entschiedener Gegner des subjektivistischen Interpretationsansatzes, treffend: „Von subjektiver Wahrscheinlichkeit zu reden, ist genauso sinnvoll, wie von subjektiver Kausalität." (MENGES 1968, 34). 2.3.5 Verwirklichungstendenzen Für einmalige (singuläre) Ereignisse scheint weder der häufigkeitstheoretische Ansatz von VON MISES noch der subjektivistische Ansatz geeignet, um numerische Wahrscheinlichkeitsaussagen zu teffen. POPPER hat als weiteren Interpretationsansatz den sogenannten Verwirklichungstendenzen (Propensitäten) -Ansatz eingeführt, der sowohl als objektiver Ansatz für singuläre Ereignisse als auch für Grenzwertbetrachtungen eingesetzt werden kann. Die Grenzwertbetrachtungen werden hier nicht weiter behandelt, da der Schwerpunkt dieser Arbeit auf einer Analyse von Entscheidun- 28 gen unter Risiko und Unsicherheit liegt, die den singulären Ereignissen zuzuordnen sind. Bei der Propensitäteninterpretation wird im Gegensatz zur Häufigkeitsinterpretation die Wahrscheinlichkeit als ein Merkmal der experimentellen Anordnung bzw. der Situation gesehen und nicht als ein Merkmal einer Folge. Damit wird die Wahrscheinlichkeit des Ergebnisses eines einzelnen Experimentes oder Ereignisses in Bezug auf seine experimentelle Anordnung bzw. der Situation für grundlegend gehalten und nicht die Häufigkeit von Ergebnissen in einer Experimentfolge (POPPER 1995a, 188 f.). Nach POPPER (1992, 287) liegt der eigentliche Unterschied zu der Häufigkeitstheorie in der Bedeutung, den die jeweiligen Ansätze den singulären Fällen beimessen. In der Häufigkeitstheorie haben Einzelfallwahrscheinlichkeiten nur eine geringe Bedeutung im Gegensatz zu dem Theorieansatz der Verwirklichungstendenzen. In der Häufigkeitstheorie wird der Einzelfall als ein Ereignis angesehen, das zu einer Folge von Ereignissen gehört. Der Einzelfall wird mit einer relativen Häufigkeit eintreten. Gemäß POPPER (1992, 287) ist die Wahrscheinlichkeit eines einzelnen Ereignisses in der Propensitäteninterpretation zu verstehen, als wenn sie aus einer virtuellen oder vorstellbaren Folge von Ereignissen entstammt. POPPER (1992, 287) schreibt: „It attaches to the event a a probability p(a,b) by considering the conditions which would define this virtual sequences: these are the conditions b, the conditions that produce the hidden propensity, and that give the single case a certain numerical probability.” Trotz der Nähe zur Häufigkeitstheorie von VON MISES bleiben doch Unterschiede (POPPER 1984, 109), welche es gerechtfertigt erscheinen lassen, von einem eigenständigen Theorieansatz zu sprechen. POPPER (1995b, 26 f.) betont, dass eine Tendenz oder Propensität, ein Ereignis zu realisieren, im Allgemeinen jeder Möglichkeit innewohnt, und dass die Situation die Propensität bestimmt. Nach POPPER (1995b, 31) sind Propensitäten aber nicht Eigenschaften, die in einem Objekt liegen, sondern Eigenschaften, die einer Situation zuzuordnen sind, die das Objekt einschließt. Wenn also ein Zusammenhang zwischen der Situation und der Propensität besteht, dann wird sich die Propensität mit sich verändernder Situation ebenfalls ändern (POPPER 1995b, 32.). 29 Bei singulären Ereignissen besteht das Problem, die Propensitäten zu messen, um darauf aufbauend eine Überprüfung vorzunehmen. Sie können nicht immer gemessen werden. Wenn sich, wie bei biologisch-evolutionären Prozessen, die Situation ändert und nicht im Sinne eines kontrollierten Experimentes wiederholbar ist, dann ist dennoch die Existenz solcher Propensitäten zu vermuten und diese sind zumindest zu schätzen (POPPER 1995b, 36). Bei solchen Ereignissen scheint es demnach nicht möglich zu sein, Propensitäten genau zu bestimmen, damit wäre die Möglichkeit zu testen nicht gegeben, und es würde keine Überprüfung möglich sein. Die Propensitäten-Interpretation kann auch auf ökonomische Entscheidungsprobleme unter Unsicherheit angewendet werden. Auch hier hängen die Wahrscheinlichkeiten des Eintretens eines Ereignisses letztlich von der Entscheidungssituation ab. Diese kann von einzelnen Individuen unterschiedlich erfasst und bewertet werden, sodass nach der subjektivistischen Wahrscheinlichkeitsinterpretation die vermeintlich subjektiven Wahrscheinlichkeiten von Person zu Person unterschiedlich ausfallen werden. Auch wenn die Wahrscheinlichkeitsurteile einzelner Individuen unterschiedlich ausfallen, ist aber die Wahrscheinlichkeit des Eintretens eines Ereignisses objektiv von der Situation abhängig (POPPER 1992, 348 ff.). Die Situation ändert sich nicht, auch wenn sie von den einzelnen Individuen unterschiedlich wahrgenommen wird. Dieser Gedanke fehlt im subjektivistischen Interpretationsansatz des Wahrscheinlichkeitsbegriffs. Diese nehmen das subjektive Wahrscheinlichkeitsurteil als gegeben hin und ergründen nicht die objektiv beeinflussenden Rahmenbedingungen (Situation), welche ursächlich die Wahrscheinlichkeiten bestimmen8. Zusammenfassend ist festzuhalten, dass für große Stichproben aus einem kontrollierten Experiment die objektivistische Interpretation des Wahrscheinlichkeitsbegriffs bei numerischen Fragen angewendet werden kann. Schwieriger wird es, wenn singuläre Fragen untersucht werden und aus den oben beschriebenen Gründen die objekti- 8 Hier könnte ein Forschungsfeld für die Entscheidungstheorie entstehen, in dem untersucht wird, wie bei singulären Ereignissen die objektiven Propensitäten (Wahrscheinlichkeiten) ermittelt werden können. 30 ve Interpretation nicht verwendbar ist. Da auch die subjektivistische Interpretation des Wahrscheinlichkeitsbegriffs nicht geeignet scheint, wird die PropensitätenInterpretation Grundlage für diese Arbeit sein. Insbesondere wird das sich verwirklichen eines Ereignisses (Alternative) im nächsten Kapitel im Rahmen von Sensitivitätsanalysen untersucht. 2.4 Entscheidungsverfahren9 2.4.1 Einführung Eine Entscheidungsanalyse unter Risiko und Unsicherheit wird mit Daten durchgeführt, die in aller Regel nicht aufgrund einer Versuchsanordnung, sondern im Systemzusammenhang geschichtlicher Ereignisse anfallen. Hintergrund dafür sind die meist nicht wiederkehrenden Situationen, in denen Wirtschaftssubjekte regelmäßig zu entscheiden haben. Um solche Situationen zu analysieren, kann man sich grafischer und numerischer Ansätze bedienen. Zu den am häufigsten angewendeten Ansätzen zählen Entscheidungsbäume und Entscheidungsmatrizen sowie Einflussdiagramme. In diesem Abschnitt soll als neuer Ansatz die Entscheidungsnetzanalyse eingeführt werden, bei der es sich um eine erweiterte Entscheidungsbaumanalyse handelt. 2.4.2 Entscheidungsbäume und -matrizen Der Entscheidungsbaum ist ein grafischer Analyseansatz, mit dem Entscheidungen unter Risiko und Unsicherheit analysiert werden können. Er kann mit folgenden Elementen erstellt werden: - Entscheidungen werden durch Rechtecke dargestellt, - das Kreissymbol steht für Ereignisse - und Ergebnisse (Auszahlungen) werden durch Dreiecke abgebildet. 9 In diesem Abschnitt stützte ich mich auf CLEMEN (1995), EISENFÜHR /WEBER (1999), LAUX (1998), RAIFFA (1968) und RECKE/LESERER (1998). 31 Der Zusammenhang von einzelnen Elementen wird durch Verbindungslinien verdeutlicht, sodass sich ausgehend von einem Ausgangsknoten eine baumähnliche Struktur entwickelt. Die folgende Abbildung zeigt beispielhaft einen solchen Aufbau. Abbildung 2.5: Entscheidungsbaum Investitionsentscheidung hoher Preis 50% 10000 alte Anlage 0 10000 Erwartungswert 7500 Falsch niedriger Preis 50% 0 5000 5000 Investition hoher Preis neue Anlage 50% 17000 Richtig 0.5 17000 Erwartungswert 8000 niedriger Preis 50% 0.5 -1000 -1000 Bei diesem Entscheidungsbaum handelt es sich um die in Abschnitt 2.2 beschriebene Entscheidungssituation. Ein Investor steht vor der Frage, ob er eine alte Anlage weiternutzen oder in eine neue Anlage investieren soll. Wenn der Investor in die neue Anlage investiert, kann er bei einem hohen Preis einen Gewinn von 17000 € erzielen. Bei einem niedrigen Preis wird er 1000 € Verlust erwirtschaften. Wenn er mit der alten Anlage weiterproduziert, wird er bei einem hohen Preis 10000 € und bei einem niedrigen Preis 5000 € Gewinn erzielen. Da hohe und niedrige Preise von dem Investor als gleichwahrscheinlich eingestuft werden, wird jeweils eine Wahrscheinlichkeit von 0.5 unterstellt. Um die optimale Entscheidungsstrategie in einem Entscheidungsbaum zu bestimmen, wird das auf BELLMAN (1972) zurückgehende roll-back-Verfahren angewendet. Hierbei handelt es sich um einen Algorithmus, bei dem über Rückwärtsrekursion die 32 günstigste Entscheidungsstrategie bestimmt wird. Ausgangspunkt ist dabei die letzte Stufe (der letzte Zeitpunkt) eines Entscheidungsbaumes. Auf dieser Stufe werden für alle Alternativen die Erwartungswerte für die Zielgröße (z. B. Gewinn) berechnet und Äste, die keine maximalen Werte aufweisen, nicht weiter berücksichtigt und weggestrichen. Entsprechend wird von der vorletzten bis zur ersten Stufe verfahren. Auch hier werden jeweils nur die maximalen erwarteten Gewinne gesucht. Als Ergebnis liefert dieser Algorithmus die optimale Strategie für einen risikoneutralen Entscheider. Wenn das roll-back-Verfahren unter der Annahme eines risikoneutralen Entscheiders in dem vorgestellten Beispiel angewendet wird, errechnet sich für die optimale Entscheidung, in die neue Anlage zu investieren, ein Erwartungswert von 8000 €. Kann ein solches Risikoverhalten nicht unterstellt werden, muss auf Nutzenwerte ausgewichen werden. Die beste Entscheidung wird dann mit dem beschriebenen Algorithmus über die Maximierung der Nutzenerwartungswerte ermittelt. Allerdings liefert dieser Algorithmus nicht bei jeder Präferenztheorie zulässige Lösungen. Er kann im Rahmen der Erwartungsnutzentheorie eingesetzt werden, doch bei Präferenztheorien, die das Unabhängigkeitsaxiom nicht erfüllen, kann das roll-back- Verfahren unzulässige Lösungen errechnen (EISENFÜHR/WEBER 1999, 242 f.). Außerdem wird durch diesen Lösungsalgorithmus nur die optimale Strategie bestimmt, sodass unmittelbar keine vergleichenden Aussagen über zweit- oder drittbeste Strategien möglich sind. Im Rahmen einer Sensitivitätsanalyse kann es aber durchaus sinnvoll sein, neben der optimalen Strategie auch schlechtere Strategien zu untersuchen (EISENFÜHR/WEBER 1999, 242). Entscheidungsbäume haben ferner den Nachteil, dass sie bei komplexen Fragestellungen schnell unübersichtlich werden. RAIFFA (1968, 240 ff.) spricht in diesem Zusammenhang von bushy mess. Diese Probleme können vermieden werden, indem durch ein gezieltes Zusammenfassen von Alternativen oder ganzen Ästen die Komplexität und damit eine mögliche Unübersichtlichkeit reduziert wird. RAIFFA (1968, 240 ff.) schlägt ergänzend noch die Analyse in der Normalform (Entscheidungsmat- 33 rix) vor und verweist auf die zusätzliche Möglichkeit einer Analyse auf stochastische Dominanz 1. und 2. Ordnung11. Im Gegensatz zur Analyse mit einem Entscheidungsbaum wird bei einer Entscheidungsmatrix das Entscheidungsproblem in die Normalform übertragen. Damit ist ein Vergleich zwischen den Ergebnissen unterschiedlicher Entscheidungsalternativen leicht möglich und auch Analysen von zweitbesten Lösungen sind unproblematisch. Für das schon beschriebene Investitionsbeispiel (Tabelle 2.1) ergibt sich folgende Entscheidungsmatrix: Tabelle 2.2: Entscheidungsmatrix Investitionsentscheidung: Erwarteter Gewinn Preise hoher Preis (p=0.5) niedriger Preis (p=0.5) alte Anlage 10000 5000 neue Anlage 17000 -1000 Alternativen Entscheidungsmatrizen können beliebig erweitert werden, sodass auch Analysen von komplexen Entscheidungsproblemen mit vielen Entscheidungsalternativen und selbst mit mehreren Zielen möglich sind (EISENFÜHR/WEBER 1999, 36 f.). 2.4.3 Einflussdiagramme Einflussdiagramme haben gegenüber Entscheidungsbäumen den Vorteil, dass sie auch bei komplexen Problemen übersichtlich bleiben (EISENFÜHR/WEBER 1999, 45). Im Gegensatz zu einem Entscheidungsbaum ist ein Einflussdiagramm nicht streng hierarchisch aufgebaut. Vielfach werden folgende Elemente unterschieden: 11 Die Analyse auf stochastische Dominanz ist ausführlich in Abschnitt 2.2.3.3 behandelt worden. 34 - Rechtecke symbolisieren Entscheidungen, - Ovale stellen Ereignisse dar - und Rauten symbolisieren Ergebnisse (Auszahlungen). Die einzelnen Objekte werden durch Pfeile zueinander in Beziehung gesetzt. Damit können sowohl Abhängigkeiten als auch sequenzielle Zusammenhänge abgebildet werden (CLEMEN 1996, 53 f.). Beispielhaft soll das oben eingeführte Geldanlagebeispiel als Einflussdiagramm dargestellt werden: Abbildung 2.6: Einflussdiagramm Geldanlage Bedingungen Investition Payoff Durch das Rechteck werden die Alternativen des Investors, in eine neue Anlage zu investieren oder mit der alten Anlage weiter zu produzieren, abgebildet. Die guten bzw. schlechten Preise, die im Rahmen der Investition eintreten können, werden durch das Oval abgebildet. Die gerichteten Pfeile verdeutlichen, dass sowohl die Entscheidung als auch das Ereignis das Ergebnis (Raute) beeinflussen. Bei den Programmen, mit denen Einflussdiagramme erstellt und berechnet werden können, verbergen sich hinter den einzelnen Elementen (Symbolen) Eingabefelder. Mit diesen können Entscheidungen formuliert oder Wahrscheinlichkeiten bestimmt werden. Außerdem sind so Zwischenberechnungen und Berechnung der Ergebnisse möglich. 35 Im Gegensatz zu Entscheidungsbäumen können mit Einflussdiagrammen mehr Beziehungen zwischen Symbolen hergestellt werden. Im Wesentlichen können folgende Einflussformen unterschieden werden (EISENFÜHR/WEBER 1999, 42 f. und CLEMEN 1996, 53 ff.): Abbildung 2.7: Einflussformen in Einflussdiagrammen 1. Sequenzen a b c d e f g h i j 2. 3. 4. Abhängigkeiten 5. 6. k - l Im ersten Fall ist bei der Entscheidung b bekannt, für welche Alternative man sich bei a entschieden hat. - Im zweiten Fall ist das Ereignis, das aus der Ereignismenge c eintritt, bei der Entscheidung d bekannt. - Im dritten Fall hängt die Ausprägung der Zielgröße f von der Alternative ab, für die man sich bei e entscheidet. 36 Im vierten Fall hängt die Ausprägung der Zielgröße h von dem Ereignis ab, - das aus der Ereignismenge g eintritt. Im fünften Fall hängen die Wahrscheinlichkeiten für das Eintreten der Ereig- - nisse aus der Ereignismenge j von der Entscheidung bei i ab. Im sechsten Fall hängen die Wahrscheinlichkeiten für das Eintreten der Er- - eignisse aus der Ereignismenge l von dem Ereignis ab, das aus der Menge der Ereignisse unter k eintritt. Wenn ein Einflussdiagramm erstellt wird, muss sichergestellt werden, dass keine Zyklen entstehen, d. h. dass zu keinem Ausgangsknoten zurückgeführt wird, da eine solche Struktur nicht zu analysieren ist. Einflussdiagramme bleiben zwar selbst bei komplexen Zusammenhängen gegenüber den Entscheidungsbäumen übersichtlich, weil sich hinter den Symbolen ganze Mengen verbergen, aber wie aus der Abbildung 2.6 zu ersehen ist, fehlen im Gegensatz zu Entscheidungsbäumen Detailinformationen. Die einzelnen Entscheidungsalternativen, Ereignisse und Konsequenzen werden von Einflussdiagrammen nicht abgebildet, sondern nur die jeweiligen Mengen (EISENFÜHR/WEBER 1999, 42 ff.). 2.4.4 Entscheidungsnetze Entscheidungsnetze sind ein auf Strukturwissen basierender Analyseansatz für Entscheidungssituationen unter Risiko und Unsicherheit. Mit diesem Ansatz der auf die Arbeiten von LESERER (1986 und 1987) zurückgeht, ist neben einer Untersuchung aus der Sicht eines Entscheiders, wie es bei der Entscheidungsbaumanalyse der Fall ist, zusätzlich eine eher normative Analyse aus der Sicht eines Beobachters (z. B. eines Ökonomen) möglich. Ferner können im Gegensatz zur Analyse mit Entscheidungsbäumen mit der Entscheidungsnetzanalyse simultan mehrere exogene Einflüsse analysiert werden. Im Rahmen einer vergleichenden Untersuchung konnte gezeigt werden, dass Entscheidungsnetze zu anderen Ergebnissen als Entscheidungsbäume führen können (RECKE/LESERER 2001). 37 Gegenüber der Analyse mit Einflussdiagrammen hat die Entscheidungsnetzanalyse den Vorteil, dass mit ihr die gesamte Detailinformation der Entscheidungssituation berechnet werden kann. Größere Ähnlichkeiten weist die Entscheidungsnetzanalyse mit dem in Expertensystemen eingesetzten Ansatz des „probabilistic reasoning“ auf (vgl. z. B. PEARL (1988), NEAPOLITAN (1990), CASTILLO (1997) oder COWELL (1999). Stochastizität und Kausalität werden hier ausgehend von bedingten Wahrscheinlichkeiten modelliert. Ökonomen besitzen auch außerhalb wirtschaftsstatistischer Erhebungen Strukturwissen, etwa über im Verhalten von Wirtschaftssubjekten begründete Kausalzusammenhänge und über die Realisationschancen (Wahrscheinlichkeiten) der dort definierten ökonomischen Größen. So weiß etwa ein Anbieter, dass bei einem seiner Kunden der Kauf des Produktes von einem Kredit abhängt. Solches Wissen kann unter Anwendung elementarer wahrscheinlichkeitstheoretischer Hilfsmittel in eine systematische Form gebracht werden und gibt so Auskunft über ökonomisches Geschehen in Entscheidungssituationen unter Risiko und Unsicherheit. Diese Entscheidungssituationen können als ein Bündel endlich vieler Entscheidungsalternativen gesehen werden. Sie können jeweils mit bestimmten Chancen, die von den Dispositionen der Entscheidungsträger und dem jeweiligen Entscheidungsrahmen abhängen, eintreten bzw. gewählt werden. Solche Alternativenbündel sind i. d. R. kausalverbunden, d. h. die Wahl einer Alternative in einem Entscheidungsproblem beeinflusst, wie oben erläutert, in einem anderen Entscheidungsproblem die Chancen der Alternativenwahl. Damit ist ein Entscheidungsnetz festgelegt. Es induziert ein Wahrscheinlichkeitsfeld, wenn man die Chancen der Alternativenwahl als Wahrscheinlichkeiten angibt. Diese sind damit Maßzahlen zur Kennzeichnung von Entscheidungsalternativen hinsichtlich ihrer Verwirklichungstendenz, d. h., sie quantifizieren die Neigung des Entscheidungsträgers, eine bestimmte Alternative zu wählen. Die Elemente der Grundmenge dieses Wahrscheinlichkeitsfeldes enthalten alle unter Beachtung der Kausalrestriktionen wählbaren Alternativenkombinationen. Das Wahrscheinlichkeitsmaß ist das Produkt der bedingten und unbedingten Alternati- 38 venchancen. Je nach Art des Analyseziels lassen sich dann über dieses Wahrscheinlichkeitsfeld Zufallsvariable definieren, die eine gemeinsame Wahrscheinlichkeitsmaßfunktion (WMF) besitzen. Damit ist eine Regression 1. Art13 möglich, bei der unabhängige zu abhängigen Zufallsvariablen in Beziehung gesetzt werden. Im Gegensatz zu der in der Ökonometrie zur Kausalanalyse sonst eingesetzten gewöhnlichen Regressionsanalyse, sind aber bei der Regression 1. Art keine besonderen Stichprobenerfordernisse und spezielle Annahmen, wie die Gauß-Markov-Annahmen, zu beachten, da die Regression 1. Art selbst bei singulären Entscheidungsproblemen unter Unsicherheit anwendbar ist.14 Für die Regression 1. Art können Charakteristika (Kenngrößen) der gemeinsamen WMF berechnet werden, die der Analyse von Entscheidungssituationen unter Risiko und Unsicherheit dienen. So kann etwa der bedingte Erwartungswert einer Zufallsvariablen auf der Einschränkung einer anderen als mittlere Reaktion einer von einer Ursachenvariablen bewirkten Variablen gesehen werden, und die Varianz dieser mittleren Reaktion, bezogen auf die Varianz der Randverteilung der Wirkungsvariablen, kann die Einflussstärke messen (RECKE/LESERER 1998, 50). Wie bei Entscheidungsbäumen und Einflussdiagrammen setzt sich ein Entscheidungsnetz aus mehreren verschiedenen Elementen zusammen. Diese sind: - Entscheidungsknoten, - Alternativen, - Wahrscheinlichkeiten und - Attribute (Werte der Alternativen). Die einzelnen Elemente werden auch bei dieser Art der Analyse zueinander in Beziehung gesetzt. Mit Pfeilen werden wie bei Einflussdiagrammen Abhängigkeiten und Sequenzen verdeutlicht. Hervorzuheben ist noch, dass im Gegensatz zu Einflussdiagrammen und Entscheidungsbäumen in Entscheidungsnetzen einzelne Entscheidungsknoten als unbedingte oder bedingte Zufallsvariable definiert werden 13 Die Regression 1. Art wird ausführlich im folgenden Abschnitt beschrieben. Eine gute Einführung findet sich z. B. bei FISZ (1963, S. 91 ff.). 14 Ausführlich wird die Begründung für eine Regression 1. Art und der Vergleich zur gewöhnlichen Regression (Regression 2. Art) in LESERER (1986, S. 97 ff.) beschrieben. 39 können. Dadurch ist eine Regressionsanalyse erster Art möglich, die wiederum die Grundlage für die Berechnung der Charakteristika zur Vorhersage und Kontrolle ist. Der Rechenaufwand, der notwendig ist, um die hier vorgestellte Art der Analyse von Entscheidungssituationen unter Risiko und Unsicherheit durchzuführen, ist bereits für vergleichsweise einfache Entscheidungsnetze beträchtlich. Mit MAGIC, einem am Institut für Agrarökonomie in Göttingen entwickelten Programm, ist es möglich, Entscheidungsnetze einzugeben, sie auf Konsistenz zu prüfen und aufbauend auf der gemeinsamen WMF entsprechende Wahrscheinlichkeitscharakteristika zu berechnen15. Mit dem Programm können Entscheidungsnetze in eine Normalform übertragen werden, sodass auch komplexe Probleme analysiert werden können. Anhand eines Beispiels soll im Folgenden verdeutlicht werden, wie eine ökonomische Entscheidungssituation unter Risiko und Unsicherheit in ein Entscheidungsnetz überführt werden kann. In dem hier gewählten Beispiel wird unterstellt, dass es mehrere Entscheidungsträger gibt, die jeweils zwischen zwei Alternativen wählen können. Außerdem wird angenommen, dass den einzelnen Alternativen Wahrscheinlichkeiten zugewiesen werden können. Ferner wird unterstellt, dass die Entscheidungsträger voneinander abhängen und damit eine kausale Struktur vorliegt. Diese Form von Kausalität kann durch die Bestimmung von unbedingten und bedingten Zufallsvariablen vorgegeben werden. Die Struktur des Entscheidungsproblems wird als Entscheidungsnetz in der Abbildung 2.8 dargestellt. In dieser Abbildung ist eine Kaufsituation mit fünf Entscheidern zu sehen. Dabei handelt es sich um zwei Nachfrager, einen Anbieter und zwei Kreditgeber. Der erste Nachfrager (N1) scheint ein Snob zu sein, da er nur dann überlegt zu kaufen, wenn der lokale Anbieter (A) sein Produkt zu einem hohen Preis (20) anbietet und außerdem der erste Kreditgeber (K1) einen Kredit (1) bereitstellt. Der zweite Nachfrager (N2) wird dagegen nur dann bereit sein zu kaufen, wenn der Anbieter (A) einen nied- 15 Der Aufbau und die Funktionsweise des Programms sind im Anhang und in RECKE/LESERER (1998, 50 f.) beschrieben. 40 rigen Preis (10) verlangt und der zweite Kreditgeber (K2) ihm einen Kredit (1) gewährt. Angenommen ein Produzent (Beobachter) findet diese Situation vor und möchte sie eingehend untersuchen, dann ist dies nicht die Sichtweise des involvierten Entscheiders, sondern vielmehr die eines nicht unmittelbar involvierten Produzenten. Angenommen dieser möchte von seinem Produkt über den lokalen Anbieter möglichst viel an die Nachfrager verkaufen, und er fragt sich, ob er durch Einflussnahme auf den lokalen Anbieter eine höhere Nachfrage erreichen kann und ob die Situation kontrollierbar ist. Durch die Entscheidungsnetzanalyse kann er Antworten auf diese Fragen erhalten. Zu beachten ist, dass sich die fünf Entscheider für den Produzenten stochastisch verhalten, sodass bei der Übertragung in ein Entscheidungsnetz diese als Zufallsvariablen definiert werden müssen. Abbildung 2.8: Entscheidungsnetz Kaufsituation16 16 Die Werte in Klammern sind die Attribute der einzelnen Alternativen. Darunter befinden sich die zugehörigen Werte für die Wahrscheinlichkeiten. 41 Die Wahrscheinlichkeiten sind den jeweiligen Alternativen in der Abbildung zugeordnet. Die Entscheidungssituation wird von dem Produzenten wie folgt charakterisiert: K1, A und K2 sind die unbedingten Entscheider, die als unbedingte Zufallsvariablen definiert und mit X1, X2 und X3 (X) im Folgenden bezeichnet werden. N1 und N2 sind die bedingten Entscheider, die als bedingte Zufallsvariable Y definiert werden. Die einzelnen Handlungsalternativen werden in der folgenden Tabelle beschrieben. Tabelle 2.3: Beschreibung der Handlungsalternativen Alternative A11 A12 A21 A22 A31 A32 A41 A42 A51 A52 Erläuterung Kreditgeber 1 wird den Kredit mit einer Wahrscheinlichkeit von 0.5 vergeben (unbedingte Entscheidung) Kreditgeber 1 wird den Kredit mit einer Wahrscheinlichkeit von 0.5 nicht vergeben (unbedingte Entscheidung) Anbieter A entscheidet sich mit einer Wahrscheinlichkeit von 0.5, das Produkt für 20 Einheiten zu verkaufen (unbedingte Entscheidung) Anbieter A entscheidet sich mit einer Wahrscheinlichkeit von 0.5, das Produkt für 10 Einheiten zu verkaufen (unbedingte Entscheidung) Kreditgeber 2 wird den Kredit mit einer Wahrscheinlichkeit von 0.5 vergeben (unbedingte Entscheidung) Kreditgeber 2 wird den Kredit mit einer Wahrscheinlichkeit von 0.5 nicht vergeben (unbedingte Entscheidung) Wenn sich der Anbieter A auf einen Preis von 20 Einheiten und der Kreditgeber K1 sich gleichzeitig auf die Kreditvergabe festlegen, kauft der Nachfrager N1 mit einer 60%igen Wahrscheinlichkeit 10 Einheiten (bedingte Entscheidung) Wenn sich der Anbieter A auf einen Preis von 20 Einheiten und der Kreditgeber K1 sich gleichzeitig auf die Kreditvergabe festlegen, kauft der Nachfrager N1 mit einer 40%igen Wahrscheinlichkeit 5 Einheiten (bedingte Entscheidung) Wenn sich der Anbieter A auf einen Preis von 10 Einheiten und der Kreditgeber K2 sich gleichzeitig auf die Kreditvergabe festlegen, kauft der Nachfrager N2 mit einer 20%igen Wahrscheinlichkeit 10 Einheiten (bedingte Entscheidung) Wenn sich der Anbieter A auf einen Preis von 10 Einheiten und der Kreditgeber K2 sich gleichzeitig auf die Kreditvergabe festlegen, kauft der Nachfrager N2 mit einer 80%igen Wahrscheinlichkeit 5 Einheiten (bedingte Entscheidung) 42 Für die Analyse des Entscheidungsnetzes sind von allen möglichen Alternativenkombinationen nur die zulässigen zu berücksichtigen. Die zulässigen Alternativenkombinationen werden in Tabelle 2.4 aufgeführt. Eine unzulässige Alternativenkombination ist z. B. (A11, A22, A32 und A51). Diese Kombination ist innerhalb des Entscheidungsproblems kausal nicht zulässig, da der zweite Nachfrager nur bei einem Kredit von Kreditgeber 2 und einem niedrigen Preis des Anbieters kaufen wird. Dagegen ist die Alternativenkombination (A11, A21, A31 und A41) zulässig, da dann, wie in der Abbildung 2.8 zu sehen ist, für den Nachfrager 1 beide Bedingungen für einen Kauf des Produktes erfüllt sind. Tabelle 2.4: Zulässige Alternativenkombinationen und ihre wahrscheinlich- keitstheoretische Auswertung Spalte 1 K1: X1 A11 - 1 – 0.5 A11 - 1 – 0.5 A11 - 1 – 0.5 A11 - 1 – 0.5 A11 - 1 – 0.5 A11 - 1 – 0.5 A11 - 1 – 0.5 A12 - 0 – 0.5 A12 - 0 – 0.5 A12 - 0 – 0.5 A12 - 0 – 0.5 A12 - 0 – 0.5 Spalte 2 A: X2 A21 - 20 - 0.5 A21 - 20 - 0.5 A21 - 20 - 0.5 A21 - 20 - 0.5 A22 - 10 - 0.5 A22 - 10 - 0.5 A22 - 10 - 0.5 A21 - 20 - 0.5 A21 - 20 - 0.5 A22 - 10 - 0.5 A22 - 10 - 0.5 A22 - 10 - 0.5 Spalte 3 K2: X3 A31 – 1 - 0.5 A31 – 1 - 0.5 A32 – 0 - 0.5 A32 – 0 - 0.5 A31 – 1 - 0.5 A31 – 1 - 0.5 A32 – 0 - 0.5 A31 – 1 - 0.5 A32 – 0 - 0.5 A31 – 1 - 0.5 A31 – 1 - 0.5 A32 – 0 - 0.5 Spalte 4 N1 A41 -10 – 0.6 A42 – 5 – 0.4 A41 -10 – 0.6 A42 – 5 – 0.4 Spalte 5 N2 A51 -10 - 0.2 A52 - 5 - 0.8 A51 - 10 - 0.2 A52 - 5 - 0.8 Spalte 6 Spalte 7 Y p(Y,X) 10 0.075 5 0.05 10 0.075 5 0.05 10 0.025 5 0.1 0 0.125 0 0.125 0 0.125 10 0.025 5 0.1 0 0.125 A11 - 1 - 0.5: Die Alternative A11, d. h., dass von der ersten Bank ein Darlehen an den Kunden gegeben wird (1), wird mit einer Wahrscheinlichkeit von 0.5 eingeschätzt. Y: Anzahl der Produkte. p(Y,X): Wahrscheinlichkeit, dass bei der gegebenen Alternativenkombination eine entsprechende Anzahl von Produkten nachgefragt wird. Für das Entscheidungsnetz kann dann anhand dieser wahrscheinlichkeitstheoretischen Auswertung und mittels der im nächsten Abschnitt vorgestellten Regressions- 43 analyse erster Art eine multivariate Analyse durchgeführt werden. Durch ausgesuchte Charakteristika erhält der Produzent damit eine Entscheidungsunterstützung. 2.5 Charakteristika für Entscheidungsnetze 2.5.1 Einführung In Abschnitt 2.2 sind neben der Erwartungsnutzentheorie und deren Alternativen weitere Entscheidungsansätze wie das Erwartungswertkriterium und der Erwartungswert-Varianz-Ansatz eingeführt worden. Auf der Grundlage der Regression erster Art sollen ausgehend von einer gemeinsamen Wahrscheinlichkeitsmaßfunktion (WMF) in diesem Abschnitt Charakteristika (Kenngrößen) eingeführt werden, mit denen einfache und komplexe Entscheidungsnetze analysiert werden können. 2.5.2 2.5.2.1 Zur Ermittlung von Charakteristika in Entscheidungsnetzen17 Wahrscheinlichkeitsmaßfunktionen Wirtschaftssubjekte müssen häufig unter Unsicherheit entscheiden. Wenn solche Entscheidungssituationen vorliegen, sind für eine Analyse Zufallsvariablen einzuführen. Zum besseren Verständnis beschränken sich die folgenden Ausführungen auf zunächst zwei Zufallsvariablen; eine Zufallsvariable X mit den Ausprägungen x1,..., xr und eine Zufallsvariable Y mit den Ausprägungen y1,..., yn. Zur Verdeutlichung ein Beispiel: Ein Marktbeobachter sieht, dass in einem Markt ein Anbieter (A) einem Nachfrager (N) (Abbildung 2.9) gegenübersteht. Der Anbieter möchte sein Produkt zu einem hohen Preis (x2) verkaufen. Da er aber unsicher ist, ob er das Produkt zu dem hohen Preis verkaufen kann, überlegt er, ob er das Produkt nicht besser zu einem niedrigen Preis (x1) verkaufen sollte. Der Anbieter wird mit einer Wahrscheinlichkeit von 17 Eine ausführlichere Beschreibung der statistischen Grundlagen zur Regressionsrechnung erster Art, die in diesem Abschnitt eingeführt wird, findet sich bei z. B. FISZ (1963, 91 ff.), GOLDBERG (1964, 163 ff.), HÄRTTER (1987, 78 ff.) und ROHATGI (1984, 279 ff.). 44 p ( x1 ) = 0.5 das Produkt zu einem hohen (7) oder aber mit der Wahrscheinlichkeit von p ( x 2 ) = 0.5 zu einem niedrigen Preis (5) anbieten. Der Nachfrager wird das Produkt nicht zu einem hohen Preis kaufen (y2) und nur, wenn der Preis niedrig ist, überlegen, ob er das Produkt kaufen soll (y1). Wenn der Anbieter das Produkt zu einem niedrigen Preis anbietet, wird der Nachfrager mit einer Wahrscheinlichkeit von p ( y1 ) = 0.5 kaufen und mit einer Wahrscheinlichkeit von p ( y 2 ) = 0.5 nicht kaufen. Abbildung 2.9: Entscheidungsnetz Anbieter-Nachfrager-Beispiel Dieses Entscheidungsproblem unter Risiko kann in eine gemeinsame WMF p( xi , y j ) mit i 1, , r und j 1,, n überführt werden. Diese gibt die Wahrscheinlichkeit an, dass die Zufallsvariable X (der Preis des Anbieters) den Wert xi (niedriger (5) oder hoher Preis (7)) und die Zufallsvariable Y (Kaufmenge des Nachfragers) den Wert yj (1) oder (0) annimmt mit 0 d p( x i , y j ) d 1 . Die gemeinsame WMF für den Fall zweier Zufallsvariablen ist in Tabelle 2.5 dargestellt. In dieser Tabelle werden außerdem noch die Rand-WMF von X und Y ausgewiesen, die ange- 45 ben, wie groß die Wahrscheinlichkeit einer Zufallsvariable ist, einen bestimmten Wert anzunehmen, gleichgültig, welchen Wert die andere Zufallsvariable annimmt. Tabelle 2.5: Gemeinsame WMF unbedingte Zufalls– bedingte Zufallsvariable Y variable X mögliche Realisationen mögliche Realisationen y1 Rand-WMF von X yn ¦ p( x , y j ) ¦ p( x , y j ) j ) i j x1 p( xi , y j ) 1 j xr ¦ p( x , y r j Rand-WMF von Y ¦ p( x , y i j ) i ¦ p( x , y ) i 1 i ¦ p( x , y i n 1 ) i Für das Anbieter-Nachfrager-Beispiel ergibt sich unter der Annahme, dass die möglichen Realisationen der beiden Zufallsvariablen jeweils mit einer Wahrscheinlichkeit von 0.5 eintreten, folgende gemeinsame WMF. Tabelle 2.6: Gemeinsame WMF für das Anbieter-Nachfrager-Beispiel unbedingte Zufalls– gemeinsame Zufallsvariable Y variable X mögliche Realisationen Rand-WMF von X ¦ p( x , y i j mögliche Realisationen 0 1 5 0.25 0.25 0.5 7 0.5 0 0.5 0.75 0.25 1 Rand-WMF von Y ¦ p( x , y i j ) i 46 j ) Um Entscheidungsprobleme zu analysieren, in denen sich wie in dem gewählten Anbieter-Nachfrager-Beispiel Abhängigkeiten zeigen, d. h. Wirtschaftssubjekte bedingt entscheiden, wird ausgehend von der gemeinsamen WMF auch die bedingte WMF ermittelt. Die bedingte WMF weist die Wahrscheinlichkeit aus, dass eine Zufallsvariable Y eine bestimmte Ausprägung yj hat, unter der Bedingung, dass eine Zufallsvariable X eine Ausprägung xi annimmt. Die bedingte WMF wird in Tabelle 2.7 dargestellt. Tabelle 2.7: Bedingte WMF unbedingte Zufallsvariable bedingte Zufallsvariable Y X mögliche Realisationen mögliche Realisationen y1 x1 p ( y j | xi ) xr yn Die bedingten Wahrscheinlichkeiten sind durch folgende Gleichung p ( xi , y j ) p ( y j | xi ) (2.14) p( xi ,.) mit den Randwahrscheinlichkeiten p ( xi ,.) ¦ p( x , y i j )!0 (2.15) j definiert. Für die Zeilensummen der bedingten Wahrscheinlichkeiten gilt: 47 ¦ p( y j ¦ | xi ) j j p( x i , y j ) p( x i ,.) ¦ p( x ,.) p( x i ,.) j (2.16) 1. i Für das Anbieter-Nachfrager-Beispiel errechnet sich die folgende bedingte WMF. Tabelle 2.8: Bedingte WMF für das Anbieter-Nachfrager-Beispiel 2.5.2.2 unbedingte Zufallsvariable bedingte Zufallsvariable Y X mögliche Realisationen mögliche Realisationen 0 1 5 0.5 0.5 7 1.0 0 Erwartungswerte und Varianzen Auf der Grundlage der gemeinsamen WMF können in einem ersten Schritt Erwartungswerte und Varianzen als Parameter bestimmt werden, mit denen die Entscheidungsnetze analysiert werden können. Sei X eine Zufallsvariable, die die Werte x1 , , x r mit den Wahrscheinlichkeiten p ( x1 ), , p ( x r ) annimmt, dann ist r E( X ) ¦ x p( x ,.) i (2.17) i i 1 der Erwartungswert dieser Zufallsvariablen. Entsprechend kann auch für die Zufallsvariable Y, die die Werte y1 , , y n mit den Wahrscheinlichkeiten p ( y n ),, p ( y n ) annimmt, der zugehörige Erwartungswert ermittelt werden: 48 E (Y ) n ¦y p (., y j ) . j (2.18) j 1 ¦ p ( xi , y j ) mit p(., y j ) i Für das Beispiel errechnen sich folgende Erwartungswerte: E( X ) 6 und E (Y ) 0.25 . Neben dem Erwartungswert sind noch Maße für die Streuung einzuführen. Dazu wird die Varianz-Kovarianz-Matrix der Zufallsvariablen, die das gemeinsame Variieren der beiden Zufallsvariablen misst, ermittelt. Die Varianz-Kovarianz-Matrix von Y und X kann gemäß ª(Y E (Y )) º E« » ¬( X E ( X ))¼ Cov(Y , X ) >Y ªY º E« » ¬X ¼ X@ ªY º E« » ¬X ¼ >(Y E (Y )) E >Y X@ ( X E ( X ))@ (2.19) mit den Erwartungswerten wie in (2.18) und (2.19) ermittelt werden. Dabei ist ªY º E« » ¬X ¼ >Y X@ E (YY ) ¦ y j y j p(., y j ) (2.21) ¦ xi xi p( xi ,.) (2.22) ª YY E« ¬ XY YX º XX »¼ (2.20) mit j E ( XX ) i E ( XY ) E (YX ) ¦¦ xi y j p( xi , y j ) . i j 49 (2.23) Da die Werte der Varianz-Kovarianz-Matrix von den Einheiten abhängen, in denen Y und X gemessen werden, wird die in Vielfachen der jeweiligen Standardabweichungen gemessene Abweichung von den einzelnen Erwartungswerten verwendet, um den Effekt der Einheiten zu beseitigen. Man betrachtet also den Korrelationskoeffizient, der wie folgt definiert ist: G (Y , X ) ª >Y E (Y )@ > X E ( X )@º E« » VX ¬ VY ¼ mit V Y Var (Y ) und V X Cov (Y , X ) VY V X (2.24) Var ( X ) . (2.25) Der Wertebereich dieser Größe ist durch 1 d G (Y , X ) d 1 festgelegt. In Tabelle 2.9 werden für das Beispiel die Werte für die Varianz-Kovarianz-Matrix und in Tabelle 2.10 die Korrelationskoeffizienten ausgewiesen. Tabelle 2.9: Varianz-Kovarianz-Matrix Y X Y 0.1875 -0.2500 X -0.2500 1 Tabelle 2.10: Korrelationsmatrix Y X Y 1 -0.57735 X -0.57735 1 50 2.5.2.3 Bedingte Erwartungswerte und bedingte Varianzen Ein weiterer wichtiger Parameter ist der bedingte Erwartungswert, der die mittlere Reaktion der bedingten Zufallsvariablen auf Veränderungen der unbedingten Zufallsvariable misst. Der bedingte Erwartungswert18 ist definiert durch: E (Y | X ) ¦y j p ( y j | xi ) . (2.26) j Sind die Variablen Y und X unabhängig, dann entspricht der bedingte Erwartungswert E (Y | X ) E (Y ) (2.27) dem Erwartungswert der bedingten Zufallsvariablen. Für die bedingte Varianz gilt: Var (Y | X ) ¦(y j E (Y | X )) 2 p( y j | xi ) . (2.28) j Der Wert für die bedingte Varianz fällt niedrig aus, wenn die Werte der Zufallsvariablen Y in der Nähe des zugehörigen bedingten Erwartungswertes liegen. Dann können aber auch die Werte der Zufallsvariablen Y anhand der Ausprägungen der Zufallsvariablen X umso genauer vorausgesagt werden. In den beiden folgenden Tabellen werden die bedingten Erwartungswerte und die bedingten Varianzen für das Beispiel ausgewiesen. 18 Die Erwartungswertbildung bezieht sich auf die bedingte Variable. 51 Tabelle 2.11: Bedingte Erwartungswerte X E(Y|X) 5 0.5 7 0 Tabelle 2.12: Bedingte Varianz 2.5.2.4 X Var(Y|X) 5 0.25 7 0 Varianzanalyse Die Varianz von Y kann auf zwei Weisen berechnet werden. Einerseits kann die Varianz der Zufallsvariablen Y als Differenz des Erwartungswertes von Y2 und des Quadrates des Erwartungswertes von Y berechnet werden: Var (Y ) E (Y 2 ) ( E (Y )) 2 E (Y 2 ) ¦(y (2.29) mit j ) 2 p(., y j ) (2.30) j wobei p (., y j ) ¦ p( x , y i j (2.31) )!0 i 52 und 2 ( E (Y )) 2 § · ¨ ¦ y j p( y j ) ¸ . ¨ ¸ © j ¹ (2.32) Für das Beispiel errechnet sich dann: Var(Y) = 0.25 - 0.0625 = 0.1875. Andererseits kann die Varianz ausgehend von der gemeinsamen WMF als Summe aus dem Erwartungswert der bedingten Varianz und der Varianz des bedingten Erwartungswertes berechnet werden (ROSS 1994, 342): Var (Y ) E (Var (Y | X )) Var ( E (Y | X )) . (2.33) Der Erwartungswert der bedingten Varianz, auch interne Varianz genannt, ist durch folgende Gleichung definiert: E (Var (Y | X )) ª ¦ «¦ ( y i ¬ j j º E (Y | X )) 2 p ( y j | xi )» p ( xi ,.) . ¼ (2.34) Die interne Varianz kann auch als die durch X nicht erklärte Varianz interpretiert werden. Sie steht somit nicht unter dem Einfluss von X (RINNE 1997, 74 ff.). Die Varianz des bedingten Erwartungswertes, auch externe Varianz genannt (durch X erklärte Varianz), ist durch folgende Gleichung definiert: Var ( E (Y | X )) ¦ ( E (Y | X ) E (Y )) 2 p( xi ,.) . (2.35) i Die externe Varianz kann als die Varianz, die durch X erklärt wird, interpretiert werden. Dieser Varianzanteil von Y steht somit unter dem Einfluss von X (RINNE 1997, 74 ff.). 53 Wie im Folgenden gezeigt wird, können die beiden Varianzformeln ineinander überführt werden (LESERER 2001, S. 2 f.). Var ( E (Y | X )) E ( E (Y | X ) E ( E (Y | X ))) 2 (2.36) E (( E (Y | X )) 2 ) ( E (Y )) 2 E (Var (Y | X )) E ( E (Y E (Y | X )) 2 | X ) (2.37) E (Y 2 ) E (( E (Y | X )) 2 ) Var ( E (Y | X )) E (Var (Y | X )) E (( E (Y | X )) 2 ) ( E (Y )) 2 E (Y ) 2 E (( E (Y | X )) 2 ) E (Y 2 ) ( E (Y )) 2 (2.38) Var (Y ). Die Werte der internen und externen Varianz sind für das Beispiel in der folgenden Tabelle aufgeführt. Tabelle 2.13: Varianzzerlegung X E(Var(Y|X)) Var(E(Y|X)) 5 0.125 0.03125 7 0 0.03125 Summe 0.125 0.0625 Für das Beispiel errechnet sich: Var(Y) = 0.125 + 0.0625 = 0.1875. Dabei sind die grundsätzlichen Unterschiede zu beachten. Im ersten Fall wird die Varianz von Y unbedingt errechnet, während im zweiten Fall die Varianz von Y bedingt durch die Zufallsvariable X ermittelt wird. 54 Mit dem Wissen, dass die Varianz des bedingten Erwartungswertes den Varianzanteil von Y misst, der durch X erklärt wird, kann folgendes Verhältnis zwischen der durch die bedingenden Größen erklärte Varianz und der Varianz von Y gebildet werden: KY | X Var ( E (Y | X )) . Var (Y ) (2.39) Dieser Quotient hat die folgenden Eigenschaften: 1. 0 d KY | X d 1 2. KY | X 0: Y ist von X nicht „beeinflusst“, 3. KY | X 1 : Y ist von X vollständig „beeinflusst“. Dieser Quotient, der als Bestimmtheitsmaß der Regression erster Art von X auf Y interpretiert werden kann, misst den Einfluss von X auf Y und erlaubt eine Kontrolle zwischen Ursache (im vorliegenden Beispiel der Handlung des Anbieters des Produktes) und Wirkung (der Handlung des Nachfragers). Für das Beispiel berechnet sich ein KY | X von 0.3333. Das ist ein Hinweis auf eine nur schwache Möglichkeit zur Kontrolle, da der nicht kontrollierbare interne Varianzanteil doppelt so hoch ist wie der kontrollierbare externe Varianzanteil. 2.5.2.5 Multivariate Analysen Da in dieser Arbeit auch multivariate Fragestellungen untersucht werden, werden die gemeinsame und bedingte WMFen auch für den Fall einer bedingten und mehrerer unbedingter Zufallsvariablen in multivariater Form beschrieben. Diese Form wird, weil sie bisher in der Literatur nicht beschrieben ist, im Folgenden ausführlich behandelt. Dazu wird zunächst gezeigt, wie über bivariate gemeinsame WMFen, über Vektorisierung oder mittels einer Dummyvariablen Z die gemeinsame multivariate WMF bestimmt werden kann. 55 1. Über bivariate gemeinsame WMFen zur multivariaten gemeinsamen WMF Im vorigen Abschnitt wurde gezeigt, wie im bivariaten Fall mit zwei Zufallsvariablen die gemeinsame WMF ermittelt werden kann. Durch bivariate Analyse kann auch eine gemeinsame multivariate WMF bestimmt werden. An einem Beispiel mit drei Zufallsvariablen soll diese Vorgehensweise gezeigt werden. Zwei Zufallsvariablen seien dabei unbedingt (X1 und X2) und eine Zufallsvariable bedingt (Y). Ferner wird unterstellt, dass eine der unbedingten Zufallsvariablen zwei Ausprägungen (1 und 0) hat. Wie im bivariaten Fall wird eine unbedingte Zufallsvariable in Beziehung zu einer bedingten gesetzt. Außerdem wird unterstellt, dass die andere unbedingte Zufallsvariable den Wert 1 oder 0 annimmt. So kann eine multivariate gemeinsame WMF mit einer multivariaten Rand-WMF aus zwei bivariaten gemeinsamen WMFen gebildet werden, die jeweils eine univariate Rand-WMF aufweisen. Tabelle 2.14: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 0 Zufallsvariable X1 Zufallsvariable Y mögliche Realisationen mögliche Realisationen y1 x11 p x1i , X 2 x1r px , X 2 0, y j p x, X 2 0 , y1 n 56 p x11 , X 2 0, x p x1r , X 2 0 ,Y 0,x yn p X1 , X 2 px , X 2 0 , yn 0,x Tabelle 2.15: Gemeinsame WMF der Zufallsvariablen X1 und Y, X2 = 1 Zufallsvariable X1 Zufallsvariable Y mögliche Realisationen mögliche Realisationen y1 x11 p x1i , X 2 x1r px , X 2 1, y j px , X 2 1, y1 p x11 , X 2 1, x p x1r , X 2 1,Y 1, x yn p X1 , X 2 px , X 2 1, x 1, yn Wenn die beiden Tabellen zusammengeführt werden, so erhält man die multivariate gemeinsame WMF. Die multivariate bedingte WMF errechnet sich, indem der Quotient aus gemeinsamer Wahrscheinlichkeit und zugehöriger Randwahrscheinlichkeit gebildet wird. Sollte X2 mehr als zwei Ausprägungen aufweisen, müssen zusätzliche bivariate gemeinsame WMFen berechnet und zusammengefasst werden. Liegen weitere unbedingte Zufallsvariablen vor, können nach dem oben beschriebenen Verfahren die erforderlichen bivariaten gemeinsamen WMF ermittelt und zu einer multivariaten gemeinsamen WMF zusammengefasst werden. 2. Multivariate gemeinsame WMF durch Vektorisierung Wie im ersten Punkt gezeigt wurde, kann die multivariate gemeinsame WMF in bivariate gemeinsame WMFen aufgeteilt werden. Diese können als Blöcke in eine Diagonalmatrix mit einzelnen bivariaten WMFen übertragen werden. Für das im ersten Punkt beschriebene Beispiel ergibt sich damit eine multivariate gemeinsame WMF mit zwei Blöcken. 57 Tabelle 2.16: Multivariate gemeinsame WMF in Diagonalform Zufallsvariable Zufallsvariable Y Zufallsvariable Y X1, X2=0,1 mögliche Realisationen mögliche Realisationen y1 y1 mögliche Rea- yn p X1 X 2 x yn lisationen x11 p x11 , X 2 p x1i , X 2 x1r 0, y j x11 0 p x1i , X 2 x1r pxx y 0 1, y j 0 , y1 px , X 2 0 , yn px , X 2 1, y1 p x1r , X 2 0,x p x11 , X 2 1, x p x1r , X 2 px , X 2 px , X 2 1, yn Auch bei dieser Form können viele Ausprägungen der einzelnen Zufallsvariablen und weitere Zufallsvariablen dargestellt werden und aus der gemeinsamen WMF die multivariate bedingte WMF berechnet werden, in dem wieder der Quotient aus gemeinsamer Wahrscheinlichkeit und zugehöriger Randwahrscheinlichkeit gebildet wird. 3. Multivariate gemeinsame WMF mit einer Zählvariable Außerdem kann die multivariate gemeinsame WMF mit einer Zählvariablen Z gebildet werden. Die Realisationskombinationen von X werden einer Zählvariablen zugeordnet. Für die Zählvariable werden die gemeinsamen Wahrscheinlichkeiten zusammen mit den Realisationen der bedingten Zufallsvariablen Y ausgewiesen. In der Tabelle 2.17 werden außerdem noch die Rand-WMF von Y und Z ausgewiesen. 58 0,x 1 1, x Tabelle 2.17: Multivariate gemeinsame WMF mit der Variable Z Z Vektor der unbedingten bedingte Zufallsvariable Y p(Z,.)* Zufallsvariablen X mögliche Realisationen mögliche RealisationsKombinationen X1 Xm z1 x11 xm1 zl x1l xm l zp x1 p y1 yn p ( z1 , ) p( z l , y j ) xmp p ( z p , ) p(., y j ) Rand-WMF von Y * 1 Rand-WMF einer Dummy-Variablen mit X1 Z ­ z1 ° ° °z °° l ® ° ° ° °z p ¯° Xm x11 xml , falls x11 xml x1 p xmp Diese Form wird im Folgenden für die weiteren Berechnungen gewählt. Durch p( Z , Y ) p( Z ,.) p(Y | Z ) kann die multivariate bedingte WMF berechnet werden, wobei Z die eben eingeführte Variable ist. 59 Die bedingten Wahrscheinlichkeiten werden in Tabelle 2.18 ausgewiesen. Diese weist die Wahrscheinlichkeit aus, dass eine Zufallsvariable Y eine bestimmte Ausprägung hat unter der Bedingung, dass X bestimmte Wertekombinationen annimmt. Tabelle 2.18: Multivariate bedingte WMF Vektor der unbedingten bedingte Zufallsvariable Y Zufallsvariablen X mögliche Realisations- mögliche Realisationen Kombinationen X1 Xm x1l xml y1 yn p( y j | z l ) Ausgehend von der multivariaten gemeinsamen WMF können die entsprechenden Kenngrößen für den multivariaten Fall abgeleitet werden. Im Folgenden wird in Anlehnung an die Schreibweise der allgemeinen Regressionsrechnung vielfach der Vektor X statt der Zählvariable Z verwendet. Die Erwartungswerte können wie im bivariaten Fall berechnet werden. Die multivariate Varianz-Kovarianz-Matrix von Y und X, mit X über: 60 > X 1 , , X m @ berechnet sich Cov (Y , X) ª (Y E (Y )) º « ( X E ( X )) » 1 » E« 1 « » « » ¬( X m E ( X m ))¼ >(Y E(Y ) ) ( X 1 E ( X 1 )) ( X m E(X m ))@ (2.40) ª E (Y E (Y )) 2 E (Y E (Y ))( X 1 E ( X 1 )) « E ( X 1 E ( X 1 )) 2 « E (Y E (Y ))( X 1 E ( X 1 )) « « «¬ E (Y E (Y ))( X m E ( X m )) E ( X 1 E ( X 1 ))( X m E ( X m )) E (Y E (Y ))( X m E ( X m )) º » E ( X 1 E ( X 1 ))( X m E ( X m ))» » » 2 E ( X m E ( X m )) »¼ Hieraus kann entsprechend dem bivariaten Fall die Korrelationsmatrix ermittelt werden. Ein weiterer wichtiger Parameter ist der bedingte Erwartungswert, der die mittlere Reaktion des Vektors der unbedingten Zufallsvariablen X auf die bedingte Zufallsvariable Y misst: E (Y | X) ¦y j p(Y | X) . (2.41) j Der Wert für die bedingte Varianz Var (Y | X) ¦( y j E (Y | X)) 2 p (Y | X) (2.42) j wird wie im bivariaten Fall niedrig ausfallen, wenn die Werte der Zufallsvariablen Y in der Nähe des zugehörigen bedingten Erwartungswertes liegen. Dann können aber auch die Werte der Zufallsvariablen Y anhand der Ausprägungen des Zufallsvektors X umso genauer vorausgesagt werden. 61 Die Varianz19 von Y kann wie im bivariaten Fall als Summe aus dem Erwartungswert der bedingten Varianz und der Varianz des bedingten Erwartungswertes berechnet werden: Var (Y ) E (Var (Y | X)) Var ( E (Y | X)) . (2.43) Der Erwartungswert der bedingten Varianz, auch Streuung um die mittlere Reaktion genannt, ist durch folgende Gleichung definiert: E (Var (Y | X)) E (Y ) 2 E (( E (Y | X)) 2 ) . (2.44) Dieser kann auch im multivariaten Fall als der durch X nicht erklärte Varianzanteil interpretiert werden und steht somit nicht unter dem Einfluss von X. Die Varianz des bedingten Erwartungswertes kann auch als Streuung der mittleren Reaktion beschrieben werden. Diese Streuung der mittleren Reaktion (durch X erklärte Varianz) ist durch folgende Gleichung definiert: Var ( E (Y | X)) E (( E (Y | X)) 2 ) ( E (Y )) 2 . (2.45) Dieser Varianzanteil von Y steht unter dem Einfluss von X. Er kann für weitere Kontrollanalysen wichtige Hinweise liefern. Auch hier kann man zeigen, dass sich die beiden Varianzformeln, wie im bivariaten Fall ineinander überführen lassen. Da die Varianz des bedingten Erwartungswertes den Varianzanteil von Y misst, der durch X erklärt wird, kann ein Verhältnis zwischen der durch die bedingenden Größen erklärte Varianz und der Varianz von Y gebildet werden. 19 Die zweite Varianzformel wird hier nicht mehr für den multivariaten Fall beschrieben, da sie sich nicht von dem bivariaten Fall unterscheidet. 62 KY |X Var ( E (Y | X)) Var (Y ) (2.46) Das Bestimmtheitsmaß kann als erklärbarer Streuungsanteil im Rahmen einer Regression erster Art interpretiert werden. Die multivariate gemeinsame WMF weist für das Beispiel aus Abschnitt 2.4.4 die Wahrscheinlichkeit aus, mit der die Zufallsvariablen X1, X2 und X3 sowie die Zufallsvariable Y bestimmte Wertekombinationen annehmen. Jede zulässige Alternativenkombination kann mit einer bestimmten Wahrscheinlichkeit eintreten. Der Wert errechnet sich, indem das Produkt der entsprechenden bedingten und unbedingten Einzelwahrscheinlichkeiten gebildet wird. Beispielsweise errechnet sich für die zulässige Alternativenkombination (A11, A21, A31 und A41), die Wahrscheinlichkeit von 0.075 (vgl. Tabelle 2.4). Die multivariate gemeinsame WMF ist in Tabelle 2.19 dargestellt. In dieser Tabelle werden außerdem noch die Rand-WMFen von Z und Y ausgewiesen, die angeben, wie groß die Wahrscheinlichkeit einer Zufallsvariablen ist, einen bestimmten Wert anzunehmen, gleichgültig welchen Wert die andere Zufallsvariable annimmt. 63 Tabelle 2.19: Multivariate gemeinsame WMF Z 1 2 3 4 5 6 7 8 * N0 Vektor der unbedingten Zufallsvariablen X mögliche RealisationsKombinationen bedingte Zufallsvariable Y N0 p(Z,.) mögliche Realisationen N2 N1 * 0 10 5 p(Y,X) 10 5 X1 X2 X3 1 0 1 0 1 0 1 0 20 20 10 10 20 20 10 10 1 1 1 1 0 0 0 0 0 0.125 0 0 0 0.125 0.125 0.125 0 0 0.025 0.025 0 0 0 0 0 0 0.100 0.100 0 0 0 0 0.075 0 0 0 0.075 0 0 0 0.050 0 0 0 0.050 0 0 0 0.125 0.125 0.125 0.125 0.125 0.125 0.125 0.125 Rand-WMF von Y 0.500 0.050 0.200 0.150 0.100 1 ( N1 N 2 ) X1 X 2 X 3 Z 1 ­1 ° ° °3 , falls 1 °° ® ° ° ° 0 °8 °¯ 20 1 10 1 10 0 Für das in Abschnitt 2.4.4 eingeführte Beispiel mit den gewählten Ausgangswahrscheinlichkeiten ergibt sich folgende Tabelle der Ergebnisse. 64 Tabelle 2.20: Multivariate bedingte WMF und ausgewählte Parameter Z Vektor der unbedingten bedingte Zufallsvariable Y E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X)) Zufallsvariablen X mögliche Realisationsmögliche Realisationen Kombinationen N0* N2 N1 0 1 2 3 4 5 6 7 8 X1 X2 X3 1 0 1 0 1 0 1 0 20 20 10 10 20 20 10 10 1 1 1 1 0 0 0 0 10 5 10 5 p(Y|X) 0 1 0 0 0 1 1 1 0 0 0.6 0.4 0 0 0 0 0.2 0.8 0 0 0.2 0.8 0 0 0 0 0.6 0.4 0 0 0 0 0 0 0 0 0 0 0 0 Summe * N0 KY | X 8 0 6 6 8 0 0 0 6 0 4 4 6 0 0 0 0.75000 0.00000 0.50000 0.50000 0.75000 0.00000 0.00000 0.00000 2.53125 1.53125 0.78125 0.78125 2.53125 1.53125 1.53125 1.53125 0.16598 0.10041 0.05123 0.05123 0.16598 0.10041 0.10041 0.10041 2.50000 12.75000 0.83607 ( N1 N 2 ) Die Ergebnisse der Kaufsituation können zusammenfassend wie folgt interpretiert werden: Die höchsten bedingten Erwartungswerte für die Nachfrage errechnen sich, wenn der erste Kreditgeber einen Kredit geben und der Anbieter einen hohen Preis verlangen würde. Etwas niedrigere bedingte Erwartungswerte (6) weisen die Realisationskombinationen auf, wenn der zweite Kreditgeber einen Kredit geben und der Anbieter einen niedrigen Preis nehmen würde. Allerdings weisen in diesem Beispiel die Realisationskombinationen mit den hohen bedingten Erwartungswerten auch große bedingte Varianzen (6) aus. Die Varianzanalyse ergibt, dass über 83% der Gesamtvarianz von Y extern durch X erklärbar sind, wobei sich für die erste und die fünfte Realisationskombination mit 16.6% die höchsten Anteile an der Gesamtvarianz errechnen, somit der Wert für das partielle Bestimmtheitsmaß am höchsten ist. Der Produzent, der eine hohe bedingte Nachfrage anstrebt und die hohe bedingte Varianz vernachlässigt, sollte zwischen den Realisationskombinationen 1 und 5 wählen. Da aber die Einflussnahme auf den zweiten Kreditgeber die Ergebnisse nicht verbessert, sollte der Produzent die Realisationskombination 5 wählen, d. h. er sollte dem ersten Kreditgeber empfehlen, einen Kredit zu vergeben, und den Anbieter überzeugen, einen hohen Preis zu nehmen. Der Vergleich mit dem schon in Abschnitt 65 2.4.4 vorgestellten Ansatz des „probabilistic reasoning“ zeigt aber auch gewisse Unterschiede. Während der Entscheidungsnetzansatz auf Alternativen und das Aufstellen einer gemeinsamen WMF basiert, werden bei dem anderen Ansatz ausgehend von Variablen sogenannte „conditional probability tables“ berechnet und als Ausgangspunkt weiterer Analysen verwendet. Die bei der Entscheidungsnetzanalyse entwickelte Varianzanalyse scheint außerdem bislang noch nicht in dem Ansatz des „probalistic reasoning“ eingeführt worden zu sein. 66 3 Entscheidungsnetzanalyse In Kapitel 2 ist ergänzend zu den schon vorhandenen Ansätzen, um Entscheidungen unter Risiko und Unsicherheit zu analysieren, neu die Entscheidungsnetzanalyse eingeführt worden. Für diesen Ansatz konnte in Abschnitt 2.5 eine Reihe zum Teil neuer Charakteristika (Kenngrößen) hergeleitet werden. In diesem Kapitel sollen Sensitivitätsanalysen für Entscheidungsnetze durchgeführt und die Möglichkeiten der Entscheidungsnetzanalyse im Rahmen der Spieltheorie behandelt werden. In einem ersten Schritt werden Sensitivitätsanalysen auf verschiedenen Stufen durchgeführt, um zu untersuchen, wie ausgewählte Kenngrößen auf Variationen bzgl. der Struktur, der Attribute oder der Wahrscheinlichkeiten reagieren. Anschließend werden spieltheoretische Fragen mit Entscheidungsnetzen analysiert, um herauszufinden, ob damit neue Erkenntnisse zu erwarten sind. 3.1 Sensitivitätsanalysen 3.1.1 Einführung In diesem Kapitel werden Entscheidungsnetze anhand von Sensitivitätsanalysen untersucht. Dazu werden in einem ersten Schritt in Abschnitt 3.1.2 unterschiedliche Strukturen miteinander verglichen. Im folgenden Abschnitt wird untersucht, wie sich Veränderungen bei den Werten einzelner Attribute auf die Kenngrößen auswirken. Dabei wird von einer festen Struktur ausgegangen, um den isolierten Effekt der Änderung eines Attributs aufzeigen zu können. In Abschnitt 3.1.4 werden schließlich Veränderungen bei Wahrscheinlichkeiten analysiert, wobei von einer gegebenen Struktur und festen Werten für die Attribute ausgegangen wird. 3.1.2 Veränderungen in der Struktur Zunächst werden vier Entscheidungsnetze, in denen einfache Entscheidungssituationen unter Unsicherheit abgebildet werden, miteinander verglichen. Diese Entscheidungsnetze, die in den folgenden vier Abbildungen dargestellt werden, unterscheiden sich in ihren Kausalstrukturen. Um eine bessere Vergleichbarkeit herzustellen, werden die Wahrscheinlichkeiten auf 0.5 gesetzt und auch die Werte der Attribute nicht 67 verändert. Die einfachste Struktur weist die Abbildung 3.1 auf, die etwas modifiziert schon in Abschnitt 2.5.2.1 eingeführt wurde. Abbildung 3.1: Entscheidungsnetz Kaufsituation 1 Das erste Entscheidungsnetz (Abbildung 3.1) zeigt beispielhaft die Kausalstruktur einer Entscheidungssituation unter Risiko und Unsicherheit, bei der z. B. ein Autohändler (A) sein Produkt (z. B. ein Auto) einem Nachfrager (N) mit einer Wahrscheinlichkeit von 0.5 zu einem niedrigen Preis (1) anbieten wird. Mit einer Wahrscheinlichkeit von 0.5 wird er das Produkt an den Nachfrager zu einem hohen Preis (2) anbieten. Der Nachfrager wird, wenn ihm das Produkt angeboten wird, mit einer Wahrscheinlichkeit von 0.5 kaufen (1) und sonst verzichten (0). Wenn der Autohändler (Anbieter) sein Produkt zu einem hohen Preis (2) anbieten wird, findet er in diesem Beispiel keinen Nachfrager. Dieses einfache Entscheidungsnetz wird mit drei weiteren Entscheidungsnetzen, in denen komplexere Situationen abgebildet werden, verglichen. Die komplexeren Entscheidungsnetze werden in den folgenden drei Abbildungen dargestellt. 68 Abbildung 3.2: Entscheidungsnetz Kaufsituation 2 Das zweite Entscheidungsnetz (Abbildung 3.2) unterscheidet sich von dem Ersten durch den zweiten Einflussfaktor (K), der auf die Entscheidung am dritten Knoten (N) zusätzlich einwirkt. Es liegt hier somit eine zweifaktorielle Entscheidungssituation unter Risiko und Unsicherheit vor. Der Nachfrager (N) ist nur dann mit einer Wahrscheinlichkeit von 0.5 bereit zu kaufen (1), wenn sich der Anbieter (A) für (1) und der Kreditgeber (K) für (1) entscheiden, der Anbieter somit dem Nachfrager sein Produkt zu einem niedrigen Preis anbietet und der Kreditgeber zusätzlich dem Nachfrager einen Kredit gibt. Ohne Kredit und/oder Angebot wird der Nachfrager das Produkt nicht kaufen können. 69 Abbildung 3.3: Entscheidungsnetz Kaufsituation 3 Das dritte Entscheidungsnetz ist durch einen bedingenden (Anbieter) und zwei bedingte Knoten (Nachfrager) charakterisiert. Die zwei Nachfrager (N1 und N2) werden das Produkt mit einer Wahrscheinlichkeit von jeweils 0.5 kaufen wollen (1), wenn der Anbieter (A) ihnen sein Produkt anbietet. Es kann allerdings immer nur ein Nachfrager kaufen, da der Anbieter sein Produkt nicht auf beide Nachfrager aufteilen kann. Bei einem billigen Angebot (1) wird in diesem Beispiel der erste Nachfrager N1 kaufen können, während bei einem hohen Angebot (2) der zweite Nachfrager N2 eher kaufen wird. 70 Abbildung 3.4: Entscheidungsnetz Kaufsituation 4 Das vierte Entscheidungsnetz (Abbildung 3.4) ist leicht modifiziert schon in Abschnitt 2.4.4 vorgestellt worden. Es unterscheidet sich von dem Zweiten (Abbildung 3.2) dadurch, dass ein weiterer Einflussfaktor (zweiter Kreditgeber (K2)) und ein weiterer bedingter Knoten (zweiter Nachfrager (N2)) hinzukommen. Die Nachfrager werden wie bei dem zweiten Entscheidungsnetz nur dann kaufen, wenn sie jeweils die Kredite erhalten und der Anbieter wird sein Produkt entweder günstig dem ersten Nachfrager oder teurer dem zweiten Nachfrager anbieten. Es ist aber auch bei dieser Entscheidungssituation nicht möglich, dass beide Nachfrager gleichzeitig kaufen, da der Anbieter nur einen Nachfrager beliefern kann. Ferner wird es ohne Kredite keine Nachfrage geben. In den folgenden vier Tabellen sind die Ergebnisse der Berechnungen zu den jeweiligen Entscheidungsnetzen mit den bedingten Wahrscheinlichkeiten und den wichtigsten Parametern zusammengestellt. 71 Tabelle 3.1: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 1 Z unbedingte bedingte Zufallsvariable E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X)) Zufallsvariable Y X mögliche Realisationen mögliche RealiN N sationen A 1 2 1 2 0 0 1 0 1 p(Y|X) 0.5 0 0.5 0 0.5 0 0.25 0 Summe 0.125 0 0.125 0.03125 0.03125 0.06250 KY | X 0.1667 0.1667 0.3334 In Tabelle 3.1 zeigt sich, dass der bedingte Erwartungswert am höchsten ist, wenn der Autohändler sein Produkt dem Nachfrager mit einer Wahrscheinlichkeit von 0.5 anbietet (1). Die bedingte Varianz und der partielle Erwartungswert der bedingten Varianz sind dann ebenfalls am höchsten. Die Varianz des partiellen bedingten Erwartungswertes ist für beide Realisationen des Autohändlers gleich, sodass auch das partielle Bestimmtheitsmaß ( KY | X ) die gleichen Werte hat. Damit führt das Anbieten des Produktes zum besten Ergebnis im Sinne einer Vorhersage wie auch einer Kontrolle (RECKE/LESERER 1998, 52 und Abschnitt 2.5.2.4). Tabelle 3.2: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 2 Z E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X)) Vektor der bedingte unbedingten Zufallsvariable Y Zufallsvariablen mögliche Realisationen X mögliche RealisationsKombinationen N N 0 1 2 3 4 A 1 2 1 2 Summe K 1 1 0 0 0 1 1 1 0 p(Y|X) 0.5 0 0 0 KY | X 1 0.5 0 0 0 0.5 0 0 0 72 0.25 0 0 0 0.0625 0 0 0 0.0625 0.0352 0.0039 0.0039 0.0039 0.0469 0.3214 0.0357 0.0357 0.0357 0.4285 Beim zweiten Entscheidungsnetz wird der Nachfrager nur dann kaufen, wenn sowohl der Anbieter sein Produkt zu einem niedrigen Preis verkauft als auch der Kreditgeber einen Kredit vergibt. Bei dieser Kombination (1,1) sind, wie Tabelle 3.2 zeigt, der bedingte Erwartungswert, die bedingte Varianz, der partielle Erwartungswert der bedingten Varianz und auch die partielle Varianz des bedingten Erwartungswertes und damit auch das partielle Bestimmtheitsmaß am höchsten. Für die anderen Kombinationen werden jeweils niedrigere Werte ausgewiesen. Tabelle 3.3: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 3 Z unbedingte bedingte Zufallsvariable E(Y|X) Var(Y|X) E(Var(Y|X)) Var(E(Y|X)) Zufallsvariable Y X mögliche Realisationen mögliche Realisationen N1 N2 0 A 2 1 1 2 0 0.5 1 0 p(Y|X) 0 0.5 0.5 0 KY | X 1 0.5 0 0.5 0.5 Summe 0.25 0.25 0.125 0.125 0.250 0 0 0 0 0 0 Die Ergebnisse der Tabelle 3.3 weisen eine besondere Situation aus, in der es nicht möglich ist, anhand der Kenngrößen zwischen den beiden Realisationen von A zu wählen. Die Werte für alle Kenngrößen sind gleich. Außerdem errechnet sich für die Varianz des bedingten Erwartungswertes ein Wert von 0, sodass auch für das Bestimmtheitsmaß eine 0 ausgewiesen wird. Es handelt sich damit um eine Situation, die nicht kontrollierbar ist, da die gesamte Varianz von Y (der Nachfrage) aus der internen Varianz, dem Erwartungswert der bedingten Varianz, kommt. 73 Tabelle 3.4: Bedingte WMF und ausgewählte Parameter des Entscheidungsnetzes Kaufsituation 4 Z 1 2 3 4 5 6 7 8 Vektor der bedingte Zufallsvariable Y unbedingten mögliche Realisationen Zufallsvariablen X mögliche N1 N2 Realisations- N N 1 2 Kombinationen 0 0 1 0 1 K1 A 1 1 0 1 1 2 0 1 1 1 0 2 1 2 0 2 Summe K2 1 1 1 0 0 0 0 1 0 1 0 1 1 1 0 1 p(Y|X) 0,5 0,5 0.5 0.5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.5 0 0 0 0.5 0 0 0 0.5 0 0 0 0.5 0 E(Y|X) Var(Y|X) 0.5 0.5 0.5 0 0 0 0.5 0 0.25 0.25 0.25 0 0 0 0.25 0 E(Var(Y|X)) Var(E(Y|X)) 0.0313 0.0313 0.0313 0 0 0 0.0313 0 0.1252 0.0078 0.0078 0.0078 0.0078 0.0078 0.0078 0.0078 0.0078 0.0624 KY | X 0.0417 0.0417 0.0417 0.0417 0.0417 0.0417 0.0417 0.0417 0.3336 Die Kaufsituation 4 schließlich ist in Abbildung 3.4 dargestellt. Aus den Ergebnissen der zugehörigen Tabelle 3.4 kann man entnehmen, dass die bedingten Erwartungswerte entweder 0.5 oder 0 betragen. Die entsprechenden bedingten Varianzen nehmen einen Wert von 0.25 bzw. 0 an und die partiellen Erwartungswerte der bedingten Varianz sind 0.0313 bzw. 0. Die partiellen Varianzen der bedingten Erwartungswerte betragen 0.0078, sodass sich für jede Realisationskombination ein partielles Bestimmtheitsmaß von 4.2% errechnet. Wenn eine effiziente Kontrolle, also eine gezielte Einflussnahme, gewünscht ist, um ein bestimmtes Ergebnis zu erzielen, reicht es aus, einen Kreditgeber zur Kreditvergabe und den Anbieter zum Verkauf an den entsprechenden Nachfrager zu bewegen. Die Realisationskombination (1,1,1) mit der Einflussnahme auf alle drei Faktoren verspricht keinen höheren bedingten Erwartungswert und weist, wie die Tabelle 3.4 zeigt, keinen höheren Wert für das partielles Bestimmtheitsmaß aus als die Realisationskombinationen (0,1,1), (1,2,1) oder (1,2,0). 74 3.1.3 Veränderungen in den Attributen In diesem Abschnitt wird gezeigt, wie sich Veränderungen bei den Werten für die Attribute auf die Ergebnisse der Kenngrößen auswirken. Dazu werden beispielhaft die Ergebnisse für das dritte und vierte Entscheidungsnetz aus Abschnitt 3.1.2 analysiert. 80 0,4 60 0,3 40 0,2 20 0,1 0 R^2 E(Y), Var(Y) Abbildung 3.5: Kaufsituation 3, Fall 1 (N2 bei A21 = 1) 0 1 4 7 10 13 16 19 Attribut E(Y) Var(Y) R^2 Abbildung 3.5 zeigt, dass mit steigendem Wert für das Attribut der Alternative A31 von N1 der zugehörige Erwartungswert und die Varianz von Y (der Nachfrage) ansteigen. Die Kurve für das Bestimmtheitsmaß ( KY | X ) wächst asymptotisch und erreicht bei 20 einen Wert über 0.3. 75 0,3 0,25 0,2 0,15 0,1 0,05 0 E(Y), Var(Y) 80 60 40 20 0 1 4 7 10 13 16 KR^2 Y|X Abbildung 3.6: Kaufsituation 3, Fall 2 (N2 bei A21 = 10) 19 Attribut E(Y) Var(Y) KR^2 Y|X Wenn dagegen der Wert des Attributs bei der Nachfrage des zweiten Nachfragers (A21) auf 10 gesetzt wird und der Wert des Attributs der Alternative A31 bei N1 von 1 auf 20 ansteigt, weist die Varianz von Y ein Minimum auf. Außerdem ergeben sich im Vergleich zu Abbildung 3.5 deutliche Unterschiede beim Bestimmtheitsmaß ( KY | X ). Aus Abbildung 3.6 wird deutlich, dass der Wert für die Kontrollierbarkeit mit steigendem Wert für das Attribut bis auf null fällt, um dann wieder anzusteigen. Das Minimum des Bestimmtheitsmaßes liegt bei N1 = N2 = 10. Das Bestimmtheitsmaß (externe Varianz) ist dann null und somit eine Einflussnahme über den Anbieter (Kontrolle) nicht möglich. 50 0,5 40 0,4 30 0,3 20 0,2 10 0,1 0 0 1 4 7 10 13 16 Attribut E(Y) Var(Y) 76 KR^2 Y|X 19 KR^2 Y|X E(Y), Var(Y) Abbildung 3.7: Kaufsituation 4, Fall 1 (N2 bei A41 = 1) In Abbildung 3.7 sind die Ergebnisse der Kenngrößen für das vierte Entscheidungsnetz dargestellt. Wenn zwei weitere bedingende Größen hinzugenommen werden, verändern sich die Ergebnisse im Vergleich zu Abbildung 3.5. Mit wachsendem Wert für das Attribut bei A51 des ersten Nachfragers steigen der Erwartungswert und die Varianz langsamer. Dagegen nimmt die Kontrollierbarkeit mit steigendem Wert für das Attribut bei A51 zu und liegt bei 20 über 0,4. 60 50 40 30 20 10 0 0,5 0,4 0,3 0,2 KR^2 Y|X E(Y), Var(Y) Abbildung 3.8: Kaufsituation 4, Fall 2 (N2 bei A41 = 10) 0,1 0 1 4 7 10 13 16 19 Attribut E(Y) Var(Y) KR^2 Y|X Abbildung 3.8 zeigt die Ergebnisse der Berechnungen, wenn im Entscheidungsnetz der Kaufsituation 4 das Attribut (A41) des zweiten Nachfragers von 1 auf 10 gesetzt wird und die Werte des Attributs beim ersten Nachfrager (A51) sukzessiv von 1 auf 20 erhöht werden. Die Ergebnisse weichen von den Ergebnissen aus Abbildung 3.7 ab. Die Erwartungswerte und die Varianz von Y sind größer. Das Bestimmtheitsmaß dagegen weist ein Minimum bei 10 aus und steigt dann schwach an. Schon bei diesen eher einfachen Beispielen zeigt sich, dass es kaum möglich ist, die Ergebnisse der Entscheidungsnetze in Bezug auf die Kenngrößen vorherzubestimmen. Daher sind Sensitivitätsanalysen notwendig, um das Reaktionsverhalten von Entscheidungsnetzen zu untersuchen. 77 3.1.4 Veränderungen in den Wahrscheinlichkeiten In diesem Abschnitt wird gezeigt, wie sich ändernde Wahrscheinlichkeiten auf die Ergebnisse der Entscheidungsnetzanalyse auswirken. Die Sensitivitätsanalysen für den Erwartungswert, die Varianz und das Bestimmtheitsmaß ( KY | X ) werden auch hier auf der Grundlage des dritten und vierten Entscheidungsnetzes aus Abschnitt 3.1.2 durchgeführt. Bei dem dritten Entscheidungsnetz (Kaufsituation 3) werden die Wahrscheinlichkeiten für die Alternative A11 (p) und die Wahrscheinlichkeit für die Alternative A31 (r) von 0.05 auf 0.95 erhöht und die entsprechenden Gegenwahrscheinlichkeiten (1-p) und (1-r) entsprechend vermindert. Alle Werte für die Attribute und auch die Wahrscheinlichkeiten für den zweiten Nachfrager bleiben unverändert. Für das vierte Entscheidungsnetz (Kaufsituation 4) werden entsprechend die Wahrscheinlichkeiten für die Alternative A22 (p) und für die Alternative A51 (r) von 0.05 auf 0.95 erhöht. Die Werte der Attribute und der Wahrscheinlichkeiten für die beiden Kreditgeber und den zweiten Nachfrager werden nicht geändert. Abbildung 3.9: E(Y) der Kaufsituation 3 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,95 0,8 0,65 0,5 0,35 0,2 r 0,05 0,1 78 p 0,95 0,85 0,75 0,65 0,55 0,45 0,35 0,25 0,15 0,05 0 E(Y) Es zeigt sich, dass die Erwartungswerte von Y sowohl von den Wahrscheinlichkeiten der Nachfrage (r) als auch von den Wahrscheinlichkeiten des Anbieters (p) abhängen. Bei niedrigem p und gleichzeitig zunehmendem Wert für r steigt der Erwartungswert geringfügig. Wächst der Wert für p, wird die Spannweite größer. Abbildung 3.10: Var(Y) der Kaufsituation 3 0,25 0,2 0,15 Var(Y) 0,1 0,05 0,95 0,85 0,75 0,65 0,55 0,45 0,35 0,25 0,15 0 0,05 0,95 0,8 0,65 0,5 0,35 0,2 0,05 r p Aus Abbildung 3.10 wird deutlich, dass auch die Varianz von Y von p und r abhängt. Die abgebildete Fläche ist symmetrisch und nichtlinear. Das Maximum der Varianz liegt immer bei r = 0.5, und auch hier zeigt sich, dass die Spannweite mit steigendem p wächst. 79 Abbildung 3.11: KY | X der Kaufsituation 3 0,3 0,25 0,2 KR^2 Y|X 0,15 0,1 0,2 0,35 r 0,5 0,65 0,8 0,95 0 0,05 0,15 0,25 0,35 0,45 0,55 0,65 0,75 0,85 0,95 0,05 p Die Abbildung 3.11 zeigt die Ergebnisse der Sensitivitätsanalyse in Bezug auf das Bestimmtheitsmaß. Die abgebildete Fläche ist ebenfalls nichtlinear. Das Bestimmtheitsmaß ist 0, wenn r den Wert 0.5 annimmt. Die gesamte Varianz ist dann intern, d.h. das Ergebnis der Kaufsituation ist über den Anbieter nicht zu kontrollieren. Die höchsten Werte für das Bestimmtheitsmaß ( KY | X ) ergeben sich, wenn p den Wert 0.5 annimmt und r nahe 0 bzw. 1 liegt. Zusammenfassend lässt sich festhalten, dass bei hohen Werten für p und r der Erwartungswert vergleichsweise hoch ist, aber die Varianz und das Bestimmtheitsmaß niedrig ausfallen. In den Abbildungen 3.12 bis 3.14 werden die Ergebnisse der Sensitivitätsanalysen für die Kaufsituation 4 dargestellt. In der Abbildung 3.12 ist der Erwartungswert in Abhängigkeit von den Wahrscheinlichkeiten p und r dargestellt. Wie in Abbildung 3.9 zu sehen ist, ist die Spannweite der Erwartungswerte bei niedrigen p-Werten niedriger als bei hohen Werten. 80 Abbildung 3.12: E(Y) der Kaufsituation 4 0,5 0,45 0,4 0,35 0,3 0,25 E(Y) 0,2 0,15 0,1 0,95 0,8 0,65 0,5 0,35 r 0,2 0,05 0,05 0,95 0,85 0,75 0,65 0,55 0,45 0,35 0,25 0,15 0,05 0 p Unterschiede zeigen sich dagegen bei den Varianzen von Y. Die Fläche in Abbildung 3.13 mit der Kaufsituation 4 ist im Vergleich zur Abbildung 3.10 zwar ebenfalls nichtlinear, aber nicht symmetrisch. Wenn p und r den Wert 0.95 haben, ist die Varianz am höchsten. Der niedrigste Wert liegt bei p = 0.95 und r = 0.05. 81 Abbildung 3.13: Var(Y) der Kaufsituation 4 0,25 0,2 0,15 Var(Y) 0,1 0,95 0,8 0,65 0,5 0,35 r 0,2 0,05 0,05 0,95 0,85 0,75 0,65 0,55 0,45 0,35 0,25 0,15 0,05 0 p Abbildung 3.14: KY | X der Kaufsituation 4 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 82 0,15 0,25 0,35 0,55 0,65 0,75 0,45 r 0,85 0 0,05 0,15 0,25 0,35 0,45 0,55 0,65 0,75 0,85 0,95 0,1 0,95 KR^2 Y|X p In Abbildung 3.14 sind die Werte für das Bestimmtheitsmaß der Kaufsituation 4 dargestellt. Die abgebildete Fläche zeigt eine nichtlineare Struktur, die sich von der in Abbildung 3.11 unterscheidet. Die beste Einflussnahme (Kontrolle) ist gegeben, wenn p und r hohe Werte aufweisen. Wenn man die Ergebnisse der beiden Kaufsituationen vergleicht, zeigt sich, dass sich die Abbildungen für die Erwartungswerte ähneln und mit hohem p und r die höchsten Erwartungswerte vorliegen, Die jeweiligen Abbildungen für die Varianz und das Bestimmtheitsmaß ( KY | X ) der Kaufsituationen unterscheiden sich. Während in der Kaufsituation 3 bei hohen Wahrscheinlichkeiten die Varianz niedrig ausfällt, ist sie in der Kaufsituation 4 am höchsten. Außerdem ist die Kaufsituation 4 bei dieser Wertekombination besser zu kontrollieren, d. h. für das Bestimmtheitsmaß werden hohe Werte ausgewiesen. Zusammenfassend kann man festhalten, dass die Ergebnisse der Entscheidungsnetzanalysen von der Struktur der Netze sowie von den Werten für die Attribute und den Wahrscheinlichkeiten abhängen. Die Ergebnisse dieses Abschnitts zeigen exemplarisch, dass bei unvollständiger Information über die Entscheidungssituation (Struktur, Werte der Attribute und Wahrscheinlichkeiten) es zu Fehlinterpretationen kommen kann. Daher sollten, wenn aufgrund fehlender Information die Struktur der Netze mit seinen Entscheidern und/oder Werten für die Attribute und Wahrscheinlichkeiten nicht eindeutig bestimmt werden können, Vergleichsrechnungen und umfassende Sensitivitätsanalysen durchgeführt werden. 3.2 Entscheidungsnetze und Spieltheorie 3.2.1 Einführung In diesem Abschnitt werden einige ausgewählte Spiele aus der Spieltheorie, d. h. strategische Entscheidungssituationen, mit Entscheidungsnetzen analysiert. In Abschnitt 3.2.2 werden zunächst die dafür notwendigen Grundlagen der Spieltheorie eingeführt. Im letzten Abschnitt wird beschrieben, wie ein Spiel in Entscheidungsnetze umgewandelt und analysiert werden kann. Außerdem werden einige Kenngrö- 83 ßen aus dem Entscheidungsnetzansatz zur Analyse von einfachen und multiplen Nash-Gleichgewichten eingesetzt, um die Frage zu untersuchen, ob mit den Kenngrößen zwischen mehreren Nash-Gleichgewichten differenziert werden kann. 3.2.2 Grundlagen der Spieltheorie In der Erwartungsnutzentheorie, die in Abschnitt 2.2.2 eingeführt wurde, wird vielfach angenommen, dass die Wirtschaftssubjekte nicht miteinander interagieren (spielen). Im Gegensatz dazu geht die Spieltheorie, die auf JOHN VON NEUMANN und OSKAR MORGENSTERN (1944) zurückgeht, davon aus, dass ein Spieler nicht nur allein, sondern auch gemeinsam mit einem oder mehreren bewusst handelnden Gegen- oder Mitspielern spielen kann, sich also strategisch entscheidet. Die Konsequenzen der Aktionen eines Spielers sind dann sowohl von seinen als auch von den Aktionen der Gegen- oder Mitspieler abhängig – und umgekehrt. Zu den wichtigsten Aufgaben der Spieltheorie gehören eine sich ergebende Fragestellung als Spiel zu formulieren und eine Lösung für eben dieses Spiel zu suchen. Im Rahmen der Spieltheorie gibt es viele Möglichkeiten, Spiele zu klassifizieren. Zu der wichtigsten ist die Unterscheidung nach den Spielformen zu zählen: Einerseits kann ein Spiel in der extensiven Form, bei der das Spiel durch einen Spielbaum abgebildet wird, und andererseits in der strategischen Form, durch die die Ergebnisse eines Spiels in Matrixform dargestellt werden, formuliert werden. Es kann aber auch nach dem Informationsstand oder nach den Strategien der Spieler klassifiziert werden. In dieser Arbeit wird unterstellt, dass die Spieler vollständige Information besitzen. Damit wird impliziert, dass die Spielregeln und das jeweilige rationale Verhalten der Spieler gemeinsames Wissen sind. Ferner werden neben reinen auch gemischte Strategien untersucht. Von reinen Strategien spricht man, wenn ein Spieler genau eine von allen zulässigen Strategien auswählt. Bei gemischten Strategien bestimmt im Gegensatz zu reinen Strategien ein Zufallsprozess die Wahl der (reinen) Strategien. 84 Außerdem kann zwischen simultanen und sequenziellen Spielen unterschieden werden. Beim simultanen Spiel entscheiden die Spieler gleichzeitig, während beim sequenziellen Spiel die einzelnen Spieler in einer bestimmten Reihenfolge entscheiden. In diesem Abschnitt werden ausschließlich simultane Spiele untersucht. Schließlich kann man noch zwischen kooperativen und nicht-kooperativen Spielen klassifizieren. Die Analyse wird in dieser Arbeit auf die nicht-kooperativen Spiele beschränkt, die dadurch charakterisiert sind, dass die Spieler keine bindenden Verträge miteinander abschließen können. Mit der Entscheidungsnetzanalyse wird exemplarisch das Zwei-Personen-Spiel „Angsthase“ untersucht. Das Spiel geht auf eine Mutprobe unter kalifornischen Teenagern in den 30er-Jahren zurück, wobei zwei Jungen mit ihren Autos auf einen Abgrund zufahren und derjenige, der den Wagen als Erster verlässt (a bzw. D), als Angsthase bezeichnet wird; derjenige dagegen, der am längsten im Wagen bleibt (b bzw. E) der Held ist (WEISE et al. 1993, 89). Die Strategien und Auszahlungen finden sich in Tabelle 3.5. Tabelle 3.5: Angsthase (Variante 1) Spieler B Spieler A D E a 3;3 2;6 b 6;2 0;0 Wenn man, nachdem das Spiel formuliert ist, nach der Lösung der strategischen Entscheidungssituation sucht, wird in der Spieltheorie als wichtigstes Lösungskonzept das Nash-Gleichgewicht genannt. Als Nash-Gleichgewicht wird eine Strategiekombination angesehen, bei der kein Spieler einen Anreiz hat, als Einziger seine Wahl zu ändern. Es liegen wechselseitig beste Antworten vor. 85 Um Nash-Gleichgewichte in reinen Strategien hervorzuheben, sind in den Matrizen für Spieler A die spaltenweise und für Spieler B die zeilenweise höchsten Werte unterstrichen. Das Angsthase-Spiel besitzt demnach zwei Nash-Gleichgewichte in reinen Strategien. Außerdem liegt noch ein Nash-Gleichgewicht in gemischten Strategien20 vor, wenn beide Spieler mit 40 Prozent Wahrscheinlichkeit (a bzw. D) wählen. Dann erhalten beide Spieler eine erwartete Auszahlung von 2.4. Schon bei diesem einfachen Spiel kann es demnach zu multiplen Nash-Gleichgewichten kommen. Dann stellt sich aber die Frage, ob zwischen mehreren Nash-Gleichgewichten differenziert werden kann. Zur Lösung dieses Problems hat es Versuche gegeben, durch Verfeinerungen des Nash-Gleichgewichtskonzeptes einzelne Gleichgewichte als unplausibel auszuschließen, um so zwischen multiplen Gleichgewichten zu differenzieren (HOLLER/ILLING 2000, S. 73 f.). In dieser Arbeit wird ein neuer Weg gewählt, um zwischen mehreren Gleichgewichten zu differenzieren. Dazu wird exemplarisch das Spiel „Angsthase“ als Entscheidungsnetz formuliert und dann mittels ausgewählter Kenngrößen der Entscheidungsnetze näher untersucht. Nash-Gleichgewichte und die verfeinerten Nash-Gleichgewichte sind zwar plausibel, nicht jedoch die einzigen vernünftigen Lösungskonzepte. Eine Aufstellung und Diskussion weiterer Lösungskonzepte, insbesondere für die nicht-kooperative Spieltheorie, finden sich z. B. bei HOLLER/ILLING (2000) und BRANDENBURGER (1992). 3.2.3 Entscheidungsnetze und Nash-Gleichgewichte Entscheidungsnetze können zur Analyse von Spielen eingesetzt werden, wie im Folgenden gezeigt wird. Ausgangspunkt ist ein Spiel mit Nash-Gleichgewichten in reinen und gemischten Strategien, in dem die Spieler zwischen jeweils zwei Alternativen wählen können. Es wird ein simultanes Spiel unterstellt und angenommen, dass die Spieler vollständige 20 Die Formeln zur Berechnung der Nash-Gleichgewichte in gemischten Strategien finden sich z. B. bei RIECK (1993, 56 ff.). 86 Information besitzen. In mehreren Schritten können, ausgehend von der Formulierung des Spiels über die Übertragung in ein Entscheidungsnetz und die Berechnung der gemeinsamen WMF, schließlich die Kenngrößen für das Spiel ermittelt werden. 1. Das oben eingeführte Zwei-Personen-Spiel kann in der strategischen Form durch folgende Matrix beschrieben werden21: Tabelle 3.6: Zwei-Personen-Spiel in strategischer Form Spieler B Spieler A 2. D E a 1;2 3;4 b 5;6 7;8 Diese Tabelle kann in einem zweiten Schritt auseinander gezogen werden. Dieser Schritt ist notwendig, weil sonst die Berechnung als Entscheidungsnetz nicht möglich ist. Einerseits wird das Spiel ausgehend von Spieler A gesehen (Abbildung 3.15). Dieser kann in dem in Tabelle 3.6 veranschaulichten Spiel zwischen zwei Alternativen (a mit Wahrscheinlichkeit w und b mit der Wahrscheinlichkeit 1-w) auswählen. Dadurch ergeben sich für den anderen Spieler (B), der jeweils zwischen zwei Alternativen (D mit der Wahrscheinlichkeit p und E mit der Wahrscheinlichkeit 1-p) wählen kann, die entsprechenden Auszahlungen (Payoffs). Für die Analyse werden gemischte Strategien zugelassen. 21 Zur besseren Veranschaulichung werden die Auszahlungen gegenüber Tabelle 3.5 verändert, damit keine gleichen Werte vorliegen und keine Verwechslung möglich ist. 87 Abbildung 3.15: Entscheidungsnetz ausgehend von Spieler A Zufallsvariable X Spieler A Wahrscheinlichkeit Zufallsvariable a b w 1-w Y Y D E Attribut, Payoffs 2 Wahrscheinlichkeit p Spieler B D E 4 6 8 1-p p 1-p Gleichzeitig ist das Spiel auch ausgehend von Spieler B zu sehen (Abbildung 3.16). Spieler B entscheidet mit einer gemischten Strategie zwischen seinen beiden Alternativen und dadurch bedingt kann Spieler A jeweils zwischen a und b mit einer gemischten Strategie entscheiden. Abbildung 3.16: Entscheidungsnetz ausgehend von Spieler B Zufallsvariable X Spieler B Wahrscheinlichkeit Zufallsvariable E w 1-w Y Y a b Attribute, Payoffs 1 Wahrscheinlichkeit p 3. D Spieler A a b 5 3 7 1-p p 1-p Durch die Zerlegung des Spiels in zwei Entscheidungsnetze können mit dem Programm MAGIC zwei gemeinsame WMF ermittelt werden. 4. Schließlich können, wie schon in Abschnitt 2.5 beschrieben, aus den gemeinsamen WMF über die bedingten WMF auch die verschiedenen Kenngrößen 88 wie Erwartungswerte, bedingte Erwartungswerte, die Varianz-KovarianzMatrix, bedingte Varianz und die beiden Summanden der Varianzformel, der Erwartungswert der bedingten Varianz und die Varianz des bedingten Erwartungswertes berechnet werden. Anhand des Spiels „Angsthase“ (Tabelle 3.5), das schon ausführlich in Abschnitt 3.2.2 beschrieben wurde, soll die Frage der Differenzierbarkeit zwischen NashGleichgewichten untersucht werden. Außerdem soll ein leicht abgewandeltes asymmetrisches Angsthase-Spiel (Tabelle 3.7) analysiert werden. In beiden Spielen gibt es zwei Nash-Gleichgewichte in reinen Strategien bei (a, E) bzw. (b, D) und jeweils ein Nash-Gleichgewicht in gemischten Strategien. In der Variante 1 gibt es ein NashGleichgewicht in gemischten Strategien, wenn Spieler A mit einer Wahrscheinlichkeit von 0.4 a spielt und Spieler B mit einer Wahrscheinlichkeit von 0.4 D spielt. Dann errechnen sich erwartete Payoffs von (2.4; 2.4). In der Variante 2 findet sich das Nash-Gleichgewicht in gemischten Strategien, wenn A mit einer Wahrscheinlichkeit von 0.667 a wählt und B mit einer Wahrscheinlichkeit von 0.105 D wählt. Hier ergeben sich erwartete Payoffs von (2.105; 2.667). Tabelle 3.7: Angsthase (Variante 2) Spieler B Spieler A D E a 3;3 2;4 b 20 ; 2 0;0 Diese Spiele können als Entscheidungsnetze abgebildet werden. In beiden Spielen kann die Spielsituation ausgehend von Spieler A oder von Spieler B untersucht werden. Das erste Spiel als Entscheidungsnetz beschrieben, lässt (ausgehend von Spieler A) diesen zwischen a und b und Spieler B zwischen D und E wählen. In Abbildung 3.17 wird diese Situation verdeutlicht, und die entsprechenden Payoffs für B werden ausgewiesen. 89 Abbildung 3.17: Entscheidungsnetz ausgehend von Spieler A, Variante 1 Zufallsvariable X Spieler A Wahrscheinlichkeit Zufallsvariable Attribut, Payoffs Wahrscheinlichkeit a b 0.5 0.5 w 1-w Y Y D E 3 Spieler B D E 6 2 0 0.5 0.5 0.5 0.5 p 1-p p 1-p Das Spiel kann außerdem von B ausgehend als Entscheidungsnetz (Abbildung 3.18) analysiert werden. Spieler B kann zwischen D und E wählen. Für Spieler A ergeben sich in Abhängigkeit von seiner Entscheidung für a oder b die in Abbildung 3.18 dargestellten Payoffs. Abbildung 3.18: Entscheidungsnetz ausgehend von Spieler B, Variante 1 Zufallsvariable X Spieler B Wahrscheinlichkeit Zufallsvariable Attribut, Payoffs Wahrscheinlichkeit D E 0.5 0.5 p 1-p Y Y a b 3 Spieler A a b 6 2 0 0.5 0.5 0.5 0.5 p 1-w w 1-w Für das asymmetrische Spiel in Tabelle 3.7 können wie beim symmetrischen Spiel die Entscheidungsnetze abgeleitet werden. In Abbildung 3.19 und 3.20 sind die Entscheidungsnetze dargestellt. Im ersten Entscheidungsnetz kann sich Spieler A zwi- 90 schen a und b entscheiden und für Spieler B ergeben sich die in Abbildung 3.19 festgehaltenen Payoffs. Abbildung 3.19: Entscheidungsnetz ausgehend von Spieler A, Variante 2 Zufallsvariable X Spieler A Wahrscheinlichkeit a b 0.5 0.5 w Zufallsvariable 1-w Y D E 3 Spieler B D E 4 2 0 0.5 0.5 0.5 0.5 p 1-p p 1-p Attribut, Payoffs Wahrscheinlichkeit Y Das gleiche Spiel ist ausgehend von Spieler B als Entscheidungsnetz in Abbildung 3.20 festgehalten. Spieler B kann zwischen D und E wählen und für Spieler A ergeben sich in Abhängigkeit von seiner Wahl zwischen a oder b die in Abbildung 3.20 dargestellten Payoffs. Abbildung 3.20: Entscheidungsnetz ausgehend von Spieler B, Variante 2 Zufallsvariable X Spieler B Wahrscheinlichkeit Zufallsvariable Attribut, Payoffs Wahrscheinlichkeit D E 0.5 0.5 p 1-p Y Y a b 3 Spieler A a b 20 2 0 0.5 0.5 0.5 0.5 w 1-w w 1-w 91 Da bei den einzelnen Spielen (Tabelle 3.5 bzw. Tabelle 3.7) die beiden Entscheidungsnetze z. B. über verknüpfen von einzelnen Zellen in einem Tabellenkalkulationsprogramms jeweils miteinander verbunden werden können, kann das jeweilige Spiel durch verbundene Entscheidungsnetze beschrieben werden. Dadurch ist zusätzlich zur Ermittlung von Nash-Gleichgewichten und der entsprechenden Reaktionsfunktionen eine weitergehende Analyse möglich, die in der Variante der verbundenen Entscheidungsnetze auch die Varianzaspekte der Spiele berücksichtigen kann. Der Schwerpunkt der Varianzanalyse in diesem Abschnitt soll auf der Frage liegen, ob sich eine Kontrolle in dem Spiel zeigt, und ob es ferner möglich ist, zwischen Nash-Gleichgewichten zu differenzieren. Dieses würde die Analyse von Spielen mit gemischten Nash-Gleichgewichten entscheidend erweitern. Aber auch im Fall der reinen Strategien könnte diese Analyse im Rahmen einer Grenzwertbetrachtung helfen, wenn eine hohe Wahrscheinlichkeit (Propensität) für eine Alternative festzustellen ist. Entscheidungsnetze könnten dann sowohl zur Analyse von gemischten als auch fast reinen Nash-Gleichgewichten eingesetzt werden. Als fast reine NashGleichgewichte werden hier gemischte Strategien bezeichnet, wenn die Wahrscheinlichkeiten gegen 0 bzw. 1 gehen. Wenn ein Beobachter (z. B. der Staat) über den Spieler A eine Möglichkeit besitzt, auf das Spiel Einfluss zu nehmen, kann als Kenngröße zur Kontrolle das Bestimmtheitsmaß der Regression erster Art ( KY | X ) eingesetzt werden, das in Abschnitt 2.5 eingeführt wurde. In Abhängigkeit von den Wahrscheinlichkeiten w und 1-w, mit denen Spieler A a oder b spielt, bzw. p und 1-p, mit denen Spieler B D oder E spielt, wird das Bestimmtheitsmaß ermittelt (Abbildung 3.21). Es zeigt sich, dass unabhängig davon, mit welcher Wahrscheinlichkeit p Spieler B D spielt, das Bestimmtheitsmaß jeweils bei w = 0.4 den höchsten Wert hat. Wenn der Staat nicht mehr die Kontrolle über den Spieler A ausüben kann, sondern stattdessen eher über den Spieler B (Abbildung 3.22), dann wird unabhängig davon, mit welcher Wahrscheinlichkeit w Spieler A a spielt, das Bestimmtheitsmaß für den Spieler B immer bei p = 0.4 sein Maximum haben. Ferner zeigen sich in den folgenden beiden Abbildungen jeweils ein Sattelpunkt, der entweder bei w = 0.4 und 92 p = 0.86 (Abbildung 3.21) oder ausgehend von dem anderen Spieler entsprechend bei p = 0.4 und w = 0.86 (Abbildung 3.22) liegt. Abbildung 3.21: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 1 1 0,9 0,8 0,7 0,6 KY|X R2 0,5 0,4 0,3 0,2 0,1 0,01 0,11 0,21 0,31 0,41 0,51 0,61 0,71 0,81 0,91 0,97 0,81 0,89 0,65 0,73 0,49 p 0,57 0,33 0,41 0,17 0,25 0,01 0,09 0 w Abbildung 3.22: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 1 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,01 0,23 0,34 0,45 0,56 0,67 0,78 0,89 0,89 0,97 0,73 93 0,81 0,57 0,65 0,41 0,25 0,33 0,09 0,49 w 0,17 0 0,12 0,1 0,01 KY|X R 2 p In den folgenden beiden Tabellen sind in Klammern unter den Payoffs für die reinen Strategien zusätzlich die Bestimmtheitsmaße für die fast reinen Nash-Gleichgewichte ausgewiesen, wenn p und w Wahrscheinlichkeiten von 0.01 bzw. 0.99 annehmen. Tabelle 3.8: Angsthase (Variante 1) mit Payoff und Bestimmtheitsmaß ( KY | X ) Spieler B Spieler A D E (p) (1-p) a 3;3 2;6 (w) (0.110 ; 0.110) (0.214 ; 0.798) b 6;2 0;0 (0.798 ; 0.214) (0.897 ; 0.897) (1-w) Tabelle 3.9: Angsthase (Variante 2) mit Payoff und Bestimmtheitsmaß ( KY | X ) Spieler B Spieler A D E (p) (1-p) a 3;3 2;4 (w) (0.005 ; 0.507) (0.171 ; 0.939) b 20 ; 2 0;0 (0.578 ; 0.211) (0.983 ; 0.799) (1-w) Der Wert für das Bestimmtheitsmaß bei w = 0.99 und p = 0.99 für Spieler A unter der Kontrolle von Spieler B ist in dem symmetrischen Spiel 0.110. In einem symmetrischen Spiel ist die kontrollierbare Varianz wechselseitig gleich hoch, wie in der Abbildung 3.21 und Abbildung 3.22 zu erkennen ist. Daraus ist zu folgern, dass bzgl. der fast reinen Nash-Gleichgewichte nicht zu differenzieren ist. Allerdings kann man zwischen dem gemischten und den fast reinen Nash-Gleichgewichten mit der Kennzahl Bestimmtheitsmaß differenzieren. Das gemischte Nash-Gleichgewicht mit p = 0.4 und w = 0.4 weist jeweils ein Bestimmtheitsmaß von 0.727 aus. Die fast reinen 94 Nash-Gleichgewichte weisen teilweise ein höheres Bestimmtheitsmaß auf. Es hängt somit von der Kontrollsituation ab, wie zu entscheiden ist. Wenn diese nicht eindeutig ist, sollte das gemischte Nash-Gleichgewicht angestrebt werden. Wenn die Kontrollsituation eindeutig ist, kann das höchste Bestimmtheitsmaß ermittelt werden und damit die optimale Kontrolle bestimmt werden. Im Folgenden soll die Analyse auf die asymmetrische Situation gelenkt werden. In den Abbildungen 3.23 und 3.24 sind die Bestimmtheitsmaße in Abhängigkeit von p und w für die asymmetrische Spielsituation abgebildet. Das Spiel selber ist durch asymmetrische Auszahlungen charakterisiert (Tabelle 3.7). Die jeweilige Kontrollsituation ist in den folgenden beiden Abbildungen zu sehen. Die Schaubilder unterscheiden sich sowohl untereinander als auch im Vergleich zu den beiden Abbildungen der symmetrischen Analyse. Abbildung 3.23: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler A, Variante 2 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 95 0,1 0,19 0,28 0,37 0,46 0,55 0,64 0,73 0,82 0,91 0,92 0,99 0,78 0,85 0,64 0,71 0,5 0,57 0,43 0,29 0,36 0,15 p 0,22 0,01 0 0,01 0,1 0,08 2 R w Abbildung 3.24: Bestimmtheitsmaß ( KY | X ) ausgehend von Spieler B, Variante 2 1 0,9 0,8 0,7 0,6 2 R 0,5 0,4 0,3 0,2 0,01 0,21 0,31 0,41 0,51 0,61 0,71 0,81 0,91 0,97 0,81 0,89 0,65 0,73 0,49 0,57 0,33 0,41 0,17 0,25 0,01 w 0,09 0 0,11 0,1 p In Abhängigkeit von den Wahrscheinlichkeiten w und 1-w, mit denen Spieler A a oder b spielt, und p und 1-p, mit denen Spieler B Doder E spielt, ist in der Abbildung 3.23 das Bestimmtheitsmaß ausgewiesen. Es zeigt sich, dass unabhängig davon, wie der Spieler B sein p setzt, für den Spieler A die Kontrolle jeweils bei w = 0.667 den höchsten Wert aufweist. Wenn der Staat nicht mehr über Spieler A kontrolliert, sondern stattdessen über den Spieler B (Abbildung 3.24), dann wird unabhängig davon, mit welcher Wahrscheinlichkeit w der Spieler A a spielt, das Bestimmtheitsmaß für den Spieler B immer bei p = 0.105 das Maximum haben. Auch bei diesem Spiel zeigt sich für das Bestimmtheitsmaß wieder jeweils ein Sattelpunkt, der entweder bei w = 0.667 und p = 0.800 oder ausgehend von dem anderen Spieler entsprechend bei p = 0.105 und w = 0.952 liegt. Somit ist die Kontrollsituation nicht mehr wechselseitig symmetrisch. Für die fast reinen Nash-Gleichgewichte sind die Werte für das Bestimmtheitsmaß in Tabelle 3.9 aufgeführt. Der Wert für das Bestimmtheitsmaß bei w = 0.99 und p = 0.01 für Spieler A unter der Kontrolle von Spieler B ist in dem asymmetrischen Spiel mit 0.171 niedrig, was auf eine geringe Kontrolle hinweist. In diesem asymmetri- 96 schen Spiel ist die kontrollierbare Varianz nicht mehr wechselseitig gleich hoch, wie in den Abbildungen 3.23 und 3.24 zu erkennen ist. Auch hier kann man zwischen den fast reinen Nash-Gleichgewichten nicht differenzieren. Allerdings kann man zwischen den gemischten und den fast reinen Nash-Gleichgewichten mit der Kennzahl Bestimmtheitsmaß unterscheiden. Das gemischte Nash-Gleichgewicht mit p = 0.105 und w = 0.667 weist ein Bestimmtheitsmaß von (0.401; 0.941) aus. Die fast reinen Nash-Gleichgewichte weisen teilweise ein höheres Bestimmtheitsmaß auf. Es hängt letztlich wieder von der Kontrolle ab, wie zu entscheiden ist. Wenn diese nicht eindeutig ist, sollte wieder das gemischte Nash-Gleichgewicht angestrebt werden. Ist dagegen eindeutig, welcher Spieler vom Staat kontrolliert wird, kann wiederum das höchste Bestimmtheitsmaß ermittelt und damit die optimale Kontrolle bestimmt werden. In der herkömmlichen Analyse von Spielen werden die Nash-Gleichgewichte ermittelt. Diese können dann allerdings nicht weiter differenziert werden; d. h. man kann keine Rangordnung der Nash-Gleichgewichte ermitteln. Mit Entscheidungsnetzen können Spiele aber auch anhand des Bestimmtheitsmaßes hinsichtlich einer Kontrolle untersucht werden, und es lässt sich dann durchaus eine Rangordnung von Gleichgewichten bilden. Für die weitere Forschung sollte der Bedeutung der Sattelpunkte, die sich in den Abbildungen zeigten, nachgegangen werden. Außerdem bietet es sich an, dass neben den behandelten gleichzeitigen Spielen auch z. B. sequenzielle Spiele behandelt werden. Abschließend ist festzuhalten, dass es mit dem Konzept der Entscheidungsnetze möglich ist, viele Spielsituationen zu untersuchen und eine Rangordnung von Nash-Gleichgewichten aufgestellt werden kann., wenn eine bedingte Struktur vorliegt und sich eine gemeinsame WMF bilden lässt. 97 4 Zusammenfassung und Ausblick Entscheidungsprobleme unter Risiko und Unsicherheit sind vielfach einmalig und können zudem ein hohes Maß an Komplexität aufweisen, sodass eine Entscheidungsunterstützung häufig nur mit computergestützten Analyseansätzen möglich ist. Mit Hilfe von Entscheidungsbäumen und Einflussdiagrammen können viele solcher Entscheidungssituationen untersucht werden. Mit ihnen sind aber keine umfassenden normativen Analysen aus der Sicht eines Beobachters möglich. Zur Analyse solcher Probleme ist in dieser Arbeit der Entscheidungsnetzansatz als neues Verfahren vorgestellt worden. Er gründet auf einer wissensbasierten Regressionsanalyse erster Art. Für diesen Ansatz konnten eine Vielzahl von Charakteristika (Kenngrößen) zur Prognose und Kontrolle wie Erwartungswert, bedingter Erwartungswert, Varianz, bedingte Varianz, Korrelationskoeffizient und auch ein Bestimmtheitsmaß abgeleitet werden. Damit eignet sich dieser Ansatz sowohl zur deskriptiven wie auch zur normativen Analyse und erweitert die Möglichkeiten der ökonomischen Analyse. Zur Berechnung der gemeinsamen und bedingten Wahrscheinlichkeitsmaßfunktionen und der daraus ableitbaren Kenngrößen ist mit MAGIC ein leistungsfähiges Programm entwickelt worden, mit dem selbst komplexe einmalige Situationen unter Risiko und Unsicherheit analysiert werden können. Da für diese Analyseform keine vergleichbaren Ergebnisse zur Verfügung standen, wurden im angewandten Teil in Abschnitt 3.1 zunächst Vergleichs- und Sensitivitätsanalysen durchgeführt. Es zeigte sich, dass die Ergebnisse der Entscheidungsnetzanalysen von der Struktur, den Attributen der einzelnen Kanten und den Wahrscheinlichkeiten abhängen und sich die entsprechenden Abbildungen vielfach nichtlinear darstellen. Um die Ergebnisse der Entscheidungsnetzanalyse richtig interpretieren zu können, scheint es deshalb notwendig, in einem ersten Schritt die Struktur der Entscheidungssituation möglichst genau zu erfassen und in ein Entscheidungsnetz zu übertragen. Dabei sollten sowohl die vollständige Struktur mit den gesamten Knoten als auch die 98 Abhängigkeiten in der Struktur (Kausalität) genau erfasst werden. Fehlen einzelne Knoten oder Kanten, so sind die gemeinsame WMF und damit die zu berechnenden Kenngrößen unmittelbar betroffen. Ein Vereinfachen des Entscheidungsnetzes kann die Ergebnisse erheblich beeinflussen und sollte deshalb nur sehr vorsichtig zur Komplexitätsreduktion eingesetzt werden. Da die Ergebnisse der Entscheidungsnetzanalyse außerdem entscheidend und nicht vorhersagbar von den Werten für die einzelnen Attribute und den Wahrscheinlichkeiten abhängen, sollten auch diese möglichst genau bestimmt werden, damit die Analyse nicht zu Fehlinterpretationen führt. Der Entscheidungsnetzansatz kann in vielen Gebieten der Ökonomik zur Analyse von Situationen unter Risiko und Unsicherheit eingesetzt werden. Dieses konnte in der vorliegenden Arbeit exemplarisch anhand von spieltheoretischen Fragestellungen gezeigt werden. Der Ansatz kann bei der Frage der Differenzierbarkeit von NashGleichgewichten einen bedeutenden Beitrag leisten. Außerdem können mit ihm auch mehrperiodische Investitionsprobleme analysiert werden (LESERER, 2001), so dass auch auf diesem Gebiet neue Erkenntnissen zu erwarten sind. Für die weitere Forschung in diesem Bereich ergeben sich verschiedene Ansatzpunkte. Bislang ist eine gleichgewichtete, mehrfaktorielle Analyse möglich. Das heißt, dass die unbedingten Zufallsvariablen mit dem gleichen Gewicht in die Analyse eingehen. Da aber nicht davon auszugehen ist, dass sämtliche Faktoren einer Entscheidungssituation mit dem gleichen Gewicht eingehen, scheint eine Erweiterung des Ansatzes, um die Möglichkeit ungleichgewichtete, mehrfaktorielle Analysen durchzuführen, nahe liegend und wichtig. Außerdem müsste der Ansatz in Bezug auf die Mehrzielanalyse weiterentwickelt werden, um unterschiedliche Gewichtungen der Ziele zu erlauben. 99 5 Literaturverzeichnis ALLAIS, M. (1953): Le Comportement de l’Homme Rationnel devant le Risque: Critique des Postulats et Axiomes de l’Ecole Américaine. Econometrica, Vol. 21, S. 503-546. BAMBERG, G. und A. G. COENENBERG (2000): Betriebswirtschaftliche Entscheidungslehre. 10. Aufl., München: Vahlen. BELL, D. (1982): Regret in Decision Making under Uncertainty. Operations Research, Vol. 33, S. 961-981. BELLMAN, R. (1972): Dynamic Programming, 6. Aufl., Princeton: Princeton University Press. BERNOULLI, D. (1954): Exposition of a New Theory on the Measurement of Risk (original 1738) Econometrica, Vol. 22, S. 23-36. BITZ, M. (1981): Entscheidungstheorie. München: Vahlen. BRANDENBURGER, A. (1992): Knowledge and Equilibrium in Games. Journal of Economic Perspectives, Vol. 6, S. 87-101. BRANDES, W. und M. ODENING (1992): Investition, Finanzierung und Wachstum in der Landwirtschaft. Stuttgart: Ulmer. BRANDES, W., G. RECKE und T. BERGER (1997): Produktions- und Umweltökonomik, Bd. 1. Stuttgart: Ulmer. BUNGE, M. (1988): Two Faces and Three Masks of Probability. In: Agazzi, E. (Hg.): Probability in the Sciences, S. 27-49. BUSACKER, R.G. und L. SAATY (1968): Endliche Graphen und Netzwerke. München: Oldenbourg. CAMERER, C.F. (1995): Individual Decision Making. In: Kagel, J. und A.E. Roth (Hg.): Handbook of Experimental Economics. Princeton: Princeton University Press. CHEW, S.H. (1983): A Generalization of the Quasilinear Mean with Applications to the Measurement of Income Inequality and Decision Theory Resolving the Allais Paradox. Econometria, Vol. 51, S. 1065-1092. CLEMEN, R.T. (1996): Making Hard Decisions. An Introduction to Decision Analysis, 2. Aufl., Pacific Grove: Duxbury Press. 100 DE FINETTI, B. (1981): Wahrscheinlichkeitstheorie: Einführende Synthese mit kritischem Anhang. Wien: Oldenbourg. EISENFÜHR, F. und M. WEBER (1999): Rationales Entscheiden. 3. Aufl., Berlin: Springer. FISHBURN, P.C. (1978): On Handa´s New Theory of Cardinal Utility and the Maximization of Expected Return. Journal of Political Economy, Vol. 86, S. 321324. FISZ, M. (1963): Probability Theory and Mathematical Statistics, 3. Aufl., New York: John Wiley & Sons, Inc. GOLDBERG, S. (1964): Die Wahrscheinlichkeit. Eine Einführung in Wahrscheinlichkeitsrechnung und Statistik. Braunschweig: Friedr. Vieweg & Sohn. HAMMOND J.S., R.L. KEENEY und H. Raiffa (1999): Smart Choices – A Practical Guide to Making Better Decisions. Boston, Massachusetts: Harvard Business School Press. HANF, C.-H. (1986): Entscheidungslehre. Einführung in Informationsbeschaffung, Planung und Entscheidung unter Unsicherheit. München: R. Oldenbourg Verlag. HÄRTTER, E. (1987): Wahrscheinlichkeitsrechnung, Statistik und mathematische Grundlagen: Begriffe, Definition und Formeln. Göttingen: Vandenhoek & Ruprecht. HARTUNG, J. (1986): Statistik. Lehr- und Handbuch der angewandten Statistik, 5. Aufl., München: R. Oldenbourg Verlag. HOLLER, M.J. und G. ILLING (2000): Einführung in die Spieltheorie, 4. Aufl., Berlin: Springer. HÖRSCHGEN, H. (1987): Grundbegriffe der Betriebswirtschaftslehre. 3. Aufl., Stuttgart: Schäffer-Pöschel. KAHNEMAN D. und A. TVERSKY (1979): Prospect Theory: An Analysis of Decision under Risk. Econometrica, Vol. 47, S. 263-291 KEENEY, R. (1992): Value-Focused Thinking – A Path to Creative Decisionmaking. Cambridge: Harvard University Press. KENDALL, M.G. und A. STUART (1963): The Advanced Theory of Statistics, Vol. 1: Distribution Theory. 2. Aufl., London: Charles Griffin & Comp. Limited. 101 KOLMOGOROFF, A.N. (1933): Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin: Springer. LAUX, H. (1998): Entscheidungstheorie. 4. Aufl., Berlin: Springer. LESERER (1986): Kognitive Inferenz als ökonometrische Aufgabe. Einige Bemerkungen zur ökonometrieschen Grundsatzdiskussion. Jahrbücher für Nationalökonomie und Statistik, Bd. 201/2, Stuttgart und New York: Fischer, S. 97-106. LESERER (1987): Zur Kontrolle aus Regressionen erster Art. In: H. Isermann et al. (Eds.), Operations Research Proceedings, DGOR-Vorträge der 15. Jahrestagung, Berlin: Springer, S. 557-567. LESERER (2001): Zur Stochastik sequentieller Entscheidungen. Diskussionsbeitrag 0101, Institut für Agrarökonomie der Universität Göttingen. MACHINA, M.J. (1982): Expected Utility Theory without the Independence Axiom. Econometrica, Vol. 50, S. 277-323. MENGES, G. (1968): Grundriß der Statistik. Teil 1: Theorie. Köln und Opladen: Westdeutscher Verlag. NEUMANN, J. VON und O. MORGENSTERN (1953): Theory of Games and Economic Behavior. 6. Aufl., Princeton: Princeton University Press. ODENING, M. (1994): Komplexitätsreduktion in Entscheidungsmodellen. Frankfurt/M.: Peter Lang. POPPER, K.R. (1984): Logik der Forschung. Tübingen: Mohr. POPPER, K.R. (1992): Realism and the aim of science. London and New York: Routledge. POPPER, K.R. (1995a): Lesebuch. Ausgewählte Texte zu Erkenntnistheorie, Philosophie der Naturwissenschaften, Metaphysik, Sozialphilosophie. Tübingen: Mohr. POPPER, K.R. (1995b): Eine Welt der Propensitäten. Tübingen: Mohr. RAIFFA, H. (1968): Decision Analysis. Introductory Lectures on Choices under Uncertainty. Reading/Mass.: Addison-Wesley. RECKE, G. und M. LESERER (1998): Zur Analyse von Entscheidungsnetzen mit dem Computerprogramm „magic“. Zeitschrift für Agrarinformatik 6, H. 3, S. 50-54. RECKE, G. und M. LESERER (2001): Investitionsentscheidungen mit Zustandsnetzen (in Vorbereitung). 102 RIECK, C. (1993): Spieltheorie. Einführung für Wirtschafts- und Sozialwissenschaftler. Wiesbaden: Gabler. RINNE, H. (1997): Taschenbuch der Statistik. 2. Aufl., Thun und Frankfurt/M.: Verlag Harry Deutsch. ROHATGI, V.K. (1984): Statistical Inference. New York: John Wiley & Sons. ROSS, S. (1994): A First Course in Probability, 4. Aufl., New York: MacMillan Publishing Comp. SAVAGE, L.J. (1954): The Foundations of Statistics. New York: Wiley. SCHNEEWEIß, H. (1967): Entscheidungskriterien bei Risiko. Berlin: Springer. SCHNEIDER, D. (1980): Investition und Finanzierung, 5. Aufl., Wiesbaden: Gabler. SORGER, G. (2000): Entscheidungstheorie bei Unsicherheit. Grundlagen und Anwendungen. Stuttgart: Lucius & Lucius. STARMER, C. (2000): Developments in Non-Expected Utility Theory: The Hunt for a Descriptive Theory of Choice under Risk. Journal of Economic Literature, Vol. 38, S. 332-382. STEGMÜLLER, W. (1973): Personelle und Statistische Wahrscheinlichkeit. 2. Halbband: Statistisches Schließen, statistische Begründung, statistische Analyse. Berlin: Springer. TVERSKY, A. und D. KAHNEMAN (1992): Advances in Prospect Theory: Cumulative Representation of Uncertainty. Journal of Risk and Uncertainty, Vol. 5, S. 297323. VARIAN, H.R. (1987): Intermediate Microeconomics: A Modern Approach. New York: Norton. WAKKER P. und A. TVERSKY (1993): An Axiomatization of Cumulative Prospect Theory. Journal of Risk and Uncertainty, Vol. 7, S. 147-176. WEISE, P., W. BRANDES, T. EGER und M. KRAFT (1993): Neue Mikroökonomie, 3. Aufl., Heidelberg: Physica. WÖHE, G. und U. DÖRING (2000): Einführung in die Allgemeine Betriebswirtschaftslehre. 20. Aufl., München: Vahlen. 103 6 Anhang Anhang 1: Quellcode des Programms MAGIC.EXE in der Version 2.0 vom November 2000, nach einer Idee von M. Leserer, weiterentwickelt und überarbeitet von G. Recke, von M. Tietze programmiert. 104 105 "combination.h" "edge.h" "family.h" "group.h" "node.h" "path.h" "probtab1.h" "probtab2.h" "varcovar.h" "variable.h" unsigned int ksinum, depnum, idpnum, colnum, rownum; Combination *combi; Edge *edge; Family *family; Group *group; Node *node; Path *path; Probtab1 *probtab1; Probtab2 *probtab2; VarCovar *varcovar; Variable eta, *ksi; bool clean; char xlsFilename[120]; #include #include #include #include #include #include #include #include #include #include using namespace std; #include <fstream> #include <iomanip> #include <iostream> magic.cpp 106 } return 0; strcpy(xlsFilename, argv[1]); cp = strrchr(xlsFilename, '.'); strcpy(cp, ".txt"); FILE *out = fopen(xlsFilename, "wt"); if(!out) { cout << "Kann " << xlsFilename << " nicht öffnen!" << endl; exit(1); } read_input(argv[1]); Node::report(); Edge::report(); Path::gen_pathtable(); Path::report(); Combination::gen_combitable(); Combination::report(); Group::gen_grouptable(); Group::renumber_cols(); Group::renumber_rows(); Group::report(); probtab1 = new Probtab1; probtab1->report(out); varcovar = new VarCovar; varcovar->report(out); probtab2 = new Probtab2; probtab2->report(out); fclose(out); cout << "Dies ist MAGIC, Version 2.0" << endl; cout << "(C) Michael Leserer 1986; realisiert von Manfred Tietze 1987" << endl; cout << "(C) der völlig überarbeiteten Version: Guido Recke und Manfred Tietze 2000" << endl << endl; char *cp; int main(const int argc, const char *argv[]) { unsigned int bit(const int); void read_input(const char *); 107 for(e = 0; e < Edge::number; e++) { edge[e].top--; edge[e].bot--; if(0 <= edge[e].top && edge[e].top < Node::number) { node[edge[e].top].inc_sucnum(); } else { cout << "Knoten ungültig in Kante " << e+1 << endl; for(e = 0; e < Edge::number; e++) { in >> edge[e].top >> edge[e].bot >> edge[e].prb >> edge[e].val >> edge[e].label; } in >> n; clean = (n != 0); in >> Edge::number; edge = new Edge[Edge::number]; if(edge) { cout << "Platz für " << Edge::number << " Kanten reserviert." << endl; } else { cout << "Zu viele Kanten ..." << endl; exit(3); } in >> Node::number; node = new Node[Node::number]; if(node) { cout << "Platz für " << Node::number << " Knoten reserviert." << endl; } else { cout << "Zu viele Knoten ..." << endl; exit(2); } ifstream in(filename); if(!in) { cout << "Kann " << filename << " nicht öffnen!" << endl; exit(1); } unsigned int e, i, j, n; int depnum, idpnum; void read_input(const char *filename) { 108 Family::number = node[0].sucnum; family = new Family[Family::number]; if(family) { cout << "Platz für " << Family::number << " Familien reserviert." << endl; } else { cout << "Zu viele Familien ..." << endl; exit(4); } Family::number = 0; n = - depnum; ::depnum = n; ::idpnum = idpnum; eta.edgnum = n; eta.edg = new unsigned int[n]; for(e = 0; e < Edge::number; e++) { edge[e].att = (edge[e].label) ? (1 << bit(edge[e].label)) : 0; } cout << "Die Bits 0 bis " << eta.edgnum-1 << " der Attribute stehen für Eta." << endl; cout << "Die Bits " << eta.edgnum << " bis " << eta.edgnum+idpnum-1 << " der Attribute stehen für alle Ksi." << endl; idpnum = depnum = edge[0].label; for(e = 1; e < Edge::number; e++) { if(edge[e].label > idpnum) idpnum = edge[e].label; if(edge[e].label < depnum) depnum = edge[e].label; } node[0].edgptr = 0; for(n = 1; n < Node::number; n++) { node[n].edgptr = node[n-1].edgptr + node[n-1].sucnum; } Edge::sort_edges(); } } if(0 <= edge[e].bot && edge[e].bot < Node::number) { node[edge[e].bot].inc_prenum(); } else { cout << "Knoten ungültig in Kante " << e+1 << endl; } 109 } return (label < 0) ? label + eta.edgnum : label + eta.edgnum - 1; unsigned int bit(const int label) { } in.close(); in >> ksinum; ksi = new Variable[ksinum]; for(i = 0; i < ksinum; i++) { in >> ksi[i].edgnum; ksi[i].edg = new unsigned int[ksi[i].edgnum]; for(j = 0; j < ksi[i].edgnum; j++) { in >> n; for(e = 0; e < Edge::number; e++) { if(edge[e].label == n) { ksi[i].edg[j] = e; break; } } } } for(e = 0, n = 0; e < Edge::number; e++) { if(edge[e].label < 0) { eta.edg[bit(edge[e].label)] = e; } } 110 Combination *combi; Family *family; Node *node; Path *path; "combination.h" "family.h" "node.h" "path.h" path = new unsigned int[Family::number]; f = 0; for(pass = 1; pass < 3; pass++) { for(f = 0; f < Family::number; f++) index[f] = family[f].begin; unsigned int *index = new unsigned int[Family::number], f, i, j, k, pass; void Combination::gen_combitable(void) { } Combination::Combination(void) { unsigned int Combination::number = 0; extern extern extern extern #include #include #include #include using namespace std; #include "iostream" #include "iomanip" combination.cpp 111 } Combination *x = new Combination; for(i = 0; i < number - 1; i++) { k = i; for(j = i + 1; j < number; j++) { if(combi[j].att < combi[k].att) { k = j; } } if(k != i) { *x = combi[k]; combi[k] = combi[i]; combi[i] = *x; } } delete x; } delete [] index; while(1) { if(index[f] < family[f].end) { ///// check(pass, index); ///// f = 0; } else { index[f] = family[f].begin; f++; } if(f >= Family::number) break; index[f]++; } if(pass == 1) { combi = new Combination[number]; cout << "Platz für " << number << " Kombinationen reserviert." << endl; number = 0; } 112 valid = true; for(n = 1; n < Node::number-1; n++) { if(node[n].prenum < 2) continue; // Betrachte alle Knoten mit mehr als einem Vorgänger // - Zähle, wie viele Pfade den Knoten enthalten // - Stelle fest, ob ein Pfad ihn durchläuft. through = false; counter = 0; for(f = 0; f < Family::number; f++) { p = ::path + index[f]; pos = Path::is_member(n, p); if(pos > -1) { through = through || (pos < p->length-1); counter++; } } valid = valid && (((counter == node[n].prenum) && through) || ((counter != node[n].prenum) !through)); } // Eine Kombination ist genau dann gültig, wenn für alle "bedingten" Knoten gilt: // Die Zahl der ankommenden Pfade ist gleich der Zahl der Vorgänger _und_ der Knoten wird durchlaufen // _oder_ // diese Zahlen unterscheiden sich _und_ der Knoten wird _nicht_ durchlaufen. if(valid) { if(pass == 2) { // gültige Kombination in die Tabelle aufnehmen. combi[number].att = 0; combi[number].prb = 1.0F; for(f = 0; f < Family::number; f++) { combi[number].att |= ::path[index[f]].att; combi[number].prb *= ::path[index[f]].prb; combi[number].path[f] = index[f]; } } number++; } } unsigned int counter, f, n; int pos; bool through, valid; Path *p; void Combination::check(unsigned int pass, unsigned int *index) { && 113 } cout << setw(12) << fixed << setprecision(6) << prb << " $" << setw(8) << hex << setfill('0') << att << dec << setfill(' '); for(i = 0; i < Family::number; i++) { cout << setw(6) << (path[i] + 1) % 10000; } cout << endl; unsigned int i; void Combination::print(void) { } cout << endl << endl << endl; cout << "Gültige Kombinationen:" << endl; cout << "======================" << endl << endl; cout << " Kombination Wahrsch. Attribut Pfade" << endl; cout << " -----------------------------" << endl; for(unsigned int c = 0; c < number; c++) { cout << setw(12) << c+1; combi[c].print(); wsum += combi[c].prb; } cout << " --------" << endl; cout << " Summe: " << wsum << endl; cout << endl; unsigned int i = 1; float wsum = 0.0; void Combination::report(void) { 114 Edge *edge; Family *family; Node *node; int idpnum, depnum; x = new Edge; for(i = 0; i < number - 1; i++) { k = i; for(j = i + 1; j < number; j++) { if((edge[j].top < edge[k].top) || ((edge[j].top == edge[k].top) && (edge[j].bot < edge[k].bot))) { k = j; } } if(k != i) { *x = edge[k]; unsigned int i, j, k; Edge *x; void Edge::sort_edges(void) { unsigned int Edge::number = 0; using namespace std; extern extern extern extern #include "edge.h" #include "family.h" #include "node.h" #include <iomanip> #include <iostream> edge.cpp 115 } cout << endl << endl << endl; cout << "Kantentabelle:" << endl; cout << "==============" << endl << endl; cout << " Kante Anfang Ende Wahrsch. Markierung Wert" << endl; cout << " -------------------- -------------" << endl; for(unsigned int e = 0; e < number; e++) { cout << setw(12) << e+1 << setw(12) << edge[e].top+1 << setw(12) << edge[e].bot+1; if(edge[e].top) { cout << setw(12) << fixed << setprecision(6) << edge[e].prb; if(edge[e].label) { cout << setw(12) << edge[e].label << setw(12) << fixed << setprecision(2) << edge[e].val; } } cout << endl; } cout << endl; void Edge::report(void) { } } } delete x; edge[k] = edge[i]; edge[i] = *x; 116 Combination *combi; Edge *edge; Group *group; Variable eta, *ksi; unsigned int ksinum, depnum, idpnum, colnum, rownum; bool clean; "combination.h" "edge.h" "group.h" "probtab1.h" "variable.h" unsigned int Group::number = 0; unsigned int *Group::c_grp = 0; unsigned int *Group::r_grp = 0; extern extern extern extern extern extern #include #include #include #include #include using namespace std; #include "iostream" #include "iomanip" group.cpp unsigned int Family::number = 0; #include "family.h" family.cpp 117 for(pass = 1; pass < 3; pass++ ) { last_att = combi[0].att + 1; for(c = 0; c < Combination::number; c++) { if(last_att != combi[c].att) { last_att = combi[c].att; g = number++; if(pass == 2) { group[g].att = combi[c].att; group[g].prb = combi[c].prb; group[g].row = group[g].att >> depnum; group[g].column = group[g].att & ((1 << depnum) - 1); for(i = 0; i <= ksinum; i++) { group[g].val[i] = 0.0; jmax = (i == ksinum) ? eta.edgnum : ksi[i].edgnum; for(j = 0; j < jmax; j++) { e = (i == ksinum) ? eta.edg[j] : ksi[i].edg[j]; if(group[g].att & edge[e].att) { group[g].val[i] += edge[e].val; } } } } } else { if(pass == 2) group[g].prb += combi[c].prb; } unsigned int c, e, g, i, j, jmax, pass; unsigned long last_att; void Group::gen_grouptable(void) { } val = new float[ksinum+1]; col_renumbered = false; row_renumbered = false; Group::Group(void) { 118 } for(new_index = 0; true; new_index++) { for(g = 0; g < number; g++) { if(group[g].col_renumbered) continue; min = group[g].column; break; } if(g >= number) { colnum = new_index; c_grp = new unsigned int[colnum]; for(col = 0; col < colnum; col++) { for(g = 0; g < Group::number; g++) { if(group[g].column == col) { c_grp[col] = g; break; } } } return; } for(; g < number; g++) { if(group[g].col_renumbered) continue; if(group[g].column < min) min = group[g].column; unsigned int col, g, min, new_index; void Group::renumber_cols(void) { } } if(pass == 1) { group = new Group[number]; cout << "Platz für " << number << " Gruppen reserviert." << endl; number = 0; } else { // pass == 2 if(clean) { } } 119 } for(new_index = 0; true; new_index++) { for(g = 0; g < number; g++) { if(group[g].row_renumbered) continue; min = group[g].row; break; } if(g >= number) { rownum = new_index; r_grp = new unsigned int[rownum]; for(row = 0; row < rownum; row++) { for(g = 0; g < Group::number; g++) { if(group[g].row == row) { r_grp[row] = g; break; } } } return; } for(; g < number; g++) { if(group[g].row_renumbered) continue; if(group[g].row < min) min = group[g].row; } unsigned int g, min, new_index, row; void Group::renumber_rows(void) { } } for(g = 0; g < number; g++) { if(group[g].col_renumbered) continue; if(group[g].column == min) { group[g].column = new_index; group[g].col_renumbered = true; } } 120 } unsigned int i; void Group::print(void) { } cout << endl << endl << endl; cout << "Wahrscheinlichkeitstabelle mit Wertekombinationen:" << endl; cout << "==================================================" << endl << endl; cout << " Gruppe Wahrsch. Attribut Eta"; for(i = 0; i < ksinum; i++) { cout << " Ksi" << i+1; } cout << endl << " ----------------------"; for(i = 0; i < ksinum; i++) { cout << " ----"; } cout << endl; for(g = 0; g < number; g++) { cout << setw(12) << g+1; group[g].print(); } cout << endl; unsigned int g, i; void Group::report(void) { } for(g = 0; g < number; g++) { if(group[g].row_renumbered) continue; if(group[g].row == min) { group[g].row = new_index; group[g].row_renumbered = true; } } 121 prenum = sucnum = 0; void Node::inc_prenum(void) { } Node::Node(void) { unsigned int Node::number = 0; extern Node *node; using namespace std; #include "node.h" #include <iomanip> #include <iostream> node.cpp } cout << setw(12) << fixed << setprecision(6) << prb << " $" << setw(8) << hex << setfill('0') << att << dec << setfill(' '); cout << setw(12) << setprecision(2) << val[ksinum]; // eta for(i = 0; i < ksinum; i++) { cout << setw(12) << setprecision(2) << val[i]; // ksi } cout << endl; 122 prenum++; sucnum++; #include "edge.h" #include "family.h" #include "node.h" #include <iomanip> #include <iostream> path.cpp } cout << endl << endl << endl; cout << "Knotentabelle:" << endl; cout << "==============" << endl << endl; cout << " Knoten Vorgänger Nachfolger" << endl; cout << " -------------- ----------" << endl; for(unsigned int n = 0; n < number; n++) { cout << setw(12) << n+1 << setw(12) << node[n].prenum << setw(12) << node[n].sucnum // << setw(5) << node[n].edgptr << endl; } void Node::report(void) { } void Node::inc_sucnum(void) { } 123 Edge *edge; Family *family; Node *node; Path *path; tempth = new Path; tempth->nodes = new unsigned int[Node::number]; counter = new unsigned int[Node::number]; prob = new float[Node::number]; attr = new long[Node::number]; unsigned int edg, i, len, lastnode, *counter; bool progress; float *prob; long *attr; Path *tempth; void Path::gen_pathtable(void) { } path[number].prb = tempth->prb; path[number].att = tempth->att; path[number].length = len; path[number].nodes = new unsigned int[len]; for(unsigned int i = 0; i < len; i++) { path[number].nodes[i] = tempth->nodes[i]; } if(number == 0 || path[number].nodes[1] != path[number-1].nodes[1]) { family[Family::number].begin = family[Family::number].end = number; Family::number++; } family[Family::number-1].end++; void Path::add(const unsigned int len, const Path *tempth) { unsigned int Path::number = 0; extern extern extern extern using namespace std; #include "path.h" 124 } { } delete tempth; delete[] counter; delete[] prob; delete[] attr; } if(pass == 1) { path = new Path[number]; cout << "Platz für " << number << " Pfade reserviert." << endl; number = 0; } } if(progress) { if(pass == 2) { tempth->prb = prob[i]; tempth->att = attr[i]; add(len, tempth); } number++; } if(lastnode < Node::number-1 && node[lastnode].prenum > 1) { if(node[lastnode].sucnum > 0) { if(pass == 2) { tempth->prb = prob[i]; tempth->att = attr[i]; add(len, tempth); } number++; } if(pass == 2) node[lastnode].sucnum = 0; } edg = node[lastnode].edgptr + counter[i]++; len++; i = len - 1; tempth->nodes[i] = edge[edg].bot; counter[i] = 0; prob[i] = prob[i-1] * edge[edg].prb; attr[i] = attr[i-1] | edge[edg].att; progress = true; for(unsigned int pass = 1; pass < 3; pass++) { tempth->nodes[0] = counter[0] = 0; prob[0] = 1.0; attr[0] = 0; for(len = 1; len > 0; len--) { progress = false; i = len - 1; for(lastnode = tempth->nodes[i]; counter[i] < node[lastnode].sucnum; lastnode = tempth->nodes[i]) 125 for(i = 0; i < p->length; i++) { unsigned int i; int Path::is_member(const unsigned int n, const Path *p) { } cout << setw(12) << fixed << setprecision(6) << prb << " $" << setw(8) << hex << setfill('0') << att << dec << setfill(' '); for(unsigned int i = 0; i < length; i++) { cout << setw(6) << nodes[i] + 1; } cout << endl; void Path::print(void) { } cout << endl << endl << endl; cout << "Pfadtabelle:" << endl; cout << "============" << endl << endl; cout << "Familie Pfad Wahrsch. Attribut Knotenfolge" << endl; cout << "------- ----------------------------" << endl; for(unsigned int f = 0; f < Family::number; f++) { cout << setw(7) << f+1; for(p = family[f].begin; p < family[f].end; p++) { cout << setw((p == family[f].begin) ? 5 : 12) << i++; path[p].print(); } cout << endl; } unsigned int i = 1, p; void Path::report(void) { 126 *Probtab1::colsum *Probtab1::rowsum *Probtab1::commev *Probtab1::condev = = = = 0; 0; 0; 0; colsum = new float[colnum]; rowsum = new float[rownum]; condev = new float[rownum]; for(col = 0; col < colnum; col++) { colsum[col] = 0.0; } for(row = 0; row < rownum; row++) { rowsum[row] = condev[row] = 0.0; unsigned int col, row, g, i; float p; Probtab1::Probtab1(void) { float float float float extern Group *group; extern unsigned int ksinum, colnum, rownum; #include "group.h" #include "probtab1.h" using namespace std; #include <fstream> #include <iomanip> #include <iostream> probtab1.cpp } if(p->nodes[i] == n) return i; } return -1; 127 } for(g = Group::r_grp[row]; g < Group::number && group[g].row == row; g++) { if(group[g].column == col) return group[g].prb; } return 0.0F; unsigned int g; float Probtab1::prb(unsigned int row, unsigned int col) { } commev = new float[ksinum+1]; for(i = 0; i <= ksinum; i++) { commev[i] = 0.0; if(i < ksinum) { for(row = 0; row < rownum; row++) { g = Group::r_grp[row]; commev[i] += rowsum[row] * group[g].val[i]; } } else { // i == ksinum for(col = 0; col < colnum; col++) { g = Group::c_grp[col]; commev[i] += colsum[col] * group[g].val[i]; } } } } for(col = 0; col < colnum; col++) { p = prb(row, col); rowsum[row] += p; colsum[col] += p; g = Group::c_grp[col]; condev[row] += p * group[g].val[ksinum]; } condev[row] /= rowsum[row]; 128 // 2. // 1. << << << << endl << endl << endl; "Gemeinsame Wahrscheinlichkeitsmaßfunktion:" << endl; "==========================================" << endl; endl; for(i = 0; i < ksinum; i++) { cout << " Ksi" << i+1; fprintf(out, "\tKsi%d", i+1); } for(col = 0; col < colnum; col++) { cout << " "; fputc('\t', out); } cout << " summe ErwWert" << endl; fprintf(out, "\tsumme\tErwWert\n"); for(i = 0; i < ksinum-1; i++) { cout << " "; fputc('\t', out); } cout << " Eta"; fprintf(out, "\tEta"); for(col = 0; col < colnum; col++) { g = Group::c_grp[col]; cout << fixed << setw(12) << setprecision(6) << group[g].val[ksinum]; fprintf(out, "\t%12.6f", group[g].val[ksinum]); } cout << " Zeilenbedingter" << endl; fprintf(out, "\tZeilen-\tbedingter\n"); fprintf(out, "Gemeinsame Wahrscheinlichkeitsmaßfunktion:\n"); fprintf(out, "==========================================\n\n"); cout cout cout cout unsigned int col, g, i, row; float sum; void Probtab1::report(FILE *out) { 129 // 5. // 4. // 3. cout << endl; cout << "Gemeinsame Erwartungswerte:" << endl; cout << "===========================" << endl << endl; cout << " E(Eta ) = " << setw(12) << setprecision(6) << commev[ksinum] << endl; fprintf(out, "\nGemeinsame Erwartungswerte:\n"); for(i = 0; i < ksinum; i++) { cout << " "; fputc('\t', out); } for(col = 0, sum = 0.0; col < colnum; col++) { cout << setw(12) << setprecision(6) << colsum[col]; fprintf(out, "\t%12.6f", colsum[col]); sum += colsum[col]; } cout << setw(12) << setprecision(6) << sum << endl; fprintf(out, "\t%12.6f\n", sum); cout << endl; fputc('\n', out); for(row = 0; row < rownum; row++) { g = Group::r_grp[row]; for(i = 0; i < ksinum; i++) { cout << setw(12) << setprecision(2) << group[g].val[i]; fprintf(out, "\t%12.2f", group[g].val[i]); } for(col = 0; col < colnum; col++) { cout << setw(12) << setprecision(6) << prb(row, col); fprintf(out, "\t%12.6f", prb(row, col)); } cout << setw(12) << setprecision(6) << rowsum[row]; cout << setw(12) << setprecision(6) << condev[row]; cout << endl; fprintf(out, "\t%12.6f\t%12.6f\n", rowsum[row], condev[row]); } cout << endl; fputc('\n', out); 130 Probtab2::s1, Probtab2::s2, Probtab2::s3; *Probtab2::colsum = 0; *Probtab2::evcvar = 0; *Probtab2::varcev = 0; *Probtab2::convar = 0; evcvar = new float[rownum]; s1 = 0.0; for(row = 0; row < rownum; row++) { unsigned int col, g, row; Probtab2::Probtab2(void) { float float float float float extern Group *group; extern unsigned int ksinum, colnum, rownum; #include "group.h" #include "probtab1.h" #include "probtab2.h" using namespace std; #include <iomanip> #include <iostream> probtab2.cpp } fprintf(out, "===========================\n\n"); fprintf(out,"\tE(Eta ) =\t%12.6f\n", commev[ksinum]); for(i = 0; i < ksinum; i++) { cout << " E(Ksi" << i+1 << ") = " << setw(12) << setprecision(6) << commev[i] << endl; fprintf(out, "\tE(Ksi%d) =\t%12.6f\n", i+1, commev[i]); } 131 * (group[g].val[ksinum] s2 = 0.0; varcev = new float[rownum]; convar = new float[rownum]; for(row = 0; row < rownum; row++) { varcev[row] = Probtab1::rowsum[row] * (Probtab1::condev[row] tab1::commev[ksinum]); s2 += varcev[row]; convar[row] = 0.0; for(col = 0; col < colnum; col++) { g = Group::c_grp[col]; convar[row] += prb(row,col) * (group[g].val[ksinum] tab1::condev[row]); } } colsum = new float[colnum]; for(col = 0; col < colnum; col++) { colsum[col] = 0.0; for(row = 0; row < rownum; row++) { colsum[col] += prb(row,col); } } - Probtab1::condev[row]) Probtab1::commev[ksinum]) * * (group[g].val[ksinum] (Probtab1::condev[row] s3 = 0.0; for(col = 0; col < colnum; col++) { g = Group::c_grp[col]; s3 += Probtab1::colsum[col] * group[g].val[ksinum] * group[g].val[ksinum]; } evcvar[row] = 0.0; for(col = 0; col < colnum; col++) { g = Group::c_grp[col]; evcvar[row] += Probtab1::prb(row,col) * (group[g].val[ksinum] Probtab1::condev[row]) tab1::condev[row]); } s1 += evcvar[row]; } - - - Prob- Prob- Prob- 132 return Probtab1::prb(row, col) / Probtab1::rowsum[row]; // 2. // 1. for(i = 0; i < ksinum; i++) { cout << " Ksi" << i+1; for(i = 0; i < ksinum-1; i++) { cout << " "; fputc('\t', out); } cout << " Eta"; fprintf(out, "\tEta"); for(col = 0; col < colnum; col++) { g = Group::c_grp[col]; cout << fixed << setw(12) << setprecision(6) << group[g].val[ksinum]; fprintf(out, "\t%12.6f", group[g].val[ksinum]); } cout << " Zeilenbedingte ErwWert d. Varianz d." << endl; fprintf(out, "\tZeilen-\tbedingte\tErwWert d.\tVarianz d.\n"); cout << endl << endl << endl; cout << "Bedingte Wahrscheinlichkeitsmaßfunktion:" << endl; cout << "========================================" << endl; cout << endl; fprintf(out, "\n\n\nBedingte Wahrscheinlichkeitsmaßfunktion:\n"); fprintf(out, "========================================\n\n"); unsigned int col, g, i, row; float sum; void Probtab2::report(FILE *out) { } float Probtab2::prb(unsigned int row, unsigned int col) { } 133 // 4. // 3. for(i = 0; i < ksinum; i++) { cout << " "; fputc('\t', out); } for(col = 0; col < colnum; col++) { cout << setw(12) << setprecision(6) << colsum[col]; cout << endl; fputc('\n', out); for(row = 0, sum = 0.0; row < rownum; row++) { g = Group::r_grp[row]; for(i = 0; i < ksinum; i++) { cout << setw(12) << setprecision(2) << group[g].val[i]; fprintf(out, "\t%12.6f", group[g].val[i]); } for(col = 0; col < colnum; col++) { cout << setw(12) << setprecision(6) << prb(row, col); fprintf(out, "\t%12.6f", prb(row, col)); } cout << setw(12) << setprecision(6) << 1.0; cout << setw(12) << setprecision(6) << convar[row]; cout << setw(12) << setprecision(6) << evcvar[row]; cout << setw(12) << setprecision(6) << varcev[row]; cout << endl; fprintf(out, "\t1.000000\t%12.6f\t%12.6f\t%12.6f\n", convar[row], evcvar[row], varcev[row]); sum += convar[row]; } cout << endl; fputc('\n', out); fprintf(out, "\tKsi%d", i+1); } for(col = 0; col < colnum; col++) { cout << " "; fputc('\t', out); } cout << " summe Varianz bed.Varianz bed.ErwWert" << endl; fprintf(out, "\tsumme\tVarianz\tbed.Varianz\tbed.ErwWert\n"); 134 << endl; << "Varianzgleichungen:" << endl; << "===================" << endl << endl; << " E(Eta²) = " << setw(12) << setprecision(6) << s3 << endl; << " E(Eta)² = " << setw(12) << setprecision(6) << Probtab1::commev[ksinum] * Probtab1::commev[ksinum] << endl; cout << endl; fprintf(out, "\nVarianzgleichungen:\n"); fprintf(out, "===================\n\n"); fprintf(out, "\tE(Eta²) =\t%12.6f\n", s3); fprintf(out, "\tE(Eta)² =\t%12.6f\n\n", Probtab1::commev[ksinum] * Probtab1::commev[ksinum]); s3 -= Probtab1::commev[ksinum] * Probtab1::commev[ksinum]; cout << " Var(Eta) = " << "S(EVcVar) + S(VarcEV) = " << setw(12) << setprecision(6) << s1 + s2 << endl; cout << " Var(Eta) = " << " E(Eta²) - E(Eta)² = " << setw(12) << setprecision(6) << s3 << endl; fprintf(out, "\tVar(Eta) =\tS(EVcVar)\t+ S(VarcEV) =\t%12.6f\n", s1 + s2); fprintf(out, "\tVar(Eta) =\tE(Eta²)\t- E(Eta)² =\t%12.6f\n", s3); cout cout cout cout cout #include "group.h" #include "probtab1.h" using namespace std; #include <iomanip> #include <iostream> varcovar.cpp } // 5. fprintf(out, "\t%12.6f", colsum[col]); } cout << setw(12) << setprecision(6) << static_cast<float>(rownum); cout << setw(12) << setprecision(6) << sum; cout << setw(12) << setprecision(6) << s1; cout << setw(12) << setprecision(6) << s2; cout << endl; fprintf(out, "\t%12.6f\t%12.6f\t%12.6f\t%12.6f\n", static_cast<float>(rownum), sum, s1, s2); 135 for(i = 0; i <= ksinum; i++) { for(j = 0; j <= i; j++) { COV(i,j) = 0.0; if(i == ksinum && j == ksinum) { for(col = 0; col < colnum; col++) { gc = Group::c_grp[col]; COV(i,j) += Probtab1::colsum[col] * group[gc].val[i] * group[gc].val[j]; } } else if(i == ksinum && j < ksinum) { for(row = 0; row < rownum; row++) { gr = Group::r_grp[row]; for(col = 0; col < colnum; col++) { gc = Group::c_grp[col]; COV(i,j) += Probtab1::prb(row,col) * group[gc].val[i] * group[gr].val[j]; } } } else { for(row = 0; row < rownum; row++) { gr = Group::r_grp[row]; COV(i,j) += Probtab1::rowsum[row] * group[gr].val[i] * group[gr].val[j]; } cov = new float[(ksinum+1) * (ksinum+1)]; unsigned int col, i, j, gc, gr, row; VarCovar::VarCovar(void) { #define COV(i,j) cov[(i)*(ksinum+1) + (j)] float *VarCovar::cov = 0; extern Group *group; extern unsigned int ksinum, colnum, rownum; #include "varcovar.h" 136 } // 3. // 2. // 1. cout << " Eta" << fixed << setw(12) << setprecision(6) << COV(ksinum,ksinum) << endl << endl; fprintf(out, "\tEta\t%12.6f\n\n", COV(ksinum,ksinum)); for(i = 0; i < ksinum; i++) { cout << " Ksi" << i+1 << setw(12) << setprecision(6) << COV(i,ksinum); fprintf(out, "\tKsi%d\t%12.6f", i+1, COV(i,ksinum)); for(j = 0; j <= i; j++) { cout << setw(12) << setprecision(6) << COV(i,j); fprintf(out, "\t%12.6f", COV(i,j)); cout << " Eta"; fprintf(out, "\t\tEta"); for(i = 0; i < ksinum; i++) { cout << " Ksi" << i+1; fprintf(out, "\tKsi%d", i+1); } cout << endl << endl; fprintf(out, "\n\n"); cout << endl << endl << endl; cout << "Varianz-Kovarianz-Matrix:" << endl; cout << "=========================" << endl; cout << endl; fprintf(out, "\n\n\nVarianz-Kovarianz-Matrix:\n"); fprintf(out, "=========================\n\n"); unsigned int i, j; void VarCovar::report(FILE *out) { } } } COV(i,j) -= Probtab1::commev[i] * Probtab1::commev[j]; COV(j,i) = COV(i,j); 137 } #include "variable.h" variable.cpp } } cout << endl << endl; fprintf(out, "\n\n"); Anhang 2: Beschreibung der Routine NETZINP1.EXE zur Erstellung einer Eingabedatei und des Programms MAGIC.EXE Ausgangspunkt sei eine Entscheidungssituation unter Risiko und Unsicherheit, die in Abbildung A1 dargestellt ist. Ein Marktbeobachter vermutet, dass ein Anbieter (Knoten 2) sein Produkt mit einer Wahrscheinlichkeit von 0.5 zu einem hohen (A22) oder niedrigem (A21) Preis verkauft. Falls er zu einem niedrigen Preis verkaufen würde, würde der Nachfrager (Knoten 3) einen Kauf überlegen. Mit einer Wahrscheinlichkeit von je 0.5 wird er das Produkt kaufen (A32) oder nicht (A31). Dieses Entscheidungsproblem kann mit MAGIC.EXE näher analysiert werden. Abbildung A1: Entscheidungsnetz 138 Dazu ist zunächst mit einem beliebigen Editor oder mit dem Hilfsprogramm NETZINP1.EXE die Eingabedatei für die Formulierung eines Entscheidungsproblems unter Risiko und Unsicherheit zu erstellen. Erstellen einer Eingabedatei mit einem Editor oder mit dem Programm NETZ- INP1.EXE NETZINP1.EXE wird im DOS-Fenster ausgeführt. Es gibt dem Anwender zunächst Hinweise zur Dateneingabe und richtet dann gezielt Anfragen an den Benutzer, mit denen die von MAGIC.EXE zu lesende Datei erstellt werden kann. Zur Verdeutlichung soll die Eingabe anhand des einfachen Entscheidungsproblems unter Risiko und Unsicherheit (Abbildung A1) erklärt werden. Beschreibung der Eingabe anhand einer Abbildung Wie in der Abbildung A1 zu sehen ist, gibt es vier Knoten. Der erste Knoten ist der Startknoten und der vierte Knoten der Endknoten. Diese beiden Knoten sind technische Knoten, die für die weiteren Berechnungen notwendig sind. Das eigentlich zu betrachtende ökonomische Entscheidungsnetz ist in der Mitte abgebildet. Es wird durch die Knoten 2 und 3 gebildet. Dabei geht ein Pfeil von Knoten 2 nach Knoten 3. Der Knoten 3 ist somit bedingt. Der Knoten 2 ist unbedingt, da zwar ein Pfeil von Knoten 1 auf ihn gerichtet ist, dieser aber keine kausale Bedeutung hat, sondern nur eine technische Verbindung mit dem Startknoten (1) bildet. Das Netz (Abbildung A1) hat Kanten, die durch Pfeile gekennzeichnet sind. Insgesamt gibt es 5 Kanten, die eine kausale Richtung haben. Zur Beschreibung des Netzes ist es außerdem notwendig, auf die Werte einzugehen, die an den Pfeilen (Kanten) stehen. Die Werte in Klammern stehen für die Attribute an diesen Kanten. Die jeweiligen Werte unter den Attributen sind die Wahrscheinlichkeiten, mit denen die Kanten belegt sind. Diese müssen zwischen Null und Eins liegen. Ferner muss si- 139 chergestellt werden, dass die Summe aller Wahrscheinlichkeiten, die von einem Entscheider (Knoten) ausgehen, den Wert Eins ergibt. Die Eingabedatei wird in drei Abschnitten erstellt. I) Im ersten Abschnitt wird die Anzahl der Knoten im Netz (mit den technischen Start- und Endknoten) eingegeben. Ferner ist die Anzahl der Kanten (Pfeile) des Netzes zu bestimmen und der Wert für den Parameter „clean“ auf 0 zu setzen, damit nicht die Spalten mit gleichen Werte für die Attribute zusammengefasst werden. Für das Beispiel ist folgende erste Zeile einzugeben: 4 5 0 Der erste Wert steht für die Anzahl der Knoten (4). Diese ergibt sich aus der Anzahl der Knoten des Entscheidungsnetzes (kausale Knoten (hier 2)), zu denen die technischen Knoten (Start- und Endknoten (hier 2)) hinzugezählt werden müssen. Der zweite Wert steht für die Anzahl der Kanten (5). Der letzte Wert setzt den Parameter „clean“ auf 0. II) Im zweiten Abschnitt werden für die miteinander verbundenen Knoten die Werte der Wahrscheinlichkeiten, der Attribute und ein Hilfswert eingegeben, der angibt, ob der Pfeil an dieser Kante von einem unbedingten oder von einem bedingten Knoten ausgeht. Der Wert steigt von +1 bis zu der Anzahl der insgesamt vorhandenen unbedingten Kanten. Der Wert kann von -1 bis zu der Anzahl der insgesamt vorhandenen bedingten Kanten fallen. Falls eine Kante nicht für die Berechnung der gemeinsamen WMF berücksichtigt werden soll, wie beispielsweise die von einem Startknoten ausgehende, muss für sie der Wert 0 eingegeben werden. Schließlich ist zu beachten, dass bei der Entscheidung, ob ein Knoten bedingt oder unbedingt ist, der Startknoten keinen Einfluss hat. 140 Für das Beispielnetz sind dann folgende Zeilen einzugeben: 1 2 1 -1 0 2 3 .5 1 1 2 4 .5 0 2 3 4 .5 1 -1 3 4 .5 0 -2 Die ersten beiden Werte in der ersten Zeile stehen für die Knoten, die miteinander verbunden werden. Der Pfeil in Abbildung A1 geht vom Knoten 1 (1. Wert) zum Knoten 2 (2. Wert). Da es sich um eine technische Verbindung handelt, ist die Wahrscheinlichkeit an dieser Kante 1 (3. Wert). Der Wert des Attributs muss, da er von einem Startknoten ausgeht -1 (4. Wert) sein. Da die Kante von einem Startknoten ausgeht, bekommt sie eine 0 (5. Wert) zugewiesen. In der zweiten Zeile wird eine kausale Verbindung vom zweiten Knoten (1. Wert) zum dritten Knoten (2. Wert) geknüpft. Die Wahrscheinlichkeit für diese Kante ist 0.5 (3. Wert). Der Wert des Attributs ist 1 (4. Wert). Der 5. Wert ist +1. Es handelt sich hier um die erste unbedingte Verknüpfung, da der Pfeil von dem unbedingten zweiten Knoten ausgeht. . In der dritten Zeile wird der zweite Knoten (1. Wert) mit dem vierten Knoten (2. Wert) kausal verknüpft. Die Wahrscheinlichkeit für diese Kante ist mit auf 0.5 (3. Wert) festgelegt worden. Der Wert des Attributs ist 0 (4. Wert). Der 5. Wert ist +2. Hier liegt die zweite unbedingt Verknüpfung vor, weil der Pfeil von dem unbedingten zweiten Knoten ausgeht (Abbildung A1). In der vierten Zeile wird der dritte Knoten (1. Wert) mit dem vierten Knoten (2. Wert) kausal verbunden. Die Wahrscheinlichkeit für diese Kante ist wieder 0.5 (3. Wert). Der Wert des Attributs ist 1 (4. Wert). Der 5. Wert ist –1. D. h., dass hier die erste bedingte Verknüpfung vorliegt, weil der vierte Knoten durch den dritten Knoten bedingt ist, der selber von einem bedingten Knoten (dritte Knoten) ausgeht. 141 In der fünften Zeile wird eine kausale Verbindung mit einem Pfeil vom dritten Knoten (1. Wert) zum vierten Knoten (2. Wert) hergestellt (Abbildung A1). Die Wahrscheinlichkeit für diesen Kante ist auf 0.5 (3. Wert) festgelegt worden. Der Wert des Attributs ist 0 (4. Wert). Der 5. Wert ist -2. Der vierte Knoten ist durch den dritten Knoten bedingt. Es handelt sich hierbei um die zweite bedingte Verknüpfung, da sie wieder von einem schon bedingten Knoten (dritte Knoten) ausgeht. Bei der Eingabe ist darauf zu achten, dass ein Dezimalpunkt und nicht ein Dezimalkomma verwendet wird, um bei der Ausführung des Programms keine Fehlermeldungen zu erhalten. III) Im letzten Abschnitt der Eingabe werden die Werte für die unbedingten Knoten näher spezifiziert. Es wird die Anzahl der unbedingten Knoten und für jeden unbedingten Knoten die Anzahl der Kanten angegeben, die von ihm ausgehen. Die entsprechenden Werte werden in der nächsten Zeile eingegeben. Für unser Beispiel sind dann folgende Zeilen einzugeben: 1 2 1 2 In dem Beispiel gibt es einen unbedingten Knoten (1. Zeile), von dem zwei relevante Kanten (2. Zeile) ausgehen, denen in der dritten Zeile der Eingabe die Werte 1 und 2 zugewiesen werden (zum Vergleich dazu siehe auch die entsprechenden Werte in der fünften Spalte von Abschnitt II der Eingabe). 142 Als Ergebnis dieses Programmdurchlaufs ergibt sich schließlich folgende Datei: 4 5 1 1 2 1 -1 0 2 3 .5 1 1 2 4 .5 0 2 3 4 .5 1 -1 3 4 .5 0 -2 1 2 1 2 Starten des Programms MAGIC.EXE und Erstellen einer Ausgabedatei Das Programm MAGIC wird aus dem DOS-Fenster mit zwei Zeilenparametern für die Eingabe- und die Ausgabedatei wie folgt gestartet: MAGIC Eingabedatei > Ausgabedatei Um eine für EXCEL lesbare Datei zu erzeugen, muss die Routine DOT2COL.EXE ausgeführt werden. Auch hier sorgen Zeilenparameter für die Zuweisung der entsprechenden Dateien. DOT2COL < Eingabedatei > Ausgabedatei Die Klammerzeichen „<“ und „>“ sind als Operatoren erforderlich. 143 Anhang 3: Die Ausgabe von MAGIC.EXE Die Ausgabe des Programms liefert eine Textdatei, die von EXCEL gelesen werden kann. In dieser Datei ist die für die Analyse wichtige Ausgabe enthalten. Ferner kann eine Datei mit der vollständigen Ausgabe erstellt werden. Zunächst soll aber der Programmalgorithmus näher beschrieben werden. Ausgangspunkt ist die Überprüfung des Netzes mit einem graphentheoretischen Ansatz. Der Programmalgorithmus sorgt dafür, dass ausgehend von einem Startknoten die Wege durch das Netz geprüft werden. Für die Netze verlangt der Algorithmus endliche, einmalige, azyklische und gerichtete Graphen (BUSACKER/SAATY 1968). Die Ermittlung der zulässigen Knotenwege orientiert sich an Wegprogressionen in einem offenen, einfachen Graphen. Demnach führt jede Progression von einem Ausgangsknoten zu einem Endknoten, ohne dass sich ein Knoten wiederholt. Anfang und Ende einer Progression sind somit grundsätzlich über die Anzahl vorhandener Vorgänger und Nachfolger für alle Knoten identifizierbar. Werden auf diese Weise sämtliche dem Netz zugrundeliegenden Progressionen durchgeführt, entstehen Knotenwege mit teilweise identischen Elementen. Zum einen, da die Pfadentwicklung über den selben unbedingten Knoten führen – eine Eigenschaft, die den jeweiligen Pfad einer so genannten Familie zuordnen – und zum anderen, weil an Kreuzungsknoten mit einem Bedingtheitsgrad größer als Eins zwei oder mehrere Familien zusammenkommen. Da Letztere keine zusätzlichen Informationen enthalten, in diesem Sinne also überflüssig sind, und außerdem nicht dem Netzinhalt genügen – bedingte Inhalte werden nur einmal gewählt – werden diese „doppelten“ Elemente grundsätzlich einer Progression zugeordnet. Kreuzungsknoten sind damit sekundär immer dann als Endknoten zu behandeln, sobald sie in einem regulären Pfad berücksichtigt worden sind. Überträgt man dieses Prinzip konsequent auf jeden bedingten Knoten, resultieren hieraus zwei Arten von Pfaden, die jeweils mit dem Startknoten beginnen und entweder mit dem Endknoten oder einem Kreuzungsknoten enden. Programmtechnisch kann mit einem back-track-Algorithmus der Weg der gerichteten Graphen durch das Entscheidungsnetz von unzulässigen Lösungen bereinigt werden. Nachdem die zu- 144 lässigen Pfade nicht automatisch disjunkte Ereignisse darstellen, kann die Summe der Wahrscheinlichkeiten aller Pfade größer als Eins sein. Um aus den ermittelten Pfaden jene Kombinationen zu erhalten, über denen die Wahrscheinlichkeitsfunktion definiert ist, sind sie so miteinander zu verbinden, dass die ursprüngliche Netzstruktur regelrecht rekonstruiert wird. Man erreicht dies in zwei Schritten: Zunächst werden aus den Pfaden mögliche Kombinationen gebildet, derart, dass in jeder Kombination ein Pfad jeder Familie vorkommt. Anschließend werden Kombinationen, die der kausalen Netzstruktur nicht entsprechen und in diesem Sinne ungültig sind, eliminiert. Die Gültigkeitsprüfung erfolgt dabei nach dem Kriterium, dass ein Knoten immer dann durchlaufen, d. h. eine Entscheidung immer dann getroffen wird, wenn zugleich sämtliche Bedingungen erfüllt sind. Die zulässigen Kombinationen der Graphen durch die Entscheidungsnetze können schließlich genutzt werden, um die Wahrscheinlichkeitscharakteristika von Entscheidungsnetzen zu berechnen. Im Gegensatz zu der vorherigen Version von MAGIC, die in FORTRAN programmiert wurde, hat die mit C++ programmierte neue Version den Vorteil einer dynamischen Speicherverwaltung. Dadurch können die für die Berechnung der Wahrscheinlichkeitscharakteristika grundlegende WMF und die darin enthaltenen Wahrscheinlichkeiten berechnet werden, ohne dass vorher der Speicherort und somit auch der Speicherbedarf festgelegt wird. Damit wird vermieden, dass die neue Version des Programms schnell an Speichergrenzen stößt. 145 Abschließend wird für das beschriebene Beispiel die vollständige Ausgabedatei erläutert. Ausgabedatei von MAGIC.EXE Dies ist MAGIC, Version 2.0 (C) Michael Leserer 1986; realisiert von Manfred Tietze 1987 (C) der völlig überarbeiteten Version: Manfred Tietze 2000 Platz für 4 Knoten reserviert. Platz für 5 Kanten reserviert. Die Bits 0 bis 1 der Attribute stehen für Eta. Die Bits 2 bis 3 der Attribute stehen für alle Ksi. Platz für 1 Familien reserviert. Zunächst wird eine Knotentabelle erstellt, in der die Anzahl der Vorgänger und Nachfolger der jeweiligen Knoten festgehalten werden. Knotentabelle: ============== Knoten -----1 2 3 4 Vorgänger --------0 1 2 3 Nachfolger ---------1 2 1 0 In der Kantentabelle wird für jede Kante der Anfangs- und Endknoten ausgegeben sowie ausgewiesen, mit welcher Wahrscheinlichkeit die jeweilige Kante belegt ist. Außerdem wird noch in der Spalte „Markierung“ festgehalten, ob es sich um eine bedingte oder unbedingte Kante (Zufallsveränderliche) handelt, und schließlich wird der Wert (Attribut) der Kante festgelegt. Kantentabelle: ============== Kante Anfang ---------1 1 2 2 3 2 4 3 5 3 Platz für 3 Pfade reserviert. Ende ---2 3 4 4 4 146 Wahrsch. -------- Markierung ---------- Wert ---- 0.500000 0.500000 0.500000 0.500000 1 2 -1 -2 1.00 0.00 0.00 1.00 In der Pfadtabelle werden die jeweiligen Wahrscheinlichkeiten für die Pfade und Knotenfolgen ausgewiesen. Pfadtabelle: ============ Familie Pfad ------- ---1 1 2 3 Wahrsch. -------0.250000 0.250000 0.500000 Attribut -------$00000006 $00000005 $00000008 Knotenfolge ----------1 2 1 2 1 2 3 3 4 4 4 Platz für 3 Kombinationen reserviert. Aus der Pfadtabelle werden die gültigen Kombinationen mit den Wahrscheinlichkeiten ermittelt und die Summe der Wahrscheinlichkeiten ausgegeben. Gültige Kombinationen: ====================== Kombination ----------1 2 3 Summe: Wahrsch. -------0.250000 0.250000 0.500000 -------1.000000 Attribut -------$00000005 $00000006 $00000008 Pfade ----2 1 3 Platz für 3 Gruppen reserviert. 147 Es folgt die Ermittlung der Wahrscheinlichkeitstabelle mit den zugehörigen Wertekombinationen für die als unbedingt (KSI) oder bedingt (ETA) definierten Zufallsvariablen. Ausgehend von der Wahrscheinlichkeitstabelle werden mittels der gemeinsamen WMF die weiteren Wahrscheinlichkeitscharakteristika, wie schon in Abschnitt 2.5 beschrieben, berechnet. Wahrscheinlichkeitstabelle mit Wertekombinationen: ================================================== Gruppe -----1 2 3 Wahrsch. -------0.250000 0.250000 0.500000 Attribut -------$00000005 $00000006 $00000008 Eta --1.00 0.00 0.00 Ksi1 ---1.00 1.00 0.00 Gemeinsame Wahrscheinlichkeitsmaßfunktion: ========================================== Eta Ksi1 0.000000 1.000000 0.000000 Zeilensumme bedingter ErwWert 1.00 0.00 0.000000 0.500000 0.250000 0.000000 0.250000 0.000000 0.500000 0.500000 0.500000 0.000000 0.500000 0.250000 0.250000 1.000000 Gemeinsame Erwartungswerte: =========================== E(Eta ) = E(Ksi1) = 0.250000 0.500000 Varianz-Kovarianz-Matrix: ========================= Eta Eta 0.187500 Ksi1 0.125000 Ksi1 0.250000 148 149 0.500000 1.000000 0.250000 0.062500 0.187500 0.187500 0.500000 0.500000 0.000000 0.000000 2.000000 1.000000 1.000000 Zeilensumme 0.250000 0.250000 0.000000 0.125000 0.125000 0.000000 0.062500 0.031250 0.031250 bedingte ErwWert d. Varianz d. Varianz bed.Varianz bed.ErwWert Weitergehende Berechnungen können dann in einem nächsten Schritt in EXCEL oder einem anderen Programm erfolgen. Var(Eta) = S(EVcVar) + S(VarcEV) = Var(Eta) = E(Eta²) - E(Eta)² = E(Eta²) = E(Eta)² = Varianzgleichungen: =================== 0.500000 0.000000 0.000000 1.000000 1.00 0.00 1.000000 0.000000 Eta Ksi1 Bedingte Wahrscheinlichkeitsmaßfunktion: ========================================