Public Choice Positive ökonomische Theorie demokratischer Wirtschaftspolitik Mit einer Einführung in die Ökonometrie Vorlesung: Prof. Dr. Roland Vaubel Skript: Viktor Winschel Universität Mannheim Version: 18.05.2005 2 Inhaltsverzeichnis I Public Choice 13 1 Denition 15 2 Ökonomische Theorie des Wählerverhaltens 17 2.1 Wahlbeteiligung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.1 Erlös . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1.1.1 Politikunterschiede . . . . . . . . . . . . . . . . . 18 2.1.1.2 Erwartete Knappheit des Wahlausgangs . . . . . 19 2.1.1.3 Erwartete Zahl der Stimmen . . . . . . . . . . . . 20 2.1.1.4 Politische Urteilskraft . . . . . . . . . . . . . . . 21 2.1.1.5 Pichtgefühl . . . . . . . . . . . . . . . . . . . . 21 2.1.1.6 Sozialer Druck . . . . . . . . . . . . . . . . . . . 22 Kosten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1.2.1 Frustration . . . . . . . . . . . . . . . . . . . . . 22 2.1.2.2 Transportkosten . . . . . . . . . . . . . . . . . . 22 2.1.2.3 Wahlsteuer . . . . . . . . . . . . . . . . . . . . . 22 2.1.2.4 Opportunitätskosten der Zeit . . . . . . . . . . . 23 2.1.2 2.2 Informationsverwertung . . . . . . . . . . . . . . . . . . . . . . . 24 2.2.1 Informationsstand . . . . . . . . . . . . . . . . . . . . . . . 24 2.2.2 Informationsart . . . . . . . . . . . . . . . . . . . . . . . . 24 3 4 INHALTSVERZEICHNIS 2.2.3 Politischer Konjunkturzyklus . . . . . . . . . . . . . . . . 25 2.2.3.1 Hypothese von Nordhaus . . . . . . . . . . . . . 25 2.2.3.2 Popularitätsfunktionen . . . . . . . . . . . . . . . 27 2.2.3.3 Partisan Hypothese von Hibbs . . . . . . . . . . . 28 2.2.3.4 Rational Partisan Hypothese von Alesina . . . . . 29 2.2.3.5 Empirische Untersuchungen . . . . . . . . . . . . 29 2.2.3.6 Lösungsmöglichkeiten . . . . . . . . . . . . . . . 32 2.2.3.6.1 Geldpolitik . . . . . . . . . . . . . . . . 32 2.2.3.6.2 Finanzpolitik . . . . . . . . . . . . . . . 33 Langfristige Investitionsentscheidungen . . . . . . 33 2.2.4 Informationsverhalten der Wähler . . . . . . . . . . . . . . 33 2.2.5 Themenwahl . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.3.7 3 Ökonomische Theorie des Politikerverhaltens 35 3.1 Mehrheitsentscheidungen in einer repräsentativen Demokratie . . 35 3.2 Mehrheitsentscheidungen bei mehr als einer Alternative . . . . . . 37 3.3 Mehrheitsentscheidungen mit Alternativenpaketen . . . . . . . . . 39 3.4 Medianwählertheorem . . . . . . . . . . . . . . . . . . . . . . . . 41 Enthaltungen . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4.1.1 Eingipige, symmetrische Präferenzverteilung . . 44 3.4.1.2 Eingipige, asymmetrische Präferenzverteilung . 45 3.4.1.3 Zweigipige, symmetrische Präferenzverteilung . 46 3.4.1.4 Gleichverteilte Präferenzen . . . . . . . . . . . . 46 3.4.1.5 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.4.2 Parteibasis . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.4.3 Geldgeber . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4.4 Unsicherheit und unvollkommene Information . . . . . . . 50 3.4.1 INHALTSVERZEICHNIS 5 3.4.5 Lockerung der 2er Annahmen . . . . . . . . . . . . . . . . 51 3.4.6 Anwendung auf staatliche Umverteilung . . . . . . . . . . 51 3.5 Agenda setter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.6 Politische Tauschgeschäfte . . . . . . . . . . . . . . . . . . . . . . 59 3.7 Wählersteuer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4 Ökonomische Theorie der Bürokratie 4.1 69 Formale Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.1.1 Niskanen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.1.2 Migué/Bélanger . . . . . . . . . . . . . . . . . . . . . . . . 79 4.1.3 Bürokratiemodelle mit Personalpräferenz . . . . . . . . . . 83 4.1.3.1 Orzechowski . . . . . . . . . . . . . . . . . . . . . 84 4.1.3.2 Peacock . . . . . . . . . . . . . . . . . . . . . . . 85 4.1.3.3 Alternative Informationsverteilung . . . . . . . . 85 4.2 Kontrollmaÿnahmen . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.3 Reformmaÿnahmen . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.3.1 Innenverhältnis . . . . . . . . . . . . . . . . . . . . . . . . 89 4.3.2 Auÿenverhältnis . . . . . . . . . . . . . . . . . . . . . . . . 90 5 Verbandsökonomik 5.1 91 Beeinussung der Wirtschaftspolitik . . . . . . . . . . . . . . . . . 91 5.1.1 Transaktionsmechanismen . . . . . . . . . . . . . . . . . . 91 5.1.1.1 Informationsverarbeitung . . . . . . . . . . . . . 91 5.1.1.2 Politikernanzierung . . . . . . . . . . . . . . . . 93 5.1.1.3 Störaktionen . . . . . . . . . . . . . . . . . . . . 94 5.1.1.4 Durchführung wirtschaftspolitischer Maÿnahmen 95 5.1.2 Technologie der Verbände . . . . . . . . . . . . . . . . . . 95 5.1.3 Gegenleistungen . . . . . . . . . . . . . . . . . . . . . . . . 96 6 INHALTSVERZEICHNIS 5.2 Determinanten der Verbandsbildung . . . . . . . . . . . . . . . . . 97 5.2.1 Gröÿe der Gruppe der Interessenten . . . . . . . . . . . . . 97 5.2.2 Gröÿe des Marktanteils . . . . . . . . . . . . . . . . . . . . 97 5.2.2.1 Internalisierung . . . . . . . . . . . . . . . . . . . 97 5.2.2.2 Anpassungskosten . . . . . . . . . . . . . . . . . 98 5.2.2.3 Empirische Hinweise . . . . . . . . . . . . . . . . 99 Angebot eines privaten Gutes . . . . . . . . . . . . . . . . 99 5.2.3 5.3 5.2.3.1 Exkurs: Klubgüter . . . . . . . . . . . . . . . . . 101 5.2.3.2 Exkurs: Ökonomische Theorie der Ehe . . . . . . 102 5.2.4 Gröÿe des Parlaments . . . . . . . . . . . . . . . . . . . . 104 5.2.5 Häugkeit von Referenden . . . . . . . . . . . . . . . . . . 104 5.2.6 Staatsquote . . . . . . . . . . . . . . . . . . . . . . . . . . 104 5.2.7 Oenheit der Volkswirtschaft . . . . . . . . . . . . . . . . 104 5.2.8 Politische Stabilität . . . . . . . . . . . . . . . . . . . . . . 105 5.2.9 Zentralisierung . . . . . . . . . . . . . . . . . . . . . . . . 105 Normative Rechtfertigungsanalyse . . . . . . . . . . . . . . . . . . 107 5.3.1 Pro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.3.2 Kontra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 5.3.2.1 Positive Theorie der Regulierung . . . . . . . . . 112 5.3.2.1.1 Peltzman . . . . . . . . . . . . . . . . . 114 5.3.2.1.2 Crain/McCormick . . . . . . . . . . . . 116 5.3.2.1.3 Informationsfunktion versus Marktzutrittsbarrieren . . . . . . . . . . . . . . . . . 120 5.3.2.2 Rentseeking durch Subventionen . . . . . . . . . 121 5.3.2.3 Regulierung versus Subventionen . . . . . . . . . 122 5.3.3 Empirische Untersuchungen . . . . . . . . . . . . . . . . . 124 5.3.4 Dynamische Inezienz . . . . . . . . . . . . . . . . . . . . 127 INHALTSVERZEICHNIS 5.4 Lösungsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.4.1 5.4.2 5.4.3 5.5 Transaktionsmechanismen . . . . . . . . . . . . . . . . . . 131 5.4.1.1 Informationen . . . . . . . . . . . . . . . . . . . . 131 5.4.1.2 Störaktionen . . . . . . . . . . . . . . . . . . . . 131 5.4.1.3 Politiknanzierung . . . . . . . . . . . . . . . . . 131 5.4.1.4 Einuÿnahme auf die Zusammensetzung des Bundestages . . . . . . . . . . . . . . . . . . . . . . . 132 Organisationsfähigkeiten . . . . . . . . . . . . . . . . . . . 132 5.4.2.1 Besteuerung . . . . . . . . . . . . . . . . . . . . . 132 5.4.2.2 Zwangsmitgliedschaft . . . . . . . . . . . . . . . . 132 5.4.2.3 Kartellrecht . . . . . . . . . . . . . . . . . . . . . 132 5.4.2.4 Verfassungsbeschränkung . . . . . . . . . . . . . 132 5.4.2.5 Olson-Hypothese . . . . . . . . . . . . . . . . . . 133 Systemimmanent . . . . . . . . . . . . . . . . . . . . . . . 133 5.4.3.1 Tullock: ecient rent-seeking . . . . . . . . . . . 133 5.4.3.2 Ministerienauösung . . . . . . . . . . . . . . . . 134 5.4.3.3 Verbandsfusion . . . . . . . . . . . . . . . . . . . 134 5.4.3.4 Regulierung der Verbände . . . . . . . . . . . . . 134 5.4.3.5 Gleichgewichtiger Wettbewerb . . . . . . . . . . . 134 Probleme beim Privilegienabbau . . . . . . . . . . . . . . . . . . . 135 5.5.0.1 5.6 Tullock: transitional gains trap . . . . . . . . . . 135 Wieso ist Deregulierung zu beobachten? . . . . . . . . . . . . . . 136 5.6.1 Substitute . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 5.6.2 Qualitätswettbewerb . . . . . . . . . . . . . . . . . . . . . 137 6 Wirtschaftspolitische Beratung 6.1 7 139 Transmissionsmechanismen . . . . . . . . . . . . . . . . . . . . . . 139 6.1.1 Der Ökonom als externer Berater der Regierung . . . . . . 139 8 INHALTSVERZEICHNIS 6.2 6.1.2 Der Ökonom als öentlicher Meinungsmacher . . . . . . . 140 6.1.3 Der Ökonom als Politiker 6.1.4 Der Ökonom als Staatsbeamter . . . . . . . . . . . . . . . 140 6.1.5 Der Ökonom als Ausbilder . . . . . . . . . . . . . . . . . . 141 6.1.6 Empirie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Externe Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 6.2.1 6.3 . . . . . . . . . . . . . . . . . . 140 Anreize . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Ezienzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.3.1 Beratung auf der Ebene des Grundkonsenses . . . . . . . . 145 6.3.2 Beratung auf der Prozeÿebene . . . . . . . . . . . . . . . . 146 6.4 Habermas Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . 147 6.5 Realismus der Vorschläge . . . . . . . . . . . . . . . . . . . . . . . 149 7 Wirtschaftspolitische Entscheidungsverfahren 153 7.1 Rationalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 7.2 Phasen des Entscheidungsprozesses . . . . . . . . . . . . . . . . . 156 7.2.1 7.3 Prognosen . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Groÿe versus kleine Schritte . . . . . . . . . . . . . . . . . . . . . 160 7.3.1 7.3.2 Extensiv: Pro Holismus . . . . . . . . . . . . . . . . . . . . 161 7.3.1.1 Theorie des Second Best . . . . . . . . . . . . . . 161 7.3.1.2 Assignment . . . . . . . . . . . . . . . . . . . . . 162 7.3.1.2.1 Verteilungswirkungen. . . . . . . . . . . 163 7.3.1.2.2 Politische Widerstände. . . . . . . . . . 163 7.3.1.3 Brainard . . . . . . . . . . . . . . . . . . . . . . . 164 7.3.1.4 Systemimmitation . . . . . . . . . . . . . . . . . 164 Extensiv: Pro punktuelle Reformen . . . . . . . . . . . . . 164 7.3.2.1 Zielrestriktionen . . . . . . . . . . . . . . . . . . 164 INHALTSVERZEICHNIS 7.3.2.2 7.3.3 7.3.4 7.4 9 Informationskosten . . . . . . . . . . . . . . . . . 164 7.3.2.2.1 Miÿstände . . . . . . . . . . . . . . . . . 164 7.3.2.2.2 Risiko. . . . . . . . . . . . . . . . . . . . 164 7.3.2.2.3 Konservatives Vorurteil . . . . . . . . . . 165 7.3.2.2.4 Lernen aus Fehlprognosen . . . . . . . . 165 7.3.2.2.5 Dezentralisierung . . . . . . . . . . . . . 165 7.3.2.2.6 Diktatur . . . . . . . . . . . . . . . . . . 165 Intensiv: Pro Sofortlösung . . . . . . . . . . . . . . . . . . 166 7.3.3.1 Schnelle Wirkung . . . . . . . . . . . . . . . . . . 166 7.3.3.2 Abdiskontierung . . . . . . . . . . . . . . . . . . 166 7.3.3.3 Inezienz von Zwischenlösungen . . . . . . . . . 166 7.3.3.4 Instabilität . . . . . . . . . . . . . . . . . . . . . 166 7.3.3.5 Krisentheorie . . . . . . . . . . . . . . . . . . . . 167 7.3.3.6 Wahltaktik . . . . . . . . . . . . . . . . . . . . . 167 Intensiv: Pro Gradualismus . . . . . . . . . . . . . . . . . 167 7.3.4.1 Unsichere Instrumentenwirkung . . . . . . . . . . 167 7.3.4.2 Erleichterte Erwartungsanpassung 7.3.4.3 Grenzproduktivität und Hysterese . . . . . . . . 169 7.3.4.4 Sozialer Frieden . . . . . . . . . . . . . . . . . . . 170 7.3.4.5 Salamitaktik . . . . . . . . . . . . . . . . . . . . 170 . . . . . . . . 167 Ebenen der Entscheidungsverfahren . . . . . . . . . . . . . . . . . 170 7.4.1 Zweck der Ebenen . . . . . . . . . . . . . . . . . . . . . . 171 7.4.2 Analyse des Grundgesetzes . . . . . . . . . . . . . . . . . . 172 7.4.3 Senkung der Einigungskosten . . . . . . . . . . . . . . . . 173 7.4.3.1 Entscheidungen auf Verfassungsebene . . . . . . . 173 7.4.3.2 Delegation . . . . . . . . . . . . . . . . . . . . . . 175 7.4.3.3 Unabhängige Institutionen . . . . . . . . . . . . . 175 10 INHALTSVERZEICHNIS 7.5 Regeln versus Diskretion . . . . . . . . . . . . . . . . . . . . . . . 175 7.5.1 Pro Diskretion 7.5.2 Pro Regeln 7.5.2.1 7.5.3 II . . . . . . . . . . . . . . . . . . . . . . . . 175 . . . . . . . . . . . . . . . . . . . . . . . . . . 176 Unvollkommene Information . . . . . . . . . . . . 176 7.5.2.1.1 Beim Wirtschaftspolitiker . . . . . . . . 176 7.5.2.1.2 Beim Marktteilnehmer . . . . . . . . . . 177 7.5.2.1.3 Zeitinkonsistenz . . . . . . . . . . . . . . 178 7.5.2.2 Verkürzung von Entscheidungslags . . . . . . . . 179 7.5.2.3 Public Choice Argumente . . . . . . . . . . . . . 179 Wieso ist Regelbindung so selten? . . . . . . . . . . . . . . 180 Anhang 181 A Klassische Ökonometrie 183 A.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 A.2 Basics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 A.2.1 Zweck der Ökonometrie . . . . . . . . . . . . . . . . . . . 184 A.2.2 Statistische Grundlagen . . . . . . . . . . . . . . . . . . . 185 A.2.3 Statistische Inferenz . . . . . . . . . . . . . . . . . . . . . 185 A.2.4 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . 186 A.2.5 Dummyvariablen . . . . . . . . . . . . . . . . . . . . . . . 191 A.3 Schätzereigenschaften und Schätzmethoden . . . . . . . . . . . . . 191 A.3.1 Small-sample Eigenschaften . . . . . . . . . . . . . . . . . 192 A.3.1.1 Unverzerrtheit . . . . . . . . . . . . . . . . . . . 192 A.3.1.2 Ezienz . . . . . . . . . . . . . . . . . . . . . . . 193 A.3.1.3 Mean-Squared-Error (MSE) . . . . . . . . . . . . 193 A.3.2 Large-sample Eigenschaften . . . . . . . . . . . . . . . . . 194 INHALTSVERZEICHNIS 11 A.3.2.1 Asymptotische Unverzerrtheit . . . . . . . . . . . 194 A.3.2.2 Konsistenz A.3.2.3 Asymptotische Ezienz . . . . . . . . . . . . . . 195 . . . . . . . . . . . . . . . . . . . . . 195 A.3.3 Schätzmethoden . . . . . . . . . . . . . . . . . . . . . . . . 196 A.3.3.1 Kleinste Quadrate Methode . . . . . . . . . . . . 196 A.3.3.2 Maximum Likelihood (ML) Methode . . . . . . . 196 A.4 Annahmen im multiplen KQ-Modell . . . . . . . . . . . . . . . . . 197 A.5 Allgemeine Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 A.5.0.0.1 Signikanz der Koezienten . . . . . . . 200 A.5.0.0.2 Jarque-Bera-Test . . . . . . . . . . . . . 200 A.5.0.0.3 Lineare Restriktionen der Parameter . . 201 A.5.0.0.4 Nichtlineare Restriktionen der Parameter 201 A.5.0.0.5 Chowtest für Parameterstabilität . . . . 201 A.6 Annahmendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . 202 A.6.1 Annahme IB: Unabhängigkeit zwischen Störterm und Erklärenden . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 A.6.1.0.1 Problem . . . . . . . . . . . . . . . . . . 203 A.6.1.0.2 Test . . . . . . . . . . . . . . . . . . . . 204 A.6.1.0.3 Lösung . . . . . . . . . . . . . . . . . . . 204 A.6.2 Annahme ID: Linear unabhängige Erklärende . . . . . . . 205 A.6.2.0.1 Problem . . . . . . . . . . . . . . . . . . 206 A.6.2.0.2 Test . . . . . . . . . . . . . . . . . . . . 206 A.6.2.0.3 Lösung . . . . . . . . . . . . . . . . . . . 206 A.6.3 Annahme IIB: Homoskedastie . . . . . . . . . . . . . . . . 206 A.6.3.0.1 Problem . . . . . . . . . . . . . . . . . . 207 A.6.3.0.2 Tests . . . . . . . . . . . . . . . . . . . . 207 A.6.3.0.3 Lösung . . . . . . . . . . . . . . . . . . . 207 12 INHALTSVERZEICHNIS A.6.4 Annahme IIC: Unkorrelierte Störterme . . . . . . . . . . . 208 A.6.4.0.1 Problem . . . . . . . . . . . . . . . . . . 208 A.6.4.0.2 Tests . . . . . . . . . . . . . . . . . . . . 209 A.6.4.0.3 Lösung . . . . . . . . . . . . . . . . . . . 209 A.6.5 Annahme IC: Konstante Varianz der Erklärenden . . . . . 210 A.6.5.0.1 Problem . . . . . . . . . . . . . . . . . . 210 A.6.5.0.2 Test . . . . . . . . . . . . . . . . . . . . 211 A.6.5.0.3 Lösung . . . . . . . . . . . . . . . . . . . 211 Teil I Public Choice 13 Kapitel 1 Denition Der Begri Public Choice wurde von George J. Stigler1 geprägt. James M. Buchanan2 hat zusammen mit Gordon Tullock 1962 das bahnbrechende Buch The Calculus of Consent veröentlicht. Eine weitere wichtige frühe Arbeit ist von Anthony Downs An Economic Theory of Democracy von 1957. Wichtige Ideen zur Begründung der Theorie lieferte Joseph A. Schumpeter in seinem Buch Capitalism, Socialism and Democracy von 1942. In Kapitel 22, Eine andere Theorie der Demokratie, schreibt er: Und wir denieren: die demokratische Methode ist diejenige Ordnung der Institutionen zur Erreichung politischer Entscheidungen, bei welcher einzelne die Entscheidungsbefugnis vermittels eines Konkurrenzkampfes um die Stimmen des Volkes erwerben. Hier wird die Kernidee der Public Choice Theorie deutlich. Sie besteht darin, ökonomische Methoden bei der Politikanalyse in einer Demokratie anzuwenden. Die politischen Akteure lassen sich einerseits in (Politik-) Nachfrager wie Wähler und Interessengruppen und Anbieter wie Politiker und Bürokraten einteilen. Aus diesem Blickwinkel lauten die Denitionen der Bestandteile des Begries positive ökonomische Theorie demokratischer Wirtschaftspolitik folgendermaÿen: - positiv: erklärend und nicht bewertend, wobei die Erklärung Auswirkungen auf die normative Wertung haben kann. Z.B. ist die Verurteilung (Be1 Nobelpreisträger 1982: for his seminal studies of industrial structures, functioning of markets and causes and eects of public regulation, siehe www.almaz.com 2 Nobelpreisträger 1986: for his development of the contractual and constitutional bases for the theory of economic and political decision-making, siehe www.almaz.com 15 16 KAPITEL 1. DEFINITION wertung) davon abhängig, ob die Tötung aus Habgier oder aus Notwehr (Erklärung) erfolgte. - ökonomisch: es wird das Verhaltensmodell des homo ÷conomicus3 unterstellt und davon ausgegangen, daÿ die politischen Akteure typischerweise ihren eigenen Nutzen maximieren (non-tuism) oder zumindest nicht im politischen Bereich Altruisten sind. Es lassen sich dann die ökonomischen Werkzeuge wie Nutzen- und Zielfunktionen mit Restriktionen (z.B. Wiederwahl) und die ökonomische Rationalität in Form von optimalen Trade-os (wie z.B. Wählerstimmen vs. Bestechungsgelder) bei der Analyse nutzen. - demokratisch: es werden verschiedene Verfahren, wie z.B. Abstimmungsverfahren (one man one vote, einfache oder qualizierte Mehrheiten) oder demokratische Entscheidungsverfahren (beispielsweise das zweistuge Verfahren der repräsentativen Demokratie), auf ihre Vor- und Nachteile in Bezug auf eine (optimale) Wirtschaftspolitik untersucht. 3 Zur Diskussion dieses Konzeptes siehe Tietzel (1981). Kapitel 2 Ökonomische Theorie des Wählerverhaltens 2.1 Wahlbeteiligung Im Rahmen eines ökonomischen Kalküls gilt folgende Bedingung für eine Wahlbeteiligung: E(ErlösErg ) + E(Erlöspriv ) > E(Kosten) P B + D > C. (2.1) Der rationale Wähler geht zur Wahl, wenn die erwarteten Erlöse einer Wahlbeteiligung die erwarteten Kosten (C ) übersteigen. Die erwarteten Erlöse lassen sich in ergebnisabhängige (P B ) und nicht ergebnisabhängige Nutzenströme einteilen (D). Der Bestandteil B ist die Dierenz zwischen dem erwarteten Nutzen, den man aus einer Regierung des präferierten Kandidaten beziehen würde und dem Nutzen aus einer Regierung des Kandidaten, der gewonnen hätte, wäre man nicht zur Wahl gegangen. Dementsprechend bezeichnet P die subjektive Wahrscheinlichkeit mit seiner eigenen Stimme das Wahlergebnis zu Gunsten des präferierten Kandidaten zu verändern. In den folgenden Abschnitten werden die Bestimmungsgründe der Erlöse und Kosten und damit der Wahlbeteiligung diskutiert.1 1 Siehe dazu Kapitel 18 in Mueller (1995): The paradox of voting. Das Wahlparadox besteht darin, daÿ die Wahrscheinlichkeit von einem Auto auf dem Weg zur Wahl überfahren zu werden, etwa der Wahrscheinlichkeit die entscheidende Stimme abzugeben (P ), entspricht. Wenn die Nutzendierenz zwischen dem präferierten und dem anderen Kandidaten (B ) nicht so groÿ ist wie die Kosten eines Autounfalls (C ), was wohl in den meisten einigermaÿen demokratischen Staaten der Fall ist, stellt sich die Frage, wieso überhaupt jemand zur Wahl geht. Demzufolge 17 18 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS 2.1.1 Erlös 2.1.1.1 Politikunterschiede Der erwartete Erlös ist umso gröÿer, je gröÿer die erwarteten Unterschiede (∆) zwischen der zur Wahl stehenden Parteipolitiken sind (∂B/∂∆ > 0 in Gleichung 2.1). Wenn man sich von den zur Wahl stehenden Kandidaten (Parteien) den gleichen Nutzen verspricht, lohnt es sich, nicht wählen zu gehen. Einen möglichen Hinweis auf die erwarteten Unterschiede erhält man aus der Heftigkeit des inhaltlichen Wahlkampfes. Wenn jedoch der Wahlkamf als schmutzig empfunden wird, sind Wahlenthaltungen oder Politikverdrossenheit umso wahrscheinlicher. Man kann zwischen absoluten und relativen Unterschieden dierenzieren. Bei der Fomulierung der Hypothese in absoluten Unterschieden Partei1 Partei2 gilt unanhängig von der eigenen Position: je gröÿer die inhaltliche Diskrepanz, desto wichtiger ist es, zur Wahl zu gehen. Bei der Formulierung bezüglich relativen Unterschieden ist die Position des Wählers relevant. Partei1 Wähler1 Partei2 Wähler2 Nach der Frustrationshypothese von Hinnich geht Wähler2 eher zur Wahl als Wähler1 , weil Wähler1 frustrierter ist. Das ist nicht plausibel, wenn der negative Nutzen (Grenzkosten) mit dem Abstand zur eigenen Präferenz steigt. Man sollte umso eher zur Wahl gehen, je höher der Grenznutzen (die vermiedenen Grenzkosten) ist. Zudem zeigt die Umfrage in Kopie 1, daÿ Wahlbeteiligung etwas mit Frustration und Identikation zu tun hat. Das Zitat in Kopie 2 widerspricht ebenfalls der Frustrationshypothese Hinnichs, denn Frustration steht nicht in einem einfachen funktionalen Zusammenhang zur Wahlbeteiligung. In Kopie 3 ist die Wahlbeteiligung nach dem Alter aufgegliedert. Eine mögliche Erklärung des Verlaufs der Wahlbeteilgung ist, daÿ man bis zum Alter von 20 erste demokratische Gehversuche wagt, bis 27 der Reiz des Neuen schwindet, müÿte die Wahlbeteiligung im wesentlichen durch die ergebnisun abhängigen Nutzenbestandteile bestimmt sein. (D in Gleichung 2.1). 2.1. WAHLBETEILIGUNG 19 bis 54 sich allmählich die Frustration abbaut und ab 54 die Transportkosten bei umständlicher Briefwahl ansteigen. 2.1.1.2 Erwartete Knappheit des Wahlausgangs Der erwartete Erlös ist umso gröÿer, je knapper der erwartete Wahlausgang (p sei der erwartete Stimmenanteil für die zu wählende (präferierte) Partei), je eher also die eigene Stimme entscheidend ist (∂P/∂p < 0 in Gleichung 2.1). Kopie 4 zeigt eine Querschnittsregression, in der die Wahlbeteiligung in Groÿbritannien und Deutschland u.a. mit der erwarteten Knappheit des Wahlausgangs erklärt wird. Regression 4.6a: - M1: die Wahlbeteiligung ist in den Wahlkreisen mit der höchsten erwarteten Knappheit signikant höher. - POP: statt der Bevölkerungsgröÿe wäre (ist nicht verfügbar gewesen) die Anzahl der Wahlberechtigten besser geeignet. Diese Variable würde die im nächsten Abschnitt diskutierte Hypothese testen. Für die Wahlberechtigten würde man ein negatives Vorzeichen erwarten (je weniger Wahlberechtigte, desto höher die Wahrscheinlichkeit, daÿ die eigene Stimme entscheidet und desto eher geht man zur Wahl). Der Koezient der Bevölkerungsgröÿe hat jedoch ein positives Vorzeichen. Möglicherweise wird mit dieser Variable die Bevölkerungsdichte und die Transportkosten approximiert: Bei hoher Bevölkerung ist ebenfalls die Bevölkerungsdichte hoch, folglich die Transportkosten niedrig und damit die Wahlbeteiligung hoch. Regression 4.6b: - M2: Koezient sinkt wie erwartet (2.509<3.255), da M2 im Vergleich zu M1 zusätzlich einige als weniger knapp eingestufte Wahlkreise umfasst. Regression 4.4a verwendet statt der beiden Dummyvariablen M1 und M2 nun die kontinuierliche Variable D12, die den Abstand zwischen den tatsächlichen Stimmanteilen miÿt. M1 und M2 sind ex ante und D12 ex post Werte. Ex ante Variablen sind besser geeignet, da nach der Hypothese Erwartungswerte für die Knappheit des Wahlausgangs entscheidend sind. - D12: je gröÿer die Dierenz, desto kleiner die Wahlbeteiligung (D12 ist negativ deniert, deshalb ist der Zusammenhang negativ trotz positivem Vorzeichen). 20 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS Regression 4.2a: - TUO−1 : (gelaggte) Wahlbeteiligung der letzten Wahl erklärt aktuelle Wahlbeteiligung. Damit werden die zeitinvarianten wahlkreisspezischen Besonderheiten erfaÿt. Ein negatives Vorzeichen wäre sehr verwunderlich. - POP: nicht mehr signikant. In Regression 3.3a werden nur die Direktwahlergebnisse für den Bundestag verwendet, da die Wahlkreischarakteristika nur im Wahlkreis zum Tragen kommen. - D12: auch hier gilt: je gröÿer die Dierenz, desto kleiner die Wahlbeteiligung. Die Ergebnisse für die Variable POP (positiv in UK, negativ in BRD) könnten dadurch erklärbar sein, daÿ POP in UK die Wahlkreischarakteristika abbildet und insignikant wird, wenn man die gelaggte TUO hinzufügt (die dann auch die Wahlkreischarakteristika abbildet). In der BRD bildet POP die Bevölkerungsdichte und approximiert damit die Transportkosten um zur Wahl zu gelangen, da schon die gelaggte TUO-Variable die Wahlkreischarakteristika wiedergibt. Dieser Interpretation widerspricht jedoch das positive Vorzeichen bei POP in Regression 4.2a, das aber insignikant ist. 2.1.1.3 Erwartete Zahl der Stimmen Der erwartete Erlös ist umso gröÿer, je geringer die erwartete Zahl der Stimmen (S ), bei gegebenem Stimmenanteil(∂P/∂S < 0 in Gleichung 2.1) ist. Wenn in zwei Wahlkreisen das Verhältnis der Stimmen z.B. 2:1 erwartet wird, dann sollte die Wahlbeteiligung in dem Wahlkreis mit weniger Stimmen (z.B. 4:2) höher als im Wahlkreis mit mehr Stimmen (z.B. 6:3) sein. Somit lautet die Hypothese: je kleiner die Anzahl der Wähler, desto höher der Anreiz zur Wahl zu gehen. Wobei die Anzahl der Wähler abhängig ist von der Anzahl der Wahlberechtigten und der Enthaltungen. Die erwarteten Enthaltungen würden, wenn diese Hypothese zutrit, einen automatischen Stabilisierer der Wahlbeteiligung darstellen: Je mehr sich enthalten, desto niedriger ist die Zahl der Stimmen, desto höher der Anreiz wählen zu gehen, desto höher die Wahlbeteiligung. Die Regression in Kopie 5 erklärt die Wahlbeteiligung mit der Anzahl der Wahlberechtigten und der Bevölkerungsgröÿe. Die Vorzeichen der Koezienten der beiden Variablen β1 und β2 sind negativ. Die Nullhypothese, daÿ die Zahl der Stimmen die Enthaltung nicht beeinuÿt (erhöht), kann somit verworfen werden. 2.1. WAHLBETEILIGUNG 21 Das entspricht der Hypothese, je höher die Zahl der Stimmen, desto gröÿer die Enthaltung. Die Koezienten sind jedoch bei der Parlamentswahl (Knesset) insignikant. Die Erklärung dafür könnte mit der Wirkung des Verhältniswahlrechts für die Knesset zusammenhängen, da es in diesem Fall egal ist, welches Ergebnis in den betreenden Gemeinden prognostiziert worden ist und die Anzahl der Stimmen oder Wahlberechtigten im Wahlkreis nicht mehr entscheidend ist. Das Vorzeichen des Koezienten γ der Variable Einkommen ist negativ. Die Überlegungen in Abschnitt 2.1.2.4 legen nahe, daÿ das Einkommen die Opportunitätskosten der Zeit approximiert, die man für das Wählen aufwenden muÿ und somit ein hohes Einkommen zu niedriger Wahlbeteiligung führt. 2.1.1.4 Politische Urteilskraft Der erwartete Erlös ist umso gröÿer, je gröÿer das Vertrauen in die eigene politische Urteilskraft. Politische Urteilskraft bezieht sich auf die Varianz der Prognose (siehe Abbildung 2.1) bezüglich der Politikerwartung, Kräfteverhältnis und der Voraussage der Wahlbeteiligung, wobei die Varianz von den Informationskosten abhängen sollte. Abbildung 2.1: Politische Urteilskraft Partei1 Partei2 2.1.1.5 Pichtgefühl Der erwartete Erlös ist umso gröÿer, je gröÿer das staatsbürgerliche Pichtgefühl (P f ) ist (∂D/∂P f > 0 in Gleichung 2.1). Das Ergebnis der Umfrage (in Kopie 6), welche Assoziationen mit dem Begri Wahl geweckt werden, legt nahe, daÿ Pichtgefühl eine gewichtige Rolle bei der Wahlbeteiligung spielt. 22 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS 2.1.1.6 Sozialer Druck Der erwartete Erlös ist umso gröÿer, je gröÿer der soziale Druck (SD) (z.B. Rufverlust bei Enthaltung) (∂D/∂SD > 0 in Gleichung 2.1)ist. 2.1.2 Kosten 2.1.2.1 Frustration Man geht nicht zur Wahl, wenn man weiÿ, wie schlecht die Politik ist, die gemacht wird. 2.1.2.2 Transportkosten Die Transportkosten können beispielsweise durch die Bevölkerungsdichte approximiert werden. 2.1.2.3 Wahlsteuer Eine Wahlsteuer könnte aufgrund der bei der Durchführung anfallenden Kosten (Druck-, Zähl- und Verwaltungskosten) erhoben werden. Wobei wahrscheinlich schon geringe Beträge groÿe Auswirkungen haben, wie die Erfahrung in den Südstaaten der USA gezeigt hat, wo durch eine Wahlsteuer (poll tax) die ärmere schwarze Bevölkerung (erfolgreich) von der Wahl abgehalten wurde. Eine Wahl ohne Wahlsteuer ist aufgrund der tatsächlich anfallenden Kosten eine subventionierte Wahl. Läÿt sich eine Wahlsubvention durch positive externe Eekte der Wahlbeteiligung rechtfertigen? Eine hohe Wahlbeteiligung könnte eine hohe Legitimation der Regierung bewirken und dadurch eine politische Stabilität, sozialen Frieden und eine Vermeidung von Bürgerkriegen nach sich ziehen. Was spricht gegen eine hohe Wahlbeteiligung und Legitimation? Eine hohe Legitimation ermutigt Politiker gegen den Wählerwillen zu handeln. In den USA kann sich der Präsident eher nach einem Erdrutschsieg durchsetzen. Eine Subvention senkt den Anreiz des Politikers die Wähler zu überzeugen. Somit sinkt die Qualität der Information, des Wahlkampfes und der politischen Entscheidungen. Eine Subvention erhöht die Wahlbeteiligung und damit nimmt der Informationsstand und die Präferenzintensität des marginalen Wählers ab. Es ndet somit eine Verzerrung gegenüber Leuten mit hoher Präferenzintensität statt. Negative 2.1. WAHLBETEILIGUNG 23 externe Eekte der Ergebnisbeeinussung sprechen für eine (allerdings nach dem Abstimmungsverhalten dierenzierte) Wahlsteuer (siehe Abschnitt 3.7). 2.1.2.4 Opportunitätskosten der Zeit Das Argument für einen negativen Einuÿ des Einkommens auf die Wahlbeteiligung stellt auf die Opportunitätskosten einer Wahlbeteiligung ab. Bei einem hohen Einkommen sind die Kosten zur Wahl zu gehen hoch, weil man in dieser Zeit nicht arbeiten kann und folglich auf viel Geld verzichten muÿ. Zu dieser Hypothese lassen sich eine Reihe von Gegenargumenten ins Feld führen. Frey führt an, daÿ das Einkommen die Opportunitätskosten senkt, da es dem Kopfarbeiter egal ist, wo er arbeitet. Er kann auch auf dem Weg ins Wahllokal arbeiten. Das setzt voraus, daÿ der Umfang der Kopfarbeit mit dem Einkommen steigt. Downs argumentiert, daÿ der Einkommenseekt den Substitutionseekt übersteigt. Ein Reicher hat niedrigere Opportunitätskosten als ein Armer, wenn man von einem abnehmenden Grenznutzen des Einkommens ausgeht. Die Opportunitätskosten in Form von Einkommen sind zwar höher, aber nicht in Form von entgangenem Nutzen. Bernholz argumentiert über das Bildungsniveau. Demnach sind die Informationskosten eines gebildeten Bürgers niedriger und das Vertrauen in die eigene politische Urteilskraft höher. Weiterhin kann ein höheres staatsbürgerliches Pichtgefühl erwartet werden. Dagegen läÿt sich anführen, daÿ mit hohem Bildungsniveau die geringen Parteiendierenzen und die geringe Wahrscheinlichkeit der Ergebnisbeeinussung eher erkannt werden. Auÿerdem sind exzentrische Präferenzen eher wahrscheinlich. Die Pro-Kopf-Zahlungen der Reichen sind gröÿer als die Pro-Kopf-Transfers an die Armen. Für die Reichen steht mehr auf dem Spiel und die Opportunitätskosten der Nichtwahl steigen folglich mit dem Einkommen. Bei Marx ist der Staat der Büttel der Groÿkapitalisten. Demzufolge sind die Reichen mehr an einem bestimmten Wahlausgang interessiert. Dagegen lieÿe sich einwenden, daÿ der Reiche weniger von der Anarchie zu befürchten hat, wenn er auch der Stärkere oder Cleverere ist. Ein anderes Marx'sches Argument lautet, daÿ die Ärmeren aufgrund der Entfremdung eher frustriert sind. Alles in allem lassen sich theoretische Argumente für beide Wirkungsrichtungen des Einkommens auf die Wahlbeteiligung anführen. Die Entscheidung ist also empirisch zu erbringen. Die in Kopie 5 vorgestellte Regression für Israel zeigt 24 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS einen signikant negativen Zusammenhang zwischen Einkommen und Wahlbeteiligung für die Kommunalwahlen und manchmal einen insignikant positiven für die Wahlen der Knesset. 2.2 Informationsverwertung 2.2.1 Informationsstand Wie bestimmt sich der politische Informationsstand des Wählers? πI = PI (I)PW EW + EP (I) − C(I) πI ist der Gewinn aus der politischen Information, EW der Erlös aus der Wahlbeteiligung, wenn die Information für die Wahlentscheidung ausschlaggebend ist (PI = 1) und die eigene Stimme das Wahlergebnis beeinuÿt (PW = 1). C sind die Kosten der politischen Information und EP ist der private Erlös der Information, beispielsweise Unterhaltungswert oder beruiche Erlöse bei einem Journalisten. Bei einem PI ≈ 0 ergibt sich für den optimalen politischen Informationsstand: ∂C ∂EP = ∂I ∂I Somit entscheidet nur das private Kalkül über den Umfang der Informationsaufnahme und nicht der Wahlausgang, der über EW wirkt. Welche Bevölkerungsschichten sind am besten informiert? Der Humankapitalist mit niedrigen Informationskosten und der beruiche und hobbymäÿige Informationsverwerter, der einen hohen Grenzerlös besitzt. 2.2.2 Informationsart Aus dem geringen Anreiz, sich zu informieren, folgt für die Art der beim Wähler entscheidenden Informationen, daÿ sie leicht beschabar und verwertbar sein müssen. Und was folgt daraus für den politischen Prozeÿ? Es ndet eine Personalisierung der Politik statt, da Sympathie und Vertrauenswürdigkeit als leicht zu beschaende und verwertende Informationen wichtig werden. Die Ideologienachfrage nimmt zu. Es werden allgemeine Aussagen wichtig, wie z.B. ob man von einer vorgeschlagenen Umverteilungsmaÿnahme protiert oder 2.2. INFORMATIONSVERWERTUNG 25 nicht. Bei Referenden, wo speziellere Informationen aufgenommen werden müssen, sind die Wahlbeteiligungen niedriger als bei Parlamentswahlen. Es werden eher Informationen aus der jüngsten Vergangenheit beschat und verwertet, da die Speicherung kostspielig ist. Das impliziert ein zeitliches politisches Muster: Wahlgeschenke sollte man vor der Wahl verteilen und die Grausamkeiten möglichst schnell nach der Wahl, lange vor der nächsten, begehen. Diese Überlegungen führen zum sogenannten politischen Konjunkturzyklus, der im nächsten Abschnitt besprochen wird. Die Auswirkungen auf die Zukunft spielen eine geringere Rolle, was das Investitionsverhalten, das langfristigen Überlegungen folgen sollte, beeinuÿt. Es wird keine Ursachenforschung für Politikversagen betrieben. 2.2.3 Politischer Konjunkturzyklus 2.2.3.1 Hypothese von Nordhaus Der politische Konjunkturzyklus ist Ergebnis der Art der Informationen, die die Wähler zu verarbeiten bereit sind. Nordhaus2 und McRae bauen auf der modizierten Phillipskurve auf, die in Abbildung 2.2 dargestellt ist. Sie ist durch einen lediglich temporären Trade-o charakterisiert, der nur durch unerwartete Schocks erreichbar ist. Diese Phillipskurve ist langfristig senkrecht. Der Politiker Abbildung 2.2: Modizierte Phillipskurve π Nash-GG: Schnittpunkt der Reaktionsfunktionen Wahlkonstellationslinie Beschäftigungswirkung verput, Ination bleibt Isostimmenlinie U 2 siehe Nordhaus (1975) 26 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS wird auf der kurzfristen Phillipskurve einen Punkt wählen, der tangential zu einer Isostimmenlinie ist, die wiederrum konkav ist. Anschlieÿend verput die Wirkung des monetären Sektors auf den realen, es gibt keine Beschäftigungswirkung mehr, jedoch bleibt die Ination. Den Mechanismus kann man sich an der Geldnachfragegleichung in der sogenannten Caganform klar machen: M = k · Y η · e−²·i P P̂ = M̂ − η · Ŷ + ²∆i | · (1 − L) ln(.) (2.2) Eine Erhöhung des Geldmengenwachstums wirkt der Erfahrung nach mit einer Verzögerung von einem Jahr auf die Produktion und von zwei Jahren auf die Ination. Zunächst ergibt sich ein Liquiditätseekt auf dem Geldmarkt und der Zins sinkt. Daraufhin paÿt sich die Produktion an, es erhöht sich die Ination und der Produktionseekt verschwindet wieder. Die Wirtschaft bendet sich wieder auf der langfristigen Phillipskurve. Was passiert vor der Wahl? Das Manöver läÿt sich als ein sogenannter Loop (siehe Abbildung 2.3) im Phillipskurvendiagramm darstellen. Es wird vor der Wahl ein Schock erzeugt (von A nach B in Abbildung 2.3), so daÿ man sich nach links oben auf der kurzfristigen Phillipskurve bewegt. Wenn sich die Erwartungen angepasst haben, gelangt man von Punkt B nach C. Nach der Wahl werden die Grausamkeiten begangen und eine Stabilisierungsrezession ist die Folge (Bewegung von Punkt C nach D), auch da verput die Arbeitslosenwirkung (Bewegung von Punkt D nach A) und man bendet sich wieder im Ausgangspunkt. Das NashAbbildung 2.3: Phillipskurven Loop π C B A D U gleichgewicht liegt bei einer positiven Ination auf der langfristigen Phillipskurve. Eine mögliche Modikation betrit die Steigung der kurzfristigen Phillipskurve: Mit steigender Ínation kann man erwarten, daÿ die Geldillision schwindet und die kurzfristige Phillipskurve immer steiler wird. 2.2. INFORMATIONSVERWERTUNG 27 Diese Vorhersage von Loops um die Wahltermine herum läÿt sich empirisch einfach überprüfen. Der erwartete Verlauf ist eine Bewegung nach links oben vor einer Wahl. Wobei die Traumkonstellation darin besteht, daÿ man 2 Jahre vor der Wahl die Geldmenge verknappt, so daÿ zur Wahl die Inationsrate sinkt, und 1 Jahr vor der Wahl die Geldmenge wieder erweitert, so daÿ die Produktion und Beschäftigung zur Wahl ansteigt. Kopie 7 zeigt die Phillipskurve für die BRD. Die Nordhaus-Hypothese bestätigt sich in den Wahljahren 60, 64, 69, 76, 80, 87, 90 und nicht in den Jahren 72, 83, wobei hier jeweils vorgezogene Wahlen stattfanden und 94 und 98, wo schon die Maastrichtkriterien ihre Wirkung zeigten. Loops sind in den Jahren 75-81, 67-69 und 89-95 zu sehen. Für die USA (Kopie 8) bestätigt sich die Hypothese in den Wahljahren 64, 68, 72, 76, 84, 88, 96 und nicht in den Jahren 80 (Carter nicht wiedergewählt) und 92 (Bush nicht wiedergewählt). 2.2.3.2 Popularitätsfunktionen Besteht ein Zusammenhang zwischen der ökonomischen Situation und den Zielen eines Politikers? Die Wirkungskette zwischen wirtschaftpolitischen Instrumenten und der Zielfunktion eines Politikers läÿt sich folgendermaÿen dreiteilen: 1. Wirtschaftpolitische Instrumente: Fiskal- und Geldpolitik, 2. Zwischenziele: Boom, Preisniveau und Vollbeschäftigung und 3. Ziele: Wiederwahl und Popularität. Somit läÿt sich die Frage nach dem Zusammenhang zwischen der ökonomischen Situation und den Zielen eines Politikers konkretisieren. Welcher Zusammenhang besteht zwischen den Zwischenzielen und den Zielen? Dieser Frage widmen sich sogenannte Popularitätsfunktionen, die die Wiederwahl oder Popularität eines Politikers oder einer Regierung durch die wirtschaftliche Situation, den Zwischenzielen erklären und vorhersagen. Die Ergebnisse dieser Art von Untersuchungen lassen sich wie folgt zusammenfassen: - Es ist durchschnittlich ein Popularitätsverlust von 1.7% während einer Amtszeit zu beobachten. Dies läÿt sich als eine Vertrauenskapitalabnutzung interpretieren. Dagegen spricht jedoch, daÿ hierfür eine anfängliche Illusion (irrationales Verhalten) unterstellt werden muÿ. Andererseits läÿt sich der Popularitätsverlust mit einer Unterhaltungsfunktion der Politik vereinbaren. - Es ist ein soziotropisches Verhalten zu beobachten, wonach die (allgemeine) Arbeitslosenquote stärker als die eigene Arbeitslosigkeit wiegt. 28 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS - Eine aussenpolitische Krise stärkt die eigene Regierung. Das war so bei Milosevic und ist auch bei demokratischen Regierungsformen zu beobachten. - Die Beziehung des Zwischenzieles zur Popularität ist stärker als zur Wiederwahl. Das läÿt sich begründen mit der Feststellung, daÿ in die Popularitätsbekundungen eher kurzfristige Gefühlswallungen eingehen, wohingegen das Wahlverhalten stärker von Gewohnheiten und Trägheiten (Stammwähler) bestimmt ist. - Reiche reagieren stärker auf Ination und Arme auf Arbeitslosigkeit. Kopie 9 zeigt eine geschätzte Popularitätsfunktion. Der Einuÿ der Inationsund Arbeitslosenrate auf die Popolarität der Regierungen ist in Australien, Deutschland und den USA signikant negativ. Signikant positiv wirken sich Sozialtransfersanteile am verfügbaren Einkommen aus. Welcher Zusammenhang besteht zwischen den wirtschaftspolitischen Instrumenten und den Zwischenzielen? Dabei ist vor allem interessant, welche Instrumente verstärkt vor Wahlen eingesetzt werden bzw. welche Zwischenziele besondere Muster vor Wahlen zeigen. Dies ist in Kopie 10 zu sehen, wo die Wirtschaftswachstums-, Inations- und Arbeitslosenraten auf den Unterschied zwischen Wahl- und Nichtwahljahren untersucht wurden. Die einfach besteuerten Werte sind solche, deren Anteil an Wahljahren denjenigen an Nichtwahljahren um mindestens 10% übersteigen und deren Anteil an Wahljahren über 50% ist. Die zweifach besteuerten Werte sind in Wahljahren im Durchschnitt gröÿer als in Nichtwahljahren. Am deutlichsten sind Maÿnahmen der Regierung vor den Wahl im Wahljahr hinsichtlich der Reduktion der Arbeitslosigkeit zu erkennen. 2.2.3.3 Partisan Hypothese von Hibbs Diese Hibbs'sche Hypothese ist kein Widerspruch, sondern eine Ergänzung zu Nordhaus. Demnach hängt der Zeitpunkt der anvisierten Zwischenvariablen nicht nur vom Wahltermin ab, sondern es existiert eine Präferenz für bestimmte Zwischenvariablen in Abhängigkeit von der Coleur der Partei. Der letzte Punkt bei den typischen Ergebnissen der Untersuchungen von Popularitätsfunktionen auf Seite 28 legt nahe, daÿ die Parteien ihre Klientel (Arm/Reich) mit den von ihnen am Herzen liegenden niedrigen Zwischenvariablen versorgen (Arbeitslosikeit/Ination). 2.2. INFORMATIONSVERWERTUNG 29 2.2.3.4 Rational Partisan Hypothese von Alesina Der einfache Nordhaus/McRae Mechanismus ist bei rationalen Erwartungen nicht plausibel.3 Die Fiskal- und Geldpolitik wird antizipiert, und es stellen sich keinerlei Wirkungen auf das Wirtschaftswachstum und die Arbeitslosenquote ein, weil eine verzögerungsfreie Reaktion auf die Ination stattndet, so daÿ keinerlei Mengeneekte entstehen. D. h. die Wähler antizipieren die Politiken der Parteien, den Wahlausgang können Sie jedoch nicht antizipieren. Die Linken bekämpfen die Arbeitslosigkeit mit expansiver Konjunkturpolitik und akzeptieren, daÿ die Ination steigt. Die Rechten bekämpfen Ination und nehmen Arbeitslosigkeit in Kauf. 2.2.3.5 Empirische Untersuchungen In Kopie 11 lautet die Hypothese: Wenn die Linken gewinnen, führt das zu einem positiven I5, wenn die Rechten gewinnen führt das zu einem negativen I5. Über siebzig Prozent der Fälle entsprechen dieser Hypothese. 60 Prozent der Ergebnisse für die linke Regierung sind unvereinbar mit Nordhaus. In Kopie 12 wird der Instrumenteneinsatz untersucht. Die Ergebnisse, die gröÿer als 1 sind, sind mit der Nordhaus/McRae Hypothese vereinbar, und es liegt ein politischer Konjunkturzyklus vor. Die durchschnittlichen Wachstumsraten vor der Wahl sind kleiner als nach der Wahl. Bei Beachtung von einem gelaggten Jahr sind die Ergebnisse noch klarer. In Kopie 13 ist die abhängige Variable die Wachstumsrate des Geldangebotes. Es handelt sich um eine kombinierte Quer-Längschnittsregression über 18 Länder in den Jahren 1958-87. Die Koezienten der Variable PBC4 und PBC56 sind signikant positiv (im oberen Teil der Abbildung). M1 wächst immer schneller, je näher der Wahltermin rückt, womit die Nordhaus/McRae Hypothese bestätigt wird. Bei der Partisan Hypothese muÿ zwischen Links und Rechts unterschieden werden (im mittleren Teil). Rechte spielen vor der Wahl das Spiel häuger (signikant). Die Linken verfallen nach der Wahl in Wahleuphorie und können vor den nächsten Wahlen nicht mehr den Geldhahn aufdrehen (Bestätigung für Alesina). Für Deutschland sind die Koezienten positiv, aber insignikant (im unteren Teil). Wenn es richtig ist, daÿ ein oder zwei Jahre vor der Wahl besonders expansive Geldpolitik betrieben wird, würde man erwarten, daÿ ein oder zwei Jahre vor der Wahl die Aktienkurse steigen, weil der Zins sinkt. Die Zahlen für diese Beobach3 Siehe Alesina (1989). 30 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS tung sind in Kopie 14 zu sehen. Vor der Wahl gehen die Aktienkurse hoch (1985) und nach der Wahl wieder runter (1987), wo sich die Grausamkeiten bemerkbar machen. Bei den bisher vorgestellten Hypothesen wird davon ausgegangen, daÿ die Regierungen die Inationsraten direkt steuern können. Das verwundert zunächst, würde man doch denken, daÿ dies aufgrund der in den Industrieländern meistens unabhängigen Zentralbanken nicht so ohne weiteres möglich ist. Jedoch muÿ zwischen Unabhängigkeit und Neutralität unterschieden werden. Wenn die Mitglieder des Zentralbankrates nicht neutral sind, entweder weil sie eine eigene bestimmte politische Präferenz haben oder weil sie von bestimmten Parteien ernannt worden sind, ist es denkbar, daÿ sie die Wieder- bzw. Abwahl einer Regierung durch eine entsprechende Geldpolitk unterstützen. Dazu hat Vaubel (1993) in Kopie 15 die sogenannte Parteipräferenzhypothese untersucht. Zunächst untersucht er, ob generell eine expansive Geldpolitik betrieben wird, wenn die Bundesregierung eine Mehrheit im Zentralbankrat hat (unabhängig vom zeitlichen Abstand zur nächsten Wahl, also in allen Regierungsjahren). Diese Hypothese konnte nicht bestätigt werden. Betrachtet man jedoch lediglich die Vorwahljahre (in Kopie 15 die Hypothese II genannt) kann diese Hypothese nicht verworfen werden. Kopie 16 zeigt eine Untersuchung der ökonomischen und politischen Bestimmungsgründe der Geldmengenwachstumsrate. Demnach (erste Spalte) reagiert die Geldpolitik antizyklisch auf die Wirtschaftswachstums- und Arbeitslosenrate, allerdings nur bei der Arbeitslosenrate signikant. Die gelaggte Inationsrate weist das falsche Vorzeichen auf. Ein Leistungsbilanzüberschuÿ führt zu einer insignikant expansiven Geldpolitik, eine Abwertung zu einer (signikant) kontraktiven Geldpolitik. Die Währungssysteme Bretton-Woods und das EMS (in den 80er Jahren) waren von expansiver bzw. restriktiver Geldpolitik geprägt. Der untere Teil der Regression umfasst die Variablen zu den politischen Konjunkturzyklusmodellen. Die Abwesenheit eines einfachen Nordhauszykluses kann in der zweiten Spalte abgelehnt werden. Auÿerdem scheinen linke Regierungen eine höhere Geldmengeexpansion zu präferieren. Die Vaubel'sche Parteipräferenzvariable hat in der dritten Spalte zwar das richtige Vorzeichen, ist aber insignikant. Problematisch ist, daÿ diese Variable für jedes Quartal konstruiert worden ist und somit nicht nur die Zeitpunkte wechselnder Mehrheiten betrachtet werden. Daraus könnte sich die Insignikanz der Koezienten erklären, da bei der verwendeten Methode Noise entsteht. D.h. in die Untersuchung werden nicht informative Zeitpunkte einbezogen, worunter die Genauigkeit der Schätzung leidet, der Standardfehler des Schätzers also steigt und somit die t-Statistiken nicht groÿ genug sind, um die Nullhypothese abzulehnen. 2.2. INFORMATIONSVERWERTUNG 31 Die vierte Spalte testet eine Hypothese, wonach der Zentralbankrat nur teilweise unabhängig ist. Allerdings basieren die Schätzungen in der vierten und fünften Spalte (H3/7 und H4/8 ) auf der falschen Annahme, daÿ die Regierung zur Änderung des Bundesbankgesetzes eine Zustimmung des Bundesrates benötigt. Kopie 17 untersucht den Einsatz des nanzpolitischen Instrumentes Staatsausgaben in Wahljahren. Im Durchschnitt lassen sich in den Wahljahren höhere Wachstumsraten der Staatsausgaben feststellen als in den Nichtwahljahren. Die Messung für die Vorwahljahre macht mehr Sinn und zeigt auch deutliche Anzeichen für einen politischen Konjunkturzyklus. Kopie 18 erklärt die Staatsverschuldungsquote in einer kombinierten Quer-Längsschnittanalyse für 13 OECD-Länder in den Jahren 1960-85. Ein Anstieg der Arbeitslosenrate erhöht die Staatsverschuldungsquote, ebenso ein sinkendes Wirtschaftswachstum. Dabei ist zu beachten, daÿ beide Variablen hoch korreliert sein müÿten, im Ergebnis aber die Koezienten trotzdem signikant sind. Weiterhin ist zu beachten, daÿ bei der Wirtschaftswachstumsvariablen nicht zwischen den Wirkungen automatischer Stabilisatoren (bei Wachstum steigen die Einnahmen und sinken die Ausgaben der Arbeitslosenversicherung) und diskretionärer Stabilisierungspolitik, und nur auf die kommt es bei den politischen Konjunkturzyklushypothesen an, unterschieden wird. Mit der Variable DRB wird für den Eekt steigender Zinsbelastung kontrolliert. Die Variable ELE zeigt an, daÿ die Staatsschuld vor Wahlen signikant ansteigt. Hinter der Variable POL steht die Hypothese, daÿ Regierungen aus vielen Koalitionspartnern (oder im Externfall bei Minderheitsregierungen) viele Interessensgruppen zu befriedigen sind, was sich am unauälligsten durch Staatsverschuldung nanzieren läÿt. Kopie 19 untersucht den Einsatz weiterer vier wirtschaftpolitischer Instrumente. Staatsausgaben werden hier unanhängig vom Wahlzyklus durch das Popularitätsdezit erklärt. Oensichtlich spielt ein Popularitätsdezit für die Staatsausgaben jederzeit eine Rolle. Über Transfers können sehr direkt Wahlgeschenke verteilt werden, was bei der SPD eine höhere Rolle als bei der CDU spielt. Das Transferaufkommen scheint jedoch keinen signikanten Zusammenhang zum Steueraufkommen zu haben. In Kopie 20 werden nochmals Sozialausgaben in Zusammenhang zu Wahljahren gebracht. Es zeigt sich, daÿ im letzten Jahr der Legislaturperiode der Anteil der sozialpolitischen Leistungsgesetze besonders hoch ist, was eindeutig auf Wahlgeschenke hindeutet. Kopie 21 unterscheidet zwischen dem linken und rechten Flügel. Bei der bürgerlichen Koalition ist eine überdurchschnittliche Expansion in den Wahljahren zu 32 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS beobachten, bei der SPD hingegen Kürzungen nach der Wahl und nichts auälliges in den Wahljahren bei den Expansionsgesetzen. Kopie 22 zeigt, daÿ die Opposition typischerweise Ausdehnungsgesetze unterstützt und gegen Kürzungsgesetze ist. Weitere Statistiken zeigen, daÿ vor Wahlen die Arbeitsbeschaungsmaÿnahmen ausgeweitet werden, um die Statistik zu schönen und Lohnerhöhungen vor der Wahl im öentlichen Dienst davon abhängen, was für eine Regierung sich zur Wiederwahl stellt. Bei einer linken Regierung üben die Gewerkschaften im öentlichen Dienst Lohnzurückhaltung. Bei einer rechten Regierung versuchen die Gewerkschaften groÿe Lohnerhöhungen durchzusetzen, um die Regierung in Schwierigkeiten zu bringen. 2.2.3.6 Lösungsmöglichkeiten Wenn es für einen politischen Konjunkturzyklus, sowohl in der Geld- als auch in der Finanz- und Sozialpolitik, zahlreiche Indizien gibt, stellt sich die Frage, was zu tun ist? Zu beachten ist, daÿ sich Politiker in erster Linie einer Dezitnanzierung bedienen, um Wahlen zu gewinnen. 2.2.3.6.1 Geldpolitik 1. Funktionale Unabhängigkeit: Der Zentralbankrat ist nicht weisungsgebunden, kann die geldpolitischen Instrumente frei einsetzen, um die Ziele und Zwischenziele zu erreichen. Das ist nicht möglich bei einem von der Regierung vorgegebenen Wechselkursziel. 2. Personelle Unabhängigkeit: Lange Amtszeiten, am besten ist ein Kandidat nur einmal zu ernennen. Allerdings ist auch dann das Phänomen der revolving door möglich. Deshalb sollte nach einer Zentralbankratesmitgliedschaft kein politisches Amt angenommen werden dürfen, wobei die Denition von politischem Amt Abgrenzungsprobleme schat. Um die politische Neutralität der Zentralbankratmitglieder zu gewährleisten, kann eine Parteibuchsperre verhängt werden. Eine bestimmte Qualikation sollte eigentlich selbstverständlich sein (Volkswirt). Es sollten klare Anreize gesetzt werden: Budgetkürzung bei hoher Ination, Rücktritt bei mehrere Jahre andauernder Überination, wobei in Notsituation auch eine parlamentarische Absolution erteilt werden könnte. Bei einer Umsetzung für die europäische Zentralbank wäre ein Verzicht auf die Konvergenzkriterien möglich, da bekanntlich gilt: every fool can balance a budget for one year, aber ein Anreizsystem auch in der Zukunft wirkt. 2.2. INFORMATIONSVERWERTUNG 33 2.2.3.6.2 Finanzpolitik Sinnvoll wären Referenden bei: Neuverschuldung vor Wahlen, Ausgabenerhöhungen und Staatsquotenplafondierung (EU Vorschlag). 2.2.3.7 Langfristige Investitionsentscheidungen Aus der gegenwartsbezogenen Informationsverarbeitung der Wähler (zukünftige Erträge werden zu stark abdiskontiert) folgen ineziente, langfristige Investitionsentscheidungen. Bei den Projekten (E=Erträge, K=Kosten) A(Kt Kt+1 Et+2 Et+3 Et+4 ) und B(Et Et+1 Kt+2 Kt+3 Kt+4 ) würde die falsche Allokation B gewählt. Wer könnte in der Politik eine langfristige Orientierung im Programm anbieten? Parteien, die keine Chance haben, an die Macht zu gelangen, z. B. Oppositionsparteien, denen es nicht um die Wiederwahl geht. Diese Parteien haben den Anreiz, langfristige Perspektiven zu formulieren. Oder von Parteien der Mitte, wie immer an der Regierung sind (FDP). 2.2.4 Informationsverhalten der Wähler Das Wahlverhalten wird von Ereignissen, wie beispielsweise die Barschel- oder Watergateaäre, einer selektiven Wahrnehmung, Verwertung und Speicherung beeinusst. Die Bindung zu einer Partei entsteht bei der ersten Wahlbeteiligung, wenn die Eltern noch prägend wirken. Die starke Prägung in jungen Jahren läÿt sich erklären durch geringe Informationskosten, weil viel Zeit vorhanden ist und weil ein Interesse an Informationsverwertung besteht, aufgrund einer langen Armortisationsmöglichkeit dieser Investition. Unter welchen Umständen kann sich die politische Orientierung ändern? Bei schweren politischen Krisen, Aären, bei Berufserfahrung und einer geänderten Interessenlage. Diese Punkte führen nicht zu einer Umorientierung aufgrund gesuchter Information und werden durch die Vermeidung kognitiver Dissonanzen beeinuÿt. 2.2.5 Themenwahl Zu welchen Themen informieren sich die Wähler? Zu Themen, die im Beruf verwertet werden können und einen persönlich betreen. Ausgaben, die einer kleinen 34 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS Gruppe zugute kommen, werden deshalb von dieser wahrgenommen, während breit gestreute Kosten kaum wahrgenommen werden. Bei einzelnen Projekten sind Empfänger sehr viel besser informiert als diejenigen, die es bezahlen sollen. Deshalb würde man erwarten, daÿ Interessenverbände eine groÿe Macht besitzen, denn Verbandsinformationen haben einen groÿen Einuÿ auf die politischen Präferenzen und das Wahlverhalten ihrer Mitglieder. Der Grad der Organisierbarkeit hat einen starken Einuÿ darauf, wie gut die Mitglieder vor allem politisch informiert sind. Abbildung 2.4: Verteilung von Kosten und Nutzen konzentriert NUTZEN Widerstreitende Interessengruppen konzentriert KOSTEN breit gestreut (Gewerkschaft geberverbände) versus breit gesteut Staatsmännische Politik Arbeit- (Interessengruppen sind, mangels Konzentration der Nachfrage, nicht im Spiel) Befriedigung gut organisierter Interessengruppen Maximaler Freiraum für den Politiker (besonders bei Steuernanzierung ist die Zahl derer, die kaum informiert sind, groÿ) (der breitgestreute Nutzen wird kaum wahrgenommen) Kapitel 3 Ökonomische Theorie des Politikerverhaltens Die Situation des Politikers ist geprägt durch asymmetrische Information. Er weiÿ nicht, was Wähler wollen, und der Wähler weiÿ nicht, was der Politiker will. Somit ist Staatesversagen analog zum Marktversagen aufgrund von Informationsmangel möglich. Das einfachste Modell beginnt mit folgenden Annahmen: einfache Mehrheitsentscheidung, ohne Tauschgeschäfte, ohne Ausgleichszahlungen, ohne Bürokratie, ohne Interessengruppen. Die folgenden Fragen werden untersucht: Entscheidet in einer Demokratie immer eine Mehrheit und sind die erreichten Gleichgewichte stabil? 3.1 Mehrheitsentscheidungen in einer repräsentativen Demokratie Eine repräsentative Demokratie ist ein zweistuges Entscheidungsverfahren, weil auf der ersten Stufe die Politiker oder Parteien gewählt werden und sie auf der zweiten Stufe im Parlament durch Abstimmungen über verschiedene Alternativen entscheiden. In Groÿbritannien (ähnlich den Präsidentschaftswahlen in den USA) werden auf der ersten Stufe mit einem Mehrheitswahlrecht im Wahlkreis die Politiker gewählt, die dann auf der zweiten Stufe im Mehrheitswahlrecht im Parlament Entscheidungen treen. 35 36KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Entscheidet in einer Demokratie eine Mehrheit? Nicht unbedingt, insbesondere bei zweistugen Mehrheitsentscheidungen. Betrachten wir in Abbildung 3.1 den Fall einer Entscheidung über die Alternativen A und B in fünf Wahlkreisen (IV): Zählt man die Mehrheitsverhältnisse auf der zweiten Stufe (im Parlament, Abbildung 3.1: Verzerrung im zweistugen Entscheidungsverfahren Wähler für A B Gewinner I 3 2 A Wahlkreise II III IV 3 3 1 2 2 4 A A B V 1 4 B P 11 14 nach gewonnenen Wahlkreisen, untere Zeile), gilt 3:2 für A:B. Auf der ersten Stufe (nach Stimmen in der Bevölkerung, rechte Spalte) ergibt sich 11:14 für A:B. D.h. in einem zweistugen Verfahren gewinnt Alternative A, in einem einstugen Verfahren gewinnt B. Die Verzerrung des zweistugen Verfahrens wird von der Knappheit der Wahlen in den einzelnen Wahlkreisen beeinuÿt. Die Alternative A hat in den Wahlkreisen jeweils nur knapp gewonnen, wohingegen B immer haushoch. Im Extremfall der ungünstigsten Verteilung auf die Wahlkreise kann das bedeuten, daÿ nur 1/3 der Bevölkerung (auf der ersten Stufe) eine Mehrheit auf der zweiten Stufe zustandebringen.1 Ergebnis: In einer repräsentativen Demokratie kann eine Minderheit gewinnen. In Groÿbritannien gewinnt 1974 Labor unter Wilson, obwohl die Konservativen 300.000 Stimmen mehr hatten. In den USA ist diese Verzerrung aufgrund der Zweistugkeit auch schon bei den Präsidentschaftswahlen vorgekommen. In der BRD gab es 1997 sechs Überhangmandate im Parlament, wodurch die CDU/FDP Koalition die Mehrheit hatte. Die Entscheidungen des EU-Ministerrats sind ebenfalls zweistug: Zunächst werden in den Ländern die Bundestagsabgeordneten gewählt, daraus die Regierung und anschlieÿend gibt es Abstimmungen der verschiedenen Regierungen im Ministerrat der EU. Hierbei wird nicht berücksichtigt, wie knapp bzw. klar die Regierungen in den Mitgliedsländern gewählt worden 1W sei die Anzahl der Wahlkreise, W A die Anzahl der Wahlkreise, in denen die Alternative A gewinnt und n die Anzahl der Stimmen für Alternative B in jedem Wahlkreis. Dann bedeutet W A = bW (1), daÿ die Alternative A einen Anteil b an allen Wahlkreisen gewonnen hat. Der Ausdruck W A (n + 1) bezeichnet die Anzahl der Stimmen für Alternative A, bei der extremsten Verteilung der Stimmen: n + 1 Stimmen für A in den gewonnenen Wahlkreisen und keine in den von B gewonnenen Wahlkreisen. Die Anzahl aller Stimmen für B ergibt sich aus W n. Der A (n+1) . Setzt Anteil der Stimmen für Alternative A summiert über alle Wahlkreise lautet W AW(n+1)+W n b(1+n) b man darin W A = bW ein, ergibt sich limn→∞ b+n+bn = 1+b . Für eine einfache Mehrheit auf der zweiten (b = 0.5) genügen demnach 1/3 der Stimmen auf der ersten Stufe und für eine qualizierte Mehrheit (71%) ca. 42%. 3.2. MEHRHEITSENTSCHEIDUNGEN BEI MEHR ALS EINER ALTERNATIVE37 sind. Das heiÿt, aufgrund einer Zweistugkeit kann es passieren, daÿ z. B. der bürgerliche Flügel die Mehrheit im Ministerrat hat, obwohl bei Summierung der Stimmen in den einzelnen Ländern die Sozialdemokraten die Mehrheit hätten (analog dem Beispiel in Abbildung 3.1). Im Ministerrat ergibt sich dadurch eine Verkomplizierung, weil häug qualizierte Mehrheiten entscheiden, aber trotzdem kann es passieren, daÿ hinter dieser Entscheidung nur eine Minderheit der Wähler steht (z. B. weil die Ja-stimmer nur knapp gewählt worden sind und die Nein-stimmer haushoch gewonnen haben). 3.2 Mehrheitsentscheidungen bei mehr als einer Alternative In Deutschland ndet die Präsidentenwahl typischerweise mit mehr als zwei Kandidaten statt. Im ersten und zweiten Wahlgang entscheidet die Mehrheit der Mitglieder der Bundesversammlung. Wenn keine Mehrheit zustande kommt, gewinnt im dritten Wahlgang die Alternative mit der relativen Mehrheit (die meisten Stimmen). Der Präsident kann in so einem Fall von einer Minderheit gewählt worden sein. In Abbildung 3.2 wird gezeigt, daÿ ein Kandidat gewinnen kann, obwohl er in einer Stichwahl einem anderen unterlegen wäre. Im ersten und zweiten Abbildung 3.2: Relative Mehrheitsentscheidung bei mehr als einer Alternative Bundesversammlung 40% SPD Rau 15% FDP Hamm-Brücher 45% CDU Herzog R B H ordinale Nutzenreihenfolge RÂBÂH BÂHÂR HÂBÂR Wahlgang kann keine Partei seinen Kandidaten durchsetzen. Im dritten Wahlgang gewinnt Herzog. Es sei denn, eine Partei zieht ihren Kandidaten zurück. Macht dies die FDP, gewinnt Herzog, im Falle der SPD gewinnt Hamm-Brücher. Ergebnis: Herzog gewinnt, obwohl er in einer Stichwahl gegen Hamm-Brücher unterlegen wäre: für SPD und FDP gilt B  H, beide würden für Hamm-Brücher stimmen. Somit hat ein Kandidat mit 45% gegen 55% gewonnen. In Frankreich nden Präsidentschaftswahlen mit typischerweise drei Kandidaten statt: Konservative (Gaulisten), Mitte (Republikaner) und Sozialisten (Kommunisten). Das Verfahren besteht nicht aus einer relativen Mehrheitsregel wie in Deutschland, sondern aus einem Zwei-Runden-Verfahren: In der zweiten Runde gibt es eine Stichwahl zwischen den zwei Kandidaten, die in der ersten Runde die meisten Stimmen bekommen haben. In der ersten Runde iegt Balladur 38KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS raus, in der zweiten Runde gewinnt Chirac, da die Mitte Chirac gegenüber Jospin vollzieht, obwohl er möglicherweise in einer Stichwahl Balladur unterlegen wäre. 1987 passierte dasselbe in der ersten Runde, Giscard iegt raus, in der zweiten gewinnt Mitterand gegen Chirac, obwohl Mitterand gegen Giscard (vielleicht) verloren hätte. Ergebnis: Beim zweistugen Verfahren wird die Mitte zerrieben, das heiÿt das Verfahren ist polarisierend. In Frankreich wirkt dieser Tendenz das Parlament entgegen, wo Koalitionen zu bilden sind, bis eine Seite 50% hat. Die Mitte regiert in Frankreich über das Parlament und nicht über den Präsidenten. Wie erreicht man, daÿ diejenige Alternative gewinnt, die von einer Mehrheit präferiert wird. Die erste Möglichkeit besteht darin, Stichwahlen in beliebiger Reihenfolge durchzuführen (siehe Abbildung 3.3 am Beispiel von Abbildung 3.2). Ergebnis: B gewinnt unabhängig von der Reihenfolge. Das heiÿt mit diesem VerAbbildung 3.3: Stichwahlen Möglichkeit 1. 2. 3. 1. Runde R≺B R≺H H≺B 2. Runde BÂH BÂH BÂH Gewinner B B B fahren kann verhindert werden, daÿ jemand die Wahl gewinnt, der von einem anderen Kandidaten geschlagen worden wäre. Hier würde also immer die Mitte (B) gewinnen. Diese Lösung funktioniert jedoch nicht immer: Bei einer Änderung der CDU Präferenz von B  R zu R  B (die restlichen Relationen bleiben) ergibt sich H ≺ B ≺ R ≺ H, es liegt also eine Intransitivität oder zyklische Instabilität vor. Dieses Problem heiÿt Condorcet-Paradox (1785) und wurde von Arrow formalisiert. Ist dies eine kuriose Randerscheinung oder ein echtes Problem? Unter welchen Bedingungen kann das auftreten? Bei paarweisen Abstimmungen, wie sie bei Gesetzesvorlagen im Parlament vorkommen: Annahme oder Ablehnung. Der Grund liegt darin, daÿ die Entscheidungen binär sind (nur zwei Optionen), obwohl die Optionen nicht binär sind (mehr als zwei Optionen). Das heiÿt, es liegt eine ungenaue Präferenzabbildung vor und die Lösung wäre ein Übergang auf ein kardinales Nutzenmessniveau. Es tritt auf bei Mehrheitsentscheidungen, die nicht die Präferenzintensität der Minderheit berücksichtigen. Es entstehen negative externe Eekte bei den Minderheiten, die aber nicht gemessen werden. Im Marktprozeÿ tritt dies nicht auf, da niemand überstimmt wird, ohne daÿ er befragt wird, wie seine Zahlungsbereitschaft (kardinale Präferenzbekundung) ist. Zu zeigen: das Stabilitätsproblem verschwindet auch in der Politik, wenn Ausgleichszahlungen eingeführt werden, das heiÿt bei kardinaler statt ordinaler Vorgehensweise (Ab- 3.3. MEHRHEITSENTSCHEIDUNGEN MIT ALTERNATIVENPAKETEN 39 bildung 3.4). Hier liegt eine zyklische Instabilität vor C ≺ B ≺ A ≺ C. Bei der Abbildung 3.4: Ausgleichszahlungen Partei I II III P Alternativen A B C 4 -1 -2 -2 4 -1 -1 -2 5 1 1 2 P 1 +1 +2 Möglichkeit von Ausgleichszahlung ist jedoch eine stabile Lösung möglich: ist die Lösung mit der höchsten Spaltensumme stabil? II will von C nach B, II+I bieten 5 + 1, III 7, um in C zu bleiben, das heiÿt es ndet keine Bewegung von C nach B statt. I will von C nach A, I bietet 6, II + III 7, um in C zu bleiben, somit kann keine Koalition eine Bewegung weg von C erreichen, weil die andere Seite jeweils mehr bieten kann, um in C zu bleiben. 3.3 Mehrheitsentscheidungen mit Alternativenpaketen Bei einer etwas anderen Interpretation von Abbildung 3.4 ergibt sich wieder keine stabile Lösung. Bisher war nur A, B oder C möglich, jetzt aber sollen Pakete in Kombination möglich sein, mit dem Status Quo, da bisher keine Maÿnahme eingeführt wurde. Für die einzelnen Alternativen A,B,C gibt es keine Mehrheit, da jeweils zwei Parteien dagegen sind. ABC ist als Paket denkbar, da die Zeilensummen für alle Gruppen positiv sind. Es gibt aber ein Instabilitätsproblem: Führt man ABC ein, wollen I+II C nicht ein Gesetz, das C widerruft, gewinnt in einer Abstimmung. Hat man AB, wählen I+III B ab. Hat man nur noch A, sind II+III dagegen und man ist wieder im Status quo. Ergebnis: zyklische Instabilität bei Kombinationsmöglichkeiten verschiedener Alternativen. Ausgleichszahlung würde dies verhindern und eine Einstimmigkeitsnotwendigkeit ebenso, denn ABC wäre stabil, weil keine Einzelmaÿnahme einstimmig abgeschat werden könnte. Die empirische Relevanz ist bisher wenig untersucht worden, ist aber in der BRD womöglich relevant, weil sich hier typischerweise drei Lager mit Gemeinsamkeiten gegenüberstehen (siehe Abbildung 3.5 und 3.6). 1949 CDU/FDP-Koalition (B, nicht Einkommensegalitär) führt zur Marktwirt- 40KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Abbildung 3.5: Gemeinsamkeiten der Idelogien kollektivistisch Sozialismus -Umverteilung der Einkommen durch staatlichen Zwang -progressiv -kollektivistisch Konservativismus -nicht Einkommensegalitär -Traditionsgebunden -kollektivistisch (hierarchisch) progressiv nicht Einkommensegalitär Liberalismus -nicht Einkommensegalitär (Prozeÿ egalitär) -progressiv -individualistisch Abbildung 3.6: Idelogien SPD FDP CDU P Progressiv (A) 3 2 -2 3 nicht Einkommensegalitär (B) -1 4 2 5 Kollektivistisch (C) 1 -4 4 1 schaft. 1967 SPD/CDU-Koalition (C, kollektivistisch) reformiert Arbeitslosenversicherung, führt Arbeitsbeschaungsmaÿnahmen ein, gründet Bundesanstalt für Arbeit, schat Karenztag ab, führt Mehrheitswahlrecht ein, was schlecht für die FDP ist, da es eine kollektivistische Maÿnahme gegen Pluralismus und Dierenzierung ist (nur noch zwei groÿe Blöcke bleiben übrig). 1969 SPD/FDP-Koalition (A, progressiv, antiklerikal) beschlieÿt Scheidungsrechtsreform, reformiert 218 und beginnt mit Ostpolitik. 1982 CDU/FDP-Koalition (B, der Kreis schlieÿt sich) stellt eine Verbesserung für die FDP und CDU dar, die aus dem Minus herauskommen. Kann die Zyklik so weitergehen und wenn nicht, warum? Ende der sechziger Jahre glaubte man die wirtschaftlichen Probleme seien gelöst. Seit den siebziger Jahren gibt es jedoch schwere ökonomische Probleme. Und seit 1982 stehen wirtschaftspolitische Fragen im Vordergrund. CDU, FDP Koalition hätte einen Vorteil, es sei denn die SPD setzt einen Wirtschaftskanzler an. Das führt dazu, daÿ die SPD den Wirtschaftskanzler Schmidt trägt, die FDP fördert den Wirtschaftsminister Graf Lambsdor. Wichtig: Die Bewegung von B nach C muÿ nicht unbedingt zustandegekommen sein, weil die SPD auf Dauer eine groÿe Koalition wollte. 1967 war nur eine Zwischenstufe zur sozialliberalen Koalition, denn für die SPD ist 3.4. MEDIANWÄHLERTHEOREM 41 die einzige Möglichkeit, von B nach A über C zu gelangen. Von B nach A würde die SPD keinen Koalitionspartner nden, weil sich sowohl die FDP als auch die CDU verschlechtern würden. Das heiÿt, die SPD spaltet die bürgerliche Koalition und verspricht der CDU, das Mehrheitswahlrecht einzuführen, obwohl sie es gar nicht möchte, und Kiesinger und Strauÿ haben es nicht bemerkt. Diese Strategie von Wehner wäre selbst mit einer -1 bei C für die SPD rational: zwei Jahre lang C schlucken, um nach A zu gelangen. Ergebnis: die Lösung mit der maximalen Anzahl an Stimmen muÿ nicht stabil sein. Fazit: Instabilitäten sind nicht nur im Markt möglich, sondern auch in der Wirtschaftspolitik. Die Ursachen sind aber verschieden: Im Schweinezyklusmodell am Markt ergibt sich eine Preisexplosion wegen verzögerter Anpassung. In der Politik ist es umgekehrt: Verzögerung dient der Stabilisierung, sonst hätten wir jeden Tag eine neue Koalition. 3.4 Medianwählertheorem Im einfachsten Modell gelten folgende Annahmen: 1. es steht ein Thema zur Wahl, 2. eindimensionale Lösungsmöglichkeit (die Frage ist mehr oder weniger), 3. es gibt nur zwei Parteien, 4. entschieden wird mit einfacher Mehrheitsentscheidung und 5. die einzelnen Wähler haben eingipige Präferenzen, nicht gemeint ist die Eingipigkeit der Häugkeitsverteilung der gesamten Wählerschaft (des Aggregats). Das Problem nicht eingipiger Präferenzen wird in Abbildung 3.7 deutlich. Ein Versuch die Präferenzintensitäten zu messen, besteht darin nicht Nutzen, sondern Zahlungsbereitschaften zu betrachten. Vom Status Quo 0 aus sind II+III für 100, das ist jedoch nicht stabil, da für I+II gilt 50  100, 50 ist aber auch wieder nicht stabil, da I+III 0  50. Das heiÿt es liegt ein Stabilitätsproblem vor. Die Annahme 5 soll zweigipige Präferenzen (III) ausschlieÿen, weil sie zyklische Instabilitäten ermöglichen. Die Aussage des Medianwählertheorems lautet: Unter den fünf gemachten Annahmen tendieren die beiden Parteien zur Medianwählerposition. Die Aussage lautet nicht, sie benden sich ständig in dieser Position, denn dies ist in einer Welt der Unsicherheit kaum möglich, da die Medianwählerposition der Wählerschaft nicht bekannt ist. Das Theorem ist unabhängig von der Verteilung der Wählerpräferenzen. Einige Verteilungen sind in Abbildung 3.8 dargestellt. Die algebraische Formalisierung der Medianposition unterscheidet zwischen ungerader 42KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Abbildung 3.7: Eingipige Präferenzen z.B. Soldatenanzahl bei einem Militäreinsatz III nicht kleckern, sondern klotzen II Goldene Mitte I Pazist 0 50 100 Abbildung 3.8: Verteilungen eingipig, symetrisch m=µ=M zweigipig, symetrisch eingipig, rechtsschief M mµ gleichverteilt m = µ, kein M M µ M =Modus, m=Median, µ=Mittelwert M 3.4. MEDIANWÄHLERTHEOREM 43 Anzahl: m = (n + 1)/2 und gerader Anzahl: m = n/2 und n/2 + 1. Die eingipige rechtsschiefe Verteilung ist besonders bei Umverteilungsdiskussion von Bedeutung, da Einkommensverteilungen typischerweise diese beiden Charakteristiken aufweisen. Warum rücken die Parteien zum Median? Das Integral unter der Verteilungskurve gibt den Stimmenanteil an. Um die Mehrheit zu erlangen, muÿ man sich beim Median positionieren, wenn man davon ausgeht, daÿ die Wähler für die ihnen am nächsten liegende Partei stimmen. Die Parteien treen sich aus ihrer jeweiligen Richtung kommend in der Mitte. Frühere Vorläufer in der ökonomischen Theorie behandelten die Standortwahl bzw. Produktdierenzierung im Dyopol. Warum geht keine Partei über den Median hinaus? Erstens, weil dann die Gefahr besteht, von der zweiten Partei überholt zu werden, die sich zwischen Median und der ersten Partei positionieren und so eine Mehrheit erlangen kann. Daraufhin kann die erste Partei das gleiche Manöver durchführen usw., womit klar ist, daÿ keine vom Median abweichende Position stabil ist. Allerdings besteht bei diesen Manövern kurzfristig ein Glaubwürdigkeitsproblem, da ja die Parteien sich abwechselnd die linke bzw. rechte Klientel wegnehmen müssten. Zweitens, weil die Gefahr einer dritten hinzukommenden Partei besteht. Kurzfristig wird das durch Transaktions- bzw. Neugründungskosten verhindert, aber langfristig ist eine Neugründung durchaus denkbar. Im Medianwählertheorem ist es langfristig egal, welche der beiden Thesen zur Charakterisierung des Politikerverhaltens man vertritt, ob Downs Stimmenmaximierung oder aber Frey/Schneiders Wiederwahlrestriktion. Jede Partei, die versucht, über 50% der Stimmen zu erhalten, muÿ damit rechnen, überholt zu werden und nur in der Medianposition ist sie vor Überholmanöver sicher. Auch ein Stimmenmaximierer muÿ sich mit 50% zufrieden geben. Die Parteien rücken insbesondere vor den Wahlen aufeinander zu, wo der Kampf um den Median voll entbrennt. Gerhard Schröder hat das in der letzten Bundestagswahl lehrbuchartig vorgeführt. Die Ursache für diese Annäherung an den Median sind nicht Absprachen zwischen den Parteien, sondern der Wettbewerb um Wählerstimmen. Das ist ganz analog zum Markt: Anbieter bewegen sich bei ihrer Preisforderung aufeinander zu. Nicht unbedingt wegen Absprachen, sondern wegen Arbitragephänomen: Wer sich vom Gleichgewichtspreis entfernt, verliert Nachfrager. Beim Versuch, sich dem Median anzunähern, kann man verschiedener Meinung sein, wo der Median eigentlich liegt, was eine mögliche Erklärung für letztendlich doch unterschiedliche Programme vor der Wahl ist. Wenn beide doch vor der Wahl an den Median herankommen, entscheidet der Zufall, beispielsweise das Wetter (die Konservativen haben eher Regenschirme und gehen deshalb eher zur Wahl) oder die Popularität 44KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS einzelner Politiker (paÿt zur rationalen Uninformiertheit der Wähler). Wenn wir tatsächlich eine solche Konvergenz zum Wahltermin haben und nach der Wahl wieder ein Auseinandergehen, dann liegt ein Zeitinkonsistenzproblem vor (Das Verhalten eines Politikers in t hat nicht nur Auswirkungen auf das Verhalten der Wähler in t, t + 1, ..., sondern auch auf ihre Entscheidungen in t − 1, t − 2, ...). Die Programmschwankungen erhöhen die Informationkosten. Hat der Medianwähler, trotz der hohen Informationkosten, ein starkes Interesse sich zu informieren, weil er den Ausschlag gibt? Ist eine Modikation der rationalen Unwissenheit nötig? Buchanan argumentiert, daÿ der Wähler selbst in der Medianposition rationalerweise schlecht informiert sei: Erstens, weil er nicht weiÿ, ob er der Median ist und zweitens, weil die Medianposition über die Zeit nicht konstant ist, es sich also nicht lohnt, bei einer Wahl gut informiert zu sein, da es sich nicht unbedingt in den nächsten Wahlen amortisiert. Folglich ist die Hypothese der rationalen Unwissenheit aufgrund des Medianwählertheorems nicht wesentlich zu modizieren. Nun werden die einzelnen Annahmen des einfachen Medianwählertheorems gelockert und die Veränderungen der Schluÿfolgerungen herausgearbeitet. 3.4.1 Enthaltungen 3.4.1.1 Eingipige, symmetrische Präferenzverteilung Abbildung 3.9: Eingipige, symetrische Präferenzverteilung C-Partei S-Partei a a B A E E S0 = C0 = C1 = m g S1 w G Y 3.4. MEDIANWÄHLERTHEOREM 45 In der Ausgangslage benden sich beide Parteien im Median (m). Mit Enthaltungen E ergeben sich zwei Reichweiten von jeweils |S1 − m| und die Flächen a als Anteile für die beiden Parteien. Kann sich eine Partei verbessern, wenn sie vom Median abweicht? Angenommen die S-Partei bewegt sich nach rechts bis S1 auf eine neue programmatische Position, so kann sie die Zahl der Enthaltungen reduzieren und bei gleicher Reichweite bis w Wähler attrahieren. A ist der Zugewinn an Wählern im Bereich der höheren Staatsquote, die sich nicht mehr enthalten. Die S-Partei verliert allerdings auf der anderen Seite Wähler. Die C-Partei bleibt, wo sie ist, bei g entsteht eine neue Grenze (g ist die Mitte zwischen m und S1 ).2 Die C-Partei gewinnt und die SPartei verliert den Anteil B. Hat sich die Stimmenrelation der S-Partei gegenüber der C-Partei erhöht oder vermindert? Die Veränderung des Stimmenvorsprunges ist für die S-Partei negativ: A-B-B<0. Die Grundstrecke ist zwar die gleiche, jedoch ist die Fläche 2×B näher am Modus und somit gröÿer. Fazit: Das Medianwählertheorem gilt: wer vom Median abrückt, verliert per Saldo Stimmen, weil die Verteilung zu den Seiten hin abacht. 3.4.1.2 Eingipige, asymmetrische Präferenzverteilung Abbildung 3.10: Eingipige, asymetrische Präferenzverteilung M m µ 2 Da die Reichweite gleich geblieben ist, gilt, daÿ die vorherige Reichweite |m − S1 | gleich der neuen |S1 − w| ist. Die S-Partei rückt in diesem Beispiel zufällig an die Stelle, wo vorher die Enthaltungen begannen. Auÿerdem gilt |S1 − w| = 2 × |m − g|, da die S-Partei die Hälfte des Abstandes zwischen m und S1 an die C-Partei verliert. 46KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Enthaltungen bei der Verteilung in Abbildung 3.10 können dazu führen, daÿ beide Parteien vom Median weg in Richtung Modus wandern. Denn bei Enthaltung zählt die Höhe der Häugkeitsverteilung, also der Modus. Bei solchen Verteilungen, wo der Median nicht mit dem Modus identisch ist, erfolgt eine Bewegung Richtung Modus. Nur, wenn der Modus und der Median übereinstimmen, bleibt das Medianwählertheorem trotz Enthaltungen bestehen. Wenn M und m nicht übereinstimmen, ist der Modus entscheidend und die Parteien bewegen sich Richtung Modus, allerdings haben beide immer noch ein identisches Programm (nur etwas weiter links) und sie kämpfen nun um den Moduswähler. 3.4.1.3 Zweigipige, symmetrische Präferenzverteilung Abbildung 3.11: Zweigipige, symetrische Präferenzverteilung M µ M Mit Enthaltungen wandern beide Parteien in Abbildung 3.11 zu einem der Modi und haben keine identischen Programme. 3.4.1.4 Gleichverteilte Präferenzen Bei gleichverteilten Präferenzen in Abbildung 3.12 gibt es keinen Modus und das System ist indeterminiert. Beide Parteien wählen einen Punkt, wahrscheinlich so, daÿ sie nicht miteinander konkurrieren, sich ihre Reichweiten also nicht überlappen. Sie haben die gleiche Stimmenzahl und der Zufall entscheidet. Allerdings ist zu erwarten, daÿ sich bei stark begrenzten Reichweiten (Enthaltungen), ein Zweiparteiensystem nicht halten kann und weitere Parteien dazukommen, bis 3.4. MEDIANWÄHLERTHEOREM 47 Abbildung 3.12: Gleichverteilte Präferenzen µ = m, kein M die Enthalter beim Mehrparteiensystem auch eine Partei nden, die sie wählen können. Schon weil das Zweiparteiensystem nicht stabil ist, kann das Medianwählertheorem hier nicht gelten. 3.4.1.5 Fazit Bei Enthaltung zählt der Modus. Wenn der Modus mit dem Median identisch ist, bleibt das Medianwählertheorem gültig, wenn nicht, gilt der Modus. Bei nur einem Modus ergeben sich identischen Programme, bei zwei Gipfeln nicht. Bei mehr als zwei Parteien werden wir Koalition bekommen, denn eine Partei allein kann wegen des Enthaltungsproblems nicht die Mehrheit bekommen. Zum Theorem der Koalitionsbildung: Nach Riker gilt das Prinzip der kleinsten Gewinnkoalition. Das zugrunde liegende Kalkül lautet: Politiker teilen nicht gerne unnötig die Macht. Daraus folgt, daÿ die Koalition gerade so groÿ ist, daÿ man die Mehrheit hat, weil man sonst die Ministerposten und damit die Macht mit Parteien teilen muÿ, die man nicht zur Mehrheitsbeschaung braucht. Axelrod wendet dazu ein: Die kleinste mögliche Gewinnkoalition kann aus ideologischen Gründen scheitern, (z. B. Schwarz-Grün auf Bundesebene). Deshalb muÿ man folgende Einschränkung beim Rikerprinzip vornehmen: Prinzip der kleinsten zusammenhängenden Gewinnkoalition. Bei Aneinanderreihung entsprechend der Ideologien wird bis zur knappen Mehrheit koaliert. Aus dieser Theorie folgt: Politiker haben ein Präferenz für eine Mehrheitminimierung, daÿ ist gleichbedeu- 48KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS tend mit Minderheitmaximierung. Man kann also davon ausgehen, daÿ in einer Demokratie die Minderheit maximiert wird. Es liegt also eine Tendenz zur Majorisierung und nicht zum Konsens vor. 3.4.2 Parteibasis Eine weitere Modikation des einfachen Medianwählertheorems betrit die Parteibasis. Die Parteibasis beschränkt den programmatischen Bewegungsspielraum der Parteiführung. Abbildung 3.13: Präferenzen des Wählers und der Parteibasis mW mP Bei der Wahl des Spitzenkandidats durch die Parteibasis muÿ er, um sich gegen andere Kandidaten durchzusetzen, mP einnehmen, da er sonst verliert (siehe Abbildung 3.13). Bei der Wahl durch die Bevölkerung muÿ er später mW einnehmen, um die Wahl zu gewinnen. Das heiÿt, der Kandidat muÿ sich vom Partei- zum Wählermedian bewegen, worunter die Glaubwürdigkeit leidet. Wenn der Parteimedian weit weg ist, kann die Zeit, um diese Strecke ideologisch zu überwinden, knapp werden. Er bleibt aus Gründen der Glaubwürdigkeit zwischen mW und mP stecken und verliert die Wahl. Der Kandidat der anderen Partei kann das gleiche Problem haben. Die Parteien, deren Spitzenkandidat von der Basis gewählt wird, ist einer Partei gegenüber im Nachteil, deren Kandidat nicht von der Basis gewählt wird. Andere Gremien, wie z. B. Fraktionen, wissen um dieses Problem und sind von Anfang an näher am Median. Das Problem tritt bei einem Direktwahlmandaten, wie z. B. bei der Erststimme bei der Bundestagswahl, auf. Zuerst 3.4. MEDIANWÄHLERTHEOREM 49 erfolgt eine Aufstellung im Wahlkreis, d. h. der Kandidat muÿ dem Parteimedian entsprechen, und muÿ dann bis zur Wahl zum Wählermedian wandern. Ausgeprägter ist das Phänomen bei den US-Präsidentschaftswahlen: z.B. war Pat Buchanan beliebt in seiner Partei, hatte aber keine Chance bei den Wählern. Generell kann sich der Präsident bei einer Wiederbewerbung direkt am Wählermedian orientieren, weil die Primaries sicher (war noch nie anders) gewonnen werden. Der Herausforderer hat nach seiner Aufstellung Probleme, sich schnell genug dem Wählermedian anzunähern. Für konkurrierende Parteien, die mit diesem Problem zu tun haben, läÿt sich folgendes sagen: den bürgerlichen Parteien sagt man nach, sie seien weniger ideologisch als S-Parteien. Die bürgerlichen Parteien sind womöglich nur Machterhaltungsvereine, die pragmatischerweise hauptsächlich an der Macht sein wollen. Das heiÿt, man würde erwarten, daÿ S-Parteien mit diesem Problem mehr zu tun haben als bürgerliche. Entscheidend für die bürgerlichen Parteien ist der Medianwähler, der zur Macht verhilft und dieser weicht von der Basis nicht zu sehr ab. Die Restriktion greift bei der S-Partei stärker und sie kann die Wählermedianposition nicht so schnell einnehmen. Das heiÿt, eine Abweichung vom Medialenwählertheorem ist eher bei der S-Partei als bei einer bürgerlichen zu erwarten. 3.4.3 Geldgeber Die Geldgeber beschränken den programmatischen Bewegungsspielraum der Parteiführung in einer ähnlichen Weise, wie es die Parteibasis tut. Das Problem entsteht, wenn die Geldgeber ein Programm fordern, das vom Wählermedian abweicht (in Abbildung 3.13 entspricht mP dem Mittelwert der Verteilung des Geldgebers). Daraus folgt ein Trade o: Geldgeber führen einerseits zu Stimmenverlusten, weil die Partei zum Wahltermin nicht in Wählermedian sein kann. (Die Geldgeber verhindern dies, es sei denn, man hat schon kassiert und täuscht seinen eigenen Geldgeber.) Und andererseits bringen Geldgeber Geld, das zum Wahlkampf zur Verfügung steht und so die Zahl der Enthaltungen reduziert werden kann und somit eine Mobilisierung latenter Wähler oder eine Veränderung der (endogenen) Wählerpräferenzen ermöglicht, so daÿ sich der Median verändert. Präferenzänderungen herbeizuführen, dürfte allerdings recht aufwendig sein. Im Optimum entspricht der Grenzgewinn an Stimmen durch zusätzliches Geld (insbesondere durch Reduktion der Enthaltungen) dem Grenzverlust durch verbleibende programmatische Distanz zum Median. 50KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS 3.4.4 Unsicherheit und unvollkommene Information Die Parteiführung weiÿ nicht, wo sich der Medianwähler bendet. Insbesondere in Zeiten, wo es nicht so viele Meinungsumfragen gab und die statistischen Methoden nicht so ausgefeilt waren, diente der Wahlausgang als Information darüber, wo der Medianwähler ist. Abbildung 3.14: Wo ist der Medianwähler? C0 C m g S Am Beispiel in Abbildung 3.14: Es ndet eine Wahl mit den Programmen C und S statt. C gewinnt und die Grenzlinie ist in g (mit oder ohne Enthaltungen ist egal, da C auch näher am Modus ist). Was können die Parteien aus dem Sieg der C-Partei bezüglich der Position des Medianwählers lernen? Die C-Partei ist näher am Median als die S-Partei (sonst hätte sie nicht gewonnen), aber sie wissen nicht, ob die C-Partei links oder rechts vom Median ist. Sie könnte auch in C 0 gewesen sein, dann hätte sie erst recht gewonnen (ohne Enthaltungen). Da dies nicht bekannt ist, sollte die C-Partei sich nicht bewegen, denn wenn die C-Partei sich nach rechts bewegt, wenn sie sich schon rechts vom Median bendet, kann sie von der S-Partei links überholt werden oder von einer neuen Partei, die sich links positioniert. Es ist gefährlich, den Median zu überschreiten und dann womöglich mehr vom Median abzuweichen als vorher. Daraus folgt, daÿ für die Gewinnerpartei unter Unsicherheit die rationale Strategie daraus besteht, keine Experimente zu wagen. Die S-Partei weiÿ, daÿ sie weiter vom Median entfernt ist und daÿ sie rechts von C ist. Somit muÿ sie in Richtung C rücken. Je höher die Niederlage war, desto 3.4. MEDIANWÄHLERTHEOREM 51 weiter war sie vom Median entfernt, desto mehr wird sie ihr Programm anpassen müssen. Die gröÿte programmatische Anpassung in der Nachkriegszeit war das Godesberger Programm als Reaktion auf den gröÿten Wahlsieg der CDU 1957, der Wehner die Programmdurchsetzung ermöglichte. In den USA erlitt Goldwater 1964, der Krieg, Krieg, Krieg forderte eine verheerende Niederlage. Daraufhin schwenkten die Republikaner um und gewannen 1968 mit Nixon, der Frieden, Frieden, Frieden forderte. Enorme programmatische Anpassungen folgten verheerenden Niederlagen. Fazit: Die Wahlergebnisse vermitteln Informationen über Wählerpräferenzen, lösen Lernprozesse bei den Politikern aus und führen zu einer programmatischen Anpassung. Vergleich zur Anpassung im Markt: Im Markt werden nicht Programme angepaÿt, sondern Preise oder Mengen. Je gröÿer die Diskrepanz bei den Mengen, also zwischen Angebot und Nachfrage, ist, desto gröÿer wird die Preisanpassung sein. Der Anbieter lernt aus dem Unter-/Überangebot, das er im Markt feststellt, wie stark er seine Preise anpassen muÿ. Unterschied: Im Markt gibt es solche Information tagtäglich. In der Demokratie werden diese Information nur alle vier Jahre durch den Wahlausgang bereitgestellt. 3.4.5 Lockerung der 2er Annahmen Bisher galt die Annahme, daÿ es nur ein Thema und zwei Parteien gibt. Nun soll es zwei Themen und nun drei Parteien geben, siehe Abbildung 3.15. Die Wähler sind annahmegemäÿ gleichmäÿig über die Fläche verteilt. Die S-Partei sollte sich auf rationale Weise wegbewegen, weil sich damit Stimmen gewinnen lassen (weg vom Median). Hier ist Zyklik trotz Eingipigkeit möglich. 3.4.6 Anwendung auf staatliche Umverteilung Unter dem Begri Directors Law wendete Stigler das Medianwählertheorem auf staatliche Umverteilung an. Die These lautet: In der Demokratie wird nicht nur zugunsten der Armen und Bedürftigen umverteilt, sondern auch zugunsten des Medianwählers. In Kopie 23 sieht man die Quantilschichtung der Einkommen in der BRD im Jahre 1980. Die Ärmsten verbessern sich durch Umverteilung der Einkommensteuer von 0,2% beim Bruttogehalt auf 6,9% beim Nettogehalt. Die Einkommen im 52KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Abbildung 3.15: Zwei Themen und drei Parteien 0% Verbot 218 Erlaubt S C 100%Pegeversicherungnettoersatzrate zweituntersten Quantil verbessern sich von 4,9% auf 11,2%. Im mittleren Quantil, wo sich der Median bendet, wurde von 15,5% auf 16,2% umverteilt. Für 1980 trit es in Deutschland gemäÿ dem Directors Law also zu, daÿ die Umverteilung des Staates auch den Medianwähler (gemessen am Einkommen) begünstigt hat. Wie kommt das zustande? Eine wichtige Rolle spielen die Einkommensgrenzen für verschiedene sozialpolitische Transfers. Im sozialen Wohnungsbau3 , bei der Arbeitnehmersparzulage beim BaföG (bei zwei Kindern), beim Wohngeld (bei zwei Kindern) und beim Erziehungsgeld (ab dem siebten Monat) liegen die Einkommensgrenzen bei 30.000 DM. Diese Einkommensgrenze liegt ungefähr beim Medianeinkommen. Auällig ist, daÿ diese Einkommensgrenze in unregelmäÿigen Abständen, aber regelmäÿig vor Wahlen, angepaÿt (erhöht) werden. Bei einigen Transferprogrammen, wie z.B. im sozialen Wohnungsbau und bei der Vermögensbildung, gibt es einen regressiven Eekt, der Medianwähler erhält also einen höheren Betrag als die Ärmeren. Im sozialen Wohnungsbau bekommt derjenige, der knapp unter der Einkommensgrenze liegt, einen höheren Transfer als derjenige, dessen Einkommen weit unter der Einkommensgrenze liegt, weil 1. diejenigen, deren Einkommen nur knapp unter der Einkommensgrenze liegt, die wertvolleren Sozialwohnungen nachfragen. Diese werden aber betragsmäÿig höher subventioniert als die billigen, weil die Subventionen prozentual berechnet werden. Das heiÿt, innerhalb der Berechtigten ergibt sich eine regressive Verteilungs3 Beim sozialen Wohnungsbau muÿ man nur beim ersten Antrag unter 30.000 DM verdienen, danach ist es egal. 3.4. MEDIANWÄHLERTHEOREM 53 wirkung. 2. Im sozialen Wohnungsbau bekommen nicht alle Berechtigten eine Wohnung. Transfers aber bekommen nur diejenigen, die eine Wohnung erhalten. Das sind aber eher diejenigen mit höherem Einkommen innerhalb der Einkommensgrenze, weil die kommunalen Wohnungsbaugesellschaften eher an Bezieher höherer Einkommen vermieten (weniger Abnutzung, höhere Schadensersatzfähigkeit usw.). Es ergibt sich wieder eine regressive Verteilungswirkung innerhalb der Berechtigten. Bei der Vermögensbildung ergibt sich eine regressive Wirkung, weil die gröÿten Subventionsbeträge an diejenigen ieÿen, die knapp unter der Einkommensgrenze liegen, da sie bei einem höheren Einkommen mehr sparen können und folglich einen höheren Zuschuÿ erhalten. Läÿt sich diese Umverteilung zugunsten des Medianwählers auch anders erklären als mit dem Medianwählertheorem? Nach Lee/McKenzie setzen sich bei der Umverteilung durch den Staat die Cleveren durch, sie können die politische Maschinerie besser zu ihrem Zweck ausnutzen. Wenn die Cleveren die Humankapitalisten sind und auch ein höheres Einkommen haben, würde man erwarten, daÿ eine Umverteilung zugunsten der Besserverdienenden stattndet und nicht zu den schlechter verdienenden, denn diese sind zu dumm, um sich im politischen Prozeÿ durchzusetzen. Dieser Hypothese nach, ist, wer im Markt produktiv ist, auch in der Politik produktiv. Dies erklärt, warum der Medianeinkommensbezieher mehr bekommt als die schlechter verdienenden. Aber dies würde eine generelle regressive Umverteilung von den Armen zu den Reichen implizieren. Das widerspricht jedoch den empirischen Fakten in Kopie 23, wo man sieht, daÿ die oberen Quantile geben und die unteren Quantil bekommen. Die Prognose von vor 100 Jahren, daÿ, wenn die Armut, durch die für diesen Zweck gedachten Sozialprogramme, beseitigt worden ist, sich diese überüssig machen, ist durch die Geschichte widerlegt worden. Das Medianwählertheorem könnte eine Erklärung dafür liefern. Umverteilung in der Demokratie kann nicht nur durch die Steuerprogression (Einkommensteuer) und durch einkommensabhängige Transfers (siehe oben), sondern auch bei proportionaler Einkommensteuer und einem einheitlichen ProkopfTransfer zustande kommen (Meltzer/Richard Hypothese). Angenommen die Sozialpolitik funktioniert nach dem Gieÿkannenprinzip. Die Transfers werden einheitlich über die gesamte Bevölkerung verteilt und die Einkommenssteuer ist proportional und nicht progressiv. Es kommt eine Umverteilung zugunsten des Medianwähler zustande, weil eine rechtsschiefe Einkommensverteilung vorliegt und damit das Medianwählereinkommen kleiner ist als das durchschnittliche Einkommen. Zahlenbeispiel: µ= (1 2 3 4)TDM × (1 3 2 1)T / 7=2 3/7 TDM m = 2 TDM<µ=2 3/7 TDM (das 4. Einkommen von 7) 54KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS In Kopie 24 sieht man, daÿ die Einkommensverteilung rechtsschief ist und in den Kopien 23 und 25, daÿ das Medianeinkommen weniger als 100% Prozent des Durchschnittseinkommen beträgt. Zu zeigen: Der Median protiert von einer proportionalen Einkommensteuer und einem einheitlichen Prokopf-Transfer. Der Transfer muÿ kein Geldtransfer, sondern kann auch ein Sachtransfer, wie ein öentliches Gut sein, daÿ jeder im gleichen Wert konsumiert. Der Medianwähler zahlt Tm = tym und bekommt Gm = G = T = ty und daraus folgt Tm = tym < ty = Gm , er zahlt also weniger als er bekommt. In Kopie 26 ist eine Regression von Meltzer und Richard zu sehen. Die Ausgangsgleichung lautet: 1 ln t = a + b1 ln(m − 1) − b2 ln(1 − F ) − b3 . yd t ist Redistributionsquote, die ungefähr der Sozialleistungsquote entspricht, aber hier nicht nur die Umverteilung des Staates, sondern auch die der Unternehmungen, der Wohltätigkeitsorganisation usw. umfaÿt. Hinter (m − 1) steckt die Hypothese, je gröÿer die Diskrepanz zwischen den Medianeinkommen und den Durchschnittseinkommen ist, desto mehr wird umverteilt. 1 − F kontrolliert für die Zahl der Sozialleistungsempfänger. 1/yd könnte Wagners Gesetz erfassen: der Anteil der Umverteilung am Volkseinkommen hängt positiv vom Volkseinkommen ab. Bei der Regression besteht ein Simultanitätsproblem, denn man kann nicht nur sagen: je gröÿer die Zahl der Empfänger, desto gröÿer die Umverteilung, sondern auch, je gröÿer die Umverteilung, desto gröÿer die Zahl der Empfänger. Die Zahl der Empfänger ist hier also nicht exogen, sondern endogen. Die hier angewandte Lösung besteht darin, die (starke) Annahme b2 = 1 zu treen und (1 − F ) dann auf die andere Seite zu bringen: 1 ln(t(1 − F )) = c + d1 ln(m − 1) + d2 . yd Ergebnisse der Schätzung: - 1. Zeile: ln(m − 1): je mehr das Durchschnittseinkommen über dem Medianeinkommen liegt (je gröÿer die rechtsschiefe ist), desto gröÿer ist die Umverteilung (berichtigt um die Zahl der Empfänger). Allerdings gibt es ein Autokorrelationsproblem in den Residuen, da der Durbin-Watson-Koezient DW mit 1.3 weit unter 2 ist. - 2. Zeile: Hier wird das Autokorrelationsproblem mit dem Hildreth-Lu Verfahren angegangen. Der DW-Koezient sinkt auf 1.6 in den undeterminierten Bereich. ln(m − 1) ist mit 5.5 immer noch hochsignikant. yd hat 3.4. MEDIANWÄHLERTHEOREM 55 einen positiven4 Eekt. Mit den Medianeinkommen steigt der Anteil der Umverteilung an den Staatsausgaben. - 3-6. Zeile: Hier wird zwischen Sach- (3.u.4. Zeile) und Geldtransfers (5.u.6. Zeile) unterschieden. Die Zeilen 3 und 5 haben jedoch einen zu niedrigen DW-Koezienten, weshalb nur die Zeilen 4 und 6 betrachtet werden. - 4.u.6. Zeile: Sowohl bei den Sach- als auch bei den Geldtransfers gibt es einen signikant positiven Eekt der Rechtsschiefe der Einkommensverteilung. Der signikant negative Eekt von 1/yd bleibt nur bei den Geldtransfer signikant, nicht jedoch bei den Sachtransfers. Die Erklärung könnte lauten, daÿ für den Medianwähler in erster Linie nur der Geldtransfer interessant ist. Denn die Sachtransfers decken die Grundbedürfnisse (der Armen) ab, die aber beim Median schon abgedeckt sind. Er möchte für zusätzliche Ausgaben Geld haben. Das deutet daraufhin, daÿ tatsächlich der Medianwähler seine Interessen durchsetzt. Beim Vergleich der Regressionskoezienten von ln(m − 1) in der 4. und 6. Zeile: 0,34 und 0,71. Dieses Ergebnis läÿt sich als ein Hinweis interpretieren, daÿ der Medianwähler stärker an Geld- als ein Sachtransfers interessiert ist. Die Ergebnisse sind nicht selbstverständlich, denn man könnte auch argumentieren, daÿ der Medianwähler daran interessiert ist zu verschleiern, daÿ er selbst durch die staatliche Umverteilung begünstigt wird. Dies könnte man bei den Sachtransfers besser, denn sie sind schwerer zu bewerten und damit festzustellen, wer wieviel bekommt. Aber das Verschleierungs- tritt oensichtlich hinter dem Transferinteresse zurück. Zu der Regression läÿt sich einwenden, daÿ die Diskrepanz zwischen dem Medianund Durchschnittseinkommen nicht nur die rechtschiefe, sondern auch die Ungleichverteilung der Einkommen miÿt. Angenommen die Einkommensverteilung verändert sich wie in Abbildung 3.16. Dann haben wir nicht nur eine zunehmende rechtschiefe Einkommensverteilung, sondern auch eine zunehmende Ungleichverteilung der Einkommen. Die stärkere Umverteilung durch den Staat in der Demokratie könnte eine Reaktion auf die gröÿere Ungleichverteilung sein und nicht nur auf die gröÿere Rechtsschiefe. Insofern ist nicht klar, was die Diskrepanz zwischen Median- und Durchschnittseinkommen hier abbildet, das Interesse des Medianwähler oder des altruistischen Nettozahlers, der bei stärkerer Ungleichverteilung der Einkommen ein biÿchen mehr Umverteilung möchte, damit die Ungleichverteilung reduziert wird. Eine Methode, um das Problem zu lösen, wäre, neben dem Maÿ für die Rechtsschiefe noch eine andere erklärende Variable in die Regression aufzunehmen, welche die Ungleichverteilung kontrolliert, wie z. B. den Ginikoef4 Der für 1/yd ausgewiesene Koezient hat zwar ein negatives Vorzeichen, aber yd hat einen positiven Eekt auf die erklärte Variable, da es im Nenner steht. 56KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Abbildung 3.16: Änderung der Einkommenverteilung zienten oder die Varianz der Prokopf-Einkommen. Mit beiden Variablen könnte man den Ungleichheitseekt vom Rechtsschiefe-/MedianEekt separieren. 3.5 Agenda setter Obwohl der Medianwähler die Entscheidung zu treen hat, darf jemand anders (eine Institution) den Vorschlag machen, über den dann abgestimmt wird. Diese Institution ist der Agenda setter (Optionsxierer). Nehmen wir beispielsweise eine Volksabstimmung, wo die Regierung das Vorschlagsrecht (-monopol) hat. D.h. der Agendasetter macht einen Vorschlag und die Frage ist, ob eine Mehrheit für oder gegen den Vorschlag ist. q m 20% 40% b a 59% 70% Wir benden uns im Status Quo q und der Medianwähler möchte m. Der Agendasetter hätte gerne a und kann nun einen Vorschlag machen. In a bekommt er keine Mehrheit, der Vorschlag wird abgelehnt, denn aus Sicht des Medianwählers ist q näher an m als a. b, das näher an m ist als q wird angenommen, der Medianwähler stimmt für diesen Vorschlag. Das heiÿt der Agendasetter hat eine groÿe Macht und diese ist umso gröÿer, je weiter q von m entfernt ist, denn desto 3.5. AGENDA SETTER 57 mehr kann der Agendasetter auf der andern Seite überschieÿen (bei q = 0 Prozent kann a bis 79% gehen). Der Agendasetter kann also den Median überschreiten, und zwar desto mehr, je näher der Status Quo von der Medianposition entfernt ist. Diese Analyse ist auch anwendbar, wenn es sich nicht um eine Medianwählersituation handelt und nicht mit einfacher, sondern mit qualizierter Mehrheit entschieden wird. Beispiel: Initiativmonopol der Europäischen Kommission. Es kann keinerlei Gesetzgebung geben durch die EU, wenn nicht vorher die europäische Kommission einen dahingehenden Vorschlag gemacht hat. In der Regel entscheidet der Ministerrat. Manchmal einstimmig, zunehmend aber auch mit qualizierter Mehrheit. In Maastricht II wurde darüber beraten, ob man den Bereich für die qualizierten Mehrheiten noch weiter ausweiten soll. Die New Labour Regierung war, jedenfalls auf dem Gebiet der Regionalpolitik und des Umweltschutzes, dazu auch bereit. Dann würde nicht die Medianposition zählen, sondern die Position des decisive voters, das heiÿt des Ministerratmitgliedes, das gerade noch notwendig ist, um die qualizierte Mehrheit zu bekommen.5 Bisher wurden nur eindimensionale Entscheidungen behandelt, nun soll es zwei Themen gleichzeitig geben. In Abildung 27 ist der Fall für die Europäische Union (Council of Ministers) konstruiert. Es werden die Quorums Einstimmigkeit (unanimous) und qualizierte (supportive) Mehrheit unterschieden. Im Unanimous Council in Figure 1 wird zunächst eine notwendige Einstimmigkeit unterstellt. Die Achsen könnten z.B. die Ausgaben der EU abbilden. q sei der Status Quo. Es gibt fünf Mitglieder bei der Abstimmung. Um die prefered Position der Ministerratmitglieder werden Kreise gezogen, die durch q verlaufen. Alle Punkte, die innerhalb eines solchen Kreises sind, werden von dem betreffenden Land dem Status Quo vorgezogen. Um 4 wurde kein Kreis gezogen, weil er die Schnittmenge komplett umfaÿt. Die Linse (nur q-au , nicht die gesamte schwarze Fläche) wird von allen zusammen präferiert. Dieser Bereich, wo sich alle vier Kreise überlappen, umfaÿt die Lösungen, die von allen dem Status Quo vorgezogen werden. Wenn alle fünf die Linse präferieren, hat der Agendasetter die Macht, welche dieser Punkte in der Linse zur Abstimmung gestellt werden. Für jeden dieser Punkte bekommt er eine einstimmige Zustimmung. Hier wird unterstellt, daÿ die Kommission die Position 5 präferiert. Die prefered Position des Landes 5 ist identisch mit der der Kommission, da die Kommission möglichst viel von x1 und x2 möchte, also einen möglichst groÿen Haushalt und damit so weit wie möglich rechts oben. 5 Decisive voter ist der Überbegri und Medianwähler ein Spezialfall für die einfache Mehrheitsentscheidung. 58KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Welchen Punkt würde die Kommission vorschlagen? Bei Einstimmigkeit Punkt au (unanimous), der Punkt der Linse, der dem Punkt 5 (prefered Position der Kommission) am nächsten ist. Bei einer Entscheidung aufgrund qualizierter Mehrheit wird die Kommission dem Punkt aq (qualied) vorschlagen. An diesem Beispiel ist ersichtlich, daÿ die Kommission bei qualizierter Mehrheitsentscheidung mehr durchsetzen kann als bei Einstimmigkeit. Die Macht des Agendasetter ist umso gröÿer, je kleiner das erforderliche Quorum ist. Zwar ist der Einuÿ auch bei Einstimmigkeit der Entscheidung des Ministerrats groÿ, aber die Macht des Agendasetter nimmt in dem Maÿe zu, in dem das erforderliche Quorum in Ministerrat sinkt. Einfache Mehrheit ist also besser als qualizierte für die Kommission. In Figure 2: Beim Supportive Council ist das Fünfeck dasselbe geblieben. Der Unterschied liegt darin, daÿ q verschoben ist. q war vorher auÿerhalb und links vom Fünfecks nun ist es innerhalb. Das führt zu einer wichtigen Änderung: Es gibt keinen Bereich, wo sich alle fünf Kreise überlappen. Einstimmigkeit ist für keinen Vorschlag zu erreichen. Das liegt daran, daÿ sich beispielsweise das Land 2 verschlechtern würde, wenn man vom Punkt q, wie es die anderen wünschen, nach rechts oben gehen würde. Dem Land 2 geht, was x1 und x2 angeht, schon der Status Quo ein biÿchen zu weit und es hätte gerne weniger von beiden. Land 2 kann das jedoch bei Einstimmigkeit nicht erreichen, sondern nur blockieren und die anderen daran hindern, von q aus nach rechts oben zugehen. Dagegen wird bei qualizierter Mehrheitsentscheidung die Stimme von Land 2 nicht mehr gebraucht. Wo ist der überlappende Bereich der anderen vier? In Figure 2 bezeichnet die Linse diesen Bereich. Die Kommission als Agendasetter kann nun den für sie günstigsten Punkt bq , den rechtesten Punkt der Linse, aussuchen. Dies funktioniert aber nur bei qualizierter Mehrheitsentscheidung, nicht bei Einstimmigkeit. Hieran kann man den Einuÿ des Agendasetters sehen. Es macht einen groÿen Unterschied, ob wir in der Linse ganz rechts oder ganz links sind. Bzw. im ersten Schaubild, ob wir in Status Quo verbleiben oder nach au gehen. Auch im Falle von Figure 2 kann man also feststellen: die Macht des Agendasetters wächst, wenn das Quorum sinkt. Allerdings hat in diesem Fall der Agendasetter bei Einstimmigkeit keine Macht, jedoch bei qualizierter Mehrheit. Vier Probleme der Macht des Agendasetters: 1) Sperrklinkeneekt: wenn die Kommission ihre Position in C hat und die prefered Position der andern sich wieder nach links verschieben sollte (z. B. weil sich die wirtschaftliche Lage verändert hat oder das Subsidiaritätsprinzip verstärkt beachtet werden soll), werden sie sich trotzdem nicht nach links bewegen können. Der Agendasetter wird nie vorschlagen, daÿ man sich von einem Status Quo nach links unten bewegt, denn dann würde x1 und x2 zurückgehen, was die Kommission nicht möchte. Sie möchte so groÿe Kompetenzen, so einen groÿen 3.6. POLITISCHE TAUSCHGESCHÄFTE 59 Haushalt und so viel Personal wie möglich haben. Das heiÿt, wir haben hier eine Einbahnstraÿe. Der Agendasetter kann verhindern, daÿ es jemals in eine andere Richtung geht als er möchte. Das kann man in der EU beobachten: Es gibt immer nur Ausweitung der Kompetenzen der EU und keine Verminderung, denn die Kommission hat das Vorschlagsmonopol und würde nie vorschlagen, daÿ ihre eigenen Kompetenzen beschnitten werden. 2) Das Initiativmonopol widerspricht dem Demokratieprinzip, denn die Kommission ist kein demokratisches Organ. Es ist nicht demokratisch gewählt, sondern es wird von den Regierungen der Mitgliedsstaaten bestellt. 3) Das Initiativmonopol widerspricht auch der Gewaltenteilung, denn die Kommission ist ein Exekutivorgan, ist aber mit dem Initiativmonopol an der Gesetzgebung beteiligt. Das Prinzip der Gewaltenteilung erfordert, daÿ die Exekutive nicht an der Gesetzgebung beteiligt ist, sondern daÿ die Legislative allein für die Gesetzgebung zuständig ist. 4) Das Initiativmonopol widerspricht dem Subsidiaritätsprinzip, denn es verhindert, daÿ Anpassungen auch mal in Richtung Dezentralisierung stattnden können. Lösungsmöglichkeiten für dieses Problem bestehen darin, das Initiativrecht auf den Ministerrat (vielleicht sogar einer qualizierten Minderheit), das Europäisches Parlament (auch hier vielleicht sogar einer qualizierten Minderheit) und/oder den Souverän, also das Volk, zu übertragen. Es kann selbst der Agendasetter sein, beispielsweise in Form einer Unterschriftenaktion, die zur Volksabstimmung führt. Die Kommission sollte ihr Initiativrecht abgeben. In der theoretischen Literatur wurde die Verallgemeinerung nachgewiesen, daÿ wenn über alle Dimensionen gleichzeitig abgestimmt wird, es theoretisch möglich ist, daÿ der Agendasetter durch sukzessive Anpassung jeden beliebigen Punkt in dem Entscheidungsraum erreichen kann. 3.6 Politische Tauschgeschäfte Bei politischen Tauschgeschäften (auch log rolling genannt) geht es noch nicht um Ausgleichszahlungen (später), sondern nur um die Koppelung von verschiedenen Themen, z. B. Ich stimme deinem Wunsch bei diesem Projekt zu und du meinem bei einem anderen Projekt. Dies ist noch nicht monetisiert, es handelt sich nicht um einen Markt, sondern lediglich um Stimmentausch. Wenn politische Tauschgeschäfte möglich sind, dann wird es den überstimmten Minderheiten, die sehr intensive Präferenzen haben, möglich, das Ergebnis zu verändern. Das geschieht, indem sie einem Mitglied der Mehrheit anbietet, daÿ Sie mit ihm für eine andere Lösung stimmt, vorausgesetzt, daÿ dieses Mitglied in einer 60KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Frage, in welche die Minderheit intensive Präferenzen hat, mit der Minderheit stimmt. An einem Zahlenbeispiel in Abbildung 3.17 wird das Vorgehen deutlicher. Ohne Abbildung 3.17: Vorteilhaftes Log Rolling Wähler I II III Summe A -4 2 1 -1 B -1 4 -2 1 politische Tauschgeschäfte, bei separater Abstimmung über beide Maÿnahmen, wird A angenommen, weil die Mehrheit für A ist (II und III), B wird abgelehnt, da I und III dadurch verlieren. I hat, da er mit A (-4) sehr unzufrieden ist, die Möglichkeit, mit den beiden andern (II und III) einen Kuhhandel zu machen. II ist mit A unzufrieden (2 < 4). I und II haben Interesse daran, sich gegen III zu verbünden und A aufzugeben und B anzunehmen, da sich beide verbessern. Die Lösung mit politischen Tauschgeschäften ist also nicht mehr A, sondern B. An den Summen der Auszahlungswerte (Spaltensumme) sieht man, daÿ das zu einer Verbesserung geführt hat. Es ist jedoch nur eine potentielle Paretoverbesserung, da erst Ausgleichszahlungen alle (III verschlechtert sich von A nach B) verbessern könnten. Allerdings ist das Ergebnis dieses Tauschgeschäfts nicht stabil. B hat A geschlagen, A + B würde aber B schlagen. Bei A + B würden sich der II und III verbessern, da sie positive Auszahlungswerte haben. Wenn III vorschlägt, wir wollen nicht nur B, sondern auch A, dann stimmt II mit zu, und wir sind bei A + B. Es entsteht ein Zyklus: 0 ≺ A ≺ B ≺ A + B ≺ A (A + B ≺ A weil I und III bei B negative Auszahlungen haben). Die potentielle Paretoverbesserung, die man erzielen kann, ist zwar nur vorübergehend, aber immerhin eine Verbesserung. Im Durchschnitt der Zeit haben wir eine bessere Lösung als A. Auch A + B ist besser als A (0 >-1). Mit politischen Tauschgeschäften bekommen wir eine Instabilität, aber immerhin eine Verbesserung. Ein Beispiel mit unvorteilhaftem Ergebnis des Log Rolling zeigt Abbildung 3.18. Wenn im Ministerrat einzeln über die politische Union oder Währungsunion abgestimmt wird, kommt keines von beiden zustande (es sind immer zwei Verlierer dagegen). Wenn dagegen ein politischer Kuhhandel zulässig ist, dann können sich sowohl Deutschland als auch Frankreich verbessern, wenn sie gleichzeitig die politische Union und die Währungsunion einführen. Dann hat D + 1 und F + 2, beide verbessern sich, wenn ein Paket geschnürt wird. Das ist das Ergebnis von Maas- 3.6. POLITISCHE TAUSCHGESCHÄFTE 61 Abbildung 3.18: Unvorteilhaftes Log Rolling Länder D F GB Summe politische Union 5 -1 -9 -5 Währungsunion -4 3 -2 -3 tricht, wo ein politisches Tauschgeschäft stattgefunden haben könnte: Frankreich erhält die Währungsunion und Deutschland (angeblich) die politische Union, die gemeinsame Auÿen-und Sicherheitspolitik (der sogenannte dritte Pfeiler). Allerdings sind beide Projekte negativ zu bewerten. Oensichtlich ist der Kuhhandel keine potentielle Paretoverbesserung. Es kommt also eine Lösung zustande, die sich nicht durchsetzen würde, wenn wir Ausgleichszahlungen hätten (auch Seitenzahlungen oder Kompensationszahlungen genannt). Denn insgesamt gibt es nur Verlierer. Kuhhandel kann also auch zu einer Verschlechterung führen, erstaunlicherweise nicht nur für alle drei zusammen, sondern auch für diejenigen, die den Kuhhandel abschlieÿen. Die Währungsunion ist für beide Länder zusammen negativ zu beurteilen, -4 + 3 < 0. Fazit: politische Tauschgeschäfte bringen nur für die neue Mehrheit (D, F) eine Verbesserung, nicht unbedingt für alle zusammen, d. h. unter Einschluÿ der neuen Minderheit. Dies ist ein Beispiel dafür, daÿ sich zwei zu Lasten eines Dritten einigen können. Im Markt ist das ein Kartellproblem, wenn sich Dyopolisten zu Lasten des Nachfragers, eines Dritten, einigen. Auch in diesem Beispiel haben wir eine zyklische Instabilität: 0 ≺ politische Union + Währungsunion ≺ X X ist der Versuch der britischen Regierung, die D-F Achse zu spalten: Die britische Regierung schlägt vor, auf die Währungsunion zu verzichten, D würde zustimmen (X = politische Union) Die britische Regierung schlägt vor, auf die politische Union zu verzichten, F würde zustimmen (X = Währungsunion). X= politische Union oder Währungsunion alleine  0. Wenn die britische Regierung die Spaltungsstrategie verfolgt, stehen die beiden anderen vor einem Gefangenendilemma. Jeder muÿ befürchten, daÿ der andere abspringt und mit den Engländern koaliert. Das Gefangenendilemma paÿt hier besonders gut, weil die beiden Gefangenen ein Projekt durchziehen wollen, das insgesamt negativ zu beurteilen ist. Fazit: Politische Tauschgeschäfte brauchen nichts Schlechtes zu sein. Wie im ersten Beispiel, wo eine potentielle Paretoverbesserung von A nach B möglich ist, 62KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS weil die intensiven Präferenzen von Minderheiten zur Geltung gebracht werden können. Politische Tauschgeschäfte können aber auch zu einer Verschlechterung führen. Sie sind nicht resistent gegen zyklische Instabilität. Es ist so, daÿ sie in beiden Fällen erst durch den Kuhhandel erzeugt wird. Im ersten Beispiel bekommen wir ohne Tauschgeschäfte die stabile Lösung A. Im zweiten Beispiel bekommen wir weder eine Währungsunion noch eine politische Union und auch diese Lösung ist stabil. Politische Tauschgeschäfte müssen aber nicht in allen Fällen zu Instabilitäten führen. 3.7 Wählersteuer Der Grundgedanke der Wählersteuer (Clarke/Groves-Mechanismus) ist, daÿ man eine Verbesserung dadurch erzielen kann, daÿ man denjenigen, der durch seine Stimmabgabe den Ausschlag in die eine oder andere Richtung gibt, verpichtet für die negativen externen Eekte, die dadurch bei den andern entstehen, eine Kompensation zu zahlen. Wer immer eine Entscheidung ausschlaggebend beeinuÿt, wird negative externe Eekte bei denen erzeugen, die lieber eine andere Lösung hätten. Und nur, wenn diese für den Verlust entschädigt werden, von denjenigen, die den Ausschlag geben, können wir erwarten, eine paretooptimale Lösung zu bekommen. Es ist also eine Anwendung des Kompensationsprinzips, wobei die externen Effekte durch die Wählersteuer internalisiert werden. Jeder Abstimmende soll gezwungen werden, sich den Wert des Ausschlaggebens zu Grenzkosten kaufen zu müssen. Das Grundmodell ist in Abbildung 3.19 zu sehen. Abbildung 3.19: Wahlsteuer I II III P A 0 25 5 30 B 4 0 10 14 Steuer 0 9 0 Es soll eine entweder-oder Entscheidung getroen werden. Sie fällt durch Abgabe der Präferenzen, im Sinne von Zahlungsbereitschaften, diese werden addiert und wo die höhere Summe herauskommt, liegt die Lösung. Im Grundmodell wird A gewählt. Gibt es einen Anreiz, die wahren Präferenzen zu 3.7. WÄHLERSTEUER 63 verschleiern? Der Vorteil des Glarke/Groves Mechanismus besteht darin, daÿ es keinen Anreiz gibt, die Zahlungsbereitschaften, die in Geldeinheiten ausgedrückten Präferenzen, falsch anzugeben. Wer das tut, muÿ eine hohe Wählersteuer zahlen, so daÿ er sich schlechter stellt als durch eine wahrheitsgemäÿe Angabe der Präferenzen. Muÿ jemand bei Annahme von A Wählersteuer zahlen? Gibt es unter den drei Wählern einen, der durch seine Stimmabgabe den Ausschlag gibt, ohne den die Abstimmung anders ausgegangen wäre? In Abbildung 3.20 wird die Wählersteuer für das Grundmodell berechnet. Abbildung 3.20: Wahlsteuer im Grundmodell ohne I II II A 30 5 25 B 10 14 4 Steuer 0 9 0 Wähler I ist nicht ausschlaggebend, da II+III ohne ihn A beschlossen hätten, ebenso Wähler III. Wähler II muÿ eine Wählersteuer in Höhe von 14-5 = 9 zahlen, die Dierenz zwischen den anderen beiden Stimmensummen. Dies ist der (netto) externe Eekt bei den anderen beiden Wählern, die B gegenüber A vorziehen. Die Wählersteuer bemiÿt sich nach dem Verlust, der den beiden anderen daraus entsteht, daÿ der II die Entscheidung ausschlaggebend verändert hat. Tullock/Tideman diskutierten eine nicht diskrete, sondern kontinuierliche Entscheidung über die optimale Menge eines öentlichen Gutes, wobei jede beliebige Menge möglich ist. Wie wird das öentliche Gut nanziert? Die Grenzkosten (Steuern) sollen für jeden gleich hoch sein (lumpsum), jeder zahlt GK/n = pi . In Abbildung 3.21 bezeichnet NP−i die aggregierte Nachfragefunktion bis auf den Bürger i, GK−i Grenzkosten ohne den Bürger i, i trägt also mit GK − (GK − pi ) = pi zur Fi∗ nanzierung des öentlichen Gutes bei. qP ist die Menge des öentlichen Gutes, −i die von den anderen gewählt worden wäre, wenn es den i nicht gegeben hätte, oder wenn er nicht zur Abstimmung gegangen wäre. In der Diskrepanz zwischen ∗ ∗ spiegelt sich der negative externe Eekt des i wider, den die anderen qP und qP −i hinnehmen müssen, weil sich der i an der Abstimmung beteiligt hat. Wie groÿ ist der Verlust für die anderen, wenn sich i an der Abstimmung beteiligt? ∗ Die anderen müssen jetzt abc nanzieren, weil sich der i beteiligt hat und qP −i ∗ herauskommt. Der Nutzen bc, das Feld unter der Nachfragekurve der statt qP anderen, ist jedoch geringer, so daÿ sie insgesamt einen Verlust machen. Das ist 64KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Abbildung 3.21: Wählersteuer DM GK b a c ∗ ∗ P qP −i q GK − pi GK − p≡ NP NP−i q der negative externe Eekt, der unter anderem dadurch entsteht, daÿ der i zur ∗ ∗ Abstimmung gegangen ist, und ausschlaggebend die Menge von qP statt qP −i verändert hat. Die Fläche a ist die Wählersteuer. Dieser Nachteil für die andern wird mit der Wählersteuer beim i internalisiert. Je mehr er das Ergebnis durch seine Abstimmung verändert, desto höher ist die Wählersteuer, die er zahlen muÿ. Infolgedessen hat er kein Interesse daran, seine Präferenzen stärker abweichend anzugeben als sie wirklich sind, denn dann müÿte er mehr Wählersteuer zahlen. Er müÿte bei einer Finanzierung nicht durch eine Kopfsteuer, sondern nach dem Äquivalenzprinzip6 , keine Wählersteuer zahlen. Dann wären die GK − p≡ die Grenzkosten nach dem Äquivalenzprinzip und es würde sich automatisch die Men∗ ge qP ergeben, und es wäre keine Wählersteuer fällig. Die Wählersteuer entsteht nur, wenn wir eine Abweichung von Äquivalenzprinzip haben. Die Abweichung kommt dadurch zustande, daÿ wir nicht wissen, was die wahren Präferenzen sind. Wenn wir das wüÿten, bräuchten wir die Wählersteuer nicht. Die Wählersteuer sorgt dafür, daÿ ein Anreiz besteht, die Präferenzen wahrheitsgemäÿ anzugeben. Sie ist ein Mechanismus, der die wahren Präferenzen aufdeckt. Die Entwicklung solcher Mechanismen ist Ziel des Mechanims-Designs, das in der Besteuerungstheorie eine wichtige Rolle spielt. Wieso hat i ein Interesse daran, seine Präferenzen wahrheitsgemäÿ anzugeben? 6 Nach dem sogenannten Äquivalenzprinzip (benet principle) wird jeder Steuerzahler gemäÿ seiner Nachfrage nach öentlichen Leistungen besteuert. Die Bürger sollen also ein marktpreisähnliches Entgelt für den Nutzen aus öentlichen Gütern und Dienstleistungen zahlen. Somit müÿte jedem Steuerzahler entsprechend seiner individuellen Präferenzen ein eigener Steuertarif auferlegt werden. 3.7. WÄHLERSTEUER 65 In Abbildung 3.22 wurden nun zusätzlich die Nachfrage des i und die Kurve Ai Abbildung 3.22: Anreizkompatibilität der Wählersteuer DM GK Ni0 GK − pi a Ni Ai v a w u q0 NP NP−i pi q eingezeichnet. Ai ist die Summe aus der Kopfsteuer pi und der Wählersteuer. Wenn der Nachfrager i eine falsche Nachfrage angibt, beispielsweise eine zu hohe Ni0 , ergibt sich im Schnittpunkt von Ai und Ni0 eine höhere Menge q 0 . Was hat das zur Folge? i hätte zusätzlich uvw an Steuer zu zahlen. u als Kopfsteuer pi und vw als Wählersteuer. Gleichzeitig gewinnt er aber gemessen an seinen wahren Präferenzen Ni nur wu, so daÿ er durch die falsche Angabe der Präferenzen einen Verlust in Höhe von v erleidet. Es besteht also ein Anreiz, die Präferenzen richtig anzugeben. Wenn man sie zu hoch angibt, kommt eine zu groÿe Menge heraus und die Wählersteuer hat zur Folge, daÿ er höhere Grenzkosten als Grenznutzen hat. Die Vorteile der Wählersteuer sind zweierlei. Einerseits gibt es einen Anreiz zur wahrheitsgemäÿen Angabe der Präferenzen durch eine Internalisierung der negativen externen Eekte, die der ausschlaggebende Wähler den anderen aufbürdet, andererseits sind die Ergebnisse zyklisch stabil. In Abbildung 3.23 sieht man, daÿ ohne Wählersteuer eine zyklische Instabilität vorliegt: A ≺ B (I, III, IV für B) ≺ C (I, II, IV, V für C) ≺ A (II, III, V für A). Mit Wählersteuer wird C gewählt und das System ist stabil. Wie hoch ist die Wählersteuer? Im rechten Teil der Abbildung sieht man, daÿ I, II, III, V das Ergebnis nicht ändern. Ohne sie wird jeweils C gewählt. Wähler IV verändert das Ergebnis. Ohne ihn würde A (105) gewählt werden und mit ihm C. Deshalb muÿ er die Dierenz an Steuer bezahlen: 105-95=10. 66KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Abbildung 3.23: Zyklische Instabilität Wähler I II III IV V P Präferenzen A B C 0 35 40 50 0 30 10 55 0 0 20 65 45 0 25 105 110 160 Steuer 0 0 0 10 0 Ergebnisse ohne i A B C 105 75 120 55 110 130 95 55 160 105 90 95 65 110 135 Im Ergebnis haben wir eine eindeutige Lösung, sie ist optimal, weil ein Interesse besteht, die Präferenzen wahrheitsgemäÿ anzugeben. Es gibt fünf Nachteile der Wählersteuer. 1) Erstens ist sie kompliziert. Eine Bundestagswahl ist damit nicht möglich. Allerdings ist sie möglicherweise für Pros geeignet, wie z. B. im EU-Ministerrat (Scheckbuch - Diplomatie). 2) Zweitens sind keine geheimen Wahlen möglich. 3) Drittens stellt sich im Parlament die Frage, woraus die Abstimmenden ihre Wählersteuer bezahlen sollen, aus ihren Diäten? 4) Das vierte Problem ist eher akademischer Natur: Was machen wir mit den Einnahmen aus der Wählersteuer, denn je nach Verteilung dieser Einnahmen verzerrt man das Abstimmungsverhalten, da bei der Präferenzabgabe noch berücksichtigt wird, was man bei der abschlieÿenden Verteilung wieder zurückbekommt. Somit gibt man nicht die wahren Präferenzen an. Die Einnahmen müssen auf den Mond geschossen werden. Gibt man sie den Nichtwählern, erfolgt die Abstimmung zwar wahrheitsgemäÿ, aber es entsteht eine Verzerrung zwischen zur Wahl gehen und nicht zur Wahl gehen. Es entsteht eine zu geringe Wahlbeteiligung, da man für Nichtwählen Geld bekommt. Man könnte aber mit der Finanzierungsregel in Richtungs Äquivalenzprinzip gehen, so daÿ keine Wählersteuer fällig wird und man sie auch nicht zu verschwenden braucht. pi sollte nicht einer Kopfsteuer, sondern is Zahlungsbereitschaft entsprechen. Man müÿte denjenigen, die die Finanzierungsregeln festlegen einen Anreiz geben, sie nach dem Äquivalenzprinzip festzulegen. Das heiÿt, die Entscheider sollen einen Anreiz haben, die Wählersteuer zu minimieren, z.B. durch Diätenabzug bei Zunahme der Wählersteuerzahlungen. Wenn man keine Wählersteuer hat, muÿ man sie auch nicht verschwenden und wir bekommen trotzdem das Optimum. Die Existenz einer potentiellen Wählersteuer führt dazu, daÿ alle ihre Präferenzen richtig angeben. Die Wählerssteuer ist da, aber die Finanzierungregeln werden ex ante so festgelegt, daÿ die Wählersteuereinnahmen minimal sind und wir minimale Verzerrungen haben. Das Problem wird mit der Zahl der an der Abstimmung Beteiligten unwichtiger. 3.7. WÄHLERSTEUER 67 Abbildung 3.24: Verdoppelung der Wähler I II III IV V VI P A 0 25 5 0 25 5 60 B 4 0 10 4 0 10 28 Steuer 0 0 0 0 0 0 In Abbildung 3.24 wurde die Anzahl der Wähler verdoppelt und plötzlich ist keine Wählersteuer mehr fällig. II muÿ keine Wählersteuer mehr zahlen. Durch eine Erhöhung der Zahl der Wähler sinkt das Gewicht des einzelnen und damit die Wahrscheinlichkeit, daÿ er den Ausschlag gibt. Damit verschwindet auch das Problem der Wählersteuereinnahmen. Alldings sinkt auch die Steuerungswirkung der Wählersteuer. 5) Der fünfte Nachteil ist das Problem des strategischen Verhaltens in Form eines Koalitionsproblems. In Abbildung 3.25 ist der Fall dargestellt, daÿ sich II und III Abbildung 3.25: Koalitionsproblem I II III P A 0 15(18) 15(12) 30 B 4 0 10 14 Steuer 0 0 0 absprechen und der II Einnahmen aus A zum Teil auf III überträgt. Die wahren Präferenzen (Einnahmen) sind in Klammern aufgeführt. Die gleichmäÿigere Verteilung der angegebenen Präferenzen hat zur Folge, daÿ keine Wählersteuer fällig wird. Durch strategisches Verhalten kann man vermeiden, daÿ die Wählersteuer fällig wird und trotzdem das gewünschte Ergebnis erhalten. Wenn es sich bei den Maÿnahmen A, B um Umverteilungsmaÿnahmen handelt, dann haben wir eine Umverteilung zu Lasten des Wählers I, II oder III und es gibt negative Auszahlungsbeträge. Dann kann man den zu enteignenden, wenn er seine Präferenzen wahrheitsgemäÿ angibt (und diese werden sehr stark von denen, die ihn enteignen wollen, abweichen) dazu zwingen, sehr hohe Wählersteuer zu zahlen. Im Zweifel wird die Wählersteuer so hoch sein, daÿ er Bankrott geht. 68KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS Umverteilungsmaÿnahmen lassen sich mit der Wählersteuer nicht optimal entscheiden, weil dadurch die zu enteignenden über hohe Wählersteuer in den Bankrott getrieben werden können. Es sind dann keine Paretoverbesserungen mehr. In den Zahlenbeispielen hatten wir positive Auszahlungssummen, wo jeder der Lösungen besser als gar keine war. Das Enteignungsproblem läÿt sich nur durch die Einstimmigkeitsregel lösen. Es könnte dann ein zweistuges Entscheidungsverfahren sein, wo zunächst einstimmig entschieden wird, ob man das Wählersteuerverfahren anwenden darf. Wenn darüber keine Einstimmigkeit besteht, liegt oenbar keine Paretoverbesserung vor und man kann das Verfahren, wenn man die Möglichkeit einer Paretoverbesserung fordert, nicht anwenden. Wenn auf der ersten Stufe Einstimmigkeit erzielt werden kann, daÿ man in der zweiten Stufe die Wählersteuer anwendet, dann hat man sichergestellt, daÿ es sich nicht um eine Umverteilungsmaÿnahme handelt und man kann dann im zweiten Schritt die Wählersteuer anwenden. Bespielsweise könnte der Ministerrat in der EU einstimmig über den Haushaltsumfang und danach mit Mehrheit im Parlament über die Verwendung der Gelder entscheiden. Kapitel 4 Ökonomische Theorie der Bürokratie Um die Unterschiede zwischen den traditionellen Theorien und den neueren ökonomischen Theorien deutlich zu machen, folgen Zitate aus den Grundrissen der Sozialökonomik von Max Weber, Kapitel 6, Bürokratie: Der entscheidende Grund für das Vorbringen der bürokratischen Organisation war von jeher ihre rein technische Überlegenheit. Ein voll entwickelter bürokratischer Mechanismus verhält sich zu Diensten der anderen, genau wie eine Maschine zu den nicht mechanischen Arten der Gütererzeugung. Präzision, Schnelligkeit, Eindeutigkeit, Aktenkundigkeit, Kontinuierlichkeit, Diskretion, Einheitlichkeit, strae Unterordnung, Ersparnisse an Reibung, sachlichen und persönlichen Kosten sind bei streng bürokratischer spezieller monokratischer Verwaltung durch geschulten Einzelbeamte ... auf das Optimum gesteigert. Vor allem bietet aber die Bürokratie das Optimum an Möglichkeiten der Durchführung des Prinzips der Arbeitszerlegung in der Verwaltung nach rein sachlichen Gesichtspunkten und das Verteilten der einzelnen Arbeiten auf spezialistisch abgesicherte und in fortwährender Uebung immer weiter sich einschulende Funktionäre. Die bürokratische Struktur ist überall spätestes Entwicklungsprodukt. Je weiter wir in der Entwicklung zurückgehen, desto typischer wird für die Herrschaftsform das Fehlen der Bürokratie und des Beamtentums überhaupt. Die Bürokratie ist rationalen Charakters, Regel, Zweck ... beherrschen ihr Gebaren. Ihre Entstehung und Ausbreitung hat daher überall in dem gesondert zu besprechenden Sinne revolutionär gewirkt, wie es der Vormarsch des Rationalismus auf allen Gebieten zu tun pegte. Sie vernichtete dabei Strukturformen der Herrschaft, welche einen in die69 70 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE sem speziellen Sinne rationalen Charakter nicht hat. Der Bürokrat ist demnach: sachkundig, rational und ezient. Allerdings gibt es eine Einschränkung: Uberlegen ist der Sachkenntnis der Bürokratie nur die Sachkenntnis der privatwirtschaftlichen Interessen auf dem Gebiet der Wirtschaft. Diese deshalb, weil für sie die genaue Tatsachenkenntnis auf ihrem Gebiet direkt wirtschaftliche Existenzfrage ist. Irrtümer in einer amtlichen Statistik haben für den schuldigen Beamten keine direkt wirtschaftliche Folgen. Irrtümer in der Kalkulation eines kapitalistischen Betriebes kosten diese Verluste, vielleicht sogar den Bestand. Schon deshalb ist die behördliche Beeinussung des Wirtschaftslebens an so enge Schranken gebunden und entgleiÿen die Maÿregeln des Staates auf diesem Gebiet so oft in unvorhergesehene und unbeabsichtigte Bahnen oder werden durch die überlegene Sachkenntnis der Interessenten illusorisch gemacht. Die Ezienz der Bürokraten ist nur der Ezienz der privatwirtschaftlichen Kapitalisten unterlegen. Warum hat sich der Bürokrat im Entwicklungsprozeÿ so stark durchgesetzt? 1. Die Forderung einer nach Möglichkeit möglichst beschleunigten dabei präzisen, eindeutigen, kontinuierlichen Erledigung von Amtsgeschäften ... wird heute an die Verwaltung in erster Linie von Seiten des modernen kapitalistischen Wirtschaftsverkehrs gestellt. Das heiÿt, der Kapitalismus selbst fragt Bürokratie nach. In der Public Choice Theorie sind es die Interessengruppen, die Bürokratie nachfragen. 2. Die bürokratische Organisation ist regelmäÿig an die Herrschaft gelangt auf der Basis einer mindestens relativen Nivellierung der ökonomischen und sozialen Unterschiede. Dies ist insbesondere eine unvermeidliche Begleiterscheinung der modernen Massendemokratie im Gegensatz zu der demokratischen Selbstverwaltung kleiner homogener Einheiten. Für Max Weber ist der Bürokrat ein rationaler, sachkundiger und ezienter Staatsdiener. Ein Fachmann, der über den Parteien steht und sich dem Allgemeininteresse verpichtet fühlt, der dem Politiker, sich abwechselnden Mehrheiten, Parteien mit stets gleicher Frustration und Verachtung dient. Frustration 71 und Verachtung deswegen, weil Max Weber meint, daÿ die Politiker weder die Fachkenntnisse besitzen noch das Allgemeininteresse im Auge haben. Sie haben das Parteiinteresse, bestenfalls Mehrheitsinteresse im Sinn. Der Bürokrat hat eine fachliche und moralische Überlegenheit gegenüber dem Politiker. Die moderne ökonomische Theorie der Bürokratie sieht den Bürokraten als homo oeconomicus, der seinen eigenen Nutzen maximiert, seine eigenen Interessen verfolgt und auf materielle Anreize reagieren. Die Anreizsituation ist entscheidend zur Erklärung des Verhaltens der Bürokraten. Die Ansätze gehen zurück auf Mises '44, Parkinson's Gesetz '57, Tullock '65, Downs '67 und Niskanen '71. Zur Zielfunktion des Bürokraten: Schon Max Weber bemerkte, daÿ der Bürokrat bei Irrtum keine direkten wirtschaftlichen Folgen zu befürchten hat und das Einkommen folglich in der Zielfunktion wenig Bedeutung hat. Welche Instrumente und Zwischenziele stehen dem Bürokraten zur Verfügung, um seine Ziele zu erreichen? 1. Machtausübung, Wirkungsmöglichkeiten Der hauptsächliche Unterschied zwischen Bürokraten und beispielsweise einem Unternehmer oder Manager aus Sicht des Ökonomen ist, daÿ das Gehalt wenig leistungsabhängig ist. Die Einkommensmaximierung steht beim Bürokrat nicht an oberster Stelle, er hat nur einen geringen Einuÿ auf sein Einkommen. Deshalb stehen andere Dinge, nicht unbedingt bewuÿt, an erster Stelle. 2. Ansehen, Prestige Die Punkte 1 + 2 würden bei (manchen) Marktteilnehmern weiter unten in der Hierarchie erscheinen, weil das Einkommen eine gröÿere Rolle spielt. 3. Muse, Büroschlaf Diejenigen, die gegen Intervention des Staates sind, würden sagen: der optimale Beamte ist intelligent und faul. 4. Arbeitskomfort Dienstwagen, erster Klasse reisen, groÿes Büro, gedruckte Vorlesungsgliederungen 5. Sicherheit Das Sicherheitsbedürfnis eines Bürokraten ist gröÿer als die eines Menschen, der in der Privatwirtschaft tätig ist, weil der Bürokrat sein Gehalt nicht erhöhen kann, dadurch, daÿ er Risiken eingeht (sein Gehalt enthält keine Risikoprämie). Im Gegenteil, erhält ein Bürokrat ein Disziplinarverfahren 72 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE in der Regel, weil er etwas falsch gemacht hat und nicht, weil er nichts gemacht hat. Wenn man nichts tut ist man sicher. Es ist für einen Bürokraten, wie für alle, die sich in einer Organisation benden, auÿerordentlich schwierig, überhaupt irgend etwas zu verändern. Man muÿ viele Vorgesetzte und Kollegen überzeugen, daÿ eine Innovation notwendig ist. Dies ist mit Risiko verbunden, so daÿ man es von vornherein sein läÿt. Der Bürokrat wird in erster Linie aktiv, um Risiken auszuschalten: Unfallrisiken führen zu ausufernder Ampelitis, Schilderwald und Geschwindigkeitsbegrenzungen, weil man sonst kritisiert wird, nichts getan zu haben. 6. Einkommen An erster Stelle in der Privatwirtschaft. Instrumente und Zwischenziele: 1. Macht (a) Haushalt: Je höher der Haushalt, desto höher der Einuÿ, desto mehr kann der Bürokrat bewirken. Das Haushaltsmotiv kann einige bürokratiespezische Verhaltensweisen erklären. - Der Bürokrat bevorzugt generell die staatliche gegenüber der privaten Produktion von z. B. öentlichen und natürlichen Monopolgütern. Wobei hier zwischen Produktion und Finanzierung zu unterscheiden ist: private Produktion muÿ nicht private Finanzierung bedeuten, beide Produktionsarten können aus dem Staatshaushalt nanziert werden, und trotzdem würde der Bürokrat die öentliche Produktion bevorzugen, da dies seinen Haushalt erhöhen würde. Beispielweise zu sehen bei der Pegeversicherung: es reicht, eine Versicherungspicht zu haben. Jeder kann selber entscheiden, ob er sich, privat oder staatlich, versichert. Die Sozialversicherungen und Arbeitsminister machten sich jedoch für eine staatliche Produktion stark. - Der Bürokrat tritt für den Nulltarif bei der Preisgestaltung für öentliche Güter und Dienstleistungen ein. Dies erhöht die Nachfrage nach den Dienstleistungen der Bürokratie und damit auch den Haushalt und die Möglichkeiten zur Machtausübung. - Die Verwaltung tritt, z. B. in der Sozialpolitik, typischerweise für das Gieÿkannenprinzip ein. Das heiÿt, die Sozialleistungen werden nicht gezielt an Bedürftige, sondern an einen möglichst breiten Empfängerkreis verteilt. Je weiter der Empfängerkreis ist, desto gröÿer ist der Haushalt. 73 - Das Haushaltsmotiv könnte möglicherweise die deutlich höhere Wahlbeteiligung der öentlich Bediensteten erklären (bei den Präsidentschaftswahlen in den USA: 90% versus 50% der anderen Wahlberechtigten). - Das Haushaltsmotiv könnte erklären, warum so viele Vertreter des öentlichen Dienstes in die Parlamente drängen. Wir haben eine weit überproportionale Repräsentation des öentlichen Dienstes in den Parlamenten (siehe Kopie 28). 45% der Bundestagsabgeordneten sind aus dem öentlichen Dienst was weit mehr ist, als der Anteil an der Bevölkerung (ca. 6%) oder den Erwerbstätigen (13.7%)(siehe Kopie 29). Im Landtag von Baden-Württemberg hatten die Bürokraten 1987 mit 58% die absolute Mehrheit. Allerdings sollte die Überrepräsentation des öentlichen Dienstes nicht in erster Linie so erklärt werden. Es hat eher etwas damit zu tun, daÿ man sich aus dem öentlichen Dienst einfacher beurlauben lassen kann als aus der Privatwirtschaft. Die Opportunitätskosten der parlamentarischen Tätigkeit sind in der Privatwirtschaft somit wesentlich höher. (b) Machtausübung durch Regulierung (Vorschriften machen können) ist eine Beschränkung der privaten Vertragsfreiheit durch staatliche Akteure. 2. Prestige (hohes Tier oder kleine Nummer) (a) Haushalt: mit Zahlen kann man nicht immer genügend beeindrucken. Der nächste Punkt ist deshalb auch wichtig. (b) Mitarbeiterzahl, Personalbestand, Stellenkegel: Das Vorweisen einer groÿen Mitarbeiterzahl erhöht das Prestige stärker als das Vorweisen eines groÿen Haushaltes. Dies könnte ein möglicher Grund sein, warum der öentliche Dienst personalintensiv produziert. In den Kopien 30 und 31 ist zu sehen, daÿ der Personalstand vor allem bei den Ländern und Gemeinden wächst. Kopie 31 zeigt einen internationalen Vergleich. (c) Regulierungskompetenz ist, weil man sich wenig darunter vorstellen kann, womöglich kein wichtiger Bestimmungsgrund für Prestige. 3. Muse (a) Haushalt wirkt sich hier nicht aus, vielleicht sogar negativ, wenn der Haushalt verwaltet und verantwortet werden muÿ. (b) Das wichtigste ist, daÿ man Mitarbeiter hat, auf die man die Arbeit abwälzen kann. Allerdings besteht auch die Möglichkeit, daÿ sich das ins Gegenteil wendet, wenn man zuviel Personal zu beaufsichtigen hat, 74 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE wird es lästig. Das bedeutet, daÿ die optimale Menge kleiner als unendlich ist. 4. Arbeitskomfort (a) Dazu sollte der Haushalt möglichst groÿ sein. (b) Personal wie Chaueur oder eine Fremdsprachenkorrespondentin ist ebenfalls hilfreich. 5. Für Sicherheit sollte man vor allem (a) Regulierungskompetenzen haben und Vorschriften machen können. (b) Personal, an das man gefährliche Dinge delegieren kann, um so den schwarzen Peter weiterzuschieben. 6. Gehalt, hängt unter Umständen von (a) Haushalt und (b) Personalkegel ab. Das Personalmotiv ist eine mögliche Erklärung für die weite Verbreitung einer Präferenz von Sachtransfers über Geldtransfer (s. a. Meltzer/Richard Regression). Geldtransfers sind ökonomisch eher sinnvoll, weil der Empfänger frei entscheiden kann, was er damit anfängt. Der Bürokrat jedoch hat ein relativ hohes Interesse daran Sachtransfers bereitzustellen, weil diese personalintensiv produziert werden können und nicht nur einfach Haushaltsmittel verteilt werden müssen. Warum hat das Einkommensmotiv solch einen niedrigen Stellenwert für den Bürokraten? Kopie 33 zeigt, daÿ das Einkommen automatisch in Besoldungsklassen steigt, es eine Regelbeförderung und Dienstalterzulage gibt. Bei Leistung kann man nicht Besoldungsklassen überspringen, da es Wartezeiten für den Auftieg im öentlichen Dienst gibt. Wie sind die Anreize für Prämienzahlungen im öentlichen Dienst? Einsparungsvorschläge werden selten realisiert. Im behördlichen Vorschlagswesen gibt es ... wenn ihre Verwertung in der Verwaltung nützlich ist Geldprämien bis 2000 DM (die wohl nicht auf groÿe Veränderungen angelegt sind), Sonderurlaub bis zu drei Wochen oder beides. Es gibt also Möglichkeiten, sich mit guten Ideen zusätzliche Zahlungen zu verschaen. Ein typisches jahreszeitliches Muster in den Ausgaben (siehe Abbildungen 34) nennt sich Dezembereber: Geld, das bis zum Jahresende nicht ausgegeben war verfällt, auÿerdem besteht die Gefahr, daÿ der nächste Haushalt geringer ausfällt, weshalb es wichtig ist alles auszugeben. 4.1. FORMALE MODELLE 75 In Kopie 35 ist ein Vergleich der Bundesländer zu sehen. Im Durchschnitt wird im vierten Quartal 30.4% mehr ausgegeben als im Durchschnitt der drei ersten Quartale. 4.1 Formale Modelle 4.1.1 Niskanen Niskanen entwickelte in seiner Dissertation 1971 das einfachste moderne Modell der Bürokratie. Die drei Hauptinstrumente eines Bürokraten sind Personal, ReAbbildung 4.1: Niskanenmodell p GK k n l m q∗ M ZB qN q gulierung und Haushalt. Der Niskanenbürokrat verfügt nur über das wichtigste der Instrumente, den Haushalt. Der Nutzen des Bürokraten hängt nur vom Haushalt (B = Budget) ab. In Abbildung 4.1 ist q der Output, M ZB die Nachfrage der Wähler oder Politikers nach Output, die die Bürokratie beaufsichtigt und mit denen der Bürokrat sich einigen muÿ. Der Bürokrat maximiert den Haushalt, was durch die Fläche klm unter der Nachfragekurve gegeben ist. Im Ergebnis wird soviel Output wie möglich produziert, da das Budget mit dem Output steigt. Als Nebenbedingung gilt lediglich, daÿ der Haushalt ausreichen muÿ, um die Kosten zu decken (klm = lmn). Der Bürokrat kann nur soviel Output produzieren (nach rechts geben) wie noch das Feld unter der Nachfragefunktion klm ausreicht, um 76 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE das Feld unter der Grenzkostenfunktion lmn abzudecken. Er wählt den Output qN , bei denen das Feld unter der Nachfragekurve genauso groÿ ist, wie das Feld unter der Grenzkostenkurve (klm = lmn, wobei der Niskanenbürokrat zu minimalen Grenzkosten produziert. Wieso kann der Bürokrat qN durchsetzen? Niskanen nimmt an, daÿ der Bürokrat ein Optionsxierer (Agendasetter) ist. Das heiÿt, der Bürokrat kann gegenüber dem Politiker einen Vorschlag machen, und der Politiker kann nur ja oder nein sagen. Der Bürokrat xiert die Option, die für den Politiker gerade ist. Der Politiker zahlt soviel wie ihm der Output wert ist, R qNnoch annehmbar R qN M ZB = 0 GK = klm. Es handelt sich für die Politiker um eine Alles-oder0 nichts-Entscheidung und der Bürokrat wählt den Punkt auf der Nachfragekurve der Politiker, der den gröÿtmöglichen Haushalt ergibt. Das bedeutet, daÿ die Nachfrager- und Anbieterrente dazu verwendet wird, den Überschuÿ der Grenzkostenkurve über die MZB zu nanzieren. Die gesamte Rente bis q ∗ des preisdiskriminierenden Monopolisten k wird dazu verwendet, die überschüssigen Kosten n, die nicht aus der zusätzlichen M ZB der Politiker abgedeckt werden können, zu nanzieren. Wir haben es hier mit einer nicht paretoezienten Überproduktion zu tun. Es ergibt sich ein Wohlfahrtsverlust aus extensiver Produktion, die mit Hilfe der intramarginalen Renten k nanziert wird. R Budgetrestriktion: B = R M ZB = aq − 12 bq 2 fallende M ZB Kostenfunktion: C = GK = cq + 21 dq 2 steigende Grenzkosten Optimalbedingung: B=C aq − 12 bq 2 = cq + 12 dq 2 a − c = 21 (b + d)q Optimale Produktion: qN = 2 a−c b+d qN steigt/sinkt (+/-) mit - (a+) dem Achsenabschnitt der M ZB . Mit a steigt die Produzentenrente, es können mehr Kostenüberschüsse abgedeckt werden, so daÿ qN steigt. - (c-) dem Achsenabschnitt der GK . Die Renten und qN sinken. - (b-) der Steigung der M ZB . Mit höherem b ist die M ZB steiler und die Renten und qN sinken. - (d-) der Steigung der GK . Mit höherem c ist die GK -Kurve steiler, die Kosten steigen und qN sinkt. Dieses Ergebnis kann nun mit einem vollkommen preisdiskriminierenden Monopolisten, der kein Optionsxierer ist, verglichen werden. 4.1. FORMALE MODELLE Zielfunktion: FOC: Optimale Produktion: 77 π =B−C ∂π = a − bq − c − dq = 0 ∂C a − c = (b + d)q q ∗ = a−c b+d Der Niskanenoutput ist doppelt so groÿ wie der eziente Output (qN = 2q ∗ ). Das gilt nicht, wenn die Nachfragefunktion wie in Abbildung 4.2 sehr elastisch ist. Es liegt dann eine Beschränkung von der Nachfrageseite vor. Abbildung 4.2: Nachfragebeschränkung im Niskanenmodell p GK M ZB k lm n qNC qN q Es ist mehr Rente da, als zur Finanzierung des exzessiven Outputs gebraucht wird (k > n). Die intramarginale Rente ist so groÿ, daÿ man eigentlich weiter nach rechts kommt (qNC < qN ). Der Politiker würde jedoch einer Produktion jenseits des Sättigungpunktes qNC nicht zustimmen. Die Lösung lautet in diesem a Fall: max B ; FOC: ∂B/∂q = M ZB = a − 2bq = 0; qNC = 2b ; q ∗ < qNC < qN . Was passiert mit dem Teil der Rente, der nicht gebraucht wird? Dies wird in den nächsten Modellen, die über Niskanen hinausgehen, behandelt. Ergebnis: Die Wahrscheinlichkeit des nachfragebeschränkten Falles steigt mit der Unelastizität der Nachfrage. Kritik der Annahmen des Niskanenmodells: Wie überzeugend sind die Annahmen der Zielfunktion und des Optionsxierers? Die Zielfunktion unterstellt, daÿ die Bürokraten die Haushaltsgröÿe unter der Nebenbedingung der Nachfragefunktion maximieren. Diese Annahmen sind zu einfach, denn es sind noch weitere Motive denkbar: die intramarginalen Renten, die der vollkommen preisdiskriminierende Optionsxierer abschöpft, könnten für Muse, Personal oder Arbeitskomfort verwendet werden, was die Kosten steigen lieÿe. Der Niskanenbürokrat produziert zu den minimalen Grenzkosten. Er ist in diesem Sinne ezient. Die Inezienz rührt daher, daÿ er zu viel produziert. 78 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE Niskanen berücksichtigt also nicht die Möglichkeit, daÿ die Grenzkosten in der öentlichen Verwaltung viel zu hoch sind. Ebensowenig berücksichtigt er die Personalpräferenz des Bürokraten, der lieber arbeits- statt kapitalintensiv produziert. Wie läÿt sich die Annahme des Optionsxierer plausibel machen? Drei Möglichkeiten sind vorstellbar. Bei den ersten beiden baut die Begründung auf Informationsnachteile des Politikers gegenüber dem Bürokraten auf. 1. Der Politiker kann die Grenzkosten aufgrund des Informationsnachteils nicht feststellen, und der Bürokrat gibt einen niedrigeren Verlauf der Grenzkostenkurve an, um auf qN zu kommen. Das Problem besteht darin, daÿ der Politiker bedenken muÿ, daÿ bei so niedrigen Grenzkosten, auch eine Rente angefallen sein muÿ. Er muÿ sich fragen, warum er keine Rente abbekommt und warum der Bürokrat ihm die gesamte Rente abnimmt. Der Bürokrat wird einen falschen (GK 0 6= GK ) Verlauf der Genzkostenkurve (GK 0 ) vorgeben müssen. Um zu begründen, daÿ er im Optimum produziert, sich also die Nachfrage und Angebotskurve in qN schneiden, und daÿ keine Rente (r = st) aufgrund von auÿerordentlich hohen intramarginalen Grenzkosten angefallen ist. Allerdings wäre das ein groÿer Zufall, Abbildung 4.3: Annahme des Optionsxierer im Niskanenmodell p GK r s t GK 0 qN q wenn bei einem bestimmten Output sich sowohl die Nachfrage und Grenzkostenkurve schneiden, als auch die Renten gerade verschwinden (r = st). Das ist aus Sicht des Politikers nicht glaubhaft, und das Ergebnis würde kein Gleichgewicht darstellen. Diese Argumentation ist somit nicht plausibel. 2. Der Politiker durchschaut das Spiel, ist aber zu schwach. Er ist dem Bürokraten ausgeliefert, weil er ohne ihn nicht an der Macht bleiben kann. Der Bürokrat muÿ ihm bei der Wahl helfen, Stimmen zu gewinnen. Er muÿ ihm Argumente, Unterstützung und Statistiken für den Wahlkampf liefern. Der Politiker darf es sich mit dem Bürokraten nicht verderben, denn sonst betreibt er Wahlsabotage, 4.1. FORMALE MODELLE 79 möglicherweise sogar in dem Sinne, das Indiskretionen über den Politiker verbreitet werden. Der Politiker benötigt vom Bürokraten: positive Informationen, um wiedergewählt zu werden und er muÿ vermeiden, daÿ negative Informationen vom Bürokraten veröentlicht werden. Der Politiker weiÿ, daÿ ihm die gesamte Rente abgenommen wird, er kann sich jedoch nicht dagegen wehren. 3. Der Politiker hat keine Informationsnachteile, er ist auch nicht abhängig, sondern will dasselbe wie der Bürokrat: einen groÿen Haushalt, Macht und Prestige. Dies könnte insbesondere für Ressortminister zutreen. Es gibt keine Interessendivergenz zwischen dem Politiker und dem Bürokraten und beide ziehen an einem Strang. Das würde voraussetzen, daÿ der Wähler rational uninformiert ist, sonst läÿt sich das Spiel nicht spielen und der Politiker wird abgewählt. 4.1.2 Migué/Bélanger Die Annahme des Optionsxierers wird beibehalten. Die Nutzenfunktion ist nun nicht mehr nur vom Haushalt B , sondern auch von Muse und Arbeitskomfort S abhängig (auf englisch Slack, Leerlauf). U = U [B (q ), S (q )] + + + ± Durch die Einführung von Slack gibt es nun zwei mögliche Verwendungszwecke für die intramarginalen Renten, einerseits Finanzierung von zusätzlichem Output (wie im Niskanenmodell) und andererseits für Muse und Arbeitskomfort, die beide die Kosten erhöhen und über die Rente abgedeckt werden müssen. Dadurch produziert der Bürokrat in diesem Modell nicht mehr zu den minimalen Grenzkosten. In Abbildung 4.4 bezeichnet B = M ZB ∗ q die Budgetkurve, sie ist konkav, weil die M ZB fällt. Die Grenzkostenkurven zeigen einerseits die minimale Grenzkosten GKM in = GKN , die dem Verlauf der GrenzkostenR beim Niskanenmodell entsprechen. Die Slackfunktion S = q(M ZB − GK) = (M ZB − GKM in ) ist maximal an der Stelle q ∗ und 0 bei qN , da der Niskanenbürokrat kein Slack produziert. Vor q ∗ steigt S danach sinkt S , da ab q ∗ die Renten negativ sind und die intramarginale Rente dazu verwendet werden muÿ, das Dezit abzudecken. Es bleibt also netto immer weniger Rente übrig, und in qN ist gar keine Rente mehr übrig. Welchen Anteil möchte der Bürokrat für Slack und welchen für zusätzlichen Output aufwenden, um ein höheres Output zu erreichen? Dazu ist die Indierenzkurve IK eingezeichnet. Bis q ∗ steigen sowohl B als auch S , somit besteht kein Konikt zwischen diesen Zielen. Infolgedessen muÿ die Lösung zwischen q ∗ und qN liegen. In diesem Bereich existiert ein Trade o: q erhöht B , aber senkt S . Die optimale Produktion bendet sich an der Stelle, wo die Indierenzkurve tangential zur Transformationslinie S ist. Die Indierenzkurve läÿt sich aus dem 80 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE Abbildung 4.4: Modell von Migué/Bélanger p GKM B GKM in m k n l M ZB q B, S B q∗ qM B qN IK S q totalen Dierential der Nutzenfunktion gewinnen. Die optimale Produktion des Migué/Bélanger-Bürokraten ist qM B . Der Vergleich zwischen der ezienten, Niskanen- und Migué/Bélanger-Produktion ergibt: Budget Produktion Slack B∗ q∗ S ∗ = Smax < < > BM B qM B SM B < < > BN qN SN = 0 Bei Migué/Bélanger wird ein Teil der Renten für Slack verwendet (SM B > SN ) und der Bürokrat produziert nicht mehr zu Minimalkosten. Bei Niskanen wird die gesamte Rente für die Outputausdehnung verwendet (SN = 0). In der Abbildung 4.4 wurde eine gleichmäÿige Verteilung von Slack auf die Grenz- 4.1. FORMALE MODELLE 81 kosten angenommen, da die GKM B parallel zur GKM in verläuft. Es wird zu teuer (lm) produziert, wodurch der Teil der Rente (von kl auf k ) schrumpft, der zur Dezitabdeckung mn verwendet werden kann. Im Ergebnis produziert der Migué/Bélanger-Bürokrat zu viel und zu teuer. Das Modell kann nun verwendet werden, um in einer komparativen Statik in Abbildung 4.5 der Frage nachzugehen, wie die Bürokratie bei Haushaltskürzungen reagiert? Abbildung 4.5: Haushaltskürzungen im Modell von Migué/Bélanger p M ZB1 M ZB2 q B, S B2 B1 S1 s1 s2 S2 qM B1 qN1 q qM B2 qN2 Eine Kürzung des Haushaltes bewirkt, daÿ sich die Nachfragekurve der Politiker von M ZB1 auf M ZB2 und die Slackkurve von S1 auf S2 verschieben. Es ergibt sich ein neuer Niskanenoutput qM B2 und der Slack geht von s1 auf s2 zurück. Wenn Politiker dem Slack durch Haushaltskürzungen beikommen möchten, hat dies den unerwünschten Nebeneekt, daÿ auch der Output zurückgeht. Das ent- 82 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE spricht der sogenannten Sabotagehypothese, wonach der Bürokrat bei Haushaltskürzungen vor allem den Output reduziert, um die Wähler gegen die Politiker aufzubringen. Sie werden den Output reduzieren, der den Bürgern besonders wichtig ist, und es einen Aufschrei der Entrüstung gibt, um auf die Folgen der Kürzung aufmerksam zu machen. Bei einer Institutsschlieÿung an der Universität hieÿ es: Es soll ruhig nach auÿen deutlich werden, daÿ diese Kürzungen uns hart treen. Die Bevölkerung soll merken, daÿ es zu einer Outputverminderung führt. Buchanan: ... it will be of course direct the cuts to those areas, that are most sensitive, mostly demanded.... Deshalb sollten die Kürzungen nicht dem Bürokraten überlassen werden. Läÿt sich empirisch ein typisches Reaktionsmuster der Bürokraten bei Kürzungen feststellen? New York war in den siebziger Jahren bankrott, der Kapitalmarkt war für die Stadt verschlossen. Die darauf einsetzenden Kürzungen wurden nicht wie erwartet bei der Polizei und der Feuerwehr durchgeführt, sondern bei der Bewährungshilfe, Bildung und der städtischen Krankenversorgung. Kalifornien 1978: Bei der sogenannten Proposition 13 wurde in einem Referendum eine bestimmte Steuer abgelehnt. Die Kürzungen fanden bei der Polizei und der Feuerwehr und nicht beim Personal statt. In Kopie 36 ist auällig, daÿ das Budget um 21.3% zurückging, während die Personalausgaben nur um 5.2%. In Kopie 37 sieht man für die BRD, daÿ der Haupteekt der starken Konsolidierungsbemühungen Anfang der achtziger Jahre bei den Investitionen lag. Wenn die Haushalte gekürzt werden, dann weit unterproportional beim Personal und überproportional bei den Investitionen. Wie ist das zu erklären? Eine naheliegende Erklärung ist, daÿ Personal nicht so schnell abgebaut werden kann. Es gibt (auch in den USA) Kündigungsvorschriften. Um festzustellen, ob die Personalkürzungen tatsächlich geringer sind, sollte man allerdings langfristige Daten betrachten. Eine andere Erklärung lautet, daÿ wenn auf die Bürokratie eine Kürzung zukommt, sich die Bürokraten zunächst denken, daÿ das nur vorübergehend ist, denn die Grausamkeiten haben vor der nächsten Wahl ein Ende. Die Bürokraten brauchen eine Überwindungsstrategie und müssen irgendwie kurzfristig überleben. Auf Investitionen kann man kurzfristig verzichten, indem man zum Beispiel repariert, statt neu anschat. Für die Überwindungsstrategien empehlt es sich nicht Personal zu entlassen, das behördenspezisches Humankapital besitzt und bei Wiedereinstellung neu angelernt werden muÿ. Dies ist inezient und es ist besser abzuwarten, ob die Politiker den Kürzungswiderständen standhalten. Personal wird also erst entlassen, wenn die Kürzungen sich nicht als transitorisch herausstellen. Parkinsons Gesetz lautet: Der Personalbestand wächst immer weiter, ob gekürzt 4.1. FORMALE MODELLE 83 wird oder nicht, ob der Output reduziert werden muÿ oder nicht. Kopie 38 nach sank bei der britischen Admiralität die Anzahl der Schlachtschie, als auch die Mannschaftsgröÿe. Die Anzahl der Beamten im Ministerium stieg jedoch um 80%. Im britischen Kolonialoce vervierfachte sich der Personalbestand, als Groÿbritannien fast alle seine Kolonien verlor. Je stärker der Output reduziert wird, desto höher ist der Personalbestand im Ministerium. Das ist Ergebnis der Arbeitsbeschaungsmaÿnahmen für Oziere und die Mannschaft, die ins Ministerium gesteckt werden. In Deutschland stieg von 1965 bis 1984 das Personal im Landwirtschaftsministerium um 50% von 19.900 auf 26.400, während die Zahl der in der Landwirtschaft Erwerbstätigen um 50% von 2,9 Millionen auf 1,4 Millionen zurückging. Das ist auf Papierkrieg, Interventionen, Erstattungen u.ä. der europäischen Agrarpolitik zurückzuführen. 4.1.3 Bürokratiemodelle mit Personalpräferenz Bei Parkinsons Gesetz geht es um den Übergangsprozeÿ, um die Ableitung des Personalbestandes nach der Zeit. Hier soll es um das Niveau im statischen Gleichgewicht gehen. Die Hypothese lautet: Im Gleichgewicht ist die Produktion der Bürokratie zu personalintensiv. Die Gründe für eine besonders starke Präferenz für Personal könnten Prestige, Muse und Risikovermeidung durch Delegation sein. Das Personal kann als Wähler die Bürokratie abzusichern helfen (Kapital hat kein Stimmrecht). Allerdings ist das ein Kollektivgut mit Trittbrettfahrerproblemen, so daÿ dieses Wahlargument wenig überzeugend ist. Die Gegenhypothese lautet, daÿ Bürokraten ein höheres Interesse an kapitalintensiver Produktion als an personalintensiver haben. Durch eine kapitalintensive Produktionsweise lassen sich Ausgaben vorverlegen. Wenn der Bürokrat eine hohe Zeitpräferenz hat, dient dem eine kapitalintensive Produktion eher als eine personalintensive. In Kopie 39 ist ein Test der Personalpräferenz von Orzechowski zu sehen, der in einer Querschnittsanalyse für US-Universitäten das Verhältnis im Einsatz von Kapital und Arbeit durch den relativen Preis beider Faktoren und einen Dummy für staatliche Produktion erklärt. Der Relativpreis ist wie erwartet signikant negativ. Der Dummy geht der Frage nach, ob es zwischen staatlichen und privaten Universitäten einen Unterschied in der Kapitalintensität der Produktion gibt. Das Vorzeichen dieses Dummys ist negativ und bedeutet, daÿ die staatlichen Universitäten kapitalintensiver produzieren. Allerdings ist die Regression nicht ganz überzeugend, da der Kapitaleinsatz durch die Nichtwohnäche (Landbesitz der Universität) gemessen wird. Die privaten 84 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE Universitäten sind jedoch reicher und eher mit Stiftungsvermögen nanziert. Die Interpretation der Ergebnisse ist deshalb verfälscht, da Kapital hier kein Produktivfaktor, sondern eher eine Geldanlage ist. 4.1.3.1 Orzechowski Im Modell von Orzechowski hat der Bürokrat eine Nutzenfunktion der Form: U = U {B[q(L, K), S(L)]} Slack ist nur von Arbeit abhängig und die Personalpräferenz erklärt sich durch mehr Muse. B Λ ∂Λ ∂L ∂Λ ∂K ∂Λ ∂λ = wL + rK = U + λ(B[q(L, K)] − wL − rK) ∂U ∂B ∂q ∂U ∂S ∂B ∂q = + +λ − λw = 0 ∂B ∂q ∂L ∂S ∂L ∂q ∂L ∂U ∂B ∂q ∂B ∂q = +λ − λr = 0 ∂B ∂q ∂K ∂q ∂K (4.1) (4.2) = B − wL − rK = 0 Die FOC 4.1 und 4.2 lassen sich zu µ ¶ ∂U ∂B ∂q ∂U ∂S +λ + − λw = 0 ∂B ∂q ∂L ∂S ∂L µ ∂U +λ ∂B ¶ ∂B ∂q − λr = 0 ∂q ∂K vereinfachen und dann nach den beiden Grenzprodukten MPL = ∂q/∂L und MPK = ∂q/∂K auösen und durch einander teilen: ∂q ∂L ∂q ∂K = MPL = MPK λw − ( ∂U ∂S ∂S ∂L ∂U +λ ∂B ∂B ∂q λr ) ∂U +λ) ∂B ( ∂B ∂q = ∂S λw − ∂U ∂S ∂L λr Der Unterschied zur Konkurrenzsituation (MPL /MPK = w/r) ist der Ausdruck ∂U ∂S , der die Personalpräferenz, einen Nutzenzuwachs aus Slack, widerspiegelt. ∂S ∂L Die Spezikation von Slack als Personalpräferenz stellt somit einen Spezialfall von Migué/Bélanger dar. Das Grenzprodukt der Arbeit (MPL ) ist geringer als im Konkurrenzmodell, es wird zu arbeitsintensiv produziert. 4.1. FORMALE MODELLE 85 4.1.3.2 Peacock Die vorhergehenden Modelle sind nicht plausibel, da sie als Ergebnis einen zu groÿen Output der Bürokratie haben. Erfahrungsgemäÿ produzieren die Bürokraten jedoch zu wenig. Peacock modelliert Slack, aber keine Personalpräferenz durch die Nutzenfunktion: U = U {B[q(L), S(L, K )}. + − + Die Besonderheit von Peacock ist, das q nur von L abhängt, Kapital ist Slack. Die Bürokraten haben eine Personalaversion, es ist ihnen lästig, da es beaufsichtigt werden muÿ, was schlecht für die Muse ist. Die Folge ist, daÿ weniger Personal eingestellt wird. Da dies aber der einzige produktive Faktor ist, kommt es zu einem zu geringen Output. Fraglich, wieso in diesem Modell Kapital unproduktiv ist, und ob Personalaversion die typischerweise vorkommende Einstellung des Bürokraten ist. Eine Personalaversion ist plausibel ab einem bestimmten Stellenkegel, aber nicht von Anfang an. 4.1.3.3 Alternative Informationsverteilung Die Schluÿfolgerung eines zu kleinen Outputs, die Peacock gerne hätte, lassen sich auch durch die folgenden Annahmen ableiten. 1. Der Politiker kennt die Steigung (+ oder -) der minimalen Grenzkostenfunktion (Technologie) 2. und die tatsächlichen (nicht die minimalen) Grenzkosten, da sie ja meÿbar sind. 3. Er ist nicht so schwach, daÿ es sich die gesamte Nachfragerente abnehmen läÿt, eine vollkommene Preisdiskriminierung ist also nicht möglich. Die asymmetrische Information ist hier nicht so stark wie bei den bisherigen Modellen: Die Bürokraten kennen die MZB und den Politikern sind lediglich die minimalen Grenzkosten nicht bekannt. In Abbildung 4.6 sind die Ergebnisse an einem Beispiel mit konstanten Grenzkosten zu sehen. Aus Annahme 2 folgt, daÿ der Bürokrat keinen Output gröÿer als q ∗ durchsetzen kann. Denn dazu müÿte er den Politiker glauben machen, daÿ die Grenzkostenkurve die Nachfragekurve weiter unten schneiden, nur dann könnte der Politiker 86 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE Abbildung 4.6: Modell mit alternativer Informationsverteilung p GKM on GKB+S GKM in M ZB GE q B, S S0 S qS qB+S q ∗ qN q glauben, daÿ es ein ezienter Output ist. Der Politiker kennt aber die tatsächlichen Grenzkosten, so daÿ jeder Output rechts von q ∗ ausscheidet, denn dazu müÿten die tatsächlichen Grenzkosten geringer als die minimalen Grenzkosten ∗ sein. Per Annahme 2 kann der Bürokrat also nicht über R qq∗ hinaus produzieren. Per Annahme 3 läÿt sich der Politiker nicht die Rente 0 (M ZB − GKmin ) abnehmen. Ohne Annahme 1 könnte der Bürokrat einen Grenzkostenverlauf entlang der MZB vortäuschen und somit höhere Grenzkosten im intramarginalen Bereich vorgeben. Der Bürokrat kann sich nur wie ein normaler Monopolist verhalten. Die Grenzertragsfunktion GE ist die neue Slackfunktion mit Maximum in der Monopollösung qS bei einer vorgetäuschten GKM on Angebotsfunktion. Der Niskanenbürokrat würde in q ∗ mit GKM in produzieren, da er ein reiner Outputmaximierer ist. Der Migué/Bélanger würde qB+S wählen und mit GKB+S produzieren. Ergebnis: 4.2. KONTROLLMAßNAHMEN 87 - qB+S < q ∗ - B(qB+S ) > B(qB+S )min wegen des Slacks, die geltend gemachten tatsächlichen Grenzkosten liegen über den minimalen Grenzkosten. - Es wird inezient - und zu wenig und nicht zu viel produziert. - Es kann sein, daÿ B(qB ) > B(q ∗ ), obwohl qB < q ∗ . Das ist dann der Fall, wenn der Betrag der Preiselastizität der Nachfrage < 1 (sehr steil) ist, wenn der Rückgang des Output zu einem überproportionalen Anstieg des Haushalts führt. Fazit: Die Ableitung der gewünschten Ergebnisse ist über einen einfachen Monopolisten möglich. Die Annahme des Optionsxierers ist nicht nötig. 4.2 Kontrollmaÿnahmen Wieso läÿt sich der Politiker die asymmetrische Information bieten? Warum investiert er nicht in Kontrollmaÿnahmen? Abbildung 4.7: Kontrollmaÿnahmen p GK k GP l m K∗ K In Abbildung 4.7 sind GP das Grenzprodukt der Kontrollmaÿnahmen die für eine zusätzliche Kontrolleinheit K eingesparten Kosten oder Slackreduktion. Die 88 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE GK zeigen die Grenzkosten der Kontrollmaÿnahmen. Es ist nicht ezient, durch Kontrollen den gesamten Slack klm, also alle Produktionskosten, die über die minimalen Kosten hinausgehen, vermeiden zu wollen. Bei der optimalen Menge an Kontrolle über die Kosten in Höhe von l verliert der Bürokrat das, was der Politiker gewinnt (kl). Der Nettoezienzgewinn beträgt k . Wie wirken sich die Kontrollmaÿnahmen auf den Output aus? Bei Haushaltskürzungen im Modell von Migué/Bélanger geht nicht nur der Slack, sondern auch der Output zurück. Hier sind bei Kontrollmaÿnahmen die Grenzkosten, die der Bürokrat geltend machen kann, niedriger als vorhin (in Abbildung 4.6 GKK < GKB+S ). Das führt dazu, daÿ der Bürokrat bei niedrigeren Grenzkosten einen gröÿeren Output wählt. Haushaltskürzungen führen hier dazu, daÿ der Slack sinkt und der Output steigt. Brauchen wir wirklich Kontrollmaÿnahmen? Obwohl hier potentielle Paretoverbesserungen möglich sind, verschwenden Bürokraten Haushaltsmittel, indem sie zu höheren als den minimalen Grenzkosten produzieren. Das kommt daher, daÿ das Einkommen keine beeinuÿbare Variable ist. Ihnen wäre daran gelegen, daÿ sie stattdessen eine Gehaltserhöhung erhalten. Abbildung 4.8: Gefangenendilemma bei Zulagen Gehaltszulage =0 >0 Produktion slack kein slack 1,1 5,0 0,5 4,4 Hypothese: Solch ein Vorschlag scheitert aufgrund eines Gefangenendilemmas: Obwohl 4,4 paretooptimal ist (4+4=8), wird der Bürokrat Slack wählen, da er aufgrund von Zeitinkonsistenz dem Politiker nicht glaubt, nach der Einsparensbekanntgabe auch tatsächlich sein Wort zu halten und das Gehalt des Bürokraten zu erhöhen. Somit liegt ein Gefangenendilemma, aufgrund eines fehlenden Vertrages bezüglich der Gehaltszulage, vor. Kritik: Das Problem ist zu konstruiert und eigentlich nicht wichtig. Es ist richtig, daÿ Politiker bei zukünftigen Gehaltsverhandlungen knauserig sein können. Dieses Problem haben aber alle. Zulagen sollen aber nur für einzelne Denunzianten gezahlt werden, und es ist nicht ersichtlich, wieso diese per Gesetz beschlossene Zulagen nicht bezahlt werden sollten. Mit dieser Hypothese wird jedoch deutlich, daÿ Rechtssicherheit vorliegen muÿ. Ansonsten würde es sich um eine Form Staatsversagen handeln. 4.3. REFORMMAßNAHMEN 89 4.3 Reformmaÿnahmen Aus den vorgestellten Bürokratien lassen sich Reformmaÿnahmen ableiten, um die Ezienz zu steigern beziehungsweise um Bürokratie abzubauen. Die Reformmaÿnahmen lassen sich in Vorschläge, die das Innenverhältnis (innerhalb der Bürokratie) und solche, die das Auÿenverhältnis betreen, einteilen. 4.3.1 Innenverhältnis - Niskanen fordert Dezentralisierung und Wettbewerb. Die Forderung nach Wettbewerb ist jedoch übertrieben. Es sei denn, die Bürokraten hätten überlappende Kompetenzen, was nicht besonders günstig ist. Dezentralisierung schat Vergleichsmöglichkeiten (im Land oder in der Welt) und Vorbilder bezüglich der Performance gleichartiger Produktionen. - Kosten- und Produktionsanalysen durch Auÿenstehende. In Deutschland ist dafür der Rechnungshof zuständig, der für seine Aufgabe nicht besonders gut angelegt ist. Der Präsident des Bundesrechnungshofes wird vom Bundeskanzler vorgeschlagen und vom Parlament gewählt. Innerhalb des Rechnungshofes bestimmt der Präsident, welcher Beamte welches Prüfungsgebiet übernimmt und welche Mitarbeiter ihm zugeteilt werden. Der Präsident hat also weitreichende Zugrisrechte. Der Finanzminister muÿ Beförderungen im Rechnungshof gegenzeichnen und kontrolliert seinen Etat. Vaubels Vorschlag wäre, daÿ der Präsident des Rechnungshofes von der Opposition vorgeschlagen wird. In Frankreich schlug 1993 Präsident Mitterrand den Rechnungshofpräsidenten für die Regierung des Premiers Balladur vor. Die Gaulisten unter Balladur änderten das Gesetz, wonach der Präsident des Rechnungshofes von der Regierung ernannt wird. - Regelbeförderung verlangsamen und Dienstalterszuschläge abschaen. - Finanzielle Beteiligung oder Urlaub bei Einsparungen gewähren. Die goldene Zitrone vom Bund der Steuerzahler an die inezienteste Verwaltung verleihen. - Maÿnahmen gegen das Dezembereber: Man könnte messen, inwieweit die Ausgaben im IV. Quartal über dem Durchschnitt der Ausgaben der Quartale I-III hinausgehen und diesen Überschuÿ für das nächste Jahr kürzen. Allerdings würde man erwarten, daÿ die Ausgaben des IV. Quartals vorverlegt werden würden. Die gleiche Reaktion müÿte auch beim nächsten Vorschlag entstehen. 90 KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE Für das IV. Quartal den Haushalt in Höhe des Durchschnitts der I- III Quartale sperren. Die wird in Nordrhein-Westfalen, Niedersachsen und Schleswig Holstein gemacht. Das Motiv für das Dezembereber entfällt, wenn die volle Übertragbarkeit der nicht ausgenutzten Mittel gewährt wird. 4.3.2 Auÿenverhältnis - Ausschreibungszwang: In Groÿbritannien werden seit dem Local Government Act 1988 in regelmäÿigen Abständen (fünf Jahre), die bisher von der staatlichen Verwaltung erbrachten Leistungen, ausgeschrieben, um festzustellen, ob private Produzenten dies kostengünstiger erbringen können. Ausschreibungsverfahren für diese Zwecke wurden von Loeb-Magat vorgeschlagen. - Veränderung des aktiven/passiven Wahlrechts von öentlichen Bediensteten. Passives Wahlrecht: Einschränkungsmöglichkeit nach Art. 37, I, GG: Die Wählbarkeit von Beamten, Angestellten des öentlichen Dienstes, Berufssoldaten, freiwilligen Soldaten auf Zeit und Richtern im Bund, in den Ländern und den Gemeinden kann gesetzlich beschränkt werden. Folglich wäre ein Gesetz, nach dem Beamte nicht mehr beliebig in den Bundestag gewählt werden können, verfassungskonform. Stimmrechte der öentlichen Bediensteten im Parlament einschränken: ∗ bei Entscheidungen über den Haushalt, ∗ bei Ausgaben, die die Kosten erhöhen oder die zu Personalerhöhungen in der Verwaltung führen müssen, dürfen sie nicht mitstimmen. ∗ Noch besser wäre es, in diesen Fällen eine qualizierte Mehrheit zu verlangen, die zugleich eine einfache Mehrheit unter den nicht Bediensteten des Staates impliziert: bei 45% der Parlamentarier aus dem öentlichen Dienst ergibt sich ein Quorum von 45 + 0,5 (100-45) = 72,58. Dies würde zu einem Anreiz führen, weniger Beamte aufzustellen. Kapitel 5 Verbandsökonomik 5.1 Beeinussung der Wirtschaftspolitik Wie beeinussen die Verbände die Wirtschaftspolitik? Es lassen sich vier Transaktionsmechanismen unterscheiden. Die Verbände verbreiten Informationen. Sie nanzieren die Politiker, u. a. durch Parteispenden. Sie führen oder drohen mit der Durchführung von Störaktionen, die direkt die Wiederwahlchancen der Regierung oder indirekt den Erfolg von wirtschaftspolitischen Maÿnahmen beeinussen. Und sie sind mit der Durchführung bestimmter wirtschaftspolitischer Maÿnahmen betraut. 5.1.1 Transaktionsmechanismen 5.1.1.1 Informationsverarbeitung Der Erfolg des Transaktionsmechanismus Informationsverbreitung setzt voraus, daÿ unvollkommene Information herrscht. Das ist dann der Fall, wenn politische Informationen nicht kostenlos sind oder der Wähler einen niedrigen Anreiz hat, sich über wirtschaftspolitische Fragen zu informieren, also eine rationale Unwissenheit der Wähler vorliegt. Einer der Gründe für die Unwissenheit liegt bei der Existenz externer Eekte. Wenn sich einer informiert, hat das positive externe Eekte auf die anderen Abstimmungsberechtigten, die er nicht internalisieren kann. Die Gründung eines Verbandes führt zu partieller Internalisierung externer Eekte. Die Mitglieder beauftragen die Verbandsfunktionäre, die Information zu beschaen, zu verarbeiten und unter den Mitgliedern zu verbreiten. Für die Verbandsführung lohnt es sich, nun gut informiert zu sein, weil die externen Eekte der Mitglieder internalisiert und das Kollektivgut bereitgestellt wird. Die Verbän91 92 KAPITEL 5. VERBANDSÖKONOMIK de verbessern also den politischen Informationsstand ihrer Mitglieder, allerdings nur (verzerrt) in Bezug auf das Verbandsziel. Auf diesem Weg können ebenso die externen Eekte des Lobbying internalisiert werden. Ist die Verbesserung des Informationsstandes der Mitglieder positiv zu beurteilen? Diese Informationen werden nicht im Markt, sondern im politischen Prozeÿ und in Mehrheitsentscheidungen verwendet. Man kann nicht ohne weiteres davon ausgehen, daÿ dies automatisch zu Wohlfahrtssteigungen führt. (Beispielsweise erhöht der Informationsstand der Maa nicht gerade die Wohlfahrt der Gesellschaft.) Im politischen Prozeÿ gibt es erhebliche Abweichungen von einer Situation mit ezienten Organisationen, vollkommenem Wettbewerb und vorhandenen Eigentumsrechten, die von negativen externen Eekten zu schützen ist. Welche Informationen verbreiten Verbände? 1. Informationen an Mitglieder über die Wirtschaftspolitik. Das geht bis hin zur Bewertung der Wirtschaftspolitik und Wahlempfehlungen (Bauernverband, Hirtenbriefe). Dafür werden Gruppenprivilegien als Gegenleistung von Politikern gefordert. 2. Informationen an Politiker über Branchenvorgänge, -statistiken, -informationen und -probleme. Sind diese Informationen wertvoll für den Politiker? Sie sind verzerrt zugunsten des Verbandszieles. Die Verbandsfunktionäre lassen nur solche Informationen heraus, die die Politiker haben wollen und von dem sie sich politische Aktionen zugunsten des Verbandes erhoen. Diese Information würden die Verbandsfunktionäre sowieso herauslassen, auch wenn sie keine Gegenleistung der Politik dafür bekommen würden. Gegenleistungen in Form von bestimmten Maÿnahmen stehen somit auf einer nicht nachvollziehbaren argumentativen Basis. 3. Informationen an Politiker über Mitglieder und Aggregierung von Mitgliederpräferenzen. Diese sind allerdings auch verzerrt durch die Interessen der Funktionäre, die nicht unbedingt mit denen der Mitglieder übereinstimmen müssen. Die Verbände wirken auf diese Weise an der politischen Willensbildung mit. Je leichter und genauer die Politiker die Wünsche der Mitglieder einer Interessengruppe feststellen können (je mehr also die Funktionäre ihnen die Aggregierung der Präferenzen abnehmen), desto eher erfüllen Politiker die Wünsche solcher Verbände, da ihre Informationskosten auf diese Weise sinken. Alternativen zur Verbandsaggregation der Präferenzen sind Meinungsumfragen, die teuerer und Volksabstimmungen, die zuverlässiger sind. 5.1. BEEINFLUSSUNG DER WIRTSCHAFTSPOLITIK 93 5.1.1.2 Politikernanzierung Es lassen sich drei Arten von Politiknanzierung unterscheiden: direkte Parteispenden, Unterstützung einzelner Kandidaten und Entsendung von Kandidaten ins Parlament. Seit dem Parteiennanzierungsgesetz können Ehepaare Spenden einkommensunabhängig bis zu 6.000 DM zu 50% von der Steuerschuld abziehen. Weitere 6.000 DM können von der (einkommensabhängigen) Steuerbemessungsgrundlage abgezogen werden. Daraus sind sogenannte Karusellgeschäfte möglich: Die Partei gibt dem Mitglied 3.000 DM, das der Partei wiederum 6.000 DM spendet. Da 3.000 DM von der Steuerschuld abgezogen werden können, hat das Mitglied letztendlich nichts bezahlt und die Partei erhält 3.000 DM, die das Finanzamt nanziert hat. Wieso sind die Politiker an Spenden interessiert? Der Politiker kann die Spende, z. B. als Gegenleistung für eine bestimmte Abstimmung, für eigene Zwecke verwenden, sie also in seine eigene Tasche stecken oder sie können für Mitgliederveranstaltungen verwendet werden. Andererseits können mit Spenden Wahlkämpfe nanziert werden, um z. B. unschlüssige und schlecht informierte Wähler zu mobilisieren oder um die Zahl der Enthaltung unter den eigenen Anhängern zu reduzieren. Der Einuÿ von Interessengruppen durch Parteispenden ist umso gröÿer, je schlechter die Wähler informiert sind. Je schlechter sie informiert sind, umso mehr werden die Parteien ausgeben müssen, um sie zu mobilisieren, desto mehr brauchen sie die Verbände. Kopie 40 zeigt den Anteil der Spenden an den gesamten Einnahmen der Parteien. Die CSU belegt den Spitzenplatz, die SPD ist besonders gering von Spenden abhängig und die CDU/FDP/Grüne liegen im Mittelfeld. Kopie 41 zeigt Spenden pro Parteimitglied und pro Parteiwähler. Pro Mitglied führen die Grünen und die CSU. Kopie 42 zeigt die Entsendung von Kandidaten durch Verbände. 48.5% des Deutschen Bundestages in den siebziger Jahren waren Verbandsvertreter. Zusammen mit den 45% aus dem öentlichen Dienst stellen diese beiden Gruppen praktisch 100% des Parlaments. Kopie 43 zeigt, daÿ im Bundestag von 1994 35% Mitglied einer Gewerkschaft waren. 1972 erreichte dieser Wert über 60%. 1994 waren 6,5% der CDU-, 74,8% der SPD-, 24,5% der Grünen und 50% der PDS-Abgeordneten Mitglieder einer Gewerkschaft. Kopie 44 zeigt die Parteipräferenz und -mitgliedschaft von Verbandsmitgliedern. Kopie 45 gliedert die Verbandsvertreter aus SPD und CDU/CSU im Deutschen 94 KAPITEL 5. VERBANDSÖKONOMIK Bundestag noch genauer nach den verschiedenen Verbänden auf. Die Kopien 46 und 47 zeigen, daÿ die Verbandsvertreter besonders in den Ausschüssen des Deutschen Bundestages aktiv werden, die den Verbandszielen entsprechen. Die Kopien 48 und 49 zeigen eine Befragung der Abgeordneten nach dem Einuÿ von Verbänden. Die Direktmandate schätzen den Einuÿ geringer ein als die Listenkandidaten. Das ist einleuchtend, denn die Direktmandate werden vom Wahlkreismedian gewählt und für sie sind die Aktivitäten der Verbände weniger wichtig als für die Listenkandidaten, die die Unterstützung von Verbänden benötigen, um einen guten Listenplatz zu bekommen. Kopie 50 zeigt den Grad der Verechtung zwischen Abgeordneten und Verbänden. Wie zu sehen ist, nimmt die Verechtung mit dem Status zu. Je höher die Politiker, desto höher die Verechtung mit den Verbänden. Der Unterschied zwischen den Staatssekretären und Ministern deutet darauf hin, daÿ Politposten einfacher als Beamtenposten mit Verbandsmitgliedern zu besetzen sind. Kopie 51 gliedert Politiker nach Berufen. Kopie 52 zeigt die Verechtung der Parteien mit den Verbänden, die Kopien 53 bis 56 die Statistiken zu Verbänden auf der EU-Ebene. 5.1.1.3 Störaktionen Störaktionen bestehen einerseits aus Blockaden, um auf sich aufmerksam zu machen (Bauern, Fernfahrer, Umweltschützer, usw.). Andererseits aus Streiks, um die Wirtschaftspolitik zu beeinussen, die dann allerdings einen politischen Streit darstellen und in Deutschland eigentlich verboten sind. 1951 sollte das Montanmitbestimmungsgesetz auslaufen. Der DGB drohte jedoch mit einem Generalstreik, worauf Adenauer einen Deal aushandelte, und die Gewerkschaft bekam die Mitbestimmung und die Regierung Lohnzurückhaltung. Die letzte Form von Störaktionen ist die Drohung der Arbeitgeberverbände mit Ausbildungs- und Investitionsstreik (Verlagerung ins Ausland). Dieser Vorwurf ist aber nur schwer nachzuweisen, insbesondere, ob es sich dabei tatsächlich um politischen Druck oder um Gewinnstreben handelt, wenn die Lehrlingsproduktivität unter den Lehrlingsgehältern und die Ausland- über der Inlandrendite liegt. Weshalb können solche Störaktionen die Wirtschaftspolitik verändern? Dann, wenn die Bürger schlecht informiert sind und eine Verschlechterung der Wirtschaftslage zum Teil der Regierung anlastet. Woraufhin die Regierung die Auswirkungen von Störaktionen durch Nachgeben abfedert. 5.1. BEEINFLUSSUNG DER WIRTSCHAFTSPOLITIK 95 Auÿerdem sind die Nachteile des Nachgebens nicht so oensichtlich wie die Nachteile der Störaktionen. Die Nachteile sind weithin sichtbar (ÖTV: Alle Räder stehen still, wenn unser starker Arm es will.). Nachgeben geht jedoch in der Regel auf Kosten der Steuerzahler. Die Nachteile der Störaktionen treen eine breite Öentlichkeit, die Mehrheit der Wähler oder den Medianwähler. Die Nachteile des Nachgebens treen, obwohl sie gröÿer sein können, eventuell nur eine kleine Minderheit (z. B. die Arbeitslosen bei Erhöhung der Arbeitskosten). 5.1.1.4 Durchführung wirtschaftspolitischer Maÿnahmen Die Durchführung wirtschaftspolitischer Maÿnahmen umfaÿt Preiskontrollen (Pharmaindustrie für seine Mitglieder), Lehrstellenverhandlung gegen Gegenleistung, Handelspolitik, income policy (in Groÿbritannien und den USA) und Investitionszusagen (für Ostdeutschland). Dies sind Merkmale korporatistischer Wirtschaftspolitik. Das ist im Interesse der Politiker, weil die Mitglieder der Verbände auf die Ziele der Regierung festgelegt werden und es die Verbandsführung ist, die sich den Unmut der Mitglieder, die auch Wähler sind, zuzieht (Sündenbockfunktion). Auch die Mitglieder haben ein Interesse an solchen Zwangsverbänden, weil das Trittbrettfahrerproblem überwunden werden kann. Man kann sich gegenüber der Regierung festlegen, ohne befürchten zu müssen, daÿ Konkurrenten nicht mitziehen. 5.1.2 Technologie der Verbände Bei der Technologie der Verbände kann zwischen kapitalintensiver (Politikernanzierung, Informationsverbreitung durch Werbung) und arbeitsintensiver (Störaktionen, Informationsverbreitung durch Demonstration) unterschieden werden. Die arbeitsintensive Technologie würden wir bei Verbänden mit vielen Mitgliedern, die ein geringes Einkommen haben erwarten, da die Opportunitätskosten von arbeitsintensiven Aktionen gering sind. Dies ist der Fall bei Gewerkschaften, Studentenverbänden, Umweltschützer, Bauernverbänden, Taxifahrer und Fernfahrer. Einen kapitalintensiven Einsatz würden wir bei Arbeitgeberverbänden und Berufsverbänden (Ärzte, Zahnärzte) erwarten, die selten demonstrieren (20 Zahnärzte in Mannheim). Sie wählen eher Politikernanzierung und Publizität, wie Plakate in Arztpraxen gegen Gesundheitsreform. 96 KAPITEL 5. VERBANDSÖKONOMIK Die Unterschiede in den Technologien können bei gegebener Ressourcenausstattung durch rationales Verhalten erklärt werden (analog Hekscher-Ohlin-Theorem), weshalb eine Bewertung der angewendeten Methode kaum möglich ist. 5.1.3 Gegenleistungen Welche Gegenleistungen für Informationen, Geld und Verzicht auf Störaktionen, wollen die Verbände von den Wirtschaftspolitikern haben? Bei den Gegenleistungen handelt es sich um Gruppenprivilegien. 1. Subventionen in Form von Finanzhilfen oder Steuerausgaben, Steuerausgaben sind weniger weit verbreitet, weil dazu eine Gesetzesänderung notwendig ist. 2. Besteuerung der Konkurrenz als eine raising rivals costs Strategie. Dieser Strategie fallen in erster Linie ausländische Konkurrenten zum Opfer (Schutzzölle, Protektionismus). 3. Mengenregulierung durch (a) Absenkung des Angebots in der eigenen Branche (Monopole, Kartelle), damit der Preis steigt (Milchquoten der Bauern, Lizenzierung bei Taxifahrern) ; (b) Marktzutrittsbarrieren bei nichthandelbaren Gütern wie Zulassungsprüfung durch praktizierende Vertreter der Branche (Handwerk, Steuerberater, Wirtschaftsprüfer); (c) Einfuhrkontingente gegenüber Ausländern. 4. Preisregulierung durch (a) Mindestpreise des Anbieterverbandes (Allgemeinverbindlichkeitserklärung von Arbeitstarifen); (b) Höchstpreise des Nachfrageverbandes (mit Preisregulierung, Mietspiegel); (c) Preisverpichtung gegenüber Ausländern im Rahmen der Europäischen Handelspolitik. Bei Antidumpingverfahren kann die europäische Kommission bei Zustimmung des entsprechenden Ausschusses des Ministerrates die ausländischen Anbieter verpichten, ihr Produkt in Europa nicht unter einem bestimmten Preis anzubieten (i.S.v. raising rivals costs). 5.2. DETERMINANTEN DER VERBANDSBILDUNG 97 5. Konditionsregulierung durch den Staat, beispielsweise Ladenschluÿgesetz, Arbeitszeitbeschränkungen (im Interesse der Arbeitsanbieter) oder Kündigungsschutzvorschriften. Dies stellt eine Einschränkung der privaten Vertragsfreiheit dar. 5.2 Determinanten der Verbandsbildung In welchen Bereichen würde man am ehesten die Bildung von Verbänden erwarten? 5.2.1 Gröÿe der Gruppe der Interessenten Die Verbandsbildung ist erleichtert, wenn die Gruppe der Interessenten klein ist. Dann sind die Organisationskosten gering. Ebenso die Sanktionskosten, denn der Zusammenhalt kann besser gewährleistet werden, da besser überprüfen werden kann, wer mitmacht und wer nicht. Der soziale Druck ist, aufgrund geringerer Anonymität, gröÿer. Das Trittbrettfahrerproblem ist umso geringer, je kleiner die Gruppe ist und die Vorteile der Verbandgründung können eher internalisiert werden. 5.2.2 Gröÿe des Marktanteils Die Verbandsbildung ist erleichtert, wenn ein Gruppenmitglied einen besonders groÿen Marktanteil hat. 5.2.2.1 Internalisierung Das Gruppenmitglied mit dem groÿen Marktanteil kann einen groÿen Anteil der Kosten internalisieren und hat somit einen groÿen Anreiz, die Gründung und Aufrechterhaltung des Verbandes voranzutreiben. Im Extremfall lohnt es sich, alleine einen Verband zu nanzieren. In Abbildung 5.1 werden zwei Fälle unterschieden: 1. Fall (GK1 ): Das Mitglied mit der groÿen Zahlungsbereitschaft (NB ) würde alleine qB1 nanzieren. Zwischen qB1 und qP1 ist A interessiert etwas beizusteuern. Den gröÿten Teil nanziert aber B freiwillig. Das ist oft der Fall in militärischen Allianzen, wo das gröÿte Mitglied einen überproportionalen Anteil an den Kosten trägt (NATO-USA). 98 KAPITEL 5. VERBANDSÖKONOMIK Abbildung 5.1: Verbandsbildung bei groÿem Marktanteil p NP NB GK1 NA GK2 qA2 qB1 qP1 qB2 q 2. Fall (GK2 ): A würde auch alleine einen Teil des Outputs produzieren qA2 . B würde von sich aus qB2 produzieren. Deshalb verzichtet A darauf, selbst Output bereitzustellen, da A bei qB2 keine positive Zahlungsbereitschaft mehr hat, weil die Grenzkostenfunktion die aggregierte NP an einer Stelle schneidet, wo die Nachfrage identisch ist mit NB . B nanziert den Output alleine, ohne Beteiligung des B. In diesem Fall ist der Output ezient, im Gegensatz zu Fall 1, wo qB1 zu klein ist. Fazit: Das Gruppenmitglied mit dem groÿen Anteil handelt alleine, internalisiert die Vorteile, und soweit der Output noch erhöht werden muÿ, beteiligen sich die anderen. 5.2.2.2 Anpassungskosten Die Organisationskosten bei Anpassungen sind mit einem Gruppenmitglied mit groÿem Anteil geringer. Der Führer übernimmt die Initiative und die andern folgen. Ohne Hegemon muÿ man sich erst einigen (EU) und die Anpassungskosten sind höher. Die Argumentation über Marktanteile und Anpassungskosten ist analog zur Kartelltheorie, wo das groÿe Mitglied einen groÿen Anteil der Kartellrenten interna- 5.2. DETERMINANTEN DER VERBANDSBILDUNG 99 lisieren kann und sich die Anpassungskosten reduzieren. 5.2.2.3 Empirische Hinweise Verbandsführer sind typischerweise Groÿunternehmen. Beispielsweise Groÿgrundbesitzer im Bauernverband: Die Privilegien kommen denn auch hauptsächlich ihnen zugute, da sich Protektion, Subventionen, überproportionale Zuwendungen und Preisstützung bei hohem Output stärker auswirken. Dies widerspricht sogar dem Zweck der Zuwendungen, soweit es sich bei der Agrarpolitik und Sozialpolitik handeln soll. Bei den Arbeitgeberverbänden würde man erwarten, daÿ die groÿen ihre Interessen besser durchsetzen können als die kleinen, besonders wenn die groÿen produktiver sind (self selection). Sie können durch Zustimmung zu Lohnzuwächsen die weniger produktiven in Schwierigkeiten bringen (strategy of raising rivals costs). Ein oft erhobener Einwand lautet, daÿ es in Ordnung ist, wenn alle Unternehmen den gleichen Tariohn zahlen, da im Arbitragegleichgewicht sowieso alle Löhne gleich sein müssen. Es ist zwar richtig, daÿ die Löhne im Arbitragegleichgewicht gleich sein müssen, allerdings besteht der Unterschied im Weg zum Gleichgewicht. Beim derzeitigen Status Quo, der Fixierung des Lohnes von vornherein, entsteht Arbeitslosigkeit, da diejenigen, die ihn nicht zahlen können, ihre Arbeitskräfte entlassen. Ohne Fixierung der Löhne führt Lohnarbitrage nicht zu Arbeitslosigkeit (echtes Arbitragegleichgewicht). Wenn zunächst in jedem Unternehmen ein produktivitätsgerechter Lohn gezahlt wird, wechseln die Arbeitnehmer freiwillig zu Unternehmen mit höherem Lohn. Die Angleichung der Löhne erfolgt hier durch Arbeitsplatzwechsel und es entsteht lediglich friktionelle Arbeitslosigkeit. 5.2.3 Angebot eines privaten Gutes Die Verbandsbildung ist erleichtert, wenn zusätzlich kostengünstig ein privates Gut angeboten wird. Denn vom Kollektivgut kann man nicht ausgeschlossen werden, auch wenn man dem Verband nicht beitritt. Das private Verbandsgut (typischerweise ein Klubgut) erhalten aber nur die Mitglieder des Verbandes, so daÿ ein Anreiz zum Verbandsbeitritt entsteht. Beispielsweise haben Gewerkschaften das Nichtausschlieÿbarkeitsproblem aller Kollektivgüter, denn Tariöhne kommen in der Regel auch den Nichtmitgliedern zugute. Die Arbeitgeber zahlen an Nichtgewerkschaftsmitglieder freiwillig den Tariohn, um den Betriebsfrieden zu erhalten, was kein überzeugendes Argument ist und vor allem, um zu verhindern, daÿ die Nichtmitglieder der Gewerkschaft beitreten, denn die Verhandlungsposition des Arbeitgebers im Arbeitskampf ist 100 KAPITEL 5. VERBANDSÖKONOMIK umso schlechter, je mehr Arbeitnehmer in der Gewerkschaft organisiert sind. Diese Problematik wurde auch von den Funktionären erkannt, und so gibt es bei den Gewerkschaften ein privates Gut, um selektive Anreize zu schaen und das Trittbrettfahrerproblem abzuschwächen. Das private Gut ist das Streikgeld, das nur an Gewerkschaftsmitglieder gezahlt wird. Gemäÿ Kopie 57 umfaÿt das Streikgeld immerhin 24×88 DM=2112 DM bei 5000 DM Bruttogehalt. Kopie 58 zeigt eine auällige Korrelation des Organisationsgrads mit der Bundesregierung. Bis 1969 sinkt er unter der CDU/FDP Regierung, steigt bis zur Wende 1983 und sinkt wieder bis 1991. Die Korrelation zwischen CDU/FDP und niedrigen Gewerkschaftsbeitritten ist eher Ausdruck einer sogenannten common cause interdependence. Die Korrelation zwischen politischer Präferenz und Gewerkschaftsneigung wäre demnach nicht Ausdruck einer kausalen Beziehung zwischen den beiden Gröÿen, sondern läge in der gemeinsamen Ursache Stimmung in der Bevölkerung begründet. Besonders attraktiv scheint der Gewerkschaftbeitritt bei Regierungswechsel zu sein, weil die Gewerkschaften eine direkte Verbindung zur Regierung haben und dabei besondere Vorteile herausspringen. Für die Wirkung des selektiven Anreizes Streikgeld auf den Organisationsgrad der Gewerkschaft ist es wichtig, daÿ ab und zu ein Streik stattndet. Empirisch müsste die Streikhäugkeit besonders hoch sein, wenn der Organisationsgrad abnimmt. Weitere selektive Anreize bei Gewerkschaften: in den USA und Groÿbritannien gibt es die Institution des closed shop, wonach alle Mitarbeiter eines Unternehmens in der Gewerkschaft organisiert sein müssen. Die Gewerkschaften haben ein Mitspracherecht bei Neueinstellung (Beitrittszwang) und der selektive Anreiz besteht hier in der Vergabe von Arbeitsplätzen. In Deutschland kommt es vor, daÿ man nur bei Mitgliedschaft befördert wird. Bis 1918 gab es gewerkschaftliche Unterstützungskassen (Krankenversicherung, Arbeitslosengeld, Witwenrente). Beim ADAC (Verband der Autofahrer) war die Pannenhilfe in den Anfangsjahren ein wichtiges privates Gut. Mittlerweile kann man bei einer Panne Mitglied werden (allerdings nur im Inland), so daÿ der selektive Anreiz schwach geworden ist. Jedoch verzichtet man gegenüber den ganzjährigen Mitgliedern auf andere private Güter (Reiseinformationen, Versicherungsschutz, Mitgliederzeitschrift) des ADAC. Ähnlich dem ADAC bieten der Bauern-, Mieter-, Haus- und Grundbesitzerverband, Beamtenbund usw. Information, Zeitschriften und Rechtsschutz an. Insofern handelt es sich um Dienstleistungsunternehmen in Bereichen, wo sie gegenüber Dienstleistungsunternehmen, die nicht zugleich Verband sind, Kostenvorteile 5.2. DETERMINANTEN DER VERBANDSBILDUNG 101 haben. Fazit: Verbände werden sehr oft zusammengehalten durch die Produktion eines privaten Gutes (häuger Klubgut: Ausschluÿ möglich und soziales Skalenerträge (+ positive externe Eekte)). Wenn selektive Anreize (private Verbandsgut) nicht angeboten werden können, steht ein letzter Versuch oen: staatlich sanktionierte Zwangsverbände (Ärztekammer, IHK, Allgemeinverbindlichkeitserklärung von Tarifverträgen). 5.2.3.1 Exkurs: Klubgüter Es gibt zwei Gründe für die Bildung eines Klubs: 1. soziale Skalenerträge. Damit ist gemeint, daÿ die Durchschnittskosten (pro Mitglied) mit der Zahl der Mitglieder fallen. Beispielsweise Golfklubs: sinkende Kosten pro Person bei gleichbleibender Qualität des Golfkonsums. Es liegt anfängliche Nichtrivalität vor. Im Gegenteil: 2. gegenseitige positive externe Eekte, die durch die Klubbildung internalisiert werden. Es ist geselliger mit mehreren Leuten Golf zu spielen als alleine. Abbildung 5.2: Clubgut DM MB ME n∗ n In Abbildung 5.2 sind die Grenzerträge M E und die Grenzbelästigung M B für eine gegebene Menge des Klubguts abgetragen. Auf der x-Achse steht n für die Anzahl der Mitglieder. 102 KAPITEL 5. VERBANDSÖKONOMIK M E ist die marginale Beitragseinsparung pro Altmitglied durch ein zusätzliches Mitglied. Je mehr Mitglieder ein Klub bei gegebener Gröÿe hat, desto mehr verteilen sich die Kosten der Kluberhaltung. Die Kosteneinsprung für das erste Mitglied durch Beitritt eines zweiten beträgt 50%. Die Beitragseinsparung der ersten beiden Mitglieder bei Beitritt eines Dritten beträgt jeweils 17%, durch ein viertes Mitglied 8% usw. M B ist die marginale Belästigung pro Mitglied durch ein zusätzliches Mitglied. Der Verlauf der M B Kurve spiegelt anfängliche positive externe Eekte (Geselligkeit im Klub) wider und mit steigendem n zunehmende Rivalität (Wartezeiten an den Golöchern). n∗ ist die optimale Anzahl an Mitgliedern für eine bestimmte Gröÿe. Kommt das optimale n∗ zustande? Dies ist abhängig von Entscheidungsverfahren im Klub. Bei Einstimmigkeit wird ein zusätzliches Mitglied akzeptiert solange M E > M B bis M E = M B , so daÿ n∗ zustandekommt. Bei der EUOsterweiterung werden die Nachteile einer notwendigen Einstimmigkeit sichtbar: Da einige kein Interesse daran haben, werden Transferzahlungen notwendig, sie können sich die Zustimmung also abkaufen lassen. Somit besteht ein Trade o zwischen Verhandlungskosten und den Vorteilen durch eine gröÿere Mitgliedschaft. öentliche Güter ¾ anfängliche - Klubgut ¾ Ausschlieÿ- - privates Gut Nichtrivalität barkeit Bei der deutschen Autobahn, die früher zu den öentlichen Gütern zählte, ist der Bereich Nichtrivalität langsam überschritten (Staus). Ein Ausschluÿ ist im Prinzip aber möglich und der Preis müsste die negativen externen Eekte internalisieren. 5.2.3.2 Exkurs: Ökonomische Theorie der Ehe Die ökonomische Theorie der Ehe von Gary Becker1 beruht auf einer Anwendung der Theorie der Klubgüter. Die Ehe ist der kleinste mögliche Klub. Die gegenseitigen positiven externen Eekte der Ehe umfassen Liebe (positive Interdependenz der Nutzenfunktionen, ich freue mich, wenn du dich freust), Pre1 Nobelpreisträger 1992: for having extended the domain of microeconomic analysis to a wide range of human behaviour and interaction, including nonmarket behaviour, siehe www.almaz.com 5.2. DETERMINANTEN DER VERBANDSBILDUNG 103 stige (gute Partie, Partner zu Repräsentationszwecken) und Gesprächspartner (implizit: jeder sucht einen ähnlichen Partner, Volkswirt sucht Volkswirtin). Die Ehe ist ein Arbeitsteilungsklub. Es ist eine Spezialisierung in der Herstellung des Clubgutes möglich. Früher übernahm die Frau häug Hausarbeiten und der Mann die schwere körperliche Arbeit. Die Partner sollten, analog der Theorie der Zollunion, unterschiedliche komparative Vorteile aufweisen. Nach dieser Theorie ergeben sich die gröÿten Wohlfahrtsgewinne für Länder mit unterschiedlichen Ausstattungen. Dies kommt daher, weil eine starke Spezialisierung möglich wird und dem handelsschaenden Eekt der Gründung einer Union (im Gegensatz zum handelsumlenkenden Eekt, der negative Wohlfahrtswirkungen hat) entspricht. Die Ehe entspricht der Aufhebung der Meistbegünstigungsklausel, wonach man anderen stets die günstigsten Konditionen bietet, die man überhaupt jemandem bietet. Die Vorteile bei der Arbeitsteilung im Haushalt und bei der Erstellung des Klubgutes haben im Laufe der Zeit, aufgrund des technischen Fortschrittes, abgenommen. Haushaltsgeräte sind Substitute für die traditionelle Hausfrauentätigkeit. Das führte dazu, daÿ die terms of trade der Frau als Hausfrau gesunken sind und sie eine schlechtere Verhandlungsposition als früher hat. Dementsprechend kann läÿt die Emanzipation als eine Reaktion auf diesen zunehmenden Wettbewerbsdruck durch Substitute verstehen, und eine höhere Bildung entspricht der Veredelungsstrategie der Stahl- und Textilindustrie. Die sozialen Skalenerträge entsprechen der marginalen Einsparungskurve bei der Nutzung gemeinsamer Klubgüter (Wohnung, Haushaltsgeräte, Auto) und führen zu einer kostengünstigeren Auslastung. Auÿerdem ergeben sich soziale Skalenerträge beim Versicherungsschutz gegen Krankheit, Unfall u.ä., da das Gesetz der groÿen Zahl (2 > 1) wirkt. Die zunehmende Rivalität und der fallende Grenzertrag erklären die natürliche Tendenz zur Monogamie am Heimatmarkt, also wieso es nicht attraktiv ist, sehr viele Ehepartner zu haben und wieso in vielen Ländern Polygamie nicht üblich ist. Dies ist besonders dann zu erwarten, wenn die Nachfragefunktionen der Marktteilnehmer ähnlich sind und auf der Angebotsseite eine Geschlechtsrelation von 1:1 existiert. Ein Verbot z. B. der Vielweiberei (eigentlich wegen der natürlichen Tendenz zur Monogamie nicht nötig) ist nicht im Interesse der Frauen, denn dies ist eine Nachfragebeschränkung nach Frauen und schwächt ihre Verhandlungsposition am Heiratsmarkt. Wer hat Interesse daran, die Monogamie gesetzlich zu erzwingen? Oensichtlich sind es nicht die Frauen, sondern die Männer, die bei Vielweiberei zu kurz kommen. Wieso können sie sich durchsetzen? Weil der Median ein Interesse am Verbot hat, denn bei einer rechtsschiefen Verteilung der 104 KAPITEL 5. VERBANDSÖKONOMIK Männerqualität liegt der Median unter dem Durchschnitt. 4. Es liegt eine limitationale Produktionsfunktion (komplementäre Produktionsfaktoren) bei der Kinderproduktion vor. 5.2.4 Gröÿe des Parlaments Die Verbandsbildung ist erleichtert, wenn das Parlament klein ist. Lobbyismus ist billiger, wenn man es mit weniger Entscheidungsträgern zu tun hat. In der EU ist der Ministerrat das zentrale Entscheidungsgremium (Gesetzgeber) und hat wenige Mitglieder (15). Die Einuÿnahme der Verbände ist dementsprechend groÿ und ebenso der Anreiz zur Verbandsbildung. Analog ist der Anreiz zur Verbandsbildung klein und die Einuÿnahme der Verbände schwierig beim gröÿtmöglichen Entscheidungsgremium, dem Referendum. 5.2.5 Häugkeit von Referenden Die Verbandsbildung ist erleichtert, wenn Referenden selten sind. Beim Referendum ist das Entscheidungsgremium das ganze Volk und eine Überzeugung des notwendigen Quorums, daÿ eine bestimmte Forderung des Verbandes angenommen werden sollte, ist teuer. 5.2.6 Staatsquote Die Verbandsbildung ist erleichtert, wenn die Staatsquote hoch ist. Wenn es viel zu verteilen gibt, ist der Anreiz hoch, Einuÿ zu nehmen. Die Länder in Osteuropa kommen von einer Staatsquote von 100%. Folgerichtig ist Ruÿland ein rein korporatistisch geführtes Land. 5.2.7 Oenheit der Volkswirtschaft Die Verbandsbildung ist erleichtert, wenn die Volkswirtschaft relativ geschlossen ist. Wenn Ausländer (Arbeit und Kapital) leicht ins Inland können, protieren auch Ausländer von Subventionen, so daÿ Inländer einen immer geringeren Anreiz haben, das zu organisieren. Ebensowenig lohnt es sich, in einer oenen Volkswirtschaft Regulierungen zu organisieren, da sie nur für Inländer gelten und nicht regulierte Auslandsimporteure den Preis unterbieten können. 5.2. DETERMINANTEN DER VERBANDSBILDUNG 105 5.2.8 Politische Stabilität Die Verbandsbildung ist erleichtert, wenn über längere Zeit politische Stabilität geherrscht hat. Dies baut auf der sogenannten Olson-Hypothese2 , wonach Nationen mit der Zeit an Sklerose untergehen, weil sich immer mehr Interessengruppen bilden und dadurch die Anpassungsfähigkeit zunehmend eingeschränkt wird. Die Verbindung zur Dauer der politischen Stabilität besteht darin, daÿ am Anfang Gründungskosten entstehen und eine Situation herrschen muÿ, bei der die Gründer erwarten, daÿ es sich lohnt zu gründen. In Krisensituationen z. B. sind Politiker nachgiebiger. Danach kann es sich erweisen, daÿ die Entwicklung nicht so negativ war, wie es erwartet wurde und die Gründung sich gar nicht gelohnt hat. Wenn der Verband aber erst einmal da ist (historische Fixkosten, sunk costs), dann bleibt er auch. These 1: Es ist leichter, eine Organisation aufrecht zu erhalten als sie zu gründen, denn die Gründung muÿ historische Fixkosten in Kauf nehmen. Zur Aufrechterhaltung zählen nur noch die laufenden Kosten. These 2: Es ist leichter, einen Verband zu gründen als ihn abzuschaen. Denn die Funktionäre haben ein Interesse am Fortbestand eines Verbandes und sind also eine Interessengruppe innerhalb des Verbandes. Das gilt grundsätzlich für Organisationen und nicht nur für Verbände: International organisations may change their names and functions but they never die. Organisation BIZ ursprüngliche Aufgabe Reparationsleistungen Transferleistungen Marschallplan Bretton Woods Wiederaufbau in Europa Weltbank IWF OECD Kreditanstalt für Wiederaufbau Funktionäre und Politiker haben ein Interesse ganisationen. heutige Tätigkeit Bank der Zentralbanken Entwicklungsländer Ölkrise, Schuldenkrise, Osteuropa Staatsbank, T-Aktien an der Aufrechterhaltung von Or- 5.2.9 Zentralisierung Zum Einuÿ der Zentralisierung auf den Einuÿ der Verbände gibt es Hypothesen für beide Wirkungsrichtungen. Zunächst folgen Hypothesen, die argumentieren, daÿ politische Zentralisierung den Einuÿ der Verbände schwächt. 2 siehe Olson (1965) 106 KAPITEL 5. VERBANDSÖKONOMIK - James Madison: Die Gründung eines Bundesstaates reduziert den Einuÿ der Verbände, weil sich in einem groÿen Bundesstaat die Verbände der Einzelstaaten gegenseitig lahmlegen. Z. B. gibt es in New York Auÿenhandel, in den Südstaaten Baumwollbauern und Plantagenbesitzer, im mittleren Westen und Chicago Landwirte und Viehzüchter und in Iowa Getreideanbauer. Bei einer gemeinsamen Politik aus Washington sperren sich die anderen Bundesstaaten beim Versuch der Durchsetzung von Partikularinteressen. Dies setzt (implizit) regionale Präferenzunterschiede voraus. - Olson: Je gröÿer der Staat, desto mehr Interessen müssen unter einen Hut gebracht werden, je gröÿer die Anzahl der Interessen, desto gröÿer das Trittbrettfahrerproblem. - Die Organisationskosten im Innenverhältnis des zu gründenden Verbandes steigen mit Zentralisierung. - Je gröÿer der Staat, desto gröÿer das Parlament und die Zahl der Abgeordneten, desto mehr Abgeordneten muÿ man auf seine Seite bringen. Der Zusammenhang zwischen Staatsgröÿe und Parlamentsgröÿe ist allerdings empirisch nicht haltbar: Der deutsche Bundestag ist kleiner als die Landtage und gröÿer als das Repräsentantenhaus in den USA. - Je gröÿer der Staat, desto schwieriger ist der Zugang zu entscheidenden Politikern. Der Bundeskanzler ist beispielweise zu beschäftigt, wohingegen ein Termin beim Bürgermeister leichter zu bekommen ist. Die Gegenhypothesen behaupten, daÿ Zentralisierung die Verbände stärkt. - Im Auÿenverhältnis, was die Tätigkeiten gegenüber den Politikern angeht, sinken die Lobbykosten, weil Verbände nur noch mit einem politischen Ansprechpartner zu tun haben. In regional dezentralisierten Systemen müssen mehrere Entscheidungsstellen bearbeitet werden. Im zentralisierten Staat ist es schwierig Gehör zu nden, aber ist das einmal gemacht, deckt man gröÿere Regionen ab. D. h. Zentralisierung in der Politik erlaubt Zentralisierung der Verbandspitzen und es entstehen mögliche Skalenerträge im Auÿenverhältnis, jedoch nicht dem Innenverhältnis, wo die Grenzkosten steigen. - Je stärker die Politik zentralisiert ist, desto höher sind die Informationskosten für die Wähler. Die Bürger sind üblicherweise besser über ihre eigene Gemeinde als beispielsweise über die Ereignisse in Brüssel informiert. Da der Politiker zwischen Medianwähler- (decisive voter) und Verbandsinteresse hin und her gerissen ist (Konkurrenz), folgt aus dem Anstieg der 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 107 Informationskosten des Wählers durch Zentralisierung, daÿ sein Einuÿ zugunsten der Verbände reduziert wird. Die Informationskosten steigen, weil die Fragen auf höherer zentraler Ebene komplizierter sind, die Entfernung gröÿer ist, Sprachbarrieren und weniger Vergleichsmöglichkeiten bezüglich der Perfomance der eigenen gewählten Vertreter bestehen. - Der Informationsanreiz, sich über Politik zu informieren, sinkt. Je geringer gröÿer der Staat ist, desto geringer ist das Gewicht der eigenen Stimme. Bei rationaler Informationsaufnahme und -verwertung folgt daraus ein kleinerer Informationsstand. Je gröÿer der Staat ist, desto geringer die Steuerlast pro Kopf, um die Subventionen zu nanzieren, umso weniger nimmt es der Bürger wahr. - Mit politischer Zentralisierung steigen die (Exit-) Kosten um persönlich und mit eigenem Kapital abzuwandern. Da es theoretische Argumente für beide Wirkungsrichtungen gibt, ist die Frage, ob Zentralisierung den Einuÿ der Verbände stärkt oder schwächt, letztendlich empirisch zu beantworten. 5.3 Normative Rechtfertigungsanalyse Im Vordergrund der Rechtfertigungsanalyse steht die Allokationsezienz, wobei auch Aussagen bezüglich der Verteilungswirkungen getroen werden können. 5.3.1 Pro - Verbände stellen Informationen bereit, die Allokationsezienz positiv beeinussen könnten. Allerdings sind die bereitgestellten Informationen verzerrt, denn nur solche, die den Verbänden nutzen, werden herausgelassen. Das heiÿt, der Wahrheitsgehalt dieser Information ist fraglich. Zu bedenken ist, daÿ in einer Demokratie ein Äuÿerungsverbot nicht möglich ist, daÿ heiÿt, es ist unproblematisch, solange der Prozeÿ transparent und für alle erkennbar ist. In einem Hearing lädt jede Interessengruppe einen Sprecher für ihre Meinung ein. Der Produktivitätseekt besteht (analog einem Gerichtsverfahren) darin, daÿ die Interessen der Mandanten präzisiert werden, der Wahrheitsndung dient das eher nicht. Das ist besonders problematisch bei Initiativen, die nicht publik werden. 108 KAPITEL 5. VERBANDSÖKONOMIK - Verbände könnten dem Machtgleichgewicht, analog Gewaltenteilung (countervailing powers) und dem pluralistischen Interessenausgleich dienen, der zum sozialen Frieden führt und wo sich der Politiker als Schlichter im Interessenausgleich betätigt. Das Problem besteht darin, daÿ eine symmetrische Interessenrepräsentation aufgrund der unterschiedlichen Organisierbarkeit der Interessen nicht möglich ist. Aus ökonomischen Gründen sind groÿe Gruppen mit kleiner Betroenheit und hohen Organisationskosten unterrepräsentiert. Verbraucher weniger als Produzenten und Faktoranbieter, Steuerzahler weniger als Transferempfänger, Umweltschützer weniger als Verschmutzer, Autofahrer und die Industrie. Zukünftige Generationen haben hohe Organisationskosten und die Vertretung der Arbeitslosen ist wenig einuÿreich. Demzufolge ist ein Ausgleich der Interessen nicht möglich und eine Subventionierung der schlecht organisierbaren Interessenverbände wäre notwendig. Es besteht die Gefahr, daÿ sich die countervailing powers, wenn überhaupt, dann zu Lasten Dritter einigen. Beispiele für solche Tauschgeschäfte in der Politik sind Arbeitgeber und Gewerkschaften, die sich auf Kosten (a) der Arbeitslosen, die wenig Einuÿ haben und schlecht organisiert sind, (b) der Steuerzahler, die für die Arbeitslosen Arbeitsbeschaungsmaÿnahmen nanzieren, (c) der Beitragszahler, die für die Sozialhilfe und Transfers aufkommen, (d) der Verbraucher einigen, da die Preise aufgrund einer sinkenden Produktion und einem folgenden Überangebot an Geldmenge steigen. Die Nichtbeteiligung der Nichtorganisierten widerspricht der Vorstellung von James Edison, daÿ sich die Verbände gegenseitig blockieren. Anscheinend funktioniert das in der Realität weitgehend anders. Fazit: Es ndet eine Umverteilung von schlecht zu gut organisierten Gruppen statt. Das Gewicht der Wahlstimme ist abhängig von der Organisierbarkeit. Das ist allerdings noch kein ökonomisches Problem, weil unklar ist, inwieweit die Allokationsezienz davon betroen ist. Gary Becker führt an, daÿ man als Ökonom Umverteilung nicht be- werten kann, Politiker ein Interesse an einer ezienten Umverteilung haben und nach dem Coase-Theorem es egal ist, wie die Einuÿrechte verteilt sind und sich immer ein Allokationsoptimum durch die Tauschgeschäfte einstellt, so daÿ kein Anlaÿ zur Annahme einer inezienten Umverteilung besteht. Die Gegenthese stellt fest, daÿ wenn Becker Recht hätte, wir nicht verwendungsgebundene Geldstransfers beobachten würden, die eine Umverteilung über produktabhängige Subvention und Regulierung (Eingri in die Vertragsfreiheit) durchführen würden. Die Empirie widerspricht also der Hypothese von Becker. Zudem widersprechen die Annahmen des Coase-Theorems der Realität: die Verhandlungskosten und die Gruppengröÿe sind nicht gering, eine Analogie vom Markt- zum politischen Prozeÿ ist fraglich und die Kompensationszahlungen, die möglich wären, nden tatsächlich nicht statt. 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 109 Dazu wäre eine spieltheoretische Untersuchung nötig, mit vielen Spielern, die rational uninformiert sind und wo Transaktionskosten hoch sind. Zudem ist fraglich wie eine Kompensationszahlung mit nichtorganisierbaren Interessen aussehen soll. - Minderheiten könnten sich dort, wo sie starke Präferenzen haben, durch defensive Schutzverbände vor Ausbeutung gegen die Mehrheiten, d. h. gegen den Medianwähler, schützen. Allerdings ist das keine rst best Lösung, denn eigentlich ist das ein Verfassungsauftrag und eine Frage der Grundrechte und somit Aufgabe der Justiz. Die Verbandslösung ist second best Lösung, zumal dort principle agent Probleme möglich sind, mit den Inhabern der Interessen als Prizipale und den Verbandsfunktionären als ihre Agenten. 5.3.2 Kontra Die Kritik der Verbände als Schadensverursacher gliedert sich in eine statische (Abschnitt 5.3.2) und eine dynamische (Abschnitt 5.3.4) Inezienz. Die statische Inezienz untersucht die Folgen von Regulierung und Subventionen. Der Wohlfahrtsverlust einer Preis- oder Mengenregulierung (Mindestpreis oder Höchstmenge) auf die Initiave von Anbieterverbänden läÿt sich in einem üblichen Angebots-Nachfragediagramm ablesen (siehe Abbildung 5.3). Beispiele eines solchen Verfahrens sind die Agrarpolitik, Taxipreise und Allgemeinverbindlichkeitserklärungen von Tariöhnen.. Abbildung 5.3: Wohlfahrtsverlust bei Mindestpreisregulierung p pmin p∗ R H q 110 KAPITEL 5. VERBANDSÖKONOMIK Die traditionelle Literatur argumentiert, daÿ ein Wohlfahrtverlust in Höhe des Harbergerdreiecks H anfällt. Die Produzenten erhöhen ihre Rente um die Fläche R auf Kosten der Konsumentenrente und verlieren die Fläche von einem halben H , wenn die Preise von p∗ auf pmin angehoben werden (Mindestpreise), wobei der Nettogewinn der Produzenten (R- 0.5 H ) positiv ist. Die neuere Literatur des Rentseekings argumentiert dagegen, daÿ der Wohlfahrtsverlust noch gröÿer ist als nur das Harbergerdreieck, weil ein Rüstungswettlauf um die Rentenverteilung stattndet, da oft auch die Nachfrager gut organisiert sind, wenn es sich zum Beispiel um Unternehmen handelt. Wie hoch ist der Rentenverlust beim Rüstungswettlauf um R? Bei konkurrierenden Verbänden ndet ein Rüstungswettlauf statt, bis die Grenzkosten der Lobbytätigkeit dem Erlös daraus entsprechenden. Im Extremfall beträgt das die ganze Fläche R. Die Umverteilung ist demzufolge nicht kostenfrei und es ndet eine Ressourcenverschwendung statt. Eine andere Spielart der Preisregulierung ist die Höchstpreisregulierung (Monopsonpreis) von Nachfragerverbänden. Beispiele sind Mietpreisregulierungen, mit dem Vorteil, daÿ der Medianwähler ein Mieter ist. Abbildung 5.4: Wohlfahrtsverlust bei Höchstpreisregulierung p pq IE k l p∗ pmax m n H o q/Q Abbildung 5.4 zeigt die Situation einer Mietpreisregulierung. Auf der x-Achse ist Wohnraum in Einheiten konstanter Qualität abgetragen. Zunächst wird der Preis von p∗ auf einen niedrigeren Preis pmax gesetzlich heruntergesetzt. Beträgt der Wohlfahrtsverlust lediglich das Harbergerdreieck H ? Nein, denn die Vermieter wehren sich. Ein Instandhaltung lohnt sich nicht, und sie lassen die Qualität der Wohnungen verfallen, bis pmax dem Gleichgewichtspreis für die gesunkene 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 111 Qualität entspricht. Anhand er Isoerlöskurve IE läÿt sich pq ausmachen. Und im Ergebnis ergibt sich in Einheiten konstanter Qualität ein höherer Preis, aber eine geringere Menge. Der Wohlfahrtsverlust beträgt klmnoH und ist somit gröÿer als H . Bei dieser Argumentation stellt sich die Frage nach der Stabilität dieser Lösung. Die Mieterverbände müÿten eigentlich für eine Deregulierung eintreten, da sie sich ins eigene Fleisch schneiden. Stigler bemerkt zur Höchstpreisregulierung, daÿ dies nach einer Bombardierung die wirksamste Methode der Qualitätsvernichtung ist. In den USA sind aufgrund von Höchstpreisregulierungen viele Slums entstanden. Fazit: Die neoklassische Theorie beziert den Wohlfahrtsverlust auf das Harbergerdreieck. Die politökonomische Theorie identiziert einen wesentlich gröÿeren Wohlfahrtsverlust aufgrund von Rüstungswettlauf und Qualitätsanpassung. Tullock, vergleicht das mit folgendem Bild: Diebstahl dürfte nicht paretorelevant sein, weil es sich nur um eine Umverteilung handelt. Es ist allerdings sehr wohl eine ökonomische Aussage möglich: Bei Diebstahl kommt es zu einem Rüstungswettlauf in Form von Investitionen in Diebstahl- und Schutzmaÿnahmen, so daÿ es allokationsin ezient ist, Diebstahl nicht zu bestrafen. Demzufolge ist der Versuch der Verbände, sich Privilegien in Form von Mindestens- und Höchstpreisregulierungen zu verschaen, eine Form von Diebstahl, die zu enormer Inezienz führt. In diesem Zusammenhang ist es hilfreich, sich die Unterschiede zwischen Prot seeking (Gewinnstreben) und Rent seeking vor Augen zu führen. 1. Beim Prot seeking führt eine Marktzutritt zu einem produktiveren Ressourceneinsatz als woanders, was ja der Grund für die Investition war. Beim Rent seeking führen zusätzliche Verbände (analog Marktzutritt) zu einer Verwendung von Ressourcen in Lobbying, die einer produktiven Verwendung anderswo entzogen werden. Der Unterschied in den Bewegungen der Investitionen besteht darin, daÿ beim Prot seeking die Ressourcen einer produktiven Verwendung zugeführt und beim Rent seeking entzogen werden. Dementsprechend wird Rent seeking auch als directly unproductive activity bezeichnet. 2. Beim Prot seeking ndet ein Tausch von Eigentumsrechten mit gegenseitiger Zustimmung statt. Beim Rent seeking hingegen ndet ein Kampf um die Eigentumsrechte/Privilegien statt. Es handelt sich um einen Hobbschen Kampf um Eigentumsrechte und wird als New Hobbian Dilemma bezeichnet. Dies ist eine Ellenbogengesellschaft und stellt einen Rückfall in die Anarchie dar. Die bisherigen Wohlfahrtsverluste umfassen lediglich die direkten Kosten des Rent seeking. Es gibt noch indirekte Kosten auf der vorgelagerten und nachgelagerten 112 KAPITEL 5. VERBANDSÖKONOMIK Ebene. Auf der vorgelagerten Ebene muÿ man, um einen Mindestpreis durchzusetzen, einen Outputrückgang in Kauf nehmen. Das heiÿt, man muÿ den Marktzutritt beschränken, so daÿ Eintrittsüberinvestitionen (Parkstudium, arbeitslose und überqualiziert beschäftigte Mediziner) entstehen, da nicht alle in den Markt (Arbeitsmarkt) herein können. Besser wäre eine Lotterie, die die Transaktionskosten vermindert (und so ein Parkstudium vermeidet). Auf der nachgelagerten Ebene wollen Politiker und Bürokraten einen Teil der Rente abschöpfen. Es ndet ein Kampf um die Beteiligung in Form von Zahlungen der Interessenverbände an Politiker (Parteispenden) und Bestechung (Bürokrat) statt. Politiker und Bürokraten haben kein Interesse an einem Rüstungswettlauf zwischen den Produzenten, die die Renten aufzehren. Man würde erwarten, daÿ sie versuchen einen Rüstungswettlauf zu verhindern. Die ezienteste Lösung aus Sicht der Politiker und Bürokraten wäre eine Versteigerung. Das ist jedoch nicht zu beobachten, vielleicht weil der Median das merkt und es oensichtlich ist oder es im Geheimen passiert. Wie groÿ ist der Rüstungsaufwand? Er ist geringer als R, weil Politiker und Bürokraten einen Teil der Rente abschöpfen und um diesen Teil kein Rüstungswettlauf stattndet. Oder weil die Lobbytätigkeit steigenden Grenzkosten unterliegt und es einen Rentezugewinn gibt, für den also keine Lobbytätigkeit aufgewendet werden muÿ. Oder weil unter Berücksichtigung von Risiko es eine bestimmte Wahrscheinlichkeit der Privilegienzuteilung gibt und die Lobbytätigkeit der potentiellen Empfängern somit gerade der Fläche der Rente R entspricht. Ist die Summe der Lobbytätigkeit kleiner als die Fläche R. Bei Risikoaversion muÿ man noch Risikoprämien berücksichtigen, so daÿ weniger in Lobbytätigkeit weniger als die Rente R investiert wird. Der Rüstungaufwand könnte auch aufgrund eines Trittbrettfahrerproblems geringer sein und in vielen Bereichen keine Verbände existieren und womit die Rente nur potentiell abgeschöpft werden kann. Bei unterschiedlicher Organisierbarkeit von Interessen kapituliert einer der Konkurrenten von Anfang an und die Lobbytätigkeit ist ebenfalls nicht gröÿer als die zur Abschöpfung bereitstehende Rente. Die Summe der Lobbytätigkeit ist nach Tullock gröÿer als R, wenn sich die Rent seeker bei der Einschätzung der Rentabilität irren. Allerdings muÿ man davon ausgehen, daÿ langfristig mit der richtigen Kosten kalkuliert wird. 5.3.2.1 Positive Theorie der Regulierung Die positive Theorie der Regulierungen baut auf Stiglers sogenannten capture hypothesis auf, wonach Regulierung nicht aufgrund einer Verfolgung des Allgemeininteresses zustande kommt, sondern typischerweise im Interesse der Regulierten ist. 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 113 Regulation may be actively thought by industry and may be trust upon it. A central thesis of this paper, is that as a rule, regulation is acquired by the industry and is designed and operate primarily for its benet. Welche Faktoren erklären die weite Verbreitung von Regulierungen im Dienstleistungsbereich? In Kopie 59 sieht man die weitreichende Regulierung der verschiedenen Berufsstände, wobei Preisempfehlungen unproblematisch sind, wenn Sie, wie bei der Architektenordnung, abdingbar sind. Die Regulierung ndet hauptsächlich im Dienstleistungsbereich statt, weil Dienstleistungen nicht handelbar sind und somit nicht arbitragegefährdet sind. Die Nachfragen sind somit unelastisch und die Dienstleistungen nicht substituierbar. Eine Regulierung ist umso wahrscheinlicher, - wenn die Zahl der Mitglieder der Interessengruppe groÿ ist und die Regulierung viele Stimmen einbringt. Das widerspricht scheinbar der Trittbrettargumentation von Olson der Determinanten der Verbandsbildung auf Seite 106. Jedoch ist zu unterscheiden, daÿ wenn ein Verband erst einmal gegründet ist, der Einuÿ mit der Anzahl der Stimmen der Mitglieder steigt, er aber umso unwahrscheinlicher gegründet wird, je mehr Mitglieder eine Interessengruppe hat und der Nettoeekt der Gruppengröÿe empirisch zu bestimmen ist. - wenn die Zahl der Regulierten regional konzentriert ist (in Groÿstädten), somit der lokale Stimmenanteil hoch ist und die Organisationskosten klein sind. - wenn das Durchschnittseinkommen der Mitglieder hoch ist, und somit hohe Spenden möglich sind, wie das bei Zahnärzten, Rechtsanwälten oder Apothekern der Fall ist. - wenn die Gegenseite nicht organisiert ist. - wo die Fluktuation der Mitglieder gering ist, weil sonst die Organisationskosten hoch und der Beteiligungsanreiz gering sind. Eine andere Erklärung wäre, daÿ wenn reguliert wird, auch keine Fluktuation stattndet (HenneEi Problem). Ein Grund für eine niedrige Fluktuation ist beispielsweise ein hohes notwendiges spezisches Humankapital. Empirische Tests haben bisher lediglich die Beziehung zwischen hoher Mitgliederzahl und Durchschnittseinkommen und regionalen Konzentration getestet und bestätigt. Es wurde interessanterweise auch festgestellt, daÿ im Zeitablauf zunächst die lukrativen und dann die weniger lukrativen Bereiche reguliert wurden, was für eine Initiative der Regulierenden spricht. 114 KAPITEL 5. VERBANDSÖKONOMIK 5.3.2.1.1 Peltzman Der Petzmaneekt in Abbildung 5.5 beschreibt einen Trade o (IS ) zwischen dem Stimmenverlust bei den Verbrauchern aufgrund höherer Preise und einer Spendenerhöhung bei den Regulierten, wenn ein Politiker über den Wettbewerbspreis p∗ hinausgeht und einen Mindestpreis pR reguliert. Die Kurve SM ist die TransAbbildung 5.5: Peltzmaneekt p SM pM B pR A π p∗ GE IS πM πR GK M ZB q π∗ formationskurve für Politiker. Konkret ist es die Spendenmöglichkeitskurve, wenn man den gesamten Gewinn π des Unternehmens als Rente abschöpfen könnte. Sie erreicht ihr Maximum im Monopolpreis pM . Die Kurve IS ist die Isostimmenlinie. Erhöht der Politiker den Preis, quittieren ihm die Verbraucher ihren Unmut mit sinkenden Stimmen. Andererseits steigen die Spenden, mit denen man im Wahlkampf die Anzahl der Stimmen erhöhen kann. Die Kurve beschreibt also die Isonutzenlinie eines Politikers mit der Nutzenfunktion U [S (π (pR ), pR )] mit p∗ < pR < pM . + + + − Die Kurve ist konkav, aufgrund eines sinkenden Stimmengrenzproduktes. Die Verbände möchten einen Preis zwischen p∗ und pM und der Politiker kann einen Punkt zwischen A und B wählen. Er wird den Punkt wählen, der sich am Berührungspunkt der IS Kurve an SM ergibt. An dieser Stelle erhält er die optimale Spende (Gewinn des Unternehmens), mit der er die Stimmenzahl maximiert. 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 115 In Kopie 60 werden die Hypothesen von Stigler und Peltzman empirisch untersucht. Table 1 liegt die Stiglerhypothese zugrunde. Erklärt wird die Regulierungswahrscheinlichkeit (capture oder non-capture). Signikant mit dem richtigen Vorzeichen sind die Variablen Anteil der Mitglieder, Mobilität/Fluktuation. Table 2 erweitert die Untersuchung um zusätzliche Variablen, wie sie das Peltzmanmodell motiviert. Die Variablen Wahlbeteiligung und Ausbildungsstand sind Proxy für den Widerstand der Verbraucher. Signikant mit dem richtigen Vorzeichen für die Erklärung der Regulierungswahrscheinlichkeit sind die Anzahl der Mitglieder, Fluktuation, Wahlbeteiligung und Ausbildungsstand, Konzentration hat ein falsches Vorzeichen. Im Ergebnis ist das eine Bestätigung für die Ansätze von Stigler und Peltzman. Die Peltzmanvariablen erhöhen in Table 2 deutlich die Prognosequalität des Modells. Die Variable Konzentration hat ein falsches Vorzeichen und könnte aus der Regressionsgleichung ausgeschlossen werden. Da es kaum signikant ist, dürfte sich bei den andern Variablen nichts ändern. Die Peltzmanhypothese kann noch um einige Modikationen erweitert werden. 1. Wegen des Trade os des Politikers pR < pM , werden die Produzenten nur dann einen Verband zum Zwecke der Regulierung gründen, wenn sie nicht in der Lage sind, ein Kartell durchzusetzen. Das erklärt das Ergebnis, daÿ die Regulierungswahrscheinlichkeit steigt, wenn viele Mitglieder im Verband sind. Wenn es richtig ist, daÿ an einer Regulierung nur Produzenten interessiert sind, die kein Kartell gründen können, werden es Verbände sein, die viele Mitglieder haben (so viele, daÿ sie kein Kartell organisieren können), aber nicht so viele, daÿ sie kein Verband gründen können. Es ergibt sich eine positive Korrelation zwischen Regulierungswahrscheinlichkeit und Mitgliederzahl, wo eine isolierte Olson-Hypothese eine negative Korrelation erwarten lassen würde. Beispiel: Liberalisierung des Ladenschluÿgesetzes (Marktzutrittsbeschränkung). Einzelhandelsverbände und Gewerkschaften haben versucht, das, was durch die Regulierung weggefallen ist, durch eine Kartellabsprache zu ersetzen und Lohnzuschläge für Arbeit nach 18 Uhr in einer Höhe zu vereinbaren, so daÿ der Liberalisierungseekt beseitigt wird. Es sollte so teuer sein, daÿ der Wegfall der Regulierung keine Wirkung hat. Sie haben es nicht geschat, da sich zu viele nicht an ihre Absprache gehalten haben. Somit kann man sagen, daÿ ein Kartell und ein Verband Substitute sind und wir eine besonders starke Regulierungsnachfrage bei denen erwarten würden, die kein Kartell zustandebringen. 2. Wenn es richtig ist, daÿ die Gegenmacht zur Regulierung die Wähler sind, würde man erwarten, daÿ Regulierungen verstärkt dort auftreten, wo der geschädigte nicht der inländische (lokale) Wähler ist. Regulierung gegen ausländische Exporteure haben eine bessere Chance. Zwar können Ausländer durch Parteis- 116 KAPITEL 5. VERBANDSÖKONOMIK penden Einuÿ nehmen, aber nicht durch Stimmen, so daÿ wir Protektionismus erwarten würden (Marktzutrittbeschränkung, diskriminierende Steuern, Zölle), ausgenommen dort, wo es sich um Vorprodukte handelt. Eine Regulierung von Importgütern würden wir erwarten bei Konsumgütern, weil die Gegenseite, die Konsumenten, nicht organisiert sind. Bei Vorprodukten hingegen sind Unternehmen die Nachfrager und können sich gegen solche Arten von Protektionismus wehren. Eine Untersuchung dieser Modikation der Peltzmanhypothese von Malonie/McCormick/Tollison brachten in einer Querschnittsanalyse für die USABundesstaaten einen positiven Zusammenhang zwischen Exportanteil (Anteil des exportierten Stroms) und der Höhe des regulierten Strompreises zutage. Je mehr Strom der Staat exportiert, desto höher setzen die Regulierer den Strompreis, weil es ausländische (nicht lokale) Abnehmer trit. Regulierte Taxipreise (in Deutschland) müssten in Touristenstädten höher sein, da mehr Fremde in der Stadt die Taxis benutzen, die ihren Unmut nicht durch Stimmabgabe zeigen können. 3. Viktor Goldberg argumentiert, daÿ im Sinne einer strategy of raising rivals costs es von Interesse sein kann, die Absatzpreise eines Konkurenten zu erhöhen (Margarine-Butter, Binnenschier-Güterfernverkehr, Lufthansa-Bundesbahn), so daÿ ein regulierter Preis über dem Monopolpreis pR > pM möglich ist. 4. Stigler erwähnt, daÿ die Mindestlohngesetzgebung den Südstaaten von den Nordstaaten aufgezwungen worden ist, um die Billiglohnkonkurrenz auszuschalten und so die Wettbewerbsfähigkeit der Konkurrenz zu verschlechtern. 5.3.2.1.2 Crain/McCormick Das Modell von Crain/McCormick formalisiert das Peltzmanmodell und unterscheidet zwischen einer Regulierung durch den Politiker und Bürokraten. Sie postulieren eine Vermögens- und keine Nutzenfunktion, da sich der Nutzen nicht beobachten läÿt (eine Spezialität der Chicagoschool). Im Vermögen können auch zukünftige Einkommen berücksichtigt werden, die dann abdiskontiert werden. Die Vermögensfunktion lautet: W = W (M , T1 ) + + M sind die Anzahl der Stimmen und T1 die nicht wahlsiegrelevanten Zuwendungen (Lothar Späths Nilkreuzfahrt). Der Peltzmaneekt wird in der nächsten Gleichung formalisiert: M = M (P , R, T2 ). − + + Der regulierte Mindestpreis p erhöht den Unmut der Verbraucher und senkt die Stimmenzahl. Der Nettogewinn der Produzenten R nach Abzug der Zuwendungen 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 117 an den Politiker erhöht die Stimmenzahl und T2 sind wahlsiegrelevante Zuwendungen, wie Wahlkampfspenden. Der Nettogewinn des Unternehmens ergibt sich aus dem Bruttogewinn π und den Zuwendungen an das Unternehmen T1+2 , wobei der Bruttogewinn durch die Kosten und den regulierten Preis bestimmt wird: (5.1) R ≡ π(P , C ) − T1+2 . ± − Der Einuÿ des Preises auf den Bruttogewinn ist positiv, solange der Preis unterhalb des Monopolpreises liegt und negativ darüber. πP sinkt also mit steigendem Preis p. Zunächst sollen alle Gleichungen in die Vermögensfunktion eingesetzt werden: max W = W {M [P , R(π (P , C ) − T1+2 ), T2 ], T1 } (5.2) P,T + − + + ± − + + Im Folgenden soll xy die erste partielle Ableitung ∂x/∂y bezeichnen. Zunächst betrachten wir den Spezialfall, wo der Politiker nicht an T interessiert ist: (5.3) WP = WM MP + WM MR Rπ πP = 0 + − + + + ± Die Optimalbedingung lautet damit: MP WM (−MP ) − πP = =− > 0, WM MR Rπ MR (5.4) + wobei Rπ = 1 aufgrund der Identität 5.1. Da im Optimum πP positiv ist, benden wir uns unterhalb des Monopolpreises. πP steigt mit MP . Je stärker die Verbraucher mit Unmut reagieren, desto gröÿer ist πP , um so näher bendet sich der regulierte Preis am Wettbewerbspreis und desto niedriger ist der regulierte Preis. Oder anders formuliert: pR [πP (MP )], der Regulierungspreis sinkt (− × + = −) mit steigendem MP . − + πP sinkt mit MR . Je stärker die Stimmen (Wiederwahlwahrscheinlichkeit) aufgrund des Unternehmensprots steigen, desto kleiner ist πP und desto gröÿer ist der regulierte Preis. Je kleiner MR , desto weniger kann man durch Wahlkampfspenden die Stimmenzahl erhöhen, desto gröÿer ist πR , desto kleiner ist der regulierte Preis. πP = 0 und pR = pM (in Abbildung 5.5) wenn MP = 0, wenn also die Wähler nicht mit Unmut/Stimmenentzug reagieren. Das enspricht dem Stiglermodell. In diesem Modell gibt es keinen Pelzmaneekt (Trade o) und die Regierung wählt den Monopolpreis pM , der optimal ist für den Verband. 118 KAPITEL 5. VERBANDSÖKONOMIK Bei einem Instrumenteneinsatz von T ergeben sich mehrere Optimalbedingungen, da W in Gleichung 5.2 nach p und T abgeleitet werden muÿ. Die Ableitung nach T ist die Summe aus den Ableitungen nach T1 , T2 mit T1+2 = T1 + T2 . WT = WM MR RT1+2 + WM MT2 + WT1 = 0 WM MR = WM MT2 + WT1 (5.5) wobei aus Gleichung 5.1 RT1+2 = −1 verwendet wurde. Die Optimalbedingung nach p haben wir schon in Gleichung 5.3 ausgerechnet, setzen Gleichung 5.5 in 5.3 (oder gleich in die erste Gleichung von 5.4) und erhalten die Optimalbedingung für den Einsatz von P und T : WM (−MP ) − + πP = >0 WM MT2 + WT1 + + + Da der regulierte Preis mit πP sinkt (pR [πP ]), gilt: pR [πP (−MP )]: je stärker die − − − Wähler mit Unmut reagieren, desto niedriger ist der regulierte Preis. Weiterhin gilt: pR [πP (MT2 )]: je kleiner MT2 ist, desto kleiner ist der regulierte Preis. − − Je geringer die Wirkung der Wahlkampfspenden ist, desto niedriger ist pR . Für den Politiker gibt es keinen Grund, den regulierten Preis hochzutreiben, und die Verbände haben keinen groÿen Einuÿ. Wann ist πP = 0 und somit pR = pM ? Dann, wenn MP = 0 eine Preiserhöhung keinen Einuÿ auf den Wahlausgang hat, oder wenn WM = 0 und der Wahlausgang keinen Einuÿ auf das Vermögen des Regulierenden hat. Das ist neu gegenüber dem Peltzmanmodell und entspricht dem Fall, daÿ der Regulierende ein Beamter ist. Im Unterschied zum Politiker (pPR ) setzt der Beamte einen höheren Preis (pB R ) fest, da ihn der Wahlausgang und somit der Unmut der Wähler nicht interessiert (pPR < pM = pB R ). Diese positive Aussage wurde in den USA getestet, wo tatsächlich höhere von Beamten festgelegte Mindestpreise festgestellt wurden. Eine Begründung der Crain/McCormickthese, daÿ Beamte höhere Preise festsetzen als Politiker, lieferte Eckard. Demnach haben Beamte ein besonders starkes Interesse, den regulierten Unternehmen entgegenzukommen (mehr als Politiker), weil sie damit bessere Chancen haben, später einen guten Job in der ehemals regulierten Branche zu bekommen. Mehr als 50 Prozent von 142 Regulatoren gingen in den USA später in die regulierte Industrie, auch unabhängig davon, ob sie schon vor der Regulierung in der Industrie tätig waren. Dieses Phänomen wird auch revolving door genannt. Diese Hypothese läÿt sich überprüfen, wenn man die Regulierungstätigkeit von Beamten einerseits mit beschränkten Amtszeiten und solche mit einer nicht kündbaren lebenslangen Stellung vergleicht. Eine empirische Untersuchung von 36 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 119 Städten für das Taxigewerbe stellte fest, das Regulatoren mit einer befristeten Amtszeit den Marktzutritt stärker regulieren als Beamte auf Lebenszeit. Die Gegenleistung war eine gute Versorgung nach der Amtszeit und kein Job, da im Taxigewerbe auÿer Taxifahrer kaum jemand eingesetzt werden kann. Die Crain/McCormick-These muÿ eingeschränkt werden, wenn der Median selbst an einer Regulierung interessiert ist (MP > 0 und nicht < 0). In diesem Fall hat ein Politiker ein höheres Interesse an einer Regulierung als ein Beamter. Dies ist der Fall bei Mietkontrollen, da der Median in der BRD ein Mieter ist. Allerdings besteht, wie schon oben begründet, ein Problem mit der Qualitätsverschlechterung, die nicht im Interesse der Mieter sein kann. Der Median ist nicht Arbeitgeber und auch nicht Arbeitsloser und ist folglich an höheren Löhnen (Mindestlöhnen) interessiert, so lange er nicht befürchten muÿ, entlassen zu werden. Beim Kündigungsschutz geht der Staat über das hinaus, was am Markt festgelegt werden würde, da die Insider (diejenigen, die eine Arbeit haben; die Arbeitslosen sind die Outsider) am Arbeitsmarkt ein Interesse an einem stark ausgebauten Kündigungsschutz haben. Die Gegenposition zu Stiglers capture Hypothese ist der sogenannte public interest view. Danach wird die Regulierung nicht von den Regulierten nachgefragt, sondern von den Verbrauchern oder Verbraucherschutz. Allerdings ist es auch möglich, daÿ der Verbraucherschutz von den Produzentenverbänden nur vorgetäuscht wird, um ihr eigentliches Interesse zu verdecken. Die Taxibranche wird doppelt reguliert, sowohl über eine Preisfestsetzung als auch über eine Marktzutrittsbeschränkung, wobei eigentlich nur eine Regulierung notwendig wäre, da nur eine der Regulierungen wirken kann (entweder der Preisoder die Mengenregulierung ist wirksam). Die Mengenregulierung kann nicht im Interesse der Konsumenten sein. Die Preisfestsetzung dürfte, wenn es im Interesse der Verbraucher wäre, kein Festpreissystem sein, sondern ein Höchstpreissystem. Es dürfte auch kein Festpreissystem sein, und es müsste erlaubt sein, einen niedrigeren Preis als den festgelegten Höchstpreis zu vereinbaren. Dann könnte die These des Verbraucherschutzes leichter akzeptiert werden. So muÿ man wohl annehmen, daÿ Taxifahrer vor einer Preiskonkurrenz nach unten geschützt werden sollen. Allerdings gibt es auch Sicherheitsregulierungen, die mit dem public interest view vereinbar sind, wie z. B. in manchen Handwerksberufen oder bei Ärzten, wo der Sicherheitsaspekt wichtig ist. Aber auch hier gibt es Bereiche, wo Regulierung über das Ziel des Verbraucherschutzes hinausschieÿt. Es ist nicht klar, wieso ein Friseur ohne Meisterbrief eine Sicherheitsgefahr darstellt und jemand, der als 120 KAPITEL 5. VERBANDSÖKONOMIK Friseur seine Dienstleistung anbietet, einen Meisterbrief braucht. In diesem Zusammenhang ist die schweizerische Lösung am überzeugendsten. Dort ist der Meisterbrief optional und keine Zugangsvoraussetzung. Es stellt sich dann die Frage, wieviel ist dem Nachfrager die Information, daÿ ein Friseur ein Meister ist, wert. Bei einer Zugangsbeschränkung durch einen Meisterbrief hingegen entscheidet die Handwerkskammer für den Nachfrager, daÿ er zu seiner eigenen Sicherheit die Mehrkosten durch die Meisterausbildung bezahlen muÿ.3 Eine Deregulierung durch eine Abdingbarkeit, wo die Sicherheit des Verbrauchers nicht gefährdet ist, sollte die Herrschaft über die Verbraucher abbauen. 5.3.2.1.3 Informationsfunktion versus Marktzutrittsbarrieren Was spricht für eine Informationsfunktion des Staates gegenüber einer Regulierung in Form von Marktzutrittsbarrieren? 1. Die staatlichen Instanzen kennen normalerweise nicht die Präferenzunterschiede bei den Konsumenten. Durch Regulierung festgeschriebene Standards ignorieren diese Präferenzunterschiede und führen zu einem Schaden. Die Unkenntnis ist jedoch unschädlich, wenn sich der Staat auf eine Informationsfunktion beschränkt. 2. Regulierer weisen einen Risikobias auf. (a) Risikoscheu verhindert eine eziente Risikoallokation, da das optimale Risiko nicht Null ist. Trade os mit Risikozuschlägen und ähnlichen Optionen werden ausgeschlossen. Bei einer Informationsfunktion ist das alles kein Problem. (b) Regulierer werden eher ein Auge zudrücken, da Verbote Widerstand erzeugen und ein graduelles Verbot nicht möglich ist. Eine Informationspolitik kann jedoch immer auch nur graduell sein. (c) Graduelle Auagen sind jedoch denkbar. 3. Capture ist bei Regulierung wahrscheinlicher. Für einen Produzentenverband ist die Information im Rahmen einer Informationspolitik nicht viel wert (wer ist ein guter und wer ein schlechter Friseur), ebenso wenig einen empfohlenen Preis zu verändern. Eine Regulierung des Preises oder der Qualität ist jedoch lukrativ, die Verbände aktiv. Regulierung erhöht die Wahrscheinlichkeit von Verbandsgründungen. 3 Die Entscheidung der Nachfrager in dieser Branche läÿt sich daran ablesen, daÿ viele Friseure ohne Meisterbrief in ihrer Freizeit für einen niedrigeren Preis als im Salon Haare schneiden. 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 121 4. Regulierung ist teuerer als Informationsverbreitung. Regulierungen muÿ man durchsetzen und Informationen nur bekanntgeben. Eine Informationsverbreitung ist nur der erste Schritt einer Regulierung. 5.3.2.2 Rentseeking durch Subventionen Bisher ging es nur um Rentseeking durch Regulierung. Nun soll auch Rentseeking durch Subventionen untersucht werden. Bei Subventionen ist zu unterscheiden zwischen Finanzhilfen und Steuererleichterung. Aus politökonomischer Sicht würde man erwarten, daÿ Finanzhilfen attraktiver sind, weil dafür keine Gesetzesform vorgesehen ist und diese Form von Subventionen somit eher den Bedarf an Intransparenz erfüllt. Steuererleichterungen hingegen sind durch die vorgeschriebene Gesetzesform transparent. Auÿerdem widerspricht eine privilegierte steuerliche Behandlung von bestimmten Interessengruppen dem Grundsatz der Allgemeinheit der Besteuerung, wonach Ausnahmen von der Steuer eng begrenzt sein sollen. Abbildung 5.6: Wohlfahrtsverlust durch Subventionen p A A−S p∗ k pS l m n o r s M ZB q∗ qS q In Abbildung 5.6 ist der Wohlfahrtsverlust, der durch Mengensubventionen (pro Stück) entsteht, zu sehen. Die Subvention entspricht der Fläche klmnors, der Zuwachs an Produzentenrente or und an Konsumentenrente klm. Folglich beträgt der Wohlfahrtsverlust ms = nr. 122 KAPITEL 5. VERBANDSÖKONOMIK 5.3.2.3 Regulierung versus Subventionen Woraus bestehen die Nachteile der Subventionierung gegenüber der Regulierung aus Sicht der Rentseeker? 1. Bei Subventionierungen kämpfen die Rentseeker gegeneinander um gegebene Budgets, was man Madison-Eekt (siehe Seite 106) bezeichnen könnte. Im Gegensatz dazu ist bei Regulierung eine Einigung zu Lasten Dritter möglich. 2. Bei Subventionen gibt es Haushaltskontrollen durch das Parlament, nicht so bei Regulierungen, die oft nicht mal per Gesetzgebung, sondern nur per Verordnung erteilt werden. Somit ist die Wählerwahrnehmung bei Regulierung schwächer als bei Subventionen. 3. Bei Subventionen fällt ein Teil des Rentenzuwachses der Gegenseite zu (die Konsumentenrente steigt auch). Ein Teil des Rent seekings kommt also Gruppen zugute, deren Interessen man nicht im Auge hat. 4. Die Entscheidung zwischen Rent seeking durch Regulierung oder durch Subventionierung hängt auch von der Preiselastizität der Nachfrage und des Angebots ab. In Abbildung 5.7 sieht man, daÿ eine Preisregulierung umso vorteilhafter ist, je preisunelastischer die Nachfrage (oben) und je preiselastischer das Angebot (unten) ist. Mindestpreisregulierung würde man dort erwarten, wo die Preiselastizität der Nachfrage besonders niedrig ist. Die OPEC ist entstanden, weil die Länder glaubten, die Nachfrage sei preisunelastisch. Dies gilt jedoch nur kurzfristig, langfristig bei einer sich ändernden Technologie (durch Substitute und neue Lagererschlieÿung) ist die Nachfragekurve preiselastisch. Wo haben wir regulierte Bereiche mit geringer Preiselastizität? Ladenschluÿgesetz: Die Nachfrage ist unabhängig von den Ladenschluÿzeiten, weshalb es im Interesse der Anbieter ist, die Ladenschluÿzeiten zu begrenzen. Mindestpreise im Agrarbereich hängen mit der unelastischen Lebensmittelnachfrage zusammen. Bei Ärzten und Apothekern ist die Medizin- und Medikamentennachfrage auch preisunelastisch, allerdings spielt die Elastizität bei einer Versicherung ohne Eigenbeteiligung sowieso keine Rolle. In Abbildung 5.8 sieht man, daÿ der Produzentenrentenzuwachs bei Subventionen umso gröÿer ist, je preiselastischer die Nachfragefunktion und je preisunelastischer die Angebotsfunktion ist. Somit würden wir eine Subventionierung besonders in Branchen erwarten, wo die Nachfrage elastisch ist. Das ist in den Branchen der Fall, die einem sehr 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 123 Abbildung 5.7: Vorteilhaftigkeit von Preisregulierung elastisch + unelastisch < + - ∆ Nachfrage - + ∆ Angebot- > + - starken ausländischen Wettbewerb ausgesetzt sind, wie Bergbau, Schisbau oder Flugzeugbau. Im Bergbau haben wir zudem ein unelastisches Angebot. Abbildung 5.9 faÿt zusammen, in welchen Fällen welche Art von Rentseeking für die Produzentenverbände vorteilhafter ist. Wenn der Einsatz von Regulierung zu Stimmenverlust bei den Konsumenten führt, was passiert bei Subventionen? Die Konsumentenrenten wächst ja sogar bei Subventionen. Allerdings gehen Subventionen zu Lasten des Steuerzahlers, so daÿ man hier ein Pendant zum Peltzmaneekt hat. Die Frage ist also, wer an der Wahlurne stärker reagiert, der Steuerzahler oder der Konsument. 124 KAPITEL 5. VERBANDSÖKONOMIK Abbildung 5.8: Vorteilhaftigkeit von Subventionen elastisch unelastisch > + ∆ Nachfrage + < ∆ Angebot + + Abbildung 5.9: Subventionen versus Preisregulierung Nachfrage Angebot unelastisch Preisregulierung Subvention elastisch Subvention Preisregulierung 5.3.3 Empirische Untersuchungen Wie wirkt sich Verbandstätigkeit auf die Staatsquote aus? Dennis Mueller und Peter Murrell untersuchen die Wirkung von Subventionen in Form von Finanzhilfen. Diese werden durch die Staatsquote approximiert, wobei die Finanzhilfen nur einen kleinen Bruchteil der Staatsquote ausmachen, so daÿ der Test nicht sehr genau ist. Kopie 61 listet die Denitionen der verwendeten Variablen auf. 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 125 Die Kopien 62 und 63 zeigen die Ergebnisse.4 Kopie 62: 4. EXP t+− P OPe− t− EF RCe− Deutet auf Sklenerträge in der Produktion von öentlichen Gütern hin Je ethnisch heterogener die Bevölkerung eines Landes ist, desto heterogener sind auch ihre Präferenzen in Bezug auf öentliche Güter und Dienstleistungen des Staates, desto weniger können sie sich einigen, desto niedriger ist die Staatsquote (Schweiz, USA). IN C insignikant N IGt+ e+ Je gröÿer die Zahl der Interessengruppen in einem Land (Proxy für Verbandstätigkeit), desto gröÿer ist die Staatsquote. t+ P F RCe+ Je mehr Parteien im Parlament sind, desto höher ist die Staatsquote. Jede Partei ist der verlängerte Arm einer Interessengruppe, sie sind somit nicht Volks-, sondern Klientelparteien. Mehrheiten kommen zustande, wenn alle Klientel befriedigt wird. 7. EXP M IN C insignikant t+ SKEWe+ M IN C und SKEW testen und verwerfen die Meltzer/Richard Hypothese. 10.EXP t+− V OT Ee+ Peltzmaneekt: Wahlberechtigte werden durch Wahlteilnehmer approximiert. Je höher die Wahlbeteiligung, desto höher ist die Staatsquote. Der marginale Wähler verdient schlechter und fragt vor allem staatliche Ausgaben in Form von Umverteilung nach, so daÿ die Umverteilungsnachfrage mit Wahlbeteiligung steigt. N IGt+ e+ Der positive Einuÿ der Anzahl der Interessengruppen auf die Staatsausgabenquote scheint stabil sein. Diese Schätzung in einer Gleichung hat ein Simultanitätsproblem (reversed causation), denn die Staatsquote hat auch einen Einuÿ auf die Anzahl der Interessenverbände. Wenn die Staatsquote hoch ist, ist es attraktiv, einen Interessenverband zu gründen, weil viele Vergünstigungen zu holen sind. Die Lösung dieses Problems besteht darin, die Gleichung zweistug (mit Instrumentvariablen) zu schätzen. Kopie 63: 4 X t+− bezeichnet ein t heoretisch unklares und ein negatives e mpirisches Vorzeichen der e− Variable X . 126 KAPITEL 5. VERBANDSÖKONOMIK 1. T AX Die Steuerquote hängt eng mit den Ausgaben EXP zusammen und die Dierenz besteht in der Staatsverschuldung. 2. N IG Endogenisierung der Variable. T AX Die Zahl der Interessengruppen hängt nicht signikant von der Steuerquote ab. t+ P OPe+ Je gröÿer die Bevölkerung, desto mehr Interessengruppen. CEN T Je stärker der Staat zentralisiert ist, desto geringer ist die Zahl der Interessengruppen. Ist das die Madisonhypothese, wonach Zentralisierung den Einuÿ der Verbände reduziert? Dazu müÿte die Anzahl der Verbände den Einuÿ abbilden. Bei Zentralisierung würden man eine Fusionierung der Verbände erwarten und eine Bearbeitung der zentralen Stelle. Das heiÿt aber nicht, daÿ ihr Einuÿ abgenommen hat. Olson-Hypothese: Der Einuÿ der Verbände steigt mit der Dauer der politischen Stabilität, da eine Sklerotisierung der Wirtschaft, aufgrund einer Zunahme des Einusses der Interessenverbände, einsetzt. Es wird immer wieder ein Verband gegründet, wofür historische Fixkosten aufgenommen werden und der Verband deshalb so leicht nicht wieder verschwindet. Endogenisierung der Wahlbeteiligung. t− DAT Ee− 3. V OT E N IGt− e− Je gröÿer die Zahl der Interessengruppen, desto geringer ist die Wahlbeteiligung. Die Tätigkeit der Interessengruppen und Wahlbeteiligung sind aus der Sicht des Bürgers Substitute. Minderheiten haben nur via Verbänden eine Chance Einuÿ zu nehmen (Bürgerinitiativen zählen hier auch unter Verbände). Verbände sind eine Alternative zur Partizipation über die Wahl. Wer an der Urne nichts ausrichten kann, gründet einen Verband/Bürgerinitiative. T AX insignikant t+ LITe+ Je höher der Ausbildungsstand in einem Land, desto höher die Wahlbeteiligung. Die Ergebnisse sind erstaunlich klar, obwohl der Proxy für den Einuÿ der Verbandstätigkeit (Anzahl der Verbände) nicht besonders aussagekräftig ist. Eigentlich müÿte man die Verbände z. B. nach der Mitgliederzahl gewichten. Stigler würde diese Gewichtung akzeptieren, nicht jedoch Olson. Sein Argument wäre, daÿ viele Mitglieder bedeuten, daÿ der Verband schlecht organisierbar ist. Eine weitere interessante Variable zur Erklärung der Staatsquote ist die Exportquote (Oenheit der Volkswirtschaft). Die Hypothese lautet: Je oener die Volkswirtschaft (je gröÿer der Anteil des Auÿenhandels am BSP), desto geringer ist 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE 127 der Einuÿ der inländischen Interessenverbände, weil es dann Wettbewerb von auÿen gibt und man einen negativen Einuÿ der Oenheit auf die Staatsquote erwarten würde. 5.3.4 Dynamische Inezienz Folgende Hypothesen sind zur dynamischen Inezienz von Verbandstätigkeit denkbar: - Rentseeking erfordert die Aufrechterhaltung regulierter Preise und Marktzutrittsbeschränkung, diese sind Innovationshemmend (für Outsider) und negativ für das Wirtschaftswachstum. Allerdings sinkt auch für Insider der Innovationsanreiz. - Rentseeking mit Rüstungswettlauf bedeutet, daÿ die Eigentumsrechte unsicherer werden. Nach Douglas North sind unsichere Eigentumsrechte eine Wachstumsbremse. Zum Beispiel war die Etablierung des Patentrechts in Groÿbritannien eine wichtige Voraussetzung für Wirtschaftswachstum. - Bei Regulierung mit Kartellen werden die Entscheidungsprozesse schwerfällig und die Anpassung an Marktbedingungen dauert sehr lange, was auch wiederum wachstumshemmend ist. - Rentseeking mit Finanzhilfen erfordert höhere Steuern, die die Leistungsbereitschaft schwächen. Zur Verdeutlichung der klassischen Wirkungskanäle kann man eine Cobb-Douglas Produktionsfunktion betrachten: Ŷ = α + β1 K̂ + β2 L̂. Die Olsonhypothese wirkt auf das Wachstum durch politische Stabilität, zunehmende Zahl der Verbände, steigendem Einuÿ und sinkendes Wirtschaftswachstum. Dieser Einuÿ läÿt sich unter α subsumieren. Aber soweit es auch um Handelsmarktregulierung geht, gibt es einen Eekt auf β2 durch einen Rückgang der Arbeitsmarktproduktivität durch Überregulierung. Die Regression in Kopie 64 untersucht, inwieweit sich die Dauer der politischen t+ würde Stabilität auf die Produktivität des Faktors Arbeit auswirkt. CIV W ARe+ einen positiven Koezienten erwarten lassen, da eine Zerschlagung des Korparat− würde ein negatives Vorzeichen erwarten lassen, tismus stattfand. ST AHODe− 128 KAPITEL 5. VERBANDSÖKONOMIK da sich der Korporatismus breit macht (Olsonhypothese). Aber ist das der Zusammenhang, den Olson postulierte? Dazu müÿte man den Transmissionsmechanismus überprüfen. Das heiÿt sich fragen, ob sich CIV W AR auf das Wirtschaftswachstum über die Verbandstätigkeit auswirkt. Die dritte und vierte Regression zeigen, daÿ die Verbandstätigkeit (gewerkschaftlicher Organisationsgrad) tatsächlich negativ mit dem Wirtschaftswachstum korreliert ist. Somit sind beide Komponenten im Kausalprozeÿ nachgewiesen. Zusätzlich erleichtert die Urbanisierung (Organisationskosten: Transport- und Kommunikationskosten) die Verbandstätigkeit. Somit gilt nach Olson: Je länger das politische System stabil gewesen ist, desto gröÿer der Einuÿ der Verbände (Sklerosierung), desto geringer ist das Wirtschaftswachstum (Transmission über den gewerkschaftlichen Organisationsgrad). Kritik: Olson hat nur gezeigt, daÿ ab den sechziger Jahren das Wirtschaftswachstum in den Südstaaten gröÿer als in der Nordstaaten war und daÿ der gewerkschaftliche Organisationsgrad in den Südstaaten geringer ist als in der Nordstaaten. Beides ist bekannt, aber hat das höhere Wirtschaftswachstum in den Südstaaten tatsächlich etwas mit politischer Stabilität zu tun? Das Problem ist, ob der Schluÿ von Korrelation auf Kausalität zulässig ist. Nardinelli et al. in Kopie 65 versuchen, diese Ergebnisse von Olson zu falsizieren. Dazu wählten sie eine andere Stichprobe (in einem anderen Zeitraum) und zusätzliche Variablen, die den Olsoneekt zerstören sollten: z. B. das Ausgangseinkommen, das die catching up Hypothese von Abramowiz abbildet: Je geringer das Prokopf-Einkommen in einem Land, desto gröÿer wird das Wachstum in der Folgezeit sein. Ein niedriges Prokopf-Einkommen zeigt, daÿ das Land nicht auf der Höhe des technischen Fortschrittes ist. initial incomet− e− Dieser, die catching up Hypothese bestätigende Eekt, ist nur in Industrieländern stabil. Sobald beispielsweise schwarzafrikanische Länder hinzugefügt werden, verschwindet der Eekt. Diese Hypothese gilt oensichtlich nur bei Ländern mit ähnlichen politischen Institutionen. state aget− e+ Olson-Hypothese falsiziert. initial share of fed., state, local gov. of agriculturet+ e+ insignikant (Hypothese: Bürokratie ist Hemmnis für Wirtschaftswachstum.) technologisches catching up. 5.3. NORMATIVE RECHTFERTIGUNGSANALYSE of manufactoringt−+ e− initial educationt+ e+ 129 Je höher 1926 der Anteil des sekundären Sektors war, desto niedriger war das Wirtschaftswachstum in der Folgezeit. Wenn man auf einem höheren Niveau des manufaktorischen Sektors beginnt, gibt es wenig Möglichkeiten, Landarbeiter in der Industrie zu beschäftigen, wo das Wirtschaftswachstum entsteht. Je höher der Ausbildungsgrad in den Bundesstaaten im Jahre 1926, desto höher ist das Wirtschaftswachstum. Das ist überraschend, denn normalerweise würde man sagen, daÿ Ausbildung zu einem höheren ProkopfEinkommen führt. Warum es zu einem höheren Wachstum führen sollte, muÿ man noch begründen. Es zeigt sich, daÿ sich die Olson-Hypothese nicht so einfach testen läÿt, wie es Olson in Kopie 64 gemacht hat. Kopie 67 bestätigt in der ersten Regression die Olson-Hypothese (CML). Die Dummy-Variable der dritten Regression zeigt einen positiven Eekt einer Revolution auf das Wirtschaftswachstum (Zerschlagung des Korporatismus). Die dritte und vierte Regression erklärt Wirtschaftswachstum durch einen Index für Sklerose. Die letzte Regression zeigt, daÿ der Skleroseindex möglicherweise das Residualwachstum (u = OT HEP E ) in einem (Solow-) Wachstumsmodell erklären kann (Ŷ = α + β1 K̂ + β2 L̂ + u). Kopie 66 zeigt einen insignikanten catching up Eekt (GNP/cap), aber eine signikante Olson-Variable (Institutional). Alles in allem scheint die Olson-Hypothese für die OECD Länder robust zu sein, nicht jedoch für die US-Bundesstaaten. Kopie 68 ist eine Untersuchung von Bernholz (B) und Weede (W): t− B: T EXPe− Staatsausgaben, Sklerose bzw. Bürokratiehypothese bestätigt. W: soc.sec.T r.t− e− t− B: ADEMe− Je höher die Sozialleistungsquote, desto niedriger das Wirtschaftswachstum. Olsonhypothese bestätigt W: age of dem.t− e− -- B: t+ F IN Ve+ W: agri./civ.empl.t+ e+ Investitionsquote (Kotrollvariable) Catching up Hypothese bestätigt. Hier wurde das Simultanitätsproblem umgangen, indem die erklärende vom Anfang und die erklärte Variable vom Ende der Periode verwendet wurde. 130 KAPITEL 5. VERBANDSÖKONOMIK In Kopie 69 ist eine negative Korrelation zwischen Wachstum der Staatsausgaben und des Outputs festzustellen, ohne jedoch ein Kausalität begründen zu können. Kopie 70 zeigt eine weitere Untersuchung von Weede. Die abhängige Variable approximiert mit dem verfügbaren Einkommen der unteren 40% die Einkommensverteilung. age of demt− e− t+ soc.gove+ t+ exports/GDPe+ Je länger es die Demokratie gibt, desto niedriger ist das Einkommen der 40% schlechtest verdienenden, weil sich mit zunehmendem Alter der Demokratie Verbände etablieren, vielleicht auch des Medianwählers, zu deren Gunsten zunehmend umverteilt wird und immer weniger zugunsten der Ärmsten. Klientelkonform. Je oener die Volkswirtschaft ist, desto gröÿer ist der Anteil der Ärmsten am Volkseinkommen, weil in einer oenen Volkswirtschaft der Einuÿ der Verbände am geringsten ist und am wenigsten Privilegien zugunsten der Reichen und gut Organisierten verteilt werden. In Kopie 71 wird der Einuÿ der Einkommensverteilung auf das Wirtschaftswachstum untersucht. Die Variable GDP60 erlaubt wieder eine catching up Interpretation. Die Variable P RIM60 zeigt den Humankapital-/Bildungsniveaueekt. Je höher der Anteil des mittleren Quantils (Third 20%), desto höher das Wirtschaftswachstum. Beim negativen Einuÿ des Highest Quantils sind verschiede Interpretationen möglich: Erstens führt starke Einkommensungleichheit zu hoher Umverteilung und über negative Anreizeekte zu niedrigem Wirtschaftswachstum. Zweitens, aus der Perspektive der Theorie der Interessengruppen, je höher die Einkommenanteile der besserverdienenden Gruppen, desto stärker ist der Korporatismus (Ursache für Einkommensungleichheit) und desto niedriger das Wirtschaftswachstum. Drittens, reversed causation, hohes Wirtschaftswachstum (beispielsweise durch Sozialabbau) führt zu starker Ungleichheit. 5.4. LÖSUNGSMÖGLICHKEITEN 131 5.4 Lösungsmöglichkeiten 5.4.1 Transaktionsmechanismen 5.4.1.1 Informationen Wenn die Bedienung der Verbandsinteressen eine Gegenleistung der Politiker für Informationen, die sie benötigen, ist, dann muÿ der Politiker von diesen Informationen möglichst unabhängig gemacht werden, denn das Recht in einem Club, der im Namen der Mitglieder Stellungnahmen abgibt, beziehungsweise Information verbreitet, ist im Rahmen eines freiheitlichen Staates nicht verwehrbar, da ein Grundrecht auf Vereinigungsfreiheit existiert. Informationsunabhängigkeit kann erreicht werden durch ezienter aufbereitete statistische Daten, verbesserte wissenschaftliche Beratung und eine verbesserte Aggregation der Präferenzen (Willensbildung anstatt der Verbände) beispielsweise durch Referenden. 5.4.1.2 Störaktionen Störaktionen als Mittel der Verbandspolitik sind unter Strafe zu stellen. Jedoch geht die Tendenz in die andere Richtung, wenn man bedenkt, daÿ das BVerfG entschieden hatte, daÿ Sitzblockaden keine Nötigung, sondern nur eine Ordnungswidrigkeit darstellen. 5.4.1.3 Politiknanzierung Parteien sollten unabhängig von Partei- und Wahlkampfspenden der Verbände gemacht werden, beispielsweise durch ein niedrigeres Niveau für steuerbegünstigte Parteispenden. Politiker sollten Einkünfte aus Nebentätigkeit und Zuwendung von Verbänden oenlegen. Wahlkampfkostenerstattung aus Steuermitteln sollte erhöht werden, um Parteien unabhängiger von Verbänden zu machen und damit ein höherer Anreiz besteht, die Bürger stärker zur Wahl zu motivieren. Die Diätenentscheidungen sollten durch Entscheidungsgremien vollzogen werden, die nicht in erster Linie die Interessen der Abgeordneten vertreten. Eine Diätenkommission wurde schon einmal vom Bundespräsidenten ernannt. Wirksamer wäre nach Hayek eine neben dem Bundestag/rat unabhängige dritte Kammer, die aus Personen besteht, die nicht Parteimitglieder sein dürfen und die so de- 132 KAPITEL 5. VERBANDSÖKONOMIK mokratisch legitimiert über Diäten, Parteinanzierung, Abgeordnetenzahl usw. entscheiden. Der Zweck dieser dritten Kammer wäre, die Selbstbedienung zu stoppen, die Komplizenschaft zwischen Parlament und Regierung zu verhindern und damit eine Gewaltenteilung herzustellen. Um die dritte Kammer anreizverträglich zu gestalten, sollte sie nicht aus Leuten bestehen, die darauf warten, in die Regierung aufzurücken (wie es jetzt im Parlament ist). 5.4.1.4 Einuÿnahme auf die Zusammensetzung des Bundestages Verbandsfunktionäre sollten kein passives Wahlrecht haben, so wie es für Beamten nach dem Grundgesetz möglich ist (Art. 137, I). Dazu ist allerdings eine Verfassungsänderung nötig. 5.4.2 Organisationsfähigkeiten 5.4.2.1 Besteuerung Verbände sollten nicht wie Vereine, sondern wie private Unternehmen besteuert werden. 5.4.2.2 Zwangsmitgliedschaft in IHK, Ärztekammer u.ä. beseitigen. 5.4.2.3 Kartellrecht Verbände sollten, soweit sie versuchen kartellarische Instrumente per Regulierung durchzusetzen, dem Kartellrecht unterworfen werden. 5.4.2.4 Verfassungsbeschränkung Es sollte ein generelles Regulierungverbot in der Verfassung verankert werden. Beispielsweise könnte man Preisvorschriften für verfassungswidrig erklären, ebenso wie Protektion (Zölle, Einfuhrkontingente usw.) und Marktzutrittsbeschränkungen. Das Grundrecht auf Vertragsfreiheit existiert im Grundgesetz nicht. Ausnahmen gelten bei Verträgen zu Lasten Dritter z. B. Kartellabsprachen. 5.4. LÖSUNGSMÖGLICHKEITEN 133 5.4.2.5 Olson-Hypothese Nach der Olson-Hypothese führt politische Stabilität zu skleratischem Korporatismus. Die politische Stabilität sollte erschüttert werden. Maos Kulturrevolution zielte in diese Richtung. Korporatistische Strukturen im Inland werden erschüttert, wenn man die Volkswirtschaften und Märkte önet und Wettbewerb von auÿen zugeläÿt. Dies geschah beispielsweise durch die Handelsliberalisierung in den GATT-Runden und in der europäischen Gemeinschaft in Form des Binnenmarktes. Allerdings ist für Europa zu bedenken, daÿ die Marktintegration nur zu einer Erschütterung der korporatistischen Strukturen auf nationaler Ebene führt. Zur Marktintegration ist auch noch die politische Integration erwünscht. Diese ermöglicht auf Unionsebene, daÿ sich die Interessenverbände neu formieren. Es gibt gute Gründe für die Annahme, daÿ auf einer höheren Ebene die Befriedigung der Interessengruppen sogar dann, nachdem sich ein neues politisches Gleichgewicht gebildet hat, noch weiter geht, da dann auf der höheren Ebene der Wettbewerb zwischen den Politikern und Regulatoren entfällt und so die Möglichkeit für Vergleiche und Exit eingeschränkt wird. Verbände können sich auf zentralstaatlicher noch besser durchsetzen als auf nationalstaatlicher Ebene. 5.4.3 Systemimmanent Bei den systemimmanenten Vorschlägen wird nicht versucht, die Verbände zu beseitigen, sondern man ndet sich damit ab, daÿ sie da sind und versucht, die verursachten Kosten zu reduzieren. 5.4.3.1 Tullock: ecient rent-seeking Rentseeking kann man nicht verhindern, aber dafür sorgen, daÿ die Kosten des Rentseekings geringer werden, daÿ der Lobbyaufwand verschwindet und keine Ressourcen durch Lobbyismus verschwendet werden. Am besten wären Auktionen, bei denen Privilegien versteigert werden. Bei Widerstand durch den Wahlbürger könnten sie verlost werden oder (noch provokanter) Nepotismus eingeführt werden. Wie in der Monarchie führt die Erbfolgeregelung dazu, daÿ der Rüstungswettlauf zwischen den Kandidaten entfällt und eine Bedienung der Verwandten der Regierung stattndet. Anreizverträglich formuliert bedeutet dies, daÿ eine Verteilung aufgrund von Eigenschaften stattndet, die der Empfänger nicht beeinussen kann (z. B. Körpergröÿe). 134 KAPITEL 5. VERBANDSÖKONOMIK 5.4.3.2 Ministerienauösung Interessengruppenbezogene Ministerien wie das Landwirtschaftsministerium könnte im Wirtschaftsministerium, wie früher üblich, eingegliedert werden. Aufgelöst werden sollten auch das Wohnungsbauministerium und das Verkehrsministerium. 5.4.3.3 Verbandsfusion Verbandsfusionen dienen dazu, daÿ weniger Partikularinteressen auftreten, da die Interessen der anderen internalisiert werden können. Im Extremfall ist der ganze Staat in einem Verband und alle Interessen können internalisiert werden. Könnten Zwangsmitgliedschaft systemimmanent positiv sein, wenn durch encompasing interest groups geringe externe Eekte entstehen? Die Nachteile sind, daÿ sich bei Zwangsverbänden die Funktionäre selbständig machen, weil eine Exitoption entfällt und Verbandsminderheiten geringer berücksichtigt werden. Zudem ist eine Zwangsmitgliedschaft nicht mit der Vereinigungsfreiheit des Grundgesetzes vereinbar. Solange durch Zwangsmitgliedschaft nicht die encompasing erreichbar ist, wird der Verband gegenüber den Nichtorganisierbaren immer mächtiger, der die Schwerorganisierbaren unterdrückt. 5.4.3.4 Regulierung der Verbände Vorschriften bezüglich ihrer Organisation fordert die FDP schon seit Jahrzehnten. Nötig wäre ein Verbandsgesetz mit Oenlegungspichten und Abstimmungsregeln. In Groÿbritannien gibt es geheime (nicht per Hand am Fabriktor) Gewerkschaftswahlen. Weiterhin sollte die (qualizierte) Mehrheit der Mitglieder und nicht der Anwesenden entscheiden. In der juristischen Literatur wird die Gemeinwohlbindung der Verbände verlangt. Das geht aus ökonomischer Sicht völlig am Problem vorbei, da der Zweck der Verbände gerade nicht das Gemeinwohl, sondern die Partikularinteressen sind. 5.4.3.5 Gleichgewichtiger Wettbewerb Um ein Gleichgewicht zwischen den Verbänden zu erreichen (countervailing powers, balance of power), sollten die Startschwierigkeiten bei der Formierung von Verbänden gemindert werden. Der Verbraucherschutz sollte subventioniert werden, ebenso der Umweltschutzverband und der Bund der Steuerzahler. 5.5. PROBLEME BEIM PRIVILEGIENABBAU 135 In der BRD gibt es eine Subventionierung der Verbraucher in Form eines Verbandes pro Bundesland. Verbraucherschutztagungen zwischen Bundesländern entpuppen sich als Auseinandersetzungen der verlängerten Arme der Regierungen, da Parteifunktionäre die Posten besetzen. Anhörungsrechte in Form von Hearings wären eine weitere Möglichkeit, allen gesellschaftlichen Gruppen Gehör zu verschaen. So etwas gab es schon einmal in der Spätphase von Ludwig Erhards Regierung, deren ozielle Regierungspolitik die formierte Gesellschaft bemüht war, möglichst gleichberechtigte Anhörungsrechte zu etablieren. Allerdings ist dieser Ansatz wieder im Sande verlaufen. 5.5 Probleme beim Privilegienabbau 5.5.0.1 Tullock: transitional gains trap Viele Gruppenprivilegien versprechen nur vorübergehende Gewinne. Beispielsweise, weil es nicht möglich ist, den Marktzutritt dauerhaft wirksam zu verhindern. Ein Beispiel für eine Konditionenregulierung ist das Ladenschluÿgesetz, das 1956 eingeführt worden war. Wenn man annimmt, daÿ nur ein Sonntagsönungsverbot und keine Zutrittsbeschränkung bestehen, dann besteht die Wirkung aus einer Reduktion der Kapazität um 1/7 oder einer Reduktion des Verkaufsraumes um 1/7. Das führt zu Knappheit durch Reduktion des Angebots, steigende Gewinne und Kapitalrenditen im Einzelhandel. Daraufhin strömen neue Anbieter herein und die Kapitalrenditen sind wieder so hoch wie in anderen Branchen. Die Gewinne sind somit nur temporär (transitional). Wenn jetzt liberalisiert werden würde, würde des Angebots wieder steigen und die Kapitalrenditen sinken. Dies trit jedoch Leute, die nie von der Einführung des Ladenschluÿgesetzes protiert haben, da bei Markteintritt die höheren Kapitalrenditen verrechnet werden, indem ein Ladenbesitzer dem Nachfolger die höhere Rente im Kaufpreis in Rechnung stellt, das heiÿt, daÿ nur diejenigen, die 1956 einen Laden hatten, von der Ladenschluÿbeschränkung protiert haben. Somit ist der Widerstand durch diejenigen, die sich unschuldig fühlen, entsprechend hoch. Dies ist jedoch keine rein ökonomische Argumentation, da keine Wohlfahrtsverluste entstehen, sondern lediglich eine Umverteilung stattndet. Es widerspricht jedoch dem Gerechtigkeitsempnden, jemandem etwas weg zu nehmen, was er nie erhalten hat. In der Agrarpolitik ergab sich durch die Einführung von Subventionen und Mindestpreisen Anfang der sechziger Jahre eine ähnliche Situation, wobei der Marktzutritt nicht auch noch beschränkt wurde. Es entstand eine Angebotsausweitung, 136 KAPITEL 5. VERBANDSÖKONOMIK wobei die Inzidenz der Subvention beim (fast) xen Faktor Boden lag. Die Preise stiegen und in Form von höheren Bodenpreisen el die Rente denen zu, die Anfang der sechziger Jahre Boden hatten. Durch Marktzutritt waren Übergewinne später nicht mehr möglich, und wenn man den Boden bei höheren Preisen gekauft hat, waren die Renditen nicht höher als woanders. Neue Marktteilnehmer haben also keine Verknappungsrenten bekommen, so daÿ die Deregulierung bei ihnen auf Widerstand stöÿt. Dies ist eine Subventionsfalle, weil bei der Beseitigung der Subventionen Leute geschädigt werden, die nie von den Privilegien protiert haben. 5.6 Wieso ist Deregulierung zu beobachten? Mit dem seit dem Ende der siebziger Jahre zu beobachtenden Deregulierungsphänomen hat man im Peltzmanmodell ein Erklärungsproblem. 1989 versucht Petlzman, die Deregulierung zu erklären. 5.6.1 Substitute Interessengruppen verlieren in vielen Branchen ihr Interesse an Regulierungen, weil sie aufgrund von Substituten, die in nicht regulierten Branchen entwickelt werden, immer unwirksamer werden. Es gibt also einen Wettbewerb von auÿen durch Anbieter, die nicht reguliert werden. Es ndet eine wealth dissipation durch immer mehr Anbieter und eine Konvergenz in Richtung Wettbewerbskondition statt. In den USA fand solch ein Phänomen in der Eisenbahnindustrie statt, die zunehmend starkem Wettbewerb durch Substitute ausgesetzt war. Im Bankenbereich ging das internationale Geschäft aus den USA auf den Eurodollarmarkt über. Zu dieser Zeit gab es verschiedenste Regulierung (Regulation Q für Termingelder usw. ) 1981 bemerkte die USA, daÿ es nicht möglich sein wird, den Euromarkt zu regulieren. Es gab einen Versuch, der aber von der Schweiz und Luxemburg abgelehnt wurde, so daÿ den USA nicht anderes übrig blieb, als ihren Bankensektor zu deregulieren. In der BRD könnte eine Hypothese bezüglich der Deregulierung der Ladenschluÿzeiten auch über wealth dissipation argumentieren: Es werden zunehmend Substitute, wie Tankstellen oder die Klett-Passage in Stuttgart, angeboten, deren Ladenschluÿzeiten nicht reguliert werden und dem Einzelhandel den Umsatz streitig machen. 5.6. WIESO IST DEREGULIERUNG ZU BEOBACHTEN? 137 In beiden Fällen ndet eine Deregulierung auf Grund von gestiegenem Wettbewerb durch immer mehr Substitute statt. Man kann sich die Eekte der aufkommenden Substitute am besten in Abbildung 5.5 verdeutlichen. Zunehmende Substitute bewirken eine Drehung der Nachfragekurve im Wettbewerbspreis gegen den Uhrzeigersinn. Man sieht, daÿ eine immer elastischere Nachfrage die regulierte Menge erhöht und den regulierten Preis senkt. Bei einer vollkommen preiselastischen Nachfrage ergibt sich die Wettbewerbslösung. Bei einem zu hohen Preis, erfolgt ein Marktaustritt des Nachfragers, so daÿ die Unternehmen ein höheren Preis als den Wettbewerbspreis nicht durchsetzten können. Die Erosion von Marktzutrittsbarrieren kann durch wirksame Substituten und elastische Nachfragen erklärt werden. 5.6.2 Qualitätswettbewerb Wenn man höhere Preise für Mietwohnungen einführt, die unter dem Marktpreis liegen, führt das zu einer sinkenden Qualität, solange bis die Miete gemessen an der Qualität des Wohnraums wieder im Gleichgewicht ist. Wenn dieser Prozeÿ eintritt, verlieren die Mieter ihr Interesse an Preisregulierung, welche sie durch aufgezwungene Qualitätsanpassung noch schlechter stellt als ohne Regulierung, obwohl manche auch mehr für die Mietwohnung zahlen würden. Wenn der regulierte Preis zu hoch ist, führt Qualitätswettbewerb in Richtung höherer Qualität. Bei der Luftfahrt wurde Wettbewerb nicht mehr über den Preis, sondern über die Qualität (Beinfreiheit, kostenlose Getränke, Kino usw.) zwischen den Fluggesellschaften geführt. Es ergibt sich ein Wohlfahrtsverlust, weil die Qualität zu hoch ist und den Konsumenten womöglich ein niedrigerer Preis lieber wäre. Die regulierte Branche verliert ihr Interesse an einer Regulierung, da der Wettbewerb nach wie vor da ist, sich in Richtung Qualität verlagert und die Kapitalrendite wieder auf das übliche Niveau absinkt. 138 KAPITEL 5. VERBANDSÖKONOMIK Kapitel 6 Wirtschaftspolitische Beratung 6.1 Transmissionsmechanismen Wie wirkt sich Beratung auf die Wirtschaftspolitik aus? 6.1.1 Der Ökonom als externer Berater der Regierung Die Positionen möglicher externer Berater sind Beamter, Beirat in Ministerien, Sachverständigenrat oder Gutachter von Wirtschaftsforschungsinstituten. Bei dieser Beratungsform besteht einerseits ein Informations- und andererseits ein Anreizproblem. Das Informationsproblem besteht darin, daÿ der Politiker keine Zeit hat oder die Argumente nicht versteht. Das Anreizproblem besteht darin, daÿ der Politiker kein Interesse an der Beratung hat, solange die Wähler bzw. die öentliche Meinung noch nicht von der Richtigkeit der Vorschläge überzeugt sind. Er hat nur dann einen Anreiz, auf die Vorschläge zu hören, wenn die Öentlichkeit bereits davon überzeugt ist und es keine einuÿreichen Interessengruppen gibt, die gegen die Vorschläge sind. Friedman: Alle guten Vorschläge sind umsonst, weil der Politiker nicht am öffentlichen Interesse, sondern daran interessiert ist, die eigene Machtposition zu erhalten. 139 140 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG 6.1.2 Der Ökonom als öentlicher Meinungsmacher Die Mobilisierung der öentlichen Meinung entspricht einem paretianischen Ansatz, wo der Ökonom ein ehrlicher Makler ist, sich an den Souverän wendet und ihn von der Richtigkeit bestimmter Ansichten, beispielsweise durch Medienauftritte, zu überzeugen versucht. Probleme bestehen, wie oben, in Form eines Informations- und eines Anreizproblems. Wieso könnte der Wissenschaftler den Bürger besser als der Politiker überzeugen? Soweit sie als unabhängig gelten, haben sie eine höhere Glaubwürdigkeit, sind jedoch eher weniger kommunikationsfähig. Sie pegen vielleicht die intellektuellen Eitelkeiten, und sie drücken sich möglicherweise viel zu kompliziert aus. Diese Form der Beratung macht nur Sinn, wenn man meint, daÿ der Wähler besser ist als sein Ruf und klüger als die Politiker denken, Wenn also auf politischer Seite ein Irrtum vorliegt. 6.1.3 Der Ökonom als Politiker Diesen platonischen Ansatz erlebte Deutschland in Form von Erhard, Schiller und Schmidt. Üblicherweise gibt es jedoch nur sehr wenige Politiker, die ökonomisch gebildet sind. Wo liegen die Probleme? Wissenschaftler sind möglicherweise Pros in der Durchsetzungsfähigkeit unterlegen. In der Politik zählt Werturteil vor Sachurteil, in der Wissenschaft andersrum. Ein weiteres Problem könnte die mangelnde Anpassungsbereitschaft des Wissenschaftlers sein. Er ist nicht auf die politische Karriere angewiesen, relativ unabhängig, gewissen Vorstellungen von Wahrheit verpichtet und an die vergangenen Äuÿerungen gebunden und kann nicht einfach das Gegenteil behaupten. Die Durchsetzungsfähigkeit leidet auch an den von Nichtexperten (Generalisten = Universaldilettanten :-) ) entwickelten Gegenstrategien: Vorwurf der Weltfremdheit und Agieren aus dem Elfenbeinturm. Schon Ricardo muÿte sich 1820 im Parlament vorwerfen lassen, er argumentiere, als ob er gerade von einem andern Planet gekommen sei. 6.1.4 Der Ökonom als Staatsbeamter Eine Position als Staatsbeamter kann man entweder in (a) einem Ministerium (Müller-Armack, Keynes (Bretton-Woods), Erhard) oder in (b) einer unabhängigen Institution (Issing, Siebert, Kloten) bekleiden. Man kann damit bei Gesetze- 6.1. TRANSMISSIONSMECHANISMEN 141 sentwürfen und Verhandlungsführungen mitwirken. 6.1.5 Der Ökonom als Ausbilder Wenn man die Vorstellung hat, daÿ der Mensch nur während des Studiums für wissenschaftliche Argumente zugänglich ist, danach keine Zeit oder Interesse daran hat und nur noch von der Substanz zehrt, dann sollte man nicht die Politiker überzeugen, sondern auf den Generationswechsel und ihren Marsch durch die Institution bauen. Eine ähnliche Aussage traf Max Planck 1928 in seiner Autobiographie: Eine neue wissenschaftliche Wahrheit pegt sich nicht in der Weise durchzusetzen, daÿ ihre Gegner überzeugt werden, sondern, weil sie aussterben und die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht worden ist. 6.1.6 Empirie Nach Kuhns Revolutionstheorie in Structure of Scientic Revolution werden die Auswirkungen wissenschaftlicher Revolutionen auf die Wirtschaftspolitik betrachtet. Die soziale Marktwirtschaft entwickelte sich durch den Transmissionsmechanismus Politiker (Erhard), Beamter(a) (Müller-Armack) und Berater (wissenschaftlicher Beirat beim Bundeswirtschaftsministerium mit Böhm, Eucken, Röpke, Rüstow, der die Vorlagen für Erhard lieferte). Die keynesianische Nachfragesteuerung unter Schiller (Politiker) manifestiert sich im Stabilitäts- und Wachstumsgesetz. Flexible Wechselkurse wurde von Schiller (Politiker) durchgesetzt, der das BrettonWoods System zu Sturz brachte. Die Abkehr von der Nachfragesteuerung und eine Verstetigung der Angebotspolitik wurde durchgesetzt von (1.) der Geldpolitik durch die Bundesbank (Beamter (b)) seit 1974 durch die Ankündigung von Geldmengenzielen, was von den (Berater) Monetaristen vorgedacht worden war. (2.) In der Haushaltspolitik wurde es durch den Sachverständigenrat mit Siebert und Fels gefordert (Berater). Das EWS wurde unter Helmut Schmidt (Politiker) eingeführt und von seinem Architekten Horst Schulmann (Beamter (a)) ausgedacht. Der Währungsunion ging das Genscher Memorandum 1988 voraus und Kohl setz- 142 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG te sie am Finanzminister vorbei durch (Primat der Politik). Diese Reform fand ohne ökonomische Beteiligung statt. Auällig ist die Häufung von Politikern als Transmissionsmechanismus, woraus man schlieÿen kann, daÿ der Ökonom als Politiker viel erreichen kann, vorausgesetzt, er wird Bundeskanzler. Entsprechend der These von Kuhn geht den wissenschaftlichen Revolutionen erst eine Krise voraus: Soziale Marktwirtschaft nach Mangelwirtschaft, keynesianische Nachfragesteuerung nach der Rezession von 1967, wo eine Arbeitslosigkeit von zwei Prozent als eine schwere Krise empfunden wurde, exible Wechselkurse nach importierter Ination, Angebotspolitik nach Stagnation, da Keynes nach den Ölschocks nicht mehr funktionierte, EWS nach der Dollar Krise unter Carter 1978. Nur Maastricht ging keine erkennbare Krise voraus. Wie lange sind die Lags von der Konzeption bis zur Implementierung? Soziale Marktwirtschaft: 40er-50 (5 Jahre), kenesianische Nachfragesteuerung: 36-67 (30 Jahre), exible Weckselkurse: 53-69/73 (20 Jahre), Angebotspolitik - Geldpolitik: 58-74 (15 Jahre) - Finanzpolitik: 75-83 (10 Jahre), EWS: 77-79 (2 Jahre), Maastricht 68-88 (20 Jahre). Der typische Lag ist recht lange und maximal 30 Jahre, bei einem Median von 15-20 Jahren, aber auch kurze Lags sind möglich. In einer internationalen Querschnittsanalyse berichtet John Williams 1994 im Buch The political economy of policy reform, daÿ Reformen (in Schwellenländern) typischerweise von einem ökonomischen Team mit einer gemeinsamen wirtschaftspolitischen Vision und fast immer mit einer charismatischen Führungsgur durchgeführt werden. Wobei der Reform ein ökonomischer Notstand vorausgeht und eine komfortable Mehrheit im Parlament besteht. 6.2 Externe Beratung 1. Es gibt zwei Arten von Prognosen: (a) Status Quo Prognosen, die daraus bestehen, die Entwicklungen der Zukunft vorherzusagen, wenn die Wirtschaftspolitik nichts tut und keine wirtschaftspolitischen Instrumente eingesetzt werden. (b) Wirkungsprognosen von Maÿnahmen, die beantworten, wie sich die Entwicklung verändern läÿt, wenn bestimmte Maÿnahmen ergrien oder Institutionen errichtet werden. Der Sachverständigenrat und die Wirtschaftsforschungsinstitute sind auch zu einer Status Quo Prognose verpichtet. Die Vorgehensweise besteht darin, eine Status Quo Prognose zu erstellen, die Fehlentwicklung aufzuzeigen 6.2. EXTERNE BERATUNG 143 und anzuregen, was man dagegen tun kann. 2. Beratung kann auch darin bestehen, dem Politiker zu vermitteln, daÿ er, verglichen mit der Zahl der Instrumente, zu viele Ziele hat und auf einige verzichten sollte, wie es aus der Assignmenttheorie bekannt ist. Für die Wirksamkeit der Beratung ist es notwendig, daÿ Informationen vorliegen, die bisher übersehen wurden und (de facto), daÿ die Beratung mit den sonstigen Überzeugungen der Beratenen in Einklang steht, da sie sonst die Ratschläge nicht akzeptieren werden. Beratung ist dort wirkungslos, wo das Problem nicht auf einem Informationsmangel, sondern auf einem Interessengegensatz beruht. Zum Beispiel ist es aussichtslos zu versuchen, den BDI davon zu überzeugen, daÿ Umweltauagen inezient und Umweltzertikate sinnvoller sind. Das ist deshalb so, weil ein Interessengegensatz besteht, denn die Auagen sind umsonst und die Umweltzertikate teuer für die Industrie. Ebensowenig ist es aussichtsreich, die Gewerkschaften von überhöhten Reallöhnen, als den Grund für die hohe Arbeitslosigkeit, zu überzeugen zu versuchen. Sie würden es nicht zugeben, selbst, wenn sie es einsehen würden, denn es widerspricht dem Verbandszweck. Hobbes: Man hätte sich wohl nie auf 1 + 1 = 2 geeinigt, wenn es jemandes Interesse gewesen wäre, es zu bestreiten. Fazit: Dort, wo Interessen nicht dominieren, kann Beratung etwas bewirken. 3. Es ist zu unterscheiden zwischen einer Beratung, die an Politiker versus Öentlichkeit gerichtet ist und einer Beratung bezüglich der Wirtschaftsordnung versus Prozeÿpolitik. Beratung bezüglich der Wirtschaftsordnung zielt auf die Verfassungsebene, die Öentlichkeit, die Aufklärung und eine Paretoverbesserung, also einer Änderung, der alle zustimmen können. Bezüglich der Prozeÿpolitik ist Beratung auf die exekutive Ebene, die Steuerung, die Politiker und das Mehrheitsinteresse ausgerichtet. 6.2.1 Anreize Welches sind die Anreize der Berater in der Wirtschaftspolitik? Zur Einkommensmaximierung ist festzustellen, daÿ Beamte in der Regel (Universität, Wirtschaftsforschungsinstitute) begrenzte Möglichkeiten haben, ihr Einkommen zu beeinussen. Der Einkommensmaximierung ist es dienlich, bis zu einem Alter von 52 Jahren möglichst viele Rufe zu erhalten. Dazu ist ein hohes Ansehen bei Kollegen notwendig und daÿ man sich am Mainstream orientiert, um 144 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG konsensfähig zu bleiben. Ansehen kann also ein Mittel zu Einkommenserzielung sein. Ansehen läÿt sich auch durch Gutachten und Vorträge erlangen. Zudem ist Ansehen des Beratenden für den Auftraggeber wichtig, weil bei Veröentlichung der Studie ansonsten keine Wirkung in der Öentlichkeit erzielt wird. Demzufolge steht bei wissenschaftlichen Beratern die Ansehensmaximierung an oberster Stelle. Berater haben kaum Macht, so daÿ dieser Punkt in diesem Zusammenhang kaum anwendbar ist. Die Budgetmaximierung ist von hohem Interesse, allerdings eher zum Zwecke der Ansehensmaximierung, indem viele Gutachten erstellt werden können. Was muÿ man tun, um Ansehen zu maximieren (Beifallsmaximierung)? Dazu sind kunstvolle Analysen notwendig, und die Brauchbarkeit für die Wirtschaftspolitik ist dabei sekundär. Frey and Kirchgässner (1994), S.458, bemerken, daÿ es wenige Anreize gibt, auf wirtschaftspolitischem Gebiet zu forschen: 1. Als Kriterium für die Qualität wirtschaftswissenschaftlicher Forschung wird meist nicht Relevanz, sondern die objektiv leichter erfaÿbare professionelle Kompetenz angesehen. Als ökonomisch kompetent wird angesehen, wer das formale Instrumentarium beherrscht, logisch konsistent und stringent argumentiert und die wissenschaftliche Literatur kennt. 2. Wirtschaftspolitisch relevante Forschung ist in aller Regel angewandt, und sie bringt für andere Wissenschaftler oft wenig Neues. Um innerhalb der Wissenschaften aufzufallen, muÿ eine Arbeit möglichst originell sein. Viele der begabtesten Ökonomen entscheiden sich für möglichst abstrakt-theoretische Forschung, um im kompetitiven Wissenschaftsbetrieb Karriere zu machen. Für ein hohes Ansehen sind ehrenvolle Ämter hilfreich, die von Politikern vergeben werden und dafür auch ein Gegenangebot vom Forscher erwarten. Für das Ziel der Wahrheitsmaximierung sind die Anreize niedrig, dazu ist eine intrinsische Motivation nötig. Wer die Wahrheit sagt, ist weder bei Politiker, noch bei Kollegen beliebt. Es besteht ein stärkerer Anreiz, auf der Prozeÿebene zu beraten, da sich hier Politiker als dankbar erweisen können. Der Anreiz zur Beratung auf Ebene des Grundkonsenses ist niedriger, da hier kein Auftrag besteht und einem somit keine Dankbarkeit erwiesen wird. Im Gegenteil: Interessengruppen leisten Widerstand, wo sie Privilegien genieÿen, die zu Inezienz führen. Und Politiker sind über die unerbetenen Ratschläge verärgert, weil sie nicht daran interessiert sind, die Wähler aufzuklären, da dies den Entscheidungsspielraum und die Handlungsfähigkeit 6.3. EFFIZIENZANALYSE 145 reduziert. Wahrscheinlich ist es nicht möglich, auf beiden Ebenen gleichzeitig zu beraten, da für die Politiker- und Öentlichkeitsberatung verschiedene Ratschläge nötig sind. Um Politiker zu beraten, muÿ man ihr Vertrauen genieÿen, und dazu ist oft eine parteipolitische Bindung nötig. Dies reduziert allerdings die Wirksamkeit bei der Öentlichkeitsberatung. Es ist wohl nicht möglich, das Vertrauen der Herrschenden und der Beherrschten gleichzeitig zu genieÿen. 6.3 Ezienzanalyse 6.3.1 Beratung auf der Ebene des Grundkonsenses Wieso sind die Anreize, die Öentlichkeit zu Beraten, so schwach? Die Beratung der Öentlichkeit leidet an der nötigen starken Vereinfachung, um verstanden zu werden. Dies wird oft von den Kollegen des Beraters miÿverstanden. Da die Anreize so schwach sind, könnte man die Beratung der Öentlichkeit überparteilich fördern und Beratung in Form einer Verfassungsinstitution schaen. Die Gemeinschaftsdiagnose der sechs Forschungsinstitute könnte man als solch eine Verfassungsinstitution interpretieren. Allerdings werden die Institutspräsidenten in Übereinstimmung des Wirtschaftsministeriums des Bundes und der Länderregierungen ausgewählt. Die Neutralität ist dann gesichert, wenn im Bund eine andere Partei regiert als im Land. Die wirtschaftspolitische Forschung könnte an Universitäten subventioniert werden, wovon jedoch kaum Gebrauch gemacht wird. Beim Sachverständigenrat geht es ebenso um eine Konsensberatung auf der Verfassungsebene mit unter anderen drei unabhängigen Mitgliedern, die niemanden vertreten. Jeder Wissenschaftler will das Neue an seiner Arbeit herausstreichen und das, was sowieso alle meinen, ist uninteressant. Der Grundkonsens in der Wissenschaft ist allerdings breiter als man normalerweise denkt. Bruno Frey schreibt in der Zeit vom 7.12.2000: In den wichtigsten Grundfragen stimmen die meisten Ökonomen durchaus überein: die Unabhängigkeit der Notenbank, Privatisierung und Deregulierung, Freihandel, eine marktkonforme Umweltpolitik, negative Einkommenssteuer, der Produktivität entsprechende Löhne, Auktionen für Radio-, Fernsehen-oder digitale Übertragungsfrequenzen - all das sind Stichworte, die eine Art weltweiten Konsens innerhalb der Volkswirtschaftslehre umkreist. Trotzdem wird in Zeitungen hauptsächlich der Konikt thematisiert, da dies wirksamer für die Auage ist. 146 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG Die Konsensinstitutionen haben eine wichtige Rolle, sind jedoch gefährlich für den Politiker. Wenn die Wissenschaft einig vor die Öentlichkeit tritt, wird es für den Politiker schwieriger, einen anderen als den empfohlenen Kurs zu fahren, seine Handlungsfähigkeit ist eingeschränkt. Ein Beispiel dafür ist die Entstehungsgeschichte des Sachverständigenrates, dessen Einrichtung von Erhard ab 1958 gegen Adenauer betrieben wurde. Zunächst wurde die Gründung immer wieder vertagt, bis sich Erhard 1963 durchsetzte und das Sachverständigenratgesetz verabschiedet wurde. Daraufhin wurde Adenauer durch Erhard abgelöst und Erhard selbst bekam Ärger mit dem Sachverständigenrat. Der letzte Versuch, den Sachverständigenrat an die Kette zu legen, bestand darin, die Mitglieder von der Bundesregierung ernennen zu lassen. Auÿerdem steht in 2, daÿ der Sachverständigenrat keine Empfehlung über eine bestimmte wirtschaft- und sozialpolitische Maÿnahme aussprechen darf. Dies widerspricht jedoch 3, wonach der Sachverständigenrat verpichtet ist, Fehlentwicklungen und Möglichkeiten zu deren Vermeidung oder Beseitigung aufzuzeigen. Der Sachverständigenrat beruft sich auf 3 und eine Auslegung des 2, wonach das Gesetz keine Empfehlungsverbote enthält und nur keine bestimmten i.S. detaillierten Empfehlungen abgegeben werden dürfen. Insofern bestimmt 2 lediglich ein Konkretisierungsverbot. 6.3.2 Beratung auf der Prozeÿebene H.Bonus: Die heutige Praxis sieht so aus, daÿ die Wissenschaft, ähnlich wie früher die Magie, zur Rechtfertigung politisch heikler Entscheidungen benutzt wird, daÿ sie dem Politiker als Tarnung dient. Die in der politischen Arena umstrittene Entscheidung soll als durch Sachzwänge diktiert dargestellt werden, denen sich kein Verantwortlicher entziehen kann. Dahinter verbirgt sich eine schwer nachvollziehbare Entscheidungsscheu und Furcht vor der politischen Verantwortung. Wieso besteht ein Anreiz zur qualitativ schlechten Beratung und Gefälligkeitsgutachten? Beratung dient der Legitimation bereits vom Politiker gefällter Entscheidung, statt einer gestaltenden Beratung. Der Politiker sucht den Ökonom aus dem gleichen Grunde wie der Betrunkene den Laternenpfahl, nicht zur Erfüllung, sondern als Stütze. Der Korruptionsvorwurf an den wissenschaftlichen Berater lautet: des Brot ich ess, des Lied ich sing. Oder in der marxistischen Version: die bürgerliche Wissenschaft ist der ideologische Überbau des Kapitalismus. Allerdings ist die kausale Richtung der Korrelation fraglich: Es ist nicht nur denkbar, daÿ der Gutachter so schreibt, wie es dem Auftraggeber gefällt, sondern auch, daÿ der Auftraggeber sich den Gutachter nach der bekannten Meinung des Gutachters auswählt. Welche Ezienzprobleme entstehen bei der Vergabe von Gutachten durch die Mi- 6.4. HABERMAS MODELLE 147 nisterien? Forschungsinstitute nanzieren sich zu einem Teil über Gutachten und bekommen vom Bundeswirtschaftsministerium und den Landesministerien Listen mit den zu bearbeitenden Themen vorgelegt. Die Themen sind oft unergiebig und mit extrem speziellen Fragestellungen, wie beispielsweise der Besteuerung von Sportbooten und verschwinden deshalb oft in den Schubladen der Vorgesetzten. Der Grund liegt darin, daÿ jeder der Beamten, der ein Thema angibt, aufpassen muÿ, daÿ er kein Thema vorschlägt, über das schon Publikationen existieren, da er sich damit als Nichtkenner der Literatur zu erkennen gibt. Wie läÿt sich die Beratung auf der Ebene der Prozeÿpolitik verbessern? Gefälligkeitsgutachten müssen per Qualitätsanforderung an Berater vermieden werden. Beim Sachverständigenrat ist das Problem nicht gegeben, denn andere als renommierte Professoren hätten keine Autorität. Und da die Regierung sie ernennt, werden es nur renommierte Professoren sein. Sachverständigenratmitglieder können beliebig oft wieder ernannt werden. Wiederernennungen sind am häugsten bei Regierungswechsel. Dies behindert die Unabhängigkeit und sollte verboten werden. Gutachten sollten einer Veröentlichungspicht unterliegen, um ein Wettbewerb der Ideen und Peinlichkeiten in Gang zu bringen. 6.4 Habermas Modelle Habermas unterscheidet in Technik und Wissenschaft als Ideologie drei Modelle der wirtschaftspolitischen Beratung. 1. Technokratisches Modell: Der Technokrat bestimmt, was gemacht wird, und der Politiker segnet wegen Sachzwängen nur noch ab. Der Politiker ist nur Vollzugsorgan einer wissenschaftlichen Intelligenz. Ihm bleibt eine ktive Entscheidungstätigkeit, und er ist Lückenbüÿer einer noch unvollkommenen Rationalisierung der Herrschaft. 2. Dezisionistisches Modell: Der Politiker deniert die Zielfunktion, und der wissenschaftliche Berater nennt die dafür geeignete Technologie. Dies entspricht dem Tinbergen/Theil-Modell mit einer Arbeitsteilung zwischen Werturteil und Technologie. Dies ist gemäÿ Habermas Neopositivismus, dem Max Weber und Hans Albert angehören. Dies ist allerdings keine richtige Interpretation von Albert, der lediglich sagt, daÿ Werturteile im Begründungszusammenhang vermieden werden können und somit nicht als positive Theorie gedacht sind. Der wissenschaftliche Berater darf sogar Werturteile abgeben. Es geht bei Albert um die Trennung von positiver und normativer Aussagen zur Deutlichmachung von den exogenen Zielen. 148 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG Habermas Kritik an dem dizisionistischen Modell ist, daÿ es zwar deskriptiven Wert hat (liegt prototyptisch in den USA vor), aber nicht aus logischen Gründen einer weiteren Reexion entzogen ist. Wenn Rationalisierung durch Dezisionismus ersetzt wird, dann darf das als ein Sondertatbestand, aus objektiven Interessenlagen erklärbar, registriert werden. Um ein Verhalten, das sich aus der Sache notwendig ergibt, handelt es sich nicht. Nach Habermas hat dieses Modell also: (a) desriptiven Wert. (b) Es ist möglich, (c) aber nicht wünschenswert. Nach Habermas lassen sich positive und normative Aussagen nicht unterscheiden, und Werturteile gehören notwendig in den Bereich der Wissenschaft. 3. Pragmatisches Modell: Dabei geht es um die Entwicklung neuer Techniken und Strategien aus einem explizit gemachten Horizont von Bedürfnissen und den geschichtlich bestimmten Interpretationen von Bedürfnissen, einer vom Wertesystem gesteuerten Situation. Die im Wertesystem gespiegelten gesellschaftlichen Interessen werden ihrerseits durch Prüfung an technischen Möglichkeiten und strategischen Mitteln ihrer Befriedigung kontrolliert. Das heiÿt, es handelt sich um einen interaktiven Prozeÿ von Angebot und Nachfrage an Strategien vor dem Hintergrund geschichtlicher Wertesysteme. Dieser Interaktionsprozeÿ ndet zum Beispiel im Rahmen der Optimierung bei exiblen Zielen der quantitativen Theorie statt. Es gibt eine Vorgabe durch Politiker, und der Wissenschaftler sagt, daÿ es sich um zu viele Ziele handelt und nur eine bedingte Erreichbarkeit möglich ist, woraufhin der Politiker die Zielfunktion modiziert. Nach Habermas ist dieses Modell (a) nicht deskriptiv. Das ist allerdings zu kategorisch und in der Regel besteht eine dezisionistische Situation, wonach der Politiker etwas möchte und der Berater sagt, wie es geht. Allerdings ist auch ein Aufstand der Berater möglich (62 Professoren gegen Maastricht), was dem pragmatischen Modell entspricht und eher untypisch ist. Das Modell hat also auch deskriptiven Wert. (b) Die Möglichkeit des pragmatischen Modells beurteilt Habermas skeptisch, da die empirischen Bedingungen für die Anwendung des pragmatischen Modells fehlen, denn praktische Fragestellungen in der Öentlichkeit, sind aufgrund herrschender Interessen nicht möglich. Dafür gibt es aber auch die Public Choice Erklärung, daÿ die Anreize für 6.5. REALISMUS DER VORSCHLÄGE 149 Wähler, sich zu informieren, äuÿerst gering sind. Die Lösung dafür bestünde darin, die Informationsanreize für die Wähler durch Dezentralisierung und Referenden zu erhöhen. (c) Es ist wünschenswert, denn nur das pragmatische Modell ist mit Demokratie vereinbar. Bezogen auf die Demokratie, ist das technische Modell völlig undemokratisch. Das dezisionistische Modell ist zwar im Prozeÿ der Beratung nachvollziehbar, aber die Entscheidung muÿ öffentlicher Diskussion entzogen bleiben. Im pragmatischen Modell sind sowohl der Transmissionmechanismus als auch die Politikwahl öentlicher Kontrolle zugänglich. Demzufolge ist nur das pragmatische Modell mit Demokratie vereinbar. Folgende Punkte sind kritisch: 1. Habermas liefert weniger eine positive Analyse des Beratungsprozesses, denn dieser ist gekennzeichnet durch ein starkes dezisionistisches Element und Berater auÿer in Sondersituationen wenig ausrichten können, als eine normative Analyse, wonach ein interaktives, pragmatisches Modell wünschenswert ist. 2. Die Ursachenanalyse muÿ nicht der Habermas entsprechen, wonach es an der Macht der herrschenden Klassen scheitert. Man könnte auch politökonomisch argumentieren, daÿ lediglich die ökonomischen Anreize nicht stimmen. Eine Zusammenfassung der Modelle zeigt Abbildung 6.1. Abbildung 6.1: Habermas Modelle technokratisch dezisionistisch pragmatisch positiv deskriptiv nein ja nein positiv möglich nein ja vielleicht unvermeindlich nein nein nein normativ wünschenswert nein nein ja 6.5 Realismus der Vorschläge Sollen die Vorschläge von wissenschaftlichen Beratern realistisch sein? Die eigentliche ökonomische Frage lautet: Was ist eine eziente Beratung? Insofern muÿ 150 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG man vor diesem Hintergrund fragen: Was bedeutet realistisch? 1. Korrekte empirische Annahmen (beispielsweise bezüglich Information, Transaktionskosten, Knappheit) und auch bezüglich der Wirkungszusammenhänge. Vorschläge müssen prinzipiell realisierbar sein. 2. Vorschlag wird mit groÿer Wahrscheinlichkeit aufgegrien. - Pro: Wenn die wirtschaftspolitische Beratung der Markt ist, der Politiker der Nachfrager und der Wissenschaftler der Anbieter, dann ist es ezient, wenn der Anbieter sich an der Nachfrage orientiert. Die Vorschläge müssen für den Politiker also akzeptabel sei. Wenn der Vorschlag aufgegrien wird, ist das der maximale Beratungserfolg mit der Restriktionen der Spielregeln der wissenschaftlichen Wahrheitssuche. Wenn die Beratungsvorschläge nicht aufgegrien werden, ist das gleichbedeutend damit, daÿ das Produkt nicht nachgefragt wird. - Contra: Bon mot: Die erfolgreichen Berater sind diejenigen, die dem Politiker das sagen, was er sowieso tun wird. Solch ein Vorgehen reduziert die Wirtschaftswissenschaft auf einen Prognostiker, der das vorschlägt, was angenommen wird. Woll: Auf die tatsächliche Realisierungschance braucht die angewandte Wirtschaftstheorie keine Rücksicht zu nehmen. Es ist die Aufgabe der Politik, den Weg für die bessere Lösung freizumachen und nicht Aufgabe der Wissenschaft die Geneigtheit in ihr Kalkül zu ziehen. Die Begründung dafür lautet, daÿ der Wissenschaftler nicht weiÿ, was realistisch ist. Für neue Ideen ist keine Nachfrage deniert, sie ist unbekannt. Bei der Beurteilung dessen, was realistisch ist, liegt der komparative Vorteil beim Politiker, wofür der Wissenschaftler nicht ausgebildet ist. Der Politiker wird dafür bezahlt und danach ausgewählt. Es gibt eine optimale Arbeitsteilung, bei der der Wissenschaftler untersucht, was wahr und ezient ist und der Politiker was davon durchsetzbar ist. Der Wirtschaftswissenschaftler stellt den Wegweiser auf und weist dem Politiker die Richtung, dieser muÿ entscheiden, wie weit er auf diesem Weg gehen kann und welche Kompromisse zu schlieÿen nötig sind. Es ist nicht Aufgabe des Wissenschaftlers, sich für die nt-beste Lösung einzusetzen. Es ist unglaubwürdig, diese Lösung mit wissenschaftlicher Autorität zu unterlegen, nicht weil Kompromisse unmoralisch seien, sondern, weil politische Restriktionen nicht wissenschaftlich überprüfbar sind. 6.5. REALISMUS DER VORSCHLÄGE 151 Niemand, nicht einmal der Politiker weiÿ, was durchsetzbar ist. Das ist das wesentliche Berufsrisiko des Politikers. Die soziale Marktwirtschaft und exible Wechselkurse waren Reformen, wie sie zehn Jahre vorher niemand für möglich gehalten hätte. - Der Wissenschaftler sollte sich nicht an den eigenen Prognosen bezüglich der Durchsetzbarkeit orientieren und es einfach mal probieren. Für den Politiker ist einfach mal probieren gefährlich, weil beim Versuch das Richtige durchzusetzen, zu scheitern ist schlimmer ist, als etwas Falsches durchzusetzen. Er wird nicht nach dem Inhalt beurteilt, sondern zeichnet sich durch seinen Sinn für Durchsetzbares aus. Selbst wenn der Wissenschaftler genau weiÿ, daÿ sein Vorschlag nicht durchsetzbar ist, hat er eine langfristige Aufklärungsfunktion. Hudd: Die Aufgabe der Wissenschaftler mag gerade darin bestehen, daÿ sie Vorschläge vorlegen, die in der gegenwärtigen Situation nicht realistisch sind, die aber langfristig einen didaktischen Wert haben. Der Wissenschaftler hat einen komparativen Vorteil, zur Zeit unpopuläre Wahrheiten vorzutragen, weil er unabhängig und glaubwürdig ist. Sie sind die Hofnarren, die sich die Gesellschaft hält. - Fazit: Es ist wohl falsch zu sagen, daÿ die wissenschaftliche Beratung realistisch sein muÿ. 3. Vorschlag soll wahrscheinliche Veränderung im politischen Prozeÿ antizipieren. - Pro: Bei der Vorstellung, daÿ der Beratungserfolg zu maximieren ist, ist Anitizipation nötig. - Contra: Der Wissenschaftler weiÿ nicht, wie sein Vorschlag verändert wird. Contra: Aus der Public Choice Theorie ist das ungefähr ableitbar, so daÿ dieses Argument nicht überzeugend ist. - Wegen der Veränderung, einen anderen Vorschlag zu machen, ist gefährlich, weil der Wissenschaftler damit unglaubwürdig wird, dann er sagt etwas, was nicht der Wahrheit entspricht. Giersch: Wahltaktische Überlegung ist nicht Sache des Wissenschaftlers, solange er nicht oen seine Rolle mit der eines Politikers zu vertauschen gedenkt. - Wenn der Wissenschaftler befürchtet, sein Vorschlag würde kontraproduktiv umfunktioniert, kann er auch schweigen. In der normativen Wissenschaftstheorie wird diskutiert, inwieweit es wirtschaftspolitische Atombomben gibt und inwieweit Miÿbrauchspotential, vorallem nach einer wissenschaftlichen Legitimierung, erwächst? Z.B. decit spending, Umlageverfahren (Samuelsons OLG-Modell von 152 KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG 1958 ist bei einem unendlichen Zeithorizont logisch korrekt), Regulierung, staatliches Geldmonopol oder Maastricht Konvergenzkriterien, die über die zukünftige Stabilität des Euro wenig aussagen. - Fazit: am besten die Veränderung soweit möglich antizipieren. Aber nicht in dem Sinne, daÿ man falsche Aussagen trit, sondern sich möglicherweise einen Vorschlag verkneift. Kapitel 7 Wirtschaftspolitische Entscheidungsverfahren 7.1 Rationalität Aus den nun folgenden Denitionen der Rationalität sollen die verschiedenen Aspekte rationaler Entscheidungsndung extrahiert und miteinander verglichen werden. Die verschiedenen Aspekte umfassen: A1: Aussagen über das Zielsystem (Wertrationalität) A2: Aussagen über die Ziel-Mittelbeziehungen (bei gegebenen Zielen), A3: Aussagen insgesamt (A1+A2). 1. Max Weber1 : Handlungen, die unter Abwesenheit physischen oder psychischen Zwanges, leidenschaftlicher Aekte und zufälliger Trübungen der Klarheit des Urteils vollzogen werden und einen klar bewuÿten Zweck durch seine...adäquaten Mittel verfolgen. 2. Herbert Giersch2 : Rational nenne ich eine (Wirtschaft-) Politik, die planmäÿig auf die Verwirklichung eines umfassenden, wohldurchdachten und in sich ausgewogenen Zielsystems gerichtet ist und dabei den höchsten Erfolgsgrad erreicht, der unter den jeweiligen Umständen möglich ist. 3. Manfred E. Streit3 : Rationalität ist ein an der Logik orientiertes Prinzip. Daraus ergibt sich als zentrale Forderung die Widerspruchsfreiheit von Zielen 1 in Max Weber: Kritische Studien auf dem Gebiet der kulturwissenschaftlichen Logik, in: Gesammelte Aufsätze zur Wissenschaftslehre, Tübingen 1973, S. 226 2 in Herbert Giersch: Grundlagen der Wirtschaftspolitik, Wiesbaden 1961, S. 22 3 in Manfred E. Streit: Theorie der Wirtschaftspolitik, Düsseldorf 1983, S. 151 153 154KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN beziehungsweise zielgerichtetem Handeln. Das bedeutet einmal, daÿ Entscheidungsprobleme möglichst weitgehend analysiert werden sollten... Zum anderen erfordert Rationalität jeweils Abwägung in den Fällen, in denen Ziele sich zwar nicht widersprechen, aber miteinander konkurrieren, wenn versucht wird, ihnen durch zielgerichtetes Handeln näher zu kommen. 4. Ludwig von Mises4 : Handeln ist ex denitione immer rational... Die Behauptung, es werde irrational gehandelt (ist) sinnlos, weil mit dem Begri Handeln nicht vereinbar. Weber: A1: klar bewuÿt, ohne Zwang (ohne Restriktionen?, eigentlich kann dann nicht entschieden werden) A2: adäquate Mittel (mit einem Wirkungskoezient α 6= 0, Assignmenttheorie: Zuordnung nach komparativem Vorteil) A3: Klarheit des Urteils Giersch: A1: wohldurchdachtes, in sich ausgewogenes, umfassendes Zielsystem (Der quantitativen Theorie nach bedeutet umfassend, daÿ alle Variablen einbezogen werden müssen. Das würde unendlich hohe Informationskosten mit sich bringen und ist somit nicht praktikabel. Zudem sagt die Assignmenttheorie, daÿ nur so viele Ziele, wie Instrumente zur Verfügung stehen, erreicht werden können.) A2: planmäÿig, zielgerichtet, höchstmöglicher Erfolgsgrad Streit: A1: widerspruchsfrei (entspricht das Gierschs Wohldurchdachtheit?) A3: möglichst weitgehend analysiert (widerspricht wieder den anfallenden Informationskosten und ist nicht ökonomisch.) Mises: Jedes Handeln ist rational. Wenn Informationskosten vorliegen und wirtschaftspolitische Entscheidungen von ihnen abhängen, werden verschiedene Menschen verschiedene optimale Informationsmengen aufweisen und die Entscheidungen subjektiv sein. Dies führt zu verschiedenen Graden der Rationalität5 : 1. Rationalität bei vollkommener Information (ohne Informationskosten) Alle verfügbaren Informationen werden verwertet und es herrscht vollkommene Information. 2. Objektive Rationalität Entscheidungen werden unter Verwendung der zum betreenden Zeitpunkt öf4 in Ludwig von Mises: Grundprobleme der Nationalökonomie, Jena 1933, S. 32 f. Tietzel (1981) 5 siehe 7.1. RATIONALITÄT 155 fentlich zugänglichen und ezient verwertbaren Information getroen. Diese Denition wird bei dem Konzept der rationalen Erwartungen verwendet, wobei unterstellt wird, daÿ öentlicher Zugang auch bedeutet, daÿ die Informationen verwertet werden. 3. Subjektive Rationalität Entscheidungen werden unter Verwendung der dem Entscheidungsträger zum betroenen Zeitpunkt zugänglichen und ezient verwertbaren Information getroffen. Die Frage ist, inwieweit Informationen ezient verwertbar gewesen sind. 4. Tautologische Rationalität (im Sinne von Mises) Entscheidungen basieren auf Informationen, die dem einzelnen zum betreenden Zeitpunkt bewuÿt waren. Da Denitionen nie richtig oder falsch sind, sondern nur nützlich oder nicht, stellt sich die Frage, welche der vier Rationalitätsdenitionen nützlich sind. Denition 1 ist nie und Denition 4 immer anwendbar, somit ist keine der beiden brauchbar. Die privaten Informationen der Denition 3 sind kaum feststellbar und darauf aufbauende Theorien somit kaum überprüfbar. Es bleibt die Denition 2 der Rationalität im Sinne der rationalen Erwartungen. Der Mensch besitzt nur eine begrenzte Menge an Zeit, Informationen und kognitiven Kapazitäten. Zudem ist die Menge der zu berücksichtigenden Alternativen oft unbegrenzt. Daraus entwickelte sich das Konzept der Bounded Rationality. H. Simon: Human rational behavior ... is shaped by a scissors whose two blades are the structure of task environments and the computational capabilities of the actor. 6 Rationalität kann also nicht ohne Bezug auf die Umwelt und die kognitiven Beschränkungen deniert werden. Worin bestehen informationskostensenkende Entscheidungsroutinen in der Wirtschaftspolitik, in der eben nicht umfassend analysiert wird. Eine Möglichkeit der Modellierung ist suchtheoretischer Natur. Es wird ein Anspruchsniveau deniert und nicht unbedingt das Maximum gesucht und erreicht, sondern nur die Frage beantwortet, ob die Entscheidung dem Anspruchsniveau gerecht wird oder nicht. Dies ndet typischerweise in sequentiellen Entscheidungen statt. Bei der ersten Befriedigung des Anspruchsniveaus wird die Entscheidungssuche abgebrochen und die Entscheidung steht fest. Was passiert, wenn das Anspruchsniveau nicht erreicht wird? Es wird je nach gegebener Zeit für die Entscheidung entweder weiter gesucht oder des Anspruchsniveau gesenkt (Torschluÿpanik). 6 in H. Simon, 1990, Invariants of human behavior. Annual Review of Psychology, 41, S. 1-19, siehe auch H. Simon, 1955, A Behavioral Model of Rational Choice, Quarterly Journal of Economics, 69, S.99-118 156KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN 7.2 Phasen des Entscheidungsprozesses 1. Diagnose (a) Klärung der Ausgangssituation (Randbedingungen) (b) Falls eine Fehlentwicklung eingetreten ist, muÿ eine Ursachenanalyse, die nicht zukunftsgerichtet ist, sondern die gegenwärtige und die vergangene Zeit betrachtet, durchgeführt werden. 2. Status Quo Prognose, die der Frage nachgeht, wie die Volkswirtschaft aussehen wird, wenn die Wirtschaftspolitik nichts macht. Die Phasen dieses Prozesses sind: (a) Formulierung von Kausalhypothesen, die die Wirkungen der exogenen auf die endogenen Variablen beschreiben, (b) Testen (=Überprüfung der Hypothesen anhand der bisherigen Erfahrungen), (c) Anwendung der Wirkungshypothesen auf die Randbedingungen. Wenn z.B. die Randbedingung Lohnzurückhaltung bei Tarifverhandlungen ist und die Hypothese lautet, daÿ bei Lohnzurückhaltung die Arbeitslosigkeit sinkt, dann ist die Status Quo Prognose eine rein logische Transformation. 3. Feststellung des Handlungsbedarfs in einem Soll-Ist Vergleich, wobei der Ist-Zustand die Nichthandlung der Wirtschaftspolitik ist. Dazu sind die Ergebnisse der Status Quo Prognose (2) mit den Zielen zu vergleichen. Das ist wichtig, denn aus einer Fehlentwicklung (1b) folgt nicht automatisch ein Handlungsbedarf. Massenarbeitslosigkeit führt beispielsweise dann nicht zu Handlungsbedarf, wenn die Selbstheilungskräfte der Wirtschaft das Problem von alleine lösen. Zwischen einer Fehlentwicklung und einem Handlungsbedarf muÿ also noch die Status Quo Prognose 2 betrachtet werden. 4. Wirkungsprognose bei Handlungsbedarf. Wie ist die Fehlentwicklung, die wir festgestellt haben, zu beheben? Dazu sind Kausalhypothesen zwischen den Instrumenten und Zielen nötig, die durch Anwendung auf historische Daten getestet und anschlieÿend in einer logischen Übung auf die Randbedingungen angewendet werden. 5. Beratung und Entscheidung zwecks Durchführung der Maÿnahme (Therapie) 6. Durchführung der Maÿnahme. 7.2. PHASEN DES ENTSCHEIDUNGSPROZESSES 157 7. Erfolgskontrolle (selten im staatlichen Bereich). Hierfür sind vor allem die Wirtschaftsforschungsinstitute und Rechnungshöfe wichtig. Dies ist besonders wirkungsvoll, wenn Rechnungshöfe von der Opposition besetzt werden. 7.2.1 Prognosen 1. Status Quo Prognose. Dazu ist zunächst eine genaue Denition der Politikmaÿnahme nötig. Beispielsweise in der Geldpolitik: konstante Geldmen¯ ge (M̄ ), konstantes Wachstum (M̂ ) oder konstante Regel der Geldpolitik (M̂ = ᾱ + β̄(Y − Y ∗ ) + γ̄(π − π ∗ )). Auf Grundlage vergangener Informationen wird die Zukunft berechnet. Dazu stehen verschiedene Verfahren zur Verfügung: - Extrapolation: Auf der Grundlage der vergangenen Daten wird beispielsweise in einem Box Jenkins Verfahren ein ARIMA Modell identiziert und die Zukunft aus der Vergangenheit berechnet. Dabei wird der Prozeÿ aus der eigenen Vergangenheit vorhergesagt. yt = α + β1 yt−1 + . . . + βp yt−p - Frühindikatoren. Hier werden die interessierenden Variablen durch Frühindikatoren (andere Variablen als die eigenen vergangenen) vorhergesagt: yt = α + γ0 xt + . . . + γq xt−q - Üblicherweise kommt eine Kombination der beiden vorherigen Verfahren zur Anwendung: yt = α + β1 yt−1 + . . . + βp yt−p + γ0 xt + . . . + γq xt−q 2. Wirkungsprognose. Dabei geht es um die Wirkung von Instrumenten auf die interessierenden Variablen. 3. Arten von Prognoseaussagen: - Qualitative Prognose, Tendenzprognose, Musterprognose, nur die Vorzeichen der Änderung, nur die Möglichkeit bzw. der Ausschluÿ von Möglichkeiten wird prognostiziert. Nach der Darwinschen Evolutionstheorie ist die Evolution nicht vorhersagbar, da es auch eine Mutation nicht ist, wohingegen Laplace behauptete, Erlerntes sei vererbbar. - Quantitative Prognosen Punktprognose, z.B. Ination für nächstes Jahr wird 2.5% betragen. 158KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Intervallprognose, z.B. Ination für nächstes Jahr wird 2.5%-3.5% betragen. Wieso ist die Prognosequalität in den Sozialwissenschaften häug so schlecht? Die Zahl der potentiell relevanten Einuÿfaktoren ist sehr groÿ, weshalb ja auch häug die ceteris paribus Annahme als methodischer Kunstgri verwendet wird. Das Problem haben die Naturwissenschaften ebenfalls in komplexen Systemen wie dem Wetter, in der Quantenmechanik oder im Krankheitsverlauf in der Medizin. Viele Einuÿfaktoren sind zudem nicht zuverlässig meÿbar oder beobachtbar, wie z. B. Präferenzen und Erwartungen. Diese sind nur aus dem Verhalten ableitbar und bei Befragung werden sie möglicherweise verzerrt angegeben. Diese beiden Punkte (viele Faktoren und Messbarkeit) führen dazu, daÿ die Parameter (Wirkungsparameter) nur mit erheblicher Unsicherheit geschätzt werden können. Warum ist das so? Zunächst ist klar, daÿ in der Wirtschaft keine kontrollierten Experimente möglich sind. Kontrolliert heiÿt dabei, daÿ die Randbedingungen exakt konstant gehalten, viele verschieden dosierte Instrumenteneinsätze durchgeführt und danach jeweils die Wirkungen auf die interessierenden Variablen gemessen werden können. Zudem haben die Individuen eine groÿe Entscheidungsfreiheit. Zu guter Letzt gibt es in der Wirtschaftspolitik noch das Lucasproblem, wo sich eine Handlung der Wirtschaftspolitik (eine Prognose) auf die zu prognostizierende Variable auswirkt (bei Lucas genauer: auf die Wirkungskoezienten, so daÿ eine Wirkungsprognose des Instrumenteneinsatzes nur bei Berücksichtigung der Änderung der Wirkungskoezienten möglich ist). Zum einen gibt es das Phänomen der selfullling prophecy (besser: prediction): eine optimistische Prognose wirkt sich auf das Investitionsverhalten aus und bestätigt sich dadurch. Die Prognose, daÿ der Euro weich wird, (P̂ = M̂ − η Ŷ + ²∆i, i ≡ r + P̂ e ) führt zu einem hohen erwarteten Nominalzins und zu einer niedrigeren Geldnachfrage, zu einem zu hohen Geldangebot, einer höheren Ination und damit zur prognostizierten Abwertung. Oder es gibt das Problem das selnvalidating prediction z. B. bei Knappheitserwartungen, wie sie der Club of Rome für Öl vorhersagte, woraufhin Energiesparen einsetzte und neue Quellen erschlossen wurden. Dieser Eekt beruht auf einer langfristigen Angebotselastizität, die die kurzfristige übersteigt. Widerlegt eine Fehlprognose die zugrundeliegende Theorie? Ist eine Falsikation oder Verkation überhaupt möglich? Aus Regelmäÿigkeit in der Vergangenheit läÿt sich nicht auf die Zukunft schlieÿen, insofern ist nur eine Falsikation möglich, da die Existenz eines Gegenbeispiels nie ausgeschlossen werden kann. Was kann man aus einer falschen Prognose lernen? Wenn man bei einer falschen Prognose nicht genau weiÿ, was falsch war, könnte man daraus schlieÿen, daÿ eine Detailfalsikation nicht möglich ist. Popper hingegen behauptet, daÿ es doch möglich ist, denn es besteht kein logisches, sondern nur ein praktisches Problem, solange die Anzahl der Teilhypothesen nicht Unendliches ist. Z. B. sagten die 7.2. PHASEN DES ENTSCHEIDUNGSPROZESSES 159 Keynesianer in den sechziger Jahren voraus, daÿ ein Anstieg des Geldmengenwachstums bei einer hohen Arbeitslosigkeit nicht zu einem Anstieg der Ination führt (naive Phillipskurve). Die Monetaristen behaupteten, daÿ egal wie hoch die Arbeitslosigkeit ist, ein erwarteter Anstieg des Geldmengenwachstums zu einer erwarteten Ination führt. In den siebziger Jahren gab es die Stagnation und die Keynesianer immunisierten ihre Theorie durch die Ausrede, daÿ die Phillipskurve bei Ölschocks und Konzentrationsprozessen nicht mehr gilt und demzufolge Stagnation kein Widerspruch zur keysianischen Hypothese ist. Es ist typisch, daÿ bei einer falschen Prognose das Modell durch zusätzliche Hypothesen immunisiert wird, was wiederum typisch für ein auslaufendes Modell ist. Hierzu gibt es das Konzept Occams's razor, wonach von zwei Theorien, die die gleichen Erklärungen liefern, das einfache besser ist, weil es einfacher falsiziert werden kann. Sind Prognosen und Erklärungen symmetrische Operationen (Symmetriehypothese)? In beiden Fällen liegen Kausalhypothesen vor, und es wird jeweils aus einer singulären empirischen Aussage eine weitere singuläre Aussage mittels Deduktion (=tautologische Transformation) gewonnen. Logisch handelt es sich um identische Operationen: Bei der Erklärung ist die Wirkung bekannt, und es wird auf die Ursachen geschlossen. Bei der Prognose sind die Ursachen (Randbedingungen) bekannt, und es wird auf die Wirkung geschlossen. Bei der Prognose liegt eine Kausalhypothese zwischen der Gegenwart und Zukunft und bei der Erklärung eine zwischen der Vergangenheit und der Gegenwart vor. Kausalhypothesen eignen sich in unterschiedlicher Weise für Erklärung und Prognose. Darwins Evolutionstheorie eignet sich zur Erklärung, jedoch nicht zur Prognose (Mutationen sind nicht vorhersehbar). Die Public Choice Theorie unterstellt den politischen Entscheidungsträgern überwiegend ein eigennutzmaximierendes Verhalten, schlieÿt aber nicht aus, daÿ auch das allgemeine Interesse verfolgt wird. Zur Erklärung konkurriert diese Theorie mit dem public interest view und für Prognosen muÿ man wissen, ob bei politischen Entscheidungsträgern die Eigennutzmaximierung oder public interest Verfolgung überwiegt. ARIMA Modelle eignen sich beispielsweise gut zu Prognosezwecken, ohne jedoch eine Erklärung liefern zu können. Obwohl Erklärung und Prognose logisch symetrische Operationen sind, ist die Möglichkeit der Erklärung nicht hinreichend für die Möglichkeit der Prognose und v.v. Die Prognosefähigkeit ist eng verknüpft mit wissenschaftstheoretischen7 Überlegungen wie dem Instrumentalismus von Friedman (1953): The only relevant test of the validity of a hypothesis is comparison of its predictions with experience. D.h. es ist egal, ob der Wirkungsmechanismus erklärbar ist (Black Box) 7 Wissenschaftstheorie analysiert die Regeln und Verfahren, nach denen Wissenschaftler Untersuchungen durchführen, Theorien aufstellen und Probleme zu lösen versuchen - in der Absicht, die Grundlagen wissenschaftlicher Theoriebildung zu klären und präzisieren sowie der Kritik und Verbesserung zugänglich zu machen. 160KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN und ebenso, ob die Prognose auf realistischen Annahmen beruht. Dies lieÿe sich verstehen im Sinne eines als ob: Es ist egal, ob Unternehmen den Gewinn zu maximieren beabsichtigen oder nicht, entscheidend ist, daÿ nur diejenigen überleben, die es auch tatsächlich tun. Es lieÿe sich auch im Sinne einer notwendigen starken Vereinfachung in der Ökonomik verstehen, was impliziert, daÿ auch auf falschen Annahmen beruhende Prognosen richtig sein können. Das Problem bei den auf falschen Annahmen beruhenden Prognosen besteht darin, daÿ sie bei einer Änderung des Wirkungszusammenhangs zusammenbrechen. Was ist das Problem der selfullling prophecies? Predictions sind immer mit einer wenn-dann Bedingung konstruiert. Prophecies sind im Gegensatz dazu unbedingte Vorhersagen und sind nicht aus einer Bedingung abgeleitet. Die marxistische Weltrevolution (ebenso wie das jüngste Gericht) werden, egal was passiert, eintreten. Das Problem besteht darin, daÿ dazu keine Anstrengungen nötig sind und sich die Frage stellt, warum sich die Proletarier vereinigen sollen, wenn die Weltrevolution sowieso eintritt. In der Kritik des Historizismus von Popper (1965) wird eine weitere Quelle der Unsicherheit bei Prognosen deutlich: The course of human history is strongly inuenced by the growth of human knowledge. We cannot predict, by rational or scientic methods, the future growth of scientic knowledge. Prognosen sind notwendigerweise unsicher, da das Wachstum des wissenschaftlichen Wissens (ex denitione) nicht prognostizierbar ist. 7.3 Groÿe versus kleine Schritte Eine aktuelle Anwendung der Frage, ob groÿe oder kleine Veränderungen in der Wirtschaftspolitik besser sind, ist der Übergang von der Zentralverwaltung zur Marktwirtschaft. Das russische Modell bestand darin, in einem groÿen Schritt sofort die Zentralwirtschaft abzuschaen, wohingegen das chinesische Modell eher in einem schrittweisen Übergang zu einem marktwirtschaftlichen System besteht. Für groÿe Veränderungen stehen Marx (Weltrevolution) oder Mao (Der groÿe Sprung für China), die beide keine kleinen Reformen befürworten und behaupten, daÿ Veränderungen nur im groÿen Stil möglich sind. Bei den Befürwortern der kleinen Veränderungen (Lindblom: disjointed incrementalism) gibt es zwei Hauptströmungen: Hayeks Naturalismus, der auf einer sozialdarwinistisch inspirierten spontanen Evolution aufbaut. Veränderungen sind aufgrund fehlendem Wissen nicht planbar und so ist eine spontane Anpassung und Bewährung der beste Weg. Der rationalistische Ansatz von Popper ist hingegen nicht spontan, sondern beruht auf dem kritischen Rationalismus und auf einer 7.3. GROßE VERSUS KLEINE SCHRITTE 161 ständigen Überprüfung von einzelnen Hypothesen (piecemeal reform). Bei der Analyse ist zwischen extensiv (breit) und intensiv (tief) zu unterscheiden. Extensiv betrit die Zahl der Variablen und die Frage wieviele Variablen gleichzeitig zu verändern sind. Intensiv betrit die Frage, wie groÿ die Veränderungen bei den einzelnen Variablen sein sollen. Hayeks spontane Evolution ist beispielsweise wenig extensiv, wohingegen die big bang (cold turkey) Vorschläge zur Überwindung einer hohen Inationsrate eher intensiv sind. 7.3.1 Extensiv: Pro Holismus Die Vertreter des Holismus sprechen sich dafür aus, auf breiter Front an allen Knöpfen gleichzeitig zu drehen. 7.3.1.1 Theorie des Second Best Lipsey and Lancaster (1956-1957) gehen von einer Situation aus, in der zwei Verzerrungen gleichzeitig vorliegen. In Abbildung 7.1 sind das beispielsweise unvollkommener Wettbewerb (Monopol) und negative externe Eekte. Abbildung 7.1: Second best Theorie p GKsoz nd 2 GKsoz GKpriv qms q ∗ qmp qw q Was ist zu tun, wenn beide Verzerrungen nicht gleichzeitig beseitigt werden können? In der Ausgangslage benden wir uns in qmp , wo nicht die sozialen Grenzkosten GKsoz , sondern lediglich die privaten GKpriv berücksichtigt werden und der Produzent sich als Monopolist verhält. 162KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Beseitigt man nur das Monopol und nicht auch die negativen externen Eekte, bekommt man einen Output in Höhe von qw . Allerdings ist das schlechter als gar nichts tun: |qw − q ∗ | > |qmp − q ∗ |. Das ist so, weil sich die Wirkungen der beiden Verzerrungen auf den Output kompensieren: die Monopollösung senkt den Output und die Nichtberücksichtigung negativer externer Eekte erhöht ihn. Beseitigt man nur die negativen externen Eekte, bekommt man einen Output in Höhe von qms . Allerdings ist auch diese Lösung schlechter als der Status Quo: |qms − q ∗ | > |qmp − q ∗ |. Wir bewegen uns zwar in die richtige Richtung, aber über das Ziel hinaus. Fazit: Wenn man nur eine der Verzerrung beseitigen kann, ist es oft verkehrt eine ganz zu beseitigen. Es ist dann besser, gar nichts zu tun. Am besten dreht man nur teilweise an einer Schraube. Indem man beispielsweise nur eine teilweise 2nd Internalisierung der negativen externen Eekte zulässt, erhält man mit GKsoz die ∗ second best Menge q . Das ist allerdings keine (paretianische) rst best Lösung, da die Preise nicht den Grenzkosten entsprechen. Insofern es keine gute Lösung ist, nur eine Verzerrung abzubauen, ist das ein Argument gegen punktuelle Reformen. Es gibt drei Argumente gegen ein auf die second best Lösung q ∗ abzielendes Vorgehen. Das Informationsproblem besteht darin, daÿ man nicht weiÿ, wie hoch der optimale partielle Abbau einer Verzerrung sein muÿ. Da man beide Probleme nicht beseitigen kann, eine optimale partielle Beseitigung nicht kennt, ist es am besten, gar nichts zu tun. Somit steht man vor einer alles oder nichts Entscheidung. Wenn eine simultane Beseitigung politisch nicht möglich ist, könnte man versuchen, die Verzerrungen nicht gleichzeitig, sondern hintereinander zu beseitigen. Da aufgrund des Informationsproblems eine teilweise Beseitigung einer Verzerrung nicht möglich ist, spricht das für einen vollständigen Abbau zunächst einer Verzerrung, denn wo ein vollständiger Abbau vorliegt, wissen wir. Das letzte Gegenargument könnte im Sinne einer ökonomischen Atombombe formuliert werden. Eine Argumentation über second best, Informationsproblem und alles oder nichts Entscheidung führt dazu, daÿ sich in der Politik nichts mehr bewegt. Es wäre eine wissenschaftlich fundierte Begründung der Erstarrung in der Politik. 7.3.1.2 Assignment Wenn ein Instrument auf mehrere Ziele wirkt, sind weitere Instrumente nötig, die die Wirkung des ersten Instrumentes auf andere Zielevariablen kompensieren. Wobei die Zuordnung nach dem komparativen Vorteil erfolgen sollte. 7.3. GROßE VERSUS KLEINE SCHRITTE 163 7.3.1.2.1 Verteilungswirkungen. Allokationsverbessernde Maÿnahmen haben oft Verteilungswirkungen zufolge. Dabei ist eine Bewertung schwierig, weil Einzelne schlechter gestellt werden. Wenn man zum Beispiel mehr Wettbewerb in Gesundheitsversicherung verlangt (Selbstbeteiligung u.ä.), damit näher am Äquivalenzprinzip ist, führt das zu negativer Verteilungswirkung bei chronisch Kranken und eine Kompensation dieser Verteilungswirkung ist nötig, damit niemand dabei verliert. Abbildung 7.2: Schlesische Weber p GK1 GK2 p1 p2 k l q̄2 q1 q2 q Ein anderes Beispiel ist aus der Zeit der industriellen Revolution, die mit einem Anstieg der Produktivität aufgrund von arbeitssparendem technischem Fortschritt einherging. Das heiÿt, die Verteilungsposition des Faktors Arbeit hat sich verschlechtert, insbesondere die der ungelernten Arbeit, die reichlicher vorhanden war als vorher. In Abbildung 7.2 ist der technische Forschritt der industriellen Revolution durch eine von GK1 auf GK2 sinkende Grenzkostenkurve dargestellt. Die Rente der schlesischen Weber, die auch nach der industriellen Revolution mit der Technologie GK1 produzieren, sinkt. Sie produzieren die Menge q̂2 zum Preis p2 und ihre Rente ist von kl auf k gesunken. Der wohlfahrtserhöhende Eekt des technischen Fortschritts führt nur zu einer Paretoverbesserung, wenn die Verlierer kompensiert werden (Reichszuschüsse). Oft reicht es demnach nicht, nur ein allokationsverbesserndes Instrument einzusetzen, es bedarf eines weiteren kompensierenden Instrumenteneinsatzes. 7.3.1.2.2 Politische Widerstände. Durch eine Kompensation der Nebenwirkungen kann man erhoen, daÿ politische Widerstände sinken. Dieser Punkt 164KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN ist nicht wohlfahrtsökonomisch orientiert, wie der Punkt über Verteilungswirkungen, sondern folgt eher aus der pragmatischen Beobachtung, daÿ Interessengruppen eher nachgeben, wenn es andere auch tun. 7.3.1.3 Brainard Bei Optimierung unter Unsicherheit ist der Einsatz aller vorhandenen Instrumente zu empfehlen, um eine Risikodiversikation herbeizuführen. 7.3.1.4 Systemimmitation Wenn zum Beispiel beim Umbau in Osteuropa keine Entdeckungsmechanismen nötig sind und bewährte Methoden einfach kopiert werden können, müssen viele Instrumente gleichzeitig eingesetzt werden. Hier erfolgen keine spontanen Veränderungen, sondern ein Mechanismus der spontanen Immitation des Erfolgreichen. 7.3.2 Extensiv: Pro punktuelle Reformen 7.3.2.1 Zielrestriktionen Wirtschaftspolitiker unterliegen häug Zielrestriktionen, und sie können nicht auf einmal alle Instrumente gleichzeitig einsetzen. Es ist häug unklug, alle Gegner gleichzeitig zu reizen und einfacher sich auf die Beseitigung einzelner Miÿstände zu einigen, als auf ein groÿes Paket. 7.3.2.2 Informationskosten Die Grenzen des Wissens lassen sich ökonomisch als Informationskosten interpretieren, die durch die folgenden Argumente für piecemeal reforms sprechen. 7.3.2.2.1 Miÿstände sind einfacher aufzuzeigen, als Idealkonzeptionen zu entwickeln. 7.3.2.2.2 Risiko. Kleine Schritte erlauben es, vorsichtiger mit Risiko umzugehen. Eine Totalexposition ist nicht empfehlenswert, denn man sollte nur Risiken eingehen, die man auch verkraften kann, um möglichen Schaden zu begrenzen 7.3. GROßE VERSUS KLEINE SCHRITTE 165 und keine Katastrophe zu riskieren. Zudem ist eine Korrektur bei einem Schaden einfacher. 7.3.2.2.3 Konservatives Vorurteil nach Edmund Burke: für den Status Quo spricht im Vergleich mit einer anderen Alternative immer, daÿ er mehr oder weniger funktioniert und keine Katastrophe darstellt. Ein Konservativer verlangt demnach eine hohe Risikoprämie. Im Gegensatz dazu schlägt Popper vor, bei einem hohen Risiko nicht nichts zu ändern, sondern in einem andauernden Falsikationsprozeÿ ständig ein wenig, um etwas hinzuzulernen. Das geht am besten in einer Gesellschaft, die in Zeit und Raum, Gütern, Produktionsfaktoren und Ideen oen ist.8 7.3.2.2.4 Lernen aus Fehlprognosen Nach Popper spricht für piecemeal reforms weiterhin, daÿ man aus den Prognosen eher bei begrenzten Experimenten etwas lernen kann. Wenn viele Experimente gleichzeitig gemacht werden und es nicht funktioniert, weiÿ man nur, daÿ die Maÿnahmen in der Summe das gewünschte Ergebnis nicht gebracht haben, aber nicht welche Teilhypothesen falsch waren. Er schlägt deshalb vor, nur Teilhypothesen zu testen, um zu überprüfen, woran es lag und nicht von einem System in ein anderes überzugehen. Lernen funktioniert am besten, indem man in einem Modell nacheinander die Einzelteile überprüft. Das ist die Denition von piecemeal reforms. Aus Fehlern kann man demnach nur lernen, wenn man die Experimente begrenzt und so die Ursachen isolieren kann. 7.3.2.2.5 Dezentralisierung Piecemeal reforms sind kompatibel mit Dezentralisierung. Viele verschiedene Akteure experimentieren im Kleinen und wenn sich etwas bewährt, wird es zum allgemeinen Prinzip gemacht. Es ist auch mit Wettbewerb vereinbar und erzeugt dadurch einen Anreiz zur Innovation. Totalexperimente sind dezentral nicht möglich und ein wohlwollender platonischer Diktator nötig. Das führt direkt zum nächsten Problem des Holismus. 7.3.2.2.6 Diktatur Holistische Systemveränderungen, wie das russische So- zialismusexperiment, tendieren dazu, in einer Diktatur zu enden. Diskussionen zielen eher auf das gesamte System und nicht auf Teilhypothesen. Die Führung wird Kritik dementsprechend als Systemkritik interpretieren, die Lernfähigkeit unterbinden und letztendlich in Beschränkungen der Meinungsfreiheit enden. Ohne Kritik ist aber die Erfolgskontrolle und damit die Wirkungsabschätzung ver8 Siehe Popper (1945) 166KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN schiedener Maÿnahmen nicht möglich und selbst wohlwollende Ziele werden nicht erreicht. 7.3.3 Intensiv: Pro Sofortlösung 7.3.3.1 Schnelle Wirkung Wenn man erfährt, daÿ morgen der Dritte Weltkrieg ausbricht, ist schnelles Handeln angesagt, wenn also die Wirkung noch rechtzeitig eintreten soll. 7.3.3.2 Abdiskontierung Aus der quantitativen Wirtschaftspolitik wissen wir, daÿ Instrumente im Allgemeinen dazu eingesetzt werden, die Barwerte von Verlustfunktionen zu minimieren. Abdiskontierung (Ungeduld) spricht für eine sofortige Lösung, denn je früher man den optimalen Zustand erreicht, desto besser. 7.3.3.3 Inezienz von Zwischenlösungen Manchmal sind Zwischenlösungen nicht ezient: Eine Umstellung von Links- auf Rechtsverkehr in England sollte eher sofort im ganzen Land erfolgen, als regional dierenziert über einen Zeitraum hinweg. Nach Friedman sind Wechselkurssysteme entweder als Floater oder als (bombenfeste) Fixkurssysteme zu gestalten. Zwischenlösungen, wie z.B. feste, aber anpassungsfähige Paritäten, sind nicht stabil und führen zu Spekulationswellen mit einsetzenden Konvertibilitäts- und Kapitalverkehrsbeschränkungen. 7.3.3.4 Instabilität Dieses Argument ist schon im vorherigen angeklungen. In einem System fester, aber anpassungsfähiger Wechselkurse sind die Paritäten langfristig nicht glaubwürdig, da, wenn ein Wille zu festen Wechselkursen bestehen würde, es nicht das Hintertürchen der Anpassungsfähigkeit gäbe. Da das auf den Märkten bekannt ist, gibt es immer wieder Spekulationsattacken, die das Systems instabilisieren. 7.3. GROßE VERSUS KLEINE SCHRITTE 167 7.3.3.5 Krisentheorie Nach Bismarck wartet der Politiker wie eine Spinne im Netz, bis sich eine Gelegenheit bietet, die er dann ausnutzen kann (window of opportunity). Dies entspricht Kohls 1990er Blitzbesuch bei Gorbatchow, der das oene Fenster der Geschichte bemerkte, sofort ausnutzte und die deutsche Wiedervereinigung mit Hilfe der Strickjackenpolitik einleitete. 7.3.3.6 Wahltaktik Graduelle Strategien sind politisch eher nicht über Jahrzehnte verfolgbar. Gravierende Probleme sind sofort und mit letzter Konsequenz zu lösen und die Grausamkeiten möglichst sofort nach der Wahl zu begehen, damit sie vor der nächsten Wahl wieder vergessen sind. Dieses Problem stellt sich beispielsweise nicht bei unabhängigen Zentralbanken, die es sich leisten können, über mehr als 4 Jahre hinweg die Ination zurückzufahren. 7.3.4 Intensiv: Pro Gradualismus 7.3.4.1 Unsichere Instrumentenwirkung Wenn Unsicherheit über die Wirkung des Instrumenteneinsatzes auf Ziele besteht, ist es womöglich besser, kleine Dosierungen auszuprobieren, um im Prozeÿ lernen zu können. 7.3.4.2 Erleichterte Erwartungsanpassung Im Zusammenhang mit Geldpolitik lautet die Überlegung, daÿ eine allmähliche lineare Entwicklung von z. B. 10% Inationsabsenkung in fünf Jahren dazu führt, daÿ der Markt in den ersten Jahren die Entwicklung extrapoliert und so die Gefahr einer Stabilisierungsarbeitslosigkeit vermindert ist. Diese Strategie verspricht die Gröÿe der unerwarteten geldpolitischen Schocks zu vermindern, einerseits, weil der Schock pro Jahr kleiner ist (10%/5 Jahre<10%/2 Jahre) und andererseits die Schocks in den Folgejahren eher vorausgesehen werden und somit der unerwartete Anteil kleiner ist. In den Kopien 72 und 73 sind die Phillipskurven der EMS- und der Nicht-EMSOECD Staaten zu sehen. In den Jahren 80-83 ist die Kurve bei den EMS-Staaten ach (Gradualismus) und bei den anderen steil (big bang). Die USA und Groÿbritannien haben eine Politik der schnellen Inationsbekämpfung gewählt. 168KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Den folgenden empirischen Untersuchungen liegt die Hypothese zugrunde, daÿ in einer Demokratie eine gradualistische Strategie nicht glaubhaft ist. Spätestens vor der nächsten Wahl ist eine Abkehr von dieser Politik zu erwarten. Nur der Bigbang ist glaubhaft, wenn ersichtlich wird, daÿ die Regierung es ernst meint, die Inationserwartung einmal grundlegend erschüttert, und so mit einer Inationskultur gebrochen wird. Die Hypothese lautet somit, daÿ extrapolative Erwartungsanpassungen nicht möglich und Grausamkeiten nötig sind, damit jeder die Ernsthaftigkeit der Inationssenkung glaubt. Kopie 74 zeigt einen sogenannten Miseryindex (Verlustfunktion), der die Inationsrate und Arbeitslosenquote gleichgewichtet9 addiert. Zu sehen ist in den gradualistischen EMS-Ländern ein Anstieg dieses Indexes von 14.9 auf 15.8 (trotz Ölschocks in den 70er Jahren) und in den nicht-EMS-Ländern ein Absinken. Das würde der zu testenden Hypothese entsprechen: in den EMS-Ländern ist keine klare Erwartungsbildung möglich, die Prognosefehler sind groÿ und die Arbeitsmarkteekte groÿ und negativ. In Kopie 75 wird eine sacrice ratio gebildet: S = ∆U/(−∆P̂ ). Das Problem dieser Gröÿe ist eine unklare Abbildung des unerwünschten Zustandes, denn S ist negativ sowohl bei gleichzeitigem Steigen als auch Sinken der Arbeitslosigkeit und Ination. Bei den EWS-Ländern ist noch zu beachten, daÿ in den frühen 80er Jahren ein Tauziehen zwischen der französischen und deutschen Zentralbank um die Vorherrschaft (n-te Währung) der europäischen Geldpolitik im Gange war, mit jeweils massiven Interventionen auf den Devisenmärkten. Frankreich kapitulierte 1983 aufgrund von Kapitalucht und eine politique de la rigeur und franc fort10 setzte ein. Eine Bindung des Franc an die DM war 1979 nicht abzusehen und die Erwartungsbildung entsprechend erschwert. In Kopie 76 wird die sacrice ratio über Wachstum und nicht Arbeitslosigkeit deniert und mit der Geschwindigkeit der Disination erklärt. Das negative Vorzeichen besagt, je schneller die Ination abgebaut wird, desto höher ist die sacrice ratio, also die Rezession/Stabilisierungsarbeitslosigkeit. In den Regression 3 und 4 lautet das Ergebnis, je stärker der Rückgang der Ination, desto geringer die sacrice ratio. In Kopie 76 wird noch zusätzlich die Inationsrate am Anfang der Stabilisierungsperiode als erklärende Variable aufgenommen. In der Regression eins sieht man, daÿ je höher die Anfangsinationsrate ist, desto geringer ist die Rezession/Stabilisierungsarbeitslosigkeit. Dies lieÿe sich so interpretieren, daÿ eine hohe Anfangsinationsrate mit einer weitgehend zerstörten Geldillusion ein9 Das entspricht nicht der Gewichtung Helmut Schmidts, dem fünf Prozent Ination lieber als fünf Prozent Arbeitslosigkeit sind. 10 Dieser Begri war eher Wunsch denn Realität und könnte 1984 in Orwells Wahrheitsministerium erfunden worden sein. 7.3. GROßE VERSUS KLEINE SCHRITTE 169 hergeht und somit die sacrice ratio niedriger sein muÿ. Die Regressionen 2 und 4 enthalten zusätzlich die Laufzeit der Tarifverträge. Im Ergebnis führen kürzere Laufzeiten zu einer geringeren sacrice ratio. Je kürzer die Laufzeit, desto schneller können die Tarifverträge an eine veränderte Inationsentwicklung angepaÿt werden und desto geringer ist die Stabilisierungsrezession. Kopie 77 verwendet einige weitere erklärende Variablen. Die Dummyvariable D zeigt eine signikant höhere sacrice ratio seit 73 an. Die Massenarbeitslosigkeit setzte ja auch erst nach 73 ein. Die Anfangsinationsrate π0 , die signikant negativ ist, zeigt an, daÿ je höher die Anfangsinationsrate ist, desto geringer die sacrice ratio, desto niedriger die Stabilisierungsrezession. Das spricht wieder für eine niedrigere Geldillusion, die Leute passen bei einer hohen Inationsrate genauer auf, was in der Geldpolitik passiert. Die Geschwindigkeit S ist negativ und manchmal signikant, je höher die Geschwindigkeit, desto niedriger das Opfer. Die Veränderung der Ination miÿt den Umfang der Veränderung insgesamt und ist signikant positiv, d. h. je höher die notwendige Anpassung, desto gröÿer das Opfer. Die Variablen ES, CWN, GMT sind Indizes für die Unabhängigkeit der Zentralbank. Man würde erwarten, daÿ eine unabhängige Zentralbank eine geringere Stabilisierungsarbeitslosigkeit verursacht, weil sie glaubwürdiger ist. Aber alle drei Variablen sind signikant positiv, je unabhängiger die Zentralbank, desto höher das Opfer. Eine Erklärung für den positiven Eekt könnte über die Geldillusion argumentieren, die neben dem Glaubwürdigkeitseekt ein weiterer Wirkungsmechanismus einer unabhängigen Zentralbank auf die sacrice ratio ist. Da eine unabhängige Zentralbank eher keine groÿe Ination verursacht, sie nicht von einer sehr hohen Inationsrate ausgeht und die Bevölkerung ihr festes Vertrauen entgegenbringt, unterliegt die Bevölkerung in einem höheren Maÿe der Geldillusion. Die Bevölkerung traut unabhängigen Zentralbanken keine hohen Inationsraten zu und die Alarmierungsfunktion einer hohen Inationsrate tritt nicht auf. Bei einer positiven Wirkung schlägt die Geldillusion stärker durch, als die Unabhängigkeit der Zentralbank. In Kopie 77 wird die Geschwindigkeit der Disination durch die Unabhängigkeit erklärt. Das Ergebnis besagt, daÿ je unabhängiger die Zentralbank ist, desto allmählicher reduziert sie die Ination. Eine Erklärung könnte sein, daÿ eine unabhängige Zentralbank nicht vor einem Wahlzyklus steht und sich bei der Disination eher Zeit lassen kann. 7.3.4.3 Grenzproduktivität und Hysterese Bei einem Inationsabbau ergibt sich vorübergehend eine Arbeitslosigkeit. In Abbildung 7.3 bezeichnet L3 die Beschäftigung bei einer langsamen Disination über drei Jahre und L1 bei einer über ein Jahr. Die Wohlfahrtsverluste im Vergleich zur Vollbeschäftigung L∗ sind bei einer schnellen Disination höher (l × 3 < kl) 170KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Abbildung 7.3: Abnehmende Grenzerträge versus Hysterese w/p k l L1 L3 L∗ L aufgrund einer abnehmenden Grenzproduktivität der Arbeit, da zusätzlich entlassene Arbeitskräfte höhere Produktivitäten haben. Diesem Vorteil des Gradualismus steht ein Nachteil im Form von Hysterese gegenüber. Demnach sinkt die Produktivität mit der Dauer der Arbeitslosigkeit. 7.3.4.4 Sozialer Frieden Ein wenig Arbeitslosigkeit über drei Jahre hinweg ist womöglich mit weniger Unruhe verbunden, als ein Jahr mit hoher Arbeitslosigkeit. 7.3.4.5 Salamitaktik Kleine Änderungen sind manchmal politisch eher durchsetzbar, weil sie eher weniger wahrgenommen werden (Tyrannei der kleinen Schritte). Im Auÿenhandel fand beispielsweise nur eine allmähliche Handelsliberalisierung, sowohl in der EU als auch in den GATT Runden, statt. 7.4 Ebenen der Entscheidungsverfahren Bei den Ebenen wirtschaftspolitischer Entscheidungen ist zwischen der Wirtschaftsverfassungs - und der Prozeÿebene zu unterscheiden. Eine erste Denition 7.4. EBENEN DER ENTSCHEIDUNGSVERFAHREN 171 der Wirtschaftsverfassungsebene lieferte Walter Eucken11 mit seiner Ordnungspolitik. Das Thema ist: Was soll und was soll nicht der Staat tun? In welchen Bereichen ist staatliche Wirtschaftspolitik zu betreiben und welche Bereiche sind marktmäÿig zu organisieren. Dabei handelt es sich um eine Anwendung der Theorie des Marktversagens. Es wird gesagt, was die gute Wirtschaftsordnung ist, eine Verkündung von der Kanzel herab. Eine zweite Denition kommt aus der Public Choice Theorie, die zwar nur als positive Theorie konstruiert ist, aber die Theorie des Marktversagens um eine Analyse des Staatsversagens (Inezienz im politischen Prozeÿ) ergänzt. Nach dieser Denition gilt die Suche nicht der guten Wirtschaftsordnung, wie in der ersten Denition, sondern dem Verfahren, das ermöglicht, die gute Wirtschaftsordnung zu nden. Es geht also darum herauszunden, was die gute Wirtschaftsordnung ist. Der amerikanische Begri dieses Gebietes ist constitutional political economy. Die Verfahrensordnung behandelt die Frage, wie man staatlichen Zwang rechtfertigen kann. Paretianisch ist das nur durch Konsens auf der Verfassungsebene möglich. Die Entscheidungsverfahren auf der Mehrheitsentscheidungsebene (Prozeÿebene) können aus der Verfassung (i. S. des Geschäftsgesellschaftsvertrages) abgeleitet werden. Es muÿ also auf der Verfassungsebene einstimmig beschlossen werden, was auf der Verfahrensebene nicht einstimmig beschlossen werden muÿ. Der Vorteil dieser zweiten Denition besteht darin, daÿ nicht doktrinäres, exogenes Heilswissen verkündet wird, wo dann dogmatische Streitereien die Regel sind. Es ist somit prozedural und nicht dogmatisch. Auÿerdem stellt sie eine operationale Methode dar, um Inhalte der Verfassungsebene zu bestimmen (basisdemokratisch). Aus Sicht der Ökonomen hat die zweite Denition auÿerdem den Vorteil, daÿ Werturteile nur aus den beteiligten Präferenzen (subjektivistisch) abgeleitet werden, was eine Paretoverbesserung garantieren soll. Die Rolle der Ökonomen ist dabei, die paretosuperiore (nicht unbedingt paretooptimale) Lösung zu nden, wobei der Adressat der Bürger und nicht die Regierung ist. Das heiÿt, die Ökonomen stellen Konsensanbahnungswissen (Vertragswissen, Maklerfunktion) und nicht Herrschaftswissen bereit. Es gilt also nicht, die Regierung auszuwechseln, sondern die Entscheidungsverfahren zu verbessern. 7.4.1 Zweck der Ebenen Wozu soll man zwischen der Verfassungs- und der Prozeÿebene unterscheiden? 1. Es wird eine Legitimation für transaktionskostensenkende Entscheidungsverfahren, wie das Mehrheitsprinzip, benötigt. Wenn Wirtschaftspolitik dem 11 Siehe Eucken (1952) 172KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Allgemeininteresse dienen soll, ist ein Mehrheitsprinzip in allen Bereichen problematisch. Dies ist nur durch Einigkeit auf der Verfassungsebene möglich, welche Fragen mit der einfachen Mehrheit beschlossen werden können. Ansonsten kann das Mehrheitsprinzip ein Rückfall in die Anarchie bedeuten, wo das Recht des Stärkeren, in diesem Fall der gröÿeren Fraktion, gilt. Das Mehrheitsprinzip ist auf diese Weise mit dem Freiheitsprinzip zu vereinbaren. Die Handlungsfähigkeit wird sichergestellt, damit Fragen, die schnell entschieden werden müssen, auch tatsächlich schnell entschieden werden können. 2. Schaung von Informationsanreizen. Auf der Prozeÿebene ist der Anreiz für Bürger sich zu informieren gering, und steigt, wenn ein Konsens erzielt werden muÿ, weil dort jede Stimme zählt und es auf jeden ankommt. Die Anreize steigen auch deshalb, weil auf der Verfassungsebene die Fragen wichtiger sind und so eine Sortierung zwischen wichtigen und weniger wichtigen Fragen möglich ist. 3. Der Schleier der Ungewiÿheit erleichtert die Einigung über Regeln auf der Verfassungsebene als auf der Prozeÿebene, da man nicht weiÿ, wie sich die Regeln auf einen selbst auswirken. Normalerweise erschweren Risikoprämien die Einigung, aber hier geht es um die Abstraktion von eigenen Interessen und das Denken in kategorischem Imperativ. Beim Vertrag von Maastricht (Währungsunion) konnte man sich über die Konvergenzkriterien einigen. In der Konvergenzperiode hätte man sich wohl kaum über die Kriterien einigen können, wenn jedes Land weiÿ, welche Kriterien es erfüllt und welche nicht. Es besteht allerdings die Gefahr, daÿ eine Änderung und damit eine Verschiebungsdiskussion einsetzt. 4. Gröÿere Glaubwürdigkeit dort, wo Glaubwürdigkeit wichtig ist, weil eine Änderung nur mit qualizierter Mehrmehrheit möglich ist. Worin bestehen die Spielregeln? 79,III: Ewigkeitsgarantie, Freiheitsrechte, Föderalismus; 20: Gewaltenteilung, Sozialstaatsgebot, Demokratiegebot; 79,II: für Verfassungsänderung sind qualizierte Mehrheiten nötig. 7.4.2 Analyse des Grundgesetzes Entspricht das Grundgesetz dem Konsensprinzip der constitutional political economy? 1. Die Bürger haben nie über die Verfassung abgestimmt und auch nicht delegiert, sie sind nie gefragt worden. Die Alliierten wollten eine Volksabstim- 7.4. EBENEN DER ENTSCHEIDUNGSVERFAHREN 173 mung, aber der parlamentarische Rat war dagegen, aus Angst vor den Erfahrungen des Dritten Reichs. Das Argument kann als vorgeschoben gelten, denn die NSDAP hatte nie die Mehrheit in einer Reichstagswahl, im Juli 1932 37%, im November 1932 31%, also schon auf dem Rückzug, im Januar 1933 wird Hitler von Hindenburg zum Reichskanzler berufen, und im März 1933 erhält sie trotz Propagandaapparat nur 44%. Im März 1933 wird das Reichsermächtigungsgesetz von einer qualizierten Mehrheit des Reichstages mit Stimmen des Zentrums, der bürgerlichen Parteien und gegen die SPD akzeptiert. Wenn jemand versagt hat, dann war es der Reichstag und nicht der Bürger. 2. Selbst wenn die Bürger das Grundgesetz akzeptiert hätten, wie kann man die nachfolgenden Generationen beteiligen, schlieÿlich ist ein unkündbarer Vertrag sittenwidrig? In der Schweiz ist jederzeit eine Initiative zur Verfassungsänderung möglich. 3. Die Legitimation der Verfassung ist für alle von Konsensentscheidungsverfahren abweichenden Verfahren erforderlich. Ein Konsens ist dann erforderlich, wenn die Freiheit der Bürger eingeschenkt werden soll, wenn Entscheidungsverfahren legitimiert werden sollen, die nicht mehr selbst ein Konsens beinhalten, sondern die abgeleitet worden sind aus dem Verfassungskonsens. Ein Konsenszwang kann nur dann gelten, wenn der Staat ermächtigt wird, Dinge ohne Konsens zu tun. Da Ermächtigungen auch wieder entzogen werden können, ist eine Asymmetrie nötig. Kompetenzen, die die Einschränkung der Freiheit der Bürger erlauben, erfordert ein Konsens auf der Verfassungsebene. Sollen hingegen Kompetenzen wieder entzogen werden, ist ein Konsens auf der Verfassungsebene nicht nötig, sondern der Konsens wird aufgekündigt. Somit ist ein generelles qualiziertes Quorum q (2/3) für alle Verfassungsänderungen nicht sinnvoll. Es muÿ unterschieden werden zwischen kompetenzerweiternden und kompetenzaufkündigenden Verfassungsänderungen. Bei der ersten Sorte muÿ ein Quorum von q und bei der zweiten ein Quorum von 1 − q für eine Verfassungsänderung ausreichen. 7.4.3 Senkung der Einigungskosten 7.4.3.1 Entscheidungen auf Verfassungsebene In Abbildung 7.4 sieht man das Prinzip, wie auf der Verfassungsebene das erforderliche Quorum für die Prozeÿebene festzulegen ist, um dort die Einigungskosten zu senken. Die Kurve EK bezeichnet die Entscheidungskosten, die mit dem erforderlichen Quorum (x-Achse) ansteigen. Die externen Kosten ExK sind maximal bei einem Diktator und Null bei Einstimmigkeit. Irgendwo dazwischen liegt das 174KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Abbildung 7.4: Einigungskosten P EK 0% ExK 50% q ∗ 100% P optimale Quorum, nämlich im Minimum der Summe der beiden Kurven . Es ist nicht der Schnittpunkt entscheidend, da die beiden Kurven EK und ExK keine Grenzkosten darstellen. Das optimale Quorum q ∗ beträgt nicht unbedingt 50%, die aus Sicht der constitutional political economy völlig willkürlich sind. Warum ist trotzdem fast überall ein Quorum von 50% auf der Prozeÿebene zu beobachten? 1. Das ist das Minimum für eine symmetrische Regel, also eine Regel, bei der nicht gefragt wird, ob die Kompetenzen des Staates erweitert oder vermindert werden. 2. Quoren über 50% sind zudem stabile symmetrische Regel (wenn man nicht zwischen ermächtigenden und widerrufenden Gesetzen unterscheidet). 33% sind beispielsweise nicht stabil, da die anderen 67% jeweils einen gefassten Beschluÿ wieder rückgängig machen können. 3. 51% sind machtpolitisch gerade noch stabil und maximieren die Macht der Herrschenden. Wann sollte in der EU von einer qualizierten Mehrheit abgewichen werden? Bei hohen externen Kosten auf die Minderheit. Das ist besonders hoch bei heterogenen Interessen/Präferenzen, so daÿ ein hohes Quorum nötig ist. Zum Beispiel steigen bei einer Osterweiterung wohl nicht nur die Entscheidungskosten, sondern auch die externen Kosten, so daÿ das optimale Quorum nicht unbedingt sinkt. 7.5. REGELN VERSUS DISKRETION 175 Bei der Entscheidung für das Binnenmarktprojekt waren die externen Kosten nicht hoch (mehr oder weniger eine Paretoverbesserung) und ein niedriges Quorum ausreichend. 7.4.3.2 Delegation Da die parlamentarische Repräsentation der Bürger die Entscheidungskosten senkt, kann im Parlament im Vergleich zur direkten Demokratie des Quorum gröÿer sein. Durch den technischen Fortschritt sinken die Informations-/Transaktionskosten, ist die Delegation immer weniger dringend und plebiszitäre Elemente immer attraktiver. Beispielsweise wird es durch das Internet immer billiger, die Bürger direkt zu konsultieren. 7.4.3.3 Unabhängige Institutionen Unabhängige Institution als wirtschaftspolitische Entscheidungseinheiten bieten sich immer dort an, wo über das Ziel breiter Konsens besteht, der Instrumenteneinsatz kompliziert oder in politischer Hand der Miÿbrauch möglich ist. Der Grad der Zielerreichung sollte kontrolliert und bei Zielverfehlung die Verantwortlichen sanktioniert werden. Unabhängige Institution sind die Gerichtsbarkeit, die Notenbank, das statistische Bundesamt und das Kartellamt. 7.5 Regeln versus Diskretion Wirtschaftspolitische Regeln kommen sowohl als Verfassungsregeln oder auch als Prozeÿregeln in Frage. Dazu müssen sie sauber deniert werden, wie im Falle der Geldpolitik (konstantes Geldmengenniveau, konstante Veränderung oder eine Reaktionsfunktion). Beispiele sind Steuertarindizierung, Intervention bei Wechselkursbandbreiten usw. Ein Ausgestaltungsproblem betrit die Frage, ob die Regelbindung befristet oder unbefristet sein sollte. 7.5.1 Pro Diskretion Für diskretionäre Entscheidunge und gegen Regeln spricht (Samuelson), daÿ die Berücksichtigung der Situation und der Einzelfall möglich ist. Die Entscheidung sollte demnach vom Informationsstand abhängen. 176KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN 7.5.2 Pro Regeln 7.5.2.1 Unvollkommene Information Auch Samuelson geht von unvollkommener Information aus. Hier ist der Schluÿ daraus jedoch ein anderer. 7.5.2.1.1 Beim Wirtschaftspolitiker herrscht Unsicherheit über den Wir- kungskoezienten α des Instruments m als auch bezüglich der Korrelation zwischen α und den Schocks u in z = αm + u. Formal: Zunächst wird die Zielgröÿe ŷ = ŷ1 + ŷ2 in die zwei Faktoren ŷ1 und ŷ2 zerlegt. ŷ2 bezeichnet die von der Makroprozeÿpolitik abhängige Komponente und ŷ1 die unabhängige Komponente (Schocks). Das Ziel soll darin bestehen, mit ŷ2 zu erreichen, daÿ ŷ stabiler ist (Gesamtwirtschaftliche Stabilität ist beispielsweise eine der geldpolitischen Aufgaben) als mit ŷ1 alleine. Das heiÿt die Variation von ŷ2 ist so zu wählen, daÿ ŷ stabiler ist als die unabhängige Komponente ŷ1 . Es gilt die Varianz von ŷ zu minimieren. δŷ2 = δŷ21 + 2 cov(ŷ1 , ŷ2 ) + δŷ22 = δŷ21 + 2 ρ δŷ1 δŷ2 + δŷ22 mit ρ = cov(ŷ1 , ŷ2 ) δŷ1 δŷ2 = δŷ21 + 2 ρ δŷ1 δŷ2 + δŷ22 + ρ2 δŷ22 − ρ2 δŷ22 = (δŷ1 + ρ δŷ2 )2 + δŷ22 (1 − ρ2 ) Unter welchen Bedingungen ist δŷ2 = 0 (Idealfall)? a) δŷ22 (1 − ρ2 ) = 0 für ρ = ±1 oder δŷ22 = 0 b) Für (δŷ1 + ρ δŷ2 )2 = 0 muÿ ρ < 0 sein, und bei δŷ1 > 0 muÿ δŷ2 6= 0 gelten. Es bleibt also nur die Lösung ρ = −1 und δŷ2 = δŷ1 übrig. Wie können wir erreichen, daÿ δŷ < δŷ1 . Wie muÿ die Varianz der Instrumentvariable sein, damit sich ein Rückgang von δŷ ergibt? δŷ2 < δŷ21 δŷ21 + 2 ρ δŷ1 δŷ2 + δŷ22 < δŷ21 ρ < − δŷ22 δŷ =− 2 2 δŷ1 δŷ2 2 δŷ1 (7.1) 7.5. REGELN VERSUS DISKRETION 177 ρ muÿ negativ sein und einen Schwellenwert unterschreiten. Bei δŷ1 = δŷ2 muÿ ρ < − 21 gelten. Für die Stabilisierungswirkung reicht eine negative Korrelation nicht aus, sondern es muÿ ein Schwellenwert unterschritten werden. Das Problem ist, daÿ ŷ1 und δŷ21 unbekannt sind. Auÿerdem greift immer auch die Lucaskritik, wonach bei einem Instrumenteneinsatz sich auch die Wirkungskoezienten verändern. Ein weiteres Problem sind lange und variable Wirkungslags. In Abbildung 7.5 ist ein Beispiel für die Geldpolitik eingezeichnet. Die gestrichelten Linien zeigen eine Abbildung 7.5: Lags Geldpolitik Schock M kM0 /Mt zusätzliche Destabilisierung Y P t 1 2 3 4 5 kompensatorische Geldpolitik, in einer Cagan-Wirtschaft mit M = P kY η e−²i . Die Geldmenge wirke mit einem Lag von 1 Jahr auf die Produktion Y und 2 Jahre auf das Preisniveau P . Im Zeitpunkt 1 ereignet sich ein kontraktiver Geldmengenschock. Die Geldpolitik kompensiert diesen Schock mit einem Diagnoselag von einer Periode, da erst ∆Y ein interpretierbares Signal ist, mit der Folge, daÿ in Periode 3 die Produktion zusätzlich destabilisiert wird. 7.5.2.1.2 Beim Marktteilnehmer fallen Risikoprämien an, weil sie nicht wissen, was die Wirtschaftspolitiker machen werden. Durch eine Regelbekanntgabe könnte man die Sicherheit erhöhen. Da das Wissen darum, welche Regeln welcher Wirtschaftspolitiker anwendet, ein öentliches Gut ist, sollte man es, wie aus der Theorie der öentlichen Güter bekannt ist, bereitstellen. Seit 1974 werden die Geldmengenexpansionsraten der Bundesbank öentlich angekündigt, was eine 178KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN Ankündigung ihrer verfolgten Regel gleichkommt. Wenn die Regeln glaubwürdig sind, ist das ezientssteigernd. Ist die Ankündigungswirkung empirisch nachweisbar? Ein Weg ist zu zeigen, daÿ bei einer Ankündigung die Disinationskosten niedriger sind. Eine Regression für die BRD im Zeitraum 1950-1978 erbrachte folgende Ergebnisse. N̂ = −0.19 − 0.17 (ŵ − P̂ e − π e ) + 1.06 P̂ u + 0.30 π̂ u + 0.06 T̂ + 0.05F − 1.55 AP̂ u (1.63) (1.95) (2.82) (insig.) (1.81) Die Variablen sind N̂ Beschäftigung; w Nominallohn; P̂ u die Komponente der Inationsrate, die ohne Vorankündigung unerwartet gewesen wäre; π e/u Produktionsfortschritt erwartet/unerwartet; T̂ Terms of trade; F Wechselkursregime; A Vorankündigung=1; Hütchen zeigen Veränderungsraten an. Das negative Vorzeichen von AP̂ u zeigt, daÿ eine unerwartete Ination in Jahren mit vorangekündigter Geldpolitik geringere Eekte auf die Beschäftigung hat. Durch vorangekündigte Politik läÿt sich die Beschäftigungswirkung von Ination reduzieren. Allerdings besteht ein Problem mit den Koezienten, da |-1.55|<|1.06 eine Überkompensation anzeigt und somit nicht plausibel ist. Möglicherweise ist das auf eine nicht exakte Messung der unerwarteten Komponente zurückzuführen. Glaubwürdigkeit reduziert Stabilisierungarbeitslosigkeit. Da Gradualismus weniger glaubwürdig ist, ist ein Big bang vorzuziehen. 7.5.2.1.3 Zeitinkonsistenz ist ein Konzept, das in einem berühmenten Arti- kel von Barro and Gordon (1983) in die geldpolitische Diskussion gebracht wurde. Das Makromodell ŷ = ŷ¯ + α(P̂ − P̂ e ). wird in die Bewertungsfunktion der Politiker eingesetzt: 1 ¯ WP (ŷ, p̂) = − [K1 P̂ 2 − K2 (ŷ − ŷ)] 2 1 = − [K1 P̂ 2 − K2 (α(P̂ − P̂ e ))]. 2 und optimiert: ∂WP 1 = −K1 P̂ + K2 α = 0 2 ∂ P̂ αK2 P̂ ∗ = > 0. 2K1 Je stärker sich die unerwartete Ination auf das Wirtschaftswachstum auswirkt, desto höher ist hatP (α ist die Geldillusion). Je höher das Gewicht K2 des Wirtschaftswachstums in der Zielfunktion des Politikers, desto höher die Ination. K1 bezeichnet die Inationsaversion. 7.5. REGELN VERSUS DISKRETION 179 Die Nutzenfunktion für Marktteilnehmer lautet 1 WM (P̂ , P̂ ) = − [h1 P̂ 2 + h2 (P̂ − P̂ e )2 ] 2 1 = − [h1 P̂ 2 + h2 P̂ 2 − 2h2 P̂ P̂ e + h2 P̂ e2 ], 2 und ihre Optimalbedingung ∂WM ∂ P̂ e = h2 P̂ − h2 P̂ e = 0 P̂ e∗ = P̂ Die Marktteilnehmer erwarten die tatsächliche Ination und eine Wirkung auf ŷ stellt sich nicht ein. Es ergibt sich ein inationäres Nash-Gleichgewicht P̂ ∗ = 2 P̂ e∗ = αK bei der beide Teilnehmer eine negative Nutzenfunktion haben, ohne 2K2 daÿ sich Ination auf das Wirtschaftswachstum auswirkt. Die Schluÿfolgerung von Barro and Gordon (1983) lautet, daÿ man das Spiel nicht zulassen sollte. Man muÿ dafür sorgen, daÿ Politiker im voraus klarmachen können, daÿ für sie K2 = 0 ist. Das führt zu einer optimalen Ination P̂ ∗ = 0. Mit K2 = 0 miÿt der Politiker der Diskrepanz P̂ − P̂ e keinen Wert zu, er ist lediglich inationsavers. Es ist ihm egal, ob man mit der Geldpolitik das Wirtschaftswachstum kurzfristig ankurbeln kann oder nicht. Daraus folgt, daÿ Glaubwürdigkeit nur durch konservative Zentralbanker erreichbar ist, die selbst vor der Wahl keine Ination zulassen. Das Zeitenkonsistenzproblem existiert unabhängig davon, ob man Politiker als wohlwollend oder eigennützig orientiert einstuft. Selbst wohlwollenden Politikern glauben die Leute nicht, daÿ sie vor der Wahl nicht inationieren werden. Politiker müssen sich wie Odysseus bei den Sirenen im voraus binden. 7.5.2.2 Verkürzung von Entscheidungslags Durch Regeln lassen sich Entscheidungslags verkürzen. 7.5.2.3 Public Choice Argumente Mit Regeln läÿt sich Unnachgiebigkeit gegenüber Interessengruppen etablieren, wie es die Bundesbank seit ihrer Geldmengenankündigung vorgemacht hat und seitdem durch die Tarifparteien nicht mehr erpressbar ist. 180KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN 7.5.3 Wieso ist Regelbindung so selten? Ein Politiker verzichtet ungerne auf Instrumente, denn vor der Wahl ist oft ein Gri in die Trickkiste nötig. Wenn man auf Sanktion verzichtet und es nur bei der Vorankündigung beläÿt, ist jede angekündigte Regel eine Restriktion in der Zukunft. Wenn man nichts ankündigt, kann man im Nachhinein immer sagen, man wollte das, was eingetreten ist, weil man seine Absicht nicht preisgegeben hat. Teil II Anhang 181 Anhang A Klassische Ökonometrie A.1 Vorgehensweise Für die Vorlesung Wirtschaftspolitik ist es nützlich, wenn einige der wichtigsten Konzepte der Ökonometrie bekannt sind, um die vorgestellten Regressionsergebnisse interpretieren zu können. Die in den Regressionen auftretenden Probleme, Tests und spezielle Schätzverfahren sollen Gegenstand dieses Skriptes sein. Es ist nicht direkt prüfungsrelevant und soll lediglich einen Einblick in die ökonometrischen Konzepte liefern, um ein Regressionsergebnis interpretieren zu können. Dieses Skript dient dazu, den unterschiedlichen ökonometrischen Vorbildungen der Hörer der Wirtschaftspolitik bei Prof. Vaubel Rechnung zu tragen und ist damit Ausuÿ der Tatsache, daÿ zumindest grundlegende Konzepte der Ökonometrie noch nicht überall (in Mannheim im Pichtprogramm des Hauptstudiums) selbstverständlich sind. Einerseits gibt es in Mannheim seit einiger Zeit die empirische Volkswirtschaftslehre des Lehrstuhles Prof. Börsch-Supan im Grundstudium. Diese Vorlesung reicht für die empirischen Diskussionen in der Wirtschaftspolitik bei Prof. Vaubel eigentlich aus. Ebenso natürlich sind die Grundlagen der Ökonometrie des Lehrstuhles Prof. Fitzenberger im Pichtprogramm des Hauptstudiums, die aber womöglich nicht allen bekannt sind. Damit ergibt sich der Adressatenkreis dieser kurzen Ökonometrieeinführung: alle, die weder die empirische Volkswirtschaft im Mannheimer Grundstudium noch die Grundlagen der Ökonometrie des Blocks kennen, Studenten, die von anderen Unis nach Mannheim gewechselt sind und Studenten anderer Fächer, die Wirtschaftspolitik in irgendeiner Form kombinieren wollen. Kurzum alle, die nicht wissen was β̂ = (X 0 X)−1 X 0 Y bedeutet, können es hier erfahren. Dieser Ökonometrieteil ist eine Zusammenfassung des Buches von Thomas (1997). In Abschnitt A.2 werden die Basics diskutiert (Thomas, Kapitel 1-4). Im näch183 184 ANHANG A. KLASSISCHE ÖKONOMETRIE sten Abschnitt werden die Güteeigenschaften von Schätzern deniert (Thomas, Kapitel 5). Anschlieÿend werden die Annahmen des OLS-Schätzers vorgestellt, die seine Güteeigenschaften sicherstellen (Thomas, Kapitel 7). Der für die kritische Würdigung der empirischen Diskussionen in der Vorlesung Wirtschaftpolitik wichtigste Teil besteht in der Diskussion der Annahmen des OLS-Schätzers (Thomas, Kapitel 8-15). Dabei soll jeweils erklärt werden, was mit den Güteeigenschaften des Schätzers passiert, wenn die Annahmen verletzt sind, wie man dies testet und welche Möglichkeit es gibt, trotzdem gute Schätzergebnisse zu erhalten. Die Kapitel 7-15 können in einigen Semesterwochenstunden als einführende Ökonometrie in einem vernünftigen Tempo, in einigen Doppelstunden als fortgeschrittene Ökonometrie schnell und in zwei Doppelstunden als Übung zur Wirtschaftspolitik als bebildertes Vokabelheft vermittelt werden. Das Buch von Thomas kann und soll dementsprechend nicht innerhalb der Wirtschaftspolitik studiert werden. Die Interpretation von Regressionsergebnissen untersucht folgende Fragen: Macht das ökonomische Modell Sinn, kann man die Modellvariablen durch die verwendeten Variablen messen (geeignete Proxyvariablen). Diese Fragen müssen im Zusammenhang mit dem zugrunde liegenden ökonometrischen Modell diskutiert werden. Das Skript hat die eher technischen Fragen zum Gegenstand. Dazu sollen die Begrie der beiden folgenden Sätze vorgestellt werden. Werden die wichtigen erklärenden Variablen von anderen (Multikollinearität), von der erklärten Variable (Simultanität) oder dem Störterm (Unabhängigkeit zwischen X und ²) beeinuÿt? Sind weitere kritische OLS-Annahmen getestet (und dokumentiert) (z.B. Autokorrelation, Homoskedastie, Stationarität,...) und werden durch geeignete Methoden bei Annahmeverletzung trotzdem gute Ergebnisse erzielt? A.2 Basics A.2.1 Zweck der Ökonometrie Denition der Ökonometrie: Econometrics has been dened as the application of mathematical statistics to economic data to lend empirical support to the models constructed by mathematical economics to obtain numerical estimates. (Samuelson) In der mathematischen Ökonomie werden Theorien oft in qualitativen Gleichungen ausgedrückt, die eher seltener funktional speziziert sind. Die ökonomische A.2. BASICS 185 Statistik sammelt und bereitet Daten auf. Die Ökonometrie konfrontiert die theoretischen Modelle mit Daten und versucht mittels statistischer Inferenz aus den qualitativen Gleichungen eine quantitative Form abzuleiten. Diese Form ist wichtig in der Wirtschaftspolitik. In der Theorie der quantitativen Wirtschaftspolitik haben wir mit tatsächlichen Werten für die Koezienten von Erklärungsmodellen gearbeitet, um die Dosierung des wirtschaftspolitischen Instrumenteneinsatzes zu bestimmen. Diese Koezienten können mit ökonometrischen Methoden aus den Daten gewonnen werden. Oft können die in den Modellen verwendeten Variablen nicht genau gemessen werden oder sind überhaupt nicht meÿbar (kaum messbar sind z.B. Erwartungen) und man behilft sich mit sogenannten Proxyvariablen (z.B. sind für Variablen wie Euroakzeptanz oder Lebensqualität Proxies nötig; Wechselkurse sind hingegen schon eindeutiger deniert und deshalb eher direkt messbar, wobei bei realen im Vergleich zu nominalen Wechselkursen sowohl die Denition als auch die Messung schwieriger ist). Ob tatsächlich geeignete Variablen verwendet werden, läÿt sich nicht mit Hilfe der Ökonometrie, sondern mit der ökonomischen Theorie beantworten. A.2.2 Statistische Grundlagen Die statistischen Grundlagen sollten aus einführenden Statistikvorlesungen bekannt sein. Folgende Begrie bilden die Grundlagen der Ökonometrie und werden hier nicht diskutiert: stochastische/Zufalls-Variable, diskrete/stetige Variable, Wahrscheinlichkeitsverteilung, Mittelwert, Erwartungswert, Varianz, Standardabweichung, Normalverteilung, Standardnormalverteilung, gemeinsame Wahrscheinlichkeit, gemeinsame Wahrscheinlichkeitsverteilung, Randwahrscheinlichkeit, Randwahrscheinlichkeitsverteilung, bedingte Wahrscheinlichkeit, bedingte Wahrscheinlichkeitsverteilung, bedingter Erwartungswert, bedingte Varianz. Einige elementare Operationen sind: E(a + bX) Var(a + bX) E(aX + bY ) Var(aX + bY ) = = = = a + bE(X) b2 Var(X) aE(X) + bE(Y ) a2 Var(X) + b2 Var(Y ) + 2abCov(X, Y ) Für unabhängige Variablen gilt: E(XY ) = E(X)E(Y ). A.2.3 Statistische Inferenz Denition der statistischen Inferenz: 186 ANHANG A. KLASSISCHE ÖKONOMETRIE Statistical inference is the process of drawing conclusions about a particular parameter of a statistical distribution. (Encyclopædia Britannica) In der klassischen Ökonometrie sind die Parameter u.a. die Koezienten eines Modells. Die gesammelten Daten sind die Stichproben und somit die Realisationen einer statistical distribution. Die Ökonometrie versucht, aus Daten auf die sie erzeugenden Modelle zu schlieÿen (die Methode ist die induktive Statistik; Induktion ist das Schlieÿen von Einzelfällen auf die Allgemeinheit, das Gesetzmäÿige). Dazu werden aus den Daten die Schätzer für die zugrunde liegenden Parameter berechnet. Diese Schätzer sind, wie der Name sagt, Abschätzungen der wahren Parameter des Modells. Die grundlegende empirische Frage lautet: Sind die Daten der beobachteten Variablen das Ergebnis von Zufall oder lassen sie sich auf ein zugrunde liegendes Modell (eine über die Zeit konstante Struktur) zurückführen. Die klassische Ökonometrie liefert Parameterwerte und Kondenzintervalle um einen Wert herum. Stichwörter dieses Kapitels sind: Stichprobenvariabilität, Schätzer, Verteilung eines Schätzers, zentraler Grenzwertsatz, Kondenzintervall, Nullhypothese, Teststatistik, Signikanzniveau, Fehler erster und zweiter Art. Die Schritte einer Testprozedur sind: Formuliere Nullhypothese und Alternativhypothese, wähle Teststatistik, wähle Signikanzniveau, formuliere Testkriterium (z.B. lehne H0 ab, wenn Teststatistik>k; akzeptiere H0 , wenn Teststatistik<k), berechne Teststatistik und wende Testkriterium an. H0 wird abgelehnt H0 ist wahr Fehler I Art H0 wird angenommen H0 ist falsch Wahrschlichkeit= Power eines Tests Fehler II Art Wichtige Verteilungen sind: Standardnormalverteilung mit Mittelwert 0 und 1: Z ∼ N (0, 1); PVarianz n 2 Chi-Quadrat-Verteilung mit n Freiheitsgraden: i=1 Zi ∼ χ2n , wenn Zi ∼ N (0, 1); Z0 ∼ tn , wenn Zi ∼ N (0, 1); Student-t-Verteilung mit n Freiheitsgraden: √ 1 P n 2 Xu /u Xv /v n i=1 Zi ∼ F(u,v) , F-Verteilung mit (u, v ) Freiheitsgraden: 2 wenn Xn ∼ χn und Xu und Xv unabhängig sind. A.2.4 Regressionsanalyse Ausgangspunkt einer ökonometrischen Analyse ist ein Datensatz X und Y . Zu unterscheiden sind Querschnitts- und Zeitreihenanalysen. A.2. BASICS 187 Die Daten der Querschnittsanalyse werden zu einem Zeitpunkt gemessen und umfassen Merkmale von mehreren Beobachtungseinheiten, wie z.B. Haushalte, Staaten usw. Die Beobachtungseinheiten werden mit i unterschieden. Die Daten Xi und Yi beschreiben z.B. das Einkommen und den Konsum von n verschiedenen Haushalten (i = 1, . . . , n). Xi kann auch ein Vektor sein, wenn mehr Merkmale als nur der Konsum und das Einkommen eines Haushaltes beobachtet werden. Man spricht dann vom multiplen Regressionsmodell (mit mehreren erklärenden Variablen). Im Gegensatz dazu beobachtet eine Zeitreihenanalyse eine Beobachtungseinheit an mehreren Zeitpunkten. Die Daten Xt bzw. Yt unterscheiden mit t die zu verschiedenen Zeitpunkten gemessenen Merkmale, wie nationales Einkommen, Geldmengenentwicklung der EZB usw. In einem Koordinatenkreuz abgetragen könnten die Daten Konsum und Einkommen eines Haushaltsquerschnitts etwa Abbildung A.1 entsprechen. Zeitreihendaten können gegen die Zeit t abgetragen werden und zeigen dann den zeitlichen Verlauf des nationalen Konsums. Als erste wichtige Entscheidung muÿ eine Annahme über die Kausalitätsrichtung Abbildung A.1: Daten r Y 6 r r rr 300 r r r rr r r r 50 r rr r r r r r r r - 50 300 X zwischen den beiden Variablen getroen werden. Die Statistik kann nur Korrelationen liefern, die Kausalität muÿ aus der Theorie abgeleitet werden. (Z.B.: Die Anzahl der Störche in verschiedenen Regionen sei positiv korreliert mit der Geburtenzahl. Jedoch sind Störche kaum eine theoretisch haltbare Ursache von Geburten.) Im Beispiel würde man sagen, daÿ das Einkommen den Konsum beeinuÿt und nicht umgekehrt. Damit ist der Konsum die endogene/erklärte/abhängige (Y ) und das Einkommen die exogene/erklärende/unabhängige (X ) Variable. Das ist in einem Haushaltsquerschnitt recht klar, jedoch im Falle einer Zeitreihenanalyse mit Makroaggregaten überhaupt nicht mehr, wie weiter unten noch dargestellt wird. 188 ANHANG A. KLASSISCHE ÖKONOMETRIE Eine weitere Annahme betrit die funktionale Form des Zusammenhanges zwischen den Variablen. Für eine lineare Funktion ergeben sich folgende grundlegenden Gleichungen: E(Y ) = α + βX (A.1) ist die Regressionsgleichung der Grundgesamtheit. Das ist das zugrunde liegende Modell. Es ist unbekannt und wird gesucht, indem man es postuliert und anhand der Daten testet. Das ist die Methode des Falsizierens. Eine ökonomische Theorie läÿt sich demnach nicht verizieren, sondern lediglich falsche Modelle falsizieren. Y = E(Y ) + ² Der Störterm ² ist ebenfalls unbekannt. Er bildet den Einuÿ aller anderen Variablen ab, ebenso wie die Eigenschaft menschlichen Verhaltens, daÿ selbst bei gleicher Konstellation der beeinussenden Variablen ein anderes Verhalten möglich ist. Ŷ = α̂ + β̂X (A.2) ist die Stichprobenregressionsgleichung mit Ŷ als den Vorhersagewert für Y , gebildet aus den Beobachtungen X und den geschätzten Parameter α̂, β̂ . Wenn Gleichung (A.2) mit dem wahren Modell (A.1) in der funktionalen Form nicht übereinstimmt, spricht man von falscher funktionaler Form. Die Kausalitätsannahme besagt, daÿ X auf Y wirkt. Wenn gleichzeitig auch noch Y auf X wirkt, spricht man von Simultanität (also einer weiteren bestehenden Beziehung zwischen X und Y ) oder Endogenität (der als exogen angenommenen Variablen). Dieses Problem wird in simultanen Mehrgleichungsmodellen gelöst, wo dann das Problem der Identikation auftaucht, was jedoch weit über den für Wirtschaftspolitik nötigen Sto hinausgeht. Eine einfachere Methode besteht darin, Instrumentenschätzer zu verwenden, die weiter unten erläutert wird. e = Y − Ŷ ist das Residuum (die Dierenz zwischen der Vorhersage der Schätzung und den tatsächlichen Beobachtungen Y ), das strikt vom Störterm zu unterscheiden ist. Der Störterm ist eine Eigenschaft des Modells der Grundgesamtheit, nach dem gesucht wird. Das Residuum ergibt sich aus der Schätzung. Man kann sich die Residuen als Schätzer für die Störterme vorstellen. Die grasche Repräsentation dieses Unterschiedes ist in der Abbildung A.2 zu sehen. Als nächstes soll der OLS-Schätzer (ordinary least squares; auch KQ-Schätzer, Kleinste-Quadrate-Schätzer) abgeleitet werden. Das Prinzip besteht darin, die Schätzer α̂, β̂ der Parameter α, β so zu wählen, daÿ die Summe der quadrierten A.2. BASICS 189 Abbildung A.2: Residuum und Störterm Y 6 u E(Y ) = α + βX Yi 6 6 ² e ? ©Ŷ = α̂ + β̂X © ? © ©© © ©© © © ©© - Xi X Residuen S minimiert wird. Man legt eine Gerade, deren Lage durch ihren Achsenabschnitt α und die Steigung β bestimmt wird, so durch die Punktewolke, daÿ die (summierte quadrierte) Abweichung der Datenpunkte von der Gerade minimal wird. Die formale Vorgehensweise ist die folgende: min S = α̂,β̂ X e2i = X X (Yi − Ŷi )2 = (Yi − α̂ − β̂Xi )2 Zur Minimierung werden die ersten Ableitungen gebildet: X ∂S = −2 (Yi − α̂ − β̂Xi ) = 0 ∂ α̂ X ∂S = −2 Xi (Yi − α̂ − β̂Xi ) = 0. ∂ β̂ Nach einigen Umformungen erhält man für die OLS-Schätzer folgende Ausdrücke: P β̂ = P (Xi − X̄)(Yi − Ȳ ) xi y i P ≡ P 2 2 xi (Xi − X̄) α̂ = Ȳ − β̂ X̄ (A.3) (A.4) Überstrichene Variablen bezeichnen die Stichprobenmittelwerte, kleine Variablen die Abweichung davon. Die Schätzer α̂, β̂ sind eine Funktion der Stichprobenwerte X ,Y und haben somit ebenfalls eine Wahrscheinlichkeitsverteilung. Wie gut ist eine Schätzung? Das Bestimmtheitsmaÿ R2 beantwortet diese Frage (angewendet auf das Haushaltsbeispiel), indem es bestimmt, wieviel der Variation im Konsum durch die Variation im Einkommen erklärt werden kann. Abbildung A.3 zeigt die Idee vom R2 . 190 ANHANG A. KLASSISCHE ÖKONOMETRIE Abbildung A.3: Bestimmtheitsmaÿ R2 Y 6 u Yi 6 6 ei ©Ŷ Yi − Ȳ ? © ©© © ?6 ?Ŷi − Ȳ©© © ©© © © Ȳ - Xi X Variation aufgrund von X Ŷi − Ȳ + + Damit ergibt sich folgende Überlegung: Totale Variation Yi − Ȳ = = nicht erklärte Variation ei Wendet man dieses Prinzip auf alle Beobachtungen an, ergibt sich ein durch Yi −Ȳ normierter Ausdruck: P P e2i β̂ 2 x2i R =1− P = P 2 . yi (Yi − Ȳ )2 2 R2 kann als Prozentsatz der erklärten Variation an der gesamten Variation der zu erklärenden Variable Y interpretiert werden. Die Gröÿe ist jedoch nicht geeignet, den Erklärungsgehalt von zwei Regressionen mit verschiedener Anzahl an erklärenden Variablen zu vergleichen, da jede zusätzliche Variable das R2 nicht senken kann. Es ist also eine Erhöhung von R2 denkbar aufgrund einer Variable, die keinen Erklärungsgehalt besitzt. Deshalb wird oft ein um die Anzahl an Variablen k adjustiertes R̄2 berechnet: P e2i /(n − k) R̄ = 1 − P (Y − Ȳ )2 /(n − 1) 2 Diese Gröÿe muÿ nicht wie das R2 zwischen 0 und 1 liegen. Einige nicht lineare Zusammenhänge lassen sich ebenfalls mit dem OLS-Verfahren schätzen, wenn z.B. die funktionale Form Y = aX β angenommen wird, läÿt sich diese durch Logarithmierung in die lineare Form ln(Y ) = Y ∗ = ln(a) + β ln(X) = α+βX ∗ bringen, um es dann mit OLS zu schätzen. Ebenso läÿt sich die Form Y = aeβX durch logarithmieren zu ln(Y ) = Y ∗ = ln(a) + βX = α + βX linearisieren. A.3. SCHÄTZEREIGENSCHAFTEN UND SCHÄTZMETHODEN 191 A.2.5 Dummyvariablen Eine häug verwendete Art von erklärenden Variablen sind sogenannte Dummyvariablen, die lediglich die Werte 0 oder 1 annehmen. Wenn eine solche Variable erklärt werden soll (endogen), müssen sogenannte discrete choice Modelle, wie z.B. Logit oder Probit, verwendet werden. Mit Dummyvariablen lassen sich qualitative Zusammenhänge abbilden. Z.B. lieÿe sich in einer Querschnittsanalyse mit verschiedenen Ländern mit einer Dummyvariable, die den Wert 1 annimmt, wenn in dem Land Formen der direkten Demokratie üblich sind, testen, ob direkte Demokratie zu einer niedrigeren Steuerbelastung führen, indem man die Steuerbelastung (wie auch immer deniert) durch diesen Dummy erklärt. In einer Zeitreihenanalyse lieÿe sich mit einem Saisondummy ein saisonaler Einuÿ testen, indem eine Dummyvariable deniert wird, die z.B. nur im Sommer den Wert 1 annimmt. Eine Art der Verwendung von Dummies ist zur Messung eines Einusses auf den Achsenabschnitt α. Wenn der Dummy D den Wert 1 annimmt, gilt Y = α+βX +γD = (α+γ)+βX , wohingegen Y = α+βX gilt, wenn D = 0. Es wird so lediglich ein Einuÿ auf den Achsenabschnitt abgebildet. In dem Beispiel mit der direkten Demokratie läÿt sich fragen, ob direkte Demokratie die Steuerbelastung senkt oder hebt, also γ̂ 6= 0. Mit Dummies kann auch ein (z.B. saisonaler) Einuÿ auf die Steigung getestet werden. Untersucht man den Einuÿ von verfügbarem Einkommen auf nationalen Konsum in einer Zeitreihenuntersuchung Y = α + βX , lieÿe sich mit einem saisonalen Dummy D für den Dezember testen, ob sich die Grenzneigung für Konsum im Dezember ändert: Y = α + βX + γ(XD) = α + (β + γ)X für D = 1 im Dezember und Y = α + βX in allen anderen Monaten. Eine wichtige Frage lautet: ist der berechnete Schätzer für γ zufällig von Null verschieden oder ist ein Einuÿ statistisch signikant messbar? Das läÿt sich mit sogenannten t-Tests beantworten (siehe unten). A.3 Schätzereigenschaften und Schätzmethoden Die Güteeigenschaften eines Schätzers lassen sich in small-sample und largesample Eigenschaften einteilen. Die small-sample Eigenschaften gelten schon in kleinen Stichproben. Wohingegen die large-sample Eigenschaften erst im Grenzfall unendlich groÿer Stichproben gelten. Wichtig hierbei ist es sich klarzumachen, daÿ Schätzer einer Verteilung unterliegen, da die gewünschten Eigenschaften an der Verteilung des Schätzers ansetzen. 192 ANHANG A. KLASSISCHE ÖKONOMETRIE Eine technische Erklärung für das Vorhandensein einer Verteilung für Schätzer ist einfach die, daÿ Schätzer eine Funktion der Stichprobe sind. Die Stichprobe besteht aus verschiedenen Realisationen einer Zufallsvariable. Die Zufallsvariable hat denitionsgemäÿ eine Verteilung. Deshalb unterliegt ein Schätzer θ̂, der sich aus den Stichprobenwerten berechnet, auch einer Verteilung. Die Funktion einer Zufallsvariable ist eben wieder eine Zufallsvariable. Eine anschaulichere Erklärung kann man sich an einem Beispiel klarmachen. Die Teilnehmer einer Übung bilden die Grundgesamtheit, deren Durchschnittsalter geschätzt werden soll, ohne daÿ alle gefragt werden müssen. Dazu wird eine zufällige Stichprobe, z.B. der Gröÿe fünf, entnommen und der Altersdurchschnitt berechnet. Dieses Durchschnittsalter ist der Schätzer für das Durchschnittsalter der gesamten Gruppe (der wahre Parameter der Verteilung des Alters). Zieht man viele Male fünf Teilnehmer zufällig aus der Gruppe, wird jedes Mal ein anderer Wert für den Schätzer herauskommen. Daran sieht man, daÿ der Schätzer einer Verteilung unterliegt. A.3.1 Small-sample Eigenschaften A.3.1.1 Unverzerrtheit Ein Schätzer θ̂ für θ, der sich aus den Beobachtungen einer Stichprobe berechnet θ̂(X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Yn ), ist dann unverzerrt, wenn E(θ̂) = θ gilt. Das bedeutet, daÿ, wenn viele Stichproben gezogen werden und jeweils ein Schätzer berechnet wird, im Mittel der Schätzer den wahren Parameter trit (siehe Abbildung A.4). Wenn man fünf Studenten nach ihrem Alter befragt, jeAbbildung A.4: Unverzerrtheit f (θ̂) 6 - E(θ̂) = θ θ̂ weils 20 addiert und dann den Mittelwert bildet, erhält man keinen unverzerrten Schätzer des Durchschnittsalters aller Studenten, sondern einen mit einem Bias von 20. Die Verzerrung (Bias) lautet formal: Bias(θ̂) = E(θ̂) − θ. A.3. SCHÄTZEREIGENSCHAFTEN UND SCHÄTZMETHODEN 193 A.3.1.2 Ezienz Ein Schätzer ist ezient, wenn er unverzerrt ist und es keinen Schätzer mit einer kleineren Varianz gibt (auch bester unverzerrter Schätzer genannt). In AbbilAbbildung A.5: Ezienz f (θ̂) 6 θ̂2 θ̂1 θ̂ E(θ̂1 ) = E(θ̂2 ) = θ dung A.5 kann θ̂1 nicht ezient sein, da Var(θ̂2 ) < Var(θ̂1 ) und beide Schätzer unverzerrt sind. Um einen ezienten Schätzer zu nden, müssen alle unverzerrten Schätzer untersucht werden. Das ist mathematisch schwierig, so daÿ man sich meistens auf die Schätzer beschränkt, die nur eine lineare Funktionen der Stichprobe sind. Daraus ergibt sich der Ausdruck BLUE (best linear unbiased estimator). A.3.1.3 Mean-Squared-Error (MSE) Es kann sinnvoll sein, einen Trade-o zwischen den beiden Eigenschaften Unverzerrtheit und Ezienz zuzulassen, wenn in einer bestimmten Anwendung die eine oder die andere Eigenschaft wichtiger ist. Betrachtet man das untere Schaubild, sieht man einen unverzerrten Schätzer θ̂1 mit einer groÿen Varianz und einen verzerrten Schätzer θ̂1 mit einer kleineren Varianz. Es kann sinnvoller sein, θ̂2 mit der kleineren Varianz zu wählen und die Verzerrung in Kauf zu nehmen. Der Abbildung A.6: Mean-Squared-Error f (θ̂) 6 θ̂2 θ̂1 θ̂ E(θ̂1 ) = θ = 6 E(θ̂2 ) MSE formalisiert in einer Art Verlustfunktion den Trade-o zwischen den beiden 194 Gröÿen: ANHANG A. KLASSISCHE ÖKONOMETRIE M SE(θ̂) ≡ E(θ̂ − θ)2 = V ar(θ̂) + [Bias(θ̂)]2 . Der Schätzer mit dem kleineren MSE ist dann dem mit dem gröÿeren MSE vorzuziehen. In der Denition des MSE sind die Varianz und der Bias gleichgewichtet (jeweils mit 1). Natürlich sind auch andere Gewichtungen möglich. A.3.2 Large-sample Eigenschaften Die large-sample Eigenschaften eines Schätzers werden auch asymptotische Eigenschaften genannt, weil sie im Grenzfall einer unendlich groÿen Stichprobe betrachtet werden. Für die Güte eines Schätzers ist dessen Verteilung und im Falle der large-sample Eigenschaften dessen Grenzverteilung bestimmend. Z.B. sagt der zentrale Grenzwertsatz etwas über eine Grenzverteilung (siehe Abbildung A.7) aus. Mit steigendem Stichprobenumfang geht die Verteilung des Mittelwertes einer Stichprobe in eine Normalverteilung über, unabhängig von der zugrunde A liegenden Verteilung der Grundgesamtheit: X̄ ∼ N (µ, σ 2 /n). Die Grenzverteilung eines Schätzers ist also die Verteilung, gegen die die Verteilung eines Schätzers strebt, wenn man den Stichprobenumfang erhöht. Im Falle des Mittelwertes strebt X̄ sogar gegen den festen Wert µ, da σ 2 /n gegen Null geht, wenn n → ∞. Die Grenzverteilung kollabiert also in einen einzigen Wert. Dazu sagt man: X̄ hat den Wahrscheinlichkeitslimes µ, plim(X̄) = µ (X̄ converges in probability to µ) (siehe Abbildung A.8). Abbildung A.7: Grenzverteilung f (θ̂) à n=100 à 6 » n=25 » n=10 ´ ´ - θ̂ A.3.2.1 Asymptotische Unverzerrtheit Ein Schätzer θ̂ ist dann asymptotisch unverzerrt, wenn E(θ̂) → θ, wenn n → ∞, wenn also der Erwartungswert des Schätzers mit steigender Stichprobe gegen den wahren Parameter konvergiert. Der Bias geht also gegen Null (siehe Abbildung A.9). A.3. SCHÄTZEREIGENSCHAFTEN UND SCHÄTZMETHODEN 195 Abbildung A.8: Wahrscheinlichkeitslimes f (X̄) 6 à n=10000 à à n=5000 à » n=1000 » ´ ´ µ n=100 - X̄ Abbildung A.9: Asymptotische Unverzerrtheit f (θ̂) n=1000 6 n=10X X A »» n=5000 θ - θ̂ A.3.2.2 Konsistenz Ein Schätzer θ̂ des Parameters θ ist konsistent, wenn plim(θ̂) = θ. Um konsistent zu sein, muÿ also die Verteilung eines Schätzers in den wahren Parameter kollabieren. Anders formuliert, muÿ mit steigendem Stichprobenumfang der Bias und die Varianz eines Schätzers gegen Null gehen. Wenn in Abbildung A.10 der wahre Parameter θ0 ist, dann ist der Schätzer θ̂ inkonsistent, weil plim(θ̂) = θ 6= θ0 . A.3.2.3 Asymptotische Ezienz Ein Schätzer ist asymptotisch ezient, wenn er konsistent ist und kein anderer Schätzer eine kleinere asymptotische Varianz besitzt. Die Verteilung eines ezienten Schätzers konvergiert am schnellsten gegen den wahren Parameter. 196 ANHANG A. KLASSISCHE ÖKONOMETRIE Abbildung A.10: Konsistenz f (θ̂) 6 n=1000 n=5000 n=10 θ θ0 - θ̂ A.3.3 Schätzmethoden A.3.3.1 Kleinste Quadrate Methode Diese wurde schon oben für den Fall einer Regressionsgleichung dargestellt. Es läÿt sich mit dieser Methode z.B. auch ein Schätzer für den Erwartungswert einer Grundgesamtheit ableiten, der einfach der Mittelwert der Stichprobe ist. A.3.3.2 Maximum Likelihood (ML) Methode Diese Schätzmethode ist nicht wichtig für das Verständnis des weiteren Teiles des Skriptes und dient nur Interessierten. Die Idee der ML-Schätzer ist sehr intuitiv. Ein ML-Schätzer wählt den Parameter der Verteilung, der die Eintrittswahrscheinlichkeit der Stichprobe maximiert. MLSchätzer sind unter sehr allgemeinen Bedingungen konsistet und ezient; small sample Eigenschaften sind jedoch nicht generell postulierbar. ML-Schätzer sind nur verfügbar, wenn eine Annahme über die funktionale Form der Verteilung in der Grundgesamtheit getroen werden kann. Wenn Yi = α + βXi + ²i und Yi ∼ N(α + βXi , Var(²i ) = σ 2 ), dann hat jedes Yi entsprechend der Normalverteilung die Eintrittswahrscheinlichkeit [Yi −E(Yi )]2 1 P(Yi ) = √ e− 2σ2 . 2πσ 2 Die (später vorgestellten) Annahmen unkorrelierte und normalverteilte ²i (IIC und IID) implizieren ihre Unabhängigkeit. Somit läÿt sich die Likelihoodfunktion L unter der Annahme einer parametrischen Verteilung (hier Normalverteilung) als gemeinsame Wahrscheinlichkeit der Stichprobe formulieren: L = P(Y1 ) . . . P(Yn ) = n Y i=1 P(Yi ). A.4. ANNAHMEN IM MULTIPLEN KQ-MODELL 197 Maximiert wird üblicherweise der Logarithmus der Likelihoodfunktion l, die Loglikelihood, da sich so eine Summe ergibt, die sich leichter als ein Produkt ableiten läÿt. X n n 1 X l = ln L = ln[P(Yi )] = − ln(2π) − ln(σ 2 ) − 2 [Yi − E(Yi )]2 (A.5) 2 2 2σ Die gesuchten Parameter der Verteilung N(α + βXi , σ 2 ) sind α, β, σ 2 . Der nächste Schritt, um Gleichung (A.5) zu maximieren, wäre die Dierenzierung der Loglikelihood nach den Parametern, woraus sich dann die Schätzer ergeben. Die Maximierung von P (A.5) nach α̃, β̃ ist gleichbedeutend mit der Minimierung von P 2 [Yi − E(Yi )] = [Yi − α̃ − β̃Xi ]2 . Und das ist genau der Ansatz für den oben abgeleiteten KQ-Schätzer bei normalverteilten Störtermen (Gleichung (A.3) und (A.4)). Der KQ-Schätzer für α, β ist alsoP auch ein ML-Schätzer (α̃ = α̂, β̃ = β̂ ). 2 Als Schätzer für σ 2 ergibt sich σ˜2 = ne . Die Maximierung von Likelihoodfunktionen ist nicht immer so einfach wie im vorliegenden Fall, wo die ersten Ableitungen einfach gebildet werden konnten. Es kommen dann rechenintensive numerische Algorithmen (z.B. Newton-Verfahren) zum Einsatz, die mit heute verfügbaren Computern schnell zu den gesuchten Schätzern führen. A.4 Annahmen im multiplen KQ-Modell Um die gewünschten Eigenschaften von KQ-Schätzern zu erhalten, sind einige Annahmen nötig. Kritik an ökonometrischen Schätzungen setzt dementsprechend an diesen Annahmen an. In der Ökonometrie wurden viele Tests entwickelt, die prüfen, ob diese Annahmen erfüllt sind, so daÿ die gewünschten Eigenschaften von Schätzern tatsächlich vorliegen. Wenn die Annahmen verletzt sind, können spezielle Schätzverfahren verwendet werden, die trotzdem die gewünschten Eigenschaften sicherstellen. Nachdem die Annahmen vorgestellt werden, soll nach einer einheitlichen Struktur vorgegangen werden. Die Annahmen bilden die Gliederung. Es wird dann das Problem dargestellt, das eintritt, wenn die Annahme nicht erfüllt ist. Danach werden Tests zur Aufdeckung der Annahmeverletzung erklärt. Und anschlieÿend werden Methoden zur Lösung des Problems erläutert. Zunächst sollen die OLS-Schätzer im multiplen Modell abgeleitet werden. Ausgangspunkt ist die Gleichung Yi = β1 1 + β2 X2i + · · · + βk Xki + ²i . In Querschnittsanalysen bezeichnen die i die einzelnen Beobachtungseinheiten. In einer Zeitreihenanalyse würde man die i durch t ersetzen und damit die Beobachtungszeitpunkte bezeichnen. Die Xki sind k erklärende Variablen, X1i = 1 ist die Konstante. In Matrixschreibweise läÿt sich das Modell kompakter schreiben: Y = Xβ + ² 198 mit ANHANG A. KLASSISCHE ÖKONOMETRIE Y = Y1 Y2 Y3 .. . , X = Yn 1 X21 1 X22 1 X23 .. .. . . 1 X2n X31 . . . X32 . . . X33 . . . .. . Xk1 Xk2 Xk3 .. . , β = X3n . . . Xkn β1 β2 β3 .. . , ² = βk ²1 ²2 ²3 .. . . ²n Die fett gekennzeichneten Symbole sind Matrizen und Vektoren. Aus den Residuen e und deren summierten Quadraten e0 e ergibt sich die Ableitung der OLS-Schätzer min S = e0 e = (Y − X β̂)0 (Y − X β̂) β̂ = (Y 0 − β̂ 0 X 0 )(Y − X β̂) = Y 0 Y − β̂ 0 X 0 Y − Y 0 X β̂ + β̂ 0 X 0 X β̂ = Y 0 Y − 2β̂ 0 X 0 Y + β̂ 0 X 0 X β̂. (β̂ 0 X 0 Y ) = (β̂ 0 X 0 Y )0 = Y 0 X β̂ , da die transponierte eines Skalars ein Skalar 1×k k×n n×1 ist. Erste Dierenzierung (nach den Regeln ∂x0 Ax/∂x = 2Ax, bei symmetrischem A; ∂a0 x/∂x = ∂x0 a/∂x = a) ergibt: ∂S ∂ β̂ = −2X 0 Y + 2X 0 X β̂ = 0. Daraus berechnet sich der OLS-Schätzer β̂ = (X 0 X)−1 X 0 Y . Dieser Ausdruck ist die Matrizenversion von Gleichung (A.3) auf Seite 189. Dort werden die Abweichungen zum Mittelwert verwendet, weil für α ein gesonderter Schätzer berechnet wird. In der Matrizenversion wird der Schätzer für die Konstante gleich mitberechnet, denn er ist eine Linearkombination der Stichprobenmittelwerte (Gleichung (A.4)) und deshalb sehr ezient durch Matrizen darstellbar. Das OLS-Modell wurde in der Physik für die Anwendung in Laborexperimenten entwickelt, wobei als Experiment der Wert der erklärenden Variablen X gewählt wird (Annahme IA). Insgesamt ergeben sich die folgenden Annahmen (im Falle einer einzigen erklärenden Variable): (physikalische) Annahmen über die erklärende Variable X : A.4. ANNAHMEN IM MULTIPLEN KQ-MODELL 199 (IA) nicht-stochastisch; (IB) xierte Werte in wiederholten P Samples; P 2 (IC) für n → ∞ strebt die Varianz (Xi − X̄)2 /n = xi /n → Q, wobei Q eine endliche Konstante ist. Die Annahmen IA und IB machen in der ökonomischen Anwendung der Regressionsanalyse selten Sinn. Es gibt erst in dem recht neuen Gebiet des experimental economics Experimente, in denen die erklärende Variable auf einen bestimmten Wert xiert werden kann. Deshalb werden diese Annahmen für ökonomische Anwendungen abgeändert (nun für den Fall mit mehreren erklärenden Variablen): (ökonomische) Annahmen über die erklärenden Variablen X k (IA') stochastisch; (IB') unabhängig von allen ²i ; P (IC') Varianzen, für die gilt: plim x2ki /n = Qk = konstant < ∞; (ID') alle sind linear unabhängig: ∃ (X 0 X)−1 ⇔ |X 0 X| 6= 0. Annahmen über die Störterme ² (IIA) E(²i ) = 0 ∀ i; (IIB) Var(²i ) = E(²i − E(²i ))2 = E(²2i ) = σ 2 = konstant ∀ i; (IIC) Cov(²i , ²j ) = E(²i − E(²i ))(²j − E(²j )) = E(²i ²j ) = 0 ∀ i 6= j ; (IID) jedes ²i ist normalverteilt. Welche Annahmen sichern die small- und large-sample Eigenschaften des OLSSchätzers? Linearität Unverzerrtheit Konsistenz Best linear unbiased Best unbiased Normalität IA, IB IA, IB, IIA IA-IC, IIA IA-IC, IIA-IIC IA-IC, IIA-IID IID Das waren die Implikationen der (physikalischen) Annahmen IA-IC. Die (ökonomischen) Annahmen IA'-IC' haben jedoch keine schwerwiegenden nachteiligen Auswirkungen auf die Güteeigenschaften. OLS-Schätzer bleiben unverzerrt, sind aber nicht mehr linear, also auch nicht mehr best linear unbiased. Sie sind auch ezient, haben also die kleinste Varianz aller unverzerrten Schätzer. Sie behalten auch die large-sample Eigenschaften Konsistenz und asymptotische Ezienz. 200 ANHANG A. KLASSISCHE ÖKONOMETRIE A.5 Allgemeine Tests A.5.0.0.1 Signikanz der Koezienten Mit Annahme IID wissen wir, daÿ die Schätzer normalverteilt sind und sich ihre Verteilung standardisieren läÿt: β̂ − β ∼ N(0, 1). σβ̂ Wird die unbekannte Standardabweichung des Schätzers σβ̂ durch seinen unverzerrten Schätzer ersetzt, ergibt sich für die OLS-Schätzer eine Student-t-Verteilung mit n − k Freiheitsgraden. Der wichtigste Test prüft, ob eine erklärende Variable einen signikanten Einuÿ auf die erklärte Variable hat. Die Frage ist also, ob der Koezient der erklärenden Variable signikant von Null verschieden ist. Die Darstellung von Regressionsergebnissen sieht üblicherweise folgendermaÿen aus: Y = 1.2 + 0.6 X. (0.5) (0.25) Die Werte unter der Klammern bezeichnen den Standardfehler der erklärenden Variable. Formuliert man die Nullhypothese H0 : β = 0 und die Alternativhypothese H1 : β > 0 (einseitiger Test; zweiseitig bei H1 : β 6= 0) ergibt sich die Teststatistik (t-Wert) als 0.6−0 = 2.4, die unter der Nullhypothese t-verteilt 0.25 ist. Man kann dann einen kritischen Wert in einer Tabelle nachschlagen. Für n − k = 30 ergibt sich bei einem Signikanzniveau von 5% ein kritischer Wert von 1.697. Somit kann man sagen, daÿ β signikant von Null verschieden ist, da der t-Wert = 2.4 > 1.697. Oft wird in den Klammern unter den Koezienten direkt der t-Wert ausgewiesen. Als Daumenregel gilt, daÿ ein t-Wert über zwei Signikanz einer Variablen anzeigt. Ein weiterer Begri ist der p-Wert (p-Value). Er zeigt direkt das Signikanzniveau an. Der p-value ist die Wahrscheinlichkeit, einen t-Wert, wie man ihn ausgerechnet hat oder gröÿer, unter der Nullhypothese zu erhalten. Er zeigt somit auch den Fehler I. Art an, also die Wahrscheinlichkeit eine richtige Nullhypothese fälschlicherweise abzulehnen. Für ein Signikanzniveau von 5% muÿ der p-value unter 5% liegen. Wenn also die Nullhypothese gilt β = 0 (dazu sagt man auch einfach unter der Nullhypothese) und wir einen t-Wert berechnen, der nur mit einer Wahrscheinlichkeit von z.B. 1% eintritt, zweifeln wir an der Nullhypothese und sagen, daÿ β signikant von Null verschieden ist. A.5.0.0.2 Jarque-Bera-Test Die Annahme IID besagt, daÿ die Störterme normalverteilt sind. Diese Annahme wird bei t-Tests und F-Tests verwendet, um die Verteilung der Schätzer zu erhalten und damit Inferenz über die Regressionsparameter zu betreiben. Für groÿe Stichproben wird die Normalität der Schätzer A.5. ALLGEMEINE TESTS 201 nicht benötigt, da hier eine Variation des zentralen Grenzwertsatzes zur Anwendung kommt. Wenn diese Inferenzaussagen jedoch auch in kleinen Stichproben gelten sollen, dann müssen die Störterme normalverteilt sein. A.5.0.0.3 Lineare Restriktionen der Parameter Ein ähnlicher Test wie der t-Test ist der F-Test. Er heiÿt so, weil die Teststatistik F-verteilt ist. Dieser Test prüft, ob mehrere Variablen gleichzeitig von Null verschieden sind, z.B. H0 : β1 = β2 = 0. Das ist ein Spezialfall einer allgemeinen linearen Restriktion der Parameter. Mit einem solchen allgemeinen F-Test lassen sich alle möglichen linearen Restriktionen der Parameter testen. Z.B. läÿt sich die Frage stellen, ob P β1 + β2 = 0 oder allgemein ai βi = c ist. Die allgemeine Vorgehensweise ist die, daÿ man einerseits die unrestringierte und andererseits die restringierte Gleichung schätzt. Die restringierte Gleichung ergibt sich, indem man die zu testenden Parameterrestringtionen in die unrestringierte Gleichung einsetzt. Testet man z.B. in der unrestringierten Gleichung Y = α+β1 X1 +β2 X2 die Hypothese β1 +β2 = 1, lautet die restringierte Gleichung Y = α + β1 X1 + (1 − β1 )X2 , woraus sich die restringierte Schätzgleichung Y − X2 = α + β1 (X1 − X2 ) ergibt. Schätzt man diese und die unrestringierte Gleichung, ergibt sich aus den Residuen dieser beider Schätzungen eine Teststatistik, die die Frage beantworten kann, ob man davon ausgehen kann, daÿ die Restriktion gilt. Ein häug angegebener Wert ist der sogenannte F-Wert. Das ist die Teststatistik für die Nullhypothese, daÿ die Koezienten aller erklärenden Variablen Null sind. A.5.0.0.4 Nichtlineare Restriktionen der Parameter Es lassen sich auch nichtlineare Restriktionen der Parameter testen (z.B. β1 β2 = 1). Da hierfür meistens nichtlineare Gleichungen geschätzt werden müssen, basieren diese Tests auf Maximum-Likelihood-Verfahren. Die Tests hierfür sind Likelihood-Ratio-, Waldund Lagrange-Multiplier-Test. Sie unterscheiden sich im wesentlichen dadurch, ob die restringierte, unrestringierte oder beide Gleichungen geschätzt werden müssen. Je nachdem, welche dieser Gleichungen einfacher formuliert werden kann, verwendet man dann den entsprechenden Test. A.5.0.0.5 Chowtest für Parameterstabilität Die oben dargestellten Methoden, die Dummyvariablen zu verwenden (für den Achsenabschnitt und die Steigungskoezienten), lassen sich auch nutzen, um Parameterstabilität zu testen. Es gibt a priori keinen Grund anzunehmen, daÿ sich geschätzte Parameter im Zeitablauf nicht ändern. Insbesondere sagt die Lukascritique voraus, daÿ sich bei einer veränderten Politik das Verhalten der Wirtschaftssubjekte und damit die Parameter eines Modells ändern werden. Will man zwei Zeiträume vergleichen und die Frage beantworten, ob sich zwischen diesen Zeiträumen die Parameter 202 ANHANG A. KLASSISCHE ÖKONOMETRIE verändert haben, deniert man eine Dummyvariable D, die für einen Zeitraum den Wert 1 und für den anderen den Wert 0 annimmt. Die Idee des Tests läÿt sich an einer Gleichung am besten verdeutlichen. Man schätzt eine Gleichung über den gesamten Zeitraum in der Form Y = β1 + α1 D + β2 X2 + α2 X2 D + β3 X3 + α3 X3 D + ² = (β1 + α1 )D + (β2 X2 + α2 )X2 + (β3 X3 + α3 )X3 + ² (A.6) Wenn die Koezienten α1 , α2 , α3 gemeinsam signikant von Null verschieden sind (F-Test), zeigt das, daÿ die Parameter β1 , β2 , β3 zwischen den beiden Zeiträumen nicht stabil, ungleich sind αi 6= αi + βi bei αi 6= 0 . Das tatsächliche Schätzverfahren weicht von dieser intuitiven Darstellung ab, ist aber genau äquivalent dazu. Es wird die Gleichung ohne Dummies für beide Zeiträume separat geschätzt und aus den Residuen eine Teststatistik berechnet. Ein Problem mit diesem Test entsteht, wenn einer der beiden Zeiträume so kurz ist, daÿ keine Gleichung geschätzt werden kann. In diesem Fall wird eine Variation des Parameterstabilitätstests verwendet, der Chow test for predictive failure. Die zugrunde liegende Idee ist, daÿ die Vorhersagen Ŷ einer Schätzung bei Parameterstabilität nicht allzuweit von den tatsächlich beobachteten Werten Y abweichen dürfen. Wenn z.B. einer der beiden Zeiträume 70-98 und der andere 99-00 ist, wird die Gleichung für den ersten Zeitraum geschätzt und mit den erhaltenen Schätzern eine Vorhersage für den Zeitraum 99-00 gemacht. Die Abweichung dieser Vorhergesagten von den tatsächlichen Werten geht in eine Teststatistik ein, die die Frage nach der Parameterstabilität beantworten kann. Ein weiteres Problem besteht darin, daÿ vor jeder Schätzung ein Zeitpunkt für die Parameteränderung festgelegt werden muÿ. Weiterführende Modelle nehmen nur die Anzahl der Zustände des Parameters an. In Gleichung (A.6) hat βi zwei Zustände. A.6 Annahmendiskussion A.6.1 Annahme IB: Unabhängigkeit zwischen Störterm und Erklärenden Die Verletzung der Annahme der Unabhängigkeit zwischen dem Störterm und den Erklärenden ist in der Grak A.11 zu sehen. Die durchgezogene Linie zeigt einen hypothetischen (wahren) Zusammenhang zwischen X und Y . Zu sehen ist eine positive Korrelation zwischen X und den Störtermen, je gröÿer X , desto gröÿer die Störterme. A.6. ANNAHMENDISKUSSION 203 Abbildung A.11: Abhängigkeit zwischen Erklärenden und Störterm r Y 6 r r Ŷ = α̂ + β̂X rr r rÃr E(Y ) = α + βX r Ãà r à r rr Ãà à r à à r à rà r à r r r r r r - X A.6.1.0.1 Problem Die OLS-Schätzung in Form der gestrichelten Linie wür- de mit β̂ das wahre β überschätzen und α unterschätzen. Das ist im kleinen Sample der Fall und ändert sich auch nicht mit der Gröÿe des Samples, d.h. die Verzerrung im kleinen Sample kann nicht durch Erhöhung des Stichprobenumfanges behoben werden. Der Schätzer ist also auch inkonsistent. In Zeitreihenuntersuchungen läÿt sich ein weiterer Fall anführen: Bei Yt = α + βYt−1 + ²t (A.7) liegt eine Regression mit einer verzögerten (gelaggten von lag) endogenen Variable vor. Schreibt man diese Gleichung um einen Zeitpunkt nach hinten versetzt, wird klar, daÿ Yt−1 von ²t−1 abhängt. Somit ist die Erklärende Yt−1 in Gleichung (A.7) nicht von allen ²t unabhängig. Dieser Fall nennt sich contemporaneously uncorrelated. Es ergeben sich insgesamt drei Fälle: 1. Unabhängigkeit der erklärenden Variablen X und ²: OLS-Schätzer sind unverzerrt und konsistent; 2. Contemporaneously uncorrelated (siehe Beispiel in Gleichung (A.7)): OLSSchätzer sind verzerrt, aber zumindest konsistent; 3. Contemporaneously correlated: OLS-Schätzer sind verzerrt und inkonsistent. Wenn, wie es in Zeitreihenuntersuchungen häug der Fall ist, verzögerte Variablen als Erklärende verwendet werden und Autokorrelation in den Residuen auftritt, dann liegt sogar Fall 3 vor, da in Gleichung (A.7) Yt−1 von ²t−1 abhängt und über die Autokorrelation (Cov(²t , ²t−1 ) 6= 0) auch mit ²t korreliert ist. 204 ANHANG A. KLASSISCHE ÖKONOMETRIE Das sogenannte Simultanitäts- oder Endogenitätsproblem führt ebenfalls zur Verletzung der Annahme IB. Das ökonomische Problem ist, daÿ man mit einer Regressionsgleichung eine Kausalitätsrichtung unterstellt: X wirkt auf Y . Es kann aber sein, daÿ sich die andere Wirkungsrichtung ebenfalls begründen läÿt, was oft der Fall ist, da in einer Ökonomie letztendlich alle Variablen von allen Variablen abhängen, somit endogen sind. Beide Wirkungsrichtungen liegen dann simultan vor (daher der Name dieses Problems). Zur Illustration wird ein einfaches Makromodell des Konsums (A.8) mit einer Identität des nationalen Einkommens (A.9) herangezogen: C = α + βY + u Y ≡ C +S (A.8) (A.9) Geschätzt werden soll die Gleichung (A.8) mit dem Störterm u. Gleichung (A.9) ist nicht Teil der Schätzung, gilt aber simultan zur Gleichung (A.8). Löst man dieses System auf, ergibt sich für Y : Y = α+S+u , 1−β woraus deutlich wird, daÿ Y von u abhängt und in Gleichung (A.8) somit der Fall der contemporaneous correlation vorliegt. A.6.1.0.2 Test Der Hausman-Test wird heute als ein allgemeiner Test von Fehlspezikation angesehen, in manchen Lehrbüchern aber auch explizit zur Aufdeckung von contemporaneous correlation aufgeführt. Die Idee des Testes ist, daÿ bei Korrelation zwischen einer erklärenden Variable und dem Störterm ein OLS-Schätzer inkonsistent und ein Instrumentenschätzer (siehe unten: Lösung) konsistent ist. Ohne contemporaneous correlation sind beide Schätzer konsistent. Deshalb sollten die beiden Schätzungen (OLS und Instrumentenschätzung) nicht allzu groÿe Unterschiede für die Parameterwerte liefern. Die Umsetzung erfolgt ganz ähnlich dem zweistugen Verfahren der Instrumentenschätzung, nur daÿ diesmal auf der zweiten Stufe auch die erklärenden Variablen selbst, zusammen mit ihren vorhergesagten Werten aus der ersten Stufe der Instrumentenschätzung (Instrumentvariablen), als erklärende Variablen verwendet werden. Eine gemeinsame (F-Test) oder einzelne (t-Test) Signikanz der Koezienten der Instrumentvariablen zeigt contemporaneous correlation bzw. allgemeine Fehlspezikation an. A.6.1.0.3 Lösung Das Problem der contemporaneous correlation kann mit einer Instrumentenschätzung gelöst werden. Diese Methode geht in zwei Stufen vor (Zwei-Stufen-Schätzung, 2SLS = two stage least squares). Wenn Xi mit ²i A.6. ANNAHMENDISKUSSION 205 korreliert ist, benötigt man ein Instrument Zi , das mit ²i unkorreliert, aber möglichst hoch mit Xi korreliert ist. Auf der ersten Stufe wird X auf Z regressiert: X̂ = γ̂ + δ̂Z . Die Vorhersagewerte X̂ (Instrumentvariablen) verwendet man dann in der ursprünglichen Gleichung anstatt der X . Die daraus berechneten Schätzer sind zumindest konsistent. Das Problem bei der Instrumentenschätzung besteht darin, geeignete Instrumente zu nden. Häug wird Xt−1 als Instrument für Xt verwendet (X̂t = α̂0 + β̂ 0 Xt−1 auf der ersten, Y = α + β X̂ auf der zweiten Stufe). Eine noch bessere Lösung des Problem besteht darin, die verschiedenen Wirkungsrichtungen in sogenannten simultanen (wegen der gleichzeitigen Wirkungsbeziehungen zwischen den Variablen) Mehrgleichungssystemen zu schätzen. Dabei wird das gesamte unterstellte Gleichungssystem geschätzt. A.6.2 Annahme ID: Linear unabhängige Erklärende Ist eine der erklärenden Variablen eine Linearkombination der anderen Variablen, liegt perfekte Multikollinearität vor und es lassen sich keine OLS-Schätzer ((X 0 X)−1 X 0 Y ) berechnen, da X 0 X nicht invertierbar ist. Aber auch die abgeschwächte Version von Multikollinearität, nämlich hohe Korrelation zwischen Variablen, kann zu Problemen führen. Dabei ist zwischen einfacher Korrelation zwischen zwei Variablen und Linearkombinationen zwischen mehreren Variablen zu unterscheiden. Erstere ist einfach zu entdecken, letztere recht schwierig. Zwar verletzt nicht perfekte Multikollinearität keine der Annahmen, die OLS-Schätzer behalten also alle ihre gewünschten Eigenschaften, aber bei hoher Korrelation zweier Variablen können die Standardfehler (=Wurzel aus der Varianz) der Schätzer sehr hoch werden. Die Schätzung wäre somit ungenau, und kleine Änderungen in den Daten führten zu starken Schwankungen in der Höhe der Schätzer. Daraus ergeben sich niedrige t-Werte, weil in deren Nenner der Standardfehler des Schätzers steht. Ein Hinweis auf Multikollinearität zwischen zwei Variablen sind signikante Koezienten, wenn die Variablen jeweils einzeln in einer Schätzung verwendet werden, aber Insignikanz beider, wenn sie zusammen in eine Gleichung aufgenommen werden. Ein ähnlicher Sachverhalt liegt vor, wenn beide Variablen einzeln insignikant sind, aber ein F-Test gleichzeitige Signikanz anzeigt. Multikollinearität kann man sich auch so vorstellen, daÿ eine Schätzung nicht in der Lage ist, den gemeinsamen Eekt der Variablen ihnen einzeln zuzuordnen. Das Problem der perfekten Multikollinearität tritt auch auf, wenn man Dummyvariablen falsch verwendet. Deniert man z.B. vier Zeitreihendummies D1−4 für Frühling, Sommer, Herbst und Winter und fügt aller vier zusammen mit der Konstanten α in die Regressionsgleichung, ergibt sich perfekte Multikollinearität, da die Variable von α (eine Spalte von Einsen) eine Linearkombination der Dum- 206 ANHANG A. KLASSISCHE ÖKONOMETRIE mies ist (D1 +D2 +D3 +D4 ). Die Lösung ist entweder die Konstante oder eine der Dummyvariablen herauszulassen. Allerdings ist die Interpretation der Parameter in beiden Fällen unterschiedlich. Fügt man alle Dummyvariablen in die Gleichung ein, dann schätzt jeder Parameter eines Dummies den absoluten saisonalen Achsenabschnitt. Fügt man die Konstante mit drei Dummies, z.B. ohne Frühling, ein, ist die Konstante der Achsenabschnitt der Referenzperiode Frühling. Die Koezienten der drei anderen Dummies zeigen den Unterschied des Sommer-, Herbstund Winterachsenabschnitts im Vergleich zum Frühlingsachsenabschnitt an. A.6.2.0.1 Problem Perfekte Multikollinearität führt dazu, daÿ keine OLSSchätzer existieren. Nicht perfekte Multikollinearität führt zu Schätzern mit hohen Standardfehlern, also zu ungenauen Schätzern. A.6.2.0.2 Test Das Problem der Multikollinearität ist, daÿ es keine Eigen- schaft der Grundgesamtheit ist, die normalerweise Gegenstand statistischer Test sind, sondern eine Eigenschaft der Stichprobe. Eine Möglichkeit Multikollinearität aufzudecken besteht darin, die verdächtige Variable (die möglicherweise eine Linearkombination aus anderen Variablen ist) durch die anderen Variablen in einer OLS-Schätzung zu erklären. Ein hohes R2 deutet dann auf einen hohen Grad an Multikollinearität hin. A.6.2.0.3 Lösung Neben einigen speziellen Schätzverfahren, die alle auch Nachteile haben, läÿt sich das Problem der Multikollinearität kaum anders lösen, als die betreenden Variablen aus der Regression herauszulassen. A.6.3 Annahme IIB: Homoskedastie Störterme mit konstanter Varianz (Var(²i ) = σ 2 ) werden homoskedastische Störterme genannt. Sind die Varianzen nicht konstant (Var(²i ) = σi2 ), liegt Heteroskedastie vor. In einer Haushaltsquerschnittsanalyse, wo der Konsum durch Einkommen erklärt wird, ist es z.B. plausibel, daÿ die Varianz der Störterme mit dem Einkommen steigt. Die ökonomische Begründung dazu lautet: Haushalte mit kleinen Einkommen können nicht sehr stark von ihrem erwarteten Konsumniveau (Regressionslinie der Grundgesamtheit) abweichen, ohne unter das Subsistenzniveau zu fallen. Einer solchen Beschränkung unterliegen Haushalte mit hohem Einkommen nicht, weshalb ihr Konsum deutlich vom erwarteten Konsum abweichen kann. Beides zusammen ergibt die Begründung dafür, daÿ Haushalte mit hohem Einkommen höhere Störterme aufweisen als Haushalte mit niedrigem Einkommen. A.6. ANNAHMENDISKUSSION 207 A.6.3.0.1 Problem Der OLS-Schätzer ist bei Heteroskedastie linear, unver- zerrt und konsistent. Jedoch ist der Schätzer des Standardfehlers des Schätzers nicht unverzerrt, so daÿ die t-Tests zu falschen Schlüssen führen können. Auÿerdem sind die OLS-Schätzer nicht mehr best linear unbiased, d.h. es gibt Schätzer mit einer niedrigeren Varianz. A.6.3.0.2 Tests Die einfachste Methode heteroskedastische Störterme zu entdecken besteht darin, die quadrierten Residuen zu betrachten, die die Schätzer der Varianz der Störterme sind. Diese quadrierten Residuen können im Zeitablauf betrachtet oder gegen eine der erklärenden Variablen geplottet werden. Wenn ein funktionaler Verlauf der quadrierten Residuen sichtbar ist, kann man Heteroskedastie vermuten und einen richtigen statistischen Test machen. Der White-Test prüft, ob die Varianz der Störterme von einer Variable X beeinuÿt wird. Dazu werden die quadrierten Residuen e2 = (Y − Ŷ )2 durch die verdächtige Variable in einer OLS-Schätzung erklärt: e2 = γ1 + γ2 X + γ3 X 2 . Sind die Koeezienten γ2 , γ3 nicht von Null verschieden, liegt Homoskedastie vor, sonst Heteroskedastie. Die quadrierte Variable X 2 erlaubt auch eine nichtlineare Abhängigkeit der Varianz der Störterme von X . In multiplen Regressionen können analog die quadrierten Residuen durch alle Variablen, deren Quadrate und ihrer Kreuzprodukte erklärt werden. Signikante Parameter zeigen Heteroskedastie an. Der Vorgehensweise des Langrange-Multiplier-Tests ähnelt dem des White-Test. Wieder werden die quadrierten Residuen in einer zweiten Schätzung durch Variablen erklärt. Nur diesmal sind es nicht die erklärenden Variablen der ersten Schätzung, sondern die quadrierten vorhergesagten Werte der abhängigen Variable aus der ersten Schätzung: e2 = γ1 + γ2 Ŷ 2 . Und wieder zeigt Signikanz vom γ2 Heteroskedastie an. A.6.3.0.3 Lösung Zu beachten ist, daÿ Heteroskedastietests Residuen ver- wenden, aber Heteroskedastie eine Eigenschaft der Störterme ist. Deshalb kann der Grund für heteroskedastische Residuen ein anderer sein als heteroskedastische Störterme. Wenn z.B. Yt = α + β1 Xt + ²t geschätzt wird, der wahre Zusammenhang, aber Yt = α + β1 X1t + β2 X2t + ut ist und X2t z.B. in der zweiten Hälte des Untersuchungszeitraum stärker schwankt, werden die Residuen aus der ersten Schätzung auf Heteroskedastie von ² hindeuten, obwohl die u tatsächlich homoskadastisch sein könnten. Nicht verwendete wichtige Variablen nennt man omitted variables. Das schlimmste Problem bei Heteroskedastie ist, daÿ die Standardfehler der Koezientenschätzer falsch geschätzt werden. Diese Standardfehler ergeben sich aus der Varianz der Störterme. Der sogenannte White-Schätzer verwendet als Schätzer für die Varianz der Störterme die quadrierten Residuen aus der Schätzung. Dieser White-Schätzer ist ein heteroskedastiekonsistenter Schätzer. 208 ANHANG A. KLASSISCHE ÖKONOMETRIE Die sich daraus ergebenden Standardfehler der Koezientenschätzer haben die large-sample Eigenschaft der Konsistenz. Somit sind die t-Tests der Koezienten zumindest in groÿen Stichproben gültig. A.6.4 Annahme IIC: Unkorrelierte Störterme Annahme IIC besagt, daÿ die Störterme nicht miteinander korreliert sein dürfen. Dazu sagt man auch, daÿ die Störterme keine Autokorrelation aufweisen. Am häugsten tritt dieses Problem bei Zeitreihenanalysen auf. Das ist z.B. dann der Fall bei sogenannten spill over Eekten aus einer, in die nächste Periode. Wenn z.B. ein Streik stattndet, der die erklärte Produktion in einer Periode unter den erwarteten Wert drückt und ein Fortgang des Streiks in der nächsten Periode immer noch wahrscheinlich ist, dann sind die beiden Störterme dieser Perioden korreliert (dazu darf der Streik keine erklärende Variable, sondern Teil der restlichen Variablen im Störterm sein, der die nicht als erklärende Variablen verwendeten Einüsse umfaÿt). Auch bei falscher funktionaler Form kann es zu Autokorrelation kommen. Wenn ein Zusammenhang, der einer quadratischen Funktion folgt, mit einer linearen Regression geschätzt wird, ergeben sich (wie in Abbildung A.12 zu sehen ist) Residuen, die zunächst eher negativ sind und dann eher positiv, was eine positive Korrelation zwischen aufeinanderfolgenden Residuen bedeutet. Abbildung A.12: Falsche funktionale Form 6 Y r rr r r ´ ´ r ´ r r´ ´ ´r rrr ´ r ´r ´r ´r r r r´ r r´ rrrr - X A.6.4.0.1 Problem Das Problem bei Autokorrelation ist dasselbe wie bei Heteroskedastie, zusätzlich liegt bei gelaggten Variablen eine contemporaneous A.6. ANNAHMENDISKUSSION 209 correlation vor (siehe Fall 3, Seite 203). A.6.4.0.2 Tests Autokorrelation ist eine Eigenschaft der Störterme. Betrach- ten wir die Residuen als deren Schätzer, ist es zur Aufdeckung von Autokorrelation in einer Zeitreihenanalyse sinnvoll, sich zunächst die Residuen im Zeitablauf anzuschauen. Folgen einander immer wieder Residuen mit gleichen Vorzeichen, deutet das auf Autokorrelation hin. Sind die Residuen hingegen gleichmäÿig um die Zeitachse gestreut, liegt wohl keine Autokorrelation vor. Mit diesem eyeballing lassen sich jedoch nur Autokorrelationen erster Ordung recht einfach sehen. Höhere Ordnungen sind kaum mehr auszumachen. Die Ordnung von Autokorrelation bezieht sich auf den Abstand von miteinander korrelierten Störtermen, Autokorrelation der Ordnung i ist deniert durch: Cov(²t , ²t−i ) 6= 0. Autokorrelation höherer Ordnung kann z.B. bei saisonalen Daten auftreten, wenn ein vorhandener Saisoneekt nicht modelliert wird, z.B. durch einen Saisondummy und somit die Residuen Autokorrelation der Ordnung zwölf bei Monatsdaten und vier bei Quartalsdaten aufweisen. Der Durbin-Watson-Test kann nur Autokorrelation erster Ordung aufdecken. Er wird heute jedoch eher als ein Spezikationstest für die funktionale Form angesehen. Der Durbin-Watson-Test hat den gewichtigen Nachteil, daÿ er eine Teststatistik besitzt, die für bestimmte Wertebereiche keine Entscheidung liefert. Der Test kann also zwischen der Null- und Alternativhypothese (Autokorrelation oder keine) unentschieden ausgehen. Als Daumenregel läÿt sich sagen, daÿ der DurbinWatson-Test keine Autokorrelation anzeigt, wenn die Teststatistik einen Wert von ca. zwei annimmt. Ein weiterer schwerwiegender Nachteil ist, daÿ die Teststatistik im Falle einer gelaggten endogenen Variablen als Erklärende zum Wert zwei verzerrt ist, also womöglich keine Autokorrelation zeigt, obwohl welche vorhanden ist. Deshalb ist er bei verzögerten endogenen Variablen nicht anwendbar. Der Lagrange-Multiplier-Test (Breusch-Godfrey-Test) kann Autokorrelation beliebiger Ordnung testen und gilt auch, wenn eine verzögerte Endogene als erklärende Variable verwendet wird. Die intuitive Vorgehensweise ist die folgende: Wird in der Gleichung Yt = α + βXt + ²t eine Autokorrelation von ²t bis zu einer Ordnung von z.B. drei vermutet, nimmt man die Residuen et dieser Schätzung und erklärt diese mit den Variablen aus der ersten Schätzung und mit drei verzögerten Residuen: et = α+βXt +ρ1 et−1 +ρ2 et−2 +ρ3 et−3 +ut . Sind die Koezienten ρ1−3 von Null verschieden (einzeln oder gemeinsam), liegt Autokorrelation vor. A.6.4.0.3 Lösung Wieder stellt sich das Problem, wie im Falle der Heteros- kedastie, daÿ Tests auf Basis der Residuen durchgeführt werden, aber auf eine Eigenschaft der Störterme geschlossen werden soll. Eine durch Tests ermittelte Autokorrelation hat als Ursache sehr oft eine Fehlspezikation (funktionale Form, 210 ANHANG A. KLASSISCHE ÖKONOMETRIE verwendete/herausgelassene Variablen,...) und eher seltener eine tatsächliche Autokorrelation der Störterme. Deshalb sollte vor einer Behebung einer Autokorrelation durch entsprechende Verfahren erst die Spezikation der Schätzung hinterfragt werden. Vorhandene Verfahren zur Behebung von Autokorrelation sind das Cochrane-Orcutt oder das Hildreth-Lu Verfahren. Es kann jedoch nicht oft genug betont werden, daÿ Autokorrelation sehr oft ein Problem von Fehlspezikation und nicht wirklicher Autokorrelation der Störterme ist. A.6.5 Annahme IC: Konstante Varianz der Erklärenden Die Annahme IC ist eine der kritischsten im Zusammenhang mit ökonomischen Daten. Zunächst soll kurz der Begri der Stationarität und Grad der Integration eingeführt werden. Nichtstationäre Variablen verletzen die Annahme IC. Eine Variable ist stationär, wenn gilt: E(Xt ) = konstant ∀t Var(Xt ) = konstant ∀t Cov(Xt , Xt+k ) = konstant ∀t und ∀k 6= 0, also dann, wenn ihr Erwartungwert, Varianz und Kovarianz über die Zeit konstant bleiben. Eine wachsende Variable verletzt oensichtlich schon die erste Bedingung des konstanten Erwartungswertes. Für das BSP des Jahres 1950 wurde ein anderer Wert erwartet als für das des Jahres 2050. Diese Eigenschaft der Nichtstationarität ist ein Merkmal vieler ökonomischer Variablen und ist deshalb sehr kritisch in der Ökonometrie. Eine überzeugende Lösung dieses Problems ist erst in den 80er Jahren gelungen, obwohl das Problem schon Anfang des 20. Jahrhunderts formuliert wurde. Der Grad der Integration ist gleich der Anzahl der notwendigen Dierenzierungen einer Zeitreihe (Wert abzüglich Wert der Vorperiode) bis sie stationär wird. Wohl kaum eine ökonomische Variable ist höher integriert als Grad 2 (I(2)), die überwiegende Anzahl lediglich I(1). A.6.5.0.1 Problem Bei nicht stationären erklärenden Variablen bricht die Konsistenz der Schätzer zusammen, die t-Teststatistiken folgen nicht mehr einer Verteilung mit einer Standardform. In einer Gleichung mit nichtstationären erklärenden Variablen ist meistens auch die erklärte Variable nichtstationär. Werden sie aufeinander regressiert werden, entsteht das als spurious regression bekannte Problem. Man erhält trotz fehlendem kausalem Zusammenhang signikante Koezienten und ein hohes R2 . Man kann sich das spurious regression Problem so vorstellen, daÿ man mit signikanten Koezienten lediglich den Zusammenhang zwischen den Trends erfaÿt. A.6. ANNAHMENDISKUSSION 211 A.6.5.0.2 Test Variablen, die einen Trend aufweisen, können oft mit dem bloÿen Auge erkannt werden. Die Testverfahren zur Aufdeckung nichtstationärer Zeitreihen sind recht kompliziert und sollen hier nicht aufgeführt werden. Es handelt sich hierbei um die sogenannten Unit-Root-Tests, wobei der übliche Test der (augmented) Dickey-Fuller-Test ist. A.6.5.0.3 Lösung Die früher übliche Lösung des Problems bestand darin, die erste Dierenz der verwendeten Zeitreihen zu bilden, also jeweils den Wert der Vorperiode abzuziehen: Yt = β0 + β1 Xt + ²t in ersten Dierenzen ausgedrückt lautet ∆Yt = β2 ∆Xt + ut mit ut = ²t − ²t−1 und ∆Yt ≡ Yt − Yt−1 . Dieses Verfahren hat einerseits das Problem, daÿ man sich damit (echte) Autokorrelation in den Störtermen einhandelt. Entweder, weil die Zeitreihe in den Niveaus nicht autokorrelierte Störterme aufweist und damit die Störterme nach der Dierenzierung autokorreliert sind (Cov(ut , ut−1 ) 6= 0), oder umgekehrt. Auÿerdem verliert man die Niveauinformation der Variablen. Die neue Lösung dieses Problem besteht darin, sogenannte Fehlerkorrektur-Modelle zu verwenden. Das sind (wie früher üblich) Gleichungen in den ersten Dierenzen, nun aber um den Fehlerkorrekturterm erweitert, wobei diese Fehlerkorrekturgleichung lediglich eine umparametrisierte Version der Niveaugleichung ist. Die obige Gleichung lautet als Fehlerkorrekturmodell ∆Yt = β2 ∆Xt + λ(Yt−1 − β0 − β1 Xt−1 ) + ²t . Damit diese Schätzung möglich ist, müssen alle Summanden I(0) sein. Dies ist für die ersten Dierenzen denitionsgemäÿ der Fall, wenn die Variablen selbst I(1) sind. Für den Fehlerkorrekturterm ist das der Fall, wenn die darin enthaltenen Variablen zusammen I(0) sind, wenn sie kointegriert sind. Dies ist der Fall, wenn die verwendeten Variablen den gleichen Integrationsgrad haben und eine Linearkombination aus ihnen um ein Grad niedriger integriert ist. Diese Linearkombination ist der Kointegrationsvektor (1, β0 , β1 ). Der Kointegrationvektor hat die ökonomische Interpretation, daÿ die Variablen langfristig entsprechend dieser Linearkombination miteinander verknüpft sind. Eine Abweichung davon wird von einer der Variablen durch eine entsprechende Bewegung ausgeglichen. Hier im Beispiel gleicht diese Abweichung annahmegemäÿ Y aus, da diese Variable auf der linken Seite der Fehlerkorrekturgleichung steht. Diese Annahme läÿt sich in Mehrgleichungsmodellen (mit dem Johansen-Schätzer) testen, wo jede der Variablen des Fehlerkorrekturterms einmal auf der linken Seite als erklärte Variable 212 ANHANG A. KLASSISCHE ÖKONOMETRIE auftaucht. Die erste Dierenz (die Änderung der erklärten Variable) hängt nicht mehr nur von den Änderungen der erklärenden Variablen ab, sondern auch von der Abweichung der Variablen vom langfristigen Gleichgewicht. Dieses Verfahren ist nicht mit dem Autokorrelationsproblem behaftet (die ursprüngliche Gleichung mit den nichtstationären Variablen kann ohne Änderung des Störtermes in die Fehlerkorrekturform überführt werden = umparametrisieren) und auch das Problem der nicht verwendeten Niveauinformation besteht nicht, da die Fehlerkorrekturterme in Niveaus formuliert sind. Wenn also früher einfach in den ersten Dierenzen geschätzt wurde und die Variablen kointegriert waren, dann hat man sich durch die Auslassung des Fehlerkorrekturtermes eine Fehlspezikation eingehandelt. Sind die Variablen nicht kointegriert, ist eine Schätzung in den ersten Dierenzen tatsächlich möglich (es gibt keinen Fehlkorrekturterm, der somit auch nicht fälschlicherweise weggelassen werden kann). Literaturverzeichnis Alesina, A. (1989): Politics and Business Cycles in Industrial Democracies, Economic Policy, 0, 5598. Barro, R. J., and D. B. Gordon (1983): A Positive Theory of Monetary Policy in a Natural Rate Model, Journal of Political Economy, 91, 589610. Buchanan, J. M., and G. Tullock (1962): The calculus of consent : logical foundations of constitutional democracy. Univiversity of Michigan Press, Ann Arbor. Downs, A. (1957): An economic theory of democracy. Harper, New York. Eucken, W. (1952): Grundsätze der Wirtschaftspolitik. Mohr, Tübingen. Frey, B. S., and G. Kirchgässner (1994): Demokratische Wirtschaftspolitik. Vahlen, München. Friedman, M. (1953): Essays in positive economics. University of Chicago Press, Chicago. Lipsey, R. G., and K. Lancaster (1956-1957): The General Theory of Second Best, The Review of Economic Studies, 24, 1132. Mueller, D. C. (1995): Public choice II. Cambridge Univiversity Press, Cam- bridge. Nordhaus, W. D. (1975): The political business cycle, The Review of Econo- mic Studies, 42, 169190. Olson, M. (1965): The logic of collective action. Harvard University Press, Cam- bridge, Massachusets. Popper, K. R. (1945): Die oene Gesellschaft und ihre Feinde. Francke, Tübin- gen. (1965): Das Elend des Historizismus. Mohr, Tübingen. 213 214 LITERATURVERZEICHNIS Thomas, R. L. (1997): Modern econometrics : an introduction. Addison-Wesley, Harlow. Tietzel, M. (1981): Die Rationalitätsannahme in den Wirtschaftswissenschaf- ten oder Der homo ÷konomicus und seine Verwandten, Jahrbuch für Sozialwissenschaftler, pp. 115138. Vaubel, R. (1993): Europa vor dem Eintritt in die Wirtschafts- und Währungs- union chap. Eine Public Choice Analyse der Deutschen Bundesbank und ihre Implikationen für die Europäische Währungsunion, pp. 2379. Berlin.