Public Choice - Universität Mannheim

Werbung
Public Choice
Positive ökonomische Theorie
demokratischer Wirtschaftspolitik
Mit einer Einführung in die Ökonometrie
Vorlesung: Prof. Dr. Roland Vaubel
Skript: Viktor Winschel
Universität Mannheim
Version: 18.05.2005
2
Inhaltsverzeichnis
I Public Choice
13
1 Denition
15
2 Ökonomische Theorie des Wählerverhaltens
17
2.1
Wahlbeteiligung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2.1.1
Erlös . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.1.1.1
Politikunterschiede . . . . . . . . . . . . . . . . .
18
2.1.1.2
Erwartete Knappheit des Wahlausgangs . . . . .
19
2.1.1.3
Erwartete Zahl der Stimmen . . . . . . . . . . . .
20
2.1.1.4
Politische Urteilskraft . . . . . . . . . . . . . . .
21
2.1.1.5
Pichtgefühl
. . . . . . . . . . . . . . . . . . . .
21
2.1.1.6
Sozialer Druck . . . . . . . . . . . . . . . . . . .
22
Kosten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.1.2.1
Frustration . . . . . . . . . . . . . . . . . . . . .
22
2.1.2.2
Transportkosten . . . . . . . . . . . . . . . . . .
22
2.1.2.3
Wahlsteuer . . . . . . . . . . . . . . . . . . . . .
22
2.1.2.4
Opportunitätskosten der Zeit . . . . . . . . . . .
23
2.1.2
2.2
Informationsverwertung
. . . . . . . . . . . . . . . . . . . . . . .
24
2.2.1
Informationsstand . . . . . . . . . . . . . . . . . . . . . . .
24
2.2.2
Informationsart . . . . . . . . . . . . . . . . . . . . . . . .
24
3
4
INHALTSVERZEICHNIS
2.2.3
Politischer Konjunkturzyklus
. . . . . . . . . . . . . . . .
25
2.2.3.1
Hypothese von Nordhaus
. . . . . . . . . . . . .
25
2.2.3.2
Popularitätsfunktionen . . . . . . . . . . . . . . .
27
2.2.3.3
Partisan Hypothese von Hibbs . . . . . . . . . . .
28
2.2.3.4
Rational Partisan Hypothese von Alesina . . . . .
29
2.2.3.5
Empirische Untersuchungen . . . . . . . . . . . .
29
2.2.3.6
Lösungsmöglichkeiten . . . . . . . . . . . . . . .
32
2.2.3.6.1
Geldpolitik . . . . . . . . . . . . . . . .
32
2.2.3.6.2
Finanzpolitik . . . . . . . . . . . . . . .
33
Langfristige Investitionsentscheidungen . . . . . .
33
2.2.4
Informationsverhalten der Wähler . . . . . . . . . . . . . .
33
2.2.5
Themenwahl . . . . . . . . . . . . . . . . . . . . . . . . . .
33
2.2.3.7
3 Ökonomische Theorie des Politikerverhaltens
35
3.1
Mehrheitsentscheidungen in einer repräsentativen Demokratie . .
35
3.2
Mehrheitsentscheidungen bei mehr als einer Alternative . . . . . .
37
3.3
Mehrheitsentscheidungen mit Alternativenpaketen . . . . . . . . .
39
3.4
Medianwählertheorem
. . . . . . . . . . . . . . . . . . . . . . . .
41
Enthaltungen . . . . . . . . . . . . . . . . . . . . . . . . .
44
3.4.1.1
Eingipige, symmetrische Präferenzverteilung . .
44
3.4.1.2
Eingipige, asymmetrische Präferenzverteilung
.
45
3.4.1.3
Zweigipige, symmetrische Präferenzverteilung
.
46
3.4.1.4
Gleichverteilte Präferenzen
. . . . . . . . . . . .
46
3.4.1.5
Fazit . . . . . . . . . . . . . . . . . . . . . . . . .
47
3.4.2
Parteibasis . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
3.4.3
Geldgeber . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
3.4.4
Unsicherheit und unvollkommene Information . . . . . . .
50
3.4.1
INHALTSVERZEICHNIS
5
3.4.5
Lockerung der 2er Annahmen . . . . . . . . . . . . . . . .
51
3.4.6
Anwendung auf staatliche Umverteilung . . . . . . . . . .
51
3.5
Agenda setter . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
3.6
Politische Tauschgeschäfte . . . . . . . . . . . . . . . . . . . . . .
59
3.7
Wählersteuer . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
4 Ökonomische Theorie der Bürokratie
4.1
69
Formale Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
4.1.1
Niskanen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
4.1.2
Migué/Bélanger . . . . . . . . . . . . . . . . . . . . . . . .
79
4.1.3
Bürokratiemodelle mit Personalpräferenz . . . . . . . . . .
83
4.1.3.1
Orzechowski . . . . . . . . . . . . . . . . . . . . .
84
4.1.3.2
Peacock . . . . . . . . . . . . . . . . . . . . . . .
85
4.1.3.3
Alternative Informationsverteilung . . . . . . . .
85
4.2
Kontrollmaÿnahmen . . . . . . . . . . . . . . . . . . . . . . . . .
87
4.3
Reformmaÿnahmen . . . . . . . . . . . . . . . . . . . . . . . . . .
89
4.3.1
Innenverhältnis . . . . . . . . . . . . . . . . . . . . . . . .
89
4.3.2
Auÿenverhältnis . . . . . . . . . . . . . . . . . . . . . . . .
90
5 Verbandsökonomik
5.1
91
Beeinussung der Wirtschaftspolitik . . . . . . . . . . . . . . . . .
91
5.1.1
Transaktionsmechanismen . . . . . . . . . . . . . . . . . .
91
5.1.1.1
Informationsverarbeitung . . . . . . . . . . . . .
91
5.1.1.2
Politikernanzierung . . . . . . . . . . . . . . . .
93
5.1.1.3
Störaktionen . . . . . . . . . . . . . . . . . . . .
94
5.1.1.4
Durchführung wirtschaftspolitischer Maÿnahmen
95
5.1.2
Technologie der Verbände . . . . . . . . . . . . . . . . . .
95
5.1.3
Gegenleistungen . . . . . . . . . . . . . . . . . . . . . . . .
96
6
INHALTSVERZEICHNIS
5.2
Determinanten der Verbandsbildung . . . . . . . . . . . . . . . . .
97
5.2.1
Gröÿe der Gruppe der Interessenten . . . . . . . . . . . . .
97
5.2.2
Gröÿe des Marktanteils . . . . . . . . . . . . . . . . . . . .
97
5.2.2.1
Internalisierung . . . . . . . . . . . . . . . . . . .
97
5.2.2.2
Anpassungskosten . . . . . . . . . . . . . . . . .
98
5.2.2.3
Empirische Hinweise . . . . . . . . . . . . . . . .
99
Angebot eines privaten Gutes . . . . . . . . . . . . . . . .
99
5.2.3
5.3
5.2.3.1
Exkurs: Klubgüter . . . . . . . . . . . . . . . . . 101
5.2.3.2
Exkurs: Ökonomische Theorie der Ehe . . . . . . 102
5.2.4
Gröÿe des Parlaments
. . . . . . . . . . . . . . . . . . . . 104
5.2.5
Häugkeit von Referenden . . . . . . . . . . . . . . . . . . 104
5.2.6
Staatsquote . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.7
Oenheit der Volkswirtschaft . . . . . . . . . . . . . . . . 104
5.2.8
Politische Stabilität . . . . . . . . . . . . . . . . . . . . . . 105
5.2.9
Zentralisierung . . . . . . . . . . . . . . . . . . . . . . . . 105
Normative Rechtfertigungsanalyse . . . . . . . . . . . . . . . . . . 107
5.3.1
Pro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.3.2
Kontra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.3.2.1
Positive Theorie der Regulierung . . . . . . . . . 112
5.3.2.1.1
Peltzman . . . . . . . . . . . . . . . . . 114
5.3.2.1.2
Crain/McCormick . . . . . . . . . . . . 116
5.3.2.1.3
Informationsfunktion versus Marktzutrittsbarrieren . . . . . . . . . . . . . . . . . 120
5.3.2.2
Rentseeking durch Subventionen . . . . . . . . . 121
5.3.2.3
Regulierung versus Subventionen . . . . . . . . . 122
5.3.3
Empirische Untersuchungen . . . . . . . . . . . . . . . . . 124
5.3.4
Dynamische Inezienz . . . . . . . . . . . . . . . . . . . . 127
INHALTSVERZEICHNIS
5.4
Lösungsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.1
5.4.2
5.4.3
5.5
Transaktionsmechanismen . . . . . . . . . . . . . . . . . . 131
5.4.1.1
Informationen . . . . . . . . . . . . . . . . . . . . 131
5.4.1.2
Störaktionen . . . . . . . . . . . . . . . . . . . . 131
5.4.1.3
Politiknanzierung . . . . . . . . . . . . . . . . . 131
5.4.1.4
Einuÿnahme auf die Zusammensetzung des Bundestages . . . . . . . . . . . . . . . . . . . . . . . 132
Organisationsfähigkeiten . . . . . . . . . . . . . . . . . . . 132
5.4.2.1
Besteuerung . . . . . . . . . . . . . . . . . . . . . 132
5.4.2.2
Zwangsmitgliedschaft . . . . . . . . . . . . . . . . 132
5.4.2.3
Kartellrecht . . . . . . . . . . . . . . . . . . . . . 132
5.4.2.4
Verfassungsbeschränkung . . . . . . . . . . . . . 132
5.4.2.5
Olson-Hypothese . . . . . . . . . . . . . . . . . . 133
Systemimmanent . . . . . . . . . . . . . . . . . . . . . . . 133
5.4.3.1
Tullock: ecient rent-seeking . . . . . . . . . . . 133
5.4.3.2
Ministerienauösung . . . . . . . . . . . . . . . . 134
5.4.3.3
Verbandsfusion . . . . . . . . . . . . . . . . . . . 134
5.4.3.4
Regulierung der Verbände . . . . . . . . . . . . . 134
5.4.3.5
Gleichgewichtiger Wettbewerb . . . . . . . . . . . 134
Probleme beim Privilegienabbau . . . . . . . . . . . . . . . . . . . 135
5.5.0.1
5.6
Tullock: transitional gains trap . . . . . . . . . . 135
Wieso ist Deregulierung zu beobachten?
. . . . . . . . . . . . . . 136
5.6.1
Substitute . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.6.2
Qualitätswettbewerb . . . . . . . . . . . . . . . . . . . . . 137
6 Wirtschaftspolitische Beratung
6.1
7
139
Transmissionsmechanismen . . . . . . . . . . . . . . . . . . . . . . 139
6.1.1
Der Ökonom als externer Berater der Regierung . . . . . . 139
8
INHALTSVERZEICHNIS
6.2
6.1.2
Der Ökonom als öentlicher Meinungsmacher . . . . . . . 140
6.1.3
Der Ökonom als Politiker
6.1.4
Der Ökonom als Staatsbeamter . . . . . . . . . . . . . . . 140
6.1.5
Der Ökonom als Ausbilder . . . . . . . . . . . . . . . . . . 141
6.1.6
Empirie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Externe Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.2.1
6.3
. . . . . . . . . . . . . . . . . . 140
Anreize . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Ezienzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.3.1
Beratung auf der Ebene des Grundkonsenses . . . . . . . . 145
6.3.2
Beratung auf der Prozeÿebene . . . . . . . . . . . . . . . . 146
6.4
Habermas Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.5
Realismus der Vorschläge . . . . . . . . . . . . . . . . . . . . . . . 149
7 Wirtschaftspolitische Entscheidungsverfahren
153
7.1
Rationalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.2
Phasen des Entscheidungsprozesses . . . . . . . . . . . . . . . . . 156
7.2.1
7.3
Prognosen . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Groÿe versus kleine Schritte . . . . . . . . . . . . . . . . . . . . . 160
7.3.1
7.3.2
Extensiv: Pro Holismus . . . . . . . . . . . . . . . . . . . . 161
7.3.1.1
Theorie des Second Best . . . . . . . . . . . . . . 161
7.3.1.2
Assignment . . . . . . . . . . . . . . . . . . . . . 162
7.3.1.2.1
Verteilungswirkungen. . . . . . . . . . . 163
7.3.1.2.2
Politische Widerstände. . . . . . . . . . 163
7.3.1.3
Brainard . . . . . . . . . . . . . . . . . . . . . . . 164
7.3.1.4
Systemimmitation . . . . . . . . . . . . . . . . . 164
Extensiv: Pro punktuelle Reformen . . . . . . . . . . . . . 164
7.3.2.1
Zielrestriktionen . . . . . . . . . . . . . . . . . . 164
INHALTSVERZEICHNIS
7.3.2.2
7.3.3
7.3.4
7.4
9
Informationskosten . . . . . . . . . . . . . . . . . 164
7.3.2.2.1
Miÿstände . . . . . . . . . . . . . . . . . 164
7.3.2.2.2
Risiko. . . . . . . . . . . . . . . . . . . . 164
7.3.2.2.3
Konservatives Vorurteil . . . . . . . . . . 165
7.3.2.2.4
Lernen aus Fehlprognosen . . . . . . . . 165
7.3.2.2.5
Dezentralisierung . . . . . . . . . . . . . 165
7.3.2.2.6
Diktatur . . . . . . . . . . . . . . . . . . 165
Intensiv: Pro Sofortlösung . . . . . . . . . . . . . . . . . . 166
7.3.3.1
Schnelle Wirkung . . . . . . . . . . . . . . . . . . 166
7.3.3.2
Abdiskontierung . . . . . . . . . . . . . . . . . . 166
7.3.3.3
Inezienz von Zwischenlösungen . . . . . . . . . 166
7.3.3.4
Instabilität . . . . . . . . . . . . . . . . . . . . . 166
7.3.3.5
Krisentheorie . . . . . . . . . . . . . . . . . . . . 167
7.3.3.6
Wahltaktik . . . . . . . . . . . . . . . . . . . . . 167
Intensiv: Pro Gradualismus . . . . . . . . . . . . . . . . . 167
7.3.4.1
Unsichere Instrumentenwirkung . . . . . . . . . . 167
7.3.4.2
Erleichterte Erwartungsanpassung
7.3.4.3
Grenzproduktivität und Hysterese . . . . . . . . 169
7.3.4.4
Sozialer Frieden . . . . . . . . . . . . . . . . . . . 170
7.3.4.5
Salamitaktik . . . . . . . . . . . . . . . . . . . . 170
. . . . . . . . 167
Ebenen der Entscheidungsverfahren . . . . . . . . . . . . . . . . . 170
7.4.1
Zweck der Ebenen
. . . . . . . . . . . . . . . . . . . . . . 171
7.4.2
Analyse des Grundgesetzes . . . . . . . . . . . . . . . . . . 172
7.4.3
Senkung der Einigungskosten . . . . . . . . . . . . . . . . 173
7.4.3.1
Entscheidungen auf Verfassungsebene . . . . . . . 173
7.4.3.2
Delegation . . . . . . . . . . . . . . . . . . . . . . 175
7.4.3.3
Unabhängige Institutionen . . . . . . . . . . . . . 175
10
INHALTSVERZEICHNIS
7.5
Regeln versus Diskretion . . . . . . . . . . . . . . . . . . . . . . . 175
7.5.1
Pro Diskretion
7.5.2
Pro Regeln
7.5.2.1
7.5.3
II
. . . . . . . . . . . . . . . . . . . . . . . . 175
. . . . . . . . . . . . . . . . . . . . . . . . . . 176
Unvollkommene Information . . . . . . . . . . . . 176
7.5.2.1.1
Beim Wirtschaftspolitiker . . . . . . . . 176
7.5.2.1.2
Beim Marktteilnehmer . . . . . . . . . . 177
7.5.2.1.3
Zeitinkonsistenz . . . . . . . . . . . . . . 178
7.5.2.2
Verkürzung von Entscheidungslags . . . . . . . . 179
7.5.2.3
Public Choice Argumente . . . . . . . . . . . . . 179
Wieso ist Regelbindung so selten? . . . . . . . . . . . . . . 180
Anhang
181
A Klassische Ökonometrie
183
A.1 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
A.2 Basics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
A.2.1 Zweck der Ökonometrie
. . . . . . . . . . . . . . . . . . . 184
A.2.2 Statistische Grundlagen . . . . . . . . . . . . . . . . . . . 185
A.2.3 Statistische Inferenz . . . . . . . . . . . . . . . . . . . . . 185
A.2.4 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . 186
A.2.5 Dummyvariablen . . . . . . . . . . . . . . . . . . . . . . . 191
A.3 Schätzereigenschaften und Schätzmethoden . . . . . . . . . . . . . 191
A.3.1 Small-sample Eigenschaften . . . . . . . . . . . . . . . . . 192
A.3.1.1
Unverzerrtheit . . . . . . . . . . . . . . . . . . . 192
A.3.1.2
Ezienz . . . . . . . . . . . . . . . . . . . . . . . 193
A.3.1.3
Mean-Squared-Error (MSE) . . . . . . . . . . . . 193
A.3.2 Large-sample Eigenschaften . . . . . . . . . . . . . . . . . 194
INHALTSVERZEICHNIS
11
A.3.2.1
Asymptotische Unverzerrtheit . . . . . . . . . . . 194
A.3.2.2
Konsistenz
A.3.2.3
Asymptotische Ezienz . . . . . . . . . . . . . . 195
. . . . . . . . . . . . . . . . . . . . . 195
A.3.3 Schätzmethoden . . . . . . . . . . . . . . . . . . . . . . . . 196
A.3.3.1
Kleinste Quadrate Methode . . . . . . . . . . . . 196
A.3.3.2
Maximum Likelihood (ML) Methode . . . . . . . 196
A.4 Annahmen im multiplen KQ-Modell . . . . . . . . . . . . . . . . . 197
A.5 Allgemeine Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
A.5.0.0.1
Signikanz der Koezienten . . . . . . . 200
A.5.0.0.2
Jarque-Bera-Test . . . . . . . . . . . . . 200
A.5.0.0.3
Lineare Restriktionen der Parameter . . 201
A.5.0.0.4
Nichtlineare Restriktionen der Parameter 201
A.5.0.0.5
Chowtest für Parameterstabilität . . . . 201
A.6 Annahmendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . 202
A.6.1 Annahme IB: Unabhängigkeit zwischen Störterm und Erklärenden . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
A.6.1.0.1
Problem . . . . . . . . . . . . . . . . . . 203
A.6.1.0.2
Test . . . . . . . . . . . . . . . . . . . . 204
A.6.1.0.3
Lösung . . . . . . . . . . . . . . . . . . . 204
A.6.2 Annahme ID: Linear unabhängige Erklärende . . . . . . . 205
A.6.2.0.1
Problem . . . . . . . . . . . . . . . . . . 206
A.6.2.0.2
Test . . . . . . . . . . . . . . . . . . . . 206
A.6.2.0.3
Lösung . . . . . . . . . . . . . . . . . . . 206
A.6.3 Annahme IIB: Homoskedastie . . . . . . . . . . . . . . . . 206
A.6.3.0.1
Problem . . . . . . . . . . . . . . . . . . 207
A.6.3.0.2
Tests . . . . . . . . . . . . . . . . . . . . 207
A.6.3.0.3
Lösung . . . . . . . . . . . . . . . . . . . 207
12
INHALTSVERZEICHNIS
A.6.4 Annahme IIC: Unkorrelierte Störterme . . . . . . . . . . . 208
A.6.4.0.1
Problem . . . . . . . . . . . . . . . . . . 208
A.6.4.0.2
Tests . . . . . . . . . . . . . . . . . . . . 209
A.6.4.0.3
Lösung . . . . . . . . . . . . . . . . . . . 209
A.6.5 Annahme IC: Konstante Varianz der Erklärenden . . . . . 210
A.6.5.0.1
Problem . . . . . . . . . . . . . . . . . . 210
A.6.5.0.2
Test . . . . . . . . . . . . . . . . . . . . 211
A.6.5.0.3
Lösung . . . . . . . . . . . . . . . . . . . 211
Teil I
Public Choice
13
Kapitel 1
Denition
Der Begri Public Choice wurde von George J. Stigler1 geprägt. James M.
Buchanan2 hat zusammen mit Gordon Tullock 1962 das bahnbrechende Buch
The Calculus of Consent veröentlicht. Eine weitere wichtige frühe Arbeit ist
von Anthony Downs An Economic Theory of Democracy von 1957. Wichtige
Ideen zur Begründung der Theorie lieferte Joseph A. Schumpeter in seinem Buch
Capitalism, Socialism and Democracy von 1942. In Kapitel 22, Eine andere
Theorie der Demokratie, schreibt er:
Und wir denieren: die demokratische Methode ist diejenige Ordnung
der Institutionen zur Erreichung politischer Entscheidungen, bei welcher einzelne die Entscheidungsbefugnis vermittels eines Konkurrenzkampfes um die Stimmen des Volkes erwerben.
Hier wird die Kernidee der Public Choice Theorie deutlich. Sie besteht darin,
ökonomische Methoden bei der Politikanalyse in einer Demokratie anzuwenden.
Die politischen Akteure lassen sich einerseits in (Politik-) Nachfrager wie Wähler
und Interessengruppen und Anbieter wie Politiker und Bürokraten einteilen.
Aus diesem Blickwinkel lauten die Denitionen der Bestandteile des Begries
positive ökonomische Theorie demokratischer Wirtschaftspolitik folgendermaÿen:
- positiv: erklärend und nicht bewertend, wobei die Erklärung Auswirkungen auf die normative Wertung haben kann. Z.B. ist die Verurteilung (Be1 Nobelpreisträger
1982: for his seminal studies of industrial structures, functioning of markets and causes and eects of public regulation, siehe www.almaz.com
2 Nobelpreisträger 1986: for his development of the contractual and constitutional bases for
the theory of economic and political decision-making, siehe www.almaz.com
15
16
KAPITEL 1. DEFINITION
wertung) davon abhängig, ob die Tötung aus Habgier oder aus Notwehr
(Erklärung) erfolgte.
- ökonomisch: es wird das Verhaltensmodell des homo ÷conomicus3 unterstellt und davon ausgegangen, daÿ die politischen Akteure typischerweise ihren eigenen Nutzen maximieren (non-tuism) oder zumindest nicht im
politischen Bereich Altruisten sind. Es lassen sich dann die ökonomischen
Werkzeuge wie Nutzen- und Zielfunktionen mit Restriktionen (z.B. Wiederwahl) und die ökonomische Rationalität in Form von optimalen Trade-os
(wie z.B. Wählerstimmen vs. Bestechungsgelder) bei der Analyse nutzen.
- demokratisch: es werden verschiedene Verfahren, wie z.B. Abstimmungsverfahren (one man one vote, einfache oder qualizierte Mehrheiten) oder
demokratische Entscheidungsverfahren (beispielsweise das zweistuge Verfahren der repräsentativen Demokratie), auf ihre Vor- und Nachteile in Bezug auf eine (optimale) Wirtschaftspolitik untersucht.
3 Zur
Diskussion dieses Konzeptes siehe Tietzel (1981).
Kapitel 2
Ökonomische Theorie des
Wählerverhaltens
2.1 Wahlbeteiligung
Im Rahmen eines ökonomischen Kalküls gilt folgende Bedingung für eine Wahlbeteiligung:
E(ErlösErg ) + E(Erlöspriv ) > E(Kosten)
P B + D > C.
(2.1)
Der rationale Wähler geht zur Wahl, wenn die erwarteten Erlöse einer Wahlbeteiligung die erwarteten Kosten (C ) übersteigen. Die erwarteten Erlöse lassen sich
in ergebnisabhängige (P B ) und nicht ergebnisabhängige Nutzenströme einteilen
(D). Der Bestandteil B ist die Dierenz zwischen dem erwarteten Nutzen, den
man aus einer Regierung des präferierten Kandidaten beziehen würde und dem
Nutzen aus einer Regierung des Kandidaten, der gewonnen hätte, wäre man nicht
zur Wahl gegangen. Dementsprechend bezeichnet P die subjektive Wahrscheinlichkeit mit seiner eigenen Stimme das Wahlergebnis zu Gunsten des präferierten
Kandidaten zu verändern.
In den folgenden Abschnitten werden die Bestimmungsgründe der Erlöse und
Kosten und damit der Wahlbeteiligung diskutiert.1
1 Siehe
dazu Kapitel 18 in Mueller (1995): The paradox of voting. Das Wahlparadox besteht
darin, daÿ die Wahrscheinlichkeit von einem Auto auf dem Weg zur Wahl überfahren zu werden,
etwa der Wahrscheinlichkeit die entscheidende Stimme abzugeben (P ), entspricht. Wenn die
Nutzendierenz zwischen dem präferierten und dem anderen Kandidaten (B ) nicht so groÿ ist
wie die Kosten eines Autounfalls (C ), was wohl in den meisten einigermaÿen demokratischen
Staaten der Fall ist, stellt sich die Frage, wieso überhaupt jemand zur Wahl geht. Demzufolge
17
18 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
2.1.1 Erlös
2.1.1.1 Politikunterschiede
Der erwartete Erlös ist umso gröÿer, je gröÿer die erwarteten Unterschiede (∆)
zwischen der zur Wahl stehenden Parteipolitiken sind (∂B/∂∆ > 0 in Gleichung
2.1). Wenn man sich von den zur Wahl stehenden Kandidaten (Parteien) den
gleichen Nutzen verspricht, lohnt es sich, nicht wählen zu gehen. Einen möglichen Hinweis auf die erwarteten Unterschiede erhält man aus der Heftigkeit des
inhaltlichen Wahlkampfes. Wenn jedoch der Wahlkamf als schmutzig empfunden
wird, sind Wahlenthaltungen oder Politikverdrossenheit umso wahrscheinlicher.
Man kann zwischen absoluten und relativen Unterschieden dierenzieren. Bei der
Fomulierung der Hypothese in absoluten Unterschieden
Partei1
Partei2
gilt unanhängig von der eigenen Position: je gröÿer die inhaltliche Diskrepanz,
desto wichtiger ist es, zur Wahl zu gehen. Bei der Formulierung bezüglich relativen
Unterschieden ist die Position des Wählers relevant.
Partei1
Wähler1
Partei2
Wähler2
Nach der Frustrationshypothese von Hinnich geht Wähler2 eher zur Wahl als
Wähler1 , weil Wähler1 frustrierter ist. Das ist nicht plausibel, wenn der negative
Nutzen (Grenzkosten) mit dem Abstand zur eigenen Präferenz steigt. Man sollte
umso eher zur Wahl gehen, je höher der Grenznutzen (die vermiedenen Grenzkosten) ist. Zudem zeigt die Umfrage in Kopie 1, daÿ Wahlbeteiligung etwas mit
Frustration und Identikation zu tun hat. Das Zitat in Kopie 2 widerspricht ebenfalls der Frustrationshypothese Hinnichs, denn Frustration steht nicht in einem
einfachen funktionalen Zusammenhang zur Wahlbeteiligung.
In Kopie 3 ist die Wahlbeteiligung nach dem Alter aufgegliedert. Eine mögliche
Erklärung des Verlaufs der Wahlbeteilgung ist, daÿ man bis zum Alter von 20
erste demokratische Gehversuche wagt, bis 27 der Reiz des Neuen schwindet,
müÿte die Wahlbeteiligung im wesentlichen durch die ergebnisun abhängigen Nutzenbestandteile
bestimmt sein. (D in Gleichung 2.1).
2.1. WAHLBETEILIGUNG
19
bis 54 sich allmählich die Frustration abbaut und ab 54 die Transportkosten bei
umständlicher Briefwahl ansteigen.
2.1.1.2 Erwartete Knappheit des Wahlausgangs
Der erwartete Erlös ist umso gröÿer, je knapper der erwartete Wahlausgang (p
sei der erwartete Stimmenanteil für die zu wählende (präferierte) Partei), je eher
also die eigene Stimme entscheidend ist (∂P/∂p < 0 in Gleichung 2.1).
Kopie 4 zeigt eine Querschnittsregression, in der die Wahlbeteiligung in Groÿbritannien und Deutschland u.a. mit der erwarteten Knappheit des Wahlausgangs
erklärt wird.
Regression 4.6a:
- M1: die Wahlbeteiligung ist in den Wahlkreisen mit der höchsten erwarteten
Knappheit signikant höher.
- POP: statt der Bevölkerungsgröÿe wäre (ist nicht verfügbar gewesen) die
Anzahl der Wahlberechtigten besser geeignet. Diese Variable würde die im
nächsten Abschnitt diskutierte Hypothese testen. Für die Wahlberechtigten
würde man ein negatives Vorzeichen erwarten (je weniger Wahlberechtigte,
desto höher die Wahrscheinlichkeit, daÿ die eigene Stimme entscheidet und
desto eher geht man zur Wahl). Der Koezient der Bevölkerungsgröÿe hat
jedoch ein positives Vorzeichen. Möglicherweise wird mit dieser Variable
die Bevölkerungsdichte und die Transportkosten approximiert: Bei hoher
Bevölkerung ist ebenfalls die Bevölkerungsdichte hoch, folglich die Transportkosten niedrig und damit die Wahlbeteiligung hoch.
Regression 4.6b:
- M2: Koezient sinkt wie erwartet (2.509<3.255), da M2 im Vergleich zu
M1 zusätzlich einige als weniger knapp eingestufte Wahlkreise umfasst.
Regression 4.4a verwendet statt der beiden Dummyvariablen M1 und M2 nun
die kontinuierliche Variable D12, die den Abstand zwischen den tatsächlichen
Stimmanteilen miÿt. M1 und M2 sind ex ante und D12 ex post Werte. Ex ante
Variablen sind besser geeignet, da nach der Hypothese Erwartungswerte für die
Knappheit des Wahlausgangs entscheidend sind.
- D12: je gröÿer die Dierenz, desto kleiner die Wahlbeteiligung (D12 ist
negativ deniert, deshalb ist der Zusammenhang negativ trotz positivem
Vorzeichen).
20 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
Regression 4.2a:
- TUO−1 : (gelaggte) Wahlbeteiligung der letzten Wahl erklärt aktuelle Wahlbeteiligung. Damit werden die zeitinvarianten wahlkreisspezischen Besonderheiten erfaÿt. Ein negatives Vorzeichen wäre sehr verwunderlich.
- POP: nicht mehr signikant.
In Regression 3.3a werden nur die Direktwahlergebnisse für den Bundestag verwendet, da die Wahlkreischarakteristika nur im Wahlkreis zum Tragen kommen.
- D12: auch hier gilt: je gröÿer die Dierenz, desto kleiner die Wahlbeteiligung.
Die Ergebnisse für die Variable POP (positiv in UK, negativ in BRD) könnten
dadurch erklärbar sein, daÿ POP in UK die Wahlkreischarakteristika abbildet
und insignikant wird, wenn man die gelaggte TUO hinzufügt (die dann auch die
Wahlkreischarakteristika abbildet). In der BRD bildet POP die Bevölkerungsdichte und approximiert damit die Transportkosten um zur Wahl zu gelangen, da
schon die gelaggte TUO-Variable die Wahlkreischarakteristika wiedergibt. Dieser
Interpretation widerspricht jedoch das positive Vorzeichen bei POP in Regression
4.2a, das aber insignikant ist.
2.1.1.3 Erwartete Zahl der Stimmen
Der erwartete Erlös ist umso gröÿer, je geringer die erwartete Zahl der Stimmen
(S ), bei gegebenem Stimmenanteil(∂P/∂S < 0 in Gleichung 2.1) ist. Wenn in
zwei Wahlkreisen das Verhältnis der Stimmen z.B. 2:1 erwartet wird, dann sollte
die Wahlbeteiligung in dem Wahlkreis mit weniger Stimmen (z.B. 4:2) höher als
im Wahlkreis mit mehr Stimmen (z.B. 6:3) sein. Somit lautet die Hypothese: je
kleiner die Anzahl der Wähler, desto höher der Anreiz zur Wahl zu gehen. Wobei
die Anzahl der Wähler abhängig ist von der Anzahl der Wahlberechtigten und
der Enthaltungen. Die erwarteten Enthaltungen würden, wenn diese Hypothese
zutrit, einen automatischen Stabilisierer der Wahlbeteiligung darstellen: Je mehr
sich enthalten, desto niedriger ist die Zahl der Stimmen, desto höher der Anreiz
wählen zu gehen, desto höher die Wahlbeteiligung.
Die Regression in Kopie 5 erklärt die Wahlbeteiligung mit der Anzahl der Wahlberechtigten und der Bevölkerungsgröÿe. Die Vorzeichen der Koezienten der
beiden Variablen β1 und β2 sind negativ. Die Nullhypothese, daÿ die Zahl der
Stimmen die Enthaltung nicht beeinuÿt (erhöht), kann somit verworfen werden.
2.1. WAHLBETEILIGUNG
21
Das entspricht der Hypothese, je höher die Zahl der Stimmen, desto gröÿer die
Enthaltung.
Die Koezienten sind jedoch bei der Parlamentswahl (Knesset) insignikant.
Die Erklärung dafür könnte mit der Wirkung des Verhältniswahlrechts für die
Knesset zusammenhängen, da es in diesem Fall egal ist, welches Ergebnis in den
betreenden Gemeinden prognostiziert worden ist und die Anzahl der Stimmen
oder Wahlberechtigten im Wahlkreis nicht mehr entscheidend ist.
Das Vorzeichen des Koezienten γ der Variable Einkommen ist negativ. Die
Überlegungen in Abschnitt 2.1.2.4 legen nahe, daÿ das Einkommen die Opportunitätskosten der Zeit approximiert, die man für das Wählen aufwenden muÿ und
somit ein hohes Einkommen zu niedriger Wahlbeteiligung führt.
2.1.1.4 Politische Urteilskraft
Der erwartete Erlös ist umso gröÿer, je gröÿer das Vertrauen in die eigene politische Urteilskraft. Politische Urteilskraft bezieht sich auf die Varianz der Prognose
(siehe Abbildung 2.1) bezüglich der Politikerwartung, Kräfteverhältnis und der
Voraussage der Wahlbeteiligung, wobei die Varianz von den Informationskosten
abhängen sollte.
Abbildung 2.1: Politische Urteilskraft
Partei1
Partei2
2.1.1.5 Pichtgefühl
Der erwartete Erlös ist umso gröÿer, je gröÿer das staatsbürgerliche Pichtgefühl
(P f ) ist (∂D/∂P f > 0 in Gleichung 2.1). Das Ergebnis der Umfrage (in Kopie
6), welche Assoziationen mit dem Begri Wahl geweckt werden, legt nahe, daÿ
Pichtgefühl eine gewichtige Rolle bei der Wahlbeteiligung spielt.
22 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
2.1.1.6 Sozialer Druck
Der erwartete Erlös ist umso gröÿer, je gröÿer der soziale Druck (SD) (z.B. Rufverlust bei Enthaltung) (∂D/∂SD > 0 in Gleichung 2.1)ist.
2.1.2 Kosten
2.1.2.1 Frustration
Man geht nicht zur Wahl, wenn man weiÿ, wie schlecht die Politik ist, die gemacht
wird.
2.1.2.2 Transportkosten
Die Transportkosten können beispielsweise durch die Bevölkerungsdichte approximiert werden.
2.1.2.3 Wahlsteuer
Eine Wahlsteuer könnte aufgrund der bei der Durchführung anfallenden Kosten
(Druck-, Zähl- und Verwaltungskosten) erhoben werden. Wobei wahrscheinlich
schon geringe Beträge groÿe Auswirkungen haben, wie die Erfahrung in den Südstaaten der USA gezeigt hat, wo durch eine Wahlsteuer (poll tax) die ärmere
schwarze Bevölkerung (erfolgreich) von der Wahl abgehalten wurde. Eine Wahl
ohne Wahlsteuer ist aufgrund der tatsächlich anfallenden Kosten eine subventionierte Wahl.
Läÿt sich eine Wahlsubvention durch positive externe Eekte der Wahlbeteiligung rechtfertigen? Eine hohe Wahlbeteiligung könnte eine hohe Legitimation
der Regierung bewirken und dadurch eine politische Stabilität, sozialen Frieden
und eine Vermeidung von Bürgerkriegen nach sich ziehen.
Was spricht gegen eine hohe Wahlbeteiligung und Legitimation? Eine hohe Legitimation ermutigt Politiker gegen den Wählerwillen zu handeln. In den USA
kann sich der Präsident eher nach einem Erdrutschsieg durchsetzen. Eine Subvention senkt den Anreiz des Politikers die Wähler zu überzeugen. Somit sinkt die
Qualität der Information, des Wahlkampfes und der politischen Entscheidungen.
Eine Subvention erhöht die Wahlbeteiligung und damit nimmt der Informationsstand und die Präferenzintensität des marginalen Wählers ab. Es ndet somit
eine Verzerrung gegenüber Leuten mit hoher Präferenzintensität statt. Negative
2.1. WAHLBETEILIGUNG
23
externe Eekte der Ergebnisbeeinussung sprechen für eine (allerdings nach dem
Abstimmungsverhalten dierenzierte) Wahlsteuer (siehe Abschnitt 3.7).
2.1.2.4 Opportunitätskosten der Zeit
Das Argument für einen negativen Einuÿ des Einkommens auf die Wahlbeteiligung stellt auf die Opportunitätskosten einer Wahlbeteiligung ab. Bei einem
hohen Einkommen sind die Kosten zur Wahl zu gehen hoch, weil man in dieser
Zeit nicht arbeiten kann und folglich auf viel Geld verzichten muÿ.
Zu dieser Hypothese lassen sich eine Reihe von Gegenargumenten ins Feld führen.
Frey führt an, daÿ das Einkommen die Opportunitätskosten senkt, da es dem
Kopfarbeiter egal ist, wo er arbeitet. Er kann auch auf dem Weg ins Wahllokal
arbeiten. Das setzt voraus, daÿ der Umfang der Kopfarbeit mit dem Einkommen
steigt.
Downs argumentiert, daÿ der Einkommenseekt den Substitutionseekt übersteigt. Ein Reicher hat niedrigere Opportunitätskosten als ein Armer, wenn man
von einem abnehmenden Grenznutzen des Einkommens ausgeht. Die Opportunitätskosten in Form von Einkommen sind zwar höher, aber nicht in Form von
entgangenem Nutzen.
Bernholz argumentiert über das Bildungsniveau. Demnach sind die Informationskosten eines gebildeten Bürgers niedriger und das Vertrauen in die eigene politische Urteilskraft höher. Weiterhin kann ein höheres staatsbürgerliches Pichtgefühl erwartet werden. Dagegen läÿt sich anführen, daÿ mit hohem Bildungsniveau
die geringen Parteiendierenzen und die geringe Wahrscheinlichkeit der Ergebnisbeeinussung eher erkannt werden. Auÿerdem sind exzentrische Präferenzen
eher wahrscheinlich.
Die Pro-Kopf-Zahlungen der Reichen sind gröÿer als die Pro-Kopf-Transfers an
die Armen. Für die Reichen steht mehr auf dem Spiel und die Opportunitätskosten der Nichtwahl steigen folglich mit dem Einkommen.
Bei Marx ist der Staat der Büttel der Groÿkapitalisten. Demzufolge sind die
Reichen mehr an einem bestimmten Wahlausgang interessiert. Dagegen lieÿe sich
einwenden, daÿ der Reiche weniger von der Anarchie zu befürchten hat, wenn er
auch der Stärkere oder Cleverere ist.
Ein anderes Marx'sches Argument lautet, daÿ die Ärmeren aufgrund der Entfremdung eher frustriert sind.
Alles in allem lassen sich theoretische Argumente für beide Wirkungsrichtungen
des Einkommens auf die Wahlbeteiligung anführen. Die Entscheidung ist also
empirisch zu erbringen. Die in Kopie 5 vorgestellte Regression für Israel zeigt
24 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
einen signikant negativen Zusammenhang zwischen Einkommen und Wahlbeteiligung für die Kommunalwahlen und manchmal einen insignikant positiven
für die Wahlen der Knesset.
2.2 Informationsverwertung
2.2.1 Informationsstand
Wie bestimmt sich der politische Informationsstand des Wählers?
πI = PI (I)PW EW + EP (I) − C(I)
πI ist der Gewinn aus der politischen Information, EW der Erlös aus der Wahlbeteiligung, wenn die Information für die Wahlentscheidung ausschlaggebend ist
(PI = 1) und die eigene Stimme das Wahlergebnis beeinuÿt (PW = 1). C sind die
Kosten der politischen Information und EP ist der private Erlös der Information,
beispielsweise Unterhaltungswert oder beruiche Erlöse bei einem Journalisten.
Bei einem PI ≈ 0 ergibt sich für den optimalen politischen Informationsstand:
∂C
∂EP
=
∂I
∂I
Somit entscheidet nur das private Kalkül über den Umfang der Informationsaufnahme und nicht der Wahlausgang, der über EW wirkt.
Welche Bevölkerungsschichten sind am besten informiert? Der Humankapitalist
mit niedrigen Informationskosten und der beruiche und hobbymäÿige Informationsverwerter, der einen hohen Grenzerlös besitzt.
2.2.2 Informationsart
Aus dem geringen Anreiz, sich zu informieren, folgt für die Art der beim Wähler entscheidenden Informationen, daÿ sie leicht beschabar und verwertbar sein
müssen. Und was folgt daraus für den politischen Prozeÿ?
Es ndet eine Personalisierung der Politik statt, da Sympathie und Vertrauenswürdigkeit als leicht zu beschaende und verwertende Informationen wichtig werden.
Die Ideologienachfrage nimmt zu. Es werden allgemeine Aussagen wichtig, wie
z.B. ob man von einer vorgeschlagenen Umverteilungsmaÿnahme protiert oder
2.2. INFORMATIONSVERWERTUNG
25
nicht. Bei Referenden, wo speziellere Informationen aufgenommen werden müssen, sind die Wahlbeteiligungen niedriger als bei Parlamentswahlen.
Es werden eher Informationen aus der jüngsten Vergangenheit beschat und verwertet, da die Speicherung kostspielig ist. Das impliziert ein zeitliches politisches
Muster: Wahlgeschenke sollte man vor der Wahl verteilen und die Grausamkeiten
möglichst schnell nach der Wahl, lange vor der nächsten, begehen. Diese Überlegungen führen zum sogenannten politischen Konjunkturzyklus, der im nächsten
Abschnitt besprochen wird.
Die Auswirkungen auf die Zukunft spielen eine geringere Rolle, was das Investitionsverhalten, das langfristigen Überlegungen folgen sollte, beeinuÿt.
Es wird keine Ursachenforschung für Politikversagen betrieben.
2.2.3 Politischer Konjunkturzyklus
2.2.3.1 Hypothese von Nordhaus
Der politische Konjunkturzyklus ist Ergebnis der Art der Informationen, die die
Wähler zu verarbeiten bereit sind. Nordhaus2 und McRae bauen auf der modizierten Phillipskurve auf, die in Abbildung 2.2 dargestellt ist. Sie ist durch
einen lediglich temporären Trade-o charakterisiert, der nur durch unerwartete
Schocks erreichbar ist. Diese Phillipskurve ist langfristig senkrecht. Der Politiker
Abbildung 2.2: Modizierte Phillipskurve
π
Nash-GG: Schnittpunkt der
Reaktionsfunktionen
Wahlkonstellationslinie
Beschäftigungswirkung verput,
Ination bleibt
Isostimmenlinie
U
2 siehe
Nordhaus (1975)
26 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
wird auf der kurzfristen Phillipskurve einen Punkt wählen, der tangential zu einer
Isostimmenlinie ist, die wiederrum konkav ist. Anschlieÿend verput die Wirkung
des monetären Sektors auf den realen, es gibt keine Beschäftigungswirkung mehr,
jedoch bleibt die Ination.
Den Mechanismus kann man sich an der Geldnachfragegleichung in der sogenannten Caganform klar machen:
M
= k · Y η · e−²·i
P
P̂ = M̂ − η · Ŷ + ²∆i
| · (1 − L) ln(.)
(2.2)
Eine Erhöhung des Geldmengenwachstums wirkt der Erfahrung nach mit einer
Verzögerung von einem Jahr auf die Produktion und von zwei Jahren auf die
Ination. Zunächst ergibt sich ein Liquiditätseekt auf dem Geldmarkt und der
Zins sinkt. Daraufhin paÿt sich die Produktion an, es erhöht sich die Ination und
der Produktionseekt verschwindet wieder. Die Wirtschaft bendet sich wieder
auf der langfristigen Phillipskurve.
Was passiert vor der Wahl? Das Manöver läÿt sich als ein sogenannter Loop (siehe
Abbildung 2.3) im Phillipskurvendiagramm darstellen. Es wird vor der Wahl ein
Schock erzeugt (von A nach B in Abbildung 2.3), so daÿ man sich nach links oben
auf der kurzfristigen Phillipskurve bewegt. Wenn sich die Erwartungen angepasst
haben, gelangt man von Punkt B nach C. Nach der Wahl werden die Grausamkeiten begangen und eine Stabilisierungsrezession ist die Folge (Bewegung
von Punkt C nach D), auch da verput die Arbeitslosenwirkung (Bewegung von
Punkt D nach A) und man bendet sich wieder im Ausgangspunkt. Das NashAbbildung 2.3: Phillipskurven Loop
π
C
B
A
D
U
gleichgewicht liegt bei einer positiven Ination auf der langfristigen Phillipskurve.
Eine mögliche Modikation betrit die Steigung der kurzfristigen Phillipskurve:
Mit steigender Ínation kann man erwarten, daÿ die Geldillision schwindet und
die kurzfristige Phillipskurve immer steiler wird.
2.2. INFORMATIONSVERWERTUNG
27
Diese Vorhersage von Loops um die Wahltermine herum läÿt sich empirisch einfach überprüfen. Der erwartete Verlauf ist eine Bewegung nach links oben vor
einer Wahl. Wobei die Traumkonstellation darin besteht, daÿ man 2 Jahre vor
der Wahl die Geldmenge verknappt, so daÿ zur Wahl die Inationsrate sinkt, und
1 Jahr vor der Wahl die Geldmenge wieder erweitert, so daÿ die Produktion und
Beschäftigung zur Wahl ansteigt.
Kopie 7 zeigt die Phillipskurve für die BRD. Die Nordhaus-Hypothese bestätigt
sich in den Wahljahren 60, 64, 69, 76, 80, 87, 90 und nicht in den Jahren 72, 83,
wobei hier jeweils vorgezogene Wahlen stattfanden und 94 und 98, wo schon die
Maastrichtkriterien ihre Wirkung zeigten. Loops sind in den Jahren 75-81, 67-69
und 89-95 zu sehen.
Für die USA (Kopie 8) bestätigt sich die Hypothese in den Wahljahren 64, 68,
72, 76, 84, 88, 96 und nicht in den Jahren 80 (Carter nicht wiedergewählt) und
92 (Bush nicht wiedergewählt).
2.2.3.2 Popularitätsfunktionen
Besteht ein Zusammenhang zwischen der ökonomischen Situation und den Zielen
eines Politikers? Die Wirkungskette zwischen wirtschaftpolitischen Instrumenten
und der Zielfunktion eines Politikers läÿt sich folgendermaÿen dreiteilen: 1. Wirtschaftpolitische Instrumente: Fiskal- und Geldpolitik, 2. Zwischenziele: Boom,
Preisniveau und Vollbeschäftigung und 3. Ziele: Wiederwahl und Popularität.
Somit läÿt sich die Frage nach dem Zusammenhang zwischen der ökonomischen
Situation und den Zielen eines Politikers konkretisieren. Welcher Zusammenhang
besteht zwischen den Zwischenzielen und den Zielen? Dieser Frage widmen sich
sogenannte Popularitätsfunktionen, die die Wiederwahl oder Popularität eines
Politikers oder einer Regierung durch die wirtschaftliche Situation, den Zwischenzielen erklären und vorhersagen. Die Ergebnisse dieser Art von Untersuchungen
lassen sich wie folgt zusammenfassen:
- Es ist durchschnittlich ein Popularitätsverlust von 1.7% während einer Amtszeit zu beobachten. Dies läÿt sich als eine Vertrauenskapitalabnutzung interpretieren. Dagegen spricht jedoch, daÿ hierfür eine anfängliche Illusion
(irrationales Verhalten) unterstellt werden muÿ. Andererseits läÿt sich der
Popularitätsverlust mit einer Unterhaltungsfunktion der Politik vereinbaren.
- Es ist ein soziotropisches Verhalten zu beobachten, wonach die (allgemeine)
Arbeitslosenquote stärker als die eigene Arbeitslosigkeit wiegt.
28 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
- Eine aussenpolitische Krise stärkt die eigene Regierung. Das war so bei Milosevic und ist auch bei demokratischen Regierungsformen zu beobachten.
- Die Beziehung des Zwischenzieles zur Popularität ist stärker als zur Wiederwahl. Das läÿt sich begründen mit der Feststellung, daÿ in die Popularitätsbekundungen eher kurzfristige Gefühlswallungen eingehen, wohingegen das
Wahlverhalten stärker von Gewohnheiten und Trägheiten (Stammwähler)
bestimmt ist.
- Reiche reagieren stärker auf Ination und Arme auf Arbeitslosigkeit.
Kopie 9 zeigt eine geschätzte Popularitätsfunktion. Der Einuÿ der Inationsund Arbeitslosenrate auf die Popolarität der Regierungen ist in Australien, Deutschland und den USA signikant negativ. Signikant positiv wirken sich Sozialtransfersanteile am verfügbaren Einkommen aus.
Welcher Zusammenhang besteht zwischen den wirtschaftspolitischen Instrumenten und den Zwischenzielen? Dabei ist vor allem interessant, welche Instrumente
verstärkt vor Wahlen eingesetzt werden bzw. welche Zwischenziele besondere Muster vor Wahlen zeigen. Dies ist in Kopie 10 zu sehen, wo die Wirtschaftswachstums-, Inations- und Arbeitslosenraten auf den Unterschied zwischen Wahl- und
Nichtwahljahren untersucht wurden. Die einfach besteuerten Werte sind solche,
deren Anteil an Wahljahren denjenigen an Nichtwahljahren um mindestens 10%
übersteigen und deren Anteil an Wahljahren über 50% ist. Die zweifach besteuerten Werte sind in Wahljahren im Durchschnitt gröÿer als in Nichtwahljahren.
Am deutlichsten sind Maÿnahmen der Regierung vor den Wahl im Wahljahr hinsichtlich der Reduktion der Arbeitslosigkeit zu erkennen.
2.2.3.3 Partisan Hypothese von Hibbs
Diese Hibbs'sche Hypothese ist kein Widerspruch, sondern eine Ergänzung zu
Nordhaus. Demnach hängt der Zeitpunkt der anvisierten Zwischenvariablen nicht
nur vom Wahltermin ab, sondern es existiert eine Präferenz für bestimmte Zwischenvariablen in Abhängigkeit von der Coleur der Partei. Der letzte Punkt bei
den typischen Ergebnissen der Untersuchungen von Popularitätsfunktionen auf
Seite 28 legt nahe, daÿ die Parteien ihre Klientel (Arm/Reich) mit den von
ihnen am Herzen liegenden niedrigen Zwischenvariablen versorgen (Arbeitslosikeit/Ination).
2.2. INFORMATIONSVERWERTUNG
29
2.2.3.4 Rational Partisan Hypothese von Alesina
Der einfache Nordhaus/McRae Mechanismus ist bei rationalen Erwartungen nicht
plausibel.3 Die Fiskal- und Geldpolitik wird antizipiert, und es stellen sich keinerlei Wirkungen auf das Wirtschaftswachstum und die Arbeitslosenquote ein,
weil eine verzögerungsfreie Reaktion auf die Ination stattndet, so daÿ keinerlei
Mengeneekte entstehen. D. h. die Wähler antizipieren die Politiken der Parteien, den Wahlausgang können Sie jedoch nicht antizipieren. Die Linken bekämpfen
die Arbeitslosigkeit mit expansiver Konjunkturpolitik und akzeptieren, daÿ die
Ination steigt. Die Rechten bekämpfen Ination und nehmen Arbeitslosigkeit in
Kauf.
2.2.3.5 Empirische Untersuchungen
In Kopie 11 lautet die Hypothese: Wenn die Linken gewinnen, führt das zu einem
positiven I5, wenn die Rechten gewinnen führt das zu einem negativen I5. Über
siebzig Prozent der Fälle entsprechen dieser Hypothese. 60 Prozent der Ergebnisse
für die linke Regierung sind unvereinbar mit Nordhaus.
In Kopie 12 wird der Instrumenteneinsatz untersucht. Die Ergebnisse, die gröÿer
als 1 sind, sind mit der Nordhaus/McRae Hypothese vereinbar, und es liegt ein
politischer Konjunkturzyklus vor. Die durchschnittlichen Wachstumsraten vor der
Wahl sind kleiner als nach der Wahl. Bei Beachtung von einem gelaggten Jahr
sind die Ergebnisse noch klarer.
In Kopie 13 ist die abhängige Variable die Wachstumsrate des Geldangebotes. Es
handelt sich um eine kombinierte Quer-Längschnittsregression über 18 Länder in
den Jahren 1958-87.
Die Koezienten der Variable PBC4 und PBC56 sind signikant positiv (im
oberen Teil der Abbildung). M1 wächst immer schneller, je näher der Wahltermin
rückt, womit die Nordhaus/McRae Hypothese bestätigt wird.
Bei der Partisan Hypothese muÿ zwischen Links und Rechts unterschieden werden
(im mittleren Teil). Rechte spielen vor der Wahl das Spiel häuger (signikant).
Die Linken verfallen nach der Wahl in Wahleuphorie und können vor den nächsten Wahlen nicht mehr den Geldhahn aufdrehen (Bestätigung für Alesina). Für
Deutschland sind die Koezienten positiv, aber insignikant (im unteren Teil).
Wenn es richtig ist, daÿ ein oder zwei Jahre vor der Wahl besonders expansive
Geldpolitik betrieben wird, würde man erwarten, daÿ ein oder zwei Jahre vor der
Wahl die Aktienkurse steigen, weil der Zins sinkt. Die Zahlen für diese Beobach3 Siehe
Alesina (1989).
30 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
tung sind in Kopie 14 zu sehen. Vor der Wahl gehen die Aktienkurse hoch (1985)
und nach der Wahl wieder runter (1987), wo sich die Grausamkeiten bemerkbar
machen.
Bei den bisher vorgestellten Hypothesen wird davon ausgegangen, daÿ die Regierungen die Inationsraten direkt steuern können. Das verwundert zunächst,
würde man doch denken, daÿ dies aufgrund der in den Industrieländern meistens
unabhängigen Zentralbanken nicht so ohne weiteres möglich ist.
Jedoch muÿ zwischen Unabhängigkeit und Neutralität unterschieden werden.
Wenn die Mitglieder des Zentralbankrates nicht neutral sind, entweder weil sie
eine eigene bestimmte politische Präferenz haben oder weil sie von bestimmten
Parteien ernannt worden sind, ist es denkbar, daÿ sie die Wieder- bzw. Abwahl
einer Regierung durch eine entsprechende Geldpolitk unterstützen.
Dazu hat Vaubel (1993) in Kopie 15 die sogenannte Parteipräferenzhypothese untersucht. Zunächst untersucht er, ob generell eine expansive Geldpolitik
betrieben wird, wenn die Bundesregierung eine Mehrheit im Zentralbankrat hat
(unabhängig vom zeitlichen Abstand zur nächsten Wahl, also in allen Regierungsjahren). Diese Hypothese konnte nicht bestätigt werden. Betrachtet man jedoch
lediglich die Vorwahljahre (in Kopie 15 die Hypothese II genannt) kann diese
Hypothese nicht verworfen werden.
Kopie 16 zeigt eine Untersuchung der ökonomischen und politischen Bestimmungsgründe der Geldmengenwachstumsrate. Demnach (erste Spalte) reagiert
die Geldpolitik antizyklisch auf die Wirtschaftswachstums- und Arbeitslosenrate, allerdings nur bei der Arbeitslosenrate signikant. Die gelaggte Inationsrate
weist das falsche Vorzeichen auf. Ein Leistungsbilanzüberschuÿ führt zu einer
insignikant expansiven Geldpolitik, eine Abwertung zu einer (signikant) kontraktiven Geldpolitik. Die Währungssysteme Bretton-Woods und das EMS (in
den 80er Jahren) waren von expansiver bzw. restriktiver Geldpolitik geprägt.
Der untere Teil der Regression umfasst die Variablen zu den politischen Konjunkturzyklusmodellen. Die Abwesenheit eines einfachen Nordhauszykluses kann
in der zweiten Spalte abgelehnt werden. Auÿerdem scheinen linke Regierungen
eine höhere Geldmengeexpansion zu präferieren.
Die Vaubel'sche Parteipräferenzvariable hat in der dritten Spalte zwar das richtige Vorzeichen, ist aber insignikant. Problematisch ist, daÿ diese Variable für
jedes Quartal konstruiert worden ist und somit nicht nur die Zeitpunkte wechselnder Mehrheiten betrachtet werden. Daraus könnte sich die Insignikanz der
Koezienten erklären, da bei der verwendeten Methode Noise entsteht. D.h. in
die Untersuchung werden nicht informative Zeitpunkte einbezogen, worunter die
Genauigkeit der Schätzung leidet, der Standardfehler des Schätzers also steigt und
somit die t-Statistiken nicht groÿ genug sind, um die Nullhypothese abzulehnen.
2.2. INFORMATIONSVERWERTUNG
31
Die vierte Spalte testet eine Hypothese, wonach der Zentralbankrat nur teilweise
unabhängig ist. Allerdings basieren die Schätzungen in der vierten und fünften
Spalte (H3/7 und H4/8 ) auf der falschen Annahme, daÿ die Regierung zur Änderung des Bundesbankgesetzes eine Zustimmung des Bundesrates benötigt.
Kopie 17 untersucht den Einsatz des nanzpolitischen Instrumentes Staatsausgaben in Wahljahren. Im Durchschnitt lassen sich in den Wahljahren höhere
Wachstumsraten der Staatsausgaben feststellen als in den Nichtwahljahren. Die
Messung für die Vorwahljahre macht mehr Sinn und zeigt auch deutliche Anzeichen für einen politischen Konjunkturzyklus.
Kopie 18 erklärt die Staatsverschuldungsquote in einer kombinierten Quer-Längsschnittanalyse für 13 OECD-Länder in den Jahren 1960-85. Ein Anstieg der Arbeitslosenrate erhöht die Staatsverschuldungsquote, ebenso ein sinkendes Wirtschaftswachstum. Dabei ist zu beachten, daÿ beide Variablen hoch korreliert sein
müÿten, im Ergebnis aber die Koezienten trotzdem signikant sind. Weiterhin ist zu beachten, daÿ bei der Wirtschaftswachstumsvariablen nicht zwischen
den Wirkungen automatischer Stabilisatoren (bei Wachstum steigen die Einnahmen und sinken die Ausgaben der Arbeitslosenversicherung) und diskretionärer
Stabilisierungspolitik, und nur auf die kommt es bei den politischen Konjunkturzyklushypothesen an, unterschieden wird.
Mit der Variable DRB wird für den Eekt steigender Zinsbelastung kontrolliert.
Die Variable ELE zeigt an, daÿ die Staatsschuld vor Wahlen signikant ansteigt.
Hinter der Variable POL steht die Hypothese, daÿ Regierungen aus vielen Koalitionspartnern (oder im Externfall bei Minderheitsregierungen) viele Interessensgruppen zu befriedigen sind, was sich am unauälligsten durch Staatsverschuldung nanzieren läÿt.
Kopie 19 untersucht den Einsatz weiterer vier wirtschaftpolitischer Instrumente.
Staatsausgaben werden hier unanhängig vom Wahlzyklus durch das Popularitätsdezit erklärt. Oensichtlich spielt ein Popularitätsdezit für die Staatsausgaben
jederzeit eine Rolle.
Über Transfers können sehr direkt Wahlgeschenke verteilt werden, was bei der
SPD eine höhere Rolle als bei der CDU spielt. Das Transferaufkommen scheint
jedoch keinen signikanten Zusammenhang zum Steueraufkommen zu haben.
In Kopie 20 werden nochmals Sozialausgaben in Zusammenhang zu Wahljahren
gebracht. Es zeigt sich, daÿ im letzten Jahr der Legislaturperiode der Anteil der
sozialpolitischen Leistungsgesetze besonders hoch ist, was eindeutig auf Wahlgeschenke hindeutet.
Kopie 21 unterscheidet zwischen dem linken und rechten Flügel. Bei der bürgerlichen Koalition ist eine überdurchschnittliche Expansion in den Wahljahren zu
32 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
beobachten, bei der SPD hingegen Kürzungen nach der Wahl und nichts auälliges in den Wahljahren bei den Expansionsgesetzen.
Kopie 22 zeigt, daÿ die Opposition typischerweise Ausdehnungsgesetze unterstützt und gegen Kürzungsgesetze ist.
Weitere Statistiken zeigen, daÿ vor Wahlen die Arbeitsbeschaungsmaÿnahmen
ausgeweitet werden, um die Statistik zu schönen und Lohnerhöhungen vor der
Wahl im öentlichen Dienst davon abhängen, was für eine Regierung sich zur
Wiederwahl stellt. Bei einer linken Regierung üben die Gewerkschaften im öentlichen Dienst Lohnzurückhaltung. Bei einer rechten Regierung versuchen die Gewerkschaften groÿe Lohnerhöhungen durchzusetzen, um die Regierung in Schwierigkeiten zu bringen.
2.2.3.6 Lösungsmöglichkeiten
Wenn es für einen politischen Konjunkturzyklus, sowohl in der Geld- als auch in
der Finanz- und Sozialpolitik, zahlreiche Indizien gibt, stellt sich die Frage, was zu
tun ist? Zu beachten ist, daÿ sich Politiker in erster Linie einer Dezitnanzierung
bedienen, um Wahlen zu gewinnen.
2.2.3.6.1 Geldpolitik
1. Funktionale Unabhängigkeit: Der Zentralbankrat ist nicht weisungsgebunden,
kann die geldpolitischen Instrumente frei einsetzen, um die Ziele und Zwischenziele zu erreichen. Das ist nicht möglich bei einem von der Regierung vorgegebenen
Wechselkursziel.
2. Personelle Unabhängigkeit: Lange Amtszeiten, am besten ist ein Kandidat nur
einmal zu ernennen. Allerdings ist auch dann das Phänomen der revolving door
möglich. Deshalb sollte nach einer Zentralbankratesmitgliedschaft kein politisches
Amt angenommen werden dürfen, wobei die Denition von politischem Amt Abgrenzungsprobleme schat. Um die politische Neutralität der Zentralbankratmitglieder zu gewährleisten, kann eine Parteibuchsperre verhängt werden. Eine
bestimmte Qualikation sollte eigentlich selbstverständlich sein (Volkswirt). Es
sollten klare Anreize gesetzt werden: Budgetkürzung bei hoher Ination, Rücktritt bei mehrere Jahre andauernder Überination, wobei in Notsituation auch
eine parlamentarische Absolution erteilt werden könnte.
Bei einer Umsetzung für die europäische Zentralbank wäre ein Verzicht auf die
Konvergenzkriterien möglich, da bekanntlich gilt: every fool can balance a budget
for one year, aber ein Anreizsystem auch in der Zukunft wirkt.
2.2. INFORMATIONSVERWERTUNG
33
2.2.3.6.2 Finanzpolitik
Sinnvoll wären Referenden bei: Neuverschuldung vor Wahlen, Ausgabenerhöhungen und Staatsquotenplafondierung (EU Vorschlag).
2.2.3.7 Langfristige Investitionsentscheidungen
Aus der gegenwartsbezogenen Informationsverarbeitung der Wähler (zukünftige
Erträge werden zu stark abdiskontiert) folgen ineziente, langfristige Investitionsentscheidungen. Bei den Projekten (E=Erträge, K=Kosten) A(Kt Kt+1 Et+2
Et+3 Et+4 ) und B(Et Et+1 Kt+2 Kt+3 Kt+4 ) würde die falsche Allokation B gewählt.
Wer könnte in der Politik eine langfristige Orientierung im Programm anbieten?
Parteien, die keine Chance haben, an die Macht zu gelangen, z. B. Oppositionsparteien, denen es nicht um die Wiederwahl geht. Diese Parteien haben den
Anreiz, langfristige Perspektiven zu formulieren. Oder von Parteien der Mitte,
wie immer an der Regierung sind (FDP).
2.2.4 Informationsverhalten der Wähler
Das Wahlverhalten wird von Ereignissen, wie beispielsweise die Barschel- oder
Watergateaäre, einer selektiven Wahrnehmung, Verwertung und Speicherung
beeinusst.
Die Bindung zu einer Partei entsteht bei der ersten Wahlbeteiligung, wenn die
Eltern noch prägend wirken. Die starke Prägung in jungen Jahren läÿt sich erklären durch geringe Informationskosten, weil viel Zeit vorhanden ist und weil ein
Interesse an Informationsverwertung besteht, aufgrund einer langen Armortisationsmöglichkeit dieser Investition.
Unter welchen Umständen kann sich die politische Orientierung ändern? Bei
schweren politischen Krisen, Aären, bei Berufserfahrung und einer geänderten
Interessenlage. Diese Punkte führen nicht zu einer Umorientierung aufgrund gesuchter Information und werden durch die Vermeidung kognitiver Dissonanzen
beeinuÿt.
2.2.5 Themenwahl
Zu welchen Themen informieren sich die Wähler? Zu Themen, die im Beruf verwertet werden können und einen persönlich betreen. Ausgaben, die einer kleinen
34 KAPITEL 2. ÖKONOMISCHE THEORIE DES WÄHLERVERHALTENS
Gruppe zugute kommen, werden deshalb von dieser wahrgenommen, während
breit gestreute Kosten kaum wahrgenommen werden.
Bei einzelnen Projekten sind Empfänger sehr viel besser informiert als diejenigen,
die es bezahlen sollen. Deshalb würde man erwarten, daÿ Interessenverbände eine
groÿe Macht besitzen, denn Verbandsinformationen haben einen groÿen Einuÿ
auf die politischen Präferenzen und das Wahlverhalten ihrer Mitglieder.
Der Grad der Organisierbarkeit hat einen starken Einuÿ darauf, wie gut die
Mitglieder vor allem politisch informiert sind.
Abbildung 2.4: Verteilung von Kosten und Nutzen
konzentriert
NUTZEN
Widerstreitende
Interessengruppen
konzentriert
KOSTEN
breit gestreut
(Gewerkschaft
geberverbände)
versus
breit gesteut
Staatsmännische Politik
Arbeit-
(Interessengruppen sind, mangels Konzentration der Nachfrage,
nicht im Spiel)
Befriedigung gut
organisierter Interessengruppen
Maximaler Freiraum
für den Politiker
(besonders bei Steuernanzierung ist die Zahl derer, die kaum
informiert sind, groÿ)
(der breitgestreute Nutzen wird
kaum wahrgenommen)
Kapitel 3
Ökonomische Theorie des
Politikerverhaltens
Die Situation des Politikers ist geprägt durch asymmetrische Information. Er weiÿ
nicht, was Wähler wollen, und der Wähler weiÿ nicht, was der Politiker will. Somit
ist Staatesversagen analog zum Marktversagen aufgrund von Informationsmangel
möglich.
Das einfachste Modell beginnt mit folgenden Annahmen: einfache Mehrheitsentscheidung, ohne Tauschgeschäfte, ohne Ausgleichszahlungen, ohne Bürokratie,
ohne Interessengruppen.
Die folgenden Fragen werden untersucht: Entscheidet in einer Demokratie immer
eine Mehrheit und sind die erreichten Gleichgewichte stabil?
3.1 Mehrheitsentscheidungen in einer repräsentativen Demokratie
Eine repräsentative Demokratie ist ein zweistuges Entscheidungsverfahren, weil
auf der ersten Stufe die Politiker oder Parteien gewählt werden und sie auf der
zweiten Stufe im Parlament durch Abstimmungen über verschiedene Alternativen
entscheiden.
In Groÿbritannien (ähnlich den Präsidentschaftswahlen in den USA) werden auf
der ersten Stufe mit einem Mehrheitswahlrecht im Wahlkreis die Politiker gewählt, die dann auf der zweiten Stufe im Mehrheitswahlrecht im Parlament Entscheidungen treen.
35
36KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Entscheidet in einer Demokratie eine Mehrheit? Nicht unbedingt, insbesondere
bei zweistugen Mehrheitsentscheidungen. Betrachten wir in Abbildung 3.1 den
Fall einer Entscheidung über die Alternativen A und B in fünf Wahlkreisen (IV): Zählt man die Mehrheitsverhältnisse auf der zweiten Stufe (im Parlament,
Abbildung 3.1: Verzerrung im zweistugen Entscheidungsverfahren
Wähler für A
B
Gewinner
I
3
2
A
Wahlkreise
II III IV
3 3
1
2 2
4
A A B
V
1
4
B
P
11
14
nach gewonnenen Wahlkreisen, untere Zeile), gilt 3:2 für A:B. Auf der ersten Stufe (nach Stimmen in der Bevölkerung, rechte Spalte) ergibt sich 11:14 für A:B.
D.h. in einem zweistugen Verfahren gewinnt Alternative A, in einem einstugen
Verfahren gewinnt B. Die Verzerrung des zweistugen Verfahrens wird von der
Knappheit der Wahlen in den einzelnen Wahlkreisen beeinuÿt. Die Alternative A hat in den Wahlkreisen jeweils nur knapp gewonnen, wohingegen B immer
haushoch. Im Extremfall der ungünstigsten Verteilung auf die Wahlkreise kann
das bedeuten, daÿ nur 1/3 der Bevölkerung (auf der ersten Stufe) eine Mehrheit auf der zweiten Stufe zustandebringen.1 Ergebnis: In einer repräsentativen
Demokratie kann eine Minderheit gewinnen.
In Groÿbritannien gewinnt 1974 Labor unter Wilson, obwohl die Konservativen
300.000 Stimmen mehr hatten. In den USA ist diese Verzerrung aufgrund der
Zweistugkeit auch schon bei den Präsidentschaftswahlen vorgekommen. In der
BRD gab es 1997 sechs Überhangmandate im Parlament, wodurch die CDU/FDP
Koalition die Mehrheit hatte. Die Entscheidungen des EU-Ministerrats sind ebenfalls zweistug: Zunächst werden in den Ländern die Bundestagsabgeordneten
gewählt, daraus die Regierung und anschlieÿend gibt es Abstimmungen der verschiedenen Regierungen im Ministerrat der EU. Hierbei wird nicht berücksichtigt,
wie knapp bzw. klar die Regierungen in den Mitgliedsländern gewählt worden
1W
sei die Anzahl der Wahlkreise, W A die Anzahl der Wahlkreise, in denen die Alternative
A gewinnt und n die Anzahl der Stimmen für Alternative B in jedem Wahlkreis. Dann bedeutet
W A = bW (1), daÿ die Alternative A einen Anteil b an allen Wahlkreisen gewonnen hat. Der
Ausdruck W A (n + 1) bezeichnet die Anzahl der Stimmen für Alternative A, bei der extremsten
Verteilung der Stimmen: n + 1 Stimmen für A in den gewonnenen Wahlkreisen und keine in
den von B gewonnenen Wahlkreisen. Die Anzahl aller Stimmen für B ergibt sich aus W n. Der
A
(n+1)
. Setzt
Anteil der Stimmen für Alternative A summiert über alle Wahlkreise lautet W AW(n+1)+W
n
b(1+n)
b
man darin W A = bW ein, ergibt sich limn→∞ b+n+bn
= 1+b
. Für eine einfache Mehrheit auf
der zweiten (b = 0.5) genügen demnach 1/3 der Stimmen auf der ersten Stufe und für eine
qualizierte Mehrheit (71%) ca. 42%.
3.2. MEHRHEITSENTSCHEIDUNGEN BEI MEHR ALS EINER ALTERNATIVE37
sind. Das heiÿt, aufgrund einer Zweistugkeit kann es passieren, daÿ z. B. der
bürgerliche Flügel die Mehrheit im Ministerrat hat, obwohl bei Summierung der
Stimmen in den einzelnen Ländern die Sozialdemokraten die Mehrheit hätten
(analog dem Beispiel in Abbildung 3.1). Im Ministerrat ergibt sich dadurch eine
Verkomplizierung, weil häug qualizierte Mehrheiten entscheiden, aber trotzdem kann es passieren, daÿ hinter dieser Entscheidung nur eine Minderheit der
Wähler steht (z. B. weil die Ja-stimmer nur knapp gewählt worden sind und die
Nein-stimmer haushoch gewonnen haben).
3.2 Mehrheitsentscheidungen bei mehr als einer
Alternative
In Deutschland ndet die Präsidentenwahl typischerweise mit mehr als zwei Kandidaten statt. Im ersten und zweiten Wahlgang entscheidet die Mehrheit der Mitglieder der Bundesversammlung. Wenn keine Mehrheit zustande kommt, gewinnt
im dritten Wahlgang die Alternative mit der relativen Mehrheit (die meisten
Stimmen). Der Präsident kann in so einem Fall von einer Minderheit gewählt
worden sein. In Abbildung 3.2 wird gezeigt, daÿ ein Kandidat gewinnen kann, obwohl er in einer Stichwahl einem anderen unterlegen wäre. Im ersten und zweiten
Abbildung 3.2: Relative Mehrheitsentscheidung bei mehr als einer Alternative
Bundesversammlung
40% SPD Rau
15% FDP Hamm-Brücher
45% CDU Herzog
R
B
H
ordinale Nutzenreihenfolge
RÂBÂH
BÂHÂR
HÂBÂR
Wahlgang kann keine Partei seinen Kandidaten durchsetzen. Im dritten Wahlgang gewinnt Herzog. Es sei denn, eine Partei zieht ihren Kandidaten zurück.
Macht dies die FDP, gewinnt Herzog, im Falle der SPD gewinnt Hamm-Brücher.
Ergebnis: Herzog gewinnt, obwohl er in einer Stichwahl gegen Hamm-Brücher
unterlegen wäre: für SPD und FDP gilt B Â H, beide würden für Hamm-Brücher
stimmen. Somit hat ein Kandidat mit 45% gegen 55% gewonnen.
In Frankreich nden Präsidentschaftswahlen mit typischerweise drei Kandidaten
statt: Konservative (Gaulisten), Mitte (Republikaner) und Sozialisten (Kommunisten). Das Verfahren besteht nicht aus einer relativen Mehrheitsregel wie in
Deutschland, sondern aus einem Zwei-Runden-Verfahren: In der zweiten Runde
gibt es eine Stichwahl zwischen den zwei Kandidaten, die in der ersten Runde die meisten Stimmen bekommen haben. In der ersten Runde iegt Balladur
38KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
raus, in der zweiten Runde gewinnt Chirac, da die Mitte Chirac gegenüber Jospin
vollzieht, obwohl er möglicherweise in einer Stichwahl Balladur unterlegen wäre.
1987 passierte dasselbe in der ersten Runde, Giscard iegt raus, in der zweiten
gewinnt Mitterand gegen Chirac, obwohl Mitterand gegen Giscard (vielleicht)
verloren hätte. Ergebnis: Beim zweistugen Verfahren wird die Mitte zerrieben,
das heiÿt das Verfahren ist polarisierend. In Frankreich wirkt dieser Tendenz das
Parlament entgegen, wo Koalitionen zu bilden sind, bis eine Seite 50% hat. Die
Mitte regiert in Frankreich über das Parlament und nicht über den Präsidenten.
Wie erreicht man, daÿ diejenige Alternative gewinnt, die von einer Mehrheit
präferiert wird. Die erste Möglichkeit besteht darin, Stichwahlen in beliebiger
Reihenfolge durchzuführen (siehe Abbildung 3.3 am Beispiel von Abbildung 3.2).
Ergebnis: B gewinnt unabhängig von der Reihenfolge. Das heiÿt mit diesem VerAbbildung 3.3: Stichwahlen
Möglichkeit
1.
2.
3.
1. Runde
R≺B
R≺H
H≺B
2. Runde
BÂH
BÂH
BÂH
Gewinner
B
B
B
fahren kann verhindert werden, daÿ jemand die Wahl gewinnt, der von einem
anderen Kandidaten geschlagen worden wäre. Hier würde also immer die Mitte
(B) gewinnen.
Diese Lösung funktioniert jedoch nicht immer: Bei einer Änderung der CDU
Präferenz von B Â R zu R Â B (die restlichen Relationen bleiben) ergibt sich H ≺
B ≺ R ≺ H, es liegt also eine Intransitivität oder zyklische Instabilität vor. Dieses
Problem heiÿt Condorcet-Paradox (1785) und wurde von Arrow formalisiert.
Ist dies eine kuriose Randerscheinung oder ein echtes Problem? Unter welchen
Bedingungen kann das auftreten? Bei paarweisen Abstimmungen, wie sie bei Gesetzesvorlagen im Parlament vorkommen: Annahme oder Ablehnung. Der Grund
liegt darin, daÿ die Entscheidungen binär sind (nur zwei Optionen), obwohl die
Optionen nicht binär sind (mehr als zwei Optionen). Das heiÿt, es liegt eine ungenaue Präferenzabbildung vor und die Lösung wäre ein Übergang auf ein kardinales
Nutzenmessniveau. Es tritt auf bei Mehrheitsentscheidungen, die nicht die Präferenzintensität der Minderheit berücksichtigen. Es entstehen negative externe
Eekte bei den Minderheiten, die aber nicht gemessen werden. Im Marktprozeÿ
tritt dies nicht auf, da niemand überstimmt wird, ohne daÿ er befragt wird, wie
seine Zahlungsbereitschaft (kardinale Präferenzbekundung) ist. Zu zeigen: das
Stabilitätsproblem verschwindet auch in der Politik, wenn Ausgleichszahlungen
eingeführt werden, das heiÿt bei kardinaler statt ordinaler Vorgehensweise (Ab-
3.3. MEHRHEITSENTSCHEIDUNGEN MIT ALTERNATIVENPAKETEN 39
bildung 3.4). Hier liegt eine zyklische Instabilität vor C ≺ B ≺ A ≺ C. Bei der
Abbildung 3.4: Ausgleichszahlungen
Partei
I
II
III
P
Alternativen
A B
C
4 -1
-2
-2 4
-1
-1 -2
5
1 1
2
P
1
+1
+2
Möglichkeit von Ausgleichszahlung ist jedoch eine stabile Lösung möglich: ist die
Lösung mit der höchsten Spaltensumme stabil? II will von C nach B, II+I bieten
5 + 1, III 7, um in C zu bleiben, das heiÿt es ndet keine Bewegung von C nach
B statt. I will von C nach A, I bietet 6, II + III 7, um in C zu bleiben, somit
kann keine Koalition eine Bewegung weg von C erreichen, weil die andere Seite
jeweils mehr bieten kann, um in C zu bleiben.
3.3 Mehrheitsentscheidungen mit Alternativenpaketen
Bei einer etwas anderen Interpretation von Abbildung 3.4 ergibt sich wieder keine
stabile Lösung. Bisher war nur A, B oder C möglich, jetzt aber sollen Pakete
in Kombination möglich sein, mit dem Status Quo, da bisher keine Maÿnahme
eingeführt wurde.
Für die einzelnen Alternativen A,B,C gibt es keine Mehrheit, da jeweils zwei
Parteien dagegen sind. ABC ist als Paket denkbar, da die Zeilensummen für alle
Gruppen positiv sind. Es gibt aber ein Instabilitätsproblem: Führt man ABC ein,
wollen I+II C nicht ein Gesetz, das C widerruft, gewinnt in einer Abstimmung.
Hat man AB, wählen I+III B ab. Hat man nur noch A, sind II+III dagegen
und man ist wieder im Status quo. Ergebnis: zyklische Instabilität bei Kombinationsmöglichkeiten verschiedener Alternativen. Ausgleichszahlung würde dies
verhindern und eine Einstimmigkeitsnotwendigkeit ebenso, denn ABC wäre stabil, weil keine Einzelmaÿnahme einstimmig abgeschat werden könnte.
Die empirische Relevanz ist bisher wenig untersucht worden, ist aber in der BRD
womöglich relevant, weil sich hier typischerweise drei Lager mit Gemeinsamkeiten
gegenüberstehen (siehe Abbildung 3.5 und 3.6).
1949 CDU/FDP-Koalition (B, nicht Einkommensegalitär) führt zur Marktwirt-
40KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Abbildung 3.5: Gemeinsamkeiten der Idelogien
kollektivistisch
Sozialismus
-Umverteilung der
Einkommen durch
staatlichen Zwang
-progressiv
-kollektivistisch
Konservativismus
-nicht Einkommensegalitär
-Traditionsgebunden
-kollektivistisch
(hierarchisch)
progressiv
nicht Einkommensegalitär
Liberalismus
-nicht Einkommensegalitär
(Prozeÿ egalitär)
-progressiv
-individualistisch
Abbildung 3.6: Idelogien
SPD
FDP
CDU
P
Progressiv (A)
3
2
-2
3
nicht Einkommensegalitär (B)
-1
4
2
5
Kollektivistisch (C)
1
-4
4
1
schaft. 1967 SPD/CDU-Koalition (C, kollektivistisch) reformiert Arbeitslosenversicherung, führt Arbeitsbeschaungsmaÿnahmen ein, gründet Bundesanstalt für
Arbeit, schat Karenztag ab, führt Mehrheitswahlrecht ein, was schlecht für die
FDP ist, da es eine kollektivistische Maÿnahme gegen Pluralismus und Dierenzierung ist (nur noch zwei groÿe Blöcke bleiben übrig). 1969 SPD/FDP-Koalition
(A, progressiv, antiklerikal) beschlieÿt Scheidungsrechtsreform, reformiert Ÿ218
und beginnt mit Ostpolitik. 1982 CDU/FDP-Koalition (B, der Kreis schlieÿt
sich) stellt eine Verbesserung für die FDP und CDU dar, die aus dem Minus
herauskommen.
Kann die Zyklik so weitergehen und wenn nicht, warum? Ende der sechziger Jahre
glaubte man die wirtschaftlichen Probleme seien gelöst. Seit den siebziger Jahren
gibt es jedoch schwere ökonomische Probleme. Und seit 1982 stehen wirtschaftspolitische Fragen im Vordergrund. CDU, FDP Koalition hätte einen Vorteil, es
sei denn die SPD setzt einen Wirtschaftskanzler an. Das führt dazu, daÿ die SPD
den Wirtschaftskanzler Schmidt trägt, die FDP fördert den Wirtschaftsminister
Graf Lambsdor. Wichtig: Die Bewegung von B nach C muÿ nicht unbedingt zustandegekommen sein, weil die SPD auf Dauer eine groÿe Koalition wollte. 1967
war nur eine Zwischenstufe zur sozialliberalen Koalition, denn für die SPD ist
3.4. MEDIANWÄHLERTHEOREM
41
die einzige Möglichkeit, von B nach A über C zu gelangen. Von B nach A würde
die SPD keinen Koalitionspartner nden, weil sich sowohl die FDP als auch die
CDU verschlechtern würden. Das heiÿt, die SPD spaltet die bürgerliche Koalition
und verspricht der CDU, das Mehrheitswahlrecht einzuführen, obwohl sie es gar
nicht möchte, und Kiesinger und Strauÿ haben es nicht bemerkt. Diese Strategie
von Wehner wäre selbst mit einer -1 bei C für die SPD rational: zwei Jahre lang
C schlucken, um nach A zu gelangen. Ergebnis: die Lösung mit der maximalen
Anzahl an Stimmen muÿ nicht stabil sein.
Fazit: Instabilitäten sind nicht nur im Markt möglich, sondern auch in der Wirtschaftspolitik. Die Ursachen sind aber verschieden: Im Schweinezyklusmodell am
Markt ergibt sich eine Preisexplosion wegen verzögerter Anpassung. In der Politik ist es umgekehrt: Verzögerung dient der Stabilisierung, sonst hätten wir jeden
Tag eine neue Koalition.
3.4 Medianwählertheorem
Im einfachsten Modell gelten folgende Annahmen:
1. es steht ein Thema zur Wahl,
2. eindimensionale Lösungsmöglichkeit (die Frage ist mehr oder weniger),
3. es gibt nur zwei Parteien,
4. entschieden wird mit einfacher Mehrheitsentscheidung und
5. die einzelnen Wähler haben eingipige Präferenzen,
nicht gemeint ist die Eingipigkeit der Häugkeitsverteilung der gesamten Wählerschaft (des Aggregats).
Das Problem nicht eingipiger Präferenzen wird in Abbildung 3.7 deutlich.
Ein Versuch die Präferenzintensitäten zu messen, besteht darin nicht Nutzen,
sondern Zahlungsbereitschaften zu betrachten.
Vom Status Quo 0 aus sind II+III für 100, das ist jedoch nicht stabil, da für I+II
gilt 50 Â 100, 50 ist aber auch wieder nicht stabil, da I+III 0 Â 50. Das heiÿt
es liegt ein Stabilitätsproblem vor. Die Annahme 5 soll zweigipige Präferenzen
(III) ausschlieÿen, weil sie zyklische Instabilitäten ermöglichen.
Die Aussage des Medianwählertheorems lautet: Unter den fünf gemachten Annahmen tendieren die beiden Parteien zur Medianwählerposition. Die Aussage
lautet nicht, sie benden sich ständig in dieser Position, denn dies ist in einer
Welt der Unsicherheit kaum möglich, da die Medianwählerposition der Wählerschaft nicht bekannt ist. Das Theorem ist unabhängig von der Verteilung der
Wählerpräferenzen. Einige Verteilungen sind in Abbildung 3.8 dargestellt. Die algebraische Formalisierung der Medianposition unterscheidet zwischen ungerader
42KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Abbildung 3.7: Eingipige Präferenzen
z.B. Soldatenanzahl
bei einem Militäreinsatz
III nicht kleckern,
sondern klotzen
II Goldene Mitte
I Pazist
0
50
100
Abbildung 3.8: Verteilungen
eingipig, symetrisch
m=µ=M
zweigipig, symetrisch
eingipig, rechtsschief
M mµ
gleichverteilt
m = µ, kein M
M
µ
M =Modus, m=Median, µ=Mittelwert
M
3.4. MEDIANWÄHLERTHEOREM
43
Anzahl: m = (n + 1)/2 und gerader Anzahl: m = n/2 und n/2 + 1. Die eingipige
rechtsschiefe Verteilung ist besonders bei Umverteilungsdiskussion von Bedeutung, da Einkommensverteilungen typischerweise diese beiden Charakteristiken
aufweisen.
Warum rücken die Parteien zum Median? Das Integral unter der Verteilungskurve
gibt den Stimmenanteil an. Um die Mehrheit zu erlangen, muÿ man sich beim
Median positionieren, wenn man davon ausgeht, daÿ die Wähler für die ihnen am
nächsten liegende Partei stimmen. Die Parteien treen sich aus ihrer jeweiligen
Richtung kommend in der Mitte. Frühere Vorläufer in der ökonomischen Theorie
behandelten die Standortwahl bzw. Produktdierenzierung im Dyopol.
Warum geht keine Partei über den Median hinaus? Erstens, weil dann die Gefahr
besteht, von der zweiten Partei überholt zu werden, die sich zwischen Median
und der ersten Partei positionieren und so eine Mehrheit erlangen kann. Daraufhin kann die erste Partei das gleiche Manöver durchführen usw., womit klar
ist, daÿ keine vom Median abweichende Position stabil ist. Allerdings besteht bei
diesen Manövern kurzfristig ein Glaubwürdigkeitsproblem, da ja die Parteien sich
abwechselnd die linke bzw. rechte Klientel wegnehmen müssten.
Zweitens, weil die Gefahr einer dritten hinzukommenden Partei besteht. Kurzfristig wird das durch Transaktions- bzw. Neugründungskosten verhindert, aber
langfristig ist eine Neugründung durchaus denkbar.
Im Medianwählertheorem ist es langfristig egal, welche der beiden Thesen zur
Charakterisierung des Politikerverhaltens man vertritt, ob Downs Stimmenmaximierung oder aber Frey/Schneiders Wiederwahlrestriktion. Jede Partei, die versucht, über 50% der Stimmen zu erhalten, muÿ damit rechnen, überholt zu werden und nur in der Medianposition ist sie vor Überholmanöver sicher. Auch ein
Stimmenmaximierer muÿ sich mit 50% zufrieden geben.
Die Parteien rücken insbesondere vor den Wahlen aufeinander zu, wo der Kampf
um den Median voll entbrennt. Gerhard Schröder hat das in der letzten Bundestagswahl lehrbuchartig vorgeführt.
Die Ursache für diese Annäherung an den Median sind nicht Absprachen zwischen den Parteien, sondern der Wettbewerb um Wählerstimmen. Das ist ganz
analog zum Markt: Anbieter bewegen sich bei ihrer Preisforderung aufeinander
zu. Nicht unbedingt wegen Absprachen, sondern wegen Arbitragephänomen: Wer
sich vom Gleichgewichtspreis entfernt, verliert Nachfrager. Beim Versuch, sich
dem Median anzunähern, kann man verschiedener Meinung sein, wo der Median
eigentlich liegt, was eine mögliche Erklärung für letztendlich doch unterschiedliche
Programme vor der Wahl ist. Wenn beide doch vor der Wahl an den Median herankommen, entscheidet der Zufall, beispielsweise das Wetter (die Konservativen
haben eher Regenschirme und gehen deshalb eher zur Wahl) oder die Popularität
44KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
einzelner Politiker (paÿt zur rationalen Uninformiertheit der Wähler).
Wenn wir tatsächlich eine solche Konvergenz zum Wahltermin haben und nach
der Wahl wieder ein Auseinandergehen, dann liegt ein Zeitinkonsistenzproblem
vor (Das Verhalten eines Politikers in t hat nicht nur Auswirkungen auf das
Verhalten der Wähler in t, t + 1, ..., sondern auch auf ihre Entscheidungen in
t − 1, t − 2, ...). Die Programmschwankungen erhöhen die Informationkosten.
Hat der Medianwähler, trotz der hohen Informationkosten, ein starkes Interesse
sich zu informieren, weil er den Ausschlag gibt? Ist eine Modikation der rationalen Unwissenheit nötig? Buchanan argumentiert, daÿ der Wähler selbst in der
Medianposition rationalerweise schlecht informiert sei: Erstens, weil er nicht weiÿ,
ob er der Median ist und zweitens, weil die Medianposition über die Zeit nicht
konstant ist, es sich also nicht lohnt, bei einer Wahl gut informiert zu sein, da
es sich nicht unbedingt in den nächsten Wahlen amortisiert. Folglich ist die Hypothese der rationalen Unwissenheit aufgrund des Medianwählertheorems nicht
wesentlich zu modizieren.
Nun werden die einzelnen Annahmen des einfachen Medianwählertheorems gelockert und die Veränderungen der Schluÿfolgerungen herausgearbeitet.
3.4.1 Enthaltungen
3.4.1.1 Eingipige, symmetrische Präferenzverteilung
Abbildung 3.9: Eingipige, symetrische Präferenzverteilung
C-Partei
S-Partei
a
a
B
A
E
E
S0 = C0 = C1 = m
g
S1
w
G
Y
3.4. MEDIANWÄHLERTHEOREM
45
In der Ausgangslage benden sich beide Parteien im Median (m). Mit Enthaltungen E ergeben sich zwei Reichweiten von jeweils |S1 − m| und die Flächen a
als Anteile für die beiden Parteien.
Kann sich eine Partei verbessern, wenn sie vom Median abweicht? Angenommen
die S-Partei bewegt sich nach rechts bis S1 auf eine neue programmatische Position, so kann sie die Zahl der Enthaltungen reduzieren und bei gleicher Reichweite
bis w Wähler attrahieren. A ist der Zugewinn an Wählern im Bereich der höheren
Staatsquote, die sich nicht mehr enthalten. Die S-Partei verliert allerdings auf der
anderen Seite Wähler. Die C-Partei bleibt, wo sie ist, bei g entsteht eine neue
Grenze (g ist die Mitte zwischen m und S1 ).2 Die C-Partei gewinnt und die SPartei verliert den Anteil B. Hat sich die Stimmenrelation der S-Partei gegenüber
der C-Partei erhöht oder vermindert? Die Veränderung des Stimmenvorsprunges
ist für die S-Partei negativ: A-B-B<0. Die Grundstrecke ist zwar die gleiche,
jedoch ist die Fläche 2×B näher am Modus und somit gröÿer.
Fazit: Das Medianwählertheorem gilt: wer vom Median abrückt, verliert per Saldo
Stimmen, weil die Verteilung zu den Seiten hin abacht.
3.4.1.2 Eingipige, asymmetrische Präferenzverteilung
Abbildung 3.10: Eingipige, asymetrische Präferenzverteilung
M m µ
2 Da
die Reichweite gleich geblieben ist, gilt, daÿ die vorherige Reichweite |m − S1 | gleich
der neuen |S1 − w| ist. Die S-Partei rückt in diesem Beispiel zufällig an die Stelle, wo vorher
die Enthaltungen begannen. Auÿerdem gilt |S1 − w| = 2 × |m − g|, da die S-Partei die Hälfte
des Abstandes zwischen m und S1 an die C-Partei verliert.
46KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Enthaltungen bei der Verteilung in Abbildung 3.10 können dazu führen, daÿ beide Parteien vom Median weg in Richtung Modus wandern. Denn bei Enthaltung
zählt die Höhe der Häugkeitsverteilung, also der Modus. Bei solchen Verteilungen, wo der Median nicht mit dem Modus identisch ist, erfolgt eine Bewegung
Richtung Modus. Nur, wenn der Modus und der Median übereinstimmen, bleibt
das Medianwählertheorem trotz Enthaltungen bestehen. Wenn M und m nicht
übereinstimmen, ist der Modus entscheidend und die Parteien bewegen sich Richtung Modus, allerdings haben beide immer noch ein identisches Programm (nur
etwas weiter links) und sie kämpfen nun um den Moduswähler.
3.4.1.3 Zweigipige, symmetrische Präferenzverteilung
Abbildung 3.11: Zweigipige, symetrische Präferenzverteilung
M
µ
M
Mit Enthaltungen wandern beide Parteien in Abbildung 3.11 zu einem der Modi
und haben keine identischen Programme.
3.4.1.4 Gleichverteilte Präferenzen
Bei gleichverteilten Präferenzen in Abbildung 3.12 gibt es keinen Modus und
das System ist indeterminiert. Beide Parteien wählen einen Punkt, wahrscheinlich so, daÿ sie nicht miteinander konkurrieren, sich ihre Reichweiten also nicht
überlappen. Sie haben die gleiche Stimmenzahl und der Zufall entscheidet. Allerdings ist zu erwarten, daÿ sich bei stark begrenzten Reichweiten (Enthaltungen),
ein Zweiparteiensystem nicht halten kann und weitere Parteien dazukommen, bis
3.4. MEDIANWÄHLERTHEOREM
47
Abbildung 3.12: Gleichverteilte Präferenzen
µ = m, kein M
die Enthalter beim Mehrparteiensystem auch eine Partei nden, die sie wählen
können. Schon weil das Zweiparteiensystem nicht stabil ist, kann das Medianwählertheorem hier nicht gelten.
3.4.1.5 Fazit
Bei Enthaltung zählt der Modus. Wenn der Modus mit dem Median identisch
ist, bleibt das Medianwählertheorem gültig, wenn nicht, gilt der Modus. Bei nur
einem Modus ergeben sich identischen Programme, bei zwei Gipfeln nicht.
Bei mehr als zwei Parteien werden wir Koalition bekommen, denn eine Partei
allein kann wegen des Enthaltungsproblems nicht die Mehrheit bekommen.
Zum Theorem der Koalitionsbildung: Nach Riker gilt das Prinzip der kleinsten
Gewinnkoalition. Das zugrunde liegende Kalkül lautet: Politiker teilen nicht gerne
unnötig die Macht. Daraus folgt, daÿ die Koalition gerade so groÿ ist, daÿ man
die Mehrheit hat, weil man sonst die Ministerposten und damit die Macht mit
Parteien teilen muÿ, die man nicht zur Mehrheitsbeschaung braucht.
Axelrod wendet dazu ein: Die kleinste mögliche Gewinnkoalition kann aus ideologischen Gründen scheitern, (z. B. Schwarz-Grün auf Bundesebene). Deshalb muÿ
man folgende Einschränkung beim Rikerprinzip vornehmen: Prinzip der kleinsten
zusammenhängenden Gewinnkoalition. Bei Aneinanderreihung entsprechend der
Ideologien wird bis zur knappen Mehrheit koaliert. Aus dieser Theorie folgt: Politiker haben ein Präferenz für eine Mehrheitminimierung, daÿ ist gleichbedeu-
48KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
tend mit Minderheitmaximierung. Man kann also davon ausgehen, daÿ in einer
Demokratie die Minderheit maximiert wird. Es liegt also eine Tendenz zur Majorisierung und nicht zum Konsens vor.
3.4.2 Parteibasis
Eine weitere Modikation des einfachen Medianwählertheorems betrit die Parteibasis. Die Parteibasis beschränkt den programmatischen Bewegungsspielraum
der Parteiführung.
Abbildung 3.13: Präferenzen des Wählers und der Parteibasis
mW
mP
Bei der Wahl des Spitzenkandidats durch die Parteibasis muÿ er, um sich gegen
andere Kandidaten durchzusetzen, mP einnehmen, da er sonst verliert (siehe Abbildung 3.13). Bei der Wahl durch die Bevölkerung muÿ er später mW einnehmen,
um die Wahl zu gewinnen. Das heiÿt, der Kandidat muÿ sich vom Partei- zum
Wählermedian bewegen, worunter die Glaubwürdigkeit leidet. Wenn der Parteimedian weit weg ist, kann die Zeit, um diese Strecke ideologisch zu überwinden,
knapp werden. Er bleibt aus Gründen der Glaubwürdigkeit zwischen mW und mP
stecken und verliert die Wahl. Der Kandidat der anderen Partei kann das gleiche Problem haben. Die Parteien, deren Spitzenkandidat von der Basis gewählt
wird, ist einer Partei gegenüber im Nachteil, deren Kandidat nicht von der Basis
gewählt wird. Andere Gremien, wie z. B. Fraktionen, wissen um dieses Problem
und sind von Anfang an näher am Median. Das Problem tritt bei einem Direktwahlmandaten, wie z. B. bei der Erststimme bei der Bundestagswahl, auf. Zuerst
3.4. MEDIANWÄHLERTHEOREM
49
erfolgt eine Aufstellung im Wahlkreis, d. h. der Kandidat muÿ dem Parteimedian
entsprechen, und muÿ dann bis zur Wahl zum Wählermedian wandern.
Ausgeprägter ist das Phänomen bei den US-Präsidentschaftswahlen: z.B. war
Pat Buchanan beliebt in seiner Partei, hatte aber keine Chance bei den Wählern.
Generell kann sich der Präsident bei einer Wiederbewerbung direkt am Wählermedian orientieren, weil die Primaries sicher (war noch nie anders) gewonnen
werden. Der Herausforderer hat nach seiner Aufstellung Probleme, sich schnell
genug dem Wählermedian anzunähern.
Für konkurrierende Parteien, die mit diesem Problem zu tun haben, läÿt sich
folgendes sagen: den bürgerlichen Parteien sagt man nach, sie seien weniger ideologisch als S-Parteien. Die bürgerlichen Parteien sind womöglich nur Machterhaltungsvereine, die pragmatischerweise hauptsächlich an der Macht sein wollen.
Das heiÿt, man würde erwarten, daÿ S-Parteien mit diesem Problem mehr zu
tun haben als bürgerliche. Entscheidend für die bürgerlichen Parteien ist der
Medianwähler, der zur Macht verhilft und dieser weicht von der Basis nicht zu
sehr ab. Die Restriktion greift bei der S-Partei stärker und sie kann die Wählermedianposition nicht so schnell einnehmen. Das heiÿt, eine Abweichung vom
Medialenwählertheorem ist eher bei der S-Partei als bei einer bürgerlichen zu
erwarten.
3.4.3 Geldgeber
Die Geldgeber beschränken den programmatischen Bewegungsspielraum der Parteiführung in einer ähnlichen Weise, wie es die Parteibasis tut. Das Problem
entsteht, wenn die Geldgeber ein Programm fordern, das vom Wählermedian
abweicht (in Abbildung 3.13 entspricht mP dem Mittelwert der Verteilung des
Geldgebers).
Daraus folgt ein Trade o: Geldgeber führen einerseits zu Stimmenverlusten, weil
die Partei zum Wahltermin nicht in Wählermedian sein kann. (Die Geldgeber
verhindern dies, es sei denn, man hat schon kassiert und täuscht seinen eigenen
Geldgeber.) Und andererseits bringen Geldgeber Geld, das zum Wahlkampf zur
Verfügung steht und so die Zahl der Enthaltungen reduziert werden kann und
somit eine Mobilisierung latenter Wähler oder eine Veränderung der (endogenen)
Wählerpräferenzen ermöglicht, so daÿ sich der Median verändert. Präferenzänderungen herbeizuführen, dürfte allerdings recht aufwendig sein. Im Optimum
entspricht der Grenzgewinn an Stimmen durch zusätzliches Geld (insbesondere
durch Reduktion der Enthaltungen) dem Grenzverlust durch verbleibende programmatische Distanz zum Median.
50KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
3.4.4 Unsicherheit und unvollkommene Information
Die Parteiführung weiÿ nicht, wo sich der Medianwähler bendet. Insbesondere in
Zeiten, wo es nicht so viele Meinungsumfragen gab und die statistischen Methoden
nicht so ausgefeilt waren, diente der Wahlausgang als Information darüber, wo
der Medianwähler ist.
Abbildung 3.14: Wo ist der Medianwähler?
C0
C m g
S
Am Beispiel in Abbildung 3.14: Es ndet eine Wahl mit den Programmen C und
S statt. C gewinnt und die Grenzlinie ist in g (mit oder ohne Enthaltungen ist
egal, da C auch näher am Modus ist).
Was können die Parteien aus dem Sieg der C-Partei bezüglich der Position des
Medianwählers lernen? Die C-Partei ist näher am Median als die S-Partei (sonst
hätte sie nicht gewonnen), aber sie wissen nicht, ob die C-Partei links oder rechts
vom Median ist. Sie könnte auch in C 0 gewesen sein, dann hätte sie erst recht
gewonnen (ohne Enthaltungen). Da dies nicht bekannt ist, sollte die C-Partei
sich nicht bewegen, denn wenn die C-Partei sich nach rechts bewegt, wenn sie
sich schon rechts vom Median bendet, kann sie von der S-Partei links überholt
werden oder von einer neuen Partei, die sich links positioniert.
Es ist gefährlich, den Median zu überschreiten und dann womöglich mehr vom
Median abzuweichen als vorher. Daraus folgt, daÿ für die Gewinnerpartei unter
Unsicherheit die rationale Strategie daraus besteht, keine Experimente zu wagen.
Die S-Partei weiÿ, daÿ sie weiter vom Median entfernt ist und daÿ sie rechts von
C ist. Somit muÿ sie in Richtung C rücken. Je höher die Niederlage war, desto
3.4. MEDIANWÄHLERTHEOREM
51
weiter war sie vom Median entfernt, desto mehr wird sie ihr Programm anpassen
müssen.
Die gröÿte programmatische Anpassung in der Nachkriegszeit war das Godesberger Programm als Reaktion auf den gröÿten Wahlsieg der CDU 1957, der Wehner
die Programmdurchsetzung ermöglichte. In den USA erlitt Goldwater 1964, der
Krieg, Krieg, Krieg forderte eine verheerende Niederlage. Daraufhin schwenkten die Republikaner um und gewannen 1968 mit Nixon, der Frieden, Frieden,
Frieden forderte. Enorme programmatische Anpassungen folgten verheerenden
Niederlagen.
Fazit: Die Wahlergebnisse vermitteln Informationen über Wählerpräferenzen, lösen Lernprozesse bei den Politikern aus und führen zu einer programmatischen
Anpassung.
Vergleich zur Anpassung im Markt: Im Markt werden nicht Programme angepaÿt, sondern Preise oder Mengen. Je gröÿer die Diskrepanz bei den Mengen,
also zwischen Angebot und Nachfrage, ist, desto gröÿer wird die Preisanpassung
sein. Der Anbieter lernt aus dem Unter-/Überangebot, das er im Markt feststellt,
wie stark er seine Preise anpassen muÿ. Unterschied: Im Markt gibt es solche
Information tagtäglich. In der Demokratie werden diese Information nur alle vier
Jahre durch den Wahlausgang bereitgestellt.
3.4.5 Lockerung der 2er Annahmen
Bisher galt die Annahme, daÿ es nur ein Thema und zwei Parteien gibt. Nun soll
es zwei Themen und nun drei Parteien geben, siehe Abbildung 3.15.
Die Wähler sind annahmegemäÿ gleichmäÿig über die Fläche verteilt. Die S-Partei
sollte sich auf rationale Weise wegbewegen, weil sich damit Stimmen gewinnen
lassen (weg vom Median). Hier ist Zyklik trotz Eingipigkeit möglich.
3.4.6 Anwendung auf staatliche Umverteilung
Unter dem Begri Directors Law wendete Stigler das Medianwählertheorem auf
staatliche Umverteilung an. Die These lautet: In der Demokratie wird nicht nur
zugunsten der Armen und Bedürftigen umverteilt, sondern auch zugunsten des
Medianwählers.
In Kopie 23 sieht man die Quantilschichtung der Einkommen in der BRD im Jahre
1980. Die Ärmsten verbessern sich durch Umverteilung der Einkommensteuer
von 0,2% beim Bruttogehalt auf 6,9% beim Nettogehalt. Die Einkommen im
52KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Abbildung 3.15: Zwei Themen und drei Parteien
0%
Verbot
Ÿ218
Erlaubt
S
C
100%Pegeversicherungnettoersatzrate
zweituntersten Quantil verbessern sich von 4,9% auf 11,2%. Im mittleren Quantil,
wo sich der Median bendet, wurde von 15,5% auf 16,2% umverteilt. Für 1980
trit es in Deutschland gemäÿ dem Directors Law also zu, daÿ die Umverteilung
des Staates auch den Medianwähler (gemessen am Einkommen) begünstigt hat.
Wie kommt das zustande? Eine wichtige Rolle spielen die Einkommensgrenzen
für verschiedene sozialpolitische Transfers. Im sozialen Wohnungsbau3 , bei der
Arbeitnehmersparzulage beim BaföG (bei zwei Kindern), beim Wohngeld (bei
zwei Kindern) und beim Erziehungsgeld (ab dem siebten Monat) liegen die Einkommensgrenzen bei 30.000 DM. Diese Einkommensgrenze liegt ungefähr beim
Medianeinkommen. Auällig ist, daÿ diese Einkommensgrenze in unregelmäÿigen
Abständen, aber regelmäÿig vor Wahlen, angepaÿt (erhöht) werden.
Bei einigen Transferprogrammen, wie z.B. im sozialen Wohnungsbau und bei der
Vermögensbildung, gibt es einen regressiven Eekt, der Medianwähler erhält also einen höheren Betrag als die Ärmeren. Im sozialen Wohnungsbau bekommt
derjenige, der knapp unter der Einkommensgrenze liegt, einen höheren Transfer
als derjenige, dessen Einkommen weit unter der Einkommensgrenze liegt, weil 1.
diejenigen, deren Einkommen nur knapp unter der Einkommensgrenze liegt, die
wertvolleren Sozialwohnungen nachfragen. Diese werden aber betragsmäÿig höher
subventioniert als die billigen, weil die Subventionen prozentual berechnet werden. Das heiÿt, innerhalb der Berechtigten ergibt sich eine regressive Verteilungs3 Beim
sozialen Wohnungsbau muÿ man nur beim ersten Antrag unter 30.000 DM verdienen,
danach ist es egal.
3.4. MEDIANWÄHLERTHEOREM
53
wirkung. 2. Im sozialen Wohnungsbau bekommen nicht alle Berechtigten eine
Wohnung. Transfers aber bekommen nur diejenigen, die eine Wohnung erhalten.
Das sind aber eher diejenigen mit höherem Einkommen innerhalb der Einkommensgrenze, weil die kommunalen Wohnungsbaugesellschaften eher an Bezieher
höherer Einkommen vermieten (weniger Abnutzung, höhere Schadensersatzfähigkeit usw.). Es ergibt sich wieder eine regressive Verteilungswirkung innerhalb der
Berechtigten.
Bei der Vermögensbildung ergibt sich eine regressive Wirkung, weil die gröÿten
Subventionsbeträge an diejenigen ieÿen, die knapp unter der Einkommensgrenze
liegen, da sie bei einem höheren Einkommen mehr sparen können und folglich
einen höheren Zuschuÿ erhalten.
Läÿt sich diese Umverteilung zugunsten des Medianwählers auch anders erklären als mit dem Medianwählertheorem? Nach Lee/McKenzie setzen sich bei der
Umverteilung durch den Staat die Cleveren durch, sie können die politische Maschinerie besser zu ihrem Zweck ausnutzen. Wenn die Cleveren die Humankapitalisten sind und auch ein höheres Einkommen haben, würde man erwarten,
daÿ eine Umverteilung zugunsten der Besserverdienenden stattndet und nicht
zu den schlechter verdienenden, denn diese sind zu dumm, um sich im politischen
Prozeÿ durchzusetzen. Dieser Hypothese nach, ist, wer im Markt produktiv ist,
auch in der Politik produktiv. Dies erklärt, warum der Medianeinkommensbezieher mehr bekommt als die schlechter verdienenden. Aber dies würde eine generelle
regressive Umverteilung von den Armen zu den Reichen implizieren. Das widerspricht jedoch den empirischen Fakten in Kopie 23, wo man sieht, daÿ die oberen
Quantile geben und die unteren Quantil bekommen.
Die Prognose von vor 100 Jahren, daÿ, wenn die Armut, durch die für diesen
Zweck gedachten Sozialprogramme, beseitigt worden ist, sich diese überüssig
machen, ist durch die Geschichte widerlegt worden. Das Medianwählertheorem
könnte eine Erklärung dafür liefern.
Umverteilung in der Demokratie kann nicht nur durch die Steuerprogression (Einkommensteuer) und durch einkommensabhängige Transfers (siehe oben), sondern auch bei proportionaler Einkommensteuer und einem einheitlichen ProkopfTransfer zustande kommen (Meltzer/Richard Hypothese).
Angenommen die Sozialpolitik funktioniert nach dem Gieÿkannenprinzip. Die
Transfers werden einheitlich über die gesamte Bevölkerung verteilt und die Einkommenssteuer ist proportional und nicht progressiv. Es kommt eine Umverteilung zugunsten des Medianwähler zustande, weil eine rechtsschiefe Einkommensverteilung vorliegt und damit das Medianwählereinkommen kleiner ist als das
durchschnittliche Einkommen. Zahlenbeispiel:
µ= (1 2 3 4)TDM × (1 3 2 1)T / 7=2 3/7 TDM
m = 2 TDM<µ=2 3/7 TDM (das 4. Einkommen von 7)
54KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
In Kopie 24 sieht man, daÿ die Einkommensverteilung rechtsschief ist und in
den Kopien 23 und 25, daÿ das Medianeinkommen weniger als 100% Prozent des
Durchschnittseinkommen beträgt.
Zu zeigen: Der Median protiert von einer proportionalen Einkommensteuer und
einem einheitlichen Prokopf-Transfer. Der Transfer muÿ kein Geldtransfer, sondern kann auch ein Sachtransfer, wie ein öentliches Gut sein, daÿ jeder im
gleichen Wert konsumiert. Der Medianwähler zahlt Tm = tym und bekommt
Gm = G = T = ty und daraus folgt Tm = tym < ty = Gm , er zahlt also
weniger als er bekommt.
In Kopie 26 ist eine Regression von Meltzer und Richard zu sehen. Die Ausgangsgleichung lautet:
1
ln t = a + b1 ln(m − 1) − b2 ln(1 − F ) − b3 .
yd
t ist Redistributionsquote, die ungefähr der Sozialleistungsquote entspricht, aber
hier nicht nur die Umverteilung des Staates, sondern auch die der Unternehmungen, der Wohltätigkeitsorganisation usw. umfaÿt. Hinter (m − 1) steckt die
Hypothese, je gröÿer die Diskrepanz zwischen den Medianeinkommen und den
Durchschnittseinkommen ist, desto mehr wird umverteilt. 1 − F kontrolliert für
die Zahl der Sozialleistungsempfänger. 1/yd könnte Wagners Gesetz erfassen: der
Anteil der Umverteilung am Volkseinkommen hängt positiv vom Volkseinkommen
ab.
Bei der Regression besteht ein Simultanitätsproblem, denn man kann nicht nur
sagen: je gröÿer die Zahl der Empfänger, desto gröÿer die Umverteilung, sondern
auch, je gröÿer die Umverteilung, desto gröÿer die Zahl der Empfänger. Die Zahl
der Empfänger ist hier also nicht exogen, sondern endogen. Die hier angewandte
Lösung besteht darin, die (starke) Annahme b2 = 1 zu treen und (1 − F ) dann
auf die andere Seite zu bringen:
1
ln(t(1 − F )) = c + d1 ln(m − 1) + d2 .
yd
Ergebnisse der Schätzung:
- 1. Zeile: ln(m − 1): je mehr das Durchschnittseinkommen über dem Medianeinkommen liegt (je gröÿer die rechtsschiefe ist), desto gröÿer ist die
Umverteilung (berichtigt um die Zahl der Empfänger). Allerdings gibt es ein
Autokorrelationsproblem in den Residuen, da der Durbin-Watson-Koezient
DW mit 1.3 weit unter 2 ist.
- 2. Zeile: Hier wird das Autokorrelationsproblem mit dem Hildreth-Lu Verfahren angegangen. Der DW-Koezient sinkt auf 1.6 in den undeterminierten Bereich. ln(m − 1) ist mit 5.5 immer noch hochsignikant. yd hat
3.4. MEDIANWÄHLERTHEOREM
55
einen positiven4 Eekt. Mit den Medianeinkommen steigt der Anteil der
Umverteilung an den Staatsausgaben.
- 3-6. Zeile: Hier wird zwischen Sach- (3.u.4. Zeile) und Geldtransfers (5.u.6.
Zeile) unterschieden. Die Zeilen 3 und 5 haben jedoch einen zu niedrigen
DW-Koezienten, weshalb nur die Zeilen 4 und 6 betrachtet werden.
- 4.u.6. Zeile: Sowohl bei den Sach- als auch bei den Geldtransfers gibt es
einen signikant positiven Eekt der Rechtsschiefe der Einkommensverteilung. Der signikant negative Eekt von 1/yd bleibt nur bei den Geldtransfer signikant, nicht jedoch bei den Sachtransfers. Die Erklärung könnte
lauten, daÿ für den Medianwähler in erster Linie nur der Geldtransfer interessant ist. Denn die Sachtransfers decken die Grundbedürfnisse (der Armen)
ab, die aber beim Median schon abgedeckt sind. Er möchte für zusätzliche
Ausgaben Geld haben. Das deutet daraufhin, daÿ tatsächlich der Medianwähler seine Interessen durchsetzt. Beim Vergleich der Regressionskoezienten von ln(m − 1) in der 4. und 6. Zeile: 0,34 und 0,71. Dieses Ergebnis
läÿt sich als ein Hinweis interpretieren, daÿ der Medianwähler stärker an
Geld- als ein Sachtransfers interessiert ist. Die Ergebnisse sind nicht selbstverständlich, denn man könnte auch argumentieren, daÿ der Medianwähler
daran interessiert ist zu verschleiern, daÿ er selbst durch die staatliche Umverteilung begünstigt wird. Dies könnte man bei den Sachtransfers besser,
denn sie sind schwerer zu bewerten und damit festzustellen, wer wieviel
bekommt. Aber das Verschleierungs- tritt oensichtlich hinter dem Transferinteresse zurück.
Zu der Regression läÿt sich einwenden, daÿ die Diskrepanz zwischen dem Medianund Durchschnittseinkommen nicht nur die rechtschiefe, sondern auch die Ungleichverteilung der Einkommen miÿt. Angenommen die Einkommensverteilung
verändert sich wie in Abbildung 3.16. Dann haben wir nicht nur eine zunehmende
rechtschiefe Einkommensverteilung, sondern auch eine zunehmende Ungleichverteilung der Einkommen. Die stärkere Umverteilung durch den Staat in der Demokratie könnte eine Reaktion auf die gröÿere Ungleichverteilung sein und nicht nur
auf die gröÿere Rechtsschiefe. Insofern ist nicht klar, was die Diskrepanz zwischen
Median- und Durchschnittseinkommen hier abbildet, das Interesse des Medianwähler oder des altruistischen Nettozahlers, der bei stärkerer Ungleichverteilung
der Einkommen ein biÿchen mehr Umverteilung möchte, damit die Ungleichverteilung reduziert wird. Eine Methode, um das Problem zu lösen, wäre, neben dem
Maÿ für die Rechtsschiefe noch eine andere erklärende Variable in die Regression
aufzunehmen, welche die Ungleichverteilung kontrolliert, wie z. B. den Ginikoef4 Der
für 1/yd ausgewiesene Koezient hat zwar ein negatives Vorzeichen, aber yd hat einen
positiven Eekt auf die erklärte Variable, da es im Nenner steht.
56KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Abbildung 3.16: Änderung der Einkommenverteilung
zienten oder die Varianz der Prokopf-Einkommen. Mit beiden Variablen könnte
man den Ungleichheitseekt vom Rechtsschiefe-/MedianEekt separieren.
3.5 Agenda setter
Obwohl der Medianwähler die Entscheidung zu treen hat, darf jemand anders
(eine Institution) den Vorschlag machen, über den dann abgestimmt wird. Diese
Institution ist der Agenda setter (Optionsxierer).
Nehmen wir beispielsweise eine Volksabstimmung, wo die Regierung das Vorschlagsrecht (-monopol) hat. D.h. der Agendasetter macht einen Vorschlag und
die Frage ist, ob eine Mehrheit für oder gegen den Vorschlag ist.
q
m
20%
40%
b
a
59% 70%
Wir benden uns im Status Quo q und der Medianwähler möchte m. Der Agendasetter hätte gerne a und kann nun einen Vorschlag machen. In a bekommt er
keine Mehrheit, der Vorschlag wird abgelehnt, denn aus Sicht des Medianwählers ist q näher an m als a. b, das näher an m ist als q wird angenommen, der
Medianwähler stimmt für diesen Vorschlag. Das heiÿt der Agendasetter hat eine
groÿe Macht und diese ist umso gröÿer, je weiter q von m entfernt ist, denn desto
3.5. AGENDA SETTER
57
mehr kann der Agendasetter auf der andern Seite überschieÿen (bei q = 0 Prozent
kann a bis 79% gehen). Der Agendasetter kann also den Median überschreiten,
und zwar desto mehr, je näher der Status Quo von der Medianposition entfernt
ist. Diese Analyse ist auch anwendbar, wenn es sich nicht um eine Medianwählersituation handelt und nicht mit einfacher, sondern mit qualizierter Mehrheit
entschieden wird.
Beispiel: Initiativmonopol der Europäischen Kommission. Es kann keinerlei Gesetzgebung geben durch die EU, wenn nicht vorher die europäische Kommission
einen dahingehenden Vorschlag gemacht hat. In der Regel entscheidet der Ministerrat. Manchmal einstimmig, zunehmend aber auch mit qualizierter Mehrheit.
In Maastricht II wurde darüber beraten, ob man den Bereich für die qualizierten
Mehrheiten noch weiter ausweiten soll. Die New Labour Regierung war, jedenfalls
auf dem Gebiet der Regionalpolitik und des Umweltschutzes, dazu auch bereit.
Dann würde nicht die Medianposition zählen, sondern die Position des decisive
voters, das heiÿt des Ministerratmitgliedes, das gerade noch notwendig ist, um
die qualizierte Mehrheit zu bekommen.5
Bisher wurden nur eindimensionale Entscheidungen behandelt, nun soll es zwei
Themen gleichzeitig geben. In Abildung 27 ist der Fall für die Europäische Union (Council of Ministers) konstruiert. Es werden die Quorums Einstimmigkeit
(unanimous) und qualizierte (supportive) Mehrheit unterschieden.
Im Unanimous Council in Figure 1 wird zunächst eine notwendige Einstimmigkeit unterstellt. Die Achsen könnten z.B. die Ausgaben der EU abbilden. q sei
der Status Quo. Es gibt fünf Mitglieder bei der Abstimmung. Um die prefered
Position der Ministerratmitglieder werden Kreise gezogen, die durch q verlaufen.
Alle Punkte, die innerhalb eines solchen Kreises sind, werden von dem betreffenden Land dem Status Quo vorgezogen. Um 4 wurde kein Kreis gezogen, weil
er die Schnittmenge komplett umfaÿt. Die Linse (nur q-au , nicht die gesamte
schwarze Fläche) wird von allen zusammen präferiert. Dieser Bereich, wo sich
alle vier Kreise überlappen, umfaÿt die Lösungen, die von allen dem Status Quo
vorgezogen werden.
Wenn alle fünf die Linse präferieren, hat der Agendasetter die Macht, welche
dieser Punkte in der Linse zur Abstimmung gestellt werden. Für jeden dieser
Punkte bekommt er eine einstimmige Zustimmung.
Hier wird unterstellt, daÿ die Kommission die Position 5 präferiert. Die prefered
Position des Landes 5 ist identisch mit der der Kommission, da die Kommission
möglichst viel von x1 und x2 möchte, also einen möglichst groÿen Haushalt und
damit so weit wie möglich rechts oben.
5 Decisive
voter ist der Überbegri und Medianwähler ein Spezialfall für die einfache Mehrheitsentscheidung.
58KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Welchen Punkt würde die Kommission vorschlagen? Bei Einstimmigkeit Punkt au
(unanimous), der Punkt der Linse, der dem Punkt 5 (prefered Position der Kommission) am nächsten ist. Bei einer Entscheidung aufgrund qualizierter Mehrheit
wird die Kommission dem Punkt aq (qualied) vorschlagen. An diesem Beispiel
ist ersichtlich, daÿ die Kommission bei qualizierter Mehrheitsentscheidung mehr
durchsetzen kann als bei Einstimmigkeit. Die Macht des Agendasetter ist umso gröÿer, je kleiner das erforderliche Quorum ist. Zwar ist der Einuÿ auch bei
Einstimmigkeit der Entscheidung des Ministerrats groÿ, aber die Macht des Agendasetter nimmt in dem Maÿe zu, in dem das erforderliche Quorum in Ministerrat
sinkt. Einfache Mehrheit ist also besser als qualizierte für die Kommission.
In Figure 2: Beim Supportive Council ist das Fünfeck dasselbe geblieben. Der
Unterschied liegt darin, daÿ q verschoben ist. q war vorher auÿerhalb und links
vom Fünfecks nun ist es innerhalb. Das führt zu einer wichtigen Änderung: Es
gibt keinen Bereich, wo sich alle fünf Kreise überlappen. Einstimmigkeit ist für
keinen Vorschlag zu erreichen. Das liegt daran, daÿ sich beispielsweise das Land
2 verschlechtern würde, wenn man vom Punkt q, wie es die anderen wünschen,
nach rechts oben gehen würde. Dem Land 2 geht, was x1 und x2 angeht, schon
der Status Quo ein biÿchen zu weit und es hätte gerne weniger von beiden. Land
2 kann das jedoch bei Einstimmigkeit nicht erreichen, sondern nur blockieren
und die anderen daran hindern, von q aus nach rechts oben zugehen. Dagegen
wird bei qualizierter Mehrheitsentscheidung die Stimme von Land 2 nicht mehr
gebraucht.
Wo ist der überlappende Bereich der anderen vier? In Figure 2 bezeichnet die
Linse diesen Bereich. Die Kommission als Agendasetter kann nun den für sie
günstigsten Punkt bq , den rechtesten Punkt der Linse, aussuchen. Dies funktioniert aber nur bei qualizierter Mehrheitsentscheidung, nicht bei Einstimmigkeit.
Hieran kann man den Einuÿ des Agendasetters sehen. Es macht einen groÿen
Unterschied, ob wir in der Linse ganz rechts oder ganz links sind. Bzw. im ersten
Schaubild, ob wir in Status Quo verbleiben oder nach au gehen. Auch im Falle von
Figure 2 kann man also feststellen: die Macht des Agendasetters wächst, wenn das
Quorum sinkt. Allerdings hat in diesem Fall der Agendasetter bei Einstimmigkeit
keine Macht, jedoch bei qualizierter Mehrheit.
Vier Probleme der Macht des Agendasetters:
1) Sperrklinkeneekt: wenn die Kommission ihre Position in C hat und die prefered Position der andern sich wieder nach links verschieben sollte (z. B. weil
sich die wirtschaftliche Lage verändert hat oder das Subsidiaritätsprinzip verstärkt beachtet werden soll), werden sie sich trotzdem nicht nach links bewegen
können. Der Agendasetter wird nie vorschlagen, daÿ man sich von einem Status
Quo nach links unten bewegt, denn dann würde x1 und x2 zurückgehen, was die
Kommission nicht möchte. Sie möchte so groÿe Kompetenzen, so einen groÿen
3.6. POLITISCHE TAUSCHGESCHÄFTE
59
Haushalt und so viel Personal wie möglich haben. Das heiÿt, wir haben hier eine
Einbahnstraÿe. Der Agendasetter kann verhindern, daÿ es jemals in eine andere Richtung geht als er möchte. Das kann man in der EU beobachten: Es gibt
immer nur Ausweitung der Kompetenzen der EU und keine Verminderung, denn
die Kommission hat das Vorschlagsmonopol und würde nie vorschlagen, daÿ ihre
eigenen Kompetenzen beschnitten werden.
2) Das Initiativmonopol widerspricht dem Demokratieprinzip, denn die Kommission ist kein demokratisches Organ. Es ist nicht demokratisch gewählt, sondern
es wird von den Regierungen der Mitgliedsstaaten bestellt.
3) Das Initiativmonopol widerspricht auch der Gewaltenteilung, denn die Kommission ist ein Exekutivorgan, ist aber mit dem Initiativmonopol an der Gesetzgebung beteiligt. Das Prinzip der Gewaltenteilung erfordert, daÿ die Exekutive
nicht an der Gesetzgebung beteiligt ist, sondern daÿ die Legislative allein für die
Gesetzgebung zuständig ist.
4) Das Initiativmonopol widerspricht dem Subsidiaritätsprinzip, denn es verhindert, daÿ Anpassungen auch mal in Richtung Dezentralisierung stattnden können.
Lösungsmöglichkeiten für dieses Problem bestehen darin, das Initiativrecht auf
den Ministerrat (vielleicht sogar einer qualizierten Minderheit), das Europäisches Parlament (auch hier vielleicht sogar einer qualizierten Minderheit) und/oder
den Souverän, also das Volk, zu übertragen. Es kann selbst der Agendasetter sein,
beispielsweise in Form einer Unterschriftenaktion, die zur Volksabstimmung führt.
Die Kommission sollte ihr Initiativrecht abgeben.
In der theoretischen Literatur wurde die Verallgemeinerung nachgewiesen, daÿ
wenn über alle Dimensionen gleichzeitig abgestimmt wird, es theoretisch möglich
ist, daÿ der Agendasetter durch sukzessive Anpassung jeden beliebigen Punkt in
dem Entscheidungsraum erreichen kann.
3.6 Politische Tauschgeschäfte
Bei politischen Tauschgeschäften (auch log rolling genannt) geht es noch nicht um
Ausgleichszahlungen (später), sondern nur um die Koppelung von verschiedenen
Themen, z. B. Ich stimme deinem Wunsch bei diesem Projekt zu und du meinem
bei einem anderen Projekt. Dies ist noch nicht monetisiert, es handelt sich nicht
um einen Markt, sondern lediglich um Stimmentausch.
Wenn politische Tauschgeschäfte möglich sind, dann wird es den überstimmten
Minderheiten, die sehr intensive Präferenzen haben, möglich, das Ergebnis zu
verändern. Das geschieht, indem sie einem Mitglied der Mehrheit anbietet, daÿ Sie
mit ihm für eine andere Lösung stimmt, vorausgesetzt, daÿ dieses Mitglied in einer
60KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Frage, in welche die Minderheit intensive Präferenzen hat, mit der Minderheit
stimmt.
An einem Zahlenbeispiel in Abbildung 3.17 wird das Vorgehen deutlicher. Ohne
Abbildung 3.17: Vorteilhaftes Log Rolling
Wähler
I
II
III
Summe
A
-4
2
1
-1
B
-1
4
-2
1
politische Tauschgeschäfte, bei separater Abstimmung über beide Maÿnahmen,
wird A angenommen, weil die Mehrheit für A ist (II und III), B wird abgelehnt,
da I und III dadurch verlieren. I hat, da er mit A (-4) sehr unzufrieden ist, die
Möglichkeit, mit den beiden andern (II und III) einen Kuhhandel zu machen. II
ist mit A unzufrieden (2 < 4). I und II haben Interesse daran, sich gegen III zu
verbünden und A aufzugeben und B anzunehmen, da sich beide verbessern. Die
Lösung mit politischen Tauschgeschäften ist also nicht mehr A, sondern B. An
den Summen der Auszahlungswerte (Spaltensumme) sieht man, daÿ das zu einer
Verbesserung geführt hat. Es ist jedoch nur eine potentielle Paretoverbesserung,
da erst Ausgleichszahlungen alle (III verschlechtert sich von A nach B) verbessern
könnten.
Allerdings ist das Ergebnis dieses Tauschgeschäfts nicht stabil. B hat A geschlagen, A + B würde aber B schlagen. Bei A + B würden sich der II und III verbessern, da sie positive Auszahlungswerte haben. Wenn III vorschlägt, wir wollen
nicht nur B, sondern auch A, dann stimmt II mit zu, und wir sind bei A + B.
Es entsteht ein Zyklus: 0 ≺ A ≺ B ≺ A + B ≺ A (A + B ≺ A weil I und III bei
B negative Auszahlungen haben). Die potentielle Paretoverbesserung, die man
erzielen kann, ist zwar nur vorübergehend, aber immerhin eine Verbesserung. Im
Durchschnitt der Zeit haben wir eine bessere Lösung als A. Auch A + B ist besser
als A (0 >-1). Mit politischen Tauschgeschäften bekommen wir eine Instabilität,
aber immerhin eine Verbesserung. Ein Beispiel mit unvorteilhaftem Ergebnis des
Log Rolling zeigt Abbildung 3.18.
Wenn im Ministerrat einzeln über die politische Union oder Währungsunion abgestimmt wird, kommt keines von beiden zustande (es sind immer zwei Verlierer
dagegen). Wenn dagegen ein politischer Kuhhandel zulässig ist, dann können sich
sowohl Deutschland als auch Frankreich verbessern, wenn sie gleichzeitig die politische Union und die Währungsunion einführen. Dann hat D + 1 und F + 2, beide
verbessern sich, wenn ein Paket geschnürt wird. Das ist das Ergebnis von Maas-
3.6. POLITISCHE TAUSCHGESCHÄFTE
61
Abbildung 3.18: Unvorteilhaftes Log Rolling
Länder
D
F
GB
Summe
politische Union
5
-1
-9
-5
Währungsunion
-4
3
-2
-3
tricht, wo ein politisches Tauschgeschäft stattgefunden haben könnte: Frankreich
erhält die Währungsunion und Deutschland (angeblich) die politische Union, die
gemeinsame Auÿen-und Sicherheitspolitik (der sogenannte dritte Pfeiler). Allerdings sind beide Projekte negativ zu bewerten. Oensichtlich ist der Kuhhandel
keine potentielle Paretoverbesserung. Es kommt also eine Lösung zustande, die
sich nicht durchsetzen würde, wenn wir Ausgleichszahlungen hätten (auch Seitenzahlungen oder Kompensationszahlungen genannt). Denn insgesamt gibt es nur
Verlierer. Kuhhandel kann also auch zu einer Verschlechterung führen, erstaunlicherweise nicht nur für alle drei zusammen, sondern auch für diejenigen, die
den Kuhhandel abschlieÿen. Die Währungsunion ist für beide Länder zusammen
negativ zu beurteilen, -4 + 3 < 0.
Fazit: politische Tauschgeschäfte bringen nur für die neue Mehrheit (D, F) eine
Verbesserung, nicht unbedingt für alle zusammen, d. h. unter Einschluÿ der neuen
Minderheit. Dies ist ein Beispiel dafür, daÿ sich zwei zu Lasten eines Dritten
einigen können. Im Markt ist das ein Kartellproblem, wenn sich Dyopolisten zu
Lasten des Nachfragers, eines Dritten, einigen.
Auch in diesem Beispiel haben wir eine zyklische Instabilität: 0 ≺ politische Union
+ Währungsunion ≺ X
X ist der Versuch der britischen Regierung, die D-F Achse zu spalten: Die britische
Regierung schlägt vor, auf die Währungsunion zu verzichten, D würde zustimmen
(X = politische Union) Die britische Regierung schlägt vor, auf die politische
Union zu verzichten, F würde zustimmen (X = Währungsunion).
X= politische Union oder Währungsunion alleine  0. Wenn die britische Regierung die Spaltungsstrategie verfolgt, stehen die beiden anderen vor einem Gefangenendilemma. Jeder muÿ befürchten, daÿ der andere abspringt und mit den
Engländern koaliert. Das Gefangenendilemma paÿt hier besonders gut, weil die
beiden Gefangenen ein Projekt durchziehen wollen, das insgesamt negativ zu beurteilen ist.
Fazit: Politische Tauschgeschäfte brauchen nichts Schlechtes zu sein. Wie im ersten Beispiel, wo eine potentielle Paretoverbesserung von A nach B möglich ist,
62KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
weil die intensiven Präferenzen von Minderheiten zur Geltung gebracht werden
können. Politische Tauschgeschäfte können aber auch zu einer Verschlechterung
führen. Sie sind nicht resistent gegen zyklische Instabilität. Es ist so, daÿ sie in beiden Fällen erst durch den Kuhhandel erzeugt wird. Im ersten Beispiel bekommen
wir ohne Tauschgeschäfte die stabile Lösung A. Im zweiten Beispiel bekommen
wir weder eine Währungsunion noch eine politische Union und auch diese Lösung ist stabil. Politische Tauschgeschäfte müssen aber nicht in allen Fällen zu
Instabilitäten führen.
3.7 Wählersteuer
Der Grundgedanke der Wählersteuer (Clarke/Groves-Mechanismus) ist, daÿ man
eine Verbesserung dadurch erzielen kann, daÿ man denjenigen, der durch seine
Stimmabgabe den Ausschlag in die eine oder andere Richtung gibt, verpichtet
für die negativen externen Eekte, die dadurch bei den andern entstehen, eine
Kompensation zu zahlen. Wer immer eine Entscheidung ausschlaggebend beeinuÿt, wird negative externe Eekte bei denen erzeugen, die lieber eine andere
Lösung hätten. Und nur, wenn diese für den Verlust entschädigt werden, von
denjenigen, die den Ausschlag geben, können wir erwarten, eine paretooptimale
Lösung zu bekommen.
Es ist also eine Anwendung des Kompensationsprinzips, wobei die externen Effekte durch die Wählersteuer internalisiert werden. Jeder Abstimmende soll gezwungen werden, sich den Wert des Ausschlaggebens zu Grenzkosten kaufen zu
müssen.
Das Grundmodell ist in Abbildung 3.19 zu sehen.
Abbildung 3.19: Wahlsteuer
I
II
III
P
A
0
25
5
30
B
4
0
10
14
Steuer
0
9
0
Es soll eine entweder-oder Entscheidung getroen werden. Sie fällt durch Abgabe
der Präferenzen, im Sinne von Zahlungsbereitschaften, diese werden addiert und
wo die höhere Summe herauskommt, liegt die Lösung.
Im Grundmodell wird A gewählt. Gibt es einen Anreiz, die wahren Präferenzen zu
3.7. WÄHLERSTEUER
63
verschleiern? Der Vorteil des Glarke/Groves Mechanismus besteht darin, daÿ es
keinen Anreiz gibt, die Zahlungsbereitschaften, die in Geldeinheiten ausgedrückten Präferenzen, falsch anzugeben. Wer das tut, muÿ eine hohe Wählersteuer
zahlen, so daÿ er sich schlechter stellt als durch eine wahrheitsgemäÿe Angabe
der Präferenzen.
Muÿ jemand bei Annahme von A Wählersteuer zahlen? Gibt es unter den drei
Wählern einen, der durch seine Stimmabgabe den Ausschlag gibt, ohne den die
Abstimmung anders ausgegangen wäre? In Abbildung 3.20 wird die Wählersteuer
für das Grundmodell berechnet.
Abbildung 3.20: Wahlsteuer im Grundmodell
ohne
I
II
II
A
30
5
25
B
10
14
4
Steuer
0
9
0
Wähler I ist nicht ausschlaggebend, da II+III ohne ihn A beschlossen hätten,
ebenso Wähler III. Wähler II muÿ eine Wählersteuer in Höhe von 14-5 = 9 zahlen,
die Dierenz zwischen den anderen beiden Stimmensummen. Dies ist der (netto)
externe Eekt bei den anderen beiden Wählern, die B gegenüber A vorziehen.
Die Wählersteuer bemiÿt sich nach dem Verlust, der den beiden anderen daraus
entsteht, daÿ der II die Entscheidung ausschlaggebend verändert hat.
Tullock/Tideman diskutierten eine nicht diskrete, sondern kontinuierliche Entscheidung über die optimale Menge eines öentlichen Gutes, wobei jede beliebige
Menge möglich ist.
Wie wird das öentliche Gut nanziert? Die Grenzkosten (Steuern) sollen für
jeden gleich hoch sein (lumpsum), jeder zahlt GK/n = pi . In Abbildung 3.21
bezeichnet NP−i die aggregierte Nachfragefunktion bis auf den Bürger i, GK−i
Grenzkosten ohne den Bürger i, i trägt also mit GK − (GK − pi ) = pi zur Fi∗
nanzierung des öentlichen Gutes bei. qP
ist die Menge des öentlichen Gutes,
−i
die von den anderen gewählt worden wäre, wenn es den i nicht gegeben hätte,
oder wenn er nicht zur Abstimmung gegangen wäre. In der Diskrepanz zwischen
∗
∗
spiegelt sich der negative externe Eekt des i wider, den die anderen
qP
und qP
−i
hinnehmen müssen, weil sich der i an der Abstimmung beteiligt hat.
Wie groÿ ist der Verlust für die anderen, wenn sich i an der Abstimmung beteiligt?
∗
Die anderen müssen jetzt abc nanzieren, weil sich der i beteiligt hat und qP
−i
∗
herauskommt. Der Nutzen bc, das Feld unter der Nachfragekurve der
statt qP
anderen, ist jedoch geringer, so daÿ sie insgesamt einen Verlust machen. Das ist
64KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Abbildung 3.21: Wählersteuer
DM
GK
b a
c
∗
∗
P
qP
−i q
GK − pi
GK − p≡
NP
NP−i
q
der negative externe Eekt, der unter anderem dadurch entsteht, daÿ der i zur
∗
∗
Abstimmung gegangen ist, und ausschlaggebend die Menge von qP
statt qP
−i
verändert hat. Die Fläche a ist die Wählersteuer. Dieser Nachteil für die andern
wird mit der Wählersteuer beim i internalisiert. Je mehr er das Ergebnis durch
seine Abstimmung verändert, desto höher ist die Wählersteuer, die er zahlen muÿ.
Infolgedessen hat er kein Interesse daran, seine Präferenzen stärker abweichend
anzugeben als sie wirklich sind, denn dann müÿte er mehr Wählersteuer zahlen.
Er müÿte bei einer Finanzierung nicht durch eine Kopfsteuer, sondern nach dem
Äquivalenzprinzip6 , keine Wählersteuer zahlen. Dann wären die GK − p≡ die
Grenzkosten nach dem Äquivalenzprinzip und es würde sich automatisch die Men∗
ge qP
ergeben, und es wäre keine Wählersteuer fällig. Die Wählersteuer entsteht
nur, wenn wir eine Abweichung von Äquivalenzprinzip haben. Die Abweichung
kommt dadurch zustande, daÿ wir nicht wissen, was die wahren Präferenzen sind.
Wenn wir das wüÿten, bräuchten wir die Wählersteuer nicht. Die Wählersteuer
sorgt dafür, daÿ ein Anreiz besteht, die Präferenzen wahrheitsgemäÿ anzugeben.
Sie ist ein Mechanismus, der die wahren Präferenzen aufdeckt. Die Entwicklung
solcher Mechanismen ist Ziel des Mechanims-Designs, das in der Besteuerungstheorie eine wichtige Rolle spielt.
Wieso hat i ein Interesse daran, seine Präferenzen wahrheitsgemäÿ anzugeben?
6 Nach
dem sogenannten Äquivalenzprinzip (benet principle) wird jeder Steuerzahler gemäÿ
seiner Nachfrage nach öentlichen Leistungen besteuert. Die Bürger sollen also ein marktpreisähnliches Entgelt für den Nutzen aus öentlichen Gütern und Dienstleistungen zahlen. Somit
müÿte jedem Steuerzahler entsprechend seiner individuellen Präferenzen ein eigener Steuertarif
auferlegt werden.
3.7. WÄHLERSTEUER
65
In Abbildung 3.22 wurden nun zusätzlich die Nachfrage des i und die Kurve Ai
Abbildung 3.22: Anreizkompatibilität der Wählersteuer
DM
GK
Ni0
GK − pi
a
Ni
Ai
v
a w
u
q0
NP
NP−i
pi
q
eingezeichnet. Ai ist die Summe aus der Kopfsteuer pi und der Wählersteuer.
Wenn der Nachfrager i eine falsche Nachfrage angibt, beispielsweise eine zu hohe
Ni0 , ergibt sich im Schnittpunkt von Ai und Ni0 eine höhere Menge q 0 . Was hat das
zur Folge? i hätte zusätzlich uvw an Steuer zu zahlen. u als Kopfsteuer pi und
vw als Wählersteuer. Gleichzeitig gewinnt er aber gemessen an seinen wahren
Präferenzen Ni nur wu, so daÿ er durch die falsche Angabe der Präferenzen einen
Verlust in Höhe von v erleidet. Es besteht also ein Anreiz, die Präferenzen richtig
anzugeben. Wenn man sie zu hoch angibt, kommt eine zu groÿe Menge heraus
und die Wählersteuer hat zur Folge, daÿ er höhere Grenzkosten als Grenznutzen
hat.
Die Vorteile der Wählersteuer sind zweierlei. Einerseits gibt es einen Anreiz zur
wahrheitsgemäÿen Angabe der Präferenzen durch eine Internalisierung der negativen externen Eekte, die der ausschlaggebende Wähler den anderen aufbürdet,
andererseits sind die Ergebnisse zyklisch stabil.
In Abbildung 3.23 sieht man, daÿ ohne Wählersteuer eine zyklische Instabilität
vorliegt: A ≺ B (I, III, IV für B) ≺ C (I, II, IV, V für C) ≺ A (II, III, V für
A). Mit Wählersteuer wird C gewählt und das System ist stabil. Wie hoch ist
die Wählersteuer? Im rechten Teil der Abbildung sieht man, daÿ I, II, III, V das
Ergebnis nicht ändern. Ohne sie wird jeweils C gewählt. Wähler IV verändert das
Ergebnis. Ohne ihn würde A (105) gewählt werden und mit ihm C. Deshalb muÿ
er die Dierenz an Steuer bezahlen: 105-95=10.
66KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Abbildung 3.23: Zyklische Instabilität
Wähler
I
II
III
IV
V
P
Präferenzen
A
B
C
0
35
40
50
0
30
10
55
0
0
20
65
45
0
25
105 110 160
Steuer
0
0
0
10
0
Ergebnisse ohne i
A
B
C
105
75
120
55 110
130
95
55
160
105
90
95
65 110
135
Im Ergebnis haben wir eine eindeutige Lösung, sie ist optimal, weil ein Interesse
besteht, die Präferenzen wahrheitsgemäÿ anzugeben.
Es gibt fünf Nachteile der Wählersteuer.
1) Erstens ist sie kompliziert. Eine Bundestagswahl ist damit nicht möglich. Allerdings ist sie möglicherweise für Pros geeignet, wie z. B. im EU-Ministerrat
(Scheckbuch - Diplomatie).
2) Zweitens sind keine geheimen Wahlen möglich.
3) Drittens stellt sich im Parlament die Frage, woraus die Abstimmenden ihre
Wählersteuer bezahlen sollen, aus ihren Diäten?
4) Das vierte Problem ist eher akademischer Natur: Was machen wir mit den Einnahmen aus der Wählersteuer, denn je nach Verteilung dieser Einnahmen verzerrt
man das Abstimmungsverhalten, da bei der Präferenzabgabe noch berücksichtigt
wird, was man bei der abschlieÿenden Verteilung wieder zurückbekommt. Somit
gibt man nicht die wahren Präferenzen an. Die Einnahmen müssen auf den Mond
geschossen werden. Gibt man sie den Nichtwählern, erfolgt die Abstimmung zwar
wahrheitsgemäÿ, aber es entsteht eine Verzerrung zwischen zur Wahl gehen und
nicht zur Wahl gehen. Es entsteht eine zu geringe Wahlbeteiligung, da man für
Nichtwählen Geld bekommt. Man könnte aber mit der Finanzierungsregel in Richtungs Äquivalenzprinzip gehen, so daÿ keine Wählersteuer fällig wird und man sie
auch nicht zu verschwenden braucht. pi sollte nicht einer Kopfsteuer, sondern is
Zahlungsbereitschaft entsprechen. Man müÿte denjenigen, die die Finanzierungsregeln festlegen einen Anreiz geben, sie nach dem Äquivalenzprinzip festzulegen.
Das heiÿt, die Entscheider sollen einen Anreiz haben, die Wählersteuer zu minimieren, z.B. durch Diätenabzug bei Zunahme der Wählersteuerzahlungen. Wenn
man keine Wählersteuer hat, muÿ man sie auch nicht verschwenden und wir bekommen trotzdem das Optimum. Die Existenz einer potentiellen Wählersteuer
führt dazu, daÿ alle ihre Präferenzen richtig angeben. Die Wählerssteuer ist da,
aber die Finanzierungregeln werden ex ante so festgelegt, daÿ die Wählersteuereinnahmen minimal sind und wir minimale Verzerrungen haben. Das Problem
wird mit der Zahl der an der Abstimmung Beteiligten unwichtiger.
3.7. WÄHLERSTEUER
67
Abbildung 3.24: Verdoppelung der Wähler
I
II
III
IV
V
VI
P
A
0
25
5
0
25
5
60
B
4
0
10
4
0
10
28
Steuer
0
0
0
0
0
0
In Abbildung 3.24 wurde die Anzahl der Wähler verdoppelt und plötzlich ist
keine Wählersteuer mehr fällig. II muÿ keine Wählersteuer mehr zahlen. Durch
eine Erhöhung der Zahl der Wähler sinkt das Gewicht des einzelnen und damit
die Wahrscheinlichkeit, daÿ er den Ausschlag gibt. Damit verschwindet auch das
Problem der Wählersteuereinnahmen. Alldings sinkt auch die Steuerungswirkung
der Wählersteuer.
5) Der fünfte Nachteil ist das Problem des strategischen Verhaltens in Form eines
Koalitionsproblems. In Abbildung 3.25 ist der Fall dargestellt, daÿ sich II und III
Abbildung 3.25: Koalitionsproblem
I
II
III
P
A
0
15(18)
15(12)
30
B
4
0
10
14
Steuer
0
0
0
absprechen und der II Einnahmen aus A zum Teil auf III überträgt. Die wahren
Präferenzen (Einnahmen) sind in Klammern aufgeführt. Die gleichmäÿigere Verteilung der angegebenen Präferenzen hat zur Folge, daÿ keine Wählersteuer fällig
wird. Durch strategisches Verhalten kann man vermeiden, daÿ die Wählersteuer
fällig wird und trotzdem das gewünschte Ergebnis erhalten.
Wenn es sich bei den Maÿnahmen A, B um Umverteilungsmaÿnahmen handelt,
dann haben wir eine Umverteilung zu Lasten des Wählers I, II oder III und es
gibt negative Auszahlungsbeträge. Dann kann man den zu enteignenden, wenn er
seine Präferenzen wahrheitsgemäÿ angibt (und diese werden sehr stark von denen,
die ihn enteignen wollen, abweichen) dazu zwingen, sehr hohe Wählersteuer zu
zahlen. Im Zweifel wird die Wählersteuer so hoch sein, daÿ er Bankrott geht.
68KAPITEL 3. ÖKONOMISCHE THEORIE DES POLITIKERVERHALTENS
Umverteilungsmaÿnahmen lassen sich mit der Wählersteuer nicht optimal entscheiden, weil dadurch die zu enteignenden über hohe Wählersteuer in den Bankrott getrieben werden können. Es sind dann keine Paretoverbesserungen mehr.
In den Zahlenbeispielen hatten wir positive Auszahlungssummen, wo jeder der
Lösungen besser als gar keine war. Das Enteignungsproblem läÿt sich nur durch
die Einstimmigkeitsregel lösen. Es könnte dann ein zweistuges Entscheidungsverfahren sein, wo zunächst einstimmig entschieden wird, ob man das Wählersteuerverfahren anwenden darf. Wenn darüber keine Einstimmigkeit besteht, liegt
oenbar keine Paretoverbesserung vor und man kann das Verfahren, wenn man
die Möglichkeit einer Paretoverbesserung fordert, nicht anwenden. Wenn auf der
ersten Stufe Einstimmigkeit erzielt werden kann, daÿ man in der zweiten Stufe
die Wählersteuer anwendet, dann hat man sichergestellt, daÿ es sich nicht um
eine Umverteilungsmaÿnahme handelt und man kann dann im zweiten Schritt
die Wählersteuer anwenden. Bespielsweise könnte der Ministerrat in der EU einstimmig über den Haushaltsumfang und danach mit Mehrheit im Parlament über
die Verwendung der Gelder entscheiden.
Kapitel 4
Ökonomische Theorie der
Bürokratie
Um die Unterschiede zwischen den traditionellen Theorien und den neueren ökonomischen Theorien deutlich zu machen, folgen Zitate aus den Grundrissen der
Sozialökonomik von Max Weber, Kapitel 6, Bürokratie:
Der entscheidende Grund für das Vorbringen der bürokratischen Organisation war von jeher ihre rein technische Überlegenheit. Ein voll
entwickelter bürokratischer Mechanismus verhält sich zu Diensten der
anderen, genau wie eine Maschine zu den nicht mechanischen Arten der Gütererzeugung. Präzision, Schnelligkeit, Eindeutigkeit, Aktenkundigkeit, Kontinuierlichkeit, Diskretion, Einheitlichkeit, strae
Unterordnung, Ersparnisse an Reibung, sachlichen und persönlichen
Kosten sind bei streng bürokratischer spezieller monokratischer Verwaltung durch geschulten Einzelbeamte ... auf das Optimum gesteigert.
Vor allem bietet aber die Bürokratie das Optimum an Möglichkeiten
der Durchführung des Prinzips der Arbeitszerlegung in der Verwaltung
nach rein sachlichen Gesichtspunkten und das Verteilten der einzelnen Arbeiten auf spezialistisch abgesicherte und in fortwährender Uebung immer weiter sich einschulende Funktionäre. Die bürokratische
Struktur ist überall spätestes Entwicklungsprodukt. Je weiter wir in der
Entwicklung zurückgehen, desto typischer wird für die Herrschaftsform das Fehlen der Bürokratie und des Beamtentums überhaupt. Die
Bürokratie ist rationalen Charakters, Regel, Zweck ... beherrschen ihr
Gebaren. Ihre Entstehung und Ausbreitung hat daher überall in dem
gesondert zu besprechenden Sinne revolutionär gewirkt, wie es der
Vormarsch des Rationalismus auf allen Gebieten zu tun pegte. Sie
vernichtete dabei Strukturformen der Herrschaft, welche einen in die69
70
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
sem speziellen Sinne rationalen Charakter nicht hat.
Der Bürokrat ist demnach: sachkundig, rational und ezient. Allerdings gibt es
eine Einschränkung:
Uberlegen ist der Sachkenntnis der Bürokratie nur die Sachkenntnis
der privatwirtschaftlichen Interessen auf dem Gebiet der Wirtschaft.
Diese deshalb, weil für sie die genaue Tatsachenkenntnis auf ihrem
Gebiet direkt wirtschaftliche Existenzfrage ist. Irrtümer in einer amtlichen Statistik haben für den schuldigen Beamten keine direkt wirtschaftliche Folgen. Irrtümer in der Kalkulation eines kapitalistischen
Betriebes kosten diese Verluste, vielleicht sogar den Bestand. Schon
deshalb ist die behördliche Beeinussung des Wirtschaftslebens an so
enge Schranken gebunden und entgleiÿen die Maÿregeln des Staates auf diesem Gebiet so oft in unvorhergesehene und unbeabsichtigte
Bahnen oder werden durch die überlegene Sachkenntnis der Interessenten illusorisch gemacht.
Die Ezienz der Bürokraten ist nur der Ezienz der privatwirtschaftlichen Kapitalisten unterlegen. Warum hat sich der Bürokrat im Entwicklungsprozeÿ so
stark durchgesetzt?
1. Die Forderung einer nach Möglichkeit möglichst beschleunigten dabei präzisen, eindeutigen, kontinuierlichen Erledigung von Amtsgeschäften ... wird heute an die Verwaltung in erster Linie von Seiten
des modernen kapitalistischen Wirtschaftsverkehrs gestellt.
Das heiÿt, der Kapitalismus selbst fragt Bürokratie nach. In der Public Choice
Theorie sind es die Interessengruppen, die Bürokratie nachfragen.
2. Die bürokratische Organisation ist regelmäÿig an die Herrschaft gelangt auf der Basis einer mindestens relativen Nivellierung der ökonomischen und sozialen Unterschiede. Dies ist insbesondere eine unvermeidliche Begleiterscheinung der modernen Massendemokratie im
Gegensatz zu der demokratischen Selbstverwaltung kleiner homogener
Einheiten.
Für Max Weber ist der Bürokrat ein rationaler, sachkundiger und ezienter
Staatsdiener. Ein Fachmann, der über den Parteien steht und sich dem Allgemeininteresse verpichtet fühlt, der dem Politiker, sich abwechselnden Mehrheiten, Parteien mit stets gleicher Frustration und Verachtung dient. Frustration
71
und Verachtung deswegen, weil Max Weber meint, daÿ die Politiker weder die
Fachkenntnisse besitzen noch das Allgemeininteresse im Auge haben. Sie haben
das Parteiinteresse, bestenfalls Mehrheitsinteresse im Sinn. Der Bürokrat hat eine
fachliche und moralische Überlegenheit gegenüber dem Politiker.
Die moderne ökonomische Theorie der Bürokratie sieht den Bürokraten als homo
oeconomicus, der seinen eigenen Nutzen maximiert, seine eigenen Interessen verfolgt und auf materielle Anreize reagieren. Die Anreizsituation ist entscheidend
zur Erklärung des Verhaltens der Bürokraten.
Die Ansätze gehen zurück auf Mises '44, Parkinson's Gesetz '57, Tullock '65,
Downs '67 und Niskanen '71.
Zur Zielfunktion des Bürokraten: Schon Max Weber bemerkte, daÿ der Bürokrat bei Irrtum keine direkten wirtschaftlichen Folgen zu befürchten hat und das
Einkommen folglich in der Zielfunktion wenig Bedeutung hat. Welche Instrumente und Zwischenziele stehen dem Bürokraten zur Verfügung, um seine Ziele zu
erreichen?
1. Machtausübung, Wirkungsmöglichkeiten
Der hauptsächliche Unterschied zwischen Bürokraten und beispielsweise einem Unternehmer oder Manager aus Sicht des Ökonomen ist, daÿ das Gehalt wenig leistungsabhängig ist. Die Einkommensmaximierung steht beim
Bürokrat nicht an oberster Stelle, er hat nur einen geringen Einuÿ auf
sein Einkommen. Deshalb stehen andere Dinge, nicht unbedingt bewuÿt,
an erster Stelle.
2. Ansehen, Prestige
Die Punkte 1 + 2 würden bei (manchen) Marktteilnehmern weiter unten
in der Hierarchie erscheinen, weil das Einkommen eine gröÿere Rolle spielt.
3. Muse, Büroschlaf
Diejenigen, die gegen Intervention des Staates sind, würden sagen: der optimale Beamte ist intelligent und faul.
4. Arbeitskomfort
Dienstwagen, erster Klasse reisen, groÿes Büro, gedruckte Vorlesungsgliederungen
5. Sicherheit
Das Sicherheitsbedürfnis eines Bürokraten ist gröÿer als die eines Menschen,
der in der Privatwirtschaft tätig ist, weil der Bürokrat sein Gehalt nicht erhöhen kann, dadurch, daÿ er Risiken eingeht (sein Gehalt enthält keine
Risikoprämie). Im Gegenteil, erhält ein Bürokrat ein Disziplinarverfahren
72
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
in der Regel, weil er etwas falsch gemacht hat und nicht, weil er nichts gemacht hat. Wenn man nichts tut ist man sicher. Es ist für einen Bürokraten,
wie für alle, die sich in einer Organisation benden, auÿerordentlich schwierig, überhaupt irgend etwas zu verändern. Man muÿ viele Vorgesetzte und
Kollegen überzeugen, daÿ eine Innovation notwendig ist. Dies ist mit Risiko
verbunden, so daÿ man es von vornherein sein läÿt. Der Bürokrat wird in
erster Linie aktiv, um Risiken auszuschalten: Unfallrisiken führen zu ausufernder Ampelitis, Schilderwald und Geschwindigkeitsbegrenzungen, weil
man sonst kritisiert wird, nichts getan zu haben.
6. Einkommen
An erster Stelle in der Privatwirtschaft.
Instrumente und Zwischenziele:
1. Macht
(a) Haushalt: Je höher der Haushalt, desto höher der Einuÿ, desto mehr
kann der Bürokrat bewirken. Das Haushaltsmotiv kann einige bürokratiespezische Verhaltensweisen erklären.
- Der Bürokrat bevorzugt generell die staatliche gegenüber der privaten Produktion von z. B. öentlichen und natürlichen Monopolgütern. Wobei hier zwischen Produktion und Finanzierung zu
unterscheiden ist: private Produktion muÿ nicht private Finanzierung bedeuten, beide Produktionsarten können aus dem Staatshaushalt nanziert werden, und trotzdem würde der Bürokrat die
öentliche Produktion bevorzugen, da dies seinen Haushalt erhöhen würde. Beispielweise zu sehen bei der Pegeversicherung: es
reicht, eine Versicherungspicht zu haben. Jeder kann selber entscheiden, ob er sich, privat oder staatlich, versichert. Die Sozialversicherungen und Arbeitsminister machten sich jedoch für eine
staatliche Produktion stark.
- Der Bürokrat tritt für den Nulltarif bei der Preisgestaltung für
öentliche Güter und Dienstleistungen ein. Dies erhöht die Nachfrage nach den Dienstleistungen der Bürokratie und damit auch
den Haushalt und die Möglichkeiten zur Machtausübung.
- Die Verwaltung tritt, z. B. in der Sozialpolitik, typischerweise für
das Gieÿkannenprinzip ein. Das heiÿt, die Sozialleistungen werden
nicht gezielt an Bedürftige, sondern an einen möglichst breiten
Empfängerkreis verteilt. Je weiter der Empfängerkreis ist, desto
gröÿer ist der Haushalt.
73
- Das Haushaltsmotiv könnte möglicherweise die deutlich höhere
Wahlbeteiligung der öentlich Bediensteten erklären (bei den Präsidentschaftswahlen in den USA: 90% versus 50% der anderen
Wahlberechtigten).
- Das Haushaltsmotiv könnte erklären, warum so viele Vertreter des
öentlichen Dienstes in die Parlamente drängen. Wir haben eine
weit überproportionale Repräsentation des öentlichen Dienstes
in den Parlamenten (siehe Kopie 28). 45% der Bundestagsabgeordneten sind aus dem öentlichen Dienst was weit mehr ist, als
der Anteil an der Bevölkerung (ca. 6%) oder den Erwerbstätigen
(13.7%)(siehe Kopie 29). Im Landtag von Baden-Württemberg
hatten die Bürokraten 1987 mit 58% die absolute Mehrheit. Allerdings sollte die Überrepräsentation des öentlichen Dienstes nicht
in erster Linie so erklärt werden. Es hat eher etwas damit zu tun,
daÿ man sich aus dem öentlichen Dienst einfacher beurlauben
lassen kann als aus der Privatwirtschaft. Die Opportunitätskosten
der parlamentarischen Tätigkeit sind in der Privatwirtschaft somit
wesentlich höher.
(b) Machtausübung durch Regulierung (Vorschriften machen können) ist
eine Beschränkung der privaten Vertragsfreiheit durch staatliche Akteure.
2. Prestige (hohes Tier oder kleine Nummer)
(a) Haushalt: mit Zahlen kann man nicht immer genügend beeindrucken.
Der nächste Punkt ist deshalb auch wichtig.
(b) Mitarbeiterzahl, Personalbestand, Stellenkegel: Das Vorweisen einer
groÿen Mitarbeiterzahl erhöht das Prestige stärker als das Vorweisen
eines groÿen Haushaltes. Dies könnte ein möglicher Grund sein, warum
der öentliche Dienst personalintensiv produziert. In den Kopien 30
und 31 ist zu sehen, daÿ der Personalstand vor allem bei den Ländern
und Gemeinden wächst. Kopie 31 zeigt einen internationalen Vergleich.
(c) Regulierungskompetenz ist, weil man sich wenig darunter vorstellen
kann, womöglich kein wichtiger Bestimmungsgrund für Prestige.
3. Muse
(a) Haushalt wirkt sich hier nicht aus, vielleicht sogar negativ, wenn der
Haushalt verwaltet und verantwortet werden muÿ.
(b) Das wichtigste ist, daÿ man Mitarbeiter hat, auf die man die Arbeit
abwälzen kann. Allerdings besteht auch die Möglichkeit, daÿ sich das
ins Gegenteil wendet, wenn man zuviel Personal zu beaufsichtigen hat,
74
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
wird es lästig. Das bedeutet, daÿ die optimale Menge kleiner als unendlich ist.
4. Arbeitskomfort
(a) Dazu sollte der Haushalt möglichst groÿ sein.
(b) Personal wie Chaueur oder eine Fremdsprachenkorrespondentin ist
ebenfalls hilfreich.
5. Für Sicherheit sollte man vor allem
(a) Regulierungskompetenzen haben und Vorschriften machen können.
(b) Personal, an das man gefährliche Dinge delegieren kann, um so den
schwarzen Peter weiterzuschieben.
6. Gehalt, hängt unter Umständen von
(a) Haushalt und
(b) Personalkegel ab.
Das Personalmotiv ist eine mögliche Erklärung für die weite Verbreitung einer
Präferenz von Sachtransfers über Geldtransfer (s. a. Meltzer/Richard Regression).
Geldtransfers sind ökonomisch eher sinnvoll, weil der Empfänger frei entscheiden
kann, was er damit anfängt. Der Bürokrat jedoch hat ein relativ hohes Interesse
daran Sachtransfers bereitzustellen, weil diese personalintensiv produziert werden
können und nicht nur einfach Haushaltsmittel verteilt werden müssen.
Warum hat das Einkommensmotiv solch einen niedrigen Stellenwert für den Bürokraten? Kopie 33 zeigt, daÿ das Einkommen automatisch in Besoldungsklassen
steigt, es eine Regelbeförderung und Dienstalterzulage gibt. Bei Leistung kann
man nicht Besoldungsklassen überspringen, da es Wartezeiten für den Auftieg im
öentlichen Dienst gibt.
Wie sind die Anreize für Prämienzahlungen im öentlichen Dienst? Einsparungsvorschläge werden selten realisiert. Im behördlichen Vorschlagswesen gibt es ...
wenn ihre Verwertung in der Verwaltung nützlich ist Geldprämien bis 2000 DM
(die wohl nicht auf groÿe Veränderungen angelegt sind), Sonderurlaub bis zu drei
Wochen oder beides. Es gibt also Möglichkeiten, sich mit guten Ideen zusätzliche
Zahlungen zu verschaen.
Ein typisches jahreszeitliches Muster in den Ausgaben (siehe Abbildungen 34)
nennt sich Dezembereber: Geld, das bis zum Jahresende nicht ausgegeben war
verfällt, auÿerdem besteht die Gefahr, daÿ der nächste Haushalt geringer ausfällt,
weshalb es wichtig ist alles auszugeben.
4.1. FORMALE MODELLE
75
In Kopie 35 ist ein Vergleich der Bundesländer zu sehen. Im Durchschnitt wird
im vierten Quartal 30.4% mehr ausgegeben als im Durchschnitt der drei ersten
Quartale.
4.1 Formale Modelle
4.1.1 Niskanen
Niskanen entwickelte in seiner Dissertation 1971 das einfachste moderne Modell
der Bürokratie. Die drei Hauptinstrumente eines Bürokraten sind Personal, ReAbbildung 4.1: Niskanenmodell
p
GK
k
n
l
m
q∗
M ZB
qN
q
gulierung und Haushalt. Der Niskanenbürokrat verfügt nur über das wichtigste
der Instrumente, den Haushalt. Der Nutzen des Bürokraten hängt nur vom Haushalt (B = Budget) ab. In Abbildung 4.1 ist q der Output, M ZB die Nachfrage
der Wähler oder Politikers nach Output, die die Bürokratie beaufsichtigt und mit
denen der Bürokrat sich einigen muÿ. Der Bürokrat maximiert den Haushalt, was
durch die Fläche klm unter der Nachfragekurve gegeben ist. Im Ergebnis wird
soviel Output wie möglich produziert, da das Budget mit dem Output steigt. Als
Nebenbedingung gilt lediglich, daÿ der Haushalt ausreichen muÿ, um die Kosten
zu decken (klm = lmn). Der Bürokrat kann nur soviel Output produzieren (nach
rechts geben) wie noch das Feld unter der Nachfragefunktion klm ausreicht, um
76
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
das Feld unter der Grenzkostenfunktion lmn abzudecken. Er wählt den Output
qN , bei denen das Feld unter der Nachfragekurve genauso groÿ ist, wie das Feld
unter der Grenzkostenkurve (klm = lmn, wobei der Niskanenbürokrat zu minimalen Grenzkosten produziert.
Wieso kann der Bürokrat qN durchsetzen? Niskanen nimmt an, daÿ der Bürokrat ein Optionsxierer (Agendasetter) ist. Das heiÿt, der Bürokrat kann gegenüber dem Politiker einen Vorschlag machen, und der Politiker kann nur ja
oder nein sagen. Der Bürokrat xiert die Option, die für den Politiker gerade
ist. Der Politiker zahlt soviel wie ihm der Output wert ist,
R qNnoch annehmbar
R qN
M ZB = 0 GK = klm. Es handelt sich für die Politiker um eine Alles-oder0
nichts-Entscheidung und der Bürokrat wählt den Punkt auf der Nachfragekurve
der Politiker, der den gröÿtmöglichen Haushalt ergibt. Das bedeutet, daÿ die
Nachfrager- und Anbieterrente dazu verwendet wird, den Überschuÿ der Grenzkostenkurve über die MZB zu nanzieren. Die gesamte Rente bis q ∗ des preisdiskriminierenden Monopolisten k wird dazu verwendet, die überschüssigen Kosten
n, die nicht aus der zusätzlichen M ZB der Politiker abgedeckt werden können, zu
nanzieren. Wir haben es hier mit einer nicht paretoezienten Überproduktion
zu tun. Es ergibt sich ein Wohlfahrtsverlust aus extensiver Produktion, die mit
Hilfe der intramarginalen Renten k nanziert wird.
R
Budgetrestriktion:
B = R M ZB = aq − 12 bq 2 fallende M ZB
Kostenfunktion:
C = GK = cq + 21 dq 2
steigende Grenzkosten
Optimalbedingung:
B=C
aq − 12 bq 2 = cq + 12 dq 2
a − c = 21 (b + d)q
Optimale Produktion: qN = 2 a−c
b+d
qN steigt/sinkt (+/-) mit
- (a+) dem Achsenabschnitt der M ZB . Mit a steigt die Produzentenrente,
es können mehr Kostenüberschüsse abgedeckt werden, so daÿ qN steigt.
- (c-) dem Achsenabschnitt der GK . Die Renten und qN sinken.
- (b-) der Steigung der M ZB . Mit höherem b ist die M ZB steiler und die
Renten und qN sinken.
- (d-) der Steigung der GK . Mit höherem c ist die GK -Kurve steiler, die
Kosten steigen und qN sinkt.
Dieses Ergebnis kann nun mit einem vollkommen preisdiskriminierenden Monopolisten, der kein Optionsxierer ist, verglichen werden.
4.1. FORMALE MODELLE
Zielfunktion:
FOC:
Optimale Produktion:
77
π =B−C
∂π
= a − bq − c − dq = 0
∂C
a − c = (b + d)q
q ∗ = a−c
b+d
Der Niskanenoutput ist doppelt so groÿ wie der eziente Output (qN = 2q ∗ ). Das
gilt nicht, wenn die Nachfragefunktion wie in Abbildung 4.2 sehr elastisch ist. Es
liegt dann eine Beschränkung von der Nachfrageseite vor.
Abbildung 4.2: Nachfragebeschränkung im Niskanenmodell
p
GK
M ZB
k
lm
n
qNC qN
q
Es ist mehr Rente da, als zur Finanzierung des exzessiven Outputs gebraucht
wird (k > n). Die intramarginale Rente ist so groÿ, daÿ man eigentlich weiter
nach rechts kommt (qNC < qN ). Der Politiker würde jedoch einer Produktion
jenseits des Sättigungpunktes qNC nicht zustimmen. Die Lösung lautet in diesem
a
Fall: max B ; FOC: ∂B/∂q = M ZB = a − 2bq = 0; qNC = 2b
; q ∗ < qNC < qN .
Was passiert mit dem Teil der Rente, der nicht gebraucht wird? Dies wird in den
nächsten Modellen, die über Niskanen hinausgehen, behandelt.
Ergebnis: Die Wahrscheinlichkeit des nachfragebeschränkten Falles steigt mit der
Unelastizität der Nachfrage.
Kritik der Annahmen des Niskanenmodells:
Wie überzeugend sind die Annahmen der Zielfunktion und des Optionsxierers?
Die Zielfunktion unterstellt, daÿ die Bürokraten die Haushaltsgröÿe unter der
Nebenbedingung der Nachfragefunktion maximieren. Diese Annahmen sind zu
einfach, denn es sind noch weitere Motive denkbar: die intramarginalen Renten,
die der vollkommen preisdiskriminierende Optionsxierer abschöpft, könnten für
Muse, Personal oder Arbeitskomfort verwendet werden, was die Kosten steigen
lieÿe. Der Niskanenbürokrat produziert zu den minimalen Grenzkosten. Er ist
in diesem Sinne ezient. Die Inezienz rührt daher, daÿ er zu viel produziert.
78
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
Niskanen berücksichtigt also nicht die Möglichkeit, daÿ die Grenzkosten in der
öentlichen Verwaltung viel zu hoch sind. Ebensowenig berücksichtigt er die Personalpräferenz des Bürokraten, der lieber arbeits- statt kapitalintensiv produziert.
Wie läÿt sich die Annahme des Optionsxierer plausibel machen? Drei Möglichkeiten sind vorstellbar. Bei den ersten beiden baut die Begründung auf Informationsnachteile des Politikers gegenüber dem Bürokraten auf.
1. Der Politiker kann die Grenzkosten aufgrund des Informationsnachteils nicht
feststellen, und der Bürokrat gibt einen niedrigeren Verlauf der Grenzkostenkurve
an, um auf qN zu kommen. Das Problem besteht darin, daÿ der Politiker bedenken muÿ, daÿ bei so niedrigen Grenzkosten, auch eine Rente angefallen sein muÿ.
Er muÿ sich fragen, warum er keine Rente abbekommt und warum der Bürokrat
ihm die gesamte Rente abnimmt. Der Bürokrat wird einen falschen (GK 0 6= GK )
Verlauf der Genzkostenkurve (GK 0 ) vorgeben müssen. Um zu begründen, daÿ
er im Optimum produziert, sich also die Nachfrage und Angebotskurve in qN
schneiden, und daÿ keine Rente (r = st) aufgrund von auÿerordentlich hohen intramarginalen Grenzkosten angefallen ist. Allerdings wäre das ein groÿer Zufall,
Abbildung 4.3: Annahme des Optionsxierer im Niskanenmodell
p
GK
r
s
t
GK 0
qN
q
wenn bei einem bestimmten Output sich sowohl die Nachfrage und Grenzkostenkurve schneiden, als auch die Renten gerade verschwinden (r = st). Das ist aus
Sicht des Politikers nicht glaubhaft, und das Ergebnis würde kein Gleichgewicht
darstellen. Diese Argumentation ist somit nicht plausibel.
2. Der Politiker durchschaut das Spiel, ist aber zu schwach. Er ist dem Bürokraten ausgeliefert, weil er ohne ihn nicht an der Macht bleiben kann. Der Bürokrat
muÿ ihm bei der Wahl helfen, Stimmen zu gewinnen. Er muÿ ihm Argumente,
Unterstützung und Statistiken für den Wahlkampf liefern. Der Politiker darf es
sich mit dem Bürokraten nicht verderben, denn sonst betreibt er Wahlsabotage,
4.1. FORMALE MODELLE
79
möglicherweise sogar in dem Sinne, das Indiskretionen über den Politiker verbreitet werden. Der Politiker benötigt vom Bürokraten: positive Informationen,
um wiedergewählt zu werden und er muÿ vermeiden, daÿ negative Informationen
vom Bürokraten veröentlicht werden. Der Politiker weiÿ, daÿ ihm die gesamte
Rente abgenommen wird, er kann sich jedoch nicht dagegen wehren.
3. Der Politiker hat keine Informationsnachteile, er ist auch nicht abhängig, sondern will dasselbe wie der Bürokrat: einen groÿen Haushalt, Macht und Prestige.
Dies könnte insbesondere für Ressortminister zutreen. Es gibt keine Interessendivergenz zwischen dem Politiker und dem Bürokraten und beide ziehen an einem
Strang. Das würde voraussetzen, daÿ der Wähler rational uninformiert ist, sonst
läÿt sich das Spiel nicht spielen und der Politiker wird abgewählt.
4.1.2 Migué/Bélanger
Die Annahme des Optionsxierers wird beibehalten. Die Nutzenfunktion ist nun
nicht mehr nur vom Haushalt B , sondern auch von Muse und Arbeitskomfort S
abhängig (auf englisch Slack, Leerlauf).
U = U [B (q ), S (q )]
+ +
+ ±
Durch die Einführung von Slack gibt es nun zwei mögliche Verwendungszwecke
für die intramarginalen Renten, einerseits Finanzierung von zusätzlichem Output
(wie im Niskanenmodell) und andererseits für Muse und Arbeitskomfort, die beide die Kosten erhöhen und über die Rente abgedeckt werden müssen. Dadurch
produziert der Bürokrat in diesem Modell nicht mehr zu den minimalen Grenzkosten. In Abbildung 4.4 bezeichnet B = M ZB ∗ q die Budgetkurve, sie ist konkav,
weil die M ZB fällt. Die Grenzkostenkurven zeigen einerseits die minimale Grenzkosten GKM in = GKN , die dem Verlauf der GrenzkostenR beim Niskanenmodell
entsprechen. Die Slackfunktion S = q(M ZB − GK) = (M ZB − GKM in ) ist
maximal an der Stelle q ∗ und 0 bei qN , da der Niskanenbürokrat kein Slack produziert. Vor q ∗ steigt S danach sinkt S , da ab q ∗ die Renten negativ sind und
die intramarginale Rente dazu verwendet werden muÿ, das Dezit abzudecken.
Es bleibt also netto immer weniger Rente übrig, und in qN ist gar keine Rente
mehr übrig.
Welchen Anteil möchte der Bürokrat für Slack und welchen für zusätzlichen Output aufwenden, um ein höheres Output zu erreichen? Dazu ist die Indierenzkurve IK eingezeichnet. Bis q ∗ steigen sowohl B als auch S , somit besteht kein
Konikt zwischen diesen Zielen. Infolgedessen muÿ die Lösung zwischen q ∗ und
qN liegen. In diesem Bereich existiert ein Trade o: q erhöht B , aber senkt S .
Die optimale Produktion bendet sich an der Stelle, wo die Indierenzkurve tangential zur Transformationslinie S ist. Die Indierenzkurve läÿt sich aus dem
80
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
Abbildung 4.4: Modell von Migué/Bélanger
p
GKM B
GKM in
m
k
n
l
M ZB
q
B, S
B
q∗
qM B
qN
IK
S
q
totalen Dierential der Nutzenfunktion gewinnen. Die optimale Produktion des
Migué/Bélanger-Bürokraten ist qM B .
Der Vergleich zwischen der ezienten, Niskanen- und Migué/Bélanger-Produktion
ergibt:
Budget
Produktion
Slack
B∗
q∗
S ∗ = Smax
<
<
>
BM B
qM B
SM B
<
<
>
BN
qN
SN = 0
Bei Migué/Bélanger wird ein Teil der Renten für Slack verwendet (SM B > SN )
und der Bürokrat produziert nicht mehr zu Minimalkosten. Bei Niskanen wird
die gesamte Rente für die Outputausdehnung verwendet (SN = 0).
In der Abbildung 4.4 wurde eine gleichmäÿige Verteilung von Slack auf die Grenz-
4.1. FORMALE MODELLE
81
kosten angenommen, da die GKM B parallel zur GKM in verläuft. Es wird zu teuer
(lm) produziert, wodurch der Teil der Rente (von kl auf k ) schrumpft, der zur
Dezitabdeckung mn verwendet werden kann.
Im Ergebnis produziert der Migué/Bélanger-Bürokrat zu viel und zu teuer.
Das Modell kann nun verwendet werden, um in einer komparativen Statik in
Abbildung 4.5 der Frage nachzugehen, wie die Bürokratie bei Haushaltskürzungen
reagiert?
Abbildung 4.5: Haushaltskürzungen im Modell von Migué/Bélanger
p
M ZB1
M ZB2
q
B, S
B2
B1
S1
s1
s2
S2
qM B1 qN1 q
qM B2 qN2
Eine Kürzung des Haushaltes bewirkt, daÿ sich die Nachfragekurve der Politiker
von M ZB1 auf M ZB2 und die Slackkurve von S1 auf S2 verschieben. Es ergibt
sich ein neuer Niskanenoutput qM B2 und der Slack geht von s1 auf s2 zurück.
Wenn Politiker dem Slack durch Haushaltskürzungen beikommen möchten, hat
dies den unerwünschten Nebeneekt, daÿ auch der Output zurückgeht. Das ent-
82
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
spricht der sogenannten Sabotagehypothese, wonach der Bürokrat bei Haushaltskürzungen vor allem den Output reduziert, um die Wähler gegen die Politiker
aufzubringen. Sie werden den Output reduzieren, der den Bürgern besonders
wichtig ist, und es einen Aufschrei der Entrüstung gibt, um auf die Folgen der
Kürzung aufmerksam zu machen.
Bei einer Institutsschlieÿung an der Universität hieÿ es: Es soll ruhig nach auÿen
deutlich werden, daÿ diese Kürzungen uns hart treen. Die Bevölkerung soll
merken, daÿ es zu einer Outputverminderung führt. Buchanan: ... it will be of
course direct the cuts to those areas, that are most sensitive, mostly demanded....
Deshalb sollten die Kürzungen nicht dem Bürokraten überlassen werden.
Läÿt sich empirisch ein typisches Reaktionsmuster der Bürokraten bei Kürzungen
feststellen? New York war in den siebziger Jahren bankrott, der Kapitalmarkt war
für die Stadt verschlossen. Die darauf einsetzenden Kürzungen wurden nicht wie
erwartet bei der Polizei und der Feuerwehr durchgeführt, sondern bei der Bewährungshilfe, Bildung und der städtischen Krankenversorgung. Kalifornien 1978:
Bei der sogenannten Proposition 13 wurde in einem Referendum eine bestimmte
Steuer abgelehnt. Die Kürzungen fanden bei der Polizei und der Feuerwehr und
nicht beim Personal statt.
In Kopie 36 ist auällig, daÿ das Budget um 21.3% zurückging, während die
Personalausgaben nur um 5.2%. In Kopie 37 sieht man für die BRD, daÿ der
Haupteekt der starken Konsolidierungsbemühungen Anfang der achtziger Jahre
bei den Investitionen lag. Wenn die Haushalte gekürzt werden, dann weit unterproportional beim Personal und überproportional bei den Investitionen.
Wie ist das zu erklären? Eine naheliegende Erklärung ist, daÿ Personal nicht so
schnell abgebaut werden kann. Es gibt (auch in den USA) Kündigungsvorschriften. Um festzustellen, ob die Personalkürzungen tatsächlich geringer sind, sollte
man allerdings langfristige Daten betrachten.
Eine andere Erklärung lautet, daÿ wenn auf die Bürokratie eine Kürzung zukommt, sich die Bürokraten zunächst denken, daÿ das nur vorübergehend ist,
denn die Grausamkeiten haben vor der nächsten Wahl ein Ende. Die Bürokraten
brauchen eine Überwindungsstrategie und müssen irgendwie kurzfristig überleben. Auf Investitionen kann man kurzfristig verzichten, indem man zum Beispiel
repariert, statt neu anschat. Für die Überwindungsstrategien empehlt es sich
nicht Personal zu entlassen, das behördenspezisches Humankapital besitzt und
bei Wiedereinstellung neu angelernt werden muÿ. Dies ist inezient und es ist
besser abzuwarten, ob die Politiker den Kürzungswiderständen standhalten. Personal wird also erst entlassen, wenn die Kürzungen sich nicht als transitorisch
herausstellen.
Parkinsons Gesetz lautet: Der Personalbestand wächst immer weiter, ob gekürzt
4.1. FORMALE MODELLE
83
wird oder nicht, ob der Output reduziert werden muÿ oder nicht. Kopie 38 nach
sank bei der britischen Admiralität die Anzahl der Schlachtschie, als auch die
Mannschaftsgröÿe. Die Anzahl der Beamten im Ministerium stieg jedoch um 80%.
Im britischen Kolonialoce vervierfachte sich der Personalbestand, als Groÿbritannien fast alle seine Kolonien verlor. Je stärker der Output reduziert wird,
desto höher ist der Personalbestand im Ministerium. Das ist Ergebnis der Arbeitsbeschaungsmaÿnahmen für Oziere und die Mannschaft, die ins Ministerium gesteckt werden. In Deutschland stieg von 1965 bis 1984 das Personal im
Landwirtschaftsministerium um 50% von 19.900 auf 26.400, während die Zahl
der in der Landwirtschaft Erwerbstätigen um 50% von 2,9 Millionen auf 1,4 Millionen zurückging. Das ist auf Papierkrieg, Interventionen, Erstattungen u.ä. der
europäischen Agrarpolitik zurückzuführen.
4.1.3 Bürokratiemodelle mit Personalpräferenz
Bei Parkinsons Gesetz geht es um den Übergangsprozeÿ, um die Ableitung des
Personalbestandes nach der Zeit. Hier soll es um das Niveau im statischen Gleichgewicht gehen.
Die Hypothese lautet: Im Gleichgewicht ist die Produktion der Bürokratie zu
personalintensiv. Die Gründe für eine besonders starke Präferenz für Personal
könnten Prestige, Muse und Risikovermeidung durch Delegation sein. Das Personal kann als Wähler die Bürokratie abzusichern helfen (Kapital hat kein Stimmrecht). Allerdings ist das ein Kollektivgut mit Trittbrettfahrerproblemen, so daÿ
dieses Wahlargument wenig überzeugend ist.
Die Gegenhypothese lautet, daÿ Bürokraten ein höheres Interesse an kapitalintensiver Produktion als an personalintensiver haben. Durch eine kapitalintensive
Produktionsweise lassen sich Ausgaben vorverlegen. Wenn der Bürokrat eine hohe Zeitpräferenz hat, dient dem eine kapitalintensive Produktion eher als eine
personalintensive.
In Kopie 39 ist ein Test der Personalpräferenz von Orzechowski zu sehen, der
in einer Querschnittsanalyse für US-Universitäten das Verhältnis im Einsatz von
Kapital und Arbeit durch den relativen Preis beider Faktoren und einen Dummy
für staatliche Produktion erklärt. Der Relativpreis ist wie erwartet signikant
negativ. Der Dummy geht der Frage nach, ob es zwischen staatlichen und privaten
Universitäten einen Unterschied in der Kapitalintensität der Produktion gibt.
Das Vorzeichen dieses Dummys ist negativ und bedeutet, daÿ die staatlichen
Universitäten kapitalintensiver produzieren.
Allerdings ist die Regression nicht ganz überzeugend, da der Kapitaleinsatz durch
die Nichtwohnäche (Landbesitz der Universität) gemessen wird. Die privaten
84
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
Universitäten sind jedoch reicher und eher mit Stiftungsvermögen nanziert. Die
Interpretation der Ergebnisse ist deshalb verfälscht, da Kapital hier kein Produktivfaktor, sondern eher eine Geldanlage ist.
4.1.3.1 Orzechowski
Im Modell von Orzechowski hat der Bürokrat eine Nutzenfunktion der Form:
U = U {B[q(L, K), S(L)]}
Slack ist nur von Arbeit abhängig und die Personalpräferenz erklärt sich durch
mehr Muse.
B
Λ
∂Λ
∂L
∂Λ
∂K
∂Λ
∂λ
= wL + rK
= U + λ(B[q(L, K)] − wL − rK)
∂U ∂B ∂q
∂U ∂S
∂B ∂q
=
+
+λ
− λw = 0
∂B ∂q ∂L ∂S ∂L
∂q ∂L
∂U ∂B ∂q
∂B ∂q
=
+λ
− λr = 0
∂B ∂q ∂K
∂q ∂K
(4.1)
(4.2)
= B − wL − rK = 0
Die FOC 4.1 und 4.2 lassen sich zu
µ
¶
∂U
∂B ∂q
∂U ∂S
+λ
+
− λw = 0
∂B
∂q ∂L ∂S ∂L
µ
∂U
+λ
∂B
¶
∂B ∂q
− λr = 0
∂q ∂K
vereinfachen und dann nach den beiden Grenzprodukten MPL = ∂q/∂L und
MPK = ∂q/∂K auösen und durch einander teilen:
∂q
∂L
∂q
∂K
=
MPL
=
MPK
λw −
(
∂U ∂S
∂S ∂L
∂U
+λ ∂B
∂B
∂q
λr
)
∂U
+λ) ∂B
( ∂B
∂q
=
∂S
λw − ∂U
∂S ∂L
λr
Der Unterschied zur Konkurrenzsituation (MPL /MPK = w/r) ist der Ausdruck
∂U ∂S
, der die Personalpräferenz, einen Nutzenzuwachs aus Slack, widerspiegelt.
∂S ∂L
Die Spezikation von Slack als Personalpräferenz stellt somit einen Spezialfall
von Migué/Bélanger dar. Das Grenzprodukt der Arbeit (MPL ) ist geringer als
im Konkurrenzmodell, es wird zu arbeitsintensiv produziert.
4.1. FORMALE MODELLE
85
4.1.3.2 Peacock
Die vorhergehenden Modelle sind nicht plausibel, da sie als Ergebnis einen zu
groÿen Output der Bürokratie haben. Erfahrungsgemäÿ produzieren die Bürokraten jedoch zu wenig. Peacock modelliert Slack, aber keine Personalpräferenz
durch die Nutzenfunktion:
U = U {B[q(L), S(L, K )}.
+
−
+
Die Besonderheit von Peacock ist, das q nur von L abhängt, Kapital ist Slack. Die
Bürokraten haben eine Personalaversion, es ist ihnen lästig, da es beaufsichtigt
werden muÿ, was schlecht für die Muse ist. Die Folge ist, daÿ weniger Personal
eingestellt wird. Da dies aber der einzige produktive Faktor ist, kommt es zu
einem zu geringen Output.
Fraglich, wieso in diesem Modell Kapital unproduktiv ist, und ob Personalaversion die typischerweise vorkommende Einstellung des Bürokraten ist. Eine
Personalaversion ist plausibel ab einem bestimmten Stellenkegel, aber nicht von
Anfang an.
4.1.3.3 Alternative Informationsverteilung
Die Schluÿfolgerung eines zu kleinen Outputs, die Peacock gerne hätte, lassen
sich auch durch die folgenden Annahmen ableiten.
1. Der Politiker kennt die Steigung (+ oder -) der minimalen Grenzkostenfunktion (Technologie)
2. und die tatsächlichen (nicht die minimalen) Grenzkosten, da sie ja meÿbar
sind.
3. Er ist nicht so schwach, daÿ es sich die gesamte Nachfragerente abnehmen
läÿt, eine vollkommene Preisdiskriminierung ist also nicht möglich.
Die asymmetrische Information ist hier nicht so stark wie bei den bisherigen
Modellen: Die Bürokraten kennen die MZB und den Politikern sind lediglich die
minimalen Grenzkosten nicht bekannt.
In Abbildung 4.6 sind die Ergebnisse an einem Beispiel mit konstanten Grenzkosten zu sehen.
Aus Annahme 2 folgt, daÿ der Bürokrat keinen Output gröÿer als q ∗ durchsetzen
kann. Denn dazu müÿte er den Politiker glauben machen, daÿ die Grenzkostenkurve die Nachfragekurve weiter unten schneiden, nur dann könnte der Politiker
86
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
Abbildung 4.6: Modell mit alternativer Informationsverteilung
p
GKM on
GKB+S
GKM in
M ZB
GE
q
B, S
S0
S
qS qB+S q ∗
qN
q
glauben, daÿ es ein ezienter Output ist. Der Politiker kennt aber die tatsächlichen Grenzkosten, so daÿ jeder Output rechts von q ∗ ausscheidet, denn dazu
müÿten die tatsächlichen Grenzkosten geringer als die minimalen Grenzkosten
∗
sein. Per Annahme 2 kann der Bürokrat also nicht über
R qq∗ hinaus produzieren.
Per Annahme 3 läÿt sich der Politiker nicht die Rente 0 (M ZB − GKmin ) abnehmen. Ohne Annahme 1 könnte der Bürokrat einen Grenzkostenverlauf entlang
der MZB vortäuschen und somit höhere Grenzkosten im intramarginalen Bereich
vorgeben. Der Bürokrat kann sich nur wie ein normaler Monopolist verhalten.
Die Grenzertragsfunktion GE ist die neue Slackfunktion mit Maximum in der
Monopollösung qS bei einer vorgetäuschten GKM on Angebotsfunktion.
Der Niskanenbürokrat würde in q ∗ mit GKM in produzieren, da er ein reiner Outputmaximierer ist. Der Migué/Bélanger würde qB+S wählen und mit GKB+S
produzieren.
Ergebnis:
4.2. KONTROLLMAßNAHMEN
87
- qB+S < q ∗
- B(qB+S ) > B(qB+S )min wegen des Slacks, die geltend gemachten tatsächlichen Grenzkosten liegen über den minimalen Grenzkosten.
- Es wird inezient
- und zu wenig und nicht zu viel produziert.
- Es kann sein, daÿ B(qB ) > B(q ∗ ), obwohl qB < q ∗ . Das ist dann der Fall,
wenn der Betrag der Preiselastizität der Nachfrage < 1 (sehr steil) ist,
wenn der Rückgang des Output zu einem überproportionalen Anstieg des
Haushalts führt.
Fazit: Die Ableitung der gewünschten Ergebnisse ist über einen einfachen Monopolisten möglich. Die Annahme des Optionsxierers ist nicht nötig.
4.2 Kontrollmaÿnahmen
Wieso läÿt sich der Politiker die asymmetrische Information bieten? Warum investiert er nicht in Kontrollmaÿnahmen?
Abbildung 4.7: Kontrollmaÿnahmen
p
GK
k
GP
l
m
K∗
K
In Abbildung 4.7 sind GP das Grenzprodukt der Kontrollmaÿnahmen die für
eine zusätzliche Kontrolleinheit K eingesparten Kosten oder Slackreduktion. Die
88
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
GK zeigen die Grenzkosten der Kontrollmaÿnahmen. Es ist nicht ezient, durch
Kontrollen den gesamten Slack klm, also alle Produktionskosten, die über die
minimalen Kosten hinausgehen, vermeiden zu wollen. Bei der optimalen Menge
an Kontrolle über die Kosten in Höhe von l verliert der Bürokrat das, was der
Politiker gewinnt (kl). Der Nettoezienzgewinn beträgt k .
Wie wirken sich die Kontrollmaÿnahmen auf den Output aus? Bei Haushaltskürzungen im Modell von Migué/Bélanger geht nicht nur der Slack, sondern
auch der Output zurück. Hier sind bei Kontrollmaÿnahmen die Grenzkosten,
die der Bürokrat geltend machen kann, niedriger als vorhin (in Abbildung 4.6
GKK < GKB+S ). Das führt dazu, daÿ der Bürokrat bei niedrigeren Grenzkosten einen gröÿeren Output wählt. Haushaltskürzungen führen hier dazu, daÿ
der Slack sinkt und der Output steigt.
Brauchen wir wirklich Kontrollmaÿnahmen? Obwohl hier potentielle Paretoverbesserungen möglich sind, verschwenden Bürokraten Haushaltsmittel, indem sie
zu höheren als den minimalen Grenzkosten produzieren. Das kommt daher, daÿ
das Einkommen keine beeinuÿbare Variable ist. Ihnen wäre daran gelegen, daÿ
sie stattdessen eine Gehaltserhöhung erhalten.
Abbildung 4.8: Gefangenendilemma bei Zulagen
Gehaltszulage
=0
>0
Produktion
slack kein slack
1,1
5,0
0,5
4,4
Hypothese: Solch ein Vorschlag scheitert aufgrund eines Gefangenendilemmas:
Obwohl 4,4 paretooptimal ist (4+4=8), wird der Bürokrat Slack wählen, da er
aufgrund von Zeitinkonsistenz dem Politiker nicht glaubt, nach der Einsparensbekanntgabe auch tatsächlich sein Wort zu halten und das Gehalt des Bürokraten zu
erhöhen. Somit liegt ein Gefangenendilemma, aufgrund eines fehlenden Vertrages
bezüglich der Gehaltszulage, vor.
Kritik: Das Problem ist zu konstruiert und eigentlich nicht wichtig. Es ist richtig,
daÿ Politiker bei zukünftigen Gehaltsverhandlungen knauserig sein können. Dieses Problem haben aber alle. Zulagen sollen aber nur für einzelne Denunzianten
gezahlt werden, und es ist nicht ersichtlich, wieso diese per Gesetz beschlossene
Zulagen nicht bezahlt werden sollten. Mit dieser Hypothese wird jedoch deutlich, daÿ Rechtssicherheit vorliegen muÿ. Ansonsten würde es sich um eine Form
Staatsversagen handeln.
4.3. REFORMMAßNAHMEN
89
4.3 Reformmaÿnahmen
Aus den vorgestellten Bürokratien lassen sich Reformmaÿnahmen ableiten, um
die Ezienz zu steigern beziehungsweise um Bürokratie abzubauen. Die Reformmaÿnahmen lassen sich in Vorschläge, die das Innenverhältnis (innerhalb der
Bürokratie) und solche, die das Auÿenverhältnis betreen, einteilen.
4.3.1 Innenverhältnis
- Niskanen fordert Dezentralisierung und Wettbewerb. Die Forderung nach
Wettbewerb ist jedoch übertrieben. Es sei denn, die Bürokraten hätten
überlappende Kompetenzen, was nicht besonders günstig ist. Dezentralisierung schat Vergleichsmöglichkeiten (im Land oder in der Welt) und
Vorbilder bezüglich der Performance gleichartiger Produktionen.
- Kosten- und Produktionsanalysen durch Auÿenstehende. In Deutschland ist
dafür der Rechnungshof zuständig, der für seine Aufgabe nicht besonders
gut angelegt ist. Der Präsident des Bundesrechnungshofes wird vom Bundeskanzler vorgeschlagen und vom Parlament gewählt. Innerhalb des Rechnungshofes bestimmt der Präsident, welcher Beamte welches Prüfungsgebiet
übernimmt und welche Mitarbeiter ihm zugeteilt werden. Der Präsident hat
also weitreichende Zugrisrechte. Der Finanzminister muÿ Beförderungen
im Rechnungshof gegenzeichnen und kontrolliert seinen Etat. Vaubels Vorschlag wäre, daÿ der Präsident des Rechnungshofes von der Opposition
vorgeschlagen wird. In Frankreich schlug 1993 Präsident Mitterrand den
Rechnungshofpräsidenten für die Regierung des Premiers Balladur vor. Die
Gaulisten unter Balladur änderten das Gesetz, wonach der Präsident des
Rechnungshofes von der Regierung ernannt wird.
- Regelbeförderung verlangsamen und Dienstalterszuschläge abschaen.
- Finanzielle Beteiligung oder Urlaub bei Einsparungen gewähren. Die goldene Zitrone vom Bund der Steuerzahler an die inezienteste Verwaltung
verleihen.
- Maÿnahmen gegen das Dezembereber:
Man könnte messen, inwieweit die Ausgaben im IV. Quartal über dem
Durchschnitt der Ausgaben der Quartale I-III hinausgehen und diesen
Überschuÿ für das nächste Jahr kürzen. Allerdings würde man erwarten, daÿ die Ausgaben des IV. Quartals vorverlegt werden würden. Die
gleiche Reaktion müÿte auch beim nächsten Vorschlag entstehen.
90
KAPITEL 4. ÖKONOMISCHE THEORIE DER BÜROKRATIE
Für das IV. Quartal den Haushalt in Höhe des Durchschnitts der I-
III Quartale sperren. Die wird in Nordrhein-Westfalen, Niedersachsen
und Schleswig Holstein gemacht.
Das Motiv für das Dezembereber entfällt, wenn die volle Übertragbarkeit der nicht ausgenutzten Mittel gewährt wird.
4.3.2 Auÿenverhältnis
- Ausschreibungszwang: In Groÿbritannien werden seit dem Local Government Act 1988 in regelmäÿigen Abständen (fünf Jahre), die bisher von der
staatlichen Verwaltung erbrachten Leistungen, ausgeschrieben, um festzustellen, ob private Produzenten dies kostengünstiger erbringen können. Ausschreibungsverfahren für diese Zwecke wurden von Loeb-Magat vorgeschlagen.
- Veränderung des aktiven/passiven Wahlrechts von öentlichen Bediensteten.
Passives Wahlrecht: Einschränkungsmöglichkeit nach Art. 37, I, GG:
Die Wählbarkeit von Beamten, Angestellten des öentlichen Dienstes,
Berufssoldaten, freiwilligen Soldaten auf Zeit und Richtern im Bund, in
den Ländern und den Gemeinden kann gesetzlich beschränkt werden.
Folglich wäre ein Gesetz, nach dem Beamte nicht mehr beliebig in den
Bundestag gewählt werden können, verfassungskonform.
Stimmrechte der öentlichen Bediensteten im Parlament einschränken:
∗ bei Entscheidungen über den Haushalt,
∗ bei Ausgaben, die die Kosten erhöhen oder die zu Personalerhöhungen in der Verwaltung führen müssen, dürfen sie nicht mitstimmen.
∗ Noch besser wäre es, in diesen Fällen eine qualizierte Mehrheit
zu verlangen, die zugleich eine einfache Mehrheit unter den nicht
Bediensteten des Staates impliziert: bei 45% der Parlamentarier
aus dem öentlichen Dienst ergibt sich ein Quorum von 45 + 0,5
(100-45) = 72,58. Dies würde zu einem Anreiz führen, weniger
Beamte aufzustellen.
Kapitel 5
Verbandsökonomik
5.1 Beeinussung der Wirtschaftspolitik
Wie beeinussen die Verbände die Wirtschaftspolitik? Es lassen sich vier Transaktionsmechanismen unterscheiden. Die Verbände verbreiten Informationen. Sie
nanzieren die Politiker, u. a. durch Parteispenden. Sie führen oder drohen mit
der Durchführung von Störaktionen, die direkt die Wiederwahlchancen der Regierung oder indirekt den Erfolg von wirtschaftspolitischen Maÿnahmen beeinussen. Und sie sind mit der Durchführung bestimmter wirtschaftspolitischer
Maÿnahmen betraut.
5.1.1 Transaktionsmechanismen
5.1.1.1 Informationsverarbeitung
Der Erfolg des Transaktionsmechanismus Informationsverbreitung setzt voraus,
daÿ unvollkommene Information herrscht. Das ist dann der Fall, wenn politische
Informationen nicht kostenlos sind oder der Wähler einen niedrigen Anreiz hat,
sich über wirtschaftspolitische Fragen zu informieren, also eine rationale Unwissenheit der Wähler vorliegt. Einer der Gründe für die Unwissenheit liegt bei der
Existenz externer Eekte. Wenn sich einer informiert, hat das positive externe
Eekte auf die anderen Abstimmungsberechtigten, die er nicht internalisieren
kann. Die Gründung eines Verbandes führt zu partieller Internalisierung externer
Eekte. Die Mitglieder beauftragen die Verbandsfunktionäre, die Information zu
beschaen, zu verarbeiten und unter den Mitgliedern zu verbreiten. Für die Verbandsführung lohnt es sich, nun gut informiert zu sein, weil die externen Eekte
der Mitglieder internalisiert und das Kollektivgut bereitgestellt wird. Die Verbän91
92
KAPITEL 5. VERBANDSÖKONOMIK
de verbessern also den politischen Informationsstand ihrer Mitglieder, allerdings
nur (verzerrt) in Bezug auf das Verbandsziel. Auf diesem Weg können ebenso die
externen Eekte des Lobbying internalisiert werden.
Ist die Verbesserung des Informationsstandes der Mitglieder positiv zu beurteilen? Diese Informationen werden nicht im Markt, sondern im politischen Prozeÿ
und in Mehrheitsentscheidungen verwendet. Man kann nicht ohne weiteres davon
ausgehen, daÿ dies automatisch zu Wohlfahrtssteigungen führt. (Beispielsweise
erhöht der Informationsstand der Maa nicht gerade die Wohlfahrt der Gesellschaft.) Im politischen Prozeÿ gibt es erhebliche Abweichungen von einer Situation mit ezienten Organisationen, vollkommenem Wettbewerb und vorhandenen
Eigentumsrechten, die von negativen externen Eekten zu schützen ist.
Welche Informationen verbreiten Verbände?
1. Informationen an Mitglieder über die Wirtschaftspolitik. Das geht bis hin zur
Bewertung der Wirtschaftspolitik und Wahlempfehlungen (Bauernverband, Hirtenbriefe). Dafür werden Gruppenprivilegien als Gegenleistung von Politikern gefordert.
2. Informationen an Politiker über Branchenvorgänge, -statistiken, -informationen
und -probleme. Sind diese Informationen wertvoll für den Politiker? Sie sind verzerrt zugunsten des Verbandszieles. Die Verbandsfunktionäre lassen nur solche
Informationen heraus, die die Politiker haben wollen und von dem sie sich politische Aktionen zugunsten des Verbandes erhoen. Diese Information würden
die Verbandsfunktionäre sowieso herauslassen, auch wenn sie keine Gegenleistung
der Politik dafür bekommen würden. Gegenleistungen in Form von bestimmten
Maÿnahmen stehen somit auf einer nicht nachvollziehbaren argumentativen Basis.
3. Informationen an Politiker über Mitglieder und Aggregierung von Mitgliederpräferenzen. Diese sind allerdings auch verzerrt durch die Interessen der Funktionäre, die nicht unbedingt mit denen der Mitglieder übereinstimmen müssen.
Die Verbände wirken auf diese Weise an der politischen Willensbildung mit. Je
leichter und genauer die Politiker die Wünsche der Mitglieder einer Interessengruppe feststellen können (je mehr also die Funktionäre ihnen die Aggregierung
der Präferenzen abnehmen), desto eher erfüllen Politiker die Wünsche solcher
Verbände, da ihre Informationskosten auf diese Weise sinken. Alternativen zur
Verbandsaggregation der Präferenzen sind Meinungsumfragen, die teuerer und
Volksabstimmungen, die zuverlässiger sind.
5.1. BEEINFLUSSUNG DER WIRTSCHAFTSPOLITIK
93
5.1.1.2 Politikernanzierung
Es lassen sich drei Arten von Politiknanzierung unterscheiden: direkte Parteispenden, Unterstützung einzelner Kandidaten und Entsendung von Kandidaten
ins Parlament.
Seit dem Parteiennanzierungsgesetz können Ehepaare Spenden einkommensunabhängig bis zu 6.000 DM zu 50% von der Steuerschuld abziehen. Weitere 6.000
DM können von der (einkommensabhängigen) Steuerbemessungsgrundlage abgezogen werden. Daraus sind sogenannte Karusellgeschäfte möglich: Die Partei gibt
dem Mitglied 3.000 DM, das der Partei wiederum 6.000 DM spendet. Da 3.000
DM von der Steuerschuld abgezogen werden können, hat das Mitglied letztendlich nichts bezahlt und die Partei erhält 3.000 DM, die das Finanzamt nanziert
hat.
Wieso sind die Politiker an Spenden interessiert? Der Politiker kann die Spende, z. B. als Gegenleistung für eine bestimmte Abstimmung, für eigene Zwecke
verwenden, sie also in seine eigene Tasche stecken oder sie können für Mitgliederveranstaltungen verwendet werden. Andererseits können mit Spenden Wahlkämpfe nanziert werden, um z. B. unschlüssige und schlecht informierte Wähler
zu mobilisieren oder um die Zahl der Enthaltung unter den eigenen Anhängern
zu reduzieren. Der Einuÿ von Interessengruppen durch Parteispenden ist umso
gröÿer, je schlechter die Wähler informiert sind. Je schlechter sie informiert sind,
umso mehr werden die Parteien ausgeben müssen, um sie zu mobilisieren, desto
mehr brauchen sie die Verbände.
Kopie 40 zeigt den Anteil der Spenden an den gesamten Einnahmen der Parteien.
Die CSU belegt den Spitzenplatz, die SPD ist besonders gering von Spenden
abhängig und die CDU/FDP/Grüne liegen im Mittelfeld.
Kopie 41 zeigt Spenden pro Parteimitglied und pro Parteiwähler. Pro Mitglied
führen die Grünen und die CSU.
Kopie 42 zeigt die Entsendung von Kandidaten durch Verbände. 48.5% des Deutschen Bundestages in den siebziger Jahren waren Verbandsvertreter. Zusammen
mit den 45% aus dem öentlichen Dienst stellen diese beiden Gruppen praktisch
100% des Parlaments.
Kopie 43 zeigt, daÿ im Bundestag von 1994 35% Mitglied einer Gewerkschaft
waren. 1972 erreichte dieser Wert über 60%. 1994 waren 6,5% der CDU-, 74,8%
der SPD-, 24,5% der Grünen und 50% der PDS-Abgeordneten Mitglieder einer
Gewerkschaft.
Kopie 44 zeigt die Parteipräferenz und -mitgliedschaft von Verbandsmitgliedern.
Kopie 45 gliedert die Verbandsvertreter aus SPD und CDU/CSU im Deutschen
94
KAPITEL 5. VERBANDSÖKONOMIK
Bundestag noch genauer nach den verschiedenen Verbänden auf.
Die Kopien 46 und 47 zeigen, daÿ die Verbandsvertreter besonders in den Ausschüssen des Deutschen Bundestages aktiv werden, die den Verbandszielen entsprechen.
Die Kopien 48 und 49 zeigen eine Befragung der Abgeordneten nach dem Einuÿ von Verbänden. Die Direktmandate schätzen den Einuÿ geringer ein als
die Listenkandidaten. Das ist einleuchtend, denn die Direktmandate werden vom
Wahlkreismedian gewählt und für sie sind die Aktivitäten der Verbände weniger wichtig als für die Listenkandidaten, die die Unterstützung von Verbänden
benötigen, um einen guten Listenplatz zu bekommen.
Kopie 50 zeigt den Grad der Verechtung zwischen Abgeordneten und Verbänden.
Wie zu sehen ist, nimmt die Verechtung mit dem Status zu. Je höher die Politiker, desto höher die Verechtung mit den Verbänden. Der Unterschied zwischen
den Staatssekretären und Ministern deutet darauf hin, daÿ Politposten einfacher
als Beamtenposten mit Verbandsmitgliedern zu besetzen sind.
Kopie 51 gliedert Politiker nach Berufen. Kopie 52 zeigt die Verechtung der
Parteien mit den Verbänden, die Kopien 53 bis 56 die Statistiken zu Verbänden
auf der EU-Ebene.
5.1.1.3 Störaktionen
Störaktionen bestehen einerseits aus Blockaden, um auf sich aufmerksam zu machen (Bauern, Fernfahrer, Umweltschützer, usw.).
Andererseits aus Streiks, um die Wirtschaftspolitik zu beeinussen, die dann allerdings einen politischen Streit darstellen und in Deutschland eigentlich verboten
sind. 1951 sollte das Montanmitbestimmungsgesetz auslaufen. Der DGB drohte
jedoch mit einem Generalstreik, worauf Adenauer einen Deal aushandelte, und die
Gewerkschaft bekam die Mitbestimmung und die Regierung Lohnzurückhaltung.
Die letzte Form von Störaktionen ist die Drohung der Arbeitgeberverbände mit
Ausbildungs- und Investitionsstreik (Verlagerung ins Ausland). Dieser Vorwurf
ist aber nur schwer nachzuweisen, insbesondere, ob es sich dabei tatsächlich um
politischen Druck oder um Gewinnstreben handelt, wenn die Lehrlingsproduktivität unter den Lehrlingsgehältern und die Ausland- über der Inlandrendite liegt.
Weshalb können solche Störaktionen die Wirtschaftspolitik verändern? Dann,
wenn die Bürger schlecht informiert sind und eine Verschlechterung der Wirtschaftslage zum Teil der Regierung anlastet. Woraufhin die Regierung die Auswirkungen von Störaktionen durch Nachgeben abfedert.
5.1. BEEINFLUSSUNG DER WIRTSCHAFTSPOLITIK
95
Auÿerdem sind die Nachteile des Nachgebens nicht so oensichtlich wie die Nachteile der Störaktionen. Die Nachteile sind weithin sichtbar (ÖTV: Alle Räder
stehen still, wenn unser starker Arm es will.). Nachgeben geht jedoch in der
Regel auf Kosten der Steuerzahler.
Die Nachteile der Störaktionen treen eine breite Öentlichkeit, die Mehrheit der
Wähler oder den Medianwähler. Die Nachteile des Nachgebens treen, obwohl sie
gröÿer sein können, eventuell nur eine kleine Minderheit (z. B. die Arbeitslosen
bei Erhöhung der Arbeitskosten).
5.1.1.4 Durchführung wirtschaftspolitischer Maÿnahmen
Die Durchführung wirtschaftspolitischer Maÿnahmen umfaÿt Preiskontrollen (Pharmaindustrie für seine Mitglieder), Lehrstellenverhandlung gegen Gegenleistung,
Handelspolitik, income policy (in Groÿbritannien und den USA) und Investitionszusagen (für Ostdeutschland). Dies sind Merkmale korporatistischer Wirtschaftspolitik.
Das ist im Interesse der Politiker, weil die Mitglieder der Verbände auf die Ziele
der Regierung festgelegt werden und es die Verbandsführung ist, die sich den
Unmut der Mitglieder, die auch Wähler sind, zuzieht (Sündenbockfunktion).
Auch die Mitglieder haben ein Interesse an solchen Zwangsverbänden, weil das
Trittbrettfahrerproblem überwunden werden kann. Man kann sich gegenüber der
Regierung festlegen, ohne befürchten zu müssen, daÿ Konkurrenten nicht mitziehen.
5.1.2 Technologie der Verbände
Bei der Technologie der Verbände kann zwischen kapitalintensiver (Politikernanzierung, Informationsverbreitung durch Werbung) und arbeitsintensiver (Störaktionen, Informationsverbreitung durch Demonstration) unterschieden werden.
Die arbeitsintensive Technologie würden wir bei Verbänden mit vielen Mitgliedern, die ein geringes Einkommen haben erwarten, da die Opportunitätskosten
von arbeitsintensiven Aktionen gering sind. Dies ist der Fall bei Gewerkschaften,
Studentenverbänden, Umweltschützer, Bauernverbänden, Taxifahrer und Fernfahrer.
Einen kapitalintensiven Einsatz würden wir bei Arbeitgeberverbänden und Berufsverbänden (Ärzte, Zahnärzte) erwarten, die selten demonstrieren (20 Zahnärzte in Mannheim). Sie wählen eher Politikernanzierung und Publizität, wie
Plakate in Arztpraxen gegen Gesundheitsreform.
96
KAPITEL 5. VERBANDSÖKONOMIK
Die Unterschiede in den Technologien können bei gegebener Ressourcenausstattung durch rationales Verhalten erklärt werden (analog Hekscher-Ohlin-Theorem),
weshalb eine Bewertung der angewendeten Methode kaum möglich ist.
5.1.3 Gegenleistungen
Welche Gegenleistungen für Informationen, Geld und Verzicht auf Störaktionen,
wollen die Verbände von den Wirtschaftspolitikern haben?
Bei den Gegenleistungen handelt es sich um Gruppenprivilegien.
1. Subventionen in Form von Finanzhilfen oder Steuerausgaben, Steuerausgaben sind weniger weit verbreitet, weil dazu eine Gesetzesänderung notwendig ist.
2. Besteuerung der Konkurrenz als eine raising rivals costs Strategie. Dieser Strategie fallen in erster Linie ausländische Konkurrenten zum Opfer
(Schutzzölle, Protektionismus).
3. Mengenregulierung durch
(a) Absenkung des Angebots in der eigenen Branche (Monopole, Kartelle), damit der Preis steigt (Milchquoten der Bauern, Lizenzierung bei
Taxifahrern) ;
(b) Marktzutrittsbarrieren bei nichthandelbaren Gütern wie Zulassungsprüfung durch praktizierende Vertreter der Branche (Handwerk, Steuerberater, Wirtschaftsprüfer);
(c) Einfuhrkontingente gegenüber Ausländern.
4. Preisregulierung durch
(a) Mindestpreise des Anbieterverbandes (Allgemeinverbindlichkeitserklärung von Arbeitstarifen);
(b) Höchstpreise des Nachfrageverbandes (mit Preisregulierung, Mietspiegel);
(c) Preisverpichtung gegenüber Ausländern im Rahmen der Europäischen Handelspolitik. Bei Antidumpingverfahren kann die europäische
Kommission bei Zustimmung des entsprechenden Ausschusses des Ministerrates die ausländischen Anbieter verpichten, ihr Produkt in Europa nicht unter einem bestimmten Preis anzubieten (i.S.v. raising
rivals costs).
5.2. DETERMINANTEN DER VERBANDSBILDUNG
97
5. Konditionsregulierung durch den Staat, beispielsweise Ladenschluÿgesetz,
Arbeitszeitbeschränkungen (im Interesse der Arbeitsanbieter) oder Kündigungsschutzvorschriften. Dies stellt eine Einschränkung der privaten Vertragsfreiheit dar.
5.2 Determinanten der Verbandsbildung
In welchen Bereichen würde man am ehesten die Bildung von Verbänden erwarten?
5.2.1 Gröÿe der Gruppe der Interessenten
Die Verbandsbildung ist erleichtert, wenn die Gruppe der Interessenten klein ist.
Dann sind die Organisationskosten gering. Ebenso die Sanktionskosten, denn der
Zusammenhalt kann besser gewährleistet werden, da besser überprüfen werden
kann, wer mitmacht und wer nicht. Der soziale Druck ist, aufgrund geringerer
Anonymität, gröÿer.
Das Trittbrettfahrerproblem ist umso geringer, je kleiner die Gruppe ist und die
Vorteile der Verbandgründung können eher internalisiert werden.
5.2.2 Gröÿe des Marktanteils
Die Verbandsbildung ist erleichtert, wenn ein Gruppenmitglied einen besonders
groÿen Marktanteil hat.
5.2.2.1 Internalisierung
Das Gruppenmitglied mit dem groÿen Marktanteil kann einen groÿen Anteil der
Kosten internalisieren und hat somit einen groÿen Anreiz, die Gründung und
Aufrechterhaltung des Verbandes voranzutreiben. Im Extremfall lohnt es sich,
alleine einen Verband zu nanzieren.
In Abbildung 5.1 werden zwei Fälle unterschieden:
1. Fall (GK1 ): Das Mitglied mit der groÿen Zahlungsbereitschaft (NB ) würde
alleine qB1 nanzieren. Zwischen qB1 und qP1 ist A interessiert etwas beizusteuern.
Den gröÿten Teil nanziert aber B freiwillig. Das ist oft der Fall in militärischen
Allianzen, wo das gröÿte Mitglied einen überproportionalen Anteil an den Kosten
trägt (NATO-USA).
98
KAPITEL 5. VERBANDSÖKONOMIK
Abbildung 5.1: Verbandsbildung bei groÿem Marktanteil
p
NP
NB
GK1
NA
GK2
qA2 qB1 qP1 qB2
q
2. Fall (GK2 ): A würde auch alleine einen Teil des Outputs produzieren qA2 . B
würde von sich aus qB2 produzieren. Deshalb verzichtet A darauf, selbst Output
bereitzustellen, da A bei qB2 keine positive Zahlungsbereitschaft mehr hat, weil
die Grenzkostenfunktion die aggregierte NP an einer Stelle schneidet, wo die
Nachfrage identisch ist mit NB . B nanziert den Output alleine, ohne Beteiligung
des B. In diesem Fall ist der Output ezient, im Gegensatz zu Fall 1, wo qB1 zu
klein ist.
Fazit: Das Gruppenmitglied mit dem groÿen Anteil handelt alleine, internalisiert
die Vorteile, und soweit der Output noch erhöht werden muÿ, beteiligen sich die
anderen.
5.2.2.2 Anpassungskosten
Die Organisationskosten bei Anpassungen sind mit einem Gruppenmitglied mit
groÿem Anteil geringer. Der Führer übernimmt die Initiative und die andern
folgen. Ohne Hegemon muÿ man sich erst einigen (EU) und die Anpassungskosten
sind höher.
Die Argumentation über Marktanteile und Anpassungskosten ist analog zur Kartelltheorie, wo das groÿe Mitglied einen groÿen Anteil der Kartellrenten interna-
5.2. DETERMINANTEN DER VERBANDSBILDUNG
99
lisieren kann und sich die Anpassungskosten reduzieren.
5.2.2.3 Empirische Hinweise
Verbandsführer sind typischerweise Groÿunternehmen. Beispielsweise Groÿgrundbesitzer im Bauernverband: Die Privilegien kommen denn auch hauptsächlich ihnen zugute, da sich Protektion, Subventionen, überproportionale Zuwendungen
und Preisstützung bei hohem Output stärker auswirken. Dies widerspricht sogar
dem Zweck der Zuwendungen, soweit es sich bei der Agrarpolitik und Sozialpolitik
handeln soll.
Bei den Arbeitgeberverbänden würde man erwarten, daÿ die groÿen ihre Interessen besser durchsetzen können als die kleinen, besonders wenn die groÿen produktiver sind (self selection). Sie können durch Zustimmung zu Lohnzuwächsen die
weniger produktiven in Schwierigkeiten bringen (strategy of raising rivals costs).
Ein oft erhobener Einwand lautet, daÿ es in Ordnung ist, wenn alle Unternehmen
den gleichen Tariohn zahlen, da im Arbitragegleichgewicht sowieso alle Löhne
gleich sein müssen. Es ist zwar richtig, daÿ die Löhne im Arbitragegleichgewicht
gleich sein müssen, allerdings besteht der Unterschied im Weg zum Gleichgewicht.
Beim derzeitigen Status Quo, der Fixierung des Lohnes von vornherein, entsteht
Arbeitslosigkeit, da diejenigen, die ihn nicht zahlen können, ihre Arbeitskräfte
entlassen. Ohne Fixierung der Löhne führt Lohnarbitrage nicht zu Arbeitslosigkeit (echtes Arbitragegleichgewicht). Wenn zunächst in jedem Unternehmen ein
produktivitätsgerechter Lohn gezahlt wird, wechseln die Arbeitnehmer freiwillig zu Unternehmen mit höherem Lohn. Die Angleichung der Löhne erfolgt hier
durch Arbeitsplatzwechsel und es entsteht lediglich friktionelle Arbeitslosigkeit.
5.2.3 Angebot eines privaten Gutes
Die Verbandsbildung ist erleichtert, wenn zusätzlich kostengünstig ein privates
Gut angeboten wird. Denn vom Kollektivgut kann man nicht ausgeschlossen
werden, auch wenn man dem Verband nicht beitritt. Das private Verbandsgut
(typischerweise ein Klubgut) erhalten aber nur die Mitglieder des Verbandes, so
daÿ ein Anreiz zum Verbandsbeitritt entsteht.
Beispielsweise haben Gewerkschaften das Nichtausschlieÿbarkeitsproblem aller
Kollektivgüter, denn Tariöhne kommen in der Regel auch den Nichtmitgliedern
zugute. Die Arbeitgeber zahlen an Nichtgewerkschaftsmitglieder freiwillig den Tariohn, um den Betriebsfrieden zu erhalten, was kein überzeugendes Argument
ist und vor allem, um zu verhindern, daÿ die Nichtmitglieder der Gewerkschaft
beitreten, denn die Verhandlungsposition des Arbeitgebers im Arbeitskampf ist
100
KAPITEL 5. VERBANDSÖKONOMIK
umso schlechter, je mehr Arbeitnehmer in der Gewerkschaft organisiert sind.
Diese Problematik wurde auch von den Funktionären erkannt, und so gibt es
bei den Gewerkschaften ein privates Gut, um selektive Anreize zu schaen und
das Trittbrettfahrerproblem abzuschwächen. Das private Gut ist das Streikgeld,
das nur an Gewerkschaftsmitglieder gezahlt wird. Gemäÿ Kopie 57 umfaÿt das
Streikgeld immerhin 24×88 DM=2112 DM bei 5000 DM Bruttogehalt.
Kopie 58 zeigt eine auällige Korrelation des Organisationsgrads mit der Bundesregierung. Bis 1969 sinkt er unter der CDU/FDP Regierung, steigt bis zur Wende
1983 und sinkt wieder bis 1991. Die Korrelation zwischen CDU/FDP und niedrigen Gewerkschaftsbeitritten ist eher Ausdruck einer sogenannten common cause
interdependence. Die Korrelation zwischen politischer Präferenz und Gewerkschaftsneigung wäre demnach nicht Ausdruck einer kausalen Beziehung zwischen
den beiden Gröÿen, sondern läge in der gemeinsamen Ursache Stimmung in der
Bevölkerung begründet. Besonders attraktiv scheint der Gewerkschaftbeitritt bei
Regierungswechsel zu sein, weil die Gewerkschaften eine direkte Verbindung zur
Regierung haben und dabei besondere Vorteile herausspringen.
Für die Wirkung des selektiven Anreizes Streikgeld auf den Organisationsgrad
der Gewerkschaft ist es wichtig, daÿ ab und zu ein Streik stattndet. Empirisch
müsste die Streikhäugkeit besonders hoch sein, wenn der Organisationsgrad abnimmt.
Weitere selektive Anreize bei Gewerkschaften: in den USA und Groÿbritannien
gibt es die Institution des closed shop, wonach alle Mitarbeiter eines Unternehmens in der Gewerkschaft organisiert sein müssen. Die Gewerkschaften haben
ein Mitspracherecht bei Neueinstellung (Beitrittszwang) und der selektive Anreiz
besteht hier in der Vergabe von Arbeitsplätzen.
In Deutschland kommt es vor, daÿ man nur bei Mitgliedschaft befördert wird.
Bis 1918 gab es gewerkschaftliche Unterstützungskassen (Krankenversicherung,
Arbeitslosengeld, Witwenrente).
Beim ADAC (Verband der Autofahrer) war die Pannenhilfe in den Anfangsjahren
ein wichtiges privates Gut. Mittlerweile kann man bei einer Panne Mitglied werden (allerdings nur im Inland), so daÿ der selektive Anreiz schwach geworden ist.
Jedoch verzichtet man gegenüber den ganzjährigen Mitgliedern auf andere private Güter (Reiseinformationen, Versicherungsschutz, Mitgliederzeitschrift) des
ADAC.
Ähnlich dem ADAC bieten der Bauern-, Mieter-, Haus- und Grundbesitzerverband, Beamtenbund usw. Information, Zeitschriften und Rechtsschutz an. Insofern handelt es sich um Dienstleistungsunternehmen in Bereichen, wo sie gegenüber Dienstleistungsunternehmen, die nicht zugleich Verband sind, Kostenvorteile
5.2. DETERMINANTEN DER VERBANDSBILDUNG
101
haben.
Fazit: Verbände werden sehr oft zusammengehalten durch die Produktion eines
privaten Gutes (häuger Klubgut: Ausschluÿ möglich und soziales Skalenerträge
(+ positive externe Eekte)). Wenn selektive Anreize (private Verbandsgut) nicht
angeboten werden können, steht ein letzter Versuch oen: staatlich sanktionierte Zwangsverbände (Ärztekammer, IHK, Allgemeinverbindlichkeitserklärung von
Tarifverträgen).
5.2.3.1 Exkurs: Klubgüter
Es gibt zwei Gründe für die Bildung eines Klubs:
1. soziale Skalenerträge. Damit ist gemeint, daÿ die Durchschnittskosten (pro
Mitglied) mit der Zahl der Mitglieder fallen. Beispielsweise Golfklubs: sinkende Kosten pro Person bei gleichbleibender Qualität des Golfkonsums.
Es liegt anfängliche Nichtrivalität vor. Im Gegenteil:
2. gegenseitige positive externe Eekte, die durch die Klubbildung internalisiert werden. Es ist geselliger mit mehreren Leuten Golf zu spielen als
alleine.
Abbildung 5.2: Clubgut
DM
MB
ME
n∗
n
In Abbildung 5.2 sind die Grenzerträge M E und die Grenzbelästigung M B für
eine gegebene Menge des Klubguts abgetragen. Auf der x-Achse steht n für die
Anzahl der Mitglieder.
102
KAPITEL 5. VERBANDSÖKONOMIK
M E ist die marginale Beitragseinsparung pro Altmitglied durch ein zusätzliches Mitglied. Je mehr Mitglieder ein Klub bei gegebener Gröÿe hat, desto mehr
verteilen sich die Kosten der Kluberhaltung. Die Kosteneinsprung für das erste
Mitglied durch Beitritt eines zweiten beträgt 50%. Die Beitragseinsparung der
ersten beiden Mitglieder bei Beitritt eines Dritten beträgt jeweils 17%, durch ein
viertes Mitglied 8% usw.
M B ist die marginale Belästigung pro Mitglied durch ein zusätzliches Mitglied.
Der Verlauf der M B Kurve spiegelt anfängliche positive externe Eekte (Geselligkeit im Klub) wider und mit steigendem n zunehmende Rivalität (Wartezeiten
an den Golöchern).
n∗ ist die optimale Anzahl an Mitgliedern für eine bestimmte Gröÿe.
Kommt das optimale n∗ zustande? Dies ist abhängig von Entscheidungsverfahren im Klub. Bei Einstimmigkeit wird ein zusätzliches Mitglied akzeptiert solange M E > M B bis M E = M B , so daÿ n∗ zustandekommt. Bei der EUOsterweiterung werden die Nachteile einer notwendigen Einstimmigkeit sichtbar:
Da einige kein Interesse daran haben, werden Transferzahlungen notwendig, sie
können sich die Zustimmung also abkaufen lassen. Somit besteht ein Trade o zwischen Verhandlungskosten und den Vorteilen durch eine gröÿere Mitgliedschaft.
öentliche Güter ¾ anfängliche - Klubgut ¾ Ausschlieÿ- - privates Gut
Nichtrivalität
barkeit
Bei der deutschen Autobahn, die früher zu den öentlichen Gütern zählte, ist
der Bereich Nichtrivalität langsam überschritten (Staus). Ein Ausschluÿ ist im
Prinzip aber möglich und der Preis müsste die negativen externen Eekte internalisieren.
5.2.3.2 Exkurs: Ökonomische Theorie der Ehe
Die ökonomische Theorie der Ehe von Gary Becker1 beruht auf einer Anwendung
der Theorie der Klubgüter. Die Ehe ist der kleinste mögliche Klub.
Die gegenseitigen positiven externen Eekte der Ehe umfassen Liebe (positive
Interdependenz der Nutzenfunktionen, ich freue mich, wenn du dich freust), Pre1 Nobelpreisträger
1992: for having extended the domain of microeconomic analysis to
a wide range of human behaviour and interaction, including nonmarket behaviour, siehe
www.almaz.com
5.2. DETERMINANTEN DER VERBANDSBILDUNG
103
stige (gute Partie, Partner zu Repräsentationszwecken) und Gesprächspartner
(implizit: jeder sucht einen ähnlichen Partner, Volkswirt sucht Volkswirtin).
Die Ehe ist ein Arbeitsteilungsklub. Es ist eine Spezialisierung in der Herstellung
des Clubgutes möglich. Früher übernahm die Frau häug Hausarbeiten und der
Mann die schwere körperliche Arbeit.
Die Partner sollten, analog der Theorie der Zollunion, unterschiedliche komparative Vorteile aufweisen. Nach dieser Theorie ergeben sich die gröÿten Wohlfahrtsgewinne für Länder mit unterschiedlichen Ausstattungen. Dies kommt daher, weil
eine starke Spezialisierung möglich wird und dem handelsschaenden Eekt der
Gründung einer Union (im Gegensatz zum handelsumlenkenden Eekt, der negative Wohlfahrtswirkungen hat) entspricht.
Die Ehe entspricht der Aufhebung der Meistbegünstigungsklausel, wonach man
anderen stets die günstigsten Konditionen bietet, die man überhaupt jemandem
bietet.
Die Vorteile bei der Arbeitsteilung im Haushalt und bei der Erstellung des Klubgutes haben im Laufe der Zeit, aufgrund des technischen Fortschrittes, abgenommen. Haushaltsgeräte sind Substitute für die traditionelle Hausfrauentätigkeit.
Das führte dazu, daÿ die terms of trade der Frau als Hausfrau gesunken sind
und sie eine schlechtere Verhandlungsposition als früher hat. Dementsprechend
kann läÿt die Emanzipation als eine Reaktion auf diesen zunehmenden Wettbewerbsdruck durch Substitute verstehen, und eine höhere Bildung entspricht der
Veredelungsstrategie der Stahl- und Textilindustrie.
Die sozialen Skalenerträge entsprechen der marginalen Einsparungskurve bei der
Nutzung gemeinsamer Klubgüter (Wohnung, Haushaltsgeräte, Auto) und führen
zu einer kostengünstigeren Auslastung. Auÿerdem ergeben sich soziale Skalenerträge beim Versicherungsschutz gegen Krankheit, Unfall u.ä., da das Gesetz der
groÿen Zahl (2 > 1) wirkt.
Die zunehmende Rivalität und der fallende Grenzertrag erklären die natürliche
Tendenz zur Monogamie am Heimatmarkt, also wieso es nicht attraktiv ist, sehr
viele Ehepartner zu haben und wieso in vielen Ländern Polygamie nicht üblich ist.
Dies ist besonders dann zu erwarten, wenn die Nachfragefunktionen der Marktteilnehmer ähnlich sind und auf der Angebotsseite eine Geschlechtsrelation von
1:1 existiert. Ein Verbot z. B. der Vielweiberei (eigentlich wegen der natürlichen
Tendenz zur Monogamie nicht nötig) ist nicht im Interesse der Frauen, denn dies
ist eine Nachfragebeschränkung nach Frauen und schwächt ihre Verhandlungsposition am Heiratsmarkt. Wer hat Interesse daran, die Monogamie gesetzlich
zu erzwingen? Oensichtlich sind es nicht die Frauen, sondern die Männer, die
bei Vielweiberei zu kurz kommen. Wieso können sie sich durchsetzen? Weil der
Median ein Interesse am Verbot hat, denn bei einer rechtsschiefen Verteilung der
104
KAPITEL 5. VERBANDSÖKONOMIK
Männerqualität liegt der Median unter dem Durchschnitt.
4. Es liegt eine limitationale Produktionsfunktion (komplementäre Produktionsfaktoren) bei der Kinderproduktion vor.
5.2.4 Gröÿe des Parlaments
Die Verbandsbildung ist erleichtert, wenn das Parlament klein ist. Lobbyismus
ist billiger, wenn man es mit weniger Entscheidungsträgern zu tun hat.
In der EU ist der Ministerrat das zentrale Entscheidungsgremium (Gesetzgeber)
und hat wenige Mitglieder (15). Die Einuÿnahme der Verbände ist dementsprechend groÿ und ebenso der Anreiz zur Verbandsbildung.
Analog ist der Anreiz zur Verbandsbildung klein und die Einuÿnahme der Verbände schwierig beim gröÿtmöglichen Entscheidungsgremium, dem Referendum.
5.2.5 Häugkeit von Referenden
Die Verbandsbildung ist erleichtert, wenn Referenden selten sind. Beim Referendum ist das Entscheidungsgremium das ganze Volk und eine Überzeugung des
notwendigen Quorums, daÿ eine bestimmte Forderung des Verbandes angenommen werden sollte, ist teuer.
5.2.6 Staatsquote
Die Verbandsbildung ist erleichtert, wenn die Staatsquote hoch ist. Wenn es viel
zu verteilen gibt, ist der Anreiz hoch, Einuÿ zu nehmen. Die Länder in Osteuropa kommen von einer Staatsquote von 100%. Folgerichtig ist Ruÿland ein rein
korporatistisch geführtes Land.
5.2.7 Oenheit der Volkswirtschaft
Die Verbandsbildung ist erleichtert, wenn die Volkswirtschaft relativ geschlossen
ist. Wenn Ausländer (Arbeit und Kapital) leicht ins Inland können, protieren
auch Ausländer von Subventionen, so daÿ Inländer einen immer geringeren Anreiz
haben, das zu organisieren. Ebensowenig lohnt es sich, in einer oenen Volkswirtschaft Regulierungen zu organisieren, da sie nur für Inländer gelten und nicht
regulierte Auslandsimporteure den Preis unterbieten können.
5.2. DETERMINANTEN DER VERBANDSBILDUNG
105
5.2.8 Politische Stabilität
Die Verbandsbildung ist erleichtert, wenn über längere Zeit politische Stabilität
geherrscht hat. Dies baut auf der sogenannten Olson-Hypothese2 , wonach Nationen mit der Zeit an Sklerose untergehen, weil sich immer mehr Interessengruppen
bilden und dadurch die Anpassungsfähigkeit zunehmend eingeschränkt wird.
Die Verbindung zur Dauer der politischen Stabilität besteht darin, daÿ am Anfang Gründungskosten entstehen und eine Situation herrschen muÿ, bei der die
Gründer erwarten, daÿ es sich lohnt zu gründen. In Krisensituationen z. B. sind
Politiker nachgiebiger. Danach kann es sich erweisen, daÿ die Entwicklung nicht
so negativ war, wie es erwartet wurde und die Gründung sich gar nicht gelohnt
hat. Wenn der Verband aber erst einmal da ist (historische Fixkosten, sunk costs),
dann bleibt er auch.
These 1: Es ist leichter, eine Organisation aufrecht zu erhalten als sie zu gründen,
denn die Gründung muÿ historische Fixkosten in Kauf nehmen. Zur Aufrechterhaltung zählen nur noch die laufenden Kosten.
These 2: Es ist leichter, einen Verband zu gründen als ihn abzuschaen. Denn die
Funktionäre haben ein Interesse am Fortbestand eines Verbandes und sind also
eine Interessengruppe innerhalb des Verbandes. Das gilt grundsätzlich für Organisationen und nicht nur für Verbände: International organisations may change
their names and functions but they never die.
Organisation
BIZ
ursprüngliche Aufgabe
Reparationsleistungen
Transferleistungen
Marschallplan
Bretton Woods
Wiederaufbau in Europa
Weltbank
IWF
OECD
Kreditanstalt für
Wiederaufbau
Funktionäre und Politiker haben ein Interesse
ganisationen.
heutige Tätigkeit
Bank der Zentralbanken
Entwicklungsländer
Ölkrise, Schuldenkrise, Osteuropa
Staatsbank, T-Aktien
an der Aufrechterhaltung von Or-
5.2.9 Zentralisierung
Zum Einuÿ der Zentralisierung auf den Einuÿ der Verbände gibt es Hypothesen
für beide Wirkungsrichtungen. Zunächst folgen Hypothesen, die argumentieren,
daÿ politische Zentralisierung den Einuÿ der Verbände schwächt.
2 siehe
Olson (1965)
106
KAPITEL 5. VERBANDSÖKONOMIK
- James Madison: Die Gründung eines Bundesstaates reduziert den Einuÿ
der Verbände, weil sich in einem groÿen Bundesstaat die Verbände der Einzelstaaten gegenseitig lahmlegen. Z. B. gibt es in New York Auÿenhandel,
in den Südstaaten Baumwollbauern und Plantagenbesitzer, im mittleren
Westen und Chicago Landwirte und Viehzüchter und in Iowa Getreideanbauer.
Bei einer gemeinsamen Politik aus Washington sperren sich die anderen
Bundesstaaten beim Versuch der Durchsetzung von Partikularinteressen.
Dies setzt (implizit) regionale Präferenzunterschiede voraus.
- Olson: Je gröÿer der Staat, desto mehr Interessen müssen unter einen Hut
gebracht werden, je gröÿer die Anzahl der Interessen, desto gröÿer das Trittbrettfahrerproblem.
- Die Organisationskosten im Innenverhältnis des zu gründenden Verbandes
steigen mit Zentralisierung.
- Je gröÿer der Staat, desto gröÿer das Parlament und die Zahl der Abgeordneten, desto mehr Abgeordneten muÿ man auf seine Seite bringen. Der
Zusammenhang zwischen Staatsgröÿe und Parlamentsgröÿe ist allerdings
empirisch nicht haltbar: Der deutsche Bundestag ist kleiner als die Landtage und gröÿer als das Repräsentantenhaus in den USA.
- Je gröÿer der Staat, desto schwieriger ist der Zugang zu entscheidenden
Politikern. Der Bundeskanzler ist beispielweise zu beschäftigt, wohingegen
ein Termin beim Bürgermeister leichter zu bekommen ist.
Die Gegenhypothesen behaupten, daÿ Zentralisierung die Verbände stärkt.
- Im Auÿenverhältnis, was die Tätigkeiten gegenüber den Politikern angeht,
sinken die Lobbykosten, weil Verbände nur noch mit einem politischen Ansprechpartner zu tun haben. In regional dezentralisierten Systemen müssen
mehrere Entscheidungsstellen bearbeitet werden. Im zentralisierten Staat
ist es schwierig Gehör zu nden, aber ist das einmal gemacht, deckt man
gröÿere Regionen ab. D. h. Zentralisierung in der Politik erlaubt Zentralisierung der Verbandspitzen und es entstehen mögliche Skalenerträge im
Auÿenverhältnis, jedoch nicht dem Innenverhältnis, wo die Grenzkosten
steigen.
- Je stärker die Politik zentralisiert ist, desto höher sind die Informationskosten für die Wähler. Die Bürger sind üblicherweise besser über ihre eigene Gemeinde als beispielsweise über die Ereignisse in Brüssel informiert.
Da der Politiker zwischen Medianwähler- (decisive voter) und Verbandsinteresse hin und her gerissen ist (Konkurrenz), folgt aus dem Anstieg der
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
107
Informationskosten des Wählers durch Zentralisierung, daÿ sein Einuÿ zugunsten der Verbände reduziert wird. Die Informationskosten steigen, weil
die Fragen auf höherer zentraler Ebene komplizierter sind, die Entfernung
gröÿer ist, Sprachbarrieren und weniger Vergleichsmöglichkeiten bezüglich
der Perfomance der eigenen gewählten Vertreter bestehen.
- Der Informationsanreiz, sich über Politik zu informieren, sinkt. Je geringer
gröÿer der Staat ist, desto geringer ist das Gewicht der eigenen Stimme. Bei
rationaler Informationsaufnahme und -verwertung folgt daraus ein kleinerer
Informationsstand. Je gröÿer der Staat ist, desto geringer die Steuerlast
pro Kopf, um die Subventionen zu nanzieren, umso weniger nimmt es der
Bürger wahr.
- Mit politischer Zentralisierung steigen die (Exit-) Kosten um persönlich und
mit eigenem Kapital abzuwandern.
Da es theoretische Argumente für beide Wirkungsrichtungen gibt, ist die Frage,
ob Zentralisierung den Einuÿ der Verbände stärkt oder schwächt, letztendlich
empirisch zu beantworten.
5.3 Normative Rechtfertigungsanalyse
Im Vordergrund der Rechtfertigungsanalyse steht die Allokationsezienz, wobei
auch Aussagen bezüglich der Verteilungswirkungen getroen werden können.
5.3.1 Pro
- Verbände stellen Informationen bereit, die Allokationsezienz positiv beeinussen könnten. Allerdings sind die bereitgestellten Informationen verzerrt, denn nur solche, die den Verbänden nutzen, werden herausgelassen.
Das heiÿt, der Wahrheitsgehalt dieser Information ist fraglich. Zu bedenken ist, daÿ in einer Demokratie ein Äuÿerungsverbot nicht möglich ist, daÿ
heiÿt, es ist unproblematisch, solange der Prozeÿ transparent und für alle
erkennbar ist.
In einem Hearing lädt jede Interessengruppe einen Sprecher für ihre Meinung ein. Der Produktivitätseekt besteht (analog einem Gerichtsverfahren) darin, daÿ die Interessen der Mandanten präzisiert werden, der Wahrheitsndung dient das eher nicht. Das ist besonders problematisch bei Initiativen, die nicht publik werden.
108
KAPITEL 5. VERBANDSÖKONOMIK
- Verbände könnten dem Machtgleichgewicht, analog Gewaltenteilung (countervailing powers) und dem pluralistischen Interessenausgleich dienen, der
zum sozialen Frieden führt und wo sich der Politiker als Schlichter im Interessenausgleich betätigt. Das Problem besteht darin, daÿ eine symmetrische Interessenrepräsentation aufgrund der unterschiedlichen Organisierbarkeit der Interessen nicht möglich ist. Aus ökonomischen Gründen sind
groÿe Gruppen mit kleiner Betroenheit und hohen Organisationskosten
unterrepräsentiert. Verbraucher weniger als Produzenten und Faktoranbieter, Steuerzahler weniger als Transferempfänger, Umweltschützer weniger
als Verschmutzer, Autofahrer und die Industrie. Zukünftige Generationen
haben hohe Organisationskosten und die Vertretung der Arbeitslosen ist wenig einuÿreich. Demzufolge ist ein Ausgleich der Interessen nicht möglich
und eine Subventionierung der schlecht organisierbaren Interessenverbände wäre notwendig. Es besteht die Gefahr, daÿ sich die countervailing powers, wenn überhaupt, dann zu Lasten Dritter einigen. Beispiele für solche
Tauschgeschäfte in der Politik sind Arbeitgeber und Gewerkschaften, die
sich auf Kosten (a) der Arbeitslosen, die wenig Einuÿ haben und schlecht
organisiert sind, (b) der Steuerzahler, die für die Arbeitslosen Arbeitsbeschaungsmaÿnahmen nanzieren, (c) der Beitragszahler, die für die Sozialhilfe und Transfers aufkommen, (d) der Verbraucher einigen, da die Preise
aufgrund einer sinkenden Produktion und einem folgenden Überangebot
an Geldmenge steigen. Die Nichtbeteiligung der Nichtorganisierten widerspricht der Vorstellung von James Edison, daÿ sich die Verbände gegenseitig
blockieren. Anscheinend funktioniert das in der Realität weitgehend anders.
Fazit: Es ndet eine Umverteilung von schlecht zu gut organisierten Gruppen statt. Das Gewicht der Wahlstimme ist abhängig von der Organisierbarkeit. Das ist allerdings noch kein ökonomisches Problem, weil unklar ist,
inwieweit die Allokationsezienz davon betroen ist.
Gary Becker führt an, daÿ man als Ökonom Umverteilung nicht be-
werten kann, Politiker ein Interesse an einer ezienten Umverteilung
haben und nach dem Coase-Theorem es egal ist, wie die Einuÿrechte
verteilt sind und sich immer ein Allokationsoptimum durch die Tauschgeschäfte einstellt, so daÿ kein Anlaÿ zur Annahme einer inezienten
Umverteilung besteht. Die Gegenthese stellt fest, daÿ wenn Becker
Recht hätte, wir nicht verwendungsgebundene Geldstransfers beobachten würden, die eine Umverteilung über produktabhängige Subvention und Regulierung (Eingri in die Vertragsfreiheit) durchführen
würden. Die Empirie widerspricht also der Hypothese von Becker. Zudem widersprechen die Annahmen des Coase-Theorems der Realität:
die Verhandlungskosten und die Gruppengröÿe sind nicht gering, eine
Analogie vom Markt- zum politischen Prozeÿ ist fraglich und die Kompensationszahlungen, die möglich wären, nden tatsächlich nicht statt.
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
109
Dazu wäre eine spieltheoretische Untersuchung nötig, mit vielen Spielern, die rational uninformiert sind und wo Transaktionskosten hoch
sind. Zudem ist fraglich wie eine Kompensationszahlung mit nichtorganisierbaren Interessen aussehen soll.
- Minderheiten könnten sich dort, wo sie starke Präferenzen haben, durch
defensive Schutzverbände vor Ausbeutung gegen die Mehrheiten, d. h. gegen
den Medianwähler, schützen. Allerdings ist das keine rst best Lösung, denn
eigentlich ist das ein Verfassungsauftrag und eine Frage der Grundrechte
und somit Aufgabe der Justiz. Die Verbandslösung ist second best Lösung,
zumal dort principle agent Probleme möglich sind, mit den Inhabern der
Interessen als Prizipale und den Verbandsfunktionären als ihre Agenten.
5.3.2 Kontra
Die Kritik der Verbände als Schadensverursacher gliedert sich in eine statische
(Abschnitt 5.3.2) und eine dynamische (Abschnitt 5.3.4) Inezienz.
Die statische Inezienz untersucht die Folgen von Regulierung und Subventionen. Der Wohlfahrtsverlust einer Preis- oder Mengenregulierung (Mindestpreis
oder Höchstmenge) auf die Initiave von Anbieterverbänden läÿt sich in einem
üblichen Angebots-Nachfragediagramm ablesen (siehe Abbildung 5.3). Beispiele
eines solchen Verfahrens sind die Agrarpolitik, Taxipreise und Allgemeinverbindlichkeitserklärungen von Tariöhnen..
Abbildung 5.3: Wohlfahrtsverlust bei Mindestpreisregulierung
p
pmin
p∗
R
H
q
110
KAPITEL 5. VERBANDSÖKONOMIK
Die traditionelle Literatur argumentiert, daÿ ein Wohlfahrtverlust in Höhe des
Harbergerdreiecks H anfällt. Die Produzenten erhöhen ihre Rente um die Fläche
R auf Kosten der Konsumentenrente und verlieren die Fläche von einem halben
H , wenn die Preise von p∗ auf pmin angehoben werden (Mindestpreise), wobei der
Nettogewinn der Produzenten (R- 0.5 H ) positiv ist. Die neuere Literatur des
Rentseekings argumentiert dagegen, daÿ der Wohlfahrtsverlust noch gröÿer ist
als nur das Harbergerdreieck, weil ein Rüstungswettlauf um die Rentenverteilung
stattndet, da oft auch die Nachfrager gut organisiert sind, wenn es sich zum
Beispiel um Unternehmen handelt.
Wie hoch ist der Rentenverlust beim Rüstungswettlauf um R? Bei konkurrierenden Verbänden ndet ein Rüstungswettlauf statt, bis die Grenzkosten der
Lobbytätigkeit dem Erlös daraus entsprechenden. Im Extremfall beträgt das die
ganze Fläche R. Die Umverteilung ist demzufolge nicht kostenfrei und es ndet
eine Ressourcenverschwendung statt.
Eine andere Spielart der Preisregulierung ist die Höchstpreisregulierung (Monopsonpreis) von Nachfragerverbänden. Beispiele sind Mietpreisregulierungen, mit
dem Vorteil, daÿ der Medianwähler ein Mieter ist.
Abbildung 5.4: Wohlfahrtsverlust bei Höchstpreisregulierung
p
pq
IE
k
l
p∗
pmax
m
n
H
o
q/Q
Abbildung 5.4 zeigt die Situation einer Mietpreisregulierung. Auf der x-Achse ist
Wohnraum in Einheiten konstanter Qualität abgetragen. Zunächst wird der Preis
von p∗ auf einen niedrigeren Preis pmax gesetzlich heruntergesetzt. Beträgt der
Wohlfahrtsverlust lediglich das Harbergerdreieck H ? Nein, denn die Vermieter
wehren sich. Ein Instandhaltung lohnt sich nicht, und sie lassen die Qualität
der Wohnungen verfallen, bis pmax dem Gleichgewichtspreis für die gesunkene
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
111
Qualität entspricht. Anhand er Isoerlöskurve IE läÿt sich pq ausmachen. Und im
Ergebnis ergibt sich in Einheiten konstanter Qualität ein höherer Preis, aber eine
geringere Menge. Der Wohlfahrtsverlust beträgt klmnoH und ist somit gröÿer
als H .
Bei dieser Argumentation stellt sich die Frage nach der Stabilität dieser Lösung.
Die Mieterverbände müÿten eigentlich für eine Deregulierung eintreten, da sie
sich ins eigene Fleisch schneiden.
Stigler bemerkt zur Höchstpreisregulierung, daÿ dies nach einer Bombardierung
die wirksamste Methode der Qualitätsvernichtung ist. In den USA sind aufgrund
von Höchstpreisregulierungen viele Slums entstanden.
Fazit: Die neoklassische Theorie beziert den Wohlfahrtsverlust auf das Harbergerdreieck. Die politökonomische Theorie identiziert einen wesentlich gröÿeren Wohlfahrtsverlust aufgrund von Rüstungswettlauf und Qualitätsanpassung.
Tullock, vergleicht das mit folgendem Bild: Diebstahl dürfte nicht paretorelevant
sein, weil es sich nur um eine Umverteilung handelt. Es ist allerdings sehr wohl
eine ökonomische Aussage möglich: Bei Diebstahl kommt es zu einem Rüstungswettlauf in Form von Investitionen in Diebstahl- und Schutzmaÿnahmen, so daÿ
es allokationsin ezient ist, Diebstahl nicht zu bestrafen. Demzufolge ist der Versuch der Verbände, sich Privilegien in Form von Mindestens- und Höchstpreisregulierungen zu verschaen, eine Form von Diebstahl, die zu enormer Inezienz
führt.
In diesem Zusammenhang ist es hilfreich, sich die Unterschiede zwischen Prot
seeking (Gewinnstreben) und Rent seeking vor Augen zu führen.
1. Beim Prot seeking führt eine Marktzutritt zu einem produktiveren Ressourceneinsatz als woanders, was ja der Grund für die Investition war. Beim Rent
seeking führen zusätzliche Verbände (analog Marktzutritt) zu einer Verwendung
von Ressourcen in Lobbying, die einer produktiven Verwendung anderswo entzogen werden. Der Unterschied in den Bewegungen der Investitionen besteht darin,
daÿ beim Prot seeking die Ressourcen einer produktiven Verwendung zugeführt
und beim Rent seeking entzogen werden. Dementsprechend wird Rent seeking
auch als directly unproductive activity bezeichnet.
2. Beim Prot seeking ndet ein Tausch von Eigentumsrechten mit gegenseitiger
Zustimmung statt. Beim Rent seeking hingegen ndet ein Kampf um die Eigentumsrechte/Privilegien statt. Es handelt sich um einen Hobbschen Kampf um
Eigentumsrechte und wird als New Hobbian Dilemma bezeichnet. Dies ist eine
Ellenbogengesellschaft und stellt einen Rückfall in die Anarchie dar.
Die bisherigen Wohlfahrtsverluste umfassen lediglich die direkten Kosten des Rent
seeking. Es gibt noch indirekte Kosten auf der vorgelagerten und nachgelagerten
112
KAPITEL 5. VERBANDSÖKONOMIK
Ebene. Auf der vorgelagerten Ebene muÿ man, um einen Mindestpreis durchzusetzen, einen Outputrückgang in Kauf nehmen. Das heiÿt, man muÿ den Marktzutritt beschränken, so daÿ Eintrittsüberinvestitionen (Parkstudium, arbeitslose
und überqualiziert beschäftigte Mediziner) entstehen, da nicht alle in den Markt
(Arbeitsmarkt) herein können. Besser wäre eine Lotterie, die die Transaktionskosten vermindert (und so ein Parkstudium vermeidet).
Auf der nachgelagerten Ebene wollen Politiker und Bürokraten einen Teil der
Rente abschöpfen. Es ndet ein Kampf um die Beteiligung in Form von Zahlungen
der Interessenverbände an Politiker (Parteispenden) und Bestechung (Bürokrat)
statt. Politiker und Bürokraten haben kein Interesse an einem Rüstungswettlauf
zwischen den Produzenten, die die Renten aufzehren. Man würde erwarten, daÿ
sie versuchen einen Rüstungswettlauf zu verhindern. Die ezienteste Lösung aus
Sicht der Politiker und Bürokraten wäre eine Versteigerung. Das ist jedoch nicht
zu beobachten, vielleicht weil der Median das merkt und es oensichtlich ist oder
es im Geheimen passiert.
Wie groÿ ist der Rüstungsaufwand? Er ist geringer als R, weil Politiker und Bürokraten einen Teil der Rente abschöpfen und um diesen Teil kein Rüstungswettlauf stattndet. Oder weil die Lobbytätigkeit steigenden Grenzkosten unterliegt
und es einen Rentezugewinn gibt, für den also keine Lobbytätigkeit aufgewendet
werden muÿ. Oder weil unter Berücksichtigung von Risiko es eine bestimmte
Wahrscheinlichkeit der Privilegienzuteilung gibt und die Lobbytätigkeit der potentiellen Empfängern somit gerade der Fläche der Rente R entspricht. Ist die
Summe der Lobbytätigkeit kleiner als die Fläche R. Bei Risikoaversion muÿ man
noch Risikoprämien berücksichtigen, so daÿ weniger in Lobbytätigkeit weniger
als die Rente R investiert wird. Der Rüstungaufwand könnte auch aufgrund eines
Trittbrettfahrerproblems geringer sein und in vielen Bereichen keine Verbände
existieren und womit die Rente nur potentiell abgeschöpft werden kann. Bei unterschiedlicher Organisierbarkeit von Interessen kapituliert einer der Konkurrenten von Anfang an und die Lobbytätigkeit ist ebenfalls nicht gröÿer als die zur
Abschöpfung bereitstehende Rente.
Die Summe der Lobbytätigkeit ist nach Tullock gröÿer als R, wenn sich die Rent
seeker bei der Einschätzung der Rentabilität irren. Allerdings muÿ man davon
ausgehen, daÿ langfristig mit der richtigen Kosten kalkuliert wird.
5.3.2.1 Positive Theorie der Regulierung
Die positive Theorie der Regulierungen baut auf Stiglers sogenannten capture hypothesis auf, wonach Regulierung nicht aufgrund einer Verfolgung des Allgemeininteresses zustande kommt, sondern typischerweise im Interesse der Regulierten
ist.
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
113
Regulation may be actively thought by industry and may be trust upon
it. A central thesis of this paper, is that as a rule, regulation is acquired
by the industry and is designed and operate primarily for its benet.
Welche Faktoren erklären die weite Verbreitung von Regulierungen im Dienstleistungsbereich? In Kopie 59 sieht man die weitreichende Regulierung der verschiedenen Berufsstände, wobei Preisempfehlungen unproblematisch sind, wenn Sie,
wie bei der Architektenordnung, abdingbar sind.
Die Regulierung ndet hauptsächlich im Dienstleistungsbereich statt, weil Dienstleistungen nicht handelbar sind und somit nicht arbitragegefährdet sind. Die
Nachfragen sind somit unelastisch und die Dienstleistungen nicht substituierbar.
Eine Regulierung ist umso wahrscheinlicher,
- wenn die Zahl der Mitglieder der Interessengruppe groÿ ist und die Regulierung viele Stimmen einbringt. Das widerspricht scheinbar der Trittbrettargumentation von Olson der Determinanten der Verbandsbildung auf Seite
106. Jedoch ist zu unterscheiden, daÿ wenn ein Verband erst einmal gegründet ist, der Einuÿ mit der Anzahl der Stimmen der Mitglieder steigt,
er aber umso unwahrscheinlicher gegründet wird, je mehr Mitglieder eine
Interessengruppe hat und der Nettoeekt der Gruppengröÿe empirisch zu
bestimmen ist.
- wenn die Zahl der Regulierten regional konzentriert ist (in Groÿstädten),
somit der lokale Stimmenanteil hoch ist und die Organisationskosten klein
sind.
- wenn das Durchschnittseinkommen der Mitglieder hoch ist, und somit hohe
Spenden möglich sind, wie das bei Zahnärzten, Rechtsanwälten oder Apothekern der Fall ist.
- wenn die Gegenseite nicht organisiert ist.
- wo die Fluktuation der Mitglieder gering ist, weil sonst die Organisationskosten hoch und der Beteiligungsanreiz gering sind. Eine andere Erklärung
wäre, daÿ wenn reguliert wird, auch keine Fluktuation stattndet (HenneEi Problem). Ein Grund für eine niedrige Fluktuation ist beispielsweise ein
hohes notwendiges spezisches Humankapital.
Empirische Tests haben bisher lediglich die Beziehung zwischen hoher Mitgliederzahl und Durchschnittseinkommen und regionalen Konzentration getestet und
bestätigt. Es wurde interessanterweise auch festgestellt, daÿ im Zeitablauf zunächst die lukrativen und dann die weniger lukrativen Bereiche reguliert wurden,
was für eine Initiative der Regulierenden spricht.
114
KAPITEL 5. VERBANDSÖKONOMIK
5.3.2.1.1 Peltzman
Der Petzmaneekt in Abbildung 5.5 beschreibt einen Trade o (IS ) zwischen dem
Stimmenverlust bei den Verbrauchern aufgrund höherer Preise und einer Spendenerhöhung bei den Regulierten, wenn ein Politiker über den Wettbewerbspreis
p∗ hinausgeht und einen Mindestpreis pR reguliert. Die Kurve SM ist die TransAbbildung 5.5: Peltzmaneekt
p
SM
pM
B
pR
A
π
p∗
GE
IS
πM πR
GK
M ZB
q
π∗
formationskurve für Politiker. Konkret ist es die Spendenmöglichkeitskurve, wenn
man den gesamten Gewinn π des Unternehmens als Rente abschöpfen könnte. Sie
erreicht ihr Maximum im Monopolpreis pM .
Die Kurve IS ist die Isostimmenlinie. Erhöht der Politiker den Preis, quittieren
ihm die Verbraucher ihren Unmut mit sinkenden Stimmen. Andererseits steigen
die Spenden, mit denen man im Wahlkampf die Anzahl der Stimmen erhöhen
kann. Die Kurve beschreibt also die Isonutzenlinie eines Politikers mit der Nutzenfunktion
U [S (π (pR ), pR )] mit p∗ < pR < pM .
+ + +
−
Die Kurve ist konkav, aufgrund eines sinkenden Stimmengrenzproduktes. Die
Verbände möchten einen Preis zwischen p∗ und pM und der Politiker kann einen
Punkt zwischen A und B wählen. Er wird den Punkt wählen, der sich am Berührungspunkt der IS Kurve an SM ergibt. An dieser Stelle erhält er die optimale
Spende (Gewinn des Unternehmens), mit der er die Stimmenzahl maximiert.
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
115
In Kopie 60 werden die Hypothesen von Stigler und Peltzman empirisch untersucht. Table 1 liegt die Stiglerhypothese zugrunde. Erklärt wird die Regulierungswahrscheinlichkeit (capture oder non-capture). Signikant mit dem richtigen
Vorzeichen sind die Variablen Anteil der Mitglieder, Mobilität/Fluktuation.
Table 2 erweitert die Untersuchung um zusätzliche Variablen, wie sie das Peltzmanmodell motiviert. Die Variablen Wahlbeteiligung und Ausbildungsstand sind
Proxy für den Widerstand der Verbraucher. Signikant mit dem richtigen Vorzeichen für die Erklärung der Regulierungswahrscheinlichkeit sind die Anzahl der
Mitglieder, Fluktuation, Wahlbeteiligung und Ausbildungsstand, Konzentration
hat ein falsches Vorzeichen.
Im Ergebnis ist das eine Bestätigung für die Ansätze von Stigler und Peltzman.
Die Peltzmanvariablen erhöhen in Table 2 deutlich die Prognosequalität des Modells. Die Variable Konzentration hat ein falsches Vorzeichen und könnte aus der
Regressionsgleichung ausgeschlossen werden. Da es kaum signikant ist, dürfte
sich bei den andern Variablen nichts ändern.
Die Peltzmanhypothese kann noch um einige Modikationen erweitert werden.
1. Wegen des Trade os des Politikers pR < pM , werden die Produzenten nur
dann einen Verband zum Zwecke der Regulierung gründen, wenn sie nicht in der
Lage sind, ein Kartell durchzusetzen. Das erklärt das Ergebnis, daÿ die Regulierungswahrscheinlichkeit steigt, wenn viele Mitglieder im Verband sind. Wenn es
richtig ist, daÿ an einer Regulierung nur Produzenten interessiert sind, die kein
Kartell gründen können, werden es Verbände sein, die viele Mitglieder haben (so
viele, daÿ sie kein Kartell organisieren können), aber nicht so viele, daÿ sie kein
Verband gründen können. Es ergibt sich eine positive Korrelation zwischen Regulierungswahrscheinlichkeit und Mitgliederzahl, wo eine isolierte Olson-Hypothese
eine negative Korrelation erwarten lassen würde.
Beispiel: Liberalisierung des Ladenschluÿgesetzes (Marktzutrittsbeschränkung).
Einzelhandelsverbände und Gewerkschaften haben versucht, das, was durch die
Regulierung weggefallen ist, durch eine Kartellabsprache zu ersetzen und Lohnzuschläge für Arbeit nach 18 Uhr in einer Höhe zu vereinbaren, so daÿ der Liberalisierungseekt beseitigt wird. Es sollte so teuer sein, daÿ der Wegfall der
Regulierung keine Wirkung hat. Sie haben es nicht geschat, da sich zu viele
nicht an ihre Absprache gehalten haben. Somit kann man sagen, daÿ ein Kartell
und ein Verband Substitute sind und wir eine besonders starke Regulierungsnachfrage bei denen erwarten würden, die kein Kartell zustandebringen.
2. Wenn es richtig ist, daÿ die Gegenmacht zur Regulierung die Wähler sind,
würde man erwarten, daÿ Regulierungen verstärkt dort auftreten, wo der geschädigte nicht der inländische (lokale) Wähler ist. Regulierung gegen ausländische
Exporteure haben eine bessere Chance. Zwar können Ausländer durch Parteis-
116
KAPITEL 5. VERBANDSÖKONOMIK
penden Einuÿ nehmen, aber nicht durch Stimmen, so daÿ wir Protektionismus
erwarten würden (Marktzutrittbeschränkung, diskriminierende Steuern, Zölle),
ausgenommen dort, wo es sich um Vorprodukte handelt. Eine Regulierung von
Importgütern würden wir erwarten bei Konsumgütern, weil die Gegenseite, die
Konsumenten, nicht organisiert sind. Bei Vorprodukten hingegen sind Unternehmen die Nachfrager und können sich gegen solche Arten von Protektionismus
wehren. Eine Untersuchung dieser Modikation der Peltzmanhypothese von Malonie/McCormick/Tollison brachten in einer Querschnittsanalyse für die USABundesstaaten einen positiven Zusammenhang zwischen Exportanteil (Anteil des
exportierten Stroms) und der Höhe des regulierten Strompreises zutage. Je mehr
Strom der Staat exportiert, desto höher setzen die Regulierer den Strompreis,
weil es ausländische (nicht lokale) Abnehmer trit.
Regulierte Taxipreise (in Deutschland) müssten in Touristenstädten höher sein,
da mehr Fremde in der Stadt die Taxis benutzen, die ihren Unmut nicht durch
Stimmabgabe zeigen können.
3. Viktor Goldberg argumentiert, daÿ im Sinne einer strategy of raising rivals
costs es von Interesse sein kann, die Absatzpreise eines Konkurenten zu erhöhen
(Margarine-Butter, Binnenschier-Güterfernverkehr, Lufthansa-Bundesbahn), so
daÿ ein regulierter Preis über dem Monopolpreis pR > pM möglich ist.
4. Stigler erwähnt, daÿ die Mindestlohngesetzgebung den Südstaaten von den
Nordstaaten aufgezwungen worden ist, um die Billiglohnkonkurrenz auszuschalten und so die Wettbewerbsfähigkeit der Konkurrenz zu verschlechtern.
5.3.2.1.2 Crain/McCormick
Das Modell von Crain/McCormick formalisiert das Peltzmanmodell und unterscheidet zwischen einer Regulierung durch den Politiker und Bürokraten. Sie postulieren eine Vermögens- und keine Nutzenfunktion, da sich der Nutzen nicht
beobachten läÿt (eine Spezialität der Chicagoschool). Im Vermögen können auch
zukünftige Einkommen berücksichtigt werden, die dann abdiskontiert werden.
Die Vermögensfunktion lautet:
W = W (M , T1 )
+
+
M sind die Anzahl der Stimmen und T1 die nicht wahlsiegrelevanten Zuwendungen (Lothar Späths Nilkreuzfahrt). Der Peltzmaneekt wird in der nächsten
Gleichung formalisiert:
M = M (P , R, T2 ).
− +
+
Der regulierte Mindestpreis p erhöht den Unmut der Verbraucher und senkt die
Stimmenzahl. Der Nettogewinn der Produzenten R nach Abzug der Zuwendungen
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
117
an den Politiker erhöht die Stimmenzahl und T2 sind wahlsiegrelevante Zuwendungen, wie Wahlkampfspenden.
Der Nettogewinn des Unternehmens ergibt sich aus dem Bruttogewinn π und
den Zuwendungen an das Unternehmen T1+2 , wobei der Bruttogewinn durch die
Kosten und den regulierten Preis bestimmt wird:
(5.1)
R ≡ π(P , C ) − T1+2 .
± −
Der Einuÿ des Preises auf den Bruttogewinn ist positiv, solange der Preis unterhalb des Monopolpreises liegt und negativ darüber. πP sinkt also mit steigendem
Preis p. Zunächst sollen alle Gleichungen in die Vermögensfunktion eingesetzt
werden:
max W = W {M [P , R(π (P , C ) − T1+2 ), T2 ], T1 }
(5.2)
P,T
+ − + + ± −
+
+
Im Folgenden soll xy die erste partielle Ableitung ∂x/∂y bezeichnen. Zunächst
betrachten wir den Spezialfall, wo der Politiker nicht an T interessiert ist:
(5.3)
WP = WM MP + WM MR Rπ πP = 0
+
−
+
+
+ ±
Die Optimalbedingung lautet damit:
MP
WM (−MP )
−
πP =
=−
> 0,
WM MR Rπ
MR
(5.4)
+
wobei Rπ = 1 aufgrund der Identität 5.1. Da im Optimum πP positiv ist, benden
wir uns unterhalb des Monopolpreises.
πP steigt mit MP . Je stärker die Verbraucher mit Unmut reagieren, desto gröÿer
ist πP , um so näher bendet sich der regulierte Preis am Wettbewerbspreis und
desto niedriger ist der regulierte Preis. Oder anders formuliert: pR [πP (MP )], der
Regulierungspreis sinkt (− × + = −) mit steigendem MP .
−
+
πP sinkt mit MR . Je stärker die Stimmen (Wiederwahlwahrscheinlichkeit) aufgrund des Unternehmensprots steigen, desto kleiner ist πP und desto gröÿer
ist der regulierte Preis. Je kleiner MR , desto weniger kann man durch Wahlkampfspenden die Stimmenzahl erhöhen, desto gröÿer ist πR , desto kleiner ist
der regulierte Preis.
πP = 0 und pR = pM (in Abbildung 5.5) wenn MP = 0, wenn also die Wähler
nicht mit Unmut/Stimmenentzug reagieren. Das enspricht dem Stiglermodell. In
diesem Modell gibt es keinen Pelzmaneekt (Trade o) und die Regierung wählt
den Monopolpreis pM , der optimal ist für den Verband.
118
KAPITEL 5. VERBANDSÖKONOMIK
Bei einem Instrumenteneinsatz von T ergeben sich mehrere Optimalbedingungen,
da W in Gleichung 5.2 nach p und T abgeleitet werden muÿ. Die Ableitung nach
T ist die Summe aus den Ableitungen nach T1 , T2 mit T1+2 = T1 + T2 .
WT = WM MR RT1+2 + WM MT2 + WT1 = 0
WM MR = WM MT2 + WT1
(5.5)
wobei aus Gleichung 5.1 RT1+2 = −1 verwendet wurde. Die Optimalbedingung
nach p haben wir schon in Gleichung 5.3 ausgerechnet, setzen Gleichung 5.5 in 5.3
(oder gleich in die erste Gleichung von 5.4) und erhalten die Optimalbedingung
für den Einsatz von P und T :
WM (−MP )
−
+
πP =
>0
WM MT2 + WT1
+
+
+
Da der regulierte Preis mit πP sinkt (pR [πP ]), gilt: pR [πP (−MP )]: je stärker die
−
−
−
Wähler mit Unmut reagieren, desto niedriger ist der regulierte Preis. Weiterhin gilt: pR [πP (MT2 )]: je kleiner MT2 ist, desto kleiner ist der regulierte Preis.
−
−
Je geringer die Wirkung der Wahlkampfspenden ist, desto niedriger ist pR . Für
den Politiker gibt es keinen Grund, den regulierten Preis hochzutreiben, und die
Verbände haben keinen groÿen Einuÿ.
Wann ist πP = 0 und somit pR = pM ? Dann, wenn MP = 0 eine Preiserhöhung
keinen Einuÿ auf den Wahlausgang hat, oder wenn WM = 0 und der Wahlausgang keinen Einuÿ auf das Vermögen des Regulierenden hat.
Das ist neu gegenüber dem Peltzmanmodell und entspricht dem Fall, daÿ der
Regulierende ein Beamter ist. Im Unterschied zum Politiker (pPR ) setzt der Beamte
einen höheren Preis (pB
R ) fest, da ihn der Wahlausgang und somit der Unmut der
Wähler nicht interessiert (pPR < pM = pB
R ). Diese positive Aussage wurde in
den USA getestet, wo tatsächlich höhere von Beamten festgelegte Mindestpreise
festgestellt wurden.
Eine Begründung der Crain/McCormickthese, daÿ Beamte höhere Preise festsetzen als Politiker, lieferte Eckard. Demnach haben Beamte ein besonders starkes
Interesse, den regulierten Unternehmen entgegenzukommen (mehr als Politiker),
weil sie damit bessere Chancen haben, später einen guten Job in der ehemals
regulierten Branche zu bekommen. Mehr als 50 Prozent von 142 Regulatoren
gingen in den USA später in die regulierte Industrie, auch unabhängig davon,
ob sie schon vor der Regulierung in der Industrie tätig waren. Dieses Phänomen
wird auch revolving door genannt.
Diese Hypothese läÿt sich überprüfen, wenn man die Regulierungstätigkeit von
Beamten einerseits mit beschränkten Amtszeiten und solche mit einer nicht kündbaren lebenslangen Stellung vergleicht. Eine empirische Untersuchung von 36
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
119
Städten für das Taxigewerbe stellte fest, das Regulatoren mit einer befristeten
Amtszeit den Marktzutritt stärker regulieren als Beamte auf Lebenszeit. Die Gegenleistung war eine gute Versorgung nach der Amtszeit und kein Job, da im
Taxigewerbe auÿer Taxifahrer kaum jemand eingesetzt werden kann.
Die Crain/McCormick-These muÿ eingeschränkt werden, wenn der Median selbst
an einer Regulierung interessiert ist (MP > 0 und nicht < 0). In diesem Fall hat
ein Politiker ein höheres Interesse an einer Regulierung als ein Beamter.
Dies ist der Fall bei Mietkontrollen, da der Median in der BRD ein Mieter ist.
Allerdings besteht, wie schon oben begründet, ein Problem mit der Qualitätsverschlechterung, die nicht im Interesse der Mieter sein kann.
Der Median ist nicht Arbeitgeber und auch nicht Arbeitsloser und ist folglich an
höheren Löhnen (Mindestlöhnen) interessiert, so lange er nicht befürchten muÿ,
entlassen zu werden.
Beim Kündigungsschutz geht der Staat über das hinaus, was am Markt festgelegt
werden würde, da die Insider (diejenigen, die eine Arbeit haben; die Arbeitslosen
sind die Outsider) am Arbeitsmarkt ein Interesse an einem stark ausgebauten
Kündigungsschutz haben.
Die Gegenposition zu Stiglers capture Hypothese ist der sogenannte public interest view. Danach wird die Regulierung nicht von den Regulierten nachgefragt,
sondern von den Verbrauchern oder Verbraucherschutz. Allerdings ist es auch
möglich, daÿ der Verbraucherschutz von den Produzentenverbänden nur vorgetäuscht wird, um ihr eigentliches Interesse zu verdecken.
Die Taxibranche wird doppelt reguliert, sowohl über eine Preisfestsetzung als auch
über eine Marktzutrittsbeschränkung, wobei eigentlich nur eine Regulierung notwendig wäre, da nur eine der Regulierungen wirken kann (entweder der Preisoder die Mengenregulierung ist wirksam). Die Mengenregulierung kann nicht im
Interesse der Konsumenten sein. Die Preisfestsetzung dürfte, wenn es im Interesse
der Verbraucher wäre, kein Festpreissystem sein, sondern ein Höchstpreissystem.
Es dürfte auch kein Festpreissystem sein, und es müsste erlaubt sein, einen niedrigeren Preis als den festgelegten Höchstpreis zu vereinbaren. Dann könnte die
These des Verbraucherschutzes leichter akzeptiert werden. So muÿ man wohl annehmen, daÿ Taxifahrer vor einer Preiskonkurrenz nach unten geschützt werden
sollen.
Allerdings gibt es auch Sicherheitsregulierungen, die mit dem public interest view
vereinbar sind, wie z. B. in manchen Handwerksberufen oder bei Ärzten, wo der
Sicherheitsaspekt wichtig ist. Aber auch hier gibt es Bereiche, wo Regulierung
über das Ziel des Verbraucherschutzes hinausschieÿt. Es ist nicht klar, wieso ein
Friseur ohne Meisterbrief eine Sicherheitsgefahr darstellt und jemand, der als
120
KAPITEL 5. VERBANDSÖKONOMIK
Friseur seine Dienstleistung anbietet, einen Meisterbrief braucht. In diesem Zusammenhang ist die schweizerische Lösung am überzeugendsten. Dort ist der Meisterbrief optional und keine Zugangsvoraussetzung. Es stellt sich dann die Frage,
wieviel ist dem Nachfrager die Information, daÿ ein Friseur ein Meister ist, wert.
Bei einer Zugangsbeschränkung durch einen Meisterbrief hingegen entscheidet
die Handwerkskammer für den Nachfrager, daÿ er zu seiner eigenen Sicherheit
die Mehrkosten durch die Meisterausbildung bezahlen muÿ.3 Eine Deregulierung
durch eine Abdingbarkeit, wo die Sicherheit des Verbrauchers nicht gefährdet ist,
sollte die Herrschaft über die Verbraucher abbauen.
5.3.2.1.3 Informationsfunktion versus Marktzutrittsbarrieren
Was spricht für eine Informationsfunktion des Staates gegenüber einer Regulierung in Form von Marktzutrittsbarrieren?
1. Die staatlichen Instanzen kennen normalerweise nicht die Präferenzunterschiede bei den Konsumenten. Durch Regulierung festgeschriebene Standards ignorieren diese Präferenzunterschiede und führen zu einem Schaden.
Die Unkenntnis ist jedoch unschädlich, wenn sich der Staat auf eine Informationsfunktion beschränkt.
2. Regulierer weisen einen Risikobias auf.
(a) Risikoscheu verhindert eine eziente Risikoallokation, da das optimale
Risiko nicht Null ist. Trade os mit Risikozuschlägen und ähnlichen
Optionen werden ausgeschlossen. Bei einer Informationsfunktion ist
das alles kein Problem.
(b) Regulierer werden eher ein Auge zudrücken, da Verbote Widerstand
erzeugen und ein graduelles Verbot nicht möglich ist. Eine Informationspolitik kann jedoch immer auch nur graduell sein.
(c) Graduelle Auagen sind jedoch denkbar.
3. Capture ist bei Regulierung wahrscheinlicher. Für einen Produzentenverband ist die Information im Rahmen einer Informationspolitik nicht viel
wert (wer ist ein guter und wer ein schlechter Friseur), ebenso wenig einen
empfohlenen Preis zu verändern. Eine Regulierung des Preises oder der
Qualität ist jedoch lukrativ, die Verbände aktiv. Regulierung erhöht die
Wahrscheinlichkeit von Verbandsgründungen.
3 Die
Entscheidung der Nachfrager in dieser Branche läÿt sich daran ablesen, daÿ viele Friseure ohne Meisterbrief in ihrer Freizeit für einen niedrigeren Preis als im Salon Haare schneiden.
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
121
4. Regulierung ist teuerer als Informationsverbreitung. Regulierungen muÿ
man durchsetzen und Informationen nur bekanntgeben. Eine Informationsverbreitung ist nur der erste Schritt einer Regulierung.
5.3.2.2 Rentseeking durch Subventionen
Bisher ging es nur um Rentseeking durch Regulierung. Nun soll auch Rentseeking
durch Subventionen untersucht werden.
Bei Subventionen ist zu unterscheiden zwischen Finanzhilfen und Steuererleichterung. Aus politökonomischer Sicht würde man erwarten, daÿ Finanzhilfen attraktiver sind, weil dafür keine Gesetzesform vorgesehen ist und diese Form von
Subventionen somit eher den Bedarf an Intransparenz erfüllt. Steuererleichterungen hingegen sind durch die vorgeschriebene Gesetzesform transparent. Auÿerdem
widerspricht eine privilegierte steuerliche Behandlung von bestimmten Interessengruppen dem Grundsatz der Allgemeinheit der Besteuerung, wonach Ausnahmen
von der Steuer eng begrenzt sein sollen.
Abbildung 5.6: Wohlfahrtsverlust durch Subventionen
p
A
A−S
p∗
k
pS
l m n
o
r
s
M ZB
q∗
qS
q
In Abbildung 5.6 ist der Wohlfahrtsverlust, der durch Mengensubventionen (pro
Stück) entsteht, zu sehen. Die Subvention entspricht der Fläche klmnors, der
Zuwachs an Produzentenrente or und an Konsumentenrente klm. Folglich beträgt
der Wohlfahrtsverlust ms = nr.
122
KAPITEL 5. VERBANDSÖKONOMIK
5.3.2.3 Regulierung versus Subventionen
Woraus bestehen die Nachteile der Subventionierung gegenüber der Regulierung
aus Sicht der Rentseeker?
1. Bei Subventionierungen kämpfen die Rentseeker gegeneinander um gegebene Budgets, was man Madison-Eekt (siehe Seite 106) bezeichnen könnte.
Im Gegensatz dazu ist bei Regulierung eine Einigung zu Lasten Dritter
möglich.
2. Bei Subventionen gibt es Haushaltskontrollen durch das Parlament, nicht
so bei Regulierungen, die oft nicht mal per Gesetzgebung, sondern nur per
Verordnung erteilt werden. Somit ist die Wählerwahrnehmung bei Regulierung schwächer als bei Subventionen.
3. Bei Subventionen fällt ein Teil des Rentenzuwachses der Gegenseite zu (die
Konsumentenrente steigt auch). Ein Teil des Rent seekings kommt also
Gruppen zugute, deren Interessen man nicht im Auge hat.
4. Die Entscheidung zwischen Rent seeking durch Regulierung oder durch Subventionierung hängt auch von der Preiselastizität der Nachfrage und des
Angebots ab.
In Abbildung 5.7 sieht man, daÿ eine Preisregulierung umso vorteilhafter ist, je
preisunelastischer die Nachfrage (oben) und je preiselastischer das Angebot (unten) ist. Mindestpreisregulierung würde man dort erwarten, wo die Preiselastizität
der Nachfrage besonders niedrig ist.
Die OPEC ist entstanden, weil die Länder glaubten, die Nachfrage sei preisunelastisch. Dies gilt jedoch nur kurzfristig, langfristig bei einer sich ändernden
Technologie (durch Substitute und neue Lagererschlieÿung) ist die Nachfragekurve preiselastisch. Wo haben wir regulierte Bereiche mit geringer Preiselastizität?
Ladenschluÿgesetz: Die Nachfrage ist unabhängig von den Ladenschluÿzeiten,
weshalb es im Interesse der Anbieter ist, die Ladenschluÿzeiten zu begrenzen. Mindestpreise im Agrarbereich hängen mit der unelastischen Lebensmittelnachfrage
zusammen. Bei Ärzten und Apothekern ist die Medizin- und Medikamentennachfrage auch preisunelastisch, allerdings spielt die Elastizität bei einer Versicherung
ohne Eigenbeteiligung sowieso keine Rolle.
In Abbildung 5.8 sieht man, daÿ der Produzentenrentenzuwachs bei Subventionen
umso gröÿer ist, je preiselastischer die Nachfragefunktion und je preisunelastischer
die Angebotsfunktion ist.
Somit würden wir eine Subventionierung besonders in Branchen erwarten, wo
die Nachfrage elastisch ist. Das ist in den Branchen der Fall, die einem sehr
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
123
Abbildung 5.7: Vorteilhaftigkeit von Preisregulierung
elastisch
+
unelastisch
<
+
-
∆ Nachfrage -
+
∆ Angebot-
>
+
-
starken ausländischen Wettbewerb ausgesetzt sind, wie Bergbau, Schisbau oder
Flugzeugbau. Im Bergbau haben wir zudem ein unelastisches Angebot.
Abbildung 5.9 faÿt zusammen, in welchen Fällen welche Art von Rentseeking für
die Produzentenverbände vorteilhafter ist.
Wenn der Einsatz von Regulierung zu Stimmenverlust bei den Konsumenten
führt, was passiert bei Subventionen? Die Konsumentenrenten wächst ja sogar
bei Subventionen. Allerdings gehen Subventionen zu Lasten des Steuerzahlers, so
daÿ man hier ein Pendant zum Peltzmaneekt hat. Die Frage ist also, wer an der
Wahlurne stärker reagiert, der Steuerzahler oder der Konsument.
124
KAPITEL 5. VERBANDSÖKONOMIK
Abbildung 5.8: Vorteilhaftigkeit von Subventionen
elastisch
unelastisch
>
+
∆ Nachfrage
+
<
∆ Angebot
+
+
Abbildung 5.9: Subventionen versus Preisregulierung
Nachfrage
Angebot
unelastisch
Preisregulierung
Subvention
elastisch
Subvention
Preisregulierung
5.3.3 Empirische Untersuchungen
Wie wirkt sich Verbandstätigkeit auf die Staatsquote aus? Dennis Mueller und
Peter Murrell untersuchen die Wirkung von Subventionen in Form von Finanzhilfen. Diese werden durch die Staatsquote approximiert, wobei die Finanzhilfen
nur einen kleinen Bruchteil der Staatsquote ausmachen, so daÿ der Test nicht
sehr genau ist. Kopie 61 listet die Denitionen der verwendeten Variablen auf.
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
125
Die Kopien 62 und 63 zeigen die Ergebnisse.4 Kopie 62:
4. EXP
t+−
P OPe−
t−
EF RCe−
Deutet auf Sklenerträge in der Produktion von öentlichen Gütern
hin
Je ethnisch heterogener die Bevölkerung eines Landes ist, desto heterogener sind auch ihre Präferenzen in Bezug auf öentliche Güter
und Dienstleistungen des Staates, desto weniger können sie sich
einigen, desto niedriger ist die Staatsquote (Schweiz, USA).
IN C
insignikant
N IGt+
e+
Je gröÿer die Zahl der Interessengruppen in einem Land (Proxy für
Verbandstätigkeit), desto gröÿer ist die Staatsquote.
t+
P F RCe+
Je mehr Parteien im Parlament sind, desto höher ist die Staatsquote. Jede Partei ist der verlängerte Arm einer Interessengruppe,
sie sind somit nicht Volks-, sondern Klientelparteien. Mehrheiten
kommen zustande, wenn alle Klientel befriedigt wird.
7. EXP
M IN C
insignikant
t+
SKEWe+
M IN C und SKEW testen und verwerfen die Meltzer/Richard Hypothese.
10.EXP
t+−
V OT Ee+
Peltzmaneekt: Wahlberechtigte werden durch Wahlteilnehmer approximiert. Je höher die Wahlbeteiligung, desto höher ist die Staatsquote. Der marginale Wähler verdient schlechter und fragt vor allem staatliche Ausgaben in Form von Umverteilung nach, so daÿ
die Umverteilungsnachfrage mit Wahlbeteiligung steigt.
N IGt+
e+
Der positive Einuÿ der Anzahl der Interessengruppen auf die
Staatsausgabenquote scheint stabil sein.
Diese Schätzung in einer Gleichung hat ein Simultanitätsproblem (reversed causation), denn die Staatsquote hat auch einen Einuÿ auf die Anzahl der Interessenverbände. Wenn die Staatsquote hoch ist, ist es attraktiv, einen Interessenverband zu gründen, weil viele Vergünstigungen zu holen sind. Die Lösung dieses
Problems besteht darin, die Gleichung zweistug (mit Instrumentvariablen) zu
schätzen.
Kopie 63:
4 X t+−
bezeichnet ein t heoretisch unklares und ein negatives e mpirisches Vorzeichen der
e−
Variable X .
126
KAPITEL 5. VERBANDSÖKONOMIK
1. T AX
Die Steuerquote hängt eng mit den Ausgaben EXP zusammen und
die Dierenz besteht in der Staatsverschuldung.
2. N IG
Endogenisierung der Variable.
T AX
Die Zahl der Interessengruppen hängt nicht signikant von der
Steuerquote ab.
t+
P OPe+
Je gröÿer die Bevölkerung, desto mehr Interessengruppen.
CEN T
Je stärker der Staat zentralisiert ist, desto geringer ist die Zahl der
Interessengruppen. Ist das die Madisonhypothese, wonach Zentralisierung den Einuÿ der Verbände reduziert? Dazu müÿte die Anzahl
der Verbände den Einuÿ abbilden. Bei Zentralisierung würden man
eine Fusionierung der Verbände erwarten und eine Bearbeitung der
zentralen Stelle. Das heiÿt aber nicht, daÿ ihr Einuÿ abgenommen
hat.
Olson-Hypothese: Der Einuÿ der Verbände steigt mit der Dauer
der politischen Stabilität, da eine Sklerotisierung der Wirtschaft,
aufgrund einer Zunahme des Einusses der Interessenverbände, einsetzt. Es wird immer wieder ein Verband gegründet, wofür historische Fixkosten aufgenommen werden und der Verband deshalb so
leicht nicht wieder verschwindet.
Endogenisierung der Wahlbeteiligung.
t−
DAT Ee−
3. V OT E
N IGt−
e−
Je gröÿer die Zahl der Interessengruppen, desto geringer ist die
Wahlbeteiligung. Die Tätigkeit der Interessengruppen und Wahlbeteiligung sind aus der Sicht des Bürgers Substitute. Minderheiten
haben nur via Verbänden eine Chance Einuÿ zu nehmen (Bürgerinitiativen zählen hier auch unter Verbände). Verbände sind eine Alternative zur Partizipation über die Wahl. Wer an der Urne
nichts ausrichten kann, gründet einen Verband/Bürgerinitiative.
T AX
insignikant
t+
LITe+
Je höher der Ausbildungsstand in einem Land, desto höher die
Wahlbeteiligung.
Die Ergebnisse sind erstaunlich klar, obwohl der Proxy für den Einuÿ der Verbandstätigkeit (Anzahl der Verbände) nicht besonders aussagekräftig ist. Eigentlich müÿte man die Verbände z. B. nach der Mitgliederzahl gewichten. Stigler
würde diese Gewichtung akzeptieren, nicht jedoch Olson. Sein Argument wäre,
daÿ viele Mitglieder bedeuten, daÿ der Verband schlecht organisierbar ist.
Eine weitere interessante Variable zur Erklärung der Staatsquote ist die Exportquote (Oenheit der Volkswirtschaft). Die Hypothese lautet: Je oener die Volkswirtschaft (je gröÿer der Anteil des Auÿenhandels am BSP), desto geringer ist
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
127
der Einuÿ der inländischen Interessenverbände, weil es dann Wettbewerb von
auÿen gibt und man einen negativen Einuÿ der Oenheit auf die Staatsquote
erwarten würde.
5.3.4 Dynamische Inezienz
Folgende Hypothesen sind zur dynamischen Inezienz von Verbandstätigkeit
denkbar:
- Rentseeking erfordert die Aufrechterhaltung regulierter Preise und Marktzutrittsbeschränkung, diese sind Innovationshemmend (für Outsider) und
negativ für das Wirtschaftswachstum. Allerdings sinkt auch für Insider der
Innovationsanreiz.
- Rentseeking mit Rüstungswettlauf bedeutet, daÿ die Eigentumsrechte unsicherer werden. Nach Douglas North sind unsichere Eigentumsrechte eine
Wachstumsbremse. Zum Beispiel war die Etablierung des Patentrechts in
Groÿbritannien eine wichtige Voraussetzung für Wirtschaftswachstum.
- Bei Regulierung mit Kartellen werden die Entscheidungsprozesse schwerfällig und die Anpassung an Marktbedingungen dauert sehr lange, was auch
wiederum wachstumshemmend ist.
- Rentseeking mit Finanzhilfen erfordert höhere Steuern, die die Leistungsbereitschaft schwächen.
Zur Verdeutlichung der klassischen Wirkungskanäle kann man eine Cobb-Douglas
Produktionsfunktion betrachten:
Ŷ = α + β1 K̂ + β2 L̂.
Die Olsonhypothese wirkt auf das Wachstum durch politische Stabilität, zunehmende Zahl der Verbände, steigendem Einuÿ und sinkendes Wirtschaftswachstum. Dieser Einuÿ läÿt sich unter α subsumieren. Aber soweit es auch um Handelsmarktregulierung geht, gibt es einen Eekt auf β2 durch einen Rückgang der
Arbeitsmarktproduktivität durch Überregulierung.
Die Regression in Kopie 64 untersucht, inwieweit sich die Dauer der politischen
t+
würde
Stabilität auf die Produktivität des Faktors Arbeit auswirkt. CIV W ARe+
einen positiven Koezienten erwarten lassen, da eine Zerschlagung des Korparat−
würde ein negatives Vorzeichen erwarten lassen,
tismus stattfand. ST AHODe−
128
KAPITEL 5. VERBANDSÖKONOMIK
da sich der Korporatismus breit macht (Olsonhypothese). Aber ist das der Zusammenhang, den Olson postulierte? Dazu müÿte man den Transmissionsmechanismus überprüfen. Das heiÿt sich fragen, ob sich CIV W AR auf das Wirtschaftswachstum über die Verbandstätigkeit auswirkt.
Die dritte und vierte Regression zeigen, daÿ die Verbandstätigkeit (gewerkschaftlicher Organisationsgrad) tatsächlich negativ mit dem Wirtschaftswachstum korreliert ist. Somit sind beide Komponenten im Kausalprozeÿ nachgewiesen. Zusätzlich erleichtert die Urbanisierung (Organisationskosten: Transport- und Kommunikationskosten) die Verbandstätigkeit.
Somit gilt nach Olson: Je länger das politische System stabil gewesen ist, desto
gröÿer der Einuÿ der Verbände (Sklerosierung), desto geringer ist das Wirtschaftswachstum (Transmission über den gewerkschaftlichen Organisationsgrad).
Kritik: Olson hat nur gezeigt, daÿ ab den sechziger Jahren das Wirtschaftswachstum in den Südstaaten gröÿer als in der Nordstaaten war und daÿ der gewerkschaftliche Organisationsgrad in den Südstaaten geringer ist als in der Nordstaaten. Beides ist bekannt, aber hat das höhere Wirtschaftswachstum in den
Südstaaten tatsächlich etwas mit politischer Stabilität zu tun? Das Problem ist,
ob der Schluÿ von Korrelation auf Kausalität zulässig ist.
Nardinelli et al. in Kopie 65 versuchen, diese Ergebnisse von Olson zu falsizieren. Dazu wählten sie eine andere Stichprobe (in einem anderen Zeitraum) und
zusätzliche Variablen, die den Olsoneekt zerstören sollten: z. B. das Ausgangseinkommen, das die catching up Hypothese von Abramowiz abbildet: Je geringer
das Prokopf-Einkommen in einem Land, desto gröÿer wird das Wachstum in der
Folgezeit sein. Ein niedriges Prokopf-Einkommen zeigt, daÿ das Land nicht auf
der Höhe des technischen Fortschrittes ist.
initial incomet−
e−
Dieser, die catching up Hypothese bestätigende Eekt,
ist nur in Industrieländern stabil. Sobald beispielsweise schwarzafrikanische Länder hinzugefügt werden, verschwindet der Eekt. Diese Hypothese gilt oensichtlich
nur bei Ländern mit ähnlichen politischen Institutionen.
state aget−
e+
Olson-Hypothese falsiziert.
initial share
of fed., state, local gov.
of agriculturet+
e+
insignikant (Hypothese: Bürokratie ist Hemmnis für
Wirtschaftswachstum.)
technologisches catching up.
5.3. NORMATIVE RECHTFERTIGUNGSANALYSE
of manufactoringt−+
e−
initial educationt+
e+
129
Je höher 1926 der Anteil des sekundären Sektors war, desto niedriger war das Wirtschaftswachstum in der Folgezeit. Wenn man auf einem höheren Niveau des manufaktorischen Sektors beginnt, gibt es wenig Möglichkeiten,
Landarbeiter in der Industrie zu beschäftigen, wo das
Wirtschaftswachstum entsteht.
Je höher der Ausbildungsgrad in den Bundesstaaten
im Jahre 1926, desto höher ist das Wirtschaftswachstum. Das ist überraschend, denn normalerweise würde
man sagen, daÿ Ausbildung zu einem höheren ProkopfEinkommen führt. Warum es zu einem höheren Wachstum führen sollte, muÿ man noch begründen.
Es zeigt sich, daÿ sich die Olson-Hypothese nicht so einfach testen läÿt, wie es
Olson in Kopie 64 gemacht hat.
Kopie 67 bestätigt in der ersten Regression die Olson-Hypothese (CML). Die
Dummy-Variable der dritten Regression zeigt einen positiven Eekt einer Revolution auf das Wirtschaftswachstum (Zerschlagung des Korporatismus). Die
dritte und vierte Regression erklärt Wirtschaftswachstum durch einen Index für
Sklerose. Die letzte Regression zeigt, daÿ der Skleroseindex möglicherweise das
Residualwachstum (u = OT HEP E ) in einem (Solow-) Wachstumsmodell erklären kann (Ŷ = α + β1 K̂ + β2 L̂ + u).
Kopie 66 zeigt einen insignikanten catching up Eekt (GNP/cap), aber eine
signikante Olson-Variable (Institutional).
Alles in allem scheint die Olson-Hypothese für die OECD Länder robust zu sein,
nicht jedoch für die US-Bundesstaaten.
Kopie 68 ist eine Untersuchung von Bernholz (B) und Weede (W):
t−
B: T EXPe−
Staatsausgaben, Sklerose bzw. Bürokratiehypothese bestätigt.
W: soc.sec.T r.t−
e−
t−
B: ADEMe−
Je höher die Sozialleistungsquote, desto niedriger das Wirtschaftswachstum.
Olsonhypothese bestätigt
W: age of dem.t−
e−
--
B:
t+
F IN Ve+
W: agri./civ.empl.t+
e+
Investitionsquote (Kotrollvariable)
Catching up Hypothese bestätigt. Hier wurde das Simultanitätsproblem umgangen, indem die erklärende vom Anfang und die erklärte Variable vom Ende der Periode verwendet wurde.
130
KAPITEL 5. VERBANDSÖKONOMIK
In Kopie 69 ist eine negative Korrelation zwischen Wachstum der Staatsausgaben
und des Outputs festzustellen, ohne jedoch ein Kausalität begründen zu können.
Kopie 70 zeigt eine weitere Untersuchung von Weede. Die abhängige Variable
approximiert mit dem verfügbaren Einkommen der unteren 40% die Einkommensverteilung.
age of demt−
e−
t+
soc.gove+
t+
exports/GDPe+
Je länger es die Demokratie gibt, desto niedriger ist das
Einkommen der 40% schlechtest verdienenden, weil sich
mit zunehmendem Alter der Demokratie Verbände etablieren, vielleicht auch des Medianwählers, zu deren Gunsten
zunehmend umverteilt wird und immer weniger zugunsten
der Ärmsten.
Klientelkonform.
Je oener die Volkswirtschaft ist, desto gröÿer ist der Anteil der Ärmsten am Volkseinkommen, weil in einer oenen
Volkswirtschaft der Einuÿ der Verbände am geringsten ist
und am wenigsten Privilegien zugunsten der Reichen und
gut Organisierten verteilt werden.
In Kopie 71 wird der Einuÿ der Einkommensverteilung auf das Wirtschaftswachstum untersucht. Die Variable GDP60 erlaubt wieder eine catching up Interpretation. Die Variable P RIM60 zeigt den Humankapital-/Bildungsniveaueekt.
Je höher der Anteil des mittleren Quantils (Third 20%), desto höher das Wirtschaftswachstum. Beim negativen Einuÿ des Highest Quantils sind verschiede
Interpretationen möglich: Erstens führt starke Einkommensungleichheit zu hoher
Umverteilung und über negative Anreizeekte zu niedrigem Wirtschaftswachstum. Zweitens, aus der Perspektive der Theorie der Interessengruppen, je höher die Einkommenanteile der besserverdienenden Gruppen, desto stärker ist der
Korporatismus (Ursache für Einkommensungleichheit) und desto niedriger das
Wirtschaftswachstum. Drittens, reversed causation, hohes Wirtschaftswachstum
(beispielsweise durch Sozialabbau) führt zu starker Ungleichheit.
5.4. LÖSUNGSMÖGLICHKEITEN
131
5.4 Lösungsmöglichkeiten
5.4.1 Transaktionsmechanismen
5.4.1.1 Informationen
Wenn die Bedienung der Verbandsinteressen eine Gegenleistung der Politiker für
Informationen, die sie benötigen, ist, dann muÿ der Politiker von diesen Informationen möglichst unabhängig gemacht werden, denn das Recht in einem Club, der
im Namen der Mitglieder Stellungnahmen abgibt, beziehungsweise Information
verbreitet, ist im Rahmen eines freiheitlichen Staates nicht verwehrbar, da ein
Grundrecht auf Vereinigungsfreiheit existiert.
Informationsunabhängigkeit kann erreicht werden durch ezienter aufbereitete
statistische Daten, verbesserte wissenschaftliche Beratung und eine verbesserte
Aggregation der Präferenzen (Willensbildung anstatt der Verbände) beispielsweise durch Referenden.
5.4.1.2 Störaktionen
Störaktionen als Mittel der Verbandspolitik sind unter Strafe zu stellen. Jedoch
geht die Tendenz in die andere Richtung, wenn man bedenkt, daÿ das BVerfG
entschieden hatte, daÿ Sitzblockaden keine Nötigung, sondern nur eine Ordnungswidrigkeit darstellen.
5.4.1.3 Politiknanzierung
Parteien sollten unabhängig von Partei- und Wahlkampfspenden der Verbände
gemacht werden, beispielsweise durch ein niedrigeres Niveau für steuerbegünstigte
Parteispenden. Politiker sollten Einkünfte aus Nebentätigkeit und Zuwendung
von Verbänden oenlegen.
Wahlkampfkostenerstattung aus Steuermitteln sollte erhöht werden, um Parteien
unabhängiger von Verbänden zu machen und damit ein höherer Anreiz besteht,
die Bürger stärker zur Wahl zu motivieren.
Die Diätenentscheidungen sollten durch Entscheidungsgremien vollzogen werden,
die nicht in erster Linie die Interessen der Abgeordneten vertreten. Eine Diätenkommission wurde schon einmal vom Bundespräsidenten ernannt. Wirksamer
wäre nach Hayek eine neben dem Bundestag/rat unabhängige dritte Kammer,
die aus Personen besteht, die nicht Parteimitglieder sein dürfen und die so de-
132
KAPITEL 5. VERBANDSÖKONOMIK
mokratisch legitimiert über Diäten, Parteinanzierung, Abgeordnetenzahl usw.
entscheiden. Der Zweck dieser dritten Kammer wäre, die Selbstbedienung zu stoppen, die Komplizenschaft zwischen Parlament und Regierung zu verhindern und
damit eine Gewaltenteilung herzustellen. Um die dritte Kammer anreizverträglich zu gestalten, sollte sie nicht aus Leuten bestehen, die darauf warten, in die
Regierung aufzurücken (wie es jetzt im Parlament ist).
5.4.1.4 Einuÿnahme auf die Zusammensetzung des Bundestages
Verbandsfunktionäre sollten kein passives Wahlrecht haben, so wie es für Beamten nach dem Grundgesetz möglich ist (Art. 137, I). Dazu ist allerdings eine
Verfassungsänderung nötig.
5.4.2 Organisationsfähigkeiten
5.4.2.1 Besteuerung
Verbände sollten nicht wie Vereine, sondern wie private Unternehmen besteuert
werden.
5.4.2.2 Zwangsmitgliedschaft
in IHK, Ärztekammer u.ä. beseitigen.
5.4.2.3 Kartellrecht
Verbände sollten, soweit sie versuchen kartellarische Instrumente per Regulierung
durchzusetzen, dem Kartellrecht unterworfen werden.
5.4.2.4 Verfassungsbeschränkung
Es sollte ein generelles Regulierungverbot in der Verfassung verankert werden.
Beispielsweise könnte man Preisvorschriften für verfassungswidrig erklären, ebenso wie Protektion (Zölle, Einfuhrkontingente usw.) und Marktzutrittsbeschränkungen.
Das Grundrecht auf Vertragsfreiheit existiert im Grundgesetz nicht. Ausnahmen
gelten bei Verträgen zu Lasten Dritter z. B. Kartellabsprachen.
5.4. LÖSUNGSMÖGLICHKEITEN
133
5.4.2.5 Olson-Hypothese
Nach der Olson-Hypothese führt politische Stabilität zu skleratischem Korporatismus. Die politische Stabilität sollte erschüttert werden. Maos Kulturrevolution
zielte in diese Richtung.
Korporatistische Strukturen im Inland werden erschüttert, wenn man die Volkswirtschaften und Märkte önet und Wettbewerb von auÿen zugeläÿt. Dies geschah
beispielsweise durch die Handelsliberalisierung in den GATT-Runden und in der
europäischen Gemeinschaft in Form des Binnenmarktes. Allerdings ist für Europa
zu bedenken, daÿ die Marktintegration nur zu einer Erschütterung der korporatistischen Strukturen auf nationaler Ebene führt. Zur Marktintegration ist auch
noch die politische Integration erwünscht. Diese ermöglicht auf Unionsebene, daÿ
sich die Interessenverbände neu formieren. Es gibt gute Gründe für die Annahme,
daÿ auf einer höheren Ebene die Befriedigung der Interessengruppen sogar dann,
nachdem sich ein neues politisches Gleichgewicht gebildet hat, noch weiter geht,
da dann auf der höheren Ebene der Wettbewerb zwischen den Politikern und Regulatoren entfällt und so die Möglichkeit für Vergleiche und Exit eingeschränkt
wird. Verbände können sich auf zentralstaatlicher noch besser durchsetzen als auf
nationalstaatlicher Ebene.
5.4.3 Systemimmanent
Bei den systemimmanenten Vorschlägen wird nicht versucht, die Verbände zu
beseitigen, sondern man ndet sich damit ab, daÿ sie da sind und versucht, die
verursachten Kosten zu reduzieren.
5.4.3.1 Tullock: ecient rent-seeking
Rentseeking kann man nicht verhindern, aber dafür sorgen, daÿ die Kosten des
Rentseekings geringer werden, daÿ der Lobbyaufwand verschwindet und keine
Ressourcen durch Lobbyismus verschwendet werden. Am besten wären Auktionen, bei denen Privilegien versteigert werden. Bei Widerstand durch den Wahlbürger könnten sie verlost werden oder (noch provokanter) Nepotismus eingeführt
werden. Wie in der Monarchie führt die Erbfolgeregelung dazu, daÿ der Rüstungswettlauf zwischen den Kandidaten entfällt und eine Bedienung der Verwandten
der Regierung stattndet. Anreizverträglich formuliert bedeutet dies, daÿ eine
Verteilung aufgrund von Eigenschaften stattndet, die der Empfänger nicht beeinussen kann (z. B. Körpergröÿe).
134
KAPITEL 5. VERBANDSÖKONOMIK
5.4.3.2 Ministerienauösung
Interessengruppenbezogene Ministerien wie das Landwirtschaftsministerium könnte im Wirtschaftsministerium, wie früher üblich, eingegliedert werden. Aufgelöst
werden sollten auch das Wohnungsbauministerium und das Verkehrsministerium.
5.4.3.3 Verbandsfusion
Verbandsfusionen dienen dazu, daÿ weniger Partikularinteressen auftreten, da die
Interessen der anderen internalisiert werden können. Im Extremfall ist der ganze
Staat in einem Verband und alle Interessen können internalisiert werden.
Könnten Zwangsmitgliedschaft systemimmanent positiv sein, wenn durch encompasing interest groups geringe externe Eekte entstehen? Die Nachteile sind, daÿ
sich bei Zwangsverbänden die Funktionäre selbständig machen, weil eine Exitoption entfällt und Verbandsminderheiten geringer berücksichtigt werden. Zudem
ist eine Zwangsmitgliedschaft nicht mit der Vereinigungsfreiheit des Grundgesetzes vereinbar.
Solange durch Zwangsmitgliedschaft nicht die encompasing erreichbar ist, wird
der Verband gegenüber den Nichtorganisierbaren immer mächtiger, der die Schwerorganisierbaren unterdrückt.
5.4.3.4 Regulierung der Verbände
Vorschriften bezüglich ihrer Organisation fordert die FDP schon seit Jahrzehnten.
Nötig wäre ein Verbandsgesetz mit Oenlegungspichten und Abstimmungsregeln. In Groÿbritannien gibt es geheime (nicht per Hand am Fabriktor) Gewerkschaftswahlen. Weiterhin sollte die (qualizierte) Mehrheit der Mitglieder und
nicht der Anwesenden entscheiden.
In der juristischen Literatur wird die Gemeinwohlbindung der Verbände verlangt.
Das geht aus ökonomischer Sicht völlig am Problem vorbei, da der Zweck der
Verbände gerade nicht das Gemeinwohl, sondern die Partikularinteressen sind.
5.4.3.5 Gleichgewichtiger Wettbewerb
Um ein Gleichgewicht zwischen den Verbänden zu erreichen (countervailing powers, balance of power), sollten die Startschwierigkeiten bei der Formierung von
Verbänden gemindert werden. Der Verbraucherschutz sollte subventioniert werden, ebenso der Umweltschutzverband und der Bund der Steuerzahler.
5.5. PROBLEME BEIM PRIVILEGIENABBAU
135
In der BRD gibt es eine Subventionierung der Verbraucher in Form eines Verbandes pro Bundesland. Verbraucherschutztagungen zwischen Bundesländern entpuppen sich als Auseinandersetzungen der verlängerten Arme der Regierungen,
da Parteifunktionäre die Posten besetzen.
Anhörungsrechte in Form von Hearings wären eine weitere Möglichkeit, allen gesellschaftlichen Gruppen Gehör zu verschaen. So etwas gab es schon einmal in
der Spätphase von Ludwig Erhards Regierung, deren ozielle Regierungspolitik
die formierte Gesellschaft bemüht war, möglichst gleichberechtigte Anhörungsrechte zu etablieren. Allerdings ist dieser Ansatz wieder im Sande verlaufen.
5.5 Probleme beim Privilegienabbau
5.5.0.1 Tullock: transitional gains trap
Viele Gruppenprivilegien versprechen nur vorübergehende Gewinne. Beispielsweise, weil es nicht möglich ist, den Marktzutritt dauerhaft wirksam zu verhindern.
Ein Beispiel für eine Konditionenregulierung ist das Ladenschluÿgesetz, das 1956
eingeführt worden war. Wenn man annimmt, daÿ nur ein Sonntagsönungsverbot
und keine Zutrittsbeschränkung bestehen, dann besteht die Wirkung aus einer
Reduktion der Kapazität um 1/7 oder einer Reduktion des Verkaufsraumes um
1/7. Das führt zu Knappheit durch Reduktion des Angebots, steigende Gewinne
und Kapitalrenditen im Einzelhandel. Daraufhin strömen neue Anbieter herein
und die Kapitalrenditen sind wieder so hoch wie in anderen Branchen. Die Gewinne sind somit nur temporär (transitional). Wenn jetzt liberalisiert werden würde,
würde des Angebots wieder steigen und die Kapitalrenditen sinken. Dies trit jedoch Leute, die nie von der Einführung des Ladenschluÿgesetzes protiert haben,
da bei Markteintritt die höheren Kapitalrenditen verrechnet werden, indem ein
Ladenbesitzer dem Nachfolger die höhere Rente im Kaufpreis in Rechnung stellt,
das heiÿt, daÿ nur diejenigen, die 1956 einen Laden hatten, von der Ladenschluÿbeschränkung protiert haben. Somit ist der Widerstand durch diejenigen, die
sich unschuldig fühlen, entsprechend hoch.
Dies ist jedoch keine rein ökonomische Argumentation, da keine Wohlfahrtsverluste entstehen, sondern lediglich eine Umverteilung stattndet. Es widerspricht
jedoch dem Gerechtigkeitsempnden, jemandem etwas weg zu nehmen, was er
nie erhalten hat.
In der Agrarpolitik ergab sich durch die Einführung von Subventionen und Mindestpreisen Anfang der sechziger Jahre eine ähnliche Situation, wobei der Marktzutritt nicht auch noch beschränkt wurde. Es entstand eine Angebotsausweitung,
136
KAPITEL 5. VERBANDSÖKONOMIK
wobei die Inzidenz der Subvention beim (fast) xen Faktor Boden lag. Die Preise
stiegen und in Form von höheren Bodenpreisen el die Rente denen zu, die Anfang der sechziger Jahre Boden hatten. Durch Marktzutritt waren Übergewinne
später nicht mehr möglich, und wenn man den Boden bei höheren Preisen gekauft
hat, waren die Renditen nicht höher als woanders. Neue Marktteilnehmer haben
also keine Verknappungsrenten bekommen, so daÿ die Deregulierung bei ihnen
auf Widerstand stöÿt.
Dies ist eine Subventionsfalle, weil bei der Beseitigung der Subventionen Leute
geschädigt werden, die nie von den Privilegien protiert haben.
5.6 Wieso ist Deregulierung zu beobachten?
Mit dem seit dem Ende der siebziger Jahre zu beobachtenden Deregulierungsphänomen hat man im Peltzmanmodell ein Erklärungsproblem. 1989 versucht Petlzman, die Deregulierung zu erklären.
5.6.1 Substitute
Interessengruppen verlieren in vielen Branchen ihr Interesse an Regulierungen,
weil sie aufgrund von Substituten, die in nicht regulierten Branchen entwickelt
werden, immer unwirksamer werden. Es gibt also einen Wettbewerb von auÿen
durch Anbieter, die nicht reguliert werden. Es ndet eine wealth dissipation durch
immer mehr Anbieter und eine Konvergenz in Richtung Wettbewerbskondition
statt.
In den USA fand solch ein Phänomen in der Eisenbahnindustrie statt, die zunehmend starkem Wettbewerb durch Substitute ausgesetzt war. Im Bankenbereich
ging das internationale Geschäft aus den USA auf den Eurodollarmarkt über.
Zu dieser Zeit gab es verschiedenste Regulierung (Regulation Q für Termingelder
usw. ) 1981 bemerkte die USA, daÿ es nicht möglich sein wird, den Euromarkt zu
regulieren. Es gab einen Versuch, der aber von der Schweiz und Luxemburg abgelehnt wurde, so daÿ den USA nicht anderes übrig blieb, als ihren Bankensektor
zu deregulieren.
In der BRD könnte eine Hypothese bezüglich der Deregulierung der Ladenschluÿzeiten auch über wealth dissipation argumentieren: Es werden zunehmend Substitute, wie Tankstellen oder die Klett-Passage in Stuttgart, angeboten, deren Ladenschluÿzeiten nicht reguliert werden und dem Einzelhandel den Umsatz streitig
machen.
5.6. WIESO IST DEREGULIERUNG ZU BEOBACHTEN?
137
In beiden Fällen ndet eine Deregulierung auf Grund von gestiegenem Wettbewerb durch immer mehr Substitute statt.
Man kann sich die Eekte der aufkommenden Substitute am besten in Abbildung
5.5 verdeutlichen. Zunehmende Substitute bewirken eine Drehung der Nachfragekurve im Wettbewerbspreis gegen den Uhrzeigersinn. Man sieht, daÿ eine immer elastischere Nachfrage die regulierte Menge erhöht und den regulierten Preis
senkt. Bei einer vollkommen preiselastischen Nachfrage ergibt sich die Wettbewerbslösung. Bei einem zu hohen Preis, erfolgt ein Marktaustritt des Nachfragers,
so daÿ die Unternehmen ein höheren Preis als den Wettbewerbspreis nicht durchsetzten können.
Die Erosion von Marktzutrittsbarrieren kann durch wirksame Substituten und
elastische Nachfragen erklärt werden.
5.6.2 Qualitätswettbewerb
Wenn man höhere Preise für Mietwohnungen einführt, die unter dem Marktpreis
liegen, führt das zu einer sinkenden Qualität, solange bis die Miete gemessen an
der Qualität des Wohnraums wieder im Gleichgewicht ist. Wenn dieser Prozeÿ
eintritt, verlieren die Mieter ihr Interesse an Preisregulierung, welche sie durch
aufgezwungene Qualitätsanpassung noch schlechter stellt als ohne Regulierung,
obwohl manche auch mehr für die Mietwohnung zahlen würden.
Wenn der regulierte Preis zu hoch ist, führt Qualitätswettbewerb in Richtung höherer Qualität. Bei der Luftfahrt wurde Wettbewerb nicht mehr über den Preis,
sondern über die Qualität (Beinfreiheit, kostenlose Getränke, Kino usw.) zwischen den Fluggesellschaften geführt. Es ergibt sich ein Wohlfahrtsverlust, weil
die Qualität zu hoch ist und den Konsumenten womöglich ein niedrigerer Preis
lieber wäre.
Die regulierte Branche verliert ihr Interesse an einer Regulierung, da der Wettbewerb nach wie vor da ist, sich in Richtung Qualität verlagert und die Kapitalrendite wieder auf das übliche Niveau absinkt.
138
KAPITEL 5. VERBANDSÖKONOMIK
Kapitel 6
Wirtschaftspolitische Beratung
6.1 Transmissionsmechanismen
Wie wirkt sich Beratung auf die Wirtschaftspolitik aus?
6.1.1 Der Ökonom als externer Berater der Regierung
Die Positionen möglicher externer Berater sind Beamter, Beirat in Ministerien, Sachverständigenrat oder Gutachter von Wirtschaftsforschungsinstituten. Bei
dieser Beratungsform besteht einerseits ein Informations- und andererseits ein
Anreizproblem.
Das Informationsproblem besteht darin, daÿ der Politiker keine Zeit hat oder die
Argumente nicht versteht.
Das Anreizproblem besteht darin, daÿ der Politiker kein Interesse an der Beratung hat, solange die Wähler bzw. die öentliche Meinung noch nicht von der
Richtigkeit der Vorschläge überzeugt sind. Er hat nur dann einen Anreiz, auf die
Vorschläge zu hören, wenn die Öentlichkeit bereits davon überzeugt ist und es
keine einuÿreichen Interessengruppen gibt, die gegen die Vorschläge sind.
Friedman: Alle guten Vorschläge sind umsonst, weil der Politiker nicht am öffentlichen Interesse, sondern daran interessiert ist, die eigene Machtposition zu
erhalten.
139
140
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
6.1.2 Der Ökonom als öentlicher Meinungsmacher
Die Mobilisierung der öentlichen Meinung entspricht einem paretianischen Ansatz, wo der Ökonom ein ehrlicher Makler ist, sich an den Souverän wendet und
ihn von der Richtigkeit bestimmter Ansichten, beispielsweise durch Medienauftritte, zu überzeugen versucht.
Probleme bestehen, wie oben, in Form eines Informations- und eines Anreizproblems.
Wieso könnte der Wissenschaftler den Bürger besser als der Politiker überzeugen?
Soweit sie als unabhängig gelten, haben sie eine höhere Glaubwürdigkeit, sind
jedoch eher weniger kommunikationsfähig. Sie pegen vielleicht die intellektuellen
Eitelkeiten, und sie drücken sich möglicherweise viel zu kompliziert aus.
Diese Form der Beratung macht nur Sinn, wenn man meint, daÿ der Wähler besser
ist als sein Ruf und klüger als die Politiker denken, Wenn also auf politischer Seite
ein Irrtum vorliegt.
6.1.3 Der Ökonom als Politiker
Diesen platonischen Ansatz erlebte Deutschland in Form von Erhard, Schiller und
Schmidt. Üblicherweise gibt es jedoch nur sehr wenige Politiker, die ökonomisch
gebildet sind.
Wo liegen die Probleme? Wissenschaftler sind möglicherweise Pros in der Durchsetzungsfähigkeit unterlegen. In der Politik zählt Werturteil vor Sachurteil, in
der Wissenschaft andersrum. Ein weiteres Problem könnte die mangelnde Anpassungsbereitschaft des Wissenschaftlers sein. Er ist nicht auf die politische Karriere
angewiesen, relativ unabhängig, gewissen Vorstellungen von Wahrheit verpichtet und an die vergangenen Äuÿerungen gebunden und kann nicht einfach das
Gegenteil behaupten. Die Durchsetzungsfähigkeit leidet auch an den von Nichtexperten (Generalisten = Universaldilettanten :-) ) entwickelten Gegenstrategien:
Vorwurf der Weltfremdheit und Agieren aus dem Elfenbeinturm. Schon Ricardo
muÿte sich 1820 im Parlament vorwerfen lassen, er argumentiere, als ob er gerade
von einem andern Planet gekommen sei.
6.1.4 Der Ökonom als Staatsbeamter
Eine Position als Staatsbeamter kann man entweder in (a) einem Ministerium
(Müller-Armack, Keynes (Bretton-Woods), Erhard) oder in (b) einer unabhängigen Institution (Issing, Siebert, Kloten) bekleiden. Man kann damit bei Gesetze-
6.1. TRANSMISSIONSMECHANISMEN
141
sentwürfen und Verhandlungsführungen mitwirken.
6.1.5 Der Ökonom als Ausbilder
Wenn man die Vorstellung hat, daÿ der Mensch nur während des Studiums für
wissenschaftliche Argumente zugänglich ist, danach keine Zeit oder Interesse daran hat und nur noch von der Substanz zehrt, dann sollte man nicht die Politiker
überzeugen, sondern auf den Generationswechsel und ihren Marsch durch die
Institution bauen. Eine ähnliche Aussage traf Max Planck 1928 in seiner Autobiographie:
Eine neue wissenschaftliche Wahrheit pegt sich nicht in der Weise
durchzusetzen, daÿ ihre Gegner überzeugt werden, sondern, weil sie
aussterben und die heranwachsende Generation von vornherein mit
der Wahrheit vertraut gemacht worden ist.
6.1.6 Empirie
Nach Kuhns Revolutionstheorie in Structure of Scientic Revolution werden
die Auswirkungen wissenschaftlicher Revolutionen auf die Wirtschaftspolitik betrachtet.
Die soziale Marktwirtschaft entwickelte sich durch den Transmissionsmechanismus Politiker (Erhard), Beamter(a) (Müller-Armack) und Berater (wissenschaftlicher Beirat beim Bundeswirtschaftsministerium mit Böhm, Eucken, Röpke, Rüstow, der die Vorlagen für Erhard lieferte).
Die keynesianische Nachfragesteuerung unter Schiller (Politiker) manifestiert sich
im Stabilitäts- und Wachstumsgesetz.
Flexible Wechselkurse wurde von Schiller (Politiker) durchgesetzt, der das BrettonWoods System zu Sturz brachte.
Die Abkehr von der Nachfragesteuerung und eine Verstetigung der Angebotspolitik wurde durchgesetzt von (1.) der Geldpolitik durch die Bundesbank (Beamter
(b)) seit 1974 durch die Ankündigung von Geldmengenzielen, was von den (Berater) Monetaristen vorgedacht worden war. (2.) In der Haushaltspolitik wurde
es durch den Sachverständigenrat mit Siebert und Fels gefordert (Berater).
Das EWS wurde unter Helmut Schmidt (Politiker) eingeführt und von seinem
Architekten Horst Schulmann (Beamter (a)) ausgedacht.
Der Währungsunion ging das Genscher Memorandum 1988 voraus und Kohl setz-
142
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
te sie am Finanzminister vorbei durch (Primat der Politik). Diese Reform fand
ohne ökonomische Beteiligung statt.
Auällig ist die Häufung von Politikern als Transmissionsmechanismus, woraus
man schlieÿen kann, daÿ der Ökonom als Politiker viel erreichen kann, vorausgesetzt, er wird Bundeskanzler.
Entsprechend der These von Kuhn geht den wissenschaftlichen Revolutionen erst
eine Krise voraus: Soziale Marktwirtschaft nach Mangelwirtschaft, keynesianische Nachfragesteuerung nach der Rezession von 1967, wo eine Arbeitslosigkeit
von zwei Prozent als eine schwere Krise empfunden wurde, exible Wechselkurse
nach importierter Ination, Angebotspolitik nach Stagnation, da Keynes nach
den Ölschocks nicht mehr funktionierte, EWS nach der Dollar Krise unter Carter
1978. Nur Maastricht ging keine erkennbare Krise voraus.
Wie lange sind die Lags von der Konzeption bis zur Implementierung? Soziale
Marktwirtschaft: 40er-50 (5 Jahre), kenesianische Nachfragesteuerung: 36-67 (30
Jahre), exible Weckselkurse: 53-69/73 (20 Jahre), Angebotspolitik - Geldpolitik:
58-74 (15 Jahre) - Finanzpolitik: 75-83 (10 Jahre), EWS: 77-79 (2 Jahre), Maastricht 68-88 (20 Jahre). Der typische Lag ist recht lange und maximal 30 Jahre,
bei einem Median von 15-20 Jahren, aber auch kurze Lags sind möglich.
In einer internationalen Querschnittsanalyse berichtet John Williams 1994 im
Buch The political economy of policy reform, daÿ Reformen (in Schwellenländern) typischerweise von einem ökonomischen Team mit einer gemeinsamen wirtschaftspolitischen Vision und fast immer mit einer charismatischen Führungsgur
durchgeführt werden. Wobei der Reform ein ökonomischer Notstand vorausgeht
und eine komfortable Mehrheit im Parlament besteht.
6.2 Externe Beratung
1. Es gibt zwei Arten von Prognosen:
(a) Status Quo Prognosen, die daraus bestehen, die Entwicklungen der
Zukunft vorherzusagen, wenn die Wirtschaftspolitik nichts tut und
keine wirtschaftspolitischen Instrumente eingesetzt werden.
(b) Wirkungsprognosen von Maÿnahmen, die beantworten, wie sich die
Entwicklung verändern läÿt, wenn bestimmte Maÿnahmen ergrien
oder Institutionen errichtet werden.
Der Sachverständigenrat und die Wirtschaftsforschungsinstitute sind auch
zu einer Status Quo Prognose verpichtet. Die Vorgehensweise besteht darin, eine Status Quo Prognose zu erstellen, die Fehlentwicklung aufzuzeigen
6.2. EXTERNE BERATUNG
143
und anzuregen, was man dagegen tun kann.
2. Beratung kann auch darin bestehen, dem Politiker zu vermitteln, daÿ er,
verglichen mit der Zahl der Instrumente, zu viele Ziele hat und auf einige
verzichten sollte, wie es aus der Assignmenttheorie bekannt ist.
Für die Wirksamkeit der Beratung ist es notwendig, daÿ Informationen
vorliegen, die bisher übersehen wurden und (de facto), daÿ die Beratung mit
den sonstigen Überzeugungen der Beratenen in Einklang steht, da sie sonst
die Ratschläge nicht akzeptieren werden. Beratung ist dort wirkungslos,
wo das Problem nicht auf einem Informationsmangel, sondern auf einem
Interessengegensatz beruht.
Zum Beispiel ist es aussichtslos zu versuchen, den BDI davon zu überzeugen,
daÿ Umweltauagen inezient und Umweltzertikate sinnvoller sind. Das
ist deshalb so, weil ein Interessengegensatz besteht, denn die Auagen sind
umsonst und die Umweltzertikate teuer für die Industrie. Ebensowenig
ist es aussichtsreich, die Gewerkschaften von überhöhten Reallöhnen, als
den Grund für die hohe Arbeitslosigkeit, zu überzeugen zu versuchen. Sie
würden es nicht zugeben, selbst, wenn sie es einsehen würden, denn es
widerspricht dem Verbandszweck. Hobbes: Man hätte sich wohl nie auf 1 +
1 = 2 geeinigt, wenn es jemandes Interesse gewesen wäre, es zu bestreiten.
Fazit: Dort, wo Interessen nicht dominieren, kann Beratung etwas bewirken.
3. Es ist zu unterscheiden zwischen einer Beratung, die an Politiker versus
Öentlichkeit gerichtet ist und einer Beratung bezüglich der Wirtschaftsordnung versus Prozeÿpolitik.
Beratung bezüglich der Wirtschaftsordnung zielt auf die Verfassungsebene, die
Öentlichkeit, die Aufklärung und eine Paretoverbesserung, also einer Änderung,
der alle zustimmen können.
Bezüglich der Prozeÿpolitik ist Beratung auf die exekutive Ebene, die Steuerung,
die Politiker und das Mehrheitsinteresse ausgerichtet.
6.2.1 Anreize
Welches sind die Anreize der Berater in der Wirtschaftspolitik?
Zur Einkommensmaximierung ist festzustellen, daÿ Beamte in der Regel (Universität, Wirtschaftsforschungsinstitute) begrenzte Möglichkeiten haben, ihr Einkommen zu beeinussen. Der Einkommensmaximierung ist es dienlich, bis zu
einem Alter von 52 Jahren möglichst viele Rufe zu erhalten. Dazu ist ein hohes
Ansehen bei Kollegen notwendig und daÿ man sich am Mainstream orientiert, um
144
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
konsensfähig zu bleiben. Ansehen kann also ein Mittel zu Einkommenserzielung
sein.
Ansehen läÿt sich auch durch Gutachten und Vorträge erlangen. Zudem ist Ansehen des Beratenden für den Auftraggeber wichtig, weil bei Veröentlichung
der Studie ansonsten keine Wirkung in der Öentlichkeit erzielt wird. Demzufolge steht bei wissenschaftlichen Beratern die Ansehensmaximierung an oberster
Stelle.
Berater haben kaum Macht, so daÿ dieser Punkt in diesem Zusammenhang kaum
anwendbar ist.
Die Budgetmaximierung ist von hohem Interesse, allerdings eher zum Zwecke der
Ansehensmaximierung, indem viele Gutachten erstellt werden können.
Was muÿ man tun, um Ansehen zu maximieren (Beifallsmaximierung)? Dazu sind
kunstvolle Analysen notwendig, und die Brauchbarkeit für die Wirtschaftspolitik
ist dabei sekundär. Frey and Kirchgässner (1994), S.458, bemerken, daÿ es wenige
Anreize gibt, auf wirtschaftspolitischem Gebiet zu forschen:
1. Als Kriterium für die Qualität wirtschaftswissenschaftlicher Forschung wird
meist nicht Relevanz, sondern die objektiv leichter erfaÿbare professionelle Kompetenz angesehen. Als ökonomisch kompetent wird angesehen, wer das formale
Instrumentarium beherrscht, logisch konsistent und stringent argumentiert und
die wissenschaftliche Literatur kennt.
2. Wirtschaftspolitisch relevante Forschung ist in aller Regel angewandt, und sie
bringt für andere Wissenschaftler oft wenig Neues. Um innerhalb der Wissenschaften aufzufallen, muÿ eine Arbeit möglichst originell sein. Viele der begabtesten
Ökonomen entscheiden sich für möglichst abstrakt-theoretische Forschung, um
im kompetitiven Wissenschaftsbetrieb Karriere zu machen.
Für ein hohes Ansehen sind ehrenvolle Ämter hilfreich, die von Politikern vergeben werden und dafür auch ein Gegenangebot vom Forscher erwarten.
Für das Ziel der Wahrheitsmaximierung sind die Anreize niedrig, dazu ist eine
intrinsische Motivation nötig. Wer die Wahrheit sagt, ist weder bei Politiker, noch
bei Kollegen beliebt.
Es besteht ein stärkerer Anreiz, auf der Prozeÿebene zu beraten, da sich hier
Politiker als dankbar erweisen können. Der Anreiz zur Beratung auf Ebene des
Grundkonsenses ist niedriger, da hier kein Auftrag besteht und einem somit keine
Dankbarkeit erwiesen wird. Im Gegenteil: Interessengruppen leisten Widerstand,
wo sie Privilegien genieÿen, die zu Inezienz führen. Und Politiker sind über die
unerbetenen Ratschläge verärgert, weil sie nicht daran interessiert sind, die Wähler aufzuklären, da dies den Entscheidungsspielraum und die Handlungsfähigkeit
6.3. EFFIZIENZANALYSE
145
reduziert. Wahrscheinlich ist es nicht möglich, auf beiden Ebenen gleichzeitig zu
beraten, da für die Politiker- und Öentlichkeitsberatung verschiedene Ratschläge
nötig sind. Um Politiker zu beraten, muÿ man ihr Vertrauen genieÿen, und dazu
ist oft eine parteipolitische Bindung nötig. Dies reduziert allerdings die Wirksamkeit bei der Öentlichkeitsberatung. Es ist wohl nicht möglich, das Vertrauen der
Herrschenden und der Beherrschten gleichzeitig zu genieÿen.
6.3 Ezienzanalyse
6.3.1 Beratung auf der Ebene des Grundkonsenses
Wieso sind die Anreize, die Öentlichkeit zu Beraten, so schwach?
Die Beratung der Öentlichkeit leidet an der nötigen starken Vereinfachung, um
verstanden zu werden. Dies wird oft von den Kollegen des Beraters miÿverstanden.
Da die Anreize so schwach sind, könnte man die Beratung der Öentlichkeit überparteilich fördern und Beratung in Form einer Verfassungsinstitution schaen. Die
Gemeinschaftsdiagnose der sechs Forschungsinstitute könnte man als solch eine
Verfassungsinstitution interpretieren. Allerdings werden die Institutspräsidenten
in Übereinstimmung des Wirtschaftsministeriums des Bundes und der Länderregierungen ausgewählt. Die Neutralität ist dann gesichert, wenn im Bund eine
andere Partei regiert als im Land.
Die wirtschaftspolitische Forschung könnte an Universitäten subventioniert werden, wovon jedoch kaum Gebrauch gemacht wird.
Beim Sachverständigenrat geht es ebenso um eine Konsensberatung auf der Verfassungsebene mit unter anderen drei unabhängigen Mitgliedern, die niemanden
vertreten.
Jeder Wissenschaftler will das Neue an seiner Arbeit herausstreichen und das,
was sowieso alle meinen, ist uninteressant. Der Grundkonsens in der Wissenschaft ist allerdings breiter als man normalerweise denkt. Bruno Frey schreibt in
der Zeit vom 7.12.2000: In den wichtigsten Grundfragen stimmen die meisten
Ökonomen durchaus überein: die Unabhängigkeit der Notenbank, Privatisierung
und Deregulierung, Freihandel, eine marktkonforme Umweltpolitik, negative Einkommenssteuer, der Produktivität entsprechende Löhne, Auktionen für Radio-,
Fernsehen-oder digitale Übertragungsfrequenzen - all das sind Stichworte, die eine
Art weltweiten Konsens innerhalb der Volkswirtschaftslehre umkreist. Trotzdem
wird in Zeitungen hauptsächlich der Konikt thematisiert, da dies wirksamer für
die Auage ist.
146
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
Die Konsensinstitutionen haben eine wichtige Rolle, sind jedoch gefährlich für den
Politiker. Wenn die Wissenschaft einig vor die Öentlichkeit tritt, wird es für den
Politiker schwieriger, einen anderen als den empfohlenen Kurs zu fahren, seine
Handlungsfähigkeit ist eingeschränkt. Ein Beispiel dafür ist die Entstehungsgeschichte des Sachverständigenrates, dessen Einrichtung von Erhard ab 1958 gegen
Adenauer betrieben wurde. Zunächst wurde die Gründung immer wieder vertagt,
bis sich Erhard 1963 durchsetzte und das Sachverständigenratgesetz verabschiedet wurde. Daraufhin wurde Adenauer durch Erhard abgelöst und Erhard selbst
bekam Ärger mit dem Sachverständigenrat. Der letzte Versuch, den Sachverständigenrat an die Kette zu legen, bestand darin, die Mitglieder von der Bundesregierung ernennen zu lassen. Auÿerdem steht in Ÿ2, daÿ der Sachverständigenrat
keine Empfehlung über eine bestimmte wirtschaft- und sozialpolitische Maÿnahme aussprechen darf. Dies widerspricht jedoch Ÿ3, wonach der Sachverständigenrat verpichtet ist, Fehlentwicklungen und Möglichkeiten zu deren Vermeidung
oder Beseitigung aufzuzeigen. Der Sachverständigenrat beruft sich auf Ÿ3 und eine Auslegung des Ÿ2, wonach das Gesetz keine Empfehlungsverbote enthält und
nur keine bestimmten i.S. detaillierten Empfehlungen abgegeben werden dürfen.
Insofern bestimmt Ÿ2 lediglich ein Konkretisierungsverbot.
6.3.2 Beratung auf der Prozeÿebene
H.Bonus: Die heutige Praxis sieht so aus, daÿ die Wissenschaft, ähnlich wie früher die Magie, zur Rechtfertigung politisch heikler Entscheidungen benutzt wird,
daÿ sie dem Politiker als Tarnung dient. Die in der politischen Arena umstrittene
Entscheidung soll als durch Sachzwänge diktiert dargestellt werden, denen sich
kein Verantwortlicher entziehen kann. Dahinter verbirgt sich eine schwer nachvollziehbare Entscheidungsscheu und Furcht vor der politischen Verantwortung.
Wieso besteht ein Anreiz zur qualitativ schlechten Beratung und Gefälligkeitsgutachten?
Beratung dient der Legitimation bereits vom Politiker gefällter Entscheidung,
statt einer gestaltenden Beratung. Der Politiker sucht den Ökonom aus dem
gleichen Grunde wie der Betrunkene den Laternenpfahl, nicht zur Erfüllung, sondern als Stütze.
Der Korruptionsvorwurf an den wissenschaftlichen Berater lautet: des Brot ich
ess, des Lied ich sing. Oder in der marxistischen Version: die bürgerliche Wissenschaft ist der ideologische Überbau des Kapitalismus. Allerdings ist die kausale
Richtung der Korrelation fraglich: Es ist nicht nur denkbar, daÿ der Gutachter
so schreibt, wie es dem Auftraggeber gefällt, sondern auch, daÿ der Auftraggeber
sich den Gutachter nach der bekannten Meinung des Gutachters auswählt.
Welche Ezienzprobleme entstehen bei der Vergabe von Gutachten durch die Mi-
6.4. HABERMAS MODELLE
147
nisterien? Forschungsinstitute nanzieren sich zu einem Teil über Gutachten und
bekommen vom Bundeswirtschaftsministerium und den Landesministerien Listen
mit den zu bearbeitenden Themen vorgelegt. Die Themen sind oft unergiebig und
mit extrem speziellen Fragestellungen, wie beispielsweise der Besteuerung von
Sportbooten und verschwinden deshalb oft in den Schubladen der Vorgesetzten.
Der Grund liegt darin, daÿ jeder der Beamten, der ein Thema angibt, aufpassen
muÿ, daÿ er kein Thema vorschlägt, über das schon Publikationen existieren, da
er sich damit als Nichtkenner der Literatur zu erkennen gibt.
Wie läÿt sich die Beratung auf der Ebene der Prozeÿpolitik verbessern? Gefälligkeitsgutachten müssen per Qualitätsanforderung an Berater vermieden werden.
Beim Sachverständigenrat ist das Problem nicht gegeben, denn andere als renommierte Professoren hätten keine Autorität. Und da die Regierung sie ernennt,
werden es nur renommierte Professoren sein.
Sachverständigenratmitglieder können beliebig oft wieder ernannt werden. Wiederernennungen sind am häugsten bei Regierungswechsel. Dies behindert die
Unabhängigkeit und sollte verboten werden.
Gutachten sollten einer Veröentlichungspicht unterliegen, um ein Wettbewerb
der Ideen und Peinlichkeiten in Gang zu bringen.
6.4 Habermas Modelle
Habermas unterscheidet in Technik und Wissenschaft als Ideologie drei Modelle
der wirtschaftspolitischen Beratung.
1. Technokratisches Modell: Der Technokrat bestimmt, was gemacht wird, und
der Politiker segnet wegen Sachzwängen nur noch ab. Der Politiker ist nur
Vollzugsorgan einer wissenschaftlichen Intelligenz. Ihm bleibt eine ktive
Entscheidungstätigkeit, und er ist Lückenbüÿer einer noch unvollkommenen
Rationalisierung der Herrschaft.
2. Dezisionistisches Modell: Der Politiker deniert die Zielfunktion, und der
wissenschaftliche Berater nennt die dafür geeignete Technologie. Dies entspricht dem Tinbergen/Theil-Modell mit einer Arbeitsteilung zwischen Werturteil und Technologie. Dies ist gemäÿ Habermas Neopositivismus, dem
Max Weber und Hans Albert angehören. Dies ist allerdings keine richtige
Interpretation von Albert, der lediglich sagt, daÿ Werturteile im Begründungszusammenhang vermieden werden können und somit nicht als positive
Theorie gedacht sind. Der wissenschaftliche Berater darf sogar Werturteile
abgeben. Es geht bei Albert um die Trennung von positiver und normativer
Aussagen zur Deutlichmachung von den exogenen Zielen.
148
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
Habermas Kritik an dem dizisionistischen Modell ist, daÿ es zwar deskriptiven Wert hat (liegt prototyptisch in den USA vor), aber nicht aus logischen Gründen einer weiteren Reexion entzogen ist. Wenn Rationalisierung
durch Dezisionismus ersetzt wird, dann darf das als ein Sondertatbestand,
aus objektiven Interessenlagen erklärbar, registriert werden. Um ein Verhalten, das sich aus der Sache notwendig ergibt, handelt es sich nicht.
Nach Habermas hat dieses Modell also:
(a) desriptiven Wert.
(b) Es ist möglich,
(c) aber nicht wünschenswert.
Nach Habermas lassen sich positive und normative Aussagen nicht unterscheiden, und Werturteile gehören notwendig in den Bereich der Wissenschaft.
3. Pragmatisches Modell: Dabei geht es um die Entwicklung neuer Techniken
und Strategien aus einem explizit gemachten Horizont von Bedürfnissen
und den geschichtlich bestimmten Interpretationen von Bedürfnissen, einer
vom Wertesystem gesteuerten Situation. Die im Wertesystem gespiegelten
gesellschaftlichen Interessen werden ihrerseits durch Prüfung an technischen
Möglichkeiten und strategischen Mitteln ihrer Befriedigung kontrolliert.
Das heiÿt, es handelt sich um einen interaktiven Prozeÿ von Angebot und
Nachfrage an Strategien vor dem Hintergrund geschichtlicher Wertesysteme. Dieser Interaktionsprozeÿ ndet zum Beispiel im Rahmen der Optimierung bei exiblen Zielen der quantitativen Theorie statt. Es gibt eine
Vorgabe durch Politiker, und der Wissenschaftler sagt, daÿ es sich um zu
viele Ziele handelt und nur eine bedingte Erreichbarkeit möglich ist, woraufhin der Politiker die Zielfunktion modiziert.
Nach Habermas ist dieses Modell
(a) nicht deskriptiv. Das ist allerdings zu kategorisch und in der Regel besteht eine dezisionistische Situation, wonach der Politiker etwas möchte und der Berater sagt, wie es geht. Allerdings ist auch ein Aufstand
der Berater möglich (62 Professoren gegen Maastricht), was dem pragmatischen Modell entspricht und eher untypisch ist. Das Modell hat
also auch deskriptiven Wert.
(b) Die Möglichkeit des pragmatischen Modells beurteilt Habermas skeptisch, da die empirischen Bedingungen für die Anwendung des pragmatischen Modells fehlen, denn praktische Fragestellungen in der Öentlichkeit, sind aufgrund herrschender Interessen nicht möglich. Dafür
gibt es aber auch die Public Choice Erklärung, daÿ die Anreize für
6.5. REALISMUS DER VORSCHLÄGE
149
Wähler, sich zu informieren, äuÿerst gering sind. Die Lösung dafür
bestünde darin, die Informationsanreize für die Wähler durch Dezentralisierung und Referenden zu erhöhen.
(c) Es ist wünschenswert, denn nur das pragmatische Modell ist mit Demokratie vereinbar. Bezogen auf die Demokratie, ist das technische
Modell völlig undemokratisch. Das dezisionistische Modell ist zwar im
Prozeÿ der Beratung nachvollziehbar, aber die Entscheidung muÿ öffentlicher Diskussion entzogen bleiben. Im pragmatischen Modell sind
sowohl der Transmissionmechanismus als auch die Politikwahl öentlicher Kontrolle zugänglich.
Demzufolge ist nur das pragmatische Modell mit Demokratie vereinbar.
Folgende Punkte sind kritisch:
1. Habermas liefert weniger eine positive Analyse des Beratungsprozesses,
denn dieser ist gekennzeichnet durch ein starkes dezisionistisches Element
und Berater auÿer in Sondersituationen wenig ausrichten können, als eine
normative Analyse, wonach ein interaktives, pragmatisches Modell wünschenswert ist.
2. Die Ursachenanalyse muÿ nicht der Habermas entsprechen, wonach es an
der Macht der herrschenden Klassen scheitert. Man könnte auch politökonomisch argumentieren, daÿ lediglich die ökonomischen Anreize nicht stimmen.
Eine Zusammenfassung der Modelle zeigt Abbildung 6.1.
Abbildung 6.1: Habermas Modelle
technokratisch
dezisionistisch
pragmatisch
positiv
deskriptiv
nein
ja
nein
positiv
möglich
nein
ja
vielleicht
unvermeindlich
nein
nein
nein
normativ
wünschenswert
nein
nein
ja
6.5 Realismus der Vorschläge
Sollen die Vorschläge von wissenschaftlichen Beratern realistisch sein? Die eigentliche ökonomische Frage lautet: Was ist eine eziente Beratung? Insofern muÿ
150
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
man vor diesem Hintergrund fragen: Was bedeutet realistisch?
1. Korrekte empirische Annahmen (beispielsweise bezüglich Information, Transaktionskosten, Knappheit) und auch bezüglich der Wirkungszusammenhänge. Vorschläge müssen prinzipiell realisierbar sein.
2. Vorschlag wird mit groÿer Wahrscheinlichkeit aufgegrien.
- Pro: Wenn die wirtschaftspolitische Beratung der Markt ist, der Politiker der Nachfrager und der Wissenschaftler der Anbieter, dann ist
es ezient, wenn der Anbieter sich an der Nachfrage orientiert. Die
Vorschläge müssen für den Politiker also akzeptabel sei. Wenn der
Vorschlag aufgegrien wird, ist das der maximale Beratungserfolg mit
der Restriktionen der Spielregeln der wissenschaftlichen Wahrheitssuche. Wenn die Beratungsvorschläge nicht aufgegrien werden, ist das
gleichbedeutend damit, daÿ das Produkt nicht nachgefragt wird.
- Contra: Bon mot: Die erfolgreichen Berater sind diejenigen, die dem
Politiker das sagen, was er sowieso tun wird. Solch ein Vorgehen reduziert die Wirtschaftswissenschaft auf einen Prognostiker, der das
vorschlägt, was angenommen wird.
Woll: Auf die tatsächliche Realisierungschance braucht die angewandte Wirtschaftstheorie keine Rücksicht zu nehmen. Es ist die Aufgabe
der Politik, den Weg für die bessere Lösung freizumachen und nicht
Aufgabe der Wissenschaft die Geneigtheit in ihr Kalkül zu ziehen.
Die Begründung dafür lautet,
daÿ der Wissenschaftler nicht weiÿ, was realistisch ist. Für neue
Ideen ist keine Nachfrage deniert, sie ist unbekannt. Bei der Beurteilung dessen, was realistisch ist, liegt der komparative Vorteil beim Politiker, wofür der Wissenschaftler nicht ausgebildet
ist. Der Politiker wird dafür bezahlt und danach ausgewählt. Es
gibt eine optimale Arbeitsteilung, bei der der Wissenschaftler untersucht, was wahr und ezient ist und der Politiker was davon
durchsetzbar ist. Der Wirtschaftswissenschaftler stellt den Wegweiser auf und weist dem Politiker die Richtung, dieser muÿ entscheiden, wie weit er auf diesem Weg gehen kann und welche
Kompromisse zu schlieÿen nötig sind. Es ist nicht Aufgabe des
Wissenschaftlers, sich für die nt-beste Lösung einzusetzen. Es ist
unglaubwürdig, diese Lösung mit wissenschaftlicher Autorität zu
unterlegen, nicht weil Kompromisse unmoralisch seien, sondern,
weil politische Restriktionen nicht wissenschaftlich überprüfbar
sind.
6.5. REALISMUS DER VORSCHLÄGE
151
Niemand, nicht einmal der Politiker weiÿ, was durchsetzbar ist.
Das ist das wesentliche Berufsrisiko des Politikers. Die soziale
Marktwirtschaft und exible Wechselkurse waren Reformen, wie
sie zehn Jahre vorher niemand für möglich gehalten hätte.
- Der Wissenschaftler sollte sich nicht an den eigenen Prognosen bezüglich der Durchsetzbarkeit orientieren und es einfach mal probieren.
Für den Politiker ist einfach mal probieren gefährlich, weil beim Versuch das Richtige durchzusetzen, zu scheitern ist schlimmer ist, als
etwas Falsches durchzusetzen. Er wird nicht nach dem Inhalt beurteilt, sondern zeichnet sich durch seinen Sinn für Durchsetzbares aus.
Selbst wenn der Wissenschaftler genau weiÿ, daÿ sein Vorschlag nicht
durchsetzbar ist, hat er eine langfristige Aufklärungsfunktion.
Hudd: Die Aufgabe der Wissenschaftler mag gerade darin bestehen,
daÿ sie Vorschläge vorlegen, die in der gegenwärtigen Situation nicht
realistisch sind, die aber langfristig einen didaktischen Wert haben. Der
Wissenschaftler hat einen komparativen Vorteil, zur Zeit unpopuläre
Wahrheiten vorzutragen, weil er unabhängig und glaubwürdig ist. Sie
sind die Hofnarren, die sich die Gesellschaft hält.
- Fazit: Es ist wohl falsch zu sagen, daÿ die wissenschaftliche Beratung
realistisch sein muÿ.
3. Vorschlag soll wahrscheinliche Veränderung im politischen Prozeÿ antizipieren.
- Pro: Bei der Vorstellung, daÿ der Beratungserfolg zu maximieren ist,
ist Anitizipation nötig.
- Contra: Der Wissenschaftler weiÿ nicht, wie sein Vorschlag verändert
wird. Contra: Aus der Public Choice Theorie ist das ungefähr ableitbar, so daÿ dieses Argument nicht überzeugend ist.
- Wegen der Veränderung, einen anderen Vorschlag zu machen, ist gefährlich, weil der Wissenschaftler damit unglaubwürdig wird, dann er
sagt etwas, was nicht der Wahrheit entspricht.
Giersch: Wahltaktische Überlegung ist nicht Sache des Wissenschaftlers, solange er nicht oen seine Rolle mit der eines Politikers zu vertauschen gedenkt.
- Wenn der Wissenschaftler befürchtet, sein Vorschlag würde kontraproduktiv umfunktioniert, kann er auch schweigen.
In der normativen Wissenschaftstheorie wird diskutiert, inwieweit es
wirtschaftspolitische Atombomben gibt und inwieweit Miÿbrauchspotential, vorallem nach einer wissenschaftlichen Legitimierung, erwächst?
Z.B. decit spending, Umlageverfahren (Samuelsons OLG-Modell von
152
KAPITEL 6. WIRTSCHAFTSPOLITISCHE BERATUNG
1958 ist bei einem unendlichen Zeithorizont logisch korrekt), Regulierung, staatliches Geldmonopol oder Maastricht Konvergenzkriterien,
die über die zukünftige Stabilität des Euro wenig aussagen.
- Fazit: am besten die Veränderung soweit möglich antizipieren. Aber
nicht in dem Sinne, daÿ man falsche Aussagen trit, sondern sich möglicherweise einen Vorschlag verkneift.
Kapitel 7
Wirtschaftspolitische
Entscheidungsverfahren
7.1 Rationalität
Aus den nun folgenden Denitionen der Rationalität sollen die verschiedenen
Aspekte rationaler Entscheidungsndung extrahiert und miteinander verglichen
werden.
Die verschiedenen Aspekte umfassen:
A1: Aussagen über das Zielsystem (Wertrationalität)
A2: Aussagen über die Ziel-Mittelbeziehungen (bei gegebenen Zielen),
A3: Aussagen insgesamt (A1+A2).
1. Max Weber1 : Handlungen, die unter Abwesenheit physischen oder psychischen
Zwanges, leidenschaftlicher Aekte und zufälliger Trübungen der Klarheit des Urteils vollzogen werden und einen klar bewuÿten Zweck durch seine...adäquaten
Mittel verfolgen.
2. Herbert Giersch2 : Rational nenne ich eine (Wirtschaft-) Politik, die planmäÿig
auf die Verwirklichung eines umfassenden, wohldurchdachten und in sich ausgewogenen Zielsystems gerichtet ist und dabei den höchsten Erfolgsgrad erreicht,
der unter den jeweiligen Umständen möglich ist.
3. Manfred E. Streit3 : Rationalität ist ein an der Logik orientiertes Prinzip.
Daraus ergibt sich als zentrale Forderung die Widerspruchsfreiheit von Zielen
1 in
Max Weber: Kritische Studien auf dem Gebiet der kulturwissenschaftlichen Logik, in:
Gesammelte Aufsätze zur Wissenschaftslehre, Tübingen 1973, S. 226
2 in Herbert Giersch: Grundlagen der Wirtschaftspolitik, Wiesbaden 1961, S. 22
3 in Manfred E. Streit: Theorie der Wirtschaftspolitik, Düsseldorf 1983, S. 151
153
154KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
beziehungsweise zielgerichtetem Handeln. Das bedeutet einmal, daÿ Entscheidungsprobleme möglichst weitgehend analysiert werden sollten... Zum anderen
erfordert Rationalität jeweils Abwägung in den Fällen, in denen Ziele sich zwar
nicht widersprechen, aber miteinander konkurrieren, wenn versucht wird, ihnen
durch zielgerichtetes Handeln näher zu kommen.
4. Ludwig von Mises4 : Handeln ist ex denitione immer rational... Die Behauptung, es werde irrational gehandelt (ist) sinnlos, weil mit dem Begri Handeln
nicht vereinbar.
Weber:
A1: klar bewuÿt, ohne Zwang (ohne Restriktionen?, eigentlich kann dann nicht
entschieden werden)
A2: adäquate Mittel (mit einem Wirkungskoezient α 6= 0, Assignmenttheorie:
Zuordnung nach komparativem Vorteil)
A3: Klarheit des Urteils
Giersch:
A1: wohldurchdachtes, in sich ausgewogenes, umfassendes Zielsystem (Der quantitativen Theorie nach bedeutet umfassend, daÿ alle Variablen einbezogen werden
müssen. Das würde unendlich hohe Informationskosten mit sich bringen und ist
somit nicht praktikabel. Zudem sagt die Assignmenttheorie, daÿ nur so viele Ziele, wie Instrumente zur Verfügung stehen, erreicht werden können.)
A2: planmäÿig, zielgerichtet, höchstmöglicher Erfolgsgrad
Streit:
A1: widerspruchsfrei (entspricht das Gierschs Wohldurchdachtheit?)
A3: möglichst weitgehend analysiert (widerspricht wieder den anfallenden Informationskosten und ist nicht ökonomisch.)
Mises:
Jedes Handeln ist rational.
Wenn Informationskosten vorliegen und wirtschaftspolitische Entscheidungen von
ihnen abhängen, werden verschiedene Menschen verschiedene optimale Informationsmengen aufweisen und die Entscheidungen subjektiv sein. Dies führt zu verschiedenen Graden der Rationalität5 :
1. Rationalität bei vollkommener Information (ohne Informationskosten)
Alle verfügbaren Informationen werden verwertet und es herrscht vollkommene
Information.
2. Objektive Rationalität
Entscheidungen werden unter Verwendung der zum betreenden Zeitpunkt öf4 in
Ludwig von Mises: Grundprobleme der Nationalökonomie, Jena 1933, S. 32 f.
Tietzel (1981)
5 siehe
7.1. RATIONALITÄT
155
fentlich zugänglichen und ezient verwertbaren Information getroen. Diese Denition wird bei dem Konzept der rationalen Erwartungen verwendet, wobei unterstellt wird, daÿ öentlicher Zugang auch bedeutet, daÿ die Informationen verwertet werden.
3. Subjektive Rationalität
Entscheidungen werden unter Verwendung der dem Entscheidungsträger zum betroenen Zeitpunkt zugänglichen und ezient verwertbaren Information getroffen. Die Frage ist, inwieweit Informationen ezient verwertbar gewesen sind.
4. Tautologische Rationalität (im Sinne von Mises)
Entscheidungen basieren auf Informationen, die dem einzelnen zum betreenden
Zeitpunkt bewuÿt waren.
Da Denitionen nie richtig oder falsch sind, sondern nur nützlich oder nicht, stellt
sich die Frage, welche der vier Rationalitätsdenitionen nützlich sind.
Denition 1 ist nie und Denition 4 immer anwendbar, somit ist keine der beiden
brauchbar. Die privaten Informationen der Denition 3 sind kaum feststellbar und
darauf aufbauende Theorien somit kaum überprüfbar. Es bleibt die Denition 2
der Rationalität im Sinne der rationalen Erwartungen.
Der Mensch besitzt nur eine begrenzte Menge an Zeit, Informationen und kognitiven Kapazitäten. Zudem ist die Menge der zu berücksichtigenden Alternativen
oft unbegrenzt. Daraus entwickelte sich das Konzept der Bounded Rationality.
H. Simon: Human rational behavior ... is shaped by a scissors whose two blades are the structure of task environments and the computational capabilities of
the actor. 6 Rationalität kann also nicht ohne Bezug auf die Umwelt und die
kognitiven Beschränkungen deniert werden.
Worin bestehen informationskostensenkende Entscheidungsroutinen in der Wirtschaftspolitik, in der eben nicht umfassend analysiert wird. Eine Möglichkeit der
Modellierung ist suchtheoretischer Natur. Es wird ein Anspruchsniveau deniert
und nicht unbedingt das Maximum gesucht und erreicht, sondern nur die Frage beantwortet, ob die Entscheidung dem Anspruchsniveau gerecht wird oder
nicht. Dies ndet typischerweise in sequentiellen Entscheidungen statt. Bei der
ersten Befriedigung des Anspruchsniveaus wird die Entscheidungssuche abgebrochen und die Entscheidung steht fest. Was passiert, wenn das Anspruchsniveau
nicht erreicht wird? Es wird je nach gegebener Zeit für die Entscheidung entweder
weiter gesucht oder des Anspruchsniveau gesenkt (Torschluÿpanik).
6 in
H. Simon, 1990, Invariants of human behavior. Annual Review of Psychology, 41, S.
1-19, siehe auch H. Simon, 1955, A Behavioral Model of Rational Choice, Quarterly Journal of
Economics, 69, S.99-118
156KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
7.2 Phasen des Entscheidungsprozesses
1. Diagnose
(a) Klärung der Ausgangssituation (Randbedingungen)
(b) Falls eine Fehlentwicklung eingetreten ist, muÿ eine Ursachenanalyse, die nicht zukunftsgerichtet ist, sondern die gegenwärtige und die
vergangene Zeit betrachtet, durchgeführt werden.
2. Status Quo Prognose, die der Frage nachgeht, wie die Volkswirtschaft aussehen wird, wenn die Wirtschaftspolitik nichts macht. Die Phasen dieses
Prozesses sind:
(a) Formulierung von Kausalhypothesen, die die Wirkungen der exogenen
auf die endogenen Variablen beschreiben,
(b) Testen (=Überprüfung der Hypothesen anhand der bisherigen Erfahrungen),
(c) Anwendung der Wirkungshypothesen auf die Randbedingungen. Wenn
z.B. die Randbedingung Lohnzurückhaltung bei Tarifverhandlungen
ist und die Hypothese lautet, daÿ bei Lohnzurückhaltung die Arbeitslosigkeit sinkt, dann ist die Status Quo Prognose eine rein logische
Transformation.
3. Feststellung des Handlungsbedarfs in einem Soll-Ist Vergleich, wobei der
Ist-Zustand die Nichthandlung der Wirtschaftspolitik ist. Dazu sind die Ergebnisse der Status Quo Prognose (2) mit den Zielen zu vergleichen. Das
ist wichtig, denn aus einer Fehlentwicklung (1b) folgt nicht automatisch ein
Handlungsbedarf. Massenarbeitslosigkeit führt beispielsweise dann nicht zu
Handlungsbedarf, wenn die Selbstheilungskräfte der Wirtschaft das Problem von alleine lösen. Zwischen einer Fehlentwicklung und einem Handlungsbedarf muÿ also noch die Status Quo Prognose 2 betrachtet werden.
4. Wirkungsprognose bei Handlungsbedarf. Wie ist die Fehlentwicklung, die
wir festgestellt haben, zu beheben? Dazu sind Kausalhypothesen zwischen
den Instrumenten und Zielen nötig, die durch Anwendung auf historische
Daten getestet und anschlieÿend in einer logischen Übung auf die Randbedingungen angewendet werden.
5. Beratung und Entscheidung zwecks Durchführung der Maÿnahme (Therapie)
6. Durchführung der Maÿnahme.
7.2. PHASEN DES ENTSCHEIDUNGSPROZESSES
157
7. Erfolgskontrolle (selten im staatlichen Bereich). Hierfür sind vor allem die
Wirtschaftsforschungsinstitute und Rechnungshöfe wichtig. Dies ist besonders wirkungsvoll, wenn Rechnungshöfe von der Opposition besetzt werden.
7.2.1 Prognosen
1. Status Quo Prognose. Dazu ist zunächst eine genaue Denition der Politikmaÿnahme nötig. Beispielsweise in der Geldpolitik: konstante Geldmen¯
ge (M̄ ), konstantes Wachstum (M̂ ) oder konstante Regel der Geldpolitik
(M̂ = ᾱ + β̄(Y − Y ∗ ) + γ̄(π − π ∗ )). Auf Grundlage vergangener Informationen wird die Zukunft berechnet. Dazu stehen verschiedene Verfahren zur
Verfügung:
- Extrapolation: Auf der Grundlage der vergangenen Daten wird beispielsweise in einem Box Jenkins Verfahren ein ARIMA Modell identiziert und die Zukunft aus der Vergangenheit berechnet. Dabei wird
der Prozeÿ aus der eigenen Vergangenheit vorhergesagt.
yt = α + β1 yt−1 + . . . + βp yt−p
- Frühindikatoren. Hier werden die interessierenden Variablen durch Frühindikatoren (andere Variablen als die eigenen vergangenen) vorhergesagt:
yt = α + γ0 xt + . . . + γq xt−q
- Üblicherweise kommt eine Kombination der beiden vorherigen Verfahren zur Anwendung:
yt = α + β1 yt−1 + . . . + βp yt−p + γ0 xt + . . . + γq xt−q
2. Wirkungsprognose. Dabei geht es um die Wirkung von Instrumenten auf
die interessierenden Variablen.
3. Arten von Prognoseaussagen:
- Qualitative Prognose, Tendenzprognose, Musterprognose, nur die Vorzeichen der Änderung, nur die Möglichkeit bzw. der Ausschluÿ von
Möglichkeiten wird prognostiziert. Nach der Darwinschen Evolutionstheorie ist die Evolution nicht vorhersagbar, da es auch eine Mutation
nicht ist, wohingegen Laplace behauptete, Erlerntes sei vererbbar.
- Quantitative Prognosen
Punktprognose, z.B. Ination für nächstes Jahr wird 2.5% betragen.
158KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Intervallprognose, z.B. Ination für nächstes Jahr wird 2.5%-3.5%
betragen.
Wieso ist die Prognosequalität in den Sozialwissenschaften häug so schlecht?
Die Zahl der potentiell relevanten Einuÿfaktoren ist sehr groÿ, weshalb ja auch
häug die ceteris paribus Annahme als methodischer Kunstgri verwendet wird.
Das Problem haben die Naturwissenschaften ebenfalls in komplexen Systemen wie
dem Wetter, in der Quantenmechanik oder im Krankheitsverlauf in der Medizin.
Viele Einuÿfaktoren sind zudem nicht zuverlässig meÿbar oder beobachtbar, wie
z. B. Präferenzen und Erwartungen. Diese sind nur aus dem Verhalten ableitbar
und bei Befragung werden sie möglicherweise verzerrt angegeben. Diese beiden
Punkte (viele Faktoren und Messbarkeit) führen dazu, daÿ die Parameter (Wirkungsparameter) nur mit erheblicher Unsicherheit geschätzt werden können.
Warum ist das so? Zunächst ist klar, daÿ in der Wirtschaft keine kontrollierten Experimente möglich sind. Kontrolliert heiÿt dabei, daÿ die Randbedingungen exakt
konstant gehalten, viele verschieden dosierte Instrumenteneinsätze durchgeführt
und danach jeweils die Wirkungen auf die interessierenden Variablen gemessen
werden können. Zudem haben die Individuen eine groÿe Entscheidungsfreiheit.
Zu guter Letzt gibt es in der Wirtschaftspolitik noch das Lucasproblem, wo sich
eine Handlung der Wirtschaftspolitik (eine Prognose) auf die zu prognostizierende Variable auswirkt (bei Lucas genauer: auf die Wirkungskoezienten, so daÿ
eine Wirkungsprognose des Instrumenteneinsatzes nur bei Berücksichtigung der
Änderung der Wirkungskoezienten möglich ist). Zum einen gibt es das Phänomen der selfullling prophecy (besser: prediction): eine optimistische Prognose
wirkt sich auf das Investitionsverhalten aus und bestätigt sich dadurch. Die Prognose, daÿ der Euro weich wird, (P̂ = M̂ − η Ŷ + ²∆i, i ≡ r + P̂ e ) führt zu einem
hohen erwarteten Nominalzins und zu einer niedrigeren Geldnachfrage, zu einem
zu hohen Geldangebot, einer höheren Ination und damit zur prognostizierten
Abwertung. Oder es gibt das Problem das selnvalidating prediction z. B. bei
Knappheitserwartungen, wie sie der Club of Rome für Öl vorhersagte, woraufhin Energiesparen einsetzte und neue Quellen erschlossen wurden. Dieser Eekt
beruht auf einer langfristigen Angebotselastizität, die die kurzfristige übersteigt.
Widerlegt eine Fehlprognose die zugrundeliegende Theorie? Ist eine Falsikation
oder Verkation überhaupt möglich? Aus Regelmäÿigkeit in der Vergangenheit
läÿt sich nicht auf die Zukunft schlieÿen, insofern ist nur eine Falsikation möglich, da die Existenz eines Gegenbeispiels nie ausgeschlossen werden kann. Was
kann man aus einer falschen Prognose lernen? Wenn man bei einer falschen Prognose nicht genau weiÿ, was falsch war, könnte man daraus schlieÿen, daÿ eine
Detailfalsikation nicht möglich ist. Popper hingegen behauptet, daÿ es doch
möglich ist, denn es besteht kein logisches, sondern nur ein praktisches Problem,
solange die Anzahl der Teilhypothesen nicht Unendliches ist. Z. B. sagten die
7.2. PHASEN DES ENTSCHEIDUNGSPROZESSES
159
Keynesianer in den sechziger Jahren voraus, daÿ ein Anstieg des Geldmengenwachstums bei einer hohen Arbeitslosigkeit nicht zu einem Anstieg der Ination
führt (naive Phillipskurve). Die Monetaristen behaupteten, daÿ egal wie hoch die
Arbeitslosigkeit ist, ein erwarteter Anstieg des Geldmengenwachstums zu einer
erwarteten Ination führt. In den siebziger Jahren gab es die Stagnation und die
Keynesianer immunisierten ihre Theorie durch die Ausrede, daÿ die Phillipskurve bei Ölschocks und Konzentrationsprozessen nicht mehr gilt und demzufolge
Stagnation kein Widerspruch zur keysianischen Hypothese ist. Es ist typisch, daÿ
bei einer falschen Prognose das Modell durch zusätzliche Hypothesen immunisiert
wird, was wiederum typisch für ein auslaufendes Modell ist. Hierzu gibt es das
Konzept Occams's razor, wonach von zwei Theorien, die die gleichen Erklärungen
liefern, das einfache besser ist, weil es einfacher falsiziert werden kann.
Sind Prognosen und Erklärungen symmetrische Operationen (Symmetriehypothese)? In beiden Fällen liegen Kausalhypothesen vor, und es wird jeweils aus
einer singulären empirischen Aussage eine weitere singuläre Aussage mittels Deduktion (=tautologische Transformation) gewonnen. Logisch handelt es sich um
identische Operationen: Bei der Erklärung ist die Wirkung bekannt, und es wird
auf die Ursachen geschlossen. Bei der Prognose sind die Ursachen (Randbedingungen) bekannt, und es wird auf die Wirkung geschlossen. Bei der Prognose liegt eine Kausalhypothese zwischen der Gegenwart und Zukunft und bei
der Erklärung eine zwischen der Vergangenheit und der Gegenwart vor. Kausalhypothesen eignen sich in unterschiedlicher Weise für Erklärung und Prognose.
Darwins Evolutionstheorie eignet sich zur Erklärung, jedoch nicht zur Prognose
(Mutationen sind nicht vorhersehbar). Die Public Choice Theorie unterstellt den
politischen Entscheidungsträgern überwiegend ein eigennutzmaximierendes Verhalten, schlieÿt aber nicht aus, daÿ auch das allgemeine Interesse verfolgt wird.
Zur Erklärung konkurriert diese Theorie mit dem public interest view und für
Prognosen muÿ man wissen, ob bei politischen Entscheidungsträgern die Eigennutzmaximierung oder public interest Verfolgung überwiegt. ARIMA Modelle
eignen sich beispielsweise gut zu Prognosezwecken, ohne jedoch eine Erklärung
liefern zu können. Obwohl Erklärung und Prognose logisch symetrische Operationen sind, ist die Möglichkeit der Erklärung nicht hinreichend für die Möglichkeit
der Prognose und v.v.
Die Prognosefähigkeit ist eng verknüpft mit wissenschaftstheoretischen7 Überlegungen wie dem Instrumentalismus von Friedman (1953): The only relevant
test of the validity of a hypothesis is comparison of its predictions with experience. D.h. es ist egal, ob der Wirkungsmechanismus erklärbar ist (Black Box)
7 Wissenschaftstheorie
analysiert die Regeln und Verfahren, nach denen Wissenschaftler Untersuchungen durchführen, Theorien aufstellen und Probleme zu lösen versuchen - in der Absicht, die Grundlagen wissenschaftlicher Theoriebildung zu klären und präzisieren sowie der
Kritik und Verbesserung zugänglich zu machen.
160KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
und ebenso, ob die Prognose auf realistischen Annahmen beruht. Dies lieÿe sich
verstehen im Sinne eines als ob: Es ist egal, ob Unternehmen den Gewinn zu
maximieren beabsichtigen oder nicht, entscheidend ist, daÿ nur diejenigen überleben, die es auch tatsächlich tun. Es lieÿe sich auch im Sinne einer notwendigen
starken Vereinfachung in der Ökonomik verstehen, was impliziert, daÿ auch auf
falschen Annahmen beruhende Prognosen richtig sein können. Das Problem bei
den auf falschen Annahmen beruhenden Prognosen besteht darin, daÿ sie bei
einer Änderung des Wirkungszusammenhangs zusammenbrechen.
Was ist das Problem der selfullling prophecies? Predictions sind immer mit einer
wenn-dann Bedingung konstruiert. Prophecies sind im Gegensatz dazu unbedingte Vorhersagen und sind nicht aus einer Bedingung abgeleitet. Die marxistische
Weltrevolution (ebenso wie das jüngste Gericht) werden, egal was passiert, eintreten. Das Problem besteht darin, daÿ dazu keine Anstrengungen nötig sind
und sich die Frage stellt, warum sich die Proletarier vereinigen sollen, wenn die
Weltrevolution sowieso eintritt.
In der Kritik des Historizismus von Popper (1965) wird eine weitere Quelle der
Unsicherheit bei Prognosen deutlich: The course of human history is strongly
inuenced by the growth of human knowledge. We cannot predict, by rational
or scientic methods, the future growth of scientic knowledge. Prognosen sind
notwendigerweise unsicher, da das Wachstum des wissenschaftlichen Wissens (ex
denitione) nicht prognostizierbar ist.
7.3 Groÿe versus kleine Schritte
Eine aktuelle Anwendung der Frage, ob groÿe oder kleine Veränderungen in der
Wirtschaftspolitik besser sind, ist der Übergang von der Zentralverwaltung zur
Marktwirtschaft. Das russische Modell bestand darin, in einem groÿen Schritt
sofort die Zentralwirtschaft abzuschaen, wohingegen das chinesische Modell eher
in einem schrittweisen Übergang zu einem marktwirtschaftlichen System besteht.
Für groÿe Veränderungen stehen Marx (Weltrevolution) oder Mao (Der groÿe
Sprung für China), die beide keine kleinen Reformen befürworten und behaupten,
daÿ Veränderungen nur im groÿen Stil möglich sind.
Bei den Befürwortern der kleinen Veränderungen (Lindblom: disjointed incrementalism) gibt es zwei Hauptströmungen: Hayeks Naturalismus, der auf einer sozialdarwinistisch inspirierten spontanen Evolution aufbaut. Veränderungen sind aufgrund fehlendem Wissen nicht planbar und so ist eine spontane Anpassung und
Bewährung der beste Weg. Der rationalistische Ansatz von Popper ist hingegen
nicht spontan, sondern beruht auf dem kritischen Rationalismus und auf einer
7.3. GROßE VERSUS KLEINE SCHRITTE
161
ständigen Überprüfung von einzelnen Hypothesen (piecemeal reform).
Bei der Analyse ist zwischen extensiv (breit) und intensiv (tief) zu unterscheiden. Extensiv betrit die Zahl der Variablen und die Frage wieviele Variablen
gleichzeitig zu verändern sind. Intensiv betrit die Frage, wie groÿ die Veränderungen bei den einzelnen Variablen sein sollen. Hayeks spontane Evolution ist
beispielsweise wenig extensiv, wohingegen die big bang (cold turkey) Vorschläge
zur Überwindung einer hohen Inationsrate eher intensiv sind.
7.3.1 Extensiv: Pro Holismus
Die Vertreter des Holismus sprechen sich dafür aus, auf breiter Front an allen
Knöpfen gleichzeitig zu drehen.
7.3.1.1 Theorie des Second Best
Lipsey and Lancaster (1956-1957) gehen von einer Situation aus, in der zwei
Verzerrungen gleichzeitig vorliegen. In Abbildung 7.1 sind das beispielsweise unvollkommener Wettbewerb (Monopol) und negative externe Eekte.
Abbildung 7.1: Second best Theorie
p
GKsoz
nd
2
GKsoz
GKpriv
qms q ∗ qmp qw
q
Was ist zu tun, wenn beide Verzerrungen nicht gleichzeitig beseitigt werden können? In der Ausgangslage benden wir uns in qmp , wo nicht die sozialen Grenzkosten GKsoz , sondern lediglich die privaten GKpriv berücksichtigt werden und
der Produzent sich als Monopolist verhält.
162KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Beseitigt man nur das Monopol und nicht auch die negativen externen Eekte,
bekommt man einen Output in Höhe von qw . Allerdings ist das schlechter als
gar nichts tun: |qw − q ∗ | > |qmp − q ∗ |. Das ist so, weil sich die Wirkungen der
beiden Verzerrungen auf den Output kompensieren: die Monopollösung senkt den
Output und die Nichtberücksichtigung negativer externer Eekte erhöht ihn.
Beseitigt man nur die negativen externen Eekte, bekommt man einen Output
in Höhe von qms . Allerdings ist auch diese Lösung schlechter als der Status Quo:
|qms − q ∗ | > |qmp − q ∗ |. Wir bewegen uns zwar in die richtige Richtung, aber über
das Ziel hinaus.
Fazit: Wenn man nur eine der Verzerrung beseitigen kann, ist es oft verkehrt
eine ganz zu beseitigen. Es ist dann besser, gar nichts zu tun. Am besten dreht
man nur teilweise an einer Schraube. Indem man beispielsweise nur eine teilweise
2nd
Internalisierung der negativen externen Eekte zulässt, erhält man mit GKsoz
die
∗
second best Menge q . Das ist allerdings keine (paretianische) rst best Lösung, da
die Preise nicht den Grenzkosten entsprechen. Insofern es keine gute Lösung ist,
nur eine Verzerrung abzubauen, ist das ein Argument gegen punktuelle Reformen.
Es gibt drei Argumente gegen ein auf die second best Lösung q ∗ abzielendes
Vorgehen.
Das Informationsproblem besteht darin, daÿ man nicht weiÿ, wie hoch der optimale partielle Abbau einer Verzerrung sein muÿ. Da man beide Probleme nicht
beseitigen kann, eine optimale partielle Beseitigung nicht kennt, ist es am besten,
gar nichts zu tun. Somit steht man vor einer alles oder nichts Entscheidung.
Wenn eine simultane Beseitigung politisch nicht möglich ist, könnte man versuchen, die Verzerrungen nicht gleichzeitig, sondern hintereinander zu beseitigen.
Da aufgrund des Informationsproblems eine teilweise Beseitigung einer Verzerrung nicht möglich ist, spricht das für einen vollständigen Abbau zunächst einer
Verzerrung, denn wo ein vollständiger Abbau vorliegt, wissen wir.
Das letzte Gegenargument könnte im Sinne einer ökonomischen Atombombe formuliert werden. Eine Argumentation über second best, Informationsproblem und
alles oder nichts Entscheidung führt dazu, daÿ sich in der Politik nichts mehr
bewegt. Es wäre eine wissenschaftlich fundierte Begründung der Erstarrung in
der Politik.
7.3.1.2 Assignment
Wenn ein Instrument auf mehrere Ziele wirkt, sind weitere Instrumente nötig,
die die Wirkung des ersten Instrumentes auf andere Zielevariablen kompensieren.
Wobei die Zuordnung nach dem komparativen Vorteil erfolgen sollte.
7.3. GROßE VERSUS KLEINE SCHRITTE
163
7.3.1.2.1 Verteilungswirkungen. Allokationsverbessernde Maÿnahmen haben oft Verteilungswirkungen zufolge. Dabei ist eine Bewertung schwierig, weil
Einzelne schlechter gestellt werden. Wenn man zum Beispiel mehr Wettbewerb in
Gesundheitsversicherung verlangt (Selbstbeteiligung u.ä.), damit näher am Äquivalenzprinzip ist, führt das zu negativer Verteilungswirkung bei chronisch Kranken und eine Kompensation dieser Verteilungswirkung ist nötig, damit niemand
dabei verliert.
Abbildung 7.2: Schlesische Weber
p
GK1
GK2
p1
p2
k
l
q̄2
q1
q2
q
Ein anderes Beispiel ist aus der Zeit der industriellen Revolution, die mit einem Anstieg der Produktivität aufgrund von arbeitssparendem technischem Fortschritt einherging. Das heiÿt, die Verteilungsposition des Faktors Arbeit hat sich
verschlechtert, insbesondere die der ungelernten Arbeit, die reichlicher vorhanden
war als vorher. In Abbildung 7.2 ist der technische Forschritt der industriellen
Revolution durch eine von GK1 auf GK2 sinkende Grenzkostenkurve dargestellt.
Die Rente der schlesischen Weber, die auch nach der industriellen Revolution mit
der Technologie GK1 produzieren, sinkt. Sie produzieren die Menge q̂2 zum Preis
p2 und ihre Rente ist von kl auf k gesunken. Der wohlfahrtserhöhende Eekt des
technischen Fortschritts führt nur zu einer Paretoverbesserung, wenn die Verlierer
kompensiert werden (Reichszuschüsse).
Oft reicht es demnach nicht, nur ein allokationsverbesserndes Instrument einzusetzen, es bedarf eines weiteren kompensierenden Instrumenteneinsatzes.
7.3.1.2.2 Politische Widerstände. Durch eine Kompensation der Nebenwirkungen kann man erhoen, daÿ politische Widerstände sinken. Dieser Punkt
164KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
ist nicht wohlfahrtsökonomisch orientiert, wie der Punkt über Verteilungswirkungen, sondern folgt eher aus der pragmatischen Beobachtung, daÿ Interessengruppen eher nachgeben, wenn es andere auch tun.
7.3.1.3 Brainard
Bei Optimierung unter Unsicherheit ist der Einsatz aller vorhandenen Instrumente zu empfehlen, um eine Risikodiversikation herbeizuführen.
7.3.1.4 Systemimmitation
Wenn zum Beispiel beim Umbau in Osteuropa keine Entdeckungsmechanismen
nötig sind und bewährte Methoden einfach kopiert werden können, müssen viele
Instrumente gleichzeitig eingesetzt werden.
Hier erfolgen keine spontanen Veränderungen, sondern ein Mechanismus der spontanen Immitation des Erfolgreichen.
7.3.2 Extensiv: Pro punktuelle Reformen
7.3.2.1 Zielrestriktionen
Wirtschaftspolitiker unterliegen häug Zielrestriktionen, und sie können nicht auf
einmal alle Instrumente gleichzeitig einsetzen. Es ist häug unklug, alle Gegner
gleichzeitig zu reizen und einfacher sich auf die Beseitigung einzelner Miÿstände
zu einigen, als auf ein groÿes Paket.
7.3.2.2 Informationskosten
Die Grenzen des Wissens lassen sich ökonomisch als Informationskosten interpretieren, die durch die folgenden Argumente für piecemeal reforms sprechen.
7.3.2.2.1 Miÿstände sind einfacher aufzuzeigen, als Idealkonzeptionen zu
entwickeln.
7.3.2.2.2 Risiko. Kleine Schritte erlauben es, vorsichtiger mit Risiko umzugehen. Eine Totalexposition ist nicht empfehlenswert, denn man sollte nur Risiken eingehen, die man auch verkraften kann, um möglichen Schaden zu begrenzen
7.3. GROßE VERSUS KLEINE SCHRITTE
165
und keine Katastrophe zu riskieren. Zudem ist eine Korrektur bei einem Schaden
einfacher.
7.3.2.2.3 Konservatives Vorurteil nach Edmund Burke:
für den Status Quo spricht im Vergleich mit einer anderen Alternative immer,
daÿ er mehr oder weniger funktioniert und keine Katastrophe darstellt. Ein Konservativer verlangt demnach eine hohe Risikoprämie. Im Gegensatz dazu schlägt
Popper vor, bei einem hohen Risiko nicht nichts zu ändern, sondern in einem andauernden Falsikationsprozeÿ ständig ein wenig, um etwas hinzuzulernen. Das
geht am besten in einer Gesellschaft, die in Zeit und Raum, Gütern, Produktionsfaktoren und Ideen oen ist.8
7.3.2.2.4 Lernen aus Fehlprognosen Nach Popper spricht für piecemeal
reforms weiterhin, daÿ man aus den Prognosen eher bei begrenzten Experimenten etwas lernen kann. Wenn viele Experimente gleichzeitig gemacht werden und
es nicht funktioniert, weiÿ man nur, daÿ die Maÿnahmen in der Summe das gewünschte Ergebnis nicht gebracht haben, aber nicht welche Teilhypothesen falsch
waren. Er schlägt deshalb vor, nur Teilhypothesen zu testen, um zu überprüfen,
woran es lag und nicht von einem System in ein anderes überzugehen. Lernen
funktioniert am besten, indem man in einem Modell nacheinander die Einzelteile
überprüft. Das ist die Denition von piecemeal reforms. Aus Fehlern kann man
demnach nur lernen, wenn man die Experimente begrenzt und so die Ursachen
isolieren kann.
7.3.2.2.5 Dezentralisierung Piecemeal reforms sind kompatibel mit Dezentralisierung. Viele verschiedene Akteure experimentieren im Kleinen und wenn
sich etwas bewährt, wird es zum allgemeinen Prinzip gemacht. Es ist auch mit
Wettbewerb vereinbar und erzeugt dadurch einen Anreiz zur Innovation. Totalexperimente sind dezentral nicht möglich und ein wohlwollender platonischer
Diktator nötig. Das führt direkt zum nächsten Problem des Holismus.
7.3.2.2.6 Diktatur Holistische Systemveränderungen, wie das russische So-
zialismusexperiment, tendieren dazu, in einer Diktatur zu enden. Diskussionen
zielen eher auf das gesamte System und nicht auf Teilhypothesen. Die Führung
wird Kritik dementsprechend als Systemkritik interpretieren, die Lernfähigkeit
unterbinden und letztendlich in Beschränkungen der Meinungsfreiheit enden. Ohne Kritik ist aber die Erfolgskontrolle und damit die Wirkungsabschätzung ver8 Siehe
Popper (1945)
166KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
schiedener Maÿnahmen nicht möglich und selbst wohlwollende Ziele werden nicht
erreicht.
7.3.3 Intensiv: Pro Sofortlösung
7.3.3.1 Schnelle Wirkung
Wenn man erfährt, daÿ morgen der Dritte Weltkrieg ausbricht, ist schnelles Handeln angesagt, wenn also die Wirkung noch rechtzeitig eintreten soll.
7.3.3.2 Abdiskontierung
Aus der quantitativen Wirtschaftspolitik wissen wir, daÿ Instrumente im Allgemeinen dazu eingesetzt werden, die Barwerte von Verlustfunktionen zu minimieren. Abdiskontierung (Ungeduld) spricht für eine sofortige Lösung, denn je früher
man den optimalen Zustand erreicht, desto besser.
7.3.3.3 Inezienz von Zwischenlösungen
Manchmal sind Zwischenlösungen nicht ezient: Eine Umstellung von Links- auf
Rechtsverkehr in England sollte eher sofort im ganzen Land erfolgen, als regional
dierenziert über einen Zeitraum hinweg.
Nach Friedman sind Wechselkurssysteme entweder als Floater oder als (bombenfeste) Fixkurssysteme zu gestalten. Zwischenlösungen, wie z.B. feste, aber
anpassungsfähige Paritäten, sind nicht stabil und führen zu Spekulationswellen
mit einsetzenden Konvertibilitäts- und Kapitalverkehrsbeschränkungen.
7.3.3.4 Instabilität
Dieses Argument ist schon im vorherigen angeklungen. In einem System fester,
aber anpassungsfähiger Wechselkurse sind die Paritäten langfristig nicht glaubwürdig, da, wenn ein Wille zu festen Wechselkursen bestehen würde, es nicht das
Hintertürchen der Anpassungsfähigkeit gäbe. Da das auf den Märkten bekannt
ist, gibt es immer wieder Spekulationsattacken, die das Systems instabilisieren.
7.3. GROßE VERSUS KLEINE SCHRITTE
167
7.3.3.5 Krisentheorie
Nach Bismarck wartet der Politiker wie eine Spinne im Netz, bis sich eine Gelegenheit bietet, die er dann ausnutzen kann (window of opportunity). Dies entspricht
Kohls 1990er Blitzbesuch bei Gorbatchow, der das oene Fenster der Geschichte bemerkte, sofort ausnutzte und die deutsche Wiedervereinigung mit Hilfe der
Strickjackenpolitik einleitete.
7.3.3.6 Wahltaktik
Graduelle Strategien sind politisch eher nicht über Jahrzehnte verfolgbar. Gravierende Probleme sind sofort und mit letzter Konsequenz zu lösen und die Grausamkeiten möglichst sofort nach der Wahl zu begehen, damit sie vor der nächsten
Wahl wieder vergessen sind. Dieses Problem stellt sich beispielsweise nicht bei
unabhängigen Zentralbanken, die es sich leisten können, über mehr als 4 Jahre
hinweg die Ination zurückzufahren.
7.3.4 Intensiv: Pro Gradualismus
7.3.4.1 Unsichere Instrumentenwirkung
Wenn Unsicherheit über die Wirkung des Instrumenteneinsatzes auf Ziele besteht,
ist es womöglich besser, kleine Dosierungen auszuprobieren, um im Prozeÿ lernen
zu können.
7.3.4.2 Erleichterte Erwartungsanpassung
Im Zusammenhang mit Geldpolitik lautet die Überlegung, daÿ eine allmähliche
lineare Entwicklung von z. B. 10% Inationsabsenkung in fünf Jahren dazu führt,
daÿ der Markt in den ersten Jahren die Entwicklung extrapoliert und so die Gefahr einer Stabilisierungsarbeitslosigkeit vermindert ist. Diese Strategie verspricht
die Gröÿe der unerwarteten geldpolitischen Schocks zu vermindern, einerseits,
weil der Schock pro Jahr kleiner ist (10%/5 Jahre<10%/2 Jahre) und andererseits die Schocks in den Folgejahren eher vorausgesehen werden und somit der
unerwartete Anteil kleiner ist.
In den Kopien 72 und 73 sind die Phillipskurven der EMS- und der Nicht-EMSOECD Staaten zu sehen. In den Jahren 80-83 ist die Kurve bei den EMS-Staaten
ach (Gradualismus) und bei den anderen steil (big bang). Die USA und Groÿbritannien haben eine Politik der schnellen Inationsbekämpfung gewählt.
168KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Den folgenden empirischen Untersuchungen liegt die Hypothese zugrunde, daÿ
in einer Demokratie eine gradualistische Strategie nicht glaubhaft ist. Spätestens
vor der nächsten Wahl ist eine Abkehr von dieser Politik zu erwarten. Nur der
Bigbang ist glaubhaft, wenn ersichtlich wird, daÿ die Regierung es ernst meint,
die Inationserwartung einmal grundlegend erschüttert, und so mit einer Inationskultur gebrochen wird. Die Hypothese lautet somit, daÿ extrapolative Erwartungsanpassungen nicht möglich und Grausamkeiten nötig sind, damit jeder die
Ernsthaftigkeit der Inationssenkung glaubt.
Kopie 74 zeigt einen sogenannten Miseryindex (Verlustfunktion), der die Inationsrate und Arbeitslosenquote gleichgewichtet9 addiert. Zu sehen ist in den gradualistischen EMS-Ländern ein Anstieg dieses Indexes von 14.9 auf 15.8 (trotz
Ölschocks in den 70er Jahren) und in den nicht-EMS-Ländern ein Absinken. Das
würde der zu testenden Hypothese entsprechen: in den EMS-Ländern ist keine
klare Erwartungsbildung möglich, die Prognosefehler sind groÿ und die Arbeitsmarkteekte groÿ und negativ.
In Kopie 75 wird eine sacrice ratio gebildet: S = ∆U/(−∆P̂ ). Das Problem
dieser Gröÿe ist eine unklare Abbildung des unerwünschten Zustandes, denn S
ist negativ sowohl bei gleichzeitigem Steigen als auch Sinken der Arbeitslosigkeit
und Ination.
Bei den EWS-Ländern ist noch zu beachten, daÿ in den frühen 80er Jahren ein
Tauziehen zwischen der französischen und deutschen Zentralbank um die Vorherrschaft (n-te Währung) der europäischen Geldpolitik im Gange war, mit jeweils
massiven Interventionen auf den Devisenmärkten. Frankreich kapitulierte 1983
aufgrund von Kapitalucht und eine politique de la rigeur und franc fort10 setzte ein. Eine Bindung des Franc an die DM war 1979 nicht abzusehen und die
Erwartungsbildung entsprechend erschwert.
In Kopie 76 wird die sacrice ratio über Wachstum und nicht Arbeitslosigkeit
deniert und mit der Geschwindigkeit der Disination erklärt. Das negative Vorzeichen besagt, je schneller die Ination abgebaut wird, desto höher ist die sacrice ratio, also die Rezession/Stabilisierungsarbeitslosigkeit. In den Regression 3
und 4 lautet das Ergebnis, je stärker der Rückgang der Ination, desto geringer
die sacrice ratio. In Kopie 76 wird noch zusätzlich die Inationsrate am Anfang
der Stabilisierungsperiode als erklärende Variable aufgenommen. In der Regression eins sieht man, daÿ je höher die Anfangsinationsrate ist, desto geringer ist
die Rezession/Stabilisierungsarbeitslosigkeit. Dies lieÿe sich so interpretieren, daÿ
eine hohe Anfangsinationsrate mit einer weitgehend zerstörten Geldillusion ein9 Das
entspricht nicht der Gewichtung Helmut Schmidts, dem fünf Prozent Ination lieber
als fünf Prozent Arbeitslosigkeit sind.
10 Dieser Begri war eher Wunsch denn Realität und könnte 1984 in Orwells Wahrheitsministerium erfunden worden sein.
7.3. GROßE VERSUS KLEINE SCHRITTE
169
hergeht und somit die sacrice ratio niedriger sein muÿ. Die Regressionen 2 und
4 enthalten zusätzlich die Laufzeit der Tarifverträge. Im Ergebnis führen kürzere
Laufzeiten zu einer geringeren sacrice ratio. Je kürzer die Laufzeit, desto schneller können die Tarifverträge an eine veränderte Inationsentwicklung angepaÿt
werden und desto geringer ist die Stabilisierungsrezession.
Kopie 77 verwendet einige weitere erklärende Variablen. Die Dummyvariable D
zeigt eine signikant höhere sacrice ratio seit 73 an. Die Massenarbeitslosigkeit
setzte ja auch erst nach 73 ein. Die Anfangsinationsrate π0 , die signikant negativ ist, zeigt an, daÿ je höher die Anfangsinationsrate ist, desto geringer die
sacrice ratio, desto niedriger die Stabilisierungsrezession. Das spricht wieder für
eine niedrigere Geldillusion, die Leute passen bei einer hohen Inationsrate genauer auf, was in der Geldpolitik passiert. Die Geschwindigkeit S ist negativ und
manchmal signikant, je höher die Geschwindigkeit, desto niedriger das Opfer.
Die Veränderung der Ination miÿt den Umfang der Veränderung insgesamt und
ist signikant positiv, d. h. je höher die notwendige Anpassung, desto gröÿer das
Opfer. Die Variablen ES, CWN, GMT sind Indizes für die Unabhängigkeit der
Zentralbank. Man würde erwarten, daÿ eine unabhängige Zentralbank eine geringere Stabilisierungsarbeitslosigkeit verursacht, weil sie glaubwürdiger ist. Aber
alle drei Variablen sind signikant positiv, je unabhängiger die Zentralbank, desto höher das Opfer. Eine Erklärung für den positiven Eekt könnte über die
Geldillusion argumentieren, die neben dem Glaubwürdigkeitseekt ein weiterer
Wirkungsmechanismus einer unabhängigen Zentralbank auf die sacrice ratio ist.
Da eine unabhängige Zentralbank eher keine groÿe Ination verursacht, sie nicht
von einer sehr hohen Inationsrate ausgeht und die Bevölkerung ihr festes Vertrauen entgegenbringt, unterliegt die Bevölkerung in einem höheren Maÿe der
Geldillusion. Die Bevölkerung traut unabhängigen Zentralbanken keine hohen
Inationsraten zu und die Alarmierungsfunktion einer hohen Inationsrate tritt
nicht auf. Bei einer positiven Wirkung schlägt die Geldillusion stärker durch, als
die Unabhängigkeit der Zentralbank.
In Kopie 77 wird die Geschwindigkeit der Disination durch die Unabhängigkeit erklärt. Das Ergebnis besagt, daÿ je unabhängiger die Zentralbank ist, desto
allmählicher reduziert sie die Ination. Eine Erklärung könnte sein, daÿ eine unabhängige Zentralbank nicht vor einem Wahlzyklus steht und sich bei der Disination eher Zeit lassen kann.
7.3.4.3 Grenzproduktivität und Hysterese
Bei einem Inationsabbau ergibt sich vorübergehend eine Arbeitslosigkeit. In Abbildung 7.3 bezeichnet L3 die Beschäftigung bei einer langsamen Disination über
drei Jahre und L1 bei einer über ein Jahr. Die Wohlfahrtsverluste im Vergleich
zur Vollbeschäftigung L∗ sind bei einer schnellen Disination höher (l × 3 < kl)
170KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Abbildung 7.3: Abnehmende Grenzerträge versus Hysterese
w/p
k
l
L1 L3
L∗
L
aufgrund einer abnehmenden Grenzproduktivität der Arbeit, da zusätzlich entlassene Arbeitskräfte höhere Produktivitäten haben.
Diesem Vorteil des Gradualismus steht ein Nachteil im Form von Hysterese gegenüber. Demnach sinkt die Produktivität mit der Dauer der Arbeitslosigkeit.
7.3.4.4 Sozialer Frieden
Ein wenig Arbeitslosigkeit über drei Jahre hinweg ist womöglich mit weniger
Unruhe verbunden, als ein Jahr mit hoher Arbeitslosigkeit.
7.3.4.5 Salamitaktik
Kleine Änderungen sind manchmal politisch eher durchsetzbar, weil sie eher weniger wahrgenommen werden (Tyrannei der kleinen Schritte). Im Auÿenhandel
fand beispielsweise nur eine allmähliche Handelsliberalisierung, sowohl in der EU
als auch in den GATT Runden, statt.
7.4 Ebenen der Entscheidungsverfahren
Bei den Ebenen wirtschaftspolitischer Entscheidungen ist zwischen der Wirtschaftsverfassungs - und der Prozeÿebene zu unterscheiden. Eine erste Denition
7.4. EBENEN DER ENTSCHEIDUNGSVERFAHREN
171
der Wirtschaftsverfassungsebene lieferte Walter Eucken11 mit seiner Ordnungspolitik. Das Thema ist: Was soll und was soll nicht der Staat tun? In welchen
Bereichen ist staatliche Wirtschaftspolitik zu betreiben und welche Bereiche sind
marktmäÿig zu organisieren. Dabei handelt es sich um eine Anwendung der Theorie des Marktversagens. Es wird gesagt, was die gute Wirtschaftsordnung ist, eine
Verkündung von der Kanzel herab.
Eine zweite Denition kommt aus der Public Choice Theorie, die zwar nur als positive Theorie konstruiert ist, aber die Theorie des Marktversagens um eine Analyse des Staatsversagens (Inezienz im politischen Prozeÿ) ergänzt. Nach dieser
Denition gilt die Suche nicht der guten Wirtschaftsordnung, wie in der ersten
Denition, sondern dem Verfahren, das ermöglicht, die gute Wirtschaftsordnung
zu nden. Es geht also darum herauszunden, was die gute Wirtschaftsordnung
ist. Der amerikanische Begri dieses Gebietes ist constitutional political economy.
Die Verfahrensordnung behandelt die Frage, wie man staatlichen Zwang rechtfertigen kann. Paretianisch ist das nur durch Konsens auf der Verfassungsebene
möglich. Die Entscheidungsverfahren auf der Mehrheitsentscheidungsebene (Prozeÿebene) können aus der Verfassung (i. S. des Geschäftsgesellschaftsvertrages)
abgeleitet werden. Es muÿ also auf der Verfassungsebene einstimmig beschlossen
werden, was auf der Verfahrensebene nicht einstimmig beschlossen werden muÿ.
Der Vorteil dieser zweiten Denition besteht darin, daÿ nicht doktrinäres, exogenes Heilswissen verkündet wird, wo dann dogmatische Streitereien die Regel
sind. Es ist somit prozedural und nicht dogmatisch. Auÿerdem stellt sie eine operationale Methode dar, um Inhalte der Verfassungsebene zu bestimmen (basisdemokratisch). Aus Sicht der Ökonomen hat die zweite Denition auÿerdem den
Vorteil, daÿ Werturteile nur aus den beteiligten Präferenzen (subjektivistisch)
abgeleitet werden, was eine Paretoverbesserung garantieren soll.
Die Rolle der Ökonomen ist dabei, die paretosuperiore (nicht unbedingt paretooptimale) Lösung zu nden, wobei der Adressat der Bürger und nicht die Regierung
ist. Das heiÿt, die Ökonomen stellen Konsensanbahnungswissen (Vertragswissen,
Maklerfunktion) und nicht Herrschaftswissen bereit. Es gilt also nicht, die Regierung auszuwechseln, sondern die Entscheidungsverfahren zu verbessern.
7.4.1 Zweck der Ebenen
Wozu soll man zwischen der Verfassungs- und der Prozeÿebene unterscheiden?
1. Es wird eine Legitimation für transaktionskostensenkende Entscheidungsverfahren, wie das Mehrheitsprinzip, benötigt. Wenn Wirtschaftspolitik dem
11 Siehe
Eucken (1952)
172KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Allgemeininteresse dienen soll, ist ein Mehrheitsprinzip in allen Bereichen
problematisch. Dies ist nur durch Einigkeit auf der Verfassungsebene möglich, welche Fragen mit der einfachen Mehrheit beschlossen werden können.
Ansonsten kann das Mehrheitsprinzip ein Rückfall in die Anarchie bedeuten, wo das Recht des Stärkeren, in diesem Fall der gröÿeren Fraktion,
gilt. Das Mehrheitsprinzip ist auf diese Weise mit dem Freiheitsprinzip zu
vereinbaren. Die Handlungsfähigkeit wird sichergestellt, damit Fragen, die
schnell entschieden werden müssen, auch tatsächlich schnell entschieden
werden können.
2. Schaung von Informationsanreizen. Auf der Prozeÿebene ist der Anreiz
für Bürger sich zu informieren gering, und steigt, wenn ein Konsens erzielt werden muÿ, weil dort jede Stimme zählt und es auf jeden ankommt.
Die Anreize steigen auch deshalb, weil auf der Verfassungsebene die Fragen wichtiger sind und so eine Sortierung zwischen wichtigen und weniger
wichtigen Fragen möglich ist.
3. Der Schleier der Ungewiÿheit erleichtert die Einigung über Regeln auf der
Verfassungsebene als auf der Prozeÿebene, da man nicht weiÿ, wie sich die
Regeln auf einen selbst auswirken. Normalerweise erschweren Risikoprämien
die Einigung, aber hier geht es um die Abstraktion von eigenen Interessen
und das Denken in kategorischem Imperativ. Beim Vertrag von Maastricht
(Währungsunion) konnte man sich über die Konvergenzkriterien einigen.
In der Konvergenzperiode hätte man sich wohl kaum über die Kriterien
einigen können, wenn jedes Land weiÿ, welche Kriterien es erfüllt und welche
nicht. Es besteht allerdings die Gefahr, daÿ eine Änderung und damit eine
Verschiebungsdiskussion einsetzt.
4. Gröÿere Glaubwürdigkeit dort, wo Glaubwürdigkeit wichtig ist, weil eine
Änderung nur mit qualizierter Mehrmehrheit möglich ist.
Worin bestehen die Spielregeln? Ÿ79,III: Ewigkeitsgarantie, Freiheitsrechte, Föderalismus; Ÿ20: Gewaltenteilung, Sozialstaatsgebot, Demokratiegebot; Ÿ79,II: für
Verfassungsänderung sind qualizierte Mehrheiten nötig.
7.4.2 Analyse des Grundgesetzes
Entspricht das Grundgesetz dem Konsensprinzip der constitutional political economy?
1. Die Bürger haben nie über die Verfassung abgestimmt und auch nicht delegiert, sie sind nie gefragt worden. Die Alliierten wollten eine Volksabstim-
7.4. EBENEN DER ENTSCHEIDUNGSVERFAHREN
173
mung, aber der parlamentarische Rat war dagegen, aus Angst vor den Erfahrungen des Dritten Reichs. Das Argument kann als vorgeschoben gelten,
denn die NSDAP hatte nie die Mehrheit in einer Reichstagswahl, im Juli
1932 37%, im November 1932 31%, also schon auf dem Rückzug, im Januar
1933 wird Hitler von Hindenburg zum Reichskanzler berufen, und im März
1933 erhält sie trotz Propagandaapparat nur 44%. Im März 1933 wird das
Reichsermächtigungsgesetz von einer qualizierten Mehrheit des Reichstages mit Stimmen des Zentrums, der bürgerlichen Parteien und gegen die
SPD akzeptiert. Wenn jemand versagt hat, dann war es der Reichstag und
nicht der Bürger.
2. Selbst wenn die Bürger das Grundgesetz akzeptiert hätten, wie kann man
die nachfolgenden Generationen beteiligen, schlieÿlich ist ein unkündbarer
Vertrag sittenwidrig? In der Schweiz ist jederzeit eine Initiative zur Verfassungsänderung möglich.
3. Die Legitimation der Verfassung ist für alle von Konsensentscheidungsverfahren abweichenden Verfahren erforderlich. Ein Konsens ist dann erforderlich, wenn die Freiheit der Bürger eingeschenkt werden soll, wenn Entscheidungsverfahren legitimiert werden sollen, die nicht mehr selbst ein Konsens
beinhalten, sondern die abgeleitet worden sind aus dem Verfassungskonsens. Ein Konsenszwang kann nur dann gelten, wenn der Staat ermächtigt
wird, Dinge ohne Konsens zu tun. Da Ermächtigungen auch wieder entzogen werden können, ist eine Asymmetrie nötig. Kompetenzen, die die Einschränkung der Freiheit der Bürger erlauben, erfordert ein Konsens auf der
Verfassungsebene. Sollen hingegen Kompetenzen wieder entzogen werden,
ist ein Konsens auf der Verfassungsebene nicht nötig, sondern der Konsens
wird aufgekündigt. Somit ist ein generelles qualiziertes Quorum q (2/3)
für alle Verfassungsänderungen nicht sinnvoll. Es muÿ unterschieden werden zwischen kompetenzerweiternden und kompetenzaufkündigenden Verfassungsänderungen. Bei der ersten Sorte muÿ ein Quorum von q und bei
der zweiten ein Quorum von 1 − q für eine Verfassungsänderung ausreichen.
7.4.3 Senkung der Einigungskosten
7.4.3.1 Entscheidungen auf Verfassungsebene
In Abbildung 7.4 sieht man das Prinzip, wie auf der Verfassungsebene das erforderliche Quorum für die Prozeÿebene festzulegen ist, um dort die Einigungskosten
zu senken. Die Kurve EK bezeichnet die Entscheidungskosten, die mit dem erforderlichen Quorum (x-Achse) ansteigen. Die externen Kosten ExK sind maximal
bei einem Diktator und Null bei Einstimmigkeit. Irgendwo dazwischen liegt das
174KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Abbildung 7.4: Einigungskosten
P
EK
0%
ExK
50% q ∗
100%
P
optimale Quorum, nämlich im Minimum der Summe der beiden Kurven . Es
ist nicht der Schnittpunkt entscheidend, da die beiden Kurven EK und ExK
keine Grenzkosten darstellen. Das optimale Quorum q ∗ beträgt nicht unbedingt
50%, die aus Sicht der constitutional political economy völlig willkürlich sind.
Warum ist trotzdem fast überall ein Quorum von 50% auf der Prozeÿebene zu
beobachten?
1. Das ist das Minimum für eine symmetrische Regel, also eine Regel, bei der
nicht gefragt wird, ob die Kompetenzen des Staates erweitert oder vermindert werden.
2. Quoren über 50% sind zudem stabile symmetrische Regel (wenn man nicht
zwischen ermächtigenden und widerrufenden Gesetzen unterscheidet). 33%
sind beispielsweise nicht stabil, da die anderen 67% jeweils einen gefassten
Beschluÿ wieder rückgängig machen können.
3. 51% sind machtpolitisch gerade noch stabil und maximieren die Macht der
Herrschenden.
Wann sollte in der EU von einer qualizierten Mehrheit abgewichen werden? Bei
hohen externen Kosten auf die Minderheit. Das ist besonders hoch bei heterogenen Interessen/Präferenzen, so daÿ ein hohes Quorum nötig ist. Zum Beispiel
steigen bei einer Osterweiterung wohl nicht nur die Entscheidungskosten, sondern
auch die externen Kosten, so daÿ das optimale Quorum nicht unbedingt sinkt.
7.5. REGELN VERSUS DISKRETION
175
Bei der Entscheidung für das Binnenmarktprojekt waren die externen Kosten
nicht hoch (mehr oder weniger eine Paretoverbesserung) und ein niedriges Quorum
ausreichend.
7.4.3.2 Delegation
Da die parlamentarische Repräsentation der Bürger die Entscheidungskosten senkt,
kann im Parlament im Vergleich zur direkten Demokratie des Quorum gröÿer sein.
Durch den technischen Fortschritt sinken die Informations-/Transaktionskosten,
ist die Delegation immer weniger dringend und plebiszitäre Elemente immer attraktiver. Beispielsweise wird es durch das Internet immer billiger, die Bürger
direkt zu konsultieren.
7.4.3.3 Unabhängige Institutionen
Unabhängige Institution als wirtschaftspolitische Entscheidungseinheiten bieten
sich immer dort an, wo über das Ziel breiter Konsens besteht, der Instrumenteneinsatz kompliziert oder in politischer Hand der Miÿbrauch möglich ist. Der
Grad der Zielerreichung sollte kontrolliert und bei Zielverfehlung die Verantwortlichen sanktioniert werden. Unabhängige Institution sind die Gerichtsbarkeit, die
Notenbank, das statistische Bundesamt und das Kartellamt.
7.5 Regeln versus Diskretion
Wirtschaftspolitische Regeln kommen sowohl als Verfassungsregeln oder auch als
Prozeÿregeln in Frage. Dazu müssen sie sauber deniert werden, wie im Falle der Geldpolitik (konstantes Geldmengenniveau, konstante Veränderung oder
eine Reaktionsfunktion). Beispiele sind Steuertarindizierung, Intervention bei
Wechselkursbandbreiten usw. Ein Ausgestaltungsproblem betrit die Frage, ob
die Regelbindung befristet oder unbefristet sein sollte.
7.5.1 Pro Diskretion
Für diskretionäre Entscheidunge und gegen Regeln spricht (Samuelson), daÿ die
Berücksichtigung der Situation und der Einzelfall möglich ist. Die Entscheidung
sollte demnach vom Informationsstand abhängen.
176KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
7.5.2 Pro Regeln
7.5.2.1 Unvollkommene Information
Auch Samuelson geht von unvollkommener Information aus. Hier ist der Schluÿ
daraus jedoch ein anderer.
7.5.2.1.1 Beim Wirtschaftspolitiker herrscht Unsicherheit über den Wir-
kungskoezienten α des Instruments m als auch bezüglich der Korrelation zwischen α und den Schocks u in z = αm + u.
Formal: Zunächst wird die Zielgröÿe
ŷ = ŷ1 + ŷ2
in die zwei Faktoren ŷ1 und ŷ2 zerlegt. ŷ2 bezeichnet die von der Makroprozeÿpolitik abhängige Komponente und ŷ1 die unabhängige Komponente (Schocks).
Das Ziel soll darin bestehen, mit ŷ2 zu erreichen, daÿ ŷ stabiler ist (Gesamtwirtschaftliche Stabilität ist beispielsweise eine der geldpolitischen Aufgaben) als mit
ŷ1 alleine. Das heiÿt die Variation von ŷ2 ist so zu wählen, daÿ ŷ stabiler ist als
die unabhängige Komponente ŷ1 . Es gilt die Varianz von ŷ zu minimieren.
δŷ2 = δŷ21 + 2 cov(ŷ1 , ŷ2 ) + δŷ22
= δŷ21 + 2 ρ δŷ1 δŷ2 + δŷ22
mit ρ =
cov(ŷ1 , ŷ2 )
δŷ1 δŷ2
= δŷ21 + 2 ρ δŷ1 δŷ2 + δŷ22 + ρ2 δŷ22 − ρ2 δŷ22
= (δŷ1 + ρ δŷ2 )2 + δŷ22 (1 − ρ2 )
Unter welchen Bedingungen ist δŷ2 = 0 (Idealfall)?
a) δŷ22 (1 − ρ2 ) = 0 für ρ = ±1 oder δŷ22 = 0
b) Für (δŷ1 + ρ δŷ2 )2 = 0 muÿ ρ < 0 sein, und bei δŷ1 > 0 muÿ δŷ2 6= 0 gelten.
Es bleibt also nur die Lösung ρ = −1 und δŷ2 = δŷ1 übrig.
Wie können wir erreichen, daÿ δŷ < δŷ1 . Wie muÿ die Varianz der Instrumentvariable sein, damit sich ein Rückgang von δŷ ergibt?
δŷ2 < δŷ21
δŷ21 + 2 ρ δŷ1 δŷ2 + δŷ22 < δŷ21
ρ < −
δŷ22
δŷ
=− 2
2 δŷ1 δŷ2
2 δŷ1
(7.1)
7.5. REGELN VERSUS DISKRETION
177
ρ muÿ negativ sein und einen Schwellenwert unterschreiten. Bei δŷ1 = δŷ2 muÿ
ρ < − 21 gelten. Für die Stabilisierungswirkung reicht eine negative Korrelation
nicht aus, sondern es muÿ ein Schwellenwert unterschritten werden.
Das Problem ist, daÿ ŷ1 und δŷ21 unbekannt sind. Auÿerdem greift immer auch
die Lucaskritik, wonach bei einem Instrumenteneinsatz sich auch die Wirkungskoezienten verändern.
Ein weiteres Problem sind lange und variable Wirkungslags. In Abbildung 7.5 ist
ein Beispiel für die Geldpolitik eingezeichnet. Die gestrichelten Linien zeigen eine
Abbildung 7.5: Lags
Geldpolitik
Schock
M
kM0 /Mt
zusätzliche
Destabilisierung
Y
P
t
1
2
3
4
5
kompensatorische Geldpolitik, in einer Cagan-Wirtschaft mit M = P kY η e−²i .
Die Geldmenge wirke mit einem Lag von 1 Jahr auf die Produktion Y und 2
Jahre auf das Preisniveau P . Im Zeitpunkt 1 ereignet sich ein kontraktiver Geldmengenschock. Die Geldpolitik kompensiert diesen Schock mit einem Diagnoselag
von einer Periode, da erst ∆Y ein interpretierbares Signal ist, mit der Folge, daÿ
in Periode 3 die Produktion zusätzlich destabilisiert wird.
7.5.2.1.2 Beim Marktteilnehmer fallen Risikoprämien an, weil sie nicht
wissen, was die Wirtschaftspolitiker machen werden. Durch eine Regelbekanntgabe könnte man die Sicherheit erhöhen. Da das Wissen darum, welche Regeln
welcher Wirtschaftspolitiker anwendet, ein öentliches Gut ist, sollte man es, wie
aus der Theorie der öentlichen Güter bekannt ist, bereitstellen. Seit 1974 werden
die Geldmengenexpansionsraten der Bundesbank öentlich angekündigt, was eine
178KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
Ankündigung ihrer verfolgten Regel gleichkommt. Wenn die Regeln glaubwürdig
sind, ist das ezientssteigernd.
Ist die Ankündigungswirkung empirisch nachweisbar? Ein Weg ist zu zeigen, daÿ
bei einer Ankündigung die Disinationskosten niedriger sind. Eine Regression für
die BRD im Zeitraum 1950-1978 erbrachte folgende Ergebnisse.
N̂ = −0.19 − 0.17 (ŵ − P̂ e − π e ) + 1.06 P̂ u + 0.30 π̂ u + 0.06 T̂ + 0.05F − 1.55 AP̂ u
(1.63)
(1.95)
(2.82)
(insig.)
(1.81)
Die Variablen sind N̂ Beschäftigung; w Nominallohn; P̂ u die Komponente der
Inationsrate, die ohne Vorankündigung unerwartet gewesen wäre; π e/u Produktionsfortschritt erwartet/unerwartet; T̂ Terms of trade; F Wechselkursregime; A
Vorankündigung=1; Hütchen zeigen Veränderungsraten an. Das negative Vorzeichen von AP̂ u zeigt, daÿ eine unerwartete Ination in Jahren mit vorangekündigter Geldpolitik geringere Eekte auf die Beschäftigung hat. Durch vorangekündigte Politik läÿt sich die Beschäftigungswirkung von Ination reduzieren.
Allerdings besteht ein Problem mit den Koezienten, da |-1.55|<|1.06 eine Überkompensation anzeigt und somit nicht plausibel ist. Möglicherweise ist das auf
eine nicht exakte Messung der unerwarteten Komponente zurückzuführen.
Glaubwürdigkeit reduziert Stabilisierungarbeitslosigkeit. Da Gradualismus weniger glaubwürdig ist, ist ein Big bang vorzuziehen.
7.5.2.1.3 Zeitinkonsistenz ist ein Konzept, das in einem berühmenten Arti-
kel von Barro and Gordon (1983) in die geldpolitische Diskussion gebracht wurde.
Das Makromodell
ŷ = ŷ¯ + α(P̂ − P̂ e ).
wird in die Bewertungsfunktion der Politiker eingesetzt:
1
¯
WP (ŷ, p̂) = − [K1 P̂ 2 − K2 (ŷ − ŷ)]
2
1
= − [K1 P̂ 2 − K2 (α(P̂ − P̂ e ))].
2
und optimiert:
∂WP
1
= −K1 P̂ + K2 α = 0
2
∂ P̂
αK2
P̂ ∗ =
> 0.
2K1
Je stärker sich die unerwartete Ination auf das Wirtschaftswachstum auswirkt,
desto höher ist hatP (α ist die Geldillusion). Je höher das Gewicht K2 des Wirtschaftswachstums in der Zielfunktion des Politikers, desto höher die Ination. K1
bezeichnet die Inationsaversion.
7.5. REGELN VERSUS DISKRETION
179
Die Nutzenfunktion für Marktteilnehmer lautet
1
WM (P̂ , P̂ ) = − [h1 P̂ 2 + h2 (P̂ − P̂ e )2 ]
2
1
= − [h1 P̂ 2 + h2 P̂ 2 − 2h2 P̂ P̂ e + h2 P̂ e2 ],
2
und ihre Optimalbedingung
∂WM
∂ P̂ e
= h2 P̂ − h2 P̂ e = 0
P̂ e∗ = P̂
Die Marktteilnehmer erwarten die tatsächliche Ination und eine Wirkung auf
ŷ stellt sich nicht ein. Es ergibt sich ein inationäres Nash-Gleichgewicht P̂ ∗ =
2
P̂ e∗ = αK
bei der beide Teilnehmer eine negative Nutzenfunktion haben, ohne
2K2
daÿ sich Ination auf das Wirtschaftswachstum auswirkt.
Die Schluÿfolgerung von Barro and Gordon (1983) lautet, daÿ man das Spiel
nicht zulassen sollte. Man muÿ dafür sorgen, daÿ Politiker im voraus klarmachen
können, daÿ für sie K2 = 0 ist. Das führt zu einer optimalen Ination P̂ ∗ =
0. Mit K2 = 0 miÿt der Politiker der Diskrepanz P̂ − P̂ e keinen Wert zu, er
ist lediglich inationsavers. Es ist ihm egal, ob man mit der Geldpolitik das
Wirtschaftswachstum kurzfristig ankurbeln kann oder nicht. Daraus folgt, daÿ
Glaubwürdigkeit nur durch konservative Zentralbanker erreichbar ist, die selbst
vor der Wahl keine Ination zulassen.
Das Zeitenkonsistenzproblem existiert unabhängig davon, ob man Politiker als
wohlwollend oder eigennützig orientiert einstuft. Selbst wohlwollenden Politikern
glauben die Leute nicht, daÿ sie vor der Wahl nicht inationieren werden. Politiker
müssen sich wie Odysseus bei den Sirenen im voraus binden.
7.5.2.2 Verkürzung von Entscheidungslags
Durch Regeln lassen sich Entscheidungslags verkürzen.
7.5.2.3 Public Choice Argumente
Mit Regeln läÿt sich Unnachgiebigkeit gegenüber Interessengruppen etablieren,
wie es die Bundesbank seit ihrer Geldmengenankündigung vorgemacht hat und
seitdem durch die Tarifparteien nicht mehr erpressbar ist.
180KAPITEL 7. WIRTSCHAFTSPOLITISCHE ENTSCHEIDUNGSVERFAHREN
7.5.3 Wieso ist Regelbindung so selten?
Ein Politiker verzichtet ungerne auf Instrumente, denn vor der Wahl ist oft ein
Gri in die Trickkiste nötig.
Wenn man auf Sanktion verzichtet und es nur bei der Vorankündigung beläÿt, ist
jede angekündigte Regel eine Restriktion in der Zukunft. Wenn man nichts ankündigt, kann man im Nachhinein immer sagen, man wollte das, was eingetreten
ist, weil man seine Absicht nicht preisgegeben hat.
Teil II
Anhang
181
Anhang A
Klassische Ökonometrie
A.1 Vorgehensweise
Für die Vorlesung Wirtschaftspolitik ist es nützlich, wenn einige der wichtigsten
Konzepte der Ökonometrie bekannt sind, um die vorgestellten Regressionsergebnisse interpretieren zu können. Die in den Regressionen auftretenden Probleme,
Tests und spezielle Schätzverfahren sollen Gegenstand dieses Skriptes sein. Es ist
nicht direkt prüfungsrelevant und soll lediglich einen Einblick in die ökonometrischen Konzepte liefern, um ein Regressionsergebnis interpretieren zu können.
Dieses Skript dient dazu, den unterschiedlichen ökonometrischen Vorbildungen
der Hörer der Wirtschaftspolitik bei Prof. Vaubel Rechnung zu tragen und ist
damit Ausuÿ der Tatsache, daÿ zumindest grundlegende Konzepte der Ökonometrie noch nicht überall (in Mannheim im Pichtprogramm des Hauptstudiums)
selbstverständlich sind. Einerseits gibt es in Mannheim seit einiger Zeit die empirische Volkswirtschaftslehre des Lehrstuhles Prof. Börsch-Supan im Grundstudium. Diese Vorlesung reicht für die empirischen Diskussionen in der Wirtschaftspolitik bei Prof. Vaubel eigentlich aus. Ebenso natürlich sind die Grundlagen der Ökonometrie des Lehrstuhles Prof. Fitzenberger im Pichtprogramm
des Hauptstudiums, die aber womöglich nicht allen bekannt sind. Damit ergibt
sich der Adressatenkreis dieser kurzen Ökonometrieeinführung: alle, die weder
die empirische Volkswirtschaft im Mannheimer Grundstudium noch die Grundlagen der Ökonometrie des Blocks kennen, Studenten, die von anderen Unis nach
Mannheim gewechselt sind und Studenten anderer Fächer, die Wirtschaftspolitik in irgendeiner Form kombinieren wollen. Kurzum alle, die nicht wissen was
β̂ = (X 0 X)−1 X 0 Y bedeutet, können es hier erfahren.
Dieser Ökonometrieteil ist eine Zusammenfassung des Buches von Thomas (1997).
In Abschnitt A.2 werden die Basics diskutiert (Thomas, Kapitel 1-4). Im näch183
184
ANHANG A. KLASSISCHE ÖKONOMETRIE
sten Abschnitt werden die Güteeigenschaften von Schätzern deniert (Thomas,
Kapitel 5). Anschlieÿend werden die Annahmen des OLS-Schätzers vorgestellt,
die seine Güteeigenschaften sicherstellen (Thomas, Kapitel 7). Der für die kritische Würdigung der empirischen Diskussionen in der Vorlesung Wirtschaftpolitik wichtigste Teil besteht in der Diskussion der Annahmen des OLS-Schätzers
(Thomas, Kapitel 8-15). Dabei soll jeweils erklärt werden, was mit den Güteeigenschaften des Schätzers passiert, wenn die Annahmen verletzt sind, wie man
dies testet und welche Möglichkeit es gibt, trotzdem gute Schätzergebnisse zu
erhalten.
Die Kapitel 7-15 können in einigen Semesterwochenstunden als einführende Ökonometrie in einem vernünftigen Tempo, in einigen Doppelstunden als fortgeschrittene Ökonometrie schnell und in zwei Doppelstunden als Übung zur Wirtschaftspolitik als bebildertes Vokabelheft vermittelt werden. Das Buch von Thomas kann
und soll dementsprechend nicht innerhalb der Wirtschaftspolitik studiert werden.
Die Interpretation von Regressionsergebnissen untersucht folgende Fragen: Macht
das ökonomische Modell Sinn, kann man die Modellvariablen durch die verwendeten Variablen messen (geeignete Proxyvariablen). Diese Fragen müssen im Zusammenhang mit dem zugrunde liegenden ökonometrischen Modell diskutiert werden.
Das Skript hat die eher technischen Fragen zum Gegenstand. Dazu sollen die
Begrie der beiden folgenden Sätze vorgestellt werden. Werden die wichtigen erklärenden Variablen von anderen (Multikollinearität), von der erklärten Variable
(Simultanität) oder dem Störterm (Unabhängigkeit zwischen X und ²) beeinuÿt? Sind weitere kritische OLS-Annahmen getestet (und dokumentiert) (z.B.
Autokorrelation, Homoskedastie, Stationarität,...) und werden durch geeignete
Methoden bei Annahmeverletzung trotzdem gute Ergebnisse erzielt?
A.2 Basics
A.2.1 Zweck der Ökonometrie
Denition der Ökonometrie:
Econometrics has been dened as the application of mathematical
statistics to economic data to lend empirical support to the models
constructed by mathematical economics to obtain numerical estimates. (Samuelson)
In der mathematischen Ökonomie werden Theorien oft in qualitativen Gleichungen ausgedrückt, die eher seltener funktional speziziert sind. Die ökonomische
A.2. BASICS
185
Statistik sammelt und bereitet Daten auf. Die Ökonometrie konfrontiert die theoretischen Modelle mit Daten und versucht mittels statistischer Inferenz aus den
qualitativen Gleichungen eine quantitative Form abzuleiten. Diese Form ist wichtig in der Wirtschaftspolitik. In der Theorie der quantitativen Wirtschaftspolitik
haben wir mit tatsächlichen Werten für die Koezienten von Erklärungsmodellen
gearbeitet, um die Dosierung des wirtschaftspolitischen Instrumenteneinsatzes zu
bestimmen. Diese Koezienten können mit ökonometrischen Methoden aus den
Daten gewonnen werden.
Oft können die in den Modellen verwendeten Variablen nicht genau gemessen werden oder sind überhaupt nicht meÿbar (kaum messbar sind z.B. Erwartungen)
und man behilft sich mit sogenannten Proxyvariablen (z.B. sind für Variablen
wie Euroakzeptanz oder Lebensqualität Proxies nötig; Wechselkurse sind hingegen schon eindeutiger deniert und deshalb eher direkt messbar, wobei bei realen
im Vergleich zu nominalen Wechselkursen sowohl die Denition als auch die Messung schwieriger ist). Ob tatsächlich geeignete Variablen verwendet werden, läÿt
sich nicht mit Hilfe der Ökonometrie, sondern mit der ökonomischen Theorie
beantworten.
A.2.2 Statistische Grundlagen
Die statistischen Grundlagen sollten aus einführenden Statistikvorlesungen bekannt sein. Folgende Begrie bilden die Grundlagen der Ökonometrie und werden hier nicht diskutiert: stochastische/Zufalls-Variable, diskrete/stetige Variable, Wahrscheinlichkeitsverteilung, Mittelwert, Erwartungswert, Varianz, Standardabweichung, Normalverteilung, Standardnormalverteilung, gemeinsame Wahrscheinlichkeit, gemeinsame Wahrscheinlichkeitsverteilung, Randwahrscheinlichkeit, Randwahrscheinlichkeitsverteilung, bedingte Wahrscheinlichkeit, bedingte
Wahrscheinlichkeitsverteilung, bedingter Erwartungswert, bedingte Varianz. Einige elementare Operationen sind:
E(a + bX)
Var(a + bX)
E(aX + bY )
Var(aX + bY )
=
=
=
=
a + bE(X)
b2 Var(X)
aE(X) + bE(Y )
a2 Var(X) + b2 Var(Y ) + 2abCov(X, Y )
Für unabhängige Variablen gilt: E(XY ) = E(X)E(Y ).
A.2.3 Statistische Inferenz
Denition der statistischen Inferenz:
186
ANHANG A. KLASSISCHE ÖKONOMETRIE
Statistical inference is the process of drawing conclusions about a
particular parameter of a statistical distribution. (Encyclopædia Britannica)
In der klassischen Ökonometrie sind die Parameter u.a. die Koezienten eines
Modells. Die gesammelten Daten sind die Stichproben und somit die Realisationen einer statistical distribution. Die Ökonometrie versucht, aus Daten auf die
sie erzeugenden Modelle zu schlieÿen (die Methode ist die induktive Statistik;
Induktion ist das Schlieÿen von Einzelfällen auf die Allgemeinheit, das Gesetzmäÿige). Dazu werden aus den Daten die Schätzer für die zugrunde liegenden
Parameter berechnet. Diese Schätzer sind, wie der Name sagt, Abschätzungen
der wahren Parameter des Modells. Die grundlegende empirische Frage lautet:
Sind die Daten der beobachteten Variablen das Ergebnis von Zufall oder lassen
sie sich auf ein zugrunde liegendes Modell (eine über die Zeit konstante Struktur)
zurückführen. Die klassische Ökonometrie liefert Parameterwerte und Kondenzintervalle um einen Wert herum.
Stichwörter dieses Kapitels sind: Stichprobenvariabilität, Schätzer, Verteilung eines Schätzers, zentraler Grenzwertsatz, Kondenzintervall, Nullhypothese, Teststatistik, Signikanzniveau, Fehler erster und zweiter Art. Die Schritte einer Testprozedur sind: Formuliere Nullhypothese und Alternativhypothese, wähle Teststatistik, wähle Signikanzniveau, formuliere Testkriterium (z.B. lehne H0 ab,
wenn Teststatistik>k; akzeptiere H0 , wenn Teststatistik<k), berechne Teststatistik und wende Testkriterium an.
H0 wird abgelehnt
H0 ist wahr
Fehler I Art
H0 wird angenommen
H0 ist falsch
Wahrschlichkeit=
Power eines Tests
Fehler II Art
Wichtige Verteilungen sind:
Standardnormalverteilung mit Mittelwert 0 und
1: Z ∼ N (0, 1);
PVarianz
n
2
Chi-Quadrat-Verteilung mit n Freiheitsgraden: i=1 Zi ∼ χ2n , wenn Zi ∼ N (0, 1);
Z0
∼ tn , wenn Zi ∼ N (0, 1);
Student-t-Verteilung mit n Freiheitsgraden: √ 1 P
n
2
Xu /u
Xv /v
n
i=1
Zi
∼ F(u,v) ,
F-Verteilung mit (u, v ) Freiheitsgraden:
2
wenn Xn ∼ χn und Xu und Xv unabhängig sind.
A.2.4 Regressionsanalyse
Ausgangspunkt einer ökonometrischen Analyse ist ein Datensatz X und Y . Zu
unterscheiden sind Querschnitts- und Zeitreihenanalysen.
A.2. BASICS
187
Die Daten der Querschnittsanalyse werden zu einem Zeitpunkt gemessen und
umfassen Merkmale von mehreren Beobachtungseinheiten, wie z.B. Haushalte,
Staaten usw. Die Beobachtungseinheiten werden mit i unterschieden. Die Daten
Xi und Yi beschreiben z.B. das Einkommen und den Konsum von n verschiedenen
Haushalten (i = 1, . . . , n). Xi kann auch ein Vektor sein, wenn mehr Merkmale
als nur der Konsum und das Einkommen eines Haushaltes beobachtet werden.
Man spricht dann vom multiplen Regressionsmodell (mit mehreren erklärenden
Variablen).
Im Gegensatz dazu beobachtet eine Zeitreihenanalyse eine Beobachtungseinheit
an mehreren Zeitpunkten. Die Daten Xt bzw. Yt unterscheiden mit t die zu verschiedenen Zeitpunkten gemessenen Merkmale, wie nationales Einkommen, Geldmengenentwicklung der EZB usw.
In einem Koordinatenkreuz abgetragen könnten die Daten Konsum und Einkommen eines Haushaltsquerschnitts etwa Abbildung A.1 entsprechen. Zeitreihendaten können gegen die Zeit t abgetragen werden und zeigen dann den zeitlichen
Verlauf des nationalen Konsums.
Als erste wichtige Entscheidung muÿ eine Annahme über die Kausalitätsrichtung
Abbildung A.1: Daten
r
Y 6
r
r
rr
300
r
r
r
rr
r r
r
50
r
rr
r
r
r
r
r
r
r
-
50
300 X
zwischen den beiden Variablen getroen werden. Die Statistik kann nur Korrelationen liefern, die Kausalität muÿ aus der Theorie abgeleitet werden. (Z.B.: Die
Anzahl der Störche in verschiedenen Regionen sei positiv korreliert mit der Geburtenzahl. Jedoch sind Störche kaum eine theoretisch haltbare Ursache von Geburten.) Im Beispiel würde man sagen, daÿ das Einkommen den Konsum beeinuÿt
und nicht umgekehrt. Damit ist der Konsum die endogene/erklärte/abhängige
(Y ) und das Einkommen die exogene/erklärende/unabhängige (X ) Variable. Das
ist in einem Haushaltsquerschnitt recht klar, jedoch im Falle einer Zeitreihenanalyse mit Makroaggregaten überhaupt nicht mehr, wie weiter unten noch dargestellt wird.
188
ANHANG A. KLASSISCHE ÖKONOMETRIE
Eine weitere Annahme betrit die funktionale Form des Zusammenhanges zwischen den Variablen. Für eine lineare Funktion ergeben sich folgende grundlegenden Gleichungen:
E(Y ) = α + βX
(A.1)
ist die Regressionsgleichung der Grundgesamtheit. Das ist das zugrunde liegende
Modell. Es ist unbekannt und wird gesucht, indem man es postuliert und anhand
der Daten testet. Das ist die Methode des Falsizierens. Eine ökonomische Theorie
läÿt sich demnach nicht verizieren, sondern lediglich falsche Modelle falsizieren.
Y = E(Y ) + ²
Der Störterm ² ist ebenfalls unbekannt. Er bildet den Einuÿ aller anderen Variablen ab, ebenso wie die Eigenschaft menschlichen Verhaltens, daÿ selbst bei
gleicher Konstellation der beeinussenden Variablen ein anderes Verhalten möglich ist.
Ŷ = α̂ + β̂X
(A.2)
ist die Stichprobenregressionsgleichung mit Ŷ als den Vorhersagewert für Y , gebildet aus den Beobachtungen X und den geschätzten Parameter α̂, β̂ .
Wenn Gleichung (A.2) mit dem wahren Modell (A.1) in der funktionalen Form
nicht übereinstimmt, spricht man von falscher funktionaler Form. Die Kausalitätsannahme besagt, daÿ X auf Y wirkt. Wenn gleichzeitig auch noch Y auf X
wirkt, spricht man von Simultanität (also einer weiteren bestehenden Beziehung
zwischen X und Y ) oder Endogenität (der als exogen angenommenen Variablen).
Dieses Problem wird in simultanen Mehrgleichungsmodellen gelöst, wo dann das
Problem der Identikation auftaucht, was jedoch weit über den für Wirtschaftspolitik nötigen Sto hinausgeht. Eine einfachere Methode besteht darin, Instrumentenschätzer zu verwenden, die weiter unten erläutert wird.
e = Y − Ŷ
ist das Residuum (die Dierenz zwischen der Vorhersage der Schätzung und den
tatsächlichen Beobachtungen Y ), das strikt vom Störterm zu unterscheiden ist.
Der Störterm ist eine Eigenschaft des Modells der Grundgesamtheit, nach dem
gesucht wird. Das Residuum ergibt sich aus der Schätzung. Man kann sich die
Residuen als Schätzer für die Störterme vorstellen. Die grasche Repräsentation
dieses Unterschiedes ist in der Abbildung A.2 zu sehen.
Als nächstes soll der OLS-Schätzer (ordinary least squares; auch KQ-Schätzer,
Kleinste-Quadrate-Schätzer) abgeleitet werden. Das Prinzip besteht darin, die
Schätzer α̂, β̂ der Parameter α, β so zu wählen, daÿ die Summe der quadrierten
A.2. BASICS
189
Abbildung A.2: Residuum und Störterm
Y 6
u
E(Y ) = α + βX
Yi
6 6
²
e
?
©Ŷ = α̂ + β̂X
©
?
©
©©
©
©©
©
©
©©
-
Xi
X
Residuen S minimiert wird. Man legt eine Gerade, deren Lage durch ihren Achsenabschnitt α und die Steigung β bestimmt wird, so durch die Punktewolke,
daÿ die (summierte quadrierte) Abweichung der Datenpunkte von der Gerade
minimal wird. Die formale Vorgehensweise ist die folgende:
min S =
α̂,β̂
X
e2i =
X
X
(Yi − Ŷi )2 =
(Yi − α̂ − β̂Xi )2
Zur Minimierung werden die ersten Ableitungen gebildet:
X
∂S
= −2
(Yi − α̂ − β̂Xi ) = 0
∂ α̂
X
∂S
= −2
Xi (Yi − α̂ − β̂Xi ) = 0.
∂ β̂
Nach einigen Umformungen erhält man für die OLS-Schätzer folgende Ausdrücke:
P
β̂ =
P
(Xi − X̄)(Yi − Ȳ )
xi y i
P
≡ P 2
2
xi
(Xi − X̄)
α̂ = Ȳ − β̂ X̄
(A.3)
(A.4)
Überstrichene Variablen bezeichnen die Stichprobenmittelwerte, kleine Variablen
die Abweichung davon. Die Schätzer α̂, β̂ sind eine Funktion der Stichprobenwerte
X ,Y und haben somit ebenfalls eine Wahrscheinlichkeitsverteilung.
Wie gut ist eine Schätzung? Das Bestimmtheitsmaÿ R2 beantwortet diese Frage
(angewendet auf das Haushaltsbeispiel), indem es bestimmt, wieviel der Variation
im Konsum durch die Variation im Einkommen erklärt werden kann. Abbildung
A.3 zeigt die Idee vom R2 .
190
ANHANG A. KLASSISCHE ÖKONOMETRIE
Abbildung A.3: Bestimmtheitsmaÿ R2
Y 6
u
Yi 6
6
ei
©Ŷ
Yi − Ȳ ?
©
©©
©
?6
?Ŷi − Ȳ©©
©
©©
©
©
Ȳ
-
Xi
X
Variation aufgrund von X
Ŷi − Ȳ
+
+
Damit ergibt sich folgende Überlegung:
Totale Variation
Yi − Ȳ
=
=
nicht erklärte Variation
ei
Wendet man dieses Prinzip auf alle Beobachtungen an, ergibt sich ein durch Yi −Ȳ
normierter Ausdruck:
P
P
e2i
β̂ 2 x2i
R =1− P
= P 2 .
yi
(Yi − Ȳ )2
2
R2 kann als Prozentsatz der erklärten Variation an der gesamten Variation der
zu erklärenden Variable Y interpretiert werden. Die Gröÿe ist jedoch nicht geeignet, den Erklärungsgehalt von zwei Regressionen mit verschiedener Anzahl an
erklärenden Variablen zu vergleichen, da jede zusätzliche Variable das R2 nicht
senken kann. Es ist also eine Erhöhung von R2 denkbar aufgrund einer Variable, die keinen Erklärungsgehalt besitzt. Deshalb wird oft ein um die Anzahl an
Variablen k adjustiertes R̄2 berechnet:
P
e2i /(n − k)
R̄ = 1 − P
(Y − Ȳ )2 /(n − 1)
2
Diese Gröÿe muÿ nicht wie das R2 zwischen 0 und 1 liegen.
Einige nicht lineare Zusammenhänge lassen sich ebenfalls mit dem OLS-Verfahren
schätzen, wenn z.B. die funktionale Form Y = aX β angenommen wird, läÿt sich
diese durch Logarithmierung in die lineare Form ln(Y ) = Y ∗ = ln(a) + β ln(X) =
α+βX ∗ bringen, um es dann mit OLS zu schätzen. Ebenso läÿt sich die Form Y =
aeβX durch logarithmieren zu ln(Y ) = Y ∗ = ln(a) + βX = α + βX linearisieren.
A.3. SCHÄTZEREIGENSCHAFTEN UND SCHÄTZMETHODEN
191
A.2.5 Dummyvariablen
Eine häug verwendete Art von erklärenden Variablen sind sogenannte Dummyvariablen, die lediglich die Werte 0 oder 1 annehmen. Wenn eine solche Variable erklärt werden soll (endogen), müssen sogenannte discrete choice Modelle,
wie z.B. Logit oder Probit, verwendet werden.
Mit Dummyvariablen lassen sich qualitative Zusammenhänge abbilden. Z.B. lieÿe sich in einer Querschnittsanalyse mit verschiedenen Ländern mit einer Dummyvariable, die den Wert 1 annimmt, wenn in dem Land Formen der direkten
Demokratie üblich sind, testen, ob direkte Demokratie zu einer niedrigeren Steuerbelastung führen, indem man die Steuerbelastung (wie auch immer deniert)
durch diesen Dummy erklärt. In einer Zeitreihenanalyse lieÿe sich mit einem Saisondummy ein saisonaler Einuÿ testen, indem eine Dummyvariable deniert
wird, die z.B. nur im Sommer den Wert 1 annimmt.
Eine Art der Verwendung von Dummies ist zur Messung eines Einusses auf
den Achsenabschnitt α. Wenn der Dummy D den Wert 1 annimmt, gilt Y =
α+βX +γD = (α+γ)+βX , wohingegen Y = α+βX gilt, wenn D = 0. Es wird so
lediglich ein Einuÿ auf den Achsenabschnitt abgebildet. In dem Beispiel mit der
direkten Demokratie läÿt sich fragen, ob direkte Demokratie die Steuerbelastung
senkt oder hebt, also γ̂ 6= 0.
Mit Dummies kann auch ein (z.B. saisonaler) Einuÿ auf die Steigung getestet
werden. Untersucht man den Einuÿ von verfügbarem Einkommen auf nationalen Konsum in einer Zeitreihenuntersuchung Y = α + βX , lieÿe sich mit einem
saisonalen Dummy D für den Dezember testen, ob sich die Grenzneigung für
Konsum im Dezember ändert: Y = α + βX + γ(XD) = α + (β + γ)X für D = 1
im Dezember und Y = α + βX in allen anderen Monaten.
Eine wichtige Frage lautet: ist der berechnete Schätzer für γ zufällig von Null
verschieden oder ist ein Einuÿ statistisch signikant messbar? Das läÿt sich mit
sogenannten t-Tests beantworten (siehe unten).
A.3 Schätzereigenschaften und Schätzmethoden
Die Güteeigenschaften eines Schätzers lassen sich in small-sample und largesample Eigenschaften einteilen. Die small-sample Eigenschaften gelten schon in
kleinen Stichproben. Wohingegen die large-sample Eigenschaften erst im Grenzfall unendlich groÿer Stichproben gelten.
Wichtig hierbei ist es sich klarzumachen, daÿ Schätzer einer Verteilung unterliegen, da die gewünschten Eigenschaften an der Verteilung des Schätzers ansetzen.
192
ANHANG A. KLASSISCHE ÖKONOMETRIE
Eine technische Erklärung für das Vorhandensein einer Verteilung für Schätzer
ist einfach die, daÿ Schätzer eine Funktion der Stichprobe sind. Die Stichprobe
besteht aus verschiedenen Realisationen einer Zufallsvariable. Die Zufallsvariable
hat denitionsgemäÿ eine Verteilung. Deshalb unterliegt ein Schätzer θ̂, der sich
aus den Stichprobenwerten berechnet, auch einer Verteilung. Die Funktion einer
Zufallsvariable ist eben wieder eine Zufallsvariable. Eine anschaulichere Erklärung kann man sich an einem Beispiel klarmachen. Die Teilnehmer einer Übung
bilden die Grundgesamtheit, deren Durchschnittsalter geschätzt werden soll, ohne daÿ alle gefragt werden müssen. Dazu wird eine zufällige Stichprobe, z.B.
der Gröÿe fünf, entnommen und der Altersdurchschnitt berechnet. Dieses Durchschnittsalter ist der Schätzer für das Durchschnittsalter der gesamten Gruppe
(der wahre Parameter der Verteilung des Alters). Zieht man viele Male fünf Teilnehmer zufällig aus der Gruppe, wird jedes Mal ein anderer Wert für den Schätzer
herauskommen. Daran sieht man, daÿ der Schätzer einer Verteilung unterliegt.
A.3.1 Small-sample Eigenschaften
A.3.1.1 Unverzerrtheit
Ein Schätzer θ̂ für θ, der sich aus den Beobachtungen einer Stichprobe berechnet
θ̂(X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Yn ), ist dann unverzerrt, wenn
E(θ̂) = θ
gilt. Das bedeutet, daÿ, wenn viele Stichproben gezogen werden und jeweils ein
Schätzer berechnet wird, im Mittel der Schätzer den wahren Parameter trit
(siehe Abbildung A.4). Wenn man fünf Studenten nach ihrem Alter befragt, jeAbbildung A.4: Unverzerrtheit
f (θ̂)
6
-
E(θ̂) = θ
θ̂
weils 20 addiert und dann den Mittelwert bildet, erhält man keinen unverzerrten
Schätzer des Durchschnittsalters aller Studenten, sondern einen mit einem Bias
von 20.
Die Verzerrung (Bias) lautet formal: Bias(θ̂) = E(θ̂) − θ.
A.3. SCHÄTZEREIGENSCHAFTEN UND SCHÄTZMETHODEN
193
A.3.1.2 Ezienz
Ein Schätzer ist ezient, wenn er unverzerrt ist und es keinen Schätzer mit einer
kleineren Varianz gibt (auch bester unverzerrter Schätzer genannt). In AbbilAbbildung A.5: Ezienz
f (θ̂)
6
θ̂2
θ̂1 θ̂
E(θ̂1 ) = E(θ̂2 ) = θ
dung A.5 kann θ̂1 nicht ezient sein, da Var(θ̂2 ) < Var(θ̂1 ) und beide Schätzer
unverzerrt sind. Um einen ezienten Schätzer zu nden, müssen alle unverzerrten Schätzer untersucht werden. Das ist mathematisch schwierig, so daÿ man
sich meistens auf die Schätzer beschränkt, die nur eine lineare Funktionen der
Stichprobe sind. Daraus ergibt sich der Ausdruck BLUE (best linear unbiased
estimator).
A.3.1.3 Mean-Squared-Error (MSE)
Es kann sinnvoll sein, einen Trade-o zwischen den beiden Eigenschaften Unverzerrtheit und Ezienz zuzulassen, wenn in einer bestimmten Anwendung die eine
oder die andere Eigenschaft wichtiger ist. Betrachtet man das untere Schaubild,
sieht man einen unverzerrten Schätzer θ̂1 mit einer groÿen Varianz und einen
verzerrten Schätzer θ̂1 mit einer kleineren Varianz. Es kann sinnvoller sein, θ̂2
mit der kleineren Varianz zu wählen und die Verzerrung in Kauf zu nehmen. Der
Abbildung A.6: Mean-Squared-Error
f (θ̂)
6
θ̂2
θ̂1 θ̂
E(θ̂1 ) = θ =
6 E(θ̂2 )
MSE formalisiert in einer Art Verlustfunktion den Trade-o zwischen den beiden
194
Gröÿen:
ANHANG A. KLASSISCHE ÖKONOMETRIE
M SE(θ̂) ≡ E(θ̂ − θ)2 = V ar(θ̂) + [Bias(θ̂)]2 .
Der Schätzer mit dem kleineren MSE ist dann dem mit dem gröÿeren MSE vorzuziehen. In der Denition des MSE sind die Varianz und der Bias gleichgewichtet
(jeweils mit 1). Natürlich sind auch andere Gewichtungen möglich.
A.3.2 Large-sample Eigenschaften
Die large-sample Eigenschaften eines Schätzers werden auch asymptotische Eigenschaften genannt, weil sie im Grenzfall einer unendlich groÿen Stichprobe betrachtet werden. Für die Güte eines Schätzers ist dessen Verteilung und im Falle
der large-sample Eigenschaften dessen Grenzverteilung bestimmend. Z.B. sagt
der zentrale Grenzwertsatz etwas über eine Grenzverteilung (siehe Abbildung
A.7) aus. Mit steigendem Stichprobenumfang geht die Verteilung des Mittelwertes einer Stichprobe in eine Normalverteilung über, unabhängig von der zugrunde
A
liegenden Verteilung der Grundgesamtheit: X̄ ∼ N (µ, σ 2 /n). Die Grenzverteilung
eines Schätzers ist also die Verteilung, gegen die die Verteilung eines Schätzers
strebt, wenn man den Stichprobenumfang erhöht. Im Falle des Mittelwertes strebt
X̄ sogar gegen den festen Wert µ, da σ 2 /n gegen Null geht, wenn n → ∞. Die
Grenzverteilung kollabiert also in einen einzigen Wert. Dazu sagt man: X̄ hat
den Wahrscheinlichkeitslimes µ, plim(X̄) = µ (X̄ converges in probability to µ)
(siehe Abbildung A.8).
Abbildung A.7: Grenzverteilung
f (θ̂)
à n=100
Ã
6
» n=25
»
n=10
´
´
-
θ̂
A.3.2.1 Asymptotische Unverzerrtheit
Ein Schätzer θ̂ ist dann asymptotisch unverzerrt, wenn E(θ̂) → θ, wenn n → ∞,
wenn also der Erwartungswert des Schätzers mit steigender Stichprobe gegen den
wahren Parameter konvergiert. Der Bias geht also gegen Null (siehe Abbildung
A.9).
A.3. SCHÄTZEREIGENSCHAFTEN UND SCHÄTZMETHODEN
195
Abbildung A.8: Wahrscheinlichkeitslimes
f (X̄)
6
à n=10000
Ã
à n=5000
Ã
» n=1000
»
´
´
µ
n=100
-
X̄
Abbildung A.9: Asymptotische Unverzerrtheit
f (θ̂)
n=1000
6
n=10X
X
A
»» n=5000
θ
-
θ̂
A.3.2.2 Konsistenz
Ein Schätzer θ̂ des Parameters θ ist konsistent, wenn plim(θ̂) = θ. Um konsistent
zu sein, muÿ also die Verteilung eines Schätzers in den wahren Parameter kollabieren. Anders formuliert, muÿ mit steigendem Stichprobenumfang der Bias und
die Varianz eines Schätzers gegen Null gehen.
Wenn in Abbildung A.10 der wahre Parameter θ0 ist, dann ist der Schätzer θ̂
inkonsistent, weil plim(θ̂) = θ 6= θ0 .
A.3.2.3 Asymptotische Ezienz
Ein Schätzer ist asymptotisch ezient, wenn er konsistent ist und kein anderer
Schätzer eine kleinere asymptotische Varianz besitzt. Die Verteilung eines ezienten Schätzers konvergiert am schnellsten gegen den wahren Parameter.
196
ANHANG A. KLASSISCHE ÖKONOMETRIE
Abbildung A.10: Konsistenz
f (θ̂)
6
n=1000 n=5000
n=10
θ θ0
-
θ̂
A.3.3 Schätzmethoden
A.3.3.1 Kleinste Quadrate Methode
Diese wurde schon oben für den Fall einer Regressionsgleichung dargestellt. Es
läÿt sich mit dieser Methode z.B. auch ein Schätzer für den Erwartungswert einer
Grundgesamtheit ableiten, der einfach der Mittelwert der Stichprobe ist.
A.3.3.2 Maximum Likelihood (ML) Methode
Diese Schätzmethode ist nicht wichtig für das Verständnis des weiteren Teiles des
Skriptes und dient nur Interessierten.
Die Idee der ML-Schätzer ist sehr intuitiv. Ein ML-Schätzer wählt den Parameter
der Verteilung, der die Eintrittswahrscheinlichkeit der Stichprobe maximiert. MLSchätzer sind unter sehr allgemeinen Bedingungen konsistet und ezient; small
sample Eigenschaften sind jedoch nicht generell postulierbar. ML-Schätzer sind
nur verfügbar, wenn eine Annahme über die funktionale Form der Verteilung in
der Grundgesamtheit getroen werden kann. Wenn
Yi = α + βXi + ²i und Yi ∼ N(α + βXi , Var(²i ) = σ 2 ),
dann hat jedes Yi entsprechend der Normalverteilung die Eintrittswahrscheinlichkeit
[Yi −E(Yi )]2
1
P(Yi ) = √
e− 2σ2 .
2πσ 2
Die (später vorgestellten) Annahmen unkorrelierte und normalverteilte ²i (IIC
und IID) implizieren ihre Unabhängigkeit. Somit läÿt sich die Likelihoodfunktion
L unter der Annahme einer parametrischen Verteilung (hier Normalverteilung)
als gemeinsame Wahrscheinlichkeit der Stichprobe formulieren:
L = P(Y1 ) . . . P(Yn ) =
n
Y
i=1
P(Yi ).
A.4. ANNAHMEN IM MULTIPLEN KQ-MODELL
197
Maximiert wird üblicherweise der Logarithmus der Likelihoodfunktion l, die Loglikelihood, da sich so eine Summe ergibt, die sich leichter als ein Produkt ableiten
läÿt.
X
n
n
1 X
l = ln L =
ln[P(Yi )] = − ln(2π) − ln(σ 2 ) − 2
[Yi − E(Yi )]2 (A.5)
2
2
2σ
Die gesuchten Parameter der Verteilung N(α + βXi , σ 2 ) sind α, β, σ 2 . Der nächste Schritt, um Gleichung (A.5) zu maximieren, wäre die Dierenzierung der
Loglikelihood nach den Parametern, woraus sich dann die Schätzer ergeben. Die
Maximierung
von P
(A.5) nach α̃, β̃ ist gleichbedeutend mit der Minimierung von
P
2
[Yi − E(Yi )] = [Yi − α̃ − β̃Xi ]2 . Und das ist genau der Ansatz für den oben
abgeleiteten KQ-Schätzer bei normalverteilten Störtermen (Gleichung (A.3) und
(A.4)). Der KQ-Schätzer für α, β ist alsoP auch ein ML-Schätzer (α̃ = α̂, β̃ = β̂ ).
2
Als Schätzer für σ 2 ergibt sich σ˜2 = ne . Die Maximierung von Likelihoodfunktionen ist nicht immer so einfach wie im vorliegenden Fall, wo die ersten
Ableitungen einfach gebildet werden konnten. Es kommen dann rechenintensive numerische Algorithmen (z.B. Newton-Verfahren) zum Einsatz, die mit heute
verfügbaren Computern schnell zu den gesuchten Schätzern führen.
A.4 Annahmen im multiplen KQ-Modell
Um die gewünschten Eigenschaften von KQ-Schätzern zu erhalten, sind einige
Annahmen nötig. Kritik an ökonometrischen Schätzungen setzt dementsprechend
an diesen Annahmen an. In der Ökonometrie wurden viele Tests entwickelt, die
prüfen, ob diese Annahmen erfüllt sind, so daÿ die gewünschten Eigenschaften
von Schätzern tatsächlich vorliegen. Wenn die Annahmen verletzt sind, können
spezielle Schätzverfahren verwendet werden, die trotzdem die gewünschten Eigenschaften sicherstellen. Nachdem die Annahmen vorgestellt werden, soll nach
einer einheitlichen Struktur vorgegangen werden. Die Annahmen bilden die Gliederung. Es wird dann das Problem dargestellt, das eintritt, wenn die Annahme
nicht erfüllt ist. Danach werden Tests zur Aufdeckung der Annahmeverletzung
erklärt. Und anschlieÿend werden Methoden zur Lösung des Problems erläutert.
Zunächst sollen die OLS-Schätzer im multiplen Modell abgeleitet werden. Ausgangspunkt ist die Gleichung
Yi = β1 1 + β2 X2i + · · · + βk Xki + ²i .
In Querschnittsanalysen bezeichnen die i die einzelnen Beobachtungseinheiten.
In einer Zeitreihenanalyse würde man die i durch t ersetzen und damit die Beobachtungszeitpunkte bezeichnen. Die Xki sind k erklärende Variablen, X1i = 1 ist
die Konstante. In Matrixschreibweise läÿt sich das Modell kompakter schreiben:
Y = Xβ + ²
198
mit
ANHANG A. KLASSISCHE ÖKONOMETRIE




Y =


Y1
Y2
Y3
..
.








,
X
=






Yn
1 X21
1 X22
1 X23
..
..
.
.
1 X2n
X31 . . .
X32 . . .
X33 . . .
..
.
Xk1
Xk2
Xk3
..
.








,
β
=






X3n . . . Xkn
β1
β2
β3
..
.








,
²
=






βk
²1
²2
²3
..
.




.


²n
Die fett gekennzeichneten Symbole sind Matrizen und Vektoren. Aus den Residuen e und deren summierten Quadraten e0 e ergibt sich die Ableitung der
OLS-Schätzer
min S = e0 e = (Y − X β̂)0 (Y − X β̂)
β̂
= (Y 0 − β̂ 0 X 0 )(Y − X β̂)
= Y 0 Y − β̂ 0 X 0 Y − Y 0 X β̂ + β̂ 0 X 0 X β̂
= Y 0 Y − 2β̂ 0 X 0 Y + β̂ 0 X 0 X β̂.
(β̂ 0 X 0 Y ) = (β̂ 0 X 0 Y )0 = Y 0 X β̂ , da die transponierte eines Skalars ein Skalar
1×k k×n n×1
ist. Erste Dierenzierung (nach den Regeln ∂x0 Ax/∂x = 2Ax, bei symmetrischem A; ∂a0 x/∂x = ∂x0 a/∂x = a) ergibt:
∂S
∂ β̂
= −2X 0 Y + 2X 0 X β̂ = 0.
Daraus berechnet sich der OLS-Schätzer
β̂ = (X 0 X)−1 X 0 Y .
Dieser Ausdruck ist die Matrizenversion von Gleichung (A.3) auf Seite 189. Dort
werden die Abweichungen zum Mittelwert verwendet, weil für α ein gesonderter Schätzer berechnet wird. In der Matrizenversion wird der Schätzer für die
Konstante gleich mitberechnet, denn er ist eine Linearkombination der Stichprobenmittelwerte (Gleichung (A.4)) und deshalb sehr ezient durch Matrizen
darstellbar.
Das OLS-Modell wurde in der Physik für die Anwendung in Laborexperimenten
entwickelt, wobei als Experiment der Wert der erklärenden Variablen X gewählt
wird (Annahme IA). Insgesamt ergeben sich die folgenden Annahmen (im Falle
einer einzigen erklärenden Variable):
(physikalische)
Annahmen über die erklärende Variable X :
A.4. ANNAHMEN IM MULTIPLEN KQ-MODELL
199
(IA) nicht-stochastisch;
(IB) xierte Werte in wiederholten P
Samples;
P 2
(IC) für n → ∞ strebt die Varianz (Xi − X̄)2 /n =
xi /n → Q, wobei Q eine
endliche Konstante ist.
Die Annahmen IA und IB machen in der ökonomischen Anwendung der Regressionsanalyse selten Sinn. Es gibt erst in dem recht neuen Gebiet des experimental
economics Experimente, in denen die erklärende Variable auf einen bestimmten
Wert xiert werden kann. Deshalb werden diese Annahmen für ökonomische Anwendungen abgeändert (nun für den Fall mit mehreren erklärenden Variablen):
(ökonomische)
Annahmen über die erklärenden Variablen X k
(IA') stochastisch;
(IB') unabhängig von allen ²i ;
P
(IC') Varianzen, für die gilt: plim x2ki /n = Qk = konstant < ∞;
(ID') alle sind linear unabhängig: ∃ (X 0 X)−1 ⇔ |X 0 X| 6= 0.
Annahmen über die Störterme ²
(IIA) E(²i ) = 0 ∀ i;
(IIB) Var(²i ) = E(²i − E(²i ))2 = E(²2i ) = σ 2 = konstant ∀ i;
(IIC) Cov(²i , ²j ) = E(²i − E(²i ))(²j − E(²j )) = E(²i ²j ) = 0 ∀ i 6= j ;
(IID) jedes ²i ist normalverteilt.
Welche Annahmen sichern die small- und large-sample Eigenschaften des OLSSchätzers?
Linearität
Unverzerrtheit
Konsistenz
Best linear unbiased
Best unbiased
Normalität
IA, IB
IA, IB, IIA
IA-IC, IIA
IA-IC, IIA-IIC
IA-IC, IIA-IID
IID
Das waren die Implikationen der (physikalischen) Annahmen IA-IC. Die (ökonomischen) Annahmen IA'-IC' haben jedoch keine schwerwiegenden nachteiligen
Auswirkungen auf die Güteeigenschaften. OLS-Schätzer bleiben unverzerrt, sind
aber nicht mehr linear, also auch nicht mehr best linear unbiased. Sie sind auch
ezient, haben also die kleinste Varianz aller unverzerrten Schätzer. Sie behalten
auch die large-sample Eigenschaften Konsistenz und asymptotische Ezienz.
200
ANHANG A. KLASSISCHE ÖKONOMETRIE
A.5 Allgemeine Tests
A.5.0.0.1 Signikanz der Koezienten Mit Annahme IID wissen wir, daÿ
die Schätzer normalverteilt sind und sich ihre Verteilung standardisieren läÿt:
β̂ − β
∼ N(0, 1).
σβ̂
Wird die unbekannte Standardabweichung des Schätzers σβ̂ durch seinen unverzerrten Schätzer ersetzt, ergibt sich für die OLS-Schätzer eine Student-t-Verteilung
mit n − k Freiheitsgraden. Der wichtigste Test prüft, ob eine erklärende Variable
einen signikanten Einuÿ auf die erklärte Variable hat. Die Frage ist also, ob
der Koezient der erklärenden Variable signikant von Null verschieden ist. Die
Darstellung von Regressionsergebnissen sieht üblicherweise folgendermaÿen aus:
Y = 1.2 + 0.6 X.
(0.5)
(0.25)
Die Werte unter der Klammern bezeichnen den Standardfehler der erklärenden
Variable. Formuliert man die Nullhypothese H0 : β = 0 und die Alternativhypothese H1 : β > 0 (einseitiger Test; zweiseitig bei H1 : β 6= 0) ergibt sich
die Teststatistik (t-Wert) als 0.6−0
= 2.4, die unter der Nullhypothese t-verteilt
0.25
ist. Man kann dann einen kritischen Wert in einer Tabelle nachschlagen. Für
n − k = 30 ergibt sich bei einem Signikanzniveau von 5% ein kritischer Wert
von 1.697. Somit kann man sagen, daÿ β signikant von Null verschieden ist, da
der t-Wert = 2.4 > 1.697. Oft wird in den Klammern unter den Koezienten
direkt der t-Wert ausgewiesen. Als Daumenregel gilt, daÿ ein t-Wert über zwei
Signikanz einer Variablen anzeigt.
Ein weiterer Begri ist der p-Wert (p-Value). Er zeigt direkt das Signikanzniveau
an. Der p-value ist die Wahrscheinlichkeit, einen t-Wert, wie man ihn ausgerechnet hat oder gröÿer, unter der Nullhypothese zu erhalten. Er zeigt somit auch den
Fehler I. Art an, also die Wahrscheinlichkeit eine richtige Nullhypothese fälschlicherweise abzulehnen. Für ein Signikanzniveau von 5% muÿ der p-value unter
5% liegen. Wenn also die Nullhypothese gilt β = 0 (dazu sagt man auch einfach
unter der Nullhypothese) und wir einen t-Wert berechnen, der nur mit einer
Wahrscheinlichkeit von z.B. 1% eintritt, zweifeln wir an der Nullhypothese und
sagen, daÿ β signikant von Null verschieden ist.
A.5.0.0.2 Jarque-Bera-Test Die Annahme IID besagt, daÿ die Störterme
normalverteilt sind. Diese Annahme wird bei t-Tests und F-Tests verwendet, um
die Verteilung der Schätzer zu erhalten und damit Inferenz über die Regressionsparameter zu betreiben. Für groÿe Stichproben wird die Normalität der Schätzer
A.5. ALLGEMEINE TESTS
201
nicht benötigt, da hier eine Variation des zentralen Grenzwertsatzes zur Anwendung kommt. Wenn diese Inferenzaussagen jedoch auch in kleinen Stichproben
gelten sollen, dann müssen die Störterme normalverteilt sein.
A.5.0.0.3 Lineare Restriktionen der Parameter Ein ähnlicher Test wie
der t-Test ist der F-Test. Er heiÿt so, weil die Teststatistik F-verteilt ist. Dieser Test prüft, ob mehrere Variablen gleichzeitig von Null verschieden sind, z.B.
H0 : β1 = β2 = 0. Das ist ein Spezialfall einer allgemeinen linearen Restriktion
der Parameter. Mit einem solchen allgemeinen F-Test lassen sich alle möglichen
linearen Restriktionen der Parameter
testen. Z.B. läÿt sich die Frage stellen, ob
P
β1 + β2 = 0 oder allgemein
ai βi = c ist. Die allgemeine Vorgehensweise ist die,
daÿ man einerseits die unrestringierte und andererseits die restringierte Gleichung
schätzt. Die restringierte Gleichung ergibt sich, indem man die zu testenden Parameterrestringtionen in die unrestringierte Gleichung einsetzt. Testet man z.B.
in der unrestringierten Gleichung Y = α+β1 X1 +β2 X2 die Hypothese β1 +β2 = 1,
lautet die restringierte Gleichung Y = α + β1 X1 + (1 − β1 )X2 , woraus sich die
restringierte Schätzgleichung Y − X2 = α + β1 (X1 − X2 ) ergibt. Schätzt man diese und die unrestringierte Gleichung, ergibt sich aus den Residuen dieser beider
Schätzungen eine Teststatistik, die die Frage beantworten kann, ob man davon
ausgehen kann, daÿ die Restriktion gilt.
Ein häug angegebener Wert ist der sogenannte F-Wert. Das ist die Teststatistik
für die Nullhypothese, daÿ die Koezienten aller erklärenden Variablen Null sind.
A.5.0.0.4 Nichtlineare Restriktionen der Parameter Es lassen sich auch
nichtlineare Restriktionen der Parameter testen (z.B. β1 β2 = 1). Da hierfür meistens nichtlineare Gleichungen geschätzt werden müssen, basieren diese Tests auf
Maximum-Likelihood-Verfahren. Die Tests hierfür sind Likelihood-Ratio-, Waldund Lagrange-Multiplier-Test. Sie unterscheiden sich im wesentlichen dadurch, ob
die restringierte, unrestringierte oder beide Gleichungen geschätzt werden müssen. Je nachdem, welche dieser Gleichungen einfacher formuliert werden kann,
verwendet man dann den entsprechenden Test.
A.5.0.0.5 Chowtest für Parameterstabilität Die oben dargestellten Methoden, die Dummyvariablen zu verwenden (für den Achsenabschnitt und die
Steigungskoezienten), lassen sich auch nutzen, um Parameterstabilität zu testen. Es gibt a priori keinen Grund anzunehmen, daÿ sich geschätzte Parameter
im Zeitablauf nicht ändern. Insbesondere sagt die Lukascritique voraus, daÿ sich
bei einer veränderten Politik das Verhalten der Wirtschaftssubjekte und damit
die Parameter eines Modells ändern werden. Will man zwei Zeiträume vergleichen
und die Frage beantworten, ob sich zwischen diesen Zeiträumen die Parameter
202
ANHANG A. KLASSISCHE ÖKONOMETRIE
verändert haben, deniert man eine Dummyvariable D, die für einen Zeitraum
den Wert 1 und für den anderen den Wert 0 annimmt. Die Idee des Tests läÿt
sich an einer Gleichung am besten verdeutlichen. Man schätzt eine Gleichung
über den gesamten Zeitraum in der Form
Y
= β1 + α1 D + β2 X2 + α2 X2 D + β3 X3 + α3 X3 D + ²
= (β1 + α1 )D + (β2 X2 + α2 )X2 + (β3 X3 + α3 )X3 + ²
(A.6)
Wenn die Koezienten α1 , α2 , α3 gemeinsam signikant von Null verschieden sind
(F-Test), zeigt das, daÿ die Parameter β1 , β2 , β3 zwischen den beiden Zeiträumen
nicht stabil, ungleich sind αi 6= αi + βi bei αi 6= 0 . Das tatsächliche Schätzverfahren weicht von dieser intuitiven Darstellung ab, ist aber genau äquivalent dazu.
Es wird die Gleichung ohne Dummies für beide Zeiträume separat geschätzt und
aus den Residuen eine Teststatistik berechnet.
Ein Problem mit diesem Test entsteht, wenn einer der beiden Zeiträume so kurz
ist, daÿ keine Gleichung geschätzt werden kann. In diesem Fall wird eine Variation des Parameterstabilitätstests verwendet, der Chow test for predictive
failure. Die zugrunde liegende Idee ist, daÿ die Vorhersagen Ŷ einer Schätzung
bei Parameterstabilität nicht allzuweit von den tatsächlich beobachteten Werten
Y abweichen dürfen. Wenn z.B. einer der beiden Zeiträume 70-98 und der andere 99-00 ist, wird die Gleichung für den ersten Zeitraum geschätzt und mit
den erhaltenen Schätzern eine Vorhersage für den Zeitraum 99-00 gemacht. Die
Abweichung dieser Vorhergesagten von den tatsächlichen Werten geht in eine
Teststatistik ein, die die Frage nach der Parameterstabilität beantworten kann.
Ein weiteres Problem besteht darin, daÿ vor jeder Schätzung ein Zeitpunkt für
die Parameteränderung festgelegt werden muÿ. Weiterführende Modelle nehmen
nur die Anzahl der Zustände des Parameters an. In Gleichung (A.6) hat βi zwei
Zustände.
A.6 Annahmendiskussion
A.6.1 Annahme IB: Unabhängigkeit zwischen Störterm und
Erklärenden
Die Verletzung der Annahme der Unabhängigkeit zwischen dem Störterm und
den Erklärenden ist in der Grak A.11 zu sehen.
Die durchgezogene Linie zeigt einen hypothetischen (wahren) Zusammenhang
zwischen X und Y . Zu sehen ist eine positive Korrelation zwischen X und den
Störtermen, je gröÿer X , desto gröÿer die Störterme.
A.6. ANNAHMENDISKUSSION
203
Abbildung A.11: Abhängigkeit zwischen Erklärenden und Störterm
r
Y 6
r
r
Ŷ = α̂ + β̂X
rr
r rÃr E(Y ) = α + βX
r
ÃÃ
r
Ã
r
rr
ÃÃ
Ã
r
Ã
Ã
r
Ã
rà r
Ã
r
r r
r
r
r
-
X
A.6.1.0.1 Problem Die OLS-Schätzung in Form der gestrichelten Linie wür-
de mit β̂ das wahre β überschätzen und α unterschätzen. Das ist im kleinen
Sample der Fall und ändert sich auch nicht mit der Gröÿe des Samples, d.h. die
Verzerrung im kleinen Sample kann nicht durch Erhöhung des Stichprobenumfanges behoben werden. Der Schätzer ist also auch inkonsistent.
In Zeitreihenuntersuchungen läÿt sich ein weiterer Fall anführen: Bei
Yt = α + βYt−1 + ²t
(A.7)
liegt eine Regression mit einer verzögerten (gelaggten von lag) endogenen Variable vor. Schreibt man diese Gleichung um einen Zeitpunkt nach hinten versetzt,
wird klar, daÿ Yt−1 von ²t−1 abhängt. Somit ist die Erklärende Yt−1 in Gleichung
(A.7) nicht von allen ²t unabhängig. Dieser Fall nennt sich contemporaneously
uncorrelated. Es ergeben sich insgesamt drei Fälle:
1. Unabhängigkeit der erklärenden Variablen X und ²: OLS-Schätzer sind unverzerrt und konsistent;
2. Contemporaneously uncorrelated (siehe Beispiel in Gleichung (A.7)): OLSSchätzer sind verzerrt, aber zumindest konsistent;
3. Contemporaneously correlated: OLS-Schätzer sind verzerrt und inkonsistent.
Wenn, wie es in Zeitreihenuntersuchungen häug der Fall ist, verzögerte Variablen
als Erklärende verwendet werden und Autokorrelation in den Residuen auftritt,
dann liegt sogar Fall 3 vor, da in Gleichung (A.7) Yt−1 von ²t−1 abhängt und über
die Autokorrelation (Cov(²t , ²t−1 ) 6= 0) auch mit ²t korreliert ist.
204
ANHANG A. KLASSISCHE ÖKONOMETRIE
Das sogenannte Simultanitäts- oder Endogenitätsproblem führt ebenfalls zur Verletzung der Annahme IB. Das ökonomische Problem ist, daÿ man mit einer Regressionsgleichung eine Kausalitätsrichtung unterstellt: X wirkt auf Y . Es kann
aber sein, daÿ sich die andere Wirkungsrichtung ebenfalls begründen läÿt, was oft
der Fall ist, da in einer Ökonomie letztendlich alle Variablen von allen Variablen
abhängen, somit endogen sind. Beide Wirkungsrichtungen liegen dann simultan
vor (daher der Name dieses Problems). Zur Illustration wird ein einfaches Makromodell des Konsums (A.8) mit einer Identität des nationalen Einkommens (A.9)
herangezogen:
C = α + βY + u
Y ≡ C +S
(A.8)
(A.9)
Geschätzt werden soll die Gleichung (A.8) mit dem Störterm u. Gleichung (A.9)
ist nicht Teil der Schätzung, gilt aber simultan zur Gleichung (A.8). Löst man
dieses System auf, ergibt sich für Y :
Y =
α+S+u
,
1−β
woraus deutlich wird, daÿ Y von u abhängt und in Gleichung (A.8) somit der
Fall der contemporaneous correlation vorliegt.
A.6.1.0.2 Test Der Hausman-Test wird heute als ein allgemeiner Test von
Fehlspezikation angesehen, in manchen Lehrbüchern aber auch explizit zur Aufdeckung von contemporaneous correlation aufgeführt. Die Idee des Testes ist,
daÿ bei Korrelation zwischen einer erklärenden Variable und dem Störterm ein
OLS-Schätzer inkonsistent und ein Instrumentenschätzer (siehe unten: Lösung)
konsistent ist. Ohne contemporaneous correlation sind beide Schätzer konsistent. Deshalb sollten die beiden Schätzungen (OLS und Instrumentenschätzung)
nicht allzu groÿe Unterschiede für die Parameterwerte liefern. Die Umsetzung erfolgt ganz ähnlich dem zweistugen Verfahren der Instrumentenschätzung, nur
daÿ diesmal auf der zweiten Stufe auch die erklärenden Variablen selbst, zusammen mit ihren vorhergesagten Werten aus der ersten Stufe der Instrumentenschätzung (Instrumentvariablen), als erklärende Variablen verwendet werden.
Eine gemeinsame (F-Test) oder einzelne (t-Test) Signikanz der Koezienten der
Instrumentvariablen zeigt contemporaneous correlation bzw. allgemeine Fehlspezikation an.
A.6.1.0.3 Lösung Das Problem der contemporaneous correlation kann mit
einer Instrumentenschätzung gelöst werden. Diese Methode geht in zwei Stufen
vor (Zwei-Stufen-Schätzung, 2SLS = two stage least squares). Wenn Xi mit ²i
A.6. ANNAHMENDISKUSSION
205
korreliert ist, benötigt man ein Instrument Zi , das mit ²i unkorreliert, aber möglichst hoch mit Xi korreliert ist. Auf der ersten Stufe wird X auf Z regressiert:
X̂ = γ̂ + δ̂Z . Die Vorhersagewerte X̂ (Instrumentvariablen) verwendet man dann
in der ursprünglichen Gleichung anstatt der X . Die daraus berechneten Schätzer
sind zumindest konsistent. Das Problem bei der Instrumentenschätzung besteht
darin, geeignete Instrumente zu nden. Häug wird Xt−1 als Instrument für Xt
verwendet (X̂t = α̂0 + β̂ 0 Xt−1 auf der ersten, Y = α + β X̂ auf der zweiten Stufe).
Eine noch bessere Lösung des Problem besteht darin, die verschiedenen Wirkungsrichtungen in sogenannten simultanen (wegen der gleichzeitigen Wirkungsbeziehungen zwischen den Variablen) Mehrgleichungssystemen zu schätzen. Dabei wird das gesamte unterstellte Gleichungssystem geschätzt.
A.6.2 Annahme ID: Linear unabhängige Erklärende
Ist eine der erklärenden Variablen eine Linearkombination der anderen Variablen, liegt perfekte Multikollinearität vor und es lassen sich keine OLS-Schätzer
((X 0 X)−1 X 0 Y ) berechnen, da X 0 X nicht invertierbar ist.
Aber auch die abgeschwächte Version von Multikollinearität, nämlich hohe Korrelation zwischen Variablen, kann zu Problemen führen. Dabei ist zwischen einfacher Korrelation zwischen zwei Variablen und Linearkombinationen zwischen
mehreren Variablen zu unterscheiden. Erstere ist einfach zu entdecken, letztere
recht schwierig. Zwar verletzt nicht perfekte Multikollinearität keine der Annahmen, die OLS-Schätzer behalten also alle ihre gewünschten Eigenschaften, aber
bei hoher Korrelation zweier Variablen können die Standardfehler (=Wurzel aus
der Varianz) der Schätzer sehr hoch werden. Die Schätzung wäre somit ungenau,
und kleine Änderungen in den Daten führten zu starken Schwankungen in der
Höhe der Schätzer. Daraus ergeben sich niedrige t-Werte, weil in deren Nenner
der Standardfehler des Schätzers steht. Ein Hinweis auf Multikollinearität zwischen zwei Variablen sind signikante Koezienten, wenn die Variablen jeweils
einzeln in einer Schätzung verwendet werden, aber Insignikanz beider, wenn sie
zusammen in eine Gleichung aufgenommen werden. Ein ähnlicher Sachverhalt
liegt vor, wenn beide Variablen einzeln insignikant sind, aber ein F-Test gleichzeitige Signikanz anzeigt. Multikollinearität kann man sich auch so vorstellen,
daÿ eine Schätzung nicht in der Lage ist, den gemeinsamen Eekt der Variablen
ihnen einzeln zuzuordnen.
Das Problem der perfekten Multikollinearität tritt auch auf, wenn man Dummyvariablen falsch verwendet. Deniert man z.B. vier Zeitreihendummies D1−4
für Frühling, Sommer, Herbst und Winter und fügt aller vier zusammen mit der
Konstanten α in die Regressionsgleichung, ergibt sich perfekte Multikollinearität,
da die Variable von α (eine Spalte von Einsen) eine Linearkombination der Dum-
206
ANHANG A. KLASSISCHE ÖKONOMETRIE
mies ist (D1 +D2 +D3 +D4 ). Die Lösung ist entweder die Konstante oder eine der
Dummyvariablen herauszulassen. Allerdings ist die Interpretation der Parameter
in beiden Fällen unterschiedlich. Fügt man alle Dummyvariablen in die Gleichung
ein, dann schätzt jeder Parameter eines Dummies den absoluten saisonalen Achsenabschnitt. Fügt man die Konstante mit drei Dummies, z.B. ohne Frühling, ein,
ist die Konstante der Achsenabschnitt der Referenzperiode Frühling. Die Koezienten der drei anderen Dummies zeigen den Unterschied des Sommer-, Herbstund Winterachsenabschnitts im Vergleich zum Frühlingsachsenabschnitt an.
A.6.2.0.1 Problem Perfekte Multikollinearität führt dazu, daÿ keine OLSSchätzer existieren. Nicht perfekte Multikollinearität führt zu Schätzern mit hohen Standardfehlern, also zu ungenauen Schätzern.
A.6.2.0.2 Test Das Problem der Multikollinearität ist, daÿ es keine Eigen-
schaft der Grundgesamtheit ist, die normalerweise Gegenstand statistischer Test
sind, sondern eine Eigenschaft der Stichprobe. Eine Möglichkeit Multikollinearität aufzudecken besteht darin, die verdächtige Variable (die möglicherweise eine
Linearkombination aus anderen Variablen ist) durch die anderen Variablen in einer OLS-Schätzung zu erklären. Ein hohes R2 deutet dann auf einen hohen Grad
an Multikollinearität hin.
A.6.2.0.3 Lösung Neben einigen speziellen Schätzverfahren, die alle auch
Nachteile haben, läÿt sich das Problem der Multikollinearität kaum anders lösen,
als die betreenden Variablen aus der Regression herauszulassen.
A.6.3 Annahme IIB: Homoskedastie
Störterme mit konstanter Varianz (Var(²i ) = σ 2 ) werden homoskedastische Störterme genannt. Sind die Varianzen nicht konstant (Var(²i ) = σi2 ), liegt Heteroskedastie vor.
In einer Haushaltsquerschnittsanalyse, wo der Konsum durch Einkommen erklärt
wird, ist es z.B. plausibel, daÿ die Varianz der Störterme mit dem Einkommen
steigt. Die ökonomische Begründung dazu lautet: Haushalte mit kleinen Einkommen können nicht sehr stark von ihrem erwarteten Konsumniveau (Regressionslinie der Grundgesamtheit) abweichen, ohne unter das Subsistenzniveau zu fallen.
Einer solchen Beschränkung unterliegen Haushalte mit hohem Einkommen nicht,
weshalb ihr Konsum deutlich vom erwarteten Konsum abweichen kann. Beides
zusammen ergibt die Begründung dafür, daÿ Haushalte mit hohem Einkommen
höhere Störterme aufweisen als Haushalte mit niedrigem Einkommen.
A.6. ANNAHMENDISKUSSION
207
A.6.3.0.1 Problem Der OLS-Schätzer ist bei Heteroskedastie linear, unver-
zerrt und konsistent. Jedoch ist der Schätzer des Standardfehlers des Schätzers
nicht unverzerrt, so daÿ die t-Tests zu falschen Schlüssen führen können. Auÿerdem sind die OLS-Schätzer nicht mehr best linear unbiased, d.h. es gibt Schätzer
mit einer niedrigeren Varianz.
A.6.3.0.2 Tests Die einfachste Methode heteroskedastische Störterme zu entdecken besteht darin, die quadrierten Residuen zu betrachten, die die Schätzer
der Varianz der Störterme sind. Diese quadrierten Residuen können im Zeitablauf
betrachtet oder gegen eine der erklärenden Variablen geplottet werden. Wenn ein
funktionaler Verlauf der quadrierten Residuen sichtbar ist, kann man Heteroskedastie vermuten und einen richtigen statistischen Test machen.
Der White-Test prüft, ob die Varianz der Störterme von einer Variable X beeinuÿt wird. Dazu werden die quadrierten Residuen e2 = (Y − Ŷ )2 durch die
verdächtige Variable in einer OLS-Schätzung erklärt: e2 = γ1 + γ2 X + γ3 X 2 . Sind
die Koeezienten γ2 , γ3 nicht von Null verschieden, liegt Homoskedastie vor, sonst
Heteroskedastie. Die quadrierte Variable X 2 erlaubt auch eine nichtlineare Abhängigkeit der Varianz der Störterme von X . In multiplen Regressionen können
analog die quadrierten Residuen durch alle Variablen, deren Quadrate und ihrer
Kreuzprodukte erklärt werden. Signikante Parameter zeigen Heteroskedastie an.
Der Vorgehensweise des Langrange-Multiplier-Tests ähnelt dem des White-Test.
Wieder werden die quadrierten Residuen in einer zweiten Schätzung durch Variablen erklärt. Nur diesmal sind es nicht die erklärenden Variablen der ersten
Schätzung, sondern die quadrierten vorhergesagten Werte der abhängigen Variable aus der ersten Schätzung: e2 = γ1 + γ2 Ŷ 2 . Und wieder zeigt Signikanz vom
γ2 Heteroskedastie an.
A.6.3.0.3 Lösung Zu beachten ist, daÿ Heteroskedastietests Residuen ver-
wenden, aber Heteroskedastie eine Eigenschaft der Störterme ist. Deshalb kann
der Grund für heteroskedastische Residuen ein anderer sein als heteroskedastische Störterme. Wenn z.B. Yt = α + β1 Xt + ²t geschätzt wird, der wahre Zusammenhang, aber Yt = α + β1 X1t + β2 X2t + ut ist und X2t z.B. in der zweiten Hälte
des Untersuchungszeitraum stärker schwankt, werden die Residuen aus der ersten
Schätzung auf Heteroskedastie von ² hindeuten, obwohl die u tatsächlich homoskadastisch sein könnten. Nicht verwendete wichtige Variablen nennt man omitted
variables. Das schlimmste Problem bei Heteroskedastie ist, daÿ die Standardfehler der Koezientenschätzer falsch geschätzt werden. Diese Standardfehler ergeben sich aus der Varianz der Störterme. Der sogenannte White-Schätzer verwendet als Schätzer für die Varianz der Störterme die quadrierten Residuen aus der
Schätzung. Dieser White-Schätzer ist ein heteroskedastiekonsistenter Schätzer.
208
ANHANG A. KLASSISCHE ÖKONOMETRIE
Die sich daraus ergebenden Standardfehler der Koezientenschätzer haben die
large-sample Eigenschaft der Konsistenz. Somit sind die t-Tests der Koezienten
zumindest in groÿen Stichproben gültig.
A.6.4 Annahme IIC: Unkorrelierte Störterme
Annahme IIC besagt, daÿ die Störterme nicht miteinander korreliert sein dürfen.
Dazu sagt man auch, daÿ die Störterme keine Autokorrelation aufweisen. Am
häugsten tritt dieses Problem bei Zeitreihenanalysen auf. Das ist z.B. dann
der Fall bei sogenannten spill over Eekten aus einer, in die nächste Periode.
Wenn z.B. ein Streik stattndet, der die erklärte Produktion in einer Periode
unter den erwarteten Wert drückt und ein Fortgang des Streiks in der nächsten
Periode immer noch wahrscheinlich ist, dann sind die beiden Störterme dieser
Perioden korreliert (dazu darf der Streik keine erklärende Variable, sondern Teil
der restlichen Variablen im Störterm sein, der die nicht als erklärende Variablen
verwendeten Einüsse umfaÿt).
Auch bei falscher funktionaler Form kann es zu Autokorrelation kommen. Wenn
ein Zusammenhang, der einer quadratischen Funktion folgt, mit einer linearen
Regression geschätzt wird, ergeben sich (wie in Abbildung A.12 zu sehen ist)
Residuen, die zunächst eher negativ sind und dann eher positiv, was eine positive
Korrelation zwischen aufeinanderfolgenden Residuen bedeutet.
Abbildung A.12: Falsche funktionale Form
6
Y
r
rr
r
r
´
´
r ´
r r´
´
´r
rrr
´
r
´r
´r
´r r r
r´
r r´
rrrr
-
X
A.6.4.0.1 Problem Das Problem bei Autokorrelation ist dasselbe wie bei
Heteroskedastie, zusätzlich liegt bei gelaggten Variablen eine contemporaneous
A.6. ANNAHMENDISKUSSION
209
correlation vor (siehe Fall 3, Seite 203).
A.6.4.0.2 Tests Autokorrelation ist eine Eigenschaft der Störterme. Betrach-
ten wir die Residuen als deren Schätzer, ist es zur Aufdeckung von Autokorrelation in einer Zeitreihenanalyse sinnvoll, sich zunächst die Residuen im Zeitablauf
anzuschauen. Folgen einander immer wieder Residuen mit gleichen Vorzeichen,
deutet das auf Autokorrelation hin. Sind die Residuen hingegen gleichmäÿig um
die Zeitachse gestreut, liegt wohl keine Autokorrelation vor. Mit diesem eyeballing lassen sich jedoch nur Autokorrelationen erster Ordung recht einfach
sehen. Höhere Ordnungen sind kaum mehr auszumachen. Die Ordnung von Autokorrelation bezieht sich auf den Abstand von miteinander korrelierten Störtermen, Autokorrelation der Ordnung i ist deniert durch: Cov(²t , ²t−i ) 6= 0. Autokorrelation höherer Ordnung kann z.B. bei saisonalen Daten auftreten, wenn ein
vorhandener Saisoneekt nicht modelliert wird, z.B. durch einen Saisondummy
und somit die Residuen Autokorrelation der Ordnung zwölf bei Monatsdaten und
vier bei Quartalsdaten aufweisen.
Der Durbin-Watson-Test kann nur Autokorrelation erster Ordung aufdecken. Er
wird heute jedoch eher als ein Spezikationstest für die funktionale Form angesehen. Der Durbin-Watson-Test hat den gewichtigen Nachteil, daÿ er eine Teststatistik besitzt, die für bestimmte Wertebereiche keine Entscheidung liefert. Der
Test kann also zwischen der Null- und Alternativhypothese (Autokorrelation oder
keine) unentschieden ausgehen. Als Daumenregel läÿt sich sagen, daÿ der DurbinWatson-Test keine Autokorrelation anzeigt, wenn die Teststatistik einen Wert von
ca. zwei annimmt. Ein weiterer schwerwiegender Nachteil ist, daÿ die Teststatistik im Falle einer gelaggten endogenen Variablen als Erklärende zum Wert zwei
verzerrt ist, also womöglich keine Autokorrelation zeigt, obwohl welche vorhanden
ist. Deshalb ist er bei verzögerten endogenen Variablen nicht anwendbar.
Der Lagrange-Multiplier-Test (Breusch-Godfrey-Test) kann Autokorrelation beliebiger Ordnung testen und gilt auch, wenn eine verzögerte Endogene als erklärende Variable verwendet wird. Die intuitive Vorgehensweise ist die folgende:
Wird in der Gleichung Yt = α + βXt + ²t eine Autokorrelation von ²t bis zu einer
Ordnung von z.B. drei vermutet, nimmt man die Residuen et dieser Schätzung
und erklärt diese mit den Variablen aus der ersten Schätzung und mit drei verzögerten Residuen: et = α+βXt +ρ1 et−1 +ρ2 et−2 +ρ3 et−3 +ut . Sind die Koezienten
ρ1−3 von Null verschieden (einzeln oder gemeinsam), liegt Autokorrelation vor.
A.6.4.0.3 Lösung Wieder stellt sich das Problem, wie im Falle der Heteros-
kedastie, daÿ Tests auf Basis der Residuen durchgeführt werden, aber auf eine
Eigenschaft der Störterme geschlossen werden soll. Eine durch Tests ermittelte
Autokorrelation hat als Ursache sehr oft eine Fehlspezikation (funktionale Form,
210
ANHANG A. KLASSISCHE ÖKONOMETRIE
verwendete/herausgelassene Variablen,...) und eher seltener eine tatsächliche Autokorrelation der Störterme. Deshalb sollte vor einer Behebung einer Autokorrelation durch entsprechende Verfahren erst die Spezikation der Schätzung hinterfragt werden. Vorhandene Verfahren zur Behebung von Autokorrelation sind das
Cochrane-Orcutt oder das Hildreth-Lu Verfahren. Es kann jedoch nicht oft genug
betont werden, daÿ Autokorrelation sehr oft ein Problem von Fehlspezikation
und nicht wirklicher Autokorrelation der Störterme ist.
A.6.5 Annahme IC: Konstante Varianz der Erklärenden
Die Annahme IC ist eine der kritischsten im Zusammenhang mit ökonomischen
Daten. Zunächst soll kurz der Begri der Stationarität und Grad der Integration
eingeführt werden. Nichtstationäre Variablen verletzen die Annahme IC. Eine
Variable ist stationär, wenn gilt:
E(Xt ) = konstant ∀t
Var(Xt ) = konstant ∀t
Cov(Xt , Xt+k ) = konstant ∀t und ∀k 6= 0,
also dann, wenn ihr Erwartungwert, Varianz und Kovarianz über die Zeit konstant bleiben. Eine wachsende Variable verletzt oensichtlich schon die erste Bedingung des konstanten Erwartungswertes. Für das BSP des Jahres 1950 wurde
ein anderer Wert erwartet als für das des Jahres 2050. Diese Eigenschaft der
Nichtstationarität ist ein Merkmal vieler ökonomischer Variablen und ist deshalb
sehr kritisch in der Ökonometrie. Eine überzeugende Lösung dieses Problems ist
erst in den 80er Jahren gelungen, obwohl das Problem schon Anfang des 20.
Jahrhunderts formuliert wurde. Der Grad der Integration ist gleich der Anzahl
der notwendigen Dierenzierungen einer Zeitreihe (Wert abzüglich Wert der Vorperiode) bis sie stationär wird. Wohl kaum eine ökonomische Variable ist höher
integriert als Grad 2 (I(2)), die überwiegende Anzahl lediglich I(1).
A.6.5.0.1 Problem Bei nicht stationären erklärenden Variablen bricht die
Konsistenz der Schätzer zusammen, die t-Teststatistiken folgen nicht mehr einer
Verteilung mit einer Standardform. In einer Gleichung mit nichtstationären erklärenden Variablen ist meistens auch die erklärte Variable nichtstationär. Werden
sie aufeinander regressiert werden, entsteht das als spurious regression bekannte
Problem. Man erhält trotz fehlendem kausalem Zusammenhang signikante Koezienten und ein hohes R2 . Man kann sich das spurious regression Problem so
vorstellen, daÿ man mit signikanten Koezienten lediglich den Zusammenhang
zwischen den Trends erfaÿt.
A.6. ANNAHMENDISKUSSION
211
A.6.5.0.2 Test Variablen, die einen Trend aufweisen, können oft mit dem
bloÿen Auge erkannt werden. Die Testverfahren zur Aufdeckung nichtstationärer
Zeitreihen sind recht kompliziert und sollen hier nicht aufgeführt werden. Es
handelt sich hierbei um die sogenannten Unit-Root-Tests, wobei der übliche Test
der (augmented) Dickey-Fuller-Test ist.
A.6.5.0.3 Lösung Die früher übliche Lösung des Problems bestand darin,
die erste Dierenz der verwendeten Zeitreihen zu bilden, also jeweils den Wert
der Vorperiode abzuziehen:
Yt = β0 + β1 Xt + ²t
in ersten Dierenzen ausgedrückt lautet
∆Yt = β2 ∆Xt + ut
mit ut = ²t − ²t−1 und ∆Yt ≡ Yt − Yt−1 . Dieses Verfahren hat einerseits das
Problem, daÿ man sich damit (echte) Autokorrelation in den Störtermen einhandelt. Entweder, weil die Zeitreihe in den Niveaus nicht autokorrelierte Störterme
aufweist und damit die Störterme nach der Dierenzierung autokorreliert sind
(Cov(ut , ut−1 ) 6= 0), oder umgekehrt. Auÿerdem verliert man die Niveauinformation der Variablen.
Die neue Lösung dieses Problem besteht darin, sogenannte Fehlerkorrektur-Modelle zu verwenden. Das sind (wie früher üblich) Gleichungen in den ersten Dierenzen, nun aber um den Fehlerkorrekturterm erweitert, wobei diese Fehlerkorrekturgleichung lediglich eine umparametrisierte Version der Niveaugleichung ist.
Die obige Gleichung lautet als Fehlerkorrekturmodell
∆Yt = β2 ∆Xt + λ(Yt−1 − β0 − β1 Xt−1 ) + ²t .
Damit diese Schätzung möglich ist, müssen alle Summanden I(0) sein. Dies ist
für die ersten Dierenzen denitionsgemäÿ der Fall, wenn die Variablen selbst
I(1) sind. Für den Fehlerkorrekturterm ist das der Fall, wenn die darin enthaltenen Variablen zusammen I(0) sind, wenn sie kointegriert sind. Dies ist der Fall,
wenn die verwendeten Variablen den gleichen Integrationsgrad haben und eine
Linearkombination aus ihnen um ein Grad niedriger integriert ist. Diese Linearkombination ist der Kointegrationsvektor (1, β0 , β1 ). Der Kointegrationvektor hat
die ökonomische Interpretation, daÿ die Variablen langfristig entsprechend dieser
Linearkombination miteinander verknüpft sind. Eine Abweichung davon wird
von einer der Variablen durch eine entsprechende Bewegung ausgeglichen. Hier
im Beispiel gleicht diese Abweichung annahmegemäÿ Y aus, da diese Variable
auf der linken Seite der Fehlerkorrekturgleichung steht. Diese Annahme läÿt sich
in Mehrgleichungsmodellen (mit dem Johansen-Schätzer) testen, wo jede der Variablen des Fehlerkorrekturterms einmal auf der linken Seite als erklärte Variable
212
ANHANG A. KLASSISCHE ÖKONOMETRIE
auftaucht. Die erste Dierenz (die Änderung der erklärten Variable) hängt nicht
mehr nur von den Änderungen der erklärenden Variablen ab, sondern auch von
der Abweichung der Variablen vom langfristigen Gleichgewicht. Dieses Verfahren
ist nicht mit dem Autokorrelationsproblem behaftet (die ursprüngliche Gleichung
mit den nichtstationären Variablen kann ohne Änderung des Störtermes in die
Fehlerkorrekturform überführt werden = umparametrisieren) und auch das Problem der nicht verwendeten Niveauinformation besteht nicht, da die Fehlerkorrekturterme in Niveaus formuliert sind. Wenn also früher einfach in den ersten
Dierenzen geschätzt wurde und die Variablen kointegriert waren, dann hat man
sich durch die Auslassung des Fehlerkorrekturtermes eine Fehlspezikation eingehandelt. Sind die Variablen nicht kointegriert, ist eine Schätzung in den ersten
Dierenzen tatsächlich möglich (es gibt keinen Fehlkorrekturterm, der somit auch
nicht fälschlicherweise weggelassen werden kann).
Literaturverzeichnis
Alesina, A. (1989): Politics and Business Cycles in Industrial Democracies,
Economic Policy, 0, 5598.
Barro, R. J., and D. B. Gordon (1983): A Positive Theory of Monetary
Policy in a Natural Rate Model, Journal of Political Economy, 91, 589610.
Buchanan, J. M., and G. Tullock (1962): The calculus of consent : logical
foundations of constitutional democracy. Univiversity of Michigan Press, Ann
Arbor.
Downs, A. (1957): An economic theory of democracy. Harper, New York.
Eucken, W. (1952): Grundsätze der Wirtschaftspolitik. Mohr, Tübingen.
Frey, B. S., and G. Kirchgässner (1994): Demokratische Wirtschaftspolitik.
Vahlen, München.
Friedman, M. (1953): Essays in positive economics. University of Chicago Press,
Chicago.
Lipsey, R. G., and K. Lancaster (1956-1957): The General Theory of Second
Best, The Review of Economic Studies, 24, 1132.
Mueller, D. C. (1995): Public choice II. Cambridge Univiversity Press, Cam-
bridge.
Nordhaus, W. D. (1975): The political business cycle, The Review of Econo-
mic Studies, 42, 169190.
Olson, M. (1965): The logic of collective action. Harvard University Press, Cam-
bridge, Massachusets.
Popper, K. R. (1945): Die oene Gesellschaft und ihre Feinde. Francke, Tübin-
gen.
(1965): Das Elend des Historizismus. Mohr, Tübingen.
213
214
LITERATURVERZEICHNIS
Thomas, R. L. (1997): Modern econometrics : an introduction. Addison-Wesley,
Harlow.
Tietzel, M. (1981): Die Rationalitätsannahme in den Wirtschaftswissenschaf-
ten oder Der homo ÷konomicus und seine Verwandten, Jahrbuch für Sozialwissenschaftler, pp. 115138.
Vaubel, R. (1993): Europa vor dem Eintritt in die Wirtschafts- und Währungs-
union chap. Eine Public Choice Analyse der Deutschen Bundesbank und ihre
Implikationen für die Europäische Währungsunion, pp. 2379. Berlin.
Herunterladen