Untitled - Widerspruch - Münchner Zeitschrift für Philosophie

Werbung
Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985)
INHALTSVERZEICHNIS
Artikel
Das THEMA: COMPUTER - DENKEN SINNLICHKEIT
7
Elmar Treptow:
Einordnung der neuen Informationsund Kommunikationstechniken
9
Anna Wimmer:
Die "Künstliche lntelligenz"-Forschung
und ihre Auswirkung auf das
Menschenbild in der Wissenschaft
16
John Locke / Gottfried W. Leibniz / Giambattlsta Vico:
Der Geist in der Maschine? - Ein Gespräch
29
Jochen Schneider:
Innovationspotentiale des
juristischen Informationssystems "JURIS"
42
Gespräch mit Professor Herbert W. Franke:
Computergraphik.
Zum Verhältnis von Kunst und neuer Technik
52
Helga Laugsch-Hampel:
Anmerkungen zu einer 'neuen' Ästhetik
der Rockmusik im Zuge der neuen Technologien
67
Horst v. Gizycki:
Im Streit um die richtige Leere.
Ausgewählte Skizzen zu einer ökologischen Ästhetik 76
Rezensionen Bleicher, S. u.a.:
Chip, Chip, Hurra?
Die Bedrohung durch die "Dritte Technische Revolution"
H. Hölzer
88
Kubicek, H. / Rolf, A.:
Mikropolis.
Mit Computernetzen in die "Informationsgesellschaft"
H. Hölzer
88
Briefs, Ulrich:
Informationstechnologien und Zukunft der Arbeit
K.-H. Schmid
91
Coy, Wolfgang:
Industrieroboter.
Zur Archäologie der zweiten Schöpfung
W. Höppe
94
Friedrichs, Günter / Schaff, Adam (Hrsg.):
Auf Gedeih und Verderb
D. Strehle
97
Gorsen, Peter:
Transformierte Alltäglichkeit oder
Transzendenz der Kunst
U. Schwemmer
99
v. Randow, Gero (Hrsg.):
Das andere Computerbuch.
Für Benutzer, Neugierige und Skeptiker
B. Güther
100
Rose, Frank:
Ins Herz des Verstandes.
Auf der Suche nach der künstlichen Intelligenz
A. v. Pechmann
103
Searle, John:
Minds, Brains and Science
A. v. Pechmann
105
Dreyfus, Hubert L.:
Die Grenzen der künstlichen Intelligenz.
Was Computer nicht können
A. v. Pechmann
107
Weizenbaum, Joseph:
Die Macht der Computer
und die Ohnmacht der Vernunft
A. v. Pechmann
109
Hofstadter, Douglas H.:
Gödel, Escher, Bach.
Ein endloses geflochtenes Band
A. v. Pechmann
110
Schöneberger, Markus / Welrich, Dieter (Hrsg.):
Kabel zwischen Kunst und Konsum.
Plädoyer für eine kulturelle Medienpolitik
K. Lotter
114
Croce, Benedetto:
Die Geschichte auf den allgemeinen
Begriff der Kunst gebracht
R. Marks
115
Köhler, Benedikt:
Ästhetik der Politik
R. Marks
118
Jäger, Petra / Lüthe. Rudolf (Hrsg.):
Distanz und Nähe.
Reflexionen und Analysen zur Kunst der Gegenwart
H. Bahner
120
Pechmann, Alexander v.:
Konservatismus in der Bundesrepublik.
Geschichte und Ideologie
M. Schraven
123
Berichte
Raphael, Max:
Wie will ein Kunstwerk gesehen sein?
"The Demands of Art"
E. Rebel
128
Sandkühler, Hans-Jörg / Holz, Hans Heinz (Hrsg.):
Ökologie - Naturaneignung und Naturtheorie
H. Mittermüller
131
Schirmacher, Wolfgang:
Technik und Gelassenheit
W. Teune
135
Schöpf, Alfred (Hrsg.):
Phantasie als anthropologisches Problem
H. Bahner
137
Schrader, W .H.:
Ethik und Anthropologie in der
Englischen Aufklärung
A. Felenda
138
Wellmer, Albrecht:
Zur Dialektik von Moderne und Postmoderne
Th. Wimmer
140
Witte, Bernd:
Walter Benjamin
I. Knips
142
Anton Friedrich Koch:
Verknüpfende Analyse und deskriptive Metaphysik
145
Hans Mittermüller:
Marxismus versus Marxismen
149
Holz, Hans Heinz / Metscher, Thomas / Schleifstein,
Josef / Steigerwald, Robert (Hrsg.):
Marxismus - Ideologie - Politik
Krise des Marxismus oder Krise des "Arguments"?
H. Mittermüller
157
Rezensionen Beer, Ursula:
zum Thema Theorien geschlechtlicher Arbeitsteilung
Frauendenken E. Treptow
165
Winter, Mona (Hrsg.):
Zitronenblau. Balanceakte ästhetischen Bewußtseins
H. Laugsch-Hampel
167
Leserbriefe
R. Seifert / J. Adamiak:
Frauen Denken
169
Wolfgang Teune
172
Glosse
Anhang
Hans Mittermüller:
Gelobtes Denken. Zum 100. Geburtstag von Georg
Lukacs
173
Ulrike Schwemmer:
Also doch ein Übermensch?
178
Buchneueingänge / Bildnachweise
180
Personenverzeichnis
182
Impressum
184
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 7-9
AutorenInnen: Redaktion
Zum Thema
Zum Thema
COMPUTER
SINNLICHKEIT
-
DENKEN
-
Der Computer erobert sich mehr und mehr Lebensbereiche: sein
Einsatz in Produktion und Verwaltung ändert die Arbeits- und
Qualifikationsstrukturen in Betrieb und Gesellschaft und erschließt
neue, sog. „High-Tech“-Märkte; ohne die Unterstützung durch „Supercomputer“ wären die neuen Forschungsergebnisse in Physik, Chemie, Biologie und Medizin undenkbar, und zunehmend öffnen sich auch
die Geisteswissenschaften den neuen Technologien; sein Vormarsch
in Kunst, Kultur und im Freizeitbereich scheint unaufhaltsam.
Kein Wunder also, daß über die gesellschaftlichen Folgen der
„Computerisierung“ eine heftige und kontroverse Diskussion entstanden
ist: wird die neue Technik die Spaltung der Arbeiterklasse - hie Arbeitsintensivierung, dort Massenarbeitslosigkeit - vertiefen, wie die
Gewerkschaften befürchten; oder wird sie neue flexiblere und humanere Arbeitsbedingungen schaffen, wie die Unternehmer verkünden?
Während einige Militärexperten der Meinung sind, die Automatisierung
der Waffentechnik bringe uns der Friedenssicherung näher, sehen
andere darin einen weiteren Schritt zur Erhöhung der Kriegsgefahr.
Psychologen und Pädagogen befürchten durch die Arbeit am Terminal eine geistige und soziale Verarmung, während andere sich davon eine
Freisetzung von Kreativität, Phantasie und Kommunikation versprechen.
Und die Soziologen diskutieren, ob die künftige „Informationsgesellschaft“ die Wege zur individuellen Arbeits- und Freizeitgestaltung er-
zum Thema
öffnet, oder die Perfektionierung der Herrschaft durch Arbeitsüberwachung und staatliche Kontrolle vorantreibt. Oder wird gar der Computer den Menschen als Macht- und Entscheidungsträger ablösen, wie manche Philosophen behaupten?
Die Beantwortung dieser Fragen nach den Folgen des Computerentwicklung und -einsatzes setzt unseres Erachtens die Klärung der Ursache
voraus: was ist eigentlich der Computer, und was kann er? Ist er
seinem Wesen nach nur ein spezielles, informationsverarbeitendes,
Arbeitsgerät oder ein universeller Automat der Wissensrepräsentation
und Problemlösung? Ist er seiner Potenz nach der menschlichen Intelligenz gleichgestellt oder gar überlegen? Ohne die - bislang wenig beachteten - Fragen der Erkenntnistheorie und Ästhetik, der Anthropologie
und Geschichtstheorie miteinzubeziehen, bewegen sich die Diskussionen über die Folgenabschätzung auf unsicherem Boden. Mit dieser
Nummer machen wir den Versuch, einige dieser Aspekte der neuen
Technikentwicklung hervorzuheben.
Eingangs unternimmt Elmar Treptow den Versuch der „Einordnung der
neuen Informations- und Kommunikationstechniken“ in den gesellschaftlichen und begrifflichen Zusammenhang.
In ihrem Beitrag „Die 'Künstliche Intelligenz'-Forschung und ihre
Auswirkung auf das Menschenbild in der Wissenschaft“ untersucht
Anna Winner die ideologischen Implikationen und anthropologischen
Grundannahmen der gegenwärtigen KI-Forschung.
Alexander von Pechmann hat ein fiktives Gespräch bearbeitet, als dessen
Teilnehmer John Locke, G.W. Leibniz und G. Vico über den „Geist in
der Maschine“ und die erkenntnistheoretischen und metaphysischen
Grundlagen der Computertechnik diskutieren.
Jochen Schneider weist in seinem Artikel „Innovationspotentiale des
juristischen Informationssystems 'JURIS“' auf die Defizite und Ent-
zum Thema
wicklungsmöglichkeiten des Computereinsatzes in den Rechtswissenschaften hin.
In einem längeren Gespräch mit der Redaktion über Computergraphik
legt Herbert Franke die qualitativ neuen Entwicklungsmöglichkeiten in
der darstellenden Kunst durch den Computereinsatz dar.
Den ästhetischen und sozialen Auswirkungen der neuen Technik auf die
Musikszene geht Helga Laugsch-Hampel in ihrem Aufsatz „Anmerkungen zu einer 'neuen' Ästhetik der Rockmusik im Zuge der neuen Technologien“ nach.
Und schließlich unternimmt Horst v. Gizycki mit „Im Streit um die
richtige Leere - Ausgewählte Skizzen zu einer ökologischen Ästhetik“
den Versuch, eine Alternative zur „Computerkultur“ zu skizzieren.
Den Beiträgen folgt eine Reihe von Rezensionen aktueller Veröffentlichungen, insbesondere zum Thema dieser Nummer.
Ein Bericht über die Gastvorlesung Peter Strawsons in München von
Anton P. Koch, eine Dokumentation der Diskussion zwischen der
West-Berliner Zeitschrift „Argument“ und dem Frankfurter „Institut
für marxistische Studien und Forschungen“ über Grundfragen des Marxismus von Hans Mittermüller, Leserbriefe zur letzten Nummer „Frauendenken“ und zur Konzeption unserer Zeitschrift, ein Beitrag zum
100. Geburtstag von Georg Lukacs sowie eine Glosse zum Thema beschließen den Band.
Die Redaktion
9
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 9-15
Autor: Elmar Treptow
Artikel
Elmar Treptow
Vorspann:
Einordnung der neuen Informationsund Kommunikationstechniken
Frei ist, wer die Wahl hat zwischen ARD, ZDF, SAT 1, 3
SAT, RTL-Plus, PKS, APF, TDF, TVS, Music-Box, tvweiß-blau, Kanal B, Kanal Matte Scheibe. Diese Botschaft
hörte Abu Dschaafar Mohammed Ibn Mussa elChwarismi alias Algorithmus. Er wählte und las den Vorspann: „Diesen Gottesdienst widmet Ihnen die
Kreissparkasse.“
1.
Phänomenologie
Die hauptsächlichen Problemfelder der Informations- und Kommunikationstechniken, die alle Bereiche des Seins und Bewußtseins durchdringen,
erscheinen als folgende: erstens ökonomisch als Produktionsautomatisierung, d.h. als computerintegrierte Produktion von der Planung bis zur
Fertigung („CIM“) (und zwar nicht nur in der Automobilherstellung wie in
der berühmten Halle 54 des Volkswagenwerks); weiter als Büroautomatisierung durch Einzug von Textverarbeitungssystemen und Bildschirmterminals. Beides heißt: Rationalisierung, Steigerung der Arbeitsproduktivität,
Arbeitslosigkeit, Veränderung der Qualifikationsanforderungen und Berufe.
Die Heimarbeit am Computer, die in einigen Jahren mit der Installierung
Elmar Treptow
des Glasfasernetzes ihre technische Grundlage haben wird, wird zur Individualisierung, Isolierung und Entsolidarisierung der Arbeitenden führen.
Zweitens militärisch als Automatisierung der Waffen, besonders der zielgenau programmierten Atomwaffen. Schon ein Fehlalarm der Frühwarnsysteme kann über alles menschliche Leben entscheiden. Der Plan, das integrierte elektronische Schlachtfeld Erde, Wasser, Luft in den Weltraum auszudehnen und dort ein Waffensystem zu errichten, das strategische
Unverletztlichkeit und somit Angriff ohne Vergeltung ermöglicht, ist für die
USA kein Verhandlungsgegenstand. Deutsche Industrielle und Politiker
sehen in der Teilnahme an der Weltraumrüstung die Voraussetzung für die
Konkurrenzfähigkeit in der zivilen „High-Tech“ auf dem Weltmarkt.
Drittens pädagogisch als Ausrichtung des Bildungssystems am Beschäftigungssystem durch Einführung von Informatik-Kursen in der Schule.
(Noch ist unentschieden, ob als Pflichtfach ab Klasse 8 mit darauf aufbauendem Wahlfach und ob mit den Computersprachen „Basic“, „Pascal“ oder
„Logo“ oder nur mit den Benutzersprachen, wie sie Ärzte, Anwälte und
Architekten gebrauchen.) Für einige Pädagogen - wie für von Hentig - ist
der Computer dagegen immer noch ein „unkindliches, ein unphilosophisches und ein unpolitisches Instrument“ .
Viertens juristisch als Kontrolle und Überwachung der Personen durch
staatliche und private Informationssysteme wie „NADIS“ und „PIS“. Kann
sich der Datenschutz gegen den „gläsernen Menschen“ behaupten oder
stirbt „bit für bit“ die informationelle Selbstbestimmung?
Fünftens biologisch als Eingriffe in den genetischen Code (dessen Bauelemente die bei Mensch und Gänseblümchen gleichen DNS-Moleküle
sind). Die Gentechnologie und Genchirurgie der Pflanzen und Tiere ist
eine prospektive Wachstumsbranche der chemischen und pharmazeutischen Konzerne. Beim Menschen ermöglicht diese Biotechnik nicht nur die
Behandlung von Erbkrankheiten, sondern auch die künstliche Zuchtwahl
des Homunculus in der Phiole. Vorhanden sind Retortenbabys, Samenbänke und Leihmütter. (Eine Zwischenfrage: ist es nicht eine konsequente
Weiterentwicklung, auch die lebendige Gebärfähigkeit des Menschen zu
verleihen, nachdem schon die lebendige Arbeitsfähigkeit verliehen bzw.
verkauft wird?)
Sechstens erkenntnistheoretisch als die Kontroverse, ob der Mensch ein
informationsverarbeitendes, kybernetisches System ist. Wenn ja, ist auf den
Menschen wie auf alle gesteuerten und geregelten Abläufe die Informationstechnik anwendbar (deren Basis die Mikroelektronik ist, die 1959 mit
der ersten Halbleiterschaltung mehrerer Transistoren auf einem SiliziumPlättchen geboren wurde)? Ist also die menschliche Intelligenz durch die
Zur Einordnung
technische, künstliche Intelligenz ersetzbar bzw. simulierbar (wenn schon
nicht der Mensch als ganzer durch einen Roboter oder Golem mit Sensoren
und Aktoren)? Hat der Computer hier prinzipielle Grenzen? Welche? Vielleicht hat er keinen Humor und keine Würde und schämt sich nicht? (Ein
Schachcomputer etwa scheint keine psychischen Probleme mit seinem Ego
zu haben, wenn er „loose“ anzeigt.) Kann „Eliza“ tatsächlich, wie ihr Erfinder Weizenbaum im nachhinein meint, keinen Psychotherapeuten simulieren? Was wird aus dem Traum des Konrad Zuse, dass programmierte
Maschinen wie lebendige Zellen sich selbst reproduzieren und eine Fabrik
eine Fabrik baut? „Denkt“ ein Computer, wenn er binäre Entscheidungen
trifft (also entsprechend den Werten Eins und Null oder wahr und falsch
den Strom fließen und nicht fließen läßt)?
Siebentens medienpolitisch als Privatisierung und Kommerzialisierung der
- im engeren Sinne - "neuen" Medien, die zu den „alten“ Medien der Massenkommunikation Zeitung, Zeitschriften, Rundfunk und Fernsehen hinzugekommen sind, nämlich: Kabelfernsehen (einschließlich Pay-TV, Offener Kanal und Zwei-Weg-Kabel), Satellitenfernsehen, Video und Bildschirmtext (also das von der staatlichen Post für private Bestell-,
Verwaltungs- und Buchungsvorgänge errichtete Netz, das auch zum Abrufen von in Bibliotheken bzw. elektronischen Speichern archiviertem Wissen
geeignet sein könnte). Die gegenwärtige Regierung schafft für die Privatisierung und Kommerzialisierung die staatlichen Rahmenbedingungen, und
zwar mit der Argumentation: der mündige Bürger müsse im Interesse seiner
Freiheit die Wahl zwischen vielen Programmen haben, die durch die Konkurrenz von privaten Anbietern geschaffen werden. So würden über Kabel
und Satellit neue Freiräume für die demokratische Teilhabe an Information,
Bildung und Kultur sowie am allgemeinen geistigen Austausch eröffnet und
zugleich der Industrie neue Chancen des Wachstums geboten1. Was führen
dagegen einige Kritiker ins Feld? Nicht nur die ungeklärte Finanzierung,
den bevorstehenden Kampf um Werbeeinnahmen und die ideologischpolitischen Möglichkeiten finanzstarker Anbieter, sondern auch folgendes:
das jetzt verlegte teure Kupferkabelnetz ist nur für Funk und Fernsehen,
nicht aber für die Kommunikationszwecke der Wirtschaft geeignet und
wird sowieso überflüssig durch das künftige Glasfasernetz (das nur noch
einen einzigen Anschluß erforderlich machen wird für Telephon, Computer, Bildschirmtext, Fernkopierer und Telex). Ein amtlicher Schildbürger1
Vgl. Kabel zwischen Kunst und Konsum, hrsg. v. M. Schöneberger/D. Weirich, Berlin und Offenbach 1985.
Elmar Treptow
streich? Befürchtet werden weiter ein Rückgang der Kommunikation In der
Familie, Isolierung, Privatisierung, Passivierung („kaum abgenabelt, schon
angekabelt“ ), außerdem eine Verflachung der Programme durch vermehrte
Shows, Magazine, Rätselspiele und Serien, in denen die Sekretärin den Millionär bekommt. Mitunter kann allerdings der Eindruck entstehen, daß
einige als Kommunikationsmedium lieber wieder die Rauchzeichen der
Indianer hätten2. Adorno hatte schon das Fernsehen allgemein negiert, weil
in ihm das gesprochene Wort nur Anhängsel von Bildern sei und Bilder die
Reflexion und Besinnung behinderten3.
Achtens ästhetisch als Debatte darüber, ob die neuen Medien neue künstlerische .Ausdrucksmöglichkeiten und gestalterische Kreativität mit sich
bringen, vor allem auf dem Gebiet der elektronischen Musik, der Videoclips
und der Computergraphik. Kann ein Johann Sebastian Chip statt mit der
alten Maschine, dem Klavier, mit Synthesizern in 12 oder 16 Bit neue Sphären-Klänge erlebbar machen? Können Nake, Nees, Noil oder Herbert W.
Franke mit ihrer Graphik und Animation - zum Beispiel mit dem „inkspray-plotter“, dem computergestützten Tintensprühgerät - für uns neue
Bereiche der Wahrnehmung erobern, so wie Turner mit seinen Bildern den
Nebel in neuer Weise sichtbar machte? Wird das Ästhetisch-Spielerische
durch die Heim- und Personalcomputer gefördert? Es scheint so, daß sie
jedenfalls in Kinderzimmern für Spiel, Spaß und Spannung sorgen, vor
allem beim selbständigen Programmieren, aber auch beim „Hacken“ oder
beim Test des „Bibel-Quiz des Commodore“ („Wer hatte 300 Konkubinen?“). Genuß bereitet der „joystick“ den Kids offensichtlich solange, als
sie Herr der Lage bleiben und ihre Anweisungen in dieser Herr-KnechtBeziehung befolgt werden. (Unlust werden Spiele erregen, in denen keine
Chance besteht zu gewinnen.) Nach Ansicht einiger Kritiker führt die
Computer-Technik zu einem generellen Verlust authentischer sinnlicher
Wahrnehmung und Erfahrung. Schiebt sich tatsächlich eine zweite künstliche Welt über die erste, selbständig erfahrene Welt? Bringen die Medien
zwar die ganze Welt ins Haus, einschließlich verhungernder Menschen in
unterentwickelten Ländern, aber in Form inkohärenter Bruchstücke, zerrissener „digitalisierter“ Details ohne den Gesamtzusammenhang, so daß das
abstrakt Einzelne seine Entsprechung im abstrakt Allgemeinen hat? - Soviel
zur Phänomenologie der Programmierung und Automatisierung der Arbeit,
Vgl. N. POSTMANN: Wir amüsieren uns zu Tode, Frankfurt/Main 1985, S. 15 ff.
Th. W. ADORNO: Prolog zum Fernsehen, in: Eingriffe, Frankfurt/Main 1963, S. 69
ff.
2
3
Zur Einordnung
des Krieges, der Schule, der Personenkontrolle, des Denkens und der
Wahrnehmung.
2.
Logik: Die Informationstechnik als Vergegenständlichung
ideeller Elemente der Arbeit
Versuchen wir nun, nachdem wir über die Felder der Probleme gegangen
sind, durch die begrifflichen Zäune zu dem Gemüse vorzudringen! - Die
Informationstechnik hat ihren systematischen Ort in der Entwicklung der
Arbeit. Zur stets notwendigen produktiven, gebrauchswertproduzierenden,
bedürfnisbefriedigenden Arbeit gehören erstens die Arbeitstätigkeit selbst,
zweitens die Arbeitsmittel und drittens die natürlichen Arbeitsgegenstände.
Die Arbeitstätigkeit selbst der gesellschaftlichen Individuen enthält ideelle,
bewußtseinsmäßige Elemente, die die Arbeitsresultate antizipieren und die
Arbeitstätigkeit steuern und regulieren4. Von den Arbeitsmitteln sagt Hegel
sehr erhellend, daß sich in ihnen die Einzelheit der Arbeit zu einer relativ
beständigen nachahmbaren Regel verallgemeinert. „... Der Pflug ist ehrenvoller als unmittelbar die Genüsse sind, welche durch ihn bearbeitet werden
und die Zwecke sind. Das Werkzeug erhält sich, während die unmittelbaren
Genüsse vergehen und vergessen werden. An seinen Werkzeugen besitzt
der Mensch die Macht über die äußerliche Natur, wenn er auch nach seinen
Zwecken ihr vielmehr unterworfen ist“5. Während der ersten industriellen
Revolution wurde die Arbeit entwickelt und ihre Produktivität gesteigert,
indem die Arbeitsmittel bzw. Werkzeuge, in denen sich die menschliche
Arbeitskraft vergegenständlicht, durch Maschinen ersetzt wurden. Zunächst
wurde die Werkzeugmaschine (wie der mechanische Webstuhl), dann auch
die Antriebs- oder Bewegungsmaschine (vor allem die Dampfmaschine)
hervorgebracht. Das qualitativ Neue und Charakteristische der gegenwärtigen zweiten industriellen, wissenschaftlich-technischen Revolution ist, daß
nunmehr mit den Informations- und Kommunikationstechniken auch ideelle, steuernde und regulierende Elemente der menschlichen Arbeit vergegenständlicht werden. (Diese Technik ist also nicht etwa einfach eine Fortsetzung der alten Technik, so wenig wie das Auto nur ein schnellerer Och4
5
MARX, Das Kapital, MEW 23, 193.
HEGEL, Wissenschaft der Logik II, Hamburg 1963, S. 398.
Elmar Treptow
senkarren ist.) Diese Techniken, die bewußte Elemente der Arbeit
verobjektivieren, können auch in den Bereichen benutzt werden, die gegenüber der Arbeitswelt relativ selbständig sind, wie in dem militärischen, dem
medienpolitischen oder ästhetischen Bereich.
Die ideellen regulierenden Elemente der Arbeit sind Information, insofern
sie nicht nur eine besondere - Strukturen übertragende - Wechselwirkung
zwischen Systemen wie alle außermenschlichen Regelungsprozesse sind,
sondern insofern sie auch eine bestimmte (nicht-stoffliche und nichtenergetische) Subjekt-Objekt-Relation sind, die ein internes Modell der
Außenwelt herstellt („Widerspiegelung“). Als solche befriedigt die Information bzw. die Kommunikation, d.h. der Austausch von Informationen, das
Bedürfnis nach erkenntnismäßiger Aneignung der Welt und theoretischer
Selbstbestimmung. Jede Information ist an ein Zeichensystem als ihrem
materiellen Träger gebunden, sei es ein Sprach-, Schrift- oder Bildsystem,
die immer eine syntaktische, semantische und pragmatische (gesellschaftliche) Dimension haben. Mit solchen Zeichensystemen werden die - zunächst systemfremden – Daten der Außenwelt aufgenommen, verarbeitet,
gespeichert und abgegeben, d.h. kodiert und dekodiert, wofür wiederum die
Grundlage die kodierende und dekodierende Tätigkeit der Sinnesorgane
und des zentralen Nervensystems ist. (Die Beziehung der Sinnesorgane zu
den Außenweltdaten und der Zeichen zu dem Bewußtseinsinhalt muß als
eine objektiv abbildende angesehen werden, die Zeichen selbst dagegen
sind konventionell.)
In quantitativer Hinsicht wird die Information bestimmt, indem man als
Maßeinheit das „bit“ nimmt, d.h. die Information, die durch die Auswahl
eines Zeichens aus zwei möglichen Zeichen gewonnen wird, z.B. die Entscheidung zwischen den Binärziffern 0 und l. Informationsprozesse auf der
Basis von bits sind „digital“ (z.B. zeigen Digitaluhren die Zeit mit Ziffern
an. Analoguhren dagegen mit Zeigern). Digitale Ja/Nein-Entscheidungen
sind nicht etwa von vornherein zerstückelnd und ungeeignet Zusammenhänge zu erfassen. („Dasselbe Ganze“ ist, wie Hegel darlegt, sowohl diskontinuierlich-numerisch wie kontinuierlich6.) Digitale Entscheidungen sind
so wenig undialektisch wie die positive und negative Elektrizität der Computertechnik7.
Vom Computer wird der Informationsprozeß des menschlichen Nervensystems insofern technisch imitiert und simuliert, als er nach den gleichen
6
7
HEGEL, Enzyklopädie, § 100.
Vgl. Das Andere Computerbuch, hrsg. v. G. v. Randow, Dortmund 1985, S. 78 ff.
Zur Einordnung
Funktionsprinzipien Daten aufnimmt, umwandelt, verarbeitet, speichert
und abgibt. Allerdings sind es nur die sozusagen eingeschliffenen, routinemäßigen automatisierbaren menschlichen Tätigkeiten (deren Ziele oder
Zwecke feststehen und vorausgesetzt sind), die technisch simulierbar sind.
D.h. der Computer kann nicht selbsttätig Zwecke setzen und kann keine
unvorhergesehenen Aufgaben in Angriff nehmen, die sich in der veränderlichen Umwelt stellen. In diesem Sinne ist die „künstliche Intelligenz“
oder „instrumentelle Vernunft“ der Computer - diese technische Rationalität der Produktivkraft - von der praktischen Rationalität der Produktionsverhältnisse abzugrenzen. (Wenn Weizenbaum gegen den „Imperialismus
der instrumentellen Vernunft“ die Ethik setzt, so verselbständigt er sie
allerdingsund löst sie ab von den Produktionsverhältnissen8.)
3.
Die Informationstechnik als Ware und Verkehrung
der Selbstbestimmung
Die Informationstechnik ist nicht nur die Vergegenständlichung der routinemäßigen, automatisierbaren ideellen Elemente der produktiven Arbeit,
sondern sie steht mit diesem ihren Gebrauchswert zugleich auch - wie die
produktive Arbeit selbst - in einer bestimmten gesellschaftlichen Form.
Diese Form, dieses Produktionsverhältnis, ist in unserer Gesellschaftsformation die abstrakte wertproduzierende Arbeit bzw. die Verwertung des
Werts, das Kapital (mit seiner öffentlichen politischen Regelung durch den
Staat). Das macht den Warencharakter und die Widersprüchlichkeit der
Informationstechnik, einschließlich der neuen Medien, aus. Auf diese Widersprüchlichkeit fällt noch ein Licht in den Besinnungsaufsätzen in der
Schule über Fluch und Segen, Chance und Risiko der Technik. Der Chip als
Ware ist die Keim- oder Elementarzelle unserer Problemfelder.
Untergeordnet unter das Kapital, haben die Informations- und Kommunikationstechniken unter anderem die Funktion, die Umlaufzeit des Kapitals
zu verkürzen und dadurch dessen Umschlag zu beschleunigen. Sie haben
damit die gleiche Funktion wie andere Kanäle, etwa Seekanäle, Eisenbah-
J. WEIZENBAUM: Die Macht der Computer und die Ohnmacht der Vernunft,
Frankfurt/Main 1978, S. 337 ff.
8
Elmar Treptow
nen oder Telegraphen9.
Indem die gesamten subjektiven, personalen und objektiven, sachlichen
Produktivkräfte dem verselbständigten automatischen Prozeß des Kapitalwachstums einverleibt und untergeordnet sind, verkehrt sich auch die
Technik gegenüber den gesellschaftlichen Individuen als sie beherrschende,
fremdbestimmende Macht. Im Rahmen dieser Fremdbestimmung wird
dann die Wahlfreiheit zwischen vorausgesetzten Zielen bzw. Programmen
propagiert, was keine soziale Beherrschung der Technik ist.
4.
Die deautomatisierende, technisch nicht simulierbare ästhetische
Tätigkeit
Charakteristisch für die ästhetische Produktion ist die Negation eingefahrener, schematischer, konventioneller und automatisierter Wahrnehmungsund Verhaltensweisen, und zwar durch kalkulierte Regelverstöße (Aristoteles in der „Rhetorik“), verfremdende Schocks (Brecht), Eigensinn (A. Kluge), Mehrdeutigkeiten (Eco), Verrutschen der Bedeutungen (Hofstädter). Das genügt sicherlich.
9
MARX, Das Kapital, Bd. 3, MEW 25, 81
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 16-21
Autorin: Anna Wimmer
Artikel
Anna Wimmer
'Die 'Künstliche lntelligenz'-Forschung
und ihre Auswirkung auf das Menschenbild in der Wissenschaft'
Die „Künstliche Intelligenz“ (Kl) wird in zunehmendem Maße Gegenstand
der öffentlichen Diskussion. So steht dieser Begriff vielfach synonym für
die Möglichkeit, den künstlichen Menschen schaffen zu können. Der
Traum von Frankenstein scheint sich in einem neuen „HardwareFrankenstein“ endgültig aufzulösen und reale Gestalt anzunehmen.
Dieser Gigantismus, den Vertreter der KI-Forschung größtenteils selbst
mitförderten, und ein weitverbreiteter Analphabetismus auf dem Gebiet der
Computerwissenschaften müssen wohl auch der Grund dafür sein, daß es
im Streit um die Kl scheinbar nur enthusiastische Vertreter, wahre Gläubige
der KI-Gemeinde, und ebenso leidenschaftliche Ablehner dieser wissenschaftlichen Disziplin gibt. Erstaunlicherweise werten über alle weltanschaulichen Grenzen und philosophischen Richtungen hinweg die einen die
Kl als den großen „galileischen Wurf“1 des 20. Jahrhunderts, und verteufeln
die anderen die KI-Forscher als raffinierte Scharlatane und publicity-geile
Alchimisten unserer Zeit. Nur sehr zögernd entwickelt sich der sachliche
1 Dieser Vergleich darf allerdings nicht dazu verleiten, die Realität des westlichen Wissenschaftsbetriebes aus den Augen zu verlieren. Es sind nicht die KI-Forscher, die, um
in der Metapher zu bleiben, Probleme mit den „Inquisitoren“ der herrschenden Wissenschaftsauffassung haben. Ganz im Gegenteil: während den KI-Forschern bedeutende
Mittel und Kapazitäten aus der Industrie und an den Hochschulen zur Verfügung stehen, müssen sich die Skeptiker mit sehr viel bescheideneren Möglichkeiten zufrieden
geben. Eine Tatsache, die leider auch häufig dazu führt, daß gerade Geisteswissenschaftler ihre Erkenntnisse nicht in die Auseinandersetzung einbringen, um mögliche Geldquellen nicht zu gefährden. Einen fairen Streit der Ideen gibt es auch hier nicht.
Anna Wimmer
Dialog, der nahezu alle Gebiete der Wissenschaft umfaßt. Und doch ist es
gerade diese Debatte, die mit zu den spannendsten Ergebnissen der KIForschung gehört, weil sie Widersprüche an die Oberfläche befördert und
die Lösung der Frage, „gibt es eine Spezifik des Menschen“, wenn auch
unbewußt, provoziert.
Die KI-Forschung wird üblicherweise als ein Teilbereich der Computerwissenschaften gesehen, ein Bereich der modernsten Technik also; und damit
scheinen die KI-Forscher aus der Debatte um „richtig“ oder „falsch“ bereits aus dem Schneider zu sein. Während man geisteswissenschaftlichen
Erkenntnissen oder Theorien vorerst meist skeptisch gegenübersteht, ja
häufig eine Objektivität für unmöglich erklärt, genügt es bei der Kl oft
schon, daß es hier Wissenschaftler und Techniker sind, die etwas bauen,
was offensichtlich funktioniert, um ihnen auch ihre theoretischen Konzepte
und Begründungen gleich mitabzukaufen. Dabei sind es, wie wir im Folgenden sehen werden, nicht in erster Linie die praktischen Ergebnisse der
Kl, die die heutige Wissenschaft so nachhaltig beeinflussen, sondern vielmehr ihre erkenntnistheoretischen Aussagen.
Im Folgenden möchte ich mich dem Spannungsfeld zwischen Mensch und
„intelligenten Maschinen“ widmen. Dabei soll es nicht um die schlechten
oder guten Anwendungsmöglichkeiten der Kl gehen - an diesem Punkt ist
die Auseinandersetzung viel weiter gediehen -, sondern um die Frage:
„Stimmen die theoretischen Aussagen der KI-Forschung über den Menschen?“
Eine Kritik an diesem Theoriegebäude hat deshalb zweierlei zu leisten:
1. zu zeigen, was die Kl heute kann, wie ihre Prognosen einzuschätzen sind
und wieweit sie ihre eigenen Ansprüche einlöst;
2. zu untersuchen, welche theoretischen Vorannahmen die KI-Forschung
trifft, auf welcher Grundlage dies geschieht, und wie sich diese Annahmen
auf das Menschenbild in der Wissenschaft auswirken. Ich werde diese Vorannahmen die „Axiomatik der Kl“ nennen, weil sie nahezu nie bewiesen
oder hinterfragt werden.
Am Beispiel der automatischen Spracherkennung und des Sprachverstehens
soll deren Problemen nachgegangen und die „Axiomatik der KIForschung“ erläutert werden. Diese sprachorientierte Kl bietet sich an, da
die Sprache eine der wesentlichen Nahtstellen zwischen Mensch und Maschine darstellt.
'Die 'Künstliche lntelligenz'-Forschung ...
1.
Was kann die KI-Forschung
Dazu die Prognose von Marvin Minsky, Leiter des MIT-Programms (1967):
„Innerhalb einer Generation wird das Problem der Schöpfung einer 'Künstlichen Intelligenz' gelöst sein“2
Wahre Wunderdinge waren seither zu hören, die bis heute in den Köpfen
noch häufig als Fakten herumspuken. Es würde zu weit führen, alle Bereiche aufzuzählen, von den Schachcomputern bis zu den allgemeinen Problemlösungssystemen (GPS). Bleiben wir daher nur bei der sprachorientierten Kl: da spricht man von Übersetzungsmaschinen, von Computern, die
menschliche Sprache verstehen und in den Dialog mit den Menschen treten, von phonetischen Schreibmaschinen, die einen gesprochenen Text in
Schriftzeichen umsetzen ... Gibt es das alles schon?
Zu den Übersetzungscomputern: Es gibt Computer, die die Übertragung
eines Textes, in einem thematisch eng begrenzten Rahmen, von einer Sprache in die andere leisten. Übertragung, nicht Übersetzung. Denn alle diese
Übertragungen brauchen eine Nachkorrektur durch einen Übersetzer, weil
der Computer nur die strukturelle Übertragung des Textes von einer Sprache in die andere leistet. Die Zweideutigkeiten, die Metapherhaftigkeit
einer Sprache aber, also das wirkliche Verstehen von Bedeutungen hat er
nicht im Griff. Dabei ist das 'nur' nicht abwertend gemeint. Mag sein, dass
diese Vorarbeiten des Computers für einen Übersetzer eine Hilfe sind;
darüber gibt es gegenteilige Ansichten. Nur die Schlußfolgerung daraus, der
Computer beherrsche Sprachen und könne übersetzen, ist unzulässig.
Zu den Spracherkennungssystemen: Dazu ein Zitat der Fachleute, Dr.
Harald Höge und Dr. Michael Lang, Siemens AG München, Zentrale Aufgaben der Informationstechnik: „Sicherlich wären informationstechnische
Einrichtungen benutzerfreundlicher, komfortabler und auch von Nichtfachleuten leichter bedienbar, wenn sie natürlich gesprochene Sprache 'verstehen' könnten. Obwohl namhafte Laboratorien z.T. schon seit Mitte der
50er Jahre auf dieses offenbar naheliegende Ziel hinarbeiten, ist die Anzahl
der zur Zeit in der Praxis eingesetzten Spracherkennungsgeräte noch gering. (...) Heute kommerziell verfügbar sind sprecherabhängige WorterkenMarvin MINSKY, Computation; Finite and Infinite Maschines, Prentice Hall 1967, S.
2.
2
Anna Wimmer
nungssysteme mit einem typischen Wortschatz von etwa 10 bis 200 Wörtern, die durch kommandohafte Einzelworteingabe abgefragt werden. Der
komplette Wortschatz muß aber zuerst von einem Benutzer in einer Trainingsphase eingeübt werden“3
Auch hier geht es nicht um eine Abwertung der Leistungen der Kl. Es gibt
eine ganze Reihe sehr sinnvoller Anwendungsmöglichkeiten für Worterkennungssysteme, wie z.B. Autos für Behinderte, bei denen die Bedienung
der einzelnen Funktionen durch Einzelwortbefehle des jeweiligen Benutzers ausgeführt wird, ebenso in Bereichen der Chirurgie; und es gibt natürlich auch negative Anwendungsmöglichkeiten, vor allem in der Rüstung, für
die sich die Kl wohl auch diese ehrgeizigen Ziele stecken mußte.
Zu den Dialogprogrammen: Auch hier handelt es sich nicht um eine
echte Kommunikation, sondern lediglich um formale Dialogmodelle, die
mit menschlicher Kommunikation nur sehr wenig gemeinsam haben. Auf
sie, wie Winograds SHRDLU (1971), möchte ich weiter unten noch eingehen. All diese Leistungen der Kl sind zweifellos anerkennenswert, zeigen
aber doch auch ihre Grenzen. Meine Kritik richtet sich daher gegen die
Vorstellung, die aus diesen Leistungen geschlossen wird, daß alle Funktionen der menschlichen Sprache und darüber hinaus sogar alle Funktionen
des menschlichen Denkens vom Computer simuliert werden können; ja
diese Vorstellungen reichen soweit, zu behaupten, die menschliche Sprachverarbeitung funktioniere so, wie sie im Kleinen von Computern simuliert
wird. Und genau das wird von den meisten Vertretern der KI-Gemeinde
behauptet.
2.
Die 'Axiomatik' der KI-Forschung
Diese 'Axiome', wie ich sie nenne, werden keineswegs von den KIForschern explizit als solche formuliert. Das theoretische Grundgebäude
H. HÖGE und M. LANG, Digitale Spracherkennung, Physikalische Blätter 41 (1985),
Nr. l, S. 10.
3
'Die 'Künstliche lntelligenz'-Forschung ...
wird als ein längst bekannter wissenschaftlicher Konsens hingestellt, der
nicht mehr bewiesen werden muß und auch nicht mehr hinterfragt wird. So
wie l +l= 2 einfach gegeben ist. Mit diesen Grundannahmen steht und fällt
jedoch ein wesentlicher Teil der Ausstrahlungskraft der Kl für die Wissenschaften vom Menschen und auch ein bedeutender Anteil ihrer eigenen
Erfolgsbedingungen.
l. Axiom:
Computer und Menschen sind Systeme gleicher
beide sind Automaten.
Obwohl sich die bisherigen Ergebnisse der KI-Forschung im Vergleich zu
ihren Prognosen eher bescheiden ausnehmen, ist der Glaube in der KIForschung nach wie vor ungebrochen, daß Menschen und Computer in
ihren geistigen Formen und Funktionen nichts unterscheidet, außer, daß die
Menschen eben schon länger Zeit hatten, diese zu entwickeln. Dazu die
Aussagen einiger der Päpste der Künstlichen Intelligenz:
A. Newell und H.A. Simon (1961):
„Wir gehen lediglich davon aus, daß die Hardware von Computern der von
Gehirnen insofern ähnlich ist, als beide universelle Apparate zur Bearbeitung von Symbolen sind, und daß ein Computer so programmiert ist, daß er
elementare Informationsprozesse ausführt, die von ihrer Funktion her
ganz den im Gehirn ablaufenden Prozessen entsprechen“4 .
Karl Steinbuch (1965):
„Die Technik der Nachrichtenverarbeitung ist faszinierend. Was sie anstrebt. z.B. Automatisierung mathematischer Arbeit, der Sprachübersetzung, automatische Erkennung der Schrift und der Sprache und Automaten mit der Fähigkeit zu lernen, ist die maschinelle Realisierung von Funktionen, die bisher ausschließlich dem Menschen vorbehalten waren. Wer sich
mit diesen Problemen befaßt, erkennt die enge Verwandtschaft zwischen
organischen und technischen Systemen. Die Auseinandersetzung mit den
Problemen der Nachrichtenverarbeitung ist deshalb nicht nur für den Ingenieur, sondern ebenso für den Geisteswissenschaftler nützlich. Dieser kann
Allen NEWELL und H.A. SIMON, Computer Simulation of Human Thinking, The
RAND Corporation P-2276, 1961, S. 9.
4
Anna Wimmer
am technischen Modell manche Einsicht gewinnen, welche ihm am lebenden System versagt blieb. Der Grundgedanke dieses Buches ist: Was wir an
geistigen Funktionen beobachten, ist Aufnahme, Verarbeitung, Speicherung
und Abgabe von Informationen“5
Terry Winograd (1976):
„Wenn der verfahrenstechnische Ansatz erfolgreich ist, wird es am Ende
möglich sein, die Mechanismen so detailliert zu beschreiben, daß es eine
verifizierbare Übereinstimmung mit den in vielen Aspekten bis ins kleinste
aufgeschlüsselten menschlichen Tätigkeiten gibt“6.
2. Axiom: Der Mensch ist ein informationsverarbeitendes System.
Das 2. Axiom ist eine Folgerung aus dem 1.. Wird angenommen, daß Menschen und Computer Systeme gleicher Art, nämlich Automaten, sind, müssen auch die geistigen Funktionen des Menschen und die des Computers
gleich sein. Während es beim l. Axiom jedoch zumindest in neuester Zeit
Vertreter der KI-Forschung gibt, die diese einfache Formel Mensch= Automat nicht mehr so deutlich aussprechen wollen, findet sich das FolgeAxiom 2 in nahezu allen Veröffentlichungen. Zur Überprüfung dieser These seien die Leser auf die große Anzahl der Diplomarbeiten zu diesen Themen, z.B. an der TU München, verwiesen.
[Absatz fehlt]
3. Axiom:
„X zu verstehen“ bedeutet, ein Computerprogramm
erstellen zu können, das X simuliert.
Dazu zwei Zitate aus einem Aufsatz von S. Papert (1980), in dem er die
Rolle der Kl für die Sprachentwicklungstheorie und die Entwicklungspsychologie behandelt. Im besonderen geht es dabei um die Auseinanderset5
Karl STEINBUCH, Automat und Mensch, 3. Aufl., 1965, S. 2.
Terry WINOGRAD, Towards a Procedural Understanding on Semantics, Revue
Internationale de Philosophie, Nr. 117 - 118, 1976, S. 264.
6
'Die 'Künstliche lntelligenz'-Forschung ...
zung zwischen Chomsky und Piaget, in der Papert die Auffassung von
Piaget vertritt, daß die Sprache nicht in der von Chomsky angenommenen
Form auf angeborene Strukturen zurückgeführt werden kann. Mir soll es
allerdings hier nicht darum gehen, wer von beiden Recht hat, sondern um
die Methodik, mit der Papert seine Auffassung beweisen möchte.
Er meint, die KI-Forschung hätte in dieser Auseinandersetzung drei
„Trümpfe“ in der Hand: „The first (thrust, A.W.) tends to reduce the set of
structures considered to be innate by showing how they could be acquired
through the operation of more powerfui developmental mechanisrns.“, und
weiter unten:
„The contribution of AI to this area is to show how computational primitives are fundamentally important to all 7
[Absatz fehlt]
Es wird der Eindruck erweckt, als habe man sich ganz intensiv mit den
Prozessen im menschlichen Gehirn beschäftigt, und habe nun dies alles
herausgefunden. Daß diese Aussagen jedoch dem Stand der wissenschaftlichen Entwicklung entsprächen, dafür gibt es nur wenig Anhaltspunkte.
Schon die Wortwahl ist unexakt. Die hier verwendeten Begriffe, wie „Information“, „speichern“, „abrufen“, „verarbeiten“, „Verknüpfung“, „Effektivität“, sind in ihrer Bedeutung aus der Nachrichtentechnik abgeleitet.
Obwohl die Techniker sonst von sich behaupten, eine exakte Terminologie
zu benützen, werden sie hier ungenau, weil sie alltagssprachliche Bedeutungen mit denen aus der Nachrichtentechnik vermengen und damit unzulässige Analogiebildungen schaffen.
Der Begriff Information z.B. hat zumindest zwei verschiedene Bedeutungen. Zum einen kann er soviel beinhalten wie „Auskunft“, „Nachricht“,
„Mitteilung“, „Belehrung“ etc. Und natürlich kann man diese InformatioSeymor PAPERT, Artificial Intelligence and General Developmental Mechanisrns, in:
M. Piatelli-Palmarini (ed.), Language and Learning. The Debate between J. Piaget and N.
Chomsky, London 1980, S. 91 ff: „Der erste (Trumpf) zielt darauf, die als angeboren
angenommene Menge von Strukturen zu reduzieren, indem man zeigt, wie sie durch die
Arbeitsweise noch leistungsfähigerer Entwicklungsmechanismen (von Computern)
erworben werden konnten.
Der Beitrag der Kl auf diesem Gebiet ist es, zu zeigen, wie die Grundregeln des Computers für alle geistigen Funktionen von grundlegender Bedeutung sind: indem wir alle
'geistigen Organe' als computerähnliche Prozesse betrachten, kommen wir dazu, sie als
weniger grundsätzlich unterschieden anzusehen, als es Herz und Leber sind.“
7
Anna Wimmer
nen auch verarbeiten, z.B. in einem Zeitungsartikel. Es gibt aber auch den
Informationsbegriff, der aus der Nachrichtentechnik abgeleitet ist, und dort
folgendermaßen definiert ist: Die Information oder der Informationsgehalt,
der durch das tatsächlich stattfindende Ereignis aus der Menge der möglichen Ereignisse (Wahrscheinlichkeitsfeld) gewonnen wird, ist urnso größer,
je größer die Unbestimmtheit vor dem betreffenden Ereignis war, welches
aus der Menge der möglichen Ereignisse eintritt (nach Shannon). Da es sich
bei der Kl um diesen technischen Begriff handelt, ist es unzulässig, dessen
Bedeutung ohne genaue Definition auf den alltagssprachlichen Begriff zu
übertragen. Dabei ist noch zu berücksichtigen, daß es sich bei der Information im nachrichtentechnischen Sinne keineswegs um den semantischen
Gehalt, um Bedeutungen, sondern um rein syntaktische Kombinationen
handelt. Die Bedeutung ist bei der Verarbeitung der Information vorerst
belanglos.
Winograd z.B. erstellte 1971 ein Programm, das den Computer in die Lage
versetzt, in einer eng abgegrenzten „Klötzchenwelt“ einen Dialog mit dem
Menschen zu führen. Aufgrund einer eingegebenen Syntax, einer formalen
Semantik und einer Wissensbasis über die Gegenstände kann dieser Computer auf die Frage „wieviele Klötzchen hast du?“ antworten: „Mir gehören
10 Klötze.“, wenn sie vor ihm auf dem Tisch stehen. Dabei versteht der
Computer nicht im geringsten, was mit dem Begriff 'gehören', 'besitzen',
'haben' alles verbunden ist. Dies ist auch völlig unmöglich, weil es keine
Auswirkungen auf sein „Leben“ hat. Auf welcher Ebene sollen wir also die
Äquivalenz zwischen dem Menschen als informationsverarbeitendes System
und dem Computer annehmen? Auf der Ebene der Hardware, der BitStruktur, der Verarbeitung oder auf der obersten Ebene des scheinbar gleichen Ergebnisses? Was wir bisher von der menschlichen Sprachverarbeitung wissen, ist aber nun gerade, daß es dem Menschen gelingt, über Zeichen, Strukturen, Kombinationen Bedeutungen wahrzunehmen und in
Handlungen umzusetzen. Dabei steht die Wissenschaft hier zwar sicher
noch ganz am Anfang, aber es wird doch schon klar, daß zur Klärung solcher Fragen die Computerwissenschaft allein wenig beizutragen haben wird.
Wenn wir einmal davon ausgehen, daß sich der Begriff der Information
über Shannons Definition hinaus doch auf den bedeutungsbezogenen Bereich geistiger Prozesse ausdehnen ließe, wie dies ja im Bereich der Informationspsychologie versucht wird, dann bilden den Eingang des Systems
die menschlichen Rezeptoren und den Ausgang die menschlichen Effektoren. Dabei läßt sich nun feststellen, daß die Informationsmenge, die von
den Rezeptoren aufgenommen wird, ca. 1010bit/s beträgt. Auf dem Weg
'Die 'Künstliche lntelligenz'-Forschung ...
zum Zentrum der „Verarbeitung“ kommt es jedoch zu einer so enormen
Verdichtung der Informationsmenge, daß für die bewußte Verarbeitung nur
25 bit/s übrig bleiben. Bis heute ist es auch in der Informationspsychologie
ungeklärt, wie die Menschen eigentlich mit dieser geringen Menge die wesentlichen Gegebenheiten der Welt erfassen können.
Einen weiteren Einwand gegen das Modell des Menschen als informationsverarbeitendes System liefert die Neurophysiologie. Bis vor wenigen Jahren
wurde auch hier das digitale Modell von „0“ und „l“ Zuständen für die
Neuronentätigkeit angenommen. Neuere Untersuchungen zeigen jedoch,
daß die Vorgänge in den Nervenbahnen eher analogen Verhältnissen
entsprechen, die sehr viel komplexere Strukturen aufweisen und nicht mit
dem Parallelverarbeitungsmodell der Computerwissenschaft erklärt werden
können.
Wir können also festhalten, daß diese Analogiebildungen der Kl vor allem
durch die Prozesse im Computer genährt werden, nicht jedoch durch die
Erforschung des menschlichen Gehirns. Sollte man aber, um den Menschen zu erklären, nicht auch ab und zu den Menschen betrachten? Übrigens sehen auch einige Vertreter der Kl darin einen großen Mangel und
erkennen mehr und mehr diese Gleichsetzung Mensch=Computer als
einen Grund dafür, daß sich die KI-Forschung häufig in Sackgassen begeben hat.
Was ist dann nach wie vor das Verführerische an der Kl? Die Kl bietet
durch ihre Möglichkeiten einen scheinbar materialistischen Ansatz zur Erklärung geistiger Vorgänge im Menschen. Dabei ist es aber gerade diese
scheinbar materialistische Erklärung, die über diese Hintertür zu einem rein
mechanistischen Menschenbild führt.
4.
Die „Mikrowelt“ der Kl
Die etwas spärlichen Ergebnisse der Kl führten dazu, dass man in neuerer
Zeit (etwa seit 1970) nicht mehr die Entwicklung allesumfassender komplexer Modelle des Menschen und deren Simulation durch den Computer in
Vordergrund stellt, sondern auf die Entwicklung sogenannter „Mikrowel-
Anna Wimmer
ten“ ausweicht. In diesem Zusammenhang steht das bereits erwähnte Programm von Winograd zum Verstehen natürlicher Sprachen SHRDLU
(1971). Es handelt sich hierbei nach Winograd um „ein Computerprogramm, das Sprache in einem begrenzten Bereich 'versteht', indem es ein
Modell des Gegenstandes enthält, über den geredet wird, sowie einen Kontext der Unterhaltung ...“8.
Mit dem Versuch, Sprachverhalten in einem überschaubaren Teilbereich zu
simulieren, wird aber sehr viel mehr versucht, als nur einen konkreten
Anwendungsbereich abzudecken. Das Sprachverhalten, geistige Funktionen
des Menschen, wie Denken und Intelligenz, sollen in ihre Atome oder Elemente zerlegt werden. Diese Funktionen werden dann als Größen behandelt, die, vom übrigen Leben des Menschen getrennt, isoliert simuliert werden können. So schreiben Papert und Minsky: „Die Künstliche Intelligenz
befindet sich als neue Technologie in einem Zwischenstadium der Entwicklung. Während der ersten Phase eines neuen Forschungszweiges müssen die
Dinge vereinfacht werden, so daß sich die elementaren Phänomene isolieren und untersuchen lassen. Bei den erfolgreichsten Anwendungen arbeiten
wir mit einer Strategie, die wir als 'Arbeiten in einer Mikrowelt' bezeichnen“9.
Daß sich die Ausdehnung dieser Mikrowelten auf die gesamte Welt äußerst
kompliziert gestaltet, haben die KI-Forscher größtenteils selbst erkannt.
Dennoch halten sie an einer rein quantitativen Vorstellung dieser Ausdehnung fest. Die Gleichsetzung des Menschen mit dem Computermodell
führt dazu, daß qualitative Entwicklungen menschlicher Intelligenz geleugnet werden, weil sie mit den mechanischen, von expliziten Regeln abhängigen Programmen nicht erklärt werden können. Dabei ist offensichtlich, daß
die menschliche Intelligenz gerade dann einsetzt, wenn die expliziten Regeln nicht mehr angegeben werden können. Nach wie vor ist, nicht nur für
die Kl, unklar, wie sich der Mensch so rasch auf das für ihn Wesentliche
konzentrieren kann, obwohl er dafür keinen Grund angeben kann. (Vergleiche dazu die Protokolle von Schachspielen, die von Schachmeistern aufgenommen wurden, in: H.L. Dreyfus, 1985 10.)
T. WINOGRAD, A Procedural Model of Language Understanding, in: R. Schank u.
K. Colby (Eds.), Computer Models of Thought and Language, San Francisco 1973.
8
S. PAPERT u. M. MINSKY, Artificial Intelligence Laboratory MIT, Memo Nr. 299,
1973, S. 95.
9
10 „Manchmal gebrauchte de Groots Spieler so allgemeine Sätze wie, '... und das ist eine
Gewinnstellung für Weiß', wo es nicht möglich ist zu erkennen, welche Struktur oder
'Die 'Künstliche lntelligenz'-Forschung ...
Durch die scheinbar mögliche Simulierung einzelner geistiger Funktionen
des Menschen im „Mikrowelt“-Modell werden materielle und geistige Prozesse gleichgesetzt. Dabei bleibt diese Simulation jedoch rein äußerlich und
formal, wie dies die Dialogprogramme zeigen. Die Beziehung, das dialektische Verhältnis von Sein und Bewußtsein, wird nicht erklärt; ja, wird nicht
einmal mehr zum Gegenstand der Forschung. Ein Zitat von Gero v. Randow verdeutlicht diese undialektische Gleichsetzung: „Warum sollen die
erfindungsreichen Menschen das Gefühl nicht eines Tages als inneren Zustand eines Computersystems simulieren können? Vernünftiger und aufregender als die Behauptung, daß Computer kein Gefühl haben, ist die Frage:
Was sind Gefühle und wie muß ein Programm aussehen, das ein Modell
menschlicher Gefühle ist?“11
Unabhängig davon, daß es sicherlich nicht die einzige oder wesentliche
Spezifik des Menschen ist, Gefühle zu haben, gehe ich davon aus, daß wir
zur Erforschung der Phänomene unserer Gefühlswelt mehr brauchen als
die „Künstliche Intelligenz“. Was hier gerade ungeklärt bleibt, ist die Beziehung der materiellen und der Bewußtseinsprozesse. Wie sieht dieser innere
Bewußtseinszustand aus? Die Tatsache jedenfalls, daß bei allen geistigen
Prozessen auch materielle Prozesse ablaufen und die notwendige Basis
dafür bilden, reicht nicht aus, um zu einer einfachen Reduktion dieser
geistigen Prozesse auf ihre materielle Basis zu kommen. Wenn Menschen
miteinander sprechen, hören sie z.B. 'Baum' und nicht ein kompliziertes
physikalisches Lautspektrum. Ein Verrücktspielen der Module eines Computers wird mit Sicherheit nicht identisch sein mit seinem inneren Zustand
des Verliebtseins.
Im übrigen scheint mir auch hier im Vordergrund der Zweck zu stehen,
menschliche Gefühle nur deshalb zu untersuchen. um ein entsprechendes
Computermodell erstellen zu können. Auch wenn das vielleicht keine bewußte Intention des Autors ist, halte ich dieses Vorgehen dennoch für
fragwürdig.
Wenn die Kl ihr selbstgestecktes Endziel, die Schaffung einer künstlichen
welche Merkmale der Stellung zu dieser Einschätzung führen.“
NEWELL u. SIMON, An Example of Human Chess Play in the Light of Chess Playing
Programms, Carnegie Institut of Technology, 1964, S. 10, in: Hubert L. Dreyfus, Die
Grenzen künstlicher Intelligenz, 1985, S. 54 ff.
11
G. v. RANDOW, a.a.O., S. 75.
Anna Wimmer
Intelligenz, die der menschlichen ebenbürtig ist, für machbar hält, dann
muß sie davon ausgehen, daß der menschliche Geist allein aus der additiven
Anhäufung seiner „Organe“ erklärt werden kann. Der Mensch wird so
letztlich zu einem von ungeklärter Hand programmierten Objekt erklärt,
aber nicht zu einem sich durch seine spezifischen Beziehungen zur äußeren
Welt selbst schaffenden Wesen.
Der Kernpunkt meiner Kritik an der KI-Theorie des Menschen ist, daß das
Wesentliche des Menschen sich nicht durch noch so atomistische Detailuntersuchungen herausfinden läßt. Wenn es nicht gelingt, die Segmente in
ihren Zusammenhang zu bringen, werden wir den wesentlichen Funktionen
menschlicher Intelligenz, z.B. der menschlichen Sprache, nicht näher
kommen. Vor dieser Herausforderung stehen heute alle Einzelwissenschaften bei ihrer empirischen Arbeit. Wenn v. Randow beteuert, „der Mensch
ist ein Automat“, und impliziert, das macht doch nichts, dann fühle ich
mich dadurch zwar ebensowenig gekränkt, wie wenn er sagt, „der Mensch
ist ein Haufen Eiweiß“, er lenkt damit aber von dem ab, was das Wesentliche des Menschen ausmacht und einer gründlicheren wissenschaftlichen
Arbeit bedarf.
„Und dann glaubt der Vulgäre eine große Entdeckung zu machen, wenn er
der Enthüllung des inneren Zusammenhangs gegenüber drauf pocht, daß
die Sachen in der Erscheinung anders aussehen. In der Tat er pocht drauf,
daß er am Schein festhält und ihn als Letztes nimmt. Wozu dann überhaupt
eine Wissenschaft?“ Karl Marx, 1868 12.
12 Karl MARX an Ludwig KUGELMANN, 11. Juni 1868, In: MEW. Bd. 32, S.
553.
'Die 'Künstliche lntelligenz'-Forschung ...
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 29-41
Autor: Alexander von Pechmann
Artikel
Alexander von
Pechmann
John Locke / Gottfried W. Leibniz / Giambattista Vico: Der Geist in der Maschine? - Ein Gespräch
Wohl aufgrund des Namens unserer Zeitschrift wurde vor kurzem der
Redaktion vermutlich von dem schon anderweits bekannten Kontaktmann
himmlischer Ereignisse und Beschlüsse, Aloys Hingerl ein überaus bemerkenswerter Bericht überbracht. Der Bericht gibt augenscheinlich ein Streitgespräch wieder, das erst kurzem geführt worden sein muß, und das in der
Tat von aktuellem Anlaß ist. Es behandelt die Fragen nach dem Verhältnis
von Denken und Wissen, „intelligenten Maschinen“, der Erkennbarkeit der
Welt und dem Verhältnis von formalisierten Systemen und menschlicher
Intelligenz. Die drei Teilnehmer des Gesprächs sind erstens John Locke
(1632 - 1704), der, wie der Bericht zeigt, weiterhin an den von ihm entwickelten Positionen des theoretischen Empirismus und des praktischen Individualismus festhält; des weiteren Gottfried Wilhelm Leibniz (1646-1716),
der offenkundig dem logischen Rationalismus und seiner damaligen Idee
der „prästabilierten Harmonie“ treugeblieben ist, und im übrigen eine der
ersten Rechenmaschinen entwickelt hatte; und schließlich Giambattista
Vico (1666 - 1744) aus Neapel, einer der Begründer der modernen Geschichtsphilosophie, der sich auch in dem Gespräch für den von ihm entwickelten Grundsatz, daß das Wahre und das Gemachte eins seien („verum
et factum convertuntur“), stark macht.
Obwohl wir über die näheren und weiteren Umstände dieses Streitgesprächs nichts wissen, freuen wir uns natürlich, unseren Lesern den Bericht
zur Kenntnis zu geben, und haben versucht, da, wo es uns möglich und
nützlich erschien, den Text durch Erläuterungen zu erhellen.
Alexander von Pechmann
LOCKE: Lieber Gottfried, haben Sie das schon gehört? Da unten wollen
sie jetzt ein riesiges Projekt beschließen, um den Krieg jetzt auch hier oben
führen zu können. Einstein meinte schon, die sind jetzt völlig übergeschnappt; nicht nur, daß sie sich ein dutzendmal in die Luft jagen können,
jetzt arbeiten sie auch noch an Apparaten, die für sie das Kriegführen im
Himmel erledigen sollen. „Intelligente Waffen“ nennen sie diesen Wahnsinn.
Erinnern Sie sich noch an unser Gespräch damals in Amsterdam mit dem
jungen Vico1? Schon damals hatte ich das alles vorausgesehen. Diese Entwicklung von 'Denk'maschinen, die den menschlichen Geist einfangen
sollten, und von der Sie so begeistert waren, - ich wußte schon, daß sie
nichts Gutes bringen wird.
LEIBNIZ: Nun ja, ich erinnere mich. Sie vertraten damals die Ansicht, die
mich übrigens noch immer nicht überzeugt, daß einzig und allein der
Mensch, besser: der menschliche Geist, in der Lage sei zu denken.
LOCKE: Ja, genau. Denn das Denken besteht in nichts anderem als in der
Reflexion der Wahrnehmungen. Und da, wo diese Wahrnehmungen und
die vergleichende und verknüpfende Reflexion fehlen, da existiert eben kein
Denken. Jetzt aber zerlegen sie diese Wahrnehmungen in sogenannte Daten, verwandeln die Reflexion in elektrische Kreise und Flüsse - und nennen das Ganze dann „intelligente Maschinen“. Eine Mißachtung des
menschlichen Geistes ist das, die ich mir, lebte ich noch unter diesen Verrückten, nicht gefallen ließe.
LEIBNIZ: Übertreiben Sie da nicht ein bißchen, lieber John? Wenn ich
mich recht erinnere, habe ich Ihnen damals schon erklärt, daß Sie zwei
Sachen verwechseln: nämlich das Denken, von dem ich Ihnen in der Tat
recht gebe, daß dies im Bewußtsein der Menschen geschieht, und andererseits das Wissen, von dem ich allerdings weiterhin behaupte, es existiert im
Menschen unabhängig davon, ob er es denkt oder nicht. Hatte ich Ihnen
nicht das Beispiel von Platon im „Menon“ genannt, als Sokrates durch das
bloße Fragen einen Sklaven dazu bringt, mathematische Wahrheiten auszusprechen, die er niemals gelernt und gedacht, und doch gewußt hatte? Wir
1
J. Locke bezieht sich auf eine Unterredung, die von ihm, Leibniz und Vico in Amsterdam höchstwahrscheinlich im Jahre 1702 geführt wurde.
Der Geist in der Maschine?
wissen eben gar viele Dinge, die wir noch nie gedacht haben2. Und wenn
ich heute beobachte, wie die Wissenschaft dazu kommt, die allen Sprachen
gemeinsamen, logischen Strukturen aufzufinden, dann sehe ich mich in der
Tat darin bestätigt, daß die Wissensstruktur und das aktuelle Denken zwei
ganz verschiedene Dinge sind3.
LOCKE: Oh, nein. Sie haben hoffentlich nicht vergessen, daß ich damals
sowohl die Methode von Sokrates, mit der er den Sklaven dazu brachte, wie
auch Ihre Argumentation für einen unsauberen Trick gehalten habe. Denn
die Behauptung, dem Geist sei zwar ein Wissen eingeprägt, das er aber gar
nicht kenne und sich niemals bewußt gemacht zu haben brauche, enthält in
sich einen Widerspruch. Wie soll denn ein Satz im Bewußtsein sein, ohne
jemals bewußt geworden zu sein4? Und was Ihre Beobachtung der Wissenschaft angeht, so hat bislang noch keiner diese spekulativen Strukturen
angeben können. Ein Wissen ohne die Tätigkeit des Geistes ist unmöglich.
Und geradezu widersinnig ist die Meinung, elektrische Schaltungen verkörperten ein Wissen.
LEIBNIZ: Aber mein lieber John. Sie können doch weniger denn je in
Abrede stellen, daß die Logik und die Mathematik nicht deswegen ihre
Gültigkeit besitzen, weil Sie oder ich sie uns bewußt machen, sondern daß
sie umgekehrt deswegen gelten, weil wir sie als wahr erachten müssen, wann
immer sie uns bewußt werden. Ansonsten wären ihre Gesetze ja bloße
Übereinkünfte, die auch ganz anders sein könnten; und das werden Sie
doch wohl nicht behaupten wollen. Ich finde es tatsächlich eine der genialsten Leistungen der Menschen, Maschinen konstruiert zu haben, die die
Logik und die Mathematik in ihren vielfältigsten Möglichkeiten repräsentieren. Wenn ich an meine einfache Rechenmaschine von damals denke, dann
könnte ich immer noch unglücklich darüber werden, daß es mir nicht vergönnt war, diese Maschine zu erfinden!5
2
Vgl. die ähnliche Argumentation, die Leibniz 1703 niederschrieb, und die nach seinem
Tod 1765 unter dem Titel „Neue Versuche über den menschlichen Verstand“, 1.Buch,
veröffentlicht wurde.
3 Leibniz bezieht sich offenbar auf die Richtung in der gegenwärtigen Linguistik, die die
„generative Grammatik“ (Chomsky) vom aktuellen Sprechen unterscheidet.
4 J. Locke hat diesen Gedanken schon in dem 1690 erschienenen „Versuch über den
menschlichen Verstand“, 2.Buch, 1.Kap., ausgeführt.
5 1673 wurde Leibniz aufgrund seines Modells einer Rechenmaschine in die 'Royal
Society' zu London aufgenommen. Allerdings funktionierte diese Maschine trotz erheblicher Investitionen von Leibniz niemals zufriedenstellend.
Alexander von Pechmann
LOCKE: Ich rede offenbar noch immer an eine unüberwindliche Wand.
Verstehen Sie denn nicht, daß es keineswegs überzeugend ist, wenn Sie aus
der Tatsache, daß wir ohne Zweifel die Axiome der Logik als wahr ansehen,
darauf schließen, daß diese folglich (!) unabhängig vom Denken, quasi an
sich, vorhanden sind? Es wäre genauso, als würden Sie behaupten, die
Buchstaben- und Wörterfolge in einem Buch verkörpere ein Wissen, unabhängig davon, daß es geschrieben und gelesen wird.
Daß diese Auffassung nicht nur unsinnig ist, sondern auch gefährlich wird,
sieht man daran, daß neuerdings viele Menschen mit fast schon religiöser
Ehrfurcht vor dem sogenannten Maschinenwissen in die Knie gehen. Wo
bleibt denn da noch die menschliche Freiheit und Würde, wenn nicht mehr
der menschliche Geist, sondern ab jetzt die Maschine das Wissen in Besitz
hat? Können Sie wirklich ...
VICO: Ja, was höre ich? John Locke wieder in seinem Element? Erlauben
Sie, daß ich als Dritter Ihrem Bunde hinzutrete?
LEIBNlZ: Aber gerne; noch dazu, wo es eigentlich um dieselbe Angelegenheit geht, die wir drei schon damals in Amsterdam verhandelt hatten. Erinnern Sie sich noch?
VICO: Natürlich. Ist das Wissen bloß subjektiv, oder auch objektiv? In der
Tat ein hochaktuelles Thema. Zwar spricht man heute ja wohl nicht mehr
vom „Wissen“, sondern von „Verdrahtung“, von „Information“, von
„Speicherung“ usw., aber das Problem scheint mir tatsächlich das alte zu
sein ...
LOCKE: ... und eine neue Verrücktheit. Man tut wirklich so, als wäre das
dem Menschen Ureigenste, seine Seele und sein Geist, ein x-beliebiger Gegenstand, den man wie eine seelenlose Maschine zerlegen und wieder zusammensetzen kann.
VICO: Lieber John, nun beruhigen Sie sich doch. Auch ich räume Ihnen
gerne ein, daß die Erforschung einer „künstlichen Intelligenz“, wie man das
heute zu nennen pflegt, keineswegs unproblematisch ist; aber schon damals
hatte ich Sie darauf hinzuweisen versucht, den menschlichen Geist nicht
nur isoliert, als eine völlig eigenständige Substanz, zu betrachten, sondern
ihn an seinen Produkten und Objektivationen zu messen. Das Wahre und
das Gemachte, sagte ich, sind ein und dasselbe. Folglich sehe ich in der
Der Geist in der Maschine?
Entwicklung dieser neuen Technik keinen erneuten Verstoß gegen die
Menschlichkeit, sondern ein wirklich aufregendes Beispiel der menschlichen
Produktivität, das vielleicht nur noch mit der Erfindung des Pfluges oder
der Maschine vergleichbar ist6. Wenn Sie sich vorstellen, wieviel logisches,
mathematisches, elektrotechnisches und auch chemisches Wissen in den
Bau dieser Apparate eingeht, dann finde ich das keine Verrücktheit, sondern im Gegenteil eine geniale Leistung.
LOCKE: Das ist ja unbestritten, aber keine Lösung des Problems. Wieviel
Genialität steckt in den Konstruktionen von Kanonen und Bomben, die
doch nur dazu dienen, menschliches Leben zu vernichten. Ich jedenfalls
bleibe dabei: zwischen dem menschlichen Geist und noch so genial ausgeklügelten elektrischen Schaltungen besteht ein substantieller Unterschied,
der das menschliche Wissen niemals ersetzen läßt. Das eine ist Geist, und
das andere ist Materie.
LEIBNIZ: Nun, lieber John, da haben wir Sie ja. Hatte ich Ihnen nicht in
aller Eindringlichkeit klar zu machen versucht, daß ihr Cartesianismus, dem
Sie offenbar immer noch anhängen, gänzlich unhaltbar ist? Ich halte es da,
bei allen Einwänden, viel lieber mit Spinoza, der ja glücklicherweise diesen
unseligen Dualismus von Geist und Materie überwunden hat. Wissen Sie,
erst kürzlich hatte ich ein sehr interessantes Gespräch mit dem Physiker
Erwin Schrödinger7, der, wie er sagte, von Mal zu Mal verblüffter ist, wie
sehr doch die materiellen Strukturen unserem Bewußtsein ähneln. Und was
mich natürlich besonders freut, daß meine Thesen von damals, von der
prästabilierten Harmonie des Universums, von der Übereinstimmung der
Gesetze der körperlichen Bewegungen mit denen der geistigen Tätigkeit,
und den nur graduellen Unterschieden zwischen den Naturkräften und dem
Bewußtsein, offenbar immer mehr Anhänger gewinnt. Wenn also diese
Übereinstimmung zwischen Materiellem und Geistigem sich bestätigt, was
in aller Welt soll dann daran verwerflich sein, Apparate zu konstruieren, die
nach den Regeln der Logik und der Mathematik funktionieren? Die Re6
Vico war, wie Marx später hervorhob, einer der ersten, der seinen Blick auf die Geschichte der Technologie richtete, da sie Ausdruck der Schöpferkraft des menschlichen
Geistes sei. Obwohl sein Hauptwerk „Die neue Wissenschaft über die gemeinschaftliche
Natur der Völker“ erst posthum 1744 nach jahrzehntelanger Arbeit veröffentlicht wurde, war ihm offenkundig schon 1702 die Bedeutung des Werkzeugs für die menschliche
Geschichte klar.
7 Erwin Schrödinger (1667 - 1961), Atomphysiker und Verfasser der wichtigen Schrift:
„Was ist Leben?“.
Alexander von Pechmann
chenbretter, die wir damals noch verwendet haben, oder die Rechenschieber verkörperten doch auch schon arithmetisches Wissen, ohne
daß sich jemand darüber aufgeregt hatte.
VICO: Lieber Gottfried, spielen Sie die Bedeutung der neuen Technik jetzt
nicht ein bißchen sehr herunter? Die modernen Rechenautomaten bestehen
ja nicht nur aus logischen Schaltungen, sondern sind auch in der Lage, Daten zu speichern und diese nach einem gegebenen Programm zu verarbeiten. Hier kann man nicht mehr nur davon reden, daß sie ja bloß logisches
Wissen in ihren Schaltkreisen verkörperten, sondern daß sie gewissermaßen
auch über ein Tatsachenwissen verfügen und mit diesem selbsttätig operieren können. Und das kommt doch schon sehr nahe an das heran, was normalerweise mit „Denken“ bezeichnet wird.
LEIBNIZ: Sie haben völlig recht. Mir ging es eben nur darum, Johns überspitzten Empirismus und Psychologismus zu widerlegen. Wenn er meint,
Wissen, und vor allem das logische und mathematische, allein auf die Tätigkeiten des menschlichen Geistes gründen zu müssen, dann irrt er darin
leider.
Ansonsten bin ich sogar sehr stolz, wenn ich sehe, wieviele Impulse ich mit
meiner alten Idee der „ars combinatoria“ gegeben habe. Können Sie sich
erinnern, wie ich damals erwähnte, daß man letztlich alle Zahlen und Begriffe in Kombinationen aus zwei Ziffern darstellen können müßte; und daß
dies sowohl zu einer erstrebenswerten Klarheit bei der Verwendung der
Begriffe als auch zur größten Übersichtlichkeit und Leichtigkeit der Berechnungen führen würde?8
VICO: Natürlich erinnere ich mich. Auch wenn ich meine Bedenken hatte.
LEIBNIZ: Nun, das hat sich ja glänzend bestätigt. Damals allerdings sah
ich weit und breit keine Möglichkeit, dieses dyadische Programm auch nur
annähernd technisch zu realisieren. Die notwendigen Speicherungen und
Umformungen solcher Formeln waren mit den Mitteln der Achsen und
Zahnräder einfach nicht durchführbar. Erst die Silizium-Halbleiter-Technik,
wirklich eine geniale Leistung, hat hier den Durchbruch geschafft.
8
Leibniz bezieht sich offenbar auf seine Arbeit: „De Progressione dyadica“, in der er analog dem Grundgedanken der Tao-Philosophie des „Yin und Yang“ - ein binäres
Zeichen- und Rechensystem entwickelte.
Der Geist in der Maschine?
VICO: Dann sind wir ja soweit, die Frage zu stellen, ob diese SiliziumHalbleiter-Systeme denken können.
LEIBNIZ: Stimmt. Zuerst einmal verkörpern sie zweifellos logisches Wissen: denn sie sind nach den Regeln der mathematischen Logik aufgebaut.
Weiterhin müssen wir uns vergegenwärtigen, daß zwischen dem aktualen
Denken, den Wahrnehmungen, Vorstellungen, Wünschen usw., die ich
„Perzeptionen“ nannte, und dem erkennenden Denken, der „Apperzeption“, ein Unterschied besteht. Während im ersten Fall dem Menschen alles
mögliche durch den Kopf geht, ahmt der menschliche Geist, so sagte ich,
im zweiten Fall nach, wie Gott in seiner Vernunft die Welt geschaffen hat,
indem er sachgemäß die Zahlen und Begriffe miteinander verknüpft und
trennt. Und wenn nun ein Automat mit exakt festgelegten Zeichen nach
den Vernunftgesetzen des Beweises und der Berechnung operiert, trennt
und verbindet, sehe ich keinen Grund, nicht zu sagen, er denkt. Im Gegenteil, die Maschine garantiert die Folgerichtigkeit der logischen Operationen
in weit höherem Maße als der Mensch; denn welch hohes Maß an Aufmerksamkeit ist für den Menschen erforderlich, wie oft täuscht ihn sein Gedächtnis oder versagt die Erinnerung; von der Geschwindigkeit der Operationen einmal ganz abgesehen.9
Ich sehe es daher weniger denn je als ausgeschlossen an, eine künstliche
Intelligenz, oder wie ich sagen würde, eine „künstliche Monade“ zu schaffen, die alle notwendigen Informationen - ich sage dazu „Tatsachenwahrheiten“ - nicht nur speichert und auflistet, sondern sie sachgemäß verbindet
und organisiert. Wäre es nicht in der Tat die erhabenste Aufgabe der Wissenschaft, ein Kunstwerk zu fertigen, das als Spiegel des Universums dessen
Harmonie und Vollkommenheit in völliger Klarheit repräsentiert? Eine
Aufgabe, zu der der individuelle Geist wohl berufen, doch der Trübungen
seines Bewußtseins wegen nicht fähig ist.
LOCKE: Um Gottes Willen, nein! Sobald Sie mit Ihrer fixen Idee einer
„künstlichen Zentralmonade“ anfangen, drängt sich mir jedesmal ganz
unweigerlich Hobbes' Theorie vom „Leviathan“ auf, von jenem „künstlichen Gott“, dem sich die Menschen aus Einsicht in ihre vermeintlichen
Unzulänglichkeiten unterwerfen sollen. Was bei ihm wenigstens noch als
9
Leibniz schlug schon damals in seiner Schrift zur „ars combinatoria“ ein Verfahren
vor, nach dem sich philosophische Dispute durch das Rechnen mit festgelegten Zeichen
werden lösen lassen.
Alexander von Pechmann
Person gedacht war, das ist für Sie nur mehr eine Maschine aus Drähten,
der der Mensch gehorchen muß, weil sein eigener Verstand so schwach sei.
Nein, das läßt sich mit menschlicher Freiheit nicht mehr vereinbaren.
Doch lassen Sie mich noch einen anderen Einwand anführen, der Sie vielleicht eher überzeugt. Kürzlich hatte ich mit Wittgenstein - Sie kennen ihn?
- ein Gespräch über Probleme der Sprache; und dabei ist mir etwas aufgegangen, was mir vorher noch nicht so klar war. Offenbar hängen Sie in
Ihrem unerschütterlichen Vertrauen in Spinoza noch immer dem Glauben
an, eine eindeutige Relation zwischen den Zeichen und Dingen und zwischen den Sätzen und Tatsachen herstellen zu können. Wittgenstein hat mir
sehr lebendig geschildert, wie schwer es für ihn war, sich von diesem Irrglauben zu lösen. Begriffe, so seine Erkenntnis, kann man nicht fixieren,
kann man nicht davon loslösen, wie der Mensch sie gebraucht, welche Bedeutung er ihnen in seinem geistigen Kontext verleiht. Die metaphysische
Gleichsetzung von Begriff und Sache und die Fixierung des Dings im Zeichen ist erkenntnistheoretisch gesehen völlig unkritisch und dogmatisch,
und wohl eher dem magischen als dem freien Denken verbunden.
Doch nur diese unkritische Ineinssetzung äußerer Zeichen mit Dingen
erlaubt es Ihnen, lieber Gottfried, irgendwelche elektromagnetischen Zustände als Wissen und irgendwelche Stromflüsse als Denken zu betrachten.
Wo die Wahrnehmung, die Reflexion des Geistes und lassen Sie mich noch
hinzufügen - der praktische Umgang mit den Inhalten des Bewußtseins
fehlt, fehlt auch das Wissen und das Denken. Maschinen denken nicht, weil
ihnen der Geist fehlt.
LEIBNIZ: Na, da haben Sie aber einen schönen Mitstreiter gefunden, lieber John. Ich könnte Ihnen da noch eine ganze Reihe sogenannter Philosophen nennen, die in letzter Zeit zu uns gestoßen sind, und die sich hier in
Pessimismus und in einem gottlosen Nihilismus verbreiten, der mich fragen
läßt, was sie eigentlich hier wollen. Jedenfalls haben die alle eine recht verschrobene Metaphysik und oft wenig Ahnung von der Rolle der Logik und
Mathematik.
Doch bleiben wir sachlich. Ich vertrete ja keinen einfachen Materialismus,
wie Sie unterstellen, der die geistige Tätigkeit auf mechanische Zustandsänderungen reduzieren will: den mag's auch geben. Ich hingegen behaupte,
daß es zwischen den dynamischen Strukturen der Naturkörper und der
Tätigkeit des menschlichen Bewußtseins keinen substantiellen Gegensatz
Der Geist in der Maschine?
gibt, wie Sie meinen, sondern eine Übereinstimmung. Und daher kann ich
nicht einsehen, warum nach logischen Regeln geordnete Stromkreise und flüsse nicht als „Intelligenz“ gedeutet werden sollten; das ist für mich eine
Frage ihrer Organisation und Funktionsweise, nicht der Substanz.
Weiterhin weigere ich mich zu behaupten, es sei prinzipiell unmöglich, ein
vollständiges Wissen der Welt zu erreichen, auch und erst recht in einer
künstlichen Monade. Nur wenn man, wie diese Gottlosen, die Sie sich als
Verstärkung geholt haben, meint, die Welt sei nicht nach vernünftigen
Grundsätzen eingerichtet oder, wie ich damals sagte, nicht „die beste aller
Welten“10. Dann allerdings sollte man besser schweigen, als ständig die
menschliche Unfähigkeit zur Erkenntnis beklagen.
VICO: Vertreten Sie jetzt nicht einen recht naiven Optimismus? „Gott hat
die Welt nach vernünftigen Prinzipien geschaffen“, „Der Computer als
vollkommenes Erkenntnisorgan“ - das ist doch reichlich problemlos gedacht. Ich muß John in seiner Befürchtung recht geben, Ihre These von der
Überlegenheit des Maschinenwissens berge in sich manch inhumane Züge.
Andererseits kann ich aber auch seinem überzogenen Dualismus nicht
zustimmen, der Geist und Materie so schroff gegenüberstellt.
Lassen Sie mich bitte nochmals auf meine alte These des „Verum et Factum convertuntur“ zurückkommen. Was ist denn das Wesentliche des modernen Automaten, über den wir die ganze Zeit sprechen? Doch nicht, daß
er bloß aus Materiellem besteht, oder daß er auch Wissen verkörpert; das
Wesentliche ist doch, daß er von den Menschen gemacht und produziert
worden ist. Er ist zu dem Zweck erdacht, konstruiert und produziert worden, dem Menschen geistige Arbeit abzunehmen, ihn für dessen Zwecke
wirken zu lassen; sei es, weil die geistige Arbeit zu stumpfsinnig, sei es, weil
die nötigen Berechnungen für den menschlichen Geist zu komplex und
langwierig sind. Und wie ein Pflug etwa als bloßes Naturding nichts anderes
bewirkt, als Rillen in die Erdkruste zu ritzen, oder ein Webstuhl verschiedene Fäden zu verknüpfen, so bewirkt dieser Automat zunächst nichts anderes als eine Veränderung elektrischer oder magnetischer Zustände. Das ist
die eine, rein materielle Seite. Die andere aber ist, daß diese Mechanismen
für den Menschen Bedeutung gewinnen, indem er sie in seinen Arbeits- und
Lebenszusammenhang integriert. Der Pflug schafft die Voraussetzungen
fürs Säen, der Webstuhl einen nützlichen und ästhetischen Gegenstand,
10
Vgl. Leibniz' „Theodizee“ von 1710.
Alexander von Pechmann
und der Computer eben Zustände, die als Problemlösungen interpretiert
werden. Was immer er an sich sein mag, das Wesentliche ist, daß er ein vom
Menschen geschaffenes Organ ist, das ihm geistige Arbeit abnimmt.
Wenn wir nun davon ausgehen, daß dieser Gesichtspunkt das Entscheidende der neuen Technik ist, dann ergeben sich m.E. zwei grundsätzliche
Probleme. Das eine besteht darin, daß sich die Menschen durch diese
Technik ihre geistigen Fähigkeiten, freiwillig oder nicht, wegnehmen lassen.
Neulich habe ich mir sagen lassen, daß ein Computerwissenschaftler ein
psychotherapeutisches Programm erarbeitet hat, und ganz entsetzt war, wie
vertrauensselig viele Menschen, wider besseres Wissen, mit dem Automaten
als ihrem Therapeuten kommuniziert haben.11
LOCKE: Ja, davon habe ich auch gehört; in Amerika, glaube ich. Sehen Sie
jetzt, lieber Gottfried, wohin vielleicht gut gemeinte Absichten führen? Die
Übertragung geistiger Tätigkeiten auf seelenlose Maschinen bedeutet einen
Verlust der menschlichen Individualität. Das ist in der Psychologie nicht
anders als in militärischen Dingen, von denen ich anfangs sprach. Der
Mensch gibt sich in eine für ihn katastrophale Abhängigkeit von der Maschine.
VICO: Nun, ich sehe darin allerdings keinen Automatismus, sondern ein
Problem. In der letzten Zeit hatte ich eine Reihe von Unterredungen mit
Karl Marx, der es übrigens noch immer nicht recht begreifen kann, wie ich
damals im abgeschiedenen Neapel meine Geschichtsphilosophie entwickeln
konnte, die ihn offenbar noch immer fasziniert. Aber gut; bei diesen Gesprächen ist mir jedenfalls klarer geworden, daß diese unnötige Unterordnung des Menschen unter die Technik letztlich kein Problem der Technik
und auch nicht der menschlichen Psyche, sondern ein soziales Problem ist.
Wenn diese Maschinen tatsächlich dazu dienen, die Menschen zu ersetzen,
und ihnen die Möglichkeit zur Produktivität wegnehmen, wofür Marx eindrucksvolle Belege hatte, dann ist dies Problem in der Tat nur dadurch zu
lösen, daß die Menschen gesellschaftliche Verhältnisse schaffen, in denen
diese Technik den Menschen die Arbeit nicht wegnimmt, sondern erleichtert. Dies also ist das gesellschaftliche Problem.
11
Vico spielt wahrscheinlich auf das „ELlZA“-Programm von J. Weizenbaum an; vgl.
dessen Erfahrungen mit seinem Programm, in: ders., Die Macht der Computer und die
Ohnmacht der Vernunft (Frankfurt/Main 1977).
Der Geist in der Maschine?
Das andere ist eher immanent und betrifft die Frage nach den Grenzen
einer möglichen künstlichen Intelligenz und der Übernahme geistiger Arbeit. Lieber Gottfried, können Sie sich noch erinnern, daß ich schon damals
Ihre These von der Möglichkeit vollkommener Erkenntnis in Zweifel gezogen habe? ln unserem Gespräch wies ich Sie darauf hin, daß ja schon Platons Parmenides, und noch eindringlicher Nikolaus von Cues, die prinzipielle Unmöglichkeit einer vollkommenen Erkenntnis angenommen hatten,
weil dies die Fähigkeit unserer logischen Mittel übersteigt. Und wenn Sie
jetzt noch Kants Vernunftkritik hinzunehmen, dann müßte Ihnen doch
eigentlich Ihr Optimismus reichlich unkritisch und naiv vorkommen. Kennen Sie übrigens Kurt Gödel?12
LEIBNIZ: Ich habe schon viel von ihm gehört; hatte aber leider noch keine
Gelegenheit, ihn zu sprechen.
VICO: Das ist schade. Er ist hier zwar sehr zurückhaltend, doch ein ausgezeichneter Mathematiker. Nun, er hat meines Erachtens den überzeugendsten Beweis für die Unabgeschlossenheit des menschlichen Wissens erbracht. Er hat nämlich bewiesen, daß sich in jedem formalisierten Zeichensystem wahre Sätze bilden lassen, die mit den Mitteln dieses Systems nicht
beweisbar sind. Wenn nun, so schließe ich daraus, Ihre künstliche Monade,
von der Sie sprachen, nichts anderes als eine automatische Beweismaschine
ist, dann wäre sie nur dann zur vollkommenen Erkenntnis in der Lage,
wenn alles Wissen sich in formalen Zeichensystemen, wie Sie es sich ja
wünschten, ausdrücken ließe. Da dies aber nun nicht der Fall ist, ist sie
weder in der Lage, vollkommenes Wissen zu repräsentieren, noch alle geistige Arbeit zu übernehmen. Sie verfügt grundsätzlich nur über ein partielles
Wissen, eben das, was formalisierbar ist; und das bedeutet, daß sie letztlich
immer in den gesellschaftlichen Interpretations- und Lebenszusammenhang
der Menschen eingebunden bleibt. Der moderne Computer, das ist mein
Fazit, kann niemals im strikten Sinne „denken“ und „wissen“, weil seine
Operationen Sinn und Bedeutung nur im übergeordneten Kontext von
Zielen und Zwecken der menschlichen Gesellschaft erhalten.
LOCKE: Das klingt ja alles recht interessant. Aber habe ich Sie da richtig
verstanden? Wenn Sie annehmen, daß das logische Beweisen und mathematische Rechnen gar kein Denken sei, sondern nur mechanische Operatio-
12
Kurt Gödel, Mathematiker (1906 - 1978).
Alexander von Pechmann
nen, dann müßte das doch ein rein materielles Ding viel besser können als
der menschliche Geist. Was aber bleibt dann dem menschlichen Geist?
LEIBNIZ: In der Tat eine gute Frage. Es ist ein Irrtum, die höchste Form
des menschlichen Bewußtseins, worin er Gott am ähnlichsten ist, nämlich
die Apperzeption, wie ich sie nannte, auf eine bloß äußere Mechanik der
Trennung und Verbindung von Begriffen zu reduzieren. Ich streite mich
darüber noch immer mit Descartes, wie Sie wissen. Wenn man das tut,
wenn man die Prozesse des menschlichen Geistes und der Natur des Elements der inneren Dynamik und Lebendigkeit beraubt, dann bleibt freilich
dem menschlichen Geist im Vergleich zu den Denkmaschinen nichts übrig
als die dunklen Phantasien und wüsten Vorstellungen der Perzeptionen, wo
es auf die Logik nicht mehr ankommt.
VICO: Ich denke, da haben Sie, lieber Gottfried, unrecht. Denn die eigentliche Intelligenz des Menschen beginnt erst jenseits der Logik. Wenn Sie
sich erinnern, meinte ich schon damals, daß das Wesen des menschlichen
Geistes nicht in der Nachahmung der göttlichen Vernunft besteht, weil er
dazu gar nicht in der Lage ist, und daß es auch nicht durch die Nabelschau
der Selbstbetrachtung zu finden ist, wie John offenbar noch immer meint.
Wir müssen dieses Wesen vielmehr in den Taten der Menschen selbst entdecken.
Und wenn wir das tun, dann sehen wir, daß es in den menschlichen Dingen
letztlich nicht auf die Gesetze der Logik ankommt, sondern daß sich die
menschliche Intelligenz gerade am Nicht-Logischen, am Regelwidrigen,
Überraschenden und Widersprüchlichen bemißt. Sie besteht darin, mit den
unvermeidlichen Widersprüchen des gesellschaftlichen Lebens fertig zu
werden, nicht-ableitbar Neues zu entdecken und im Verschiedenen das
überraschend Gemeinsame zu erkennen. Also all das, was über den Rahmen formalisierter Systeme hinausweist. Die Alten, die die praktischen
Fähigkeiten noch geschätzt haben, wußten dies, und betrachteten die „Topik“ als höchste Form menschlichen Geistes13; denn in der Tat, zum bloßen
Rechnen braucht es keine Intelligenz, da genügen Maschinen.
13 Diesen Gedanken hatte Vico zwar erst 1709 in seiner Schrift gegen Descartes „Vom
Wesen und Weg der geistigen Bildung“ veröffentlicht, aber offenbar auch schon vorher
vertreten. - In der „Neuen Wissenschaft“ heißt es: „Die Topik ist die Disziplin, die den
Geist schöpferisch, die Kritik, die ihn exakt macht ... das Erfinden aber ist Sache des
schöpferischen Geistes“.
Der Geist in der Maschine?
LEIBNIZ: Nun gut, lieber Vico, ich verstehe, was Sie meinen. Aber wenn
Sie nicht wollen, daß dies Neue bloße Phantasie oder leere Gedankenspielerei bleibt, dann werden auch Sie es der Kontrolle der Beweis- und Berechenbarkeit unterwerfen und in den natürlichen Zusammenhang einordnen
müssen. Die menschliche Erfindungskraft und die Denkautomaten werden
eine untrennbare Verbindung eingehen; und so wird sich die Menschheit
weiterhin auf dem Wege der Vervollständigung des Wissens befinden, indem sie Neues entdeckt und dem Alten zuordnet, um zum Gesamtbild des
Wissens zu gelangen.
VICO: Freilich wird der Mensch sich durch seinen Geist der vollkommenen Wahrheit annähern, da stimme ich Ihnen zu. Aber ich bestreite, daß er
sie erreichen wird; denn immer wieder werden neue Widersprüche und
ungelöste Probleme auftauchen. Was er dabei finden wird, ist nicht die
Wahrheit, sondern - viel schöner - sich selbst, seine gestalterischen und
kulturstiftenden Kräfte und Fähigkeiten; denn das Wahre ist das Gemachte,
sagte ich. Und so wünsche ich mir, daß die neuen Techniken ihn in den
Stand setzen werden, endlich aus dem Kreislauf von Aufstieg und Verfall
herausfinden zu können, in dem er sich bislang bewegt hatte.
LOCKE: Aber nur, wenn er sich mit ihnen nicht selbst in die Luft jagt ...
Womit wir ja wieder am Anfang unseres Gesprächs wären.
(bearbeitet von Alexander von Pechmann)
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 42-51
Autor: Jochen Schneider
Artikel
Jochen Schneider
'Innovationspotentiale des juristischen
Informationssystems 'JURIS'
Um der sogenannten „Informationskrise des Rechts“ zu begegnen, wurde
im Jahre 1970 eine Projektgruppe beim Bundesministerium der Justiz eingerichtet, die die Möglichkeiten des Einsatzes der Datenverarbeitung zur
Verbesserung der Informationsübermittlung in unserem Rechtssystem
untersuchen sollte. In der Folgezeit haben sich die Arbeiten auf die Errichtung eines Dokumentationssystems konzentriert, das im wesentlichen der
Sammlung und der Wiedergewinnung juristisch relevanter Texte dient. Auf
einem Doppelrechnersystem unter Verwendung von Plattenspeichern mit
einer Kapazität von 7,2 Mrd. Zeichen werden zur Zeit über 360 000 Dokumente aus der Rechtssprechung, der Rechtsliteratur, der Gesetzgebung
und Verwaltung für heute 60 beteiligte Institutionen zur Verfügung gestellt.
Fragt man heute, 15 Jahre nach dem Beginn, nach der Beteiligung der Benutzer und der betroffenen Wissenschaften, so stellt man fest, daß diese
Beteiligung im Laufe der Jahre immer geringer geworden ist. So nehmen
heute Rechtssoziologie, Rechtstheorie, Rechtsphilosophie und sogar die
Rechtsinformatik kaum mehr Notiz von den Bemühungen um das juristische Informationssystem. Bei den Benutzern ist zwar festzustellen, daß
JURIS immer mehr Terminals im Laufe der Zeit für immer mehr Institutionen angeschlossen hat, absolut gesehen dennoch eine geringe Zahl, nämlich 60. Es ist aber auch festzustellen, daß sich die angesprochenen Benutzerkreise, nämlich Richter, Staatsanwälte, Ministerialbeamte, Verwaltungsbeamte und Rechtsanwälte kaum mit dem auf sie und ihre Gruppen
zukommenden Informationsangebot und Informationssystem befassen. Es
ist hochwahrscheinlich, daß JURIS gerade für die Rechtsanwälte in seiner
Jochen Schneider
konkreten Ausprägung kaum von Nutzen i. S. einer für den Rechtsanwalt
günstigen Aufwands- und Nutzensrelation sein wird.
Einer der Gründe für den schlechten Wirkungsgrad ist, dass JURIS nicht
auf spezifische Benutzergruppen (etwa mit individuellen Teilsystemen),
somit auch nicht auf spezifische Benutzer-Interessen und das jeweilige
Benutzerverhalten zugeschnitten Ist. JURIS wirft vielmehr alle Dokumente
und alle Benutzer „in einen Topf“, so daß der bei einer individuellen Anfrage mitzuschleppende Ballast enorm ist, wenn man nur einigermaßen vollständige Auskunft haben will (wobei zu berücksichtigen ist, daß derzeit
überhaupt nicht an eine vollständige Antwort zu denken ist). Die Informationssuche mit JURIS ist - soviel darf schon gesagt werden – wesentlich
aufwendiger, zeitraubender und teurer, als mit anderen Informationsmitteln.
Die gezielte, sichere und umfassende Information, die auch die Gewißheit
verschafft, daß man alle relevanten Informationen genannt bekommen hat
und infolgedessen auch berücksichtigen konnte, also diese notwendige
Qualität der Information ist mit einem JURIS nicht möglich. Die Struktur
eines Dokumentationssystems bringt es mit sich, daß JURIS die juristische
Information nicht in einer für den jeweiligen Benutzer adäquaten Weise
strukturiert und die Information in einer für den Benutzer brauchbaren
Suchsprache zur Verfügung hält. JURIS zerschlägt vielmehr die möglichen
Informationen in einzelne Dokument-Einheiten (bei der Eingabe und vor
allem bei der Erschließung) und hält sie in einer für den Benutzer völlig
fremden Suchsprache bereit.
Die zementierende Wirkung von „JURIS“ auf das Rechtssystem
Eines der Defizite, die JURIS wie jedes andere Dokumentationssystem im
juristischen Bereich aufweisen würde, ist, dass die Sozialdaten bzw. die
Rechtstatsachen nicht durch das System zur Verfügung gestellt werden.
Anders gesagt, wenn einem System die Verarbeitungsleistung fehlt, die
erforderlich ist, um die Komplexität der vom Benutzer zu handhabenden
Probleme abzubilden, fälscht ein Informationssystem entweder die zu bearbeitenden Probleme in ihrem Gehalt ab oder wird es nicht benutzt, weil es
keine Daten als Entscheidungsgrundlage liefern kann. Das Merkwürdige am
Fehlen dieses Informations-Bereichs bei JURIS ist, daß die Rechtstatsachen
als Daten (-material) wesentlich geeigneter für die automatisierte Verarbeitung sind, als es die sprachlich verfaßten Texte sind, die den Inhalt von
JURIS bilden.
JURIS
Nun wäre eigentlich erst zu klären, was überhaupt unter Rechtstatsachen zu
verstehen ist. Dieses wissenschaftspolitische und wissenschaftstheoretische
Problem soll hier aber nicht behandelt werden. Es wird vielmehr eine Art
heuristischer Begriff „Rechtstatsachen“ benutzt, worunter simpel solche
Daten fallen, die für das Recht relevant sind, sowie Daten, die das Recht
selbst produziert. Zu den Daten, die das Rechtssystem selbst produziert,
gehören z.B. Fakten über die „Warteschlangen“, die sich etwa bei den Gerichten bilden, gehören die Daten über die Strafzumessung zu bestimmten
Delikten oder auch die Anzahl der Entscheidungen, die es zu einem bestimmten Problem gibt. Rechtstatsachen sind solche Daten, die für das
Rechtssystem relevant sind ren, die aus dem tatsächlichen Bereich stammen, also deskriptiven Charakter haben, nicht normativen und die nicht
Texte bzw. Dokumente sind.
Für einen Benutzer stellt sich z.B. das Problem: Gibt es den für ihn konkret
zu entscheidenden Fall bereits als Urteil einer höheren Instanz und wenn ja,
wieviele gleiche oder zumindest ähnliche Fälle gibt es. Ein Dokumentationssystem kann hierauf keine schlüssige Antwort geben. Ein Dokumentationssystem wertet den Sachverhalt und die Entscheidungsgründe
nicht in der Weise aus, daß die darin enthaltenen Fakten sozusagen herausdestilliert, aggregiert und aufbereitet werden können. Trends bei den Rechtsuchenden bzw. bei den Streitenden oder Trends in der Rechtsprechung
überhaupt lassen sich aber nur feststellen und durch ein System auswerten,
wenn die dem System zugrunde liegenden Daten entsprechend aufbereitet
und verarbeitet werden können. Dies ist aber bei einem Dokumentationssystem nicht der Fall. Die Inhalte können nur vom System wiedergefunden,
nicht aber ausgewertet bzw. verarbeitet werden.
Der Benutzer muß die Inhalte erst lesen, sich selbst sein Bild daraus machen und selbst die entsprechenden Daten bei sich (im Kopf) entstehen
lassen und verarbeiten. Nicht erst seit den Planungen zu einem juristischen
Informationssystem stellt sich die Frage, wie eigentlich das Rechtssystem
überhaupt Innovationen einleitet, durchführt und wirken läßt. Aber gerade
bei juristischen Informationssystemen stellt sich dieses Problem noch einmal ganz aktuell. Die Frage ist, ob ein juristisches Informationssystem bei
einer bestimmten Struktur (bei JURIS als Dokumentationssystem) eine
mehr versteinernde oder eine mehr dynamisierende Wirkung auf das
Rechtssystem ausübt. Voraussetzung ist natürlich, daß überhaupt ein Wirkungszusammenhang zwischen den in einem solchen System enthaltenen
Informationen und der Entscheidung existiert.
Jochen Schneider
Stellt man sich einen einfach strukturierten und linear verlaufenden Wirkungszusammenhang zwischen Informationen und Entscheidung vor, so
müßte ein Dokumentationssystem eine erstarrende, zementierende Wirkung auf das Rechtssystem und dadurch auf die Gesellschaft ausüben. Es
bietet dem Entscheider Entscheidungen aus der Vergangenheit an, die
dessen Entscheidung prägen. Eine solche Vorstellung von Wirkungszusammenhang entspräche dem einfachen Stimulus-/ Response Schema. Die
Frage wäre dann, wie überhaupt „Innovation“ zustande kommt und wie sie
speziell bei einem Rechtssystem erzielt werden könnte, insbesondere ob
überhaupt im Rechtssystem Innovation zugelassen und möglich ist.
Bei einem solchen linearen Wirkungszusammenhang könnte eine innovative Wirkung nur über solche Informationen zustande kommen, die nicht aus
dem Rechtssystem selbst stammen bzw. die nicht direkt den Inhalten früherer Entscheidungen entsprechen.
Wie nun wirklich der Wirkungszusammenhang funktioniert, kann natürlich
auch hier nicht geklärt werden. Hier soll nur festgehalten werden, daß die
Konzeption eines juristischen Informationssystems in sich - auch wenn
man dies nicht mitbedacht haben sollte - die Realisierung einer ganz bestimmten Vorstellung von diesem Wirkzusammenhang enthält. Die Theorie
wäre deshalb aufgerufen, vorweg den Wirkzusammenhang so zu erhellen,
daß die Architektur eines Informationssystems, z.B. durch die Hinzunahme
der Rechtstatsachen, dem Informationsbedarf beim Entscheidungsverhalten gerecht wird. Dazu liegt allerdings kaum Material vor.
Hier geht es darum, daß Rechtstatsachen als Informationsquelle bei der
Etablierung des juristischen Informationssystems vernachlässigt werden.
Die Vernachlässigung einer Informationsquelle muß aber dazu führen, daß
zumindest langfristig die Benutzer die besser zugänglichen Informationsquellen bevorzugen werden. Überspitzt gesagt: Die Vernachlässigung der
Rechtstatsachen im juristischen Informationssystem kann dazu führen, daß
das Rechtssystem nicht genügend reaktions- und lernfähig für die
Berücksichtigung der Entwicklung sozialer Konflikte ist. Statt also die Informationsverarbeitungs-Fähigkeit des Rechtssystems zu erhöhen, reduziert ein JURIS diese noch1.
1
Zur
Informationsverarbeitungs-Fähigkeit des Rechtssystems vgl. vor allem
LUHMANN, Rechtssystem und Rechtsdogmatik, S. 24 ff., 31 ff.
JURIS
Defizite der juristischen Entscheidungstheorie
Voraussetzung dafür, die Anforderungen für eine adäquate Gestaltung eines
juristischen Informationssystems formulieren zu können, ist die Ausprägung einer Theorie juristischer Entscheidungen, die den Stellenwert von
Information überhaupt und speziell der Rechtstatsachen für die juristische
Entscheidung so herausarbeitet, daß sich daraus Handlungsanleitungen für
die Systemarchitektur ergeben. Hier nun aber tut sich die bereits erwähnte
Kluft zwischen der praktischen Entwicklung von JURIS einerseits und
Theorie-Leistung für JURIS andererseits auf. Das Defizit ist ein doppeltes.
Es besteht zum einen darin, daß sich die Theorie effektiv zu wenig mit
JURIS auseinandersetzt. Es besteht zum anderen darin, daß die Wissenschaftszweige, die dazu aufgerufen sind, sich mit den verschiedenen Anforderungen zu befassen, nicht zu einem integrierten Konzept zusammengeführt werden. Methodenlehre, Rechtstheorie, Rechtssoziologie, Rechtsphilosophie befassen sich zwar mit Bereichen, die für die Theorie juristischen
Entscheidens bei der Nutzung automatisierter Informationssysteme von
Bedeutung sind. Jedoch erfolgt diese Theorieleistung in einer Weise, deren
Ergebnisse nicht konkret auf die Problematik der Planung von juristischen
Informationssystemen ausgerichtet ist. Umgekehrt nehmen wohl die System-Architekten noch weniger als früher von den Beiträgen der Methodenlehre, der Rechtstheorie oder der Rechtssoziologie
Kenntnis.
Folgt man allerdings z.B. der Arbeit von Bihler „Rechtsgefühl, System und
Wertung“ (München 1979), so ist ein umfassendes Modell der Rechtsgewinnung zu konzipieren, bei dem zwischen Außen- und Innen-Faktoren
zu unterscheiden ist, mit der Folge, daß bei einem Entscheider nur ein Teil
seiner Aktivitäten beobachtbar ist, nämlich der, der durch Außenfaktoren
bestimmt ist. Der Anteil von Innen-Faktoren läßt sich nur negativ bestimmen, wenn nämlich offensichtlich ein Konsens zwischen mehreren
Entscheidern, die unabhängig voneinander operiert haben, derart hergestellt
ist, daß sie bei gleichen von außen an sie herangetragenen Informationen
auch gleich entscheiden. Das Interessante ist aber, daß gerade die Einführung von JURIS bei einer Vielzahl von Veranstaltungen, auch im akademischen Bereich, immer wieder gezeigt hat, daß neben der Möglichkeit zu
scheinbar rationaler Informationsgewinnung die eigentlich bestimmende
Größe bei der Entscheidungsfindung wieder akzentuiert wird, nämlich die Intuition, das gute Judiz, das Rechtsgefühl usw. - Möglicherweise verbirgt sich aber zu einem guten Teil hinter dem, was als Rechtsge-
Jochen Schneider
fühl oder Intuition bezeichnet wird, etwas ganz anderes, was aber ebensowenig dem formellen Programm juristischen Entscheidens entspricht: nämlich Folgenerwägungen. Die Unterscheidung von Herstellung und Darstellung des Urteils eröffnet die Möglichkeit, zunächst analytisch, dann aber
auch tatsächlich, zwischen dem final-strukturierten Entscheidungsprozeß
selbst und der konditionalstrukturierten Legitimation zu unterscheiden.
Die herkömmliche Vorstellung vom Wirkungszusammenhang - lineare
Wirkung von der Information auf die Entscheidung - führt zu einer Reihe
von Widersprüchlichkeiten, die sich aber auflösen, läßt man sich auf diese
Unterscheidung ein. Ähnlich wie man zwischen Herstellung der Entscheidung und ihrer Darstellung unterscheidet, läßt sich auf der Ebene des Informationsgewinnungsprozesses zwischen der Definition des Problems,
also der Formulierung des Informationsbedarfs, und der anschließenden
Informationssuche mit dem jeweiligen Abgleich, ob die Informationen
etwas zum Entscheidungsproblem beiträgt, vergleichen. Der Wirkungszusammenhang stellt sich dann exakt umgekehrt dar: Die eigentliche Entscheidung wird bereits - als eine Art Entscheidung über die Entscheidung mit der Definition des Problems getroffen. Was als Information relevant
erscheint, mit welcher Intensität Informationen gesucht und verarbeitet
werden, hängt von der - zumindest auch - finalstrukturiert, berücksichtigt
also auch die Folgen soweit bekannt bzw. möglich.
Innovation i.S. eines Wandels der Rechtsprechung dürfte derzeit jedoch
kaum oder weniger über die Folgenbewertung bei einer Entscheidung erzielt werden, sondern über schlicht neue Sachverhalte, die die Dogmatik
veranlassen, darauf entsprechend zu reagieren. So gesehen handelt es sich
eigentlich bei richterlichen Innovationen mehr um Veränderungen i.S. von
Anpassung und Reaktion auf Umwelt-Änderungen, also eigentlich nicht um
wirklich neue „Erfindungen“. Umgekehrt bedeutet dies, daß Innovationschancen überhaupt nur dann gegeben sind, wenn dem Rechtssystem die
Daten über die Gegebenheiten und Veränderungen im realen Bereich
entsprechend aufbereitet als Daten zur Verfügung gestellt werden. Allerdings muß im Rechtssystem auch die Bereitschaft vorhanden sein, die anstehenden Probleme als neu zu definieren, und infolgedessen muß es auch
bereit sein, neue Fakten zu berücksichtigen. Als ein Beispiel von vielen wird
hier auf den Trend zur Immaterialisierung der Information bzw. der Büroarbeit und die Automation der Verarbeitungsvorgänge hingewiesen. Mit
diesem Trend tut sich die Rechtsprechung relativ schwer, denkt man an die
Lücken und Probleme gesetzlicher Regelung im Bereich der Computer-
JURIS
Kriminalität2 oder an das spezielle Problem des Rechtsschutzes bei Computer-Programmen3.
Das Ineinandergreifen von einerseits final- und konditionalstrukturierten
Entscheidungsprogrammen und andererseits der Verbindung zwischen der
Herstellungs- und der Darstellungsebene beim juristischen Entscheiden
führt dazu, dass für den Außenstehenden der Informationsverarbeitungsprozeß - wie er tatsächlich funktioniert - nicht beobachtbar ist. Falsch
wäre jedoch, von der konditionalen Struktur oder dem Subsumtionscharakter der Begründung auf eine gleichartige Struktur der Herstellung zu schließen. Anhaltspunkte dafür zu erhalten, wie der Informationsverarbeitungsprozeß tatsächlich abläuft, würde entsprechende empirische Forschungen und denen vorausgehend eine entsprechende theoretische
Konzeption erfordern. Derzeit darf aber wohl von einem Theorie-Defizit in
diesem Bereich gesprochen werden. Damit sollen die vorhandenen Ansätze
nicht geleugnet werden4. Es wird jedoch über diese Ansätze hinaus notwendig sein, eine Begleitforschung zu JURIS zu konzipieren und dabei
insbesondere den Mangel der Rechtstatsachen-Einbeziehung zu berücksichtigen haben.
Folgen der In-Adäquanz eines Dokumentationssystems
Akzeptiert man als Wirkungsrichtung, daß zuerst das Problem definiert
wird, dann daraus die Daten bzw. der Datenbedarf entsteht, bietet ein
Informationssystem, das sämtliche Gesetze und Entscheidungen und sogar
die Literatur enthält, eine an sich sensationelle Informationsmöglichkeit. Da
in der Praxis häufig die Daten, die tatsächlich zur Verfügung stehen, nicht
so aufbereitet sind, daß sie genau auf das Problem „passen“, also erst erfaßt,
2
Vgl. z.B. SIEBER, Computerkriminalität und Strafrecht. 2. Aufl. 1980.
3 Bei letzterer Problematik deutet sich vielleicht ein typischer Fall der sog. „Entscheidungssequenzen“ an, vgl. zum derzeitigen Stand z.B. ZAHRNT, in: DuD 4/1983, S.
111 ff.; SIEBER, in: BB 1983, S. 977 ff.
4
Vgl. z.B. LAUTMANN, Justiz - die stille Gewalt, Frankfurt 1972;
ROTTLEUTHNER, in: Hassemer/Kaufmann/Neumann (Hrsg.), Argumentation u.
Recht, Wiesbaden 1980, S. 87 ff
Jochen Schneider
aufbereitet und ausgewertet werden müssen, was einen oft immensen Aufwand und ein entsprechendes Kostenrisiko in sich birgt, könnte demgegenüber ein juristisches Informationssystem die Generierung der erforderlichen
Daten ad hoc zu einer aktuell gestellten Frage ermöglichen. Allerdings ist
Voraussetzung für Erschließung dieses Potentials, daß die Verarbeitungsleistung des Systems entsprechend hoch und komplex ist. Ich habe an
anderer Stelle nachzuweisen versucht, daß die Komplexität eines Dokumentationssystems der Komplexität der zu beurteilenden Sachverhalte nicht
entspricht5. Ein JURIS, das nur auf ein Dokumentationssystem (Informationsnachweissystem) aufgebaut ist, kann die erforderliche Verarbeitungsleistung nicht erbringen. Verkürzt gesagt: So komfortabel auch immer das
Dialogsystem eines JURIS sein mag, das Ergebnis eines Dialogs ist immer
nur eine Auswahl gespeicherter Texte, wobei sich der Recherche-Erfolg auf
die Vollständigkeit der nachgewiesenen Texte und auf die Ausgabe in der
Reihenfolge der Relevanz-Grade der Texte erstreckt und begrenzt. Für
einen Praktiker, sowohl als Rechtsanwalt als auch als Richter, spielt eine
große Rolle, ob ein Prozeß im Zusammenhang mit einer „Entscheidungssequenz“ zu sehen ist. Sowohl für den Praktiker als auch für den Wissenschaftler wird eine große Rolle spielen, wie erfolgreich bisher ein bestimmtes Argument, eine bestimmte Argumentationsstrategie oder eine bestimmte Rechtsposition war. Er kann dies in zweierlei Hinsicht verwenden: Die
eine Richtung ist, sich die Erfolgschancen auszurechnen, wenn z.B. ein
Argument bisher immer Erfolg hatte. Die andere ist, sich eine Gegenstrategie zu überlegen und sich zu sagen, daß gerade wegen der bisherigen Kontinuität dieses Erfolgs es nunmehr an der Zeit ist, mit diesem Erfolg aufzuräumen.
Schon diese Andeutungen mögen genügen, den Zusammenhang zwischen
der Entscheidungspraxis einerseits und der Struktur eines juristischen Informationssystems andererseits aufzuzeigen.
Oben war schon dargelegt worden, daß der Wirkzusammenhang zwischen
Information und Entscheidung sich in der Praxis konträr der Vorstellung in
der Theorie vollziehen dürfte, nämlich daß das Entscheidungsproblem den
Informationsbedarf und damit die Daten generiert und nicht umgekehrt die
Daten auf die Entscheidung einwirken. D.h., daß es im Prinzip keine absoJ. SCHNEIDER, Information und Entscheidung, Ebelsbach 1980, vor allem S. 310 ff.
(m.w.N.).
5
JURIS
lut zur Verfügung stehenden Daten gibt (und geben muß); sondern daß
Daten immer jeweils für den individuellen Fall zu- und aufbereitet, evtl.
überhaupt erst erfaßt und verarbeitet werden müssen. Als Phänomen bekannt ist dies allgemein von der Statistik, deren Interpretation wesentlich
vager und vielseitiger ist, als dürre Daten der Statistik dem oberflächlichen
Betrachter zunächst suggerieren. Die Konsequenz für das Rechtssystem
und speziell für das Rechtsinformationssystem, also JURIS, muß nun sein,
nicht Daten als solche, sondern ein Instrumentarium zur Verfügung zu
stellen, mit dem die jeweils relevanten Daten tatsächlich gewonnen werden
können.
JURIS leistet genau das Gegenteil, es verringert noch das Informationspotential, das in herkömmlichen Medien schlummert, und klammert die
Rechtstatsachen überhaupt aus. Demnach installiert die Justiz mit Hilfe von
JURIS ein methodisches Konzept, das die Relevanz von Rechtstatsachen
leugnet, darüber hinaus aber auch die Entwicklung der Rechtstatsachenforschung und der Benutzung von Rechtstatsachen auf Dauer in dem Maße
verhindert, in dem JURIS im anderen Bereich erfolgreich ist. Ein solches
Ergebnis wäre aber angesichts der Bedeutung sowohl der RechtstatsachenVerwendung als auch der Rechtstatsachen-Forschung unerträglich.
Zur Weiterentwicklung von „JURIS“
Die Konsequenz kann nun aber nicht sein, JURIS - und nicht einmal in der
bis jetzt konzipierten Struktur – einschlafen zu lassen, sondern vielmehr
muß es Aufgabe sowohl der Rechtswissenschaft als auch der Rechtspraxis
sein, sich mit beiden Komplexen im Verbund zu befassen, nämlich mit der
Aufarbeitung und Aufbereitung der Rechtstatsachenforschung einerseits
und der Anwendung der dabei gewonnenen Ergebnisse auf das Konzept
eines JURIS in der Praxis andererseits.
Bei der Frage möglicher Alternativen oder Ergänzungen und Änderungen
zu JURIS wird ein wichtiger struktureller Aspekt die BenutzerOrientierung des Systems sein- also eine stärkere Ausrichtung und Gliederung des Systems auf den Benutzer hin. Dazu könnte gehören, zum einen
nach Sachgebieten Familien-/Unterhalts-, Sorge-/Recht, Schadensersatzrechte usw., zum anderen aber auch nach Adressaten und deren Profilen zu
unterscheiden. Es ist davon auszugehen, daß der Informationsbedarf, aber
Jochen Schneider
auch die Art der Gewinnung und der Umfang mit Informationen bei einem
Rechtsanwalt im Vorfeld eines Prozesses anders ist, als etwa bei einem
Richter im Prozeß. Auch ließe sich viel mitzuschleppender Ballast bei einem vollständigen System dadurch abschaffen, daß man die Möglichkeit
hat, jeweils speziell in einem Gebiet, das aber abgrenzbar ist, bei der Suche
nach Informationen zu bleiben.
Eine Verarbeitungsfähigkeit des Systems ließe sich nur durch einen anderen
Typ von Programmen und eine andere Art der Dateneingabe erreichen. Die
Daten sind zwar, unterstützt von der Rechtstatsachenforschung, nicht
schwer zu erreichen. Jedoch müssen die Daten für ihre spätere Verwendung aufbereitet werden, was mit einem gewissen Aufwand verbunden
ist. Dieser Aufwand ist aber keinesfalls größer, als der jetzt auch schon zu
erbringende Aufwand für die Erschließung der Texte.
JURIS
Ein sehr wichtiger Aspekt ist die Verständlichkeit eines solchen Systems
i.V. mit der daraus resultierenden Transparenz. Wenn es stimmt, daß die
Lösung eines Problems mit der richtigen Definition bereits gefunden ist,
müßte ein Informationssystem den Juristen bei der Problem-Findung und
Problem-Definition unterstützen. Es müßte aber auch - in Grenzen - für
den Laien verständlich sein.
Ein Problem wird man aber kaum mit einem technischen Informationssystem lösen können: Wenn ein Informationssucher nicht ohnehin überzeugt
und fähig ist, daß er eine innovative Einstellung und Verhaltensweise einnehmen und durchsetzen will, wird auch ein Informationssystem ihn nicht
zu einer solchen Haltung bewegen. D.h., daß eine innovative Wirkung auch
von einem mit Rechtstatsachen gespeisten Informationssystem nur ausgehen kann, wenn auf seilen der Benutzer die Haltung zum Rechtssystem
auch innovativ ist. Nimmt man verschiedene sozialwissenschaftliche Theorien zur Hilfe, zeigt sich, daß nur personale Kommunikation – im Gegensatz zur technischen - eine solche Haltung erzeugen bzw. ändern kann.
Die Interaktion mit einem technischen System wird die innovative Haltung
nicht erzeugen6. Allenfalls wird ein technisches System eine innovative
Haltung, die ohnehin vorhanden ist, unterstützen können. JURIS aber in
seiner derzeitigen System-Auslegung behindert eher die Ausprägung und
Aufrechterhaltung einer innovativen Haltung.
Gekürzt übernommen aus: Chiotellis/Fikentscher (Hrsg.), Rechtstatsachenforschung. Methodische Probleme und Beispiele aus dem Schuld- und
Wirtschaftsrecht, Otto Schmidt-Verlag, Köln 1985, S. 107 ff.
6
Siehe auch J. SCHNEIDER, a.a.O., S. 273 ff.
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 52-66
Autor: Herbert W. Franke
Interview
Gespräch mit
Professor Herbert W. Franke
Computergraphik. Zum Verhältnis von
Kunst und neuer Technik
Widerspruch: Herr Prof. Franke, Sie sind einem weiteren Publikum als
einer der ersten Computergraphiker bekannt und haben eine Reihe von
Büchern zu diesem Thema veröffentlicht. Könnten Sie uns zu Beginn sagen, wie Sie dazu gekommen sind?
Prof. Franke: Ich habe in Wien Physik studiert und auf dem Gebiet der
Elektronenoptik dissertiert. Damit kam ich schon im Studium mit vielen
graphischen Systemen in Berührung, wenn auch von der technischen Seite
her. Schon damals hat mich fasziniert, daß rein technisch-wissenschaftliche
Photographien graphisch überaus reizvolle Formen zutage bringen. Ich
habe mich gefragt, woran das liegt; denn es sind ja keine Kunstwerke, haben aber doch ästhetische Qualität. Nachdem ich auf dieses Problem aufmerksam geworden war, fand ich im Bereich der Technik und Wissenschaft
eine Unzahl vergleichbarer Arbeiten, die zwar für ganz andere Zwecke
gemacht wurden, aber auch diesen graphischen Reiz gezeigt haben: Schwingungsbilder, mathematische Diagramme, Kristalle usw. Ich versuchte dann,
diesem Gebiet theoretisch näher zu kommen und mich über diese Ästhetik
zu informieren, aber fand natürlich nichts, was auf diese Probleme eingeht.
Später lernte ich dann die Informationspsychologie und die Informationsästhetik kennen, die mir die erste Möglichkeit boten, in rationaler Weise eine
Annäherung an das Verständnis dieser Phänomene zu finden.
Auf der anderen Seite wollte ich mich nicht zufrieden geben mit dem, was
die Instrumente der wissenschaftlich-technischen Photographie hervorbringen, sondern sah darin eine Herausforderung, gestaltend einzugreifen. Ich
habe mir also überlegt, mit welchen Apparaturen man die Bilder kontrollie-
Herbert W. Franke
ren, verändern könnte. Damals, um 1955, entwarf ich mit einem Kollegen
einen Analogcomputer, eine Art Mischpult, mit dem wir Schwingungen
überlagern und auf einem Bildschirm sichtbar machen konnten; und auf
diese Weise erreichten wir Kompositionen mit Tonverlauf und sehr elegant
geschwungenen Formen. Man kann diese Kompositionen als Vorläufer der
heutigen Computergraphik ansehen; und Sie können sich denken, daß ich
dann versuchte, Zugriff auf digitale Graphiksysteme zu bekommen.
Es sind also zwei Seiten, die zusammenhängen, die Theorie auf der einen
und die praktische künstlerische Anwendung auf der anderen Seite. Es war
für mich natürlich interessant, daß sich immer wieder neue Verbindungen
ergaben; daß sich aus der Theorie bestimmte Ziele erarbeiten lassen, die
man dann prüft, um zu sehen, ob sie auch so effektiv sind, wie man sich das
vorgestellt hat. Dabei habe ich natürlich eine Menge - auch aus den Fehlern
- gelernt und so eine Näherung an die Probleme erhalten: Ergebnisse, die
nicht bloß emotional subjektiver Natur sind, sondern doch vielleicht eine
generelle Gültigkeit haben.
Computergraphik als Kunst
Widerspruch: Würden Sie also sagen, daß Computergraphiken, d.h. die mit
den neuen Techniken hergestellten Graphiken, Kunst sind? Und wenn ja,
welche? Sind sie Kunst etwa im Sinne des Naturschönen geometrischer
Formen und Schwingungen, der Gestaltung nach ästhetischen Gesichtspunkten oder rein spielerische Phantasie?
Franke: Das ist eine Definitionsfrage, die m.E. nicht allzusehr weiterhilft.
Nehmen Sie die Graphik einmal in Analogie zur Musik: Wenn Sie sich mit
akustischen Schwingungen beschäftigen, die Sie sich überlagern und reihen
lassen, bis etwas entsteht, das sowohl vom Publikum akzeptiert wird, als
auch Ihren eigenen Vorstellungen entspricht, dann findet man nichts dabei,
von Kunst zu sprechen, - Musik als Kunstform zu nehmen, obwohl auch
hier komplizierte wissenschaftlich-technische Geräte eingesetzt werden, um
zu erreichen, was man will. Analog dazu spricht also nichts dagegen, ein
Schwingungssystem für visuelle Effekte auch als ein künstlerisches, natürlich modernes, Instrument anzusehen.
Eine solche Art der Gestaltung läßt sich nicht in die klassischen Kunstarten
einreihen. Entweder man ist bereit, auch neuere Gestaltungsmethoden als
künstlerische zu bezeichnen, dann sind sie Kunst; wenn man dagegen
Interview
meint, die Kunst müsse etwas Ausgereiftes, Abgeschlossenes sein, dann
sind sie eben keine Kunst, dann muß man sie anders bezeichnen. Jedenfalls
hat diese Form etwas Kreatives, das die gestalterischen Phantasien herausfordert, und damit Eigenschaften, die man der Kunst normalerweise zuschreibt. Es läßt sich durch sie etwas ausdrücken, Stimmung erzeugen usw.
Mir würde allerdings eher eine solche Definition liegen, die versucht, den
Begriff der Kunst von der Wirkung her zu definieren; aber das muß nicht
jeder so sehen. Die Frage ist eher, ob eine solche Definition zweckmäßig ist
oder nicht.
Jetzt fragen Sie mich speziell nach dem Computer. Ein Computer ist ein
technisches Instrument. Wenn man zu der Aussage bereit ist, daß sich auch
mit einem technischen Instrument künstlerisch gestalten läßt, dann gibt es
kein Hindernis, die Computergraphik der Kunst zuzuordnen. Selbstverständlich kann man, wie mit jedem technischen Gerät, alles mögliche damit
machen: angefangen von banalen graphischen Darstellungen über eine
Unmenge von Kitsch bis hin zu den wenigen Ergebnissen, bei denen jeder
sagt: 'Donnerwetter, da steckt doch ein bißchen mehr drin '.
Wenn Sie die Geschichte der Computerkunst verfolgen, dann werden Sie
sehen, daß am Anfang aus der technischen Situation heraus - damals standen nur die mechanischen Plotter und sehr einfache Programme zur Verfügung -, hauptsächlich etwas produziert wurde, das in der Tradition des
Konstruktivismus liegt: Linien, exakte Reihen, variiert mit geometrischen
Elementen etc.; denn das ließ sich gut mit den Programmen beschreiben:
Der Zeichenapparat machte, was man wollte, und es war sehr schön zu
sehen, wie schnell das ging. Man kann sagen, der Computer war damals ein
Instrument, das sehr dem konstruktivistischen Stil verbunden war. Wenn
man sich allerdings heute nach der Wertschätzung des Konstruktivismus
erkundigt, dann wird man hören, daß er wohl nicht das Tüpfelchen auf dem
i ist: eine Kunst, die doch allzusehr zur Mathematik tendiert und geometrisch inspiriert ist.
Doch diese Beschränkung der Computergraphik auf den Konstruktivismus
gilt heute längst nicht mehr. Seit man den Übergang zum Bildschirmgerät
vollzogen hat, haben Sie eine Zeichen- und Malfläche zur Verfügung, bei
der Sie nicht mehr auf Geometrie festgelegt sind, sondern jeden beliebigen
Stil realisieren können, vom Realismus angefangen bis zu allen möglichen
Verfremdungen. Selbstverständlich gehört da zu auch der Neokonstruktivismus, ein Konstruktivismus in erweiterter Form, der von der geraden
Linie zur Kurve übergegangen ist und so zusätzliche Effekte miteinbezieht.
Herbert W. Franke
D.h. also, daß es eine zwingende Verbindung des Computers mit einem Stil
nicht mehr gibt; die Computersysteme sind heute Hilfsinstrumente für
jeden, der gestalterisch tätig sein will. Es kommt allein darauf an, was er
mitbringt; das Instrument selbst ist sehr flexibel geworden.
Zum einen haben wir heute die sog. „Paint-Systeme“, also Malsysteme, die
den Wünschen konventionell ausgebildeter Graphiker und Maler entspre-
Interview
chen. Sie erlauben, die alten manuellen Methoden wieder einzusetzen: das
Zeichnen mit Stiften auf Tableaus. Wenn Sie hier bestimmte Farbfelder
antippen, können Sie die Farben verteilen und in ganz üblicher Weise mischen - vom Computer und der Mathematik brauchen Sie überhaupt nichts
zu wissen. Allerdings kann man fragen, welchen Sinn diese Systeme haben
und ob sie wirklich in Neuland führen; denn ihr Effekt liegt ja vor allem in
der Handhabung, die die Arbeitspraxis erheblich erleichtert. Man kann sehr
gut löschen und die Farben verändern; man kann verzerren. Teile herauszoomen und einzeln bearbeiten, um sie dann wieder in die Zeichnung einzufügen. Kollegen, die diese Paint-Systeme anwenden, sagen mir, daß sie
nie mehr zum Pinsel und zur Farbe zurückkehren werden, da sie Ihre Gedanken jetzt viel rascher realisieren können und nicht mehr an fertige
Bildteile gebunden sind, sondern alles wieder verändern können.
Der Schritt zum dreidimensionalen bewegten Bild
Zum anderen haben wir die Fortführung der damals konstruktivistisch
orientierten Methode, die auf Programmen beruht. Dabei lassen sich allerdings noch interaktive Phasen einschieben, und man kann auch manuell
arbeiten. Nach meiner Meinung kommen wir mit dieser Methode weit über
das hinaus, was wir mit den Paint-Systemen können; denn sie führt in neue
Bereiche, deren wichtigster die Bewegung ist. Wenn Sie die Bewegung eines
Bildes abbilden wollen, brauchen Sie 25 Bilder pro Sekunde. Da das manuell nicht mehr geht, müssen Sie die Veränderung der Bilder mit Hilfe von
Programmen durchführen. M.E. ist es das Interessante und Wesentliche der
neuen Technik, daß es zum ersten Mal in der Geschichte der Kunst möglich ist, mit bewegten Bildern frei zuarbeiten; sie nicht nur abzubilden, wie
mit Film und Video, sondern der Phantasie freien Lauf zu lassen und sich
in Bildern auszudrücken, die beliebig realistisch sein können - oder auch
nicht. Das ist ein Neuland, mit dem wir erst fertig werden müssen, und auf
dem wir noch keine Erfahrung haben.
Darüber hinaus geht der Schritt in die Dreidimensionalität, der zwar mit
dem filmischen Prozeß zusammenhängt, aber doch neue Möglichkeiten
bietet. Dabei meine ich nicht nur die perspektivische Darstellung der Oberfläche, wie wir sie in der Geschichte kennen, sondern das Räumliche, das
wirklich in seinen drei Dimensionen erfaßt wird. Die Bildpunkte werden
durch je drei Koordinaten beschrieben. Es lassen sich dann räumliche
Konstellationen abtasten oder auch abstrakt dreidimensionale Ausgangsfigurationen vorstellen, die dem Computer eingegeben und von ihm mit
Herbert W. Franke
seinen bestimmten Verarbeitungsroutinen auf den Bildschirm gebracht
werden. Man kann nun diese Bilder beliebig drehen, die Konfigurationen
von allen Seiten anschauen und dann eingreifen. Ich habe z.B. ein Programm gesehen, bei dem bestimmte Raumnetze als Ausgangsfigurationen
für kompliziertere Darstellungen dienen können, und die so konstruiert
sind, daß, wennein einziger Punkt verändert wird, sich das gesamte Netz
ändert. Man kann dadurch von einem Rechtecknetz zu gekrümmten Figuren übergehen und so auch organische Formen darstellen.
Widerspruch: Wie werden diese Bilder realisiert? Sind das schon dreidimensionale Bilder?
Franke: Sie sind perspektivisch, dem Auge entsprechend, das auch nur
zwei Dimensionen aufnehmen kann; aber sie sind dreidimensional in der
Art und Weise, wie sie im Computer gespeichert sind. D.h., Sie können jede
beliebige Ansicht abrufen; Sie können das Objekt auch drehen und von
oben oder unten ansehen. Ich habe z.B. ein Stadtbild gesehen, bei dem man
plötzlich, wenn ein Hebel gedreht wurde, die Stadt von unten sieht. Ein
ganz seltsamer Anblick, eine Stadt von unten.
Aber noch wichtiger scheint mir, daß Künstler mit konventioneller Ausbildung hier etwas ganz Neues dazu lernen müssen; das sie eigentlich wissen
und beherrschen müßten, aber bislang noch nicht getan haben. Der Künstler ist noch viel zu wenig auf eine dreidimensionale Konfiguration ausgerichtet. Er beherrscht die Perspektive und kann die Lichtverhältnisse richtig
einrichten; aber etwas aus der dritten Dimension heraus aufbauen, kann er
nicht. Das ist jetzt mit dem Computer möglich. Es gibt ein Programm, das
versucht, organische - auch phantastische - Lebewesen aufzubauen. Die
Bewegung dieser „Tiere“ wird durch die Veränderung bestimmter Parameter in dem System bewerkstelligt, so daß man den ganzen Spielraum latent
sämtliche Gestaltungsformen, die das Objekt annehmen kann - zur Verfügung hat. Man modelliert also die Sache; man bildet sie nicht ab im Sinne
einer Projektion, sondern modelliert sie dreidimensional. Dieses Programm ist zwar ziemlich aufwendig; aber es stellt etwas zur Verfügung, das
kein Einzelbildnis, sondern eine Mannigfaltigkeit von Ansichten aus allen
möglichen Richtungen ist, und sich durch die Veränderung eines Parameters auch selbst verändern läßt. Z.B. habe ich das Simulationsprogramm
eines menschlichen Gesichts gesehen, das aus den ca. 15 - 20 Parametern,
die den Gesichtsmuskeln entsprechen, - durch die Veränderung der Parameter - jeden beliebigen Gesichtsausdruck simulieren kann. Zum Spaß hat
dann einer die Größe der Augäpfel verändert, und plötzlich kamen aus dem
Interview
Gesicht fußballgroße Augen heraus. Das sind sicher Schockeffekte, die mit
Kunst nichts zu tun haben. Ich erwähne das nur, um zu zeigen, daß ein
anderes Denken jetzt ins Spiel kommt, das nicht von der Oberfläche ausgeht, sondern die Objekte von innen her aufbaut.
Widerspruch: Da deutet sich offenbar für die künstlerische Tätigkeit etwas
qualitativ Neues an.
Franke: Das meine ich auch. Ich habe jetzt einige Punkte herausgehoben,
die mir positiv erscheinen, wie die Konfrontation mit der dritten Dimension, die eine Erweiterung unserer Vorstellungsmöglichkeiten bedeutet, oder
den Übergang in die Bewegung. Unsere Wirklichkeit ist bewegt und nichts
Stillstehendes, und bietet eine Fülle von neuen Möglichkeiten für die Komposition abstrakter Bildabläufe. Damit aber treten neue Probleme auf: Wir
müssen jetzt nicht mehr überlegen, wie die Farben innerhalb eines Bildes
aufeinander abgestimmt sind, sondern auch wie die Farben eines Bildes zu
denen des vorhergehenden oder des nachfolgenden passen. Ich habe bei
meiner Arbeit selbst gemerkt, daß wir da überhaupt noch keine Regeln
kennen, sondern diese erst ausarbeiten müssen, und aus der Erfahrung
dann allmählich dazu kommen, diese neuen Möglichkeiten so zu beherrschen, dass wir sagen können, jetzt haben wir eine ausgereifte Kunstform,
die Bestand hat. Das wird sicher ein Prozeß sein, der sich über Jahrzehnte
hinzieht. Wir müssen uns völlig klar darüber sein, daß das die ersten tastenden Versuche im Neuland sind.
Neue Anforderungen an die ästhetische Theorie
Widerspruch: Dadurch wird sich auch die Ästhetik als philosophische
Disziplin ändern. Wenn der künstlerische Gestaltungsprozeß sich in dem
Sinne verändert, daß nicht mehr ein Bild im Zentrum steht, an das man
gewisse Kriterien anlegen kann, sondern daß das Nicht-Sichtbare immer in
den ästhetischen Prozeß miteinbezogen werden muß – also das, was davor
und danach kommt -, dann wird das auch Auswirkungen auf die Theoriebildung der Kunst haben müssen.
Franke: Sie haben völlig recht; obwohl ich die Kunst etwas weiter fasse
und die Musik und Literatur dazunehme. Bei der Musik jedoch müssen Sie
auch ein zeitliches Kontinuum aufbauen und dann die Töne auf das Vorher
und das Nachher abstimmen. Mit ein und demselben Programm etwa kann
Herbert W. Franke
man sowohl Film- als auch Musiksequenzen machen. Diese bewegten Bilder haben größere Ähnlichkeit mit der Musik als mit der klassischen bildenden Kunst.
Aber die Veränderungen in der Ästhetik werden viel weiter reichen. Das
deutet sich schon in der Rezeptionsästhetik an, die auf der Informationspsychologie beruht. Während die klassische Genieästhetik aus der Existenz
und der Situation des Künstlers zu erklären versuchte, warum er in seiner
Zeit aus subjektiven Gründen gerade jenes Werk geschaffen hat, ist es heute viel interessanter, nach der Wirkung eines Kunstwerks auf das Publikum
zu fragen. Wie muß es beschaffen sein, um bestimmte Effekte auszulösen,
Ideen zu stimulieren, eine Herausforderung zum Mitgestalten auszulösen
usw.? Das wieder bringt die Konsequenz mit sich, Kunst nicht mehr als
etwas Abgeschlossenes zu sehen (das man, wenn es fertig ist, ins Museum
hängt und darüber Arbeiten schreibt), sondern Kunst als etwas stetig Veränderliches, etwas Dynamisches aufzufassen, das sich auch in seiner Dynamik beobachten läßt.
Damit kommen wir zu einer weiteren Möglichkeit der Computerkunst, die
eine interaktive Kommunikation zwischen dem Programm, stellvertretend
für den Künstler, und dem Publikum zuläßt. In der Zukunft wird man
mehr und mehr Programme machen, die kein statisches Bild und auch
keine bestimmte Sequenz zum Ziel haben, sondern die eine Fülle von innerhalb eines bestimmten Stils verständlichen Bildern, Abläufen, zur Verfügung stellen. Sie können vom Benutzer aktiviert werden, der damit den
klassischen Bewunderer eines Kunstwerks ablöst. Hier beginnt also ein
Prozeß, der den Konsumenten vom passiven Betrachter zum aktiven „Benutzer“ macht, - so unschön das Wort auch ist. Rein gesellschaftlich, meine
ich, ist es sicher wünschenswert, wenn jeder selbst seine kreativen Potenzen
einbringen kann; und die Anregungen können aus den vorbereiteten
Kunstwerken einer ganz neuen Art kommen.
Widerspruch; Wird das tatsächlich so kommen? Oder wird sich dieser
Vorgang doch wieder so spezialisieren, daß die Computergraphik letztlich
doch nur sinnvoll von wenigen gemacht werden kann?
Franke: Ich denke, daß früher oder später alle diese Möglichkeiten genutzt
werden. In Ansätzen haben wir die interaktiven Programme schon jetzt;
und es wird sicher viele Künstler, wie auch Befürworter aus dem Publikum
und der Kritik geben, die gerade diese Richtung fördern und stimulieren
werden. Es wird auch weiterhin die bequemere Methode des Paint-Systems
geben, mit der man in konventioneller Weise malen wird; und wir werden
Interview
auch immer den Computerkitsch haben. Ich bin davon überzeugt, daß alles
das nebeneinander laufen wird.
Fiktive Realitäten?
Widerspruch: Uns interessiert das Problem, das über die Computergraphik
im engeren Sinn hinausgeht und an das anknüpft, was Sie über die bewegten und dreidimensionalen Bilder ausgeführt haben. Wenn es in der Tat
technisch möglich ist, „realistische“ Bilder zu malen, die dennoch überhaupt nicht realistisch sind, so entsteht das erkenntnistheoretisch bedeutsame Problem, daß Bilder so erscheinen, als wären sie Abbild der Realität.
Erstmalig hätte der Mensch jetzt prinzipiell die Möglichkeit, die Differenz
zwischen Fiktion und Wirklichkeit zum Verschwinden zu bringen.
Franke: Das ist richtig; nur hat diese Richtung mit Kunst nur am Rande zu
tun. Mich irritiert allerdings, daß eine Zeit lang der Photorealismus in der
Kunst eine bestimmte Wertschätzung erfahren hat und von den Experten
als wertvoll anerkannt wurde. Denn dabei tritt die rein technische Routine
in den Vordergrund, nicht aber die künstlerischen Gestaltungsmöglichkeiten. Interessant wird es natürlich in dem Moment, wo Motive, die es überhaupt nicht gibt, realistisch dargestellt werden. Da sind wir bei dem Thema,
das Sie meinen. Doch das sind Entwicklungen, die sich aus ganz anderen
Gründen als künstlerischen ergeben haben.
In Amerika hat sich eine besondere Situation ergeben: Die Systeme, mit
denen man dreidimensionale, bewegte Sequenzen herstellen kann, sind
außerordentlich teuer; man braucht dazu die größten Computer, die es
heute überhaupt gibt, - die Supercomputer, die nur ganz wenigen Instituten
zur Verfügung stehen. Und diese Institute können im Moment an Kunst
überhaupt nicht denken, da sie Unsummen an Miete zahlen müssen. Heute
wird die Entwicklung aus rein kommerziellen Gründen weiter getrieben, da
in zwei Bereichen, in denen relativ viel Geld zur Verfügung steht, Interesse
an solchen Produkten da ist. Der eine ist die Werbung, der andere ist die
Filmproduktion, wobei im Moment gerade die Science Fiction-Filme von
besonderer Bedeutung sind.
Sie sind die Auftraggeber für Sequenzen, die mit dem Computer generiert
werden und photorealistisch anmuten. Beim Science Fiction-Film geht es
ja nicht um ein Kunstwerk, sondern man will die Schauspieler vor einem
Hintergrund agieren lassen, der möglichst echt sein soll. Und auch in der
Herbert W. Franke
Werbung gibt es für diesen Photorealismus einen konkreten Grund. Wenn
mit Werbemaßnahmen begonnen wird, stehen oft die Prototypen der neuen
Produkte noch gar nicht zur Verfügung, so daß man den Computergraphikern zunächst nur die Planzeichnungen der Gehäuseform oder die Karosserie übergibt. Sie gestalten dann ein echt scheinendes Bild, so daß der Werbespot bereits vorhanden ist und rechtzeitig eingesetzt werden kann, kaum
daß der erste Prototyp da ist - und dafür wird viel Geld gezahlt.
Und so kommt es, daß eine durchaus richtungsweisende Entwicklung anhand völlig banaler Beispiele vor sich geht. Man kann in solch ein Institut in
den USA kommen, wo die potentesten Computergraphiker von Amerika
zusammensitzen und Bilder von Heinzelmännchen oder Colaflaschen betrachten. Im ersten Moment wundert man sich und fragt, ob die nichts
wichtigeres zu tun haben, und merkt dann erst, dass es ihnen überhaupt
nicht um die Heinzelmännchen geht, sondern darum, einen Gegenstand zu
bewegen, daß man - beispielsweise - keinen stroboskopischen Effekt erhält.
Das geht natürlich weiter: Reflexe, optische Erscheinungsbilder, wie macht
man die echt? Es gibt z.B. die Methode des ray-tracing: Um eine richtige
Beleuchtung wiederzugeben, wird von fiktiven Lichtquellen aus der Strahlengang über sämtliche Reflexionen hinweg verfolgt, bis er den fiktiven
Punkt des Beschauers trifft; und das geschieht für jeden Punkt des Bildes.
Das hat man gemacht; es ist zwar wirklich ein ganz realistisches Bild herausgekommen, aber diese Methode ist auf Dauer viel zu teuer. Und so
setzt man nun an die Stelle der exakten die nichtexakte, aber billigere Methode, die aber den Effekt ebenso gut, wenn nicht besser, bewirkt.
Da beginnt's dann allerdings interessant zu werden. Wie weit können die
der Wirklichkeit abgeschauten Möglichkeiten durch eigene Gedanken ersetzt werden? - Gedanken, die vielleicht denselben Effekt erreichen, aber
vielleicht auch einen ganz anderen, ungewohnten. Wenn man in dies Neuland kommt, ist das wirklich höchst erstaunlich. Es geht da nicht mehr um
Fragen des Kunststils - wobei der Realismus für mich kein künstlerischer
Stil ist -, sondern um den kreativen Ausdruck in Phantasiegestalten, in Visionen von fernen Welten und ferner Zukunft, oder einer rein abstrakten
futuristischen Szenerie, die überhaupt nicht realisierbar sein muß. Wenn
man will, kann man ja auch die Gesetze der Physik außer Kraft setzen, also
Bewegungen zeigen, die es nicht geben kann. Man kann z.B. eine Glaskugel
schweben lassen, die sich teilt und in metallische Objekte verwandelt, die
wiederum zu einem Werbeschriftzug, sagen wir „ABC“, werden. Kurz und
gut, man ist nicht mehr an die Gesetze der Physik gebunden. Wenn Sie jetzt
absehen von dieser Werbesequenz, dann ist das schon eine tolle Sache, in
solch freier Art mit den Objekten operieren zu können. In der Wirklichkeit
Interview
gibt's das nicht; in der Phantasie ist es möglich. Ich bin überzeugt, daß man
solche Umwandlungen und Visionen, je billiger sie werden - und das tritt
sicher ein -, umso mehr auch aus künstlerischen Gründen realisieren wird.
Es ist ja in der Tat so, daß die photorealistischen Computergraphiken nicht
die künstlerisch interessanten sind. Da gibt es eine Geschichte: Im Katalog
zu einer großen Konferenz sollte auf der Titelseite das beste Computerbild
erscheinen, das angeboten wurde. Einer hat dann ein absolut photorealistisches Bild eingesandt. zu dem er Wochen gebraucht hatte; das wurde ihm
wieder zurückgeschickt, weil es von einer Photographie nicht zu unterscheiden war. Wenn man also einen künstlerischen Effekt erreichen will,
muß man von der Realität weggehen, oder man strebt sie erst gar nicht an
und gibt sich mit gewissen Abstraktionsstufen zufrieden.
Hier tut sich eine Fülle von neuen Eindrücken, neuen Sichtund Darstellungsmöglichkeiten auf, von begründeten Abweichungen von der Wirklichkeit, die wieder eine neue Darstellungsmöglichkeit ergeben. Das ist für mich
ein höchst interessantes Gebiet. Heute wird diese Entwicklung höchstens
sporadisch vom ästhetischen Gesichtspunkt her gesehen, und der Fortschritt konzentriert sich vor allem auf die technischen Prozesse; aber ich
glaube, daß man später einmal hier ansetzen wird, um sich mit den ästhetischen Möglichkeiten dieser Systeme ernsthaft auseinanderzusetzen. Im
Moment ist das noch nicht möglich: die Amerikaner haben wenig Interesse
für Theorie; und die Deutschen, die zwar für Theorie Interesse haben, haben keines für Computergraphik.
Auf dem Weg zum neuen Künstlertyp
Widerspruch: Sie meinen also, daß die Entwicklung darauf hinausgehen
wird, theoretisch wie praktisch die Fülle der Möglichkeiten, die der Computer bietet, auszufüllen. Nicht der Realismus wird wieder hergestellt, sondern
es werden im Gegenteil neue Gebiete und Formen erschlossen.
Franke: Ich fühle mich nicht als Prophet; aber ich meine doch, daß es
immer wieder Menschen geben wird, die an den Entwicklungen interessiert
sind, in denen sich ein Fortschritt andeutet - etwas Neues, sowohl vom
Gestalterischen als auch von der Theorie her. Ein solches Gebiet liegt vor,
ein unbearbeitetes Gebiet, ein weites Feld von latenten Möglichkeiten, die
weder theoretisch noch von der künstlerischen Praxis erfaßt sind. Wie lange
Herbert W. Franke
es dauern wird, bis die Computer zum festen Inventar von Kunstinstituten
gehören, und bis der Widerstand der konventionellen Künstler und Kunsthistoriker abgebaut sein wird, weiß ich nicht. Jedenfalls haben wir heute
noch einen beträchtlichen Widerstand gegen die Einführung dieser Systeme. Es gibt Akademien für bildende Künste, die Computer, die man ihnen
als Geschenk anbot, abgewiesen haben - weil sie nichts damit zu tun haben
wollten. Solange sich diese Einstellung nicht ändert, wird man auch auf der
Ebene der Theorie nicht sehr weit kommen.
Widerspruch: Löst sich dadurch nicht das Bild des Künstlers, wie er heute
noch auf Kunstakademien ausgebildet wird, auf?
Franke: Er wird für die Vergangenheit ausgebildet und nicht für die Zukunft.
Widerspruch: Eben. Das deutet sich darin an.
Franke: Ich nehme nicht an, daß eine bewußte Absicht dahintersteckt; aber
die Erziehung in solchen Anstalten richtet sich auf Methoden, denen kaum
noch neue Seiten abzugewinnen sind, und auf eine Umgebung, die heute
nicht mehr existiert. Man sollte eigentlich wissen, was man tut: Man produziert ein Dilemma. Wer die Akademie verläßt, findet sich in einer Umgebung, deren Methoden nicht mehr die seinen sind, und deren Kommunikationsstrukturen er nicht mehr verstehen, mit deren Kommunikationsmedien
er sich nicht ausdrücken kann. Er sieht sich natürlich, auch das wird ihm
anerzogen, als Hüter der alten Werte, und verzweifelt daran, weil er merkt,
daß die Wirklichkeit über ihn hinweggeht. Die Erwartung, daß man die
alten Methoden in das elektronische Zeitalter hinüberretten könnte, erweist
sich als falsch – die Vorstellung der Kunst als abgeschiedenes Refugium, in
dem Meister und Schüler nach mittelalterlichen Vorbildern mit Gips und
Farben herumexperimentieren.
Ich fände es viel vernünftiger, die Studenten rechtzeitig und möglichst umfassend auf die Medien vorzubereiten, die ihnen dann, wenn sie tätig sein
werden - ein Jahrzehnt oder eine Generation später -, als Ausdrucksmittel
zur Verfügung stehen. Wenn sie sich den neuen Kommunikationsstrukturen öffnen würden, würde man auf sie in ganz anderer Weise hören, als
wenn sie als Rufer in der Wüste herumlaufen und Dinge propagieren, die
eigentlich passe sind. Für sich selbst hätten sie dann auch ein ganz anderes
Lebensgefühl, nämlich das Gefühl, innerhalb einer Gesellschaft zu
stehen, in der sie etwas nutzbringendes machen. Sie müssten sich dann
Interview
nicht mehr beklagen, unverstanden zu sein.
Ich finde es tragisch, daß eine Unmenge von jungen Menschen, die kreativ
und leistungsfähig wären, aufgrund einer verfehlten Erziehung aus dem
gesellschaftlichen Prozeß ausscheiden und in ein Abseits gedrängt werden.
Auf diese Weise werden die höchst interessanten neuen Instrumente den
Leuten überlassen, die mit Kunst überhaupt nichts im Sinn haben, die neuen Medien lediglich kommerziell ausnutzen und höchstens Kitsch erzeugen.
Nun, ich habe das etwas krass geschildert, es ist nicht ganz so schlimm weltweit gesehen. In Amerika gibt es bereits an einigen dutzend Hochschulen Kurse für Computergraphiker; und in Europa, in Frankreich, Italien und
England, da sieht's auch schon besser aus. In der Bundesrepublik allerdings
gibt es nur einige erste Anzeichen, die aber eigentlich nur auf die Einsicht
von verantwortlichen Einzelpersonen zurückgehen, die sich darum bemüht
haben, Lehraufträge zu vergeben. Über Lehraufträge, die dann 1- oder 2stündige Veranstaltungen sind, ist es in Deutschland jedoch noch nicht
hinausgekommen.
Widerspruch: Meinen Sie damit, daß die alten Techniken obsolet sind,
daß man nicht mehr den Pinsel, sondern den joy-stick braucht? Sollten die
alten Traditionen bewahrt werden und die Basis der Ausbildung bleiben, oder halten Sie sie für überflüssig?
Franke: Geschichtlich gesehen sind sie auf jeden Fall die Basis - wie natürlich auch in der subjektiven Entwicklung des Menschen. Bevor man mit
dem Computer anfängt, hat man sich vorher manuell betätigt. Die Lösung
von der manuellen Tätigkeit ist ein Prozeß, der erst mit einer gewissen Reife
und der Bereitschaft, mit den unbequemen immateriellen Mitteln sich abzugeben, Hand in Hand geht. Abgesehen davon meine ich, daß selbstverständlich auch die traditionellen Methoden bestimmte Vorteile für sich
haben, die der Computer nicht bieten kann: die Bindung an ein Material,
dessen Gesetzlichkeiten man verstehen muß, wie auch die direkte Auseinandersetzung über den Tastsinn mit den Dingen ... das geht zum Teil
verloren. Das ist mir durchaus bewußt. Es gibt selbstverständlich nicht den
Ersatz von alten Methoden durch neue. Das gilt vielleicht für Bereiche, wo
man, wie beim Trickfilm, nicht mehr zum Handzeichen zurückkehren,
sondern mit dem Computer zeichnen wird. Aber im Rahmen der Kunst
sollte Freiheit bestehen: jeder kann die Methode wählen, die ihm gemäß ist.
Selbstverständlich werden die klassischen Methoden weiterhin praktiziert
werden, und ich bin sehr dafür, daß das der Fall ist. Was ich in der Begeisterung für das Neue gesagt habe, mag vielleicht den Eindruck erweckt haben,
Herbert W. Franke
ich wäre gegen die alten Methoden. Das ist nicht der Fall. Ich meine nur,
man müsste die neuen mitberücksichtigen und nicht ausgrenzen.
Das Erkenntnisproblem: Trug oder Wirklichkeit
Widerspruch: Noch einmal zurück zur „fiktiven Realität“. Sie haben wahrscheinlich recht, daß die Entwicklung in der Kunst von der getreuen Abbildung weggehen, und man sich neue Gebiete erschließen wird. Doch es
stellt sich die Frage, ob nicht die technischen Möglichkeiten in einem anderen Gebiet, dem Kulturellen und Sozialen, zum Problem werden. Es gibt
die Möglichkeit, technisch eine Realität herzustellen, die zwar nur fiktiv ist,
die man aber als solche nicht mehr erkennen kann. Das ist eher ein erkenntnistheoretisches Problem, das durch diese Techniken, durch die neuen
Darstellungsformen in den Medien neu erzeugt wird.
Franke: Zunächst einmal sind die Methoden, die sich hier entwickeln, rein
technische. Die Möglichkeit, Realität wiederzugeben, oder auch fiktive
Dinge in realistischer Sicht darzustellen, stellt sich als rein technisches
Software-Problem heraus. Es gibt Leute, die sich auf solche Fragen spezialisiert haben, Spezialisten für Grashalme usw. - die ein halbes Jahr lang daran
arbeiten, wie man einen Grashalm realistisch darstellt: Spezialisten für Wasserwellen oder Wolken. Es ist zu erwarten, daß innerhalb von 10 Jahren die
Möglichkeit, Dinge realistisch darzustellen, als ein Diskettenpaket vorliegt
und zu kaufen ist. Nun erst tritt die Frage auf, wie man sie künstlerisch
anwendet. Darum meinte ich auch vorhin, daß die Darstellung einer Vision
mit Hilfe dieser Methode keiner künstlerischen Potenz bedarf, sondern daß
diese eben in der Vision selbst steckt.
Was Sie allerdings interessiert, ist offenbar das Problem, daß man auch
Realität vortäuschen kann, angefangen von den Betrugsmöglichkeiten bis
zu der Frage, ob der Mensch auf diese Weise nicht die Verbindung zur
wirklichen Realität verliert und sich eigentlich mehr und mehr in einer Welt
tummelt, die ihm Realität nur vortäuscht ...
Widerspruch: ... wo die Grenzen verschwimmen; und man nicht mehr
weiß, was Realität und was Fiktion ist.
Franke: Eine solche Entwicklung hat, wie wir wissen, immer positive und
negative Konsequenzen: die negativen liegen zum Teil eben in dieser fiktiven Welt, die von den echten Problemen abführt. Aber diesen Vorwurf
Interview
können Sie natürlich auch jedem Roman machen, der sich auch mit etwas
beschäftigt, das in der Wirklichkeit so gar nicht vorkommt.
Widerspruch: Nun, der Roman hat jedoch eine diskursive und erzählende
Struktur, so daß die Möglichkeit, zwischen Fiktion und Realität zu unterscheiden, doch aufrecht erhalten bleibt. Beim Bild ist das anders; denn es
zieht ja gerade aus der Anschaulichkeit und Unmittelbarkeit seine Suggestion. Und wenn wir dann bedenken, daß die Anschauung meist als die letzte
Basis angenommen wird, um zu beurteilen, was wahr und was falsch ist,
dann kommt dem anschaulichen Bild doch eine besondere Bedeutung zu.
Abgesehen vielleicht von der Montagetechnik, war es ja selbst beim Film
nie so, daß der Unterschied zwischen Realem und Fiktivem verschwunden
ist. Wenn aber jetzt effektiv die Möglichkeit besteht, Bilder zu machen, die
zwar keine Wirklichkeit repräsentieren, sondern frei konstruiert sind, aber
zugleich so erscheinen, als seien sie real, ist dann nicht eine neue Qualität
erreicht?
Pranke: Es ist richtig, was Sie über den Wahrheitsbezug sagen: Was man
selbst sieht, dem gesteht man Realität zu. Daraus kann sich nun einiges
ergeben, was nicht wünschenswert ist: Irritation und Verunsicherung. Ich
bin nicht ganz so besorgt. Ich glaube, daß man sehr bald zu unterscheiden
lernen wird. Wir wissen, daß man heute ein Hörspiel – das ist nun wieder
nicht der Gesichtssinn, der zweifellos der wichtigste ist - völlig realistisch
machen kann, wie z.B. Orson Welles mit seiner Marsinvasion. Wenn man
aber weiß, daß das möglich ist ... ich glaube, heute würde man nicht mehr
so leicht darauf hereinfallen.
Man wird lernen müssen, daß man mit Bildern Wirklichkeitsnähe vortäuschen kann. Man merkt ja, ob etwas über den Bildschirm kommt oder
nicht; und so wird man den Bildschirm eben nicht mehr als verbindlich
annehmen. Das ist ja heute schon nicht unbedingt angeraten - wir alle sind
schon heute sehr vorsichtig geworden. Ich wenigstens halte den Menschen
für so flexibel, daß er mit diesen Problemen fertig wird.
Aber es gibt auch positive Seiten. Ich habe mich z.B. neulich mit sog. Diatomeenschalen beschäftigt, das sind auf Siliziumverbindungen aufgebaute
Strukturen, Molekularsiebe, die graphisch reizvolle dreidimensionale Bogengänge haben, mit denen verglichen gotische Baustrukturen ärmlich ausgestattet sind. Diese kann man prinzipiell photographisch nicht sichtbar
machen, sondern nur berechnen. Mit der Computergraphik können Sie
diese Strukturen dreidimensional sichtbar machen. Ich könnte mir auch
Simulationen vorstellen, bei denen Sie vor dem Bildschirm sitzen und nicht
Herbert W. Franke
nur Sequenzen abspielen lassen, sondern mit dem joy-stick in jede beliebige
Richtung gehen - oder besser gesagt, schweben können. Sie können das
schneller oder langsamer. Sie können Details herauslassen usw. Wir kommen mit diesen Methoden in Bereiche hinein, die für uns sonst absolut
unerreichbar wären. Übrigens gilt das auch für Telemanipulatoren: Sie können fremde Gegenden aufsuchen - z.B. in einen Vulkan hineinsteigen und
das mit Teleapparaturen verfolgen, als wenn Sie selbst drin wären. Vielleicht
wird uns auf diese Weise auch die Mikrowelt „zugänglich“.
Es kommt eben immer darauf an, ob die Dinge, die uns zur Verfügung
stehen, vernünftig oder unvernünftig angewendet werden; wobei diese
Beispiele zeigen, daß der Begriff „vernünftig“ nicht nur im Sinne von
„zweckdienlich“ zu verstehen ist. Es ist allerdings eine Frage, die ich nicht
beantworten kann: Ob wir die Gefahren so sehr fürchten, dass wir die
Entwicklung lieber stoppen wollen; oder ob wir unserer Intelligenz und
unserem Auffassungsvermögen so weit vertrauen, daß wir das Risiko, das
jeder Fortschritt bedeutet, auf uns nehmen wollen.
Widerspruch: Herr Professor Franke, wir danken für das Gespräch.
Das Gespräch führten Alexander von Pechmann, Percy Turtur und Thomas Wimmer.
Interview
„Procedure“, Reihe von Graphikdarstellungen: alle möglichen geraden Verbindungen zwischen drei, vier, fünf...zwanzig Punkten
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 67-75
Autorin: Helga Laugsch-Hampel
Artikel
Helga LaugschHampel
Anmerkungen zu einer 'neuen' Ästhetik
der Rockmusik im Zuge der neuen
Technologien
Wenn auch die Auswirkungen neuer Technologien im Bereich der optischen Medien am augenfälligsten sind, so sollte doch nicht übersehen werden, daß sich - quasi im Hintergrund - für die akustischen Medien in den
letzten Jahren eine ähnliche Revolution vollzogen hat. Zwar rangiert in der
Rangfolge der favorisierten Freizeitbeschäftigungen das (Musik)Hören noch
immer hinter dem (Fern)Sehen1 - und es ist auch kein Wechsel zu erwarten
-; aber es bleibt doch festzuhalten, daß die akustischen Medien mittlerweile
die gedruckten überholt haben - die Schreib- und Lesekultur ist also weiter
auf dem Rückzug2. Diesem Trend entsprechend ist auch der Verkauf von
Noten, wie er zu Beginn des Jahrhunderts noch üblich war3, zugunsten des
Verkaufes von Tonträgern (Platten, Kassetten, compact-dlscs, Bildplatten,
video-clips) erheblich zurückgegangen.
Worin besteht nun der Fortschritt durch die neuen Technologien im Bereich der akustischen Medien? Da dessen Konsequenzen im Verlauf dieses
Aufsatzes erörtert werden, soll hier nur kurz (und vergröbernd) gesagt wer1
Vgl. SALZINGER, H.: Rockpower, Frankfurt 1972, S. 223 ff. Was sind Medien? W.
HÖFER (Hrsg.), Percha 1981, S. 321 ff. CHAPPLE St., u. GAROFALI, R.: Wem
gehört die Rockmusik?, Reinbek b. Hamburg 1980, S. 201 ff.
2
KNEIF, T.: Rockmusik, Reinbek b. Hamburg 1982, S. 45 (= 1982 ).
Vgl. Karl VALENTIN. Volkssänger, Dadaist, München 1982. URBAN, P.: Rollende
Worte, Frankfurt 1979.
3
Helga Laugsch-Hampel
den, daß es sich um die technische Vervollkommnung des Endproduktes
und, damit verbunden, um eine Steigerung von Zeit, Kosten und Qualität
bei dessen Herstellung handelt. Zum einen geht es im musikalischen Bereich darum, im selben Medium vollkommener zu werden, d.h. qualitativ
besser und schneller zu arbeiten und dabei menschliche, natürliche und
technische Störfaktoren weitgehend auszuschalten (dabei hat die digitale
Aufnahmetechnik im Gegensatz zur analogen eine deutliche Verbesserung
bewirkt4); zum anderen erfolgt bei den Bildplatten und video-clios eine
Annäherune an das optische Medium.
Video killed the radio star ...
Hier sei kurz bei den video-clips verweilt. Diese Drei-Minuten-Kurzfilme
können durchaus in der Tradition der Musikfilme betrachtet werden, die
seit den 30er Jahren immer wieder eine (meist banale) Handlung um die
Musik einer Gruppe herum aufgebaut haben. In den clips (fast films) wird
also eine textliche und eine musikalische Aussage optisch dargeboten - die
Chance zum Zusammenwirken der Medien wird jedoch meist ungenutzt
gelassen. Die optische Dominanz wird dabei technisch untermauert: die
Qualität der visuellen Darbietung übersteigt die akustische Klangpräsenz,
da diese Geräte so konstruiert sind, daß die Visualität mehr Volumen entwickeln kann. Zudem wird bei der optischen Wiedergabe sehr oft mit einem vervielfältigenden (und deshalb überwältigerenden) Effekt gearbeitet,
indem zwar viele Sichtgeräte installiert werden, aber nur eine Lautsprecheranlage5. Der entstehende Eindruck ist diffus-verwirrend und auch für die
Augen nicht mehr pointiert zu erfassen, er zielt auf Breitenwirkung ab,
nicht auf eine in die Tiefe - auf Quantität, nicht auf Qualität.
Ist Musik allein nun nicht mehr ausreichend? „Der visuelle Aspekt ist ein
Teil der Zauberformel geworden, die dich ganz nach oben bringt. Wenn du
ein gutes äußeres Image hast und einen mittelmäßigen Song, kannst du die
Nr. 1 werden. Umgekehrt ist das nicht möglich“6 berichtet der Musiker Th.
Dolby. Nun kann wahrlich nicht behauptet werden, daß in der Rock-Musik
4
KNEIF, T.: Rockmusik, Reinbek b. Hamburg 1982 (=1982 a).
5
Vgl. Plattenkaufhaus WOM in Münchens Fußgängerzone.
Thomas DOLBY (Musiker), in: Fachblatt 5/84, S. 20 (=FB).
6
Ästhetik der Rockmusik
noch nie mit Manipulation Geschäfte gemacht worden wären. Dennoch
scheint sich eine neue Entwicklung abzuzeichnen: „Die Labels nehmen
natürlich nur noch neue Leute unter Vertrag, die quasi eine videogene Visage haben. Ob sie gute Songs schreiben können, (...) ist verdammt nebensächlich geworden“7. Und darum handelt es sich in erster Linie: um das
individuelle und das industrielle Geschäft. „Die Plattenumsätze in Großbritannien hatten (...) bereits 1976 einen Tiefstand erreicht, während in
Deutschland und in den USA die Kurve erst nach 1979 nach unten knickte“8. Die video-clips boten sich als Rettung an. Sie „waren reine Werbeträger der Plattenfirmen, die helfen sollten, den sinkenden Umsatz von Hitsingles oder LP 's zu steigern“9. Und in zunehmendem Maße wurden und
werden die Hitparaden auch von den video-clips bestimmt10.
„You don’t believe, we’re on the eve of destruction?“
Bei der Festlegung von „Rockmusik“ ergeben sich nicht unerhebliche
Schwierigkeiten: ist es „Jugend“-, „Pop“- oder gar eine neue „Volks''Musik11? Zwar ist sie Musik für Jugendliche und Ausdruck ihrer
(Sub)Kultur, aber der Konsumentenkreis setzt sich aus immer mehr ehemaligen Jugendlichen zusammen und macht daher eine Abgrenzung nach
oben schwierig12; sie bietet sowohl Seichtes als auch Anspruchvolles13 enthält Elemente von zeitgenössischer E- und U-Musik14; sie ist „die
eigentümliche Verzahnung einer Art Volksmusik (...) mit einem
7
Joe JACKSON (Musiker), in: FB 7/84, S. 31.
8
Musikexpress 12/79, S. 75 (= ME).
9
Fachblatt 12/84, S. 272.
10 Vgl. hierzu z.B.: „VISAGE“. ME 11/81, S. 46 f.; „HERBIE HANCOCK“, FB 2/84,
S. 161; „DURAN DURAN“, FB 12/84, S. 274.
11
Vgl. KNEIF, 1982 a; CHAFPLE; SALZINGER etc.
12
KNEIFF, 1982 a ,S 208.
13
Ebd., S. 207.
14
Ebd., S. 198 ff.
Helga Laugsch-Hampel
tümliche Verzahnung einer Art Volksmusik (...) mit einem hochentwickelten Industriezweig, und diese paradoxe Verbindung (... ) bringt manche
Probleme und Widersprüche ( . .. ) mit sich“15.
Entwicklungen und Strömungen in der Rockmusik, die im übrigen nie linear-separat, sondern zirkulär verlaufen, so dass ambivalente Richtungen
einander nicht ausschließen und falsifizieren müssen, waren stets ein Barometer für Entwicklungen und Strömungen in der Gesamtgesellschaft16
Besonders deutlich läßt sich das am Beispiel der späten 60er Jahre, an der
Verzahnung Rockmusik - Mode - Sexualität - Studentenbewegung und dem
Bestreben einer Veränderung der Gesellschaft aufzeigen. Dem entspricht
eine sich saturiert und/oder bombastisch gebende Rockmusik in der Zeit
einer politischen Mäßigung und Restauration in den späten 70er Jahren, die
zumindest eine musikalisch provokative Strömung, nämlich den Punk,
nach sich zog.
Wenn man nun eine der zentralen Kategorien der Ästhetik von Rockmusik,
nämlich die der „Körperlichkeit“, als Schnittpunkt von Sinnlichkeit, Sexualität und Arbeit, herausgreift17 und die Auswirkungen der neuen Technologien auf diese untersucht, - was läßt sich daraus hinsichtlich einer
Veränderung ihrer Ästhetik und der Gesamtgesellschaft schließen? Könnte
man nicht - vorausgesetzt, man wäre nur vorurteilsfrei und wohlmeinend
genug - die neuen Medien freudig und erwartungsvoll genießen? Für die
visuellen Medien verheißt Schwarz-Schilling stellvertretend für die Konservativen ein „Mehr“ an Individualität, an Freiheit und Demokratie, ja an
Kunst18. Kreativität für alle - jeder sein eigener Künstler; diese Angebote
können auch für den musikalischen Bereich gelten.
Für die Rockmusik war ja spielerische Virtuosität niemals eine unabdingbare Voraussetzung; vielmehr sind Banalität und Dilettantismus stets eine
wichtige Quelle für Musiker und Gruppen (und Publikum) gewesen. Als
wichtig erscheint der Akt der Kommunikation, der Übermittlung einer (wie
15
Ebd., S. 196.
16
Vgl. CHAPPLE. 1980.
17
Eric BURDON, in: Living in a Rock 'n Roll Fantasy, Berlin 1977, S. 191 ff.
18
Chr. SCHWARZ-SCHILLING, in: Was sind Medien?, S. 155 ff.
Ästhetik der Rockmusik
auch immer gearteten) Botschaft. Und diese - so könnte man meinen - wird
erleichtert durch video-clips und insbesondere durch Instrumentarien und
Aufnahmeverfahren, die tendenziell musikalisch-handwerkliches Können
immer mehr überflüssig machen. Eine Chance zur Gleichheit, ein Abbau
von Privilegien also? In der Tat ist es heute möglich, daß nur ein Musiker
eine ganze Platte einspielen kann. Der Aufwand an Zeit und Menschen
kann also erheblich reduziert werden. Ja, für die Musiker besteht sogar die
Notwendigkeit, ihr Instrumentarium und ihre 'Ausrüstung', um das zu vervollkommnen, was in rascher Folge auf dem Markt erscheint, um
weiter beschäftigt zu werden19. (Dazu die Werbung einer Firma, die Anfang
der 80er Jahre ihre Schlagzeugmaschine anpries: „Schickt Euren Schlagzeuger nachhause“.)
Und darüber hinaus: eröffnet sich nicht die Chance zur Ganzheit, wenn
durch die video-clips die Brücke von der Akustik zur Optik geschlagen
wird? Vielleicht auch die Einheit von männlichem und weiblichem Prinzip wird doch das Auge traditionell als männlich besetzt, weil fixierend, und das
Sehvermögen durch Geisteskraft erworben20, und das Ohr als weiblich, weil
aufnehmend und von der Natur mitgegeben21, gesehen?
Together we could change the world ...
Immer häufiger wird zum video-clip gegriffen; ganze Musiksendungen, die
in 'grauer Rockvorzeit' aus Live-Auftritten bestanden, setzen sich aus 'Vollkonserven' zusammen, so daß sich die Auftrittsmöglichkeiten (z.B. im Fernsehen) ständig verringern. Nun kann zwar nicht grundsätzlich festgestellt
werden, daß Live-Auftritte ihre Anziehungskraft verloren hätten22. Bezeichnend dafür ist, daß sich Massenfestivals (wie Anfang 1985 in Rio) großer
Diese Innovationen kommen vor allem den Herstellern von Gebrauchsmusik zugute;
vgl. Tom SCOTT (Musiker), in: FB 2/85, S. 27 ff.
19
20
HEGEL, G.W.F.: Ästhetik 1/11, Stuttgart 1971.
21
BEHRENDT, J.: Nada brahma, Frankfurt 1984
22 Trotz geplatzter Tourneen (vgl. SPLIFF und EXTRABREIT, ME/sounds 3/85;
ME/sounds 2/85).
Helga Laugsch-Hampel
Beliebtheit erfreuen.
Auf dieser Ebene ist der Publikumszuspruch eher angewachsen. Rockmusik
ist Allgemeingut geworden und signalisiert nicht mehr die Zugehörigkeit zu
einer besonderen Klasse von veränderungswilligen Außenseitern. Betroffen
aber von mangelnden Auftrittsmöglichkeiten und fehlender Publikumsresonanz sind vor allem die Gruppen, die auf lokaler Ebene spielen - viele
Clubs sind 'wegrationalisiert' worden23.
Da jedoch Tourneen und Live-Auftritte bis zu einer gewissen Größenordnung eher mit Verlusten als mit Gewinnen verbunden sind24 muß es auch
einen anderen Grund als den materiell-kommerziellen geben. Und hier zeigt
sich nun, dass in dem Maße, in dem Rockmusik in immer weiteren und
neuen Schichten Verbreitung fand, sie absorbiert wurde und den Großteil
ihrer (ambivalenten) politischen, gesellschaftlichen und kulturellen Sprengkraft verlor25. Die Rockmusiker - ehemals von der konservativen Seite und
ihrer Presse als 'langhaarige Affen' bezeichnet - avancieren auf einmal zur
high society, werden gesellschaftsfähig als 'Künstler' und verlieren damit
immer mehr die Fähigkeit zur Provokation. Und das Publikum, das nun in
weitaus größerer Zahl erscheint, ist davon entfernt, dieses quantitative
„Mehr“ an Gemeinsamkeit in ein qualitatives umzusetzen. Das Publikum
wird lediglich zur Masse, und die Grenzen zu anderen Massenveranstaltungen (z.B. und vor allem zum Sport) sind fließend geworden - 'palace
revolutions' sind also keineswegs mehr zu befürchten.
Wichtig wird diese Tendenz also auch für das Verhältnis des Individuums
zur Gesellschaft. Die versprochene Individualkommunikation „von einem für einen“ zeigt sich als massenweise reproduzierte (im Sinne von
Walter Benjamin26) über die beliebig oft verfügt werden kann. Obwohl es
23 Symptomatisch für die Situation im Großraum München, wo sich seit 10 Jahren die
Auftrittsmöglichkeiten drastisch verringert haben, ist die Umwandlung des traditionsreichen 'Domicile' in eine Discothek.
Vgl. SPINDLER, W. u. HOLLANDER, F.: Herr Müller auf Tournee, Reinbek b.
Hamburg 1982; „Nena-Tournee“, FB 7/84, S. 158 ff.
24
25
Vgl. SALZINGER, 1972; KNEIF, 1982 a.
26 BENJAMIN, W.: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit,
Frankfurt 1978, S. 13.
Ästhetik der Rockmusik
sicher auch eine gegenläufige Strömung gibt (z.B. U 2, BAP und nicht zuletzt das große Live-AID-Konzert), läßt sich doch feststellen, daß die aus
dieser technologischen Entwicklung resultierende Individualisierung eine
grundsätzliche Absage an das Anliegen der Rockmusik der 60er und frühen
70er Jahre darstellt: die Gemeinsamkeit, mit der persönliche, soziale und
politische Angelegenheiten verändert werden sollten. Und daran ändert
auch eine Kontakttaste an einem walkman nichts. - Als Quintessenz bleibt
also festzustellen, dass der Trend weggeht von dem gemeinsamen Erleben
eines Konzertes in einem relativ überschaubaren Rahmen; „Discotheken
(haben zunehmend) die Live-Auftritte ersetzt“27. In diesem Sinne gerät die
gerühmte Individualisierung weitaus eher an den Rand der Vereinsamung,
der Vereinzelung und der Aufsplitterung von Menschen, als daß sie qualitativ mehr Individualität verleihen würde, wie sie vorgibt.
Cool and fit statt sex and sweat ...
Kann die unmittelbare physische Präsenz eines Menschen nicht mehr ertragen werden? Die Leute sind „mittlerweile so weit, daß sie in Rockkonzerten
so reagieren, als ob sie Fernsehen gucken“28. Zunehmend wird in LiveKonzerten auch zu Einspielungen etc. gegriffen, so daß der Charakter von
unmittelbaren, 'ehrlichen' Rockkonzerten tendenziell verloren geht. Und
dem kann die Verfasserin noch hinzufügen, dass sie kürzlich beim Besuch
des neuen Musikkultfilms „Stopp making sense“ (Talking heads) den Eindruck hatte, als erlebte das Publikum in sehr ordentlicher, cooler und distanzierter Manier eigentlich ein Live-Konzert - die Präsenzebenen verschwimmen.
M.E. sollte man allerdings nicht der 'neuen Jugend' weniger Aktivität und
Bereitschaft zu einer damit einhergehenden Veränderung, dafür mehr
Gleichgültigkeit und Konsumhaltung vorwerfen; sind doch die oben erwähnten Erscheinungen Auswirkungen einer neuen Medienlandschaft auf
die vorzugsweise junge Generation, die ihrem Einfluß mehr ausgesetzt ist.
Das Erleben von sinnlichen Reizen (und wenigstens das war Rockmusik
27
BYGRAVE, M. u. NASH, L.: Die Welt des Rock, Ravensburg 1980, S. 11.
28
Bob GELDOF (Musiker), in: ME 12/79, S. 10.
Helga Laugsch-Hampel
immer) scheint sich im Gegensatz zu den 60er und 70er Jahren in veränderter Weise, gleichsam auf verschiedenen Ebenen zu vollziehen. Dies hat
Auswirkungen auf Spontaneität und Präsenz und verändert vor allem die
Sinnlichkeit und ihr Erleben selbst.
Doch nicht nur die anderen und das 'together“ gehen in gewisser Hinsicht
verloren; deutlich wird in diesem Zusammenhang auch, daß „Körperlichkeit“ (Arbeit, Sinnlichkeit und Sexualität) als zentrale Kategorie des Rock
einen Bedeutungswandel durchmacht, der sich nicht losgelöst ereignet,
sondern durchaus in den Gesamtrahmen paßt. In zunehmendem Maße
präsentiert sich ein Ideal der Androgynität (Ann Lennox, Michael Jackson). Zwar war Rockmusik immer auch ein Spiel mit Geschlechterrollen,
doch momentan tritt zu der Koketterie mit den Möglichkeiten von Geschlechtlichkeit (wo sogar der neue Superstar „Prince“, der nicht unbedingt
unter die 'softies' eingereiht werden kann, singt: „l 'm no man, l 'm no woman“) und gegenläufig zu der ständigen Sado-Maso-Faschismo-MachismoStrömung etwas für die Rockmusik grundsätzlich Neues: „Desinteresse am
Sex“29.
Wie ist dieser Bedeutungswandel zu verstehen? Zunehmend ist in den letzten Jahren die Gitarre im Zuge der neuen Technologien in ihrer fundamentalen Rolle für die Rockmusik von den Tasteninstrumenten (Synthesizern)
abgelöst worden. Und da „... der Computer auf der Bühne nichts bringt“,
seine Darstellung langweilig ist, ging es darum, „live eine neue Ästhetik zu
entwickeln; ...der Computer ist nicht so ein Sexsymbol wie die Gitarre...“30.
Nun kann es ja - und nicht nur aus weiblicher Sicht – kein allzu großer
Verlust sein, wenn Sexualität nicht weiter mit Sexismus verwechselt wird
(Kostprobe: „Eine Gitarre ist dagegen (gegen den Synthesizern) einfach
schön. Sie hat die Formen einer Frau und reagiert auf Berührungen“31 ) und
sich sogar in der Rockmusik ein Wandel im Verständnis der Geschlechterrollen vollzieht. Noch nie zuvor waren in der Geschichte der Rockmusik
soviele Frauen als Instrumentalistinnen (!) beteiligt, die sich mit wachsendem Können und Selbstbewußtsein eine immer größer werdende Rolle
erspielt haben. Geht dies Hand in Hand mit dem Abschied von „Sex and
Sweat and Rock 'n Roll“?
29
Bob GELDOF (Musiker), in: ME/sounds 9/84, S. 24.
30
Uli RÜTZEL („Erdenklang“), in: Musik und Computer 1/84, S. 13.
Steve LAKE, in: ME/sounds 6/84, S. 10 ff.
31
Ästhetik der Rockmusik
„Die Präsenz eines Synthesizer-Musikers ist die einer Schreibkraft“32; das
Spielen des Instrumentes ermöglicht wenig Bewegung, es erfordert wenig
körperliche Arbeit und Anstrengung, wenig Schweiß. Insofern kann man
durchaus sagen, daß mit dem Verlust von schwerer körperlicher Arbeit
beim Spielen ein proletarischer Aspekt von Rockmusik verloren gegangen
ist („Prolo“ ist wieder ein Schimpfwort), der wieder eine Parallele zum
Gesamtrahmen möglich macht: aus Arbeitern werden Angestellte, der Synthesizer ersetzt die Gitarre. Nun verhält es sich aber nicht so, daß sich die
Körperlichkeit in ein Nichts aufgelöst hätte. Neben den Bands, die auf
„alte“ Qualitäten setzen, und denen, die eine „distanzierte“ optische Präsenz darbieten, sollten jene nicht vergessen werden, die „Körperlichkeit“ in
„Sportlichkeit“ umsetzen. Nicht nur „Prince“, der ja in gewisser Hinsicht
provozierende Sexualität verkörpern soll, verbringt einen großen Teil seines
Auftritts damit, in großem Tempo auf Treppen herumzuturnen. Beispiele
könnten an dieser Stelle beliebig genannt werden; oft erinnert auch der
Bühnenaufbau an eine Sportarena („Scorpions“), und häufig finden die
Konzerte selbst in Sportstadien statt. Körperliche Fitness also ist für die
Bühne erforderlich. Analog dazu laufen seit Jahren Trends zur körperlichen
Ertüchtigung (Jogging, Aerobic, Stretching, Bodybuilding, Squash etc.).
Auch hier läßt sich eine Parallele zur Mode ziehen: was in den 60er Jahren
(provozierend) eng, kurz, und durchaus unbequem zu sein hatte und die
Körperformen nachzeichnete und überbetonte, kommt nun weit, verhüllend und - vor allem - lässig daher. Die Mode sucht sich ihre Anregungen
zunehmend bei der Sportbekleidung. Abzuwarten ist, wann die ersten Trainingsanzüge für Oper und Kirche präsentiert werden. Vor allem der Körper
muß getrimmt werden - in einer Gesellschaft, die immer mehr dazu übergeht, körperliche Arbeit durch die maschinelle zu ersetzen. Fitness als Katalysator? Nicht nur Frank Zapp33 wird bissig-nachdenklich, wenn er eine
Gesellschaft mit „gebuildeten bodies“ betrachtet, der daran gelegen ist, den
Körper quasi einer Grundausbildung zu unterziehen. Wo, zum Teufel,
bleibt der gesunde Geist?
Stop making sense ...
32
33
Ebd.
Frank ZAPPA (Musiker), in: ME/sounds 11/84.
Helga Laugsch-Hampel
Spätestens an dieser Stelle muß auch ein Aspekt zum Tragen kommen, der
bis jetzt keine Erwähnung fand: der Generationenkonflikt. Wenn eine 30jährige Verfasserin angestrengt bemüht ist. Parallelen und Ambivalenzen
zwischen „damals“ und „heute“ auszumachen, und angesichts mancher
Strömungen verständnislos reagiert, so muß sie doch einsehen und anerkennen, daß die heutige Jugendgeneration auch Ihre (wähl- und manipulierbare) Jugendkultur als eigene Qualität im Gegensatz zur Erwachsenenwelt
hat. Ist „Stop making sense“ („Schluß mit Tiefgründigkeit oder Tiefgründelei“ im Stile der 60er und 70er Jahre) der Schlüssel und beansprucht die
eigentliche Anarchie? Ist die Schaukel der Generationen abermals gekippt?
Doch über jedes Mißverständnis von Generationen hinaus läßt sich, wie
aufgezeigt, der Bedeutungswandel von Rockmusik anhand einer zentralen
Kategorie, der „Körperlichkeit“ ausmachen. Untrennbar verbunden mit
dem gesamtgesellschaftlichen Rahmen haben „Sexualität“, „Sinnlichkeit“
und „Arbeit“ ein neues, gleichsam 'eingeebnetes' Gesicht angenommen.
Aufgefangen in einem großen Becken der Entschädigungsangebote - und
spätestens hier ist der Hinweis auf Habermas' „Technik und Wissenschaft
als 'Ideologie'“34 angebracht - sind sie - einst provozierend umstürzlerisch
und der Grenzensprengung verdächtigt - absorbiert und so umgewandelt
worden, daß sie nahtlos in der Reihe der Entschädigungsangebote stehen
können - dafür gedacht, die Spätphase einer Kultur hinauszuzögern und zu
verlängern und deren Legitimationsgrundlage abzugeben, gleichermaßen als
Fluchtmöglichkeit und Falle.
Für Beratung und Hilfe vielen Dank an Alexander von Pechmann, Christi
Franz, Jochen Scheffter, Arthur Silber und vor allem Schorsch Hampel!
34
HABERMAS, J.: Technik und Wissenschaft als „Ideologie“ Frankfurt 1981.
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 76-87
Autor: Horst v. Gizycki
Artikel
Horst v. Gizycki
Im Streit um die richtige Leere. Ausgewählte Skizzen zu einer ökologischen
Ästhetik
Vorbemerkung: Die hier in einer Auswahl zur Diskussion gestellten Überlegungen gehören in den Umkreis der
„erotischen Farbenlehre“, die ich in meinem 1983
veröffentlichten Essay „Arche Noah '84“ entworfen habe (Fischer-Taschenbuch 4163). Diese
Skizzen sind Vorgriffe auf eine Ästhetik im Zeichen des Regenbogens.
Immer wieder hat es in unserer Geschichte Minderheiten gegeben, die den
divide-et-impera-Praktiken der jeweiligen Machthaber eine Haltung umfassender Solidarität, auch mit der Natur, entgegenzustellen versucht haben.
Eine historische Rückschau würde von der Arche Noah über Franz von
Assisi, Rousseau, Novalis und Thoreau bis zur nüchtern-experimentellen
Mystik von Musils „Mann ohne Eigenschaften“ und bis zum Monte Verita
reichen, und sie würde auch außereuropäische Traditionen der Allianz von
Geist, Mensch und Natur einbeziehen. Stellvertretend für diese in den zeitgenössischen Öko-Bewegungen wieder auflebende Naturmystik sei ein
Bildwerk von Hieronymus Bosch in Erinnerung gerufen:
Bosch soll, im fünfzehnten Jahrhundert, zu den „Brüdern und Schwestern
des Freien Geistes“ gehört haben, einer religiösen Geheimgesellschaft, die
schon auf Erden den Unschuldsstand des Paradieses herstellen wollte. Die
verschlüsselte Symbolik seines berühmten Triptychons „Garten der Lüste“
ist zwar bis heute von niemandem vollständig enträtselt worden; neben
anderen Auslegungen läßt es aber auch die Deutung zu, daß Bosch uns hier
Horst v. Gizycki
den Entwurf einer gewaltfreien Lebensordnung und Friedenskultur vor
Augen stellt. Auf dem rechten Flügel des Triptychons herrschen Krieg und
Zerstörung. Es gibt dort beispielsweise „Lauschangriffe“ mit großen Ohren, die als eine Maschine zum Töten abgebildet sind. Die Menschen sind
in riesige Instrumente eingespannt. Teile des Apparats; bis heute tragen die
Verhältnisse Züge dieser Gewaltförmigkeit.
Die große Mitteltafel aber läßt sich als Gegenbild zur wirklichen Welt auffassen: es ist eine lebensfreundliche, viel Freiheit (und gleichwohl Ordnung)
verkörpernde Szenerie. In einem paradiesischen Wundergarten werden
zahlreiche nackte Menschen in zärtlich-liebevoller Verbindung miteinander
und mit der Natur dargestellt. Es ist eine festliche Daseinsordnung ohne
Zwang: „Gesetz und Freiheit, ohne Gewalt“ - darin besteht nach Immanuel
Kant ein Wesenszug von Anarchie. Anarchie, wörtlich übersetzt: Herrschaftsfreiheit, ist entgegen einem heute vollständig auf den Kopf gestellten
Wortgebrauch ursprünglich eine frei verabredete Ordnung des Zusammenlebens, und Hieronymus Bosch, so deute ich seine Bilddichtung, hat in
diesem Triptychon eine solche Lebensmöglichkeit für uns ausgemalt.
Zugrunde liegt hier ein Daseinsvertrauen, für das die welterhaltenden und
Bindungen stiftenden Kräfte letztlich wirkmächtiger sind als die auf Getrenntheit und Zerstörung zielenden Gewalten. Fehlen diese Kräfte oder
entwickeln sie nur verstümmelte Gestalten, dann täuscht alles Getöse unseres Zusammenlebens produktives Wachstum nur vor, und „Abgestorbenheit“ (Erich Fromm) kennzeichnet unser Verhalten und Erleben - wir sind
dann nur eine Gesellschaft von betriebsamen Toten.
***
Liebesgewißheit liegt hier zugrunde, eine Erosmetaphysik mit empirischen
Evidenzstützen: Zwei Menschen müssen sich, wie immer flüchtig, dumpf
oder wach miteinander verbunden haben; meine Mutter muß mit mir, ihrem Kinde, verbunden gewesen sein, und diejenigen, die mich in den frühesten Lebenstagen betreut, umsorgt, nicht umgebracht haben, müssen
mir zugetan gewesen sein - sonst wäre ich gar nicht am Leben. Um diese
Liebesgewißheit geht es: Ich bin, also hat es auch in meinem Fall einmal
Liebe auf der Welt gegeben (sum, ergo coitus fuerat) ...
Ökologische Ästhetik
***
Für Erosmetaphysik (und Metaphysik überhaupt) haben die zeitgenössischen Negationsräte bekanntlich die Entleerung unseres Bewußtseins verordnet, und Adornos berühmter Schlußsatz der „Negativen Dialektik“
erklärt sich nur noch „solidarisch mit Metaphysik im Augenblick ihres Sturzes“. Immerhin: solidarisch! Und dieses erotische Minimum besitzt für
einen anderen Autor der poetisch-kritischen Schule, für Ulrich Sonnemann,
offenbar genügend Schubkraft und Klugheit, um den „Sturz“ mit seinen
Knochenbrüchen in eine „Landung“ zu verwandeln. Wenn aber Erosmetaphysik auf der Erde „landet“, sich also aus der nicht mehr tragfähigen Luft
auf den Boden rettet, und zwar im wesentlichen unversehrt: stellt uns das
nicht einen neuen geistbeseelten Materialismus in Aussicht? Eine Wiedervergeistigung der Natur und eine neue Naturalisierung des Geistes scheint
In der Luft gelegen und auf die Grüne Wiese zurückgefunden zu haben
(womöglich in unmittelbarer Nähe des Hunsrückdörfchens Schabbach)!
Im allenthalben wiedererwachten Interesse am Gang über die Dörfer steckt
mutmaßlich ein Wunsch nach Konkretion und Re-Ästhetisierung aller Lebenszusammenhänge, die im Computerzeitalter der lautlosen Gewalt der
Abstraktion verfallen und auf diese Weise heimatlos gemacht werden.
Auch ehemalige Linke, angeblich Leute ohne richtige Heimat (obwohl sie
sich mit ihren Theorien auch immer ihre vertrauten Eingeborenen-Dörfer
nach dem Muster des „Kral Marx“ eingerichtet haben), auch diese inzwischen obdachlos herumirrenden Seelen entdecken neuerdings einen rückwärtigen Eingang zum Paradies. Nach der negationsfleißigen Reise um die
Welt haben sie begreiflicherweise keine Lust mehr, noch länger rastlos Erkenntnisse, Gesetze, Endzwecke und dergleichen Reversibilitäten (Jean
Baudrillard) durch die Mühlen der Kritik zu drehen. Festlicher Zauber ist
statt dessen angesagt: die mystische Geschwisterrepublik alles Seienden, in
der alles gleich gültig, „gleichgültig“ ist, aber auf lodernde Art, wie bei
einem Flammentod! Erkenntnishunger wird zu Ausdruckssehnsucht; die
Wirklichkeit als Netzwerk von Ursachen und Folgen ist endlich abgeschafft
(schon Robert Musils „Mann ohne Eigenschaften“ träumte davon), alles
Vorhandene ist nur Kopie von längst abgelebten Originalen, gleich-gültig
und allenfalls Gelegenheit zu feierlichen Bewußtseinszuständen vom Typ
der Ekstase (Baudrillard). Sie allein lohnt eventuell noch das Dabeibleiben.
Sie entsteht bei Aufgipfelungen der historischen Müllhalden und deren
Implosion durch Selbstentzündung . . .
Horst v. Gizycki
***
Wer, bei leidenschaftlicher Ablehnung der alles gleichmachenden Tauschabstraktion (als Aufgipfelung cartesianisch-atomspaltenden Denkens) dennoch die Leere der auf die Spitze getriebenen Abstraktion mitnimmt in den
neuen Paradieszustand, auf den das Denken regrediert, der landet bei reiner, sozusagen leerer Intensität von Wahrnehmungen und Gefühlen, wo es
nur noch grell, ohrenbetäubend, gleißend zugeht, ohne daß im Flickenteppich der sinnlichen Konkretionen noch Unterschiede wahrgenommen werden: Grenzüberschreitungen ekstatischer Zustände, für die auch gleichgültig wird, ob sie vom zurückgelassenen Denken als wahnsinnig, als
verbrecherisch oder als künstlerische Eruption beurteilt werden. Sind das
Versuche, den fast schon leblosen Zustand der Welt (und der eigenen Existenz) noch einmal wachzubrennen?
***
Von Brecht zurück zu Benn: Wird die Kunst als Mittel der Intensitätssteigerung von Bewußtseinsvorgängen aufgefasst (statt „andere Art von Erkenntnis“ zu sein), also als Ekstase-Stimulans, wie rhythmisches Trommeln,
Derwisch-Tanz und ähnliche ästhetische Praktiken, so wird „Ausdruck“ zur
Provokation von unwahrscheinlichen, außer-ordentlichen, die Alltagswirklich transzendierenden Zuständen. Kündigt sich in der wiederentdeckten
Lust am erkenntnis-leeren und gleichwohl intensiven Ausdruck eine neue
Spiritualität an? Nährt sie sich aus einem „Gefühl für das Unendliche“
(Schleiermacher), dem es nicht auf Moral und Wahrheit (Theorien) ankommt, sondern auf ekstatische Gleich-Gültigkeit alles Wirklichen, wie sie
zu jeder Mystik gehört? Auch in Boschs Garten der Anarchie gibt es dieses
umfassende Geltenlassen - zugunsten des Lebens! Zum Leben gehört auch
das Sterben. Unser sicheres Ende und das Bewußtsein davon macht uns
umfassend schreckhaft: empfänglich für ängstliche und euphorische Grenzzustände größter Intensität, die sogar noch die Trennlinien zwischen Angst
und Freude verwischen kann. Kein Gott in seiner langweiligen Persistenz,
kein säure-unempfindliches Material in seiner stumpfsinnigen Dauerhaftigkeit besitzt dieses funkensprühende Können - um den Preis des Todes.
Daß ein Gott nicht sterben kann, wäre also eine Einschränkung seiner
Ökologische Ästhetik
Vollkommenheit. Die Erfahrung tiefster Verzweiflung wie auch das ekstatische Erlebnis ihrer Gegenaffekte sind ihm eben deswegen versperrt.
***
Wenn ihm alles gleichermaßen gültig ist, wendet sich der Künstler jedem
Charakter, dem Bösewicht ebenso wie dem guten Herzen, dem faulenden
Aas wie dem Glanz im Haare Buddhas mit der gleichen Aufmerksamkeit zu
(„Die Aufmerksamkeit ist das natürliche Gebet der Seele“, sagt Malebranche). Ist nicht diese Art von allumfassender Kosmophilie ein urteilsasketischer Naturalismus, der weltfromm die vorgefundene Wirklichkeit nur
sichtbar macht? Nichts darin von Eigenwillen, Rebellion, Veränderungsoder Erneuerungsimpuls: eine geistige Haltung des kindlichen Seinsgehorsams vor dem Sündenfall. Für „Gerechtigkeit“ hat dieses Lebensgefühl eine
nur schwach (wenn überhaupt) entwickelte Sensibilität.
Sie wäre durchgehend möglich, diese Bewußtseinsverfassung, hätten nicht
unterdessen andere Leute vom Freiheitsbaum gekostet. Gibt es auf der
Welt erst einmal Rebellen und Willenssubjekte, so ist die Szene ein- für
allemal qualitativ verändert, die Unschuld verloren. Kreative Regression
findet zwar zu einer paradiesisch-naiven Haltung zurück, nimmt aber - nach
der Reise um die Welt - das Bewußtsein unserer Begabung zur Geschichte
mit in die neue Verfassung. Was dabei herauskommt, bleibt notwendig
offen: ein je neuartiger, unverwechselbarer Balancezustand zwischen „Poesie“ und „Kritik“. Beide Pole machen das Spannungsfeld aus, in dem wir
uns bewegen. Schon das Niederschreiben und Veröffentlichen konstituieren den Kritik-Pol mit, denn auf diese Weise werden Aus-sichHerausstellen und Spiegelung, Überantworten an das Urteil anderer, eingeleitet.
Zeigt die weltfromme Position Reflexionsdefizite, zum Beispiel als Mangel
an Historizitätsbewußtsein, so steht die andere Seite in Gefahr, vom Ozean
zu erwarten (ein Gleichnis Tolstojs), daß seine Strömungen und Wassermassen sich nach der Liniengeometrie richten, die ein Geograph über den
Globus zeichnet. Sofern diese Geometrien dogmatisch festgehaltene Ordnungen mit Käfigcharakter werden (wie es so viele Systeme sind oder waren, auch wenn sie in ihrer Jugend kritisch begonnen haben), ist das tolstojsche Bild hilfreich und entlarvend. Es übersieht aber, daß unsere Fähigkeit,
mit Geometrie zu hantieren und zu rechnen (Naturwissenschaft zu treiben), vernünftigerweise gar nicht so kindisch praktiziert wird, wie das eindrucksvolle, aber eben nur poetische Bild vom Ozean es nahelegen soll, der
Horst v. Gizycki
sich nicht um die Längen- und Breitengrade schert, wenn er Orkane toben
läßt. Immerhin läßt sich aber mit Hilfe dieser Linien der Ort des Orkans so
bestimmen, daß wir uns darüber verständigen und etwa Schiffe in seiner
Nähe warnen können: Leben zu retten, statt in einer Naturkatastrophe
untergehen zu lassen - das ist doch auch nichts Geringes, wie? Und die
wirkliche, der Natur des Ozeans gerechte Anwendung unserer Fähigkeit
Linien zu ziehen, besteht darüber hinaus ja in der Erforschung und Richtungsbestimmung seiner großen Strömungen, der Vermessung seiner Wassermassen und Meeres-Untiefen, seiner Grundgebirge, versunkenen Inseln
(wie Atlantis) und seiner Passatwinde, die ungemein hilfreich beim
Umsegeln der Kontinente, also beim kulturellen Austausch von Wikingern,
Indianern und Holländern sind. Was hat die poetische Naivität dagegen
eigentlich zu erinnern? Sie sollte dankbar sein, daß sie - mit Hilfe der nautischen und geographischen Erkenntnisse - eine Erfahrung machen darf, auf
die poetische Naivität von sich aus meist gar nicht verfällt: anderswo leben
auch Leute. Übrigens Leute mit einer eigenen, der unsrigen oft höchst
fremden Naivität. Wie schön und lehrreich, wenn solche einander bis dahin
ganz unbekannten Naivitäten aufeinandertreffen! Zum ersten Mal vielleicht
dämmert ihnen bei einer solchen Gelegenheit etwas von der Geschichtlichkeit menschlichen Daseins.
Ein anderer Einwand gegen die „Kritik“ setzt gar nicht bei den Vermessungslinien des Geographen an, sondern bei demjenigen Aspekt dieses
Unternehmens, den auch Tolstoj wohl mit im Sinne hatte, als er sein linienunfreundliches Bild entwarf: Gegen das despotische Moment daran, die
Maßregelung der Natur durch einen Tyrannen, der sie unterdrücken, einsperren, mit der moralischen Zuchtrute dressieren und ihre Wildheit in ein
zahmes, gehorsames Haustier verwandeln möchte, gegen dieses mosaische
Gesetzgeber-Verhalten, das der Natur in uns moralische Vorschriften auferlegen will, richtet sich die Tolstoj-Empörung wohl hauptsächlich. Sie
meldet sich, oft in einer bis zur Unkenntlichkeit veränderten Gestalt, jedes
Mal, sobald von moralischer Erneuerung, überhaupt: von „Moral“ auch nur
von weitem die Rede ist. Stets wird die Moral in solcher Empörung als
etwas zutiefst Despotisches, Willkürliches, den Eigensinn (des Kindes in
uns) Brechendes, also als etwas Unmenschlich-Autoritäres erfahren. Es ist
die kindliche Vertrotztheit gegenüber der elterlichen Erwartung, nach dem
dritten Lebensjahr nun nicht mehr einfach in die Hose zu machen. Es ist,
mit anderen Worten, eine kleinkindlich erlebte Art von Moral, gegen die da
protestiert wird. Von entwickelter, selbstbewußter und -bestimmter Moralität hat dieser Protest so gut wie nichts im Blick; er ist überwiegend atavistisch. Die „Lebensfeindlichkeit“ aller Moral war bekanntlich auch ein
Ökologische Ästhetik
Lieblingsthema Nietzsches. Als ob es keine lebensfreundliche Moral gäbe;
als ob wir sie heute nicht nötig hätten!
***
Damit sind erste Bausteine für eine ökologische Ästhetik beisammen. Bereits ihre Art, Theorie zu sein, unterscheidet sie von den noch vorherrschenden Formen wissenschaftlicher Praxis. Sie ist „fröhliche Wissenschaft“ im Sinne der Lieder des Prinzen Vogelfrei (Nietzsche); Humor,
Artistik und neue lebensfreundliche Moral, auch „Spiel“ (als Kopulation
von Geist und Lust, wie sie In Schillers Briefen über ästhetische Erziehung
stattfindet und reflektiert wird), erhalten wieder Mitspracherechte in dieser
Wissenschaft. Kennzeichnend für die ökologische Ästhetik ist ein herrschaftsfreier Umgang mit der äußeren und der inneren Natur: sie wird als
gleichberechtigt in der Geschwisterrepublik alles Seienden anerkannt. Die
mystische Grundhaltung, die sich darin verkörpert, führt zu einer neuen
Gelassenheit. Statt Unterwerfung (auch unter das Diktat der großen theoretischen Vorgesetzten): Dialog und Partnerschaft, Gleichberechtigung freilich auch für den Künstler, für den Autor, dem manche
Rezensenten die frühere Rolle des allwissenden Erzählers ins pure Gegenteil verkehren möchten: er solle gefälligst bescheiden-respektvoll hinnehmen, was sein poetisches Personal von sich aus tut, empfindet und denkt.
Der dynamische Kosmos des Kunstwerks, neumodisch (lacaniert) gesprochen: sein „Textbegehren“, habe das unbedingte Prae. Wird nicht in
solcher poetischen Kalokratie der Autor im Grunde zum Untertanen des
Herrschaftssystems seiner Werkprozesse veruteilt? Das Stück Magie, das in
solchen Rollenzuweisungen steckt (und für das der Surrealismus ein besonderes Faible besaß), hat jedoch ein auch für ökologische Ästhetik sympathisches Wahrheitsmoment: Kein Künstler verfügt vollständig über die
von ihm inszenierten ästhetischen Ereignisse, und wo er sich das einbildet,
wirken seine Arbeiten sofort konstruiert, mechanisch, gewollt und kunstbürokratisch, nicht wirklich lebendig. Zur Lebendigkeit gehört immer ein
Hauch von Irrsinn, von Unberechenbarkeit, Geheimnis, Vieldeutigkeit und
Eulenspiegelei. In diesem Sinne weiß der Autor tatsächlich nie vollständig,
was in seinen Figuren vorgeht, und wie die Fäden ihrer Verknüpfung - vom
Schnürboden seines kleinen Theaters her gesehen - wirklich verlaufen.
Niemand weiß es, denn diese Fäden selbst entstehen und vergehen im lebendigen Spiel, das nie vorausberechenbar ist.
Horst v. Gizycki
Das bedeutet wiederum nicht, daß Kunstwerke der totalen Willkür blinder
Zufallsprozesse unterliegen. Natürlich gibt es so etwas wie Komposition,
Gestalt, „Gesetz und Freiheit, ohne Gewalt“, zeitweilige Ordnungen also.
Motivgewebe, Verweisungen, kunstvolle Balancen und poetische Logik;
sonst hätten beispielsweise Geschichten nie ein Thema, keinen Anfang und
kein Ende. Sie wären - wie das optische Rauschen des Fernsehbildschirms
nach Sendeschluß - ein Beispiel für totale Entropie. Da sie das aber nicht
sind, und da sie auch nicht den Gegenzustand zügelloser Ordnung verkörpern, in dem alles seinen genau berechenbaren Platz und Verlauf hat (nicht
einmal unsere Sternsysteme sind dermaßen ordentlich: es gibt Kometen,
Nova-Bildungen und Sonnen-Explosionen), nehmen Kunstwerke stets
einen Zwischenzustand an, der beides: Gesetz und Freiheit miteinander in
lebendigen Ordnungen verbindet. Die unverwechselbar-unvergleichliche
Art, in der das jeweils geschieht, macht bekanntlich die Identität eines
Kunstwerks, seinen poetischen Charakter aus. Auch in diesem Bereich ist,
nebenbei angemerkt, das „principium individuationis“ stets der „Körper“,
das „Fleisch“, und dieses Fleisch ist seinem Grundstoff nach zum Beispiel
die Sprache, aus der und mit deren Hilfe jede Geschichte ihre Organe und
anderen Lebenswerkzeuge aufbaut, darunter die Personen oder Figuren,
ihre Beziehungen untereinander, ihre Begleitumstände und die Vorgänge, in
die dies alles sich verwickelt.
Die ökologische Ästhetik versucht die für das Kunstwerk konstitutive Rolle
seiner Sprache (und allgemein: des ästhetischen Mediums) auf die eigene
Wissenschaftspraxis zu übertragen. Sie bemüht sich darum, neue, auch die
Subjektivität des Forschers einbeziehende Darstellungsweisen zu entwickeln, die einen Dialog mit ihren Gegenständen möglich machen; die ihre
Gegenstände also nicht monologisch vergewaltigen und beide Gefahren
vermeiden: zum einen die traditionelle Objektivierung, die den Gegenstand
in Begriffskäfige einzwängt, zum anderen die total willkürliche, den Gegenstand nur als Startbahn mißbrauchende Himmel-(oder Höllen-)fahrt.
Der Künstler als kleiner Gott oder Patriarch seines artistischen Hauswesens
(„oikos“) wird also entthront. Er ist jetzt mehr ein Geburtshelfer, und sein
Wille nimmt neue Qualitäten an. Gelassenheit wird eine wichtige Teileigenschaft dieses neuen Willens. Kreative Prozesse werden sozusagen, in einem
weiterreichenden als nur politischen Sinn, „demokratisiert“ (eine Forderung
auch von Joseph Beuys, der sich aber von der Landebahn seiner Grünen
Mystik immer wieder nach oben stürzt: in Richtung Starkult und Stufenmetaphysik). Beispielhafte Konkretionen einer ökologischen Ästhetik finden
sich, außer in dem anfangs beschriebenen Anarchie-Triptychon
Hieronymus Boschs und bei vielen „Romantikern“, im zwanzigsten Jahr-
Ökologische Ästhetik
hundert etwa im künstlerischen Werk von Paul Klee (vor allem in seinen
„dezentral“ oreanisierten Arbeiten).
***
Alles Theoretisieren in der ökologischen Ästhetik betont das „VorläufigDefinitive“ ihrer Aussagen, will nichts endgültig festlegen. Offenheit, Revisionsbereitschaft, Verzicht auf massive, für die Ewigkeit gebaute Fundamente: das sind Aspekte einer solchen theoretischen Anarchie. Das Zelt,
die ziehende Karawane, etwas Nomadenhaftes gegenüber breitbackiger
Seßhaftigkeit kehren da zurück. Wie Paul Feyerabend gezeigt hat (z.B. in
„Against Method“), haben ja nicht einmal in den angeblich solide gegründeten Naturwissenschaften diejenigen Lehren Geltung erlangt, die etwa die
mustergültig rationalen, logisch konsistenten oder „wahren“ Theorien gewesen wären. Vielmehr ist die Geschichte der Theorien in den Wissenschaften ein ähnliches Geschubse und Herumirren wie die allgemeine Weltgeschichte auch.
Wenn das so ist, zählt dann die Lebensdienlichkeit oder Lebensfreundlichkeit (Nietzsche) von Theorien nicht weit mehr als ihre Wahrheit? Und sind
solche Ideen nicht die Vorboten einer neuen Willens-Kultur, die der an
unseren Universitäten derzeit noch vorherrschenden Wissens-Kultur demnächst den Laufpaß geben könnte? Gefährliche Ideen, zugegeben; denn
zuletzt hat hierzulande der SS-Staat einen Kult mit dem „Willen“ getrieben.
Nur stand dieser Willenskult im Zeichen des Totenkopfs. Er war alles andere als lebensfreundlich und wollte uns nicht liebesfähig machen, sondern
eine Elite-Rasse zum Herrschen abrichten.
***
Die ökologische Ästhetik ist eine herrschaftsfreie Ästhetik. Daher erhält
auch alles Materielle, Stoffliche, an dem ein Künstler sich „abarbeitet“ (Adorno) ein Mitwirkungsrecht, nicht zuletzt als Palliativ gegen „Verdinglichung“ planerischer Vorsätze und ästhetischer Normen oder „Leitbilder“.
Beim Zur-Welt-Bringen des Kunstwerks bleibt offen, was zuletzt daraus
wird. Die zauberische Despotie des Gestaltens wird also durch eine Art
parlamentarisch-demokratischer Selbstregierung abgelöst.
Horst v. Gizycki
Heißt das. angewandt auf ein Beispiel aus der bildenden Kunst: nicht Rembrandt arrangiert die Komposition der „Nachtwache“, sondern das Kollektiv der Nachtwächter? Diese Vorstellung reizt uns zum Lachen; vergessen
wir aber nicht, daß die Mitglieder der Schützengilde damals allenfalls eine
kümmerliche Anarchie-Kompetenz ausgebildet haben konnten. Sie wollten
ja im Gegenteil ihre statusbesorgten, klischeehaften Geltungswünsche dem
in künstleriches Neuland vorstoßenden Maler mit ihrem Protest aufzwingen. Dagegen können zum Beispiel die Recherchen, die ein fleißiger Autor
ohnehin betreibt, die Gestalt von parlamentarischen Anhörungen (Hearings) annehmen. So etwa hat Thomas Mann, als er am „Dr. Faustus“
schrieb, den musiktheoretisch vielerfahrenen Adorno ausgefragt und diesen
Rohstoff-Lieferanten teilweise mitbestimmen lassen bei der Komposition
der Schlußsequenz des Romans über den Tonsetzer Adrian Leverkühn.
Heißt das, der Autor führt keinerlei Regle mehr? Keineswegs. Aber es ist
ein neuer, gelassener Regie-Wille, der offen bleibt für Überraschungen, auch
wenn er die Ökonomie des Ganzen flexibel im Auge behält, Zweck-MittelÜberlegungen anstellt und sozusagen Führungsdienste als Maitre de Plaisir
beim demokratischen Kostümfest der Erzählung anbietet. Es ist eine
herrschaftsfreie Führung, die es der Geschichte überläßt, sich selbst zu
schreiben, und die sich mit empfangender Gelassenheit dabei als eine Art
Protokollführer betätigt.
Die Logik dieser Führung ist ähnlich wie bei der humoristisch-tiefsinnigen
Frage: „woher soll ich wissen, was ich meine, wenn ich noch gar nicht gehört habe, was ich sage?“ Das im Kunstwerk zur Welt Kommende ist also
nicht verfügbar, sondern behält seinen Eigenwillen: Fremdes in mir selbst,
zum Beispiel Unbewußtes, ist mitbeteiligt an jedem kreativen Geschehen.
Wobei es hier eine doppelte Fremdheit gibt: Die meiner eigenen Natur und
diejenige der nicht zu mir gehörigen Material-Natur. Im Kunstwerk können
beide sich offenbar ähnlich gegenseitig repräsentieren, wie Bewußtseinsinhalte (Vorstellungen, Gedanken usw.) Gegenstände (und Beziehungen zwischen ihnen) außerhalb meiner selbst repräsentieren können.
Materie, Stoffliches repräsentiert also innere, nichtverfügbare Natur oder
Wirklichkeit, und indem ich mit und in diesem Stofflichen (zu dem auch
Form-Material gehört) gestalte, entstehen Werke, Gebilde, Produkte, die
mehr enthalten als meine bewußten, an irgendwelchen Leitvorstellungen
orientierten Intentionen. Aus diesen Produkten erfahre ich also etwas über
die Natur außer mir und in mir. Diese Produkte treten mir gegenüber, ich
kann sie betrachten, mit ihnen Fühlung aufnehmen, sie zu verstehen suchen
usw. Sie sagen mir etwas, wenn ich aufzunehmen imstande bin, was sie mir
mitteilen. Solche Botschaften werden der Deutung bedürfen, wie Träume,
Ökologische Ästhetik
sie sind auf Interpretation angewiesen. Mache ich jedoch ernst mit der
Nichtverfügbarkeit und der Fremdheit, so wird es immer einen Rest des
prinzipiell nicht Verstehbaren, des fremd und rätselhaft Bleibenden geben,
das ich bestaunen, vor dem ich - freudig oder ängstlich - erschrecken kann,
das sich aber der vollständigen Verfügung durch meinen Willen zum Begreifen verweigert. Solche Fremdheit, unmittelbar anschaulich erfahrbar im
Kunstwerk, erinnert mich daran, daß ich in mir selbst Fremdes, sozusagen
nicht zu mir Gehöriges habe oder antreffe, auf das ich gefaßt sein muß, und
das ich gern verleugne, weil es zu meinem Herr-im-Hause-Standpunkt nicht
paßt. In Träumen begegnet mir dieses Fremde in mir selbst; ihm Wahnsinn
begegnet es mir, in meinem Leib, im Tode, im Kranksein, in Ausnahmezuständen aller Art, religiösen, vitalen, ästhetischen Ekstasen, die auch als
Glückserfahrungen erlebbar sind. Selbst wenn ich es nicht zuende begreifen
kann - hier liegen Grenzen der rationalen Verfügung über Fremdes durch
Wissenschaft, z.B. durch die Psychoanalyse -, gibt es doch Optionen für die
Art und Weise des Umgangs mit dem Fremden in mir und außer mir. Ich
kann mich anfreunden mit dem Fremden (Trivialbeispiel: die Kinderfreundschaft mit „E.T.“ in dem bekannten Film). Ich kann mich feindlich
gegenüber dem Fremden einstellen, ich kann es fördern oder verfolgen und
vernichten. Nehme ich überhaupt Beziehungen zu ihm auf und ergeben
sich dabei Ansätze von Gegenseitigkeit, so gibt es plötzlich (und seien es winzige) Gemeinsamkeiten. Sie werden nie Fremdheit vollständig aufheben, aber sie werden das Auskommen
miteinander ermöglichen. Ich und das Andere, Fremde, auch wenn wir uns
fremd bleiben auf immer, können doch Koalitionen eingehen, miteinander
zu wirken versuchen statt gegeneinander. Freilich müssen wir stets gefaßt
bleiben darauf, daß keine gegenseitige Verfügbarkeit mit solchen Abkommen auf Gegenseitigkeit entsteht. Entscheidend ist: Fremdheit muß nicht
den Charakter des Bedrohlichen, Angsterregenden annehmen; sie kann
auch als neugierweckend, attraktiv, spannend und faszinierend erlebt werden. Sie hört damit nicht auf, fremd zu sein; aber die Gefühle, die sie auslöst, können freundliche und sogar rauschhaft-ekstatische Tönungen annehmen.
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 88-144
Besprechungen zum Thema
Rezensionen
Besprechungen
Rezensionen zum Thema
S. Bleicher u.a.:
CHIP, CHIP, HURRA? DIE BEDROHUNG DURCH DIE
„DRITTE TECHNISCHE REVOLUTION“
Hamburg 1984 (VSA-Verlag, 130 S.)
H. Kubicek / A. Rolf:
MIKROPOLIS.
MIT
COMPUTERNETZEN
„INFORMATIONSGESELLSCHAFT“
Hamburg 1985 (VSA-Verlag, 355 S.)
IN
DIE
Aus der Flut der Literatur, die der Anwendung und den Konsequenzen der
sogenannten „Neuen Informations- und Kommunikationstechniken“ gilt,
sind zwei Bücher hervorzuheben. Das eine - Chip, Chip, Hurra? - kann als
brauchbare Einführung In die technischen, ökonomischen und politischen
Dimensionen jener Techniken herangezogen werden; das andere - Mikropolis - stellt eine umfassende und fundierte, wirtschafts-und
gesellschaftspolitisch ausgelegte Kontextanalyse des aktuellen Standes und
der künftigen Entwicklung der Informations- und Kommunikationstechniken (und der dahinterstehenden Technologien) dar. Beide Bücher zeichnen
sich dadurch aus, daß sie Möglichkeiten (gewerkschafts)politischer Gegenwehr im Sinne jener aufzeigen, die unter den Bedingungen rigoros
profitökonomischer Nutzung dieser Techniken deren Folgekosten tragen
sollen.
Die Beiträge in dem Band „Chip, Chip, Hurra“ machen dreierlei deutlich:
Zum einen zeigen sie, was es mit den Informations- und Kommunikationstechniken und deren Anwendung in den verschiedenen gesellschaftlichen
Rezensionen zum Thema
Bereichen auf sich hat, und rücken die zentralen Fragen in den Vordergrund (Arbeitslosigkeit, berufliche Dequalifikation, Konsequenzen für die
Arbeits- und Lebensbedingungen): so in den grundlegenden Ausführungen
von Kubicek und Bleicher. Zum zweiten verdeutlichen einige Beiträge einzelne Probleme in Detaildarstellungen: so die Thematik „Rationalisierung
und Arbeitslosigkeit“ in den Artikeln von Reisgies und Herta DäublerGmelin (die sich insbesondere auf das Problem der Frauenarbeitslosigkeit
konzentriert). Zum dritten wird an zwei illustrativen Fallbeispielen veranschaulicht, wie die Arbeitsprozesse in Produktion und Dienstleistung verändert werden und welche Folgen das für die Beschäftigten hat: so in den
Skizzen von Zöller (Handel) und Dreßler (Druckindustrie). Kennzeichnend
für alle Beiträge ist, daß sie den Standort der Gewerkschaften zu bestimmen
versuchen, von dem aus die kapitalistische Formung und Anwendung der
Informations- und Kommunikationstechniken eingeschätzt und in ihren
Folgen für die Lebens- und Arbeitssituation der Werktätigen und ihrer
Familien abgewehrt werden müssen.
In dem Buch „Mikropolis“ werden Stand und weitere Entwicklung der
Informations- und Kommunikationstechniken, der Computer- und Telekommunikationstechniken in Form einer gesamtgesellschaftlich orientierten
Analyse thematisiert. Ziel des Buches, das auf einem Gutachten für die
ÖTV basiert, ist: die Techniken darzustellen, die Pläne zu deren Durchsetzung offenzulegen und die - diese Pläne „tragenden“ - Interessen
zu dokumentieren (Post, Hersteller- und Anwenderkapitale). Im Mittelpunkt des Buches von Kubicek und Rolf stehen die von der Post favorisierten und mit Heftigkeit realisierten Vorhaben, das bestehende Telefonnetz
zu digitalisieren, dieses dann zum Integrierten Service Digitalnetz (= ISDN)
weiterzuentwickeln und in einem (bundes-)flächendeckenden Glasfasernetz
enden zu lassen. Diese Vorhaben - initiiert vom engagierten Kapital, exekutiert von der Post - sollen dafür die Basis schaffen, daß via ISDN alle
schmalbandigen und später via Glasfaser noch zusätzlich alle breitbandigen
Dienste zugänglich werden. Das, was über die Einrichtung von ISDN und
Glasfaser an Rationalisierungspotential, zentralistischer Datenkontrolle,
Abbau von Arbeitsplätzen und tiefgreifender Veränderung der Lebensumstände produziert wird, stellt für Kubicek und Rolf politische Probleme
solcher Brisanz dar. daß deren „Umlenken“ - so Kubicek/Rolf – nur durch
„Umdenken“ gemeistert werden könne. Der Umdenk/Umlenk-Prozeß soll
dabei in zwei Stufen vonstatten gehen: erstens als gesellschaftsweite Diskussion, die Information und Aufklärung über die Techniken, deren (kapitalinteressensgeleitete und machtpolitische Durchsetzung sowie die daraus
Rezensionen zum Thema
resultierenden Konsequenzen für die „mündigen Bürger“: zweitens als eine
Art „Antikabel-Bürgerbewegung“, die entsprechend ihrer dann erworbenen
Erkenntnisse und Einsichten und, rückgebunden an gewerkschaftliche
Aktivitäten, die Richtung der künftigen Entwicklung von Informations-und
Kommunikationstechnik“ mitbestimmt. Daß eine solche Mitbestimmung
nur in dem Maße wirklich Platz greifen kann, indem die von Kubicek und
Rolf klar analysierten ökonomischen wd
politischen Bedingungen der aktuellen Durchsetzung der Informationsund Kommunikationstechnik beseitigt werden, bleibt in den Schlußfolgerungen der Autoren leider unausgesprochen. Dieser kritische Hinweis soll
allerdings nicht die Bedeutung des Buches von Kubicek und Rolf schmalem: Der Band enthält die bisher präziseste Studie über die konkrete Politökonomie der bundesdeutschen „Informationsgesellschaft, es ist dazu ein
vorzügliches Handbuch, das komplizierte Tatbestände und Prozesse genau
und verständlich beschreibt, zu vorwärtsweisenden technischen, ökonomischen und politischen Diskussionen anregt und unverzichtbare Informationenund Einschätzungen zur Verfügung stellt.
Horst Hölzer
Ulrich Briefs:
INFORMATIONSTECHNOLOGIEN UND
ARBEIT
Köln 1984 (Pahl-Rugenstein, 221 S., DM 14,80)
ZUKUNFT
DER
Briefs, Referent am Wirtschafts- und Sozialwissenschaftlichen Institut des
DGB, beschreibt in diesem Buch die Zusammenhänge der aktuellen und
der in Zukunft wohl noch steigenden Massenarbeitslosigkeit mit der Computerisierung der Arbeitswelt. Der Mode, dem Menschen, analog zu gewissen (sozialpsychologisch relevanten) Phänomenen, allgemein die Eigenschaften eines Maschinendenkers, Sachzwanglogikers, Nekrophilen etc.
zuzuschreiben, wie dies z.B. Bamme u.a. in ihrer „Grundlegung einer Sozialpsychologie der Technik“ (Reinbek 1983) tun, setzt Briefs einen Kontrapunkt. Hier scheinen keine „Eigenschaften“ des Menschen auf; diese Phänomene sind ihm, soweit überhaupt relevant, Wirkungen der entfremdeten
Arbeit, die es durch eine an der Klassenlage der Lohnabhängigen orientierten Gewerkschaftspolitik aufzuheben gilt (S. 12 f.).
Das Prinzip der Profitmaximierung sieht er dabei als die entscheidende
Triebkraft der Computertechnologie - sie bildet das Herzstück der „Infor-
Rezensionen zum Thema
mationstechnologie“ - und der ihr inhärenten Möglichkeiten zur Rationalisierung, i.e. Arbeitsplatzvernichtung. Die Betriebe versuchen damit. Stagnationstendenzen zu kompensieren, indem sie innerbetrieblich das herausholen, was auf den Märkten nicht mehr oder nur noch eingeschränkt zu holen
ist. „Diese Strategie der Umorientierung auf verstärkte relative Mehrwertproduktion wird weiter verschärft durch die auch unter verstärkten Stagnationsbedingungen weitergehende kapitalistische Akkumulation: in der BRD
z.B. werden derzeit jedes Jahr weitere ca. 300 Mrd. DM Kapital gebildet, die
in den nachfolgenden Rechnungsperioden einen zusätzlichen ‘Kapitaldienst’
... in Form von Abschreibungen, Zinsen, Wagnissen u.a. in der Größenordnung von ca. 60 Mrd. DM erforderlich machen“ (S. 73). Der Mangel an
entsprechenden expansiven Möglichkeiten verstärkt die Tendenz, mit Hilfe
einer flächendeckenden Computertechnologie die Profite aus immer weniger werdenden Beschäftigten herauszupressen.
Damit wird ein weiterer Charakter dieser „neuen Technologie“ evident: sie
ist auch Kontrolltechnologie. Eine Durchrationalisierung der Betriebe ist
nur anhand möglichst differenzierter Bewegungsbilder jedes einzelnen Beschäftigten und seiner persönlichen Art und Weise, an einem bestimmten
Arbeitsplatz zu arbeiten, erreichbar. Die hierfür benötigten Informationen
erbringen z.B. die heute schon weit verbreiteten Personalinformationssysteme.
Bisher stößt die flächendeckende Computerisierung der Betriebe jedoch
noch an Grenzen: die Komplexität der Programme, die für die Kontrolle
eines ganzen Betriebsablaufes notwendig wäre, ist noch nicht erreichbar,
weshalb heute v. a. kleinere, „nicht-vernetzte“ Rechner- und Steueranlagen
für spezifische Arbeits-, Planungs- und Verwaltungsprozesse im Einsatz
sind. Zudem gibt es im älteren Management und bei einer wachsenden Zahl
von Beschäftigten Widerstände gegen die Einführung umfassender Computersysteme (S. 91 ff.). Dennoch ist diese Technologie eine, wenn auch noch
unvollkommene, Organisationstechnologie, die einerseits eine Übernahme
von Arbeit und andererseits die Erhebung, Speicherung und Verarbeitung
der Informationen zu weiteren Rationalisierungen leistet (S. 90 f.).
Die Notwendigkeit der Standardisierung von Programmabläufen, um die
diversen Informationen überhaupt verarbeiten zu können, führt auch dazu,
daß sich, quer über die Branchen verteilt, „sehr deutliche Angleichungstendenzen in bezug auf Arbeitsprozesse, Organisationsstrukturen und Arbeitsbedingungen ergeben“ (S. 63), mit dem Ergebnis, auch gelegentlich
„Dienstleistungen, sonstige Produkte und auch Informationen“ zu opfern
(S. 48). Die Anzahl tatsächlich neuer Produkte und Dienstleistungen bleibt
dadurch eher bescheiden, ausgenommen im Bereich der Militärelektronik
Rezensionen zum Thema
und -Information, in dem aber eher „Destruktivkräfte als Produktivkräfte
verkörpert sind“ (S. 71).
Obwohl Briefs auch zu der Einschätzung gelangt, daß durch die neuen
Technologien „relativ wenig an neuem gesellschaftlichem Reichtum in der
Form von neuen Gebrauchswerten“ geschaffen wird und die „der Gesellschaft zur Verfügung gestellte neue Gebrauchswertmasse (...) relativ gering
(ist), nur ein Teil davon (...) zudem sinnvoll“ (S. 66), kommt er zu einem
anderen Ergebnis als z.B. F. Ortmann, der darin nur eine sinnlos gigantische Computerisierungswut entdeckt (Der zwingende Blick, Frankfurt/Main 1984).
Der Gebrauchswert der neuen Technologie liegt v. a. im Abbau gesellschaftlich notwendiger Arbeitszeit. Damit verbunden sind, wie schon beschrieben. Rationalisierungsdruck, verschärfte Konkurrenz der Beschäftigten um die vorhandenen Arbeitsplätze, aber auch eine fortschreitende Dequalifizierung traditioneller Berufsqualifikationen im Produktions-,
Planungs- und Verwaltungsbereich.
Der Weg aus diesem Dilemma kann Briefs zufolge nur über eine konsequente Gewerkschaftspolitik führen: einmal unter Ausschöpfung aller
rechtlichen Mittel, die das Betriebsverfassungsgesetz bietet (z.B. Informationspflicht des Unternehmers, wenn neue EDV-Technologien eingeführt
werden sollen; vgl. SS 80, 90, 92 und 106 BetrVG), zum anderen durch umfassende Information über die sozialen Folgen der neuen Technologien (S.
80 ff.). Die Vereinheitlichungstendenzen durch zunehmende Computerisierung bewirken dabei positiv, daß bisherige gruppenspezifische Bewußtseinsformen, weil obsolet geworden, leichter als bisher abgebaut werden
können, daß „prinzipiell eine bessere Basis für eine kollektive und solidarische Gegenwehr der Arbeitenden im Klassenmaßstab entsteht“ (S. 65). Das
bedeutet aber zugleich, daß neue und umfassende Konzeptionen der gesellschaftlichen Arbeit und der Organisationsformen der Lohnarbeiter entwickelt werden müssen.
Damit sind einige Schwerpunkte des Buches genannt. Für denjenigen Leser,
der sich fundiert in Aufbau und Funktion von Computern, Computernetzwerken und deren gesellschaftlichem Nutzwert einarbeiten will, sei hier
besonders auf die Kapitel 2 und 3 des Buches hingewiesen, die sich sowohl
durch ihren hohen Informationsgehalt als auch ihre Verständlichkeit hervorheben.
Fazit: ein sehr informatives Buch, das die Auswirkungen der Computerisierung der Arbeits-, Informations- und Kommunikationsprozesse klar vor
Augen führt und ihre ökonomischen und gesellschaftlichen Hintergründe
erhellt.
Rezensionen zum Thema
Karl-Heinz Schmid
Wolfgang Coy:
INDUSTRIEROBOTER. ZUR ARCHÄOLOGIE DER ZWEITEN
SCHÖPFUNG
Berlin 1985 (Rotbuch-Verlag)
Thema des vorliegenden Buches ist es, die Wurzeln von Automatisierung
und Maschinisierung aufzuspüren und ihren Entwicklungslinien nachzugehen. Dies scheint in der Fülle der einschlägigen Literatur nichts besonderes
und macht diesen Essay - so sein Selbstverständnis - noch nicht lesenswert.
Einen entscheidenden Vorzug gewinnt der Autor, ein Informatiker, indem
er den Gegenstand „nicht nur in technischer Hinsicht, sondern als umfassende gesellschaftliche Realität und Projektion“ (S. 12 f.) behandeln will.
In einem ersten, historischen Abschnitt zeigt der Autor zunächst, wie in der
postscholastischen Philosophie das Erkenntnisinteresse am Menschen
grundlegenden Wandlungen unterworfen ist. Das Seelenwesen Mensch
wird aus der göttlichen Hierarchie herausgelöst, ist als Körperwesen nicht
mehr apriorisch von den anderen Lebewesen abgehoben, sondern durch
Verstand und Sprache von ihnen unterschieden. Faßt Descartes nur das
Gesellschaftsganze als Maschine, so erscheint bei La Mettrie auch das Individuum als (göttlich konstruierte) Maschine, die zunächst gemäß dem Vorbild der Mechanik in der Physik in Gestalt von Hebelmodellen, dann Kreislaufmodellen, später die Wechselwirkung der einzelnen Funktionen berücksichtigenden kybernetischen Modellen zu beschreiben gesucht wird. Leibniz
sieht im Körper ein „göttliches Uhrwerk“ - von Gott angestoßen, in der
Folge jedoch selbstlaufend. Dies gilt auch. für die Seele, die ja in der Aufklärung nicht gestorben ist: Beide „Substanzen“ befinden sich in prästabiliertem Gleichklang, sind vollkommen synchronisiert. Einschlägig für die
Enttabuisierung des menschlichen Körpers sind die bekannten anatomischen Studien Leonardos, aber auch die ersten Versuche, Funktionen des
Körpers artifiziell nachzukonstruieren, die zunächst als folgenlose Kuriosa
(z.B. Vaucansons Ente) in die Geschichte eingehen.
Das sich verändernde Menschenbild reflektiert reale grundlegende Umwälzungen. Coy verfolgt, wie mit der Entwicklung der industriellen Produktion, zunächst der Manufaktur als deren organisatorischem wie technischem
Rezensionen zum Thema
Beginn, die fortschreitende Arbeitsteilung den Arbeitsprozeß in Teilarbeiten, die Produkte in Teilprodukte zerlegt, den Arbeiter auf Teilfunktionen
reduziert, als Teilarbeiter konstituiert. Notwendiges Element dieser Entwicklung ist die Maschine. „Arbeitsteilung ist der Kern der neuen Produktionsweise, die Maschine wird deren technische Form“ (S. 39). Maschinisierung der Produktion heißt auch Maschinisierung der Teilarbeiter, Ihre zunehmende Unterordnung unter die Maschine - Arbeiten mit der Maschine
wird zum Arbeiten an der Maschine.
Als Maßeinheit wie als Mittel der Synchronisation der immer komplexer
miteinander verwobenen Teilprozesse gewinnt der Faktor Zeit nicht mehr
nur als meßtechnische Basis in der Physik, sondern auch in der Produktion
eine gewichtige Rolle. Coy zeigt, wie aus den gesellschaftlichen Bedürfnissen heraus die Zeitmessung von Stunden anzeigenden Turmuhren bis zu
sich im Sekundentakt bewegenden Taschenuhren („transportable Zeit“)
präzisiert wird. (Taylor, Analytische Arbeitsplatzbewertung REFA, MTM
etc.) wären ohne exakte Zeitmessung nicht möglich.)
Maschinen verstärken nicht nur (Teil-)Eigenschaften des Arbeiters, sie
potenzieren auch die Herrschaft über ihn. Der freie Lohnarbeiter ist nicht
nur indirekt vom Eigentümer der Maschine abhängig, er ist unmittelbar
Tempo und Rhythmus der Maschine unterworfen. Herrschaft der Maschine
(Marx: der toten Arbeit) - Maschinisierung der Herrschaft.
Der Abschnitt schließt mit einem Überblick über die Entwicklung der Maschinerie von ersten Spinn- und Webmaschinen in der Textilindustrie über
Dampfmaschine, Werkzeugmaschine bis zum Fließband und der derzeit
letzten „Herrschaftsmaschine“, dem Computer.
Der zweite Abschnitt ist aktuellen Entwicklungen der industriellen Automation gewidmet, in deren Zentrum Roboter und Computer stehen, und deren Fixpunkt im „Computer integrated manufacturing“ (S. 62), in der computergesteuerten vollautomatischen Fabrik liegt. Den technischen Ahnen
des Industrieroboters sieht der Autor in den Telemanipulatoren der
Nukleartechnologie. Die neue Qualität des Roboters liegt darin, daß der
menschliche Arm nicht nur verstärkt oder sein Aktionsradius erweitert,
sondern ersetzt wird. Die Folgen für Arbeitsmarkt und Personalstruktur der
Unternehmen liegen auf der Hand: schwindender Bedarf an Arbeitskräften
- die Senkung der Produktionskosten, der Lohnkosten im
besonderen, sind ja schließlich der Zweck der Rationalisierung. Allerdings
Rezensionen zum Thema
steht die menschenleere Fabrik (von Ausnahmen abgesehen) nicht auf der
Tagesordnung. Es geht um die „Vernichtung der Mitte“ (S. 106), d.h. um
den Abbau eines Großteils der Facharbeiter, bei Höherqualifizierung Weniger (Ingenieure, Computerfachleute) und Dequalifizierung Vieler (Handlanger, Putzkolonnen). (Anhand von statistischem Material werden die enormen Wachstumsraten des Robotereinsatzes in den letzten 10 Jahren, die
industriellen Einsatzorte und die „geografische“ Verbreitung aufgezeigt.)
Coy benennt auch die heutigen Grenzen der Automatisierung. Zum einen
ist es bisher nicht möglich, die menschliche Hand mit ihren sensorischen
und taktilen Fähigkeiten adäquat nachzubauen und ihre komplexen Funktionen und Bewegungsabläufe zu programmieren, weshalb der Robotereinsatz, z.B. im Montagebereich, heute noch sehr eingeschränkt ist. Forschung
auf den Sektoren taktile Sensorik, Mobilität, Selbstdiagnosefähigkeit, Sehfähigkeit zur Werkstückerkennung etc. eröffnet hier ein enormes künftiges
Rationalisierungspotential. Zum anderen sind zwar alle Bausteine der „bedienerarmen Fabrik“ (Rechner, Roboter, Betriebsdatenerfassung, Fertigungssysteme u.a.) entwickelt, deren Vernetzung, Integration bedarf aber
noch erklecklicher Entwicklungsanstrengungen (und -kosten), bis sie als
„Ensembles“ weitere gewaltige Strukturveränderungen möglich machen.
Dann hat nach Coy die Stunde des Fabriksystems geschlagen. Die Arbeit
ändert sich qualitativ durch ihre Marginalisierung - dies bleibt leider unbegründet und damit unverständlich. Die gesamte Fabrikorganisation erhält
durch die Automation die Chance ihrer Überwindung. Abgesehen von dem
Verweis auf die Ablösung des zentralistischen Monsters Dampfmaschine
durch kleinere Elektromotoren, bleibt auch dies undiskutiert. Die Alternative besteht nach Auffassung des Autors in der Auflösung der großen Maschinerie zugunsten dezentraler kleiner werkstattähnlicher Produktion. Es
bleibt unklar, inwieweit gerade die neuen Technologien die Umgestaltung
der Produktion befördern. Gleichwohl scheint es, als ob der Autor, trotz
seines gesellschaftlichen Verständnisses von Technik, diesen Prozeß primär
als eine Frage der technischen Möglichkeiten begreift, die Essentials der
politischen Ökonomie nicht mitreflektiert. Möglicherweise rächt sich nun
an einem wichtigen Punkt des Buches hinterrücks der essayistisch vage
Gebrauch des Begriffs „Fabriksystem“ als zentraler Kategorie kapitalistischer Gesellschaften, wo sie doch lediglich die Form der Produktion bezeichnet. Ist nicht die Frage, ob nach Profit oder nach Bedürfnissen, ob
entfremdet oder selbstbestimmt produziert werden soll, viel entscheidender
als das Problem, dies zentral oder dezentral zu organisieren?
Rezensionen zum Thema
Das Buch endet mit Überlegungen zu möglichen selbstreproduzierenden
technischen Systemen (Techno - Ei auf dem Mond), zu künstlicher Intelligenz und illustriert, wie in der Kunst (Literatur, Film) Robotermenschen
und Menschenroboter Darstellung finden und unterbewußte gesellschaftliche Utopien auf magische oder technische Weise realisieren sollen.
Wolfgang Höppe
Günter Friedrichs / Adam Schaff (Hrsg.):
AUF GEDEIH UND VERDERB
Hamburg 1984 (Rowohlt-Verlag)
Das Buch ist eine als Bericht an den „Club of Rome“ herausgegebene
Sammlung von Aufsätzen, die sich mit der Entwicklung der Mikroelektronik und deren Einsatz in den verschiedenen Bereichen der Gesellschaft
befassen. Zunächst versucht A. King („Eine neue industrielle Revolution
oder bloß eine neue Technologie“ ), den Stellenwert dieser neuen Technik
zu bestimmen, während die folgenden Aufsätze auf die Technologie selbst
(T. R. Ide) und ihre Anwendungsgebiete (R. Curnow und S. Curran) eingehen. Ungewöhnlich für Bücher dieser Thematik ist, daß neben Wissenschaftlern und Vertretern der einschlägigen Industrien (B. Lamborghini
über die Auswirkungen der Anwendung dieser Technologie auf die interne
Organisation von Unternehmen) auch die Gewerkschaften zu Wort kommen: J. Evans berichtet von den Bemühungen der Gewerkschaften, durch
Tarifverträge die negativen Folgen - Intensivierung der Arbeit, Dequalifizierung, drohende Arbeitslosigkeit - einzudämmen. G. Friedrichs sieht dafür
zwei Wege: Arbeitszeitverkürzung und Neuverteilung der noch vorhandenen Arbeit einerseits, qualitatives Wachstum andererseits.
F. Barnaby („Mikroelektronik und Krieg“, S. 262 ff.) kommt zu dem Ergebnis, daß mit dem breiten Einsatz der Mikroelektronik in der Rüstungstechnologie die Wahrscheinlichkeit eines Krieges aus zwei Gründen zunähme: Einerseits erhöhe sich das Risiko eines Computerirrtums mit der
Komplexität der eingesetzten Systeme, wobei die immer kürzer werdenden
Vorwarnzeiten die Möglichkeit einer Korrektur verringere, andererseits
könnten Politiker und Militärs durch den Einsatz dieser Technologie in
Angriffs- und Verteidigungssystemen glauben lassen, ein Atomkrieg sei
nunmehr gewinnbar.
Für alle Autoren des Bandes gilt, daß sie, obgleich sie mög- liche negative
Rezensionen zum Thema
Folgen der Mikroelektronik durchaus sehen, dieser selbst durchweg positiv
gegenüberstehen. Die Frage eines wohl auch notwendigen gestalterischen
Eingriffs in diese Technologie wird auch nicht ansatzweise diskutiert - „die“
Mikroelektronik erscheint vielmehr als geschlossenes Ganzes: sie werde und
müsse auch „auf Gedeih und Verderb“ angewendet werden. Das gilt auch
für den abschließenden Aufsatz von Adam Schaff, in dem das Bild einer
Gesellschaft entworfen wird, deren Mitglieder - vom Zwang zu körperlicher
Arbeit weitgehend befreit - sich fortwährender Weiterbildung und kreativen
Tätigkeiten widmen können. Diese Utopie ist nicht neu: andere Autoren
sehen gar ein Wiedererstehen der griechischen Gesellschaft, dieses Mal aber
mit elektronischen Sklaven, deren produktive Arbeit es den Menschen erlaube, sich den Künsten und der Philosophie zu widmen.
Mir scheint jedoch die Frage dringlicher, was es für unser Bild vom Menschen bedeutet, wenn massenhaft nicht nur einfache repetitive Arbeiten
von „intelligenten“ Automaten übernommen werden, sondern auch Tätigkeiten, die hohe handwerkliche und intellektuelle Anforderungen an den sie
ausführenden Menschen stellten und eben darum als spezifisch menschliche Tätigkeiten galten. Implizit beantwortet auch Schaff diese Frage, indem
er sich von vornherein auf die Kreativität als genuin menschlicher Fähigkeit
zurückzieht. Doch was, wenn auch Computer kreativ werden sollten?
Dieter Strahle
Rezensionen zum Thema
Peter Gorsen:
TRANSFORMIERTE
ALLTÄGLICHKEIT
TRANSZENDENZ DER KUNST
Frankfurt/Main 1981 (Europäische Verlagsanstalt)
ODER
Peter Gorsens Aufsatzsammlung beschäftigt sich mit dem kontinuierlichen
Zerfall des bürgerlichen Kunstbegriffes. Der Schwerpunkt allerdings liegt
auf der Darlegung einer aus diesem Zerfall resultierenden Alternative, welche ihre Anfänge bereits in den zwanziger Jahren dieses Jahrhunderts nahm
und unter dem Begriff der Produktionsästhetik Eingang in die zeitgenössische Auseinandersetzung um das Ästhetik-Problem gefunden hat.
Die Diskussion dreht sich um die Frage, inwieweit Kunst, um als solche
verstanden werden zu können, notwendig eine Differenz zur Alltäglichkeit,
d.h. zur Praxis, aufweisen muß, oder ob sie, um tatsächlich verändernd auf
Rezensionen zum Thema
die Gesellschaft einwirken zu können - ein Anspruch, den zumindest traditionelle Kunst immer für sich geltend machte -, nicht integrierter Bestandteil der Lebenspraxis werden müsse? Letzteres führt notwendigerweise von
einer „Entkunstung der Kunst“ hin zu einer Ästhetisierung des Alltags. Hat
diese Form der Kunstentwicklung, die ihren Niederschlag heute besonders
in der Werbung und deren Teilbereichen findet, noch etwas mit
traditioneller Kunstvorstellung gemein? Bedeutet sie nicht vielmehr eine
Auflösung der Kunst als Kunst? Peter Gorsen wirft diese Fragen auf und
macht sie teilweise an geschichtlichen Ereignissen und Entwicklungen, z.B.
Arbeiterbewegung und Proletkult, anschaulich. Er stellt fest, dass die Kunst
als Resultat historischer Wandlung durch ein sich neu etablierendes Bewußtsein verändert wird. Die traditionelle Kunst als Ausdruck gesellschaftlichen Denkens kann nicht mehr Spiegel dieser sich neu bildenden Klasse
sein; es muß folglich notwendig die Forderung nach einer neuen, wieder
allumfassenden Kunst entstehen.
Zwar vermittelt dieses Buch einen interessanten - auch historischen Überblick dieser Problematik, bezieht aber dennoch zu wenig eindeutig Stellung.
Es ist hier vorwiegend der Leser selbst, der aufgefordert wird, sich aufgrund von Information seine Antworten selbst zu überlegen; also keine
Meinungsmache, sondern Aufforderung zu eigenständiger Meinungsbildung.
Ulrike Schwemmer
Gero von Randow (Hrsg.):
DAS ANDERE COMPUTERBUCH.
NEUGIERIGE UND SKEPTIKER
Dortmund 1985 (Weltkreis-Verlag, 292 S.)
FÜR
BENUTZER,
Gleichsam spielerisch werden anfangs Grundkenntnisse über die Entwicklung der Mikroelektronik, Funktionsprinzipien, Typen und Nutzungsmöglichkeiten von Computern sowie über allgemeine Prinzipien des Programmierens vermittelt. Die pädagogische Absicht ist erfreulich: Der - hier
wahrscheinlich marxistisch inspirierte - Leser soll nicht gleich aufs falsche
Gleis geschoben werden, soll heißen: mit säuerlichem Unterton auf die
Gefahren, die Arbeitsplatzgefährdung, die Gesundheitsgefährdung, die
Verdummung, die Vereinsamung durch die moderne EDV hingewiesen
Rezensionen zum Thema
werden.
Digital, dialog, analog - sollen keine Fremdwörter mehr sein, niemand soll
sich scheuen, Karl Marxens „Kapital“ am Terminal zu lesen statt als dicke
Schwarte oder gar seine zentralen Hypothesen EDV-mäßig durchzumathematisieren. Die Eroberung der Computer macht Spaß, und sie ist will man ernsthaft die Gesellschaft verändern - notwendig.
Derart das Hirn zunächst befreit von allen Miesmachern, von der (langsam
sich wandelnden) defensiv-larmoyanten Haltung der Gewerkschaften, von
grün-alternativen Großtechnik-Phobien aber auch von geistlosen Computer-Einführungsbüchern, können auch die Widersprüche besser abgearbeitet werden: Einwand: Computer sind dumm: sie können nicht bis drei zählen! Replik: Dümmer ist es, wenn man sich nicht vorstellen kann, wie vielfältig man Null und Eins kombinieren kann! Einwand: Computer denken
nur formal. Replik: Der Formalist bist Du! Warum soll ich mir unter der
Formel a -> b nicht eine inhaltliche Beziehung vorstellen, z.B. „a liebt b“?
Einwand: Computerlogik läßt keinen Platz für Dialektik! Replik: Wie sollte
sie dann funktionieren?
Vorstellungen von Allmacht und Ohnmacht des Computers, vom sattsam
bekannten Orwellschen Großen Bruder bis zur hohlen Kiste geistern mechanistisch langweilig in den Köpfen umher - keine guten Voraussetzungen,
mit den modernen Produktivkräften und ihrer Revolutionierung fertigzuwerden. Denken wir praktisch: Mit mechanischer Schreibmaschine, Zettelkasten und der Schulalgorithmustafel werden wir nicht einmal in dieser
Gesellschaft überstehen, geschweige denn eine neue errichten helfen können. Denken wir philosophisch: Können Computer das menschliche Denken vollständig simulieren, es gar übertreffen? Die Autoren: Eines Tages
können die Menschen die Wirklichkeit weitaus besser im Computer abbilden als in ihren Gehirnen, können mit dem Computer zu weitaus schöpferischeren und originelleren Ergebnissen kommen als mit ihren Gehirnen.
Prinzipiell sei es möglich, die Hardware der menschlichen durch die Hardoder Software maschineller Intelligenz zu ersetzen. Ein schreckliches Omen
für den bücherfressenden, in seiner Kleinstbibliothek (die Probe aufs Exempel: wieviel Prozent der Philosophen haben schon einmal
die weltweit verfügbaren Datenbanken der Informations- und Dokumentationssysteme zur Literaturrecherche angezapft?) verharrenden Philosophen?
Ist die Welt nicht widerspiegelbar, und wenn ja, warum nicht auch das
Hirn, in dem sie sich widerspiegelt? Lassen sich nicht mit Hilfe von Modellrechnungen und Simulationstechniken Strukturen und Prozesse der Materie
erfassen und abbilden, die für das menschliche Gehirn ohne Hilfsmittel
unzugänglich sind? Und kann nicht darüber hinaus das Rechnen, Verwal-
Rezensionen zum Thema
ten, Speichern und Dokumentieren unzähliger langweiliger Aufgaben das
Hirn freibleiben für neue kreative Arbeit? Aber auch dies: es ist eine alberne
Vorstellung vom Computer, auf dessen Knöpfen man nur zu drücken
brauche, damit er funktioniert. Es muß eine Masse Intelligenz hineingesteckt werden, bevor ein Programm steht, und noch mehr, um eine solche
Software zu entwickeln, die humanen und demokratischen Zwecken dient.
Nur: Anfangen muß man damit jetzt!
Werden Maschinen wie Menschen denken? Will man zwölf Halbzüge im
Schach im voraus bewerten, muß man sich die Folgen von 3,4 x 1110 Stelungen verdeutlichen. Das leistet das menschliche Hirn nicht, aber es kann
den heutigen Computer durch Intuition, Erfahrung und Konzentration auf
wesentliche Splelzüge überlegen sein. Ist dies ein Beweis für die Überlegenheit des homo sapiens über den dummen Computer? Schon dies ist eine
falsche Frontstellung: Der Computer ist geronnene menschliche (Denk)Arbeit und kann als Werkzeug menschlicher Unzulänglichkelten eingesetzt
werden. Wer vor ihm Angst hat, sollte sich auch gegen die Weiterentwicklung des Faustkeils wenden. Daß Computer derzeit noch in manchen Bereichen unterentwickelt sind, ist kein Beweis für ihre Dummheit, sondern
für die ihrer Programmierer. Aber die Entwicklung einer „künstlichen Intelligenz“ (Problemlösungsmaschinen á la Karpov), die Nachbildung intuitiven, suchenden, strategischen Denkens schreitet voran.
Ob der Computer in grenzenlos allen Bereichen einsetzbar ist, ist (vorerst)
noch zu verneinen. Aber wie die Materie immer grundlegender erforscht
wird, so ist nicht auszuschließen, daß sich Regeln für unendlich viele Prozesse, Strukturen, Erscheinungen finden lassen, sprich: die Welt in vielen
Dimensionen algorithmisierbar wird.
Muß es noch erwähnt werden, daß die Autoren auch die im Kapitalismus
negativen Begleiterscheinungen wie Arbeitsplatzvernichtung, Umwelt- und
Gesundheitsgefährdung in und durch die Computerindustrie (am Beispiel
Silicon Valley), Militarisierung der Elektronik, Computer-Überwachung etc.
behandeln?
All dies kann aber nur ein Grund mehr für die Schlußfolgerung sein, „die
zu unserem Lieblingsgerät passende Gesellschaft zu erringen.“
Bernd Güther
Rezensionen zum Thema
Frank Rose, Ins Herz des Verstandes. Auf der Suche nach der künstlichen Intelligenz, (Roitman-Verlag) München 1985
Seit der Mathematiker Alan Turing 1950 die damals noch provozierende
Frage gestellt hat: ‘Können Maschinen denken?’, ist darüber, besonders in
den USA, eine lebhafte Diskussion entbrannt. Auf der einen Seite befinden
sich die Forscher der „künstlichen Intelligenz“ (KI), die die Frage entweder
schon positiv beantwortet oder doch zumindest beantwortbar sehen; auf
der anderen deren Kritiker, die behaupten, Maschinen könnten niemals
denken.
Frank Rose ist selbst weder Forscher noch Kritiker, sondern Wissenschaftspublizist; und sein Buch ein Bericht über die gegenwärtigen Projekte
und Diskussionen zur künstlichen Intelligenz. Seine Schilderung konzentriert sich weitgehend auf das Forschungszentrum der Universität Berkeley,
das seit einigen Jahren, unter der Leitung von Roger Schank und Robert
Wilensky, die Prozesse des Verstehens zu simulieren versucht. Seitdem die
wachsenden Probleme mit den Sprach- und Mustererkennungsautomaten
sowie mit der Programmierung von Robotern darauf hindeuten, daß die
KI-Forschung ohne die Simulation des menschlichen Verstehens nicht
weiterkommen wird, zielt sie jetzt gewissermaßen „ins Herz des Verstandes“. Die neu entstandene „Kognitionswissenschaft“ vereinigt neben Informatikern und Technikern auch Psychologen und Linguisten, die dem für
die Verstehensprozesse zentralen Begriff der Bedeutung nachgehen und
gemeinsam an Simulationsmodellen arbeiten, die das „was man sieht und
hört, in Übereinstimmung mit bereits vorhandenen Erfahrungen“ (Wilensky) bringen sollen.
Rose schildert eingehend die Erwartungen, Zweifel und Enttäuschungen
der vorwiegend jungen Wissenschaftler. Wie bringt man etwa dem Computer solch einfache Verstehensprozesse wie das Zeitungsholen bei; daß er,
wenn es draußen regnet, versteht, erst den Regenschirm zu nehmen und
dann die Zeitung zu holen - und nicht umgekehrt? Offenbar erweisen sich
gerade die alltäglichsten Probleme als die größten Stolpersteine auf dem
Weg zur KI, da sie eine solche Fülle uns selbstverständlicher Verhaltensregeln implizieren, deren Explikation nahezu unmöglich erscheint. Hier setzen dann auch die Einwände der beiden Berkeley-Philosophen John Searle
und Hubert Dreyfus gegen die KI-Projekte ein, die Rose distanziert und
doch einfühlsam beschreibt.
Im Moment jedenfalls hat es den Anschein, als ließe, trotz Rückschläge, der
Elan der KI-Forscher nicht nach. „Wenn ich mich mit Hubert (Dreyfus)
unterhalte“, zitiert Rose Wilensky, „würde er sagen: ‘Wenn du willst, daß KI
Rezensionen zum Thema
funktioniert, dann müßtest du alles Wissen zusammenfassen und formalisieren.’ Und ich würde antworten: ‘Stimmt genau!’ Und er würde sagen:
‘Und dann müßtest du es strukturieren, und dann müßtest du herausfinden,
was in welcher Situation angemessen ist, und das ist eine gewaltige Masse
von Informationen!’ Und ich würde antworten: ‘Stimmt genau!’ Und er
würde sagen: ‘Und das geht gar nicht!’ Und ich würde sagen: ‘Na, vielleicht
geht’s ja doch ...’.“ Eines Tages, so Wilensky, werde es den „allwissenden
Computer“ geben; denn „darum geht es ja bei unserer Arbeit im Grunde.“
Im Augenblick dürfte der Weg dorthin allerdings noch sehr, sehr steinig
sein.
Ebenso interessant wie die Diskussion um KI ist das Ergebnis von Roses
Bohren nach der Moral der KI-Forscher. Während die jüngeren sehr konkrete Befürchtungen haben, daß ihre Arbeiten zu Kriegszwecken mißbraucht werden, da das Pentagon als Hauptfinancier lebhaftestes Interesse
an solchen Programmen auf dem Weg zum ‘automatisierten Schlachtfeld’
hat, staut sich bei den Leitern eine gehörige Portion Zynismus an.
Mißbrauch der Wissenschaft habe es schon immer gegeben, meint Wilensky; da ließe sich eben nichts machen.
So gibt Rose auf ca, 250 Seiten einen lebendigen und gut recherchierten
Einblick in die Gedanken- und Lebenswelt des kalifornischen ‘think tanks’;
was hingegen fehlt, ist die gedankliche Gliederung und problemorientierte
Zuspitzung, so daß bei ihm Wesentliches und Unwesentliches, Banales und
Interessantes recht arglos nebeneinander steht.
Alexander von Pechmann
John Searle, Minds, Brains and Science, (British Broadcasting Corporation) London 1984
Anders verhält es sich mit dem Band von John Searle, Philosoph in Berkeley, der eine Vortragsreihe der BBC zusammenfaßt. Neben anderen Themen behandelt er insbesondere Searles Argumente gegen das Konzept einer
„künstlichen Intelligenz“. Searle unterscheidet dabei das Projekt einer ‘strikten KI’, wie es von Simon, Newell oder Minsky vertreten wird, von der
„Kognitionswissenschaft“, deren Protagonisten Winograd und die Berkeleyaner Schank und Wilensky sind.
In seinem Artikel ‘Can Computer Think?’ stellt Searle zunächst die provozierendsten Thesen der ‘strikten KI’-Forscher zusammen: es gäbe schon
Maschinen, die buchstäblich denken (Simon); es komme die Zeit, wo wir
froh seien, wenn uns Computer als Hausmädchen duldeten (Minsky); und -
Rezensionen zum Thema
als aussagekräftiger Definitionsversuch - „Intelligenz sei nichts anderes als
die Manipulation physikalischer Symbole“ (Newell).
Als Gegenargument bringt Searle nun sein bekanntes Beispiel vom ‘chinesischen Zimmer’: gesetzt den Fall, er befindet sich in einem dunklen Raum
und bekommt durch einen Schlitz Zettel zugeschoben, auf denen chinesische Schriftzeichen mitsamt detaillierten Gebrauchsanweisungen für diese
Zeichen stehen. Wäre es dann richtig, wenn er nach einer Zeit der Übung
die Zeichenmanipulation so gut beherrsche wie ein Chinese, und wenn die
Leute draußen die hineingeschobenen Zettel als „Fragen“ und die herausgereichten „Antworten“ nennten, wäre es dann richtig zu behaupten, er könne chinesisch? Natürlich nicht; er tue nur so als ob, und verstehe selbst gar
nichts davon. Und genauso der Computer.
Computer, so Searle, operieren nur mit Symbolen, die für sie jedoch keinen
semantischen Gehalt besitzen, sondern bloß als Terme formaler oder syntaktischer Struktur bestimmt sind. Denkvorgänge aber unterscheiden sich
wesentlich dadurch, daß sie nicht nur Symbolmanipulationen sind, sondern
Bedeutungen implizieren; „mit einem Wort: der Geist hat mehr als Syntax,
er hat Semantik“ (31, Übersetzung von mir). Dies sei der einfache Grund,
warum Computer nicht dächten.
Anders geht die „Kognitionswissenschaft“ vor, die nicht behauptet, Computer dächten, sondern daß unser Gehirn wie ein Computer arbeitet. Sie
nimmt an, daß sich zwischen dem physiologischen Substrat der Gehirnzellen und den geistigen Phänomenen der Begriffe eine Ebene der Gehirntätigkeit befindet, die sich mit Hilfe der Arbeitsweise des Computers beschreiben läßt. Searle meint, daß die Annahme einer solchen Zwischenebene deswegen Plausibilität besitzt, weil wir über die Funktionsweise des
Gehirns selbst im Grunde keinerlei Wissen haben; und setzt sich im Beitrag
‘Cognitive Science’ kritisch mit deren drei wichtigsten Thesen auseinander:
1. ‘Die Grammatikregeln, denen wir beim Sprechen folgen, gleichen den
formalen Regeln, denen der Computer folgt.’ - Searle wendet nun dagegen
ein, daß - äußerlich betrachtet - unser Sprechen bestenfalls gewissen Regeln
folgen mag, daß aber dessen Ursache, anders als beim Computer, nicht die
Regeln, sondern vielmehr deren Bedeutung (the meaning of the rule) sind.
Daher sei der Vergleich zwischen unserem Sprechen und dem Programm
des Computers rein äußerlich und metaphorisch.
2. ‘Da der Computer bei der Informationsverarbeitung Regeln folgt, und
der Mensch beim Denken auch Regeln folgt, funktioniert das Gehirn und
der Computer in ähnlicher Weise.’ - Dieser Vergleich, so Searle, gilt nur,
weil davon abgesehen wird, daß der Mensch in bestimmte geistige Prozesse
Rezensionen zum Thema
eingebunden ist, der Computer aber nicht. Der Vorteil des Computers sei
es ja, daß er ‘gedankenlos’ Ziffern addiert etc.; der Mensch dagegen sei in
psychologische Vorgänge involviert, die solch rein mechanische Operationen unmöglich machen. Daß der Computer funktioniert, als ob er Informationen verarbeitet, bedeutet keineswegs, daß er sie verarbeitet; eben diese
Konfusion sei es, die die Kognitionsforschung plausibel macht.
3. ‘Für jeden geistigen Akt (mental achievement) gibt es eine theoretische,
im Gehirn internalisierte Ursache.’ - Gegen diese Annahme einer möglichen
„Theorie der Praxis“ wendet Searle ein, daß es dafür keinen vernünftigen
Grund gäbe. Wenn wir z.B. beim Gehen im Gleichgewicht bleiben, dann
nicht, weil unser Gehirn komplizierte Gleichgewichtsgleichungen berechnet, sondern weil wir dafür im Innerohr ein Organ besitzen, das jedoch
keine mathematischen Aufgaben löst; das Gehirn sei eben neurophysiologisch so organisiert: „the brain just do (it)“ (53). Daher sei die These, unser
Verhalten gehorche einer Theorie, äußerst unwahrscheinlich.
Der Vergleich unserer Gehirntätigkeit mit dem Computer, so Searle, sei
überflüssig. Es sei die ausschließlich dem Gehirn zukommende Funktion,
zu denken; nur „brains cause minds“ (39). Daher erinnern ihn die Versuche
der Kognitionswissenschaft, das Gehirn mit dem Computer erklären zu
wollen, an die früheren fehlgeschlagenen Modelle, es mit einem Telefonrelais oder Telegrafensystem, oder noch früher mit einer Wasserpumpe oder
Dampfmaschine, zu vergleichen. Man hechele immer der neuesten Technik
hinterher, um die Funktionen des menschlichen Gehirns zu verstehen.
So erfrischend oftmals Searles Invektiven gegen die KI-Forschung sind,
sowenig wird doch klar, worin eigentlich sein Argument gegen die Möglichkeit einer künstlichen Intelligenz liegt. Liegt es in der idealistischen Annahme, daß geistige Vorgänge eine eigene, materiell nicht reproduzierbare
Qualität der Sinngebung und Bedeutung besitzen? Oder ist es der agnostische Standpunkt, daß die Struktur und Organisation unseres Gehirns so
kompliziert ist, daß es müßig ist, seine Funktionsweise zu erforschen? Beide
Auffassungen wären allerdings ihrerseits so wenig plausibel, daß sie sich mit
äußerst gewichtigen Einwänden auseinandersetzen müßten.
Alexander von Pechmann
Rezensionen zum Thema
Hubert L. Dreyfus, Die Grenzen der künstlichen Intelligenz. Was
Computer nicht können, (Athenäum-Verlag) Königstein/Ts. 1985
Weniger polemisch, dafür durchdachter als Searles Beitrag ist das Buch von
dessen Fachkollegen in Berkeley, Hubert Dreyfus. Obwohl schon 1972
erstmals, und 1979 erweitert, in englischer Sprache erschienen, beinhaltet es
bereits die wesentlichen philosophischen Argumente gegen die überzogenen Ansprüche der KI-Forschung, und stellt eine detaillierte Kritik der
Möglichkeiten einer künstlichen Intelligenz dar.
Dreyfus konfrontiert zunächst die Zielsetzung der KI-Forschung seit 1957
mit ihren tatsächlichen Resultaten bis 1967, und stellt fest, daß nach anfänglich spektakulären Erfolgen alle Vorhersagen eingeschränkt werden mußten.
Im Laufe dieser Zeit sei das grundsätzliche Problem der Simulation
menschlicher Intelligenz, das seiner Meinung nach bis heute weiterbesteht,
deutlich geworden: sämtliche Entscheidungsmöglichkeiten müssen im
Computerprogramm explizit gemacht werden, so daß die Programme entweder über allereinfachste Simulationsmodelle nicht hinauskommen oder
sich rasch in exponentiell verzweigenden Alternativbäumen verlieren würden. Die KI-Forschung stünde im Grunde ratlos vor der Fähigkeit menschlicher Intelligenz, das in einer Situation Wesentliche und Bedeutungsvolle
zu erkennen und hervorzuheben.
Für den trotzdem „ungebrochenen Optimismus“ der KI-Forschung führt
Dreyfus vier Gründe an, die einer realistischen Beurteilung der Grenzen im
Wege stehen. Er beruhe erstens auf dem, bis Leibniz, ja Platon zurückgehenden, rationalistischen Glauben, jede nicht-willkürliche Handlung
des Menschen besäße eine gesetzmäßige und daher in einer Theorie ausformulierbare Struktur; zweitens gründet er auf der biologischen Annahme
vieler KI-Forscher, das Gehirn funktioniere nach Art eines heuristisch programmierten Digitalcomputers. Als dritten Grund führt Dreyfus, in Übereinstimmung mit Searle, die erkenntnistheoretische Hypothese der Kognitionsforschung an, intelligentes Verhalten lasse sich maschinell reproduzieren
bzw. simulieren. Zwar werde das Gehirn sowenig als ein Digitalcomputer
angesehen, wie ein Planet als ein Algorithmus zur Lösung von Differentialgleichungen, aber, so die Hypothese, die Gehirnfunktionen ließen sich in
dieser Weise beschreiben und nachvollziehen. Und schließlich ziehe die KIForschung ihren stärksten Impetus aus der ontologischen Annahme, alles,
was für intelligentes Verhalten wesentlich sei, lasse sich in einfachste und
unabhängige Elemente zerlegen und aus ihnen zusammensetzen. „Eine
Million (Wissenselemente) - allerdings gut organisiert - müßte für eine sehr
Rezensionen zum Thema
hohe Intelligenz genügen“ (157), zitiert Dreyfus den KI-Forscher Marvin
Minsky.
Dreyfus’ zentrale Kritik an diesem rationalistisch-atomistischen Programm
der KI-Forschung besteht nun in seinem Einwand, sie setze dabei voraus,
daß die Welt des praktisch tätigen Individuums mit denselben Grundbegriffen beschrieben werden könne wie die objektive Welt der Naturwissenschaften. Unter Berufung auf Wittgensteins „Untersuchungen“ meint Dreyfus, Computer seien zwar nicht „transzendental dumm“ und könnten daher
Regeln auf exakt beschreibbare Fälle anwenden; sie seien aber „existentiell
dumm“ und unfähig, mit den Situationen, „so wie sie sind“ (149), umzugehen. Praktisch bedeutsame Situationen ließen eine unabschließbare Reihe
von Bedeutungen mitschwingen, die ohne Gefahr des unendlichen Regresses nicht formalisierbar seien.
In der lebensphilosophischen Tradition Heideggers und Merleau-Pontys
stehend nimmt Dreyfus an, daß der Mensch sich als leiblich-praktisches
Wesen je schon in einem „bereits geordneten Erfahrungsfeld“ (136) befindet, das es ihm erlaubt, regreßlos mit Mehrdeutigkeiten umzugehen: es
gäbe „einen letzten, allgemeinen Kontext“ (170), den wir als selbstverständlich annehmen, „weil wir Menschen sind“ (170), und der daher maschinell nicht reproduzierbar ist. „Wenn wir unsere Handlungen erklären“,
schreibt er zusammenfassend, „müssen wir früher oder später in unsere
alltäglichen Verrichtungen zurückfallen und einfach sagen, ‘es ist das, was
wir tun’, oder ‘es ist eben das, was den Menschen ausmacht’“ (323). Was
wir sind, können wir ohne unendlichen Regreß nicht explizit wissen; da
aber nur Explizites programmierbar ist, ist menschliche Intelligenz nicht
simulierbar.
Dabei wendet sich Dreyfus keinesfalls gegen die Computerwissenschaften,
die im Bereich formalisierbarer Systeme schon heute dem Menschen wichtigste Hilfsmittel an die Hand geben; er meint nur, vor den überzogenen
und unreflektierten Zielsetzungen der KI-Forscher warnen zu müssen.
Direkt involviert in die Diskussion um die KI-Programme der Universität
Berkeley, ist Dreyfus sicherlich einer der kompetentesten Kl-Kritiker und
sein Werk, wenn auch nicht auf dem neuesten Stand, eine gewichtige
Sammlung an Gegenargumenten. Dennoch meine ich, daß seine Annahme
einer strikten Grenzziehung zwischen einer objektiven Welt der
Naturwissenschaften und einer subjektiven Welt praktischer Handlungszusammenhänge so wohl nicht aufrecht zu halten ist. Ist Intelligenz, wie es
Dreyfus nahelegt, wirklich nur die Fähigkeit des einzelnen, sich im Gestrüpp kompliziertester Situationen und mit dem gesunden Vertrauen auf
einen unerkennbaren, „allgemeinen Kontext’’ zurechtzufinden und durch-
Rezensionen zum Thema
zuwursteln? Oder liegt Intelligenz nicht auch im zwar flexiblen, aber dennoch gesetzmäßigen Verhalten, das zielgerichtet sich der Gesetze bedient?
So gesehen wäre eher der historische Prozeß der Evolution der Prototyp
von Intelligenz als der „Selfmademan“, den Dreyfus, vielleicht unbewußt,
vor Augen hat; und daß jener Prozeß gerichteten Verhaltens prinzipiell
nicht im Computer simulierbar ist, ist allerdings noch eine offene Frage.
Alexander von Pechmann
Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht
der Vernunft, (Suhrkamp-Verlag) Frankfurt/Main 1978
Dies Buch, obgleich auch schon vor 10 Jahren erstmals erschienen, ist das
Hauptwerk von Weizenbaums KI-Kritik. Ihm geht es allerdings weniger
um die erkenntnistheoretische Frage, was Computer können, als vielmehr
um die ethische Frage, wie die Menschen mit dieser neuen Technik umgehen. Weizenbaum, Computerwissenschaftler am Massachusetts Institute
of Technology in Boston, warnt entschieden vor dem Mißbrauch der Computer, vor der für ihn letztlich politisch motivierten Unterordnung des
Menschen unter diese Maschinen. Die „konservativsten, ja reaktionärsten
ideologischen Strömungen des gegenwärtigen Zeitgeistes“ (327) hätten sich
der Computertechnologie bemächtigt, um ihren, wie er es nennt, „Imperialismus der instrumentellen Vernunft“ zu errichten. Wenn der Einzelne sich
dieser Gefahr nicht bewußt werde, meint er in der Tradition der „kritischen
Theorie“, werde das Denken, widerstandslos, auf das „Niveau industrieller
Prozesse reduziert“ (326).
Was hingegen die erkenntnistheoretische Seite angeht, so stimmt er weitgehend mit den beiden vorherigen KI-Kritikern überein. Auf Kurt Gödel
Bezug nehmend ist Weizenbaum der Ansicht, daß der Mensch eine Art
intuitiver Intelligenz besitze, „die jenseits aller Beweiskriterien wahr ist“
(294) und daher außerhalb jeder maschinellen Simulation liegt; zu ihr gehörten Phantasie, körperlich-sinnliche Erlebnisse, die Erfahrungen von
Vertrauen, Hoffnung und Freundschaft, die dem Computer wesensfremd
seien.
So wichtig in der Tat Weizenbaums Hinweis auf die politischen Motive des
massiven Computereinsatzes zum Zweck der Herrschaftssicherung ist, so
scheint es mir doch kurzschlüssig zu sein, diese Motivation direkt mit den
Möglichkeiten des Computers zu verknüpfen. Ist er wirklich nur in der
Lage, Probleme nach einem vorgegebenen Algorithmus zu lösen, und muß
Rezensionen zum Thema
sein Einsatz daher menschliches Denken auf „industrielle Prozesse“ reduzieren?
Douglas R. Hofstadter, Gödel, Escher, Bach. Ein endloses Band,
(Klett-Cotta-Verlag) Stuttgart 1985
Diese Frage nach den Möglichkeiten des Computers und der KI steht im
Mittelpunkt von Hofstadters 850-Seiten-Wälzer. Sein Buch ist ein wahres
Feuerwerk an Einfällen, Analogien, Hypothesen und Vermutungen, das hier
vorzustellen unmöglich ist. Ich möchte mich daher auch nur auf seinen
theoretischen Beitrag zur Kl-Forschung beziehen, soweit er sich aus der
Vielschichtigkeit des Buches erschließen läßt.
Hofstadter, mit Haut und Haaren Computerwissenschaftler, übt zunächst
selbst Kritik an den KI-Forschern, die, wie auch Searle einwendet, Semantik
auf Syntax und die Intelligenz auf die Anwendung formaler Regeln reduzieren. Intelligenz ist für ihn das Überschreiten formaler Regeln, die Fähigkeit,
flexibel auf jeweilige Situationen zu reagieren, mit Widersprüchen umzugehen, Ähnlichkeiten und Neues zu entdecken. Dennoch unterscheidet er
sich von der erwähnten KI-Kritik in der Frage, was Computer können,
sowie in der Definition von Intelligenz. Hofstadter hält das Projekt einer
„künstlichen Intelligenz“ für durchaus sinnvoll; ja, sein Buch ist in gewissem Sinne ein Plädoyer für eine solche Forschung.
Sein Hauptinteresse konzentriert sich weder auf formalisierte Systeme oder
auf die Suche nach „heuristischen Hilfsmitteln“ für Problemlösungen, noch
auf die mentalen Akte der Sinn- und Bedeutungsgebung, sondern auf das,
was er die „seltsamen Schleifen“ nennt, auf merkwürdige Selbstbezüglichkeiten und Paradoxien, die er mit den Namen Bach, Escher und Gödel
verbindet, und die für ihn „im Zentrum der Intelligenz“ (30) stehen. Am
anschaulichsten vermag vielleicht Eschers Bild „Zeichnen“ diese seltsame
Schleife verdeutlichen. Auf diesem Bild zeichnet jede Hand die andere. Das
Verwirrende dabei ist, daß jede Hand, indem sie die andere malt, zugleich
selbst gemalt wird, so daß die Ebenen sich verschränken, und das Verständnis verschwimmt, welche Hand eigentlich welche malt. Diese „Schleife“ der Bezüglichkeit läßt sich erst aufheben, wenn man die Ebene des
Bildes verläßt und außerhalb des Bildes wiederum eine Hand, nämlich Eschers, annimmt, die - nun widerspruchsfrei - das Bild der zeichnenden
Hände gezeichnet hat.
Rezensionen zum Thema
Ein Aufbau verschiedener Ebenen ist so durch die „seltsame Schleife“
entstanden, der nach Hofstadter engstens mit Intelligenz verknüpft ist.
Neben vielen weiteren, überaus originellen Beispielen für Paradoxien, die
Hofstadter anführt, und die alle ihren „harten Kern“ in der berühmten
Antinomie des Lügner haben (Ein Kreter sagt: „Alle Kreter sind Lügner“),
ist für ihn der Satz von Gödel von entscheidender Bedeu-tung. Dieser Satz
besagt, daß solche Paradoxien mit Notwendigkeit auftreten, oder anders,
daß sich in jedem hinreichend starken, formalen System wahre Sätze bilden
lassen, die in dem System nicht entscheidbar sind. „Das Faszinierende ist“,
resümiert er diese Erkenntnis, „daß jedes derartige System sich sein eigenes
Grab schaufelt; der Reichtum des Systems führt seinen Sturz herbei. Im
wesentlichen kommt der Sturz daher, daß das System stark genug ist, um
selbstbezügliche Aussagen zu enthalten“ (503).
Rezensionen zum Thema
Intelligenz nun ist für Hofstadter dann vonnöten, wenn und weil das jeweilige System unabgeschlossen ist, wenn man, um eine Entscheidung zu treffen, eine Regel braucht, die besagt, nach welcher Regel man die Entscheidung treffen soll: Regel, Meta-Regel, Meta-Meta-Regel usw. Dieses endlose
Band von Schleifen nun sieht Hofstadter, wie Dreyfus übrigens auch, als
theoretisch zwar unlösbar an, praktisch aber als immer schon gelöst. „Das
geschieht, weil unsere Intelligenz nicht körperlos ist, sondern einem physischen Objekt, nämlich unserem Gehirn, eingepflanzt ist“. Und daher „arbeitet unser Gehirn, ohne daß ihm gesagt wird, wie es zu arbeiten hat“
(183). Es arbeitet, so Hofstadter, nach dem Prinzip der „seltsamen Schleifen“; es baut Hierarchien von Ebenen von Regeln aus, deren unterste, das
neurale Substrat, zwar nach formalen Regeln abläuft, deren höhere Ebenen
jedoch gewisse „Ballungen“ sind, die nicht materielle Regelkreise, sondern
ideelle Symbole repräsentieren.
Dieses hierarchische Modell der Gehirntätigkeit vergleicht Hofstadter mit
einer Ameisenkolonie namens „Tante Colonia“: auf der untersten Ebene,
den Neuronen vergleichbar, besteht sie nur aus Ameisen, die instinktiv und
„unintelligent“ ihre Arbeiten verrichten, zwar nicht Sinneseindrücke, aber
Nadeln, Blätter, Tiere etc, transportieren. Trotz der prima facie sinnlosen
Aktivitäten bildet dieser Haufen Ameisen statistische Regelmäßigkeiten von
Pfaden, Anhäufungen usw. aus, die zu bestimmten Mustern führen, die nun
ihrerseits die Arbeiten der Ameisen regeln und strukturieren. Die höchste
Ebene des Ameisenhaufens ist nun die „Ballung“ „Tante Colonia“, die
Ameisenkolonie selbst, die sich „intelligent“ gegenüber ihrer Umwelt verhält und sich, laut Hofstadter, vorzüglich mit ihrem Bekannten, dem Ameisenbär, unterhält.
Diese „Tante Colonia“ versteht Hofstadter als Modell dafür, wie auf der
Grundlage unintelligenter Prozesse durch hierarchische Strukturbildungen
Intelligenz entsteht. Das Denken sei, so Hofstadter, keineswegs an eine
geistige Substanz gebunden, sondern die Aktivität des Gehirns auf hoher
Stufe. Dementsprechend ist für ihn auch die Frage naheliegend, ob es nicht
möglich sei, diese Stufe, den sog. „Intelligenzmodus“ des Gehirns, von
ihrem Substrat, dem „mechanischen Modus“ der Neuronenebene, „abzuschöpfen“ und einem anderen Substrat, der Hardware eines Computers,
„einzupflanzen“. Dies wäre nach seiner Meinung dann möglich, wenn es
gelänge, dem Computer die Fähigkeit einzuprogrammieren, „aus dem System herauszuspringen“, Flexibilität auf höherer Ebene zu besitzen, mit
einem Wort: mit den „seltsamen Schleifen“ fertig zu werden.
Aktuell sieht er seinen Standpunkt „irgendwo in der Mitte“ zwischen den
KI-Forschern, die meinen, man habe die künstliche Intelligenz schon, wenn
Rezensionen zum Thema
man nur die richtigen heuristischen Hilfsmittel zusammenstellt, und den
Kritikern, die den menschlichen Geist „aus tiefliegenden und geheimnisvollen Gründen“ für unprogrammierbar halten. Der Teich des KI-Programms, meint er skeptisch, könnte sich im Laufe der Forschung „als so
tief und schlammig erweisen ..., daß wir gar nicht auf den Grund blicken
können“ (723).
M.E. vertritt Hofstadter mit dieser Auffassung den zur Zeit fortgeschrittensten Standpunkt zur KI-Forschung: er entgeht dem Agnostizismus
der KI-Kritiker, die die Intelligenz letztlich als eine unerklärliche Qualität
des Geistes betrachten; und er entgeht auch den Vulgarisierungen vieler KIForscher, die Intelligenz auf die bloße Symbolmanipulation einschränken.
Ein besonderes Verdienst seines Buchs sehe ich allerdings darin, daß es,
indem es die „seltsamen Schleifen“, Paradoxien, Antinomien und Widersprüche ins Zentrum gestellt hat, zugleich auch die Dialektik wieder in den
Blickpunkt der Intelligenzforschung rückt, die die scheinbar unüberbrückbaren Gegensätze zwischen formal - informell, rational - intuitiv, beseelt unbeseelt, beweglich - unbeweglich hinter sich lassen könnte. „Gödel, Escher, Bach“ könnte in der Tat dazu beitragen, die Frontstellung zwischen
der rein geisteswissenschaftlichen Kritik und der technikgläubigen KIGemeinde auf höherer Stufe aufzuheben.
Alexander von Pechmann
Markus Schöneberger / Dieter Weirich (Hrsg.):
KABEL ZWISCHEN KUNST UND KONSUM. PLÄDOYER FÜR
EINE KULTURELLE MEDIENPOLITIK
Berlin 1985 (VDE-Verlag)
Ihrem Anspruch nach stellt die von M. Schöneberger und D. Weirich herausgegebene Aufsatzsammlung eine „neue Phase der Diskussion“ um die
neuen Medien dar. Nachdem praktische Erprobung und Einführung begonnen hätten, und der Streit um Organisationsstrukturen weitgehend beigelegt sei, werde nun die Frage nach den Inhalten der neuen Angebote,
ihren künstlerisch-kulturellen Chancen und kreativen Perspektiven erörtert.
Unter den Autoren befindet sich F. Zimmermann, der die Kriterien für die
Filmförderung des Bundes entwickelt (Menschenbezogenheit, künstlerischer Rang, Attraktivität für ein breites Publikum). Die mit den neuen Me-
Rezensionen zum Thema
dien entstehenden juristischen Fragen (insbesondere das Problem der Urheberrechte) behandelt E. Schulze. A. Everding sieht mit dem Kabelfernsehen für das Theater die Chance heraufziehen, verstärkt als „Warenanbieter“ aufzutreten und damit von staatlichen Subventionen unabhängiger zu
werden etc. etc. E. Stoiber preist Bayern als Modell für künstlerische Entfaltung. Abgerundet wird der Band durch die Dokumentation „Antworten
der Bundesregierung auf zwei Große Anfragen der Fraktionen der
CDU/CSU und FDP sowie der SPD zur Kulturförderungspolitik der Bundesregierung“.
Die im Titel angegebene Alternative „zwischen Kunst und Konsum“ trifft
den Inhalt der meisten Beiträge nicht. Sie suggeriert eine Auseinandersetzung, die gar nicht stattfindet. Bei konservativer Grundeinstellung ist man
sich vielmehr in den wesentlichen Punkten einig. Erfrischend immerhin der
Beitrag von E. Noelle-Neumann, der (auf Umfragen, Medienforschung und
neueste Gehirnforschung gestützt) in der Zunahme des Fernsehangebots
eine Gefahr für die Lesekultur und damit auch eine Ursache für zunehmende Phantasielosigkeit, Konzentrationsschwächen und Mängel der Denkund
Sprachfähigkeit erblickt. Gerade hier aber zeigt sich, daß die erste Phase der
Diskussion, ob nämlich Kabel überhaupt, die die Herausgeber überwunden
glauben, noch keineswegs abgeschlossen ist. Auch dann nicht, wenn man,
statt auf Argumente einzugehen, die Kritiker der neuen Medien nur als
Fortschrlttsmuffel (M. Schöneberger), als Kulturpessimisten (D. Ratzke)
oder als intellektuelle Priesterkaste beschimpft, die mit den neuen Medien
ihre Macht und ihre Privilegien dahinschwimmen sieht (M. Lahnstein).
Mehr nebenbei wird hinter dem vielen Gerede von Bedarf und
Förderung des kreativen Nachwuchses, von sprudelnden Informationsquellen, von Bildungsauftrag und steigendem Kulturniveau sichtbar, worum es
vorrangig geht: die Überwindung der „Wachstums- und Strukturschwächen“ (W. Schreckenberger) der Wirtschaft. Wer sich nicht durch Kabel
informieren und kulturell erheben lassen will, der gefährdet die Umsätze
der Elektronikindustrie und nicht nur dieser. Er arbeitet der ausländischen
Konkurrenz in die Hand und gefährdet Arbeitsplätze „in unserem Lande“.
Konrad Lotter
Benedetto Croce:
Rezensionen zum Thema
DIE GESCHICHTE AUF DEN ALLGEMEINEN BEGRIFF DER
KUNST GEBRACHT
Hamburg 1964 (Meiner-Verlag)
Die Logik des Sinnlichen und die Geschichte
Dieser in der philosophischen Bibliothek (Bd. 371) letztes Jahr veröffentlichte Band beinhaltet als zentralen Text die von Croce 1893 vorgetragene
Akademieabhandlung, die dem hier vorliegenden Band seinen Namen gab.
Der Herausgeber und Übersetzer dieses Bändchens, Ferdinand Fellmann,
steuert eine genauere Einleitung zu diesem erstmals ins Deutsche übertragenen Text bei. Fellmann versucht, Croces Begriff einer narrativen Geschichtstheorie zu klären und in ihr die Aufgabe der Erzählform als besondere Kunstform und als „Form der Erkenntnis des allgemeinen im besonderen“ (Vorwort, S. 12) in der Geschichte zu deuten. Croces Bemühen, der
Kunst einen kognitiven Status zuzubilligen und ihr so eine erkenntnisfördernde Potenz zuzugestehen, verweise, so Fellmann, deutlich auf die von
Hegel ausgehende Tradition einer Ästhetik, die das vollendete Kunstwerk
als sinnlich erscheinende Idee begreift (ebd. Croce, S. 11) und ihr somit eine
ihr eigentümliche Erkenntnisfunktion von Wahrheit zuweist (ebd., S. 14)•.
Verweist bei Hegel das Kunstschöne auf die primäre Anschauungsform im
Erkenntnisprozeß, „so daß die Kunst es ist, welche die Wahrheit in sinnlicher Gestaltung für das Bewußtsein hinstellt“ (G.W.F. Hegel, Werke, Bd.
13, S. 140), so ist es möglich, diese Erkenntnisfunktion von Kunst auf die
Darstellungsmittel der Geschichtsschreibung zu übertragen. Das tut Croce.
Schon in die „Krise des Historismus“ verstrickt, leugnet Croce in seiner
Geschichtstheorie die Möglichkeit, allein durch die Zusammenstellung
kritisch-methodisch gesicherten Faktenmaterials in der Historie das Abbild
zu „zeigen, wie es eigentlich gewesen“ (Ranke, SW, 33, 34, S. VII). Da Croce den ausschließlichen Wissenschaftsgrad in der Geschichte leugnet, die
für ihn nicht nur in der methodischen Vergewisserung der Einzelfakten,
deren Kritik undInterpretation besteht, sondern in erster Linie in der Erzählung von Vergangenem nach Maßgabe der festgestellten Wirklichkeit
der eruierten Fakten, ist natürlich zu fragen: Wenn Geschichte als Erzäh•
An einer Stelle der hier abgedruckten Texte hebt Croce die hervorragende Bedeutung der Hegeischen Ästhetik hervor, der „die erkennende Natur
der Kunst“ (s. S. 59) anerkennt.
Rezensionen zum Thema
lung der Kunstgattung Literatur zuzuordnen ist, wie ist dann ihre Erkenntnisfunktion von Wirklichem, von nicht Fiktionalem/Möglichem, wie bei
den traditionellen Künsten, zu begründen?
Daß die Erkenntnisfunktion von Kunst sich ausdrücklich von „anderen
erkenntnismäßigen Formen“ unterscheidet, betont Croce ausdrücklich (s. S.
59); wie Baumgarten, auf den Croce hier rekurriert, bezieht er sich in erster
Linie auf die cognitio sensitiva, die Erkenntnismittel der Sinne, nicht auf
den Verstand. Doch richtet sich die Erkenntnis der Kunst nach Croce
selbst nicht auf die Gegenstände der wirklichen, sondern der möglichen,
nicht vorgefallenen oder existierenden Welt. Croce löst sein sich selbst
gestelltes Problem, indem er generell die „Kunst in das Reich der Erkenntnis“ (s. S. 59) einordnet und somit auch der Erzählung Erkenntniszwecke
zubilligt. So kann Croce einerseits Geschichte als narrative Darstellung von
wirklichem Einzelnen im Gegensatz zur nomologisch-begriff liehen (abstrakten) Erkenntnisfunktion in den Naturwissenschaften definieren, und
andererseits der Geschichtsschreibung trotz ihres Kunstcharakters Erkenntnis von Wirklichem zubilligen. Das Erzählen der Geschichte(n) ist
für Croce Darstellungsmittel, um Tatsachen zu ordnen. Dazu bedient sie
sich der künstlerischen Mittel der „Verdichtung“ und „Vertretung“; im
Gegensatz aber zu anderen Kunstgattungen ist ihr Inhalt nicht Mögliches,
sondern real Seiendes, in der Geschichte Vorfindbares.
Wie ist dann aber der erkenntnisfördernde Charakter von Geschichtsschreibung zu retten, wenn - wie schon Aristoteles in der Poetik sagte - die
Historie gerade deswegen, weil sie mit Zufälligem und nicht mit Notwendigkeiten zu handeln hat, unwissenschaftlich, d.h. unphilosophischer als die
Dichtung ist? Seinerseits definiert Croce nun die Aufgabe der mit künstlerischen Mitteln vorgehenden Geschichtsschreibung als aktualisierende Vergegenwärtigung des Vergangenen. Da die Einheit und Zweckgerichtetheit
des historischen Prozesses für Croce im Gegensatz noch zu Ranke und den
Historisten des 19. Jahrhunderts weder durch göttliche Provenienz, noch
durch materialistische oder idealistische Fortschrittstheorie gesichert ist,
muß der Sinn und die Zweckmäßigkeit der Geschichte nicht in ihr selbst
gesucht werden, sondern durch das Erzählen von Geschichten erst konstruiert werden. Diesem Programm, die Erzählstrukturen von Geschichte
in ihrer vom Historiker darzustellenden Sinnhaftigkeit und Ganzheit zu
erörtern, sind dann weitere Abhandlungen Croces gewidmet.
Interessant macht diesen hier wieder vorgelegten Versuch Croces vor allem
seine mögliche Aktualität in Bezug zur gegenwärtig verstärkt geführten
Rezensionen zum Thema
Grundlagendiskussion in der Geschichtswissenschaft. In diesem Sinne
möchte der Herausgeber diese Schrift wohl in der Diskussion zwischen
Historik, Hermeneutik und analytischer Geschichtstheorie (z.B. Danto)
eine der Hegeischen Tradition stark verpflichtete Position zu Gehör bringen, die von Croce als Gegenargument gegen den aufkommenden Antihistorismus und Positivismus und zu einem Zeitpunkt formuliert wurde, als
zum ersten Mal der naive Glaube an die methodischen Grundlagen der
Geschichtswissenschaft des letzten Jahrhunderts ins Wanken gerieten. In
diesem Zusammenhang und in Analogie zur Aktualität der Methodendiskussion ist diese Abhandlung immer noch lesenswert.
Hinzuweisen ist an dieser Stelle noch, daß neben dem Haupttext noch begleitende kleinere Abhandlungen Croces dem Band beigegeben sind, die
den Gesamtkontext seiner Geschichtstheorie der 90er Jahre aufhellen. Die
wissenschaftliche Gediegenheit der philosophischen Bibliothek wird auch
dadurch unterstrichen, daß dem Band (was nicht immer selbstverständlich
ist) ein Namens-Personenregister angefügt ist, und ebenso eine kurze
biographische Notiz und ein aktualisiertes Literaturverzeichnis in dem Band
zu finden sind, die den wissenschaftlichen und studienmäßigen Gebrauch
beträchtlich erhöhen und zu weitergehenden Studien anregen.
Ralph Marks
Benedikt Köhler:
ÄSTHETIK DER POLITIK
Stuttgart 1980 (Klett-Cotta-Verlag)
Dieses hier uns vorliegende Werk des Autors stellt den Abdruck seiner
Tübinger Dissertation zum Thema: Adam Müller und die politische Romantik dar. Die Beschäftigung mit diesem kontroversen Thema hat eine
lange Rezeptions- und Wirkungsgeschichte. Auf die Auseinandersetzung
mit den ästhetischen Grundprinzipien der politischen Romantik und auf
ihre politischen Folgen im Vormärz verweist der Autor am Anfang seines
Werkes, indem er sich ebenso kritisch mit bisher in der Forschung vorherrschenden negativen Bild Müllers bei Karl Mannheim beschäftigt. Müller,
Protagonist der politischen Romantik, ist bis heute durch sein staatstheoretisches Hauptwerk: „Die Elemente der Staatskunst“ (1809) in Erinnerung
geblieben. Da der Autor in erster Linie aus germanistischer Sicht sein The-
Rezensionen zum Thema
ma behandelt, steht naturgemäß die Beziehung Müllers zur deutschen Romantik, zu Tieck, den Gebrüdern Schlegel, Novalis u.a. im Vordergrund.
Erwähnenswert in der vom Autor versuchten Korrektur und Richtigstellung des Adam Müller-Bildes sind die Bezüge von Müller zu Kleist, zu
Clausewitz und zur späten katholischen Romantik gezogen werden.
Der achtenswerte Versuch des Autors Verfälschungen, Irreführungen und
Verzeichnungen Müllers durch seine späteren Gegner zu entlarven und
richtigzustellen, sind erhellend, wenn auch die detaillierteren Aussagen des
Autors zu sehr das Bemühen in den Vordergrund treten lassen, das „richtige“ Müller-Bild gegen alle bisherigen „falschen“ in der Rezeptionsgeschichte vorherrschenden auszuspielen. Nicht alle zeitgenössischen und späteren
Urteile, z.B. von Heine und Mannheim, sind so grundlos und verzeichnet,
wie uns der Autor nahelegen will. Im ganzen ist die Studie aber lobenswert
in ihrem Bemühen, die ästhetische Übertragung romantischer Auffassungen
auf die Staatstheorie dieser Zeit herauszuarbeiten, wobei sich dann auch
berechtigterweise von einer Ästhetisierung der Politik und des Krieges
sprechen läßt. Was man an der Studie schmerzlich vermißt, ist ein genaueres Eingehen auf den zeltgenössischen Hintergrund von Ästhetik, politischer Theorie, Ökonomie und anderer Gebiete, wie er leider nur im Medium Adam Müller prismenartig hindurchscheint, wie überhaupt die ganze
Arbeit zu sehr auf Müller und von Müller her konzipiert ist. Solange die
Studie immanent im Kontext von Müllers Denken operiert, sind interessante Erläuterungen und Neuigkeiten zu erfahren.
Leider sind die für Müllers theoretische Position und deren notwendiger
historischer Einschätzung relevanten Bezüge, z.B. zu Fichte, Schelling,
Gentz u.a., zu wenig in der Arbeit berücksichtigt worden. Neben einigen
ärgerlichen Druckfehlern und Fehleinschätzungen, z.B. von Heeren (s. S.
40), fällt die Geringe der verarbeiteten Sekundärliteratur für den wissenschaftlichen Gebrauch der Studie ins Gewicht. Wenn schon Adam Smith,
Hegel, die historische Rechtsschule oder andere für die damalige Zeit relevante Theoriepositionen zur Erläuterung herangezogen werden, hätte man
sich eine Auseinandersetzung mit den neueren Forschungen zu diesen
Themen gewünscht. Wer sich aber über die politische Romantik und über
ihren Hauptprotagonisten Adam Müller informieren will und keinen allgemeineren Anspruch an die kritische Erhellung dieser Epoche im Ganzen
stellt, wird mit Gewinn Köhlers Arbeit lesen und selbst erstaunt feststellen,
wie aktuell auch heute noch die von der Romantik angesprochenen Fragestellungen und ihre Antworten zu Politik, Ökonomie und Staatstheorie
Rezensionen zum Thema
sind.
Ralph Marks
Petra Jäger und Rudolf Lüthe (Hrsg.):
DISTANZ UND NÄHE. Reflexionen und Analysen zur Kunst der
Gegenwart
Würzburg 1983 (Königshausen + Neumann)
Diese Aufsatzsammlung ist Walter Biemel zum 65. Geburtstag gewidmet.
Als Heidegger-Schüler sah Biemel seine Aufgabe - zunächst als Ordinarius
für Philosophie an der RWTH Aachen, später als Lehrstuhlinhaber für
Philosophie an der Staatl. Kunstakademie / HfbK Düsseldorf - in der Entwicklung einer Phänomenologie und Philosophie der Kunst.
Der vorliegende Band „vereinigt 15 Beiträge zu diesem Themenbereich,
die von seinem hochverehrten Lehrer Martin Heidegger, von seinen Freunden und Wegbegleitern und von seinen Schülern verfaßt wurden. Der Titel
‘Distanz und Nähe’ kennzeichnet einerseits das ambivalente Verhältnis von
Kunst und Philosophie/Wissenschaft, andererseits die problematische
Beziehung des zeitgenössischen Betrachters zur Kunst der Gegenwart“ (S.
9). Auf dem Weg „zu den Sachen selbst“, wie es die vielzitierte Maxime
Husserl ‘scher phänomenologischer Methode fordert, kommt zuerst Heidegger selbst zu Wort. Das Manuskript zu seinem Vortrag mit dem Thema
„Die Herkunft der Kunst und die Bestimmung des Denkens“ (Athen 1967)
ist hier erstmalig veröffentlicht. Im Dreh- und Angelpunkt seiner Ausführungen steht eine These Nietzsches (S. 15):
„Nicht der Sieg der Wissenschaft ist
das, was unser 19. Jahrhundert auszeichnet, sondern der Sieg der wissenschaftlichen Methode über die Wissenschaft.“
(Der Wille zur Macht n 466)
Diese paradigmatisch an den Naturwissenschaften orientierte Methode
kennzeichnet für Heidegger die vorausgeprägte Denkhaltung, welche durch
ihre Fixierung auf Berechenbarkeit und experimentelle Überprüfbarkeit in
der Behandlung ihrer Gegenstände sich begrenze, gleichsam isoliere und in
Rezensionen zum Thema
ihrer entwickelsten Form, der Kybernetik, schließlich den Unterschied
zwischen Maschine und Lebewesen völlig negiere.
Für die Kunst stellt sich im Anschluß daran die Frage, ob sie sich in diese
letztendlich technokratische Daseinsbewältigung als Funktionsträger einordnen lassen will oder muß, oder ob und wie sie sich ihre radikale Subjektivität und Originalität nicht nur bewahren, sondern - über ihre Verbindung
zum Denken und zur Sprache - auch einen Erkenntnisanspruch erheben
kann, der dem beängstigenden Eingezwängtsein des Menschen in die
scheinbaren Unausweichlichkeiten des modernen Lebens (bis hin zur atomaren Selbstzerstörung) entgegentritt, indem er den Weg freimacht zur
Etablierung einer praktischen Vernunft, wie sie Husserl zu definieren begonnen hat.
So beschreibt G. Funke im abschließenden Aufsatz, wie, über eine erneute
wissenschaftstheoretische Reflexion, die zu gewinnende, eigentlich wissenschaftliche, nämlich phänomenologische Methode definiert werden könnte,
und daß sie ihre Konsistenz nur sichern kann über das „rhapsodisch schauende, assoziierende Verfahren“ (S. 313), wie wir es im künstlerischen Umgang mit der Welt vorfinden. Von der Kunst wäre somit zu lernen, praktisch jeweils unvermeidbare Normierungen von Sprache und damit auch
von Wahrnehmung (und umgekehrt) in Frage zu stellen und aufzubrechen.
Damit ist ein Verhältnis von Sprache zu Sprachkunst (dem Dichterischen)
und Wahrnehmung zu bildender Kunst beschrieben, das seinerseits weitertreibt zu einer Klärung des Verhältnisses von Wahrnehmung bzw. sinnlicher Erkenntnis zu Sprache bzw. Denken. Folgerichtig schließt sich daher
an den einleitenden Vortrag von Heidegger eine Diskussion des Heideggerischen Sprachbegriffs durch F.W. v. Hermann an, der in seinem Heideggerischen Sprachstil m.E. wichtige Gedanken allerdings unnötig verschleppt.
Wer das Französische nur ungenügend oder gar nicht beherrscht, kann
von dem darauffolgenden Aufsatz von J. Taminiaux allenfalls verstehen,
daß es um das Erbe Hegels, insbesondere der Ästhetik, bei Heidegger
geht. (Eine knappe Skizzierung der wesentlichen Gesichtspunkte wäre angesichts der insgesamt sehr sinnreichen Reibung der Beiträge wünschenswert und würde die bis zu dieser Stelle recht strapazierten Nerven des
Nichtspezialisten schonen.)
Bruno Liebrucks geht dann noch einmal auf Hegel, aber auch auf Kant
zurück, um, am Beispiel von Werken Hölderlins und Kafkas, die Kunsttheorie Konrad Fiedlers ausführlich darzustellen.
Über eine Problematisierung des Wahrnehmungsbegriffes durch L. Landgrebe, die sich ähnlichen wissenschaftlichen Erkenntnissen anschließt wie
Rezensionen zum Thema
die vergleichbaren Untersuchungen der kritischen Psychologie (Holzkamp,
Leontjew), und eine vage Eingrenzung der Begriffe Phantasie und Assoziation gibt, wird die Verallgemeinerung des Themas von A. Diemer in ihrer
weiteren Ausdehnung hin zu einer Phänomenologie der Kultur systematisch gegliedert. Sie bietet eine gute Orientierung für eine theoretische Auseinandersetzung mit der phänomenologischen Richtung, vor allem hinsichtlich ihrer absoluten Forderung nach Ideologiefreiheit und ihrer relativen
Abstinenz, was die konkrete Durchsetzung einer zukunftsträchtigen Kulturpolitik betrifft.
Mögliche Inhalte und Ansatzpunkte einer solchen Kulturpolitik werden in
den weiteren Beiträgen, vor allem von Schülern Biemels, ebenso benannt
wie die zu fordernden Konsequenzen für Kunstsoziologie (H.P. Thurn)
und Kunstkritik (R. Lüthe). Die Besprechung einzelner Kunstwerke (Hofmannsthais „Idylle“ von H. Schwerte, die Skulpturen Anthony Caros von L.
Dittmann und eine „Situation“ George Segais von Peter Rezek) sind sehr
instruktiv, und im Zusammenhang des Ganzen wichtige Beispiele für einen
Zugang zu moderner Kunst.
Richard Wisser schließlich sieht im Tanz die Verbindung auch zu eher
volkstümlichen Erlebnisbereichen und stellt über Rhythmus und den Maßstab des menschlichen Körpers eine Verbindung zu Musik und Architektur
her, was, wenn auch nur angedeutet, den Reigen phänomenologischer
Kunsttheorie abrundet.
Hajo Bahner
Alexander von Pechmann:
KONSERVATISMUS
IN
DER
GESCHICHTE UND IDEOLOGIE
BUNDESREPUBLIK.
Rezensionen zum Thema
Frankfurt/Main 1985 (Verlag Marxistische Blätter)
Seit etwa Mitte der siebziger Jahre konservative Ideologien in den westlichen Ländern vordringen, ist, wenn auch mit erheblicher Verzögerung, die
Konservatismusforschung in der Bundesrepublik intensiviert worden. Die
Resultate dieser Forschung sind jedoch sehr kontrovers. So sieht Jürgen
Habermas im amerikanischen Neokonservatismus das Wirken von enttäuschten, ehemals liberalen Denkern und Politikern, während der Neokonservatismus in der Bundesrepublik das Erbe der Weimarer Jungkonservativen angetreten habe. Kurt Lenk hebt dagegen im gegenwärtigen Konservatismus der BRD den technokratischen Charakter hervor. Indem er diese
These, die Martin Greiffenhagen für den Konservatismus der späten sechziger Jahre vertritt, auf den Konservatismus der späten siebziger Jahre überträgt, gibt Lenk zu erkennen, daß er keine wesentlichen Entwicklungen des
Konservatismus feststellen kann. Für diesen technokratischen Konservatismus sei eine Entpolitisierung der Politik und eine Entideologisierung der
Massen kennzeichnend.
Während diese Versuche trotz aller Detailfreudigkeit insofern an der Oberfläche haften bleiben, als sie weitgehend auf die Zeugnisse konservativer
Theoretiker und Politiker beschränkt bleiben, hat es die marxistische oder
die an Marx orientierte Forschung insofern leichter, als es ihr möglich ist,
den Konservatismus an einem, sein eigenes Selbstverständnis überschreitenden Maßstab zu messen: geistige und politische Bewegungen gelten ihm
als Ausdruck von materiellen, ökonomischen Interessen. Die Gefahr
dieses Ansatzes liegt allerdings darin, daß die vielfältigen, oft sich widersprechenden Strömungen innerhalb des Konservatismus allzuleicht nivelliert werden, und nur solche konservative Strömungen gesehen werden, die
als mehr oder minder direkter Ausfluß der jeweiligen ökonomischen Verhältnisse erkennbar sind. Ein Beispiel dafür ist eine Schrift von Leo Kotier
aus dem Jahre 1964, in der er keinen grundsätzlichen Unterschied zwischen
dem englischen, amerikanischen und deutschen Konservatismus festzustellen vermag.
Weitaus gelungener sind von dieser Seite die Arbeiten von Ludwig Elm. Er
versteht unter dem Konservatismus eine historisch gewachsene, in sich
äußerst heterogene Strömung der politischen Ideologie, die die historischklassenmäßigen Existenzbedingungen überlebter, volks- und fortschrittsfeindlicher Klassen, Schichten und Gruppen reflektiert und die Interessen
und Bestrebungen solcher Kräfte in weltanschaulich-ideologischer, pro-
Rezensionen zum Thema
grammatischer und politischer Hinsicht prononciert zum Ausdruck bringt.
Im Unterschied zu anderen klassischen politischen Ideologien wie etwa
Liberalismus oder Sozialismus ist die Heterogenität für den Konservatismus
wesentlich. Während sowohl Liberalismus als auch der Sozialismus an bestimmte Klassen gebunden sind, war der Konservatismus die Ideologie der
feudal-aristokratischen Kräfte vor 1848, der bürgerlich-nationalliberalen
Reaktion unter Bismarck und des wilhelminischen Imperialismus. Wie
schwierig jedoch die Erforschung dieses ebenso schillernden, sich stetig
wandelnden, ein Bündel verschiedener ideologischer Richtungen in sich
einschließenden Formation ist, erwähnt Elm, wenn er nach über zehnjähriger Konservatismusforschung in einem im vergangenen Jahr erschienenen
Buch schreibt, dass die Einbeziehung der massenwirksamen, klerikalkonservativen Richtungen sich als sehr schwierig erwiesen habe. Er verweist im
wesentlichen auf noch zu leistende Forschungsarbeit.
Das vorliegende Buch von Alexander von Pechmann ist ein Beitrag, diese
Lücke zu schließen. Von Pechmann – Mitherausgeber dieser Zeitschrift legt mit dieser Veröffentlichung die erste größere Arbeit nach seiner Dissertation über die Kategorie des Maßes in Hegels Wissenschaft der Logik vor.
Er hat sicher das von Elm ausgearbeitete Konservatismusverständnis im
Auge, wenn er seiner Analyse zugrunde legt, daß der Konservatismus „der
jeweils theoretisch-ideologische Ausdruck der Interessen der herrschenden
Klasse unter den sich historisch ändernden Voraussetzungen und Bedingungen“ (25 f.) sei.
Pechmann leitet sein Buch mit einer - leider viel zu kurz geratenen - Skizze
zur Geschichte des Konservatismus im 19. und 20. Jahrhundert ein. (So
wird der Kulturkampf, in dem sich der Konservatismus preußischprotestantischer Prägung für lange Zeit gegenüber dem katholisch geprägten Konservatismus durchsetzt, nicht einmal erwähnt.)
Ausführlicher dagegen wird im historischen Teil auf die Geschichte dieser
Weltanschauung in der Bundesrepublik eingegangen.
In der unmittelbaren Nachkriegszeit und in den fünfziger Jahren stand das
konservative Denken zunächst unter dem Trauma des Faschismus, später
dann unter dem Eindruck des sogenannten „Wirtschaftswunders“. Daher
erlangte zunächst das vom Existentialismus beeinflußte Denken einige
Bedeutung. Die Angst des Menschen sei der Ausdruck der epochalen Entfremdung des Menschen von seinem Wesen und Ursprung (Sedlmayr). Die
Klage von der „Entwurzelung des Menschen“ und seiner „Vermassung“
Rezensionen zum Thema
(37) ging um. In der Phase der ökonomischen Prosperität, als sich die
Früchte der sog. „Sozialen Marktwirtschaft“ zeigten, gewann eine andere
Richtung im Konservatismus an Bedeutung. Die Theorie von der „Industriegesellschaft“, in den USA zuerst entwickelt, schien die Wirklichkeit der
Bundesrepublik eher widerzuspiegeln. Allerdings mußte diese Theorie den
bundesrepublikanischen Verhältnissen angepaßt werden. Es wurde ein
anthropologisches Fundament unterlegt. Der Mensch als Mängelwesen
bedürfe der Technik und der Institutionen, um existieren zu können (A.
Gehlen). Mit der Theorie von der Industriegesellschaft einher ging die Entideologisierung der Politik: An die Stelle von gruppen- und klassenbezogenen Interessen trat der wertfreie Sachzwang.
Mit der krisenhaften Entwicklung der Bundesrepublik verlor diese Variante
des Konservatismus seine Überzeugungskraft. Bisher eher verborgene Divergenzen im konservativen Lager traten deutlicher hervor. Während die
eine Seite den durch die Krise hervorgerufenen Legitimationsverlust durch
ein Zurückdrängen von demokratischen Elementen zu kompensieren versucht (z.B. E. Franzel, A. Mohler), versuchen auf der anderen Seite jüngere
Politikwissenschaftler wie etwa R. Altmann oder Hans Maier einen „demokratischeren“ Weg: Die Pluralität, d.h. die vorhandenen gegensätzlichen
Interessen werden nicht geleugnet“; aber sie versuchen, diese gegensätzlichen Interessen auf gemeinsame sittliche Werte hin zu verpflichten.
Begünstigt durch die politischen Niederlagen der konservativen Parteien,
setzt sich dieser Streit in den siebziger Jahren fort. Lebendig schildert
Pechmann den Vorgang, wie sich innerhalb des konservativen Lagers die
Richtung durchsetzt, die Staat und Gesellschaft auf einen ontologisch begründeten Wertekanon aufgebaut sehen wollen. Die altkonservative Fraktion ebenso wie ein reformwilliger Teil der CDU traten in den Hintergrund.
In der Auseinandersetzung um die einzelnen Grundwerte, fand die CSU
zuerst „ihren“ Grundwert in der „Freiheit der Person“. Die „Solidarität“
und die „Gerechtigkeit“, die bei der CDU zunächst noch die „Freiheit“
flankierten, wurden unter der Leitidee eines „zur Freiheit geborenen Menschen“ subsumiert. Diese geistige Orientierung ging einher mit der Umorientierung der Kapitalverbände von der Wirtschaftskonzeption des Sozialpaktes zwischen Kapital und Arbeit zu einer sog. neoklassischen Wirtschaftskonzeption. Pechmann zeigt, daß diese Politik, die in den fünfziger
Jahren für Kapitalzuwachs, Vollbeschäftigung und Lohnsteigerung sorgte,
unter den veränderten wirtschaftlichen Rahmenbedingungen vielleicht den
Interessen des Kapitals, nicht mehr aber den Interessen der Lohnabhängi-
Rezensionen zum Thema
gen entsprechen kann.
Die Ideologie vom ersten Grundwert Freiheit erhielt in der Bundestagswahl
1980 eine Niederlage. Innerhalb der CDU wurde jetzt daran gearbeitet, den
Grundwert Freiheit in den Rahmen einer „Gesellschaft mit menschlichen
Gesicht“ zu stellen.
Im zweiten Hauptteil geht Pechmann auf die theoretischen Implikate des
gegenwärtigen Konservatismus ein. Da jeder Konservatismus nach Pechmann mit dem Fehlschluß operiere, aus der empirisch konstatierbaren Existenz der gesellschaftlichen Herrschaftsverhältnisse auf ihre überzeitliche
Gültigkeit zu schließen, sei der Konservatismus letztlich gezwungen, eine
Letztbegründung in der Existenz eines transzendenten Wesens zu suchen.
Versuche eines G.-K. Kaltenbrunner oder eines H. Lübbe, konservative
Positionen ohne Religion zu begründen, hält Pechmann für inkonsequent.
Das Bestimmende in der Entwicklung des bundesdeutschen Konservatismus sei nun, daß das ontologische, an der mittelalterlichen Scholastik orientierte Denken die beherrschende Stellung errungen habe.
Normativ-ethische Werte, die sogenannten Grundwerte, sind dem Willen
des einzelnen Menschen entzogen und stehen im demokratischen Willensbildungsprozeß nicht mehr zur Disposition. Nicht mehr das Volk ist Souverän über sich selbst, sondern es ist an einzelne Prinzipien gebunden, die
mit der von Gott gegebenen Seinsordnung gegeben seien.
Der erfolgreichste Versuch, diese Ideen als überhistorische, ewige Sozialprinzipien zu begründen, ist die katholische Soziallehre. Mit der Übernahme
der Subsidiarität - das gesellschaftliche Ordnungsprinzip der katholischen
Soziallehre - in die Programmatik der konservativen Parteien, ist es dem
politischen Klerikalismus gelungen, sich im Konservatismus maßgeblich zur
Geltung zu bringen.
Pechmann hat mit diesem Buch einen neuen Akzent in der Konservatismusforschung gesetzt. Allerdings beschränkt er sich doch zu sehr auf die
beiden Parteien von CDU und CSU. Die weitverzweigten Ausläufer außerhalb dieser Grenzen geraten kaum noch in den Blick. Die Heterogenität, ein
wesentliches Charakteristikum des Konservatismus, verblasst vor allem im
letzten Hauptteil zugunsten von derjenigen Variante, die sich gegenwärtig
durchgesetzt hat. Diese Konzentration auf die zur Zeit dominierende Richtung im konservativen Lager kann den falschen Eindruck erwecken, dass
der Konservatismus sich von Etappe zu Etappe zu einem einheitlichen
Rezensionen zum Thema
Konzept durchringen würde, hinter dem sich alle anderen Richtungen verflüchtigen. Gerade die gegenwärtigen Entwicklungen im konservativen
Lager zeigen, daß ein ständiger Kampf um Positionen im Gange ist.
Trotzdem ist die Konzentration auf diese katholische Variante des Konservatismus insofern entschuldbar, als damit eine wichtige Lücke in der Konservatismusforschung geschlossen wird. So ist diesem Buch durchaus eine
zweite Auflage zu wünschen; bei dieser Gelegenheit könnte der Verlag dann
auch das lücken- und fehlerhafte Personenverzeichnis korrigieren.
Martin Schraven
Max Raphael:
WIE WILL EIN KUNSTWERK GESEHEN SEIN? „THE
DEMANDS OF ART“
Mit einem Nachwort von Bernd Growe - Herausgegeben von Klaus
Binder.
Frankfurt/Main und Paris 1984 (Qumran-Verlag)
Innerhalb einer vierbändigen Edition von kunsttheoretischen Schriften Max
Raphaels bildet die deutsche, kritisch kommentierte Ausgabe von „Demands of Art“ die methodisch reifste und gewichtigste Arbeit. Das Buch
könnte einen Mangel beheben helfen, an dem nicht zuletzt die deutsche
Kunstwissenschaft Schuld trägt. Max Raphael wurde als einer der engagiertesten und scharfsinnigsten Vertreter des Faches von ihr bis heute nicht zur
Kenntnis genommen. Die Gründe dafür liegen auf der Hand. Seine besonderen Anstrengungen, Kunstwerke jenseits stilkritischer und ikonographischer Einseitigkeiten aus einer umfassenden Analyse ihres künstlerischen
Schaffensprozesses heraus verstehen zu wollen, eignete sich
für den Ideologiebedarf weder des gängigen Kunst- noch Wissenschaftsbetriebes. Dagegen versuchte Raphael seit den frühen 20er Jahren das Wesen
der künstlerischen Arbeit innerhalb des materiellen Produktionsprozesses
zu bestimmen und in seinen Eigentümlichkeiten zu exemplifizieren. Ziel
war es ihm stets, dieses Eigentümliche so weit wie möglich aus dem Index
seiner Gesetzmäßigkeiten zu erklären.
Die relative Autonomie des Kunstwerks sollte begreifbar werden als ein
schöpferisches Modell dessen, was man als Künstler u n d Betrachter
unter bestimmten historischen Bedingungen sehend u n d wissend zur
Anschauung bringen konnte. Daß er dabei das Kunstwerk zu wenig für den
Rezensionen zum Thema
aktuellen politischen Kampf um bessere Lebensverhältnisse verpflichten
wollte, trug dem Marxisten Raphael bald auch die skeptische Distanz materialistisch denkender Fachkollegen ein. Als der Einzelgänger und Außenseiter 1952 im New Yorker Exil starb, war der größere Teil seines Werks
noch unveröffentlicht. Seine fragmentarische und für Vertragszwecke konzipierte Gestalt kam auch posthumen Editionen lange nicht entgegen.
In „Wie will ein Kunstwerk gesehen sein?“, entstanden zwischen ca. 1930
und 1950, demonstriert Raphael an fünf Beispielen der europäischen Malerei, was eine „empirische Kunstwissenschaft auf schaffenstheoretischer
Grundlage“ im einzelnen wie im ganzen zu leisten hätte. An Gemälden von
Cezanne, Degas, Giotto, Rembrandt und Picasso geht er fünf verschiedenen Fragestellungen nach und beantwortet sie nach dem gleichen methodischen Prinzip.
Den Anfang macht die Betrachtung von Cezannes „Mont Saint-Victoire“.
Künstlerische Kategorien wie Linie, Raum, Farbe und Licht werden hier im
Hinblick auf die natürlichen Seheindrücke eines Stücks Landschaft und auf
deren Neuorganisation im Bildfeld des Malers analysiert. Indem diese Kategorien aber nicht als bloße Einteilungsgrößen fungieren, sondern als in sich
geschlossene und einander bedingende Wirkungsgrößen gesehen werden,
entfaltet Raphael seine Beschreibungen ganz in der Nähe des malerischen
Vorganges. Weniger Cezannes eigene Äußerungen dienen dabei der empirischen Absicherung als die aus dem objektiven Bildresultat herausgefundene
und zu einem wohlgeordneten Prozeß des Sehens neuangeordnete Logik
der anschaulichen Formen. Cezannes Leitvorstellung der „Realisation“
(Umgestaltung des natürlich Sichtbaren seiner neu eingesetzten Symbolik)
wird so für den Betrachter zum eigenen Erlebnis erhoben. Freilich kommt
alles darauf an, daß die Übersetzung von Einzelform und Formbeziehung,
schließlich der ganzen Formgestalt in exakte, messende Ausdrücke der
rationalen Sprache (Blicklinie, Trefflinie, Schnittebene, Achsenabstand,
Helldunkelgrade etc.) für den rezeptiven Akt ähnlich viel leisten kann, wie
die künstlerischen Darstellungsmittel zuvor für ihren produktiven Akt.
Genau dieser Transfer macht in dieser wie in den anderen Studien die besondere Stärke Raphaels aus.
Deutlicher noch tritt sie in den Abschnitten über Degas und Giotto zu
Tage. Bei Degas werden drei Druckzustände einer Radierung miteinander
verglichen, bei Giotto zwei verwandte Sujets auf ihren entwicklungsgeschichtlichen Abstand hin befragt. Gegenüber den entweder physiogno-
Rezensionen zum Thema
misch oder strukturalistisch zusammenfassenden Beschreibungsformen
anderer zeitgenössischer Formanalytiker (Schmarsow, Wölfflin, Sedlmayr)
operiert Raphael in einer durchgängig sich ausweisenden Systemlogik. Die
Schritte sind so eng gesetzt, daß die notwendigen historischen Erklärungen
gelegentlich keinen Platz mehr zu finden scheinen. In solchen Momenten
fällt Raphael gegenüber seinem eigenen Totalitätsanspruch zurück. Es hilft
nichts: Mögen sich auch die Seh-Reflexions- und Gestaltungsformen des
späten 19. und frühen 20. Jahrhunderts noch ohne größeren Zwang aufeinander abstimmen lassen - wenn Giottos Gemälde des frühen 14. Jahrhunderts nur rein phänomenologisch angegangen werden, wird der Anspruch
auf vollständige Erklärung haltlos. Zwar ist nach wie vor beeindruckend,
was Raphael für die Augen zu artikulieren vermag. Aber der wissenschaftliche Anspruch, die alten Bilder für heutige Geister zu erklären, wird in dem
Maße unerfüllbar, wie gesellschaftliche Struktur und deren in die Bildformen eingehende Reflexionen nicht mehr aus ein und demselben Beschreibungszugriff zu gewinnen sind. Die Welt des 14. Jahrhunderts kommt nicht
dadurch in den Bildern zum Aufscheinen, daß man figurale Kraftlinien mit
Horizontschnitten, Helldunkel-Verschiebungen und Vertikal-Rhythmik
bildlogisch zu vereinheitlichen weiß.
Allerdings ist sich der Marxist Raphael durchaus im Klaren darüber, was
Geschichte ist, und was zum Zweck ihrer Darstellung vonnöten ist. Er zeigt
auch in der Studie zu Picassos „Guernica“, daß das Hineinreichen der historischen Wirklichkeit in die Bilder ebenso intensiv nachzuzeichnen wäre
wie die Möglichkeit des „Sehens“, er hält sich nur nicht immer an diese
Einsicht.
Picassos „Guernica“ gibt ihm die Möglichkeit, auch Qualitätsfragen durch
Formanalyse zu entscheiden. Die Art und Weise, wie er hier Brüchen zwischen Intention und Verwirklichung nachspürt, muß nicht das letzte Wort
der Guernica-Kritik darstellen, läßt aber immerhin ahnen, wie Ideologiekritik mit der Systematik einer „empirischen Kunstwissenschaft“ zusammengehen könnten.
Auf einen anderen Mangel muß noch hingewiesen werden. Die vierte Studie über eine Rembrandt-Zeichnung ist nämlich nicht nur die subtilste,
sondern leider auch die spitzfindigste. Nicht die Fragestellung: Was erbringt
eine Illustration gegenüber ihrer Textvorlage an eigener Wirklichkeit?, bereitet hier Schwierigkeiten, sondern das sonst so Gelungene, das „Schaffenstheoretische“. Indem Raphael einer flüchtigen und vorläufigen Bildidee
einen Vollkommenheitsmaßstab auferlegt, nehmen seine Beobachtungen zu
Rezensionen zum Thema
Einzelform, Werkgestalt und Komposition einer kleinen Federzeichnung
etwas unerwartet Willkürliches und Zwanghaftes an. M.E. überzieht er
hier die Beschreibungsmöglichkeiten. Ihr Aufwand rechtfertigt nicht die
daraus zu ziehenden Schlüsse - und umgekehrt: das wichtige Resultat (Zeitlichkeit im Erzählvorgang) basiert nicht notwendig auf den vorausgehenden
Beschreibungen. Raphael offenbart an einem Randexempel, daß er der
Gefahr, die er sonst kritisiert, auch selbst erliegen kann: an e i n e m Werk
zu „entdecken“, was man in Wahrheit aus v i e l e n Werken erschlossen
hat.
Festzuhalten bleibt: Raphaels Studien zu einer „empirischen Kunstwissenschaft“ gehören zum Besten, was man derzeit über das Spannungsverhältnis
Formwirklichkeit - Sprachmöglichkeit im Kunstwerk lesen kann. Auch wer
mit dem Ansatz der Schaffenstheorie nicht einverstanden ist, dürfte hier
mehr als in vergleichbaren Texten zu „sehen“ bekommen.
Ernst Rebel
Hans-Jörg Sandkühler und Hans Heinz Holz (Hrsg.):
ÖKOLOGIE - NATURANEIGNUNG UND NATURTHEORIE
DIALEKTIK 9
Köln 1984 (Pahl-Rugenstein, 243 S., DM 19,80)
Die krisenhafte Zuspitzung ökologischer Probleme und die fortschreitende
Zerstörung der Umwelt führte in den letzten Jahren zu ungezählten „ökologischen“ Publikationen verschiedenster Provenienz. DIALEKTIK 9
untersucht anhand einer materialistischen Philosophie- und Wissenschaftskonzeption die sozialen Ursachen der ökologischen Krise, wobei sich zeigt,
„daß nur auf dem Weg tiefgreifender sozial-ökonomischer Veränderungen
sowie einer Beschleunigung und gleichzeitigen Neuorientierung (Ökologisierung) des naturwissenschaftlich-technischen Fortschritts sich eine Lösung zeigt“. Der vorliegende Band geht in seinen Beiträgen davon aus, daß
ohne Reflexion der Geschichtlichkeit des gesellschaftlichen Naturverhältnisses eine theoretische Erfassung der Ursachen des Mensch-NaturGegensatzes eine theoretische Lösung und eine praktische Bewältigung
unmöglich ist. Dreh- und Angelpunkt der Beiträge des ersten Abschnitts
„Naturverhältnis und Gesellschaftsformation“ ist die Analyse der Auseinandersetzung zwischen den Menschen und der Natur im Arbeitsprozeß
als gesellschaftlich determiniertem Naturprozeß (Stoffwechsel) in den ver-
Rezensionen zum Thema
schiedenen historischen Gesellschaftsformationen“ (Editorial). Auf dieser
Grundlage werden im zweiten Abschnitt „Ökologie - Status, Geschichte,
Theorie“ über Geschichte und Status der theoretischen Ökologie diskutiert.
1. Abschnitt:
Naturverhältnis und Gesellschaft
Walter Hollitscher, Naturwissenschaftler und Philosoph in Wien, legt in
seinem Beitrag „Vom Gegenstand und Nutzen der Naturdialektik“ die erste
von 50 Vorlesungen zur Naturdialektik vor, gehalten an der Berliner Humboldt-Universität 1949. Er entwickelt darin Fragen der theoretischen wie
praktischen Naturaneignung, der Dialektik von Entgegensetzung und Einheit und der Beziehung von Naturwissenschaft und Naturphilosophie (Naturdialektik), wobei er die „Thesen der materialistischen Philosophie (als)
die Grundthesen der modernen Wissenschaft“ ausweist (26).
Hans Heinz Holz weist in seinem Beitrag darauf hin, dass sowohl „die
romantische wie die positivistische Einstellung zu Wissenschaft und Technik komplementäre Reaktionen darstellen auf eine wirkliche Ambivalenz im
Naturverhältnis des Menschen“ (31), die heute offensichtlich eine Verschärfung erfährt. Um heute das Problem der Produktivität und Destruktivität zu
lösen, fordert er einen an Marx orientierten Naturbegriff und eine ontologische Bestimmung des menschlichen Naturverhältnisses (eine materialistische Dialektik der Natur).
Anschließend formuliert der sowjetische Wissenschaftler Iwan Prolow eine
„Konzeption der globalen Probleme“, deren Charakter sich aus „der Internationalisierung der Produktion und des gesamten gesellschaftlichen Lebens, die unter dem Einfluß der gegenwärtigen wissenschaftlichtechnischen Revolution ein ungeahntes Ausmaß angenommen haben“ (44),
sowie aus dem Prozeß antagonistischer Gesellschaftssysteme ergibt. Einen
Ausweg sieht Frolow allein in der internationalen Zusammenarbeit.
In seinen „Thesen zur Genese und Perspektive kapitalistischer MenschNatur-Beziehungen“ untersucht Karl Hermann Tjaden die „gesellschaftliche Produktivkraft und ökonomische Gesellschaftsformation“ in der industriellen und agrarischen Revolution und folgert daraus, daß „die Produktivkraft einer Gesellschaft (als) längerfristiges, gesainträumliches Verhältnis
von gesellschaftlich verfügbarer (lebendiger und vergegenständlichter) Arbeitskraft und gesellschaftlich erzielter (aneignender und erneuender) Naturnutzung zu begreifen ist, was nur die Kehrseite der Naturbeherrschung
Rezensionen zum Thema
durch diese Gesellschaft ist“ (65). Den existierenden sozialistischen Produktionsweisen wirft Tjaden daher zurecht vor, daß sie kapitalistische Produktionstechnologien fetischisieren, i.e. nicht als spezifisch kapitalistische
Produktivkraft begriffen zu haben, und damit auch den Mensch-NaturGegensatz „ererbten“.
Gernot Böhmes Artikel „Die Reproduktion von Natur als gesellschaftliche
Aufgabe“ dreht sich um die Frage des (Grund-) Rechts auf Natur/Umwelt;
er exemplifiziert sie anhand des Paragraphen 341 der Bayrischen Verfassung (1946) und der Prinzipien der Konferenz der Vereinten Nationen über
Umweltprobleme in Stockholm (1972), und schlußfolgert „die Möglichkeit
einer Umweltgesetzgebung ..., (so) daß Produktionsprozesse zugleich als
Prozesse der Reproduktion von Natur anzulegen sind, Konsum mit entsprechender Reproduktionsarbeit ins Gleichgewicht zu bringen ist“ (82).
Gerhard Würth unternimmt in seinem Beitrag eine systematische Untersuchung der Umweltprobleme sozialistischer Länder aus der Spezifik ihrer
„konkret-historischen und natürlichen Bedingungen ...; dem kapitalistischen
Erbe ...; und der systemimmanenten Probleme“ (86 f.). Für ihn sind im
Sozialismus grundsätzlich die Voraussetzungen für einen rationellen Umgang mit der Natur gegeben, wobei aber erst sowohl ein neues Verhältnis
zur Natur als auch ein neues Produktivkraftsystem zu schaffen wäre, „das
eine ‘Ökologisierung’ der Produktion erlaubt“ (88).
Der Soziologe Horst Paucke und der Philosoph Adolf Bauer (beide
DDR) sehen die Naturaneignung als ein zur wirtschaftlichen Entwicklung
konvergentes Ziel (Einheit von Ökonomie und Ökologie), da „die sozialistische Intensivierung des volkswirtschaftlichen Reproduktionsprozesses die
Möglichkeit bietet, die dialektische Einheit von Ökologie und Ökonomie zu
verwirklichen, da nur eine effektive Volkswirtschaft die benötigten materiell-technischen, finanziellen und sonstigen praxiswirksamen Voraussetzungen für die bewußte Umweltgestaltung schaffen kann und da gleichzeitig die Erhaltung und Verbesserung der natürlichen Umwelt die elementare
Grundlage für ein stabiles, dynamisches und dauerhaftes Wachstum (!)
bilden, das im Interesse der kontinuierlichen Entwicklung des materiellen
und kulturellen Lebensniveaus der Menschen liegt“ (105) - dixi et salvavi
anirnam rneam!
2. Abschnitt:
Ökologie - Status, Geschichte, Theorie
Rezensionen zum Thema
Edgar Gärtner versucht den Status der Ökologie im System der Wissenschaften in Analogie zu Medizin und Ökologie zu bestimmen. Die Analogie
liegt für ihn in der heute praktizierten kurativen, statt der notwendigen
präventiven Anwendung; Ökologie und Medizin müßten nach dem Vorsorgeprinzip alternative gesellschaftlich-natürliche Reproduktionszusammenhänge entwerfen. Dadurch „wäre Ökologie dann unmittelbar mit den
gegensätzlichen Naturnutzungsinteressen der Hauptklassen der bürgerlichen Gesellschaft konfrontiert und könnte es kaum vermeiden, offen für
die eine oder andere Seite Partei zu ergreifen“ (115) - Ökologie als „subversive Wissenschaft“.
Gerhard M. Müllers „Ansichten zur Geschichte der Ökologie“ stellt eine partielle - begriffsgeschichtliche Darstellung zu ‘Ökologie’ in Ansätzen her;
und Jean-Marc Drouin (Paris) verdeutlicht in seinem Beitrag das erkenntnistheoretische Modell, „das die Integration und Koordination der Untersuchungen der Vegetation, der Fauna, der Mikroorganismen, der Stoffkreisläufe usw. und ihre gegenseitige Abhängigkeit erlaubt“. Die Schwierigkeit
besteht für ihn darin, „die Ökosysteme ohne die menschlichen Gesellschaften zu untersuchen und trotzdem den oft entscheidenden menschlichen
Einfluß zu berücksichtigen „ (135).
Den Abschluß des zweiten Abschnitts bildet Engelbert Schramms Artikel
über „Die Rolle der theoretischen Ökologie bei der Erforschung der sozial
konstituierten Natur“ (Konflikt und Perspektiven). Er resümiert, daß die
mangelnde Integration von natur- und sozialwissenschaftlichem Wissen
(soziale Naturwissenschaft) „keinen fundierten Beitrag zur Bestimmung
künftiger Mensch/Natur-Verhältnisse liefern kann“ (147).
Nachfolgend kommen Bemerkungen zu Capra: „Ökologie als Paradigma
einer ‘spirituellen’ Einheitswissenschaft?“ von Michael Springer und ein
Beitrag von Winfried Wessolleck zum „Gesellschaftlichen Werte- und
Bewußtseinswandel in der ‘ökologischen Philosophie’“, anhand von M.
Maren-Grisebach, A. Gorz, W.D. und C. Hasenclever.
Unzweifelhaft haben die ökonomischen Strukturprobleme – die Mißverhältnisse in der sachlichen, räumlichen und zeitlichen Verteilung von
Produktivvermögen und Beschäftigten sowie von Investition und Konsum
- als auch die ökologischen Strukturprobleme - die Mißverhältnisse zwischen der Auspressung der Arbeitskraft und der Vergeudung von Stoffen
und Energien sowie zwischen der Ausplünderung der Natur und der Verfügbarkeit von nützlichen Gebrauchswerten - ein und dieselbe Wurzel: Sie
Rezensionen zum Thema
vermitteln die Herrschaft der Kapitalverwertung über die lohnabhängige
Arbeit und somit den Gegensatz zwischen der wertmäßigen Bereicherung
des Kapitals und der gebrauchswertmäßigen Verarmung von menschlicher
Arbeitskraft und außermenschlicher Natur. Die Veränderung der Besitzverhältnisse aber, die Form der Aneignung des Mehrprodukts und der politischen Machtverhältnisse einerseits, das Fortwirken kapitalismusspezifischer
„technologischer Produktionsstrukturen“
(CzesklebaDupont/Tjaden) andererseits, führt nicht aus sich heraus zu Produktionsverhältnissen, in denen der Widerspruch zwischen Natur und Gesellschaft
(zwischen Ökologie und Ökonomie) aufgehoben ist. Hier verlieren sich
manche produktiv-marxistische Ansätze in einer Legitimationswissenschaft
(-Philosophie). Hervorzuheben seien diesbezüglich vor allem Hollitschers Aufsatz sowie Wessollecks Kritik „grüner Philosophie“. Allein die
Fülle des Materials und die Verschiedenheit der Themen (vor allem im
zweiten Abschnitt) machen das Buch zur lesenswerten Lektüre.
Hans Mittermüller
Wolfgang Schirmacher:
TECHNIK UND GELASSENHEIT
Freiburg, München 1983 (Alber-Verlag)
„Technik und Gelassenheit“ betitelt Wolfgang Schirmacher seine Zeitkritik
nach Heidegger. Damit ist, wie mit dem Rekurs auf Schopenhauer, ein
Bezugsrahmen angedeutet, der geeignet ist, Vorurteile zu wecken.
Dennoch, das Buch erzeugt Betroffenheit, wenn man mit den Problemen
vertraut ist, man möchte es nicht einfach aus der Hand legen, schließlich ist
der tiefe Ernst des Verfassers sichtbar, ahnbar.
Wie schon Adorno und Horkheimer versuchten, die Aufklärung mit allem
daraus erwachsenen Getriebe für Auschwitz mit verantwortlich zu machen,
so wird auch bei Schirmacher die grundlegende Metaphysik unserer Daseinsweise angegriffen, erläutert.
Neu sind die Versuche nicht, wenn man auf Oswald Spengler zurückgreift,
der vor 50 Jahren über den Menschen und die Technik philosophierte, und
die Raubtiermentalität unserer Gattung mit dem Zwang zum Untergang in
damals aktueller Manier beklagte, oder bewunderte?
Mit dem Begriff: konservatives Denken, Verzicht auf Wissenschaftlichkeit
ist W. Schirmacher allein nicht beizukommen. Es steckt Wahrheit und Resignation zugleich in der Analyse. „Das Sein selbst gefährdet sich in uns.
Rezensionen zum Thema
Daran können wir nicht das geringste ändern“ (S. 24).
Schirmacher unterbreitet eine Fundamentalkritik:
„Allerdings ist es nun diese Technik, mit der davon geprägten Wissenschaft,
Politik und Wirtschaft, die einen Weltzustand hervorruft, der unser Überleben in Frage stellt. Der tägliche Blick in die Zeitung beweist dies zur Genüge“ (S. 13). „Die Umweltkrise verlangt eine Technologie, die über den Menschenverstand geht“ (S. 256). „Wir sind Herren über verbrannte Erde und
Subjekte der Zerstörung“ (S. 221).
Welches „Wir“ meint W. Schirmacher? Den Werftarbeiter, der keine Schiffe
mehr bauen kann, die Schreibkraft, die durch Textautomaten ersetzt wird,
den durch Computer abgelösten Technischen Zeichner? Wenn Philosophen
doch nicht immer mit so schwerem Geschütz aufwarten würden!! Gute
Tradition angelsächsischer Sprachphilosophie lehrt, dunklen Sinn zu
vermeiden und Begriffe auf Reichweite zu überprüfen. Wieviele Menschen
haben denn Gelegenheit, zum Subjekt nur ihres eigenen Lebens aufzusteigen? Aufklärung fand doch nur in Büchern statt.
Daß nach dem 2. Weltkrieg Rüstungsausgaben explodierten, ist richtig,
aber doch kein Seinsgeschick, kein „Geschick“ der Technik!!
Eine alte, koloniale Welt brach zusammen, alte Konflikte wurden durch
neue ersetzt, durch immer noch politische, nicht technische. Die Wahnsinnslogik der Abschreckungs- und Sternenkriegs-Theoretiker ist keine
allgemeine des aufgeklärten Menschen. Schirmacher rechnet auch da wieder
als allgemeines Denkniveau ab, was nur entscheidende Instanzen sich zu
eigen gemacht haben.
Wo wird bei uns Denken gefördert? Wer wagt heute Erziehung zum Ungehorsam? Die von Schirmacher zitierten Zeitungen bringen Horrormeldungen als Aufreißer für Verkaufszahlen, sie fragen doch nur in wenigen Fällen
nach Ursachen. Daß unsere Medien frei sind, glauben hoffentlich nur noch
wenige Leute.
Schirmacher fordert in dieser Situation „Gelassenheit“.
„So heißt es in der Mitte des tobenden Unheils ruhig zu werden, Abschied
zu nehmen von dem, was bisher Mensch hieß ...“ (S. 233). Schirmacher
versucht, uns aus einem gängigen Paradigma herauszulotsen. Fehler technischer Verfügung über Natur wieder durch technische Eingriffe heilen zu
wollen, heißt in dieser Perspektive, den Teufel mit dem Beizebub austreiben
zu wollen.
Gibt es eine andere Weise des menschlichen Lebens als die mit Autos,
Atomkraftwerken, verdreckten Meeren und sterbenden Wäldern?
Rezensionen zum Thema
Schirmacher sieht den Untergang dieser Zivilisationsform, die sich wie
Krebs über die Erde verbreitet hat. So versucht Schirmacher eine Ahnung
davon zu geben, wie sich die herrschende Technik als „Todestechnik“ von
einer „Lebenstechnik“ überwinden ließe.
Ein gesellschaftliches Paradigma lebt solange, wie es Erfolge im Umgang
anbietet. Wir erleben zunehmendes Scheitern der „Zweckrationalität technischer Verfügung“ (Habermas), die Suche nach Neuem ist deshalb angezeigt.
Wer Techniker ist, wird sich schwer diesen neuen Blickwinkel, den Sinn
eines anderen Paradigmas erarbeiten können. Man kann Schirmachers Buch
sicher als Fülle von Beschwörungsformeln begreifen, die zu einer Veränderung der Sichtweise beitragen sollen. In diesem Sinne sollte man Brücken
bauen zu fremder Rede, der man so lange Aussagekraft zubilligen soll, wie
das Gegenteil nicht bewiesen ist.
Trotzdem: Warum stellt Schirmacher nicht die Frage nach dem Zusammenhang zwischen Technik und Herrschaft? Die Zwecke, die Größe und
die Art der Technik sind immer Ausdruck von Macht. Wenn uns die Technik Unheil beschert, dann sind es in Wahrheit die Mächtigen.
Wolfgang Teune
Alfred. Schöpf. (Hrsg.):
PHANTASIE ALS ANTHROPOLOGISCHES PROBLEM
Würzburg 1981 (Königshausen + Neumann)
Für den Leser einer Münchner Zeltschrift für Philosophie dürfte diese Aufsatzsammlung schon nicht zuletzt deshalb von besonderem Interesse sein,
weil neben den Autoren um den Würzburger Herausgeber Schöpf (G. Bittner, A. Kessler, P. Prechtl, A. Waschkuhn) vor allem Münchner Wissenschaftler vertreten sind (A. Altmann, W. Henckmann, H. Ottmann, A.
Pieper, E. Zeil-Fahlbusch); daß diese München-Würzburger Phalanx Anfang (D. Kamper, Berlin) und Ende (A. Lorenzer, Frankfurt) gewissermaßen von außen empfängt, muß nicht mehr sein als Zufall, trotz der Feststellung des Herausgebers im Vorwort, daß - bezüglich der thematisch geordneten Reihenfolge der einzelnen Beiträge - keine lineare Abfolge
beabsichtigt sei, sondern „hier wie bei allen komplexen Phänomenen die
Hegelsche Einsicht (gilt), daß das Ende der Gedankenentwicklung stets
wieder in den Anfang mündet.“
Rezensionen zum Thema
Als Band l einer Reihe „Studien zur Anthropologie“ erwartet den Leser
anhand des Begriffs „Phantasie“ eine rekapitulierend-kritische Auseinandersetzung mit der Geschichte der sog. „philosophischen Anthropologie“
vom deutschen Idealismus über Kierkegaard, Nietzsche, Freud bis hin zu
Scheler und vor allem Gehlen. Es handelt sich also um den Versuch, die in
Erkenntnistheorie, Psychologie, Soziologie, aber auch in der Literaturwissenschaft oder Biologie verstreuten Ansatzpunkte einer sich interdisziplinär
verstehenden Anthropologie als mehr oder weniger kritische Anknüpfung
an die Konzeption Gehlens zusammenzubringen.
Phantasie wäre dann eine zentrale Kategorie einer in diesem Rahmen zu
entwickelnden „Phänomenologie des individuellen Geistes“, wie Ottmann
Gehlens Theorie nennt (S. 161). (Dieser, vielleicht unbeabsichtigte, ‘kategorische’ Anspruch führt m.E. dazu, daß einige Aufsätze sich z.T. in undurchschaubar komplizierten Gedankengängen und Diskussionen verlieren
und so die beklagte einzelwissenschaftliche Befangenheit eher widerspiegeln
als auflösen. Darüber kann auch der oft beträchtliche Umfang der herangezogenen Literatur nicht hinwegtrösten, wenn er auch dem Leser wenigstens
die Chance gibt, begriffliche Unklarheiten später zu klären.)
Eingespannt in die Frage, inwiefern der Einzelne von Phantasie sozusagen
ereilt wird (bis hin zur Neurose), inwiefern aber andererseits Phantasie - im
Sinne von Einbildungskraft oder Vorstellungsvermögen - notwendige Voraussetzung für schöpferisches Handeln ist, rücken handlungs- und institutionstheoretische Probleme ins Blickfeld.
Positiv gewendet wäre Phantasie so das jeweils individuelle Gegenstück zu
einer veränderten künstlerisch-wissenschaftlichen Kultur der Gegenwart,
wie sie in „Distanz und Nähe“ umrissen wird (siehe S. 120). Mit dem Abstand von vier Jahren muß man jedoch konstatieren, daß sich der Begriff
Phantasie selbst bislang nur bedingt als tragfähig erweist. Allerdings scheint
mir die vorliegende Einengung und in weiten Teilen gelungene Präzisierung
eine brauchbare Grundlage zu sein für einen sinnvollen Umgang mit
„Phantasie“ in den aktuellen Auseinandersetzungen um „Utopie“ und „Arbeit“ (vgl. z.B. WIDERSPRUCH 1/84). Gerade der Bezug zur Arbeit
kommt leider nur marginal zur Sprache, so daß die kühne These, hier träfe
sich Nietzsche mit Freud und Marx (Altmann, S. 122), sehr unvermittelt im
Raum stehen bleibt.
Hajo Bahner
Rezensionen zum Thema
W. H. Schrader:
ETHIK UND ANTHROPOLOGIE IN DER ENGLISCHEN
AUFKLÄRUNG
Hamburg 1984 (Meiner-Verlag)
W.H. Schrader interpretiert die Entwicklung der Theorie des ‘moral sense’
als den Versuch der englischen Aufklärung, eine in der frühen Neuzeit
entstandene Problemsituation zu überwinden, die dadurch gekennzeichnet
war, daß der Zusammenhang zwischen dem Wissen um das Gute und dem
Tun des Guten fragwürdig geworden sei. Locke hatte Handlungen, die aus
unmittelbarem Interesse an Selbsterhaltung erfolgen und das Glück des
einzelnen befördern, nur hinsichtlich des intendierten Zieles als ‘gut’ bezeichnet; als in sich selbst gut und tugendhaft aber nur solche, die um der
ewigen Seligkeit willen getan werden. Das Wissen um Tugend begründete
so nicht notwendigerweise das Interesse, ihr gemäß zu handeln.
Ein angemessener Begriff von sittlicher Einsicht konnte sich daher nicht auf
theoretisches Wissen beschränken, sondern mußte im Zusammenhang mit
Reflexionen über die ‘Natur’ des Handelnden thematisiert werden.
Schrader zeigt die Entfaltung dieser Theorie, die beide Momente - die Begründung sittlicher Einsicht Im Rückgriff auf einen moralischen Sinn und
die Bestimmung der ‘Natur des Menschen’ - als komplementär auffaßt. So
entwickelte Shaftesbury in Anlehnung an Platon und die Stoa einen Ethikbegriff, der Tugend als die Verwirklichung eines durch die Natur gesetzten
Zweckes verstand. ‘Moral sense’ ist für Shaftesbury ein elementares, ‘angeborenes’ Wissen um Gut und Böse, über das der Mensch aufgrund seiner
Zugehörigkeit zum Gesamtsystem der Natur verfügt.
Akkurat und differenziert verfolgt die Studie die Weiterentwicklung und
den Wandel dieser Theorie bei Hutcheson und Butler, die im wesentlichen
von Mandevilles’ ‘Bienenfabel’ angeregt wurde. Im Gegensatz zu Shaftesbury hatte jener behauptet, daß nur die Negation naturhafter Bestimmung bei Mandeville die ‘Selbstliebe’ - zu Tugend führe. Die Untersuchung
schließt ab mit der eingehenden Betrachtung von Humes Ethik, worin
Schrader aufzeigt, daß der Begriff des ‘moral sense’ durch den Versuch,
Ethik auf eine empirische Basis zu stellen, letztlich überflüssig wird.
Einfühlsam und genau zeigt der Autor die Entwicklung der englischen
Moralphilosophie vor dem endgültigen Durchbruch des Utilitarismus; sorgfältig und deutlich gegeneinander abgegrenzt werden die Positionen der
genannten Theoretiker bestimmt. Gleichwohl kann man sich des Eindrucks
nicht erwehren, als hätte all dies Denken in gänzlicher Weltenferne stattge-
Rezensionen zum Thema
funden. In abgeriegelten Kammern sitzend, schienen die Philosophen sich
zu antworten: Shaftesbury auf Bayles Skeptizismus, Mandeville auf Shaftesburys Optimismus usw. Ein Zusammenhang zwischen politisch-sozialem
Geschehen und philosophischer Theoriebildung scheint für Schrader, wenn
nicht inexistent, so zumindest uninteressant zu sein.
Das gleiche wie für den historischen gilt für den geistesgeschichtlichen
Kontext. Ein Begriff wie die ‘Natur’ des Menschen, der in seiner Vieldeutigkeit für das ganze 18. Jahrhundert bestimmend blieb, wird eingeführt,
ohne mit dem Naturbegriff der mathematischen Naturwissenschaften korreliert zu werden.
So verweist zwar der Titel von Schraders Arbeit auf die englische Aufklärung; was aber das Spezifische am Denken dieser Periode ist, kommt m.E.
trotz aller Gelehrsamkeit und Brillianz der Studie zu kurz.
Angelika Felenda
Albrecht Wellmer:
„ZUR DIALEKTIK VON MODERNE UND POSTMODERNE“
Frankfurt/Main 1985 (Suhrkamp-Verlag)
Mehr als der Titel zeigt der Untertitel der Aufsatzsammlung („Vernunftkritik nach Adorno“) die Tendenz an, mit der die Auswahl der publizierten
Texte erfolgte. Drei der vier Essays Wellmers beschäftigen sich explizit mit
dem Werk Th.W. Adornos. Er resümiert darin, was an der Rationalitätskritik, die sich im Umfeld der Frankfurter Schule ausgebildet hatte, heute noch
(oder schon wieder) aktuell ist. Nicht zufällig bildet dabei die „Ästhetische
Theorie“ den Dreh- und Angelpunkt der Auseinandersetzung. Formulierte
sich doch in ihr ein ultimatives, der Moderne verpflichtetes Programm.
Wellmer konfrontiert, speziell in dem an der „Maison des Sciences de
l’Homme“ 1984 gehaltenen Vortrag, die Kritische Theorie mit Positionen,
wie sie von den Vertretern einer ‘postmodernen Philosophie’ geltend gemacht werden.
Der Begriff der ‘Postmoderne’ selbst erlebte in den letzten Jahren eine
geradezu inflationäre Verbreitung. Seit seiner Prägung im Lager der konservativen Politikwissenschaft wird er zunehmend im Bereich der bildenden
Künste, Architektur und der Philosophie gebraucht. Mit dem Resultat, daß
kaum einer noch zu sagen vermag, was inhaltlich in ihm steckt. Es ist A.
Wellmer beizupflichten, wenn er den Begriff ‘Postmoderne’ mit einem
Rezensionen zum Thema
Vexierbild vergleicht. Einerseits suggeriert er die, mit romantischem Pathos
aufgeladene Verurteilung der Rationalität. Zugleich deutet sich durch ihn
die Möglichkeit an, an einer selbstkritischen Konzeption der Aufklärung
festzuhalten, genauer, Aufklärung über die Aufklärung zu betreiben. Für
Adorno und seine Epigonen war trotz aller Kritik am begriffs- bzw. identitätslogischen Denken die Überzeugung leitend, daß Rationalität dieses vermag. Selbst dann noch, wenn die entfaltete Vernunft eine ist, welche durch
den Begriff über den Begriff hinausgeht.
Mit solchen Prämissen brechen speziell die französischen Theoretiker der
Postmoderne und der „posthistorie“. Sie rekurrieren auf lebensphilosophische Termini („Strom des Begehrens“, „Intensität“) und beabsichtigen eine
„affirmative Ästhetik“. Da es, nach ihrem Diktum, keinerlei Regeln oder
Begründungszusammenhänge gibt, kommt es nur darauf an, das „Jetzt“ in
seiner Vielgestaltigkeit zu erfassen. Auffallend ist dabei die Nähe zu Argumentationslinien der neueren Wissenschaftstheorie wie der eines P. Feyerabend, dessen Sinn- und Wissenschaftskritik dahin geht, künstlerische und
wissenschaftliche Tätigkeit gleichzusetzen.
Und in der Tat macht die Verwendung postmoderner Termini im ästhetischen Bereich Sinn. Wellmer verweist zurecht darauf, daß auch bei Adorno
die Kunst der Ort ist, an dem sich die „Dezentrierung“ der Subjekte in der
modernen Gesellschaft am eindeutigsten ausdrückt. An dieser Stelle seines
Entwicklungsganges versucht Wellmer eine Verbindung der modernen
(Adorno verpflichteten) und postmodernen Position. Er tut dies durch
einen Rückgriff auf die Spätphilosophie L. Wittgensteins, von der er sich
eine Rekonstruktion des Sinnkriteriums erhofft. Da, so Wellmer, die identitätslogische Grundlage Adornos durch die berechtigte postmoderne Kritik
obsolet geworden ist, kann nur noch die Möglichkeit eines Pluralismus der
Lebensformen und Sprachspiele in Betracht kommen: Vernunft konstituiert
sich temporär in ihren jeweiligen Diskurskontexten. Eine über sich aufgeklärte Aufklärung hat dem Versuch einen „alles umschließenden Metadiskurs“ zu konstruieren, abzuschwören.
So richtig für mich der Verweis auf die Unmöglichkeit eines in sich abgechlossenen Theoriegebäudes ist, so skeptisch stimmt mich das Unternehmen
Wellmers, durch das Einsetzen von Begriffen wie „Sprachspiel“ und „Lebenswelt“ diesen Mangel auszugleichen. Zu groß ist die Gefahr, daß sich
konkrete Problernkonstellationen in einer impressionistischen l’art pour
l’art-Philosophie auflösen. Und darüber hinaus: eine Lebenswelt ist so gut
wie die andere. Wie aber erklärt sich dann der Umstand, daß faktisch die
Rezensionen zum Thema
eine über die andere dominiert? Es spricht für Wellmer, die von mir angedeutete Problemstellung zumindestens zu konstatieren. Die aufgeklärte
Philosophie der Postmoderne bleibt fragmentarisch: „Die Postmoderne,
richtig verstanden, wäre ein Projekt. Der Postmodernismus aber, soweit er
wirklich mehr ist als eine bloße Mode, ein Ausdruck der Regression oder
eine neue Ideologie, ließe sich am ehesten noch verstehen als eine Suchbewegung, als ein Versuch, Spuren der Veränderung zu registrieren und die
Konturen jenes Projektes schärfer hervortreten zu lassen“ (A. Wellmer).
Thomas Wimmer
Bernd Witte:
WALTER BENJAMIN
Reinbek b. Hamburg 1985 (Rowohlt-Verlag)
Es wäre unangemessen, vorbehaltlos systematische Maßstäbe biographischer Werkerschließung an einführende Bereitstellungen biographischen
Materials anzulegen, wie sie mit dem verlegerischen Konzept der Rowohltmonographien vorgesehen sind. Wittes Arbeit über Walter Benjamin allerdings kann aus zwei Gründen kaum anders als unter Veranschlagung von
Gesichtspunkten systematischer Deutung eingeschätzt werden. Zum einen
zeigt die Arbeit in Teilen systematische Tendenzen, die dem Blick auf eine
breitere Leserschaft nicht gerecht werden können. Zum anderen vermittelt
sie in Teilen ein pointiertes Benjaminbild, das einer systematischen Deutung
nicht standhält, gleichwohl aber auch im Feld der verwendeten Darstellungsmittel nicht überprüfbar ist. Um Mißverständnissen vorzubeugen, sei
angemerkt, daß hier nicht Gesichtspunkte wissenschaftlicher Biographien
gegen eine eher popularisierende Einführung in das Werk eines Autors
ausgespielt werden sollen. Einer im Blick auf ein breites Adressatenfeld
geschriebenen Einführung sollte als Maßstab wichtig sein, weder durch
Spezialistentum noch durch erzwungene Glätte eine weitere Auseinandersetzung mit dem Dargestellten zu gefährden. Bernd Wittes Benjaminbiographie trägt Züge der Arbeit eines Spezialisten, der sich im Unspezialisierten versucht. In den verschiedenen Teilen der Biographie kommt dies mit
jeweils ungleichem Anteil zum Ausdruck.
In den Kapiteln, die sich auf das Frühwerk und die Jahre bis 1933 beziehen,
geht es Witte um die Frage einer Kontinuität Benjaminschen Arbeitens in
methodischer Hinsicht. Entsprechendes Gewicht wird der Frage beigemes-
Rezensionen zum Thema
sen, in welchem Verhältnis die Kulturphilosophie des sich zum „dialektischen Materialisten“ ‘wandelnden’ Benjamin (65) zu den Anfängen steht.
Der Vergleich gilt vor allem der frühen Romantikarbeit (30 ff.), dem Gedanken einer Konstituierung des Ästhetischen durch ästhetische ‘Ideale ‘
über ein transzendentales Verfahren der ‘Kritik’. Witte schafft vergleichende Bezüge, wenn er im Kapitel über die Jahre 1926 – 1929 schreibt, Benjamins „Politik“ habe die Absicht, „eingreifendes Wissen zu erzeugen“ durch
„Erkennen des rechten Augenblicks für den rettenden Eingriff“ (67). Welcher Leserschaft aber wird die hier angedeutete Analogisierung der Funktion ästhetischer ‘Ideale’ und der geschichtsbildenden Funktion politischer
‘Ideale’ deutlich? Kann solche Deutung überhaupt durch das Darstellungsmittel der Quellendokumentation nachvollziehbar werden? Es sei
darauf hingewiesen, daß die besagten Kapitel inhaltlich eng an eine Arbeit
B. Wittes über Benjamins Frühwerk angelehnt sind (Walter Benjamin, Der
Intellektuelle als Kritiker, Stuttgart 1976).
Als Leitfaden der Benjaminbiographie Wittes kann ein Topos der ‘Suche’
nach einer „Synthese von theologischer und materialistischer“ Weltsicht
(92) herausgestellt werden. Aus Wittes Sicht findet diese ‘Suche’ Abschluß
in Leben und Werk. Die Deutung des Spätwerkes ist vornehmlich durch
diesen Gedanken geleitet. Er kommentiert Benjamins Selbstverständnis zu
Lebensende als das des „dialektischen Materialisten, der ohne Hoffnung auf
und für die Menschen“ „sich der eschatologischen Katastrophe anvertrauen“ müsse (135). Dies ist gleichwohl als Schlußkommentar zum Werk zu
lesen; zu finden unmittelbar vor dem Schlußabschnitt der Biographie, der
sich auf den Suizid des verfolgten Benjamin (1940) bezieht. Die Hybris des
Schlußkommentars zum Werk zehrt mit vom Blick auf ein Lebensende in
Verzweiflung. Es bleibt der Hinweis auf eine - wenn auch negative - heilsgeschichtliche Vision Benjamins.
In B. Wittes Bild des späten Benjamin werden methodische Vorstellungen
(und Schwierigkeiten) Benjaminscher Kulturkritik auf die Krisis einer verinnerlichten „Theologie-Marxismus-Debatte’ hin verengt, im Werk letztlich
beigelegt durch eine versöhnende Metamorphose von Politik und Religion
(134). Die letzten Arbeiten Benjamins, ein Teil der „Passagen“ und die
Thesen „Über den Begriff der Geschichte“ entziehen sich dem exklusiven
Bild jedoch gerade da, wo sie Gegenstand von Bedenken werden, eigener
Bedenken und der anderer. In den Notizen und Vorarbeiten zu den Thesen
„Über den Begriff der Geschichte“ geht es Benjamin in weiten Teilen um
Schwierigkeiten, die das als ‘materialistisch’ verstandene Verfahren der
Umdeutung religiöser und theologischer Tradition betreffen. Benjamin
reflektiert die eigene Tendenz, das Gedankengut solcher Tradition zugleich
Rezensionen zum Thema
reflektiert und in gewisser Weise unmodifiziert zur Geltung bringen zu
wollen.
Benjamins Überlegungen münden in die schwierige apologetische Operation, sich letztlich mit der vermeintlichen Kohärenz ‘falschen Bewußtseins’
zu begnügen. In den Notizen und Vorarbeiten zu den Thesen „Über den
Begriff der Geschichte“ ist zu lesen: „Mag sein, daß die Kontinuität der
Tradition Schein ist. Aber dann stiftet eben die Beständigkeit dieses Scheins
der Beständigkeit die Kontinuität in ihr“ (Ges.Schr., Bd. I, S. 1236). Benjamin sieht eine Freilegung oder Konstruktion profaner Gehalte religiöser
Utopien als Freilegung je schon enthaltener profaner Antworten auf eine
‘schlechte’ Wirklichkeit an. Seine Version ‘materialistischer’ Kulturkritik
grenzt sich damit ab von solchen Positionen, die im Sinne der Marxschen
Religionskritik von einer geschlossenen kategorialen Änderung des Kritisierten über den Weg der Kritik ausgehen. Gerade aber dieses Vertrauen in
die Freilegung impliziter profaner Gehalte der theologischen Tradition hat
Benjamin von Adornos Seite den Vorwurf eines Automatismus der Kritik
eingebracht. Einer der Baudelairearbeiten Benjamins aus dem Umfeld des
Passagenentwurfs warf er vulgärmarxistische Züge vor.
Es soll hier nicht eine Lesart der späten Arbeiten Benjamins für andere
verbindlich gemacht werden. Auch kann nicht von einer einführenden
Biographie die ausführliche Auseinandersetzung mit methodologischen
Kontroversen erwartet werden. Die Theologie-Marxismus-Polarisierung des
von B. Witte vermittelten Benjaminbildes jedoch ist problematisch, weil sie
zu pointiert und zu anspruchslos zugleich ist. Trotz vorbereitender Ansätze
wird der Umstand übergangen, daß in Benjamins Spätwerk Verfahrensfragen ein entscheidendes Gewicht zukommt.
I. Knips
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 145-164
Berichte
Berichte
Anton Friedrich Koch:
Verknüpfende Analyse und deskriptive Metaphysik
Die ersten Kant-Vorlesungen an der Universität München wurden im
Sommersemester 1985 von Sir Peter Strawson aus Oxford gehalten und
standen unter dem Titel 'Analyse und Metaphysik'. Strawsons Metaphysikbegriff war aus seinem Buch Individuals (1959; dt. Einzelding und logisches Subjekt, 1972) bereits bekannt. Er unterscheidet dort zwischen deskriptiver Metaphysik, die sich damit begnügt, „die tatsächliche Struktur
unseres Denkens über die Welt zu beschreiben“, und revisionärer Metaphysik, die das Ziel hat, „eine bessere Struktur hervorzubringen“, und optiert
für die erstere (Einzelding, S. 9). Strawsons Analysebegriff ist nun durch
die Kant-Vorlesungen in seiner theoretischen Funktion und seinem Verhältnis zum Metaphysikbegriff sowohl deutlich umrissen als auch in philosophischer Arbeit exemplifiziert worden.
Die Art der Analyse, die Strawson favorisiert und die positiv auf das Unternehmen der deskriptiven Metaphysik bezogen ist, nennt er verknüpfend
(„connective analysis“) im Unterschied zu den gewöhnlichen Formen der
eliminierenden, definierenden oder zurückführenden Analyse. Wie die deskriptive Metaphysik gegenüber der revisionären, so zeichnet sich die verknüpfende Analyse gegenüber der zurückführenden durch Genügsamkeit
aus. Für die letztere ist das Auftauchen eines zu analysierenden Begriffes im
Analysans ein fehlerhafter Zirkel. Die verknüpfende Analyse hingegen
nimmt Zirkularität in Kauf, vorausgesetzt, daß die Zirkel nicht zu eng sind.
Wer in weitem Kreise geht, so ist die Hoffnung, kehrt belehrt zurück.
Berichte
Vielleicht ist an dieser Stelle ein Beispiel hilfreich. Doch weite Kreise brauchen Platz. Der Zirkel, der hier zur Illustration dienen soll, ist daher enttäuschend eng. Nehmen wir an, es wird folgende Analyse in drei Schritten für
den Ausdruck 'analytisch' selber vorgeschlagen (in Anwendung auf Sätze):
(1) Ein Satz ist analytisch wahr, wenn und nur wenn er wahr ist kraft der
Bedeutungen seiner Termini und kraft logischer Gesetze.
(2) Die Bedeutung eines Terminus A ist das Gemeinsame aller (einfachen oder komplexen) Termini, die mit A synonym sind (Synonymie als
Äquivalenzrelation verstanden.
(3) Zwei generelle (singuläre) Termini A und B sind synonym, wenn und
nur wenn der Satz „(x) (Ax !> Bx)“ (die Gleichung „A=B“) analytisch
wahr ist.
Offenkundig führt das Analysans von (3) zum Analysandum von (1) zurück; der Kreis ist zu eng, um zu belehren. Aber er ist ausbaufähig. Stellt
man ihn sich um einige naheliegende Schritte erweitert vor, in denen Ausdrücke wie 'notwendig', 'möglich', 'Eigenschaft', 'Proposition' und vielleicht auch einige der sog. psychologischen Verben ('glauben', 'beabsichtigen', 'hoffen' usw.) auftreten, so bekommt man ein Gefühl für den Erkenntniswert der verknüpfenden Analyse. Freilich auch für ihre
prinzipiellen Grenzen: Sie ist die natürliche Methode einer Metaphysik, die
sich als beschreibend versteht, und Beschreibung ist im allgemeinen nicht
Erklärung.
Die affirmative Bezugnahme auf die - wenn auch nur als beschreibend
gedachte - Metaphysik war 1959 ein Affront gegen die 'ordinary language
philosophy'. Aber schon damals konstatierte Strawson auch Gemeinsamkeiten. Sie fallen, man ahnt es, unter das Lösungswort 'Analyse'. Die 'ordinary
language philosophy' pflegte die begriffliche Einzelanalyse (nichtzirkulärer
Art, versteht sich; klassisch in der Form von Beschreibungen der Verwendungen von Ausdrücken) und hielt philosophische Theoriebildung für die
Wurzel alles Verkehrten. Strawson empfahl dagegen die deskriptive Metaphysik als eine Art der philosophischen Theoriebildung, die selber nichts
anderes ist als Analyse - „nicht durch die Art, sondern nur durch Umfang
und Allgemeinheit der Fragestellung“ (Einzelding, S. 9) von dem unterschieden, was ordinary-language-Philosophen lieb und teuer war. Wie diese
sich einzelner, isolierbarer Sprachspiele annahmen, so zielt jene auf das eine
große Sprachspiel, auf „die allgemeinsten Grundzüge unserer begrifflichen
Strukturen“ (ebd.)
Berichte
Doch diese Nachbarschaft, die 1959 in England ein guter Leumund sein
mochte, wurde 1985 in München vielfach als Handikap empfunden. Die
vorgetragenen Analysen – nicht nur in den Kant-Vorlesungen, sondern
auch im Seminar, in dem Prof. Strawson einige seiner neueren Arbeiten
vorstellte - ernteten viel Bewunderung (insbesondere für die in der kontinentalen Tradition zu oft entbehrte Sorgfalt im Detail) und wenig Kritik.
Auf Kritik, die dann aber keine rechte Angriffsfläche fand, stieß dagegen
die Strawsonsche Grundsatzentscheidung, die verknüpfende Analyse der
beschreibenden Metaphysik als letzten Horizont philosophischer Methode
gelten zu lassen.
In diesem Zusammenhang ist es bemerkenswert, daß Strawson als Alternative zur beschreibenden Metaphysik allein die revisionäre Metaphysik kennt
oder jedenfalls nennt. Deren Ziel soll es sein, die Struktur unseres Denkens
über die Welt zu revidieren. Für kontinentale Gemüter liegt es auf der
Hand, daß die so konzipierte Alternative eklatant unvollständig ist. Die
Klassiker unserer Tradition hatten meist ein Drittes im Sinn: weder bloße
Beschreibung noch einfache Revision, sondern Ableitung der Struktur
unseres gewöhnlichen Denkens aus ursprünglicheren, grundlegenden und
zugegebenermaßen 'ungewöhnlichen' Strukturen (wobei die Ableitung Kritik und Relativierung des Abgeleiteten beinhalten kann). Dieses Theorieprogramm, für das wir dem deutschen Idealismus dankbar sind, hält Strawson für chancenlos.
Einer anderen Form philosophischer Theoriebildung, die auch nicht recht
unter die Rubriken der beschreibenden und der revidierenden Metaphysik
paßt, schenkt er sehr viel mehr Aufmerksamkeit: der naturalisierten Erkenntnistheorie Quines. Quine war nicht nur das Thema der letzten Vorlesungsstunde, er lieferte auch in den Seminardiskussionen häufig die Kontrastfolie zu Strawsons eigenem Ansatz. Wohlbekannt ist Quines naturalistische These, daß es keinen Standpunkt außerhalb des Gesamtsystems
der Einzelwissenschaften gibt, auf dem sich eine artverschiedene erste Wissenschaft als Philosophie etablieren könnte. Geht man nun das Gesamtsystem gewissermaßen von 'innen' nach 'außen' durch, so wird man als Subsysteme zunächst die Logik, die Mathematik, die theoretische Physik vorfinden, später u.a. die Biologie und noch später die Psychologie. („Physics
investigates the essential nature of the world, and biology describes a local
bump. Psychology, human psychology, describes a bump on the bump.“
Theories and Things, 1981, S. 93) Die Philosophie jedoch fehlt in dieser
Reihe. Sie hat weder außerhalb noch innerhalb des Systems der wissen-
Berichte
schaftlichen Subsysteme ihren Platz, sie ist vielmehr das Gesamtsystem auf
sich selber gerichtet (Theories and Things, S. 85). D.h. sie ist die wissenschaftliche Beantwortung der Frage: 'Wie ist wissenschaftliche Erkenntnis
möglich?'. (De facto wird freilich in der Philosophie meist nur der revisionsunanfällige Kern der Gesamtwissenschaft - also Logik, Mengenlehre, etwas
Methodologie der empirischen Wissenschaften - auf das Gesamtsystem
gerichtet. Daher ihr relativ apriorischer Charakter.)
In der Folge dieses herben Szientismus sind erhöhte Ansprüche an die
Klarheit und Bestimmtheit der philosophischen Terminologie zu stellen.
Die unkritische Übernahme umgangssprachlich hinreichend bestimmter
Begriffe für die philosophische Theoriebildung wird unterbunden. Ausdrücke wie 'analytisch', 'Bedeutung', 'synonym' fallen, trotz ihrer intuitiven
Eingängigkeit, als Termini technici durch. Sie und ihresgleichen werden von
Quine als wesentlich umgangssprachlich, als unbehebbar theorieunfähig
eingestuft. Ebenso prinzipiell vorwissenschaftlich ist die verknüpfende
Analyse der deskriptiven Metaphysik.
Wer nun aber gehofft hatte, der Strawsonschen Analyse und Metaphysik
mit Quines Naturalismus ein rotes Tuch vorhalten zu können, wurde enttäuscht - und belehrt. Es stellte sich deutlich heraus, daß Strawson und
Quine zu heterogene Ziele verfolgen. Die deskriptive Metaphysik bescheidet sich bewußt mit 'weichem', unbehebbar vorwissenschaftlichem Wissen
und gewinnt so freiere Hand in der Begriffsbildung. Quine hingegen, ohne
im übrigen das weiche Wissen der Umgangssprache zu verachten, sucht in
seiner Rolle als Theoretiker 'hartes', wissenschaftliches Wissen und wirkliche Erklärung. Quine kann Strawsons deskriptive Metaphysik daher wohlwollend tolerieren, solange diese nicht beansprucht, Wissenschaft im strengen Sinne zu sein; und Strawson kann Quines naturalisierte Philosophie
wohlwollend tolerieren, solange diese nicht beansprucht, alles überhaupt
Sagenswerte in Fragen der Ontologie, Semantik, Erkenntnistheorie und
Philosophie des Geistes bereits sagen zu können.
Die (Umgangs-)Sprache ist Quine zufolge „in Sünde empfangen, und die
Wissenschaft ist ihre Erlösung“ (The Roots of Reference, 1973, § 18). Erlösung ist nicht Ablösung, d.h. die Umgangssprache ist - natürlich - „there to
stay“. Die Wissenschaft samt der wissenschaftlichen Philosophie bildet, um
die Metapher ein wenig zu strapazieren, nur einen heiligen Bezirk inmitten
des Chaos, den wir der Umgangssprache mit anfangs selber umgangssprachlichen Mitteln abringen, um unseren wissensdurstigen Seelen einen
Berichte
Ort der Einkehr und der wahren epistemischen Befriedigung zu bereiten.
Strawson erweist sich im Sinne dieser Beschreibung als hartgesotten in seiner Erlösungsunbedürftigkeit. Aber er verfolgt das immer strebende Bemühen anderer mit Interesse und Sympathie.
Hans Mittermüller:
MARXISMUS VERSUS MARXISMEN:
Zur ideologischen Auseinandersetzung zwischen der Zeitschrift
„DAS ARGUMENT“ mit dem „Institut für marxistische Studien
und Forschungen e.V.“ (IMSF) und der Deutschen Kommunistischen Partei (DKP)
Mit dem Scheitern des sozialdemokratisch-keynesianischen Modells folgt
mit der konservativen Wende eine neue Akkumulationsstrategie und ein
neues Herrschaf tsprojekt, deren ökonomisch-technologische und soziale
Konturen in der Bundesrepublik allmählich sichtbar werden: Basis der
neuen Akkumulationsstrategie ist die Entwicklung und Anwendung sog.
neuer Schlüsseltechnologien (Mikroelektronik, Informationsund Kommunikationstechnik, Biotechnologie, Industrieroboter).
Dieser ökonomisch-technologische Restrukturierungsprozeß führt zu
tiefgreifenden klassenstrukturellen Veränderungen, und zwar bei Kapital
und Arbeit gleichermaßen. Auf Seiten des Kapitals findet eine Umschichtung weg von traditionellen Branchen, aber auch technologischen Großprojekten, hin zu hochinnovativen „schumpeterschen“ Mittelunternehmen,
statt. Auch innerhalb des exportorientierten „Kern''sektors erfolgen Verschiebungen, die nicht nur gewachsene Organisationsstrukturen verändern,
sondern auch die Beziehungen der Kapitalgrößen untereinander. - Auf der
Seite der Arbeiterklasse verstärken sich die Prozesse sozialer Desintegration, die zusammen mit Dauerarbeitslosigkeit und peripheren Arbeitsmärkten die Funktion des neuen Akkumulationsmodells garantieren (sollen).
Damit verbunden nehmen sog. „kulturelle Freisetzungsprozesse“ zu: das
Zerbrechen traditioneller Orientierungen und instrumenteller Neuorientierungen, wachsende Differenzierungen der Lebensweisen, Individualismus
und Selbstverwirklichungsansprüche. Neue soziale Bewegungen bildeten
sich als politisch-ideologische und lebenspraktische Opposition zu herrschenden kapitalistischen und bürokratisch-etatistischen Vergesellschaf-
Berichte
tungsweisen („Zweite Gesellschaft“) heraus. Hinzu kam der auf niedrigem
Niveau entgegengesetzte Widerstand der Arbeiterklasse und ihren Organisationen, sowie der Umgruppierungsprozeß innerhalb der Linken (Esser/Hirsch, 58 f.).
Vor diesem Hintergrund kam es in der Bundesrepublik anläßlich seines 100.
Todesjahres zur geistig-ideologischen Selbstverständigung über Karl Marx.
Im Spektrum der Marx-Rezeption bzw. -Diskussion waren es vor allem
zwei repräsentative Tendenzen, die die Auseinandersetzung bestimmten:
die des „orthodoxen“ Marxismus-Leninismus des „Instituts für marxistische Studien und Forschungen e.V.“ (IMSF), resp. Der DKP und die des
„pluralen Marxismus“ der Zeitschrift für Philosophie und Sozialwissenschaften „Das Argument“.
I.
Unter dem Eindruck der „Krise des Marxismus“ (Althusser 1978) plädierte
H.F. Haug, mit Frigga Haug Herausgeber des 'Arguments', „für die Annahme der Dialektik des Marxismus ..., einer marxistischen Selbstkritik der
vorhandenen Erkenntnisse, Denkmittel und Veränderungsstrategien hin zu
einem plurizentrischen Marxismus“ (Haug 1983, 8 ff.); denn „den Marxismus gibt es nicht, es gibt Marxismen. Der Marxismus existiert in der Mehrzahl“ (Haug 1982, 361). Für ihn kann daher keine Richtung und keine
Partei einen Alleinvertretungsanspruch in Sachen Marxismus erheben, da
„der Polyzentrismus des Weltmarxismus unwiderruflich Wirklichkeit geworden (ist)“ (Haug 1983, 31). Gegen die „autoritären
Staatssozialismen“ (ebd., 10) und den Marxismus-Leninismus, einen „Marxismus, erhoben zur Staatsphilosophie und dadurch zurückgestuft in die
Reihe der Ideologien“ (Haug 1984, 88), unternimmt Haug den Versuch,
„die Dialektik des Marxismus zu denken“:
„... eine dialektische Theorie des Marxismus
wird einem ganzen Spiel von Instanzen Rechnung
tragen, deren Logiken unaufhebbar unterschiedlich sind. Der entscheidende Akzent liegt dann
auf der praktischen Notwendigkeit bzw. auf den
Notwendigkeiten des Marxismus, d.h. auf den
Berichte
großen Problemen der gesellschaftlichen Menschheit, für deren Lösung er gebraucht wird und
in bezug auf die er nichts anderes ist, als die
sozialen Bewegungen, das Wissen, das umfassende Projekt der Lösung jener Probleme ...
Wo seine Formationen gegen die praktischen Notwendigkeiten sich verknöchern, müssen sie früher oder später fallen, nicht ohne zuvor zu
neuartigen Gefängnissen zu werden. Der Rahmen
der 'Lehre' ist selbst nicht Lehre. Lehren, Methoden. Sichtweisen müssen im Rahmen der Verhältnisse, Notwendigkeiten, Gefahren und Hoffnungen aufgefaßt werden, innerhalb dessen der
Marxismus als die konsequenteste und umfassendste Befreiungsbewegung der Arbeitenden und als
das Projekt einer solidarischen und ökologisch
verträglichen Gesellschaft auftritt. Nur ein dialektischer Marxismus ist fähig, weltweit die Dialektik von Universalität und Spezifik in sich
aufzunehmen. Und nur ein Marxismus, der diese
Dialektik in sich aufgenommen hat, ist sowohl
fähig, weit-weit zu werden, als auch über seiner dabei unvermeidlich plurizentrisch gewordenen Realität nicht seinen inneren Zusammenhang
zu verlieren“ (Haug 1984, 89).
Wissenschaftlicher Sozialismus bedingt nach Haug also ein dialektisches
Verhältnis von unterschiedlichen Kräften und Praxisfeldern, z.B. Parteipolitik, Gewerkschaften, Wissenschaften usw., wobei diese Ebenen nicht aufeinander reduziert werden dürfen. Umgekehrt aber darf auch die marxistische Theorie oder Wissenschaft nicht auf den Marxismus reduziert werden,
denn
„die Wissenschaft ist (ein) unabschließbarer Prozeß - wie der (zur) 'Wissenschaft gewordene'
Sozialismus. Dieser Prozeß ist notwendig kontrovers, vielstimmig, vorangetrieben von Divergenzen, von Tendenzen, die gegeneinander selbständig bleiben müssen. Die Logik des wissenschaft-
Berichte
lichen Prozesses ist unvereinbar mit der Logik
hierarchischer Administration von einem Machtzentrum aus, unvereinbar mit der Subordination
unter Logiken der politischen Organisation“
(Haug 1983, 18).
Wissenschaft kann nicht auf Politik reduziert werden (das LyssenkoSyndrom), da auch der zur Wissenschaft gewordene Sozialismus wie eine
Wissenschaft zu behandeln sei. Für den wissenschaftlichen Sozialismus wie
für den Marxismus postuliert Haug einen Typus von Einheit, der die Unterschiede nicht auslöscht; für die
„Handlungsfähigkeit eines Marxismus von morgen
(müßte) den Marxisten billig sein, was den
christlichen Kirchen nach langen Kämpfen recht
war: Die Ausbildung einer marxistischen Ökumene, eine produktive Konvergenz auch in der
Divergenz der unterschiedlichen Marxismen“
(ebd., 31).
Im Sinne von Togliattis „unita nella diversita, der Einheit in der Unterschiedenheit und vollen Autonomie der einzelnen Länder“ und eines „demokratischen polyzentrischen Sozialismus“, entspricht für Haug der Anerkennung des politischen Polyzentrismus der marxistischen Arbeiterbewegung in der Welt die Arbeit an einer Politikstruktur, die einen produktiveren
Umgang mit dem gesellschaftlichen 'Multiversum' im Inneren jedes einzelnen Landes ermöglicht - ein pluraler Marxismus.
„Pluraler Marxismus - ... ist die Anerkennung
der Tatsache, daß es im Weltmaßstab unterschiedliche Ausprägungen des Marxismus gibt. Dies
führt zur Anstrengung, gegen den spontanen
Eurozentrismus anzuarbeiten, sowie den Zusammenhang der 'drei Welten', ihre Wechselwirkung
zu berücksichtigen. Der Marxismus ist vom Hegelschen Hause aus nicht gut vorbereitet für diese
Aufgabe ... Es gilt daher, die ererbten theoretischen Artikulationsmuster zu überprüfen. Der
lebendige Marxismus selbst in ein 'gegliedertes
Ganzes', dessen Einheit nicht einfach gegeben,
Berichte
sondern immer wieder aufgegeben ist ... Ein
Marxismus, der seine Einheit in der Pluralität
immer wieder neu herzustellen gelernt hat, wird
handlungsfähiger sein im Umgang mit den unterschiedlichen gesellschaftlichen Kräften und Fragen ... Pluraler Marxismus (als selbstkritische
Korrektur an der Hede von den ' Marxismen ';
W.F. Haug) hat also eine dreifache Bedeutung,
bezogen auf seine eigene theoretische 'Grammatik ', sein nationales Politikmuster und seine
internationale Stellung ... Seine Aufgabe bezeichnet den Widerspruch zwischen dem Pluralen und
der Einzahl von Marxismus. (Seine) Formel steht
für die Einheit in der Vielfalt“ (W.F. Haug,
Pluraler Marxismus, Vorwort, Berlin 1985).
Ganz im Sinne, den unterschiedlichen Tendenzen des gegenwärtigen Marxismus Rechnung zu tragen, edierte daher Haug die Übertragung des „Dictionnaire critique du Marxisrne“ (Hrsg. Georg Labica, Paris 1981) ins Deutsche, das „Kritische Wörterbuch des Marxismus“ (Berlin 1983 ff.). Der
Marxismus wird in diesem, der Aufklärung verpflichteten, Projekt nicht
vorgestellt als einheitliches, geschlossenes System von Lehren. Vielmehr
geht es um ein marxistisches Verhältnis zu den Begriffen der marxistischen
Theorie, um dem Selbstlauf einer permanenten Erstarrung des Projekts
'Marxismus' mit permanenter Wiederaneignung zu begegnen (Haug 1983 a
u. 1983 b); denn eine „Tilgung von 'Kritik' aus dem legitimen
Bestand 'der Begriffe und Kategorien des Marxismus' (MEGA2
II.5,59+) läuft auf eine Selbstaushöhlung des Marxismus-Leninismus hinaus“ (Haug 1984 a, 909).
II.
Der erste Einwand gegen das Konzept des „Pluralen Marxismus“ kam 1983
von Manfred Buhr, dem Direktor des Zentralinstituts der Akademie der
Wissenschaften der DDR in Berlin. Im Zusammenhang mit der Auseinandersetzung mit der bürgerlichen Ideologie im Marx-Jahr warf Buhr unter
anderem Haug vor, den Marxismus durch seine Pluralisierung zu „ent
Berichte
mannen“ und der revolutionären Arbeiterklasse damit ein selbstmörderisches Angebot zu machen. „Um das Singuläre, das Marx heißt, aus der
Welt zu schaffen, wird für den Marxismus der Singular abgeschafft, für
diesen gibt es nur den Plural“ (Buhr, 656). Er rechnete Haugs Konzept
dem „ideologischen Sumpf“ (ebd., 661) der BRD und Westberlins zu und
betrachtete es als „Fehleinschätzung“, wenn bundesdeutsche Marxisten,
wie Robert Steigerwald und Thomas Metscher, diesem Ansatz eine
„beträchliche Wirkung“ bescheinigten.
Auch von anderer Seite in der DDR sah man im „Argument“ einen Vertreter des „linksbürgerlichen Denkens“ und eine „Nähe zum bürgerlichen
Idealismus“ infolge des Auseinanderreißens verschiedener gesellschaftlicher
Bereiche (Ökonomie, Politik, Ideologie), wobei letztlich dem Ideologischen
der Vorrang eingeräumt würde. „Sie werden - oder sind – damit unfähig,
politisches Handeln wirklich zu orientieren“ (Heppener/Wrona, 518, 523).
Im Unterschied dazu sehen allerdings die Vertreter des IMSF in Frankfurt
in der Auseinandersetzung mit den Positionen des „Arguments“ keine
unangebrachte „Überhöhung von Zufälligkeiten“ (Buhr, 661), sondern
förderten die inhaltliche Auseinandersetzung, die in dem Band von H.H.
Holz (Hrsg.), „Marxismus - Ideologie - Politik. Krise des Marxismus oder
Krise des 'Arguments'?“ (Frankfurt/Main 1964) kulminierte.
In ihrem Überblick über die Haupttendenzen bundesdeutscher MarxRezeptionen wurde im Marx-Jahr seitens des IMSF ein „revisionistischer
Rückwärtsgang beim 'Argument“' (Jung/Schwarz, 352) festgestellt. Heinz
Jung, der Leiter des IMSF, hätte sich von Haug
„etwas mehr Dialektik gewünscht, die ja dann
den Blick für das produktive Verhältnis hätte
öffnen können, ein produktives Verhältnis, das
freilich immer das praktische Engagement, die
offene Parteinahme des Intellektuellen gefordert
hat ... Haug (dagegen) suggeriere letztlich Zerrbilder der kommunistischen Bewegung und des
Sozialismus“ (Jung/Schwarz, 354).
Winfried Schwarz, ebenfalls Mitarbeiter am IMSF, kritisiert an Haug:
„(Seine) Dialektik-Inszenierung (ist) ... eine Anklage gegen Auslegungsmonopole in Sachen Marxismus: gegen den Monopolanspruch einer Partei,
gegen den Monopolanspruch der Form Partei ...
Berichte
ein Angriff auf die Parteiorientierung ... als
Attacke gegen die Praxisorientierung überhaupt,
(da) Haug von der marxistischen Wissenschaft
nicht nur Selbständigkeit, sondern darüber hinaus die vollständige Trennung der Wissenschaft
von der Orientierung an einer politischen Organisation verlange“ (Schwarz, 347 ff.).
Mit „Marx über Lenin und Luxemburg bis Gramsci“ hält Schwarz Haug
ferner entgegen, daß sie die „stets notwendige Offenheit des Marxismus für
neue Probleme nicht verwechselt haben mit Öffnung des Marxismus für
andere, ihm theoretisch und methodisch fremde Strömungen“ (ebd., 350).
Und Hans Jörg Sandkühler fügt hinzu, daß Haug das marxistische Erbe
„nicht als Prozeß und langsame Akkumulation des Reichtums an Erfahrung
und an Wissen wahrgenommen“ habe; „dann liegt es nahe, an die Stelle des
Studiums des Marxismus die Rede von dessen Krise treten zu lassen“
(Sandkühler, 163). Von Seiten der DKP sahen die beiden Parteivorstandsmitglieder Willi Gerns und Robert Steigerwald in Haugs „pluralen Marxismus“ eine Empfehlung zum Relativismus und konstatieren eine „Beliebigkeit oder Unverbindlichkeit“ des Marxismus:
„Haug“, so argumentieren seine Kritiker, „bringt
einfach zwei verschiedene Fragen durcheinander,
die, was Marxismus ist, und die andere, wie
in der Arbeiterbewegung der Prozeß der politischen Entscheidungsfindung zu regeln sei. Oder
die der Erkenntnis objektiver Sachverhalte (also
die erkenntnistheoretische Fragestellung) mit jener der Ermittlung des politischen Konsenses (also die Demokratiefrage) ... (Seine) Polyzentrismus-These schaffe das Problem der Entscheidungszentren nicht aus der Welt, sondern multipliziert es nur ... Eines seiner treibenden Motive ist die Angst vor der Partei, der Organisation, den Apparaten und Bürokratien ... (Aber)
ein Marxismus ohne marxistische Partei ist und
bleibt ein amputierter Marxismus ... So bleibt
für das 'Argument' nur die Möglichkeit, die
These vom 'pluralen Marxismus' damit zu begründen, daß es neben dem wirklichen Marxismus
Berichte
sich marxistisch nennende Konzeptionen gibt, in
denen Grundsätze des Marxismus über Bord geworfen werden“ (Gerns/Steigerwald, 67 ff.).
Gemeinsam ist den Kritikern von Haugs Konzept, daß Haugs Position
„eben nicht mehr Marxismus (ist), sondern der bewußte Versuch, nichtmarxistische Gedanken unter dem Zeichen eines 'polyzentrischen Marxismus' zu etablieren und gleichzeitig prinzipielle Kritik seitens der Marxisten-Leninisten auszugrenzen“ (Holz u.a., 7).
Da man in den „Westberliner“ Positionen „Legenden statt Argumente“
(Maase, 87 ff.) sah, mußte die Einladung zur Mitarbeit an der deutschen
Ausgabe des „Kritischen Wörterbuchs des Marxismus“ (KWM) folgerichtig
zur Absage führen. Weder „eine gemeinsame theoretische und methodische
Grundanschauung der Verfasser“ sei gegeben, noch ein „innerer Zusammenhang“, der für eine Mitarbeit grundlegende Bedingung wäre
(Jung/Schleifstein, 271). „Eine Ansammlung von Leuten (aber), die sich (...)
irgendwann mit Marx und dem Marxismus beschäftigt haben, ergibt noch
kein 'Wörterbuch des Marxismus'. (Denn) ein 'Wörterbuch' ist ja kein Austragungsort für die divergierenden Interpretationen marxistischer Kategorien und Begriffe durch Marxisten, Marxologen, Strukturalisten, Systemtheoretikern und anderen Richtungen“ (ebd.). Damit war ein - wenigstens vorläufiges Ende der Zusammenarbeit zwischen dem „Argument“ in Westberlin und dem „IMSF“ in Frankfurt erreicht, an deren Stelle eine Phase der
intensiven Auseinandersetzung getreten ist. Zur weiteren Verdeutlichung
der beiden unterschiedlichen Positionen siehe die beiden Rezensionen ->
Haug, W.F.: Pluraler Marxismus, Bd. l, Berlin/West 1985 und -> Holz,
H.H. u.a. (Hrsg.): Marxismus - Ideologie - Politik. Krise des Marxismus
oder Krise des 'Arguments'?, Frankfurt/Main 1984.
LITERATURVERZEICHNIS:
ALTHUSSER, L.: The Crisis of Marxism, in: Marxism Today (July 1978).
BUHR, M.: Die Lehre von Marx und die bürgerliche Ideologie der Gegenwart, in: Deutsche Zeitschrift für Philosophie (DZfPh) 6/83.
ESSER, J. / HIRSCH, J.: Der CDU-Staat: Ein politisches Regulierungsmodell für den „nachfordistischen“ Kapitalismus, in: Prokla 3/1984.
Berichte
GEDÖ, A.: Die Philosophie von Marx im Kräftefeld der Wahlverwandtschaften. Zu neueren Entwicklungen der Marxismus-Diskussion, in:
Holz, H.H. / Sandkühler, H.J. (Hrsg.), Karl Marx - Philosophie, Wissenschaft, Politik. DIALEKTIK 6, Köln 1983.
HAUG, W.F., 1982: Antwort auf die Umfrage des IMSF 'Was bedeutet für
Sie Karl Marx und sein Werk heute?', in: IMSF (Hrsg.), „... einen großen
Hebel der Geschichte“. Zum 100. Todesjahr von Karl Marx: Aktualität und
Wirkung seines Werkes, Frankfurt/Main.
HAUG, W.F., 1983: Krise oder Dialektik des Marxismus?, in: Aktualisierung Marx', Berlin/W.
ders., 1983 a: Kritisches Wörterbuch des Marxismus (Vorwort), Berlin/W.
ders., 1983 b: Zur deutschen Ausgabe des „Kritischen Wörterbuchs des
Marxismus“, in: Das Argument 141.
ders., 1984: Die Camera obscura des Bewußtseins. Kritik der Subjekt/Objekt-Artikulation im Marxismus, in: Die Camera obscura der Ideologie
(FIT), Berlin/W.
ders., 1984 a: Antwort auf Josef Schleifstein, in: Das Argument 148.
ders., 1985: Wir brauchen einen Marxismus, der nicht Partei-Marxismus ist.
Interview mit W. F. Haug, in: linke zeitung v. 11.01.85.
HEPPENER, S./ WRONA, V.: Zur Einheit von Philosophischem und
Ökonomischem im Marxismus, in: Deutsche Zeitschrift für Philosophie
5/83.
HOLZ, H.H. u.a. (Hrsg.): Marxismus - Ideologie - Politik. Krise des Marxismus oder Krise des 'Arguments'?, Frankfurt/Main 1984.
JUNG, W. / SCHWARZ, W.: Bundesdeutsche Marx-Rezeption und
Merkwürdigkeiten im 100. Todesjahr - Ein Überblick der Haupttendenzen,
in: IMSF (Hrsg.), Marx ist Gegenwart, Frankfurt/Main 1983.
ders. / SCHLEIFSTEIN, J.: Zwei Absagen, in: Das Argument 144/1984.
Berichte
ders.: Krise des Marxismus - oder Krise der Zeitschrift 'Das Argument'?
Gespräch mit W. Jung, in: Unsere Zeit (UZ) v. 24.10.1984.
MAASE, K.: Legenden statt Argumente - Eine Zwischenbemerkung zur
Debatte „Das Argument und der Marxismus“, in: Marxistische Blätter
4/1984.
ders. / SCHLEIFSTEIN, J.: Die Marxismus-Diskussion und das „Argument“, in: Marxistische Blätter 6/1984.
METSCHER, Th. / STEIGERWALD, R.: Zu den Kontroversen über
Ideologie und Ideologietheorie, in: „... einen großen Hebel zur Geschichte“,
Frankfurt/Main 1982.
ders.: Ideologie, Literatur, Philosophie, in: Das Argument 137/1983.
SANDKÜHLER, H.J.: Geschichte, gesellschaftliche Bewegung und Erkenntnisprozeß, Frankfurt/Main 1984.
SCHWARZ, W.: Wie sie zu Marx stehen ... Hauptrichtungen des bundesdeutschen Umgangs mit Karl Marx in seinem 100. Todesjahr, in: IMSF
(Hrsg.), Jahrbuch 6, Frankfurt/Main 1983.
SEVE. L.: Krise des Marxismus?, in: Das Argument 122/1980.
STEIGERWALD, R.: Gibt es vor lauter Marxismen keinen Marxismus
mehr? (Rez. von „Aktualisierung Marx“', Berlin/West 1983), in: Marxistische Blätter 3/1983.
ders. / GERNS, W.: Pluraler Marxismus?, in: Marxistische Blätter 4/1985.
Hans Heinz Holz, Thomas Metscher, Josef Schleifstein, Bobert Stei-
Berichte
gerwald (Hrsg.):
MARXISMUS - IDEOLOGIE - POLITIK.
KRISE DES MARXISMUS ODER KRISE DES „ARGUMENTS“?
Frankfurt/Main 1984 (Verlag Marxistische Blätter) (318 S., br., DM
13,80)
Anlaß für diese Sammlung von Beiträgen zur Kritik theoretischer und politischer Auffassungen der „Argumente''-Redaktion ist für die Autoren das
„Abgehen ... und der Rückzug der 'Argumente '-Redaktion von früher
eingenommenen Positionen in Angriffe auf den Leninismus, im Aufgreifen
der Formel von der ' Krise des Marxismus ', in den konzentrischen Kampfansagen gegen die sozialistischen Länder (... ) und gegen die Kommunisten
der Bundesrepublik“. Dem bewußten Versuch von seiten des 'Arguments',
„nicht marxistische Gedanken unter dem Zeichen eines 'polyzentrischen
Marxismus' zu etablieren“, stellen die Autoren ihre marxistische Grundposition entgegen: „Anerkennung des philosophischen Materialismus und der
dialektischen Entwicklungstheorie und Denkmethode; Anerkennung der
materialistischen Geschichtsauffassung und der Klassenkampftheorie; Anerkennung der geschichtlichen Stellung und Aufgabe der Arbeiterklasse
und der Notwendigkeit, politische Macht zu erobern, um die kapitalistische
in die sozialistische Gesellschaft umzuwälzen“ (Vorwort, 5 ff.). Im vorliegenden Band wollen die Autoren sich dabei mit wesentlichen Positionen
des 'Arguments' auseinandersetzen, wobei sie bestrebt sind, Kritik mit der
Herausbildung der eigenen Position zu verbinden.
Nachdem Karl-Heinz Braun die „Entwicklungslinie im Selbstverständnis
der Zeitschrift 'Das Argument“' rekonstruiert hat, kritisiert Hans Heinz
Holz „die Mängel in den philosophischen Substrukturen“ in W.F. Haugs
„Vorlesungen zur Einführung ins 'Kapital“' (Köln 1974). In seinem Beitrag
„Vom vermeintlichen Untergang und der wundersamen Rettung der Philosophie durch Wolfgang Fritz Haug“ wirft er Haug vor, dieser weise der
Philosophie die Aufgabe zu, „die Philosophie zu zerstören, und zu diesem
Zweck wird sie in eine der philosophischen Begründung ihrer selbst enthobene Ideologiekritik verwandelt, die sich durch den Standpunkt ... (des)
'kritischen Kritikers' definiert. Anstelle eines objektiven Bedingungszusammenhangs ... wird nun nolens volens die subjektive Stellungnahme des Philosophen konstitutiv für Kritik und Erkenntnis. Die Praxis löst sich von
dem zu erkennenden objektiven Bezugsrahmen ab und wird freischwebende Aktion ...“ (41 f.). Indem Haug einen Gegensatz von wissenschaftlicher
Theorie und Philosophie konstatiere und Philosophie - im Gegensatz zur
Berichte
Wissenschaft - im Marxismus nur als besondere Ideologie betrachte, fordere er deren Eliminierung. Da er aber die „Grundfrage der Philosophie“
nach der Priorität von Sein oder Bewußtsein auf den Boden des Idealismus
stellt, „verkennt (er), daß in die Grundfrage schon die Einsicht der dialektischen Einheit von Theorie und Praxis eingegangen ist“ (43). Die subjektivistischen Konsequenzen der Eliminierung der Grundfrage führe somit zu
einem „Relativismus einer 'Standpunkt '-Philosophie“ und im direkten Weg
„zur Unverbindlichkeit eines 'pluralistischen' Marxismus“, einem „fatalen
Mißverständnis der Grundlagen der dialektisch-materialistischen Erkenntnistheorie“ (45 f.). Haugs Auflösung der Philosophie in eine „einfache
Weltanschauung“ ignoriere, daß „Philosophie - als Theorie des Ganzen und
damit auch der möglichen Ziele, des Systems der Zwecke einer Epoche - als
kritische jeweils den Prozeß der Aufhebung der in ihr gespiegelten Widersprüche als Aufhebung ihrer selbst vollstreckt; nicht jedoch als Aufhebung
der Philosophie, sondern ihrer jeweils besonderen historischen Gestalt“
(49). Im Gegensatz zu Haugs „Privatphilosophie ... (als) der reinen Lehre
des Marxismus“ fordert Holz eine „Philosophie, die parteilich ist, (und) ihre
Probleme als solche des Kampfes des Proletariats stellt, auf dem Boden
und als Moment des Klassenkampfes (aber ihre Probleme, als philosophische; und sie muß das Verhältnis philosophischer Probleme zur politischen
Wirklichkeit und zu den Fronten des Klassenkampfes bestimmen)“ (50).
Während Holz die Denkmuster Haugs schon in der „Frankfurter Schule“
und in der jugoslawischen „Praxis''-Philosophie vorgezeichnet sieht, wird
für Lothar Peter in der Ideologie des „Arguments“ eine Nähe zu Sartres
Existentialismus und Bernsteins Revisionismus erkennbar („Die Ideologie
des 'Arguments' in der Krise. Anmerkungen zu W.F. Haug; Krise oder
Dialektik des Marxismus?“). André Leisewitz wirft in seinen „Bemerkungen
zum Marx-Verständnis des 'Projekts Automation und Qualifikation'. Produktivkraftentwicklung und Zukunft der Arbeit“ den Autoren eine „Fehlinterpretation der Marxschen Arbeitsanalyse in den Fabrikkapiteln“ vor (S.
MEW 23, 356 ff.), wodurch „die Marxschen Aussagen zur formationsspezifischen Prägung der Lohnarbeitstätigkeit in eine Soziologie der arbeitenden
Individuen umgedeutet werden“ (83).
Frank Deppe („Intellektuelle, 'Arbeiterklassenstandpunkt’ und 'strukturelle
Hegemonie'. Einige Gegen-Argumente“) und Hans Jörg Sandkühler
(„Enzyklopädie und Hegemonie oder Über den Nutzen der Kritik“) bringen Einwände gegen Haugs Überlegungen zur „Strukturellen Hegemonie“
(cf. Rezension von Haugs „Pluralem Marxismus“). In der Debatte um das
Verhältnis von Intelligenz und Arbeiterbewegung postulierte Haug eine
neue „Einheit der Kräfte der Arbeit, der Wissenschaft und Kultur, ..., eine
Berichte
hegemoniale Struktur ohne klassischen Hegemon (als) strukturelle Hegemonie ... Hegemonial“, so Haug weiter, „ist ja nichts anderes, als daß jetzt
eine Struktur entsteht, die den unterschiedlichen demokratischen Subjekten
optimale Handlungsbedingungen einräumt ... Eine plurizentrische Aktivierungsstruktur, (die) sich nicht auf den Arbeiterklassenstandpunkt reduzieren läßt; aber sie lässt sich auf ihm entwickeln“. Deppe sieht darin einen
„doppelten Bruch im Denkansatz ...: Zum einen die Distanz zu den 'Klassikern' des Marxismus, die Arbeiterklasse und Hegemonie stets zusammen
gedacht haben (... ): zum anderen reflektiert sich darin ein theoretischer
Ansatz, der der marxistischen Analyse - ... - 'jenseits des Arbeiterklassenstandpunktes' einen eigenen Ort und damit auch dem Intellektuellen eine
neue, autonome Rolle im Konzept der 'strukturellen Hegemonie' zuweist“
(109 f.). Dabei „verflüchtige sich der 'Klassenstandpunkt' der wissenschaftlichen Analyse ..., die nach der Vermittlung von Ökonomie, Klassenverhältnissen und Politik überhaupt nicht fragt“ (III). Das eigentliche Feld
marxistischer Wissenschaft - und marxistischer Intellektueller - aber ist die
Analyse, die vom „Feld der Ökonomie, der Klassen und des Staates ... übergreift in die Komplexität der Analyse vielfältiger ideologischer und kultureller Vergesellschaftungsprozesse und Widerspruchskonstellationen
Der marxistische Intellektuelle, der sich aus diesem Zusammenhang herauslöst ... unterliegt allemal der Gefahr, dass er im Milieu der 'freischwebenden
Intellektuellen' untergeht“ (116). - Sandkühler kritisiert anhand von Haugs
„veränderter Zielsetzung“ der Übersetzung des 'Dictionnaire critique du
Marxisrne', des 'Kritischen Wörterbuch des Marxismus', dass diese „gegen
jeden Marxismus ausgefallen (sei), der die Idee der Hegemonie mit dem
Programm der politisch organisierten Arbeiterbewegung verknüpft“ (287).
Haugs (nur verbal) „strukturalistische Pluralisierung von Hegemonie würde
sich so als einer jener Intellektualismen erweisen, den praktische Materialisten beständig kritisiert haben, an Marx' These über den Zusammenhang
von Waffen der Kritik und Kritik der Waffen erinnernd“ (289).
Zu den Beiträgen, die sich im weiteren Sinne mit der „Argumente''-Position
auseinandersetzen, gehören Georg Fülberths „Geschichte der Arbeiterbewegung in 'Das Argument'“, Ralf R. Leinwebers '„Das Argument' und
der reale Sozialismus“, Jürgen Reuschs „'Das Argument', die Sowjetunion
und der Kampf um den Frieden“ und Albert Engelhardts „Die Entfaltung der theoretischen Kultur des Fortschritts. Zu Anspruch und Wirklichkeit der Rezensionspolitik des 'Arguments“'. Das Verhältnis Marxismus Feminismus und die 'Berliner' Grundkonzeption der „neuen“ Frauenfrage
erörtern Iris Rudolph und Alma Steinberg in: „Frauenfrage und Frauenbewegung in der Sicht der 'Argumente '-Frauen“, und Josef Schleifstein
Berichte
behandelt die ideologische Frage der Marxschen Staatstheorie in Auseinandersetzung zu Michael Jägers Beitrag in „Aktualisierung Marx“' (cf. Widerspruch 2/83, S. 126): „War Marx ein 'radikaler Dezentralist'? Anmerkungen
zu einer Interpretation der Marxschen Staatsauffassung im 'Argument“'.
Die weiteren Beiträge, die sich mit einzelnen Teilen des Theoriegebäudes
des 'Arguments' im engeren Sinne beschäftigen, sind Kaspar Maases
'„Kultureller Marxismus'? Zum Verhältnis von Kulturellem und Politischem“, sowie Thomas Metschers und Robert Steigerwalds Kritik am
„Projekt Ideologie - Theorie“ (PIT): „Anmerkungen zum Ideologiebegriff
des Marxismus und zum Ideologiebegriff des PIT“ und „Warum und wie
hat der Ochse Hörner? Bemerkungen zur Deutung der Wirkungsmechanismen faschistischer Ideologie durch das 'PIT“. Gegen den Vorwurf
Haugs, „Lenin ließ(e) das Selbstverständnis des Marxismus ins Religionsförmige zurückgleiten“, richtet sich der Beitrag Johannes Henrich von
Heiselers „Geschlossenheit, absolute Wahrheit und Religion. Bemerkungen zu Lenin anläßlich einer Bemerkung von W.F. Haug“; und Wolfgang
Jantzen untersucht die Fragen nach der objektiven Bestimmtheit wie subjektiven Bestimmung menschlicher Tätigkeit, d.h. nach Subjektivität und
Persönlichkeit in den Arbeiten von W. F. und F. Haug: „Probleme der
Persönlichkeitstheorie in den Schriften von W.F. Haug und Frigga Haug“.
„Mit diesem Band soll“, so der Mitarbeiter des IMSF Kaspar Maase, „kein
theoretisch-politischer 'Vernichtungsfeldzug' eröffnet werden, ... (doch)
wollen wir vor allem den überzogenen Anspruch des 'Argument '-Kreises
auf Vertretung des einzig lebendigen und offenen Marxismus demontieren“
(Marxistische Blätter 6/84). Dennoch versucht man bereits im Untertitel
„Krise des Marxismus oder Krise des 'Arguments'?“ eine Disjunktion
zu unterstellen, welche die eigene Position gleichsam tabuisiert, - als ob die
sich drastisch verschärfende Krise des kapitalistischen Weltsystems in ihren
ökonomischen, ökologischen und soziokulturellen Dimensionen und der
darin aufbrechenden sozialen Bewegungen und politischen Veränderungen
nicht eine Krise des Marxismus überdeutlich zeichnete; auch die eines
staatlich offizialisierten Marxismus, der den kritischen Gehalt des Marxismus notwendig verloren hat. So gilt es, „die Idee aufzugeben, daß die 'Klassiker des Marxismus' alles für uns gedacht hätten, (und) uns ernsthaft mit
der Tatsache vertraut zu machen, daß der Marxismus uns lehrt, die Fragen
zu stellen, aber uns nicht im voraus alle Antworten gibt ... Der Marxismus
ist und wird niemals ... eine handbuchartige Doktrin sein ... Als
Aufgabe stellt sich jetzt die Wiederherstellung einer Gesamtkonzeption
des Marxismus“ (Lucien Seve), eine von innen gewachsene Einheit des
Berichte
Marxismus wider jeden „Monolithismus“.
Gegen die „(Ortho-)-Doxie-Form des Marxismus anzugehen und ihn von
seiner praktischen Notwendigkeit her zu bestimmen“, wollen die Beiträge
in der eben erschienenen Antwort der „Argumente''-Redaktion:
Haug, Wolfgang Fritz: Pluraler Marxismus. Beiträge zur politischen Kultur.
Bd. 1, Argument-Verlag, West-Berlin 1985 (268 S., br., DM 19,80).
Die Texte dieses Bandes stammen aus den Jahren 1977 – 1985 und enthalten nur zwei Erstveröffentlichungen. Die Aufsätze sollen „als Versuche
gelesen werden, mitzuhelfen bei einer notwendigen Rekonstruktion ... eines
Pluralen Marxismus (als) dialektische Formel von der Einheit in der Vielfalt“ (Vorwort). Der Band ist der erste Teil eines auf drei Bände konzipierten Projekts, wobei „neben Grundsatzanalysen (auch) Gelegenheitsäußerungen stehen, in denen es um praktische Anwendung geht“.
Nach der anfänglichen Begriffsbestimmung des „Pluralen Marxismus“ (s. in
diesem Heft S. 152) erörtert Haug im ersten Teil: Dialektik des Marxismus
die „Notwendigkeit(en) des Marxismus“ anläßlich des 100. Todesjahres
von Karl Marx. In 9 Thesen fordert er „l. eine neue Art der Auseinandersetzung mit dem Werk von Karl Marx ..., 2. den Wissenschaftlichen Sozialismus auch als solchen zu behandeln ... mit dem Ziel: Selbstvergesellschaftung der assoziierten Produzenten, 3. ... die kritische Auseinandersetzung
mit Marx ... die Wegarbeitung eurozentrischer Sichtweisen, 4. ausgehend
von den aktuellen Bedürfnissen eine Neuerung in der marxistischen Tradition, 5./6. ein zurück zu Marx, aber kein Zurück zu Marx, 7. einen Marxismus des „lebenslangen Lernens“, 8. das „Erlernen des produktiven Umgangs mit Widersprüchen ... die Kunst der Dialektik in der Praxis ... nach
dem Entwurf von Einheit, (denn) der Marxismus ist nicht, er wird. Der
Marxismus kann nur existieren als Prozeß ... Den Marxismus gibt es nicht,
wir müssen ihn uns nehmen. Den Marxismus gibt es nicht, es gibt Marxismen. Der Marxismus existiert in der Mehrzahl. Die Marxisten müssen lernen, in der Mehrzahl und im Unterschied miteinander auszukommen, die
Austragungsform der Divergenz produktiv machen, das heißt die Konvergenz in der Divergenz lernen ...: Eine ökumenische Haltung, ein marxistischer Zusammenhalt im Widerspruch. 9. Die Menschheit hat ohne
Verwirklichung des von Marx artikulierten Projekts wenig zu hoffen“ (17
ff.).
In „Krise oder Dialektik des Marxismus“ (22 ff.) versuchte Haug zu
zeigen, „daß die marxistische Dialektik auch auf den Marxismus selbst angewandt gehört“ (cf. Rez. in Widerspruch 2/83, S. 124). „Die Dialektik
des Marxismus lernen“ bedeutet für Haug „gegen die ideologische Wen-
Berichte
de des Marxismus (als) eine der Manifestationen der passiven Dialektik des
Marxismus anzugehen: die Reartikulation marxistischer Theorie durch die
Bewußtseinsphilosophie“ (54 f.). Aktive Dialektik dagegen steht für den
„Notwendigkeits-Ansatz der Frage marxistischer Identität in völliger Übereinstimmung mit Marx ... (und für) die Notwendigkeit spezifischer Ausarbeitung des Marxismus gemäß den historischen Bedingungen jeder Region
und auch jeder Epoche“ (56 f.). Dies erfordert eine „nichtreduktionistische
Konzeption des Wissenschaftlichen Sozialismus (als Wissenschaft, H .M.),
errichtet einzig auf Klassenbasis der Arbeiter/innen, keineswegs aber reduziert auf diese Basis“ (60), der „auf die Selbstvergesellschaftung der unterschiedlichen gesellschaftlichen Kräfte zielt“ (ibid.).
Das Verhältnis 'denkender Schriftsteller', 'unabhängiger Marxist' und
'Parteitheoretiker' behandelt der Aufsatz „Zur Dialektik des Linksintellektuellen“. Anhand von „Brechts Beitrag zum Marxismus“, seiner „Theorie des Ideologischen“ (85), seiner Spracharbeit und seiner Ausarbeitung
eines praktischen Verständnisses von marxistischer Philosophie
(„Brechts Philosophie ist Antiphilosophie, insofern die philosophische
Ideologie einer ihrer Gegenstände ist“, 84) zeigt Haug das Beispiel des „organischen Intellektuellen“ (Gramsci) auf, i.e. das Wahrnehmen von 'Organisations'-funktionen einer Klasse, wobei 'Organisation' meint „die Ausbildung einer kulturellen Identität und kollektiven Handlungsfähigkeit“
(82).
In seinen „Perspektiven an der Schwelle zum 21. Jahrhundert: Die Elemente der neuen Gesellschaft im Übergang zu einer anderen Aggregatform“
sieht Haug für den Marxismus neue Entwicklungsaufgaben aufgrund des
Übergangs zur elektronisch-automatischen Produktionsweise, die nicht nur
zu einer Umgestaltung der gesellschaftlichen Arbeitsteilung im Rahmen
entwickelter kapitalistischer Gesellschaften führte, sondern auch zur Veränderung der internationalen Arbeitsteilung. Für den Marxismus bedeutet
dies, „die Dialektik von Universalität und Spezifik zu fassen ..., i.e. die Verbindung universeller marxistischer Grundlagen mit der konkreten Wirklichkeit jeder nationalen Revolution ... eine Einheit von uneinheitlichen
Formationen. Einheit-im-Widerspruch“ (105). Eine „neuartige historische
Aggregatform des Marxismus“ („Aggregat“ dient hier als Begriff für eine
bestimmte Dimension von Vergesellschaftung; W. F. H.) bringt die „unterschiedlichen Strömungen im Marxismus, ... die Unterschiede der Organisiertheit, (sowie) die marxistischen Elemente auf ganz
unterschiedlichen Ebenen, in heterogenen Praxisfeldern, wie in Politik,
Gewerkschaft, Wissenschaft, Literatur, Kunst, ja sogar Recht und Religion
Berichte
... (durch) ein Zusammenbleiben im Auseinandergehen zu einer neuen
Einheit“ (109 bzw. 119).
Im Zweiten Teil: Strukturelle Hegemonie stellt sich Haug die Frage „Was
ist Ökonomismus. Ökonomismuskritik bei Lenin und Gramsci“, um
anhand Gramscis Überarbeitung im Blick auf die Hegemoniefrage das
Problem der „Hegemonie“ in sozialistischer Perspektive in einer entwickelten kapitalistischen Industriegesellschaft vom Typ der Bundesrepublik
Deutschland zu stellen - als „Strukturelle Hegemonie“. Wider den Ökonomismus, also der Reduktion von Kultur,. Politik und Ideologie auf Ökonomisches, entwickelte Gramsci den Hegemoniebegriff, „der nicht allein
einen politisch-praktischen, sondern auch einen großen philosophischen
Fortschritt darstellt. Er bezieht notwendigerweise eine geistige Einheit und
eine Ethik mit ein und setzt diese voraus sowie eine Wirklichkeitsanschauung, die den Alltagsverstand überwunden hat und - ... - kritischer geworden
ist“ (A. Gramsci, Philosophie der Praxis, Frankfurt/Main 1967, S. 138). Um
eine „hegemoniale Struktur“ zu schaffen, will Haug die gesellschaftlichen,
politischen, kulturellen Kräfte an- bzw. umordnen, so daß die Handlungsfähigkeit der einzelnen Kräfte gestärkt wird, das sog. „Aktivierungspositiv“.
Und um nun ein Projekt einer sozialistischen politischen Artikulation (=
Gliederung/Verknüpfung) ohne die hegemoniale Stellung der Arbeiterklasse zu denken, fordert Haug - mit Chantal Mouffe und Ernesto Laclau - eine
„differentielle Artikulation“ (einer) „Vielfalt gesellschaftlicher Subjekte ...
die Anerkennung eines Pluralismus von Subjekten“ (171). Für die Linke
heißt dies „Einheit der Kräfte der Arbeit, der Wissenschaft und der Kultur“
(169) - ohne Hegemon! Diese „Einheit der hegemonialen Struktur ... kann
sich artikulieren als Konvergenz in der Differenz ... (als) plurizentrische
Aktivierungsstruktur, kurz das Dispositiv der strukturellen Hegemonie.
Diese plurale Formation läßt sich nicht auf den Arbeiterklassenstandpunkt
reduzieren; aber sie läßt sich auf ihm entwickeln. Gleiches kann vom Sozialismus gesagt werden. Es kann keinen Sozialismus geben, der reduzierbar
wäre auf den Standpunkt der Arbeiterklasse. Aber vom Arbeiterklassenstandpunkt aus läßt sich der Sozialismus als über jenen hinausgreifende
Artikulation entwickeln ... (Denn) auch der Sozialismus muß als Aktivierungspositiv mit einer Pluralität von Subjekten gedacht werden, als deren
produktive Anordnung in sozialistischer Perspektive“ (180 ff.).
Nach der Kritik an Frank Deppes und Hans-Jörg Sandkühlers „Einwände
gegen das Konzept der 'Strukturellen Hegemonie'“ folgen einige nähere Ausführungen Haugs zu Teilen seiner Theorie („Werden die Kräfte der
Arbeit, Wissenschaft und Kultur diesmal zusammenkommen?“, „Für ein
Berichte
sozialistisches Projekt unter Bedingungen multizentrischer Politik“, „Der
Begriff der Selbstverwaltung im Marxismus und die Aufgabe der Intellektuellen“), sowie aktuelle Aufsätze („Veränderungskultur und NeuZusammensetzung der sozialen Bewegungen“, „Ökologie und Sozialismus“, „Arbeitszeitverkürzung als Gebot der elektronisch-automatischen
Produktionsweise“, „Gegen den Terrorismus“). Eine thesenartige Zusammenfassung seiner Position findet sich in „Der Marxismus-Leninismus
und das Kritische Wörterbuch des Marxismus“ (120 ff.; cf. Das Argument 148/1984).
Haugs zentraler Begriff ist der der „wissenschaftlichen Weltanschauung“ als
„umfassenden Zusammenschluß des vorhandenen Wissens über Gesellschaft, Natur (und auch über Erkenntnisgewinnung)“. Wenn es aber marxistische Aufgabe sein soll, „alles, was man weiß, zu einer Weltanschauung
zusammenzufügen“, so hat dies eher Synthesen-Charakter, denn Systemcharakter. Betrachtet Haug den Marxismus zurecht als weiterzuentwickelndes Projekt, so sind aber dennoch auch einem marxistischen Polyzentrismus Systemgrenzen gesetzt: die der Natur im allgemeinen und die des Systems der Gesellschaft im besonderen. Und in diesem Gesamtsystem der
Wissenschaften und ihrer relativen Selbständigkeit findet auch die Philosophie ihre relative Selbständigkeit, ohne in empirischen Wissenschaften aufgehoben zu sein. Versuchte Horkheimer noch die Philosophie, solange sie
nicht verwirklicht werden kann, in der kritischen Gesellschaftstheorie aufzuheben, so dass sie nicht zur Ideologie verkomme, so kommen Haugs
„Grenzen der Dialektik“ einer Abschaffung der Philosophie gleich. Haug
kann sich zwar einerseits auf die Aussagen von Marx und Engels stützen,
daß Philosophie im wissenschaftlichen Sozialismus aufzuheben ist, doch
kann „für eine wirklich dialektisch-materialistische Auffassung des geschichtlichen Gesamtprozesses (es) niemals dahin kommen und ist auch
tatsächlich bei Marx und Engels nie dahin gekommen, daß für sie die philosophische Ideologie oder am Ende gar jede Ideologie überhaupt aufhört,
ein materieller (d.h. hier: eine theoretisch-materialistisch in seiner Wirklichkeit zu begreifender und praktisch-materialistisch in seiner Wirklichkeit
umwälzender) Bestandteil der geschichtlich-gesellschaftlichen Gesamtwirklichkeit zu sein“ (Karl Korsch).
Hans Mittermüller
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 165-168
Rezensionen zum Thema „Frauendenken“
Rezensionen
Besprechungen
Rezensionen zum Thema „Frauendenken“
Ursula Beer:
THEORIEN GESCHLECHTLICHER ARBEITSTEILUNG
Frankfurt/Main - New York 1984 (Campus-Verlag )
Dieses Buch hat zum Gegenstand die Geschlechterverhältnisse in den Theorien der marxistischen Klassiker und der neuen Frauenbewegung.
Der erste Teil behandelt unter der Überschrift „Geschlechterherrschaft Vorbedingung oder Folge von Klassenherrschaft?“ zunächst Engels' Ableitung der Frauenunterdrückung aus der Entstehung des Privateigentums und
der Zerstörung der matriarchalisch organisierten Gentilverfassung (womit
die Geschichtlichkeit und Veränderbarkeit der Männerherrschaft erwiesen
ist). Die Autorin legt dar, daß für Engels naturwüchsige geschlechtliche
Arbeitsteilung in der Familie bzw. dem Stamm nicht gleichbedeutend ist
mit herrschaftlicher ausbeuterischer Verfügung über die Arbeitskraft der
Frauen. Hierzu stehe Marx' Begriff der geschlechtlichen Arbeitsteilung in
der „Deutschen Ideologie“ im Gegensatz (S. 33 ff.). Geschlechtliche Arbeitsteilung beruhe aber für Marx letztlich „weder auf Ausbeutung noch auf
geschlechtlicher Gleichheit. Sie befindet sich in einem kategorialen Niemandsland“ (S. 43). „Offensichtlich leistet die marxistische Theorie keine
kategoriale Bestimmung geschlechtlicher Arbeitsteilung, sondern deutet,
zumindest im Frühwerk Marx', höchstens an, wo sich kategorial stimmige
Verbindungsglieder herstellen ließen. Es ist fraglich, ob die marxistische
Theorie Frauen überhaupt als gesellschaftliche Subjekte begreift“ (S. 44).
Aber haben denn Marx und Engels nicht in kohärenter Weise gezeigt, daß
patriarchalische Produktionsbeziehungen dort auftreten, wo keine bewußte
Rezensionen „Frauendenken“
Planung und keine gemeinsame Kontrolle der Produzenten stattfindet?
Mit der Fragestellung, ob sich der Klassen- und Geschlechterantagonismus
in der Interdependenz erfassen läßt, wird in einem zweiten übersichtlich
gegliederten Teil dargestellt, wie die Hausarbeit der Frauen mit Hilfe der
Kapitaltheorie von verschiedenen angloamerikanischen Autoren behandelt
wurde. Daß Marx Im „Kapital“ der Hausarbeit nur ihren systematischen
Stellenwert zuweist (als Reproduktion des Wertes der Arbeitskraft), ohne
die Hausarbeit als solche näher zu untersuchen, wird hier also nicht wie
sonst häufig in der nicht-sozialistischen Frauenbewegung dergestalt mißverstanden, daß die Kapitaltheorie zur Analyse der Hausarbeit überhaupt
nichts beitragen könnte. Wie aus den Darlegungen der Verfasserin hervorgeht, ist die Hausarbeitsdebatte der betreffenden Autoren allerdings äußerst
verwirrend und im Ergebnis kaum weiterführend. Zusammenfassend meint
die Verfasserin: „Seit Ende der 70er / Anfang der 80er Jahre wurde in England anerkannt, daß es der Hausarbeitsdebatte bis zu diesem Zeitpunkt
nicht gelungen war, geschlechtliche Arbeitsteilung historisch-materialistisch
zu begründen. Auch die Fortführung des werttheoretischen Ansatzes der
Hausarbeitsdebatte konnte den Zirkel nicht aufsprengen, der seine Ursache
in Marx' Fixierung des Werts der Arbeitskraft an die Person des männlichen
Lohnarbeiters als Familienvorstand und Eigentümer hat“ (S. 147).
Auch der dritte Teil des Buches, überschrieben „Die Althusser-Rezeption
in der Frauenbewegung“, ist in seinem Ertrag eher negativ. Es ergibt sich
nämlich, daß der strukturale Marxismus und die sich auf ihn beziehenden
Theorien der Frauenbewegung unvereinbare Auffassungen über Klassengesellschaften und Ideologien haben.
Am fruchtbarsten sind schließlich die im vierten und letzten Teil anhand
von Schemata vorgenommenen Differenzierungen der Klassen nach Geschlechterzugehörigkeit und der Formen unentgeltlicher Familienarbeit. Mit
dieser Darstellung zeigt die Verfasserin, wie „die Kapitalakkumulation nicht
allein durch die Verfügung über fremde, d.h. Lohnarbeitskraft ermöglicht
wird, sondern ebenso durch die Verfügung über
unentgeltliche Familienarbeitskraft“ (S. 211).
Elmar Treptow
Mona Winter (Hrsg.):
ZITRONENBLAU. Balanceakte ästhetischen Bewußtseins
Rezensionen „Frauendenken“
München 1983 (Frauenoffensive)
Nachdem Zitronen bekanntermaßen im Hier und Jetzt nur in den seltensten Fällen ein blaues Stadium durchwandern, verdeutlicht schon der Titel
dieses - auch bibliophil gesehen - attraktiven Bandes, daß der Band mit und
für unsere Assoziationsfähigkeit arbeiten will. Und weiter führt die Herausgeberin in ihrem Vorwort zu dieser Anthologie an: „Das vorliegende Material - Essays, Bilder, Traumsplitter, Drehbuchteil, Theatermonolog, Gedichte - ist Spurensuche. Ihre Zeichen deuten nicht auf die verschütteten, vergessenen weiblichen Imagines, sondern weisen auf deren Wirklichkeit, diein
allen Wörtern, Symbolen und Kompositionen steckt, die sich nicht erst als
abgespaltene in Erfahrung bringt“ (S. 8), um anzudeuten: es geht um Kunst,
um deren weibliche Komponente, um eine weibliche (feministische) Kunst,
um weibliche Rezeption von Kunst. „Bilder, Gedichte und Texte dieses
Bandes, zwischen diesem gesellschaftlichen Niemandsland und zeitgenössischer Formsuche balancierend, sind keine Einweihungsrituale in die Geschichte der weiblichen Ausgrenzungen und Unterdrückungen, sondern
Experimente über den weiblichen Widersinn“ (S. 10).
Die einzelnen Beiträge aus den unterschiedlichen Disziplinen (und es handelt sich um so renommierte Namen wie z.B. Dischner, Lenk, Mayröcker,
Ottinger und Steinwachs) an dieser Stelle auch nur einigermaßen übersichtlich zusammenzufassen, ist nicht nur schlicht unmöglich, sondern würde
auch jedem Sinn dieses Buches zuwiderlaufen. Die „Balanceakte ästhetischen Bewußtseins“ sind im üblichen Sinne zuweilen schwindelerregend
und befremdlich (Ottinger), schwer- und querdenkerisch (Mayröcker), gewollt-unvermittelt (Dischner) oder in ihrer Vielschichtigkeit kaum noch
faßbar (Steinwachs), und es läßt sich hierbei nicht nur über Geschmack
streiten: provoziert wird eine wache und stetig-leidenschaftliche Auseinandersetzung und Rezeption mit und von Dingen, die eine wie auch immer
geartete Kunst darstellen.
Zwei (subjektiv ausgewählte) Höhepunkte: Der Auszug aus Jutta Heinrichs
„Das Geschlecht der Gedanken“ und der Beitrag von Rita Bischof über die
Malerin Frida Kahlo – beide so beklemmend schön, traurig und intensiv,
daß Worte Farben und Töne annehmen können. Und dies ist zumindest
eine Intention: die Thematisierung des weiblichen Prinzips in der Kunst
möglicherweise als ein „mehr“ an subjektiver Qualität, durch die engere
Verbundenheit zur Welt der Träume, Utopien, Intuitionen - durch die
Chance zur Ganzheit, so wie vor der „Katastrophe der Ablösung der
Worte von den Dingen, der Lostrennung des Geistes von der lebenden
Zeit“ (S. 17) und die Fähigkeit zur Wiedergeburt von subjektiver und
Rezensionen „Frauendenken“
objektiver Wirklichkeit.
Fazit: Wenig geeignet für Lineardenker, die die Addition von Zahlen mit
Vernunft verwechseln - doch ein überaus reicher, verwirrender und heftiger Anstoß für Leute, die fähig sind, Spiralen zirkulieren zu lassen und in
mehreren Dimensionen denken, leben , hoffen, fühlen und handeln können.
Helga Laugsch-Hampel
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 169-177
Leserbriefe
Leserbriefe
R. Seifert / J. Adamiak
FRAUEN DENKEN
„Frauendenken“ heißt der Titel des letzten „Widerspruchs“ und will damit
seinen (nebenbei bemerkt Jahre hinterherhinkenden) Beitrag zur Frauenfrage leisten. Frauen denken - mit diesem Titel wird das Außergewöhnliche
suggeriert, das bisher noch nicht Dagewesene, das Neue. Gleichsam voyeurhaft also dürfen wir einen Blick werfen auf das, was passiert, wenn Frauen zu denken beginnen.
Oder sollten mit dem Titel Frauendenken (Schreibweise aus dem Inhaltsverzeichnis) die weibliche philosophische Reflexion schlechthin gemeint
sein? Wir blättern weiter, um zu sehen, was uns denn als „Frauendenken“
präsentiert wird.
Lediglich im Beitrag von R. Leonhardt und E. Huebert, die sich die Besprechung von fünf ausführlichen und differenzierten Werken zur Frauenfrage
auf 13 Seiten zutrauen (was etwa im Fall Janssen-Jurreit zu krassem Fehlverständnis führt), werden mehrere unterschiedliche Denkansätze vorgestellt.
Ansonsten werden wir mit einer einzigen Richtung von „Frauen denken“
konfrontiert, sowohl in der Darstellung als auch in der Auseinandersetzung.
Daß in einer Zeitschrift eine Auswahl getroffen werden muß, ist uns klar:
ebenso, daß mystizistische Strömungen in der Frauenbewegung zur Zeit
einen bedeutenden Platz einnehmen. Daß der „Widerspruch“ nur eine
bestimmte Richtung weiblicher Denkansätze berücksichtigt sowie die Art
und Weise der Evaluierung der vorgestellten Ansätze, scheint uns einergenaueren Betrachtung würdig zu sein. Was besagen die Theorien, denen
breiterer Raum gewidmet wird?
Göttner-Abendroth betreibt die Erforschung evtl. vorhanden gewesener
Matriarchate, um eine matriarchale Utopie zu entwickeln (S. 11). Überra-
Leserbriefe
schend für uns, was an bereits gesicherter Erkenntnis präsentiert wird: Matriarchate waren herrschaftsfrei, integrierten Männer „in ihren Eigenheiten“
(welche mögen gemeint sein, wenn diese Gesellschaften auch in ihren Sozialisationsformen herrschaftsfrei funktionierten?). Sie befanden sich in einer
„kosmischen Balance“ (S. 23), ihr Bewußtsein war eher auf Kosmisches
eingestellt, denn auf die analytische Durchdringung der Welt.
Trotz kosmischer Balance scheint uns in Göttner-A.'s Konzept doch Herrschaft zu nisten. Auf theoretischer Ebene im Beibehalten der Dualität
männlich-analytisch-zweckrational vs. weiblich-intuitiv-ganzheitlich, wobei
lediglich gegenüber traditionellen Ansichten die Bewertung solch „naturgegebener“ Eigenschaften umgekehrt wird. Aus historischer Sicht scheint es
auch nicht lediglich auf Zufall zu beruhen, daß beim Verweis auf angeblich
ideale ägyptische Zustände nur auf die Interaktion zwischen Priesterinnen
und Königshaus verwiesen wird (S. 26). Die mit dem Anspruch, Matriarchate „funktionierten ohne wer weiß welche Autoritäten, Befehlsgewalten
...“ (S. 23) kollidierenden Tatsachen, daß die von Priesterinnen in Auftrag
gegebenen kultischen Bauwerke in Fronarbeit bzw. von Sklaven errichtet
wurden, fallen unter den Tisch.
Der Kritik Mittermüllers an Maren-Grisebachs Äußerungen (S. 77) stimmen wir inhaltlich zu. Gerade Maren-G.'s Entgegnung zu Mittermüller
deutet darauf hin, daß menschliches Zusammenleben im Idealfall genauso
nach Naturgesetzen verläuft, wie eine Klospülung (S. 84). Die Schwierigkeit
liegt dann wohl lediglich in der Frage, wer denn diese Naturgesetze erkennen kann und dann menschliches Zusammenleben zum Besten aller und
der Natur lenkt. Wer entscheidet, ob z.B. Rassismus, der ja von seinen
Anhängern auch mit angeblichen Naturgesetzen gerechtfertigt wird, nicht
nur eine Fehlinterpretation eines „Mätzchens der Natur“ darstellt (S. 138)?
Was uns nicht gefallen hat, war die Gegenüberstellung von mystischem
„Frauendenken“ und rationalem Männerkommentar hierzu. Hätten sich
nicht gerade bei der Auseinandersetzung um die genannten Ideen die Äußerungen anderer Frauen angeboten, um zu illustrieren, daß auch frauenbewegte Frauen kein monolithischer Denkblock sind, sondern aus einer gegebenen Situation ganz unterschiedliche Schlüsse ziehen. War es dem „Widerspruch“ nicht möglich, Frauen mit anderen als mystischen Konzeptionen
zu finden oder hat man es gar nicht erst versucht?
Auf den ersten Blick scheinen die oben erwähnten mystischen Positionen
weit entfernt von der analytisch-materialistischen Position des „Widerspruch“ zu sein. Bei genauerer Lektüre aber entdecken wir überraschende
Parallelen. So im Kommentar, daß „die Unterdrückung der Frauen nur
deshalb wirksam werden konnte und wird, weil der Unterschied zwischen
Leserbriefe
Mann und Frau eben nicht bloß ein sozialer ..., sondern ebenso und ursprünglich ein natürlicher ist ...“ (S. 88). Damit wird verbunden die Aufforderung, die „naturbestimmte Seite des Geschlechterverhältnisses“ in Betracht zu ziehen. Auch Mittermüller meint in Abänderung eines Zitats, dass
das geschichtliche Werden des Menschen „nicht ausschließlich“ aber in
bezug auf die Geschlechter denn doch durch die Natur festgelegt sei.
Der „kleine Unterschied“ scheint also auch für die Redaktion des „Widerspruch“ die „Natürlichkeit“ der Geschlechterverhältnisse, die lediglich der
einen oder anderen Reformierung bedürfe, zweifelsfrei zu machen. Indem
die Argumentation mit der Natur u.E. eine verhängnisvolle Verwechslung
von Materialismus und Biologismus begeht, sitzt sie einer Ideologie auf, die
vielleicht in Analogie mit dem Rassismus verdeutlicht werden kann.
Daß es biologische und physiologische Rollenverteilungen in der Reproduktion der Art gibt, ist evident. Ebenso, dass diese Unterschiede feststellbar
und meßbar sind. Aber daraus ergeben sich noch keine Geschlechtskategorien, ebenso wenig wie aus unterschiedlicher Hautfarbe Rassekategorien zu
begründen sind. Um diese Kategorien zu etablieren, müssen die Gleichheiten zwischen den Menschen zugunsten ihrer Unterschiede systematisch
bagatellisiert werden; diese Unterschiede müssen auf bestimmte Art und
Weise bewertet und gesellschaftlich forciert werden.
Die Natur selbst liefert weder Geschlechts- noch Rassekategorien. Werden
solche Kategorien aber zur Rechtfertigung von „Natürlichkeit“ oder ursprünglicher Entwicklungslogik von Gesellschaften herangezogen, ist der
Ideologie-Verdacht angebracht. Die Rede von der Naturbedingtheit der
Geschlechterverhältnisse erfüllt letztlich die Funktion, diese nicht in ihrer
Ganzheit zur Diskussion und Disposition zu stellen, und damit Herrschaftspositionen zu retten.
Dabei ist es natürlich sehr nützlich, mystizistische weibliche Positionen ins
Visier zu nehmen, statt sich mit materialistischen Erklärungen von Männerherrschaft oder auch des Verhältnisses von Feminismus und Marxismus
auseinanderzusetzen. Die biologistischen Positionen werden von den genannten Autorinnen allemal mitgetragen, und ihr Desinteresse an ausgefeilter theoretischer Begründung ihrer Haltung sichert der „Widerspruch''Redaktion die Position des rationalen Lehrmeisters. Einem kritischen
Standpunkt, wie ihn der „Widerspruch“ zu vertreten sucht, kommt diese
Art der Auseinandersetzung u.E. wenig zugute. Auch die Problematik der
Geschlechterverhältnisse bedarf einer rational-materialistischen und profunden Ideologie-kritischen Analyse. Dies sollte gerade für jene ein Anliegen sein, die sich die Bekämpfung von Herrschaftsverhältnissen auf die
Fahnen geschrieben haben. Wenn das nicht geschieht, können wir nur mit
Leserbriefe
den „Widerspruch''-Autorinnen fragen: Wem nützt es? (S. 112).
Beispiele nicht-mystizistischer ferninistischer Denkansätze:
BARRETT, Michele: Das unterstellte Geschlecht. Umrisse eines materialistischen Feminismus, Berlin 1983
BEER, Ursula: Marxismus in Theorien der Frauenarbeit. Plädoyer für eine
feministische Erweiterung der Reproduktionsanalyse, in: Feministische
Studien, 2. Jg., 1983, Nr. 2
HARTSOCK, Nancy: Money, Sex and Power. Toward a feminist historical
Materialism, New York 1983
ROWBOTHAM, Sheila: Nach dem Scherbengericht. Über das Verhältnis
von Feminismus und Sozialismus, Berlin 1981
Wolfgang Teune
Gern komme ich Ihrer Bitte um Anregungen und Interesse an der Zeitschrift „Widerspruch“ nach.
Man merkt, daß es sich bei der Zeitschrift um ein Diskussionsorgan handelt, das finde ich gut. Ich habe aber gleichzeitig den Eindruck, daß Themen anderer Zeitschriften aufgegriffen werden. Schauen Sie genug über den
Kirchturm hinaus?
Was passiert in den USA in philosophischer Hinsicht (Richard Rorty)?
Interessiert man sich in Nicaragua für Ästhetik? Was sagen afrikanische
Kongresse zu Hungerkatastrophen? Vielleicht nicht zu sehr zum erfolgreichen Bruder, zum „Argument“, schielen! Wie reagieren „Philosophen“ oder
Inhaber von „Lehr''-Leerstühlen auf Bürgerkriege? Hobbes hat darauf
mal Antworten gesucht. Wer veröffentlicht was in Nordirland? - Warum
pflegt man wieder den Elfenbeinturm? - Gibt es philosophische Gehalte
eines einjährigen Bergarbeiterstreiks? Wird da nicht „Vernunft“ gelebt, statt
darüber zu faseln?
Wie wird Philosophie praktisch? Durch therapeutische Gespräche mit zahlungskräftigen Klienten wie in Bergisch-Gladbach (G.B. Achenbach), durch
Amtsgerangel, wie in der Schopenhauer-Gesellschaft? Gäbe es für Philoso-
Leserbriefe
phen oder deren Freunde eine alternative Praxis? Lassen wir unserer Kreativität ohne Zitate freien Baum.
Wie könnte ein „Marketingkonzept“ für philosophische Themen, für den
„Widerspruch“ aussehen? Könnte man analog zum Argument-Laden „Widerspruchgruppen“ gründen? Wie könnte heute eine Philosophie auf dem
Marktplatz aussehen? Wir brauchen Fragen und neue Organisationsformen
der Antworten. Immer nur über Verfall und Bedeutungsverlust zu schwätzen, ist ermüdend und demotivierend. Wer nicht will, dass Vernunft, daß
Aufklärung sei, wird immer nur abgestorbene Buchstabenhaufen aus der
Vergangenheit zu bewältigen haben.
„Das moralische Interesse der Philosophen sollte
sich auf die Fortsetzung des abendländischen
Gesprächs richten, nicht darauf, daß den traditionellen Problemen der modernen Philosophie
ein Platz in diesem Gespräch reserviert bleibt.“
(Richard Rorty, Der Spiegel der Natur, Fft 1984,
S. 427)
Mit freundlichen Grüßen
Hans Mittermüller:
GELIEBTES DENKEN.
Zum 100. Geburtstag von Georg Lukács
„Lukács war für eine lange Periode, nämlich für die vor der Rezession
1966/67, für die Vermittlung zur Opposition gegen die Frankfurter Schule
wie zur Regeneration marxistischen Denkens maßgebend“ (Wolfgang Abendroth). Haben sich Form und Inhalt der Lukács-Rezeption mittlerweile
auch verkehrt, resp. geändert, so hat er doch in der Nachfolge der Studentenbewegung eine ideologische Bedeutung bekommen, die ihn abgrenzt
von bzw. ihn verwerten läßt gegen die marxistische Theorie. Exemplarisch
sei hier die Rezeption Alfred Schmidts genannt, ein Enkel der Frankfurter
Schule, die die Indienstnahme Lukács' in scheinbar innermarxistischer Absicht in eine Debatte gegen den Marxismus hin übergleiten läßt („Humanismus und Doktrinär“. Zum 100. Geburtstag von Georg Lukács, in: FAZ,
13.04.1985). Nicht zuletzt Lukács' Selbstkritik und dessen Rezeptionen
Leserbriefe
führten zu widersprüchlichen Aufarbeitungen der Theorien von Georg
Lukács.
Geboren am 13. April 1885 in Budapest als Sohn wohlhabender jüdischer
Eltern, besuchte er das evangelische Gymnasium, „dessen naturwissenschaftliches Niveau sehr niedrig war“, und seine Hinwendung vor allem zur
Literatur begünstigte. An der Universität lernte er Laszlo Banoczi kennen,
und zusammen mit Marcel Benedek und Sandor Hevesi gründete er die
„Thalia-Gesellschaft“. Als Regisseur und Dramaturg lernte Lukács, als „ich
die Texte auf der Bühne lebendig werden sah, dramaturgisch und hinsichtlich der Dramentechnik und der dramatischen Form unheimlich viel ... Mit
einem Wort, es begann eine umfassende Studienperlode ... (und) als Ergebnis davon trat an die Stelle bloßer impressionistischer Kritik eine durch die
deutsche Philosophie fundierte und zur Ästhetik tendierende Kritik. In
dieser Zeit lernte ich unter den Philosophen Kant kennen und dann in der
zeitgenössischen deutschen Philosophie die Werke Diltheys und Simmels“.
Nach dem Studium der Philosophie, Rechtswissenschaft und Nationalökonomie promovierte Lukács 1906 zum Doktor der Staatswissenschaften.
Zwischen 1906 und 1907 hielt er sich in Berlin auf, wo er den ersten Entwurf zur „Entwicklungsgeschichte des modernen Dramas“ schrieb, für den
er 1908 den Krisztina-Preis erhielt. In diesem Entwurf stellte Lukács die
Frage: „Gibt es ein modernes Drama und welchen Stil hat es?“, die für ihn
„vor allem eine soziologische Frage“ war. Das wirkliche Soziale ist ihm die
Form, die soziale Beziehung der Form, „die zwischen Materie und Form“.
Wirtschaftliche Umstände, so Lukács, bestimmen nur indirekt das Kunstwerk; bestimmte Formen werden ermöglicht durch bestimmte Weltanschauungen, durch Ideologien, die diese mit sich bringen und andere ausschließen.
Noch ehe Lukács 1909 in Budapest zum Doktor der Philosophie promovierte, hielt er sich für kürzere Zeit in Berlin auf. Damals begann seine
Neuorientierung auf die Philosophie unter dem Einfluß von Georg Simmel
und Max Weber. „Simmel“, so Lukács, „brachte den gesellschaftlichen
Charakter der Kunst ins Gespräch, womit er mir einen Gesichtspunkt vermittelt hat, auf dessen Grundlage ich - weit über Simmel hinausgehend die Literatur abhandelte“. Max Weber brachte den soziologischen Aspekt
ein. - Über seine Begegnung mit Ernst Bloch meinte Lukács: „Bloch hatte
auf mich gewaltigen Einfluß, denn er hatte mich durch sein Beispiel davon
überzeugt, daß es möglich sei, in der althergebrachten Weise zu philosophieren. Ich hatte mich bis dahin im Neukantianismus meiner Zelt verloren, und nun begegnete ich bei Bloch dem Phänomen, daß es möglich war,
Leserbriefe
wie Aristoteles oder Hegel zu philosophieren“.
Nach seinem 1911 erschienenen Essay „Die Seele und die Formen“ war es
vor allem seine „Theorie des Romans“ von 1914/15, die, „gemessen an
der damaligen Literaturwissenschaft und Romantheorie, eine Theorie des
revolutionären Romans erörterte ... Es war das einzige nicht rechtsorientierte geisteswissenschaftliche Buch in jenem Zeltraum. Insgesamt geht das
Buch von einer Konzeption aus, die Tolstoi und Dostojewski als den Gipfelpunkt des revolutionären Romans in der Weltliteratur betrachtet, was als
Konzeption falsch war ... Es muß als ein Zwischenprodukt bewertet werden, ..., noch im Zustand einer generellen Verzweiflung entstanden“. In
seinem 1962 geschriebenen Vorwort zu diesem Werk sieht Lukács vor
allem die Anwendung Hegelscher Philosophie auf ästhetische Probleme als
einen geisteswissenschaftlichen Fortschritt. „Kurz gefaßt: der Verfasser der
'Theorie des Romans' hatte eine Weltauffassung, die auf eine Verschmelzung von linker' Ethik und 'rechter' Erkenntnistheorie ausging ... Die 'Theorie des Romans' ist das erste deutsche Buch, in welchem eine linke, auf
radikale Revolution ausgerichtete Ethik mit einer traditionsvollkonventionellen Wirklichkeitsauslegung gepaart erscheint“.
Aufgrund seiner familiären Herkunft blieb Lukács der ungarische Militärdienst erspart („der Sohn eines Bankdirektors mußte nicht dienen“) und
mit Hilfe von Karl Jaspers konnte er auch in Heidelberg dem Kriegsgeschehen fernbleiben. In dieser Zeit begann sich Lukács neben den ästhetischen vor allem für ethische Probleme zu interessieren: „das Interesse an
der Ethik hat mich zur Revolution geführt“. Die Oktoberrevolution 1917,
der Zusammenbruch der österreichisch-ungarischen Donaumonarchie und
die räterepublikanische Bewegung führten Lukács zu dem Entschluß „nach einem gewissen Schwanken“ - der kommunistischen Partei beizutreten. 1919 wurde er Volkskommissar für Unterrichtswesen in der Räteregierung von Bela Kun und für sechs Wochen Politkommissar der fünften
Division. Nach dem Sturz Bela Kuns emigrierte Lukács nach Wien, wo er
von Anfang September 1919 bis zum II. Parteitag 1930/31 blieb. Ein Ruf
an die Jenaer Universität wurde von den Sozialdemokraten (in Sachsen und
Thüringen in einer Koalition mit den Kommunisten) 1923 vereitelt.
In diesem Jahr erschien „Geschichte und Klassenbewußtsein“, das „eine
tiefe Wirkung in den Kreisen der jungen Intelligenz ausübte; ich kenne eine
ganze Reihe von jungen Kommunisten, die gerade dadurch für die Bewegung gewonnen wurden“ (Vorwort zur Neuausgabe von 1967). Lukács
meinte in einem Interview vom Mai 1971 über das Buch: „Dieses Buch
besitzt einen gewissen Wert, weil darin auch Probleme aufgeworfen werden, denen der Marxismus damals auswich. Es wird allgemein anerkannt,
Leserbriefe
daß hier erstmals das Problem der Entfremdung aufgeworfen wird und daß
in dem Buch der Versuch unternommen wird, Lenins Revolutionstheorie
organisch in die Gesamtkonzeption des Marxismus einzuordnen. Grundlegender Fehler des Ganzen ist der, daß ich eigentlich nur das gesellschaftliche Sein als Sein anerkenne und dass in 'Geschichte und Klassenbewußtsein', da hierin die Dialektik der Natur verworfen wird, jene Universalität
des Marxismus vollkommen fehlt, die aus der anorganischen Natur die
organische ableitet und aus der organischen Natur über die Arbeit die Gesellschaft“.
Lukács verwies darin auf die Methode des Marxismus, der „revolutionären
Dialektik“, und auf die „Herrschaft der Kategorie der Totalität“ als dem
Prinzip in der Wissenschaft. Soll die materialistische Dialektik eine Logik
der Geschichte sein, so müsse sie sich als Dialektik von Subjekt und Objekt
konstituieren. Diese Dialektik bedeutet für ihn die Übernahme und
materialistische Wendung von Hegels „Phänomenologie des Geistes“. In
„Geschichte und Klassenbewußtsein“ versucht Lukács eine Rekonstruktion
des Bildungsprozesses des revolutionären Proletariats als geschichtlichen
Subjekts. Hegels Elemente, die Theorie als (Selbst-)Erkenntnis der
Wirklichkeit, die Dialektik von Unmittelbarkeit und Vermittlung, die konstitutive Funktion des Bewußtseins im Für-sich-Werden der Klasse als
Subjekt, werden erst dort konstitutiv, wo sie Lukács an der Analyse des
Fetischcharakters der Ware ausweist. Denn „das Kapitel über den Fetischcharakter der Ware (verbirgt) den ganzen historischen Materialismus, die
ganze Selbsterkenntnis des Proletariats als Erkenntnis der kapitalistischen
Gesellschaft (...) in sich“. Mit der restlosen Verdinglichung des Arbeiters,
der seine zur Ware gewordene Arbeitskraft verkaufen muß, ist die Möglichkeit seines Bewußtseins gesetzt; das Bewußtsein aber ist selbst ein praktisch umwälzendes. Gegen die objektivistische Revolutionstheorie setzt
Lukács eine Klassenbewußtseinstheorie, basierend auf den Kategorien
Subjekt und Objekt, die selbst in der ökonomischen Basis noch konstitutiv
Kritik
werden.
kam nicht nur hinsichtlich seines (Uber-)Hegelianisierens, daß, wie
Habermas einwandte, „die absolute Dialektik des Klassenbewußtseins den
Gang der Geschichte von vornherein verbürgt“, sondern vor allem in Fragen der Dialektik der Natur. Lukács hatte Engels vorgeworfen, er habe, im
Gegensatz zu Marx, „die dialektische Methode auch auf die Erkenntnis der
Natur ausgedehnt, wo doch die entscheidenden Bestimmungen der Dialektik ... in der Naturerkenntnis nicht vorhanden sind“. Zurecht warf ihm
bereits Abram Deborin vor, „er spiele Marx gegen Engels aus“ und nannte
ihn folgerichtig einen „Dualisten: Idealist, soweit es sich um die Natur handelt, und dialektischen Materialist – in bezug auf die sozialhistorische Wirk-
Leserbriefe
lichkeit“. Hinsichtlich der Natur „erliege Lukács der idealistischen Fiktion
der bürgerlichen Geschichtsphilosophie seit Vico, für den die Natur, weil
nicht vom Menschen gemacht, auch nicht erkennbar schien, bis hin zur
Hegelschen Disqualifikation der Natur als bloßer Form der 'Äußerlichkeit'
des Geistes; er hat nicht begriffen, daß für die 'Dialektik der Natur' die
Natur gerade nicht mehr das im Vergleich zur menschlichen Praxis 'Andere', sondern Element des Stoffwechsels, aus der Arbeit erst erwächst“ (H.-J.
Sandkühler).
Im Zuge des II. Parteitags Ende der zwanziger Jahre wurde Lukács beauftragt, politische und gesellschaftliche Strategien der Partei zu formulieren die sogenannten „Blum-Thesen“. Sie waren eine Vorwegnahme der späteren Volksfrontideologie, der Dialektik von Demokratie und Sozialismus,
fanden aber in der Zeit des „Sozialfaschismus''-Dogmas keine Aufnahme.
Lukács mußte in parteilicher Selbstkritik offiziell den Thesen abschwören.
Nach Hitlers Machtergreifung ging Lukács in die Sowjetunion, wo er Mitglied des Philosophischen Instituts der „Akademie der Wissenschaften“
wurde. Seine zuvor in Berlin gemachte Bekanntschaft mit Bert Brecht und
dem Kreis der 'Linkskurve' förderten seine Ausarbeitungen einer marxistischen „Ästhetik“, die „weder von Kant noch woandersher zu übernehmen
ist ... (und) einen organischen Teil des Marxschen Systems zu bilden hat“.
In Auseinandersetzung mit dem „stalinistischen Hyperrationalismus ..., wo
der Rationalismus eine Form erhält, in der er in eine gewisse Absurdität
übergeht“, schrieb Lukács die „Zerstörung der Vernunft“ (erschienen 1954
in Ungarn). Der Stalinismus als „eine Art von Zerstörung der Vernunft ...
besteht meiner Meinung nach darin, daß die Arbeiterbewegung den praktischen Charakter des Marxismus aufrechterhält, daß aber in der Praxis das
Handeln nicht durch die tiefere Einsicht der Dinge geregelt wird, sondern
daß die tiefere Einsicht zur Taktik des Handelns hinzukonstruiert wird“.
Eigentliche These von „Zerstörung der Vernunft“ ist, daß ein gerader Weg
von den Höhen der spekulativen idealistischen deutschen Philosophie bis
zu den Niederungen der menschenverachtenden nationalsozialistischen
Praktiken führte, „der Weg Deutschlands zu Hitler auf dem Gebiet der
Philosophie“.
1945 nach Ungarn zurückgekehrt, setzte Lukács sich für einen demokratischen Weg zum Sozialismus ein und war, nach der Rakosi-Aera (1945 1956), aktiver Mitinitiator und ZK-Mitglied während des Aufstands 1956.
Nach der Niederschlagung vorerst nach Rumänien verbannt, konnte er im
März 1957 nach Budapest zurückkehren. Neben der „Ästhetik“ bereitete
Lukács eine „Ontologie“ vor „als die eigentliche Philosophie, die auf der
Geschichte basiert“. Ihre wesentliche Kategorie war die der 'Arbeit', deren
Leserbriefe
„Wesen die teleologische Setzung des Menschen ist, was wir als menschlich
gesellschaftliches Sein bezeichnen“. In seiner „Ontologie-Marx“ versuchte er das philosophisch Entscheidende von Marx herauszustellen: „den
logisch-ontologischen Idealismus Hegels überwindend theoretisch wie
praktisch die Umrisse einer materialistisch-historischen Ontologie aufgezeichnet zu haben ... Die Marxsche Ontologie entfernt aus der Hegelschen
alle logisch-deduktiven und entwicklungsgeschichtlich teleologischen Elemente ... Alles Existierende muß immer gegenständlich sein, immer bewegender und bewegter Teil eines konkreten Komplexes. Das hat zwei Folgen. Erstens ist das gesamte Sein ein Geschichtsprozeß, zweitens sind die
Kategorien nicht Aussagen über etwas Seiendes oder Werdendes, sondern
bewegende und bewegte Formen der Materie selbst: 'Daseinsformen, Existenzbestimmungen'. Indem die radikale - ... - Position von Marx vielfach im
alten Geiste interpretiert wurde, entstand die falsche Vorstellung, Marx
unterschätze die Bedeutung des Bewußtseins dem materiellen Sein gegenüber. Diese Anschauung ist falsch: Marx faßte das Bewußtsein als ein spätes
Produkt der materiellen ontologischen Entwicklung auf“. Eine geplante
„Ethik“ wurde durch die Arbeit an der „Ontologie“ verdrängt, die Lukács
„als philosophische Begründung der 'Ethik“' ansah.
Lukács starb am 4.06.1971. Trotz aller Ambivalenz war Lukács „als Nestor
einer der wichtigsten Perioden des Marxismus, nämlich derjenigen seines
Eindringens in die Praxis der Menschheit durch die Entstehung der ersten
sozialistischen Staaten, anerkannt und als Vorkämpfer der Rückbesinnung
auf Hegel innerhalb des Marxismus ... Seine dialektische Methode hat ihm
erlaubt (...), sich immer wieder selbst zu korrigieren“ (W. Abendroth). Lukács heute ehren, heißt, sein Werk zu studieren und kritisch zu erweitern.
Alle nicht ausgewiesenen Zitate von Lukács stammen aus Georg Lukács,
Gelobtes Denken. Eine Autobiographie im Dialog, Frankfurt/Main 1981.
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 178-179
Autorin: Ulrike Schwemmer
Artikel/Glosse
Glosse: Ulrike
Schwemmer
Also doch Übermensch?
Auch das Zeitalter des Computers hat seine Probleme, die durch bloße
Information nicht zu lösen sind.
Herbeigeführt nicht zuletzt durch die unterschiedlichen Beurteilungen dieses technischen Phänomens.
Im groben gilt es zwei Richtungen in dieser Streitfrage zu unterscheiden:
Die eine besteht in den strikten Befürwortern und Verteidigern dieser
jüngsten menschlichen Erfindung, zeigt sie doch wieder einmal, was der
Mensch so alles vermag, wie sehr er doch über den Dingen steht und diese
zu beherrschen weiß.
Die andere Richtung reagiert auf dieses Wissen ängstlich und betreten: Der
Computer bereits als nächster Schritt der Evolution, als Ablösung menschlichen Denkens und Handelns? Die Furcht erscheint oberflächlich betrachtet nicht ganz unbegründet. Macht sich doch dieses elektronische Monstrum mittlerweile im ganz Alltäglichen bemerkbar. Als Erfüllungshilfe der
Öffentlichkeit ist es meist eine Maschine, welche den Einzelnen zu Zahlungen und dergleichen auffordert. Aber damit nicht genug: man bedarf zur
Dechiffrierung mindestens Zeit und Nerven und am besten einen Spezialisten.
Aber nicht nur die Korrespondenz ist entpersönlicht. Der Traum jeder
Hausfrau, lästige Besorgungen nicht immer selbst tätigen zu müssen,
scheint durch die praktische Ankoppelung des Homecomputers an den des
nächsten Einkaufszentrums in greifbare Nähe gerückt, erweist sich aber
jetzt bereits als Alptraum. Das ohnehin schon atomisierte Individuum fühlt
sich durch die Maschine immer mehr bedroht und in die Isolation getrieben. Aber dies wäre ja vielleicht noch zu verkraften, darüber hinaus ist die
Ulrike Schwemmer
Macht der Gewohnheit nicht zu unterschätzen: Die Geschichte der
Menschheit als eine Geschichte des Fortschritts, nicht zuletzt des technischen, ist auch schon mit anderen Problemen fertiggeworden, bedeutet
doch jede Innovation erst einmal eine Bedrohung des Gewohnten, ist dadurch potentieller Faktor der Verunsicherung, stört sie doch das erworbene
Gefühl des Heimischseins in der Welt.
Somit muß alles Neue erst wieder zu etwas Selbstverständlichem und Vertrauten werden, das Subjekt muß sich das Neue erst aneignen. Von diesem
Blickwinkel aus betrachtet wird sicher auch der Computer einst zum integrierten und akzeptierten Glied dieser Gesellschaft.
Jedoch erscheint in diesem Falle die Sorge um den Verlust subjektiver Bestimmung begründeter. Ist doch die Vorstellung von einer eventuellen
Fremdbestimmung durch ein "elektronisches Gehirn" zumindest keine
angenehme. Und hier ist wohl auch der Kern des Problems enthalten. Denn
beim Computer handelt es sich um eine Errungenschaft, die zu der Frage
Anlaß gibt: "Wie werde ich die Geister, die ich rief" wieder los?
Denn besteht nicht gerade hier die Möglichkeit, daß die Erfindung sich
verselbständigt, d.h. eigenständig denkt? Und das, wo doch angeblich der
Umgang mit diesem Instrument zur allgemeinen Verdummung führen soll,
zu absoluter Einseitigkeit. Ist hierin also eine Gefahr zu sehen, insofern als
der Computer sich eindimensionale Gegenüber schafft, die sich leicht beherrschen lassen, indem sie ihre Denkfähigkeit verlieren? - Der Verlust der
subjektiven Denkfähigkeit wäre dann jedoch eine Größe, mit der man umzugehen lernen müßte, in Anbetracht der immer weiteren Verbreitung dieser Monstren in Arbeitsbereich und Privatraum. Ob diese Tatsache jedoch
gleichzusetzen ist mit Beherrschung durch die Maschine sei dahingestellt.
Nicht zuletzt, weil ein entscheidender Punkt in der Bekämpfung individueller Angst meist außer Acht gelassen wird, daß die Maschine immer nur das
ausspucken kann, was vorher als Resultat menschlichen Denkens in sie
programmiert wurde. Eine neue Etappe im Zuge der Aufklärung könnte
sich dahingehend sicher beruhigend auf die erhitzten Gemüter auswirken.
Der entscheidende Einwand gegen die Befürchtung, im Computer ein eigenständiges intelligentes Gegenüber anzutreffen, das in der Lage ist, den
Menschen zu ersetzen – öffentlich und privat - wäre ja wohl der, daß der
Mensch im allgemeinen noch Bewußtsein aufzuweisen hat. Und ebendieses
muß dem "elektronischen Gehirn" entschieden abgesprochen werden:
Womit die menschliche Vormachtstellung bis dato wieder gesichert wäre.
Solange sich nämlich die Maschine ihrer ausgeführten Handlungen nicht
bewußt wird, kann sie auch nicht eigenständig auf dem Wege der Selbstreflexion Neues hervorbringen, kann sie bis auf weiteres wohl keine Ent-
Also doch Übermensch?
scheidungen treffen. Es wäre somit kein verfehlter Schritt, wenn sich die
aufgebrachte Schar der Computergegner dieser kleinen, aber dennoch entscheidenden Tatsache bewußt würde und begriffe, daß auch diese technische Erfindung - richtig gebraucht - nur ein weiteres Mittel zum Zweck
darstellt, die menschliche Vormacht zu etablieren.
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 180-181
Buchneueingänge/Bildnachweise
Anhang
Neueingänge/
Bildnachweise
Buchneueingänge:
1.
Manfred Buhr / Hans Jörg Sandkühler (Hrsg.), Philosophie in
weltbürgerlicher Absicht und wissenschaftlicher Sozialismus, PahlRugenstein, Köln 1985
2.
Günther Ortmann, Der zwingende Blick. Personalinformationssysteme, Campus-Verlag, .Frankfurt/Main
3.
Paul Feyerabend, Wissenschaft als Kunst, Suhrkamp-Verlag, es
1231, Frankfurt/Main 1985
4.
Kultur und Tradition, Minerva-Publikationen, München
5.
Claude Levi-Strauss, Mythos ohne Illusion, Suhrkamp- Verlag,
es 1220, Frankfurt/Main 1985
6.
Thomas Jaspersen, Produktwahrnehmung und stilistischer Wandel,
Campus-Verlag, Frankfurt/Main 1985
7.
Die Camera obsura der Ideologie, hrsg. vom Projekt Ideologie-Theorie, Argument-Verlag, West-Berlin 1984
8.
Zerreißproben - Automation im Arbeitsleben,
West-Berlin 1983
Argument-Verlag.
Neueingänge
9.
Neunzehn-Hundert-Vierundachtzig, Argument-Verlag.
West-Berlin 1984
10. Karl Heinz Ilting,
Verlag, Stuttgart
Naturrecht und Sittlichkeit,
11. Schaper/Vossenkuhl (Hrsg.),
Klett-Cotta-Verlag, Stuttgart
Bedingungen
AS 105,
Klett- Cotta-
der Möglichkeit,
12. Clemens Burichter (Hrsg.), Ein kurzer Frühling der Philosophie,
Schöningh-Verlag, Paderborn
13. Willi Oelmüller (Hrsg.), Wiederkehr von Religion, SchöninghVerlag, Paderborn
14. Reinhard Löw, Nietzsche. Sophist und Erzieher, Acta- Humaniora-Verlag
15. Am Ende der Weisheit? Menschlichkeit jenseits von Computern und
Ideologen, Herder-Initiative 9558, Freiburg 1984
16. Bernhard Waldenfels, In den Netzen der Lebenswelt,
Suhrkamp-Verlag, stw 545,Frankfurt/Main 1985
17. Gernot Böhme, Anthropologie in pragmatischer Absicht, Suhrkamp-Verlag, es 1301, Frankfurt/Main 1985
18. Rüdiger Lutz, Bewußtseinsrevolution, Beltz-Verlag, Weinheim
19. Wolfhart Henckmann,
schaft, Darmstadt 1979
Ästhetik,
Wissenschaftliche
Buchgesell-
20. Otto Ulrich, Die Informationsgesellschaft als Herausforderung, Haag
+ Herchen-Verlag, Frankfurt/Main
21. Walter L. Bühl, Struktur und Dynamik des menschlichen
Sozialverhaltens, Mohr-Verlag, Tübingen 1982
22. Jürgen Habermas, Der philosophische Diskurs der Moderne, Suhr
Neueingänge
kamp-Verlag, Frankfurt/Main 1985
23. Peter Müller, Transzendentale Kritik und Teleologie, Königshau
sen und Neumann, Würzburg
24. Erich Heintel, Grundriß der Dialektik, Bd. 1 und 2, Wissenschaft
liche Buchgesellschaft, Darmstadt 1984
25. Michael Opielka, Die ökosoziale Frage, Fischer-Verlag, Frank
furt/Main 1985
26. M. Schröter, "Wo zwei zusammenkommen in rechter Ehe". Soziound psychogenetische Studien über Eheschließungsverträge vom 12.
- 15. Jhrt., Suhrkamp-Verlag, Frankfurt/Main 1985
Bildnachweise:
S.21, in: Staatliche Kunsthalle Berlin (Hrsg.), Kunst und Medien, Berlin
1984, S. 260
S. 28, in: K. Modick, M.-J. Fischer, Kabelhafte Perspektiven, Hamburg
1984, S. 50
S. 32, in: R. Lindner, B. Wohak, H. Zeltwanger, Planen, Entscheiden,
Herrschen, Reinbek 1984, S. 50
S. 50, in: Juristenblatt 11/85
S. 54, in: Künstliche Kunst.
Museums, Prospekt 1985
Eine
Sonderausstellung des Siemens-
S. 66, in: Herbert W. Franke, Computergrafik-Galerie, Köln 1984
S. 98, in: K. Modick, M.-J. Fischer, a.a.O., S. 176
S. 111, in: D. Hofstadter, Gödel, Escher, Bach, S. 734
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 182-183
AutorInnen
AutorInnen
AutorInnen
In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 184
Impressum
Impressum
Herunterladen