Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985) INHALTSVERZEICHNIS Artikel Das THEMA: COMPUTER - DENKEN SINNLICHKEIT 7 Elmar Treptow: Einordnung der neuen Informationsund Kommunikationstechniken 9 Anna Wimmer: Die "Künstliche lntelligenz"-Forschung und ihre Auswirkung auf das Menschenbild in der Wissenschaft 16 John Locke / Gottfried W. Leibniz / Giambattlsta Vico: Der Geist in der Maschine? - Ein Gespräch 29 Jochen Schneider: Innovationspotentiale des juristischen Informationssystems "JURIS" 42 Gespräch mit Professor Herbert W. Franke: Computergraphik. Zum Verhältnis von Kunst und neuer Technik 52 Helga Laugsch-Hampel: Anmerkungen zu einer 'neuen' Ästhetik der Rockmusik im Zuge der neuen Technologien 67 Horst v. Gizycki: Im Streit um die richtige Leere. Ausgewählte Skizzen zu einer ökologischen Ästhetik 76 Rezensionen Bleicher, S. u.a.: Chip, Chip, Hurra? Die Bedrohung durch die "Dritte Technische Revolution" H. Hölzer 88 Kubicek, H. / Rolf, A.: Mikropolis. Mit Computernetzen in die "Informationsgesellschaft" H. Hölzer 88 Briefs, Ulrich: Informationstechnologien und Zukunft der Arbeit K.-H. Schmid 91 Coy, Wolfgang: Industrieroboter. Zur Archäologie der zweiten Schöpfung W. Höppe 94 Friedrichs, Günter / Schaff, Adam (Hrsg.): Auf Gedeih und Verderb D. Strehle 97 Gorsen, Peter: Transformierte Alltäglichkeit oder Transzendenz der Kunst U. Schwemmer 99 v. Randow, Gero (Hrsg.): Das andere Computerbuch. Für Benutzer, Neugierige und Skeptiker B. Güther 100 Rose, Frank: Ins Herz des Verstandes. Auf der Suche nach der künstlichen Intelligenz A. v. Pechmann 103 Searle, John: Minds, Brains and Science A. v. Pechmann 105 Dreyfus, Hubert L.: Die Grenzen der künstlichen Intelligenz. Was Computer nicht können A. v. Pechmann 107 Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft A. v. Pechmann 109 Hofstadter, Douglas H.: Gödel, Escher, Bach. Ein endloses geflochtenes Band A. v. Pechmann 110 Schöneberger, Markus / Welrich, Dieter (Hrsg.): Kabel zwischen Kunst und Konsum. Plädoyer für eine kulturelle Medienpolitik K. Lotter 114 Croce, Benedetto: Die Geschichte auf den allgemeinen Begriff der Kunst gebracht R. Marks 115 Köhler, Benedikt: Ästhetik der Politik R. Marks 118 Jäger, Petra / Lüthe. Rudolf (Hrsg.): Distanz und Nähe. Reflexionen und Analysen zur Kunst der Gegenwart H. Bahner 120 Pechmann, Alexander v.: Konservatismus in der Bundesrepublik. Geschichte und Ideologie M. Schraven 123 Berichte Raphael, Max: Wie will ein Kunstwerk gesehen sein? "The Demands of Art" E. Rebel 128 Sandkühler, Hans-Jörg / Holz, Hans Heinz (Hrsg.): Ökologie - Naturaneignung und Naturtheorie H. Mittermüller 131 Schirmacher, Wolfgang: Technik und Gelassenheit W. Teune 135 Schöpf, Alfred (Hrsg.): Phantasie als anthropologisches Problem H. Bahner 137 Schrader, W .H.: Ethik und Anthropologie in der Englischen Aufklärung A. Felenda 138 Wellmer, Albrecht: Zur Dialektik von Moderne und Postmoderne Th. Wimmer 140 Witte, Bernd: Walter Benjamin I. Knips 142 Anton Friedrich Koch: Verknüpfende Analyse und deskriptive Metaphysik 145 Hans Mittermüller: Marxismus versus Marxismen 149 Holz, Hans Heinz / Metscher, Thomas / Schleifstein, Josef / Steigerwald, Robert (Hrsg.): Marxismus - Ideologie - Politik Krise des Marxismus oder Krise des "Arguments"? H. Mittermüller 157 Rezensionen Beer, Ursula: zum Thema Theorien geschlechtlicher Arbeitsteilung Frauendenken E. Treptow 165 Winter, Mona (Hrsg.): Zitronenblau. Balanceakte ästhetischen Bewußtseins H. Laugsch-Hampel 167 Leserbriefe R. Seifert / J. Adamiak: Frauen Denken 169 Wolfgang Teune 172 Glosse Anhang Hans Mittermüller: Gelobtes Denken. Zum 100. Geburtstag von Georg Lukacs 173 Ulrike Schwemmer: Also doch ein Übermensch? 178 Buchneueingänge / Bildnachweise 180 Personenverzeichnis 182 Impressum 184 In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 7-9 AutorenInnen: Redaktion Zum Thema Zum Thema COMPUTER SINNLICHKEIT - DENKEN - Der Computer erobert sich mehr und mehr Lebensbereiche: sein Einsatz in Produktion und Verwaltung ändert die Arbeits- und Qualifikationsstrukturen in Betrieb und Gesellschaft und erschließt neue, sog. „High-Tech“-Märkte; ohne die Unterstützung durch „Supercomputer“ wären die neuen Forschungsergebnisse in Physik, Chemie, Biologie und Medizin undenkbar, und zunehmend öffnen sich auch die Geisteswissenschaften den neuen Technologien; sein Vormarsch in Kunst, Kultur und im Freizeitbereich scheint unaufhaltsam. Kein Wunder also, daß über die gesellschaftlichen Folgen der „Computerisierung“ eine heftige und kontroverse Diskussion entstanden ist: wird die neue Technik die Spaltung der Arbeiterklasse - hie Arbeitsintensivierung, dort Massenarbeitslosigkeit - vertiefen, wie die Gewerkschaften befürchten; oder wird sie neue flexiblere und humanere Arbeitsbedingungen schaffen, wie die Unternehmer verkünden? Während einige Militärexperten der Meinung sind, die Automatisierung der Waffentechnik bringe uns der Friedenssicherung näher, sehen andere darin einen weiteren Schritt zur Erhöhung der Kriegsgefahr. Psychologen und Pädagogen befürchten durch die Arbeit am Terminal eine geistige und soziale Verarmung, während andere sich davon eine Freisetzung von Kreativität, Phantasie und Kommunikation versprechen. Und die Soziologen diskutieren, ob die künftige „Informationsgesellschaft“ die Wege zur individuellen Arbeits- und Freizeitgestaltung er- zum Thema öffnet, oder die Perfektionierung der Herrschaft durch Arbeitsüberwachung und staatliche Kontrolle vorantreibt. Oder wird gar der Computer den Menschen als Macht- und Entscheidungsträger ablösen, wie manche Philosophen behaupten? Die Beantwortung dieser Fragen nach den Folgen des Computerentwicklung und -einsatzes setzt unseres Erachtens die Klärung der Ursache voraus: was ist eigentlich der Computer, und was kann er? Ist er seinem Wesen nach nur ein spezielles, informationsverarbeitendes, Arbeitsgerät oder ein universeller Automat der Wissensrepräsentation und Problemlösung? Ist er seiner Potenz nach der menschlichen Intelligenz gleichgestellt oder gar überlegen? Ohne die - bislang wenig beachteten - Fragen der Erkenntnistheorie und Ästhetik, der Anthropologie und Geschichtstheorie miteinzubeziehen, bewegen sich die Diskussionen über die Folgenabschätzung auf unsicherem Boden. Mit dieser Nummer machen wir den Versuch, einige dieser Aspekte der neuen Technikentwicklung hervorzuheben. Eingangs unternimmt Elmar Treptow den Versuch der „Einordnung der neuen Informations- und Kommunikationstechniken“ in den gesellschaftlichen und begrifflichen Zusammenhang. In ihrem Beitrag „Die 'Künstliche Intelligenz'-Forschung und ihre Auswirkung auf das Menschenbild in der Wissenschaft“ untersucht Anna Winner die ideologischen Implikationen und anthropologischen Grundannahmen der gegenwärtigen KI-Forschung. Alexander von Pechmann hat ein fiktives Gespräch bearbeitet, als dessen Teilnehmer John Locke, G.W. Leibniz und G. Vico über den „Geist in der Maschine“ und die erkenntnistheoretischen und metaphysischen Grundlagen der Computertechnik diskutieren. Jochen Schneider weist in seinem Artikel „Innovationspotentiale des juristischen Informationssystems 'JURIS“' auf die Defizite und Ent- zum Thema wicklungsmöglichkeiten des Computereinsatzes in den Rechtswissenschaften hin. In einem längeren Gespräch mit der Redaktion über Computergraphik legt Herbert Franke die qualitativ neuen Entwicklungsmöglichkeiten in der darstellenden Kunst durch den Computereinsatz dar. Den ästhetischen und sozialen Auswirkungen der neuen Technik auf die Musikszene geht Helga Laugsch-Hampel in ihrem Aufsatz „Anmerkungen zu einer 'neuen' Ästhetik der Rockmusik im Zuge der neuen Technologien“ nach. Und schließlich unternimmt Horst v. Gizycki mit „Im Streit um die richtige Leere - Ausgewählte Skizzen zu einer ökologischen Ästhetik“ den Versuch, eine Alternative zur „Computerkultur“ zu skizzieren. Den Beiträgen folgt eine Reihe von Rezensionen aktueller Veröffentlichungen, insbesondere zum Thema dieser Nummer. Ein Bericht über die Gastvorlesung Peter Strawsons in München von Anton P. Koch, eine Dokumentation der Diskussion zwischen der West-Berliner Zeitschrift „Argument“ und dem Frankfurter „Institut für marxistische Studien und Forschungen“ über Grundfragen des Marxismus von Hans Mittermüller, Leserbriefe zur letzten Nummer „Frauendenken“ und zur Konzeption unserer Zeitschrift, ein Beitrag zum 100. Geburtstag von Georg Lukacs sowie eine Glosse zum Thema beschließen den Band. Die Redaktion 9 In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 9-15 Autor: Elmar Treptow Artikel Elmar Treptow Vorspann: Einordnung der neuen Informationsund Kommunikationstechniken Frei ist, wer die Wahl hat zwischen ARD, ZDF, SAT 1, 3 SAT, RTL-Plus, PKS, APF, TDF, TVS, Music-Box, tvweiß-blau, Kanal B, Kanal Matte Scheibe. Diese Botschaft hörte Abu Dschaafar Mohammed Ibn Mussa elChwarismi alias Algorithmus. Er wählte und las den Vorspann: „Diesen Gottesdienst widmet Ihnen die Kreissparkasse.“ 1. Phänomenologie Die hauptsächlichen Problemfelder der Informations- und Kommunikationstechniken, die alle Bereiche des Seins und Bewußtseins durchdringen, erscheinen als folgende: erstens ökonomisch als Produktionsautomatisierung, d.h. als computerintegrierte Produktion von der Planung bis zur Fertigung („CIM“) (und zwar nicht nur in der Automobilherstellung wie in der berühmten Halle 54 des Volkswagenwerks); weiter als Büroautomatisierung durch Einzug von Textverarbeitungssystemen und Bildschirmterminals. Beides heißt: Rationalisierung, Steigerung der Arbeitsproduktivität, Arbeitslosigkeit, Veränderung der Qualifikationsanforderungen und Berufe. Die Heimarbeit am Computer, die in einigen Jahren mit der Installierung Elmar Treptow des Glasfasernetzes ihre technische Grundlage haben wird, wird zur Individualisierung, Isolierung und Entsolidarisierung der Arbeitenden führen. Zweitens militärisch als Automatisierung der Waffen, besonders der zielgenau programmierten Atomwaffen. Schon ein Fehlalarm der Frühwarnsysteme kann über alles menschliche Leben entscheiden. Der Plan, das integrierte elektronische Schlachtfeld Erde, Wasser, Luft in den Weltraum auszudehnen und dort ein Waffensystem zu errichten, das strategische Unverletztlichkeit und somit Angriff ohne Vergeltung ermöglicht, ist für die USA kein Verhandlungsgegenstand. Deutsche Industrielle und Politiker sehen in der Teilnahme an der Weltraumrüstung die Voraussetzung für die Konkurrenzfähigkeit in der zivilen „High-Tech“ auf dem Weltmarkt. Drittens pädagogisch als Ausrichtung des Bildungssystems am Beschäftigungssystem durch Einführung von Informatik-Kursen in der Schule. (Noch ist unentschieden, ob als Pflichtfach ab Klasse 8 mit darauf aufbauendem Wahlfach und ob mit den Computersprachen „Basic“, „Pascal“ oder „Logo“ oder nur mit den Benutzersprachen, wie sie Ärzte, Anwälte und Architekten gebrauchen.) Für einige Pädagogen - wie für von Hentig - ist der Computer dagegen immer noch ein „unkindliches, ein unphilosophisches und ein unpolitisches Instrument“ . Viertens juristisch als Kontrolle und Überwachung der Personen durch staatliche und private Informationssysteme wie „NADIS“ und „PIS“. Kann sich der Datenschutz gegen den „gläsernen Menschen“ behaupten oder stirbt „bit für bit“ die informationelle Selbstbestimmung? Fünftens biologisch als Eingriffe in den genetischen Code (dessen Bauelemente die bei Mensch und Gänseblümchen gleichen DNS-Moleküle sind). Die Gentechnologie und Genchirurgie der Pflanzen und Tiere ist eine prospektive Wachstumsbranche der chemischen und pharmazeutischen Konzerne. Beim Menschen ermöglicht diese Biotechnik nicht nur die Behandlung von Erbkrankheiten, sondern auch die künstliche Zuchtwahl des Homunculus in der Phiole. Vorhanden sind Retortenbabys, Samenbänke und Leihmütter. (Eine Zwischenfrage: ist es nicht eine konsequente Weiterentwicklung, auch die lebendige Gebärfähigkeit des Menschen zu verleihen, nachdem schon die lebendige Arbeitsfähigkeit verliehen bzw. verkauft wird?) Sechstens erkenntnistheoretisch als die Kontroverse, ob der Mensch ein informationsverarbeitendes, kybernetisches System ist. Wenn ja, ist auf den Menschen wie auf alle gesteuerten und geregelten Abläufe die Informationstechnik anwendbar (deren Basis die Mikroelektronik ist, die 1959 mit der ersten Halbleiterschaltung mehrerer Transistoren auf einem SiliziumPlättchen geboren wurde)? Ist also die menschliche Intelligenz durch die Zur Einordnung technische, künstliche Intelligenz ersetzbar bzw. simulierbar (wenn schon nicht der Mensch als ganzer durch einen Roboter oder Golem mit Sensoren und Aktoren)? Hat der Computer hier prinzipielle Grenzen? Welche? Vielleicht hat er keinen Humor und keine Würde und schämt sich nicht? (Ein Schachcomputer etwa scheint keine psychischen Probleme mit seinem Ego zu haben, wenn er „loose“ anzeigt.) Kann „Eliza“ tatsächlich, wie ihr Erfinder Weizenbaum im nachhinein meint, keinen Psychotherapeuten simulieren? Was wird aus dem Traum des Konrad Zuse, dass programmierte Maschinen wie lebendige Zellen sich selbst reproduzieren und eine Fabrik eine Fabrik baut? „Denkt“ ein Computer, wenn er binäre Entscheidungen trifft (also entsprechend den Werten Eins und Null oder wahr und falsch den Strom fließen und nicht fließen läßt)? Siebentens medienpolitisch als Privatisierung und Kommerzialisierung der - im engeren Sinne - "neuen" Medien, die zu den „alten“ Medien der Massenkommunikation Zeitung, Zeitschriften, Rundfunk und Fernsehen hinzugekommen sind, nämlich: Kabelfernsehen (einschließlich Pay-TV, Offener Kanal und Zwei-Weg-Kabel), Satellitenfernsehen, Video und Bildschirmtext (also das von der staatlichen Post für private Bestell-, Verwaltungs- und Buchungsvorgänge errichtete Netz, das auch zum Abrufen von in Bibliotheken bzw. elektronischen Speichern archiviertem Wissen geeignet sein könnte). Die gegenwärtige Regierung schafft für die Privatisierung und Kommerzialisierung die staatlichen Rahmenbedingungen, und zwar mit der Argumentation: der mündige Bürger müsse im Interesse seiner Freiheit die Wahl zwischen vielen Programmen haben, die durch die Konkurrenz von privaten Anbietern geschaffen werden. So würden über Kabel und Satellit neue Freiräume für die demokratische Teilhabe an Information, Bildung und Kultur sowie am allgemeinen geistigen Austausch eröffnet und zugleich der Industrie neue Chancen des Wachstums geboten1. Was führen dagegen einige Kritiker ins Feld? Nicht nur die ungeklärte Finanzierung, den bevorstehenden Kampf um Werbeeinnahmen und die ideologischpolitischen Möglichkeiten finanzstarker Anbieter, sondern auch folgendes: das jetzt verlegte teure Kupferkabelnetz ist nur für Funk und Fernsehen, nicht aber für die Kommunikationszwecke der Wirtschaft geeignet und wird sowieso überflüssig durch das künftige Glasfasernetz (das nur noch einen einzigen Anschluß erforderlich machen wird für Telephon, Computer, Bildschirmtext, Fernkopierer und Telex). Ein amtlicher Schildbürger1 Vgl. Kabel zwischen Kunst und Konsum, hrsg. v. M. Schöneberger/D. Weirich, Berlin und Offenbach 1985. Elmar Treptow streich? Befürchtet werden weiter ein Rückgang der Kommunikation In der Familie, Isolierung, Privatisierung, Passivierung („kaum abgenabelt, schon angekabelt“ ), außerdem eine Verflachung der Programme durch vermehrte Shows, Magazine, Rätselspiele und Serien, in denen die Sekretärin den Millionär bekommt. Mitunter kann allerdings der Eindruck entstehen, daß einige als Kommunikationsmedium lieber wieder die Rauchzeichen der Indianer hätten2. Adorno hatte schon das Fernsehen allgemein negiert, weil in ihm das gesprochene Wort nur Anhängsel von Bildern sei und Bilder die Reflexion und Besinnung behinderten3. Achtens ästhetisch als Debatte darüber, ob die neuen Medien neue künstlerische .Ausdrucksmöglichkeiten und gestalterische Kreativität mit sich bringen, vor allem auf dem Gebiet der elektronischen Musik, der Videoclips und der Computergraphik. Kann ein Johann Sebastian Chip statt mit der alten Maschine, dem Klavier, mit Synthesizern in 12 oder 16 Bit neue Sphären-Klänge erlebbar machen? Können Nake, Nees, Noil oder Herbert W. Franke mit ihrer Graphik und Animation - zum Beispiel mit dem „inkspray-plotter“, dem computergestützten Tintensprühgerät - für uns neue Bereiche der Wahrnehmung erobern, so wie Turner mit seinen Bildern den Nebel in neuer Weise sichtbar machte? Wird das Ästhetisch-Spielerische durch die Heim- und Personalcomputer gefördert? Es scheint so, daß sie jedenfalls in Kinderzimmern für Spiel, Spaß und Spannung sorgen, vor allem beim selbständigen Programmieren, aber auch beim „Hacken“ oder beim Test des „Bibel-Quiz des Commodore“ („Wer hatte 300 Konkubinen?“). Genuß bereitet der „joystick“ den Kids offensichtlich solange, als sie Herr der Lage bleiben und ihre Anweisungen in dieser Herr-KnechtBeziehung befolgt werden. (Unlust werden Spiele erregen, in denen keine Chance besteht zu gewinnen.) Nach Ansicht einiger Kritiker führt die Computer-Technik zu einem generellen Verlust authentischer sinnlicher Wahrnehmung und Erfahrung. Schiebt sich tatsächlich eine zweite künstliche Welt über die erste, selbständig erfahrene Welt? Bringen die Medien zwar die ganze Welt ins Haus, einschließlich verhungernder Menschen in unterentwickelten Ländern, aber in Form inkohärenter Bruchstücke, zerrissener „digitalisierter“ Details ohne den Gesamtzusammenhang, so daß das abstrakt Einzelne seine Entsprechung im abstrakt Allgemeinen hat? - Soviel zur Phänomenologie der Programmierung und Automatisierung der Arbeit, Vgl. N. POSTMANN: Wir amüsieren uns zu Tode, Frankfurt/Main 1985, S. 15 ff. Th. W. ADORNO: Prolog zum Fernsehen, in: Eingriffe, Frankfurt/Main 1963, S. 69 ff. 2 3 Zur Einordnung des Krieges, der Schule, der Personenkontrolle, des Denkens und der Wahrnehmung. 2. Logik: Die Informationstechnik als Vergegenständlichung ideeller Elemente der Arbeit Versuchen wir nun, nachdem wir über die Felder der Probleme gegangen sind, durch die begrifflichen Zäune zu dem Gemüse vorzudringen! - Die Informationstechnik hat ihren systematischen Ort in der Entwicklung der Arbeit. Zur stets notwendigen produktiven, gebrauchswertproduzierenden, bedürfnisbefriedigenden Arbeit gehören erstens die Arbeitstätigkeit selbst, zweitens die Arbeitsmittel und drittens die natürlichen Arbeitsgegenstände. Die Arbeitstätigkeit selbst der gesellschaftlichen Individuen enthält ideelle, bewußtseinsmäßige Elemente, die die Arbeitsresultate antizipieren und die Arbeitstätigkeit steuern und regulieren4. Von den Arbeitsmitteln sagt Hegel sehr erhellend, daß sich in ihnen die Einzelheit der Arbeit zu einer relativ beständigen nachahmbaren Regel verallgemeinert. „... Der Pflug ist ehrenvoller als unmittelbar die Genüsse sind, welche durch ihn bearbeitet werden und die Zwecke sind. Das Werkzeug erhält sich, während die unmittelbaren Genüsse vergehen und vergessen werden. An seinen Werkzeugen besitzt der Mensch die Macht über die äußerliche Natur, wenn er auch nach seinen Zwecken ihr vielmehr unterworfen ist“5. Während der ersten industriellen Revolution wurde die Arbeit entwickelt und ihre Produktivität gesteigert, indem die Arbeitsmittel bzw. Werkzeuge, in denen sich die menschliche Arbeitskraft vergegenständlicht, durch Maschinen ersetzt wurden. Zunächst wurde die Werkzeugmaschine (wie der mechanische Webstuhl), dann auch die Antriebs- oder Bewegungsmaschine (vor allem die Dampfmaschine) hervorgebracht. Das qualitativ Neue und Charakteristische der gegenwärtigen zweiten industriellen, wissenschaftlich-technischen Revolution ist, daß nunmehr mit den Informations- und Kommunikationstechniken auch ideelle, steuernde und regulierende Elemente der menschlichen Arbeit vergegenständlicht werden. (Diese Technik ist also nicht etwa einfach eine Fortsetzung der alten Technik, so wenig wie das Auto nur ein schnellerer Och4 5 MARX, Das Kapital, MEW 23, 193. HEGEL, Wissenschaft der Logik II, Hamburg 1963, S. 398. Elmar Treptow senkarren ist.) Diese Techniken, die bewußte Elemente der Arbeit verobjektivieren, können auch in den Bereichen benutzt werden, die gegenüber der Arbeitswelt relativ selbständig sind, wie in dem militärischen, dem medienpolitischen oder ästhetischen Bereich. Die ideellen regulierenden Elemente der Arbeit sind Information, insofern sie nicht nur eine besondere - Strukturen übertragende - Wechselwirkung zwischen Systemen wie alle außermenschlichen Regelungsprozesse sind, sondern insofern sie auch eine bestimmte (nicht-stoffliche und nichtenergetische) Subjekt-Objekt-Relation sind, die ein internes Modell der Außenwelt herstellt („Widerspiegelung“). Als solche befriedigt die Information bzw. die Kommunikation, d.h. der Austausch von Informationen, das Bedürfnis nach erkenntnismäßiger Aneignung der Welt und theoretischer Selbstbestimmung. Jede Information ist an ein Zeichensystem als ihrem materiellen Träger gebunden, sei es ein Sprach-, Schrift- oder Bildsystem, die immer eine syntaktische, semantische und pragmatische (gesellschaftliche) Dimension haben. Mit solchen Zeichensystemen werden die - zunächst systemfremden – Daten der Außenwelt aufgenommen, verarbeitet, gespeichert und abgegeben, d.h. kodiert und dekodiert, wofür wiederum die Grundlage die kodierende und dekodierende Tätigkeit der Sinnesorgane und des zentralen Nervensystems ist. (Die Beziehung der Sinnesorgane zu den Außenweltdaten und der Zeichen zu dem Bewußtseinsinhalt muß als eine objektiv abbildende angesehen werden, die Zeichen selbst dagegen sind konventionell.) In quantitativer Hinsicht wird die Information bestimmt, indem man als Maßeinheit das „bit“ nimmt, d.h. die Information, die durch die Auswahl eines Zeichens aus zwei möglichen Zeichen gewonnen wird, z.B. die Entscheidung zwischen den Binärziffern 0 und l. Informationsprozesse auf der Basis von bits sind „digital“ (z.B. zeigen Digitaluhren die Zeit mit Ziffern an. Analoguhren dagegen mit Zeigern). Digitale Ja/Nein-Entscheidungen sind nicht etwa von vornherein zerstückelnd und ungeeignet Zusammenhänge zu erfassen. („Dasselbe Ganze“ ist, wie Hegel darlegt, sowohl diskontinuierlich-numerisch wie kontinuierlich6.) Digitale Entscheidungen sind so wenig undialektisch wie die positive und negative Elektrizität der Computertechnik7. Vom Computer wird der Informationsprozeß des menschlichen Nervensystems insofern technisch imitiert und simuliert, als er nach den gleichen 6 7 HEGEL, Enzyklopädie, § 100. Vgl. Das Andere Computerbuch, hrsg. v. G. v. Randow, Dortmund 1985, S. 78 ff. Zur Einordnung Funktionsprinzipien Daten aufnimmt, umwandelt, verarbeitet, speichert und abgibt. Allerdings sind es nur die sozusagen eingeschliffenen, routinemäßigen automatisierbaren menschlichen Tätigkeiten (deren Ziele oder Zwecke feststehen und vorausgesetzt sind), die technisch simulierbar sind. D.h. der Computer kann nicht selbsttätig Zwecke setzen und kann keine unvorhergesehenen Aufgaben in Angriff nehmen, die sich in der veränderlichen Umwelt stellen. In diesem Sinne ist die „künstliche Intelligenz“ oder „instrumentelle Vernunft“ der Computer - diese technische Rationalität der Produktivkraft - von der praktischen Rationalität der Produktionsverhältnisse abzugrenzen. (Wenn Weizenbaum gegen den „Imperialismus der instrumentellen Vernunft“ die Ethik setzt, so verselbständigt er sie allerdingsund löst sie ab von den Produktionsverhältnissen8.) 3. Die Informationstechnik als Ware und Verkehrung der Selbstbestimmung Die Informationstechnik ist nicht nur die Vergegenständlichung der routinemäßigen, automatisierbaren ideellen Elemente der produktiven Arbeit, sondern sie steht mit diesem ihren Gebrauchswert zugleich auch - wie die produktive Arbeit selbst - in einer bestimmten gesellschaftlichen Form. Diese Form, dieses Produktionsverhältnis, ist in unserer Gesellschaftsformation die abstrakte wertproduzierende Arbeit bzw. die Verwertung des Werts, das Kapital (mit seiner öffentlichen politischen Regelung durch den Staat). Das macht den Warencharakter und die Widersprüchlichkeit der Informationstechnik, einschließlich der neuen Medien, aus. Auf diese Widersprüchlichkeit fällt noch ein Licht in den Besinnungsaufsätzen in der Schule über Fluch und Segen, Chance und Risiko der Technik. Der Chip als Ware ist die Keim- oder Elementarzelle unserer Problemfelder. Untergeordnet unter das Kapital, haben die Informations- und Kommunikationstechniken unter anderem die Funktion, die Umlaufzeit des Kapitals zu verkürzen und dadurch dessen Umschlag zu beschleunigen. Sie haben damit die gleiche Funktion wie andere Kanäle, etwa Seekanäle, Eisenbah- J. WEIZENBAUM: Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt/Main 1978, S. 337 ff. 8 Elmar Treptow nen oder Telegraphen9. Indem die gesamten subjektiven, personalen und objektiven, sachlichen Produktivkräfte dem verselbständigten automatischen Prozeß des Kapitalwachstums einverleibt und untergeordnet sind, verkehrt sich auch die Technik gegenüber den gesellschaftlichen Individuen als sie beherrschende, fremdbestimmende Macht. Im Rahmen dieser Fremdbestimmung wird dann die Wahlfreiheit zwischen vorausgesetzten Zielen bzw. Programmen propagiert, was keine soziale Beherrschung der Technik ist. 4. Die deautomatisierende, technisch nicht simulierbare ästhetische Tätigkeit Charakteristisch für die ästhetische Produktion ist die Negation eingefahrener, schematischer, konventioneller und automatisierter Wahrnehmungsund Verhaltensweisen, und zwar durch kalkulierte Regelverstöße (Aristoteles in der „Rhetorik“), verfremdende Schocks (Brecht), Eigensinn (A. Kluge), Mehrdeutigkeiten (Eco), Verrutschen der Bedeutungen (Hofstädter). Das genügt sicherlich. 9 MARX, Das Kapital, Bd. 3, MEW 25, 81 In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 16-21 Autorin: Anna Wimmer Artikel Anna Wimmer 'Die 'Künstliche lntelligenz'-Forschung und ihre Auswirkung auf das Menschenbild in der Wissenschaft' Die „Künstliche Intelligenz“ (Kl) wird in zunehmendem Maße Gegenstand der öffentlichen Diskussion. So steht dieser Begriff vielfach synonym für die Möglichkeit, den künstlichen Menschen schaffen zu können. Der Traum von Frankenstein scheint sich in einem neuen „HardwareFrankenstein“ endgültig aufzulösen und reale Gestalt anzunehmen. Dieser Gigantismus, den Vertreter der KI-Forschung größtenteils selbst mitförderten, und ein weitverbreiteter Analphabetismus auf dem Gebiet der Computerwissenschaften müssen wohl auch der Grund dafür sein, daß es im Streit um die Kl scheinbar nur enthusiastische Vertreter, wahre Gläubige der KI-Gemeinde, und ebenso leidenschaftliche Ablehner dieser wissenschaftlichen Disziplin gibt. Erstaunlicherweise werten über alle weltanschaulichen Grenzen und philosophischen Richtungen hinweg die einen die Kl als den großen „galileischen Wurf“1 des 20. Jahrhunderts, und verteufeln die anderen die KI-Forscher als raffinierte Scharlatane und publicity-geile Alchimisten unserer Zeit. Nur sehr zögernd entwickelt sich der sachliche 1 Dieser Vergleich darf allerdings nicht dazu verleiten, die Realität des westlichen Wissenschaftsbetriebes aus den Augen zu verlieren. Es sind nicht die KI-Forscher, die, um in der Metapher zu bleiben, Probleme mit den „Inquisitoren“ der herrschenden Wissenschaftsauffassung haben. Ganz im Gegenteil: während den KI-Forschern bedeutende Mittel und Kapazitäten aus der Industrie und an den Hochschulen zur Verfügung stehen, müssen sich die Skeptiker mit sehr viel bescheideneren Möglichkeiten zufrieden geben. Eine Tatsache, die leider auch häufig dazu führt, daß gerade Geisteswissenschaftler ihre Erkenntnisse nicht in die Auseinandersetzung einbringen, um mögliche Geldquellen nicht zu gefährden. Einen fairen Streit der Ideen gibt es auch hier nicht. Anna Wimmer Dialog, der nahezu alle Gebiete der Wissenschaft umfaßt. Und doch ist es gerade diese Debatte, die mit zu den spannendsten Ergebnissen der KIForschung gehört, weil sie Widersprüche an die Oberfläche befördert und die Lösung der Frage, „gibt es eine Spezifik des Menschen“, wenn auch unbewußt, provoziert. Die KI-Forschung wird üblicherweise als ein Teilbereich der Computerwissenschaften gesehen, ein Bereich der modernsten Technik also; und damit scheinen die KI-Forscher aus der Debatte um „richtig“ oder „falsch“ bereits aus dem Schneider zu sein. Während man geisteswissenschaftlichen Erkenntnissen oder Theorien vorerst meist skeptisch gegenübersteht, ja häufig eine Objektivität für unmöglich erklärt, genügt es bei der Kl oft schon, daß es hier Wissenschaftler und Techniker sind, die etwas bauen, was offensichtlich funktioniert, um ihnen auch ihre theoretischen Konzepte und Begründungen gleich mitabzukaufen. Dabei sind es, wie wir im Folgenden sehen werden, nicht in erster Linie die praktischen Ergebnisse der Kl, die die heutige Wissenschaft so nachhaltig beeinflussen, sondern vielmehr ihre erkenntnistheoretischen Aussagen. Im Folgenden möchte ich mich dem Spannungsfeld zwischen Mensch und „intelligenten Maschinen“ widmen. Dabei soll es nicht um die schlechten oder guten Anwendungsmöglichkeiten der Kl gehen - an diesem Punkt ist die Auseinandersetzung viel weiter gediehen -, sondern um die Frage: „Stimmen die theoretischen Aussagen der KI-Forschung über den Menschen?“ Eine Kritik an diesem Theoriegebäude hat deshalb zweierlei zu leisten: 1. zu zeigen, was die Kl heute kann, wie ihre Prognosen einzuschätzen sind und wieweit sie ihre eigenen Ansprüche einlöst; 2. zu untersuchen, welche theoretischen Vorannahmen die KI-Forschung trifft, auf welcher Grundlage dies geschieht, und wie sich diese Annahmen auf das Menschenbild in der Wissenschaft auswirken. Ich werde diese Vorannahmen die „Axiomatik der Kl“ nennen, weil sie nahezu nie bewiesen oder hinterfragt werden. Am Beispiel der automatischen Spracherkennung und des Sprachverstehens soll deren Problemen nachgegangen und die „Axiomatik der KIForschung“ erläutert werden. Diese sprachorientierte Kl bietet sich an, da die Sprache eine der wesentlichen Nahtstellen zwischen Mensch und Maschine darstellt. 'Die 'Künstliche lntelligenz'-Forschung ... 1. Was kann die KI-Forschung Dazu die Prognose von Marvin Minsky, Leiter des MIT-Programms (1967): „Innerhalb einer Generation wird das Problem der Schöpfung einer 'Künstlichen Intelligenz' gelöst sein“2 Wahre Wunderdinge waren seither zu hören, die bis heute in den Köpfen noch häufig als Fakten herumspuken. Es würde zu weit führen, alle Bereiche aufzuzählen, von den Schachcomputern bis zu den allgemeinen Problemlösungssystemen (GPS). Bleiben wir daher nur bei der sprachorientierten Kl: da spricht man von Übersetzungsmaschinen, von Computern, die menschliche Sprache verstehen und in den Dialog mit den Menschen treten, von phonetischen Schreibmaschinen, die einen gesprochenen Text in Schriftzeichen umsetzen ... Gibt es das alles schon? Zu den Übersetzungscomputern: Es gibt Computer, die die Übertragung eines Textes, in einem thematisch eng begrenzten Rahmen, von einer Sprache in die andere leisten. Übertragung, nicht Übersetzung. Denn alle diese Übertragungen brauchen eine Nachkorrektur durch einen Übersetzer, weil der Computer nur die strukturelle Übertragung des Textes von einer Sprache in die andere leistet. Die Zweideutigkeiten, die Metapherhaftigkeit einer Sprache aber, also das wirkliche Verstehen von Bedeutungen hat er nicht im Griff. Dabei ist das 'nur' nicht abwertend gemeint. Mag sein, dass diese Vorarbeiten des Computers für einen Übersetzer eine Hilfe sind; darüber gibt es gegenteilige Ansichten. Nur die Schlußfolgerung daraus, der Computer beherrsche Sprachen und könne übersetzen, ist unzulässig. Zu den Spracherkennungssystemen: Dazu ein Zitat der Fachleute, Dr. Harald Höge und Dr. Michael Lang, Siemens AG München, Zentrale Aufgaben der Informationstechnik: „Sicherlich wären informationstechnische Einrichtungen benutzerfreundlicher, komfortabler und auch von Nichtfachleuten leichter bedienbar, wenn sie natürlich gesprochene Sprache 'verstehen' könnten. Obwohl namhafte Laboratorien z.T. schon seit Mitte der 50er Jahre auf dieses offenbar naheliegende Ziel hinarbeiten, ist die Anzahl der zur Zeit in der Praxis eingesetzten Spracherkennungsgeräte noch gering. (...) Heute kommerziell verfügbar sind sprecherabhängige WorterkenMarvin MINSKY, Computation; Finite and Infinite Maschines, Prentice Hall 1967, S. 2. 2 Anna Wimmer nungssysteme mit einem typischen Wortschatz von etwa 10 bis 200 Wörtern, die durch kommandohafte Einzelworteingabe abgefragt werden. Der komplette Wortschatz muß aber zuerst von einem Benutzer in einer Trainingsphase eingeübt werden“3 Auch hier geht es nicht um eine Abwertung der Leistungen der Kl. Es gibt eine ganze Reihe sehr sinnvoller Anwendungsmöglichkeiten für Worterkennungssysteme, wie z.B. Autos für Behinderte, bei denen die Bedienung der einzelnen Funktionen durch Einzelwortbefehle des jeweiligen Benutzers ausgeführt wird, ebenso in Bereichen der Chirurgie; und es gibt natürlich auch negative Anwendungsmöglichkeiten, vor allem in der Rüstung, für die sich die Kl wohl auch diese ehrgeizigen Ziele stecken mußte. Zu den Dialogprogrammen: Auch hier handelt es sich nicht um eine echte Kommunikation, sondern lediglich um formale Dialogmodelle, die mit menschlicher Kommunikation nur sehr wenig gemeinsam haben. Auf sie, wie Winograds SHRDLU (1971), möchte ich weiter unten noch eingehen. All diese Leistungen der Kl sind zweifellos anerkennenswert, zeigen aber doch auch ihre Grenzen. Meine Kritik richtet sich daher gegen die Vorstellung, die aus diesen Leistungen geschlossen wird, daß alle Funktionen der menschlichen Sprache und darüber hinaus sogar alle Funktionen des menschlichen Denkens vom Computer simuliert werden können; ja diese Vorstellungen reichen soweit, zu behaupten, die menschliche Sprachverarbeitung funktioniere so, wie sie im Kleinen von Computern simuliert wird. Und genau das wird von den meisten Vertretern der KI-Gemeinde behauptet. 2. Die 'Axiomatik' der KI-Forschung Diese 'Axiome', wie ich sie nenne, werden keineswegs von den KIForschern explizit als solche formuliert. Das theoretische Grundgebäude H. HÖGE und M. LANG, Digitale Spracherkennung, Physikalische Blätter 41 (1985), Nr. l, S. 10. 3 'Die 'Künstliche lntelligenz'-Forschung ... wird als ein längst bekannter wissenschaftlicher Konsens hingestellt, der nicht mehr bewiesen werden muß und auch nicht mehr hinterfragt wird. So wie l +l= 2 einfach gegeben ist. Mit diesen Grundannahmen steht und fällt jedoch ein wesentlicher Teil der Ausstrahlungskraft der Kl für die Wissenschaften vom Menschen und auch ein bedeutender Anteil ihrer eigenen Erfolgsbedingungen. l. Axiom: Computer und Menschen sind Systeme gleicher beide sind Automaten. Obwohl sich die bisherigen Ergebnisse der KI-Forschung im Vergleich zu ihren Prognosen eher bescheiden ausnehmen, ist der Glaube in der KIForschung nach wie vor ungebrochen, daß Menschen und Computer in ihren geistigen Formen und Funktionen nichts unterscheidet, außer, daß die Menschen eben schon länger Zeit hatten, diese zu entwickeln. Dazu die Aussagen einiger der Päpste der Künstlichen Intelligenz: A. Newell und H.A. Simon (1961): „Wir gehen lediglich davon aus, daß die Hardware von Computern der von Gehirnen insofern ähnlich ist, als beide universelle Apparate zur Bearbeitung von Symbolen sind, und daß ein Computer so programmiert ist, daß er elementare Informationsprozesse ausführt, die von ihrer Funktion her ganz den im Gehirn ablaufenden Prozessen entsprechen“4 . Karl Steinbuch (1965): „Die Technik der Nachrichtenverarbeitung ist faszinierend. Was sie anstrebt. z.B. Automatisierung mathematischer Arbeit, der Sprachübersetzung, automatische Erkennung der Schrift und der Sprache und Automaten mit der Fähigkeit zu lernen, ist die maschinelle Realisierung von Funktionen, die bisher ausschließlich dem Menschen vorbehalten waren. Wer sich mit diesen Problemen befaßt, erkennt die enge Verwandtschaft zwischen organischen und technischen Systemen. Die Auseinandersetzung mit den Problemen der Nachrichtenverarbeitung ist deshalb nicht nur für den Ingenieur, sondern ebenso für den Geisteswissenschaftler nützlich. Dieser kann Allen NEWELL und H.A. SIMON, Computer Simulation of Human Thinking, The RAND Corporation P-2276, 1961, S. 9. 4 Anna Wimmer am technischen Modell manche Einsicht gewinnen, welche ihm am lebenden System versagt blieb. Der Grundgedanke dieses Buches ist: Was wir an geistigen Funktionen beobachten, ist Aufnahme, Verarbeitung, Speicherung und Abgabe von Informationen“5 Terry Winograd (1976): „Wenn der verfahrenstechnische Ansatz erfolgreich ist, wird es am Ende möglich sein, die Mechanismen so detailliert zu beschreiben, daß es eine verifizierbare Übereinstimmung mit den in vielen Aspekten bis ins kleinste aufgeschlüsselten menschlichen Tätigkeiten gibt“6. 2. Axiom: Der Mensch ist ein informationsverarbeitendes System. Das 2. Axiom ist eine Folgerung aus dem 1.. Wird angenommen, daß Menschen und Computer Systeme gleicher Art, nämlich Automaten, sind, müssen auch die geistigen Funktionen des Menschen und die des Computers gleich sein. Während es beim l. Axiom jedoch zumindest in neuester Zeit Vertreter der KI-Forschung gibt, die diese einfache Formel Mensch= Automat nicht mehr so deutlich aussprechen wollen, findet sich das FolgeAxiom 2 in nahezu allen Veröffentlichungen. Zur Überprüfung dieser These seien die Leser auf die große Anzahl der Diplomarbeiten zu diesen Themen, z.B. an der TU München, verwiesen. [Absatz fehlt] 3. Axiom: „X zu verstehen“ bedeutet, ein Computerprogramm erstellen zu können, das X simuliert. Dazu zwei Zitate aus einem Aufsatz von S. Papert (1980), in dem er die Rolle der Kl für die Sprachentwicklungstheorie und die Entwicklungspsychologie behandelt. Im besonderen geht es dabei um die Auseinanderset5 Karl STEINBUCH, Automat und Mensch, 3. Aufl., 1965, S. 2. Terry WINOGRAD, Towards a Procedural Understanding on Semantics, Revue Internationale de Philosophie, Nr. 117 - 118, 1976, S. 264. 6 'Die 'Künstliche lntelligenz'-Forschung ... zung zwischen Chomsky und Piaget, in der Papert die Auffassung von Piaget vertritt, daß die Sprache nicht in der von Chomsky angenommenen Form auf angeborene Strukturen zurückgeführt werden kann. Mir soll es allerdings hier nicht darum gehen, wer von beiden Recht hat, sondern um die Methodik, mit der Papert seine Auffassung beweisen möchte. Er meint, die KI-Forschung hätte in dieser Auseinandersetzung drei „Trümpfe“ in der Hand: „The first (thrust, A.W.) tends to reduce the set of structures considered to be innate by showing how they could be acquired through the operation of more powerfui developmental mechanisrns.“, und weiter unten: „The contribution of AI to this area is to show how computational primitives are fundamentally important to all 7 [Absatz fehlt] Es wird der Eindruck erweckt, als habe man sich ganz intensiv mit den Prozessen im menschlichen Gehirn beschäftigt, und habe nun dies alles herausgefunden. Daß diese Aussagen jedoch dem Stand der wissenschaftlichen Entwicklung entsprächen, dafür gibt es nur wenig Anhaltspunkte. Schon die Wortwahl ist unexakt. Die hier verwendeten Begriffe, wie „Information“, „speichern“, „abrufen“, „verarbeiten“, „Verknüpfung“, „Effektivität“, sind in ihrer Bedeutung aus der Nachrichtentechnik abgeleitet. Obwohl die Techniker sonst von sich behaupten, eine exakte Terminologie zu benützen, werden sie hier ungenau, weil sie alltagssprachliche Bedeutungen mit denen aus der Nachrichtentechnik vermengen und damit unzulässige Analogiebildungen schaffen. Der Begriff Information z.B. hat zumindest zwei verschiedene Bedeutungen. Zum einen kann er soviel beinhalten wie „Auskunft“, „Nachricht“, „Mitteilung“, „Belehrung“ etc. Und natürlich kann man diese InformatioSeymor PAPERT, Artificial Intelligence and General Developmental Mechanisrns, in: M. Piatelli-Palmarini (ed.), Language and Learning. The Debate between J. Piaget and N. Chomsky, London 1980, S. 91 ff: „Der erste (Trumpf) zielt darauf, die als angeboren angenommene Menge von Strukturen zu reduzieren, indem man zeigt, wie sie durch die Arbeitsweise noch leistungsfähigerer Entwicklungsmechanismen (von Computern) erworben werden konnten. Der Beitrag der Kl auf diesem Gebiet ist es, zu zeigen, wie die Grundregeln des Computers für alle geistigen Funktionen von grundlegender Bedeutung sind: indem wir alle 'geistigen Organe' als computerähnliche Prozesse betrachten, kommen wir dazu, sie als weniger grundsätzlich unterschieden anzusehen, als es Herz und Leber sind.“ 7 Anna Wimmer nen auch verarbeiten, z.B. in einem Zeitungsartikel. Es gibt aber auch den Informationsbegriff, der aus der Nachrichtentechnik abgeleitet ist, und dort folgendermaßen definiert ist: Die Information oder der Informationsgehalt, der durch das tatsächlich stattfindende Ereignis aus der Menge der möglichen Ereignisse (Wahrscheinlichkeitsfeld) gewonnen wird, ist urnso größer, je größer die Unbestimmtheit vor dem betreffenden Ereignis war, welches aus der Menge der möglichen Ereignisse eintritt (nach Shannon). Da es sich bei der Kl um diesen technischen Begriff handelt, ist es unzulässig, dessen Bedeutung ohne genaue Definition auf den alltagssprachlichen Begriff zu übertragen. Dabei ist noch zu berücksichtigen, daß es sich bei der Information im nachrichtentechnischen Sinne keineswegs um den semantischen Gehalt, um Bedeutungen, sondern um rein syntaktische Kombinationen handelt. Die Bedeutung ist bei der Verarbeitung der Information vorerst belanglos. Winograd z.B. erstellte 1971 ein Programm, das den Computer in die Lage versetzt, in einer eng abgegrenzten „Klötzchenwelt“ einen Dialog mit dem Menschen zu führen. Aufgrund einer eingegebenen Syntax, einer formalen Semantik und einer Wissensbasis über die Gegenstände kann dieser Computer auf die Frage „wieviele Klötzchen hast du?“ antworten: „Mir gehören 10 Klötze.“, wenn sie vor ihm auf dem Tisch stehen. Dabei versteht der Computer nicht im geringsten, was mit dem Begriff 'gehören', 'besitzen', 'haben' alles verbunden ist. Dies ist auch völlig unmöglich, weil es keine Auswirkungen auf sein „Leben“ hat. Auf welcher Ebene sollen wir also die Äquivalenz zwischen dem Menschen als informationsverarbeitendes System und dem Computer annehmen? Auf der Ebene der Hardware, der BitStruktur, der Verarbeitung oder auf der obersten Ebene des scheinbar gleichen Ergebnisses? Was wir bisher von der menschlichen Sprachverarbeitung wissen, ist aber nun gerade, daß es dem Menschen gelingt, über Zeichen, Strukturen, Kombinationen Bedeutungen wahrzunehmen und in Handlungen umzusetzen. Dabei steht die Wissenschaft hier zwar sicher noch ganz am Anfang, aber es wird doch schon klar, daß zur Klärung solcher Fragen die Computerwissenschaft allein wenig beizutragen haben wird. Wenn wir einmal davon ausgehen, daß sich der Begriff der Information über Shannons Definition hinaus doch auf den bedeutungsbezogenen Bereich geistiger Prozesse ausdehnen ließe, wie dies ja im Bereich der Informationspsychologie versucht wird, dann bilden den Eingang des Systems die menschlichen Rezeptoren und den Ausgang die menschlichen Effektoren. Dabei läßt sich nun feststellen, daß die Informationsmenge, die von den Rezeptoren aufgenommen wird, ca. 1010bit/s beträgt. Auf dem Weg 'Die 'Künstliche lntelligenz'-Forschung ... zum Zentrum der „Verarbeitung“ kommt es jedoch zu einer so enormen Verdichtung der Informationsmenge, daß für die bewußte Verarbeitung nur 25 bit/s übrig bleiben. Bis heute ist es auch in der Informationspsychologie ungeklärt, wie die Menschen eigentlich mit dieser geringen Menge die wesentlichen Gegebenheiten der Welt erfassen können. Einen weiteren Einwand gegen das Modell des Menschen als informationsverarbeitendes System liefert die Neurophysiologie. Bis vor wenigen Jahren wurde auch hier das digitale Modell von „0“ und „l“ Zuständen für die Neuronentätigkeit angenommen. Neuere Untersuchungen zeigen jedoch, daß die Vorgänge in den Nervenbahnen eher analogen Verhältnissen entsprechen, die sehr viel komplexere Strukturen aufweisen und nicht mit dem Parallelverarbeitungsmodell der Computerwissenschaft erklärt werden können. Wir können also festhalten, daß diese Analogiebildungen der Kl vor allem durch die Prozesse im Computer genährt werden, nicht jedoch durch die Erforschung des menschlichen Gehirns. Sollte man aber, um den Menschen zu erklären, nicht auch ab und zu den Menschen betrachten? Übrigens sehen auch einige Vertreter der Kl darin einen großen Mangel und erkennen mehr und mehr diese Gleichsetzung Mensch=Computer als einen Grund dafür, daß sich die KI-Forschung häufig in Sackgassen begeben hat. Was ist dann nach wie vor das Verführerische an der Kl? Die Kl bietet durch ihre Möglichkeiten einen scheinbar materialistischen Ansatz zur Erklärung geistiger Vorgänge im Menschen. Dabei ist es aber gerade diese scheinbar materialistische Erklärung, die über diese Hintertür zu einem rein mechanistischen Menschenbild führt. 4. Die „Mikrowelt“ der Kl Die etwas spärlichen Ergebnisse der Kl führten dazu, dass man in neuerer Zeit (etwa seit 1970) nicht mehr die Entwicklung allesumfassender komplexer Modelle des Menschen und deren Simulation durch den Computer in Vordergrund stellt, sondern auf die Entwicklung sogenannter „Mikrowel- Anna Wimmer ten“ ausweicht. In diesem Zusammenhang steht das bereits erwähnte Programm von Winograd zum Verstehen natürlicher Sprachen SHRDLU (1971). Es handelt sich hierbei nach Winograd um „ein Computerprogramm, das Sprache in einem begrenzten Bereich 'versteht', indem es ein Modell des Gegenstandes enthält, über den geredet wird, sowie einen Kontext der Unterhaltung ...“8. Mit dem Versuch, Sprachverhalten in einem überschaubaren Teilbereich zu simulieren, wird aber sehr viel mehr versucht, als nur einen konkreten Anwendungsbereich abzudecken. Das Sprachverhalten, geistige Funktionen des Menschen, wie Denken und Intelligenz, sollen in ihre Atome oder Elemente zerlegt werden. Diese Funktionen werden dann als Größen behandelt, die, vom übrigen Leben des Menschen getrennt, isoliert simuliert werden können. So schreiben Papert und Minsky: „Die Künstliche Intelligenz befindet sich als neue Technologie in einem Zwischenstadium der Entwicklung. Während der ersten Phase eines neuen Forschungszweiges müssen die Dinge vereinfacht werden, so daß sich die elementaren Phänomene isolieren und untersuchen lassen. Bei den erfolgreichsten Anwendungen arbeiten wir mit einer Strategie, die wir als 'Arbeiten in einer Mikrowelt' bezeichnen“9. Daß sich die Ausdehnung dieser Mikrowelten auf die gesamte Welt äußerst kompliziert gestaltet, haben die KI-Forscher größtenteils selbst erkannt. Dennoch halten sie an einer rein quantitativen Vorstellung dieser Ausdehnung fest. Die Gleichsetzung des Menschen mit dem Computermodell führt dazu, daß qualitative Entwicklungen menschlicher Intelligenz geleugnet werden, weil sie mit den mechanischen, von expliziten Regeln abhängigen Programmen nicht erklärt werden können. Dabei ist offensichtlich, daß die menschliche Intelligenz gerade dann einsetzt, wenn die expliziten Regeln nicht mehr angegeben werden können. Nach wie vor ist, nicht nur für die Kl, unklar, wie sich der Mensch so rasch auf das für ihn Wesentliche konzentrieren kann, obwohl er dafür keinen Grund angeben kann. (Vergleiche dazu die Protokolle von Schachspielen, die von Schachmeistern aufgenommen wurden, in: H.L. Dreyfus, 1985 10.) T. WINOGRAD, A Procedural Model of Language Understanding, in: R. Schank u. K. Colby (Eds.), Computer Models of Thought and Language, San Francisco 1973. 8 S. PAPERT u. M. MINSKY, Artificial Intelligence Laboratory MIT, Memo Nr. 299, 1973, S. 95. 9 10 „Manchmal gebrauchte de Groots Spieler so allgemeine Sätze wie, '... und das ist eine Gewinnstellung für Weiß', wo es nicht möglich ist zu erkennen, welche Struktur oder 'Die 'Künstliche lntelligenz'-Forschung ... Durch die scheinbar mögliche Simulierung einzelner geistiger Funktionen des Menschen im „Mikrowelt“-Modell werden materielle und geistige Prozesse gleichgesetzt. Dabei bleibt diese Simulation jedoch rein äußerlich und formal, wie dies die Dialogprogramme zeigen. Die Beziehung, das dialektische Verhältnis von Sein und Bewußtsein, wird nicht erklärt; ja, wird nicht einmal mehr zum Gegenstand der Forschung. Ein Zitat von Gero v. Randow verdeutlicht diese undialektische Gleichsetzung: „Warum sollen die erfindungsreichen Menschen das Gefühl nicht eines Tages als inneren Zustand eines Computersystems simulieren können? Vernünftiger und aufregender als die Behauptung, daß Computer kein Gefühl haben, ist die Frage: Was sind Gefühle und wie muß ein Programm aussehen, das ein Modell menschlicher Gefühle ist?“11 Unabhängig davon, daß es sicherlich nicht die einzige oder wesentliche Spezifik des Menschen ist, Gefühle zu haben, gehe ich davon aus, daß wir zur Erforschung der Phänomene unserer Gefühlswelt mehr brauchen als die „Künstliche Intelligenz“. Was hier gerade ungeklärt bleibt, ist die Beziehung der materiellen und der Bewußtseinsprozesse. Wie sieht dieser innere Bewußtseinszustand aus? Die Tatsache jedenfalls, daß bei allen geistigen Prozessen auch materielle Prozesse ablaufen und die notwendige Basis dafür bilden, reicht nicht aus, um zu einer einfachen Reduktion dieser geistigen Prozesse auf ihre materielle Basis zu kommen. Wenn Menschen miteinander sprechen, hören sie z.B. 'Baum' und nicht ein kompliziertes physikalisches Lautspektrum. Ein Verrücktspielen der Module eines Computers wird mit Sicherheit nicht identisch sein mit seinem inneren Zustand des Verliebtseins. Im übrigen scheint mir auch hier im Vordergrund der Zweck zu stehen, menschliche Gefühle nur deshalb zu untersuchen. um ein entsprechendes Computermodell erstellen zu können. Auch wenn das vielleicht keine bewußte Intention des Autors ist, halte ich dieses Vorgehen dennoch für fragwürdig. Wenn die Kl ihr selbstgestecktes Endziel, die Schaffung einer künstlichen welche Merkmale der Stellung zu dieser Einschätzung führen.“ NEWELL u. SIMON, An Example of Human Chess Play in the Light of Chess Playing Programms, Carnegie Institut of Technology, 1964, S. 10, in: Hubert L. Dreyfus, Die Grenzen künstlicher Intelligenz, 1985, S. 54 ff. 11 G. v. RANDOW, a.a.O., S. 75. Anna Wimmer Intelligenz, die der menschlichen ebenbürtig ist, für machbar hält, dann muß sie davon ausgehen, daß der menschliche Geist allein aus der additiven Anhäufung seiner „Organe“ erklärt werden kann. Der Mensch wird so letztlich zu einem von ungeklärter Hand programmierten Objekt erklärt, aber nicht zu einem sich durch seine spezifischen Beziehungen zur äußeren Welt selbst schaffenden Wesen. Der Kernpunkt meiner Kritik an der KI-Theorie des Menschen ist, daß das Wesentliche des Menschen sich nicht durch noch so atomistische Detailuntersuchungen herausfinden läßt. Wenn es nicht gelingt, die Segmente in ihren Zusammenhang zu bringen, werden wir den wesentlichen Funktionen menschlicher Intelligenz, z.B. der menschlichen Sprache, nicht näher kommen. Vor dieser Herausforderung stehen heute alle Einzelwissenschaften bei ihrer empirischen Arbeit. Wenn v. Randow beteuert, „der Mensch ist ein Automat“, und impliziert, das macht doch nichts, dann fühle ich mich dadurch zwar ebensowenig gekränkt, wie wenn er sagt, „der Mensch ist ein Haufen Eiweiß“, er lenkt damit aber von dem ab, was das Wesentliche des Menschen ausmacht und einer gründlicheren wissenschaftlichen Arbeit bedarf. „Und dann glaubt der Vulgäre eine große Entdeckung zu machen, wenn er der Enthüllung des inneren Zusammenhangs gegenüber drauf pocht, daß die Sachen in der Erscheinung anders aussehen. In der Tat er pocht drauf, daß er am Schein festhält und ihn als Letztes nimmt. Wozu dann überhaupt eine Wissenschaft?“ Karl Marx, 1868 12. 12 Karl MARX an Ludwig KUGELMANN, 11. Juni 1868, In: MEW. Bd. 32, S. 553. 'Die 'Künstliche lntelligenz'-Forschung ... In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 29-41 Autor: Alexander von Pechmann Artikel Alexander von Pechmann John Locke / Gottfried W. Leibniz / Giambattista Vico: Der Geist in der Maschine? - Ein Gespräch Wohl aufgrund des Namens unserer Zeitschrift wurde vor kurzem der Redaktion vermutlich von dem schon anderweits bekannten Kontaktmann himmlischer Ereignisse und Beschlüsse, Aloys Hingerl ein überaus bemerkenswerter Bericht überbracht. Der Bericht gibt augenscheinlich ein Streitgespräch wieder, das erst kurzem geführt worden sein muß, und das in der Tat von aktuellem Anlaß ist. Es behandelt die Fragen nach dem Verhältnis von Denken und Wissen, „intelligenten Maschinen“, der Erkennbarkeit der Welt und dem Verhältnis von formalisierten Systemen und menschlicher Intelligenz. Die drei Teilnehmer des Gesprächs sind erstens John Locke (1632 - 1704), der, wie der Bericht zeigt, weiterhin an den von ihm entwickelten Positionen des theoretischen Empirismus und des praktischen Individualismus festhält; des weiteren Gottfried Wilhelm Leibniz (1646-1716), der offenkundig dem logischen Rationalismus und seiner damaligen Idee der „prästabilierten Harmonie“ treugeblieben ist, und im übrigen eine der ersten Rechenmaschinen entwickelt hatte; und schließlich Giambattista Vico (1666 - 1744) aus Neapel, einer der Begründer der modernen Geschichtsphilosophie, der sich auch in dem Gespräch für den von ihm entwickelten Grundsatz, daß das Wahre und das Gemachte eins seien („verum et factum convertuntur“), stark macht. Obwohl wir über die näheren und weiteren Umstände dieses Streitgesprächs nichts wissen, freuen wir uns natürlich, unseren Lesern den Bericht zur Kenntnis zu geben, und haben versucht, da, wo es uns möglich und nützlich erschien, den Text durch Erläuterungen zu erhellen. Alexander von Pechmann LOCKE: Lieber Gottfried, haben Sie das schon gehört? Da unten wollen sie jetzt ein riesiges Projekt beschließen, um den Krieg jetzt auch hier oben führen zu können. Einstein meinte schon, die sind jetzt völlig übergeschnappt; nicht nur, daß sie sich ein dutzendmal in die Luft jagen können, jetzt arbeiten sie auch noch an Apparaten, die für sie das Kriegführen im Himmel erledigen sollen. „Intelligente Waffen“ nennen sie diesen Wahnsinn. Erinnern Sie sich noch an unser Gespräch damals in Amsterdam mit dem jungen Vico1? Schon damals hatte ich das alles vorausgesehen. Diese Entwicklung von 'Denk'maschinen, die den menschlichen Geist einfangen sollten, und von der Sie so begeistert waren, - ich wußte schon, daß sie nichts Gutes bringen wird. LEIBNIZ: Nun ja, ich erinnere mich. Sie vertraten damals die Ansicht, die mich übrigens noch immer nicht überzeugt, daß einzig und allein der Mensch, besser: der menschliche Geist, in der Lage sei zu denken. LOCKE: Ja, genau. Denn das Denken besteht in nichts anderem als in der Reflexion der Wahrnehmungen. Und da, wo diese Wahrnehmungen und die vergleichende und verknüpfende Reflexion fehlen, da existiert eben kein Denken. Jetzt aber zerlegen sie diese Wahrnehmungen in sogenannte Daten, verwandeln die Reflexion in elektrische Kreise und Flüsse - und nennen das Ganze dann „intelligente Maschinen“. Eine Mißachtung des menschlichen Geistes ist das, die ich mir, lebte ich noch unter diesen Verrückten, nicht gefallen ließe. LEIBNIZ: Übertreiben Sie da nicht ein bißchen, lieber John? Wenn ich mich recht erinnere, habe ich Ihnen damals schon erklärt, daß Sie zwei Sachen verwechseln: nämlich das Denken, von dem ich Ihnen in der Tat recht gebe, daß dies im Bewußtsein der Menschen geschieht, und andererseits das Wissen, von dem ich allerdings weiterhin behaupte, es existiert im Menschen unabhängig davon, ob er es denkt oder nicht. Hatte ich Ihnen nicht das Beispiel von Platon im „Menon“ genannt, als Sokrates durch das bloße Fragen einen Sklaven dazu bringt, mathematische Wahrheiten auszusprechen, die er niemals gelernt und gedacht, und doch gewußt hatte? Wir 1 J. Locke bezieht sich auf eine Unterredung, die von ihm, Leibniz und Vico in Amsterdam höchstwahrscheinlich im Jahre 1702 geführt wurde. Der Geist in der Maschine? wissen eben gar viele Dinge, die wir noch nie gedacht haben2. Und wenn ich heute beobachte, wie die Wissenschaft dazu kommt, die allen Sprachen gemeinsamen, logischen Strukturen aufzufinden, dann sehe ich mich in der Tat darin bestätigt, daß die Wissensstruktur und das aktuelle Denken zwei ganz verschiedene Dinge sind3. LOCKE: Oh, nein. Sie haben hoffentlich nicht vergessen, daß ich damals sowohl die Methode von Sokrates, mit der er den Sklaven dazu brachte, wie auch Ihre Argumentation für einen unsauberen Trick gehalten habe. Denn die Behauptung, dem Geist sei zwar ein Wissen eingeprägt, das er aber gar nicht kenne und sich niemals bewußt gemacht zu haben brauche, enthält in sich einen Widerspruch. Wie soll denn ein Satz im Bewußtsein sein, ohne jemals bewußt geworden zu sein4? Und was Ihre Beobachtung der Wissenschaft angeht, so hat bislang noch keiner diese spekulativen Strukturen angeben können. Ein Wissen ohne die Tätigkeit des Geistes ist unmöglich. Und geradezu widersinnig ist die Meinung, elektrische Schaltungen verkörperten ein Wissen. LEIBNIZ: Aber mein lieber John. Sie können doch weniger denn je in Abrede stellen, daß die Logik und die Mathematik nicht deswegen ihre Gültigkeit besitzen, weil Sie oder ich sie uns bewußt machen, sondern daß sie umgekehrt deswegen gelten, weil wir sie als wahr erachten müssen, wann immer sie uns bewußt werden. Ansonsten wären ihre Gesetze ja bloße Übereinkünfte, die auch ganz anders sein könnten; und das werden Sie doch wohl nicht behaupten wollen. Ich finde es tatsächlich eine der genialsten Leistungen der Menschen, Maschinen konstruiert zu haben, die die Logik und die Mathematik in ihren vielfältigsten Möglichkeiten repräsentieren. Wenn ich an meine einfache Rechenmaschine von damals denke, dann könnte ich immer noch unglücklich darüber werden, daß es mir nicht vergönnt war, diese Maschine zu erfinden!5 2 Vgl. die ähnliche Argumentation, die Leibniz 1703 niederschrieb, und die nach seinem Tod 1765 unter dem Titel „Neue Versuche über den menschlichen Verstand“, 1.Buch, veröffentlicht wurde. 3 Leibniz bezieht sich offenbar auf die Richtung in der gegenwärtigen Linguistik, die die „generative Grammatik“ (Chomsky) vom aktuellen Sprechen unterscheidet. 4 J. Locke hat diesen Gedanken schon in dem 1690 erschienenen „Versuch über den menschlichen Verstand“, 2.Buch, 1.Kap., ausgeführt. 5 1673 wurde Leibniz aufgrund seines Modells einer Rechenmaschine in die 'Royal Society' zu London aufgenommen. Allerdings funktionierte diese Maschine trotz erheblicher Investitionen von Leibniz niemals zufriedenstellend. Alexander von Pechmann LOCKE: Ich rede offenbar noch immer an eine unüberwindliche Wand. Verstehen Sie denn nicht, daß es keineswegs überzeugend ist, wenn Sie aus der Tatsache, daß wir ohne Zweifel die Axiome der Logik als wahr ansehen, darauf schließen, daß diese folglich (!) unabhängig vom Denken, quasi an sich, vorhanden sind? Es wäre genauso, als würden Sie behaupten, die Buchstaben- und Wörterfolge in einem Buch verkörpere ein Wissen, unabhängig davon, daß es geschrieben und gelesen wird. Daß diese Auffassung nicht nur unsinnig ist, sondern auch gefährlich wird, sieht man daran, daß neuerdings viele Menschen mit fast schon religiöser Ehrfurcht vor dem sogenannten Maschinenwissen in die Knie gehen. Wo bleibt denn da noch die menschliche Freiheit und Würde, wenn nicht mehr der menschliche Geist, sondern ab jetzt die Maschine das Wissen in Besitz hat? Können Sie wirklich ... VICO: Ja, was höre ich? John Locke wieder in seinem Element? Erlauben Sie, daß ich als Dritter Ihrem Bunde hinzutrete? LEIBNlZ: Aber gerne; noch dazu, wo es eigentlich um dieselbe Angelegenheit geht, die wir drei schon damals in Amsterdam verhandelt hatten. Erinnern Sie sich noch? VICO: Natürlich. Ist das Wissen bloß subjektiv, oder auch objektiv? In der Tat ein hochaktuelles Thema. Zwar spricht man heute ja wohl nicht mehr vom „Wissen“, sondern von „Verdrahtung“, von „Information“, von „Speicherung“ usw., aber das Problem scheint mir tatsächlich das alte zu sein ... LOCKE: ... und eine neue Verrücktheit. Man tut wirklich so, als wäre das dem Menschen Ureigenste, seine Seele und sein Geist, ein x-beliebiger Gegenstand, den man wie eine seelenlose Maschine zerlegen und wieder zusammensetzen kann. VICO: Lieber John, nun beruhigen Sie sich doch. Auch ich räume Ihnen gerne ein, daß die Erforschung einer „künstlichen Intelligenz“, wie man das heute zu nennen pflegt, keineswegs unproblematisch ist; aber schon damals hatte ich Sie darauf hinzuweisen versucht, den menschlichen Geist nicht nur isoliert, als eine völlig eigenständige Substanz, zu betrachten, sondern ihn an seinen Produkten und Objektivationen zu messen. Das Wahre und das Gemachte, sagte ich, sind ein und dasselbe. Folglich sehe ich in der Der Geist in der Maschine? Entwicklung dieser neuen Technik keinen erneuten Verstoß gegen die Menschlichkeit, sondern ein wirklich aufregendes Beispiel der menschlichen Produktivität, das vielleicht nur noch mit der Erfindung des Pfluges oder der Maschine vergleichbar ist6. Wenn Sie sich vorstellen, wieviel logisches, mathematisches, elektrotechnisches und auch chemisches Wissen in den Bau dieser Apparate eingeht, dann finde ich das keine Verrücktheit, sondern im Gegenteil eine geniale Leistung. LOCKE: Das ist ja unbestritten, aber keine Lösung des Problems. Wieviel Genialität steckt in den Konstruktionen von Kanonen und Bomben, die doch nur dazu dienen, menschliches Leben zu vernichten. Ich jedenfalls bleibe dabei: zwischen dem menschlichen Geist und noch so genial ausgeklügelten elektrischen Schaltungen besteht ein substantieller Unterschied, der das menschliche Wissen niemals ersetzen läßt. Das eine ist Geist, und das andere ist Materie. LEIBNIZ: Nun, lieber John, da haben wir Sie ja. Hatte ich Ihnen nicht in aller Eindringlichkeit klar zu machen versucht, daß ihr Cartesianismus, dem Sie offenbar immer noch anhängen, gänzlich unhaltbar ist? Ich halte es da, bei allen Einwänden, viel lieber mit Spinoza, der ja glücklicherweise diesen unseligen Dualismus von Geist und Materie überwunden hat. Wissen Sie, erst kürzlich hatte ich ein sehr interessantes Gespräch mit dem Physiker Erwin Schrödinger7, der, wie er sagte, von Mal zu Mal verblüffter ist, wie sehr doch die materiellen Strukturen unserem Bewußtsein ähneln. Und was mich natürlich besonders freut, daß meine Thesen von damals, von der prästabilierten Harmonie des Universums, von der Übereinstimmung der Gesetze der körperlichen Bewegungen mit denen der geistigen Tätigkeit, und den nur graduellen Unterschieden zwischen den Naturkräften und dem Bewußtsein, offenbar immer mehr Anhänger gewinnt. Wenn also diese Übereinstimmung zwischen Materiellem und Geistigem sich bestätigt, was in aller Welt soll dann daran verwerflich sein, Apparate zu konstruieren, die nach den Regeln der Logik und der Mathematik funktionieren? Die Re6 Vico war, wie Marx später hervorhob, einer der ersten, der seinen Blick auf die Geschichte der Technologie richtete, da sie Ausdruck der Schöpferkraft des menschlichen Geistes sei. Obwohl sein Hauptwerk „Die neue Wissenschaft über die gemeinschaftliche Natur der Völker“ erst posthum 1744 nach jahrzehntelanger Arbeit veröffentlicht wurde, war ihm offenkundig schon 1702 die Bedeutung des Werkzeugs für die menschliche Geschichte klar. 7 Erwin Schrödinger (1667 - 1961), Atomphysiker und Verfasser der wichtigen Schrift: „Was ist Leben?“. Alexander von Pechmann chenbretter, die wir damals noch verwendet haben, oder die Rechenschieber verkörperten doch auch schon arithmetisches Wissen, ohne daß sich jemand darüber aufgeregt hatte. VICO: Lieber Gottfried, spielen Sie die Bedeutung der neuen Technik jetzt nicht ein bißchen sehr herunter? Die modernen Rechenautomaten bestehen ja nicht nur aus logischen Schaltungen, sondern sind auch in der Lage, Daten zu speichern und diese nach einem gegebenen Programm zu verarbeiten. Hier kann man nicht mehr nur davon reden, daß sie ja bloß logisches Wissen in ihren Schaltkreisen verkörperten, sondern daß sie gewissermaßen auch über ein Tatsachenwissen verfügen und mit diesem selbsttätig operieren können. Und das kommt doch schon sehr nahe an das heran, was normalerweise mit „Denken“ bezeichnet wird. LEIBNIZ: Sie haben völlig recht. Mir ging es eben nur darum, Johns überspitzten Empirismus und Psychologismus zu widerlegen. Wenn er meint, Wissen, und vor allem das logische und mathematische, allein auf die Tätigkeiten des menschlichen Geistes gründen zu müssen, dann irrt er darin leider. Ansonsten bin ich sogar sehr stolz, wenn ich sehe, wieviele Impulse ich mit meiner alten Idee der „ars combinatoria“ gegeben habe. Können Sie sich erinnern, wie ich damals erwähnte, daß man letztlich alle Zahlen und Begriffe in Kombinationen aus zwei Ziffern darstellen können müßte; und daß dies sowohl zu einer erstrebenswerten Klarheit bei der Verwendung der Begriffe als auch zur größten Übersichtlichkeit und Leichtigkeit der Berechnungen führen würde?8 VICO: Natürlich erinnere ich mich. Auch wenn ich meine Bedenken hatte. LEIBNIZ: Nun, das hat sich ja glänzend bestätigt. Damals allerdings sah ich weit und breit keine Möglichkeit, dieses dyadische Programm auch nur annähernd technisch zu realisieren. Die notwendigen Speicherungen und Umformungen solcher Formeln waren mit den Mitteln der Achsen und Zahnräder einfach nicht durchführbar. Erst die Silizium-Halbleiter-Technik, wirklich eine geniale Leistung, hat hier den Durchbruch geschafft. 8 Leibniz bezieht sich offenbar auf seine Arbeit: „De Progressione dyadica“, in der er analog dem Grundgedanken der Tao-Philosophie des „Yin und Yang“ - ein binäres Zeichen- und Rechensystem entwickelte. Der Geist in der Maschine? VICO: Dann sind wir ja soweit, die Frage zu stellen, ob diese SiliziumHalbleiter-Systeme denken können. LEIBNIZ: Stimmt. Zuerst einmal verkörpern sie zweifellos logisches Wissen: denn sie sind nach den Regeln der mathematischen Logik aufgebaut. Weiterhin müssen wir uns vergegenwärtigen, daß zwischen dem aktualen Denken, den Wahrnehmungen, Vorstellungen, Wünschen usw., die ich „Perzeptionen“ nannte, und dem erkennenden Denken, der „Apperzeption“, ein Unterschied besteht. Während im ersten Fall dem Menschen alles mögliche durch den Kopf geht, ahmt der menschliche Geist, so sagte ich, im zweiten Fall nach, wie Gott in seiner Vernunft die Welt geschaffen hat, indem er sachgemäß die Zahlen und Begriffe miteinander verknüpft und trennt. Und wenn nun ein Automat mit exakt festgelegten Zeichen nach den Vernunftgesetzen des Beweises und der Berechnung operiert, trennt und verbindet, sehe ich keinen Grund, nicht zu sagen, er denkt. Im Gegenteil, die Maschine garantiert die Folgerichtigkeit der logischen Operationen in weit höherem Maße als der Mensch; denn welch hohes Maß an Aufmerksamkeit ist für den Menschen erforderlich, wie oft täuscht ihn sein Gedächtnis oder versagt die Erinnerung; von der Geschwindigkeit der Operationen einmal ganz abgesehen.9 Ich sehe es daher weniger denn je als ausgeschlossen an, eine künstliche Intelligenz, oder wie ich sagen würde, eine „künstliche Monade“ zu schaffen, die alle notwendigen Informationen - ich sage dazu „Tatsachenwahrheiten“ - nicht nur speichert und auflistet, sondern sie sachgemäß verbindet und organisiert. Wäre es nicht in der Tat die erhabenste Aufgabe der Wissenschaft, ein Kunstwerk zu fertigen, das als Spiegel des Universums dessen Harmonie und Vollkommenheit in völliger Klarheit repräsentiert? Eine Aufgabe, zu der der individuelle Geist wohl berufen, doch der Trübungen seines Bewußtseins wegen nicht fähig ist. LOCKE: Um Gottes Willen, nein! Sobald Sie mit Ihrer fixen Idee einer „künstlichen Zentralmonade“ anfangen, drängt sich mir jedesmal ganz unweigerlich Hobbes' Theorie vom „Leviathan“ auf, von jenem „künstlichen Gott“, dem sich die Menschen aus Einsicht in ihre vermeintlichen Unzulänglichkeiten unterwerfen sollen. Was bei ihm wenigstens noch als 9 Leibniz schlug schon damals in seiner Schrift zur „ars combinatoria“ ein Verfahren vor, nach dem sich philosophische Dispute durch das Rechnen mit festgelegten Zeichen werden lösen lassen. Alexander von Pechmann Person gedacht war, das ist für Sie nur mehr eine Maschine aus Drähten, der der Mensch gehorchen muß, weil sein eigener Verstand so schwach sei. Nein, das läßt sich mit menschlicher Freiheit nicht mehr vereinbaren. Doch lassen Sie mich noch einen anderen Einwand anführen, der Sie vielleicht eher überzeugt. Kürzlich hatte ich mit Wittgenstein - Sie kennen ihn? - ein Gespräch über Probleme der Sprache; und dabei ist mir etwas aufgegangen, was mir vorher noch nicht so klar war. Offenbar hängen Sie in Ihrem unerschütterlichen Vertrauen in Spinoza noch immer dem Glauben an, eine eindeutige Relation zwischen den Zeichen und Dingen und zwischen den Sätzen und Tatsachen herstellen zu können. Wittgenstein hat mir sehr lebendig geschildert, wie schwer es für ihn war, sich von diesem Irrglauben zu lösen. Begriffe, so seine Erkenntnis, kann man nicht fixieren, kann man nicht davon loslösen, wie der Mensch sie gebraucht, welche Bedeutung er ihnen in seinem geistigen Kontext verleiht. Die metaphysische Gleichsetzung von Begriff und Sache und die Fixierung des Dings im Zeichen ist erkenntnistheoretisch gesehen völlig unkritisch und dogmatisch, und wohl eher dem magischen als dem freien Denken verbunden. Doch nur diese unkritische Ineinssetzung äußerer Zeichen mit Dingen erlaubt es Ihnen, lieber Gottfried, irgendwelche elektromagnetischen Zustände als Wissen und irgendwelche Stromflüsse als Denken zu betrachten. Wo die Wahrnehmung, die Reflexion des Geistes und lassen Sie mich noch hinzufügen - der praktische Umgang mit den Inhalten des Bewußtseins fehlt, fehlt auch das Wissen und das Denken. Maschinen denken nicht, weil ihnen der Geist fehlt. LEIBNIZ: Na, da haben Sie aber einen schönen Mitstreiter gefunden, lieber John. Ich könnte Ihnen da noch eine ganze Reihe sogenannter Philosophen nennen, die in letzter Zeit zu uns gestoßen sind, und die sich hier in Pessimismus und in einem gottlosen Nihilismus verbreiten, der mich fragen läßt, was sie eigentlich hier wollen. Jedenfalls haben die alle eine recht verschrobene Metaphysik und oft wenig Ahnung von der Rolle der Logik und Mathematik. Doch bleiben wir sachlich. Ich vertrete ja keinen einfachen Materialismus, wie Sie unterstellen, der die geistige Tätigkeit auf mechanische Zustandsänderungen reduzieren will: den mag's auch geben. Ich hingegen behaupte, daß es zwischen den dynamischen Strukturen der Naturkörper und der Tätigkeit des menschlichen Bewußtseins keinen substantiellen Gegensatz Der Geist in der Maschine? gibt, wie Sie meinen, sondern eine Übereinstimmung. Und daher kann ich nicht einsehen, warum nach logischen Regeln geordnete Stromkreise und flüsse nicht als „Intelligenz“ gedeutet werden sollten; das ist für mich eine Frage ihrer Organisation und Funktionsweise, nicht der Substanz. Weiterhin weigere ich mich zu behaupten, es sei prinzipiell unmöglich, ein vollständiges Wissen der Welt zu erreichen, auch und erst recht in einer künstlichen Monade. Nur wenn man, wie diese Gottlosen, die Sie sich als Verstärkung geholt haben, meint, die Welt sei nicht nach vernünftigen Grundsätzen eingerichtet oder, wie ich damals sagte, nicht „die beste aller Welten“10. Dann allerdings sollte man besser schweigen, als ständig die menschliche Unfähigkeit zur Erkenntnis beklagen. VICO: Vertreten Sie jetzt nicht einen recht naiven Optimismus? „Gott hat die Welt nach vernünftigen Prinzipien geschaffen“, „Der Computer als vollkommenes Erkenntnisorgan“ - das ist doch reichlich problemlos gedacht. Ich muß John in seiner Befürchtung recht geben, Ihre These von der Überlegenheit des Maschinenwissens berge in sich manch inhumane Züge. Andererseits kann ich aber auch seinem überzogenen Dualismus nicht zustimmen, der Geist und Materie so schroff gegenüberstellt. Lassen Sie mich bitte nochmals auf meine alte These des „Verum et Factum convertuntur“ zurückkommen. Was ist denn das Wesentliche des modernen Automaten, über den wir die ganze Zeit sprechen? Doch nicht, daß er bloß aus Materiellem besteht, oder daß er auch Wissen verkörpert; das Wesentliche ist doch, daß er von den Menschen gemacht und produziert worden ist. Er ist zu dem Zweck erdacht, konstruiert und produziert worden, dem Menschen geistige Arbeit abzunehmen, ihn für dessen Zwecke wirken zu lassen; sei es, weil die geistige Arbeit zu stumpfsinnig, sei es, weil die nötigen Berechnungen für den menschlichen Geist zu komplex und langwierig sind. Und wie ein Pflug etwa als bloßes Naturding nichts anderes bewirkt, als Rillen in die Erdkruste zu ritzen, oder ein Webstuhl verschiedene Fäden zu verknüpfen, so bewirkt dieser Automat zunächst nichts anderes als eine Veränderung elektrischer oder magnetischer Zustände. Das ist die eine, rein materielle Seite. Die andere aber ist, daß diese Mechanismen für den Menschen Bedeutung gewinnen, indem er sie in seinen Arbeits- und Lebenszusammenhang integriert. Der Pflug schafft die Voraussetzungen fürs Säen, der Webstuhl einen nützlichen und ästhetischen Gegenstand, 10 Vgl. Leibniz' „Theodizee“ von 1710. Alexander von Pechmann und der Computer eben Zustände, die als Problemlösungen interpretiert werden. Was immer er an sich sein mag, das Wesentliche ist, daß er ein vom Menschen geschaffenes Organ ist, das ihm geistige Arbeit abnimmt. Wenn wir nun davon ausgehen, daß dieser Gesichtspunkt das Entscheidende der neuen Technik ist, dann ergeben sich m.E. zwei grundsätzliche Probleme. Das eine besteht darin, daß sich die Menschen durch diese Technik ihre geistigen Fähigkeiten, freiwillig oder nicht, wegnehmen lassen. Neulich habe ich mir sagen lassen, daß ein Computerwissenschaftler ein psychotherapeutisches Programm erarbeitet hat, und ganz entsetzt war, wie vertrauensselig viele Menschen, wider besseres Wissen, mit dem Automaten als ihrem Therapeuten kommuniziert haben.11 LOCKE: Ja, davon habe ich auch gehört; in Amerika, glaube ich. Sehen Sie jetzt, lieber Gottfried, wohin vielleicht gut gemeinte Absichten führen? Die Übertragung geistiger Tätigkeiten auf seelenlose Maschinen bedeutet einen Verlust der menschlichen Individualität. Das ist in der Psychologie nicht anders als in militärischen Dingen, von denen ich anfangs sprach. Der Mensch gibt sich in eine für ihn katastrophale Abhängigkeit von der Maschine. VICO: Nun, ich sehe darin allerdings keinen Automatismus, sondern ein Problem. In der letzten Zeit hatte ich eine Reihe von Unterredungen mit Karl Marx, der es übrigens noch immer nicht recht begreifen kann, wie ich damals im abgeschiedenen Neapel meine Geschichtsphilosophie entwickeln konnte, die ihn offenbar noch immer fasziniert. Aber gut; bei diesen Gesprächen ist mir jedenfalls klarer geworden, daß diese unnötige Unterordnung des Menschen unter die Technik letztlich kein Problem der Technik und auch nicht der menschlichen Psyche, sondern ein soziales Problem ist. Wenn diese Maschinen tatsächlich dazu dienen, die Menschen zu ersetzen, und ihnen die Möglichkeit zur Produktivität wegnehmen, wofür Marx eindrucksvolle Belege hatte, dann ist dies Problem in der Tat nur dadurch zu lösen, daß die Menschen gesellschaftliche Verhältnisse schaffen, in denen diese Technik den Menschen die Arbeit nicht wegnimmt, sondern erleichtert. Dies also ist das gesellschaftliche Problem. 11 Vico spielt wahrscheinlich auf das „ELlZA“-Programm von J. Weizenbaum an; vgl. dessen Erfahrungen mit seinem Programm, in: ders., Die Macht der Computer und die Ohnmacht der Vernunft (Frankfurt/Main 1977). Der Geist in der Maschine? Das andere ist eher immanent und betrifft die Frage nach den Grenzen einer möglichen künstlichen Intelligenz und der Übernahme geistiger Arbeit. Lieber Gottfried, können Sie sich noch erinnern, daß ich schon damals Ihre These von der Möglichkeit vollkommener Erkenntnis in Zweifel gezogen habe? ln unserem Gespräch wies ich Sie darauf hin, daß ja schon Platons Parmenides, und noch eindringlicher Nikolaus von Cues, die prinzipielle Unmöglichkeit einer vollkommenen Erkenntnis angenommen hatten, weil dies die Fähigkeit unserer logischen Mittel übersteigt. Und wenn Sie jetzt noch Kants Vernunftkritik hinzunehmen, dann müßte Ihnen doch eigentlich Ihr Optimismus reichlich unkritisch und naiv vorkommen. Kennen Sie übrigens Kurt Gödel?12 LEIBNIZ: Ich habe schon viel von ihm gehört; hatte aber leider noch keine Gelegenheit, ihn zu sprechen. VICO: Das ist schade. Er ist hier zwar sehr zurückhaltend, doch ein ausgezeichneter Mathematiker. Nun, er hat meines Erachtens den überzeugendsten Beweis für die Unabgeschlossenheit des menschlichen Wissens erbracht. Er hat nämlich bewiesen, daß sich in jedem formalisierten Zeichensystem wahre Sätze bilden lassen, die mit den Mitteln dieses Systems nicht beweisbar sind. Wenn nun, so schließe ich daraus, Ihre künstliche Monade, von der Sie sprachen, nichts anderes als eine automatische Beweismaschine ist, dann wäre sie nur dann zur vollkommenen Erkenntnis in der Lage, wenn alles Wissen sich in formalen Zeichensystemen, wie Sie es sich ja wünschten, ausdrücken ließe. Da dies aber nun nicht der Fall ist, ist sie weder in der Lage, vollkommenes Wissen zu repräsentieren, noch alle geistige Arbeit zu übernehmen. Sie verfügt grundsätzlich nur über ein partielles Wissen, eben das, was formalisierbar ist; und das bedeutet, daß sie letztlich immer in den gesellschaftlichen Interpretations- und Lebenszusammenhang der Menschen eingebunden bleibt. Der moderne Computer, das ist mein Fazit, kann niemals im strikten Sinne „denken“ und „wissen“, weil seine Operationen Sinn und Bedeutung nur im übergeordneten Kontext von Zielen und Zwecken der menschlichen Gesellschaft erhalten. LOCKE: Das klingt ja alles recht interessant. Aber habe ich Sie da richtig verstanden? Wenn Sie annehmen, daß das logische Beweisen und mathematische Rechnen gar kein Denken sei, sondern nur mechanische Operatio- 12 Kurt Gödel, Mathematiker (1906 - 1978). Alexander von Pechmann nen, dann müßte das doch ein rein materielles Ding viel besser können als der menschliche Geist. Was aber bleibt dann dem menschlichen Geist? LEIBNIZ: In der Tat eine gute Frage. Es ist ein Irrtum, die höchste Form des menschlichen Bewußtseins, worin er Gott am ähnlichsten ist, nämlich die Apperzeption, wie ich sie nannte, auf eine bloß äußere Mechanik der Trennung und Verbindung von Begriffen zu reduzieren. Ich streite mich darüber noch immer mit Descartes, wie Sie wissen. Wenn man das tut, wenn man die Prozesse des menschlichen Geistes und der Natur des Elements der inneren Dynamik und Lebendigkeit beraubt, dann bleibt freilich dem menschlichen Geist im Vergleich zu den Denkmaschinen nichts übrig als die dunklen Phantasien und wüsten Vorstellungen der Perzeptionen, wo es auf die Logik nicht mehr ankommt. VICO: Ich denke, da haben Sie, lieber Gottfried, unrecht. Denn die eigentliche Intelligenz des Menschen beginnt erst jenseits der Logik. Wenn Sie sich erinnern, meinte ich schon damals, daß das Wesen des menschlichen Geistes nicht in der Nachahmung der göttlichen Vernunft besteht, weil er dazu gar nicht in der Lage ist, und daß es auch nicht durch die Nabelschau der Selbstbetrachtung zu finden ist, wie John offenbar noch immer meint. Wir müssen dieses Wesen vielmehr in den Taten der Menschen selbst entdecken. Und wenn wir das tun, dann sehen wir, daß es in den menschlichen Dingen letztlich nicht auf die Gesetze der Logik ankommt, sondern daß sich die menschliche Intelligenz gerade am Nicht-Logischen, am Regelwidrigen, Überraschenden und Widersprüchlichen bemißt. Sie besteht darin, mit den unvermeidlichen Widersprüchen des gesellschaftlichen Lebens fertig zu werden, nicht-ableitbar Neues zu entdecken und im Verschiedenen das überraschend Gemeinsame zu erkennen. Also all das, was über den Rahmen formalisierter Systeme hinausweist. Die Alten, die die praktischen Fähigkeiten noch geschätzt haben, wußten dies, und betrachteten die „Topik“ als höchste Form menschlichen Geistes13; denn in der Tat, zum bloßen Rechnen braucht es keine Intelligenz, da genügen Maschinen. 13 Diesen Gedanken hatte Vico zwar erst 1709 in seiner Schrift gegen Descartes „Vom Wesen und Weg der geistigen Bildung“ veröffentlicht, aber offenbar auch schon vorher vertreten. - In der „Neuen Wissenschaft“ heißt es: „Die Topik ist die Disziplin, die den Geist schöpferisch, die Kritik, die ihn exakt macht ... das Erfinden aber ist Sache des schöpferischen Geistes“. Der Geist in der Maschine? LEIBNIZ: Nun gut, lieber Vico, ich verstehe, was Sie meinen. Aber wenn Sie nicht wollen, daß dies Neue bloße Phantasie oder leere Gedankenspielerei bleibt, dann werden auch Sie es der Kontrolle der Beweis- und Berechenbarkeit unterwerfen und in den natürlichen Zusammenhang einordnen müssen. Die menschliche Erfindungskraft und die Denkautomaten werden eine untrennbare Verbindung eingehen; und so wird sich die Menschheit weiterhin auf dem Wege der Vervollständigung des Wissens befinden, indem sie Neues entdeckt und dem Alten zuordnet, um zum Gesamtbild des Wissens zu gelangen. VICO: Freilich wird der Mensch sich durch seinen Geist der vollkommenen Wahrheit annähern, da stimme ich Ihnen zu. Aber ich bestreite, daß er sie erreichen wird; denn immer wieder werden neue Widersprüche und ungelöste Probleme auftauchen. Was er dabei finden wird, ist nicht die Wahrheit, sondern - viel schöner - sich selbst, seine gestalterischen und kulturstiftenden Kräfte und Fähigkeiten; denn das Wahre ist das Gemachte, sagte ich. Und so wünsche ich mir, daß die neuen Techniken ihn in den Stand setzen werden, endlich aus dem Kreislauf von Aufstieg und Verfall herausfinden zu können, in dem er sich bislang bewegt hatte. LOCKE: Aber nur, wenn er sich mit ihnen nicht selbst in die Luft jagt ... Womit wir ja wieder am Anfang unseres Gesprächs wären. (bearbeitet von Alexander von Pechmann) In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 42-51 Autor: Jochen Schneider Artikel Jochen Schneider 'Innovationspotentiale des juristischen Informationssystems 'JURIS' Um der sogenannten „Informationskrise des Rechts“ zu begegnen, wurde im Jahre 1970 eine Projektgruppe beim Bundesministerium der Justiz eingerichtet, die die Möglichkeiten des Einsatzes der Datenverarbeitung zur Verbesserung der Informationsübermittlung in unserem Rechtssystem untersuchen sollte. In der Folgezeit haben sich die Arbeiten auf die Errichtung eines Dokumentationssystems konzentriert, das im wesentlichen der Sammlung und der Wiedergewinnung juristisch relevanter Texte dient. Auf einem Doppelrechnersystem unter Verwendung von Plattenspeichern mit einer Kapazität von 7,2 Mrd. Zeichen werden zur Zeit über 360 000 Dokumente aus der Rechtssprechung, der Rechtsliteratur, der Gesetzgebung und Verwaltung für heute 60 beteiligte Institutionen zur Verfügung gestellt. Fragt man heute, 15 Jahre nach dem Beginn, nach der Beteiligung der Benutzer und der betroffenen Wissenschaften, so stellt man fest, daß diese Beteiligung im Laufe der Jahre immer geringer geworden ist. So nehmen heute Rechtssoziologie, Rechtstheorie, Rechtsphilosophie und sogar die Rechtsinformatik kaum mehr Notiz von den Bemühungen um das juristische Informationssystem. Bei den Benutzern ist zwar festzustellen, daß JURIS immer mehr Terminals im Laufe der Zeit für immer mehr Institutionen angeschlossen hat, absolut gesehen dennoch eine geringe Zahl, nämlich 60. Es ist aber auch festzustellen, daß sich die angesprochenen Benutzerkreise, nämlich Richter, Staatsanwälte, Ministerialbeamte, Verwaltungsbeamte und Rechtsanwälte kaum mit dem auf sie und ihre Gruppen zukommenden Informationsangebot und Informationssystem befassen. Es ist hochwahrscheinlich, daß JURIS gerade für die Rechtsanwälte in seiner Jochen Schneider konkreten Ausprägung kaum von Nutzen i. S. einer für den Rechtsanwalt günstigen Aufwands- und Nutzensrelation sein wird. Einer der Gründe für den schlechten Wirkungsgrad ist, dass JURIS nicht auf spezifische Benutzergruppen (etwa mit individuellen Teilsystemen), somit auch nicht auf spezifische Benutzer-Interessen und das jeweilige Benutzerverhalten zugeschnitten Ist. JURIS wirft vielmehr alle Dokumente und alle Benutzer „in einen Topf“, so daß der bei einer individuellen Anfrage mitzuschleppende Ballast enorm ist, wenn man nur einigermaßen vollständige Auskunft haben will (wobei zu berücksichtigen ist, daß derzeit überhaupt nicht an eine vollständige Antwort zu denken ist). Die Informationssuche mit JURIS ist - soviel darf schon gesagt werden – wesentlich aufwendiger, zeitraubender und teurer, als mit anderen Informationsmitteln. Die gezielte, sichere und umfassende Information, die auch die Gewißheit verschafft, daß man alle relevanten Informationen genannt bekommen hat und infolgedessen auch berücksichtigen konnte, also diese notwendige Qualität der Information ist mit einem JURIS nicht möglich. Die Struktur eines Dokumentationssystems bringt es mit sich, daß JURIS die juristische Information nicht in einer für den jeweiligen Benutzer adäquaten Weise strukturiert und die Information in einer für den Benutzer brauchbaren Suchsprache zur Verfügung hält. JURIS zerschlägt vielmehr die möglichen Informationen in einzelne Dokument-Einheiten (bei der Eingabe und vor allem bei der Erschließung) und hält sie in einer für den Benutzer völlig fremden Suchsprache bereit. Die zementierende Wirkung von „JURIS“ auf das Rechtssystem Eines der Defizite, die JURIS wie jedes andere Dokumentationssystem im juristischen Bereich aufweisen würde, ist, dass die Sozialdaten bzw. die Rechtstatsachen nicht durch das System zur Verfügung gestellt werden. Anders gesagt, wenn einem System die Verarbeitungsleistung fehlt, die erforderlich ist, um die Komplexität der vom Benutzer zu handhabenden Probleme abzubilden, fälscht ein Informationssystem entweder die zu bearbeitenden Probleme in ihrem Gehalt ab oder wird es nicht benutzt, weil es keine Daten als Entscheidungsgrundlage liefern kann. Das Merkwürdige am Fehlen dieses Informations-Bereichs bei JURIS ist, daß die Rechtstatsachen als Daten (-material) wesentlich geeigneter für die automatisierte Verarbeitung sind, als es die sprachlich verfaßten Texte sind, die den Inhalt von JURIS bilden. JURIS Nun wäre eigentlich erst zu klären, was überhaupt unter Rechtstatsachen zu verstehen ist. Dieses wissenschaftspolitische und wissenschaftstheoretische Problem soll hier aber nicht behandelt werden. Es wird vielmehr eine Art heuristischer Begriff „Rechtstatsachen“ benutzt, worunter simpel solche Daten fallen, die für das Recht relevant sind, sowie Daten, die das Recht selbst produziert. Zu den Daten, die das Rechtssystem selbst produziert, gehören z.B. Fakten über die „Warteschlangen“, die sich etwa bei den Gerichten bilden, gehören die Daten über die Strafzumessung zu bestimmten Delikten oder auch die Anzahl der Entscheidungen, die es zu einem bestimmten Problem gibt. Rechtstatsachen sind solche Daten, die für das Rechtssystem relevant sind ren, die aus dem tatsächlichen Bereich stammen, also deskriptiven Charakter haben, nicht normativen und die nicht Texte bzw. Dokumente sind. Für einen Benutzer stellt sich z.B. das Problem: Gibt es den für ihn konkret zu entscheidenden Fall bereits als Urteil einer höheren Instanz und wenn ja, wieviele gleiche oder zumindest ähnliche Fälle gibt es. Ein Dokumentationssystem kann hierauf keine schlüssige Antwort geben. Ein Dokumentationssystem wertet den Sachverhalt und die Entscheidungsgründe nicht in der Weise aus, daß die darin enthaltenen Fakten sozusagen herausdestilliert, aggregiert und aufbereitet werden können. Trends bei den Rechtsuchenden bzw. bei den Streitenden oder Trends in der Rechtsprechung überhaupt lassen sich aber nur feststellen und durch ein System auswerten, wenn die dem System zugrunde liegenden Daten entsprechend aufbereitet und verarbeitet werden können. Dies ist aber bei einem Dokumentationssystem nicht der Fall. Die Inhalte können nur vom System wiedergefunden, nicht aber ausgewertet bzw. verarbeitet werden. Der Benutzer muß die Inhalte erst lesen, sich selbst sein Bild daraus machen und selbst die entsprechenden Daten bei sich (im Kopf) entstehen lassen und verarbeiten. Nicht erst seit den Planungen zu einem juristischen Informationssystem stellt sich die Frage, wie eigentlich das Rechtssystem überhaupt Innovationen einleitet, durchführt und wirken läßt. Aber gerade bei juristischen Informationssystemen stellt sich dieses Problem noch einmal ganz aktuell. Die Frage ist, ob ein juristisches Informationssystem bei einer bestimmten Struktur (bei JURIS als Dokumentationssystem) eine mehr versteinernde oder eine mehr dynamisierende Wirkung auf das Rechtssystem ausübt. Voraussetzung ist natürlich, daß überhaupt ein Wirkungszusammenhang zwischen den in einem solchen System enthaltenen Informationen und der Entscheidung existiert. Jochen Schneider Stellt man sich einen einfach strukturierten und linear verlaufenden Wirkungszusammenhang zwischen Informationen und Entscheidung vor, so müßte ein Dokumentationssystem eine erstarrende, zementierende Wirkung auf das Rechtssystem und dadurch auf die Gesellschaft ausüben. Es bietet dem Entscheider Entscheidungen aus der Vergangenheit an, die dessen Entscheidung prägen. Eine solche Vorstellung von Wirkungszusammenhang entspräche dem einfachen Stimulus-/ Response Schema. Die Frage wäre dann, wie überhaupt „Innovation“ zustande kommt und wie sie speziell bei einem Rechtssystem erzielt werden könnte, insbesondere ob überhaupt im Rechtssystem Innovation zugelassen und möglich ist. Bei einem solchen linearen Wirkungszusammenhang könnte eine innovative Wirkung nur über solche Informationen zustande kommen, die nicht aus dem Rechtssystem selbst stammen bzw. die nicht direkt den Inhalten früherer Entscheidungen entsprechen. Wie nun wirklich der Wirkungszusammenhang funktioniert, kann natürlich auch hier nicht geklärt werden. Hier soll nur festgehalten werden, daß die Konzeption eines juristischen Informationssystems in sich - auch wenn man dies nicht mitbedacht haben sollte - die Realisierung einer ganz bestimmten Vorstellung von diesem Wirkzusammenhang enthält. Die Theorie wäre deshalb aufgerufen, vorweg den Wirkzusammenhang so zu erhellen, daß die Architektur eines Informationssystems, z.B. durch die Hinzunahme der Rechtstatsachen, dem Informationsbedarf beim Entscheidungsverhalten gerecht wird. Dazu liegt allerdings kaum Material vor. Hier geht es darum, daß Rechtstatsachen als Informationsquelle bei der Etablierung des juristischen Informationssystems vernachlässigt werden. Die Vernachlässigung einer Informationsquelle muß aber dazu führen, daß zumindest langfristig die Benutzer die besser zugänglichen Informationsquellen bevorzugen werden. Überspitzt gesagt: Die Vernachlässigung der Rechtstatsachen im juristischen Informationssystem kann dazu führen, daß das Rechtssystem nicht genügend reaktions- und lernfähig für die Berücksichtigung der Entwicklung sozialer Konflikte ist. Statt also die Informationsverarbeitungs-Fähigkeit des Rechtssystems zu erhöhen, reduziert ein JURIS diese noch1. 1 Zur Informationsverarbeitungs-Fähigkeit des Rechtssystems vgl. vor allem LUHMANN, Rechtssystem und Rechtsdogmatik, S. 24 ff., 31 ff. JURIS Defizite der juristischen Entscheidungstheorie Voraussetzung dafür, die Anforderungen für eine adäquate Gestaltung eines juristischen Informationssystems formulieren zu können, ist die Ausprägung einer Theorie juristischer Entscheidungen, die den Stellenwert von Information überhaupt und speziell der Rechtstatsachen für die juristische Entscheidung so herausarbeitet, daß sich daraus Handlungsanleitungen für die Systemarchitektur ergeben. Hier nun aber tut sich die bereits erwähnte Kluft zwischen der praktischen Entwicklung von JURIS einerseits und Theorie-Leistung für JURIS andererseits auf. Das Defizit ist ein doppeltes. Es besteht zum einen darin, daß sich die Theorie effektiv zu wenig mit JURIS auseinandersetzt. Es besteht zum anderen darin, daß die Wissenschaftszweige, die dazu aufgerufen sind, sich mit den verschiedenen Anforderungen zu befassen, nicht zu einem integrierten Konzept zusammengeführt werden. Methodenlehre, Rechtstheorie, Rechtssoziologie, Rechtsphilosophie befassen sich zwar mit Bereichen, die für die Theorie juristischen Entscheidens bei der Nutzung automatisierter Informationssysteme von Bedeutung sind. Jedoch erfolgt diese Theorieleistung in einer Weise, deren Ergebnisse nicht konkret auf die Problematik der Planung von juristischen Informationssystemen ausgerichtet ist. Umgekehrt nehmen wohl die System-Architekten noch weniger als früher von den Beiträgen der Methodenlehre, der Rechtstheorie oder der Rechtssoziologie Kenntnis. Folgt man allerdings z.B. der Arbeit von Bihler „Rechtsgefühl, System und Wertung“ (München 1979), so ist ein umfassendes Modell der Rechtsgewinnung zu konzipieren, bei dem zwischen Außen- und Innen-Faktoren zu unterscheiden ist, mit der Folge, daß bei einem Entscheider nur ein Teil seiner Aktivitäten beobachtbar ist, nämlich der, der durch Außenfaktoren bestimmt ist. Der Anteil von Innen-Faktoren läßt sich nur negativ bestimmen, wenn nämlich offensichtlich ein Konsens zwischen mehreren Entscheidern, die unabhängig voneinander operiert haben, derart hergestellt ist, daß sie bei gleichen von außen an sie herangetragenen Informationen auch gleich entscheiden. Das Interessante ist aber, daß gerade die Einführung von JURIS bei einer Vielzahl von Veranstaltungen, auch im akademischen Bereich, immer wieder gezeigt hat, daß neben der Möglichkeit zu scheinbar rationaler Informationsgewinnung die eigentlich bestimmende Größe bei der Entscheidungsfindung wieder akzentuiert wird, nämlich die Intuition, das gute Judiz, das Rechtsgefühl usw. - Möglicherweise verbirgt sich aber zu einem guten Teil hinter dem, was als Rechtsge- Jochen Schneider fühl oder Intuition bezeichnet wird, etwas ganz anderes, was aber ebensowenig dem formellen Programm juristischen Entscheidens entspricht: nämlich Folgenerwägungen. Die Unterscheidung von Herstellung und Darstellung des Urteils eröffnet die Möglichkeit, zunächst analytisch, dann aber auch tatsächlich, zwischen dem final-strukturierten Entscheidungsprozeß selbst und der konditionalstrukturierten Legitimation zu unterscheiden. Die herkömmliche Vorstellung vom Wirkungszusammenhang - lineare Wirkung von der Information auf die Entscheidung - führt zu einer Reihe von Widersprüchlichkeiten, die sich aber auflösen, läßt man sich auf diese Unterscheidung ein. Ähnlich wie man zwischen Herstellung der Entscheidung und ihrer Darstellung unterscheidet, läßt sich auf der Ebene des Informationsgewinnungsprozesses zwischen der Definition des Problems, also der Formulierung des Informationsbedarfs, und der anschließenden Informationssuche mit dem jeweiligen Abgleich, ob die Informationen etwas zum Entscheidungsproblem beiträgt, vergleichen. Der Wirkungszusammenhang stellt sich dann exakt umgekehrt dar: Die eigentliche Entscheidung wird bereits - als eine Art Entscheidung über die Entscheidung mit der Definition des Problems getroffen. Was als Information relevant erscheint, mit welcher Intensität Informationen gesucht und verarbeitet werden, hängt von der - zumindest auch - finalstrukturiert, berücksichtigt also auch die Folgen soweit bekannt bzw. möglich. Innovation i.S. eines Wandels der Rechtsprechung dürfte derzeit jedoch kaum oder weniger über die Folgenbewertung bei einer Entscheidung erzielt werden, sondern über schlicht neue Sachverhalte, die die Dogmatik veranlassen, darauf entsprechend zu reagieren. So gesehen handelt es sich eigentlich bei richterlichen Innovationen mehr um Veränderungen i.S. von Anpassung und Reaktion auf Umwelt-Änderungen, also eigentlich nicht um wirklich neue „Erfindungen“. Umgekehrt bedeutet dies, daß Innovationschancen überhaupt nur dann gegeben sind, wenn dem Rechtssystem die Daten über die Gegebenheiten und Veränderungen im realen Bereich entsprechend aufbereitet als Daten zur Verfügung gestellt werden. Allerdings muß im Rechtssystem auch die Bereitschaft vorhanden sein, die anstehenden Probleme als neu zu definieren, und infolgedessen muß es auch bereit sein, neue Fakten zu berücksichtigen. Als ein Beispiel von vielen wird hier auf den Trend zur Immaterialisierung der Information bzw. der Büroarbeit und die Automation der Verarbeitungsvorgänge hingewiesen. Mit diesem Trend tut sich die Rechtsprechung relativ schwer, denkt man an die Lücken und Probleme gesetzlicher Regelung im Bereich der Computer- JURIS Kriminalität2 oder an das spezielle Problem des Rechtsschutzes bei Computer-Programmen3. Das Ineinandergreifen von einerseits final- und konditionalstrukturierten Entscheidungsprogrammen und andererseits der Verbindung zwischen der Herstellungs- und der Darstellungsebene beim juristischen Entscheiden führt dazu, dass für den Außenstehenden der Informationsverarbeitungsprozeß - wie er tatsächlich funktioniert - nicht beobachtbar ist. Falsch wäre jedoch, von der konditionalen Struktur oder dem Subsumtionscharakter der Begründung auf eine gleichartige Struktur der Herstellung zu schließen. Anhaltspunkte dafür zu erhalten, wie der Informationsverarbeitungsprozeß tatsächlich abläuft, würde entsprechende empirische Forschungen und denen vorausgehend eine entsprechende theoretische Konzeption erfordern. Derzeit darf aber wohl von einem Theorie-Defizit in diesem Bereich gesprochen werden. Damit sollen die vorhandenen Ansätze nicht geleugnet werden4. Es wird jedoch über diese Ansätze hinaus notwendig sein, eine Begleitforschung zu JURIS zu konzipieren und dabei insbesondere den Mangel der Rechtstatsachen-Einbeziehung zu berücksichtigen haben. Folgen der In-Adäquanz eines Dokumentationssystems Akzeptiert man als Wirkungsrichtung, daß zuerst das Problem definiert wird, dann daraus die Daten bzw. der Datenbedarf entsteht, bietet ein Informationssystem, das sämtliche Gesetze und Entscheidungen und sogar die Literatur enthält, eine an sich sensationelle Informationsmöglichkeit. Da in der Praxis häufig die Daten, die tatsächlich zur Verfügung stehen, nicht so aufbereitet sind, daß sie genau auf das Problem „passen“, also erst erfaßt, 2 Vgl. z.B. SIEBER, Computerkriminalität und Strafrecht. 2. Aufl. 1980. 3 Bei letzterer Problematik deutet sich vielleicht ein typischer Fall der sog. „Entscheidungssequenzen“ an, vgl. zum derzeitigen Stand z.B. ZAHRNT, in: DuD 4/1983, S. 111 ff.; SIEBER, in: BB 1983, S. 977 ff. 4 Vgl. z.B. LAUTMANN, Justiz - die stille Gewalt, Frankfurt 1972; ROTTLEUTHNER, in: Hassemer/Kaufmann/Neumann (Hrsg.), Argumentation u. Recht, Wiesbaden 1980, S. 87 ff Jochen Schneider aufbereitet und ausgewertet werden müssen, was einen oft immensen Aufwand und ein entsprechendes Kostenrisiko in sich birgt, könnte demgegenüber ein juristisches Informationssystem die Generierung der erforderlichen Daten ad hoc zu einer aktuell gestellten Frage ermöglichen. Allerdings ist Voraussetzung für Erschließung dieses Potentials, daß die Verarbeitungsleistung des Systems entsprechend hoch und komplex ist. Ich habe an anderer Stelle nachzuweisen versucht, daß die Komplexität eines Dokumentationssystems der Komplexität der zu beurteilenden Sachverhalte nicht entspricht5. Ein JURIS, das nur auf ein Dokumentationssystem (Informationsnachweissystem) aufgebaut ist, kann die erforderliche Verarbeitungsleistung nicht erbringen. Verkürzt gesagt: So komfortabel auch immer das Dialogsystem eines JURIS sein mag, das Ergebnis eines Dialogs ist immer nur eine Auswahl gespeicherter Texte, wobei sich der Recherche-Erfolg auf die Vollständigkeit der nachgewiesenen Texte und auf die Ausgabe in der Reihenfolge der Relevanz-Grade der Texte erstreckt und begrenzt. Für einen Praktiker, sowohl als Rechtsanwalt als auch als Richter, spielt eine große Rolle, ob ein Prozeß im Zusammenhang mit einer „Entscheidungssequenz“ zu sehen ist. Sowohl für den Praktiker als auch für den Wissenschaftler wird eine große Rolle spielen, wie erfolgreich bisher ein bestimmtes Argument, eine bestimmte Argumentationsstrategie oder eine bestimmte Rechtsposition war. Er kann dies in zweierlei Hinsicht verwenden: Die eine Richtung ist, sich die Erfolgschancen auszurechnen, wenn z.B. ein Argument bisher immer Erfolg hatte. Die andere ist, sich eine Gegenstrategie zu überlegen und sich zu sagen, daß gerade wegen der bisherigen Kontinuität dieses Erfolgs es nunmehr an der Zeit ist, mit diesem Erfolg aufzuräumen. Schon diese Andeutungen mögen genügen, den Zusammenhang zwischen der Entscheidungspraxis einerseits und der Struktur eines juristischen Informationssystems andererseits aufzuzeigen. Oben war schon dargelegt worden, daß der Wirkzusammenhang zwischen Information und Entscheidung sich in der Praxis konträr der Vorstellung in der Theorie vollziehen dürfte, nämlich daß das Entscheidungsproblem den Informationsbedarf und damit die Daten generiert und nicht umgekehrt die Daten auf die Entscheidung einwirken. D.h., daß es im Prinzip keine absoJ. SCHNEIDER, Information und Entscheidung, Ebelsbach 1980, vor allem S. 310 ff. (m.w.N.). 5 JURIS lut zur Verfügung stehenden Daten gibt (und geben muß); sondern daß Daten immer jeweils für den individuellen Fall zu- und aufbereitet, evtl. überhaupt erst erfaßt und verarbeitet werden müssen. Als Phänomen bekannt ist dies allgemein von der Statistik, deren Interpretation wesentlich vager und vielseitiger ist, als dürre Daten der Statistik dem oberflächlichen Betrachter zunächst suggerieren. Die Konsequenz für das Rechtssystem und speziell für das Rechtsinformationssystem, also JURIS, muß nun sein, nicht Daten als solche, sondern ein Instrumentarium zur Verfügung zu stellen, mit dem die jeweils relevanten Daten tatsächlich gewonnen werden können. JURIS leistet genau das Gegenteil, es verringert noch das Informationspotential, das in herkömmlichen Medien schlummert, und klammert die Rechtstatsachen überhaupt aus. Demnach installiert die Justiz mit Hilfe von JURIS ein methodisches Konzept, das die Relevanz von Rechtstatsachen leugnet, darüber hinaus aber auch die Entwicklung der Rechtstatsachenforschung und der Benutzung von Rechtstatsachen auf Dauer in dem Maße verhindert, in dem JURIS im anderen Bereich erfolgreich ist. Ein solches Ergebnis wäre aber angesichts der Bedeutung sowohl der RechtstatsachenVerwendung als auch der Rechtstatsachen-Forschung unerträglich. Zur Weiterentwicklung von „JURIS“ Die Konsequenz kann nun aber nicht sein, JURIS - und nicht einmal in der bis jetzt konzipierten Struktur – einschlafen zu lassen, sondern vielmehr muß es Aufgabe sowohl der Rechtswissenschaft als auch der Rechtspraxis sein, sich mit beiden Komplexen im Verbund zu befassen, nämlich mit der Aufarbeitung und Aufbereitung der Rechtstatsachenforschung einerseits und der Anwendung der dabei gewonnenen Ergebnisse auf das Konzept eines JURIS in der Praxis andererseits. Bei der Frage möglicher Alternativen oder Ergänzungen und Änderungen zu JURIS wird ein wichtiger struktureller Aspekt die BenutzerOrientierung des Systems sein- also eine stärkere Ausrichtung und Gliederung des Systems auf den Benutzer hin. Dazu könnte gehören, zum einen nach Sachgebieten Familien-/Unterhalts-, Sorge-/Recht, Schadensersatzrechte usw., zum anderen aber auch nach Adressaten und deren Profilen zu unterscheiden. Es ist davon auszugehen, daß der Informationsbedarf, aber Jochen Schneider auch die Art der Gewinnung und der Umfang mit Informationen bei einem Rechtsanwalt im Vorfeld eines Prozesses anders ist, als etwa bei einem Richter im Prozeß. Auch ließe sich viel mitzuschleppender Ballast bei einem vollständigen System dadurch abschaffen, daß man die Möglichkeit hat, jeweils speziell in einem Gebiet, das aber abgrenzbar ist, bei der Suche nach Informationen zu bleiben. Eine Verarbeitungsfähigkeit des Systems ließe sich nur durch einen anderen Typ von Programmen und eine andere Art der Dateneingabe erreichen. Die Daten sind zwar, unterstützt von der Rechtstatsachenforschung, nicht schwer zu erreichen. Jedoch müssen die Daten für ihre spätere Verwendung aufbereitet werden, was mit einem gewissen Aufwand verbunden ist. Dieser Aufwand ist aber keinesfalls größer, als der jetzt auch schon zu erbringende Aufwand für die Erschließung der Texte. JURIS Ein sehr wichtiger Aspekt ist die Verständlichkeit eines solchen Systems i.V. mit der daraus resultierenden Transparenz. Wenn es stimmt, daß die Lösung eines Problems mit der richtigen Definition bereits gefunden ist, müßte ein Informationssystem den Juristen bei der Problem-Findung und Problem-Definition unterstützen. Es müßte aber auch - in Grenzen - für den Laien verständlich sein. Ein Problem wird man aber kaum mit einem technischen Informationssystem lösen können: Wenn ein Informationssucher nicht ohnehin überzeugt und fähig ist, daß er eine innovative Einstellung und Verhaltensweise einnehmen und durchsetzen will, wird auch ein Informationssystem ihn nicht zu einer solchen Haltung bewegen. D.h., daß eine innovative Wirkung auch von einem mit Rechtstatsachen gespeisten Informationssystem nur ausgehen kann, wenn auf seilen der Benutzer die Haltung zum Rechtssystem auch innovativ ist. Nimmt man verschiedene sozialwissenschaftliche Theorien zur Hilfe, zeigt sich, daß nur personale Kommunikation – im Gegensatz zur technischen - eine solche Haltung erzeugen bzw. ändern kann. Die Interaktion mit einem technischen System wird die innovative Haltung nicht erzeugen6. Allenfalls wird ein technisches System eine innovative Haltung, die ohnehin vorhanden ist, unterstützen können. JURIS aber in seiner derzeitigen System-Auslegung behindert eher die Ausprägung und Aufrechterhaltung einer innovativen Haltung. Gekürzt übernommen aus: Chiotellis/Fikentscher (Hrsg.), Rechtstatsachenforschung. Methodische Probleme und Beispiele aus dem Schuld- und Wirtschaftsrecht, Otto Schmidt-Verlag, Köln 1985, S. 107 ff. 6 Siehe auch J. SCHNEIDER, a.a.O., S. 273 ff. In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 52-66 Autor: Herbert W. Franke Interview Gespräch mit Professor Herbert W. Franke Computergraphik. Zum Verhältnis von Kunst und neuer Technik Widerspruch: Herr Prof. Franke, Sie sind einem weiteren Publikum als einer der ersten Computergraphiker bekannt und haben eine Reihe von Büchern zu diesem Thema veröffentlicht. Könnten Sie uns zu Beginn sagen, wie Sie dazu gekommen sind? Prof. Franke: Ich habe in Wien Physik studiert und auf dem Gebiet der Elektronenoptik dissertiert. Damit kam ich schon im Studium mit vielen graphischen Systemen in Berührung, wenn auch von der technischen Seite her. Schon damals hat mich fasziniert, daß rein technisch-wissenschaftliche Photographien graphisch überaus reizvolle Formen zutage bringen. Ich habe mich gefragt, woran das liegt; denn es sind ja keine Kunstwerke, haben aber doch ästhetische Qualität. Nachdem ich auf dieses Problem aufmerksam geworden war, fand ich im Bereich der Technik und Wissenschaft eine Unzahl vergleichbarer Arbeiten, die zwar für ganz andere Zwecke gemacht wurden, aber auch diesen graphischen Reiz gezeigt haben: Schwingungsbilder, mathematische Diagramme, Kristalle usw. Ich versuchte dann, diesem Gebiet theoretisch näher zu kommen und mich über diese Ästhetik zu informieren, aber fand natürlich nichts, was auf diese Probleme eingeht. Später lernte ich dann die Informationspsychologie und die Informationsästhetik kennen, die mir die erste Möglichkeit boten, in rationaler Weise eine Annäherung an das Verständnis dieser Phänomene zu finden. Auf der anderen Seite wollte ich mich nicht zufrieden geben mit dem, was die Instrumente der wissenschaftlich-technischen Photographie hervorbringen, sondern sah darin eine Herausforderung, gestaltend einzugreifen. Ich habe mir also überlegt, mit welchen Apparaturen man die Bilder kontrollie- Herbert W. Franke ren, verändern könnte. Damals, um 1955, entwarf ich mit einem Kollegen einen Analogcomputer, eine Art Mischpult, mit dem wir Schwingungen überlagern und auf einem Bildschirm sichtbar machen konnten; und auf diese Weise erreichten wir Kompositionen mit Tonverlauf und sehr elegant geschwungenen Formen. Man kann diese Kompositionen als Vorläufer der heutigen Computergraphik ansehen; und Sie können sich denken, daß ich dann versuchte, Zugriff auf digitale Graphiksysteme zu bekommen. Es sind also zwei Seiten, die zusammenhängen, die Theorie auf der einen und die praktische künstlerische Anwendung auf der anderen Seite. Es war für mich natürlich interessant, daß sich immer wieder neue Verbindungen ergaben; daß sich aus der Theorie bestimmte Ziele erarbeiten lassen, die man dann prüft, um zu sehen, ob sie auch so effektiv sind, wie man sich das vorgestellt hat. Dabei habe ich natürlich eine Menge - auch aus den Fehlern - gelernt und so eine Näherung an die Probleme erhalten: Ergebnisse, die nicht bloß emotional subjektiver Natur sind, sondern doch vielleicht eine generelle Gültigkeit haben. Computergraphik als Kunst Widerspruch: Würden Sie also sagen, daß Computergraphiken, d.h. die mit den neuen Techniken hergestellten Graphiken, Kunst sind? Und wenn ja, welche? Sind sie Kunst etwa im Sinne des Naturschönen geometrischer Formen und Schwingungen, der Gestaltung nach ästhetischen Gesichtspunkten oder rein spielerische Phantasie? Franke: Das ist eine Definitionsfrage, die m.E. nicht allzusehr weiterhilft. Nehmen Sie die Graphik einmal in Analogie zur Musik: Wenn Sie sich mit akustischen Schwingungen beschäftigen, die Sie sich überlagern und reihen lassen, bis etwas entsteht, das sowohl vom Publikum akzeptiert wird, als auch Ihren eigenen Vorstellungen entspricht, dann findet man nichts dabei, von Kunst zu sprechen, - Musik als Kunstform zu nehmen, obwohl auch hier komplizierte wissenschaftlich-technische Geräte eingesetzt werden, um zu erreichen, was man will. Analog dazu spricht also nichts dagegen, ein Schwingungssystem für visuelle Effekte auch als ein künstlerisches, natürlich modernes, Instrument anzusehen. Eine solche Art der Gestaltung läßt sich nicht in die klassischen Kunstarten einreihen. Entweder man ist bereit, auch neuere Gestaltungsmethoden als künstlerische zu bezeichnen, dann sind sie Kunst; wenn man dagegen Interview meint, die Kunst müsse etwas Ausgereiftes, Abgeschlossenes sein, dann sind sie eben keine Kunst, dann muß man sie anders bezeichnen. Jedenfalls hat diese Form etwas Kreatives, das die gestalterischen Phantasien herausfordert, und damit Eigenschaften, die man der Kunst normalerweise zuschreibt. Es läßt sich durch sie etwas ausdrücken, Stimmung erzeugen usw. Mir würde allerdings eher eine solche Definition liegen, die versucht, den Begriff der Kunst von der Wirkung her zu definieren; aber das muß nicht jeder so sehen. Die Frage ist eher, ob eine solche Definition zweckmäßig ist oder nicht. Jetzt fragen Sie mich speziell nach dem Computer. Ein Computer ist ein technisches Instrument. Wenn man zu der Aussage bereit ist, daß sich auch mit einem technischen Instrument künstlerisch gestalten läßt, dann gibt es kein Hindernis, die Computergraphik der Kunst zuzuordnen. Selbstverständlich kann man, wie mit jedem technischen Gerät, alles mögliche damit machen: angefangen von banalen graphischen Darstellungen über eine Unmenge von Kitsch bis hin zu den wenigen Ergebnissen, bei denen jeder sagt: 'Donnerwetter, da steckt doch ein bißchen mehr drin '. Wenn Sie die Geschichte der Computerkunst verfolgen, dann werden Sie sehen, daß am Anfang aus der technischen Situation heraus - damals standen nur die mechanischen Plotter und sehr einfache Programme zur Verfügung -, hauptsächlich etwas produziert wurde, das in der Tradition des Konstruktivismus liegt: Linien, exakte Reihen, variiert mit geometrischen Elementen etc.; denn das ließ sich gut mit den Programmen beschreiben: Der Zeichenapparat machte, was man wollte, und es war sehr schön zu sehen, wie schnell das ging. Man kann sagen, der Computer war damals ein Instrument, das sehr dem konstruktivistischen Stil verbunden war. Wenn man sich allerdings heute nach der Wertschätzung des Konstruktivismus erkundigt, dann wird man hören, daß er wohl nicht das Tüpfelchen auf dem i ist: eine Kunst, die doch allzusehr zur Mathematik tendiert und geometrisch inspiriert ist. Doch diese Beschränkung der Computergraphik auf den Konstruktivismus gilt heute längst nicht mehr. Seit man den Übergang zum Bildschirmgerät vollzogen hat, haben Sie eine Zeichen- und Malfläche zur Verfügung, bei der Sie nicht mehr auf Geometrie festgelegt sind, sondern jeden beliebigen Stil realisieren können, vom Realismus angefangen bis zu allen möglichen Verfremdungen. Selbstverständlich gehört da zu auch der Neokonstruktivismus, ein Konstruktivismus in erweiterter Form, der von der geraden Linie zur Kurve übergegangen ist und so zusätzliche Effekte miteinbezieht. Herbert W. Franke D.h. also, daß es eine zwingende Verbindung des Computers mit einem Stil nicht mehr gibt; die Computersysteme sind heute Hilfsinstrumente für jeden, der gestalterisch tätig sein will. Es kommt allein darauf an, was er mitbringt; das Instrument selbst ist sehr flexibel geworden. Zum einen haben wir heute die sog. „Paint-Systeme“, also Malsysteme, die den Wünschen konventionell ausgebildeter Graphiker und Maler entspre- Interview chen. Sie erlauben, die alten manuellen Methoden wieder einzusetzen: das Zeichnen mit Stiften auf Tableaus. Wenn Sie hier bestimmte Farbfelder antippen, können Sie die Farben verteilen und in ganz üblicher Weise mischen - vom Computer und der Mathematik brauchen Sie überhaupt nichts zu wissen. Allerdings kann man fragen, welchen Sinn diese Systeme haben und ob sie wirklich in Neuland führen; denn ihr Effekt liegt ja vor allem in der Handhabung, die die Arbeitspraxis erheblich erleichtert. Man kann sehr gut löschen und die Farben verändern; man kann verzerren. Teile herauszoomen und einzeln bearbeiten, um sie dann wieder in die Zeichnung einzufügen. Kollegen, die diese Paint-Systeme anwenden, sagen mir, daß sie nie mehr zum Pinsel und zur Farbe zurückkehren werden, da sie Ihre Gedanken jetzt viel rascher realisieren können und nicht mehr an fertige Bildteile gebunden sind, sondern alles wieder verändern können. Der Schritt zum dreidimensionalen bewegten Bild Zum anderen haben wir die Fortführung der damals konstruktivistisch orientierten Methode, die auf Programmen beruht. Dabei lassen sich allerdings noch interaktive Phasen einschieben, und man kann auch manuell arbeiten. Nach meiner Meinung kommen wir mit dieser Methode weit über das hinaus, was wir mit den Paint-Systemen können; denn sie führt in neue Bereiche, deren wichtigster die Bewegung ist. Wenn Sie die Bewegung eines Bildes abbilden wollen, brauchen Sie 25 Bilder pro Sekunde. Da das manuell nicht mehr geht, müssen Sie die Veränderung der Bilder mit Hilfe von Programmen durchführen. M.E. ist es das Interessante und Wesentliche der neuen Technik, daß es zum ersten Mal in der Geschichte der Kunst möglich ist, mit bewegten Bildern frei zuarbeiten; sie nicht nur abzubilden, wie mit Film und Video, sondern der Phantasie freien Lauf zu lassen und sich in Bildern auszudrücken, die beliebig realistisch sein können - oder auch nicht. Das ist ein Neuland, mit dem wir erst fertig werden müssen, und auf dem wir noch keine Erfahrung haben. Darüber hinaus geht der Schritt in die Dreidimensionalität, der zwar mit dem filmischen Prozeß zusammenhängt, aber doch neue Möglichkeiten bietet. Dabei meine ich nicht nur die perspektivische Darstellung der Oberfläche, wie wir sie in der Geschichte kennen, sondern das Räumliche, das wirklich in seinen drei Dimensionen erfaßt wird. Die Bildpunkte werden durch je drei Koordinaten beschrieben. Es lassen sich dann räumliche Konstellationen abtasten oder auch abstrakt dreidimensionale Ausgangsfigurationen vorstellen, die dem Computer eingegeben und von ihm mit Herbert W. Franke seinen bestimmten Verarbeitungsroutinen auf den Bildschirm gebracht werden. Man kann nun diese Bilder beliebig drehen, die Konfigurationen von allen Seiten anschauen und dann eingreifen. Ich habe z.B. ein Programm gesehen, bei dem bestimmte Raumnetze als Ausgangsfigurationen für kompliziertere Darstellungen dienen können, und die so konstruiert sind, daß, wennein einziger Punkt verändert wird, sich das gesamte Netz ändert. Man kann dadurch von einem Rechtecknetz zu gekrümmten Figuren übergehen und so auch organische Formen darstellen. Widerspruch: Wie werden diese Bilder realisiert? Sind das schon dreidimensionale Bilder? Franke: Sie sind perspektivisch, dem Auge entsprechend, das auch nur zwei Dimensionen aufnehmen kann; aber sie sind dreidimensional in der Art und Weise, wie sie im Computer gespeichert sind. D.h., Sie können jede beliebige Ansicht abrufen; Sie können das Objekt auch drehen und von oben oder unten ansehen. Ich habe z.B. ein Stadtbild gesehen, bei dem man plötzlich, wenn ein Hebel gedreht wurde, die Stadt von unten sieht. Ein ganz seltsamer Anblick, eine Stadt von unten. Aber noch wichtiger scheint mir, daß Künstler mit konventioneller Ausbildung hier etwas ganz Neues dazu lernen müssen; das sie eigentlich wissen und beherrschen müßten, aber bislang noch nicht getan haben. Der Künstler ist noch viel zu wenig auf eine dreidimensionale Konfiguration ausgerichtet. Er beherrscht die Perspektive und kann die Lichtverhältnisse richtig einrichten; aber etwas aus der dritten Dimension heraus aufbauen, kann er nicht. Das ist jetzt mit dem Computer möglich. Es gibt ein Programm, das versucht, organische - auch phantastische - Lebewesen aufzubauen. Die Bewegung dieser „Tiere“ wird durch die Veränderung bestimmter Parameter in dem System bewerkstelligt, so daß man den ganzen Spielraum latent sämtliche Gestaltungsformen, die das Objekt annehmen kann - zur Verfügung hat. Man modelliert also die Sache; man bildet sie nicht ab im Sinne einer Projektion, sondern modelliert sie dreidimensional. Dieses Programm ist zwar ziemlich aufwendig; aber es stellt etwas zur Verfügung, das kein Einzelbildnis, sondern eine Mannigfaltigkeit von Ansichten aus allen möglichen Richtungen ist, und sich durch die Veränderung eines Parameters auch selbst verändern läßt. Z.B. habe ich das Simulationsprogramm eines menschlichen Gesichts gesehen, das aus den ca. 15 - 20 Parametern, die den Gesichtsmuskeln entsprechen, - durch die Veränderung der Parameter - jeden beliebigen Gesichtsausdruck simulieren kann. Zum Spaß hat dann einer die Größe der Augäpfel verändert, und plötzlich kamen aus dem Interview Gesicht fußballgroße Augen heraus. Das sind sicher Schockeffekte, die mit Kunst nichts zu tun haben. Ich erwähne das nur, um zu zeigen, daß ein anderes Denken jetzt ins Spiel kommt, das nicht von der Oberfläche ausgeht, sondern die Objekte von innen her aufbaut. Widerspruch: Da deutet sich offenbar für die künstlerische Tätigkeit etwas qualitativ Neues an. Franke: Das meine ich auch. Ich habe jetzt einige Punkte herausgehoben, die mir positiv erscheinen, wie die Konfrontation mit der dritten Dimension, die eine Erweiterung unserer Vorstellungsmöglichkeiten bedeutet, oder den Übergang in die Bewegung. Unsere Wirklichkeit ist bewegt und nichts Stillstehendes, und bietet eine Fülle von neuen Möglichkeiten für die Komposition abstrakter Bildabläufe. Damit aber treten neue Probleme auf: Wir müssen jetzt nicht mehr überlegen, wie die Farben innerhalb eines Bildes aufeinander abgestimmt sind, sondern auch wie die Farben eines Bildes zu denen des vorhergehenden oder des nachfolgenden passen. Ich habe bei meiner Arbeit selbst gemerkt, daß wir da überhaupt noch keine Regeln kennen, sondern diese erst ausarbeiten müssen, und aus der Erfahrung dann allmählich dazu kommen, diese neuen Möglichkeiten so zu beherrschen, dass wir sagen können, jetzt haben wir eine ausgereifte Kunstform, die Bestand hat. Das wird sicher ein Prozeß sein, der sich über Jahrzehnte hinzieht. Wir müssen uns völlig klar darüber sein, daß das die ersten tastenden Versuche im Neuland sind. Neue Anforderungen an die ästhetische Theorie Widerspruch: Dadurch wird sich auch die Ästhetik als philosophische Disziplin ändern. Wenn der künstlerische Gestaltungsprozeß sich in dem Sinne verändert, daß nicht mehr ein Bild im Zentrum steht, an das man gewisse Kriterien anlegen kann, sondern daß das Nicht-Sichtbare immer in den ästhetischen Prozeß miteinbezogen werden muß – also das, was davor und danach kommt -, dann wird das auch Auswirkungen auf die Theoriebildung der Kunst haben müssen. Franke: Sie haben völlig recht; obwohl ich die Kunst etwas weiter fasse und die Musik und Literatur dazunehme. Bei der Musik jedoch müssen Sie auch ein zeitliches Kontinuum aufbauen und dann die Töne auf das Vorher und das Nachher abstimmen. Mit ein und demselben Programm etwa kann Herbert W. Franke man sowohl Film- als auch Musiksequenzen machen. Diese bewegten Bilder haben größere Ähnlichkeit mit der Musik als mit der klassischen bildenden Kunst. Aber die Veränderungen in der Ästhetik werden viel weiter reichen. Das deutet sich schon in der Rezeptionsästhetik an, die auf der Informationspsychologie beruht. Während die klassische Genieästhetik aus der Existenz und der Situation des Künstlers zu erklären versuchte, warum er in seiner Zeit aus subjektiven Gründen gerade jenes Werk geschaffen hat, ist es heute viel interessanter, nach der Wirkung eines Kunstwerks auf das Publikum zu fragen. Wie muß es beschaffen sein, um bestimmte Effekte auszulösen, Ideen zu stimulieren, eine Herausforderung zum Mitgestalten auszulösen usw.? Das wieder bringt die Konsequenz mit sich, Kunst nicht mehr als etwas Abgeschlossenes zu sehen (das man, wenn es fertig ist, ins Museum hängt und darüber Arbeiten schreibt), sondern Kunst als etwas stetig Veränderliches, etwas Dynamisches aufzufassen, das sich auch in seiner Dynamik beobachten läßt. Damit kommen wir zu einer weiteren Möglichkeit der Computerkunst, die eine interaktive Kommunikation zwischen dem Programm, stellvertretend für den Künstler, und dem Publikum zuläßt. In der Zukunft wird man mehr und mehr Programme machen, die kein statisches Bild und auch keine bestimmte Sequenz zum Ziel haben, sondern die eine Fülle von innerhalb eines bestimmten Stils verständlichen Bildern, Abläufen, zur Verfügung stellen. Sie können vom Benutzer aktiviert werden, der damit den klassischen Bewunderer eines Kunstwerks ablöst. Hier beginnt also ein Prozeß, der den Konsumenten vom passiven Betrachter zum aktiven „Benutzer“ macht, - so unschön das Wort auch ist. Rein gesellschaftlich, meine ich, ist es sicher wünschenswert, wenn jeder selbst seine kreativen Potenzen einbringen kann; und die Anregungen können aus den vorbereiteten Kunstwerken einer ganz neuen Art kommen. Widerspruch; Wird das tatsächlich so kommen? Oder wird sich dieser Vorgang doch wieder so spezialisieren, daß die Computergraphik letztlich doch nur sinnvoll von wenigen gemacht werden kann? Franke: Ich denke, daß früher oder später alle diese Möglichkeiten genutzt werden. In Ansätzen haben wir die interaktiven Programme schon jetzt; und es wird sicher viele Künstler, wie auch Befürworter aus dem Publikum und der Kritik geben, die gerade diese Richtung fördern und stimulieren werden. Es wird auch weiterhin die bequemere Methode des Paint-Systems geben, mit der man in konventioneller Weise malen wird; und wir werden Interview auch immer den Computerkitsch haben. Ich bin davon überzeugt, daß alles das nebeneinander laufen wird. Fiktive Realitäten? Widerspruch: Uns interessiert das Problem, das über die Computergraphik im engeren Sinn hinausgeht und an das anknüpft, was Sie über die bewegten und dreidimensionalen Bilder ausgeführt haben. Wenn es in der Tat technisch möglich ist, „realistische“ Bilder zu malen, die dennoch überhaupt nicht realistisch sind, so entsteht das erkenntnistheoretisch bedeutsame Problem, daß Bilder so erscheinen, als wären sie Abbild der Realität. Erstmalig hätte der Mensch jetzt prinzipiell die Möglichkeit, die Differenz zwischen Fiktion und Wirklichkeit zum Verschwinden zu bringen. Franke: Das ist richtig; nur hat diese Richtung mit Kunst nur am Rande zu tun. Mich irritiert allerdings, daß eine Zeit lang der Photorealismus in der Kunst eine bestimmte Wertschätzung erfahren hat und von den Experten als wertvoll anerkannt wurde. Denn dabei tritt die rein technische Routine in den Vordergrund, nicht aber die künstlerischen Gestaltungsmöglichkeiten. Interessant wird es natürlich in dem Moment, wo Motive, die es überhaupt nicht gibt, realistisch dargestellt werden. Da sind wir bei dem Thema, das Sie meinen. Doch das sind Entwicklungen, die sich aus ganz anderen Gründen als künstlerischen ergeben haben. In Amerika hat sich eine besondere Situation ergeben: Die Systeme, mit denen man dreidimensionale, bewegte Sequenzen herstellen kann, sind außerordentlich teuer; man braucht dazu die größten Computer, die es heute überhaupt gibt, - die Supercomputer, die nur ganz wenigen Instituten zur Verfügung stehen. Und diese Institute können im Moment an Kunst überhaupt nicht denken, da sie Unsummen an Miete zahlen müssen. Heute wird die Entwicklung aus rein kommerziellen Gründen weiter getrieben, da in zwei Bereichen, in denen relativ viel Geld zur Verfügung steht, Interesse an solchen Produkten da ist. Der eine ist die Werbung, der andere ist die Filmproduktion, wobei im Moment gerade die Science Fiction-Filme von besonderer Bedeutung sind. Sie sind die Auftraggeber für Sequenzen, die mit dem Computer generiert werden und photorealistisch anmuten. Beim Science Fiction-Film geht es ja nicht um ein Kunstwerk, sondern man will die Schauspieler vor einem Hintergrund agieren lassen, der möglichst echt sein soll. Und auch in der Herbert W. Franke Werbung gibt es für diesen Photorealismus einen konkreten Grund. Wenn mit Werbemaßnahmen begonnen wird, stehen oft die Prototypen der neuen Produkte noch gar nicht zur Verfügung, so daß man den Computergraphikern zunächst nur die Planzeichnungen der Gehäuseform oder die Karosserie übergibt. Sie gestalten dann ein echt scheinendes Bild, so daß der Werbespot bereits vorhanden ist und rechtzeitig eingesetzt werden kann, kaum daß der erste Prototyp da ist - und dafür wird viel Geld gezahlt. Und so kommt es, daß eine durchaus richtungsweisende Entwicklung anhand völlig banaler Beispiele vor sich geht. Man kann in solch ein Institut in den USA kommen, wo die potentesten Computergraphiker von Amerika zusammensitzen und Bilder von Heinzelmännchen oder Colaflaschen betrachten. Im ersten Moment wundert man sich und fragt, ob die nichts wichtigeres zu tun haben, und merkt dann erst, dass es ihnen überhaupt nicht um die Heinzelmännchen geht, sondern darum, einen Gegenstand zu bewegen, daß man - beispielsweise - keinen stroboskopischen Effekt erhält. Das geht natürlich weiter: Reflexe, optische Erscheinungsbilder, wie macht man die echt? Es gibt z.B. die Methode des ray-tracing: Um eine richtige Beleuchtung wiederzugeben, wird von fiktiven Lichtquellen aus der Strahlengang über sämtliche Reflexionen hinweg verfolgt, bis er den fiktiven Punkt des Beschauers trifft; und das geschieht für jeden Punkt des Bildes. Das hat man gemacht; es ist zwar wirklich ein ganz realistisches Bild herausgekommen, aber diese Methode ist auf Dauer viel zu teuer. Und so setzt man nun an die Stelle der exakten die nichtexakte, aber billigere Methode, die aber den Effekt ebenso gut, wenn nicht besser, bewirkt. Da beginnt's dann allerdings interessant zu werden. Wie weit können die der Wirklichkeit abgeschauten Möglichkeiten durch eigene Gedanken ersetzt werden? - Gedanken, die vielleicht denselben Effekt erreichen, aber vielleicht auch einen ganz anderen, ungewohnten. Wenn man in dies Neuland kommt, ist das wirklich höchst erstaunlich. Es geht da nicht mehr um Fragen des Kunststils - wobei der Realismus für mich kein künstlerischer Stil ist -, sondern um den kreativen Ausdruck in Phantasiegestalten, in Visionen von fernen Welten und ferner Zukunft, oder einer rein abstrakten futuristischen Szenerie, die überhaupt nicht realisierbar sein muß. Wenn man will, kann man ja auch die Gesetze der Physik außer Kraft setzen, also Bewegungen zeigen, die es nicht geben kann. Man kann z.B. eine Glaskugel schweben lassen, die sich teilt und in metallische Objekte verwandelt, die wiederum zu einem Werbeschriftzug, sagen wir „ABC“, werden. Kurz und gut, man ist nicht mehr an die Gesetze der Physik gebunden. Wenn Sie jetzt absehen von dieser Werbesequenz, dann ist das schon eine tolle Sache, in solch freier Art mit den Objekten operieren zu können. In der Wirklichkeit Interview gibt's das nicht; in der Phantasie ist es möglich. Ich bin überzeugt, daß man solche Umwandlungen und Visionen, je billiger sie werden - und das tritt sicher ein -, umso mehr auch aus künstlerischen Gründen realisieren wird. Es ist ja in der Tat so, daß die photorealistischen Computergraphiken nicht die künstlerisch interessanten sind. Da gibt es eine Geschichte: Im Katalog zu einer großen Konferenz sollte auf der Titelseite das beste Computerbild erscheinen, das angeboten wurde. Einer hat dann ein absolut photorealistisches Bild eingesandt. zu dem er Wochen gebraucht hatte; das wurde ihm wieder zurückgeschickt, weil es von einer Photographie nicht zu unterscheiden war. Wenn man also einen künstlerischen Effekt erreichen will, muß man von der Realität weggehen, oder man strebt sie erst gar nicht an und gibt sich mit gewissen Abstraktionsstufen zufrieden. Hier tut sich eine Fülle von neuen Eindrücken, neuen Sichtund Darstellungsmöglichkeiten auf, von begründeten Abweichungen von der Wirklichkeit, die wieder eine neue Darstellungsmöglichkeit ergeben. Das ist für mich ein höchst interessantes Gebiet. Heute wird diese Entwicklung höchstens sporadisch vom ästhetischen Gesichtspunkt her gesehen, und der Fortschritt konzentriert sich vor allem auf die technischen Prozesse; aber ich glaube, daß man später einmal hier ansetzen wird, um sich mit den ästhetischen Möglichkeiten dieser Systeme ernsthaft auseinanderzusetzen. Im Moment ist das noch nicht möglich: die Amerikaner haben wenig Interesse für Theorie; und die Deutschen, die zwar für Theorie Interesse haben, haben keines für Computergraphik. Auf dem Weg zum neuen Künstlertyp Widerspruch: Sie meinen also, daß die Entwicklung darauf hinausgehen wird, theoretisch wie praktisch die Fülle der Möglichkeiten, die der Computer bietet, auszufüllen. Nicht der Realismus wird wieder hergestellt, sondern es werden im Gegenteil neue Gebiete und Formen erschlossen. Franke: Ich fühle mich nicht als Prophet; aber ich meine doch, daß es immer wieder Menschen geben wird, die an den Entwicklungen interessiert sind, in denen sich ein Fortschritt andeutet - etwas Neues, sowohl vom Gestalterischen als auch von der Theorie her. Ein solches Gebiet liegt vor, ein unbearbeitetes Gebiet, ein weites Feld von latenten Möglichkeiten, die weder theoretisch noch von der künstlerischen Praxis erfaßt sind. Wie lange Herbert W. Franke es dauern wird, bis die Computer zum festen Inventar von Kunstinstituten gehören, und bis der Widerstand der konventionellen Künstler und Kunsthistoriker abgebaut sein wird, weiß ich nicht. Jedenfalls haben wir heute noch einen beträchtlichen Widerstand gegen die Einführung dieser Systeme. Es gibt Akademien für bildende Künste, die Computer, die man ihnen als Geschenk anbot, abgewiesen haben - weil sie nichts damit zu tun haben wollten. Solange sich diese Einstellung nicht ändert, wird man auch auf der Ebene der Theorie nicht sehr weit kommen. Widerspruch: Löst sich dadurch nicht das Bild des Künstlers, wie er heute noch auf Kunstakademien ausgebildet wird, auf? Franke: Er wird für die Vergangenheit ausgebildet und nicht für die Zukunft. Widerspruch: Eben. Das deutet sich darin an. Franke: Ich nehme nicht an, daß eine bewußte Absicht dahintersteckt; aber die Erziehung in solchen Anstalten richtet sich auf Methoden, denen kaum noch neue Seiten abzugewinnen sind, und auf eine Umgebung, die heute nicht mehr existiert. Man sollte eigentlich wissen, was man tut: Man produziert ein Dilemma. Wer die Akademie verläßt, findet sich in einer Umgebung, deren Methoden nicht mehr die seinen sind, und deren Kommunikationsstrukturen er nicht mehr verstehen, mit deren Kommunikationsmedien er sich nicht ausdrücken kann. Er sieht sich natürlich, auch das wird ihm anerzogen, als Hüter der alten Werte, und verzweifelt daran, weil er merkt, daß die Wirklichkeit über ihn hinweggeht. Die Erwartung, daß man die alten Methoden in das elektronische Zeitalter hinüberretten könnte, erweist sich als falsch – die Vorstellung der Kunst als abgeschiedenes Refugium, in dem Meister und Schüler nach mittelalterlichen Vorbildern mit Gips und Farben herumexperimentieren. Ich fände es viel vernünftiger, die Studenten rechtzeitig und möglichst umfassend auf die Medien vorzubereiten, die ihnen dann, wenn sie tätig sein werden - ein Jahrzehnt oder eine Generation später -, als Ausdrucksmittel zur Verfügung stehen. Wenn sie sich den neuen Kommunikationsstrukturen öffnen würden, würde man auf sie in ganz anderer Weise hören, als wenn sie als Rufer in der Wüste herumlaufen und Dinge propagieren, die eigentlich passe sind. Für sich selbst hätten sie dann auch ein ganz anderes Lebensgefühl, nämlich das Gefühl, innerhalb einer Gesellschaft zu stehen, in der sie etwas nutzbringendes machen. Sie müssten sich dann Interview nicht mehr beklagen, unverstanden zu sein. Ich finde es tragisch, daß eine Unmenge von jungen Menschen, die kreativ und leistungsfähig wären, aufgrund einer verfehlten Erziehung aus dem gesellschaftlichen Prozeß ausscheiden und in ein Abseits gedrängt werden. Auf diese Weise werden die höchst interessanten neuen Instrumente den Leuten überlassen, die mit Kunst überhaupt nichts im Sinn haben, die neuen Medien lediglich kommerziell ausnutzen und höchstens Kitsch erzeugen. Nun, ich habe das etwas krass geschildert, es ist nicht ganz so schlimm weltweit gesehen. In Amerika gibt es bereits an einigen dutzend Hochschulen Kurse für Computergraphiker; und in Europa, in Frankreich, Italien und England, da sieht's auch schon besser aus. In der Bundesrepublik allerdings gibt es nur einige erste Anzeichen, die aber eigentlich nur auf die Einsicht von verantwortlichen Einzelpersonen zurückgehen, die sich darum bemüht haben, Lehraufträge zu vergeben. Über Lehraufträge, die dann 1- oder 2stündige Veranstaltungen sind, ist es in Deutschland jedoch noch nicht hinausgekommen. Widerspruch: Meinen Sie damit, daß die alten Techniken obsolet sind, daß man nicht mehr den Pinsel, sondern den joy-stick braucht? Sollten die alten Traditionen bewahrt werden und die Basis der Ausbildung bleiben, oder halten Sie sie für überflüssig? Franke: Geschichtlich gesehen sind sie auf jeden Fall die Basis - wie natürlich auch in der subjektiven Entwicklung des Menschen. Bevor man mit dem Computer anfängt, hat man sich vorher manuell betätigt. Die Lösung von der manuellen Tätigkeit ist ein Prozeß, der erst mit einer gewissen Reife und der Bereitschaft, mit den unbequemen immateriellen Mitteln sich abzugeben, Hand in Hand geht. Abgesehen davon meine ich, daß selbstverständlich auch die traditionellen Methoden bestimmte Vorteile für sich haben, die der Computer nicht bieten kann: die Bindung an ein Material, dessen Gesetzlichkeiten man verstehen muß, wie auch die direkte Auseinandersetzung über den Tastsinn mit den Dingen ... das geht zum Teil verloren. Das ist mir durchaus bewußt. Es gibt selbstverständlich nicht den Ersatz von alten Methoden durch neue. Das gilt vielleicht für Bereiche, wo man, wie beim Trickfilm, nicht mehr zum Handzeichen zurückkehren, sondern mit dem Computer zeichnen wird. Aber im Rahmen der Kunst sollte Freiheit bestehen: jeder kann die Methode wählen, die ihm gemäß ist. Selbstverständlich werden die klassischen Methoden weiterhin praktiziert werden, und ich bin sehr dafür, daß das der Fall ist. Was ich in der Begeisterung für das Neue gesagt habe, mag vielleicht den Eindruck erweckt haben, Herbert W. Franke ich wäre gegen die alten Methoden. Das ist nicht der Fall. Ich meine nur, man müsste die neuen mitberücksichtigen und nicht ausgrenzen. Das Erkenntnisproblem: Trug oder Wirklichkeit Widerspruch: Noch einmal zurück zur „fiktiven Realität“. Sie haben wahrscheinlich recht, daß die Entwicklung in der Kunst von der getreuen Abbildung weggehen, und man sich neue Gebiete erschließen wird. Doch es stellt sich die Frage, ob nicht die technischen Möglichkeiten in einem anderen Gebiet, dem Kulturellen und Sozialen, zum Problem werden. Es gibt die Möglichkeit, technisch eine Realität herzustellen, die zwar nur fiktiv ist, die man aber als solche nicht mehr erkennen kann. Das ist eher ein erkenntnistheoretisches Problem, das durch diese Techniken, durch die neuen Darstellungsformen in den Medien neu erzeugt wird. Franke: Zunächst einmal sind die Methoden, die sich hier entwickeln, rein technische. Die Möglichkeit, Realität wiederzugeben, oder auch fiktive Dinge in realistischer Sicht darzustellen, stellt sich als rein technisches Software-Problem heraus. Es gibt Leute, die sich auf solche Fragen spezialisiert haben, Spezialisten für Grashalme usw. - die ein halbes Jahr lang daran arbeiten, wie man einen Grashalm realistisch darstellt: Spezialisten für Wasserwellen oder Wolken. Es ist zu erwarten, daß innerhalb von 10 Jahren die Möglichkeit, Dinge realistisch darzustellen, als ein Diskettenpaket vorliegt und zu kaufen ist. Nun erst tritt die Frage auf, wie man sie künstlerisch anwendet. Darum meinte ich auch vorhin, daß die Darstellung einer Vision mit Hilfe dieser Methode keiner künstlerischen Potenz bedarf, sondern daß diese eben in der Vision selbst steckt. Was Sie allerdings interessiert, ist offenbar das Problem, daß man auch Realität vortäuschen kann, angefangen von den Betrugsmöglichkeiten bis zu der Frage, ob der Mensch auf diese Weise nicht die Verbindung zur wirklichen Realität verliert und sich eigentlich mehr und mehr in einer Welt tummelt, die ihm Realität nur vortäuscht ... Widerspruch: ... wo die Grenzen verschwimmen; und man nicht mehr weiß, was Realität und was Fiktion ist. Franke: Eine solche Entwicklung hat, wie wir wissen, immer positive und negative Konsequenzen: die negativen liegen zum Teil eben in dieser fiktiven Welt, die von den echten Problemen abführt. Aber diesen Vorwurf Interview können Sie natürlich auch jedem Roman machen, der sich auch mit etwas beschäftigt, das in der Wirklichkeit so gar nicht vorkommt. Widerspruch: Nun, der Roman hat jedoch eine diskursive und erzählende Struktur, so daß die Möglichkeit, zwischen Fiktion und Realität zu unterscheiden, doch aufrecht erhalten bleibt. Beim Bild ist das anders; denn es zieht ja gerade aus der Anschaulichkeit und Unmittelbarkeit seine Suggestion. Und wenn wir dann bedenken, daß die Anschauung meist als die letzte Basis angenommen wird, um zu beurteilen, was wahr und was falsch ist, dann kommt dem anschaulichen Bild doch eine besondere Bedeutung zu. Abgesehen vielleicht von der Montagetechnik, war es ja selbst beim Film nie so, daß der Unterschied zwischen Realem und Fiktivem verschwunden ist. Wenn aber jetzt effektiv die Möglichkeit besteht, Bilder zu machen, die zwar keine Wirklichkeit repräsentieren, sondern frei konstruiert sind, aber zugleich so erscheinen, als seien sie real, ist dann nicht eine neue Qualität erreicht? Pranke: Es ist richtig, was Sie über den Wahrheitsbezug sagen: Was man selbst sieht, dem gesteht man Realität zu. Daraus kann sich nun einiges ergeben, was nicht wünschenswert ist: Irritation und Verunsicherung. Ich bin nicht ganz so besorgt. Ich glaube, daß man sehr bald zu unterscheiden lernen wird. Wir wissen, daß man heute ein Hörspiel – das ist nun wieder nicht der Gesichtssinn, der zweifellos der wichtigste ist - völlig realistisch machen kann, wie z.B. Orson Welles mit seiner Marsinvasion. Wenn man aber weiß, daß das möglich ist ... ich glaube, heute würde man nicht mehr so leicht darauf hereinfallen. Man wird lernen müssen, daß man mit Bildern Wirklichkeitsnähe vortäuschen kann. Man merkt ja, ob etwas über den Bildschirm kommt oder nicht; und so wird man den Bildschirm eben nicht mehr als verbindlich annehmen. Das ist ja heute schon nicht unbedingt angeraten - wir alle sind schon heute sehr vorsichtig geworden. Ich wenigstens halte den Menschen für so flexibel, daß er mit diesen Problemen fertig wird. Aber es gibt auch positive Seiten. Ich habe mich z.B. neulich mit sog. Diatomeenschalen beschäftigt, das sind auf Siliziumverbindungen aufgebaute Strukturen, Molekularsiebe, die graphisch reizvolle dreidimensionale Bogengänge haben, mit denen verglichen gotische Baustrukturen ärmlich ausgestattet sind. Diese kann man prinzipiell photographisch nicht sichtbar machen, sondern nur berechnen. Mit der Computergraphik können Sie diese Strukturen dreidimensional sichtbar machen. Ich könnte mir auch Simulationen vorstellen, bei denen Sie vor dem Bildschirm sitzen und nicht Herbert W. Franke nur Sequenzen abspielen lassen, sondern mit dem joy-stick in jede beliebige Richtung gehen - oder besser gesagt, schweben können. Sie können das schneller oder langsamer. Sie können Details herauslassen usw. Wir kommen mit diesen Methoden in Bereiche hinein, die für uns sonst absolut unerreichbar wären. Übrigens gilt das auch für Telemanipulatoren: Sie können fremde Gegenden aufsuchen - z.B. in einen Vulkan hineinsteigen und das mit Teleapparaturen verfolgen, als wenn Sie selbst drin wären. Vielleicht wird uns auf diese Weise auch die Mikrowelt „zugänglich“. Es kommt eben immer darauf an, ob die Dinge, die uns zur Verfügung stehen, vernünftig oder unvernünftig angewendet werden; wobei diese Beispiele zeigen, daß der Begriff „vernünftig“ nicht nur im Sinne von „zweckdienlich“ zu verstehen ist. Es ist allerdings eine Frage, die ich nicht beantworten kann: Ob wir die Gefahren so sehr fürchten, dass wir die Entwicklung lieber stoppen wollen; oder ob wir unserer Intelligenz und unserem Auffassungsvermögen so weit vertrauen, daß wir das Risiko, das jeder Fortschritt bedeutet, auf uns nehmen wollen. Widerspruch: Herr Professor Franke, wir danken für das Gespräch. Das Gespräch führten Alexander von Pechmann, Percy Turtur und Thomas Wimmer. Interview „Procedure“, Reihe von Graphikdarstellungen: alle möglichen geraden Verbindungen zwischen drei, vier, fünf...zwanzig Punkten In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 67-75 Autorin: Helga Laugsch-Hampel Artikel Helga LaugschHampel Anmerkungen zu einer 'neuen' Ästhetik der Rockmusik im Zuge der neuen Technologien Wenn auch die Auswirkungen neuer Technologien im Bereich der optischen Medien am augenfälligsten sind, so sollte doch nicht übersehen werden, daß sich - quasi im Hintergrund - für die akustischen Medien in den letzten Jahren eine ähnliche Revolution vollzogen hat. Zwar rangiert in der Rangfolge der favorisierten Freizeitbeschäftigungen das (Musik)Hören noch immer hinter dem (Fern)Sehen1 - und es ist auch kein Wechsel zu erwarten -; aber es bleibt doch festzuhalten, daß die akustischen Medien mittlerweile die gedruckten überholt haben - die Schreib- und Lesekultur ist also weiter auf dem Rückzug2. Diesem Trend entsprechend ist auch der Verkauf von Noten, wie er zu Beginn des Jahrhunderts noch üblich war3, zugunsten des Verkaufes von Tonträgern (Platten, Kassetten, compact-dlscs, Bildplatten, video-clips) erheblich zurückgegangen. Worin besteht nun der Fortschritt durch die neuen Technologien im Bereich der akustischen Medien? Da dessen Konsequenzen im Verlauf dieses Aufsatzes erörtert werden, soll hier nur kurz (und vergröbernd) gesagt wer1 Vgl. SALZINGER, H.: Rockpower, Frankfurt 1972, S. 223 ff. Was sind Medien? W. HÖFER (Hrsg.), Percha 1981, S. 321 ff. CHAPPLE St., u. GAROFALI, R.: Wem gehört die Rockmusik?, Reinbek b. Hamburg 1980, S. 201 ff. 2 KNEIF, T.: Rockmusik, Reinbek b. Hamburg 1982, S. 45 (= 1982 ). Vgl. Karl VALENTIN. Volkssänger, Dadaist, München 1982. URBAN, P.: Rollende Worte, Frankfurt 1979. 3 Helga Laugsch-Hampel den, daß es sich um die technische Vervollkommnung des Endproduktes und, damit verbunden, um eine Steigerung von Zeit, Kosten und Qualität bei dessen Herstellung handelt. Zum einen geht es im musikalischen Bereich darum, im selben Medium vollkommener zu werden, d.h. qualitativ besser und schneller zu arbeiten und dabei menschliche, natürliche und technische Störfaktoren weitgehend auszuschalten (dabei hat die digitale Aufnahmetechnik im Gegensatz zur analogen eine deutliche Verbesserung bewirkt4); zum anderen erfolgt bei den Bildplatten und video-clios eine Annäherune an das optische Medium. Video killed the radio star ... Hier sei kurz bei den video-clips verweilt. Diese Drei-Minuten-Kurzfilme können durchaus in der Tradition der Musikfilme betrachtet werden, die seit den 30er Jahren immer wieder eine (meist banale) Handlung um die Musik einer Gruppe herum aufgebaut haben. In den clips (fast films) wird also eine textliche und eine musikalische Aussage optisch dargeboten - die Chance zum Zusammenwirken der Medien wird jedoch meist ungenutzt gelassen. Die optische Dominanz wird dabei technisch untermauert: die Qualität der visuellen Darbietung übersteigt die akustische Klangpräsenz, da diese Geräte so konstruiert sind, daß die Visualität mehr Volumen entwickeln kann. Zudem wird bei der optischen Wiedergabe sehr oft mit einem vervielfältigenden (und deshalb überwältigerenden) Effekt gearbeitet, indem zwar viele Sichtgeräte installiert werden, aber nur eine Lautsprecheranlage5. Der entstehende Eindruck ist diffus-verwirrend und auch für die Augen nicht mehr pointiert zu erfassen, er zielt auf Breitenwirkung ab, nicht auf eine in die Tiefe - auf Quantität, nicht auf Qualität. Ist Musik allein nun nicht mehr ausreichend? „Der visuelle Aspekt ist ein Teil der Zauberformel geworden, die dich ganz nach oben bringt. Wenn du ein gutes äußeres Image hast und einen mittelmäßigen Song, kannst du die Nr. 1 werden. Umgekehrt ist das nicht möglich“6 berichtet der Musiker Th. Dolby. Nun kann wahrlich nicht behauptet werden, daß in der Rock-Musik 4 KNEIF, T.: Rockmusik, Reinbek b. Hamburg 1982 (=1982 a). 5 Vgl. Plattenkaufhaus WOM in Münchens Fußgängerzone. Thomas DOLBY (Musiker), in: Fachblatt 5/84, S. 20 (=FB). 6 Ästhetik der Rockmusik noch nie mit Manipulation Geschäfte gemacht worden wären. Dennoch scheint sich eine neue Entwicklung abzuzeichnen: „Die Labels nehmen natürlich nur noch neue Leute unter Vertrag, die quasi eine videogene Visage haben. Ob sie gute Songs schreiben können, (...) ist verdammt nebensächlich geworden“7. Und darum handelt es sich in erster Linie: um das individuelle und das industrielle Geschäft. „Die Plattenumsätze in Großbritannien hatten (...) bereits 1976 einen Tiefstand erreicht, während in Deutschland und in den USA die Kurve erst nach 1979 nach unten knickte“8. Die video-clips boten sich als Rettung an. Sie „waren reine Werbeträger der Plattenfirmen, die helfen sollten, den sinkenden Umsatz von Hitsingles oder LP 's zu steigern“9. Und in zunehmendem Maße wurden und werden die Hitparaden auch von den video-clips bestimmt10. „You don’t believe, we’re on the eve of destruction?“ Bei der Festlegung von „Rockmusik“ ergeben sich nicht unerhebliche Schwierigkeiten: ist es „Jugend“-, „Pop“- oder gar eine neue „Volks''Musik11? Zwar ist sie Musik für Jugendliche und Ausdruck ihrer (Sub)Kultur, aber der Konsumentenkreis setzt sich aus immer mehr ehemaligen Jugendlichen zusammen und macht daher eine Abgrenzung nach oben schwierig12; sie bietet sowohl Seichtes als auch Anspruchvolles13 enthält Elemente von zeitgenössischer E- und U-Musik14; sie ist „die eigentümliche Verzahnung einer Art Volksmusik (...) mit einem 7 Joe JACKSON (Musiker), in: FB 7/84, S. 31. 8 Musikexpress 12/79, S. 75 (= ME). 9 Fachblatt 12/84, S. 272. 10 Vgl. hierzu z.B.: „VISAGE“. ME 11/81, S. 46 f.; „HERBIE HANCOCK“, FB 2/84, S. 161; „DURAN DURAN“, FB 12/84, S. 274. 11 Vgl. KNEIF, 1982 a; CHAFPLE; SALZINGER etc. 12 KNEIFF, 1982 a ,S 208. 13 Ebd., S. 207. 14 Ebd., S. 198 ff. Helga Laugsch-Hampel tümliche Verzahnung einer Art Volksmusik (...) mit einem hochentwickelten Industriezweig, und diese paradoxe Verbindung (... ) bringt manche Probleme und Widersprüche ( . .. ) mit sich“15. Entwicklungen und Strömungen in der Rockmusik, die im übrigen nie linear-separat, sondern zirkulär verlaufen, so dass ambivalente Richtungen einander nicht ausschließen und falsifizieren müssen, waren stets ein Barometer für Entwicklungen und Strömungen in der Gesamtgesellschaft16 Besonders deutlich läßt sich das am Beispiel der späten 60er Jahre, an der Verzahnung Rockmusik - Mode - Sexualität - Studentenbewegung und dem Bestreben einer Veränderung der Gesellschaft aufzeigen. Dem entspricht eine sich saturiert und/oder bombastisch gebende Rockmusik in der Zeit einer politischen Mäßigung und Restauration in den späten 70er Jahren, die zumindest eine musikalisch provokative Strömung, nämlich den Punk, nach sich zog. Wenn man nun eine der zentralen Kategorien der Ästhetik von Rockmusik, nämlich die der „Körperlichkeit“, als Schnittpunkt von Sinnlichkeit, Sexualität und Arbeit, herausgreift17 und die Auswirkungen der neuen Technologien auf diese untersucht, - was läßt sich daraus hinsichtlich einer Veränderung ihrer Ästhetik und der Gesamtgesellschaft schließen? Könnte man nicht - vorausgesetzt, man wäre nur vorurteilsfrei und wohlmeinend genug - die neuen Medien freudig und erwartungsvoll genießen? Für die visuellen Medien verheißt Schwarz-Schilling stellvertretend für die Konservativen ein „Mehr“ an Individualität, an Freiheit und Demokratie, ja an Kunst18. Kreativität für alle - jeder sein eigener Künstler; diese Angebote können auch für den musikalischen Bereich gelten. Für die Rockmusik war ja spielerische Virtuosität niemals eine unabdingbare Voraussetzung; vielmehr sind Banalität und Dilettantismus stets eine wichtige Quelle für Musiker und Gruppen (und Publikum) gewesen. Als wichtig erscheint der Akt der Kommunikation, der Übermittlung einer (wie 15 Ebd., S. 196. 16 Vgl. CHAPPLE. 1980. 17 Eric BURDON, in: Living in a Rock 'n Roll Fantasy, Berlin 1977, S. 191 ff. 18 Chr. SCHWARZ-SCHILLING, in: Was sind Medien?, S. 155 ff. Ästhetik der Rockmusik auch immer gearteten) Botschaft. Und diese - so könnte man meinen - wird erleichtert durch video-clips und insbesondere durch Instrumentarien und Aufnahmeverfahren, die tendenziell musikalisch-handwerkliches Können immer mehr überflüssig machen. Eine Chance zur Gleichheit, ein Abbau von Privilegien also? In der Tat ist es heute möglich, daß nur ein Musiker eine ganze Platte einspielen kann. Der Aufwand an Zeit und Menschen kann also erheblich reduziert werden. Ja, für die Musiker besteht sogar die Notwendigkeit, ihr Instrumentarium und ihre 'Ausrüstung', um das zu vervollkommnen, was in rascher Folge auf dem Markt erscheint, um weiter beschäftigt zu werden19. (Dazu die Werbung einer Firma, die Anfang der 80er Jahre ihre Schlagzeugmaschine anpries: „Schickt Euren Schlagzeuger nachhause“.) Und darüber hinaus: eröffnet sich nicht die Chance zur Ganzheit, wenn durch die video-clips die Brücke von der Akustik zur Optik geschlagen wird? Vielleicht auch die Einheit von männlichem und weiblichem Prinzip wird doch das Auge traditionell als männlich besetzt, weil fixierend, und das Sehvermögen durch Geisteskraft erworben20, und das Ohr als weiblich, weil aufnehmend und von der Natur mitgegeben21, gesehen? Together we could change the world ... Immer häufiger wird zum video-clip gegriffen; ganze Musiksendungen, die in 'grauer Rockvorzeit' aus Live-Auftritten bestanden, setzen sich aus 'Vollkonserven' zusammen, so daß sich die Auftrittsmöglichkeiten (z.B. im Fernsehen) ständig verringern. Nun kann zwar nicht grundsätzlich festgestellt werden, daß Live-Auftritte ihre Anziehungskraft verloren hätten22. Bezeichnend dafür ist, daß sich Massenfestivals (wie Anfang 1985 in Rio) großer Diese Innovationen kommen vor allem den Herstellern von Gebrauchsmusik zugute; vgl. Tom SCOTT (Musiker), in: FB 2/85, S. 27 ff. 19 20 HEGEL, G.W.F.: Ästhetik 1/11, Stuttgart 1971. 21 BEHRENDT, J.: Nada brahma, Frankfurt 1984 22 Trotz geplatzter Tourneen (vgl. SPLIFF und EXTRABREIT, ME/sounds 3/85; ME/sounds 2/85). Helga Laugsch-Hampel Beliebtheit erfreuen. Auf dieser Ebene ist der Publikumszuspruch eher angewachsen. Rockmusik ist Allgemeingut geworden und signalisiert nicht mehr die Zugehörigkeit zu einer besonderen Klasse von veränderungswilligen Außenseitern. Betroffen aber von mangelnden Auftrittsmöglichkeiten und fehlender Publikumsresonanz sind vor allem die Gruppen, die auf lokaler Ebene spielen - viele Clubs sind 'wegrationalisiert' worden23. Da jedoch Tourneen und Live-Auftritte bis zu einer gewissen Größenordnung eher mit Verlusten als mit Gewinnen verbunden sind24 muß es auch einen anderen Grund als den materiell-kommerziellen geben. Und hier zeigt sich nun, dass in dem Maße, in dem Rockmusik in immer weiteren und neuen Schichten Verbreitung fand, sie absorbiert wurde und den Großteil ihrer (ambivalenten) politischen, gesellschaftlichen und kulturellen Sprengkraft verlor25. Die Rockmusiker - ehemals von der konservativen Seite und ihrer Presse als 'langhaarige Affen' bezeichnet - avancieren auf einmal zur high society, werden gesellschaftsfähig als 'Künstler' und verlieren damit immer mehr die Fähigkeit zur Provokation. Und das Publikum, das nun in weitaus größerer Zahl erscheint, ist davon entfernt, dieses quantitative „Mehr“ an Gemeinsamkeit in ein qualitatives umzusetzen. Das Publikum wird lediglich zur Masse, und die Grenzen zu anderen Massenveranstaltungen (z.B. und vor allem zum Sport) sind fließend geworden - 'palace revolutions' sind also keineswegs mehr zu befürchten. Wichtig wird diese Tendenz also auch für das Verhältnis des Individuums zur Gesellschaft. Die versprochene Individualkommunikation „von einem für einen“ zeigt sich als massenweise reproduzierte (im Sinne von Walter Benjamin26) über die beliebig oft verfügt werden kann. Obwohl es 23 Symptomatisch für die Situation im Großraum München, wo sich seit 10 Jahren die Auftrittsmöglichkeiten drastisch verringert haben, ist die Umwandlung des traditionsreichen 'Domicile' in eine Discothek. Vgl. SPINDLER, W. u. HOLLANDER, F.: Herr Müller auf Tournee, Reinbek b. Hamburg 1982; „Nena-Tournee“, FB 7/84, S. 158 ff. 24 25 Vgl. SALZINGER, 1972; KNEIF, 1982 a. 26 BENJAMIN, W.: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, Frankfurt 1978, S. 13. Ästhetik der Rockmusik sicher auch eine gegenläufige Strömung gibt (z.B. U 2, BAP und nicht zuletzt das große Live-AID-Konzert), läßt sich doch feststellen, daß die aus dieser technologischen Entwicklung resultierende Individualisierung eine grundsätzliche Absage an das Anliegen der Rockmusik der 60er und frühen 70er Jahre darstellt: die Gemeinsamkeit, mit der persönliche, soziale und politische Angelegenheiten verändert werden sollten. Und daran ändert auch eine Kontakttaste an einem walkman nichts. - Als Quintessenz bleibt also festzustellen, dass der Trend weggeht von dem gemeinsamen Erleben eines Konzertes in einem relativ überschaubaren Rahmen; „Discotheken (haben zunehmend) die Live-Auftritte ersetzt“27. In diesem Sinne gerät die gerühmte Individualisierung weitaus eher an den Rand der Vereinsamung, der Vereinzelung und der Aufsplitterung von Menschen, als daß sie qualitativ mehr Individualität verleihen würde, wie sie vorgibt. Cool and fit statt sex and sweat ... Kann die unmittelbare physische Präsenz eines Menschen nicht mehr ertragen werden? Die Leute sind „mittlerweile so weit, daß sie in Rockkonzerten so reagieren, als ob sie Fernsehen gucken“28. Zunehmend wird in LiveKonzerten auch zu Einspielungen etc. gegriffen, so daß der Charakter von unmittelbaren, 'ehrlichen' Rockkonzerten tendenziell verloren geht. Und dem kann die Verfasserin noch hinzufügen, dass sie kürzlich beim Besuch des neuen Musikkultfilms „Stopp making sense“ (Talking heads) den Eindruck hatte, als erlebte das Publikum in sehr ordentlicher, cooler und distanzierter Manier eigentlich ein Live-Konzert - die Präsenzebenen verschwimmen. M.E. sollte man allerdings nicht der 'neuen Jugend' weniger Aktivität und Bereitschaft zu einer damit einhergehenden Veränderung, dafür mehr Gleichgültigkeit und Konsumhaltung vorwerfen; sind doch die oben erwähnten Erscheinungen Auswirkungen einer neuen Medienlandschaft auf die vorzugsweise junge Generation, die ihrem Einfluß mehr ausgesetzt ist. Das Erleben von sinnlichen Reizen (und wenigstens das war Rockmusik 27 BYGRAVE, M. u. NASH, L.: Die Welt des Rock, Ravensburg 1980, S. 11. 28 Bob GELDOF (Musiker), in: ME 12/79, S. 10. Helga Laugsch-Hampel immer) scheint sich im Gegensatz zu den 60er und 70er Jahren in veränderter Weise, gleichsam auf verschiedenen Ebenen zu vollziehen. Dies hat Auswirkungen auf Spontaneität und Präsenz und verändert vor allem die Sinnlichkeit und ihr Erleben selbst. Doch nicht nur die anderen und das 'together“ gehen in gewisser Hinsicht verloren; deutlich wird in diesem Zusammenhang auch, daß „Körperlichkeit“ (Arbeit, Sinnlichkeit und Sexualität) als zentrale Kategorie des Rock einen Bedeutungswandel durchmacht, der sich nicht losgelöst ereignet, sondern durchaus in den Gesamtrahmen paßt. In zunehmendem Maße präsentiert sich ein Ideal der Androgynität (Ann Lennox, Michael Jackson). Zwar war Rockmusik immer auch ein Spiel mit Geschlechterrollen, doch momentan tritt zu der Koketterie mit den Möglichkeiten von Geschlechtlichkeit (wo sogar der neue Superstar „Prince“, der nicht unbedingt unter die 'softies' eingereiht werden kann, singt: „l 'm no man, l 'm no woman“) und gegenläufig zu der ständigen Sado-Maso-Faschismo-MachismoStrömung etwas für die Rockmusik grundsätzlich Neues: „Desinteresse am Sex“29. Wie ist dieser Bedeutungswandel zu verstehen? Zunehmend ist in den letzten Jahren die Gitarre im Zuge der neuen Technologien in ihrer fundamentalen Rolle für die Rockmusik von den Tasteninstrumenten (Synthesizern) abgelöst worden. Und da „... der Computer auf der Bühne nichts bringt“, seine Darstellung langweilig ist, ging es darum, „live eine neue Ästhetik zu entwickeln; ...der Computer ist nicht so ein Sexsymbol wie die Gitarre...“30. Nun kann es ja - und nicht nur aus weiblicher Sicht – kein allzu großer Verlust sein, wenn Sexualität nicht weiter mit Sexismus verwechselt wird (Kostprobe: „Eine Gitarre ist dagegen (gegen den Synthesizern) einfach schön. Sie hat die Formen einer Frau und reagiert auf Berührungen“31 ) und sich sogar in der Rockmusik ein Wandel im Verständnis der Geschlechterrollen vollzieht. Noch nie zuvor waren in der Geschichte der Rockmusik soviele Frauen als Instrumentalistinnen (!) beteiligt, die sich mit wachsendem Können und Selbstbewußtsein eine immer größer werdende Rolle erspielt haben. Geht dies Hand in Hand mit dem Abschied von „Sex and Sweat and Rock 'n Roll“? 29 Bob GELDOF (Musiker), in: ME/sounds 9/84, S. 24. 30 Uli RÜTZEL („Erdenklang“), in: Musik und Computer 1/84, S. 13. Steve LAKE, in: ME/sounds 6/84, S. 10 ff. 31 Ästhetik der Rockmusik „Die Präsenz eines Synthesizer-Musikers ist die einer Schreibkraft“32; das Spielen des Instrumentes ermöglicht wenig Bewegung, es erfordert wenig körperliche Arbeit und Anstrengung, wenig Schweiß. Insofern kann man durchaus sagen, daß mit dem Verlust von schwerer körperlicher Arbeit beim Spielen ein proletarischer Aspekt von Rockmusik verloren gegangen ist („Prolo“ ist wieder ein Schimpfwort), der wieder eine Parallele zum Gesamtrahmen möglich macht: aus Arbeitern werden Angestellte, der Synthesizer ersetzt die Gitarre. Nun verhält es sich aber nicht so, daß sich die Körperlichkeit in ein Nichts aufgelöst hätte. Neben den Bands, die auf „alte“ Qualitäten setzen, und denen, die eine „distanzierte“ optische Präsenz darbieten, sollten jene nicht vergessen werden, die „Körperlichkeit“ in „Sportlichkeit“ umsetzen. Nicht nur „Prince“, der ja in gewisser Hinsicht provozierende Sexualität verkörpern soll, verbringt einen großen Teil seines Auftritts damit, in großem Tempo auf Treppen herumzuturnen. Beispiele könnten an dieser Stelle beliebig genannt werden; oft erinnert auch der Bühnenaufbau an eine Sportarena („Scorpions“), und häufig finden die Konzerte selbst in Sportstadien statt. Körperliche Fitness also ist für die Bühne erforderlich. Analog dazu laufen seit Jahren Trends zur körperlichen Ertüchtigung (Jogging, Aerobic, Stretching, Bodybuilding, Squash etc.). Auch hier läßt sich eine Parallele zur Mode ziehen: was in den 60er Jahren (provozierend) eng, kurz, und durchaus unbequem zu sein hatte und die Körperformen nachzeichnete und überbetonte, kommt nun weit, verhüllend und - vor allem - lässig daher. Die Mode sucht sich ihre Anregungen zunehmend bei der Sportbekleidung. Abzuwarten ist, wann die ersten Trainingsanzüge für Oper und Kirche präsentiert werden. Vor allem der Körper muß getrimmt werden - in einer Gesellschaft, die immer mehr dazu übergeht, körperliche Arbeit durch die maschinelle zu ersetzen. Fitness als Katalysator? Nicht nur Frank Zapp33 wird bissig-nachdenklich, wenn er eine Gesellschaft mit „gebuildeten bodies“ betrachtet, der daran gelegen ist, den Körper quasi einer Grundausbildung zu unterziehen. Wo, zum Teufel, bleibt der gesunde Geist? Stop making sense ... 32 33 Ebd. Frank ZAPPA (Musiker), in: ME/sounds 11/84. Helga Laugsch-Hampel Spätestens an dieser Stelle muß auch ein Aspekt zum Tragen kommen, der bis jetzt keine Erwähnung fand: der Generationenkonflikt. Wenn eine 30jährige Verfasserin angestrengt bemüht ist. Parallelen und Ambivalenzen zwischen „damals“ und „heute“ auszumachen, und angesichts mancher Strömungen verständnislos reagiert, so muß sie doch einsehen und anerkennen, daß die heutige Jugendgeneration auch Ihre (wähl- und manipulierbare) Jugendkultur als eigene Qualität im Gegensatz zur Erwachsenenwelt hat. Ist „Stop making sense“ („Schluß mit Tiefgründigkeit oder Tiefgründelei“ im Stile der 60er und 70er Jahre) der Schlüssel und beansprucht die eigentliche Anarchie? Ist die Schaukel der Generationen abermals gekippt? Doch über jedes Mißverständnis von Generationen hinaus läßt sich, wie aufgezeigt, der Bedeutungswandel von Rockmusik anhand einer zentralen Kategorie, der „Körperlichkeit“ ausmachen. Untrennbar verbunden mit dem gesamtgesellschaftlichen Rahmen haben „Sexualität“, „Sinnlichkeit“ und „Arbeit“ ein neues, gleichsam 'eingeebnetes' Gesicht angenommen. Aufgefangen in einem großen Becken der Entschädigungsangebote - und spätestens hier ist der Hinweis auf Habermas' „Technik und Wissenschaft als 'Ideologie'“34 angebracht - sind sie - einst provozierend umstürzlerisch und der Grenzensprengung verdächtigt - absorbiert und so umgewandelt worden, daß sie nahtlos in der Reihe der Entschädigungsangebote stehen können - dafür gedacht, die Spätphase einer Kultur hinauszuzögern und zu verlängern und deren Legitimationsgrundlage abzugeben, gleichermaßen als Fluchtmöglichkeit und Falle. Für Beratung und Hilfe vielen Dank an Alexander von Pechmann, Christi Franz, Jochen Scheffter, Arthur Silber und vor allem Schorsch Hampel! 34 HABERMAS, J.: Technik und Wissenschaft als „Ideologie“ Frankfurt 1981. In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 76-87 Autor: Horst v. Gizycki Artikel Horst v. Gizycki Im Streit um die richtige Leere. Ausgewählte Skizzen zu einer ökologischen Ästhetik Vorbemerkung: Die hier in einer Auswahl zur Diskussion gestellten Überlegungen gehören in den Umkreis der „erotischen Farbenlehre“, die ich in meinem 1983 veröffentlichten Essay „Arche Noah '84“ entworfen habe (Fischer-Taschenbuch 4163). Diese Skizzen sind Vorgriffe auf eine Ästhetik im Zeichen des Regenbogens. Immer wieder hat es in unserer Geschichte Minderheiten gegeben, die den divide-et-impera-Praktiken der jeweiligen Machthaber eine Haltung umfassender Solidarität, auch mit der Natur, entgegenzustellen versucht haben. Eine historische Rückschau würde von der Arche Noah über Franz von Assisi, Rousseau, Novalis und Thoreau bis zur nüchtern-experimentellen Mystik von Musils „Mann ohne Eigenschaften“ und bis zum Monte Verita reichen, und sie würde auch außereuropäische Traditionen der Allianz von Geist, Mensch und Natur einbeziehen. Stellvertretend für diese in den zeitgenössischen Öko-Bewegungen wieder auflebende Naturmystik sei ein Bildwerk von Hieronymus Bosch in Erinnerung gerufen: Bosch soll, im fünfzehnten Jahrhundert, zu den „Brüdern und Schwestern des Freien Geistes“ gehört haben, einer religiösen Geheimgesellschaft, die schon auf Erden den Unschuldsstand des Paradieses herstellen wollte. Die verschlüsselte Symbolik seines berühmten Triptychons „Garten der Lüste“ ist zwar bis heute von niemandem vollständig enträtselt worden; neben anderen Auslegungen läßt es aber auch die Deutung zu, daß Bosch uns hier Horst v. Gizycki den Entwurf einer gewaltfreien Lebensordnung und Friedenskultur vor Augen stellt. Auf dem rechten Flügel des Triptychons herrschen Krieg und Zerstörung. Es gibt dort beispielsweise „Lauschangriffe“ mit großen Ohren, die als eine Maschine zum Töten abgebildet sind. Die Menschen sind in riesige Instrumente eingespannt. Teile des Apparats; bis heute tragen die Verhältnisse Züge dieser Gewaltförmigkeit. Die große Mitteltafel aber läßt sich als Gegenbild zur wirklichen Welt auffassen: es ist eine lebensfreundliche, viel Freiheit (und gleichwohl Ordnung) verkörpernde Szenerie. In einem paradiesischen Wundergarten werden zahlreiche nackte Menschen in zärtlich-liebevoller Verbindung miteinander und mit der Natur dargestellt. Es ist eine festliche Daseinsordnung ohne Zwang: „Gesetz und Freiheit, ohne Gewalt“ - darin besteht nach Immanuel Kant ein Wesenszug von Anarchie. Anarchie, wörtlich übersetzt: Herrschaftsfreiheit, ist entgegen einem heute vollständig auf den Kopf gestellten Wortgebrauch ursprünglich eine frei verabredete Ordnung des Zusammenlebens, und Hieronymus Bosch, so deute ich seine Bilddichtung, hat in diesem Triptychon eine solche Lebensmöglichkeit für uns ausgemalt. Zugrunde liegt hier ein Daseinsvertrauen, für das die welterhaltenden und Bindungen stiftenden Kräfte letztlich wirkmächtiger sind als die auf Getrenntheit und Zerstörung zielenden Gewalten. Fehlen diese Kräfte oder entwickeln sie nur verstümmelte Gestalten, dann täuscht alles Getöse unseres Zusammenlebens produktives Wachstum nur vor, und „Abgestorbenheit“ (Erich Fromm) kennzeichnet unser Verhalten und Erleben - wir sind dann nur eine Gesellschaft von betriebsamen Toten. *** Liebesgewißheit liegt hier zugrunde, eine Erosmetaphysik mit empirischen Evidenzstützen: Zwei Menschen müssen sich, wie immer flüchtig, dumpf oder wach miteinander verbunden haben; meine Mutter muß mit mir, ihrem Kinde, verbunden gewesen sein, und diejenigen, die mich in den frühesten Lebenstagen betreut, umsorgt, nicht umgebracht haben, müssen mir zugetan gewesen sein - sonst wäre ich gar nicht am Leben. Um diese Liebesgewißheit geht es: Ich bin, also hat es auch in meinem Fall einmal Liebe auf der Welt gegeben (sum, ergo coitus fuerat) ... Ökologische Ästhetik *** Für Erosmetaphysik (und Metaphysik überhaupt) haben die zeitgenössischen Negationsräte bekanntlich die Entleerung unseres Bewußtseins verordnet, und Adornos berühmter Schlußsatz der „Negativen Dialektik“ erklärt sich nur noch „solidarisch mit Metaphysik im Augenblick ihres Sturzes“. Immerhin: solidarisch! Und dieses erotische Minimum besitzt für einen anderen Autor der poetisch-kritischen Schule, für Ulrich Sonnemann, offenbar genügend Schubkraft und Klugheit, um den „Sturz“ mit seinen Knochenbrüchen in eine „Landung“ zu verwandeln. Wenn aber Erosmetaphysik auf der Erde „landet“, sich also aus der nicht mehr tragfähigen Luft auf den Boden rettet, und zwar im wesentlichen unversehrt: stellt uns das nicht einen neuen geistbeseelten Materialismus in Aussicht? Eine Wiedervergeistigung der Natur und eine neue Naturalisierung des Geistes scheint In der Luft gelegen und auf die Grüne Wiese zurückgefunden zu haben (womöglich in unmittelbarer Nähe des Hunsrückdörfchens Schabbach)! Im allenthalben wiedererwachten Interesse am Gang über die Dörfer steckt mutmaßlich ein Wunsch nach Konkretion und Re-Ästhetisierung aller Lebenszusammenhänge, die im Computerzeitalter der lautlosen Gewalt der Abstraktion verfallen und auf diese Weise heimatlos gemacht werden. Auch ehemalige Linke, angeblich Leute ohne richtige Heimat (obwohl sie sich mit ihren Theorien auch immer ihre vertrauten Eingeborenen-Dörfer nach dem Muster des „Kral Marx“ eingerichtet haben), auch diese inzwischen obdachlos herumirrenden Seelen entdecken neuerdings einen rückwärtigen Eingang zum Paradies. Nach der negationsfleißigen Reise um die Welt haben sie begreiflicherweise keine Lust mehr, noch länger rastlos Erkenntnisse, Gesetze, Endzwecke und dergleichen Reversibilitäten (Jean Baudrillard) durch die Mühlen der Kritik zu drehen. Festlicher Zauber ist statt dessen angesagt: die mystische Geschwisterrepublik alles Seienden, in der alles gleich gültig, „gleichgültig“ ist, aber auf lodernde Art, wie bei einem Flammentod! Erkenntnishunger wird zu Ausdruckssehnsucht; die Wirklichkeit als Netzwerk von Ursachen und Folgen ist endlich abgeschafft (schon Robert Musils „Mann ohne Eigenschaften“ träumte davon), alles Vorhandene ist nur Kopie von längst abgelebten Originalen, gleich-gültig und allenfalls Gelegenheit zu feierlichen Bewußtseinszuständen vom Typ der Ekstase (Baudrillard). Sie allein lohnt eventuell noch das Dabeibleiben. Sie entsteht bei Aufgipfelungen der historischen Müllhalden und deren Implosion durch Selbstentzündung . . . Horst v. Gizycki *** Wer, bei leidenschaftlicher Ablehnung der alles gleichmachenden Tauschabstraktion (als Aufgipfelung cartesianisch-atomspaltenden Denkens) dennoch die Leere der auf die Spitze getriebenen Abstraktion mitnimmt in den neuen Paradieszustand, auf den das Denken regrediert, der landet bei reiner, sozusagen leerer Intensität von Wahrnehmungen und Gefühlen, wo es nur noch grell, ohrenbetäubend, gleißend zugeht, ohne daß im Flickenteppich der sinnlichen Konkretionen noch Unterschiede wahrgenommen werden: Grenzüberschreitungen ekstatischer Zustände, für die auch gleichgültig wird, ob sie vom zurückgelassenen Denken als wahnsinnig, als verbrecherisch oder als künstlerische Eruption beurteilt werden. Sind das Versuche, den fast schon leblosen Zustand der Welt (und der eigenen Existenz) noch einmal wachzubrennen? *** Von Brecht zurück zu Benn: Wird die Kunst als Mittel der Intensitätssteigerung von Bewußtseinsvorgängen aufgefasst (statt „andere Art von Erkenntnis“ zu sein), also als Ekstase-Stimulans, wie rhythmisches Trommeln, Derwisch-Tanz und ähnliche ästhetische Praktiken, so wird „Ausdruck“ zur Provokation von unwahrscheinlichen, außer-ordentlichen, die Alltagswirklich transzendierenden Zuständen. Kündigt sich in der wiederentdeckten Lust am erkenntnis-leeren und gleichwohl intensiven Ausdruck eine neue Spiritualität an? Nährt sie sich aus einem „Gefühl für das Unendliche“ (Schleiermacher), dem es nicht auf Moral und Wahrheit (Theorien) ankommt, sondern auf ekstatische Gleich-Gültigkeit alles Wirklichen, wie sie zu jeder Mystik gehört? Auch in Boschs Garten der Anarchie gibt es dieses umfassende Geltenlassen - zugunsten des Lebens! Zum Leben gehört auch das Sterben. Unser sicheres Ende und das Bewußtsein davon macht uns umfassend schreckhaft: empfänglich für ängstliche und euphorische Grenzzustände größter Intensität, die sogar noch die Trennlinien zwischen Angst und Freude verwischen kann. Kein Gott in seiner langweiligen Persistenz, kein säure-unempfindliches Material in seiner stumpfsinnigen Dauerhaftigkeit besitzt dieses funkensprühende Können - um den Preis des Todes. Daß ein Gott nicht sterben kann, wäre also eine Einschränkung seiner Ökologische Ästhetik Vollkommenheit. Die Erfahrung tiefster Verzweiflung wie auch das ekstatische Erlebnis ihrer Gegenaffekte sind ihm eben deswegen versperrt. *** Wenn ihm alles gleichermaßen gültig ist, wendet sich der Künstler jedem Charakter, dem Bösewicht ebenso wie dem guten Herzen, dem faulenden Aas wie dem Glanz im Haare Buddhas mit der gleichen Aufmerksamkeit zu („Die Aufmerksamkeit ist das natürliche Gebet der Seele“, sagt Malebranche). Ist nicht diese Art von allumfassender Kosmophilie ein urteilsasketischer Naturalismus, der weltfromm die vorgefundene Wirklichkeit nur sichtbar macht? Nichts darin von Eigenwillen, Rebellion, Veränderungsoder Erneuerungsimpuls: eine geistige Haltung des kindlichen Seinsgehorsams vor dem Sündenfall. Für „Gerechtigkeit“ hat dieses Lebensgefühl eine nur schwach (wenn überhaupt) entwickelte Sensibilität. Sie wäre durchgehend möglich, diese Bewußtseinsverfassung, hätten nicht unterdessen andere Leute vom Freiheitsbaum gekostet. Gibt es auf der Welt erst einmal Rebellen und Willenssubjekte, so ist die Szene ein- für allemal qualitativ verändert, die Unschuld verloren. Kreative Regression findet zwar zu einer paradiesisch-naiven Haltung zurück, nimmt aber - nach der Reise um die Welt - das Bewußtsein unserer Begabung zur Geschichte mit in die neue Verfassung. Was dabei herauskommt, bleibt notwendig offen: ein je neuartiger, unverwechselbarer Balancezustand zwischen „Poesie“ und „Kritik“. Beide Pole machen das Spannungsfeld aus, in dem wir uns bewegen. Schon das Niederschreiben und Veröffentlichen konstituieren den Kritik-Pol mit, denn auf diese Weise werden Aus-sichHerausstellen und Spiegelung, Überantworten an das Urteil anderer, eingeleitet. Zeigt die weltfromme Position Reflexionsdefizite, zum Beispiel als Mangel an Historizitätsbewußtsein, so steht die andere Seite in Gefahr, vom Ozean zu erwarten (ein Gleichnis Tolstojs), daß seine Strömungen und Wassermassen sich nach der Liniengeometrie richten, die ein Geograph über den Globus zeichnet. Sofern diese Geometrien dogmatisch festgehaltene Ordnungen mit Käfigcharakter werden (wie es so viele Systeme sind oder waren, auch wenn sie in ihrer Jugend kritisch begonnen haben), ist das tolstojsche Bild hilfreich und entlarvend. Es übersieht aber, daß unsere Fähigkeit, mit Geometrie zu hantieren und zu rechnen (Naturwissenschaft zu treiben), vernünftigerweise gar nicht so kindisch praktiziert wird, wie das eindrucksvolle, aber eben nur poetische Bild vom Ozean es nahelegen soll, der Horst v. Gizycki sich nicht um die Längen- und Breitengrade schert, wenn er Orkane toben läßt. Immerhin läßt sich aber mit Hilfe dieser Linien der Ort des Orkans so bestimmen, daß wir uns darüber verständigen und etwa Schiffe in seiner Nähe warnen können: Leben zu retten, statt in einer Naturkatastrophe untergehen zu lassen - das ist doch auch nichts Geringes, wie? Und die wirkliche, der Natur des Ozeans gerechte Anwendung unserer Fähigkeit Linien zu ziehen, besteht darüber hinaus ja in der Erforschung und Richtungsbestimmung seiner großen Strömungen, der Vermessung seiner Wassermassen und Meeres-Untiefen, seiner Grundgebirge, versunkenen Inseln (wie Atlantis) und seiner Passatwinde, die ungemein hilfreich beim Umsegeln der Kontinente, also beim kulturellen Austausch von Wikingern, Indianern und Holländern sind. Was hat die poetische Naivität dagegen eigentlich zu erinnern? Sie sollte dankbar sein, daß sie - mit Hilfe der nautischen und geographischen Erkenntnisse - eine Erfahrung machen darf, auf die poetische Naivität von sich aus meist gar nicht verfällt: anderswo leben auch Leute. Übrigens Leute mit einer eigenen, der unsrigen oft höchst fremden Naivität. Wie schön und lehrreich, wenn solche einander bis dahin ganz unbekannten Naivitäten aufeinandertreffen! Zum ersten Mal vielleicht dämmert ihnen bei einer solchen Gelegenheit etwas von der Geschichtlichkeit menschlichen Daseins. Ein anderer Einwand gegen die „Kritik“ setzt gar nicht bei den Vermessungslinien des Geographen an, sondern bei demjenigen Aspekt dieses Unternehmens, den auch Tolstoj wohl mit im Sinne hatte, als er sein linienunfreundliches Bild entwarf: Gegen das despotische Moment daran, die Maßregelung der Natur durch einen Tyrannen, der sie unterdrücken, einsperren, mit der moralischen Zuchtrute dressieren und ihre Wildheit in ein zahmes, gehorsames Haustier verwandeln möchte, gegen dieses mosaische Gesetzgeber-Verhalten, das der Natur in uns moralische Vorschriften auferlegen will, richtet sich die Tolstoj-Empörung wohl hauptsächlich. Sie meldet sich, oft in einer bis zur Unkenntlichkeit veränderten Gestalt, jedes Mal, sobald von moralischer Erneuerung, überhaupt: von „Moral“ auch nur von weitem die Rede ist. Stets wird die Moral in solcher Empörung als etwas zutiefst Despotisches, Willkürliches, den Eigensinn (des Kindes in uns) Brechendes, also als etwas Unmenschlich-Autoritäres erfahren. Es ist die kindliche Vertrotztheit gegenüber der elterlichen Erwartung, nach dem dritten Lebensjahr nun nicht mehr einfach in die Hose zu machen. Es ist, mit anderen Worten, eine kleinkindlich erlebte Art von Moral, gegen die da protestiert wird. Von entwickelter, selbstbewußter und -bestimmter Moralität hat dieser Protest so gut wie nichts im Blick; er ist überwiegend atavistisch. Die „Lebensfeindlichkeit“ aller Moral war bekanntlich auch ein Ökologische Ästhetik Lieblingsthema Nietzsches. Als ob es keine lebensfreundliche Moral gäbe; als ob wir sie heute nicht nötig hätten! *** Damit sind erste Bausteine für eine ökologische Ästhetik beisammen. Bereits ihre Art, Theorie zu sein, unterscheidet sie von den noch vorherrschenden Formen wissenschaftlicher Praxis. Sie ist „fröhliche Wissenschaft“ im Sinne der Lieder des Prinzen Vogelfrei (Nietzsche); Humor, Artistik und neue lebensfreundliche Moral, auch „Spiel“ (als Kopulation von Geist und Lust, wie sie In Schillers Briefen über ästhetische Erziehung stattfindet und reflektiert wird), erhalten wieder Mitspracherechte in dieser Wissenschaft. Kennzeichnend für die ökologische Ästhetik ist ein herrschaftsfreier Umgang mit der äußeren und der inneren Natur: sie wird als gleichberechtigt in der Geschwisterrepublik alles Seienden anerkannt. Die mystische Grundhaltung, die sich darin verkörpert, führt zu einer neuen Gelassenheit. Statt Unterwerfung (auch unter das Diktat der großen theoretischen Vorgesetzten): Dialog und Partnerschaft, Gleichberechtigung freilich auch für den Künstler, für den Autor, dem manche Rezensenten die frühere Rolle des allwissenden Erzählers ins pure Gegenteil verkehren möchten: er solle gefälligst bescheiden-respektvoll hinnehmen, was sein poetisches Personal von sich aus tut, empfindet und denkt. Der dynamische Kosmos des Kunstwerks, neumodisch (lacaniert) gesprochen: sein „Textbegehren“, habe das unbedingte Prae. Wird nicht in solcher poetischen Kalokratie der Autor im Grunde zum Untertanen des Herrschaftssystems seiner Werkprozesse veruteilt? Das Stück Magie, das in solchen Rollenzuweisungen steckt (und für das der Surrealismus ein besonderes Faible besaß), hat jedoch ein auch für ökologische Ästhetik sympathisches Wahrheitsmoment: Kein Künstler verfügt vollständig über die von ihm inszenierten ästhetischen Ereignisse, und wo er sich das einbildet, wirken seine Arbeiten sofort konstruiert, mechanisch, gewollt und kunstbürokratisch, nicht wirklich lebendig. Zur Lebendigkeit gehört immer ein Hauch von Irrsinn, von Unberechenbarkeit, Geheimnis, Vieldeutigkeit und Eulenspiegelei. In diesem Sinne weiß der Autor tatsächlich nie vollständig, was in seinen Figuren vorgeht, und wie die Fäden ihrer Verknüpfung - vom Schnürboden seines kleinen Theaters her gesehen - wirklich verlaufen. Niemand weiß es, denn diese Fäden selbst entstehen und vergehen im lebendigen Spiel, das nie vorausberechenbar ist. Horst v. Gizycki Das bedeutet wiederum nicht, daß Kunstwerke der totalen Willkür blinder Zufallsprozesse unterliegen. Natürlich gibt es so etwas wie Komposition, Gestalt, „Gesetz und Freiheit, ohne Gewalt“, zeitweilige Ordnungen also. Motivgewebe, Verweisungen, kunstvolle Balancen und poetische Logik; sonst hätten beispielsweise Geschichten nie ein Thema, keinen Anfang und kein Ende. Sie wären - wie das optische Rauschen des Fernsehbildschirms nach Sendeschluß - ein Beispiel für totale Entropie. Da sie das aber nicht sind, und da sie auch nicht den Gegenzustand zügelloser Ordnung verkörpern, in dem alles seinen genau berechenbaren Platz und Verlauf hat (nicht einmal unsere Sternsysteme sind dermaßen ordentlich: es gibt Kometen, Nova-Bildungen und Sonnen-Explosionen), nehmen Kunstwerke stets einen Zwischenzustand an, der beides: Gesetz und Freiheit miteinander in lebendigen Ordnungen verbindet. Die unverwechselbar-unvergleichliche Art, in der das jeweils geschieht, macht bekanntlich die Identität eines Kunstwerks, seinen poetischen Charakter aus. Auch in diesem Bereich ist, nebenbei angemerkt, das „principium individuationis“ stets der „Körper“, das „Fleisch“, und dieses Fleisch ist seinem Grundstoff nach zum Beispiel die Sprache, aus der und mit deren Hilfe jede Geschichte ihre Organe und anderen Lebenswerkzeuge aufbaut, darunter die Personen oder Figuren, ihre Beziehungen untereinander, ihre Begleitumstände und die Vorgänge, in die dies alles sich verwickelt. Die ökologische Ästhetik versucht die für das Kunstwerk konstitutive Rolle seiner Sprache (und allgemein: des ästhetischen Mediums) auf die eigene Wissenschaftspraxis zu übertragen. Sie bemüht sich darum, neue, auch die Subjektivität des Forschers einbeziehende Darstellungsweisen zu entwickeln, die einen Dialog mit ihren Gegenständen möglich machen; die ihre Gegenstände also nicht monologisch vergewaltigen und beide Gefahren vermeiden: zum einen die traditionelle Objektivierung, die den Gegenstand in Begriffskäfige einzwängt, zum anderen die total willkürliche, den Gegenstand nur als Startbahn mißbrauchende Himmel-(oder Höllen-)fahrt. Der Künstler als kleiner Gott oder Patriarch seines artistischen Hauswesens („oikos“) wird also entthront. Er ist jetzt mehr ein Geburtshelfer, und sein Wille nimmt neue Qualitäten an. Gelassenheit wird eine wichtige Teileigenschaft dieses neuen Willens. Kreative Prozesse werden sozusagen, in einem weiterreichenden als nur politischen Sinn, „demokratisiert“ (eine Forderung auch von Joseph Beuys, der sich aber von der Landebahn seiner Grünen Mystik immer wieder nach oben stürzt: in Richtung Starkult und Stufenmetaphysik). Beispielhafte Konkretionen einer ökologischen Ästhetik finden sich, außer in dem anfangs beschriebenen Anarchie-Triptychon Hieronymus Boschs und bei vielen „Romantikern“, im zwanzigsten Jahr- Ökologische Ästhetik hundert etwa im künstlerischen Werk von Paul Klee (vor allem in seinen „dezentral“ oreanisierten Arbeiten). *** Alles Theoretisieren in der ökologischen Ästhetik betont das „VorläufigDefinitive“ ihrer Aussagen, will nichts endgültig festlegen. Offenheit, Revisionsbereitschaft, Verzicht auf massive, für die Ewigkeit gebaute Fundamente: das sind Aspekte einer solchen theoretischen Anarchie. Das Zelt, die ziehende Karawane, etwas Nomadenhaftes gegenüber breitbackiger Seßhaftigkeit kehren da zurück. Wie Paul Feyerabend gezeigt hat (z.B. in „Against Method“), haben ja nicht einmal in den angeblich solide gegründeten Naturwissenschaften diejenigen Lehren Geltung erlangt, die etwa die mustergültig rationalen, logisch konsistenten oder „wahren“ Theorien gewesen wären. Vielmehr ist die Geschichte der Theorien in den Wissenschaften ein ähnliches Geschubse und Herumirren wie die allgemeine Weltgeschichte auch. Wenn das so ist, zählt dann die Lebensdienlichkeit oder Lebensfreundlichkeit (Nietzsche) von Theorien nicht weit mehr als ihre Wahrheit? Und sind solche Ideen nicht die Vorboten einer neuen Willens-Kultur, die der an unseren Universitäten derzeit noch vorherrschenden Wissens-Kultur demnächst den Laufpaß geben könnte? Gefährliche Ideen, zugegeben; denn zuletzt hat hierzulande der SS-Staat einen Kult mit dem „Willen“ getrieben. Nur stand dieser Willenskult im Zeichen des Totenkopfs. Er war alles andere als lebensfreundlich und wollte uns nicht liebesfähig machen, sondern eine Elite-Rasse zum Herrschen abrichten. *** Die ökologische Ästhetik ist eine herrschaftsfreie Ästhetik. Daher erhält auch alles Materielle, Stoffliche, an dem ein Künstler sich „abarbeitet“ (Adorno) ein Mitwirkungsrecht, nicht zuletzt als Palliativ gegen „Verdinglichung“ planerischer Vorsätze und ästhetischer Normen oder „Leitbilder“. Beim Zur-Welt-Bringen des Kunstwerks bleibt offen, was zuletzt daraus wird. Die zauberische Despotie des Gestaltens wird also durch eine Art parlamentarisch-demokratischer Selbstregierung abgelöst. Horst v. Gizycki Heißt das. angewandt auf ein Beispiel aus der bildenden Kunst: nicht Rembrandt arrangiert die Komposition der „Nachtwache“, sondern das Kollektiv der Nachtwächter? Diese Vorstellung reizt uns zum Lachen; vergessen wir aber nicht, daß die Mitglieder der Schützengilde damals allenfalls eine kümmerliche Anarchie-Kompetenz ausgebildet haben konnten. Sie wollten ja im Gegenteil ihre statusbesorgten, klischeehaften Geltungswünsche dem in künstleriches Neuland vorstoßenden Maler mit ihrem Protest aufzwingen. Dagegen können zum Beispiel die Recherchen, die ein fleißiger Autor ohnehin betreibt, die Gestalt von parlamentarischen Anhörungen (Hearings) annehmen. So etwa hat Thomas Mann, als er am „Dr. Faustus“ schrieb, den musiktheoretisch vielerfahrenen Adorno ausgefragt und diesen Rohstoff-Lieferanten teilweise mitbestimmen lassen bei der Komposition der Schlußsequenz des Romans über den Tonsetzer Adrian Leverkühn. Heißt das, der Autor führt keinerlei Regle mehr? Keineswegs. Aber es ist ein neuer, gelassener Regie-Wille, der offen bleibt für Überraschungen, auch wenn er die Ökonomie des Ganzen flexibel im Auge behält, Zweck-MittelÜberlegungen anstellt und sozusagen Führungsdienste als Maitre de Plaisir beim demokratischen Kostümfest der Erzählung anbietet. Es ist eine herrschaftsfreie Führung, die es der Geschichte überläßt, sich selbst zu schreiben, und die sich mit empfangender Gelassenheit dabei als eine Art Protokollführer betätigt. Die Logik dieser Führung ist ähnlich wie bei der humoristisch-tiefsinnigen Frage: „woher soll ich wissen, was ich meine, wenn ich noch gar nicht gehört habe, was ich sage?“ Das im Kunstwerk zur Welt Kommende ist also nicht verfügbar, sondern behält seinen Eigenwillen: Fremdes in mir selbst, zum Beispiel Unbewußtes, ist mitbeteiligt an jedem kreativen Geschehen. Wobei es hier eine doppelte Fremdheit gibt: Die meiner eigenen Natur und diejenige der nicht zu mir gehörigen Material-Natur. Im Kunstwerk können beide sich offenbar ähnlich gegenseitig repräsentieren, wie Bewußtseinsinhalte (Vorstellungen, Gedanken usw.) Gegenstände (und Beziehungen zwischen ihnen) außerhalb meiner selbst repräsentieren können. Materie, Stoffliches repräsentiert also innere, nichtverfügbare Natur oder Wirklichkeit, und indem ich mit und in diesem Stofflichen (zu dem auch Form-Material gehört) gestalte, entstehen Werke, Gebilde, Produkte, die mehr enthalten als meine bewußten, an irgendwelchen Leitvorstellungen orientierten Intentionen. Aus diesen Produkten erfahre ich also etwas über die Natur außer mir und in mir. Diese Produkte treten mir gegenüber, ich kann sie betrachten, mit ihnen Fühlung aufnehmen, sie zu verstehen suchen usw. Sie sagen mir etwas, wenn ich aufzunehmen imstande bin, was sie mir mitteilen. Solche Botschaften werden der Deutung bedürfen, wie Träume, Ökologische Ästhetik sie sind auf Interpretation angewiesen. Mache ich jedoch ernst mit der Nichtverfügbarkeit und der Fremdheit, so wird es immer einen Rest des prinzipiell nicht Verstehbaren, des fremd und rätselhaft Bleibenden geben, das ich bestaunen, vor dem ich - freudig oder ängstlich - erschrecken kann, das sich aber der vollständigen Verfügung durch meinen Willen zum Begreifen verweigert. Solche Fremdheit, unmittelbar anschaulich erfahrbar im Kunstwerk, erinnert mich daran, daß ich in mir selbst Fremdes, sozusagen nicht zu mir Gehöriges habe oder antreffe, auf das ich gefaßt sein muß, und das ich gern verleugne, weil es zu meinem Herr-im-Hause-Standpunkt nicht paßt. In Träumen begegnet mir dieses Fremde in mir selbst; ihm Wahnsinn begegnet es mir, in meinem Leib, im Tode, im Kranksein, in Ausnahmezuständen aller Art, religiösen, vitalen, ästhetischen Ekstasen, die auch als Glückserfahrungen erlebbar sind. Selbst wenn ich es nicht zuende begreifen kann - hier liegen Grenzen der rationalen Verfügung über Fremdes durch Wissenschaft, z.B. durch die Psychoanalyse -, gibt es doch Optionen für die Art und Weise des Umgangs mit dem Fremden in mir und außer mir. Ich kann mich anfreunden mit dem Fremden (Trivialbeispiel: die Kinderfreundschaft mit „E.T.“ in dem bekannten Film). Ich kann mich feindlich gegenüber dem Fremden einstellen, ich kann es fördern oder verfolgen und vernichten. Nehme ich überhaupt Beziehungen zu ihm auf und ergeben sich dabei Ansätze von Gegenseitigkeit, so gibt es plötzlich (und seien es winzige) Gemeinsamkeiten. Sie werden nie Fremdheit vollständig aufheben, aber sie werden das Auskommen miteinander ermöglichen. Ich und das Andere, Fremde, auch wenn wir uns fremd bleiben auf immer, können doch Koalitionen eingehen, miteinander zu wirken versuchen statt gegeneinander. Freilich müssen wir stets gefaßt bleiben darauf, daß keine gegenseitige Verfügbarkeit mit solchen Abkommen auf Gegenseitigkeit entsteht. Entscheidend ist: Fremdheit muß nicht den Charakter des Bedrohlichen, Angsterregenden annehmen; sie kann auch als neugierweckend, attraktiv, spannend und faszinierend erlebt werden. Sie hört damit nicht auf, fremd zu sein; aber die Gefühle, die sie auslöst, können freundliche und sogar rauschhaft-ekstatische Tönungen annehmen. In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 88-144 Besprechungen zum Thema Rezensionen Besprechungen Rezensionen zum Thema S. Bleicher u.a.: CHIP, CHIP, HURRA? DIE BEDROHUNG DURCH DIE „DRITTE TECHNISCHE REVOLUTION“ Hamburg 1984 (VSA-Verlag, 130 S.) H. Kubicek / A. Rolf: MIKROPOLIS. MIT COMPUTERNETZEN „INFORMATIONSGESELLSCHAFT“ Hamburg 1985 (VSA-Verlag, 355 S.) IN DIE Aus der Flut der Literatur, die der Anwendung und den Konsequenzen der sogenannten „Neuen Informations- und Kommunikationstechniken“ gilt, sind zwei Bücher hervorzuheben. Das eine - Chip, Chip, Hurra? - kann als brauchbare Einführung In die technischen, ökonomischen und politischen Dimensionen jener Techniken herangezogen werden; das andere - Mikropolis - stellt eine umfassende und fundierte, wirtschafts-und gesellschaftspolitisch ausgelegte Kontextanalyse des aktuellen Standes und der künftigen Entwicklung der Informations- und Kommunikationstechniken (und der dahinterstehenden Technologien) dar. Beide Bücher zeichnen sich dadurch aus, daß sie Möglichkeiten (gewerkschafts)politischer Gegenwehr im Sinne jener aufzeigen, die unter den Bedingungen rigoros profitökonomischer Nutzung dieser Techniken deren Folgekosten tragen sollen. Die Beiträge in dem Band „Chip, Chip, Hurra“ machen dreierlei deutlich: Zum einen zeigen sie, was es mit den Informations- und Kommunikationstechniken und deren Anwendung in den verschiedenen gesellschaftlichen Rezensionen zum Thema Bereichen auf sich hat, und rücken die zentralen Fragen in den Vordergrund (Arbeitslosigkeit, berufliche Dequalifikation, Konsequenzen für die Arbeits- und Lebensbedingungen): so in den grundlegenden Ausführungen von Kubicek und Bleicher. Zum zweiten verdeutlichen einige Beiträge einzelne Probleme in Detaildarstellungen: so die Thematik „Rationalisierung und Arbeitslosigkeit“ in den Artikeln von Reisgies und Herta DäublerGmelin (die sich insbesondere auf das Problem der Frauenarbeitslosigkeit konzentriert). Zum dritten wird an zwei illustrativen Fallbeispielen veranschaulicht, wie die Arbeitsprozesse in Produktion und Dienstleistung verändert werden und welche Folgen das für die Beschäftigten hat: so in den Skizzen von Zöller (Handel) und Dreßler (Druckindustrie). Kennzeichnend für alle Beiträge ist, daß sie den Standort der Gewerkschaften zu bestimmen versuchen, von dem aus die kapitalistische Formung und Anwendung der Informations- und Kommunikationstechniken eingeschätzt und in ihren Folgen für die Lebens- und Arbeitssituation der Werktätigen und ihrer Familien abgewehrt werden müssen. In dem Buch „Mikropolis“ werden Stand und weitere Entwicklung der Informations- und Kommunikationstechniken, der Computer- und Telekommunikationstechniken in Form einer gesamtgesellschaftlich orientierten Analyse thematisiert. Ziel des Buches, das auf einem Gutachten für die ÖTV basiert, ist: die Techniken darzustellen, die Pläne zu deren Durchsetzung offenzulegen und die - diese Pläne „tragenden“ - Interessen zu dokumentieren (Post, Hersteller- und Anwenderkapitale). Im Mittelpunkt des Buches von Kubicek und Rolf stehen die von der Post favorisierten und mit Heftigkeit realisierten Vorhaben, das bestehende Telefonnetz zu digitalisieren, dieses dann zum Integrierten Service Digitalnetz (= ISDN) weiterzuentwickeln und in einem (bundes-)flächendeckenden Glasfasernetz enden zu lassen. Diese Vorhaben - initiiert vom engagierten Kapital, exekutiert von der Post - sollen dafür die Basis schaffen, daß via ISDN alle schmalbandigen und später via Glasfaser noch zusätzlich alle breitbandigen Dienste zugänglich werden. Das, was über die Einrichtung von ISDN und Glasfaser an Rationalisierungspotential, zentralistischer Datenkontrolle, Abbau von Arbeitsplätzen und tiefgreifender Veränderung der Lebensumstände produziert wird, stellt für Kubicek und Rolf politische Probleme solcher Brisanz dar. daß deren „Umlenken“ - so Kubicek/Rolf – nur durch „Umdenken“ gemeistert werden könne. Der Umdenk/Umlenk-Prozeß soll dabei in zwei Stufen vonstatten gehen: erstens als gesellschaftsweite Diskussion, die Information und Aufklärung über die Techniken, deren (kapitalinteressensgeleitete und machtpolitische Durchsetzung sowie die daraus Rezensionen zum Thema resultierenden Konsequenzen für die „mündigen Bürger“: zweitens als eine Art „Antikabel-Bürgerbewegung“, die entsprechend ihrer dann erworbenen Erkenntnisse und Einsichten und, rückgebunden an gewerkschaftliche Aktivitäten, die Richtung der künftigen Entwicklung von Informations-und Kommunikationstechnik“ mitbestimmt. Daß eine solche Mitbestimmung nur in dem Maße wirklich Platz greifen kann, indem die von Kubicek und Rolf klar analysierten ökonomischen wd politischen Bedingungen der aktuellen Durchsetzung der Informationsund Kommunikationstechnik beseitigt werden, bleibt in den Schlußfolgerungen der Autoren leider unausgesprochen. Dieser kritische Hinweis soll allerdings nicht die Bedeutung des Buches von Kubicek und Rolf schmalem: Der Band enthält die bisher präziseste Studie über die konkrete Politökonomie der bundesdeutschen „Informationsgesellschaft, es ist dazu ein vorzügliches Handbuch, das komplizierte Tatbestände und Prozesse genau und verständlich beschreibt, zu vorwärtsweisenden technischen, ökonomischen und politischen Diskussionen anregt und unverzichtbare Informationenund Einschätzungen zur Verfügung stellt. Horst Hölzer Ulrich Briefs: INFORMATIONSTECHNOLOGIEN UND ARBEIT Köln 1984 (Pahl-Rugenstein, 221 S., DM 14,80) ZUKUNFT DER Briefs, Referent am Wirtschafts- und Sozialwissenschaftlichen Institut des DGB, beschreibt in diesem Buch die Zusammenhänge der aktuellen und der in Zukunft wohl noch steigenden Massenarbeitslosigkeit mit der Computerisierung der Arbeitswelt. Der Mode, dem Menschen, analog zu gewissen (sozialpsychologisch relevanten) Phänomenen, allgemein die Eigenschaften eines Maschinendenkers, Sachzwanglogikers, Nekrophilen etc. zuzuschreiben, wie dies z.B. Bamme u.a. in ihrer „Grundlegung einer Sozialpsychologie der Technik“ (Reinbek 1983) tun, setzt Briefs einen Kontrapunkt. Hier scheinen keine „Eigenschaften“ des Menschen auf; diese Phänomene sind ihm, soweit überhaupt relevant, Wirkungen der entfremdeten Arbeit, die es durch eine an der Klassenlage der Lohnabhängigen orientierten Gewerkschaftspolitik aufzuheben gilt (S. 12 f.). Das Prinzip der Profitmaximierung sieht er dabei als die entscheidende Triebkraft der Computertechnologie - sie bildet das Herzstück der „Infor- Rezensionen zum Thema mationstechnologie“ - und der ihr inhärenten Möglichkeiten zur Rationalisierung, i.e. Arbeitsplatzvernichtung. Die Betriebe versuchen damit. Stagnationstendenzen zu kompensieren, indem sie innerbetrieblich das herausholen, was auf den Märkten nicht mehr oder nur noch eingeschränkt zu holen ist. „Diese Strategie der Umorientierung auf verstärkte relative Mehrwertproduktion wird weiter verschärft durch die auch unter verstärkten Stagnationsbedingungen weitergehende kapitalistische Akkumulation: in der BRD z.B. werden derzeit jedes Jahr weitere ca. 300 Mrd. DM Kapital gebildet, die in den nachfolgenden Rechnungsperioden einen zusätzlichen ‘Kapitaldienst’ ... in Form von Abschreibungen, Zinsen, Wagnissen u.a. in der Größenordnung von ca. 60 Mrd. DM erforderlich machen“ (S. 73). Der Mangel an entsprechenden expansiven Möglichkeiten verstärkt die Tendenz, mit Hilfe einer flächendeckenden Computertechnologie die Profite aus immer weniger werdenden Beschäftigten herauszupressen. Damit wird ein weiterer Charakter dieser „neuen Technologie“ evident: sie ist auch Kontrolltechnologie. Eine Durchrationalisierung der Betriebe ist nur anhand möglichst differenzierter Bewegungsbilder jedes einzelnen Beschäftigten und seiner persönlichen Art und Weise, an einem bestimmten Arbeitsplatz zu arbeiten, erreichbar. Die hierfür benötigten Informationen erbringen z.B. die heute schon weit verbreiteten Personalinformationssysteme. Bisher stößt die flächendeckende Computerisierung der Betriebe jedoch noch an Grenzen: die Komplexität der Programme, die für die Kontrolle eines ganzen Betriebsablaufes notwendig wäre, ist noch nicht erreichbar, weshalb heute v. a. kleinere, „nicht-vernetzte“ Rechner- und Steueranlagen für spezifische Arbeits-, Planungs- und Verwaltungsprozesse im Einsatz sind. Zudem gibt es im älteren Management und bei einer wachsenden Zahl von Beschäftigten Widerstände gegen die Einführung umfassender Computersysteme (S. 91 ff.). Dennoch ist diese Technologie eine, wenn auch noch unvollkommene, Organisationstechnologie, die einerseits eine Übernahme von Arbeit und andererseits die Erhebung, Speicherung und Verarbeitung der Informationen zu weiteren Rationalisierungen leistet (S. 90 f.). Die Notwendigkeit der Standardisierung von Programmabläufen, um die diversen Informationen überhaupt verarbeiten zu können, führt auch dazu, daß sich, quer über die Branchen verteilt, „sehr deutliche Angleichungstendenzen in bezug auf Arbeitsprozesse, Organisationsstrukturen und Arbeitsbedingungen ergeben“ (S. 63), mit dem Ergebnis, auch gelegentlich „Dienstleistungen, sonstige Produkte und auch Informationen“ zu opfern (S. 48). Die Anzahl tatsächlich neuer Produkte und Dienstleistungen bleibt dadurch eher bescheiden, ausgenommen im Bereich der Militärelektronik Rezensionen zum Thema und -Information, in dem aber eher „Destruktivkräfte als Produktivkräfte verkörpert sind“ (S. 71). Obwohl Briefs auch zu der Einschätzung gelangt, daß durch die neuen Technologien „relativ wenig an neuem gesellschaftlichem Reichtum in der Form von neuen Gebrauchswerten“ geschaffen wird und die „der Gesellschaft zur Verfügung gestellte neue Gebrauchswertmasse (...) relativ gering (ist), nur ein Teil davon (...) zudem sinnvoll“ (S. 66), kommt er zu einem anderen Ergebnis als z.B. F. Ortmann, der darin nur eine sinnlos gigantische Computerisierungswut entdeckt (Der zwingende Blick, Frankfurt/Main 1984). Der Gebrauchswert der neuen Technologie liegt v. a. im Abbau gesellschaftlich notwendiger Arbeitszeit. Damit verbunden sind, wie schon beschrieben. Rationalisierungsdruck, verschärfte Konkurrenz der Beschäftigten um die vorhandenen Arbeitsplätze, aber auch eine fortschreitende Dequalifizierung traditioneller Berufsqualifikationen im Produktions-, Planungs- und Verwaltungsbereich. Der Weg aus diesem Dilemma kann Briefs zufolge nur über eine konsequente Gewerkschaftspolitik führen: einmal unter Ausschöpfung aller rechtlichen Mittel, die das Betriebsverfassungsgesetz bietet (z.B. Informationspflicht des Unternehmers, wenn neue EDV-Technologien eingeführt werden sollen; vgl. SS 80, 90, 92 und 106 BetrVG), zum anderen durch umfassende Information über die sozialen Folgen der neuen Technologien (S. 80 ff.). Die Vereinheitlichungstendenzen durch zunehmende Computerisierung bewirken dabei positiv, daß bisherige gruppenspezifische Bewußtseinsformen, weil obsolet geworden, leichter als bisher abgebaut werden können, daß „prinzipiell eine bessere Basis für eine kollektive und solidarische Gegenwehr der Arbeitenden im Klassenmaßstab entsteht“ (S. 65). Das bedeutet aber zugleich, daß neue und umfassende Konzeptionen der gesellschaftlichen Arbeit und der Organisationsformen der Lohnarbeiter entwickelt werden müssen. Damit sind einige Schwerpunkte des Buches genannt. Für denjenigen Leser, der sich fundiert in Aufbau und Funktion von Computern, Computernetzwerken und deren gesellschaftlichem Nutzwert einarbeiten will, sei hier besonders auf die Kapitel 2 und 3 des Buches hingewiesen, die sich sowohl durch ihren hohen Informationsgehalt als auch ihre Verständlichkeit hervorheben. Fazit: ein sehr informatives Buch, das die Auswirkungen der Computerisierung der Arbeits-, Informations- und Kommunikationsprozesse klar vor Augen führt und ihre ökonomischen und gesellschaftlichen Hintergründe erhellt. Rezensionen zum Thema Karl-Heinz Schmid Wolfgang Coy: INDUSTRIEROBOTER. ZUR ARCHÄOLOGIE DER ZWEITEN SCHÖPFUNG Berlin 1985 (Rotbuch-Verlag) Thema des vorliegenden Buches ist es, die Wurzeln von Automatisierung und Maschinisierung aufzuspüren und ihren Entwicklungslinien nachzugehen. Dies scheint in der Fülle der einschlägigen Literatur nichts besonderes und macht diesen Essay - so sein Selbstverständnis - noch nicht lesenswert. Einen entscheidenden Vorzug gewinnt der Autor, ein Informatiker, indem er den Gegenstand „nicht nur in technischer Hinsicht, sondern als umfassende gesellschaftliche Realität und Projektion“ (S. 12 f.) behandeln will. In einem ersten, historischen Abschnitt zeigt der Autor zunächst, wie in der postscholastischen Philosophie das Erkenntnisinteresse am Menschen grundlegenden Wandlungen unterworfen ist. Das Seelenwesen Mensch wird aus der göttlichen Hierarchie herausgelöst, ist als Körperwesen nicht mehr apriorisch von den anderen Lebewesen abgehoben, sondern durch Verstand und Sprache von ihnen unterschieden. Faßt Descartes nur das Gesellschaftsganze als Maschine, so erscheint bei La Mettrie auch das Individuum als (göttlich konstruierte) Maschine, die zunächst gemäß dem Vorbild der Mechanik in der Physik in Gestalt von Hebelmodellen, dann Kreislaufmodellen, später die Wechselwirkung der einzelnen Funktionen berücksichtigenden kybernetischen Modellen zu beschreiben gesucht wird. Leibniz sieht im Körper ein „göttliches Uhrwerk“ - von Gott angestoßen, in der Folge jedoch selbstlaufend. Dies gilt auch. für die Seele, die ja in der Aufklärung nicht gestorben ist: Beide „Substanzen“ befinden sich in prästabiliertem Gleichklang, sind vollkommen synchronisiert. Einschlägig für die Enttabuisierung des menschlichen Körpers sind die bekannten anatomischen Studien Leonardos, aber auch die ersten Versuche, Funktionen des Körpers artifiziell nachzukonstruieren, die zunächst als folgenlose Kuriosa (z.B. Vaucansons Ente) in die Geschichte eingehen. Das sich verändernde Menschenbild reflektiert reale grundlegende Umwälzungen. Coy verfolgt, wie mit der Entwicklung der industriellen Produktion, zunächst der Manufaktur als deren organisatorischem wie technischem Rezensionen zum Thema Beginn, die fortschreitende Arbeitsteilung den Arbeitsprozeß in Teilarbeiten, die Produkte in Teilprodukte zerlegt, den Arbeiter auf Teilfunktionen reduziert, als Teilarbeiter konstituiert. Notwendiges Element dieser Entwicklung ist die Maschine. „Arbeitsteilung ist der Kern der neuen Produktionsweise, die Maschine wird deren technische Form“ (S. 39). Maschinisierung der Produktion heißt auch Maschinisierung der Teilarbeiter, Ihre zunehmende Unterordnung unter die Maschine - Arbeiten mit der Maschine wird zum Arbeiten an der Maschine. Als Maßeinheit wie als Mittel der Synchronisation der immer komplexer miteinander verwobenen Teilprozesse gewinnt der Faktor Zeit nicht mehr nur als meßtechnische Basis in der Physik, sondern auch in der Produktion eine gewichtige Rolle. Coy zeigt, wie aus den gesellschaftlichen Bedürfnissen heraus die Zeitmessung von Stunden anzeigenden Turmuhren bis zu sich im Sekundentakt bewegenden Taschenuhren („transportable Zeit“) präzisiert wird. (Taylor, Analytische Arbeitsplatzbewertung REFA, MTM etc.) wären ohne exakte Zeitmessung nicht möglich.) Maschinen verstärken nicht nur (Teil-)Eigenschaften des Arbeiters, sie potenzieren auch die Herrschaft über ihn. Der freie Lohnarbeiter ist nicht nur indirekt vom Eigentümer der Maschine abhängig, er ist unmittelbar Tempo und Rhythmus der Maschine unterworfen. Herrschaft der Maschine (Marx: der toten Arbeit) - Maschinisierung der Herrschaft. Der Abschnitt schließt mit einem Überblick über die Entwicklung der Maschinerie von ersten Spinn- und Webmaschinen in der Textilindustrie über Dampfmaschine, Werkzeugmaschine bis zum Fließband und der derzeit letzten „Herrschaftsmaschine“, dem Computer. Der zweite Abschnitt ist aktuellen Entwicklungen der industriellen Automation gewidmet, in deren Zentrum Roboter und Computer stehen, und deren Fixpunkt im „Computer integrated manufacturing“ (S. 62), in der computergesteuerten vollautomatischen Fabrik liegt. Den technischen Ahnen des Industrieroboters sieht der Autor in den Telemanipulatoren der Nukleartechnologie. Die neue Qualität des Roboters liegt darin, daß der menschliche Arm nicht nur verstärkt oder sein Aktionsradius erweitert, sondern ersetzt wird. Die Folgen für Arbeitsmarkt und Personalstruktur der Unternehmen liegen auf der Hand: schwindender Bedarf an Arbeitskräften - die Senkung der Produktionskosten, der Lohnkosten im besonderen, sind ja schließlich der Zweck der Rationalisierung. Allerdings Rezensionen zum Thema steht die menschenleere Fabrik (von Ausnahmen abgesehen) nicht auf der Tagesordnung. Es geht um die „Vernichtung der Mitte“ (S. 106), d.h. um den Abbau eines Großteils der Facharbeiter, bei Höherqualifizierung Weniger (Ingenieure, Computerfachleute) und Dequalifizierung Vieler (Handlanger, Putzkolonnen). (Anhand von statistischem Material werden die enormen Wachstumsraten des Robotereinsatzes in den letzten 10 Jahren, die industriellen Einsatzorte und die „geografische“ Verbreitung aufgezeigt.) Coy benennt auch die heutigen Grenzen der Automatisierung. Zum einen ist es bisher nicht möglich, die menschliche Hand mit ihren sensorischen und taktilen Fähigkeiten adäquat nachzubauen und ihre komplexen Funktionen und Bewegungsabläufe zu programmieren, weshalb der Robotereinsatz, z.B. im Montagebereich, heute noch sehr eingeschränkt ist. Forschung auf den Sektoren taktile Sensorik, Mobilität, Selbstdiagnosefähigkeit, Sehfähigkeit zur Werkstückerkennung etc. eröffnet hier ein enormes künftiges Rationalisierungspotential. Zum anderen sind zwar alle Bausteine der „bedienerarmen Fabrik“ (Rechner, Roboter, Betriebsdatenerfassung, Fertigungssysteme u.a.) entwickelt, deren Vernetzung, Integration bedarf aber noch erklecklicher Entwicklungsanstrengungen (und -kosten), bis sie als „Ensembles“ weitere gewaltige Strukturveränderungen möglich machen. Dann hat nach Coy die Stunde des Fabriksystems geschlagen. Die Arbeit ändert sich qualitativ durch ihre Marginalisierung - dies bleibt leider unbegründet und damit unverständlich. Die gesamte Fabrikorganisation erhält durch die Automation die Chance ihrer Überwindung. Abgesehen von dem Verweis auf die Ablösung des zentralistischen Monsters Dampfmaschine durch kleinere Elektromotoren, bleibt auch dies undiskutiert. Die Alternative besteht nach Auffassung des Autors in der Auflösung der großen Maschinerie zugunsten dezentraler kleiner werkstattähnlicher Produktion. Es bleibt unklar, inwieweit gerade die neuen Technologien die Umgestaltung der Produktion befördern. Gleichwohl scheint es, als ob der Autor, trotz seines gesellschaftlichen Verständnisses von Technik, diesen Prozeß primär als eine Frage der technischen Möglichkeiten begreift, die Essentials der politischen Ökonomie nicht mitreflektiert. Möglicherweise rächt sich nun an einem wichtigen Punkt des Buches hinterrücks der essayistisch vage Gebrauch des Begriffs „Fabriksystem“ als zentraler Kategorie kapitalistischer Gesellschaften, wo sie doch lediglich die Form der Produktion bezeichnet. Ist nicht die Frage, ob nach Profit oder nach Bedürfnissen, ob entfremdet oder selbstbestimmt produziert werden soll, viel entscheidender als das Problem, dies zentral oder dezentral zu organisieren? Rezensionen zum Thema Das Buch endet mit Überlegungen zu möglichen selbstreproduzierenden technischen Systemen (Techno - Ei auf dem Mond), zu künstlicher Intelligenz und illustriert, wie in der Kunst (Literatur, Film) Robotermenschen und Menschenroboter Darstellung finden und unterbewußte gesellschaftliche Utopien auf magische oder technische Weise realisieren sollen. Wolfgang Höppe Günter Friedrichs / Adam Schaff (Hrsg.): AUF GEDEIH UND VERDERB Hamburg 1984 (Rowohlt-Verlag) Das Buch ist eine als Bericht an den „Club of Rome“ herausgegebene Sammlung von Aufsätzen, die sich mit der Entwicklung der Mikroelektronik und deren Einsatz in den verschiedenen Bereichen der Gesellschaft befassen. Zunächst versucht A. King („Eine neue industrielle Revolution oder bloß eine neue Technologie“ ), den Stellenwert dieser neuen Technik zu bestimmen, während die folgenden Aufsätze auf die Technologie selbst (T. R. Ide) und ihre Anwendungsgebiete (R. Curnow und S. Curran) eingehen. Ungewöhnlich für Bücher dieser Thematik ist, daß neben Wissenschaftlern und Vertretern der einschlägigen Industrien (B. Lamborghini über die Auswirkungen der Anwendung dieser Technologie auf die interne Organisation von Unternehmen) auch die Gewerkschaften zu Wort kommen: J. Evans berichtet von den Bemühungen der Gewerkschaften, durch Tarifverträge die negativen Folgen - Intensivierung der Arbeit, Dequalifizierung, drohende Arbeitslosigkeit - einzudämmen. G. Friedrichs sieht dafür zwei Wege: Arbeitszeitverkürzung und Neuverteilung der noch vorhandenen Arbeit einerseits, qualitatives Wachstum andererseits. F. Barnaby („Mikroelektronik und Krieg“, S. 262 ff.) kommt zu dem Ergebnis, daß mit dem breiten Einsatz der Mikroelektronik in der Rüstungstechnologie die Wahrscheinlichkeit eines Krieges aus zwei Gründen zunähme: Einerseits erhöhe sich das Risiko eines Computerirrtums mit der Komplexität der eingesetzten Systeme, wobei die immer kürzer werdenden Vorwarnzeiten die Möglichkeit einer Korrektur verringere, andererseits könnten Politiker und Militärs durch den Einsatz dieser Technologie in Angriffs- und Verteidigungssystemen glauben lassen, ein Atomkrieg sei nunmehr gewinnbar. Für alle Autoren des Bandes gilt, daß sie, obgleich sie mög- liche negative Rezensionen zum Thema Folgen der Mikroelektronik durchaus sehen, dieser selbst durchweg positiv gegenüberstehen. Die Frage eines wohl auch notwendigen gestalterischen Eingriffs in diese Technologie wird auch nicht ansatzweise diskutiert - „die“ Mikroelektronik erscheint vielmehr als geschlossenes Ganzes: sie werde und müsse auch „auf Gedeih und Verderb“ angewendet werden. Das gilt auch für den abschließenden Aufsatz von Adam Schaff, in dem das Bild einer Gesellschaft entworfen wird, deren Mitglieder - vom Zwang zu körperlicher Arbeit weitgehend befreit - sich fortwährender Weiterbildung und kreativen Tätigkeiten widmen können. Diese Utopie ist nicht neu: andere Autoren sehen gar ein Wiedererstehen der griechischen Gesellschaft, dieses Mal aber mit elektronischen Sklaven, deren produktive Arbeit es den Menschen erlaube, sich den Künsten und der Philosophie zu widmen. Mir scheint jedoch die Frage dringlicher, was es für unser Bild vom Menschen bedeutet, wenn massenhaft nicht nur einfache repetitive Arbeiten von „intelligenten“ Automaten übernommen werden, sondern auch Tätigkeiten, die hohe handwerkliche und intellektuelle Anforderungen an den sie ausführenden Menschen stellten und eben darum als spezifisch menschliche Tätigkeiten galten. Implizit beantwortet auch Schaff diese Frage, indem er sich von vornherein auf die Kreativität als genuin menschlicher Fähigkeit zurückzieht. Doch was, wenn auch Computer kreativ werden sollten? Dieter Strahle Rezensionen zum Thema Peter Gorsen: TRANSFORMIERTE ALLTÄGLICHKEIT TRANSZENDENZ DER KUNST Frankfurt/Main 1981 (Europäische Verlagsanstalt) ODER Peter Gorsens Aufsatzsammlung beschäftigt sich mit dem kontinuierlichen Zerfall des bürgerlichen Kunstbegriffes. Der Schwerpunkt allerdings liegt auf der Darlegung einer aus diesem Zerfall resultierenden Alternative, welche ihre Anfänge bereits in den zwanziger Jahren dieses Jahrhunderts nahm und unter dem Begriff der Produktionsästhetik Eingang in die zeitgenössische Auseinandersetzung um das Ästhetik-Problem gefunden hat. Die Diskussion dreht sich um die Frage, inwieweit Kunst, um als solche verstanden werden zu können, notwendig eine Differenz zur Alltäglichkeit, d.h. zur Praxis, aufweisen muß, oder ob sie, um tatsächlich verändernd auf Rezensionen zum Thema die Gesellschaft einwirken zu können - ein Anspruch, den zumindest traditionelle Kunst immer für sich geltend machte -, nicht integrierter Bestandteil der Lebenspraxis werden müsse? Letzteres führt notwendigerweise von einer „Entkunstung der Kunst“ hin zu einer Ästhetisierung des Alltags. Hat diese Form der Kunstentwicklung, die ihren Niederschlag heute besonders in der Werbung und deren Teilbereichen findet, noch etwas mit traditioneller Kunstvorstellung gemein? Bedeutet sie nicht vielmehr eine Auflösung der Kunst als Kunst? Peter Gorsen wirft diese Fragen auf und macht sie teilweise an geschichtlichen Ereignissen und Entwicklungen, z.B. Arbeiterbewegung und Proletkult, anschaulich. Er stellt fest, dass die Kunst als Resultat historischer Wandlung durch ein sich neu etablierendes Bewußtsein verändert wird. Die traditionelle Kunst als Ausdruck gesellschaftlichen Denkens kann nicht mehr Spiegel dieser sich neu bildenden Klasse sein; es muß folglich notwendig die Forderung nach einer neuen, wieder allumfassenden Kunst entstehen. Zwar vermittelt dieses Buch einen interessanten - auch historischen Überblick dieser Problematik, bezieht aber dennoch zu wenig eindeutig Stellung. Es ist hier vorwiegend der Leser selbst, der aufgefordert wird, sich aufgrund von Information seine Antworten selbst zu überlegen; also keine Meinungsmache, sondern Aufforderung zu eigenständiger Meinungsbildung. Ulrike Schwemmer Gero von Randow (Hrsg.): DAS ANDERE COMPUTERBUCH. NEUGIERIGE UND SKEPTIKER Dortmund 1985 (Weltkreis-Verlag, 292 S.) FÜR BENUTZER, Gleichsam spielerisch werden anfangs Grundkenntnisse über die Entwicklung der Mikroelektronik, Funktionsprinzipien, Typen und Nutzungsmöglichkeiten von Computern sowie über allgemeine Prinzipien des Programmierens vermittelt. Die pädagogische Absicht ist erfreulich: Der - hier wahrscheinlich marxistisch inspirierte - Leser soll nicht gleich aufs falsche Gleis geschoben werden, soll heißen: mit säuerlichem Unterton auf die Gefahren, die Arbeitsplatzgefährdung, die Gesundheitsgefährdung, die Verdummung, die Vereinsamung durch die moderne EDV hingewiesen Rezensionen zum Thema werden. Digital, dialog, analog - sollen keine Fremdwörter mehr sein, niemand soll sich scheuen, Karl Marxens „Kapital“ am Terminal zu lesen statt als dicke Schwarte oder gar seine zentralen Hypothesen EDV-mäßig durchzumathematisieren. Die Eroberung der Computer macht Spaß, und sie ist will man ernsthaft die Gesellschaft verändern - notwendig. Derart das Hirn zunächst befreit von allen Miesmachern, von der (langsam sich wandelnden) defensiv-larmoyanten Haltung der Gewerkschaften, von grün-alternativen Großtechnik-Phobien aber auch von geistlosen Computer-Einführungsbüchern, können auch die Widersprüche besser abgearbeitet werden: Einwand: Computer sind dumm: sie können nicht bis drei zählen! Replik: Dümmer ist es, wenn man sich nicht vorstellen kann, wie vielfältig man Null und Eins kombinieren kann! Einwand: Computer denken nur formal. Replik: Der Formalist bist Du! Warum soll ich mir unter der Formel a -> b nicht eine inhaltliche Beziehung vorstellen, z.B. „a liebt b“? Einwand: Computerlogik läßt keinen Platz für Dialektik! Replik: Wie sollte sie dann funktionieren? Vorstellungen von Allmacht und Ohnmacht des Computers, vom sattsam bekannten Orwellschen Großen Bruder bis zur hohlen Kiste geistern mechanistisch langweilig in den Köpfen umher - keine guten Voraussetzungen, mit den modernen Produktivkräften und ihrer Revolutionierung fertigzuwerden. Denken wir praktisch: Mit mechanischer Schreibmaschine, Zettelkasten und der Schulalgorithmustafel werden wir nicht einmal in dieser Gesellschaft überstehen, geschweige denn eine neue errichten helfen können. Denken wir philosophisch: Können Computer das menschliche Denken vollständig simulieren, es gar übertreffen? Die Autoren: Eines Tages können die Menschen die Wirklichkeit weitaus besser im Computer abbilden als in ihren Gehirnen, können mit dem Computer zu weitaus schöpferischeren und originelleren Ergebnissen kommen als mit ihren Gehirnen. Prinzipiell sei es möglich, die Hardware der menschlichen durch die Hardoder Software maschineller Intelligenz zu ersetzen. Ein schreckliches Omen für den bücherfressenden, in seiner Kleinstbibliothek (die Probe aufs Exempel: wieviel Prozent der Philosophen haben schon einmal die weltweit verfügbaren Datenbanken der Informations- und Dokumentationssysteme zur Literaturrecherche angezapft?) verharrenden Philosophen? Ist die Welt nicht widerspiegelbar, und wenn ja, warum nicht auch das Hirn, in dem sie sich widerspiegelt? Lassen sich nicht mit Hilfe von Modellrechnungen und Simulationstechniken Strukturen und Prozesse der Materie erfassen und abbilden, die für das menschliche Gehirn ohne Hilfsmittel unzugänglich sind? Und kann nicht darüber hinaus das Rechnen, Verwal- Rezensionen zum Thema ten, Speichern und Dokumentieren unzähliger langweiliger Aufgaben das Hirn freibleiben für neue kreative Arbeit? Aber auch dies: es ist eine alberne Vorstellung vom Computer, auf dessen Knöpfen man nur zu drücken brauche, damit er funktioniert. Es muß eine Masse Intelligenz hineingesteckt werden, bevor ein Programm steht, und noch mehr, um eine solche Software zu entwickeln, die humanen und demokratischen Zwecken dient. Nur: Anfangen muß man damit jetzt! Werden Maschinen wie Menschen denken? Will man zwölf Halbzüge im Schach im voraus bewerten, muß man sich die Folgen von 3,4 x 1110 Stelungen verdeutlichen. Das leistet das menschliche Hirn nicht, aber es kann den heutigen Computer durch Intuition, Erfahrung und Konzentration auf wesentliche Splelzüge überlegen sein. Ist dies ein Beweis für die Überlegenheit des homo sapiens über den dummen Computer? Schon dies ist eine falsche Frontstellung: Der Computer ist geronnene menschliche (Denk)Arbeit und kann als Werkzeug menschlicher Unzulänglichkelten eingesetzt werden. Wer vor ihm Angst hat, sollte sich auch gegen die Weiterentwicklung des Faustkeils wenden. Daß Computer derzeit noch in manchen Bereichen unterentwickelt sind, ist kein Beweis für ihre Dummheit, sondern für die ihrer Programmierer. Aber die Entwicklung einer „künstlichen Intelligenz“ (Problemlösungsmaschinen á la Karpov), die Nachbildung intuitiven, suchenden, strategischen Denkens schreitet voran. Ob der Computer in grenzenlos allen Bereichen einsetzbar ist, ist (vorerst) noch zu verneinen. Aber wie die Materie immer grundlegender erforscht wird, so ist nicht auszuschließen, daß sich Regeln für unendlich viele Prozesse, Strukturen, Erscheinungen finden lassen, sprich: die Welt in vielen Dimensionen algorithmisierbar wird. Muß es noch erwähnt werden, daß die Autoren auch die im Kapitalismus negativen Begleiterscheinungen wie Arbeitsplatzvernichtung, Umwelt- und Gesundheitsgefährdung in und durch die Computerindustrie (am Beispiel Silicon Valley), Militarisierung der Elektronik, Computer-Überwachung etc. behandeln? All dies kann aber nur ein Grund mehr für die Schlußfolgerung sein, „die zu unserem Lieblingsgerät passende Gesellschaft zu erringen.“ Bernd Güther Rezensionen zum Thema Frank Rose, Ins Herz des Verstandes. Auf der Suche nach der künstlichen Intelligenz, (Roitman-Verlag) München 1985 Seit der Mathematiker Alan Turing 1950 die damals noch provozierende Frage gestellt hat: ‘Können Maschinen denken?’, ist darüber, besonders in den USA, eine lebhafte Diskussion entbrannt. Auf der einen Seite befinden sich die Forscher der „künstlichen Intelligenz“ (KI), die die Frage entweder schon positiv beantwortet oder doch zumindest beantwortbar sehen; auf der anderen deren Kritiker, die behaupten, Maschinen könnten niemals denken. Frank Rose ist selbst weder Forscher noch Kritiker, sondern Wissenschaftspublizist; und sein Buch ein Bericht über die gegenwärtigen Projekte und Diskussionen zur künstlichen Intelligenz. Seine Schilderung konzentriert sich weitgehend auf das Forschungszentrum der Universität Berkeley, das seit einigen Jahren, unter der Leitung von Roger Schank und Robert Wilensky, die Prozesse des Verstehens zu simulieren versucht. Seitdem die wachsenden Probleme mit den Sprach- und Mustererkennungsautomaten sowie mit der Programmierung von Robotern darauf hindeuten, daß die KI-Forschung ohne die Simulation des menschlichen Verstehens nicht weiterkommen wird, zielt sie jetzt gewissermaßen „ins Herz des Verstandes“. Die neu entstandene „Kognitionswissenschaft“ vereinigt neben Informatikern und Technikern auch Psychologen und Linguisten, die dem für die Verstehensprozesse zentralen Begriff der Bedeutung nachgehen und gemeinsam an Simulationsmodellen arbeiten, die das „was man sieht und hört, in Übereinstimmung mit bereits vorhandenen Erfahrungen“ (Wilensky) bringen sollen. Rose schildert eingehend die Erwartungen, Zweifel und Enttäuschungen der vorwiegend jungen Wissenschaftler. Wie bringt man etwa dem Computer solch einfache Verstehensprozesse wie das Zeitungsholen bei; daß er, wenn es draußen regnet, versteht, erst den Regenschirm zu nehmen und dann die Zeitung zu holen - und nicht umgekehrt? Offenbar erweisen sich gerade die alltäglichsten Probleme als die größten Stolpersteine auf dem Weg zur KI, da sie eine solche Fülle uns selbstverständlicher Verhaltensregeln implizieren, deren Explikation nahezu unmöglich erscheint. Hier setzen dann auch die Einwände der beiden Berkeley-Philosophen John Searle und Hubert Dreyfus gegen die KI-Projekte ein, die Rose distanziert und doch einfühlsam beschreibt. Im Moment jedenfalls hat es den Anschein, als ließe, trotz Rückschläge, der Elan der KI-Forscher nicht nach. „Wenn ich mich mit Hubert (Dreyfus) unterhalte“, zitiert Rose Wilensky, „würde er sagen: ‘Wenn du willst, daß KI Rezensionen zum Thema funktioniert, dann müßtest du alles Wissen zusammenfassen und formalisieren.’ Und ich würde antworten: ‘Stimmt genau!’ Und er würde sagen: ‘Und dann müßtest du es strukturieren, und dann müßtest du herausfinden, was in welcher Situation angemessen ist, und das ist eine gewaltige Masse von Informationen!’ Und ich würde antworten: ‘Stimmt genau!’ Und er würde sagen: ‘Und das geht gar nicht!’ Und ich würde sagen: ‘Na, vielleicht geht’s ja doch ...’.“ Eines Tages, so Wilensky, werde es den „allwissenden Computer“ geben; denn „darum geht es ja bei unserer Arbeit im Grunde.“ Im Augenblick dürfte der Weg dorthin allerdings noch sehr, sehr steinig sein. Ebenso interessant wie die Diskussion um KI ist das Ergebnis von Roses Bohren nach der Moral der KI-Forscher. Während die jüngeren sehr konkrete Befürchtungen haben, daß ihre Arbeiten zu Kriegszwecken mißbraucht werden, da das Pentagon als Hauptfinancier lebhaftestes Interesse an solchen Programmen auf dem Weg zum ‘automatisierten Schlachtfeld’ hat, staut sich bei den Leitern eine gehörige Portion Zynismus an. Mißbrauch der Wissenschaft habe es schon immer gegeben, meint Wilensky; da ließe sich eben nichts machen. So gibt Rose auf ca, 250 Seiten einen lebendigen und gut recherchierten Einblick in die Gedanken- und Lebenswelt des kalifornischen ‘think tanks’; was hingegen fehlt, ist die gedankliche Gliederung und problemorientierte Zuspitzung, so daß bei ihm Wesentliches und Unwesentliches, Banales und Interessantes recht arglos nebeneinander steht. Alexander von Pechmann John Searle, Minds, Brains and Science, (British Broadcasting Corporation) London 1984 Anders verhält es sich mit dem Band von John Searle, Philosoph in Berkeley, der eine Vortragsreihe der BBC zusammenfaßt. Neben anderen Themen behandelt er insbesondere Searles Argumente gegen das Konzept einer „künstlichen Intelligenz“. Searle unterscheidet dabei das Projekt einer ‘strikten KI’, wie es von Simon, Newell oder Minsky vertreten wird, von der „Kognitionswissenschaft“, deren Protagonisten Winograd und die Berkeleyaner Schank und Wilensky sind. In seinem Artikel ‘Can Computer Think?’ stellt Searle zunächst die provozierendsten Thesen der ‘strikten KI’-Forscher zusammen: es gäbe schon Maschinen, die buchstäblich denken (Simon); es komme die Zeit, wo wir froh seien, wenn uns Computer als Hausmädchen duldeten (Minsky); und - Rezensionen zum Thema als aussagekräftiger Definitionsversuch - „Intelligenz sei nichts anderes als die Manipulation physikalischer Symbole“ (Newell). Als Gegenargument bringt Searle nun sein bekanntes Beispiel vom ‘chinesischen Zimmer’: gesetzt den Fall, er befindet sich in einem dunklen Raum und bekommt durch einen Schlitz Zettel zugeschoben, auf denen chinesische Schriftzeichen mitsamt detaillierten Gebrauchsanweisungen für diese Zeichen stehen. Wäre es dann richtig, wenn er nach einer Zeit der Übung die Zeichenmanipulation so gut beherrsche wie ein Chinese, und wenn die Leute draußen die hineingeschobenen Zettel als „Fragen“ und die herausgereichten „Antworten“ nennten, wäre es dann richtig zu behaupten, er könne chinesisch? Natürlich nicht; er tue nur so als ob, und verstehe selbst gar nichts davon. Und genauso der Computer. Computer, so Searle, operieren nur mit Symbolen, die für sie jedoch keinen semantischen Gehalt besitzen, sondern bloß als Terme formaler oder syntaktischer Struktur bestimmt sind. Denkvorgänge aber unterscheiden sich wesentlich dadurch, daß sie nicht nur Symbolmanipulationen sind, sondern Bedeutungen implizieren; „mit einem Wort: der Geist hat mehr als Syntax, er hat Semantik“ (31, Übersetzung von mir). Dies sei der einfache Grund, warum Computer nicht dächten. Anders geht die „Kognitionswissenschaft“ vor, die nicht behauptet, Computer dächten, sondern daß unser Gehirn wie ein Computer arbeitet. Sie nimmt an, daß sich zwischen dem physiologischen Substrat der Gehirnzellen und den geistigen Phänomenen der Begriffe eine Ebene der Gehirntätigkeit befindet, die sich mit Hilfe der Arbeitsweise des Computers beschreiben läßt. Searle meint, daß die Annahme einer solchen Zwischenebene deswegen Plausibilität besitzt, weil wir über die Funktionsweise des Gehirns selbst im Grunde keinerlei Wissen haben; und setzt sich im Beitrag ‘Cognitive Science’ kritisch mit deren drei wichtigsten Thesen auseinander: 1. ‘Die Grammatikregeln, denen wir beim Sprechen folgen, gleichen den formalen Regeln, denen der Computer folgt.’ - Searle wendet nun dagegen ein, daß - äußerlich betrachtet - unser Sprechen bestenfalls gewissen Regeln folgen mag, daß aber dessen Ursache, anders als beim Computer, nicht die Regeln, sondern vielmehr deren Bedeutung (the meaning of the rule) sind. Daher sei der Vergleich zwischen unserem Sprechen und dem Programm des Computers rein äußerlich und metaphorisch. 2. ‘Da der Computer bei der Informationsverarbeitung Regeln folgt, und der Mensch beim Denken auch Regeln folgt, funktioniert das Gehirn und der Computer in ähnlicher Weise.’ - Dieser Vergleich, so Searle, gilt nur, weil davon abgesehen wird, daß der Mensch in bestimmte geistige Prozesse Rezensionen zum Thema eingebunden ist, der Computer aber nicht. Der Vorteil des Computers sei es ja, daß er ‘gedankenlos’ Ziffern addiert etc.; der Mensch dagegen sei in psychologische Vorgänge involviert, die solch rein mechanische Operationen unmöglich machen. Daß der Computer funktioniert, als ob er Informationen verarbeitet, bedeutet keineswegs, daß er sie verarbeitet; eben diese Konfusion sei es, die die Kognitionsforschung plausibel macht. 3. ‘Für jeden geistigen Akt (mental achievement) gibt es eine theoretische, im Gehirn internalisierte Ursache.’ - Gegen diese Annahme einer möglichen „Theorie der Praxis“ wendet Searle ein, daß es dafür keinen vernünftigen Grund gäbe. Wenn wir z.B. beim Gehen im Gleichgewicht bleiben, dann nicht, weil unser Gehirn komplizierte Gleichgewichtsgleichungen berechnet, sondern weil wir dafür im Innerohr ein Organ besitzen, das jedoch keine mathematischen Aufgaben löst; das Gehirn sei eben neurophysiologisch so organisiert: „the brain just do (it)“ (53). Daher sei die These, unser Verhalten gehorche einer Theorie, äußerst unwahrscheinlich. Der Vergleich unserer Gehirntätigkeit mit dem Computer, so Searle, sei überflüssig. Es sei die ausschließlich dem Gehirn zukommende Funktion, zu denken; nur „brains cause minds“ (39). Daher erinnern ihn die Versuche der Kognitionswissenschaft, das Gehirn mit dem Computer erklären zu wollen, an die früheren fehlgeschlagenen Modelle, es mit einem Telefonrelais oder Telegrafensystem, oder noch früher mit einer Wasserpumpe oder Dampfmaschine, zu vergleichen. Man hechele immer der neuesten Technik hinterher, um die Funktionen des menschlichen Gehirns zu verstehen. So erfrischend oftmals Searles Invektiven gegen die KI-Forschung sind, sowenig wird doch klar, worin eigentlich sein Argument gegen die Möglichkeit einer künstlichen Intelligenz liegt. Liegt es in der idealistischen Annahme, daß geistige Vorgänge eine eigene, materiell nicht reproduzierbare Qualität der Sinngebung und Bedeutung besitzen? Oder ist es der agnostische Standpunkt, daß die Struktur und Organisation unseres Gehirns so kompliziert ist, daß es müßig ist, seine Funktionsweise zu erforschen? Beide Auffassungen wären allerdings ihrerseits so wenig plausibel, daß sie sich mit äußerst gewichtigen Einwänden auseinandersetzen müßten. Alexander von Pechmann Rezensionen zum Thema Hubert L. Dreyfus, Die Grenzen der künstlichen Intelligenz. Was Computer nicht können, (Athenäum-Verlag) Königstein/Ts. 1985 Weniger polemisch, dafür durchdachter als Searles Beitrag ist das Buch von dessen Fachkollegen in Berkeley, Hubert Dreyfus. Obwohl schon 1972 erstmals, und 1979 erweitert, in englischer Sprache erschienen, beinhaltet es bereits die wesentlichen philosophischen Argumente gegen die überzogenen Ansprüche der KI-Forschung, und stellt eine detaillierte Kritik der Möglichkeiten einer künstlichen Intelligenz dar. Dreyfus konfrontiert zunächst die Zielsetzung der KI-Forschung seit 1957 mit ihren tatsächlichen Resultaten bis 1967, und stellt fest, daß nach anfänglich spektakulären Erfolgen alle Vorhersagen eingeschränkt werden mußten. Im Laufe dieser Zeit sei das grundsätzliche Problem der Simulation menschlicher Intelligenz, das seiner Meinung nach bis heute weiterbesteht, deutlich geworden: sämtliche Entscheidungsmöglichkeiten müssen im Computerprogramm explizit gemacht werden, so daß die Programme entweder über allereinfachste Simulationsmodelle nicht hinauskommen oder sich rasch in exponentiell verzweigenden Alternativbäumen verlieren würden. Die KI-Forschung stünde im Grunde ratlos vor der Fähigkeit menschlicher Intelligenz, das in einer Situation Wesentliche und Bedeutungsvolle zu erkennen und hervorzuheben. Für den trotzdem „ungebrochenen Optimismus“ der KI-Forschung führt Dreyfus vier Gründe an, die einer realistischen Beurteilung der Grenzen im Wege stehen. Er beruhe erstens auf dem, bis Leibniz, ja Platon zurückgehenden, rationalistischen Glauben, jede nicht-willkürliche Handlung des Menschen besäße eine gesetzmäßige und daher in einer Theorie ausformulierbare Struktur; zweitens gründet er auf der biologischen Annahme vieler KI-Forscher, das Gehirn funktioniere nach Art eines heuristisch programmierten Digitalcomputers. Als dritten Grund führt Dreyfus, in Übereinstimmung mit Searle, die erkenntnistheoretische Hypothese der Kognitionsforschung an, intelligentes Verhalten lasse sich maschinell reproduzieren bzw. simulieren. Zwar werde das Gehirn sowenig als ein Digitalcomputer angesehen, wie ein Planet als ein Algorithmus zur Lösung von Differentialgleichungen, aber, so die Hypothese, die Gehirnfunktionen ließen sich in dieser Weise beschreiben und nachvollziehen. Und schließlich ziehe die KIForschung ihren stärksten Impetus aus der ontologischen Annahme, alles, was für intelligentes Verhalten wesentlich sei, lasse sich in einfachste und unabhängige Elemente zerlegen und aus ihnen zusammensetzen. „Eine Million (Wissenselemente) - allerdings gut organisiert - müßte für eine sehr Rezensionen zum Thema hohe Intelligenz genügen“ (157), zitiert Dreyfus den KI-Forscher Marvin Minsky. Dreyfus’ zentrale Kritik an diesem rationalistisch-atomistischen Programm der KI-Forschung besteht nun in seinem Einwand, sie setze dabei voraus, daß die Welt des praktisch tätigen Individuums mit denselben Grundbegriffen beschrieben werden könne wie die objektive Welt der Naturwissenschaften. Unter Berufung auf Wittgensteins „Untersuchungen“ meint Dreyfus, Computer seien zwar nicht „transzendental dumm“ und könnten daher Regeln auf exakt beschreibbare Fälle anwenden; sie seien aber „existentiell dumm“ und unfähig, mit den Situationen, „so wie sie sind“ (149), umzugehen. Praktisch bedeutsame Situationen ließen eine unabschließbare Reihe von Bedeutungen mitschwingen, die ohne Gefahr des unendlichen Regresses nicht formalisierbar seien. In der lebensphilosophischen Tradition Heideggers und Merleau-Pontys stehend nimmt Dreyfus an, daß der Mensch sich als leiblich-praktisches Wesen je schon in einem „bereits geordneten Erfahrungsfeld“ (136) befindet, das es ihm erlaubt, regreßlos mit Mehrdeutigkeiten umzugehen: es gäbe „einen letzten, allgemeinen Kontext“ (170), den wir als selbstverständlich annehmen, „weil wir Menschen sind“ (170), und der daher maschinell nicht reproduzierbar ist. „Wenn wir unsere Handlungen erklären“, schreibt er zusammenfassend, „müssen wir früher oder später in unsere alltäglichen Verrichtungen zurückfallen und einfach sagen, ‘es ist das, was wir tun’, oder ‘es ist eben das, was den Menschen ausmacht’“ (323). Was wir sind, können wir ohne unendlichen Regreß nicht explizit wissen; da aber nur Explizites programmierbar ist, ist menschliche Intelligenz nicht simulierbar. Dabei wendet sich Dreyfus keinesfalls gegen die Computerwissenschaften, die im Bereich formalisierbarer Systeme schon heute dem Menschen wichtigste Hilfsmittel an die Hand geben; er meint nur, vor den überzogenen und unreflektierten Zielsetzungen der KI-Forscher warnen zu müssen. Direkt involviert in die Diskussion um die KI-Programme der Universität Berkeley, ist Dreyfus sicherlich einer der kompetentesten Kl-Kritiker und sein Werk, wenn auch nicht auf dem neuesten Stand, eine gewichtige Sammlung an Gegenargumenten. Dennoch meine ich, daß seine Annahme einer strikten Grenzziehung zwischen einer objektiven Welt der Naturwissenschaften und einer subjektiven Welt praktischer Handlungszusammenhänge so wohl nicht aufrecht zu halten ist. Ist Intelligenz, wie es Dreyfus nahelegt, wirklich nur die Fähigkeit des einzelnen, sich im Gestrüpp kompliziertester Situationen und mit dem gesunden Vertrauen auf einen unerkennbaren, „allgemeinen Kontext’’ zurechtzufinden und durch- Rezensionen zum Thema zuwursteln? Oder liegt Intelligenz nicht auch im zwar flexiblen, aber dennoch gesetzmäßigen Verhalten, das zielgerichtet sich der Gesetze bedient? So gesehen wäre eher der historische Prozeß der Evolution der Prototyp von Intelligenz als der „Selfmademan“, den Dreyfus, vielleicht unbewußt, vor Augen hat; und daß jener Prozeß gerichteten Verhaltens prinzipiell nicht im Computer simulierbar ist, ist allerdings noch eine offene Frage. Alexander von Pechmann Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, (Suhrkamp-Verlag) Frankfurt/Main 1978 Dies Buch, obgleich auch schon vor 10 Jahren erstmals erschienen, ist das Hauptwerk von Weizenbaums KI-Kritik. Ihm geht es allerdings weniger um die erkenntnistheoretische Frage, was Computer können, als vielmehr um die ethische Frage, wie die Menschen mit dieser neuen Technik umgehen. Weizenbaum, Computerwissenschaftler am Massachusetts Institute of Technology in Boston, warnt entschieden vor dem Mißbrauch der Computer, vor der für ihn letztlich politisch motivierten Unterordnung des Menschen unter diese Maschinen. Die „konservativsten, ja reaktionärsten ideologischen Strömungen des gegenwärtigen Zeitgeistes“ (327) hätten sich der Computertechnologie bemächtigt, um ihren, wie er es nennt, „Imperialismus der instrumentellen Vernunft“ zu errichten. Wenn der Einzelne sich dieser Gefahr nicht bewußt werde, meint er in der Tradition der „kritischen Theorie“, werde das Denken, widerstandslos, auf das „Niveau industrieller Prozesse reduziert“ (326). Was hingegen die erkenntnistheoretische Seite angeht, so stimmt er weitgehend mit den beiden vorherigen KI-Kritikern überein. Auf Kurt Gödel Bezug nehmend ist Weizenbaum der Ansicht, daß der Mensch eine Art intuitiver Intelligenz besitze, „die jenseits aller Beweiskriterien wahr ist“ (294) und daher außerhalb jeder maschinellen Simulation liegt; zu ihr gehörten Phantasie, körperlich-sinnliche Erlebnisse, die Erfahrungen von Vertrauen, Hoffnung und Freundschaft, die dem Computer wesensfremd seien. So wichtig in der Tat Weizenbaums Hinweis auf die politischen Motive des massiven Computereinsatzes zum Zweck der Herrschaftssicherung ist, so scheint es mir doch kurzschlüssig zu sein, diese Motivation direkt mit den Möglichkeiten des Computers zu verknüpfen. Ist er wirklich nur in der Lage, Probleme nach einem vorgegebenen Algorithmus zu lösen, und muß Rezensionen zum Thema sein Einsatz daher menschliches Denken auf „industrielle Prozesse“ reduzieren? Douglas R. Hofstadter, Gödel, Escher, Bach. Ein endloses Band, (Klett-Cotta-Verlag) Stuttgart 1985 Diese Frage nach den Möglichkeiten des Computers und der KI steht im Mittelpunkt von Hofstadters 850-Seiten-Wälzer. Sein Buch ist ein wahres Feuerwerk an Einfällen, Analogien, Hypothesen und Vermutungen, das hier vorzustellen unmöglich ist. Ich möchte mich daher auch nur auf seinen theoretischen Beitrag zur Kl-Forschung beziehen, soweit er sich aus der Vielschichtigkeit des Buches erschließen läßt. Hofstadter, mit Haut und Haaren Computerwissenschaftler, übt zunächst selbst Kritik an den KI-Forschern, die, wie auch Searle einwendet, Semantik auf Syntax und die Intelligenz auf die Anwendung formaler Regeln reduzieren. Intelligenz ist für ihn das Überschreiten formaler Regeln, die Fähigkeit, flexibel auf jeweilige Situationen zu reagieren, mit Widersprüchen umzugehen, Ähnlichkeiten und Neues zu entdecken. Dennoch unterscheidet er sich von der erwähnten KI-Kritik in der Frage, was Computer können, sowie in der Definition von Intelligenz. Hofstadter hält das Projekt einer „künstlichen Intelligenz“ für durchaus sinnvoll; ja, sein Buch ist in gewissem Sinne ein Plädoyer für eine solche Forschung. Sein Hauptinteresse konzentriert sich weder auf formalisierte Systeme oder auf die Suche nach „heuristischen Hilfsmitteln“ für Problemlösungen, noch auf die mentalen Akte der Sinn- und Bedeutungsgebung, sondern auf das, was er die „seltsamen Schleifen“ nennt, auf merkwürdige Selbstbezüglichkeiten und Paradoxien, die er mit den Namen Bach, Escher und Gödel verbindet, und die für ihn „im Zentrum der Intelligenz“ (30) stehen. Am anschaulichsten vermag vielleicht Eschers Bild „Zeichnen“ diese seltsame Schleife verdeutlichen. Auf diesem Bild zeichnet jede Hand die andere. Das Verwirrende dabei ist, daß jede Hand, indem sie die andere malt, zugleich selbst gemalt wird, so daß die Ebenen sich verschränken, und das Verständnis verschwimmt, welche Hand eigentlich welche malt. Diese „Schleife“ der Bezüglichkeit läßt sich erst aufheben, wenn man die Ebene des Bildes verläßt und außerhalb des Bildes wiederum eine Hand, nämlich Eschers, annimmt, die - nun widerspruchsfrei - das Bild der zeichnenden Hände gezeichnet hat. Rezensionen zum Thema Ein Aufbau verschiedener Ebenen ist so durch die „seltsame Schleife“ entstanden, der nach Hofstadter engstens mit Intelligenz verknüpft ist. Neben vielen weiteren, überaus originellen Beispielen für Paradoxien, die Hofstadter anführt, und die alle ihren „harten Kern“ in der berühmten Antinomie des Lügner haben (Ein Kreter sagt: „Alle Kreter sind Lügner“), ist für ihn der Satz von Gödel von entscheidender Bedeu-tung. Dieser Satz besagt, daß solche Paradoxien mit Notwendigkeit auftreten, oder anders, daß sich in jedem hinreichend starken, formalen System wahre Sätze bilden lassen, die in dem System nicht entscheidbar sind. „Das Faszinierende ist“, resümiert er diese Erkenntnis, „daß jedes derartige System sich sein eigenes Grab schaufelt; der Reichtum des Systems führt seinen Sturz herbei. Im wesentlichen kommt der Sturz daher, daß das System stark genug ist, um selbstbezügliche Aussagen zu enthalten“ (503). Rezensionen zum Thema Intelligenz nun ist für Hofstadter dann vonnöten, wenn und weil das jeweilige System unabgeschlossen ist, wenn man, um eine Entscheidung zu treffen, eine Regel braucht, die besagt, nach welcher Regel man die Entscheidung treffen soll: Regel, Meta-Regel, Meta-Meta-Regel usw. Dieses endlose Band von Schleifen nun sieht Hofstadter, wie Dreyfus übrigens auch, als theoretisch zwar unlösbar an, praktisch aber als immer schon gelöst. „Das geschieht, weil unsere Intelligenz nicht körperlos ist, sondern einem physischen Objekt, nämlich unserem Gehirn, eingepflanzt ist“. Und daher „arbeitet unser Gehirn, ohne daß ihm gesagt wird, wie es zu arbeiten hat“ (183). Es arbeitet, so Hofstadter, nach dem Prinzip der „seltsamen Schleifen“; es baut Hierarchien von Ebenen von Regeln aus, deren unterste, das neurale Substrat, zwar nach formalen Regeln abläuft, deren höhere Ebenen jedoch gewisse „Ballungen“ sind, die nicht materielle Regelkreise, sondern ideelle Symbole repräsentieren. Dieses hierarchische Modell der Gehirntätigkeit vergleicht Hofstadter mit einer Ameisenkolonie namens „Tante Colonia“: auf der untersten Ebene, den Neuronen vergleichbar, besteht sie nur aus Ameisen, die instinktiv und „unintelligent“ ihre Arbeiten verrichten, zwar nicht Sinneseindrücke, aber Nadeln, Blätter, Tiere etc, transportieren. Trotz der prima facie sinnlosen Aktivitäten bildet dieser Haufen Ameisen statistische Regelmäßigkeiten von Pfaden, Anhäufungen usw. aus, die zu bestimmten Mustern führen, die nun ihrerseits die Arbeiten der Ameisen regeln und strukturieren. Die höchste Ebene des Ameisenhaufens ist nun die „Ballung“ „Tante Colonia“, die Ameisenkolonie selbst, die sich „intelligent“ gegenüber ihrer Umwelt verhält und sich, laut Hofstadter, vorzüglich mit ihrem Bekannten, dem Ameisenbär, unterhält. Diese „Tante Colonia“ versteht Hofstadter als Modell dafür, wie auf der Grundlage unintelligenter Prozesse durch hierarchische Strukturbildungen Intelligenz entsteht. Das Denken sei, so Hofstadter, keineswegs an eine geistige Substanz gebunden, sondern die Aktivität des Gehirns auf hoher Stufe. Dementsprechend ist für ihn auch die Frage naheliegend, ob es nicht möglich sei, diese Stufe, den sog. „Intelligenzmodus“ des Gehirns, von ihrem Substrat, dem „mechanischen Modus“ der Neuronenebene, „abzuschöpfen“ und einem anderen Substrat, der Hardware eines Computers, „einzupflanzen“. Dies wäre nach seiner Meinung dann möglich, wenn es gelänge, dem Computer die Fähigkeit einzuprogrammieren, „aus dem System herauszuspringen“, Flexibilität auf höherer Ebene zu besitzen, mit einem Wort: mit den „seltsamen Schleifen“ fertig zu werden. Aktuell sieht er seinen Standpunkt „irgendwo in der Mitte“ zwischen den KI-Forschern, die meinen, man habe die künstliche Intelligenz schon, wenn Rezensionen zum Thema man nur die richtigen heuristischen Hilfsmittel zusammenstellt, und den Kritikern, die den menschlichen Geist „aus tiefliegenden und geheimnisvollen Gründen“ für unprogrammierbar halten. Der Teich des KI-Programms, meint er skeptisch, könnte sich im Laufe der Forschung „als so tief und schlammig erweisen ..., daß wir gar nicht auf den Grund blicken können“ (723). M.E. vertritt Hofstadter mit dieser Auffassung den zur Zeit fortgeschrittensten Standpunkt zur KI-Forschung: er entgeht dem Agnostizismus der KI-Kritiker, die die Intelligenz letztlich als eine unerklärliche Qualität des Geistes betrachten; und er entgeht auch den Vulgarisierungen vieler KIForscher, die Intelligenz auf die bloße Symbolmanipulation einschränken. Ein besonderes Verdienst seines Buchs sehe ich allerdings darin, daß es, indem es die „seltsamen Schleifen“, Paradoxien, Antinomien und Widersprüche ins Zentrum gestellt hat, zugleich auch die Dialektik wieder in den Blickpunkt der Intelligenzforschung rückt, die die scheinbar unüberbrückbaren Gegensätze zwischen formal - informell, rational - intuitiv, beseelt unbeseelt, beweglich - unbeweglich hinter sich lassen könnte. „Gödel, Escher, Bach“ könnte in der Tat dazu beitragen, die Frontstellung zwischen der rein geisteswissenschaftlichen Kritik und der technikgläubigen KIGemeinde auf höherer Stufe aufzuheben. Alexander von Pechmann Markus Schöneberger / Dieter Weirich (Hrsg.): KABEL ZWISCHEN KUNST UND KONSUM. PLÄDOYER FÜR EINE KULTURELLE MEDIENPOLITIK Berlin 1985 (VDE-Verlag) Ihrem Anspruch nach stellt die von M. Schöneberger und D. Weirich herausgegebene Aufsatzsammlung eine „neue Phase der Diskussion“ um die neuen Medien dar. Nachdem praktische Erprobung und Einführung begonnen hätten, und der Streit um Organisationsstrukturen weitgehend beigelegt sei, werde nun die Frage nach den Inhalten der neuen Angebote, ihren künstlerisch-kulturellen Chancen und kreativen Perspektiven erörtert. Unter den Autoren befindet sich F. Zimmermann, der die Kriterien für die Filmförderung des Bundes entwickelt (Menschenbezogenheit, künstlerischer Rang, Attraktivität für ein breites Publikum). Die mit den neuen Me- Rezensionen zum Thema dien entstehenden juristischen Fragen (insbesondere das Problem der Urheberrechte) behandelt E. Schulze. A. Everding sieht mit dem Kabelfernsehen für das Theater die Chance heraufziehen, verstärkt als „Warenanbieter“ aufzutreten und damit von staatlichen Subventionen unabhängiger zu werden etc. etc. E. Stoiber preist Bayern als Modell für künstlerische Entfaltung. Abgerundet wird der Band durch die Dokumentation „Antworten der Bundesregierung auf zwei Große Anfragen der Fraktionen der CDU/CSU und FDP sowie der SPD zur Kulturförderungspolitik der Bundesregierung“. Die im Titel angegebene Alternative „zwischen Kunst und Konsum“ trifft den Inhalt der meisten Beiträge nicht. Sie suggeriert eine Auseinandersetzung, die gar nicht stattfindet. Bei konservativer Grundeinstellung ist man sich vielmehr in den wesentlichen Punkten einig. Erfrischend immerhin der Beitrag von E. Noelle-Neumann, der (auf Umfragen, Medienforschung und neueste Gehirnforschung gestützt) in der Zunahme des Fernsehangebots eine Gefahr für die Lesekultur und damit auch eine Ursache für zunehmende Phantasielosigkeit, Konzentrationsschwächen und Mängel der Denkund Sprachfähigkeit erblickt. Gerade hier aber zeigt sich, daß die erste Phase der Diskussion, ob nämlich Kabel überhaupt, die die Herausgeber überwunden glauben, noch keineswegs abgeschlossen ist. Auch dann nicht, wenn man, statt auf Argumente einzugehen, die Kritiker der neuen Medien nur als Fortschrlttsmuffel (M. Schöneberger), als Kulturpessimisten (D. Ratzke) oder als intellektuelle Priesterkaste beschimpft, die mit den neuen Medien ihre Macht und ihre Privilegien dahinschwimmen sieht (M. Lahnstein). Mehr nebenbei wird hinter dem vielen Gerede von Bedarf und Förderung des kreativen Nachwuchses, von sprudelnden Informationsquellen, von Bildungsauftrag und steigendem Kulturniveau sichtbar, worum es vorrangig geht: die Überwindung der „Wachstums- und Strukturschwächen“ (W. Schreckenberger) der Wirtschaft. Wer sich nicht durch Kabel informieren und kulturell erheben lassen will, der gefährdet die Umsätze der Elektronikindustrie und nicht nur dieser. Er arbeitet der ausländischen Konkurrenz in die Hand und gefährdet Arbeitsplätze „in unserem Lande“. Konrad Lotter Benedetto Croce: Rezensionen zum Thema DIE GESCHICHTE AUF DEN ALLGEMEINEN BEGRIFF DER KUNST GEBRACHT Hamburg 1964 (Meiner-Verlag) Die Logik des Sinnlichen und die Geschichte Dieser in der philosophischen Bibliothek (Bd. 371) letztes Jahr veröffentlichte Band beinhaltet als zentralen Text die von Croce 1893 vorgetragene Akademieabhandlung, die dem hier vorliegenden Band seinen Namen gab. Der Herausgeber und Übersetzer dieses Bändchens, Ferdinand Fellmann, steuert eine genauere Einleitung zu diesem erstmals ins Deutsche übertragenen Text bei. Fellmann versucht, Croces Begriff einer narrativen Geschichtstheorie zu klären und in ihr die Aufgabe der Erzählform als besondere Kunstform und als „Form der Erkenntnis des allgemeinen im besonderen“ (Vorwort, S. 12) in der Geschichte zu deuten. Croces Bemühen, der Kunst einen kognitiven Status zuzubilligen und ihr so eine erkenntnisfördernde Potenz zuzugestehen, verweise, so Fellmann, deutlich auf die von Hegel ausgehende Tradition einer Ästhetik, die das vollendete Kunstwerk als sinnlich erscheinende Idee begreift (ebd. Croce, S. 11) und ihr somit eine ihr eigentümliche Erkenntnisfunktion von Wahrheit zuweist (ebd., S. 14)•. Verweist bei Hegel das Kunstschöne auf die primäre Anschauungsform im Erkenntnisprozeß, „so daß die Kunst es ist, welche die Wahrheit in sinnlicher Gestaltung für das Bewußtsein hinstellt“ (G.W.F. Hegel, Werke, Bd. 13, S. 140), so ist es möglich, diese Erkenntnisfunktion von Kunst auf die Darstellungsmittel der Geschichtsschreibung zu übertragen. Das tut Croce. Schon in die „Krise des Historismus“ verstrickt, leugnet Croce in seiner Geschichtstheorie die Möglichkeit, allein durch die Zusammenstellung kritisch-methodisch gesicherten Faktenmaterials in der Historie das Abbild zu „zeigen, wie es eigentlich gewesen“ (Ranke, SW, 33, 34, S. VII). Da Croce den ausschließlichen Wissenschaftsgrad in der Geschichte leugnet, die für ihn nicht nur in der methodischen Vergewisserung der Einzelfakten, deren Kritik undInterpretation besteht, sondern in erster Linie in der Erzählung von Vergangenem nach Maßgabe der festgestellten Wirklichkeit der eruierten Fakten, ist natürlich zu fragen: Wenn Geschichte als Erzäh• An einer Stelle der hier abgedruckten Texte hebt Croce die hervorragende Bedeutung der Hegeischen Ästhetik hervor, der „die erkennende Natur der Kunst“ (s. S. 59) anerkennt. Rezensionen zum Thema lung der Kunstgattung Literatur zuzuordnen ist, wie ist dann ihre Erkenntnisfunktion von Wirklichem, von nicht Fiktionalem/Möglichem, wie bei den traditionellen Künsten, zu begründen? Daß die Erkenntnisfunktion von Kunst sich ausdrücklich von „anderen erkenntnismäßigen Formen“ unterscheidet, betont Croce ausdrücklich (s. S. 59); wie Baumgarten, auf den Croce hier rekurriert, bezieht er sich in erster Linie auf die cognitio sensitiva, die Erkenntnismittel der Sinne, nicht auf den Verstand. Doch richtet sich die Erkenntnis der Kunst nach Croce selbst nicht auf die Gegenstände der wirklichen, sondern der möglichen, nicht vorgefallenen oder existierenden Welt. Croce löst sein sich selbst gestelltes Problem, indem er generell die „Kunst in das Reich der Erkenntnis“ (s. S. 59) einordnet und somit auch der Erzählung Erkenntniszwecke zubilligt. So kann Croce einerseits Geschichte als narrative Darstellung von wirklichem Einzelnen im Gegensatz zur nomologisch-begriff liehen (abstrakten) Erkenntnisfunktion in den Naturwissenschaften definieren, und andererseits der Geschichtsschreibung trotz ihres Kunstcharakters Erkenntnis von Wirklichem zubilligen. Das Erzählen der Geschichte(n) ist für Croce Darstellungsmittel, um Tatsachen zu ordnen. Dazu bedient sie sich der künstlerischen Mittel der „Verdichtung“ und „Vertretung“; im Gegensatz aber zu anderen Kunstgattungen ist ihr Inhalt nicht Mögliches, sondern real Seiendes, in der Geschichte Vorfindbares. Wie ist dann aber der erkenntnisfördernde Charakter von Geschichtsschreibung zu retten, wenn - wie schon Aristoteles in der Poetik sagte - die Historie gerade deswegen, weil sie mit Zufälligem und nicht mit Notwendigkeiten zu handeln hat, unwissenschaftlich, d.h. unphilosophischer als die Dichtung ist? Seinerseits definiert Croce nun die Aufgabe der mit künstlerischen Mitteln vorgehenden Geschichtsschreibung als aktualisierende Vergegenwärtigung des Vergangenen. Da die Einheit und Zweckgerichtetheit des historischen Prozesses für Croce im Gegensatz noch zu Ranke und den Historisten des 19. Jahrhunderts weder durch göttliche Provenienz, noch durch materialistische oder idealistische Fortschrittstheorie gesichert ist, muß der Sinn und die Zweckmäßigkeit der Geschichte nicht in ihr selbst gesucht werden, sondern durch das Erzählen von Geschichten erst konstruiert werden. Diesem Programm, die Erzählstrukturen von Geschichte in ihrer vom Historiker darzustellenden Sinnhaftigkeit und Ganzheit zu erörtern, sind dann weitere Abhandlungen Croces gewidmet. Interessant macht diesen hier wieder vorgelegten Versuch Croces vor allem seine mögliche Aktualität in Bezug zur gegenwärtig verstärkt geführten Rezensionen zum Thema Grundlagendiskussion in der Geschichtswissenschaft. In diesem Sinne möchte der Herausgeber diese Schrift wohl in der Diskussion zwischen Historik, Hermeneutik und analytischer Geschichtstheorie (z.B. Danto) eine der Hegeischen Tradition stark verpflichtete Position zu Gehör bringen, die von Croce als Gegenargument gegen den aufkommenden Antihistorismus und Positivismus und zu einem Zeitpunkt formuliert wurde, als zum ersten Mal der naive Glaube an die methodischen Grundlagen der Geschichtswissenschaft des letzten Jahrhunderts ins Wanken gerieten. In diesem Zusammenhang und in Analogie zur Aktualität der Methodendiskussion ist diese Abhandlung immer noch lesenswert. Hinzuweisen ist an dieser Stelle noch, daß neben dem Haupttext noch begleitende kleinere Abhandlungen Croces dem Band beigegeben sind, die den Gesamtkontext seiner Geschichtstheorie der 90er Jahre aufhellen. Die wissenschaftliche Gediegenheit der philosophischen Bibliothek wird auch dadurch unterstrichen, daß dem Band (was nicht immer selbstverständlich ist) ein Namens-Personenregister angefügt ist, und ebenso eine kurze biographische Notiz und ein aktualisiertes Literaturverzeichnis in dem Band zu finden sind, die den wissenschaftlichen und studienmäßigen Gebrauch beträchtlich erhöhen und zu weitergehenden Studien anregen. Ralph Marks Benedikt Köhler: ÄSTHETIK DER POLITIK Stuttgart 1980 (Klett-Cotta-Verlag) Dieses hier uns vorliegende Werk des Autors stellt den Abdruck seiner Tübinger Dissertation zum Thema: Adam Müller und die politische Romantik dar. Die Beschäftigung mit diesem kontroversen Thema hat eine lange Rezeptions- und Wirkungsgeschichte. Auf die Auseinandersetzung mit den ästhetischen Grundprinzipien der politischen Romantik und auf ihre politischen Folgen im Vormärz verweist der Autor am Anfang seines Werkes, indem er sich ebenso kritisch mit bisher in der Forschung vorherrschenden negativen Bild Müllers bei Karl Mannheim beschäftigt. Müller, Protagonist der politischen Romantik, ist bis heute durch sein staatstheoretisches Hauptwerk: „Die Elemente der Staatskunst“ (1809) in Erinnerung geblieben. Da der Autor in erster Linie aus germanistischer Sicht sein The- Rezensionen zum Thema ma behandelt, steht naturgemäß die Beziehung Müllers zur deutschen Romantik, zu Tieck, den Gebrüdern Schlegel, Novalis u.a. im Vordergrund. Erwähnenswert in der vom Autor versuchten Korrektur und Richtigstellung des Adam Müller-Bildes sind die Bezüge von Müller zu Kleist, zu Clausewitz und zur späten katholischen Romantik gezogen werden. Der achtenswerte Versuch des Autors Verfälschungen, Irreführungen und Verzeichnungen Müllers durch seine späteren Gegner zu entlarven und richtigzustellen, sind erhellend, wenn auch die detaillierteren Aussagen des Autors zu sehr das Bemühen in den Vordergrund treten lassen, das „richtige“ Müller-Bild gegen alle bisherigen „falschen“ in der Rezeptionsgeschichte vorherrschenden auszuspielen. Nicht alle zeitgenössischen und späteren Urteile, z.B. von Heine und Mannheim, sind so grundlos und verzeichnet, wie uns der Autor nahelegen will. Im ganzen ist die Studie aber lobenswert in ihrem Bemühen, die ästhetische Übertragung romantischer Auffassungen auf die Staatstheorie dieser Zeit herauszuarbeiten, wobei sich dann auch berechtigterweise von einer Ästhetisierung der Politik und des Krieges sprechen läßt. Was man an der Studie schmerzlich vermißt, ist ein genaueres Eingehen auf den zeltgenössischen Hintergrund von Ästhetik, politischer Theorie, Ökonomie und anderer Gebiete, wie er leider nur im Medium Adam Müller prismenartig hindurchscheint, wie überhaupt die ganze Arbeit zu sehr auf Müller und von Müller her konzipiert ist. Solange die Studie immanent im Kontext von Müllers Denken operiert, sind interessante Erläuterungen und Neuigkeiten zu erfahren. Leider sind die für Müllers theoretische Position und deren notwendiger historischer Einschätzung relevanten Bezüge, z.B. zu Fichte, Schelling, Gentz u.a., zu wenig in der Arbeit berücksichtigt worden. Neben einigen ärgerlichen Druckfehlern und Fehleinschätzungen, z.B. von Heeren (s. S. 40), fällt die Geringe der verarbeiteten Sekundärliteratur für den wissenschaftlichen Gebrauch der Studie ins Gewicht. Wenn schon Adam Smith, Hegel, die historische Rechtsschule oder andere für die damalige Zeit relevante Theoriepositionen zur Erläuterung herangezogen werden, hätte man sich eine Auseinandersetzung mit den neueren Forschungen zu diesen Themen gewünscht. Wer sich aber über die politische Romantik und über ihren Hauptprotagonisten Adam Müller informieren will und keinen allgemeineren Anspruch an die kritische Erhellung dieser Epoche im Ganzen stellt, wird mit Gewinn Köhlers Arbeit lesen und selbst erstaunt feststellen, wie aktuell auch heute noch die von der Romantik angesprochenen Fragestellungen und ihre Antworten zu Politik, Ökonomie und Staatstheorie Rezensionen zum Thema sind. Ralph Marks Petra Jäger und Rudolf Lüthe (Hrsg.): DISTANZ UND NÄHE. Reflexionen und Analysen zur Kunst der Gegenwart Würzburg 1983 (Königshausen + Neumann) Diese Aufsatzsammlung ist Walter Biemel zum 65. Geburtstag gewidmet. Als Heidegger-Schüler sah Biemel seine Aufgabe - zunächst als Ordinarius für Philosophie an der RWTH Aachen, später als Lehrstuhlinhaber für Philosophie an der Staatl. Kunstakademie / HfbK Düsseldorf - in der Entwicklung einer Phänomenologie und Philosophie der Kunst. Der vorliegende Band „vereinigt 15 Beiträge zu diesem Themenbereich, die von seinem hochverehrten Lehrer Martin Heidegger, von seinen Freunden und Wegbegleitern und von seinen Schülern verfaßt wurden. Der Titel ‘Distanz und Nähe’ kennzeichnet einerseits das ambivalente Verhältnis von Kunst und Philosophie/Wissenschaft, andererseits die problematische Beziehung des zeitgenössischen Betrachters zur Kunst der Gegenwart“ (S. 9). Auf dem Weg „zu den Sachen selbst“, wie es die vielzitierte Maxime Husserl ‘scher phänomenologischer Methode fordert, kommt zuerst Heidegger selbst zu Wort. Das Manuskript zu seinem Vortrag mit dem Thema „Die Herkunft der Kunst und die Bestimmung des Denkens“ (Athen 1967) ist hier erstmalig veröffentlicht. Im Dreh- und Angelpunkt seiner Ausführungen steht eine These Nietzsches (S. 15): „Nicht der Sieg der Wissenschaft ist das, was unser 19. Jahrhundert auszeichnet, sondern der Sieg der wissenschaftlichen Methode über die Wissenschaft.“ (Der Wille zur Macht n 466) Diese paradigmatisch an den Naturwissenschaften orientierte Methode kennzeichnet für Heidegger die vorausgeprägte Denkhaltung, welche durch ihre Fixierung auf Berechenbarkeit und experimentelle Überprüfbarkeit in der Behandlung ihrer Gegenstände sich begrenze, gleichsam isoliere und in Rezensionen zum Thema ihrer entwickelsten Form, der Kybernetik, schließlich den Unterschied zwischen Maschine und Lebewesen völlig negiere. Für die Kunst stellt sich im Anschluß daran die Frage, ob sie sich in diese letztendlich technokratische Daseinsbewältigung als Funktionsträger einordnen lassen will oder muß, oder ob und wie sie sich ihre radikale Subjektivität und Originalität nicht nur bewahren, sondern - über ihre Verbindung zum Denken und zur Sprache - auch einen Erkenntnisanspruch erheben kann, der dem beängstigenden Eingezwängtsein des Menschen in die scheinbaren Unausweichlichkeiten des modernen Lebens (bis hin zur atomaren Selbstzerstörung) entgegentritt, indem er den Weg freimacht zur Etablierung einer praktischen Vernunft, wie sie Husserl zu definieren begonnen hat. So beschreibt G. Funke im abschließenden Aufsatz, wie, über eine erneute wissenschaftstheoretische Reflexion, die zu gewinnende, eigentlich wissenschaftliche, nämlich phänomenologische Methode definiert werden könnte, und daß sie ihre Konsistenz nur sichern kann über das „rhapsodisch schauende, assoziierende Verfahren“ (S. 313), wie wir es im künstlerischen Umgang mit der Welt vorfinden. Von der Kunst wäre somit zu lernen, praktisch jeweils unvermeidbare Normierungen von Sprache und damit auch von Wahrnehmung (und umgekehrt) in Frage zu stellen und aufzubrechen. Damit ist ein Verhältnis von Sprache zu Sprachkunst (dem Dichterischen) und Wahrnehmung zu bildender Kunst beschrieben, das seinerseits weitertreibt zu einer Klärung des Verhältnisses von Wahrnehmung bzw. sinnlicher Erkenntnis zu Sprache bzw. Denken. Folgerichtig schließt sich daher an den einleitenden Vortrag von Heidegger eine Diskussion des Heideggerischen Sprachbegriffs durch F.W. v. Hermann an, der in seinem Heideggerischen Sprachstil m.E. wichtige Gedanken allerdings unnötig verschleppt. Wer das Französische nur ungenügend oder gar nicht beherrscht, kann von dem darauffolgenden Aufsatz von J. Taminiaux allenfalls verstehen, daß es um das Erbe Hegels, insbesondere der Ästhetik, bei Heidegger geht. (Eine knappe Skizzierung der wesentlichen Gesichtspunkte wäre angesichts der insgesamt sehr sinnreichen Reibung der Beiträge wünschenswert und würde die bis zu dieser Stelle recht strapazierten Nerven des Nichtspezialisten schonen.) Bruno Liebrucks geht dann noch einmal auf Hegel, aber auch auf Kant zurück, um, am Beispiel von Werken Hölderlins und Kafkas, die Kunsttheorie Konrad Fiedlers ausführlich darzustellen. Über eine Problematisierung des Wahrnehmungsbegriffes durch L. Landgrebe, die sich ähnlichen wissenschaftlichen Erkenntnissen anschließt wie Rezensionen zum Thema die vergleichbaren Untersuchungen der kritischen Psychologie (Holzkamp, Leontjew), und eine vage Eingrenzung der Begriffe Phantasie und Assoziation gibt, wird die Verallgemeinerung des Themas von A. Diemer in ihrer weiteren Ausdehnung hin zu einer Phänomenologie der Kultur systematisch gegliedert. Sie bietet eine gute Orientierung für eine theoretische Auseinandersetzung mit der phänomenologischen Richtung, vor allem hinsichtlich ihrer absoluten Forderung nach Ideologiefreiheit und ihrer relativen Abstinenz, was die konkrete Durchsetzung einer zukunftsträchtigen Kulturpolitik betrifft. Mögliche Inhalte und Ansatzpunkte einer solchen Kulturpolitik werden in den weiteren Beiträgen, vor allem von Schülern Biemels, ebenso benannt wie die zu fordernden Konsequenzen für Kunstsoziologie (H.P. Thurn) und Kunstkritik (R. Lüthe). Die Besprechung einzelner Kunstwerke (Hofmannsthais „Idylle“ von H. Schwerte, die Skulpturen Anthony Caros von L. Dittmann und eine „Situation“ George Segais von Peter Rezek) sind sehr instruktiv, und im Zusammenhang des Ganzen wichtige Beispiele für einen Zugang zu moderner Kunst. Richard Wisser schließlich sieht im Tanz die Verbindung auch zu eher volkstümlichen Erlebnisbereichen und stellt über Rhythmus und den Maßstab des menschlichen Körpers eine Verbindung zu Musik und Architektur her, was, wenn auch nur angedeutet, den Reigen phänomenologischer Kunsttheorie abrundet. Hajo Bahner Alexander von Pechmann: KONSERVATISMUS IN DER GESCHICHTE UND IDEOLOGIE BUNDESREPUBLIK. Rezensionen zum Thema Frankfurt/Main 1985 (Verlag Marxistische Blätter) Seit etwa Mitte der siebziger Jahre konservative Ideologien in den westlichen Ländern vordringen, ist, wenn auch mit erheblicher Verzögerung, die Konservatismusforschung in der Bundesrepublik intensiviert worden. Die Resultate dieser Forschung sind jedoch sehr kontrovers. So sieht Jürgen Habermas im amerikanischen Neokonservatismus das Wirken von enttäuschten, ehemals liberalen Denkern und Politikern, während der Neokonservatismus in der Bundesrepublik das Erbe der Weimarer Jungkonservativen angetreten habe. Kurt Lenk hebt dagegen im gegenwärtigen Konservatismus der BRD den technokratischen Charakter hervor. Indem er diese These, die Martin Greiffenhagen für den Konservatismus der späten sechziger Jahre vertritt, auf den Konservatismus der späten siebziger Jahre überträgt, gibt Lenk zu erkennen, daß er keine wesentlichen Entwicklungen des Konservatismus feststellen kann. Für diesen technokratischen Konservatismus sei eine Entpolitisierung der Politik und eine Entideologisierung der Massen kennzeichnend. Während diese Versuche trotz aller Detailfreudigkeit insofern an der Oberfläche haften bleiben, als sie weitgehend auf die Zeugnisse konservativer Theoretiker und Politiker beschränkt bleiben, hat es die marxistische oder die an Marx orientierte Forschung insofern leichter, als es ihr möglich ist, den Konservatismus an einem, sein eigenes Selbstverständnis überschreitenden Maßstab zu messen: geistige und politische Bewegungen gelten ihm als Ausdruck von materiellen, ökonomischen Interessen. Die Gefahr dieses Ansatzes liegt allerdings darin, daß die vielfältigen, oft sich widersprechenden Strömungen innerhalb des Konservatismus allzuleicht nivelliert werden, und nur solche konservative Strömungen gesehen werden, die als mehr oder minder direkter Ausfluß der jeweiligen ökonomischen Verhältnisse erkennbar sind. Ein Beispiel dafür ist eine Schrift von Leo Kotier aus dem Jahre 1964, in der er keinen grundsätzlichen Unterschied zwischen dem englischen, amerikanischen und deutschen Konservatismus festzustellen vermag. Weitaus gelungener sind von dieser Seite die Arbeiten von Ludwig Elm. Er versteht unter dem Konservatismus eine historisch gewachsene, in sich äußerst heterogene Strömung der politischen Ideologie, die die historischklassenmäßigen Existenzbedingungen überlebter, volks- und fortschrittsfeindlicher Klassen, Schichten und Gruppen reflektiert und die Interessen und Bestrebungen solcher Kräfte in weltanschaulich-ideologischer, pro- Rezensionen zum Thema grammatischer und politischer Hinsicht prononciert zum Ausdruck bringt. Im Unterschied zu anderen klassischen politischen Ideologien wie etwa Liberalismus oder Sozialismus ist die Heterogenität für den Konservatismus wesentlich. Während sowohl Liberalismus als auch der Sozialismus an bestimmte Klassen gebunden sind, war der Konservatismus die Ideologie der feudal-aristokratischen Kräfte vor 1848, der bürgerlich-nationalliberalen Reaktion unter Bismarck und des wilhelminischen Imperialismus. Wie schwierig jedoch die Erforschung dieses ebenso schillernden, sich stetig wandelnden, ein Bündel verschiedener ideologischer Richtungen in sich einschließenden Formation ist, erwähnt Elm, wenn er nach über zehnjähriger Konservatismusforschung in einem im vergangenen Jahr erschienenen Buch schreibt, dass die Einbeziehung der massenwirksamen, klerikalkonservativen Richtungen sich als sehr schwierig erwiesen habe. Er verweist im wesentlichen auf noch zu leistende Forschungsarbeit. Das vorliegende Buch von Alexander von Pechmann ist ein Beitrag, diese Lücke zu schließen. Von Pechmann – Mitherausgeber dieser Zeitschrift legt mit dieser Veröffentlichung die erste größere Arbeit nach seiner Dissertation über die Kategorie des Maßes in Hegels Wissenschaft der Logik vor. Er hat sicher das von Elm ausgearbeitete Konservatismusverständnis im Auge, wenn er seiner Analyse zugrunde legt, daß der Konservatismus „der jeweils theoretisch-ideologische Ausdruck der Interessen der herrschenden Klasse unter den sich historisch ändernden Voraussetzungen und Bedingungen“ (25 f.) sei. Pechmann leitet sein Buch mit einer - leider viel zu kurz geratenen - Skizze zur Geschichte des Konservatismus im 19. und 20. Jahrhundert ein. (So wird der Kulturkampf, in dem sich der Konservatismus preußischprotestantischer Prägung für lange Zeit gegenüber dem katholisch geprägten Konservatismus durchsetzt, nicht einmal erwähnt.) Ausführlicher dagegen wird im historischen Teil auf die Geschichte dieser Weltanschauung in der Bundesrepublik eingegangen. In der unmittelbaren Nachkriegszeit und in den fünfziger Jahren stand das konservative Denken zunächst unter dem Trauma des Faschismus, später dann unter dem Eindruck des sogenannten „Wirtschaftswunders“. Daher erlangte zunächst das vom Existentialismus beeinflußte Denken einige Bedeutung. Die Angst des Menschen sei der Ausdruck der epochalen Entfremdung des Menschen von seinem Wesen und Ursprung (Sedlmayr). Die Klage von der „Entwurzelung des Menschen“ und seiner „Vermassung“ Rezensionen zum Thema (37) ging um. In der Phase der ökonomischen Prosperität, als sich die Früchte der sog. „Sozialen Marktwirtschaft“ zeigten, gewann eine andere Richtung im Konservatismus an Bedeutung. Die Theorie von der „Industriegesellschaft“, in den USA zuerst entwickelt, schien die Wirklichkeit der Bundesrepublik eher widerzuspiegeln. Allerdings mußte diese Theorie den bundesrepublikanischen Verhältnissen angepaßt werden. Es wurde ein anthropologisches Fundament unterlegt. Der Mensch als Mängelwesen bedürfe der Technik und der Institutionen, um existieren zu können (A. Gehlen). Mit der Theorie von der Industriegesellschaft einher ging die Entideologisierung der Politik: An die Stelle von gruppen- und klassenbezogenen Interessen trat der wertfreie Sachzwang. Mit der krisenhaften Entwicklung der Bundesrepublik verlor diese Variante des Konservatismus seine Überzeugungskraft. Bisher eher verborgene Divergenzen im konservativen Lager traten deutlicher hervor. Während die eine Seite den durch die Krise hervorgerufenen Legitimationsverlust durch ein Zurückdrängen von demokratischen Elementen zu kompensieren versucht (z.B. E. Franzel, A. Mohler), versuchen auf der anderen Seite jüngere Politikwissenschaftler wie etwa R. Altmann oder Hans Maier einen „demokratischeren“ Weg: Die Pluralität, d.h. die vorhandenen gegensätzlichen Interessen werden nicht geleugnet“; aber sie versuchen, diese gegensätzlichen Interessen auf gemeinsame sittliche Werte hin zu verpflichten. Begünstigt durch die politischen Niederlagen der konservativen Parteien, setzt sich dieser Streit in den siebziger Jahren fort. Lebendig schildert Pechmann den Vorgang, wie sich innerhalb des konservativen Lagers die Richtung durchsetzt, die Staat und Gesellschaft auf einen ontologisch begründeten Wertekanon aufgebaut sehen wollen. Die altkonservative Fraktion ebenso wie ein reformwilliger Teil der CDU traten in den Hintergrund. In der Auseinandersetzung um die einzelnen Grundwerte, fand die CSU zuerst „ihren“ Grundwert in der „Freiheit der Person“. Die „Solidarität“ und die „Gerechtigkeit“, die bei der CDU zunächst noch die „Freiheit“ flankierten, wurden unter der Leitidee eines „zur Freiheit geborenen Menschen“ subsumiert. Diese geistige Orientierung ging einher mit der Umorientierung der Kapitalverbände von der Wirtschaftskonzeption des Sozialpaktes zwischen Kapital und Arbeit zu einer sog. neoklassischen Wirtschaftskonzeption. Pechmann zeigt, daß diese Politik, die in den fünfziger Jahren für Kapitalzuwachs, Vollbeschäftigung und Lohnsteigerung sorgte, unter den veränderten wirtschaftlichen Rahmenbedingungen vielleicht den Interessen des Kapitals, nicht mehr aber den Interessen der Lohnabhängi- Rezensionen zum Thema gen entsprechen kann. Die Ideologie vom ersten Grundwert Freiheit erhielt in der Bundestagswahl 1980 eine Niederlage. Innerhalb der CDU wurde jetzt daran gearbeitet, den Grundwert Freiheit in den Rahmen einer „Gesellschaft mit menschlichen Gesicht“ zu stellen. Im zweiten Hauptteil geht Pechmann auf die theoretischen Implikate des gegenwärtigen Konservatismus ein. Da jeder Konservatismus nach Pechmann mit dem Fehlschluß operiere, aus der empirisch konstatierbaren Existenz der gesellschaftlichen Herrschaftsverhältnisse auf ihre überzeitliche Gültigkeit zu schließen, sei der Konservatismus letztlich gezwungen, eine Letztbegründung in der Existenz eines transzendenten Wesens zu suchen. Versuche eines G.-K. Kaltenbrunner oder eines H. Lübbe, konservative Positionen ohne Religion zu begründen, hält Pechmann für inkonsequent. Das Bestimmende in der Entwicklung des bundesdeutschen Konservatismus sei nun, daß das ontologische, an der mittelalterlichen Scholastik orientierte Denken die beherrschende Stellung errungen habe. Normativ-ethische Werte, die sogenannten Grundwerte, sind dem Willen des einzelnen Menschen entzogen und stehen im demokratischen Willensbildungsprozeß nicht mehr zur Disposition. Nicht mehr das Volk ist Souverän über sich selbst, sondern es ist an einzelne Prinzipien gebunden, die mit der von Gott gegebenen Seinsordnung gegeben seien. Der erfolgreichste Versuch, diese Ideen als überhistorische, ewige Sozialprinzipien zu begründen, ist die katholische Soziallehre. Mit der Übernahme der Subsidiarität - das gesellschaftliche Ordnungsprinzip der katholischen Soziallehre - in die Programmatik der konservativen Parteien, ist es dem politischen Klerikalismus gelungen, sich im Konservatismus maßgeblich zur Geltung zu bringen. Pechmann hat mit diesem Buch einen neuen Akzent in der Konservatismusforschung gesetzt. Allerdings beschränkt er sich doch zu sehr auf die beiden Parteien von CDU und CSU. Die weitverzweigten Ausläufer außerhalb dieser Grenzen geraten kaum noch in den Blick. Die Heterogenität, ein wesentliches Charakteristikum des Konservatismus, verblasst vor allem im letzten Hauptteil zugunsten von derjenigen Variante, die sich gegenwärtig durchgesetzt hat. Diese Konzentration auf die zur Zeit dominierende Richtung im konservativen Lager kann den falschen Eindruck erwecken, dass der Konservatismus sich von Etappe zu Etappe zu einem einheitlichen Rezensionen zum Thema Konzept durchringen würde, hinter dem sich alle anderen Richtungen verflüchtigen. Gerade die gegenwärtigen Entwicklungen im konservativen Lager zeigen, daß ein ständiger Kampf um Positionen im Gange ist. Trotzdem ist die Konzentration auf diese katholische Variante des Konservatismus insofern entschuldbar, als damit eine wichtige Lücke in der Konservatismusforschung geschlossen wird. So ist diesem Buch durchaus eine zweite Auflage zu wünschen; bei dieser Gelegenheit könnte der Verlag dann auch das lücken- und fehlerhafte Personenverzeichnis korrigieren. Martin Schraven Max Raphael: WIE WILL EIN KUNSTWERK GESEHEN SEIN? „THE DEMANDS OF ART“ Mit einem Nachwort von Bernd Growe - Herausgegeben von Klaus Binder. Frankfurt/Main und Paris 1984 (Qumran-Verlag) Innerhalb einer vierbändigen Edition von kunsttheoretischen Schriften Max Raphaels bildet die deutsche, kritisch kommentierte Ausgabe von „Demands of Art“ die methodisch reifste und gewichtigste Arbeit. Das Buch könnte einen Mangel beheben helfen, an dem nicht zuletzt die deutsche Kunstwissenschaft Schuld trägt. Max Raphael wurde als einer der engagiertesten und scharfsinnigsten Vertreter des Faches von ihr bis heute nicht zur Kenntnis genommen. Die Gründe dafür liegen auf der Hand. Seine besonderen Anstrengungen, Kunstwerke jenseits stilkritischer und ikonographischer Einseitigkeiten aus einer umfassenden Analyse ihres künstlerischen Schaffensprozesses heraus verstehen zu wollen, eignete sich für den Ideologiebedarf weder des gängigen Kunst- noch Wissenschaftsbetriebes. Dagegen versuchte Raphael seit den frühen 20er Jahren das Wesen der künstlerischen Arbeit innerhalb des materiellen Produktionsprozesses zu bestimmen und in seinen Eigentümlichkeiten zu exemplifizieren. Ziel war es ihm stets, dieses Eigentümliche so weit wie möglich aus dem Index seiner Gesetzmäßigkeiten zu erklären. Die relative Autonomie des Kunstwerks sollte begreifbar werden als ein schöpferisches Modell dessen, was man als Künstler u n d Betrachter unter bestimmten historischen Bedingungen sehend u n d wissend zur Anschauung bringen konnte. Daß er dabei das Kunstwerk zu wenig für den Rezensionen zum Thema aktuellen politischen Kampf um bessere Lebensverhältnisse verpflichten wollte, trug dem Marxisten Raphael bald auch die skeptische Distanz materialistisch denkender Fachkollegen ein. Als der Einzelgänger und Außenseiter 1952 im New Yorker Exil starb, war der größere Teil seines Werks noch unveröffentlicht. Seine fragmentarische und für Vertragszwecke konzipierte Gestalt kam auch posthumen Editionen lange nicht entgegen. In „Wie will ein Kunstwerk gesehen sein?“, entstanden zwischen ca. 1930 und 1950, demonstriert Raphael an fünf Beispielen der europäischen Malerei, was eine „empirische Kunstwissenschaft auf schaffenstheoretischer Grundlage“ im einzelnen wie im ganzen zu leisten hätte. An Gemälden von Cezanne, Degas, Giotto, Rembrandt und Picasso geht er fünf verschiedenen Fragestellungen nach und beantwortet sie nach dem gleichen methodischen Prinzip. Den Anfang macht die Betrachtung von Cezannes „Mont Saint-Victoire“. Künstlerische Kategorien wie Linie, Raum, Farbe und Licht werden hier im Hinblick auf die natürlichen Seheindrücke eines Stücks Landschaft und auf deren Neuorganisation im Bildfeld des Malers analysiert. Indem diese Kategorien aber nicht als bloße Einteilungsgrößen fungieren, sondern als in sich geschlossene und einander bedingende Wirkungsgrößen gesehen werden, entfaltet Raphael seine Beschreibungen ganz in der Nähe des malerischen Vorganges. Weniger Cezannes eigene Äußerungen dienen dabei der empirischen Absicherung als die aus dem objektiven Bildresultat herausgefundene und zu einem wohlgeordneten Prozeß des Sehens neuangeordnete Logik der anschaulichen Formen. Cezannes Leitvorstellung der „Realisation“ (Umgestaltung des natürlich Sichtbaren seiner neu eingesetzten Symbolik) wird so für den Betrachter zum eigenen Erlebnis erhoben. Freilich kommt alles darauf an, daß die Übersetzung von Einzelform und Formbeziehung, schließlich der ganzen Formgestalt in exakte, messende Ausdrücke der rationalen Sprache (Blicklinie, Trefflinie, Schnittebene, Achsenabstand, Helldunkelgrade etc.) für den rezeptiven Akt ähnlich viel leisten kann, wie die künstlerischen Darstellungsmittel zuvor für ihren produktiven Akt. Genau dieser Transfer macht in dieser wie in den anderen Studien die besondere Stärke Raphaels aus. Deutlicher noch tritt sie in den Abschnitten über Degas und Giotto zu Tage. Bei Degas werden drei Druckzustände einer Radierung miteinander verglichen, bei Giotto zwei verwandte Sujets auf ihren entwicklungsgeschichtlichen Abstand hin befragt. Gegenüber den entweder physiogno- Rezensionen zum Thema misch oder strukturalistisch zusammenfassenden Beschreibungsformen anderer zeitgenössischer Formanalytiker (Schmarsow, Wölfflin, Sedlmayr) operiert Raphael in einer durchgängig sich ausweisenden Systemlogik. Die Schritte sind so eng gesetzt, daß die notwendigen historischen Erklärungen gelegentlich keinen Platz mehr zu finden scheinen. In solchen Momenten fällt Raphael gegenüber seinem eigenen Totalitätsanspruch zurück. Es hilft nichts: Mögen sich auch die Seh-Reflexions- und Gestaltungsformen des späten 19. und frühen 20. Jahrhunderts noch ohne größeren Zwang aufeinander abstimmen lassen - wenn Giottos Gemälde des frühen 14. Jahrhunderts nur rein phänomenologisch angegangen werden, wird der Anspruch auf vollständige Erklärung haltlos. Zwar ist nach wie vor beeindruckend, was Raphael für die Augen zu artikulieren vermag. Aber der wissenschaftliche Anspruch, die alten Bilder für heutige Geister zu erklären, wird in dem Maße unerfüllbar, wie gesellschaftliche Struktur und deren in die Bildformen eingehende Reflexionen nicht mehr aus ein und demselben Beschreibungszugriff zu gewinnen sind. Die Welt des 14. Jahrhunderts kommt nicht dadurch in den Bildern zum Aufscheinen, daß man figurale Kraftlinien mit Horizontschnitten, Helldunkel-Verschiebungen und Vertikal-Rhythmik bildlogisch zu vereinheitlichen weiß. Allerdings ist sich der Marxist Raphael durchaus im Klaren darüber, was Geschichte ist, und was zum Zweck ihrer Darstellung vonnöten ist. Er zeigt auch in der Studie zu Picassos „Guernica“, daß das Hineinreichen der historischen Wirklichkeit in die Bilder ebenso intensiv nachzuzeichnen wäre wie die Möglichkeit des „Sehens“, er hält sich nur nicht immer an diese Einsicht. Picassos „Guernica“ gibt ihm die Möglichkeit, auch Qualitätsfragen durch Formanalyse zu entscheiden. Die Art und Weise, wie er hier Brüchen zwischen Intention und Verwirklichung nachspürt, muß nicht das letzte Wort der Guernica-Kritik darstellen, läßt aber immerhin ahnen, wie Ideologiekritik mit der Systematik einer „empirischen Kunstwissenschaft“ zusammengehen könnten. Auf einen anderen Mangel muß noch hingewiesen werden. Die vierte Studie über eine Rembrandt-Zeichnung ist nämlich nicht nur die subtilste, sondern leider auch die spitzfindigste. Nicht die Fragestellung: Was erbringt eine Illustration gegenüber ihrer Textvorlage an eigener Wirklichkeit?, bereitet hier Schwierigkeiten, sondern das sonst so Gelungene, das „Schaffenstheoretische“. Indem Raphael einer flüchtigen und vorläufigen Bildidee einen Vollkommenheitsmaßstab auferlegt, nehmen seine Beobachtungen zu Rezensionen zum Thema Einzelform, Werkgestalt und Komposition einer kleinen Federzeichnung etwas unerwartet Willkürliches und Zwanghaftes an. M.E. überzieht er hier die Beschreibungsmöglichkeiten. Ihr Aufwand rechtfertigt nicht die daraus zu ziehenden Schlüsse - und umgekehrt: das wichtige Resultat (Zeitlichkeit im Erzählvorgang) basiert nicht notwendig auf den vorausgehenden Beschreibungen. Raphael offenbart an einem Randexempel, daß er der Gefahr, die er sonst kritisiert, auch selbst erliegen kann: an e i n e m Werk zu „entdecken“, was man in Wahrheit aus v i e l e n Werken erschlossen hat. Festzuhalten bleibt: Raphaels Studien zu einer „empirischen Kunstwissenschaft“ gehören zum Besten, was man derzeit über das Spannungsverhältnis Formwirklichkeit - Sprachmöglichkeit im Kunstwerk lesen kann. Auch wer mit dem Ansatz der Schaffenstheorie nicht einverstanden ist, dürfte hier mehr als in vergleichbaren Texten zu „sehen“ bekommen. Ernst Rebel Hans-Jörg Sandkühler und Hans Heinz Holz (Hrsg.): ÖKOLOGIE - NATURANEIGNUNG UND NATURTHEORIE DIALEKTIK 9 Köln 1984 (Pahl-Rugenstein, 243 S., DM 19,80) Die krisenhafte Zuspitzung ökologischer Probleme und die fortschreitende Zerstörung der Umwelt führte in den letzten Jahren zu ungezählten „ökologischen“ Publikationen verschiedenster Provenienz. DIALEKTIK 9 untersucht anhand einer materialistischen Philosophie- und Wissenschaftskonzeption die sozialen Ursachen der ökologischen Krise, wobei sich zeigt, „daß nur auf dem Weg tiefgreifender sozial-ökonomischer Veränderungen sowie einer Beschleunigung und gleichzeitigen Neuorientierung (Ökologisierung) des naturwissenschaftlich-technischen Fortschritts sich eine Lösung zeigt“. Der vorliegende Band geht in seinen Beiträgen davon aus, daß ohne Reflexion der Geschichtlichkeit des gesellschaftlichen Naturverhältnisses eine theoretische Erfassung der Ursachen des Mensch-NaturGegensatzes eine theoretische Lösung und eine praktische Bewältigung unmöglich ist. Dreh- und Angelpunkt der Beiträge des ersten Abschnitts „Naturverhältnis und Gesellschaftsformation“ ist die Analyse der Auseinandersetzung zwischen den Menschen und der Natur im Arbeitsprozeß als gesellschaftlich determiniertem Naturprozeß (Stoffwechsel) in den ver- Rezensionen zum Thema schiedenen historischen Gesellschaftsformationen“ (Editorial). Auf dieser Grundlage werden im zweiten Abschnitt „Ökologie - Status, Geschichte, Theorie“ über Geschichte und Status der theoretischen Ökologie diskutiert. 1. Abschnitt: Naturverhältnis und Gesellschaft Walter Hollitscher, Naturwissenschaftler und Philosoph in Wien, legt in seinem Beitrag „Vom Gegenstand und Nutzen der Naturdialektik“ die erste von 50 Vorlesungen zur Naturdialektik vor, gehalten an der Berliner Humboldt-Universität 1949. Er entwickelt darin Fragen der theoretischen wie praktischen Naturaneignung, der Dialektik von Entgegensetzung und Einheit und der Beziehung von Naturwissenschaft und Naturphilosophie (Naturdialektik), wobei er die „Thesen der materialistischen Philosophie (als) die Grundthesen der modernen Wissenschaft“ ausweist (26). Hans Heinz Holz weist in seinem Beitrag darauf hin, dass sowohl „die romantische wie die positivistische Einstellung zu Wissenschaft und Technik komplementäre Reaktionen darstellen auf eine wirkliche Ambivalenz im Naturverhältnis des Menschen“ (31), die heute offensichtlich eine Verschärfung erfährt. Um heute das Problem der Produktivität und Destruktivität zu lösen, fordert er einen an Marx orientierten Naturbegriff und eine ontologische Bestimmung des menschlichen Naturverhältnisses (eine materialistische Dialektik der Natur). Anschließend formuliert der sowjetische Wissenschaftler Iwan Prolow eine „Konzeption der globalen Probleme“, deren Charakter sich aus „der Internationalisierung der Produktion und des gesamten gesellschaftlichen Lebens, die unter dem Einfluß der gegenwärtigen wissenschaftlichtechnischen Revolution ein ungeahntes Ausmaß angenommen haben“ (44), sowie aus dem Prozeß antagonistischer Gesellschaftssysteme ergibt. Einen Ausweg sieht Frolow allein in der internationalen Zusammenarbeit. In seinen „Thesen zur Genese und Perspektive kapitalistischer MenschNatur-Beziehungen“ untersucht Karl Hermann Tjaden die „gesellschaftliche Produktivkraft und ökonomische Gesellschaftsformation“ in der industriellen und agrarischen Revolution und folgert daraus, daß „die Produktivkraft einer Gesellschaft (als) längerfristiges, gesainträumliches Verhältnis von gesellschaftlich verfügbarer (lebendiger und vergegenständlichter) Arbeitskraft und gesellschaftlich erzielter (aneignender und erneuender) Naturnutzung zu begreifen ist, was nur die Kehrseite der Naturbeherrschung Rezensionen zum Thema durch diese Gesellschaft ist“ (65). Den existierenden sozialistischen Produktionsweisen wirft Tjaden daher zurecht vor, daß sie kapitalistische Produktionstechnologien fetischisieren, i.e. nicht als spezifisch kapitalistische Produktivkraft begriffen zu haben, und damit auch den Mensch-NaturGegensatz „ererbten“. Gernot Böhmes Artikel „Die Reproduktion von Natur als gesellschaftliche Aufgabe“ dreht sich um die Frage des (Grund-) Rechts auf Natur/Umwelt; er exemplifiziert sie anhand des Paragraphen 341 der Bayrischen Verfassung (1946) und der Prinzipien der Konferenz der Vereinten Nationen über Umweltprobleme in Stockholm (1972), und schlußfolgert „die Möglichkeit einer Umweltgesetzgebung ..., (so) daß Produktionsprozesse zugleich als Prozesse der Reproduktion von Natur anzulegen sind, Konsum mit entsprechender Reproduktionsarbeit ins Gleichgewicht zu bringen ist“ (82). Gerhard Würth unternimmt in seinem Beitrag eine systematische Untersuchung der Umweltprobleme sozialistischer Länder aus der Spezifik ihrer „konkret-historischen und natürlichen Bedingungen ...; dem kapitalistischen Erbe ...; und der systemimmanenten Probleme“ (86 f.). Für ihn sind im Sozialismus grundsätzlich die Voraussetzungen für einen rationellen Umgang mit der Natur gegeben, wobei aber erst sowohl ein neues Verhältnis zur Natur als auch ein neues Produktivkraftsystem zu schaffen wäre, „das eine ‘Ökologisierung’ der Produktion erlaubt“ (88). Der Soziologe Horst Paucke und der Philosoph Adolf Bauer (beide DDR) sehen die Naturaneignung als ein zur wirtschaftlichen Entwicklung konvergentes Ziel (Einheit von Ökonomie und Ökologie), da „die sozialistische Intensivierung des volkswirtschaftlichen Reproduktionsprozesses die Möglichkeit bietet, die dialektische Einheit von Ökologie und Ökonomie zu verwirklichen, da nur eine effektive Volkswirtschaft die benötigten materiell-technischen, finanziellen und sonstigen praxiswirksamen Voraussetzungen für die bewußte Umweltgestaltung schaffen kann und da gleichzeitig die Erhaltung und Verbesserung der natürlichen Umwelt die elementare Grundlage für ein stabiles, dynamisches und dauerhaftes Wachstum (!) bilden, das im Interesse der kontinuierlichen Entwicklung des materiellen und kulturellen Lebensniveaus der Menschen liegt“ (105) - dixi et salvavi anirnam rneam! 2. Abschnitt: Ökologie - Status, Geschichte, Theorie Rezensionen zum Thema Edgar Gärtner versucht den Status der Ökologie im System der Wissenschaften in Analogie zu Medizin und Ökologie zu bestimmen. Die Analogie liegt für ihn in der heute praktizierten kurativen, statt der notwendigen präventiven Anwendung; Ökologie und Medizin müßten nach dem Vorsorgeprinzip alternative gesellschaftlich-natürliche Reproduktionszusammenhänge entwerfen. Dadurch „wäre Ökologie dann unmittelbar mit den gegensätzlichen Naturnutzungsinteressen der Hauptklassen der bürgerlichen Gesellschaft konfrontiert und könnte es kaum vermeiden, offen für die eine oder andere Seite Partei zu ergreifen“ (115) - Ökologie als „subversive Wissenschaft“. Gerhard M. Müllers „Ansichten zur Geschichte der Ökologie“ stellt eine partielle - begriffsgeschichtliche Darstellung zu ‘Ökologie’ in Ansätzen her; und Jean-Marc Drouin (Paris) verdeutlicht in seinem Beitrag das erkenntnistheoretische Modell, „das die Integration und Koordination der Untersuchungen der Vegetation, der Fauna, der Mikroorganismen, der Stoffkreisläufe usw. und ihre gegenseitige Abhängigkeit erlaubt“. Die Schwierigkeit besteht für ihn darin, „die Ökosysteme ohne die menschlichen Gesellschaften zu untersuchen und trotzdem den oft entscheidenden menschlichen Einfluß zu berücksichtigen „ (135). Den Abschluß des zweiten Abschnitts bildet Engelbert Schramms Artikel über „Die Rolle der theoretischen Ökologie bei der Erforschung der sozial konstituierten Natur“ (Konflikt und Perspektiven). Er resümiert, daß die mangelnde Integration von natur- und sozialwissenschaftlichem Wissen (soziale Naturwissenschaft) „keinen fundierten Beitrag zur Bestimmung künftiger Mensch/Natur-Verhältnisse liefern kann“ (147). Nachfolgend kommen Bemerkungen zu Capra: „Ökologie als Paradigma einer ‘spirituellen’ Einheitswissenschaft?“ von Michael Springer und ein Beitrag von Winfried Wessolleck zum „Gesellschaftlichen Werte- und Bewußtseinswandel in der ‘ökologischen Philosophie’“, anhand von M. Maren-Grisebach, A. Gorz, W.D. und C. Hasenclever. Unzweifelhaft haben die ökonomischen Strukturprobleme – die Mißverhältnisse in der sachlichen, räumlichen und zeitlichen Verteilung von Produktivvermögen und Beschäftigten sowie von Investition und Konsum - als auch die ökologischen Strukturprobleme - die Mißverhältnisse zwischen der Auspressung der Arbeitskraft und der Vergeudung von Stoffen und Energien sowie zwischen der Ausplünderung der Natur und der Verfügbarkeit von nützlichen Gebrauchswerten - ein und dieselbe Wurzel: Sie Rezensionen zum Thema vermitteln die Herrschaft der Kapitalverwertung über die lohnabhängige Arbeit und somit den Gegensatz zwischen der wertmäßigen Bereicherung des Kapitals und der gebrauchswertmäßigen Verarmung von menschlicher Arbeitskraft und außermenschlicher Natur. Die Veränderung der Besitzverhältnisse aber, die Form der Aneignung des Mehrprodukts und der politischen Machtverhältnisse einerseits, das Fortwirken kapitalismusspezifischer „technologischer Produktionsstrukturen“ (CzesklebaDupont/Tjaden) andererseits, führt nicht aus sich heraus zu Produktionsverhältnissen, in denen der Widerspruch zwischen Natur und Gesellschaft (zwischen Ökologie und Ökonomie) aufgehoben ist. Hier verlieren sich manche produktiv-marxistische Ansätze in einer Legitimationswissenschaft (-Philosophie). Hervorzuheben seien diesbezüglich vor allem Hollitschers Aufsatz sowie Wessollecks Kritik „grüner Philosophie“. Allein die Fülle des Materials und die Verschiedenheit der Themen (vor allem im zweiten Abschnitt) machen das Buch zur lesenswerten Lektüre. Hans Mittermüller Wolfgang Schirmacher: TECHNIK UND GELASSENHEIT Freiburg, München 1983 (Alber-Verlag) „Technik und Gelassenheit“ betitelt Wolfgang Schirmacher seine Zeitkritik nach Heidegger. Damit ist, wie mit dem Rekurs auf Schopenhauer, ein Bezugsrahmen angedeutet, der geeignet ist, Vorurteile zu wecken. Dennoch, das Buch erzeugt Betroffenheit, wenn man mit den Problemen vertraut ist, man möchte es nicht einfach aus der Hand legen, schließlich ist der tiefe Ernst des Verfassers sichtbar, ahnbar. Wie schon Adorno und Horkheimer versuchten, die Aufklärung mit allem daraus erwachsenen Getriebe für Auschwitz mit verantwortlich zu machen, so wird auch bei Schirmacher die grundlegende Metaphysik unserer Daseinsweise angegriffen, erläutert. Neu sind die Versuche nicht, wenn man auf Oswald Spengler zurückgreift, der vor 50 Jahren über den Menschen und die Technik philosophierte, und die Raubtiermentalität unserer Gattung mit dem Zwang zum Untergang in damals aktueller Manier beklagte, oder bewunderte? Mit dem Begriff: konservatives Denken, Verzicht auf Wissenschaftlichkeit ist W. Schirmacher allein nicht beizukommen. Es steckt Wahrheit und Resignation zugleich in der Analyse. „Das Sein selbst gefährdet sich in uns. Rezensionen zum Thema Daran können wir nicht das geringste ändern“ (S. 24). Schirmacher unterbreitet eine Fundamentalkritik: „Allerdings ist es nun diese Technik, mit der davon geprägten Wissenschaft, Politik und Wirtschaft, die einen Weltzustand hervorruft, der unser Überleben in Frage stellt. Der tägliche Blick in die Zeitung beweist dies zur Genüge“ (S. 13). „Die Umweltkrise verlangt eine Technologie, die über den Menschenverstand geht“ (S. 256). „Wir sind Herren über verbrannte Erde und Subjekte der Zerstörung“ (S. 221). Welches „Wir“ meint W. Schirmacher? Den Werftarbeiter, der keine Schiffe mehr bauen kann, die Schreibkraft, die durch Textautomaten ersetzt wird, den durch Computer abgelösten Technischen Zeichner? Wenn Philosophen doch nicht immer mit so schwerem Geschütz aufwarten würden!! Gute Tradition angelsächsischer Sprachphilosophie lehrt, dunklen Sinn zu vermeiden und Begriffe auf Reichweite zu überprüfen. Wieviele Menschen haben denn Gelegenheit, zum Subjekt nur ihres eigenen Lebens aufzusteigen? Aufklärung fand doch nur in Büchern statt. Daß nach dem 2. Weltkrieg Rüstungsausgaben explodierten, ist richtig, aber doch kein Seinsgeschick, kein „Geschick“ der Technik!! Eine alte, koloniale Welt brach zusammen, alte Konflikte wurden durch neue ersetzt, durch immer noch politische, nicht technische. Die Wahnsinnslogik der Abschreckungs- und Sternenkriegs-Theoretiker ist keine allgemeine des aufgeklärten Menschen. Schirmacher rechnet auch da wieder als allgemeines Denkniveau ab, was nur entscheidende Instanzen sich zu eigen gemacht haben. Wo wird bei uns Denken gefördert? Wer wagt heute Erziehung zum Ungehorsam? Die von Schirmacher zitierten Zeitungen bringen Horrormeldungen als Aufreißer für Verkaufszahlen, sie fragen doch nur in wenigen Fällen nach Ursachen. Daß unsere Medien frei sind, glauben hoffentlich nur noch wenige Leute. Schirmacher fordert in dieser Situation „Gelassenheit“. „So heißt es in der Mitte des tobenden Unheils ruhig zu werden, Abschied zu nehmen von dem, was bisher Mensch hieß ...“ (S. 233). Schirmacher versucht, uns aus einem gängigen Paradigma herauszulotsen. Fehler technischer Verfügung über Natur wieder durch technische Eingriffe heilen zu wollen, heißt in dieser Perspektive, den Teufel mit dem Beizebub austreiben zu wollen. Gibt es eine andere Weise des menschlichen Lebens als die mit Autos, Atomkraftwerken, verdreckten Meeren und sterbenden Wäldern? Rezensionen zum Thema Schirmacher sieht den Untergang dieser Zivilisationsform, die sich wie Krebs über die Erde verbreitet hat. So versucht Schirmacher eine Ahnung davon zu geben, wie sich die herrschende Technik als „Todestechnik“ von einer „Lebenstechnik“ überwinden ließe. Ein gesellschaftliches Paradigma lebt solange, wie es Erfolge im Umgang anbietet. Wir erleben zunehmendes Scheitern der „Zweckrationalität technischer Verfügung“ (Habermas), die Suche nach Neuem ist deshalb angezeigt. Wer Techniker ist, wird sich schwer diesen neuen Blickwinkel, den Sinn eines anderen Paradigmas erarbeiten können. Man kann Schirmachers Buch sicher als Fülle von Beschwörungsformeln begreifen, die zu einer Veränderung der Sichtweise beitragen sollen. In diesem Sinne sollte man Brücken bauen zu fremder Rede, der man so lange Aussagekraft zubilligen soll, wie das Gegenteil nicht bewiesen ist. Trotzdem: Warum stellt Schirmacher nicht die Frage nach dem Zusammenhang zwischen Technik und Herrschaft? Die Zwecke, die Größe und die Art der Technik sind immer Ausdruck von Macht. Wenn uns die Technik Unheil beschert, dann sind es in Wahrheit die Mächtigen. Wolfgang Teune Alfred. Schöpf. (Hrsg.): PHANTASIE ALS ANTHROPOLOGISCHES PROBLEM Würzburg 1981 (Königshausen + Neumann) Für den Leser einer Münchner Zeltschrift für Philosophie dürfte diese Aufsatzsammlung schon nicht zuletzt deshalb von besonderem Interesse sein, weil neben den Autoren um den Würzburger Herausgeber Schöpf (G. Bittner, A. Kessler, P. Prechtl, A. Waschkuhn) vor allem Münchner Wissenschaftler vertreten sind (A. Altmann, W. Henckmann, H. Ottmann, A. Pieper, E. Zeil-Fahlbusch); daß diese München-Würzburger Phalanx Anfang (D. Kamper, Berlin) und Ende (A. Lorenzer, Frankfurt) gewissermaßen von außen empfängt, muß nicht mehr sein als Zufall, trotz der Feststellung des Herausgebers im Vorwort, daß - bezüglich der thematisch geordneten Reihenfolge der einzelnen Beiträge - keine lineare Abfolge beabsichtigt sei, sondern „hier wie bei allen komplexen Phänomenen die Hegelsche Einsicht (gilt), daß das Ende der Gedankenentwicklung stets wieder in den Anfang mündet.“ Rezensionen zum Thema Als Band l einer Reihe „Studien zur Anthropologie“ erwartet den Leser anhand des Begriffs „Phantasie“ eine rekapitulierend-kritische Auseinandersetzung mit der Geschichte der sog. „philosophischen Anthropologie“ vom deutschen Idealismus über Kierkegaard, Nietzsche, Freud bis hin zu Scheler und vor allem Gehlen. Es handelt sich also um den Versuch, die in Erkenntnistheorie, Psychologie, Soziologie, aber auch in der Literaturwissenschaft oder Biologie verstreuten Ansatzpunkte einer sich interdisziplinär verstehenden Anthropologie als mehr oder weniger kritische Anknüpfung an die Konzeption Gehlens zusammenzubringen. Phantasie wäre dann eine zentrale Kategorie einer in diesem Rahmen zu entwickelnden „Phänomenologie des individuellen Geistes“, wie Ottmann Gehlens Theorie nennt (S. 161). (Dieser, vielleicht unbeabsichtigte, ‘kategorische’ Anspruch führt m.E. dazu, daß einige Aufsätze sich z.T. in undurchschaubar komplizierten Gedankengängen und Diskussionen verlieren und so die beklagte einzelwissenschaftliche Befangenheit eher widerspiegeln als auflösen. Darüber kann auch der oft beträchtliche Umfang der herangezogenen Literatur nicht hinwegtrösten, wenn er auch dem Leser wenigstens die Chance gibt, begriffliche Unklarheiten später zu klären.) Eingespannt in die Frage, inwiefern der Einzelne von Phantasie sozusagen ereilt wird (bis hin zur Neurose), inwiefern aber andererseits Phantasie - im Sinne von Einbildungskraft oder Vorstellungsvermögen - notwendige Voraussetzung für schöpferisches Handeln ist, rücken handlungs- und institutionstheoretische Probleme ins Blickfeld. Positiv gewendet wäre Phantasie so das jeweils individuelle Gegenstück zu einer veränderten künstlerisch-wissenschaftlichen Kultur der Gegenwart, wie sie in „Distanz und Nähe“ umrissen wird (siehe S. 120). Mit dem Abstand von vier Jahren muß man jedoch konstatieren, daß sich der Begriff Phantasie selbst bislang nur bedingt als tragfähig erweist. Allerdings scheint mir die vorliegende Einengung und in weiten Teilen gelungene Präzisierung eine brauchbare Grundlage zu sein für einen sinnvollen Umgang mit „Phantasie“ in den aktuellen Auseinandersetzungen um „Utopie“ und „Arbeit“ (vgl. z.B. WIDERSPRUCH 1/84). Gerade der Bezug zur Arbeit kommt leider nur marginal zur Sprache, so daß die kühne These, hier träfe sich Nietzsche mit Freud und Marx (Altmann, S. 122), sehr unvermittelt im Raum stehen bleibt. Hajo Bahner Rezensionen zum Thema W. H. Schrader: ETHIK UND ANTHROPOLOGIE IN DER ENGLISCHEN AUFKLÄRUNG Hamburg 1984 (Meiner-Verlag) W.H. Schrader interpretiert die Entwicklung der Theorie des ‘moral sense’ als den Versuch der englischen Aufklärung, eine in der frühen Neuzeit entstandene Problemsituation zu überwinden, die dadurch gekennzeichnet war, daß der Zusammenhang zwischen dem Wissen um das Gute und dem Tun des Guten fragwürdig geworden sei. Locke hatte Handlungen, die aus unmittelbarem Interesse an Selbsterhaltung erfolgen und das Glück des einzelnen befördern, nur hinsichtlich des intendierten Zieles als ‘gut’ bezeichnet; als in sich selbst gut und tugendhaft aber nur solche, die um der ewigen Seligkeit willen getan werden. Das Wissen um Tugend begründete so nicht notwendigerweise das Interesse, ihr gemäß zu handeln. Ein angemessener Begriff von sittlicher Einsicht konnte sich daher nicht auf theoretisches Wissen beschränken, sondern mußte im Zusammenhang mit Reflexionen über die ‘Natur’ des Handelnden thematisiert werden. Schrader zeigt die Entfaltung dieser Theorie, die beide Momente - die Begründung sittlicher Einsicht Im Rückgriff auf einen moralischen Sinn und die Bestimmung der ‘Natur des Menschen’ - als komplementär auffaßt. So entwickelte Shaftesbury in Anlehnung an Platon und die Stoa einen Ethikbegriff, der Tugend als die Verwirklichung eines durch die Natur gesetzten Zweckes verstand. ‘Moral sense’ ist für Shaftesbury ein elementares, ‘angeborenes’ Wissen um Gut und Böse, über das der Mensch aufgrund seiner Zugehörigkeit zum Gesamtsystem der Natur verfügt. Akkurat und differenziert verfolgt die Studie die Weiterentwicklung und den Wandel dieser Theorie bei Hutcheson und Butler, die im wesentlichen von Mandevilles’ ‘Bienenfabel’ angeregt wurde. Im Gegensatz zu Shaftesbury hatte jener behauptet, daß nur die Negation naturhafter Bestimmung bei Mandeville die ‘Selbstliebe’ - zu Tugend führe. Die Untersuchung schließt ab mit der eingehenden Betrachtung von Humes Ethik, worin Schrader aufzeigt, daß der Begriff des ‘moral sense’ durch den Versuch, Ethik auf eine empirische Basis zu stellen, letztlich überflüssig wird. Einfühlsam und genau zeigt der Autor die Entwicklung der englischen Moralphilosophie vor dem endgültigen Durchbruch des Utilitarismus; sorgfältig und deutlich gegeneinander abgegrenzt werden die Positionen der genannten Theoretiker bestimmt. Gleichwohl kann man sich des Eindrucks nicht erwehren, als hätte all dies Denken in gänzlicher Weltenferne stattge- Rezensionen zum Thema funden. In abgeriegelten Kammern sitzend, schienen die Philosophen sich zu antworten: Shaftesbury auf Bayles Skeptizismus, Mandeville auf Shaftesburys Optimismus usw. Ein Zusammenhang zwischen politisch-sozialem Geschehen und philosophischer Theoriebildung scheint für Schrader, wenn nicht inexistent, so zumindest uninteressant zu sein. Das gleiche wie für den historischen gilt für den geistesgeschichtlichen Kontext. Ein Begriff wie die ‘Natur’ des Menschen, der in seiner Vieldeutigkeit für das ganze 18. Jahrhundert bestimmend blieb, wird eingeführt, ohne mit dem Naturbegriff der mathematischen Naturwissenschaften korreliert zu werden. So verweist zwar der Titel von Schraders Arbeit auf die englische Aufklärung; was aber das Spezifische am Denken dieser Periode ist, kommt m.E. trotz aller Gelehrsamkeit und Brillianz der Studie zu kurz. Angelika Felenda Albrecht Wellmer: „ZUR DIALEKTIK VON MODERNE UND POSTMODERNE“ Frankfurt/Main 1985 (Suhrkamp-Verlag) Mehr als der Titel zeigt der Untertitel der Aufsatzsammlung („Vernunftkritik nach Adorno“) die Tendenz an, mit der die Auswahl der publizierten Texte erfolgte. Drei der vier Essays Wellmers beschäftigen sich explizit mit dem Werk Th.W. Adornos. Er resümiert darin, was an der Rationalitätskritik, die sich im Umfeld der Frankfurter Schule ausgebildet hatte, heute noch (oder schon wieder) aktuell ist. Nicht zufällig bildet dabei die „Ästhetische Theorie“ den Dreh- und Angelpunkt der Auseinandersetzung. Formulierte sich doch in ihr ein ultimatives, der Moderne verpflichtetes Programm. Wellmer konfrontiert, speziell in dem an der „Maison des Sciences de l’Homme“ 1984 gehaltenen Vortrag, die Kritische Theorie mit Positionen, wie sie von den Vertretern einer ‘postmodernen Philosophie’ geltend gemacht werden. Der Begriff der ‘Postmoderne’ selbst erlebte in den letzten Jahren eine geradezu inflationäre Verbreitung. Seit seiner Prägung im Lager der konservativen Politikwissenschaft wird er zunehmend im Bereich der bildenden Künste, Architektur und der Philosophie gebraucht. Mit dem Resultat, daß kaum einer noch zu sagen vermag, was inhaltlich in ihm steckt. Es ist A. Wellmer beizupflichten, wenn er den Begriff ‘Postmoderne’ mit einem Rezensionen zum Thema Vexierbild vergleicht. Einerseits suggeriert er die, mit romantischem Pathos aufgeladene Verurteilung der Rationalität. Zugleich deutet sich durch ihn die Möglichkeit an, an einer selbstkritischen Konzeption der Aufklärung festzuhalten, genauer, Aufklärung über die Aufklärung zu betreiben. Für Adorno und seine Epigonen war trotz aller Kritik am begriffs- bzw. identitätslogischen Denken die Überzeugung leitend, daß Rationalität dieses vermag. Selbst dann noch, wenn die entfaltete Vernunft eine ist, welche durch den Begriff über den Begriff hinausgeht. Mit solchen Prämissen brechen speziell die französischen Theoretiker der Postmoderne und der „posthistorie“. Sie rekurrieren auf lebensphilosophische Termini („Strom des Begehrens“, „Intensität“) und beabsichtigen eine „affirmative Ästhetik“. Da es, nach ihrem Diktum, keinerlei Regeln oder Begründungszusammenhänge gibt, kommt es nur darauf an, das „Jetzt“ in seiner Vielgestaltigkeit zu erfassen. Auffallend ist dabei die Nähe zu Argumentationslinien der neueren Wissenschaftstheorie wie der eines P. Feyerabend, dessen Sinn- und Wissenschaftskritik dahin geht, künstlerische und wissenschaftliche Tätigkeit gleichzusetzen. Und in der Tat macht die Verwendung postmoderner Termini im ästhetischen Bereich Sinn. Wellmer verweist zurecht darauf, daß auch bei Adorno die Kunst der Ort ist, an dem sich die „Dezentrierung“ der Subjekte in der modernen Gesellschaft am eindeutigsten ausdrückt. An dieser Stelle seines Entwicklungsganges versucht Wellmer eine Verbindung der modernen (Adorno verpflichteten) und postmodernen Position. Er tut dies durch einen Rückgriff auf die Spätphilosophie L. Wittgensteins, von der er sich eine Rekonstruktion des Sinnkriteriums erhofft. Da, so Wellmer, die identitätslogische Grundlage Adornos durch die berechtigte postmoderne Kritik obsolet geworden ist, kann nur noch die Möglichkeit eines Pluralismus der Lebensformen und Sprachspiele in Betracht kommen: Vernunft konstituiert sich temporär in ihren jeweiligen Diskurskontexten. Eine über sich aufgeklärte Aufklärung hat dem Versuch einen „alles umschließenden Metadiskurs“ zu konstruieren, abzuschwören. So richtig für mich der Verweis auf die Unmöglichkeit eines in sich abgechlossenen Theoriegebäudes ist, so skeptisch stimmt mich das Unternehmen Wellmers, durch das Einsetzen von Begriffen wie „Sprachspiel“ und „Lebenswelt“ diesen Mangel auszugleichen. Zu groß ist die Gefahr, daß sich konkrete Problernkonstellationen in einer impressionistischen l’art pour l’art-Philosophie auflösen. Und darüber hinaus: eine Lebenswelt ist so gut wie die andere. Wie aber erklärt sich dann der Umstand, daß faktisch die Rezensionen zum Thema eine über die andere dominiert? Es spricht für Wellmer, die von mir angedeutete Problemstellung zumindestens zu konstatieren. Die aufgeklärte Philosophie der Postmoderne bleibt fragmentarisch: „Die Postmoderne, richtig verstanden, wäre ein Projekt. Der Postmodernismus aber, soweit er wirklich mehr ist als eine bloße Mode, ein Ausdruck der Regression oder eine neue Ideologie, ließe sich am ehesten noch verstehen als eine Suchbewegung, als ein Versuch, Spuren der Veränderung zu registrieren und die Konturen jenes Projektes schärfer hervortreten zu lassen“ (A. Wellmer). Thomas Wimmer Bernd Witte: WALTER BENJAMIN Reinbek b. Hamburg 1985 (Rowohlt-Verlag) Es wäre unangemessen, vorbehaltlos systematische Maßstäbe biographischer Werkerschließung an einführende Bereitstellungen biographischen Materials anzulegen, wie sie mit dem verlegerischen Konzept der Rowohltmonographien vorgesehen sind. Wittes Arbeit über Walter Benjamin allerdings kann aus zwei Gründen kaum anders als unter Veranschlagung von Gesichtspunkten systematischer Deutung eingeschätzt werden. Zum einen zeigt die Arbeit in Teilen systematische Tendenzen, die dem Blick auf eine breitere Leserschaft nicht gerecht werden können. Zum anderen vermittelt sie in Teilen ein pointiertes Benjaminbild, das einer systematischen Deutung nicht standhält, gleichwohl aber auch im Feld der verwendeten Darstellungsmittel nicht überprüfbar ist. Um Mißverständnissen vorzubeugen, sei angemerkt, daß hier nicht Gesichtspunkte wissenschaftlicher Biographien gegen eine eher popularisierende Einführung in das Werk eines Autors ausgespielt werden sollen. Einer im Blick auf ein breites Adressatenfeld geschriebenen Einführung sollte als Maßstab wichtig sein, weder durch Spezialistentum noch durch erzwungene Glätte eine weitere Auseinandersetzung mit dem Dargestellten zu gefährden. Bernd Wittes Benjaminbiographie trägt Züge der Arbeit eines Spezialisten, der sich im Unspezialisierten versucht. In den verschiedenen Teilen der Biographie kommt dies mit jeweils ungleichem Anteil zum Ausdruck. In den Kapiteln, die sich auf das Frühwerk und die Jahre bis 1933 beziehen, geht es Witte um die Frage einer Kontinuität Benjaminschen Arbeitens in methodischer Hinsicht. Entsprechendes Gewicht wird der Frage beigemes- Rezensionen zum Thema sen, in welchem Verhältnis die Kulturphilosophie des sich zum „dialektischen Materialisten“ ‘wandelnden’ Benjamin (65) zu den Anfängen steht. Der Vergleich gilt vor allem der frühen Romantikarbeit (30 ff.), dem Gedanken einer Konstituierung des Ästhetischen durch ästhetische ‘Ideale ‘ über ein transzendentales Verfahren der ‘Kritik’. Witte schafft vergleichende Bezüge, wenn er im Kapitel über die Jahre 1926 – 1929 schreibt, Benjamins „Politik“ habe die Absicht, „eingreifendes Wissen zu erzeugen“ durch „Erkennen des rechten Augenblicks für den rettenden Eingriff“ (67). Welcher Leserschaft aber wird die hier angedeutete Analogisierung der Funktion ästhetischer ‘Ideale’ und der geschichtsbildenden Funktion politischer ‘Ideale’ deutlich? Kann solche Deutung überhaupt durch das Darstellungsmittel der Quellendokumentation nachvollziehbar werden? Es sei darauf hingewiesen, daß die besagten Kapitel inhaltlich eng an eine Arbeit B. Wittes über Benjamins Frühwerk angelehnt sind (Walter Benjamin, Der Intellektuelle als Kritiker, Stuttgart 1976). Als Leitfaden der Benjaminbiographie Wittes kann ein Topos der ‘Suche’ nach einer „Synthese von theologischer und materialistischer“ Weltsicht (92) herausgestellt werden. Aus Wittes Sicht findet diese ‘Suche’ Abschluß in Leben und Werk. Die Deutung des Spätwerkes ist vornehmlich durch diesen Gedanken geleitet. Er kommentiert Benjamins Selbstverständnis zu Lebensende als das des „dialektischen Materialisten, der ohne Hoffnung auf und für die Menschen“ „sich der eschatologischen Katastrophe anvertrauen“ müsse (135). Dies ist gleichwohl als Schlußkommentar zum Werk zu lesen; zu finden unmittelbar vor dem Schlußabschnitt der Biographie, der sich auf den Suizid des verfolgten Benjamin (1940) bezieht. Die Hybris des Schlußkommentars zum Werk zehrt mit vom Blick auf ein Lebensende in Verzweiflung. Es bleibt der Hinweis auf eine - wenn auch negative - heilsgeschichtliche Vision Benjamins. In B. Wittes Bild des späten Benjamin werden methodische Vorstellungen (und Schwierigkeiten) Benjaminscher Kulturkritik auf die Krisis einer verinnerlichten „Theologie-Marxismus-Debatte’ hin verengt, im Werk letztlich beigelegt durch eine versöhnende Metamorphose von Politik und Religion (134). Die letzten Arbeiten Benjamins, ein Teil der „Passagen“ und die Thesen „Über den Begriff der Geschichte“ entziehen sich dem exklusiven Bild jedoch gerade da, wo sie Gegenstand von Bedenken werden, eigener Bedenken und der anderer. In den Notizen und Vorarbeiten zu den Thesen „Über den Begriff der Geschichte“ geht es Benjamin in weiten Teilen um Schwierigkeiten, die das als ‘materialistisch’ verstandene Verfahren der Umdeutung religiöser und theologischer Tradition betreffen. Benjamin reflektiert die eigene Tendenz, das Gedankengut solcher Tradition zugleich Rezensionen zum Thema reflektiert und in gewisser Weise unmodifiziert zur Geltung bringen zu wollen. Benjamins Überlegungen münden in die schwierige apologetische Operation, sich letztlich mit der vermeintlichen Kohärenz ‘falschen Bewußtseins’ zu begnügen. In den Notizen und Vorarbeiten zu den Thesen „Über den Begriff der Geschichte“ ist zu lesen: „Mag sein, daß die Kontinuität der Tradition Schein ist. Aber dann stiftet eben die Beständigkeit dieses Scheins der Beständigkeit die Kontinuität in ihr“ (Ges.Schr., Bd. I, S. 1236). Benjamin sieht eine Freilegung oder Konstruktion profaner Gehalte religiöser Utopien als Freilegung je schon enthaltener profaner Antworten auf eine ‘schlechte’ Wirklichkeit an. Seine Version ‘materialistischer’ Kulturkritik grenzt sich damit ab von solchen Positionen, die im Sinne der Marxschen Religionskritik von einer geschlossenen kategorialen Änderung des Kritisierten über den Weg der Kritik ausgehen. Gerade aber dieses Vertrauen in die Freilegung impliziter profaner Gehalte der theologischen Tradition hat Benjamin von Adornos Seite den Vorwurf eines Automatismus der Kritik eingebracht. Einer der Baudelairearbeiten Benjamins aus dem Umfeld des Passagenentwurfs warf er vulgärmarxistische Züge vor. Es soll hier nicht eine Lesart der späten Arbeiten Benjamins für andere verbindlich gemacht werden. Auch kann nicht von einer einführenden Biographie die ausführliche Auseinandersetzung mit methodologischen Kontroversen erwartet werden. Die Theologie-Marxismus-Polarisierung des von B. Witte vermittelten Benjaminbildes jedoch ist problematisch, weil sie zu pointiert und zu anspruchslos zugleich ist. Trotz vorbereitender Ansätze wird der Umstand übergangen, daß in Benjamins Spätwerk Verfahrensfragen ein entscheidendes Gewicht zukommt. I. Knips In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 145-164 Berichte Berichte Anton Friedrich Koch: Verknüpfende Analyse und deskriptive Metaphysik Die ersten Kant-Vorlesungen an der Universität München wurden im Sommersemester 1985 von Sir Peter Strawson aus Oxford gehalten und standen unter dem Titel 'Analyse und Metaphysik'. Strawsons Metaphysikbegriff war aus seinem Buch Individuals (1959; dt. Einzelding und logisches Subjekt, 1972) bereits bekannt. Er unterscheidet dort zwischen deskriptiver Metaphysik, die sich damit begnügt, „die tatsächliche Struktur unseres Denkens über die Welt zu beschreiben“, und revisionärer Metaphysik, die das Ziel hat, „eine bessere Struktur hervorzubringen“, und optiert für die erstere (Einzelding, S. 9). Strawsons Analysebegriff ist nun durch die Kant-Vorlesungen in seiner theoretischen Funktion und seinem Verhältnis zum Metaphysikbegriff sowohl deutlich umrissen als auch in philosophischer Arbeit exemplifiziert worden. Die Art der Analyse, die Strawson favorisiert und die positiv auf das Unternehmen der deskriptiven Metaphysik bezogen ist, nennt er verknüpfend („connective analysis“) im Unterschied zu den gewöhnlichen Formen der eliminierenden, definierenden oder zurückführenden Analyse. Wie die deskriptive Metaphysik gegenüber der revisionären, so zeichnet sich die verknüpfende Analyse gegenüber der zurückführenden durch Genügsamkeit aus. Für die letztere ist das Auftauchen eines zu analysierenden Begriffes im Analysans ein fehlerhafter Zirkel. Die verknüpfende Analyse hingegen nimmt Zirkularität in Kauf, vorausgesetzt, daß die Zirkel nicht zu eng sind. Wer in weitem Kreise geht, so ist die Hoffnung, kehrt belehrt zurück. Berichte Vielleicht ist an dieser Stelle ein Beispiel hilfreich. Doch weite Kreise brauchen Platz. Der Zirkel, der hier zur Illustration dienen soll, ist daher enttäuschend eng. Nehmen wir an, es wird folgende Analyse in drei Schritten für den Ausdruck 'analytisch' selber vorgeschlagen (in Anwendung auf Sätze): (1) Ein Satz ist analytisch wahr, wenn und nur wenn er wahr ist kraft der Bedeutungen seiner Termini und kraft logischer Gesetze. (2) Die Bedeutung eines Terminus A ist das Gemeinsame aller (einfachen oder komplexen) Termini, die mit A synonym sind (Synonymie als Äquivalenzrelation verstanden. (3) Zwei generelle (singuläre) Termini A und B sind synonym, wenn und nur wenn der Satz „(x) (Ax !> Bx)“ (die Gleichung „A=B“) analytisch wahr ist. Offenkundig führt das Analysans von (3) zum Analysandum von (1) zurück; der Kreis ist zu eng, um zu belehren. Aber er ist ausbaufähig. Stellt man ihn sich um einige naheliegende Schritte erweitert vor, in denen Ausdrücke wie 'notwendig', 'möglich', 'Eigenschaft', 'Proposition' und vielleicht auch einige der sog. psychologischen Verben ('glauben', 'beabsichtigen', 'hoffen' usw.) auftreten, so bekommt man ein Gefühl für den Erkenntniswert der verknüpfenden Analyse. Freilich auch für ihre prinzipiellen Grenzen: Sie ist die natürliche Methode einer Metaphysik, die sich als beschreibend versteht, und Beschreibung ist im allgemeinen nicht Erklärung. Die affirmative Bezugnahme auf die - wenn auch nur als beschreibend gedachte - Metaphysik war 1959 ein Affront gegen die 'ordinary language philosophy'. Aber schon damals konstatierte Strawson auch Gemeinsamkeiten. Sie fallen, man ahnt es, unter das Lösungswort 'Analyse'. Die 'ordinary language philosophy' pflegte die begriffliche Einzelanalyse (nichtzirkulärer Art, versteht sich; klassisch in der Form von Beschreibungen der Verwendungen von Ausdrücken) und hielt philosophische Theoriebildung für die Wurzel alles Verkehrten. Strawson empfahl dagegen die deskriptive Metaphysik als eine Art der philosophischen Theoriebildung, die selber nichts anderes ist als Analyse - „nicht durch die Art, sondern nur durch Umfang und Allgemeinheit der Fragestellung“ (Einzelding, S. 9) von dem unterschieden, was ordinary-language-Philosophen lieb und teuer war. Wie diese sich einzelner, isolierbarer Sprachspiele annahmen, so zielt jene auf das eine große Sprachspiel, auf „die allgemeinsten Grundzüge unserer begrifflichen Strukturen“ (ebd.) Berichte Doch diese Nachbarschaft, die 1959 in England ein guter Leumund sein mochte, wurde 1985 in München vielfach als Handikap empfunden. Die vorgetragenen Analysen – nicht nur in den Kant-Vorlesungen, sondern auch im Seminar, in dem Prof. Strawson einige seiner neueren Arbeiten vorstellte - ernteten viel Bewunderung (insbesondere für die in der kontinentalen Tradition zu oft entbehrte Sorgfalt im Detail) und wenig Kritik. Auf Kritik, die dann aber keine rechte Angriffsfläche fand, stieß dagegen die Strawsonsche Grundsatzentscheidung, die verknüpfende Analyse der beschreibenden Metaphysik als letzten Horizont philosophischer Methode gelten zu lassen. In diesem Zusammenhang ist es bemerkenswert, daß Strawson als Alternative zur beschreibenden Metaphysik allein die revisionäre Metaphysik kennt oder jedenfalls nennt. Deren Ziel soll es sein, die Struktur unseres Denkens über die Welt zu revidieren. Für kontinentale Gemüter liegt es auf der Hand, daß die so konzipierte Alternative eklatant unvollständig ist. Die Klassiker unserer Tradition hatten meist ein Drittes im Sinn: weder bloße Beschreibung noch einfache Revision, sondern Ableitung der Struktur unseres gewöhnlichen Denkens aus ursprünglicheren, grundlegenden und zugegebenermaßen 'ungewöhnlichen' Strukturen (wobei die Ableitung Kritik und Relativierung des Abgeleiteten beinhalten kann). Dieses Theorieprogramm, für das wir dem deutschen Idealismus dankbar sind, hält Strawson für chancenlos. Einer anderen Form philosophischer Theoriebildung, die auch nicht recht unter die Rubriken der beschreibenden und der revidierenden Metaphysik paßt, schenkt er sehr viel mehr Aufmerksamkeit: der naturalisierten Erkenntnistheorie Quines. Quine war nicht nur das Thema der letzten Vorlesungsstunde, er lieferte auch in den Seminardiskussionen häufig die Kontrastfolie zu Strawsons eigenem Ansatz. Wohlbekannt ist Quines naturalistische These, daß es keinen Standpunkt außerhalb des Gesamtsystems der Einzelwissenschaften gibt, auf dem sich eine artverschiedene erste Wissenschaft als Philosophie etablieren könnte. Geht man nun das Gesamtsystem gewissermaßen von 'innen' nach 'außen' durch, so wird man als Subsysteme zunächst die Logik, die Mathematik, die theoretische Physik vorfinden, später u.a. die Biologie und noch später die Psychologie. („Physics investigates the essential nature of the world, and biology describes a local bump. Psychology, human psychology, describes a bump on the bump.“ Theories and Things, 1981, S. 93) Die Philosophie jedoch fehlt in dieser Reihe. Sie hat weder außerhalb noch innerhalb des Systems der wissen- Berichte schaftlichen Subsysteme ihren Platz, sie ist vielmehr das Gesamtsystem auf sich selber gerichtet (Theories and Things, S. 85). D.h. sie ist die wissenschaftliche Beantwortung der Frage: 'Wie ist wissenschaftliche Erkenntnis möglich?'. (De facto wird freilich in der Philosophie meist nur der revisionsunanfällige Kern der Gesamtwissenschaft - also Logik, Mengenlehre, etwas Methodologie der empirischen Wissenschaften - auf das Gesamtsystem gerichtet. Daher ihr relativ apriorischer Charakter.) In der Folge dieses herben Szientismus sind erhöhte Ansprüche an die Klarheit und Bestimmtheit der philosophischen Terminologie zu stellen. Die unkritische Übernahme umgangssprachlich hinreichend bestimmter Begriffe für die philosophische Theoriebildung wird unterbunden. Ausdrücke wie 'analytisch', 'Bedeutung', 'synonym' fallen, trotz ihrer intuitiven Eingängigkeit, als Termini technici durch. Sie und ihresgleichen werden von Quine als wesentlich umgangssprachlich, als unbehebbar theorieunfähig eingestuft. Ebenso prinzipiell vorwissenschaftlich ist die verknüpfende Analyse der deskriptiven Metaphysik. Wer nun aber gehofft hatte, der Strawsonschen Analyse und Metaphysik mit Quines Naturalismus ein rotes Tuch vorhalten zu können, wurde enttäuscht - und belehrt. Es stellte sich deutlich heraus, daß Strawson und Quine zu heterogene Ziele verfolgen. Die deskriptive Metaphysik bescheidet sich bewußt mit 'weichem', unbehebbar vorwissenschaftlichem Wissen und gewinnt so freiere Hand in der Begriffsbildung. Quine hingegen, ohne im übrigen das weiche Wissen der Umgangssprache zu verachten, sucht in seiner Rolle als Theoretiker 'hartes', wissenschaftliches Wissen und wirkliche Erklärung. Quine kann Strawsons deskriptive Metaphysik daher wohlwollend tolerieren, solange diese nicht beansprucht, Wissenschaft im strengen Sinne zu sein; und Strawson kann Quines naturalisierte Philosophie wohlwollend tolerieren, solange diese nicht beansprucht, alles überhaupt Sagenswerte in Fragen der Ontologie, Semantik, Erkenntnistheorie und Philosophie des Geistes bereits sagen zu können. Die (Umgangs-)Sprache ist Quine zufolge „in Sünde empfangen, und die Wissenschaft ist ihre Erlösung“ (The Roots of Reference, 1973, § 18). Erlösung ist nicht Ablösung, d.h. die Umgangssprache ist - natürlich - „there to stay“. Die Wissenschaft samt der wissenschaftlichen Philosophie bildet, um die Metapher ein wenig zu strapazieren, nur einen heiligen Bezirk inmitten des Chaos, den wir der Umgangssprache mit anfangs selber umgangssprachlichen Mitteln abringen, um unseren wissensdurstigen Seelen einen Berichte Ort der Einkehr und der wahren epistemischen Befriedigung zu bereiten. Strawson erweist sich im Sinne dieser Beschreibung als hartgesotten in seiner Erlösungsunbedürftigkeit. Aber er verfolgt das immer strebende Bemühen anderer mit Interesse und Sympathie. Hans Mittermüller: MARXISMUS VERSUS MARXISMEN: Zur ideologischen Auseinandersetzung zwischen der Zeitschrift „DAS ARGUMENT“ mit dem „Institut für marxistische Studien und Forschungen e.V.“ (IMSF) und der Deutschen Kommunistischen Partei (DKP) Mit dem Scheitern des sozialdemokratisch-keynesianischen Modells folgt mit der konservativen Wende eine neue Akkumulationsstrategie und ein neues Herrschaf tsprojekt, deren ökonomisch-technologische und soziale Konturen in der Bundesrepublik allmählich sichtbar werden: Basis der neuen Akkumulationsstrategie ist die Entwicklung und Anwendung sog. neuer Schlüsseltechnologien (Mikroelektronik, Informationsund Kommunikationstechnik, Biotechnologie, Industrieroboter). Dieser ökonomisch-technologische Restrukturierungsprozeß führt zu tiefgreifenden klassenstrukturellen Veränderungen, und zwar bei Kapital und Arbeit gleichermaßen. Auf Seiten des Kapitals findet eine Umschichtung weg von traditionellen Branchen, aber auch technologischen Großprojekten, hin zu hochinnovativen „schumpeterschen“ Mittelunternehmen, statt. Auch innerhalb des exportorientierten „Kern''sektors erfolgen Verschiebungen, die nicht nur gewachsene Organisationsstrukturen verändern, sondern auch die Beziehungen der Kapitalgrößen untereinander. - Auf der Seite der Arbeiterklasse verstärken sich die Prozesse sozialer Desintegration, die zusammen mit Dauerarbeitslosigkeit und peripheren Arbeitsmärkten die Funktion des neuen Akkumulationsmodells garantieren (sollen). Damit verbunden nehmen sog. „kulturelle Freisetzungsprozesse“ zu: das Zerbrechen traditioneller Orientierungen und instrumenteller Neuorientierungen, wachsende Differenzierungen der Lebensweisen, Individualismus und Selbstverwirklichungsansprüche. Neue soziale Bewegungen bildeten sich als politisch-ideologische und lebenspraktische Opposition zu herrschenden kapitalistischen und bürokratisch-etatistischen Vergesellschaf- Berichte tungsweisen („Zweite Gesellschaft“) heraus. Hinzu kam der auf niedrigem Niveau entgegengesetzte Widerstand der Arbeiterklasse und ihren Organisationen, sowie der Umgruppierungsprozeß innerhalb der Linken (Esser/Hirsch, 58 f.). Vor diesem Hintergrund kam es in der Bundesrepublik anläßlich seines 100. Todesjahres zur geistig-ideologischen Selbstverständigung über Karl Marx. Im Spektrum der Marx-Rezeption bzw. -Diskussion waren es vor allem zwei repräsentative Tendenzen, die die Auseinandersetzung bestimmten: die des „orthodoxen“ Marxismus-Leninismus des „Instituts für marxistische Studien und Forschungen e.V.“ (IMSF), resp. Der DKP und die des „pluralen Marxismus“ der Zeitschrift für Philosophie und Sozialwissenschaften „Das Argument“. I. Unter dem Eindruck der „Krise des Marxismus“ (Althusser 1978) plädierte H.F. Haug, mit Frigga Haug Herausgeber des 'Arguments', „für die Annahme der Dialektik des Marxismus ..., einer marxistischen Selbstkritik der vorhandenen Erkenntnisse, Denkmittel und Veränderungsstrategien hin zu einem plurizentrischen Marxismus“ (Haug 1983, 8 ff.); denn „den Marxismus gibt es nicht, es gibt Marxismen. Der Marxismus existiert in der Mehrzahl“ (Haug 1982, 361). Für ihn kann daher keine Richtung und keine Partei einen Alleinvertretungsanspruch in Sachen Marxismus erheben, da „der Polyzentrismus des Weltmarxismus unwiderruflich Wirklichkeit geworden (ist)“ (Haug 1983, 31). Gegen die „autoritären Staatssozialismen“ (ebd., 10) und den Marxismus-Leninismus, einen „Marxismus, erhoben zur Staatsphilosophie und dadurch zurückgestuft in die Reihe der Ideologien“ (Haug 1984, 88), unternimmt Haug den Versuch, „die Dialektik des Marxismus zu denken“: „... eine dialektische Theorie des Marxismus wird einem ganzen Spiel von Instanzen Rechnung tragen, deren Logiken unaufhebbar unterschiedlich sind. Der entscheidende Akzent liegt dann auf der praktischen Notwendigkeit bzw. auf den Notwendigkeiten des Marxismus, d.h. auf den Berichte großen Problemen der gesellschaftlichen Menschheit, für deren Lösung er gebraucht wird und in bezug auf die er nichts anderes ist, als die sozialen Bewegungen, das Wissen, das umfassende Projekt der Lösung jener Probleme ... Wo seine Formationen gegen die praktischen Notwendigkeiten sich verknöchern, müssen sie früher oder später fallen, nicht ohne zuvor zu neuartigen Gefängnissen zu werden. Der Rahmen der 'Lehre' ist selbst nicht Lehre. Lehren, Methoden. Sichtweisen müssen im Rahmen der Verhältnisse, Notwendigkeiten, Gefahren und Hoffnungen aufgefaßt werden, innerhalb dessen der Marxismus als die konsequenteste und umfassendste Befreiungsbewegung der Arbeitenden und als das Projekt einer solidarischen und ökologisch verträglichen Gesellschaft auftritt. Nur ein dialektischer Marxismus ist fähig, weltweit die Dialektik von Universalität und Spezifik in sich aufzunehmen. Und nur ein Marxismus, der diese Dialektik in sich aufgenommen hat, ist sowohl fähig, weit-weit zu werden, als auch über seiner dabei unvermeidlich plurizentrisch gewordenen Realität nicht seinen inneren Zusammenhang zu verlieren“ (Haug 1984, 89). Wissenschaftlicher Sozialismus bedingt nach Haug also ein dialektisches Verhältnis von unterschiedlichen Kräften und Praxisfeldern, z.B. Parteipolitik, Gewerkschaften, Wissenschaften usw., wobei diese Ebenen nicht aufeinander reduziert werden dürfen. Umgekehrt aber darf auch die marxistische Theorie oder Wissenschaft nicht auf den Marxismus reduziert werden, denn „die Wissenschaft ist (ein) unabschließbarer Prozeß - wie der (zur) 'Wissenschaft gewordene' Sozialismus. Dieser Prozeß ist notwendig kontrovers, vielstimmig, vorangetrieben von Divergenzen, von Tendenzen, die gegeneinander selbständig bleiben müssen. Die Logik des wissenschaft- Berichte lichen Prozesses ist unvereinbar mit der Logik hierarchischer Administration von einem Machtzentrum aus, unvereinbar mit der Subordination unter Logiken der politischen Organisation“ (Haug 1983, 18). Wissenschaft kann nicht auf Politik reduziert werden (das LyssenkoSyndrom), da auch der zur Wissenschaft gewordene Sozialismus wie eine Wissenschaft zu behandeln sei. Für den wissenschaftlichen Sozialismus wie für den Marxismus postuliert Haug einen Typus von Einheit, der die Unterschiede nicht auslöscht; für die „Handlungsfähigkeit eines Marxismus von morgen (müßte) den Marxisten billig sein, was den christlichen Kirchen nach langen Kämpfen recht war: Die Ausbildung einer marxistischen Ökumene, eine produktive Konvergenz auch in der Divergenz der unterschiedlichen Marxismen“ (ebd., 31). Im Sinne von Togliattis „unita nella diversita, der Einheit in der Unterschiedenheit und vollen Autonomie der einzelnen Länder“ und eines „demokratischen polyzentrischen Sozialismus“, entspricht für Haug der Anerkennung des politischen Polyzentrismus der marxistischen Arbeiterbewegung in der Welt die Arbeit an einer Politikstruktur, die einen produktiveren Umgang mit dem gesellschaftlichen 'Multiversum' im Inneren jedes einzelnen Landes ermöglicht - ein pluraler Marxismus. „Pluraler Marxismus - ... ist die Anerkennung der Tatsache, daß es im Weltmaßstab unterschiedliche Ausprägungen des Marxismus gibt. Dies führt zur Anstrengung, gegen den spontanen Eurozentrismus anzuarbeiten, sowie den Zusammenhang der 'drei Welten', ihre Wechselwirkung zu berücksichtigen. Der Marxismus ist vom Hegelschen Hause aus nicht gut vorbereitet für diese Aufgabe ... Es gilt daher, die ererbten theoretischen Artikulationsmuster zu überprüfen. Der lebendige Marxismus selbst in ein 'gegliedertes Ganzes', dessen Einheit nicht einfach gegeben, Berichte sondern immer wieder aufgegeben ist ... Ein Marxismus, der seine Einheit in der Pluralität immer wieder neu herzustellen gelernt hat, wird handlungsfähiger sein im Umgang mit den unterschiedlichen gesellschaftlichen Kräften und Fragen ... Pluraler Marxismus (als selbstkritische Korrektur an der Hede von den ' Marxismen '; W.F. Haug) hat also eine dreifache Bedeutung, bezogen auf seine eigene theoretische 'Grammatik ', sein nationales Politikmuster und seine internationale Stellung ... Seine Aufgabe bezeichnet den Widerspruch zwischen dem Pluralen und der Einzahl von Marxismus. (Seine) Formel steht für die Einheit in der Vielfalt“ (W.F. Haug, Pluraler Marxismus, Vorwort, Berlin 1985). Ganz im Sinne, den unterschiedlichen Tendenzen des gegenwärtigen Marxismus Rechnung zu tragen, edierte daher Haug die Übertragung des „Dictionnaire critique du Marxisrne“ (Hrsg. Georg Labica, Paris 1981) ins Deutsche, das „Kritische Wörterbuch des Marxismus“ (Berlin 1983 ff.). Der Marxismus wird in diesem, der Aufklärung verpflichteten, Projekt nicht vorgestellt als einheitliches, geschlossenes System von Lehren. Vielmehr geht es um ein marxistisches Verhältnis zu den Begriffen der marxistischen Theorie, um dem Selbstlauf einer permanenten Erstarrung des Projekts 'Marxismus' mit permanenter Wiederaneignung zu begegnen (Haug 1983 a u. 1983 b); denn eine „Tilgung von 'Kritik' aus dem legitimen Bestand 'der Begriffe und Kategorien des Marxismus' (MEGA2 II.5,59+) läuft auf eine Selbstaushöhlung des Marxismus-Leninismus hinaus“ (Haug 1984 a, 909). II. Der erste Einwand gegen das Konzept des „Pluralen Marxismus“ kam 1983 von Manfred Buhr, dem Direktor des Zentralinstituts der Akademie der Wissenschaften der DDR in Berlin. Im Zusammenhang mit der Auseinandersetzung mit der bürgerlichen Ideologie im Marx-Jahr warf Buhr unter anderem Haug vor, den Marxismus durch seine Pluralisierung zu „ent Berichte mannen“ und der revolutionären Arbeiterklasse damit ein selbstmörderisches Angebot zu machen. „Um das Singuläre, das Marx heißt, aus der Welt zu schaffen, wird für den Marxismus der Singular abgeschafft, für diesen gibt es nur den Plural“ (Buhr, 656). Er rechnete Haugs Konzept dem „ideologischen Sumpf“ (ebd., 661) der BRD und Westberlins zu und betrachtete es als „Fehleinschätzung“, wenn bundesdeutsche Marxisten, wie Robert Steigerwald und Thomas Metscher, diesem Ansatz eine „beträchliche Wirkung“ bescheinigten. Auch von anderer Seite in der DDR sah man im „Argument“ einen Vertreter des „linksbürgerlichen Denkens“ und eine „Nähe zum bürgerlichen Idealismus“ infolge des Auseinanderreißens verschiedener gesellschaftlicher Bereiche (Ökonomie, Politik, Ideologie), wobei letztlich dem Ideologischen der Vorrang eingeräumt würde. „Sie werden - oder sind – damit unfähig, politisches Handeln wirklich zu orientieren“ (Heppener/Wrona, 518, 523). Im Unterschied dazu sehen allerdings die Vertreter des IMSF in Frankfurt in der Auseinandersetzung mit den Positionen des „Arguments“ keine unangebrachte „Überhöhung von Zufälligkeiten“ (Buhr, 661), sondern förderten die inhaltliche Auseinandersetzung, die in dem Band von H.H. Holz (Hrsg.), „Marxismus - Ideologie - Politik. Krise des Marxismus oder Krise des 'Arguments'?“ (Frankfurt/Main 1964) kulminierte. In ihrem Überblick über die Haupttendenzen bundesdeutscher MarxRezeptionen wurde im Marx-Jahr seitens des IMSF ein „revisionistischer Rückwärtsgang beim 'Argument“' (Jung/Schwarz, 352) festgestellt. Heinz Jung, der Leiter des IMSF, hätte sich von Haug „etwas mehr Dialektik gewünscht, die ja dann den Blick für das produktive Verhältnis hätte öffnen können, ein produktives Verhältnis, das freilich immer das praktische Engagement, die offene Parteinahme des Intellektuellen gefordert hat ... Haug (dagegen) suggeriere letztlich Zerrbilder der kommunistischen Bewegung und des Sozialismus“ (Jung/Schwarz, 354). Winfried Schwarz, ebenfalls Mitarbeiter am IMSF, kritisiert an Haug: „(Seine) Dialektik-Inszenierung (ist) ... eine Anklage gegen Auslegungsmonopole in Sachen Marxismus: gegen den Monopolanspruch einer Partei, gegen den Monopolanspruch der Form Partei ... Berichte ein Angriff auf die Parteiorientierung ... als Attacke gegen die Praxisorientierung überhaupt, (da) Haug von der marxistischen Wissenschaft nicht nur Selbständigkeit, sondern darüber hinaus die vollständige Trennung der Wissenschaft von der Orientierung an einer politischen Organisation verlange“ (Schwarz, 347 ff.). Mit „Marx über Lenin und Luxemburg bis Gramsci“ hält Schwarz Haug ferner entgegen, daß sie die „stets notwendige Offenheit des Marxismus für neue Probleme nicht verwechselt haben mit Öffnung des Marxismus für andere, ihm theoretisch und methodisch fremde Strömungen“ (ebd., 350). Und Hans Jörg Sandkühler fügt hinzu, daß Haug das marxistische Erbe „nicht als Prozeß und langsame Akkumulation des Reichtums an Erfahrung und an Wissen wahrgenommen“ habe; „dann liegt es nahe, an die Stelle des Studiums des Marxismus die Rede von dessen Krise treten zu lassen“ (Sandkühler, 163). Von Seiten der DKP sahen die beiden Parteivorstandsmitglieder Willi Gerns und Robert Steigerwald in Haugs „pluralen Marxismus“ eine Empfehlung zum Relativismus und konstatieren eine „Beliebigkeit oder Unverbindlichkeit“ des Marxismus: „Haug“, so argumentieren seine Kritiker, „bringt einfach zwei verschiedene Fragen durcheinander, die, was Marxismus ist, und die andere, wie in der Arbeiterbewegung der Prozeß der politischen Entscheidungsfindung zu regeln sei. Oder die der Erkenntnis objektiver Sachverhalte (also die erkenntnistheoretische Fragestellung) mit jener der Ermittlung des politischen Konsenses (also die Demokratiefrage) ... (Seine) Polyzentrismus-These schaffe das Problem der Entscheidungszentren nicht aus der Welt, sondern multipliziert es nur ... Eines seiner treibenden Motive ist die Angst vor der Partei, der Organisation, den Apparaten und Bürokratien ... (Aber) ein Marxismus ohne marxistische Partei ist und bleibt ein amputierter Marxismus ... So bleibt für das 'Argument' nur die Möglichkeit, die These vom 'pluralen Marxismus' damit zu begründen, daß es neben dem wirklichen Marxismus Berichte sich marxistisch nennende Konzeptionen gibt, in denen Grundsätze des Marxismus über Bord geworfen werden“ (Gerns/Steigerwald, 67 ff.). Gemeinsam ist den Kritikern von Haugs Konzept, daß Haugs Position „eben nicht mehr Marxismus (ist), sondern der bewußte Versuch, nichtmarxistische Gedanken unter dem Zeichen eines 'polyzentrischen Marxismus' zu etablieren und gleichzeitig prinzipielle Kritik seitens der Marxisten-Leninisten auszugrenzen“ (Holz u.a., 7). Da man in den „Westberliner“ Positionen „Legenden statt Argumente“ (Maase, 87 ff.) sah, mußte die Einladung zur Mitarbeit an der deutschen Ausgabe des „Kritischen Wörterbuchs des Marxismus“ (KWM) folgerichtig zur Absage führen. Weder „eine gemeinsame theoretische und methodische Grundanschauung der Verfasser“ sei gegeben, noch ein „innerer Zusammenhang“, der für eine Mitarbeit grundlegende Bedingung wäre (Jung/Schleifstein, 271). „Eine Ansammlung von Leuten (aber), die sich (...) irgendwann mit Marx und dem Marxismus beschäftigt haben, ergibt noch kein 'Wörterbuch des Marxismus'. (Denn) ein 'Wörterbuch' ist ja kein Austragungsort für die divergierenden Interpretationen marxistischer Kategorien und Begriffe durch Marxisten, Marxologen, Strukturalisten, Systemtheoretikern und anderen Richtungen“ (ebd.). Damit war ein - wenigstens vorläufiges Ende der Zusammenarbeit zwischen dem „Argument“ in Westberlin und dem „IMSF“ in Frankfurt erreicht, an deren Stelle eine Phase der intensiven Auseinandersetzung getreten ist. Zur weiteren Verdeutlichung der beiden unterschiedlichen Positionen siehe die beiden Rezensionen -> Haug, W.F.: Pluraler Marxismus, Bd. l, Berlin/West 1985 und -> Holz, H.H. u.a. (Hrsg.): Marxismus - Ideologie - Politik. Krise des Marxismus oder Krise des 'Arguments'?, Frankfurt/Main 1984. LITERATURVERZEICHNIS: ALTHUSSER, L.: The Crisis of Marxism, in: Marxism Today (July 1978). BUHR, M.: Die Lehre von Marx und die bürgerliche Ideologie der Gegenwart, in: Deutsche Zeitschrift für Philosophie (DZfPh) 6/83. ESSER, J. / HIRSCH, J.: Der CDU-Staat: Ein politisches Regulierungsmodell für den „nachfordistischen“ Kapitalismus, in: Prokla 3/1984. Berichte GEDÖ, A.: Die Philosophie von Marx im Kräftefeld der Wahlverwandtschaften. Zu neueren Entwicklungen der Marxismus-Diskussion, in: Holz, H.H. / Sandkühler, H.J. (Hrsg.), Karl Marx - Philosophie, Wissenschaft, Politik. DIALEKTIK 6, Köln 1983. HAUG, W.F., 1982: Antwort auf die Umfrage des IMSF 'Was bedeutet für Sie Karl Marx und sein Werk heute?', in: IMSF (Hrsg.), „... einen großen Hebel der Geschichte“. Zum 100. Todesjahr von Karl Marx: Aktualität und Wirkung seines Werkes, Frankfurt/Main. HAUG, W.F., 1983: Krise oder Dialektik des Marxismus?, in: Aktualisierung Marx', Berlin/W. ders., 1983 a: Kritisches Wörterbuch des Marxismus (Vorwort), Berlin/W. ders., 1983 b: Zur deutschen Ausgabe des „Kritischen Wörterbuchs des Marxismus“, in: Das Argument 141. ders., 1984: Die Camera obscura des Bewußtseins. Kritik der Subjekt/Objekt-Artikulation im Marxismus, in: Die Camera obscura der Ideologie (FIT), Berlin/W. ders., 1984 a: Antwort auf Josef Schleifstein, in: Das Argument 148. ders., 1985: Wir brauchen einen Marxismus, der nicht Partei-Marxismus ist. Interview mit W. F. Haug, in: linke zeitung v. 11.01.85. HEPPENER, S./ WRONA, V.: Zur Einheit von Philosophischem und Ökonomischem im Marxismus, in: Deutsche Zeitschrift für Philosophie 5/83. HOLZ, H.H. u.a. (Hrsg.): Marxismus - Ideologie - Politik. Krise des Marxismus oder Krise des 'Arguments'?, Frankfurt/Main 1984. JUNG, W. / SCHWARZ, W.: Bundesdeutsche Marx-Rezeption und Merkwürdigkeiten im 100. Todesjahr - Ein Überblick der Haupttendenzen, in: IMSF (Hrsg.), Marx ist Gegenwart, Frankfurt/Main 1983. ders. / SCHLEIFSTEIN, J.: Zwei Absagen, in: Das Argument 144/1984. Berichte ders.: Krise des Marxismus - oder Krise der Zeitschrift 'Das Argument'? Gespräch mit W. Jung, in: Unsere Zeit (UZ) v. 24.10.1984. MAASE, K.: Legenden statt Argumente - Eine Zwischenbemerkung zur Debatte „Das Argument und der Marxismus“, in: Marxistische Blätter 4/1984. ders. / SCHLEIFSTEIN, J.: Die Marxismus-Diskussion und das „Argument“, in: Marxistische Blätter 6/1984. METSCHER, Th. / STEIGERWALD, R.: Zu den Kontroversen über Ideologie und Ideologietheorie, in: „... einen großen Hebel zur Geschichte“, Frankfurt/Main 1982. ders.: Ideologie, Literatur, Philosophie, in: Das Argument 137/1983. SANDKÜHLER, H.J.: Geschichte, gesellschaftliche Bewegung und Erkenntnisprozeß, Frankfurt/Main 1984. SCHWARZ, W.: Wie sie zu Marx stehen ... Hauptrichtungen des bundesdeutschen Umgangs mit Karl Marx in seinem 100. Todesjahr, in: IMSF (Hrsg.), Jahrbuch 6, Frankfurt/Main 1983. SEVE. L.: Krise des Marxismus?, in: Das Argument 122/1980. STEIGERWALD, R.: Gibt es vor lauter Marxismen keinen Marxismus mehr? (Rez. von „Aktualisierung Marx“', Berlin/West 1983), in: Marxistische Blätter 3/1983. ders. / GERNS, W.: Pluraler Marxismus?, in: Marxistische Blätter 4/1985. Hans Heinz Holz, Thomas Metscher, Josef Schleifstein, Bobert Stei- Berichte gerwald (Hrsg.): MARXISMUS - IDEOLOGIE - POLITIK. KRISE DES MARXISMUS ODER KRISE DES „ARGUMENTS“? Frankfurt/Main 1984 (Verlag Marxistische Blätter) (318 S., br., DM 13,80) Anlaß für diese Sammlung von Beiträgen zur Kritik theoretischer und politischer Auffassungen der „Argumente''-Redaktion ist für die Autoren das „Abgehen ... und der Rückzug der 'Argumente '-Redaktion von früher eingenommenen Positionen in Angriffe auf den Leninismus, im Aufgreifen der Formel von der ' Krise des Marxismus ', in den konzentrischen Kampfansagen gegen die sozialistischen Länder (... ) und gegen die Kommunisten der Bundesrepublik“. Dem bewußten Versuch von seiten des 'Arguments', „nicht marxistische Gedanken unter dem Zeichen eines 'polyzentrischen Marxismus' zu etablieren“, stellen die Autoren ihre marxistische Grundposition entgegen: „Anerkennung des philosophischen Materialismus und der dialektischen Entwicklungstheorie und Denkmethode; Anerkennung der materialistischen Geschichtsauffassung und der Klassenkampftheorie; Anerkennung der geschichtlichen Stellung und Aufgabe der Arbeiterklasse und der Notwendigkeit, politische Macht zu erobern, um die kapitalistische in die sozialistische Gesellschaft umzuwälzen“ (Vorwort, 5 ff.). Im vorliegenden Band wollen die Autoren sich dabei mit wesentlichen Positionen des 'Arguments' auseinandersetzen, wobei sie bestrebt sind, Kritik mit der Herausbildung der eigenen Position zu verbinden. Nachdem Karl-Heinz Braun die „Entwicklungslinie im Selbstverständnis der Zeitschrift 'Das Argument“' rekonstruiert hat, kritisiert Hans Heinz Holz „die Mängel in den philosophischen Substrukturen“ in W.F. Haugs „Vorlesungen zur Einführung ins 'Kapital“' (Köln 1974). In seinem Beitrag „Vom vermeintlichen Untergang und der wundersamen Rettung der Philosophie durch Wolfgang Fritz Haug“ wirft er Haug vor, dieser weise der Philosophie die Aufgabe zu, „die Philosophie zu zerstören, und zu diesem Zweck wird sie in eine der philosophischen Begründung ihrer selbst enthobene Ideologiekritik verwandelt, die sich durch den Standpunkt ... (des) 'kritischen Kritikers' definiert. Anstelle eines objektiven Bedingungszusammenhangs ... wird nun nolens volens die subjektive Stellungnahme des Philosophen konstitutiv für Kritik und Erkenntnis. Die Praxis löst sich von dem zu erkennenden objektiven Bezugsrahmen ab und wird freischwebende Aktion ...“ (41 f.). Indem Haug einen Gegensatz von wissenschaftlicher Theorie und Philosophie konstatiere und Philosophie - im Gegensatz zur Berichte Wissenschaft - im Marxismus nur als besondere Ideologie betrachte, fordere er deren Eliminierung. Da er aber die „Grundfrage der Philosophie“ nach der Priorität von Sein oder Bewußtsein auf den Boden des Idealismus stellt, „verkennt (er), daß in die Grundfrage schon die Einsicht der dialektischen Einheit von Theorie und Praxis eingegangen ist“ (43). Die subjektivistischen Konsequenzen der Eliminierung der Grundfrage führe somit zu einem „Relativismus einer 'Standpunkt '-Philosophie“ und im direkten Weg „zur Unverbindlichkeit eines 'pluralistischen' Marxismus“, einem „fatalen Mißverständnis der Grundlagen der dialektisch-materialistischen Erkenntnistheorie“ (45 f.). Haugs Auflösung der Philosophie in eine „einfache Weltanschauung“ ignoriere, daß „Philosophie - als Theorie des Ganzen und damit auch der möglichen Ziele, des Systems der Zwecke einer Epoche - als kritische jeweils den Prozeß der Aufhebung der in ihr gespiegelten Widersprüche als Aufhebung ihrer selbst vollstreckt; nicht jedoch als Aufhebung der Philosophie, sondern ihrer jeweils besonderen historischen Gestalt“ (49). Im Gegensatz zu Haugs „Privatphilosophie ... (als) der reinen Lehre des Marxismus“ fordert Holz eine „Philosophie, die parteilich ist, (und) ihre Probleme als solche des Kampfes des Proletariats stellt, auf dem Boden und als Moment des Klassenkampfes (aber ihre Probleme, als philosophische; und sie muß das Verhältnis philosophischer Probleme zur politischen Wirklichkeit und zu den Fronten des Klassenkampfes bestimmen)“ (50). Während Holz die Denkmuster Haugs schon in der „Frankfurter Schule“ und in der jugoslawischen „Praxis''-Philosophie vorgezeichnet sieht, wird für Lothar Peter in der Ideologie des „Arguments“ eine Nähe zu Sartres Existentialismus und Bernsteins Revisionismus erkennbar („Die Ideologie des 'Arguments' in der Krise. Anmerkungen zu W.F. Haug; Krise oder Dialektik des Marxismus?“). André Leisewitz wirft in seinen „Bemerkungen zum Marx-Verständnis des 'Projekts Automation und Qualifikation'. Produktivkraftentwicklung und Zukunft der Arbeit“ den Autoren eine „Fehlinterpretation der Marxschen Arbeitsanalyse in den Fabrikkapiteln“ vor (S. MEW 23, 356 ff.), wodurch „die Marxschen Aussagen zur formationsspezifischen Prägung der Lohnarbeitstätigkeit in eine Soziologie der arbeitenden Individuen umgedeutet werden“ (83). Frank Deppe („Intellektuelle, 'Arbeiterklassenstandpunkt’ und 'strukturelle Hegemonie'. Einige Gegen-Argumente“) und Hans Jörg Sandkühler („Enzyklopädie und Hegemonie oder Über den Nutzen der Kritik“) bringen Einwände gegen Haugs Überlegungen zur „Strukturellen Hegemonie“ (cf. Rezension von Haugs „Pluralem Marxismus“). In der Debatte um das Verhältnis von Intelligenz und Arbeiterbewegung postulierte Haug eine neue „Einheit der Kräfte der Arbeit, der Wissenschaft und Kultur, ..., eine Berichte hegemoniale Struktur ohne klassischen Hegemon (als) strukturelle Hegemonie ... Hegemonial“, so Haug weiter, „ist ja nichts anderes, als daß jetzt eine Struktur entsteht, die den unterschiedlichen demokratischen Subjekten optimale Handlungsbedingungen einräumt ... Eine plurizentrische Aktivierungsstruktur, (die) sich nicht auf den Arbeiterklassenstandpunkt reduzieren läßt; aber sie lässt sich auf ihm entwickeln“. Deppe sieht darin einen „doppelten Bruch im Denkansatz ...: Zum einen die Distanz zu den 'Klassikern' des Marxismus, die Arbeiterklasse und Hegemonie stets zusammen gedacht haben (... ): zum anderen reflektiert sich darin ein theoretischer Ansatz, der der marxistischen Analyse - ... - 'jenseits des Arbeiterklassenstandpunktes' einen eigenen Ort und damit auch dem Intellektuellen eine neue, autonome Rolle im Konzept der 'strukturellen Hegemonie' zuweist“ (109 f.). Dabei „verflüchtige sich der 'Klassenstandpunkt' der wissenschaftlichen Analyse ..., die nach der Vermittlung von Ökonomie, Klassenverhältnissen und Politik überhaupt nicht fragt“ (III). Das eigentliche Feld marxistischer Wissenschaft - und marxistischer Intellektueller - aber ist die Analyse, die vom „Feld der Ökonomie, der Klassen und des Staates ... übergreift in die Komplexität der Analyse vielfältiger ideologischer und kultureller Vergesellschaftungsprozesse und Widerspruchskonstellationen Der marxistische Intellektuelle, der sich aus diesem Zusammenhang herauslöst ... unterliegt allemal der Gefahr, dass er im Milieu der 'freischwebenden Intellektuellen' untergeht“ (116). - Sandkühler kritisiert anhand von Haugs „veränderter Zielsetzung“ der Übersetzung des 'Dictionnaire critique du Marxisrne', des 'Kritischen Wörterbuch des Marxismus', dass diese „gegen jeden Marxismus ausgefallen (sei), der die Idee der Hegemonie mit dem Programm der politisch organisierten Arbeiterbewegung verknüpft“ (287). Haugs (nur verbal) „strukturalistische Pluralisierung von Hegemonie würde sich so als einer jener Intellektualismen erweisen, den praktische Materialisten beständig kritisiert haben, an Marx' These über den Zusammenhang von Waffen der Kritik und Kritik der Waffen erinnernd“ (289). Zu den Beiträgen, die sich im weiteren Sinne mit der „Argumente''-Position auseinandersetzen, gehören Georg Fülberths „Geschichte der Arbeiterbewegung in 'Das Argument'“, Ralf R. Leinwebers '„Das Argument' und der reale Sozialismus“, Jürgen Reuschs „'Das Argument', die Sowjetunion und der Kampf um den Frieden“ und Albert Engelhardts „Die Entfaltung der theoretischen Kultur des Fortschritts. Zu Anspruch und Wirklichkeit der Rezensionspolitik des 'Arguments“'. Das Verhältnis Marxismus Feminismus und die 'Berliner' Grundkonzeption der „neuen“ Frauenfrage erörtern Iris Rudolph und Alma Steinberg in: „Frauenfrage und Frauenbewegung in der Sicht der 'Argumente '-Frauen“, und Josef Schleifstein Berichte behandelt die ideologische Frage der Marxschen Staatstheorie in Auseinandersetzung zu Michael Jägers Beitrag in „Aktualisierung Marx“' (cf. Widerspruch 2/83, S. 126): „War Marx ein 'radikaler Dezentralist'? Anmerkungen zu einer Interpretation der Marxschen Staatsauffassung im 'Argument“'. Die weiteren Beiträge, die sich mit einzelnen Teilen des Theoriegebäudes des 'Arguments' im engeren Sinne beschäftigen, sind Kaspar Maases '„Kultureller Marxismus'? Zum Verhältnis von Kulturellem und Politischem“, sowie Thomas Metschers und Robert Steigerwalds Kritik am „Projekt Ideologie - Theorie“ (PIT): „Anmerkungen zum Ideologiebegriff des Marxismus und zum Ideologiebegriff des PIT“ und „Warum und wie hat der Ochse Hörner? Bemerkungen zur Deutung der Wirkungsmechanismen faschistischer Ideologie durch das 'PIT“. Gegen den Vorwurf Haugs, „Lenin ließ(e) das Selbstverständnis des Marxismus ins Religionsförmige zurückgleiten“, richtet sich der Beitrag Johannes Henrich von Heiselers „Geschlossenheit, absolute Wahrheit und Religion. Bemerkungen zu Lenin anläßlich einer Bemerkung von W.F. Haug“; und Wolfgang Jantzen untersucht die Fragen nach der objektiven Bestimmtheit wie subjektiven Bestimmung menschlicher Tätigkeit, d.h. nach Subjektivität und Persönlichkeit in den Arbeiten von W. F. und F. Haug: „Probleme der Persönlichkeitstheorie in den Schriften von W.F. Haug und Frigga Haug“. „Mit diesem Band soll“, so der Mitarbeiter des IMSF Kaspar Maase, „kein theoretisch-politischer 'Vernichtungsfeldzug' eröffnet werden, ... (doch) wollen wir vor allem den überzogenen Anspruch des 'Argument '-Kreises auf Vertretung des einzig lebendigen und offenen Marxismus demontieren“ (Marxistische Blätter 6/84). Dennoch versucht man bereits im Untertitel „Krise des Marxismus oder Krise des 'Arguments'?“ eine Disjunktion zu unterstellen, welche die eigene Position gleichsam tabuisiert, - als ob die sich drastisch verschärfende Krise des kapitalistischen Weltsystems in ihren ökonomischen, ökologischen und soziokulturellen Dimensionen und der darin aufbrechenden sozialen Bewegungen und politischen Veränderungen nicht eine Krise des Marxismus überdeutlich zeichnete; auch die eines staatlich offizialisierten Marxismus, der den kritischen Gehalt des Marxismus notwendig verloren hat. So gilt es, „die Idee aufzugeben, daß die 'Klassiker des Marxismus' alles für uns gedacht hätten, (und) uns ernsthaft mit der Tatsache vertraut zu machen, daß der Marxismus uns lehrt, die Fragen zu stellen, aber uns nicht im voraus alle Antworten gibt ... Der Marxismus ist und wird niemals ... eine handbuchartige Doktrin sein ... Als Aufgabe stellt sich jetzt die Wiederherstellung einer Gesamtkonzeption des Marxismus“ (Lucien Seve), eine von innen gewachsene Einheit des Berichte Marxismus wider jeden „Monolithismus“. Gegen die „(Ortho-)-Doxie-Form des Marxismus anzugehen und ihn von seiner praktischen Notwendigkeit her zu bestimmen“, wollen die Beiträge in der eben erschienenen Antwort der „Argumente''-Redaktion: Haug, Wolfgang Fritz: Pluraler Marxismus. Beiträge zur politischen Kultur. Bd. 1, Argument-Verlag, West-Berlin 1985 (268 S., br., DM 19,80). Die Texte dieses Bandes stammen aus den Jahren 1977 – 1985 und enthalten nur zwei Erstveröffentlichungen. Die Aufsätze sollen „als Versuche gelesen werden, mitzuhelfen bei einer notwendigen Rekonstruktion ... eines Pluralen Marxismus (als) dialektische Formel von der Einheit in der Vielfalt“ (Vorwort). Der Band ist der erste Teil eines auf drei Bände konzipierten Projekts, wobei „neben Grundsatzanalysen (auch) Gelegenheitsäußerungen stehen, in denen es um praktische Anwendung geht“. Nach der anfänglichen Begriffsbestimmung des „Pluralen Marxismus“ (s. in diesem Heft S. 152) erörtert Haug im ersten Teil: Dialektik des Marxismus die „Notwendigkeit(en) des Marxismus“ anläßlich des 100. Todesjahres von Karl Marx. In 9 Thesen fordert er „l. eine neue Art der Auseinandersetzung mit dem Werk von Karl Marx ..., 2. den Wissenschaftlichen Sozialismus auch als solchen zu behandeln ... mit dem Ziel: Selbstvergesellschaftung der assoziierten Produzenten, 3. ... die kritische Auseinandersetzung mit Marx ... die Wegarbeitung eurozentrischer Sichtweisen, 4. ausgehend von den aktuellen Bedürfnissen eine Neuerung in der marxistischen Tradition, 5./6. ein zurück zu Marx, aber kein Zurück zu Marx, 7. einen Marxismus des „lebenslangen Lernens“, 8. das „Erlernen des produktiven Umgangs mit Widersprüchen ... die Kunst der Dialektik in der Praxis ... nach dem Entwurf von Einheit, (denn) der Marxismus ist nicht, er wird. Der Marxismus kann nur existieren als Prozeß ... Den Marxismus gibt es nicht, wir müssen ihn uns nehmen. Den Marxismus gibt es nicht, es gibt Marxismen. Der Marxismus existiert in der Mehrzahl. Die Marxisten müssen lernen, in der Mehrzahl und im Unterschied miteinander auszukommen, die Austragungsform der Divergenz produktiv machen, das heißt die Konvergenz in der Divergenz lernen ...: Eine ökumenische Haltung, ein marxistischer Zusammenhalt im Widerspruch. 9. Die Menschheit hat ohne Verwirklichung des von Marx artikulierten Projekts wenig zu hoffen“ (17 ff.). In „Krise oder Dialektik des Marxismus“ (22 ff.) versuchte Haug zu zeigen, „daß die marxistische Dialektik auch auf den Marxismus selbst angewandt gehört“ (cf. Rez. in Widerspruch 2/83, S. 124). „Die Dialektik des Marxismus lernen“ bedeutet für Haug „gegen die ideologische Wen- Berichte de des Marxismus (als) eine der Manifestationen der passiven Dialektik des Marxismus anzugehen: die Reartikulation marxistischer Theorie durch die Bewußtseinsphilosophie“ (54 f.). Aktive Dialektik dagegen steht für den „Notwendigkeits-Ansatz der Frage marxistischer Identität in völliger Übereinstimmung mit Marx ... (und für) die Notwendigkeit spezifischer Ausarbeitung des Marxismus gemäß den historischen Bedingungen jeder Region und auch jeder Epoche“ (56 f.). Dies erfordert eine „nichtreduktionistische Konzeption des Wissenschaftlichen Sozialismus (als Wissenschaft, H .M.), errichtet einzig auf Klassenbasis der Arbeiter/innen, keineswegs aber reduziert auf diese Basis“ (60), der „auf die Selbstvergesellschaftung der unterschiedlichen gesellschaftlichen Kräfte zielt“ (ibid.). Das Verhältnis 'denkender Schriftsteller', 'unabhängiger Marxist' und 'Parteitheoretiker' behandelt der Aufsatz „Zur Dialektik des Linksintellektuellen“. Anhand von „Brechts Beitrag zum Marxismus“, seiner „Theorie des Ideologischen“ (85), seiner Spracharbeit und seiner Ausarbeitung eines praktischen Verständnisses von marxistischer Philosophie („Brechts Philosophie ist Antiphilosophie, insofern die philosophische Ideologie einer ihrer Gegenstände ist“, 84) zeigt Haug das Beispiel des „organischen Intellektuellen“ (Gramsci) auf, i.e. das Wahrnehmen von 'Organisations'-funktionen einer Klasse, wobei 'Organisation' meint „die Ausbildung einer kulturellen Identität und kollektiven Handlungsfähigkeit“ (82). In seinen „Perspektiven an der Schwelle zum 21. Jahrhundert: Die Elemente der neuen Gesellschaft im Übergang zu einer anderen Aggregatform“ sieht Haug für den Marxismus neue Entwicklungsaufgaben aufgrund des Übergangs zur elektronisch-automatischen Produktionsweise, die nicht nur zu einer Umgestaltung der gesellschaftlichen Arbeitsteilung im Rahmen entwickelter kapitalistischer Gesellschaften führte, sondern auch zur Veränderung der internationalen Arbeitsteilung. Für den Marxismus bedeutet dies, „die Dialektik von Universalität und Spezifik zu fassen ..., i.e. die Verbindung universeller marxistischer Grundlagen mit der konkreten Wirklichkeit jeder nationalen Revolution ... eine Einheit von uneinheitlichen Formationen. Einheit-im-Widerspruch“ (105). Eine „neuartige historische Aggregatform des Marxismus“ („Aggregat“ dient hier als Begriff für eine bestimmte Dimension von Vergesellschaftung; W. F. H.) bringt die „unterschiedlichen Strömungen im Marxismus, ... die Unterschiede der Organisiertheit, (sowie) die marxistischen Elemente auf ganz unterschiedlichen Ebenen, in heterogenen Praxisfeldern, wie in Politik, Gewerkschaft, Wissenschaft, Literatur, Kunst, ja sogar Recht und Religion Berichte ... (durch) ein Zusammenbleiben im Auseinandergehen zu einer neuen Einheit“ (109 bzw. 119). Im Zweiten Teil: Strukturelle Hegemonie stellt sich Haug die Frage „Was ist Ökonomismus. Ökonomismuskritik bei Lenin und Gramsci“, um anhand Gramscis Überarbeitung im Blick auf die Hegemoniefrage das Problem der „Hegemonie“ in sozialistischer Perspektive in einer entwickelten kapitalistischen Industriegesellschaft vom Typ der Bundesrepublik Deutschland zu stellen - als „Strukturelle Hegemonie“. Wider den Ökonomismus, also der Reduktion von Kultur,. Politik und Ideologie auf Ökonomisches, entwickelte Gramsci den Hegemoniebegriff, „der nicht allein einen politisch-praktischen, sondern auch einen großen philosophischen Fortschritt darstellt. Er bezieht notwendigerweise eine geistige Einheit und eine Ethik mit ein und setzt diese voraus sowie eine Wirklichkeitsanschauung, die den Alltagsverstand überwunden hat und - ... - kritischer geworden ist“ (A. Gramsci, Philosophie der Praxis, Frankfurt/Main 1967, S. 138). Um eine „hegemoniale Struktur“ zu schaffen, will Haug die gesellschaftlichen, politischen, kulturellen Kräfte an- bzw. umordnen, so daß die Handlungsfähigkeit der einzelnen Kräfte gestärkt wird, das sog. „Aktivierungspositiv“. Und um nun ein Projekt einer sozialistischen politischen Artikulation (= Gliederung/Verknüpfung) ohne die hegemoniale Stellung der Arbeiterklasse zu denken, fordert Haug - mit Chantal Mouffe und Ernesto Laclau - eine „differentielle Artikulation“ (einer) „Vielfalt gesellschaftlicher Subjekte ... die Anerkennung eines Pluralismus von Subjekten“ (171). Für die Linke heißt dies „Einheit der Kräfte der Arbeit, der Wissenschaft und der Kultur“ (169) - ohne Hegemon! Diese „Einheit der hegemonialen Struktur ... kann sich artikulieren als Konvergenz in der Differenz ... (als) plurizentrische Aktivierungsstruktur, kurz das Dispositiv der strukturellen Hegemonie. Diese plurale Formation läßt sich nicht auf den Arbeiterklassenstandpunkt reduzieren; aber sie läßt sich auf ihm entwickeln. Gleiches kann vom Sozialismus gesagt werden. Es kann keinen Sozialismus geben, der reduzierbar wäre auf den Standpunkt der Arbeiterklasse. Aber vom Arbeiterklassenstandpunkt aus läßt sich der Sozialismus als über jenen hinausgreifende Artikulation entwickeln ... (Denn) auch der Sozialismus muß als Aktivierungspositiv mit einer Pluralität von Subjekten gedacht werden, als deren produktive Anordnung in sozialistischer Perspektive“ (180 ff.). Nach der Kritik an Frank Deppes und Hans-Jörg Sandkühlers „Einwände gegen das Konzept der 'Strukturellen Hegemonie'“ folgen einige nähere Ausführungen Haugs zu Teilen seiner Theorie („Werden die Kräfte der Arbeit, Wissenschaft und Kultur diesmal zusammenkommen?“, „Für ein Berichte sozialistisches Projekt unter Bedingungen multizentrischer Politik“, „Der Begriff der Selbstverwaltung im Marxismus und die Aufgabe der Intellektuellen“), sowie aktuelle Aufsätze („Veränderungskultur und NeuZusammensetzung der sozialen Bewegungen“, „Ökologie und Sozialismus“, „Arbeitszeitverkürzung als Gebot der elektronisch-automatischen Produktionsweise“, „Gegen den Terrorismus“). Eine thesenartige Zusammenfassung seiner Position findet sich in „Der Marxismus-Leninismus und das Kritische Wörterbuch des Marxismus“ (120 ff.; cf. Das Argument 148/1984). Haugs zentraler Begriff ist der der „wissenschaftlichen Weltanschauung“ als „umfassenden Zusammenschluß des vorhandenen Wissens über Gesellschaft, Natur (und auch über Erkenntnisgewinnung)“. Wenn es aber marxistische Aufgabe sein soll, „alles, was man weiß, zu einer Weltanschauung zusammenzufügen“, so hat dies eher Synthesen-Charakter, denn Systemcharakter. Betrachtet Haug den Marxismus zurecht als weiterzuentwickelndes Projekt, so sind aber dennoch auch einem marxistischen Polyzentrismus Systemgrenzen gesetzt: die der Natur im allgemeinen und die des Systems der Gesellschaft im besonderen. Und in diesem Gesamtsystem der Wissenschaften und ihrer relativen Selbständigkeit findet auch die Philosophie ihre relative Selbständigkeit, ohne in empirischen Wissenschaften aufgehoben zu sein. Versuchte Horkheimer noch die Philosophie, solange sie nicht verwirklicht werden kann, in der kritischen Gesellschaftstheorie aufzuheben, so dass sie nicht zur Ideologie verkomme, so kommen Haugs „Grenzen der Dialektik“ einer Abschaffung der Philosophie gleich. Haug kann sich zwar einerseits auf die Aussagen von Marx und Engels stützen, daß Philosophie im wissenschaftlichen Sozialismus aufzuheben ist, doch kann „für eine wirklich dialektisch-materialistische Auffassung des geschichtlichen Gesamtprozesses (es) niemals dahin kommen und ist auch tatsächlich bei Marx und Engels nie dahin gekommen, daß für sie die philosophische Ideologie oder am Ende gar jede Ideologie überhaupt aufhört, ein materieller (d.h. hier: eine theoretisch-materialistisch in seiner Wirklichkeit zu begreifender und praktisch-materialistisch in seiner Wirklichkeit umwälzender) Bestandteil der geschichtlich-gesellschaftlichen Gesamtwirklichkeit zu sein“ (Karl Korsch). Hans Mittermüller In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 165-168 Rezensionen zum Thema „Frauendenken“ Rezensionen Besprechungen Rezensionen zum Thema „Frauendenken“ Ursula Beer: THEORIEN GESCHLECHTLICHER ARBEITSTEILUNG Frankfurt/Main - New York 1984 (Campus-Verlag ) Dieses Buch hat zum Gegenstand die Geschlechterverhältnisse in den Theorien der marxistischen Klassiker und der neuen Frauenbewegung. Der erste Teil behandelt unter der Überschrift „Geschlechterherrschaft Vorbedingung oder Folge von Klassenherrschaft?“ zunächst Engels' Ableitung der Frauenunterdrückung aus der Entstehung des Privateigentums und der Zerstörung der matriarchalisch organisierten Gentilverfassung (womit die Geschichtlichkeit und Veränderbarkeit der Männerherrschaft erwiesen ist). Die Autorin legt dar, daß für Engels naturwüchsige geschlechtliche Arbeitsteilung in der Familie bzw. dem Stamm nicht gleichbedeutend ist mit herrschaftlicher ausbeuterischer Verfügung über die Arbeitskraft der Frauen. Hierzu stehe Marx' Begriff der geschlechtlichen Arbeitsteilung in der „Deutschen Ideologie“ im Gegensatz (S. 33 ff.). Geschlechtliche Arbeitsteilung beruhe aber für Marx letztlich „weder auf Ausbeutung noch auf geschlechtlicher Gleichheit. Sie befindet sich in einem kategorialen Niemandsland“ (S. 43). „Offensichtlich leistet die marxistische Theorie keine kategoriale Bestimmung geschlechtlicher Arbeitsteilung, sondern deutet, zumindest im Frühwerk Marx', höchstens an, wo sich kategorial stimmige Verbindungsglieder herstellen ließen. Es ist fraglich, ob die marxistische Theorie Frauen überhaupt als gesellschaftliche Subjekte begreift“ (S. 44). Aber haben denn Marx und Engels nicht in kohärenter Weise gezeigt, daß patriarchalische Produktionsbeziehungen dort auftreten, wo keine bewußte Rezensionen „Frauendenken“ Planung und keine gemeinsame Kontrolle der Produzenten stattfindet? Mit der Fragestellung, ob sich der Klassen- und Geschlechterantagonismus in der Interdependenz erfassen läßt, wird in einem zweiten übersichtlich gegliederten Teil dargestellt, wie die Hausarbeit der Frauen mit Hilfe der Kapitaltheorie von verschiedenen angloamerikanischen Autoren behandelt wurde. Daß Marx Im „Kapital“ der Hausarbeit nur ihren systematischen Stellenwert zuweist (als Reproduktion des Wertes der Arbeitskraft), ohne die Hausarbeit als solche näher zu untersuchen, wird hier also nicht wie sonst häufig in der nicht-sozialistischen Frauenbewegung dergestalt mißverstanden, daß die Kapitaltheorie zur Analyse der Hausarbeit überhaupt nichts beitragen könnte. Wie aus den Darlegungen der Verfasserin hervorgeht, ist die Hausarbeitsdebatte der betreffenden Autoren allerdings äußerst verwirrend und im Ergebnis kaum weiterführend. Zusammenfassend meint die Verfasserin: „Seit Ende der 70er / Anfang der 80er Jahre wurde in England anerkannt, daß es der Hausarbeitsdebatte bis zu diesem Zeitpunkt nicht gelungen war, geschlechtliche Arbeitsteilung historisch-materialistisch zu begründen. Auch die Fortführung des werttheoretischen Ansatzes der Hausarbeitsdebatte konnte den Zirkel nicht aufsprengen, der seine Ursache in Marx' Fixierung des Werts der Arbeitskraft an die Person des männlichen Lohnarbeiters als Familienvorstand und Eigentümer hat“ (S. 147). Auch der dritte Teil des Buches, überschrieben „Die Althusser-Rezeption in der Frauenbewegung“, ist in seinem Ertrag eher negativ. Es ergibt sich nämlich, daß der strukturale Marxismus und die sich auf ihn beziehenden Theorien der Frauenbewegung unvereinbare Auffassungen über Klassengesellschaften und Ideologien haben. Am fruchtbarsten sind schließlich die im vierten und letzten Teil anhand von Schemata vorgenommenen Differenzierungen der Klassen nach Geschlechterzugehörigkeit und der Formen unentgeltlicher Familienarbeit. Mit dieser Darstellung zeigt die Verfasserin, wie „die Kapitalakkumulation nicht allein durch die Verfügung über fremde, d.h. Lohnarbeitskraft ermöglicht wird, sondern ebenso durch die Verfügung über unentgeltliche Familienarbeitskraft“ (S. 211). Elmar Treptow Mona Winter (Hrsg.): ZITRONENBLAU. Balanceakte ästhetischen Bewußtseins Rezensionen „Frauendenken“ München 1983 (Frauenoffensive) Nachdem Zitronen bekanntermaßen im Hier und Jetzt nur in den seltensten Fällen ein blaues Stadium durchwandern, verdeutlicht schon der Titel dieses - auch bibliophil gesehen - attraktiven Bandes, daß der Band mit und für unsere Assoziationsfähigkeit arbeiten will. Und weiter führt die Herausgeberin in ihrem Vorwort zu dieser Anthologie an: „Das vorliegende Material - Essays, Bilder, Traumsplitter, Drehbuchteil, Theatermonolog, Gedichte - ist Spurensuche. Ihre Zeichen deuten nicht auf die verschütteten, vergessenen weiblichen Imagines, sondern weisen auf deren Wirklichkeit, diein allen Wörtern, Symbolen und Kompositionen steckt, die sich nicht erst als abgespaltene in Erfahrung bringt“ (S. 8), um anzudeuten: es geht um Kunst, um deren weibliche Komponente, um eine weibliche (feministische) Kunst, um weibliche Rezeption von Kunst. „Bilder, Gedichte und Texte dieses Bandes, zwischen diesem gesellschaftlichen Niemandsland und zeitgenössischer Formsuche balancierend, sind keine Einweihungsrituale in die Geschichte der weiblichen Ausgrenzungen und Unterdrückungen, sondern Experimente über den weiblichen Widersinn“ (S. 10). Die einzelnen Beiträge aus den unterschiedlichen Disziplinen (und es handelt sich um so renommierte Namen wie z.B. Dischner, Lenk, Mayröcker, Ottinger und Steinwachs) an dieser Stelle auch nur einigermaßen übersichtlich zusammenzufassen, ist nicht nur schlicht unmöglich, sondern würde auch jedem Sinn dieses Buches zuwiderlaufen. Die „Balanceakte ästhetischen Bewußtseins“ sind im üblichen Sinne zuweilen schwindelerregend und befremdlich (Ottinger), schwer- und querdenkerisch (Mayröcker), gewollt-unvermittelt (Dischner) oder in ihrer Vielschichtigkeit kaum noch faßbar (Steinwachs), und es läßt sich hierbei nicht nur über Geschmack streiten: provoziert wird eine wache und stetig-leidenschaftliche Auseinandersetzung und Rezeption mit und von Dingen, die eine wie auch immer geartete Kunst darstellen. Zwei (subjektiv ausgewählte) Höhepunkte: Der Auszug aus Jutta Heinrichs „Das Geschlecht der Gedanken“ und der Beitrag von Rita Bischof über die Malerin Frida Kahlo – beide so beklemmend schön, traurig und intensiv, daß Worte Farben und Töne annehmen können. Und dies ist zumindest eine Intention: die Thematisierung des weiblichen Prinzips in der Kunst möglicherweise als ein „mehr“ an subjektiver Qualität, durch die engere Verbundenheit zur Welt der Träume, Utopien, Intuitionen - durch die Chance zur Ganzheit, so wie vor der „Katastrophe der Ablösung der Worte von den Dingen, der Lostrennung des Geistes von der lebenden Zeit“ (S. 17) und die Fähigkeit zur Wiedergeburt von subjektiver und Rezensionen „Frauendenken“ objektiver Wirklichkeit. Fazit: Wenig geeignet für Lineardenker, die die Addition von Zahlen mit Vernunft verwechseln - doch ein überaus reicher, verwirrender und heftiger Anstoß für Leute, die fähig sind, Spiralen zirkulieren zu lassen und in mehreren Dimensionen denken, leben , hoffen, fühlen und handeln können. Helga Laugsch-Hampel In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 169-177 Leserbriefe Leserbriefe R. Seifert / J. Adamiak FRAUEN DENKEN „Frauendenken“ heißt der Titel des letzten „Widerspruchs“ und will damit seinen (nebenbei bemerkt Jahre hinterherhinkenden) Beitrag zur Frauenfrage leisten. Frauen denken - mit diesem Titel wird das Außergewöhnliche suggeriert, das bisher noch nicht Dagewesene, das Neue. Gleichsam voyeurhaft also dürfen wir einen Blick werfen auf das, was passiert, wenn Frauen zu denken beginnen. Oder sollten mit dem Titel Frauendenken (Schreibweise aus dem Inhaltsverzeichnis) die weibliche philosophische Reflexion schlechthin gemeint sein? Wir blättern weiter, um zu sehen, was uns denn als „Frauendenken“ präsentiert wird. Lediglich im Beitrag von R. Leonhardt und E. Huebert, die sich die Besprechung von fünf ausführlichen und differenzierten Werken zur Frauenfrage auf 13 Seiten zutrauen (was etwa im Fall Janssen-Jurreit zu krassem Fehlverständnis führt), werden mehrere unterschiedliche Denkansätze vorgestellt. Ansonsten werden wir mit einer einzigen Richtung von „Frauen denken“ konfrontiert, sowohl in der Darstellung als auch in der Auseinandersetzung. Daß in einer Zeitschrift eine Auswahl getroffen werden muß, ist uns klar: ebenso, daß mystizistische Strömungen in der Frauenbewegung zur Zeit einen bedeutenden Platz einnehmen. Daß der „Widerspruch“ nur eine bestimmte Richtung weiblicher Denkansätze berücksichtigt sowie die Art und Weise der Evaluierung der vorgestellten Ansätze, scheint uns einergenaueren Betrachtung würdig zu sein. Was besagen die Theorien, denen breiterer Raum gewidmet wird? Göttner-Abendroth betreibt die Erforschung evtl. vorhanden gewesener Matriarchate, um eine matriarchale Utopie zu entwickeln (S. 11). Überra- Leserbriefe schend für uns, was an bereits gesicherter Erkenntnis präsentiert wird: Matriarchate waren herrschaftsfrei, integrierten Männer „in ihren Eigenheiten“ (welche mögen gemeint sein, wenn diese Gesellschaften auch in ihren Sozialisationsformen herrschaftsfrei funktionierten?). Sie befanden sich in einer „kosmischen Balance“ (S. 23), ihr Bewußtsein war eher auf Kosmisches eingestellt, denn auf die analytische Durchdringung der Welt. Trotz kosmischer Balance scheint uns in Göttner-A.'s Konzept doch Herrschaft zu nisten. Auf theoretischer Ebene im Beibehalten der Dualität männlich-analytisch-zweckrational vs. weiblich-intuitiv-ganzheitlich, wobei lediglich gegenüber traditionellen Ansichten die Bewertung solch „naturgegebener“ Eigenschaften umgekehrt wird. Aus historischer Sicht scheint es auch nicht lediglich auf Zufall zu beruhen, daß beim Verweis auf angeblich ideale ägyptische Zustände nur auf die Interaktion zwischen Priesterinnen und Königshaus verwiesen wird (S. 26). Die mit dem Anspruch, Matriarchate „funktionierten ohne wer weiß welche Autoritäten, Befehlsgewalten ...“ (S. 23) kollidierenden Tatsachen, daß die von Priesterinnen in Auftrag gegebenen kultischen Bauwerke in Fronarbeit bzw. von Sklaven errichtet wurden, fallen unter den Tisch. Der Kritik Mittermüllers an Maren-Grisebachs Äußerungen (S. 77) stimmen wir inhaltlich zu. Gerade Maren-G.'s Entgegnung zu Mittermüller deutet darauf hin, daß menschliches Zusammenleben im Idealfall genauso nach Naturgesetzen verläuft, wie eine Klospülung (S. 84). Die Schwierigkeit liegt dann wohl lediglich in der Frage, wer denn diese Naturgesetze erkennen kann und dann menschliches Zusammenleben zum Besten aller und der Natur lenkt. Wer entscheidet, ob z.B. Rassismus, der ja von seinen Anhängern auch mit angeblichen Naturgesetzen gerechtfertigt wird, nicht nur eine Fehlinterpretation eines „Mätzchens der Natur“ darstellt (S. 138)? Was uns nicht gefallen hat, war die Gegenüberstellung von mystischem „Frauendenken“ und rationalem Männerkommentar hierzu. Hätten sich nicht gerade bei der Auseinandersetzung um die genannten Ideen die Äußerungen anderer Frauen angeboten, um zu illustrieren, daß auch frauenbewegte Frauen kein monolithischer Denkblock sind, sondern aus einer gegebenen Situation ganz unterschiedliche Schlüsse ziehen. War es dem „Widerspruch“ nicht möglich, Frauen mit anderen als mystischen Konzeptionen zu finden oder hat man es gar nicht erst versucht? Auf den ersten Blick scheinen die oben erwähnten mystischen Positionen weit entfernt von der analytisch-materialistischen Position des „Widerspruch“ zu sein. Bei genauerer Lektüre aber entdecken wir überraschende Parallelen. So im Kommentar, daß „die Unterdrückung der Frauen nur deshalb wirksam werden konnte und wird, weil der Unterschied zwischen Leserbriefe Mann und Frau eben nicht bloß ein sozialer ..., sondern ebenso und ursprünglich ein natürlicher ist ...“ (S. 88). Damit wird verbunden die Aufforderung, die „naturbestimmte Seite des Geschlechterverhältnisses“ in Betracht zu ziehen. Auch Mittermüller meint in Abänderung eines Zitats, dass das geschichtliche Werden des Menschen „nicht ausschließlich“ aber in bezug auf die Geschlechter denn doch durch die Natur festgelegt sei. Der „kleine Unterschied“ scheint also auch für die Redaktion des „Widerspruch“ die „Natürlichkeit“ der Geschlechterverhältnisse, die lediglich der einen oder anderen Reformierung bedürfe, zweifelsfrei zu machen. Indem die Argumentation mit der Natur u.E. eine verhängnisvolle Verwechslung von Materialismus und Biologismus begeht, sitzt sie einer Ideologie auf, die vielleicht in Analogie mit dem Rassismus verdeutlicht werden kann. Daß es biologische und physiologische Rollenverteilungen in der Reproduktion der Art gibt, ist evident. Ebenso, dass diese Unterschiede feststellbar und meßbar sind. Aber daraus ergeben sich noch keine Geschlechtskategorien, ebenso wenig wie aus unterschiedlicher Hautfarbe Rassekategorien zu begründen sind. Um diese Kategorien zu etablieren, müssen die Gleichheiten zwischen den Menschen zugunsten ihrer Unterschiede systematisch bagatellisiert werden; diese Unterschiede müssen auf bestimmte Art und Weise bewertet und gesellschaftlich forciert werden. Die Natur selbst liefert weder Geschlechts- noch Rassekategorien. Werden solche Kategorien aber zur Rechtfertigung von „Natürlichkeit“ oder ursprünglicher Entwicklungslogik von Gesellschaften herangezogen, ist der Ideologie-Verdacht angebracht. Die Rede von der Naturbedingtheit der Geschlechterverhältnisse erfüllt letztlich die Funktion, diese nicht in ihrer Ganzheit zur Diskussion und Disposition zu stellen, und damit Herrschaftspositionen zu retten. Dabei ist es natürlich sehr nützlich, mystizistische weibliche Positionen ins Visier zu nehmen, statt sich mit materialistischen Erklärungen von Männerherrschaft oder auch des Verhältnisses von Feminismus und Marxismus auseinanderzusetzen. Die biologistischen Positionen werden von den genannten Autorinnen allemal mitgetragen, und ihr Desinteresse an ausgefeilter theoretischer Begründung ihrer Haltung sichert der „Widerspruch''Redaktion die Position des rationalen Lehrmeisters. Einem kritischen Standpunkt, wie ihn der „Widerspruch“ zu vertreten sucht, kommt diese Art der Auseinandersetzung u.E. wenig zugute. Auch die Problematik der Geschlechterverhältnisse bedarf einer rational-materialistischen und profunden Ideologie-kritischen Analyse. Dies sollte gerade für jene ein Anliegen sein, die sich die Bekämpfung von Herrschaftsverhältnissen auf die Fahnen geschrieben haben. Wenn das nicht geschieht, können wir nur mit Leserbriefe den „Widerspruch''-Autorinnen fragen: Wem nützt es? (S. 112). Beispiele nicht-mystizistischer ferninistischer Denkansätze: BARRETT, Michele: Das unterstellte Geschlecht. Umrisse eines materialistischen Feminismus, Berlin 1983 BEER, Ursula: Marxismus in Theorien der Frauenarbeit. Plädoyer für eine feministische Erweiterung der Reproduktionsanalyse, in: Feministische Studien, 2. Jg., 1983, Nr. 2 HARTSOCK, Nancy: Money, Sex and Power. Toward a feminist historical Materialism, New York 1983 ROWBOTHAM, Sheila: Nach dem Scherbengericht. Über das Verhältnis von Feminismus und Sozialismus, Berlin 1981 Wolfgang Teune Gern komme ich Ihrer Bitte um Anregungen und Interesse an der Zeitschrift „Widerspruch“ nach. Man merkt, daß es sich bei der Zeitschrift um ein Diskussionsorgan handelt, das finde ich gut. Ich habe aber gleichzeitig den Eindruck, daß Themen anderer Zeitschriften aufgegriffen werden. Schauen Sie genug über den Kirchturm hinaus? Was passiert in den USA in philosophischer Hinsicht (Richard Rorty)? Interessiert man sich in Nicaragua für Ästhetik? Was sagen afrikanische Kongresse zu Hungerkatastrophen? Vielleicht nicht zu sehr zum erfolgreichen Bruder, zum „Argument“, schielen! Wie reagieren „Philosophen“ oder Inhaber von „Lehr''-Leerstühlen auf Bürgerkriege? Hobbes hat darauf mal Antworten gesucht. Wer veröffentlicht was in Nordirland? - Warum pflegt man wieder den Elfenbeinturm? - Gibt es philosophische Gehalte eines einjährigen Bergarbeiterstreiks? Wird da nicht „Vernunft“ gelebt, statt darüber zu faseln? Wie wird Philosophie praktisch? Durch therapeutische Gespräche mit zahlungskräftigen Klienten wie in Bergisch-Gladbach (G.B. Achenbach), durch Amtsgerangel, wie in der Schopenhauer-Gesellschaft? Gäbe es für Philoso- Leserbriefe phen oder deren Freunde eine alternative Praxis? Lassen wir unserer Kreativität ohne Zitate freien Baum. Wie könnte ein „Marketingkonzept“ für philosophische Themen, für den „Widerspruch“ aussehen? Könnte man analog zum Argument-Laden „Widerspruchgruppen“ gründen? Wie könnte heute eine Philosophie auf dem Marktplatz aussehen? Wir brauchen Fragen und neue Organisationsformen der Antworten. Immer nur über Verfall und Bedeutungsverlust zu schwätzen, ist ermüdend und demotivierend. Wer nicht will, dass Vernunft, daß Aufklärung sei, wird immer nur abgestorbene Buchstabenhaufen aus der Vergangenheit zu bewältigen haben. „Das moralische Interesse der Philosophen sollte sich auf die Fortsetzung des abendländischen Gesprächs richten, nicht darauf, daß den traditionellen Problemen der modernen Philosophie ein Platz in diesem Gespräch reserviert bleibt.“ (Richard Rorty, Der Spiegel der Natur, Fft 1984, S. 427) Mit freundlichen Grüßen Hans Mittermüller: GELIEBTES DENKEN. Zum 100. Geburtstag von Georg Lukács „Lukács war für eine lange Periode, nämlich für die vor der Rezession 1966/67, für die Vermittlung zur Opposition gegen die Frankfurter Schule wie zur Regeneration marxistischen Denkens maßgebend“ (Wolfgang Abendroth). Haben sich Form und Inhalt der Lukács-Rezeption mittlerweile auch verkehrt, resp. geändert, so hat er doch in der Nachfolge der Studentenbewegung eine ideologische Bedeutung bekommen, die ihn abgrenzt von bzw. ihn verwerten läßt gegen die marxistische Theorie. Exemplarisch sei hier die Rezeption Alfred Schmidts genannt, ein Enkel der Frankfurter Schule, die die Indienstnahme Lukács' in scheinbar innermarxistischer Absicht in eine Debatte gegen den Marxismus hin übergleiten läßt („Humanismus und Doktrinär“. Zum 100. Geburtstag von Georg Lukács, in: FAZ, 13.04.1985). Nicht zuletzt Lukács' Selbstkritik und dessen Rezeptionen Leserbriefe führten zu widersprüchlichen Aufarbeitungen der Theorien von Georg Lukács. Geboren am 13. April 1885 in Budapest als Sohn wohlhabender jüdischer Eltern, besuchte er das evangelische Gymnasium, „dessen naturwissenschaftliches Niveau sehr niedrig war“, und seine Hinwendung vor allem zur Literatur begünstigte. An der Universität lernte er Laszlo Banoczi kennen, und zusammen mit Marcel Benedek und Sandor Hevesi gründete er die „Thalia-Gesellschaft“. Als Regisseur und Dramaturg lernte Lukács, als „ich die Texte auf der Bühne lebendig werden sah, dramaturgisch und hinsichtlich der Dramentechnik und der dramatischen Form unheimlich viel ... Mit einem Wort, es begann eine umfassende Studienperlode ... (und) als Ergebnis davon trat an die Stelle bloßer impressionistischer Kritik eine durch die deutsche Philosophie fundierte und zur Ästhetik tendierende Kritik. In dieser Zeit lernte ich unter den Philosophen Kant kennen und dann in der zeitgenössischen deutschen Philosophie die Werke Diltheys und Simmels“. Nach dem Studium der Philosophie, Rechtswissenschaft und Nationalökonomie promovierte Lukács 1906 zum Doktor der Staatswissenschaften. Zwischen 1906 und 1907 hielt er sich in Berlin auf, wo er den ersten Entwurf zur „Entwicklungsgeschichte des modernen Dramas“ schrieb, für den er 1908 den Krisztina-Preis erhielt. In diesem Entwurf stellte Lukács die Frage: „Gibt es ein modernes Drama und welchen Stil hat es?“, die für ihn „vor allem eine soziologische Frage“ war. Das wirkliche Soziale ist ihm die Form, die soziale Beziehung der Form, „die zwischen Materie und Form“. Wirtschaftliche Umstände, so Lukács, bestimmen nur indirekt das Kunstwerk; bestimmte Formen werden ermöglicht durch bestimmte Weltanschauungen, durch Ideologien, die diese mit sich bringen und andere ausschließen. Noch ehe Lukács 1909 in Budapest zum Doktor der Philosophie promovierte, hielt er sich für kürzere Zeit in Berlin auf. Damals begann seine Neuorientierung auf die Philosophie unter dem Einfluß von Georg Simmel und Max Weber. „Simmel“, so Lukács, „brachte den gesellschaftlichen Charakter der Kunst ins Gespräch, womit er mir einen Gesichtspunkt vermittelt hat, auf dessen Grundlage ich - weit über Simmel hinausgehend die Literatur abhandelte“. Max Weber brachte den soziologischen Aspekt ein. - Über seine Begegnung mit Ernst Bloch meinte Lukács: „Bloch hatte auf mich gewaltigen Einfluß, denn er hatte mich durch sein Beispiel davon überzeugt, daß es möglich sei, in der althergebrachten Weise zu philosophieren. Ich hatte mich bis dahin im Neukantianismus meiner Zelt verloren, und nun begegnete ich bei Bloch dem Phänomen, daß es möglich war, Leserbriefe wie Aristoteles oder Hegel zu philosophieren“. Nach seinem 1911 erschienenen Essay „Die Seele und die Formen“ war es vor allem seine „Theorie des Romans“ von 1914/15, die, „gemessen an der damaligen Literaturwissenschaft und Romantheorie, eine Theorie des revolutionären Romans erörterte ... Es war das einzige nicht rechtsorientierte geisteswissenschaftliche Buch in jenem Zeltraum. Insgesamt geht das Buch von einer Konzeption aus, die Tolstoi und Dostojewski als den Gipfelpunkt des revolutionären Romans in der Weltliteratur betrachtet, was als Konzeption falsch war ... Es muß als ein Zwischenprodukt bewertet werden, ..., noch im Zustand einer generellen Verzweiflung entstanden“. In seinem 1962 geschriebenen Vorwort zu diesem Werk sieht Lukács vor allem die Anwendung Hegelscher Philosophie auf ästhetische Probleme als einen geisteswissenschaftlichen Fortschritt. „Kurz gefaßt: der Verfasser der 'Theorie des Romans' hatte eine Weltauffassung, die auf eine Verschmelzung von linker' Ethik und 'rechter' Erkenntnistheorie ausging ... Die 'Theorie des Romans' ist das erste deutsche Buch, in welchem eine linke, auf radikale Revolution ausgerichtete Ethik mit einer traditionsvollkonventionellen Wirklichkeitsauslegung gepaart erscheint“. Aufgrund seiner familiären Herkunft blieb Lukács der ungarische Militärdienst erspart („der Sohn eines Bankdirektors mußte nicht dienen“) und mit Hilfe von Karl Jaspers konnte er auch in Heidelberg dem Kriegsgeschehen fernbleiben. In dieser Zeit begann sich Lukács neben den ästhetischen vor allem für ethische Probleme zu interessieren: „das Interesse an der Ethik hat mich zur Revolution geführt“. Die Oktoberrevolution 1917, der Zusammenbruch der österreichisch-ungarischen Donaumonarchie und die räterepublikanische Bewegung führten Lukács zu dem Entschluß „nach einem gewissen Schwanken“ - der kommunistischen Partei beizutreten. 1919 wurde er Volkskommissar für Unterrichtswesen in der Räteregierung von Bela Kun und für sechs Wochen Politkommissar der fünften Division. Nach dem Sturz Bela Kuns emigrierte Lukács nach Wien, wo er von Anfang September 1919 bis zum II. Parteitag 1930/31 blieb. Ein Ruf an die Jenaer Universität wurde von den Sozialdemokraten (in Sachsen und Thüringen in einer Koalition mit den Kommunisten) 1923 vereitelt. In diesem Jahr erschien „Geschichte und Klassenbewußtsein“, das „eine tiefe Wirkung in den Kreisen der jungen Intelligenz ausübte; ich kenne eine ganze Reihe von jungen Kommunisten, die gerade dadurch für die Bewegung gewonnen wurden“ (Vorwort zur Neuausgabe von 1967). Lukács meinte in einem Interview vom Mai 1971 über das Buch: „Dieses Buch besitzt einen gewissen Wert, weil darin auch Probleme aufgeworfen werden, denen der Marxismus damals auswich. Es wird allgemein anerkannt, Leserbriefe daß hier erstmals das Problem der Entfremdung aufgeworfen wird und daß in dem Buch der Versuch unternommen wird, Lenins Revolutionstheorie organisch in die Gesamtkonzeption des Marxismus einzuordnen. Grundlegender Fehler des Ganzen ist der, daß ich eigentlich nur das gesellschaftliche Sein als Sein anerkenne und dass in 'Geschichte und Klassenbewußtsein', da hierin die Dialektik der Natur verworfen wird, jene Universalität des Marxismus vollkommen fehlt, die aus der anorganischen Natur die organische ableitet und aus der organischen Natur über die Arbeit die Gesellschaft“. Lukács verwies darin auf die Methode des Marxismus, der „revolutionären Dialektik“, und auf die „Herrschaft der Kategorie der Totalität“ als dem Prinzip in der Wissenschaft. Soll die materialistische Dialektik eine Logik der Geschichte sein, so müsse sie sich als Dialektik von Subjekt und Objekt konstituieren. Diese Dialektik bedeutet für ihn die Übernahme und materialistische Wendung von Hegels „Phänomenologie des Geistes“. In „Geschichte und Klassenbewußtsein“ versucht Lukács eine Rekonstruktion des Bildungsprozesses des revolutionären Proletariats als geschichtlichen Subjekts. Hegels Elemente, die Theorie als (Selbst-)Erkenntnis der Wirklichkeit, die Dialektik von Unmittelbarkeit und Vermittlung, die konstitutive Funktion des Bewußtseins im Für-sich-Werden der Klasse als Subjekt, werden erst dort konstitutiv, wo sie Lukács an der Analyse des Fetischcharakters der Ware ausweist. Denn „das Kapitel über den Fetischcharakter der Ware (verbirgt) den ganzen historischen Materialismus, die ganze Selbsterkenntnis des Proletariats als Erkenntnis der kapitalistischen Gesellschaft (...) in sich“. Mit der restlosen Verdinglichung des Arbeiters, der seine zur Ware gewordene Arbeitskraft verkaufen muß, ist die Möglichkeit seines Bewußtseins gesetzt; das Bewußtsein aber ist selbst ein praktisch umwälzendes. Gegen die objektivistische Revolutionstheorie setzt Lukács eine Klassenbewußtseinstheorie, basierend auf den Kategorien Subjekt und Objekt, die selbst in der ökonomischen Basis noch konstitutiv Kritik werden. kam nicht nur hinsichtlich seines (Uber-)Hegelianisierens, daß, wie Habermas einwandte, „die absolute Dialektik des Klassenbewußtseins den Gang der Geschichte von vornherein verbürgt“, sondern vor allem in Fragen der Dialektik der Natur. Lukács hatte Engels vorgeworfen, er habe, im Gegensatz zu Marx, „die dialektische Methode auch auf die Erkenntnis der Natur ausgedehnt, wo doch die entscheidenden Bestimmungen der Dialektik ... in der Naturerkenntnis nicht vorhanden sind“. Zurecht warf ihm bereits Abram Deborin vor, „er spiele Marx gegen Engels aus“ und nannte ihn folgerichtig einen „Dualisten: Idealist, soweit es sich um die Natur handelt, und dialektischen Materialist – in bezug auf die sozialhistorische Wirk- Leserbriefe lichkeit“. Hinsichtlich der Natur „erliege Lukács der idealistischen Fiktion der bürgerlichen Geschichtsphilosophie seit Vico, für den die Natur, weil nicht vom Menschen gemacht, auch nicht erkennbar schien, bis hin zur Hegelschen Disqualifikation der Natur als bloßer Form der 'Äußerlichkeit' des Geistes; er hat nicht begriffen, daß für die 'Dialektik der Natur' die Natur gerade nicht mehr das im Vergleich zur menschlichen Praxis 'Andere', sondern Element des Stoffwechsels, aus der Arbeit erst erwächst“ (H.-J. Sandkühler). Im Zuge des II. Parteitags Ende der zwanziger Jahre wurde Lukács beauftragt, politische und gesellschaftliche Strategien der Partei zu formulieren die sogenannten „Blum-Thesen“. Sie waren eine Vorwegnahme der späteren Volksfrontideologie, der Dialektik von Demokratie und Sozialismus, fanden aber in der Zeit des „Sozialfaschismus''-Dogmas keine Aufnahme. Lukács mußte in parteilicher Selbstkritik offiziell den Thesen abschwören. Nach Hitlers Machtergreifung ging Lukács in die Sowjetunion, wo er Mitglied des Philosophischen Instituts der „Akademie der Wissenschaften“ wurde. Seine zuvor in Berlin gemachte Bekanntschaft mit Bert Brecht und dem Kreis der 'Linkskurve' förderten seine Ausarbeitungen einer marxistischen „Ästhetik“, die „weder von Kant noch woandersher zu übernehmen ist ... (und) einen organischen Teil des Marxschen Systems zu bilden hat“. In Auseinandersetzung mit dem „stalinistischen Hyperrationalismus ..., wo der Rationalismus eine Form erhält, in der er in eine gewisse Absurdität übergeht“, schrieb Lukács die „Zerstörung der Vernunft“ (erschienen 1954 in Ungarn). Der Stalinismus als „eine Art von Zerstörung der Vernunft ... besteht meiner Meinung nach darin, daß die Arbeiterbewegung den praktischen Charakter des Marxismus aufrechterhält, daß aber in der Praxis das Handeln nicht durch die tiefere Einsicht der Dinge geregelt wird, sondern daß die tiefere Einsicht zur Taktik des Handelns hinzukonstruiert wird“. Eigentliche These von „Zerstörung der Vernunft“ ist, daß ein gerader Weg von den Höhen der spekulativen idealistischen deutschen Philosophie bis zu den Niederungen der menschenverachtenden nationalsozialistischen Praktiken führte, „der Weg Deutschlands zu Hitler auf dem Gebiet der Philosophie“. 1945 nach Ungarn zurückgekehrt, setzte Lukács sich für einen demokratischen Weg zum Sozialismus ein und war, nach der Rakosi-Aera (1945 1956), aktiver Mitinitiator und ZK-Mitglied während des Aufstands 1956. Nach der Niederschlagung vorerst nach Rumänien verbannt, konnte er im März 1957 nach Budapest zurückkehren. Neben der „Ästhetik“ bereitete Lukács eine „Ontologie“ vor „als die eigentliche Philosophie, die auf der Geschichte basiert“. Ihre wesentliche Kategorie war die der 'Arbeit', deren Leserbriefe „Wesen die teleologische Setzung des Menschen ist, was wir als menschlich gesellschaftliches Sein bezeichnen“. In seiner „Ontologie-Marx“ versuchte er das philosophisch Entscheidende von Marx herauszustellen: „den logisch-ontologischen Idealismus Hegels überwindend theoretisch wie praktisch die Umrisse einer materialistisch-historischen Ontologie aufgezeichnet zu haben ... Die Marxsche Ontologie entfernt aus der Hegelschen alle logisch-deduktiven und entwicklungsgeschichtlich teleologischen Elemente ... Alles Existierende muß immer gegenständlich sein, immer bewegender und bewegter Teil eines konkreten Komplexes. Das hat zwei Folgen. Erstens ist das gesamte Sein ein Geschichtsprozeß, zweitens sind die Kategorien nicht Aussagen über etwas Seiendes oder Werdendes, sondern bewegende und bewegte Formen der Materie selbst: 'Daseinsformen, Existenzbestimmungen'. Indem die radikale - ... - Position von Marx vielfach im alten Geiste interpretiert wurde, entstand die falsche Vorstellung, Marx unterschätze die Bedeutung des Bewußtseins dem materiellen Sein gegenüber. Diese Anschauung ist falsch: Marx faßte das Bewußtsein als ein spätes Produkt der materiellen ontologischen Entwicklung auf“. Eine geplante „Ethik“ wurde durch die Arbeit an der „Ontologie“ verdrängt, die Lukács „als philosophische Begründung der 'Ethik“' ansah. Lukács starb am 4.06.1971. Trotz aller Ambivalenz war Lukács „als Nestor einer der wichtigsten Perioden des Marxismus, nämlich derjenigen seines Eindringens in die Praxis der Menschheit durch die Entstehung der ersten sozialistischen Staaten, anerkannt und als Vorkämpfer der Rückbesinnung auf Hegel innerhalb des Marxismus ... Seine dialektische Methode hat ihm erlaubt (...), sich immer wieder selbst zu korrigieren“ (W. Abendroth). Lukács heute ehren, heißt, sein Werk zu studieren und kritisch zu erweitern. Alle nicht ausgewiesenen Zitate von Lukács stammen aus Georg Lukács, Gelobtes Denken. Eine Autobiographie im Dialog, Frankfurt/Main 1981. In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 178-179 Autorin: Ulrike Schwemmer Artikel/Glosse Glosse: Ulrike Schwemmer Also doch Übermensch? Auch das Zeitalter des Computers hat seine Probleme, die durch bloße Information nicht zu lösen sind. Herbeigeführt nicht zuletzt durch die unterschiedlichen Beurteilungen dieses technischen Phänomens. Im groben gilt es zwei Richtungen in dieser Streitfrage zu unterscheiden: Die eine besteht in den strikten Befürwortern und Verteidigern dieser jüngsten menschlichen Erfindung, zeigt sie doch wieder einmal, was der Mensch so alles vermag, wie sehr er doch über den Dingen steht und diese zu beherrschen weiß. Die andere Richtung reagiert auf dieses Wissen ängstlich und betreten: Der Computer bereits als nächster Schritt der Evolution, als Ablösung menschlichen Denkens und Handelns? Die Furcht erscheint oberflächlich betrachtet nicht ganz unbegründet. Macht sich doch dieses elektronische Monstrum mittlerweile im ganz Alltäglichen bemerkbar. Als Erfüllungshilfe der Öffentlichkeit ist es meist eine Maschine, welche den Einzelnen zu Zahlungen und dergleichen auffordert. Aber damit nicht genug: man bedarf zur Dechiffrierung mindestens Zeit und Nerven und am besten einen Spezialisten. Aber nicht nur die Korrespondenz ist entpersönlicht. Der Traum jeder Hausfrau, lästige Besorgungen nicht immer selbst tätigen zu müssen, scheint durch die praktische Ankoppelung des Homecomputers an den des nächsten Einkaufszentrums in greifbare Nähe gerückt, erweist sich aber jetzt bereits als Alptraum. Das ohnehin schon atomisierte Individuum fühlt sich durch die Maschine immer mehr bedroht und in die Isolation getrieben. Aber dies wäre ja vielleicht noch zu verkraften, darüber hinaus ist die Ulrike Schwemmer Macht der Gewohnheit nicht zu unterschätzen: Die Geschichte der Menschheit als eine Geschichte des Fortschritts, nicht zuletzt des technischen, ist auch schon mit anderen Problemen fertiggeworden, bedeutet doch jede Innovation erst einmal eine Bedrohung des Gewohnten, ist dadurch potentieller Faktor der Verunsicherung, stört sie doch das erworbene Gefühl des Heimischseins in der Welt. Somit muß alles Neue erst wieder zu etwas Selbstverständlichem und Vertrauten werden, das Subjekt muß sich das Neue erst aneignen. Von diesem Blickwinkel aus betrachtet wird sicher auch der Computer einst zum integrierten und akzeptierten Glied dieser Gesellschaft. Jedoch erscheint in diesem Falle die Sorge um den Verlust subjektiver Bestimmung begründeter. Ist doch die Vorstellung von einer eventuellen Fremdbestimmung durch ein "elektronisches Gehirn" zumindest keine angenehme. Und hier ist wohl auch der Kern des Problems enthalten. Denn beim Computer handelt es sich um eine Errungenschaft, die zu der Frage Anlaß gibt: "Wie werde ich die Geister, die ich rief" wieder los? Denn besteht nicht gerade hier die Möglichkeit, daß die Erfindung sich verselbständigt, d.h. eigenständig denkt? Und das, wo doch angeblich der Umgang mit diesem Instrument zur allgemeinen Verdummung führen soll, zu absoluter Einseitigkeit. Ist hierin also eine Gefahr zu sehen, insofern als der Computer sich eindimensionale Gegenüber schafft, die sich leicht beherrschen lassen, indem sie ihre Denkfähigkeit verlieren? - Der Verlust der subjektiven Denkfähigkeit wäre dann jedoch eine Größe, mit der man umzugehen lernen müßte, in Anbetracht der immer weiteren Verbreitung dieser Monstren in Arbeitsbereich und Privatraum. Ob diese Tatsache jedoch gleichzusetzen ist mit Beherrschung durch die Maschine sei dahingestellt. Nicht zuletzt, weil ein entscheidender Punkt in der Bekämpfung individueller Angst meist außer Acht gelassen wird, daß die Maschine immer nur das ausspucken kann, was vorher als Resultat menschlichen Denkens in sie programmiert wurde. Eine neue Etappe im Zuge der Aufklärung könnte sich dahingehend sicher beruhigend auf die erhitzten Gemüter auswirken. Der entscheidende Einwand gegen die Befürchtung, im Computer ein eigenständiges intelligentes Gegenüber anzutreffen, das in der Lage ist, den Menschen zu ersetzen – öffentlich und privat - wäre ja wohl der, daß der Mensch im allgemeinen noch Bewußtsein aufzuweisen hat. Und ebendieses muß dem "elektronischen Gehirn" entschieden abgesprochen werden: Womit die menschliche Vormachtstellung bis dato wieder gesichert wäre. Solange sich nämlich die Maschine ihrer ausgeführten Handlungen nicht bewußt wird, kann sie auch nicht eigenständig auf dem Wege der Selbstreflexion Neues hervorbringen, kann sie bis auf weiteres wohl keine Ent- Also doch Übermensch? scheidungen treffen. Es wäre somit kein verfehlter Schritt, wenn sich die aufgebrachte Schar der Computergegner dieser kleinen, aber dennoch entscheidenden Tatsache bewußt würde und begriffe, daß auch diese technische Erfindung - richtig gebraucht - nur ein weiteres Mittel zum Zweck darstellt, die menschliche Vormacht zu etablieren. In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 180-181 Buchneueingänge/Bildnachweise Anhang Neueingänge/ Bildnachweise Buchneueingänge: 1. Manfred Buhr / Hans Jörg Sandkühler (Hrsg.), Philosophie in weltbürgerlicher Absicht und wissenschaftlicher Sozialismus, PahlRugenstein, Köln 1985 2. Günther Ortmann, Der zwingende Blick. Personalinformationssysteme, Campus-Verlag, .Frankfurt/Main 3. Paul Feyerabend, Wissenschaft als Kunst, Suhrkamp-Verlag, es 1231, Frankfurt/Main 1985 4. Kultur und Tradition, Minerva-Publikationen, München 5. Claude Levi-Strauss, Mythos ohne Illusion, Suhrkamp- Verlag, es 1220, Frankfurt/Main 1985 6. Thomas Jaspersen, Produktwahrnehmung und stilistischer Wandel, Campus-Verlag, Frankfurt/Main 1985 7. Die Camera obsura der Ideologie, hrsg. vom Projekt Ideologie-Theorie, Argument-Verlag, West-Berlin 1984 8. Zerreißproben - Automation im Arbeitsleben, West-Berlin 1983 Argument-Verlag. Neueingänge 9. Neunzehn-Hundert-Vierundachtzig, Argument-Verlag. West-Berlin 1984 10. Karl Heinz Ilting, Verlag, Stuttgart Naturrecht und Sittlichkeit, 11. Schaper/Vossenkuhl (Hrsg.), Klett-Cotta-Verlag, Stuttgart Bedingungen AS 105, Klett- Cotta- der Möglichkeit, 12. Clemens Burichter (Hrsg.), Ein kurzer Frühling der Philosophie, Schöningh-Verlag, Paderborn 13. Willi Oelmüller (Hrsg.), Wiederkehr von Religion, SchöninghVerlag, Paderborn 14. Reinhard Löw, Nietzsche. Sophist und Erzieher, Acta- Humaniora-Verlag 15. Am Ende der Weisheit? Menschlichkeit jenseits von Computern und Ideologen, Herder-Initiative 9558, Freiburg 1984 16. Bernhard Waldenfels, In den Netzen der Lebenswelt, Suhrkamp-Verlag, stw 545,Frankfurt/Main 1985 17. Gernot Böhme, Anthropologie in pragmatischer Absicht, Suhrkamp-Verlag, es 1301, Frankfurt/Main 1985 18. Rüdiger Lutz, Bewußtseinsrevolution, Beltz-Verlag, Weinheim 19. Wolfhart Henckmann, schaft, Darmstadt 1979 Ästhetik, Wissenschaftliche Buchgesell- 20. Otto Ulrich, Die Informationsgesellschaft als Herausforderung, Haag + Herchen-Verlag, Frankfurt/Main 21. Walter L. Bühl, Struktur und Dynamik des menschlichen Sozialverhaltens, Mohr-Verlag, Tübingen 1982 22. Jürgen Habermas, Der philosophische Diskurs der Moderne, Suhr Neueingänge kamp-Verlag, Frankfurt/Main 1985 23. Peter Müller, Transzendentale Kritik und Teleologie, Königshau sen und Neumann, Würzburg 24. Erich Heintel, Grundriß der Dialektik, Bd. 1 und 2, Wissenschaft liche Buchgesellschaft, Darmstadt 1984 25. Michael Opielka, Die ökosoziale Frage, Fischer-Verlag, Frank furt/Main 1985 26. M. Schröter, "Wo zwei zusammenkommen in rechter Ehe". Soziound psychogenetische Studien über Eheschließungsverträge vom 12. - 15. Jhrt., Suhrkamp-Verlag, Frankfurt/Main 1985 Bildnachweise: S.21, in: Staatliche Kunsthalle Berlin (Hrsg.), Kunst und Medien, Berlin 1984, S. 260 S. 28, in: K. Modick, M.-J. Fischer, Kabelhafte Perspektiven, Hamburg 1984, S. 50 S. 32, in: R. Lindner, B. Wohak, H. Zeltwanger, Planen, Entscheiden, Herrschen, Reinbek 1984, S. 50 S. 50, in: Juristenblatt 11/85 S. 54, in: Künstliche Kunst. Museums, Prospekt 1985 Eine Sonderausstellung des Siemens- S. 66, in: Herbert W. Franke, Computergrafik-Galerie, Köln 1984 S. 98, in: K. Modick, M.-J. Fischer, a.a.O., S. 176 S. 111, in: D. Hofstadter, Gödel, Escher, Bach, S. 734 In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 182-183 AutorInnen AutorInnen AutorInnen In: Widerspruch Nr. 10 (02/85) COMPUTER - DENKEN SINNLICHKEIT (1985), S. 184 Impressum Impressum