Buch: Wissenschaftliche Philosophie - Das Computer

Werbung
Wissenschaftliche Philosophie
Sammelband meiner kleineren philosophischen Schriften bis 2016
Dr. Lothar Arendes
2016
1
Inhaltsverzeichnis
Internet Heimseite: Wissenschaftliche Philosophie ....................................... 3
Einführung in die wissenschaftliche Philosophie: Ein Überblick ................... 9
Teil I: Auszüge aus meinen Büchern
Stufen der Forschung: Von den Daten zur Theorie und Naturphilosophie ....
Interpretation der Quantenmechanik: Das Computer-Weltbild .....................
Grundzüge der wissenschaftlichen Weltauffassung .....................................
Ansätze zur physikalischen Untersuchung des Leib-Seele-Problems .........
Naturphilosophische Leitideen für die biophysikalische Forschung ...........
Parapsychologische Untersuchungen zur Hypothese vom Überleben des
körperlichen Todes ...............................................................................
Deutungsprobleme in der mathematischen Physik:
Lorentz-Transformationen und Einsteins Feldgleichungen .................
Philosophische Leitideen für die geisteswissenschaftliche Forschung .......
Kopenhagener Interpretation (Bohr, Heisenberg) .......................................
Objektive Erkenntnis ....................................................................................
Diskussionen über Bewusstsein ...................................................................
Diskussionen über Leben .............................................................................
23
43
66
94
118
138
158
178
202
207
210
263
Teil II: Schriften mit weiteren Themen
Kritische Bewertung verschiedener Computer-Weltbilder .........................
Grundlegung der introaktiven Psychologie .................................................
Funktionen der Ethik in einer naturalistischen Welt ...................................
Hauptprobleme heutiger Gesellschaftsphilosophie .....................................
Denkanstöße. Eine kleine Aphorismensammlung .......................................
Anmerkungen zu einigen Computer-Weltbildern .......................................
Die hellenistischen und persischen Götter als Lichtwesen ..........................
Plotin: Enneaden ..........................................................................................
2
337
349
368
390
412
506
514
521
Internet Heimseite:
Wissenschaftliche Philosophie
Philosophie ist das vernunftgeleitete Streben nach Wissen und dessen Anwendung
zur Anleitung einer guten Lebensführung: Sie erstrebt ein globales Wissen u.a.
über die Art und Geltung unserer Erkenntnis (Erkenntnistheorie) und über die
Natur von Mensch und Welt (Naturphilosophie und Ontologie, falls man glaubt,
das gesamte Sein sei mehr als die materielle Welt) und macht darauf aufbauend
Vorschläge bezüglich der höchsten Ziele unserer Handlungen und der Weise ihrer
Erreichung (Ethik, Staats- und Gesellschaftsphilosophie). Demgegenüber arbeiten
die Wissenschaften primär empirisch, konzentrieren sich auf Details und bemühen
sich nicht darum, Werte und Normen zu begründen.
In der wissenschaftlichen Philosophie werden auf der Basis der wissenschaftlichen Erkenntnisse aller relevanter Einzelwissenschaften philosophische Aufgabengebiete behandelt wie beispielsweise die naturphilosophische Ausarbeitung der
wissenschaftlichen Weltauffassung, worauf aufbauend philosophische Leitideen
formuliert werden, die umgekehrt wiederum den Wissenschaftlern Anregungen zu
neuen Theorien geben können. Die hier entwickelte Weltauffassung lässt sich wie
folgt kurz zusammenfassen:
Es gibt eine allgegenwärtige unbeobachtbare Grundsubstanz, welche verschiedene
Phänomene wie z.B. Raum, Zeit, Materie und Bewusstsein hervorbringt bzw.
hervorgebracht hat. In dieser Substanz sind die Naturgesetze als Informationen
enthalten, welche das Verhalten der hervorgebrachten Materie bei komplexen
hierarchischen Strukturen teleonom, bei einfachen Objekten hingegen
mechanistisch steuern.
3
"Philosophie" bedeutet wörtlich übersetzt "Liebe zur Weisheit". Was aber ist
Weisheit? Weisheit drückt sich auf drei Ebenen aus: auf der Ebene des Wissens,
des Handelns und auf der Ebene der inneren Lebenseinstellung. Das Wissen des
Weisen (bzw. der Weisen) ist der Glaube, dass eine höhere Macht (z.B. als
Weltgeist oder Weltsoftware bzw. als Naturgesetze) die Welt lenkt. Was die
Handlungen betrifft, bemüht sich der Weise um die Einhaltung der
gesellschaftlichen Werte, wobei ideelle Werte Vorrang haben vor den materiellen.
Wissen, Schönheit und platonische Liebe gelten ihm mehr als die Anhäufung von
Geld. Was die Lebenseinstellung betrifft, lässt er sich nicht davon erschüttern,
wenn nicht alles nach seinem Willen läuft. Was einem zustößt, wird in einem
großen Umfang von Naturgesetzen bestimmt – warum sich also aufregen? Diese
stoische Gelassenheit ist auch ein äußerlich erkennbares Kennzeichen von
Weisheit.
Einen Überblick über die wissenschaftliche Philosophie geben meine folgenden
Aufsätze. Wer nicht viel Zeit zum Lesen hat und nur einen kurzen Einblick in
diese philosophische Richtung gewinnen möchte, dem bzw. der empfehle ich den
Aufsatz über die Einführung in die wissenschaftliche Philosophie und den Aufsatz
über die Interpretation der Quantenmechanik.
Einführung in die wissenschaftliche Philosophie: Ein Überblick:
In diesem Aufsatz werden die Grundgedanken meiner wissenschaftlichen Philosophie
beschrieben. Im Abschnitt über Naturphilosophie wird die wissenschaftliche Weltauffassung
dargestellt, die sich mit Hilfe des Computer-Weltbildes veranschaulichen lässt. In der
Erkenntnistheorie wird die Ansicht vertreten, dass wir objektive Erkenntnisse über die Welt
haben, dass diese aber nur approximativ sind und nicht das Wesen der Welt in ihrer Gesamtheit
wiedergeben. In der Ethik werden vor allem Kooperation, Edeltum und sittliche
Vervollkommnung angestrebt. Und in der Gesellschafts- und Staatsphilosophie haben
Philosophen eine Überwachungsfunktion für die Einhaltung der staatlichen Verfassung,
außerdem sind die heutigen Gesellschaftsprobleme auf der Grundlage moderner wissenschaftlicher Erkenntnisse zu überdenken, um eine kulturelle Erneuerung des Westens zu erreichen.
4
Erkenntnistheorie und Naturphilosophie
Die wichtigsten Fragestellungen in der theoretischen Philosophie sind heute die,
inwieweit die Philosophie über die naturwissenschaftlichen Theorien hinausgehend
etwas über die Natur aussagen kann, was die fundamentalste Theorie der Physik,
die Quantenmechanik, über die Natur aussagt, und wie die Welt in ihrer Grundstruktur beschaffen ist.
Methodologie der wissenschaftlichen Naturphilosophie:
Die wissenschaftliche Forschung durchläuft in ihrer Entwicklung verschiedene Stadien, und
besonders in einem fortgeschrittenerem Stadium können naturphilosophische Überlegungen eine
wichtige Rolle spielen, wie die Wissenschaftsgeschichte in mehreren Fällen nachweisen konnte.
Die Methodologien der hier vorgestellten wissenschaftlichen Naturphilosophie und der
Naturwissenschaft haben eine analoge und miteinander verbundene Form. Dabei entsprechen die
empirischen Daten der Naturwissenschaft in der Naturphilosophie den zentralen Aussagen der
wissenschaftlichen Theorien, und von diesen vorgegebenen wissenschaftlichen Theorien geht
der Naturphilosoph zu einem Weltbild über, aus dem sich Leitideen ableiten lassen, welche den
Naturwissenschaftlern Anregungen zu neuen Theorienkonstruktionen geben können.
Interpretation der Quantenmechanik: Das Computer-Weltbild:
Obwohl die Quantenmechanik (QM) bereits vor über 80 Jahren entstanden ist, gilt sie bei vielen
Physikern immer noch als unverstanden. In diesem Aufsatz wird der Vorgang des "Verstehens"
aus der Sicht der kognitiven Psychologie beschrieben, um auf dieser Grundlage das
Interpretationsproblem der QM zu behandeln. In der kognitiven Psychologie wird ein neuer
Sachverhalt als verstanden betrachtet, wenn es gelingt, ihn in eine vorhandene Denkstruktur zu
integrieren. Die semantische Deutung von mathematischen Formeln ergibt sich danach aus ihrer
Einbettung in ein umfassenderes Begriffssystem, welches als das Weltbild des Wissenschaftlers
bezeichnet werden kann. In diesem Sinne wird hier die QM mit einer Weltbild-Analogie
gedeutet, bei der die Welt mit einem Computer verglichen wird.
Relativitätstheorie:
Während in der Quantenmechanik die semantische Deutung des mathematischen Formalismus in
Bezug auf die physikalische Realität und/oder auf die Sinnesdaten immer noch sehr umstritten
ist, hat sich bei den Formeln der Lorentz-Transformationen und bei den Einsteinschen
Feldgleichungen die relativistische Deutung durchgesetzt. In dieser Arbeit werden die Probleme
der relativistischen Deutung untersucht, und es wird vorgeschlagen, die alternative Deutung von
Lorentz und Poincaré wieder in Betracht zu ziehen. Es wird gezeigt, dass die Spezielle
Relativitätstheorie im Rahmen des klassischen physikalischen Realismus nicht verstanden
werden kann, dass sie aber vereinbar ist mit denjenigen Interpretationen der Quantenmechanik,
nach denen die Physik primär nur über Beobachtungen spricht. Es wird außerdem dafür
argumentiert, dass es Einstein nicht gelungen ist, das allgemeine Relativitätsprinzip befriedigend
5
zu verwirklichen.
Grundzüge der wissenschaftlichen Weltauffassung:
Im 20. Jahrhundert kam es durch die Quantenmechanik zum Zusammenbruch des klassischen
wissenschaftlichen Weltbildes, und in diesem Aufsatz erläutere ich die grundlegenden Begriffe
unserer heutigen wissenschaftlichen Theorien: Äther bzw. Vakuum, Elementarteilchen,
Naturgesetze, Raumzeit, Emergenz, Selbstorganisation, Evolution, Einheit, Ganzheit, System,
Schachtelung der Objekte, Schichtung der Gesetze, Kausalität, Teleonomie, Teleologie und
Zufall. Aufbauend auf diesen Grundbegriffen gebe ich eine allgemeine Beschreibung unserer
heutigen wissenschaftlichen Weltauffassung.
Leitideen für die wissenschaftliche Forschung
Die Naturphilosophie hat in der Wissenschaft drei Funktionen. Neben der Analyse
der grundlegenden Aussagen der wissenschaftlichen Theorien und ihrer Synthese
zu einer allgemeinen Weltauffassung hat sie die Aufgabe, die wissenschaftliche
Theorienkonstruktion zu fördern durch die Bereitstellung von naturphilosophischen Leitideen.
Leib-Seele Problem:
Beim Leib-Seele Problem werden ein Kognitions- und ein Bewusstseinsproblem unterschieden,
und es wird der Ansatz gemacht, dass das visuelle Bewusstsein ein Feld ist in Analogie zum
metrischen Feld der Allgemeinen Relativitätstheorie. Die informationsverarbeitenden unbewussten Kognitionen sollten einerseits durch Modelle der neuronalen Netzwerke erfasst werden,
andererseits könnten einige Prozesse zusätzlich im Quantenvakuum ablaufen.
Naturphilosophische Leitideen für die biophysikalische Forschung:
Es wird die These vertreten, dass eine der Aufgaben der Naturphilosophie die Bereitstellung von
Leitideen für die naturwissenschaftliche Forschung ist, und auf dieser Grundlage werden
Ansätze zur Formulierung biophysikalischer Theorien ausgearbeitet. Im Unterschied zu Physik
und Chemie spielt in der Biologie der Funktionsbegriff eine überragende Rolle. Deshalb wird die
Hypothese aufgestellt, dass es in Organismen biophysikalische Felder mit einer
6
funktionalistischen Dynamik gibt. Die heutige Physik wird als Grenzfall einer umfassenderen
biophysikalischen Theorie aufgefasst, und es wird vorgeschlagen, den Funktionalismus auf der
Ebene der Naturkonstanten oder anderer physikalischer Parameter im Rahmen der Mathematik
nichtlinearer Differentialgleichungen zu formulieren.
Gibt es ein Überleben des körperlichen Todes?
Seit über hundert Jahren werden von der Parapsychologie Phänomene beschrieben und kritisch
untersucht, die von manchen Autoren als empirische Belege für das geistige Überleben des
körperlichen Todes angeführt werden. Eine Zusammenfassung der wichtigsten Phänomenarten
(Erscheinungen, Sterbebett-Visionen, Nahtoderlebnisse, Medienkundgebungen, scheinbare
Erinnerungen an frühere Leben und außerkörperliche Erfahrungen) und die darauf aufbauenden
Argumente und Gegenargumente der Befürworter und Kritiker der Überlebenshypothese werden
in dieser Arbeit überblickartig vorgestellt.
Leitideen für die geisteswissenschaftliche Forschung:
Auf der Grundlage der heutigen wissenschaftlichen Weltauffassung werden heuristische
Leitideen für die Forschungen auf den Gebieten der Psychologie, Soziologie und Philosophie
ausgearbeitet. Dabei geht es u.a. um Bewusstsein und Handlungstheorie, um die ontologische
Natur von Werten und Normen, die Faktoren des gesellschaftlichen Wandels und um die
Ausarbeitung gesellschaftlicher und internationaler Werte.
Grundlegung der introaktiven Psychologie:
In den letzten Jahren ist es in den Bevölkerungen des Westens zu einem starken Anstieg der
esoterischen Praktiken gekommen. Da es außerdem im 20. Jahrhundert in der Physik zu
theoretischen und weltanschaulichungen Veränderungen gekommen ist, die die Mechanismen
derartiger Techniken theoretisch denkbar machen, wird in dieser Arbeit dafür plädiert, diese
Praktiken wissenschaftlich zu untersuchen. Dazu werden hier die weltanschaulichen und methodologischen Grundlagen dieser neu zu etablierenden introaktiven Psychologie besprochen.
7
Ethik und Gesellschaftsphilosophie
In den folgenden Aufsätzen über praktische Philosophie geht es darum, den
derzeitigen kulturellen Verfall des Westens aufzuhalten und eine ethische und
gesellschaftsstrukturelle Erneuerung anzuregen.
Funktionen der Ethik und ihre Ausarbeitung durch die Philosophie:
Nachdem die Philosophie seit ihrer Wiedergeburt in der Renaissance große Fortschritte in der
Staats- und Gesellschaftsphilosophie (z.B. durch Grundlegung der modernen Demokratie) und in
jüngerer Zeit auch in Erkenntnistheorie und Naturphilosophie gemacht hat, verbleibt nun noch,
die Ethik als letztes wichtiges philosophisches Hauptgebiet modern auszuarbeiten. Dies ist
heutzutage auch deshalb besonders wichtig, weil immer mehr Kulturträger und Politiker den
kulturellen Niedergang des Westens zu beklagen haben. In dieser Arbeit wird herausgearbeitet,
dass aus naturalistischer Sicht die beiden Hauptfunktionen der Ethik die Erhaltung der
Gesellschaft und das Glück der in ihr lebenden Personen sind, und auf dieser Grundlage werden
Hinweise gegeben, auf welche Weise die Philosophie die drei Hauptbereiche der Ethik
(Begründung bzw. Durchsetzung der Werte und Normen, Allgemeinethik und Spezialethiken)
ausarbeiten sollte.
Hauptprobleme heutiger Gesellschaftsphilosophie:
Unsere Gesellschaft hat sich in den letzten 100 Jahren tiefgreifend verändert, was auch zu vielen
neuen gesellschaftspolitischen Problemen geführt hat, die jeweils einzeln für sich und im
globalen Zusammenhang von der Gesellschaftsphilosophie überdacht werden müssen. In diesem
Aufsatz werden diese Probleme hauptsächlich nur vorgestellt, um ihre wissenschaftlichphilosophische Bearbeitung zu motivieren, Vorschläge für die Behandlung dieser Probleme
werden aber ebenfalls gegeben.
8
Einführung in die wissenschaftliche Philosophie:
Ein Überblick über meine Philosophie
Dr. Lothar Arendes
Zusammenfassung: In diesem Aufsatz werden die Grundgedanken meiner wissenschaftlichen
Philosophie beschrieben. Im Abschnitt über Naturphilosophie wird die wissenschaftliche Weltauffassung dargestellt, die sich mit Hilfe des Computer-Weltbildes veranschaulichen lässt. In der
Erkenntnistheorie wird die Ansicht vertreten, dass wir objektive Erkenntnisse über die Welt
haben, dass diese aber nur approximativ sind und nicht das Wesen der Welt in ihrer Gesamtheit
wiedergeben. In der Ethik werden vor allem Kooperation, Edeltum und sittliche Vervollkommnung angestrebt. Und in der Gesellschafts- und Staatsphilosophie haben Philosophen eine Überwachungsfunktion für die Einhaltung der staatlichen Verfassung, außerdem sind die heutigen
Gesellschaftsprobleme auf der Grundlage moderner wissenschaftlicher Erkenntnisse zu überdenken, um eine kulturelle Erneuerung des Westens zu erreichen.
Philosophie ist das vernunftgeleitete Streben nach Wissen und dessen Anwendung
zur Anleitung einer guten Lebensführung: Sie erstrebt ein globales Wissen u.a.
über die Natur von Mensch und Welt (Naturphilosophie und Ontologie, falls man
glaubt, das gesamte Sein sei mehr als die materielle Welt) und über die Art und
Geltung unserer Erkenntnis (Erkenntnistheorie) und macht darauf aufbauend
Vorschläge über die höchsten Ziele unserer Handlungen und über die Weise ihrer
Erreichung (Ethik, Staats- und Gesellschaftsphilosophie). Demgegenüber arbeiten
die Wissenschaften primär empirisch, konzentrieren sich auf Details und bemühen
sich nicht darum, Werte und Normen zu begründen. Um aber realitätsfernes
Spekulieren zu verhindern, werden in meiner „wissenschaftlichen Philosophie“
alle Themenbereiche in enger Anlehnung an die Erkenntnisse der empirischen
Einzelwissenschaften behandelt, und in den vier Hauptdisziplinen der Philosophie
vertrete ich deshalb die folgenden Ansichten:
9
Naturphilosophie
Eine der bedeutendsten physikalischen Erkenntnisse des 20. Jahrhunderts ist, dass
die kleinsten beobachtbaren Materieteilchen keine unzerstörbaren Grundsubstanzen sind, sondern aus dem Vakuum bzw. Äther entstehen: Die Welt besteht aus
einer allgegenwärtigen, unbeobachtbaren Grundsubstanz, dem Äther, und in
diesem Urmateriefeld sind die Naturgesetze als Informationen implementiert, die
die Entstehung und Vernichtung der beobachtbaren materiellen Objekte und ihre
Bewegungsformen steuern. Die Entstehung von neuartigen Eigenschaften und
Objekten wird als Emergenz bezeichnet, und vor mehreren Milliarden Jahren ist
aus dem Äther im Urknall die Raumzeit und die beobachtbare Materie entstanden.
Seit dem Urknall dehnt sich das Universum beständig aus und die zunächst fast
vollständig homogene oder chaotische Verteilung der sogenannten Elementarteilchen hat sich im Lauf der Zeit in einem Prozess der Selbstorganisation zu
immer komplexeren Systemen zusammengelagert: zu Atomen, Molekülen, Organismen, Gesellschaften und Kulturkreisen. Derartige Systeme sind oftmals nicht
nur Zusammensetzungen aus einzelnen Teilobjekten, sondern haben auch emergente Globaleigenschaften, die die Komponenten nicht besitzen, wie etwa das
Bewusstsein bei höheren Lebewesen. Und obwohl alle diese Objekte aus mehreren
Teilobjekten bestehen, sind sie in der Lage, als zusammengehörende Einheiten zu
wirken. Am markantesten ist das bei unserem Körper. Wir bestehen aus vielen
Molekülen, fühlen uns aber dennoch als eine Einheit mit persönlicher Identität,
denn die Bewegungen der einzelnen Moleküle sind auf das Gesamtverhalten des
Organismus abgestimmt. Die Abgrenzung von zusammengehörenden Einheiten
gegenüber der Umwelt ist jedoch oft nicht vollständig; so können einzelne
Einheiten selbst wieder Teile von übergeordneten Gesamtsystemen sein. Die
Organe eines Körpers (Magen, Herz, Hirn etc.) bilden zwar voneinander getrennte
Gesamtkomplexe, sind aber dennoch Teile des gesamten Lebewesens. Tatsächlich
besitzen viele der im Lauf der Selbstorganisation entstandenen realen Objekte eine
sehr komplexe Schachtelungsstruktur. Schachtelung bedeutet, dass mehrere Komponenten zu einem System zusammengelagert sind, mehrere derartige Systeme
bilden zusammen wiederum ein noch größeres System, viele solcher Systeme
wiederum ein übergeordnetes Gesamtsystem etc. So bilden zum Beispiel im
Gehirn mehrere Proteine einen Ionenkanal, viele Ionenkanäle bilden mit anderen
Objekten eine Zellmembran, diese ist wiederum Teil einer Hirnzelle, viele Hirnzellen bilden einen Hirnkern, viele Kerne sind Teile des Gehirns, welches Teil
eines Menschen ist, welcher zu einer Gesellschaft gehört. Dieser Schachtelung der
realen Objekte entspricht auf der Ebene der Naturgesetze, die diese Objekte
steuern, eine hierarchische Struktur, die als Schichtung bezeichnet wird. Die
untersten Schichten werden gebildet von den Bewegungsgesetzen der einfachsten
Objekte wie der leblosen Materie, darüber liegt die Schicht der biologischen
10
Gesetze, darüber die der Psychologie, der Soziologie und der Wissenschaft von
den internationalen Beziehungen (s. Abb. 1). Leblose Materie wird von den Gesetzen der Physik und Chemie gesteuert; sind aber beispielsweise Ionen Teile eines
Körpers, so werden ihre physikalischen Gesetze von den Gesetzen der Biologie
überformt; Menschen sind Teile einer Gesellschaft und ihr psychologisches
Verhalten wird von sozialen Gesetzen mitbestimmt. Die Konzeption einer
Schichtung der Naturgesetze besagt somit, dass die schichthöheren Naturgesetze
die genaue Ausgestaltung der niederen bestimmen. Dies bezeichnet man auch als
Abwärtskausalität; die höhere Systemebene beeinflusst das Verhalten der niederen.
Bei Mikroobjekten (Elementarteilchen) und Aggregaten mit geringer Teilchenanzahl scheinen Zufallsprozesse eine wichtige Rolle zu spielen, wohingegen das
Verhalten von Makroobjekten, die sich aus sehr vielen Bestandteilen
zusammensetzen, dem Kausalitätsprinzip unterliegt, wobei sich allerdings das
Zufallsverhalten von Mikroobjekten in bestimmten Situationen auch auf das
Verhalten der Makroprozesse übertragen kann. Das Kausalitätsprinzip besagt, dass
Bewegungsänderungen eines Objektes durch äußere Ursachen hervorgerufen
werden, und bei komplexeren Systemen wie den Prozessen innerhalb eines
Organismus oder des gesamten Lebewesens sind die Bewegungsabläufe zumeist
auch teleonom, d.h. zielgerichtet. Diese Teleonomie bei komplexeren Objekten ist
gegenüber dem mechanistischen Verhalten der physikalischen Grundobjekte eine
dynamische Emergenzeigenschaft der Organismen; während physikalische Makrokörper sich immer gleichartig mechanistisch verhalten, laufen biologische Systeme
ab, um ein Ziel zu erreichen: Das Herz schlägt, um den Kreislauf und dadurch den
gesamten Organismus zu erhalten; das Gehirn verarbeitet Informationen, um den
Körper zu steuern; Vögel ziehen im Herbst in den warmen Süden, um dort zu
überwintern etc.
Zur Illustration dieser etwas abstrakten wissenschaftlichen Weltauffassung ist es
nützlich, die Welt mit einem Computer zu vergleichen. Bei diesem ComputerWeltbild entspricht die Hardware des Weltcomputers dem Quantenvakuum bzw.
Äther, die Software stellt die Naturgesetze dar, und der Computer-Bildschirm mit
den darauf abgebildeten Objekten entspricht unserer Raumzeit mit den darin
befindlichen Objekten. Auf diese Weise lässt sich gut veranschaulichen, dass
Naturgesetze eine eigene Existenzform besitzen; nämlich auf ähnliche Art wie die
Software im Computer etwas wirklich Existierendes ist, aber natürlich nicht ohne
Hardware sein kann, deren innere Struktur sie ist. Diese Weltsoftware bzw. die im
Äther verankerten Naturgesetze bilden eine Art Weltgeist. Auch kann man sich
nun den etwas abstrakt anmutenden Ausdruck der Emergenz neuer Eigenschaften
besser vorstellen: Die Entstehung neuer Eigenschaften entspricht der Projektion
von neuen Phänomenen auf den Computer-Bildschirm. Und schließlich wird auch
die Teleonomie durch das Computer-Weltbild verständlicher: Computerprogramme laufen ab, um bestimmte Zielzustände zu erreichen.
11
Aus dem Computer-Weltbild bzw. aus der wissenschaftlichen Weltauffassung
lassen sich für die Forschung zahlreiche Leitideen entwickeln, die in den
Wissenschaften zu empirisch testbaren Theorien führen könnten. So ist eines der
größten Probleme der theoretischen Physik die Frage, wie in der Quantenmechanik
die Superposition vieler Eigenfunktionen im Messvorgang zu dem einen Wert der
beobachteten Eigenfunktion übergeht. Nach unserer Weltauffassung ist dieses
Problem nicht durch herkömmliche Bewegungsgleichungen zu lösen; vielmehr
sollte es sich hierbei um einen Vorgang der Projektion des Messwertes vom Äther
in die Raumzeit handeln.
Abb. 1: Schichtenaufbau der Naturgesetze. Jede Schicht ruht auf der darunter liegenden auf, und
die Gesetze jeder Schicht werden von denen der darüber liegenden überformt.
Auch für die Biologie gibt diese Weltauffassung zahlreiche Lösungsvorschläge.
Denkbar ist beispielsweise, dass es in biologischen Organismen zur Emergenz von
neuartigen Feldern kommt, welche es in der Physik außerhalb der Biologie nicht
gibt und die das Verhalten der Moleküle steuern. Das zielgerichtete Verhalten
biologischer Systeme sollte man versuchen zu erklären, indem man bei den Naturgesetzen zwei Prozessarten unterscheidet: Die Parameter von nichtlinearen
Differenzialgleichungen werden zunächst durch im Äther ablaufende Informationsverarbeitungsprozesse derart eingestellt, dass dadurch Attraktoren entstehen,
welche die Zielzustände der teleonomen Prozesse bilden, und anschließend laufen
12
die Objekte auf heute übliche Weise mechanistisch bzw. quantenmechanisch in
diese Attraktoren. Eventuell ist eine derartige Festlegung von Zielzuständen durch
die Prozesse der ersten Naturgesetz-Stufe am wenigsten vergleichbar mit dem
Verhalten von Computern; vielleicht spielen hier echte Zufallsprozesse eine Rolle,
die man ähnlich wie Schelling und Schopenhauer als einen dunklen, blinden Drang
bezeichnen kann und die uns so etwas wie Willensfreiheit ermöglichen. Andererseits erlaubt das Computer-Weltbild eine Erklärung von Zukunftsvorhersagen, wie
es die Parapsychologen für möglich halten (Präkognition): In einem Computer sind
alle zukünftigen Vorgänge im Programm vorherbestimmt, so dass ein vorzeitiges
Wissen darüber möglich sein könnte.
Beim des Leib-Seele Problem wird angenommen, dass das Bewusstsein ein neuartiges physikalisches Feld ist, das als Emergenzphänomen entsteht, wenn das
Gehirn in einem bestimmten neuronalen Zustand ist. Dieses Bewusstseinsfeld FB
hängt aber nicht nur von aktiven Hirnzellen Za ab, sondern auch von zusätzlichen
Parametern Pv, die im Vakuum bzw. Äther verankert sind: FB = Funktion von Za
und Pv. Über diese Parameter kann das Bewusstsein beeinflusst werden durch
Informationsverarbeitungsprozesse, die nicht im realen Gehirn, sondern im Äther
ablaufen. Beim Tod zerfällt das Gehirn, einige Parameter innerhalb des Äthers, die
eventuell eine Art Entelechie bilden (im Computer-Weltbild ausgedrückt eine Art
Prozessor), könnten aber weiterhin existieren, so dass dadurch eine Wiedergeburt
durch Verbindung mit einem neuen Gehirn denkbar ist.
Nach dem Urknall sind aus einer fast homogenen oder chaotischen Ansammlung
von Elementarteilchen hochstrukturierte Gebilde entstanden: Moleküle, Organismen, Gesellschaften, Kulturkreise u.a. Damit sich die einzelnen Teilchen zu
derartigen Systemen entwickeln konnten, sollte es in der Evolution eine Art von
Assoziations- und Kooperationsprinzip geben, das diese Zusammenlagerung
steuert. Darüber hinaus mag die weitere Entwicklung von zusammengesetzten
Systemen durch weitere Prinzipien gesteuert werden, welche größere Umstrukturierungen z.B. bei der Entstehung neuer biologischer Arten und die Entstehung von
Abwärtskausalität steuern. Demgegenüber geht die Mikroevolution innerhalb von
Arten, z.B. die Rassenbildung, primär gemäß den darwinistischen Prinzipien von
kleinen Erbgutvariationen und Umweltselektionen vonstatten.
Erkenntnistheorie
Wir haben objektives Wissen über die Natur in dem Sinne, dass wir einige
Strukturen der Welt erkennen, dies aber nur approximativ und nicht indem wir das
Wesen der Welt, ihre letzten Grundbestandteile, erkennen. Unsere
Wahrnehmungserkenntnis gibt uns vielleicht näherungsweise eine Art von
13
spiegelbildlicher Darstellung der Objekte und Vorgänge innerhalb der Raumzeit,
über die Informationsverarbeitungsprozesse innerhalb des Äthers, über die genaue
Wirkungsweise der Naturgesetze kann uns die Wissenschaft jedoch kaum eine
spiegelbildliche Abbildung liefern, ebenso wie man die Software eines fremden
Computers nur strukturell näherungsweise erraten kann, ohne ihren detaillierten
Aufbau zu durchschauen. Unsere Wahrnehmungs- und Denkstrukturen passen
ungefähr auf die mesokosmischen Wirklichkeitsstrukturen, weil sie sich im Lauf
der Evolution an ihnen angepasst haben und nur eine solche teilweise
Übereinstimmung das Überleben ermöglicht. Unsere Erkenntnisstrukturen sind
teilweise adäquat, weil wir selbst ein Teil der Welt sind und uns handelnd in ihr
orientieren müssen. Dies bedeutet jedoch nicht, dass unsere (heutigen)
Denkstrukturen notwendigerweise dazu geeignet sind, alle Details der gesamten
Welt richtig zu erkennen. Dies wird insbesondere durch die Antinomien deutlich,
d.h. durch Grundeinstellungen, die sich uns aufdrängen, die sich aber gegenseitig
widersprechen: So kann man sich beispielsweise nicht vorstellen, dass etwas aus
dem völligen Nichts entstehen kann; andererseits kann man sich auch schwer
vorstellen, dass die Welt (z.B. der Äther) eine unendliche Vergangenheit haben
sollte. Eine andere Antinomie ist der Glaube an unsere Willensfreiheit, obwohl wir
uns indeterministische Prozesse, z.B. den Zufall, nicht wirklich vorstellen können.
Abb. 2: Diagramm zur wissenschaftlich-naturphilosophischen Methode. WB bzw. WA bezeichnet das Weltbild bzw. die Weltauffassung, L, L' Leitideen, A, A', A'' Axiomensysteme, S, S',
S'' deduzierte Sätze und E die Mannigfaltigkeit der unmittelbaren (Sinnes-) Erlebnisse. Die
gestrichelten Linien geben spekulative Forschungsschritte an.
Die Wissenschaftserkenntnis ist eine adäquatere Erkenntnisform als die
Wahrnehmungs- und Erfahrungserkenntnis, weil in der Wissenschaft systematisch
empirische Phänomene gesammelt und Theorien getestet werden. Es gibt jedoch
keine logische Schlussform von den Daten zur Theorie, weshalb auch Theorien nur
14
hypothetisch gültig sind. Vielmehr werden grundlegende Theorien von den empirischen Daten ausgehend intuitiv erraten, und aus den Theorien werden dann auf
logischem Weg Theoreme abgeleitet, die man experimentell überprüft, was aber
keinen Beweis der Theorien ermöglicht.
Die Methodologien von Naturwissenschaft und Naturphilosophie sind strukturell
analog und miteinander verknüpft: Während die Wissenschaft von den
empirischen Daten ausgehend zu den Theorien gelangt, geht die Naturphilosophie
in immer stärkerem Maße von den wissenschaftlichen Theorien aus, um zu einer
globalen Weltauffassung bzw. einem Weltbild zu gelangen. Und während die
Wissenschaft aus den Theorien Theoreme ableitet, um diese experimentell zu
testen, entwickelt die Naturphilosophie Leitideen aus dem Weltbild, welche in der
Wissenschaft zu experimentell testbaren Theorien führen sollen: s. Abbildung 2.
Naturphilosophische Weltbilder und Leitideen sind also keine absolut wahren
Erkenntnisse (ebenso wie das die wissenschaftlichen Theorien nicht sind), sondern
sollen den Wissenschaftlern Forschungsanregungen geben. Manche Leitideen
mögen richtig sein, andere nicht, was zu erforschen Aufgabe der Wissenschaftler
ist. Eine ähnliche Wechselbeziehung wie zwischen Naturphilosophie und
Naturwissenschaft sollte es auch zwischen den anderen philosophischen
Disziplinen und den Einzelwissenschaften geben (z.B. zwischen Erkenntnistheorie,
Ethik, Gesellschaftsphilosophie einerseits und Psychologie, Soziologie, Ökonomie
andererseits), weshalb ich meine Philosophie insgesamt als „wissenschaftliche
Philosophie“ bezeichne.
Eine wechselseitige Beziehung zueinander gibt es auch zwischen den
verschiedenen philosophischen Disziplinen. So kann uns die Naturphilosophie
neue Möglichkeiten der Erkenntnisgewinnung und ein Verständnis scheinbar
unglaubwürdiger Methoden geben. Beispielsweise wird in Asien und in esoterischen Kreisen des Westens die Meditation als Erkenntnismittel benutzt, was in der
Wissenschaft bislang nur als Aberglaube betrachtet wurde. Im Rahmen des
Computer-Weltbildes kann dies jedoch, ebenso wie andere esoterische Praktiken,
durchaus eine sinnvolle Methode sein, z.B. innerhalb einer zu bildenden
introaktiven Psychologie. Vergleicht man die Menschen mit Personalcomputern
(bzw. mit Macs), die an einen Zentralrechner angeschlossen sind, so wird in der
Meditation ein Wunsch oder eine Frage an den Zentralrechner abgeschickt, und
man braucht dann nur noch ruhig und entspannt abzuwarten, welche Visionen als
Antwort in einem auftauchen. In der Wissenschaft kann man dann die so erhaltenen Ideen auf herkömmliche Weise theoretisch ausarbeiten und experimentell
testen. Da aber in der esoterischen Literatur immer wieder vor den Gefahren
esoterischer Praktiken gewarnt wird, sollten diese nur von Spezialisten an den
Universitäten erforscht werden, bis man die hierbei wirkenden Mechanismen
besser durchschaut und sie kontrollieren kann.
15
Ethik
Angesichts des zur Zeit beständig abnehmenden kulturellen Verhaltens der
Menschen im Westen ist die Ausarbeitung und Durchsetzung einer Ethik heute
eine der wichtigsten Aufgaben der Philosophie. Tatsächlich entwickelt sich bereits
eine neue Allgemeinethik – besonders sichtbar bei der Gleichberechtigung von
Mann und Frau –, und es entstehen Spezialethiken für wichtige Berufsfelder wie
für die Medizin, jedoch muss in Zukunft auch die Begründung der Werte und
Normen neu und solider geschehen.
Wie im Abschnitt über Naturphilosophie ausgeführt wurde, können in Systemen
emergente Globaleigenschaften auftreten, die die Systemkomponenten nicht besitzen. Eine Gesellschaft ist eine solche höhere Systemeinheit mit den Menschen als
ihre Komponenten, und zu den interessantesten Globaleigenschaften einer
Gesellschaft gehören ihre Werte und Normen. So wie es das Ziel von Körperfunktionen (z.B. des Blutkreislaufes) ist, den Organismus zu erhalten, so ist analog eine
der Hauptfunktionen von Werten die Erhaltung und Fortentwicklung der Gesellschaft. Da aber die Komponenten der Gesellschaft (die Menschen) im Gegensatz
zu den Komponenten des Körpers (den Molekülen) keine bewusstlosen Objekte
sind, sondern die Fähigkeit haben, Glück und Unglück zu empfinden, haben die
Werte der Gesellschaft die zusätzliche Funktion, das Glück der Menschen zu
fördern.
„Philosophie“ bedeutet wörtlich übersetzt „Liebe zur Weisheit“. Unter Weisheit
verstehe ich das Streben, die Werte der Gesellschaft zu verwirklichen und
fortzuentwickeln, dies aber mit der stoischen Gelassenheit eines Menschen, der
sich bewusst ist, dass viele Vorgänge durch Naturgesetze gesteuert werden, denen
gegenüber man machtlos ist. Eine der wichtigsten Aufgaben der Philosophen ist
deshalb, zusammen mit anderen sozialen Gruppierungen Werte zu untersuchen, sie
fortzuentwickeln und ihre Beachtung in der Gesellschaft zu fördern.
Drei der wichtigsten Werte, die in unseren Gesellschaften in Zukunft stärker zu
verankern sein werden, sind Kooperation, Edeltum und sittliche Vervollkommnung, was nun genauer erläutert werden soll. In der Evolutionsbiologie hat die
neodarwinistische Evolutionstheorie, wonach die Selektion ein Hauptfaktor der
Entwicklung ist, immer noch eine dominierende Stellung. Demgegenüber muss
jedoch hervorgehoben werden, dass Assoziation und Kooperation wesentlich
wichtigere Prinzipien sind, denn erst nachdem die homogene oder chaotische
Elementarteilchenansammlung nach dem Urknall sich zu Zellen und Organismen
zusammengelagert hatte, konnten Tiere Selektionsverhalten zeigen. Die wirklich
16
großen Entwicklungsschritte der Evolution kamen durch Assoziation und Kooperation zustande, und dies sollte man in Zukunft auch auf gesellschaftlicher und
internationaler Ebene gegenüber dem egozentrischen Wettkampfverhalten vieler
heutiger Individualisten stärker betonen.
Materieller Konsum und – um dies und um Sozialprestige zu erhalten – das Geld
sind de facto die höchsten Werte der Mehrheit der Menschen im Westen. Produziert wird vielfach nicht, weil die Güter nötig sind, sondern um Konsum und Geldwirtschaft aufrecht zu erhalten. Dieses Wirtschaftsverhalten hat einen immer
negativeren Einfluss auf unsere Umwelt und bedroht das gesamte Weltklima, und
deshalb wird eine Abkehr von unserem Konsumrausch immer notwendiger. Statt
Sozialprestige von den Mitmenschen zu erhalten wegen des Besitzes der neuesten
Konsumgüter, sollte in Zukunft der Mensch wieder stärker beurteilt werden nach
inneren Werten: ob er oder sie einen guten Charakter besitzt, hilfreich ist und nach
Wahrheit und Schönheit strebt; kurz gesagt, ob man eine edle Persönlichkeit hat.
Eine Hypothese über soziologische Naturgesetze, die sich aus esoterischen Praktiken bzw. aus einer introaktiven Psychologie ergibt, ist das Gesetz vom Karma, an
das insbesondere im fernen Osten viele Menschen glauben und das man bei uns
erst noch wissenschaftlich untersuchen muss. Das Gesetz vom Karma besagt, dass
die Taten, die man anderen zufügt, irgendwann auf einen zurückfallen. Die guten
und schlechten Taten, die man anderen zufügt, erleidet man irgendwann selbst.
Sollte ein solches Gesetz – zumindest unter bestimmten Umständen – tatsächlich
wirksam sein, dann hätten auch Egoisten Grund genug, Gutes zu tuen. Das Streben
nach sittlicher Vollkommenheit (den Mitmenschen zu helfen und für den Erhalt
der Gesellschaft zu sorgen) wäre also auch zum eigenen Vorteil.
Staats- und Gesellschaftsphilosophie
In seinem gesellschaftsphilosophischen Buch „Nomoi“ schreibt Platon, dass die
Grundlagen einer Gesellschaft Liebe, Weisheit und Freiheit sein sollten. Seit der
Zeit der Aufklärung hat es in Europa zwei einflussreiche politisch-philosophische
Bewegungen gegeben: Der Liberalismus ist eine freiheitliche Gesinnung, die sich
von Überlieferungen, Gewohnheiten und Dogmen befreien will, und als wirtschaftliche Lehre tritt er ein für freien Wettbewerb und freien Warenverkehr. Der Liberalismus trug im 18. und 19. Jahrhundert dazu bei, den extremen Obrigkeitsstaat zu
überwinden, seine wirtschaftlichen Auswirkungen waren aber die Verelendung
ganzer Volksschichten, weshalb sich die Sozialdemokratie entwickelte, deren Ziele
die Demokratie und das Wohl auch der unteren Bevölkerungsschichten sind. Aber
auch die Sozialdemokratie hat inzwischen in ihrer extremen Form ihre negativen
Seiten offenbart: Stiefmütterlich vernachlässigt wurden in der Sozialdemokratie
17
schon immer Kultur und Erziehung; da aber diese beiden Bereiche die Entwicklung einer Gesellschaft langfristig bestimmen, ist heute unsere Zukunft gefährdet,
weil Erziehung und Kultur im gesamten Westen immer mehr verfallen. Im Sinne
von Platons drei Grundlagen einer Gesellschaft kann man dem Liberalismus als
Kernintention die Freiheit und der Sozialdemokratie als Kernintention die Liebe
zuordnen. Was wir heute aber benötigen, ist eine neue politisch-philosophische
Bewegung, die den kulturellen (und deshalb langfristig auch wirtschaftlichen)
Verfall des Westens stoppt und umkehrt, indem sie die Bedeutung von Kultur und
Erziehung und deshalb die Bedeutung von Schule, Familie, Kunst und höheren
gesellschaftlichen Werten wieder hervorhebt.
Die westlichen Gesellschaften haben sich in den letzten 100 Jahren tiefgreifend
verändert, was über Kultur und Wirtschaft hinausgehend zu vielen weiteren neuen
gesellschaftlichen Problemen geführt hat wie beispielsweise Fragen nach der
Souveränität heutiger Staaten, nach der anzustrebenden Weltordnung, nach
Kinderanzahl, Umweltschutz, Migration, Umgang mit Tieren, Art des Militärs und
Spiritualität. Nach Platon „soll Freiheit bestehen und mit Weisheit verbundene
wechselseitige Liebe“, und in diesem Sinne sind alle heutigen Gesellschaftsprobleme zu überdenken mit Hilfe der modernen wissenschaftlichen Erkenntnisse
über die Natur von Mensch und Gesellschaft, was neben der Ethik das wichtigste
Forschungsprojekt der Philosophie in der nächsten Zukunft zu sein hat. In der
Wirtschaft muss beispielsweise erreicht werden, dass genügend Liberalität den
wirtschaftlichen Fortschritt ermöglicht, dass aber nicht zu mächtige
Einzelpersonen oder Konzerne die Macht des Staates an sich reißen und die
Demokratie zur Pseudo-Demokratie verkommt. Auch sind die Sozialsysteme
dauerhaft und ohne Staatsverschuldungen zu konsolidieren und in vielen Staaten
sogar erst noch einzurichten. Und auf dem Gebiet der Spiritualität sollten
irrationale Glaubensinhalte durch mit Vernunft vertretbare Aussagen ersetzt
werden und z.B. einfache Formen der Meditation in der Gesellschaft allgemein
etabliert werden.
In der wissenschaftlichen Philosophie sind alle Bereiche der Gesellschaft unter
dem Blickwinkel moderner wissenschaftlicher Erkenntnisse zu prüfen, was durch
folgendes Beispiel veranschaulicht werden kann: Der Staat und die gesamte
Gesellschaft sind zwar keine industrielle Organisation – eher ist er ein Netzwerk
von Organisationen –, trotzdem kann man von der Organisationspsychologie und
-soziologie für die Staats- und Gesellschaftsphilosophie einiges lernen. Organisationen sind hierarchisch gegliedert – haben also wie fast überall in der Biologie
eine Abwärtskausalität –, dies sollte also auch im Staat nötig sein. Andererseits
zeigt sich in modernen Industrieorganisationen immer mehr, dass zu straffe Führung schädlich sein kann; die Kreativität der Mitarbeiter kann dadurch sehr
beeinträchtigt werden. Analog verhindert auch in der gesamten Gesellschaft ein
18
Mindestmaß an Liberalität, dass die Gesellschaft in Traditionen erstarrt und nicht
mehr flexibel genug ist, auf neue Herausforderungen angemessen zu reagieren.
Was unsere heutige Staatsform betrifft, haben die westlichen Gesellschaften
Mischverfassungen von Demokratie (im ursprünglichen Sinn des Wortes),
Aristokratie und Monarchie, in der sich die Nachteile jeder der drei reinen
Staatsformen gegenseitig ausgleichen: Die heutigen Parteien als moderne Aristokratie sorgen für Kompetenz, das Wählervolk sorgt dafür, dass die Parteien auch
tatsächlich für das Wohl der gesamten Gesellschaft arbeiten, und die einzelnen
Führungspersönlichkeiten an der Staatsspitze können kurzfristig Entscheidungen
treffen und verhindern dadurch, dass Volk und Parteien in unendlichen Diskussionen und Streitereien stecken bleiben. Allerdings muss die tatsächliche Realisierung
unserer idealen Staatsform immer mehr dahingehend kritisiert werden, dass die
Parteien zu mächtig geworden sind und kaum noch einer wirklichen Kontrolle
unterliegen. Eine Absenkung der Sperrklausel bei Wahlen von 5% auf 3%, größere
Rechte der Bevölkerung in Volksabstimmungen und eine bessere Kontrolle von
Staatsanwälten, Richterinnen und Geheimdiensten durch das Volk werden deshalb
in Zukunft nötig sein. Auch muss eine Unterwanderung insbesondere der Massenmedien durch kleine soziale Gruppen mit starken Eigeninteressen verhindert
werden, da ansonsten das Volk über Missstände nicht rechtzeitig unterrichtet
werden kann. Die Organisationssoziologie hat gezeigt, dass in großen Organisationen inoffizielle Gruppierungen und Ziele existieren können, die die öffentlich
bekundeten Ziele unterlaufen. Um dies im Staat und in der gesamten Gesellschaft
zu verhindern, werden Volk, Philosophen und alle anderen Intellektuellen immer
sehr wachsam sein müssen. Eine wichtige Aufgabe der heutigen Philosophen ist,
darauf zu achten, dass die Realität auch tatsächlich dem Ideal bzw. der schriftlich
fixierten Verfassung entspricht. Gegnern dieser Institutionen fallen leider immer
wieder Tricks ein, das verfassungsmäßige Ideal zu unterlaufen.
19
Liste meiner philosophischen Bücher und Aufsätze
Bücher:
Trilogie über die Wissenschaftliche Naturphilosophie:
• Band I: Gibt die Physik Wissen über die Natur? Das Realismusproblem in
der Quantenmechanik
• Band II: Das Computer-Weltbild. Funktionen der Naturphilosophie in der
Naturwissenschaft
• Band III: Die wissenschaftliche Weltauffassung. Wissenschaftliche Naturphilosophie
• Gibt es ein Überleben des körperlichen Todes? Empirische Untersuchungen
und theoretische Überlegungen der Parapsychologie zur Überlebenshypothese
• 10 Jahre Internet-Diskussionen
• Wissenschaftliche Philosophie (Sammelband meiner kleineren
philosophischen Schriften bis 2016)
• Kampf gegen das Böse
Aufsätze u.ä.:
• Grundlegung der introaktiven Psychologie
• Funktionen der Ethik in einer naturalistischen Welt und ihre Ausarbeitung
durch die Philosophie
• Demokratie und Rechtsstaatlichkeit
• Kulturkampf. Deutschland im Würgegriff
• Hauptprobleme heutiger Gesellschaftsphilosophie. Liebe · Weisheit ·
Freiheit
• Moral und Religion: Über die barbarische Unmoral des 20. Jahrhunderts
und ihre religiösen und intellektuellen Wurzeln
• Kritische Bewertung verschiedener Computer-Weltbilder
• Denkanstöße – Eine kleine Aphorismensammlung
• Einführung in die wissenschaftliche Philosophie: Überblick über meine
Philosophie
• Anmerkungen zu einigen Computer-Weltbildern
• Die hellenistischen und persischen Götter als Lichtwesen
• Plotin: Enneaden
20
Aufsätze, die ausgewählte Themen aus den Büchern behandeln:
• Stufen der Forschung: Von den Daten zur Theorie und Naturphilosophie
• Interpretation der Quantenmechanik: Das Computer-Weltbild
• Grundzüge der wissenschaftlichen Weltauffassung
• Ansätze zur physikalischen Untersuchung des Leib-Seele-Problems
• Naturphilosophische Leitideen für die biophysikalische Forschung
• Deutungsprobleme in der mathematischen Physik: Lorentz-Transformationen und Einsteins Feldgleichungen
• Philosophische Leitideen für die geisteswissenschaftliche Forschung
• Parapsychologische Untersuchungen zur Hypothese vom Überleben des
körperlichen Todes
Englischsprachige Aufsätze o.ä.:
• Introduction to Scientific Philosophy: A Survey of my Philosophy
• Foundation of Scientific Philosophy of Nature
• Interpretation of Quantum Mechanics: The Computer Worldview
• Fundamentals of the Scientific Conception of the World
• Challenges For Theoretical Biophysics: Consciousness, Functionalism, and
Free Will
• Do We Survive Our Bodily Death?
• Philosophical Guiding Principles for Research in the Humanities
• Functions of Ethic and its Elaboration by Philosophy
• Main Problems of Present Social Philosophy. Love · Wisdom · Liberty
• Critical evaluation of several computer-worldviews which are different from
mine
• Marxism and Morality
• The origin of the two world wars and its mass crimes
• Illumination: Aphorisms on philosophy and science
• Ten years newsgroups postings
• Remarks on some computer world views
• Hitler and the Catholic Church
• The religion of bestiality
• Jewish Morality
• Plotinus: Enneads
Englischsprachiges Buch
• Scientific Philosophy (Collection Of My English Writings Until 2016)
21
Teil I:
Auszüge aus meinen Büchern
22
Stufen der Forschung:
Von den Daten zur Theorie und Naturphilosophie
Dr. Lothar Arendes
Zusammenfassung:
Die naturwissenschaftliche Forschung durchläuft in ihrer Entwicklung verschiedene Stadien. In
der Anfangsphase einer Disziplin bemühen sich die Wissenschaftler darum, möglichst viele
empirische Daten zu sammeln und diese in Allgemeinsätzen zusammenzufassen. Irgendwann
tauchen dann Fragen auf, die sich nicht mehr primär experimentell beantworten lassen. In diesem
zweiten Stadium bemühen sich die Wissenschaftler darum, durch intuitive Schritte von den
Daten zu den Begriffen und Axiomen einer Theorie zu gelangen, aus der sich dann Theoreme
ableiten lassen, die sich schließlich an der Erfahrung bewähren müssen. Hat man nun auf diese
Weise eine gute Theorie gefunden, so bemühen sich die Wissenschaftler in einer dritten Phase
darum, neue und noch bessere Theorien zu entwickeln, deren allgemeinen Prinzipien als
befriedigender erscheinen. Besonders in der dritten Phase können naturphilosophische
Überlegungen eine wichtige Rolle spielen, wie die Wissenschaftsgeschichte in mehreren Fällen
nachweisen konnte. Die Methodologien der hier vorgestellten wissenschaftlichen
Naturphilosophie und der Naturwissenschaft haben eine analoge und miteinander verbundene
Form. Dabei entsprechen die empirischen Daten der Naturwissenschaft in der Naturphilosophie
den zentralen Aussagen der wissenschaftlichen Theorien, von diesen vorgegebenen wissenschaftlichen Theorien geht der Naturphilosoph zu einem Weltbild über, aus dem sich Leitideen
ableiten lassen, welche den Naturwissenschaftlern Anregungen zu neuen Theorienkonstruktionen
geben können.
1. Intuitive Sprünge
In der Naturwissenschaft dominierte über Jahrhunderte hinweg der Glaube, man
gelange durch Induktion von den experimentellen Daten zu den Theorien, was
gleichzeitig als Wahrheitsbegründung der Theorien galt. Nach dem klassischen
Induktivismus, wie ihn etwa der Wiener Kreis um Rudolf Carnap anstrebte, sollten
nur jene Sätze in die Wissenschaft aufgenommen werden, die entweder harte
Tatsachen beschreiben oder unfehlbare Verallgemeinerungen von Sätzen sind, die
harte Tatsachen beschreiben. Von der Seite der Philosophen war es Karl Popper,
der diesem Selbstverständnis der Wissenschaft, durch Induktion begründbare
23
wahre Erkenntnisse zu liefern, ein Ende bereitete, nachdem bereits zuvor Albert
Einstein in der naturwissenschaftlichen Forschungspraxis gezeigt hatte, dass selbst
sehr gut bestätigte Theorien (z.B. die Newtonschen) durch neue und bessere (z.B.
durch die geometrische Gravitationstheorie) ersetzt werden können.1 Weder kann
man durch eine irgendwie geartete logische Methode die Grundbegriffe der
wissenschaftlichen Theorien erhalten, noch gibt es ein Induktionsprinzip, mit dem
sich induktive, d.h. logisch gültige Schlüsse von den einzelnen Daten zur Theorie
durchführen lassen. Trotz der vernichtenden Kritik von Philosophen und Fakten
der Wissenschaftsgeschichte herrscht zumindest in den experimentellen Zweigen
der Naturwissenschaft teilweise immer noch die (oft unbewusste) Grundeinstellung, dass man von den Daten durch Verallgemeinerung (Induktion) zu den
Naturgesetzen gelange. Diese oft unbewusste Grundeinstellung vieler experimentell arbeitender Naturwissenschaftler bewirkt psychologisch, dass viele Wissenschaftler fest an die Wahrheit von Theorien glauben. Und dies wird auch so
bleiben, solange man sich den tatsächlichen Übergang von den Daten zur Theorie
nicht vergegenwärtigt hat. Das mangelnde Wissen über den Schritt von den Daten
zur Theorie hat aber eine noch nachteiligere Wirkung, als es der unschuldige
Glaube an unbewiesene Theorien ist: Das Ziel der Wissenschaft ist, die
beobachtbaren Phänomene zu erklären; und dies bedeutet, Theorien zu
formulieren. Solange aber nicht klar ist, wie man von den Daten zur Theorie
gelangt, solange kann dieser Konstruktionsvorgang nicht gezielt gefördert werden
und bleibt vollständig dem Glück, dem Zufall und anderen außerrationalen
Vorgängen überlassen. Aus diesem Grund soll in dieser Arbeit der Entstehungsvorgang von Theorien genauer untersucht werden. Da die Ausarbeitung einer
Theorie nicht nur ein logischer (rationaler), sondern vor allem ein psychologischer
Vorgang ist, werden in dieser Arbeit zur Darlegung dieses Prozesses neben den
Selbstbeschreibungen und Meinungen führender Wissenschaftler (z.B. Einstein
und Heisenberg) auch die Erkenntnisse der heutigen Psychologie (der kognitiven
Psychologie) herangezogen.
Wie die wissenschaftliche Theorienkonstruktion verläuft, lässt sich gut
überblickartig anhand eines Briefes von Albert Einstein erläutern. In einem Brief
vom 7. Mai 1952 hatte er seinem Freund Maurice Solovine
seine
2
erkenntnistheoretischen Ansichten beschrieben. In diesem Brief gibt Einstein eine
Skizze zur wissenschaftlichen Methode, und in dieser Skizze werden drei Ebenen
unterschieden (Abb. 1): Unmittelbar gegeben sind uns die Sinneserlebnisse (E),
welche die Basis der Forschung bilden, und die höchste Ebene wird gebildet von
den theoretischen Axiomen (A). Der Wissenschaftler (bzw. die Wissenschaftlerin)
startet bei E, bei den Sinneseindrücken, und er sucht ein System von
grundlegenden theoretischen Sätzen, den Axiomen. Aus diesen Axiomen leitet er
dann auf logischem Weg Einzelaussagen (S) ab, welche nach Einstein Anspruch
auf Richtigkeit erheben können. Zuletzt werden diese Aussagen wieder mit den
24
Sinneserlebnissen E in Beziehung gebracht, d.h. sie unterliegen einer Prüfung an
der Erfahrung. In diesem Kreislauf von den Sinneserlebnissen über Axiome und
Einzelaussagen zurück zu neuen Sinneserlebnissen ist nach Einstein nur der Schritt
von den Axiomen zu den Einzelaussagen ein logischer Übergang. Die
Einzelaussagen werden auf deduktivem Weg aus den Axiomen abgeleitet. Der
Schritt von E nach A ist jedoch nicht auf logischem Weg zu erreichen, zwischen E
und A gibt es nur einen intuitiven (psychologischen) Zusammenhang. Ebenso
gehört nach Einstein die Prüfung der Einzelaussagen (S) an der Erfahrung (E) der
extra-logischen Sphäre an, denn die in S auftretenden theoretischen Begriffe stehen
mit den Sinneserlebnissen nicht in einem logischen Zusammenhang. Insgesamt ist
also die wissenschaftliche Forschung an zwei Stellen nicht logischer Natur:
Einerseits müssen mit Begriffen Axiome gebildet werden, andererseits müssen
theoretische Begriffe zu den Sinnesdaten in Beziehung gebracht werden. Der
zweite außerlogische Vorgang, die Beziehungsetzung der theoretischen Begriffe zu
den Erlebnissen E, ist allerdings bereits im ersten Schritt, von E nach A, enthalten.
Deshalb kann man Einsteins Erkenntnistheorie so rekonstruieren, dass bereits von
E nach A zwei außerlogische (intuitive) Schritte nötig sind: Der Übergang von den
Sinneseindrücken zu den Begriffen und zu den damit formulierten Axiomen.
Abb. 1: Einsteins Skizze zur wissenschaftlichen Methode. A bezeichnet das System von Axiomen, S, S', S'' die daraus gefolgerten Sätze und E die Mannigfaltigkeit der unmittelbaren
(Sinnes-) Erlebnisse.
Als Veranschaulichung soll neben Einsteins Relativitätstheorie auch die
Newtonsche Mechanik herangezogen werden, denn nicht nur Einstein verfolgte
diese Strategie, sondern notgedrungen alle Theorienkonstrukteure. Newtons
zweites Axiom, , F = m ⋅ a ist für diesen doppelten kreativen Akt ein sehr gutes
Beispiel: Newton führte in seiner Mechanik den Kraftbegriff ein, der für viele
seiner Zeitgenossen zum Stein des Anstoßes wurde. Kräfte lassen sich nicht
beobachten, denn sie sind theoretische Konstrukte zur Erklärung der Annäherung
oder Entfernung zweier materieller Objekte zueinander oder voneinander. Viele
Zeitgenossen Newtons vertraten aber ein enges mechanistisches Weltbild, wonach
25
nur die korpuskulare Materie und deren Größe, Gestalt und Bewegungszustand als
Erklärungsprinzipien benutzt werden sollten. Das führte dazu, „daß die
Gravitationstheorie von den hervorragendsten Vertretern der wahren mechanistischen Philosophie (um mit Boyle und Huygens zu sprechen) als ein Rückfall in
die für überwunden gehaltenen mittelalterlichen Auffassungen und als eine Art
Verrat an der Sache der Naturwissenschaft betrachtet wurde.“3 Allerdings war
Newton selbst der Meinung, dass seine Erklärung der Schwere nur vorläufig
gewesen sei und später durch andere Prinzipien ersetzt werden müsste. Dieses Ziel
wurde über 200 Jahre später durch die Allgemeine Relativitätstheorie erreicht,
jedoch nicht mit den Begriffen der Mechanisten des 17. Jahrhunderts, nicht durch
die korpuskulare Materie mit ihren Eigenschaften der Größe, der Gestalt und des
Bewegungszustandes, sondern mit den Begriffen einer geometrischen FeldOntologie. Diese Begriffe sind uns wiederum nicht durch die Sinneserlebnisse
gegeben; niemand ist in der Lage, z.B. Geodäten direkt zu beobachten. Geodäten
sind theoretische Konstrukte, mathematisch exakt definierte Kurven der
nichteuklidischen Geometrie. Neben dem Kraftbegriff ist in Newtons Formel auch
F = m ⋅ a die Masse m ein theoretischer Begriff. Während Newton die Masse noch
als Synonym für die „quantitas materiae“ auffasste, ist seit der Relativitätstheorie
die „träge Masse eines abgeschlossenen Systems ... mit seiner Energie identisch,
sodass die Masse als selbständiger Begriff eliminiert ist.“4
Begriffe sind nicht induktiv aus der Erfahrung ableitbar, und dasselbe gilt für die
Aussagen, insbesondere für die Axiome, die die Wissenschaftler mit den Begriffen
formulieren. Obwohl von Newton der berühmte Ausspruch „hypothesis non fingo“
(„ich mache keine Hypothesen“) stammt, beschrieb Einstein in einem Aufsatz über
„Die Entwicklung der mechanistischen Auffassung“, dass auch Newtons Axiom
spekulativen Ursprungs war.5 Ein sich bewegendes Objekt wird sich nach diesem
Axiom mit gleichförmiger Geschwindigkeit weiter bewegen, solange keine Kraft
auf es einwirkt. Dies widerspricht jedoch unserer alltäglichen Erfahrung, wonach
alle Objekte mit der Zeit scheinbar ohne äußere Krafteinwirkung zur Ruhe
kommen. Dass hierfür in Wirklichkeit schwer beobachtbare Einflüsse, sogenannte
Kräfte, verantwortlich sind, war eine Spekulation, die sich bewährt hat.
Die heutigen Theorien der Physik sind wesentlich komplizierter als Newtons
Theorie, was den erkenntnistheoretischen Vorteil hat, dass man die Kühnheit der
Axiome deutlicher erkennen kann. So ist ein Axiom der Speziellen
Relativitätstheorie das Axiom von der Kovarianz der Naturgesetze: In allen
gleichförmig zueinander bewegten Systemen (Inertialsystemen) gelten die gleichen
Naturgesetze. Dieses Axiom konnte Einstein natürlich nicht aus der Erfahrung
ableiten, da er sich nur auf der Erde befand, und die Erde ist noch nicht einmal ein
gleichförmig sich bewegendes Objekt.
26
Es ist sehr aufschlussreich, Einsteins Vorstellungen einigen Ansichten von René
Descartes gegenüber zu stellen.6 Für den Vergleich mit Einstein ist Descartes`
Schrift aus dem Jahre 1629 über „Regeln zur Ausrichtung der Erkenntniskraft“
sehr interessant. Dieses Buch hat er allerdings zu Lebzeiten nie publiziert, so dass
vermutet werden kann, dass er über einige darin geäußerte Gedanken in Zweifel
war oder dass er sie vielleicht sogar später verworfen hatte. Um zur Erkenntnis der
Dinge zu gelangen, bevorzugte er in dieser Schrift zwei Wege, die Intuition und
die Deduktion: Für Descartes gab es zu viele Sinnestäuschungen, als dass die
Erkenntnis mit den Sinneswahrnehmungen beginnen und sich darauf gründen
könnte. Nach seiner Meinung erhält man durch Intuition die Grundprinzipien
(Axiome), aus denen sich dann durch logische Ableitungen (Deduktionen) andere
Aussagen ergeben. Diese Vorgehensweise hat Ähnlichkeit mit Einsteins
Auffassungen, es gibt aber wichtige Unterschiede zwischen den beiden. Nach
Einstein erhält man die Axiome zwar ebenfalls durch Intuition, sie sind aber für
ihn nicht unumstößlich wahr; sie müssen sich an der Erfahrung bewähren, indem
man die aus ihnen abgeleiteten Sätze mit den experimentellen Beobachtungen
vergleicht. Für Descartes hingegen waren die durch Intuition erhaltenen
Grundsätze unumstößlich wahr. Descartes ist außerdem dafür bekannt, dass er
seine Untersuchungen am liebsten unabhängig von allem Faktenwissen und nur
mit seinen Gedanken begann: Cogito ergo sum - ich denke, also bin ich. In seinem
posthum veröffentlichten Buch „Regeln zur Ausrichtung der Erkenntniskraft“
räumte er jedoch auch der Induktion einen Platz ein.7 Die Induktion führe aber
nach Descartes nicht zu einer tiefgreifenden Naturerkenntnis, sie gelte nur als eine
Art unvollständiger Lückenbüßer, wenn ein Forschungsgebiet derart komplex sei,
dass ein intuitives Ergreifen der Grundsätze noch nicht möglich sei.
2. Forschungsstadien
Die Unterscheidung zwischen der wissenschaftlichen Erkenntnis durch
Deduktionen von Axiomen einerseits und Verallgemeinerungen von
Beobachtungsdaten bei noch wenig verstandenen Systemen andererseits
charakterisiert die heutige Forschungssituation recht gut. Biologische Systeme zum
Beispiel sind derartig komplex, dass sich die theoretische Biophysik erst im
Anfangsstadium befindet.8 Gegenwärtig konzentriert sich deshalb ein Großteil der
biologischen Forschung darauf, Daten aus Experimenten z.B. mit hochauflösenden
Mikroskopen und aus Feldstudien zusammenzutragen, und die durch die
Beobachtungsdaten mit ihren Beobachtungsbegriffen zusammengetragenen
Erkenntnisse werden in verallgemeinerter Form zusammengefasst. Zu beachten
bleibt aber, dass es sich bei diesen Verallgemeinerungen nicht um unumstößlich
wahre Theorien im Sinne der klassischen Induktion handelt. Die genetische
Forschung demonstriert außerdem, dass auch in der stark experimentell
27
orientierten Forschung Hypothesen aufgestellt und oftmals Begriffe eingeführt
werden, die zunächst (wie die Gene) einen sehr theoretischen Status haben, die
später jedoch als beobachtbar gelten. Trotzdem kann man sich durchaus auf den
Standpunkt stellen, dass in den Wissenschaften Verallgemeinerungen von
Beobachtungen und in diesem Sinne Induktion vorkommt. Theoretische Physiker
und Erkenntnistheoretiker werden dem entgegenhalten, „daß der Induktivismus
höchstens eine in der Frühzeit der Wissenschaft verfolgbare Strategie sein kann. Es
können vielleicht niedrigrangige Generalisationen von der Erfahrung abgelesen
werden, hochrangige Gesetze aber bedürfen der theoretischen Begriffe.“9 Die
experimentelle Vorgehensweise in der Biologie hat uns ein enormes Wissen über
biologische Systeme gebracht, aber allein durch Experimente und den darauf
aufbauenden Verallgemeinerungen lässt sich z. B. die Dynamik der Genexpression
(d.h. die Angabe der Kräfte oder Prinzipien, welche den genauen zeitlichen Ablauf
steuern) nicht angeben. Hierzu werden die hochkomplexen Theorien der
nichtlinearen irreversiblen Thermodynamik, der Synergetik oder anderer Ansätze
nötig sein. Ein anderes Beispiel für die zwei Forschungsstrategien ist die
Hirnforschung, die in den letzten Jahrzehnten eine Fülle experimenteller Daten
geliefert hat, ohne dadurch auch nur ansatzweise die Natur und die Entstehung des
Bewusstseins erklären zu können. Die Hirnforschung ist ein gutes Beispiel dafür,
dass eine Wissenschaft zunächst mit dem Sammeln und Verallgemeinern von
experimentellen Daten beginnt und dass sich später zusätzlich ein theoretischer
Forschungszweig entwickelt, der die fundamentaleren Probleme dieser
Wissenschaft klären will. Seit ein paar Jahren gehen zunehmends mehr
theoretische Physiker, Mathematiker und Informatiker in die Hirnforschung und
bereichern diese Wissenschaft mit ihren theoretischen Konzepten.10 In der
Hirnforschung wird immer deutlicher, dass das Bewusstsein mit den heutigen
physiologischen Beobachtungsbegriffen allein nicht erklärt werden kann. So sind
die Farben (Rot, Grün etc.) unseres visuellen Bewusstseins z.B. keine
Aktionspotentialfrequenzen oder Ionenströme. Für die Erklärung des Bewusstseins
ist im Sinne von Einsteins Vorgehensweise ein doppelter spekulativer Schritt
nötig, der uns die adäquaten Begriffe und die damit formulierten Axiome liefert.
Die heutige Biologie und die Geschichte der Physik zeigen deutlich, dass eine
Wissenschaft im Laufe ihrer Entwicklung verschiedene methodologische Stadien
durchläuft. Es sollen hier hauptsächlich drei Stadien unterschieden werden, die
allerdings fließend ineinander übergehen. Auch enthält jedes Stadium die
Vorgehensweise der vorherigen. Im Frühstadium konzentrieren sich
Wissenschaftler darauf, über ihren Forschungsgegenstand möglichst viele
empirische Daten zu sammeln und diese in Form von allgemeinen Sätzen
zusammenzufassen. Es tauchen dann irgendwann Fragestellungen auf, die sich
hierdurch nicht beantworten lassen. Man kommt in das Stadium, wie es Einstein in
seinem Brief an Solovine darlegte: Ausgehend von den Beobachtungsdaten
28
versucht man, Axiome zu formulieren, aus denen Sätze deduktiv abgeleitet werden
können, welche sich schließlich wieder an der Erfahrung bewähren müssen. Hat
man einmal auf diese Weise eine gute Theorie gefunden, dann kann in der
Folgezeit zweierlei passieren. Es kann einerseits vorkommen, dass neue
experimentelle Daten mit der Theorie nicht erklärt werden können. Dann versucht
der Wissenschaftler wieder nach Einsteins Schema, von diesen Daten spekulativ zu
einer neuen Theorie zu gelangen. Auf diese Weise ist die Quantenmechanik (QM)
entstanden: Eine neue Theorie war nötig geworden, um die diskontinuierlichen
Atomspektren zu erklären. Es kann jedoch auch Folgendes passieren: Zwar erklärt
die vorhandene Theorie alle für relevant gehaltenen Daten, aber die
Wissenschaftler sind unzufrieden mit den grundlegenden Prinzipien, den
Grundbegriffen oder Axiomen, der Theorie, und sie bemühen sich deshalb um eine
neue Theorie. Ein Beispiel ist wieder die Gravitationstheorie. Einstein wollte das
allgemeine Relativitätsprinzip verwirklichen und musste aus theoretischen
Gründen die allgemeine Relativität mit der Gravitation verbinden. Außerdem war
er unzufrieden damit, dass Newtons Gravitationskraft eine Fernwirkungskraft war,
und mit der Allgemeinen Relativitätstheorie elimierte er diese „spukhafte
Fernwirkung“ aus der Gravitationsphysik. Unglücklicherweise tauchte die
Fernwirkung kurze Zeit später in der QM wieder auf. Und abermals: Obwohl die
QM die experimentellen Daten sehr exakt erklären kann, wurde Einstein nicht
müde darauf zu drängen, eine neue Theorie zu finden. Ein weiteres Beispiel für das
dritte Forschungsstadium ist das Bestreben der heutigen Physik, eine Theorie zu
schaffen, die alle Grundkräfte zusammenfasst. Als Motivation hierfür gibt es keine
unverstandenen Daten, sondern das Ziel der Einheit der Wissenschaft. Es kann also
festgehalten werden, dass Wissenschaftler versuchen, eine neue Theorie zu
entdecken, wenn ihnen die Grundprinzipien oder Eigenarten einer vorhandenen
Theorie missfallen. Wissenschaftler suchen neue Theorien, auch wenn es die
empirischen Daten nicht erzwingen.
Zusammenfassend kann man folgende drei Forschungsstadien unterscheiden: 1.
das Sammeln von experimentellen Daten und das Aufstellen allgemeiner
Aussagen; 2. das Bemühen, von den Beobachtungsdaten durch Spekulation zu den
theoretischen Begriffen und Axiomen zu gelangen, um dann deduzierte Sätze mit
Beobachtungen zu konfrontieren; 3. die Ersetzung von Theorien durch neue
Theorien mit akzeptableren Prinzipien oder Eigenschaften. Wie eine derartig
bessere Theorie auszusehen hat, ist durch keine feste methodologische Regel
vorgeschrieben und wird von Wissenschaftler zu Wissenschaftler verschieden
eingeschätzt. Wissenschaftler lassen sich hierbei von sogenannten Leitideen
führen, was am Beispiel Einsteins weiter unten erläutert wird. Von der
Wissenschaftlergemeinschaft wird eine neue Theorie in der Regel nur dann
übernommen, wenn sie zusätzlich zu den Vorhersagen der alten Theorie neue
empirische Befunde korrekt vorhersagt.
29
Zu dem dreigliedrigen Schema der Wissenschaftsentwicklung muss noch
angemerkt werden, dass es nur eine grobe Beschreibung der Entwicklung ist.
Bereits im ersten Stadium können theoretische und philosophische Einstellungen
eine Rolle spielen, die Übergänge zwischen den Stadien sind fließend, und ganz
allgemein kann man die Entwicklung auch so ausdrücken, dass zunächst sehr stark
empirisch gearbeitet wird, dass später jedoch theoretische Überlegungen immer
mehr in den Vordergrund rücken. Liegt für einen Forschungsbereich eine fertige
Theorie vor, so lässt sich noch ein viertes, nämlich ein anwendungsorientiertes
Forschungsstadium unterscheiden, in dem man versucht, die Theorie auf
praktische Probleme anzuwenden.
3. Psychologie der Begriffsbildung
Der Entstehungszusammenhang von Theorien soll nun genauer besprochen
werden, und der Ausgangspunkt hierfür ist wieder Einsteins Brief an Maurice
Solovine, nach dem die Begriffe und die Axiome intuitiv erraten werden. Dieser
doppelte spekulative Sprung ist ein psychologischer Vorgang und muss von den
Psychologen untersucht werden. Die Begriffsbildung wird in der Psychologie von
einer allgemeineren kognitiven Fragestellung her untersucht, die Psychologie ist
allerdings noch eine junge Wissenschaft, so dass man zur Zeit keine zu hohen
Erwartungen an sie stellen darf. Dennoch kann sie uns zumindest über die äußeren
Bedingungen der Begriffsbildung einige Aufschlüsse geben; und das ist ja für
methodologische Richtlinien das Wichtigste. Unter einem Begriff wird in der
Denkpsychologie u.a. das gemeinsame Merkmal einer Klasse von Dingen
verstanden.11 Das Merkmal kann z.B. aus einer Kombination von Farbe, Größe und
Form der Objekte bestehen. Das Wort „Kuh“ steht für einen Begriff, weil es eine
große Anzahl verschiedener Objekte bezeichnet, welche alle einige Merkmale
gemeinsam haben. Obwohl die meisten Wörter für Begriffe stehen, sind nicht alle
Begriffe verbal. Kleine Kinder können schon den Begriff „Hund“ haben, lange
bevor sie eine Sprache erlernt haben.
Abb. 2: Chinesische Schriftzeichen als Material für Experimente zur Begriffsentwicklung (aus
Houston 1981). Jedes Grundzeichen (concept) kommt in sechs verschiedenen Zeichen vor, die
auf sechs Päckchen (List 1 to 6) verteilt sind.
30
Es soll nun ein typisches psychologisches Experiment zur Begriffsbildung
vorgestellt werden, um danach auf die Piagetsche Entwicklungstheorie einzugehen
und das daraus Gewonnene auf die wissenschaftliche Methodik anzuwenden. Das
Reizmaterial des Experimentes bestehe aus 36 Karten mit je einem chinesischen
Schriftzeichen (Abb. 2).12 Sechs solcher Karten bilden ein Päckchen, es existieren
also sechs Päckchen. Jeder Karte eines Päckchens ist ein Name, eine sinnlose
Silbe, zugeordnet (z.B. fu, tse, li, ta, ten, ling), und die gleichen sechs Namen sind
den Schriftzeichen aller Päckchen zugeordnet. Für jeden Namen gibt es somit
sechs verschiedene Zeichen, die jeweils in den verschiedenen Päckchen sind. Die
sechs Zeichen desselben Namens haben ein gemeinsames Grundzeichen, welches
die Versuchsperson als Begriff erlernen soll. Dieses Zeichen wird ihr natürlich zu
Beginn des Experimentes nicht gesagt. Der Versuchsleiter nimmt das erste
Päckchen, zeigt der Versuchsperson die erste Karte und sagt: „Dieses Zeichen
heisst ... (z.B. li)“. Nachdem alle Karten von Päckchen I gezeigt worden sind,
werden die Karten gemischt. Nacheinander werden wieder alle Karten von
Päckchen I gezeigt, diesmal muss jedoch die Versuchsperson sagen, wie die
Zeichen heißen. Erfolgt eine richtige Antwort, bekommt die Versuchsperson auf
dem Protokollzettel des Versuchsleiters ein „+“, erfolgt eine falsche Antwort, so
erhält sie ein „–“ und der richtige Name wird ihr angegeben. Hat die
Versuchsperson nach mehreren Durchgängen Päckchen I gelernt, so kommt
Päckchen II an die Reihe. Gleich beim ersten Durchgang von Päckchen II soll die
Versuchsperson bei den einzelnen Karten angeben, wie das Zeichen heißen könnte.
Bei einer Falschantwort wird wieder der richtige Name angegeben. Können auf
diese Weise nach mehreren Durchgängen die Namen richtig zugeordnet werden,
wird die ganze Prozedur mit Päckchen III, IV, V und VI wiederholt. Dabei zeigt
sich nun, dass die Namen von Päckchen zu Päckchen immer schneller zugeordnet
werden können. Beim Päckchen VI können viele Personen bereits im ersten
Durchgang angeben, wie die Zeichen heißen. Sie können dann oft das gemeinsame
Merkmal aller Zeichen eines Namens angeben, haben also den Begriff erlernt.
Interessant ist, dass von Päckchen zu Päckchen die Namen immer schneller
zugeordnet werden können, auch wenn die Versuchspersonen das gemeinsame
Merkmal, den Begriff, noch nicht angeben können. Dies verdeutlicht, dass
Begriffslernen teilweise unbewusst vor sich geht. Begriffslernen erfolgt jedoch
nicht immer oder nicht nur unbewusst. Viele andere Experimente haben ergeben,
dass das Begriffslernen teilweise eine Art Hypothesentesten ist: Die Personen
stellen bewusst eine Hypothese darüber auf, was das gemeinsame Merkmal sein
könnte, und überprüfen dies in den folgenden Durchgängen.13
Auf dem Gebiet der kognitiven Entwicklung war Jean Piaget einer der
herausragendsten Forscher, und er unterteilte die kognitive Entwicklung des
Menschen in vier aufeinander folgende Stadien.14 Es soll hier nur das erste
31
Hauptstadium erwähnt werden, da Kinder bereits in dieser Phase (0 bis 18 Monate
alt) Begriffe erlernen. In diesem ersten Stadium erfolgt eine sensomotorische
Entwicklung: Das Kind fasst die Objekte an, dreht sie in den Händen herum, steckt
sie in den Mund, wirft sie weg etc. Durch aktives „Experimentieren“ entwickeln
sich unbewusst Handlungsschemata und Begriffe, und erst in einer späteren Phase
werden den derartig erworbenen Begriffen beim Spracherwerb Namen zugeordnet.
Was können wir aus all dem für die wissenschaftliche Methodologie lernen? In
der wissenschaftlichen Forschung ist es erforderlich, die wesentlichen Eigenschaften eines Systems zu erkennen und ihnen eventuell einen Namen zu geben,
falls sie noch keinen haben, um anschließend Axiome aufstellen zu können. Wie
das Hullsche Experiment mit den chinesischen Zeichen gezeigt hat, ist für das
Begriffslernen wichtig, dass man die unterschiedlichsten Daten betrachtet, und
zwar wiederholt! Man sollte deshalb experimentelle Daten aus den verschiedensten
Bereichen der eigenen Wissenschaft (und vielleicht auch aus anderen
Wissenschaften) wiederholt anschauen. Das wiederholte Hin- und Herwechseln
von einer Datenart zu einer anderen scheint wichtig zu sein. In dem Hullschen
Experiment bekommen die Versuchspersonen bei jeder Karte vom Versuchsleiter
eine Rückmeldung darüber, ob sie den richtigen Namen genannt haben, eine
derartige Rückmeldung fehlt aber natürlich in der Wissenschaft. Die Experimente
der Wissenschaftler mögen jedoch eine ähnliche Funktion haben. Wenn der
Forscher (bzw. die Forscherin) das Gefühl hat, irgendein Merkmal sei für seine
Forschungsfrage wichtig, so kann er diese Hypothese in neuen Experimenten
untersuchen. Wie oben erwähnt wurde, spielt das Hypothesentesten beim
Begriffserwerb ebenfalls eine Rolle. Eine weitere Art von Rückmeldung kann man
durch Gespräche mit anderen Wissenschaftlern erhalten. In den Gesprächen kann
man herausfinden, ob die Kollegen ähnliche Vermutungen anstellen. Heisenberg
schreibt: „Naturwissenschaft beruht auf Experimenten, sie gelangt zu ihren
Ergebnissen durch die Gespräche der in ihr Tätigen, die miteinander über die
Deutung der Experimente beraten. ... daß Wissenschaft im Gespräch entsteht.“15
Begriffslernen ist teilweise ein unbewusster Vorgang, und Gespräche können
helfen, Vorbewusstes durch Sprache bewusst zu machen. An einer anderen Stelle
schreibt Heisenberg: „Wenn wir von einem klar verstandenen, wissenschaftlich
schon geordneten Bereich der Wirklichkeit zu einem neuen übertreten, so geraten
wir von Neuem in die Situation des Kindes, das gleichzeitig Denken und Sprechen
lernen muß; das noch nicht sprechen kann, da ihm ausdrückbare Gedanken fremd
sind; und das noch nicht denken kann, da ihm die Begriffe fehlen, an denen sich
Gedanken ordnen und verknüpfen können.“16
Wie oben dargelegt wurde, entwickeln sich nach Piagets Ansicht beim Kind die
ersten Begriffe in der sensomotorischen Phase durch die ständige unterschiedliche
Handhabung der Objekte. In der Wissenschaft hat das Experiment vielleicht eine
32
ähnliche Wirkung. Durch Experimente könnten sich ebenso wie beim Kind
unbewusst Begriffe entwickeln, und deshalb erscheint es sinnvoll, dass auch
Theoretiker zumindest zeitweise Experimente durchgeführt haben. Die Funktion
des Experimentes ist danach nicht nur die Produktion von Daten, vielmehr ist das
Experiment zusätzlich die erste Stufe der Begriffsbildung. Einstein schreibt in
seinen autobiographischen Notizen, dass er zu Beginn seiner Studentenzeit die
meiste Zeit im physikalischen Laboratorium arbeitete, so dass er sogar die
Mathematik vernachlässigte.17 Von Heisenberg weiß man ebenfalls, dass in Bohrs
Kopenhagener Institut Laborergebnisse oft betrachtet wurden. In Anlehnung an die
Piagetsche Entwicklungstheorie scheint dabei wichtig zu sein, Experimente mit
den unterschiedlichsten Geräten und Methoden durchzuführen, so wie kleine
Kinder die Objekte auf die ausgefallendsten Arten behandeln. Die Variation ist
wichtig.
Gemäß dieser Betrachtungsweise können sich Begriffe entwickeln während der
Durchführung von Experimenten, durch die Betrachtung der unterschiedlichsten
Arten von publizierten Daten und durch Gespräche mit Kollegen. Eine weitere
Quelle der Begriffsfindung ist die Lektüre von Theorien und Hypothesen aus
anderen Wissenschaften und von philosophischen Schriften. Theorien aus völlig
anderen Forschungsbereichen enthalten vielleicht Begriffe, die man selbst
gebrauchen kann. Die vielen philosophischen Systeme, die der spekulative Geist
der Menschheit im Laufe der Jahrtausende hervorgebracht hat, können ebenfalls
Anregungen geben, die adäquaten Begriffe für die eigenen Forschungsfragen zu
finden. Die Bereitstellung von Begriffen ist somit eine Funktion der
Naturphilosophie, und ein Beispiel für die naturphilosophische Bereitstellung von
Begriffen ist wieder die Gravitationstheorie. Newton benutzte in seiner
Gravitationstheorie eine Fernwirkungskraft, und Newton selbst war damit
unzufrieden. Descartes war zwar nicht in der Lage, eine quantitativ so exakte
Gravitationstheorie wie Newton zu liefern, weshalb sich seine Vorstellungen
damals nicht durchsetzten, aber er versuchte, die Gravitation durch die Eigenschaft
des Raumes zwischen den sich anziehenden Objekten zu erklären.18 Die
Wissenschaft musste nach Descartes und Newton bis Albert Einstein warten, dem
es gelang, eine Gravitationstheorie mit geometrischen Begriffen zu formulieren,
die quantitativ sogar noch exakter ist als Newtons Theorie.
Nach der Behandlung der Begriffsentwicklung kommen wir nun zu der Frage,
welche psychologischen Prozesse zu den Axiomen führen. Zunächst einmal kann
man Axiome auch als Begriffe deuten. In diesem Fall handelt es sich jedoch nicht
um das gemeinsame Merkmal verschiedener Objekte, sondern um das
Gemeinsame von Objekten in verschiedenen Situationen oder um das Gemeinsame
in den Relationen zwischen Objekten. Einsteins Axiom der Konstanz der
Lichtgeschwindigkeit in allen Inertialsystemen beschreibt das Gemeinsame des
33
Lichts in allen Inertialsystemen. Ein anderes Beispiel ist Newtons Axiom , F = m ⋅ a
welches für alle Objekte und alle Kräfte in allen Situationen gelten sollte.
Betrachtet man Axiome als Begriffe höherer Ordnung, so gilt für die Entstehung
der Axiome dasselbe, was bereits über die Begriffsentwicklung gesagt wurde.
Befindet sich jedoch eine Wissenschaft in einem theoretisch sehr stark
fortgeschrittenen Zustand, wie es bei manchen Teilen der Physik der Fall ist, so
hilft das oben Gesagte bei der Axiomenbildung nicht viel, da in diesem Stadium
neue Theorien hauptsächlich nicht deshalb gesucht werden, weil es die
empirischen Daten erfordern, sondern aus abstrakteren Erwägungen heraus. Wie
kommt man in diesem Fall von einem bekannten zu einem neuen Begriffs- und
Axiomensystem? Es scheint keine automatischen Regeln, keinen Algorithmus, zu
geben, die der Wissenschaftler nur gewissenhaft zu befolgen hat, um ans Ziel zu
gelangen. Vielmehr handelt es sich hierbei um einen kreativen Vorgang, so dass es
nützlich ist, sich ein wenig mit der Kreativitätspsychologie zu beschäftigen.
4. Kreativitätspsychologie
Als eines der wichtigsten Ziele moderner Wissenschaft wird allgemein das Suchen
nach Naturgesetzen betrachtet. Gesetze beschreiben Vorgänge, die sich raumzeitlich wiederholen, so dass man bei gegebenen Anfangs- und Randbedingungen
den Verlauf der Vorgänge vorhersagen kann. Das besondere Problem der
Kreativitätsforschung ist nun, dass Kreativität von ihrem Wesen her von vielen
Psychologen als ein Prozess betrachtet wird, der gerade nicht automatisch abläuft
und der nicht vorhersagbar ist. Es entsteht etwas Neues, das sich schwer
gesetzmäßig formulieren lässt. Trotz dieser Vorbehalte können Psychologen
interessante Bemerkungen zur Kreativität machen. Zum Beispiel ist eine
Kreativitätstechnik, die in einer Gruppe ausgeführt wird, die Synektik.19 Bei dieser
Methode wird das Problem in der ersten Phase dargelegt und genau analysiert, und
darauf folgt eine „Reinigungsphase“, in der die Teilnehmer Lösungsvorschläge
machen können. Diese Phase dient hauptsächlich dazu, die Teilnehmer davon zu
überzeugen, dass das Problem mit den herkömmlichen Mitteln nicht lösbar ist. Der
Psychologe spricht von „funktionaler Gebundenheit“, wenn man Lösungsstrategien, die bei bestimmten Problemen in der Vergangenheit erfolgreich waren, auf
scheinbar ähnliche Probleme vergeblich anwendet und sich nicht von ihnen
trennt.20 Diese Gebundenheit gilt es aufzubrechen; neue Denkstrukturen sollen sich
ausbilden. Nach der Reinigungsphase wird in der Synektik das Problem noch
einmal formuliert, und nach diesen Vorbereitungen beginnt die Suche nach
Analogien. So soll sich der Teilnehmer der Gruppe bei der sogenannten
persönlichen Analogie in ein Ding, einen Sachverhalt oder einen Vorgang
hineinversetzen und versuchen, sich so zu fühlen, als wenn er z.B. ein
Reißverschluss oder ein stiller See wäre. Anschließend erfolgt die Auswertung.
34
Welche neuen Ideen haben sich für das Problem ergeben? In der Industrie sollen
bereits zahlreiche Erfindungen durch synektisch arbeitende Gruppen hervorgebracht worden sein.
Vielfach wird berichtet, dass ein „plötzlicher Einfall“ die Lösung des Problems
brachte. Hierbei ist es oft so, dass man sich nach einer Phase der aktiven
Lösungsbemühung zunächst eine Zeitspanne gar nicht mit dem Problem
beschäftigt hatte (die Inkubationszeit) und dass dann unerwartet ein plötzlicher
Einfall kam.21 Der Mathematiker und Physiker Poincaré war der Meinung, dass als
Bedingung für die „plötzliche Erleuchtung“ auf alle Fälle eine intensive, bewusste
gedankliche Vorarbeit nötig sei, ohne die – so Poincaré – die Maschine der
unbewussten Arbeit nicht in Gang käme. In der anschließenden Inkubationszeit ist
man dann oft gelöst und entspannt, und Poincaré berichtete, dass ihm zweimal
Inspirationen in Situationen relativer Entspannung gekommen seien, einmal
während einer Exkursion, ein anderes Mal während eines Urlaubs an der
Meeresküste.
Ein weiteres Merkmal der Kreativität ist das Vorhandensein von möglichst
vielen Heurismen.22 Heurismen sind Leitideen, durch welche Probleme unter
Umständen gelöst werden können, oder Vermutungen darüber, welche Bestandteile die Lösung des Problems haben könnte. Gerald Holton hat derartige Leitideen
u.a. aus den Arbeiten Einsteins herausgearbeitet, z.B. Sparsamkeit im ontologischen Aufwand, Symmetrien in den Phänomenklassen, Einfachheit der Theorien,
Kausalität, Vollständigkeit, Kontinuum der Prozesse etc.23
Was können wir aus den Untersuchungen zur Kreativität für die
wissenschaftliche Suche nach Axiomen festhalten? Für die plötzliche Inspiration
ist erst einmal ein angestrengtes Suchen nötig. Eine hohe Motivation, eine genaue
Analyse des Problems und der zur Verfügung stehenden Informationen und
Leitideen sind hilfreich. Um Analogien sollte man sich bemühen; man sollte sich
also nicht als spezialisierter Fachmann ausschließlich um die eigene Wissenschaft
kümmern, sondern sich über die Erkenntnisse anderer Wissenschaften, der Kunst,
Technik etc. informieren. Die eigene funktionale Gebundenheit sollte man
erkennen und sich davon lösen, indem man z.B. bewusst die eigenen Einstellungen
kritisiert und hypothetisch als falsch einschätzt. Eigene Denkgewohnheiten
durchschauen und variieren! Wenn alles nichts hilft, sollte man sich einer
„Inkubationszeit“ anvertrauen: Ein anderes Forschungsproblem in Angriff nehmen,
für Studenten sorgfältig Vorlesungen vorbereiten oder einfach Urlaub machen.
Um das Gesagte zu verdeutlichen und zu ergänzen, sollen ein paar Zitate
angeführt werden. Über die Bedingungen des Auftretens der Inspiration schreibt
Heisenberg: „Natürlich geschieht dies nicht ohne die innere Vorbereitung, die etwa
35
durch jahrelange Arbeit oder durch schwierige menschliche Schicksale die
Voraussetzung dafür schafft, daß hier Entscheidendes ausgesprochen werden
kann.“24 Ungewöhnlich klingt die Hypothese vom schwierigen Schicksal.
Schwierige Situationen können aber das Aufbrechen alter Denkstrukturen
bewirken; unübliche Strategien müssen dann entwickelt werden: „Wenn wirkliches
Neuland betreten wird, kann es aber vorkommen, daß nicht nur neue Inhalte
aufzunehmen sind, sondern daß sich die Struktur des Denkens ändern muß, wenn
man das Neue verstehen will.“25 Fleiß ist auch in der Wissenschaft nötig, allzu
übergroße Aktivität kann jedoch von Nachteil sein, Inkubationszeiten können
helfen. Dies deutet wiederum Heisenberg an: „wird der Erfolg häufig dem
künstlerischen Menschen zuteil, dem sich auch in den unwichtigen Einzelheiten
geheime (d.h. nicht trivial zugängliche) Ordnungen erschließen – während der
allzu aktive Mensch häufig der Gefahr erliegt, den Schmetterling der Erkenntnis
mit so rauher Hand zu ergreifen, daß das bunte Muster auf seinen Flügeln zerstört
ist, bevor er es sehen und in sich aufnehmen konnte.“26 Die heute vielfach so
überhand nehmende Publikationssucht vieler Wissenschaftler kann also durchaus
negative Folgen haben. Wer ständig bemüht ist, so schnell wie möglich
Experimente durchzuführen, um so viel wie möglich zu publizieren, läuft Gefahr,
sich nicht die nötige Zeit zu nehmen, all die erworbenen Informationen auf sich
einwirken zu lassen. Es geht nicht allein darum, viele Informationen zu erzeugen,
sondern, wie Einstein es ausdrückte, „dasjenige herauszuspüren, was in die Tiefe
führen könnte, von allem Andern aber abzusehen“.27
Zum Schluss dieses Abschnittes soll noch einmal genauer auf die Leitideen
eingegangen werden. Bei Einstein wurde deutlich, wie wichtig in einer
fortgeschrittenen theoretischen Wissenschaft Leitideen sind. Neben seinen
erkenntnistheoretischen Leitideen sind viele von naturphilosophischer Art: Unter
Einsteins oben aufgeführten Leitideen befinden sich die Kausalität und das
Kontinuum, Einstein bevorzugte eine feldtheoretische Konzeption der
physikalischen Realität, und an den verschiedensten Stellen hat er immer wieder
angegeben, warum er die Quantenmechanik für keine befriedigende Theorie hielt:
In seinen autobiographischen Notizen geht er auf das sogenannte EPR-Argument
ein. EPR ist die Abkürzung für Einstein, Podolsky und Rosen, welche diese
paradoxe Situation erstmals formuliert haben.28 Beim EPR-Paradox hat man zwei
Protonen, die sich nach einer kurzfristigen Wechselwirkung sehr weit voneinander
entfernen, und die QM kann man so deuten, dass die an einem Proton
durchgeführte Messung instantan den Zustand des anderen Protons beeinflusst, als
gäbe es zwischen beiden Systemen keine räumliche Trennung. In seinen
autobiographischen Notizen sagt Einstein noch einmal ganz deutlich, was ihm
daran nicht gefällt: „Aber an einer Annahme sollten wir nach meiner Ansicht
unbedingt festhalten: Der reale Sachverhalt (Zustand) des Systems S2 ist
unabhängig davon, was mit dem von ihm räumlich getrennten System S1
36
vorgenommen wird.“29 Die Vorstellung von einer räumlichen Trennung der
Objekte war ihm so wichtig, dass er u.a. deshalb eine neue Theorie forderte. Es
gibt andere Elemente der QM, die ihm nicht gefielen. So spielt die
Wahrscheinlichkeit in dieser Theorie eine bedeutsame Rolle, und von Einstein
stammt der berühmte Spruch: „Gott würfelt nicht.“
Einstein ließ sich also von mehreren Grundannahmen leiten, und diese Leitideen
belegen, dass naturphilosophische Vorstellungen bei der Theorienkonstruktion eine
wichtige Rolle spielen können. Philosophische Spekulationen sind trotzdem vielen
Naturwissenschaftlern sehr suspekt, und dies zurecht, wenn sie mit dem Anspruch
auf absolute Wahrheit verkündet werden. Derartige Ansprüche sind genauso
unhaltbar wie der Glaube an die Beweisbarkeit wissenschaftlicher Theorien.
Wissenschaftliche Theorien haben wegen der experimentellen Kontrolle eine
stärkere Überzeugungskraft, eine völlige Ignorierung der Philosophie würde jedoch
Wissenschaftler in ihrer Kreativität einschränken. Einstein bezeichnete sogar die
Angst vor der Metaphysik als eine Krankheit der empirizistischen Philosophie, und
Heisenberg sagte in einem Gespräch mit Wolfgang Pauli über die positivistische
Philosophie, welche naturphilosophische Gedanken grundsätzlich ablehnte: „Der
Positivismus in seiner heutigen Prägung aber macht den Fehler, daß er den großen
Zusammenhang nicht sehen will, daß er ihn – ich übertreibe vielleicht jetzt mit
meiner Kritik – bewußt im Nebel halten will; zumindest ermutigt er niemanden,
über ihn nachzudenken.“30
5. Funktionen der Naturphilosophie in den Naturwissenschaften
Die naturwissenschaftliche Forschung ist heutzutage einerseits sehr fachspezifisch,
andererseits sehr zeitintensiv, so dass der einzelne Naturwissenschaftler neben
seinen spezifischen Forschungsinteressen und seinen sonstigen Verpflichtungen
wie Lehrveranstaltungen kaum noch Zeit und Muße findet, mehrere
Forschungsrichtungen oder gar mehrere Wissenschaften zu durchdringen. Der
Publikationsdruck ist derartig groß, dass für die genaue erkenntnistheoretische
Analyse selbst der eigenen Wissenschaft kaum noch Zeit bleibt. Der Wissenschaftsphilosoph (bzw. die Wissenschaftsphilosophin) hingegen überblickt durch
gründliches Literaturstudium in der Regel mehrere Wissenschaftsdisziplinen und
hat die nötige erkenntnistheoretische Schulung, um die Grundaussagen mehrerer
Theorien herausarbeiten und miteinander vergleichen zu können. Die
systematische Herausarbeitung und der Vergleich grundlegender theoretischer
Begriffe und Strukturen verschiedener Theorien aus unterschiedlichen
Wissenschaften wird deshalb heutzutage vornehmlich von Philosophen geleistet. In
einem zweiten Schritt kann nun der Naturphilosoph versuchen, die vielen
Detailergebnisse zu einer konsistenten Zusammenschau zu integrieren, d.h. ein
37
Weltbild bzw. eine allgemeine Weltauffassung zu entwerfen. Die Synthese eines
Weltbildes, das natürlich (wie alle Integrationen von einzelnen Bausteinen zu
einem Ganzen) über die Detailergebnisse der Wissenschaften hinausgeht, hat aber
nicht nur den Wert einer teleskopartigen Zusammenfassung bereits vorliegender
wissenschaftlicher Erkenntnisse, sondern kann den Wissenschaftlern auch zur
Orientierung und Ausrichtung ihrer Forschungen dienen. So hat zum Beispiel das
Demokritsche Weltbild zur Suche nach kleinsten Bausteinen, den Atomen, geführt,
was in der heutigen Naturwissenschaft bis zur Quarktheorie führte. Neben der
Analyse der Grundstrukturen und Grundaussagen der Theorien und der Synthese
eines Weltbildes hat deshalb der Philosoph die zusätzliche Aufgabe, durch
Bereitstellung naturphilosophischer Leitideen, erhalten aus einem Weltbild bzw.
aus einer abstrakteren Weltauffassung, Theorienkonstruktionen zu fördern. Ein
weiteres Beispiel für den Einfluss von naturphilosophischen Leitideen in der
Naturwissenschaft ist die Entstehung der QM. Schon vor ihrer Entdeckung nahmen
Heisenberg, Pauli u.a. an, die Quantenobjekte seien keine raumzeitlichen,
substantiellen Objekte, und ihre theoretischen Überlegungen orientierten sie daran.
Eine Orientierung an philosophischen Ideen birgt natürlich die Gefahr in sich, in
die Irre geleitet zu werden; nämlich wenn die Ideen falsch sind. Einstein lehnte bis
zum Schluss die QM aus philosophischen Gründen ab, hätte er sie akzeptiert, so
hätte sein Genius sicherlich die quantenphysikalische Forschung noch stärker
vorangetrieben (wie er es bereits in ihrer Anfangsphase getan hatte). Da jedoch
verschiedene Forscher verschiedene philosophische Standpunkte (oft unbewusst)
vertreten, kann die Wissenschaft durch die Fixierung mancher Wissenschaftler auf
bestimmte Ideen nicht in eine Sackgasse geraten.
Der Geschichte der Wissenschaften lässt sich entnehmen, dass die
Naturphilosophie vor allem an drei Stellen der wissenschaftlichen Tätigkeit
heuristisch hilfreich ist, nämlich:31
a) In Zeiten, in denen die fundamentalsten Anschauungs- und Denkweisen, die
methodologischen Grundeinstellungen darüber, wie gute Wissenschaft vorzugehen
hat, Veränderungen unterliegen. Ein Beispiel ist die Entstehung der heutigen Art,
Naturwissenschaft zu betreiben, hauptsächlich im 17. Jahrhundert. Das
atomistische Weltbild Demokrits wurde zum integralen Bestandteil des
entstehenden mechanistischen Weltbildes, auf welchem die Forderungen basierten,
wissenschaftliche Erklärungsprinzipien sollten sich auf die korpuskulare Materie,
ihre Gestalt und Bewegung beschränken und die experimentellen Ergebnisse
sollten wiederholbar und vorhersagbar sein.
b) In Zeiten, in denen neue wissenschaftliche Disziplinen geschaffen werden.
Beispiele sind die Entstehung der Chemie im 17. Jahrhundert durch Robert Boyle,
der sich auf das atomistisch-mechanistische Weltbild stützte, und im 20.
Jahrhundert die Entstehung der wissenschaftlichen Kosmologie durch Einsteins
Relativitätstheorie, der sich bewusst sehr von philosophischen Fragen leiten ließ.
38
Bei manchen historisch bedeutsamen Veröffentlichungen drückte sich diese innige
Beziehung von Naturwissenschaft und Naturphilosophie bereits im Titel aus.
Newtons Hauptwerk von 1687 trägt den Titel "Philosophiae naturalis principia
mathematica"; John Dalton, ebenfalls ein Begründer des neuzeitlichen Atomismus,
veröffentlichte 1808 seine Schrift "A new system of chemical philosophy"; und
1809 veröffentlichte de Lamarck seine "Philosophie zoologique", die Begründung
der Evolutionsforschung.
c) In Zeiten der Ablösung alter Fundamentaltheorien durch neue. Niels Bohr, der
Großvater der heutigen QM, war sehr an philosophischen Fragen interessiert, und
während der Entstehungszeit der QM diskutierten er und seine jungen Mitarbeiter
(Heisenberg, Pauli, Jordan etc.) die zu erklärenden Phänomene auch in Hinblick
auf naturphilosophische Fragestellungen.
Abb. 3: Naturphilosophische Erweiterung von Einsteins Skizze zur wissenschaftlichen Methode
(s. Abb. 1). WB bezeichnet das Weltbild bzw. WA die Weltauffassung (falls die Grundstrukturen
der Welt unanschaulich sein sollten), L, L' Leitideen, A, A', A'' Axiomensysteme, S, S', S''
deduzierte Sätze und E die unmittelbaren Erlebnisse. Die gestrichelten Linien geben sehr
spekulative Forschungsschritte an.
6. Zusammenhang naturwissenschaftlicher und
naturphilosophischer Methodologie
Vergleicht man die wissenschaftliche Methodologie mit dem Vorgehen der
Naturphilosophie, wie sie hier vorgeschlagen wird, so lässt sich eine analoge und
miteinander verbundene Struktur der Methodologien von Wissenschaft und
Naturphilosophie feststellen. In seinem Brief an Solovine spricht Einstein vom
spekulativen Schritt von den empirischen Daten zur Theorie, aus welchen Sätze
abgeleitet werden, die sich an der Erfahrung bewähren müssen. Den empirischen
39
Daten der Wissenschaft entsprechen in der Naturphilosophie die Grundaussagen
der wissenschaftlichen Theorien, von diesen vorgegebenen theoretischen Aussagen
kann der Naturphilosoph auf spekulative Weise zu einem integrierenden Weltbild
übergehen, und dieses Weltbild muss sich schließlich dadurch bewähren, dass es
naturphilosophische Leitideen ermöglicht, welche bei den neuen Theorienkonstruktionen hilfreich sind. Einsteins Skizze in seinem Brief an Solovine kann
also dahingehend ergänzt werden, dass von den Axiomen und Theoremen ein Pfeil
zum höher gelegenen Weltbild führt, von dem wiederum Pfeile zu den Leitideen
und Theorien herabführen (Abb. 3). Beim spekulativen Schritt zum Weltbild
können jedoch nicht nur wissenschaftliche Theorien bedeutsam sein,
erkenntnistheoretische Überlegungen und außerwissenschaftliche Erfahrungen und
Beobachtungen können ebenfalls eine Rolle spielen.
Ein Beispiel für die wissenschaftliche Nützlichkeit eines Weltbildes ist das
atomistisch-mechanistische Weltbild, das hauptsächlich im 17. Jahrhundert
entstand und das lediglich eine spekulative Grundlage hatte, auch wenn die
Begründer dieses Weltbildes sich dessen vielleicht nicht bewusst waren. Angefangen von der Herausbildung der klassischen Physik und Chemie bis zur Entstehung
der heutigen Quarktheorie hatte dieses Weltbild einen bewundernswerten
heuristischen Erfolg, obwohl es aus der Sicht mancher heutiger Theorien (geometrische Gravitationstheorie und Quantenmechanik) nicht mehr haltbar ist. Seit
einigen Jahrzehnten bemühen sich deshalb immer mehr Naturwissenschaftler
darum, ein neues wissenschaftliches Weltbild zu entwerfen, und es bleibt zu
hoffen, dass zumindest eines von ihnen in Zukunft ähnlich erfolgreich sein wird
wie das atomistisch-mechanistische. Kandidaten hierfür sind u.a. die Weltbilder
von N. Hartmann, Bohm und Arendes.32 Zum Beispiel hat der Autor der
vorliegenden Arbeit in einem Buch über das Interpretationsproblem der QM die
Welt mit einem Computer verglichen und in darauf folgenden Arbeiten aus diesem
emergentistischen und funktionalistischen Weltbild Leitideen für die Erforschung
des Leib-Seele-Problems und der biologischen Funktionen entwickelt.33 Inwieweit
diese oder andere Leitideen von verschiedenen Weltbildern zu wissenschaftlichen
Theorien führen werden, bleibt abzuwarten.
40
Anmerkungen
1. K. Popper: Logik der Forschung, Wien 1935.
2. A. Einstein: Briefe an Maurice Solovine, Berlin 1960, S. 118-121.
3. E. J. Dijksterhuis: Die Mechanisierung des Weltbildes, Berlin 1956, S. 535.
4. A. Einstein: Autobiographical Notes, La Salle 1991, S. 56.
5. A. Einstein: 'Die Entwicklung der mechanistischen Auffassung'. In A. Einstein:
Ausgewählte Texte, herausgegeben von H. C. Meiser, München 1986, S. 84-179.
6. R. Descartes: Meditationes de prima philosophia, Hamburg 1977. R. Descartes:
Regeln zur Ausrichtung der Erkenntniskraft, Hamburg 1979. R. Specht (Hrsg.):
Geschichte der Philosophie in Text und Darstellung. Bd. 5: Rationalismus,
Stuttgart 1984.
7. R. Descartes, 1979, a.a.O.
8. Vgl. A. S. Davydov: Biology & Quantum Mechanics, Oxford 1982. H. Fröhlich
(Hrsg.): Biological Coherence and Response to External Stimuli, Berlin 1988.
G. Chauvet: La vie dans la matière. Le rôle de l´espace en biologie, Flammarion
1995.
9. B. Kanitscheider: Das Weltbild Albert Einsteins, München 1988, S. 17.
10. Vgl. B. Müller, J. Reinhardt: Neural Networks. An Introduction, Berlin 1990.
11. Diese Charakterisierung von „Begriff“ ist noch nicht ganz ausreichend (vgl. D.
Dörner: Problemlösen als Informationsverarbeitung, Stuttgart 1979, S. 121f),
viele alltägliche Kategorisierungen sind z.B. polymorph. Für die
wissenschaftliche Begriffsbildung und für die in dieser Arbeit behandelte
methodologische Fragestellung mag aber diese Charakterisierung genügen.
12. Vgl. C. L. Hull: 'Quantitative Aspekte der Begriffsentwicklung', Psychol.
Monogr. 28 (1920), S. 1-6, 9-40, abgedruckt in: C. F. Graumann (Hrsg.):
Denken, Göttingen 1965. J.P. Houston: Fundamentals of learning and memory,
New York 1981, Kap. 14.
13. D. Dörner, 1979, a.a.O., S. 121ff.
14. Vgl. R. Oerter, L. Montada: Entwicklungspsychologie. Ein Lehrbuch, München
1982, Kap. 6a.
15. W. Heisenberg: Der Teil und das Ganze, 9. Aufl., München 1985, S. 7.
16. W. Heisenberg: Ordnung der Wirklichkeit, 2. Aufl., München 1990, S. 43f.
17. A. Einstein, 1991, a.a.O., S. 14.
18. Vgl. B. Kanitscheider: Kosmologie, Stuttgart 1984, S. 115f.
19. D. Dörner, 1979, a.a.O., S. 86ff.
20. R. E. Mayer: Denken und Problemlösen: Eine Einführung in menschliches
Denken und Lernen, Berlin 1979, S. 90. W. Hussy: Denkpsychologie, Bd. 1,
Stuttgart 1984, S. 207f.
21. D. Dörner, 1979, a.a.O., 91ff.
22. D. Dörner, 1979, a.a.O., 129ff.
41
23. G. Holton: Thematic Origins of Scientific Thought: Kepler to Einstein,
Cambridge 1973.
24. W. Heisenberg, 1990, a.a.O., S. 164.
25. W. Heisenberg, 1985, a.a.O., S. 88.
26. W. Heisenberg, 1990, a.a.O., S. 147.
27. A. Einstein, 1991, a.a.O., S. 14.
28. A. Einstein, B. Podolsky, N. Rosen: 'Kann man die quantenmechanische
Beschreibung der physikalischen Wirklichkeit als vollständig betrachten?'
Abgedruckt in: K. Baumann, R. Sexl (Hrsg.): Die Deutungen der
Quantentheorie, Braunschweig 1986, S. 80-86.
29. A. Einstein, 1991, a.a.O., S. 80.
30. A. Einstein: 'Bemerkungen zu Bertrand Russells Erkenntnis-Theorie'. In P. A.
Schilpp (Ed.): The Philosophy of Bertrand Russell, Evanston 1946, S. 288. W.
Heisenberg, 1985, a.a.O., S. 254.
31. Vgl. H. Törnebohm: 'Die Rolle der Naturphilosophie in der physikalischen
Forschung', S. 26. In B. Kanitscheider (Hrsg.): Moderne Naturphilosophie,
Würzburg 1984, S. 15-39.
32. D. Bohm: Wholeness and the implicate order, London 1980. D. Bohm, B. J.
Hiley: The undivided universe, London 1993. N. Hartmann: Der Aufbau der
realen Welt, 2. Aufl., Berlin 1949. L. Arendes: Gibt die Physik Wissen über die
Natur? Das Realismusproblem in der Quantenmechanik, Würzburg 1992.
33. L. Arendes: 'Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems', Philosophia Naturalis 33 (1996), S. 55-81. L. Arendes: Das
Computer-Weltbild. Funktionen der Naturphilosophie in der Naturwissenschaft.
42
Interpretation der Quantenmechanik:
Das Computer-Weltbild
Dr. Lothar Arendes
Zusammenfassung:
Obwohl die Quantenmechanik (QM) bereits vor über 80 Jahren entstanden ist, gilt sie bei vielen
Physikern immer noch als unverstanden. In diesem Aufsatz wird der Vorgang des „Verstehens“
aus der Sicht der kognitiven Psychologie untersucht, um auf dieser Grundlage das Interpretationsproblem der QM zu besprechen. In der kognitiven Psychologie wird ein neuer Sachverhalt
als verstanden betrachtet, wenn es gelingt, ihn in eine vorhandene Denkstruktur zu integrieren.
Die semantische Deutung von mathematischen Formeln ergibt sich danach aus ihrer Einbettung
in ein umfassenderes Begriffssystem, welches als das Weltbild des Wissenschaftlers bezeichnet
werden kann. In diesem Sinne wird hier die QM mit einer Weltbild-Analogie gedeutet, bei der
die Welt mit einem Computer verglichen wird.
Mehr als acht Jahrzehnte nach der Entstehung der Quantenmechanik (QM)
gestehen immer wieder selbst Physik-Nobelpreisträger ein, die QM nicht zu
verstehen.[1] Die mathematische Struktur der QM ist vollständig verstanden, auch
versteht man es, aus der Theorie Vorhersagen abzuleiten, die man experimentell
testen kann. Man versteht es immer besser, technische Anwendungen der Theorie
zu konstruieren, und doch werden Philosophen und Theoretiker nicht müde
festzustellen, dass die Theorie immer noch unverstanden ist. Es stellt sich deshalb
die Frage, welcher Art diese Verständnisprobleme sind. Wann hat eine Person den
Eindruck, einen Sachverhalt verstanden zu haben?
Psychologie des Verstehens
Die „kognitive Wende“ der Psychologie vom Behaviorismus zur heute
dominierenden kognitiven Psychologie wurde vor allem von Jean Piaget
eingeleitet, der die geistige Entwicklung des Kindes untersuchte. Nach seiner
Theorie entwickeln Kinder Denkstrukturen, mit denen sie ihre Umwelt erkennen,
indem sie die sensorischen Informationen mit ihren internen Denkstrukturen
verknüpfen. Piaget bezeichnete diesen Vorgang als Assimilation (der Umwelt).
43
Gelingt es nicht, einen Erfahrungsbereich mit seinen Denkstrukturen in Verbindung zu bringen, so verändert man seine Denkstrukturen solange, bis eine
Integration gelingt. Diesen Vorgang nannte Piaget Akkomodation (der Denkstrukturen). In der Psychologie hat sich diese Sichtweise durchgesetzt; um also
einen Sachverhalt zu verstehen, muss er mit dem im Gedächtnis gespeicherten
Wissen über Vorgänge in der Welt in Beziehung gebracht werden. Es gibt in der
Psychologie verschiedene Gedächtnismodelle.[2] Für unsere Zwecke ist aber nicht
wichtig, welches Gedächtnismodell man benutzt, da im Folgenden nur das Prinzip
erläutert werden soll, wie „Verstehen“ in der Psychologie behandelt wird.
Abb. 1: Aktives semantisches Netzwerk als Gedächtnismodell; nach Rumelhart, Lindsay und
Norman (1972): Gedächtnisstruktur einer fiktiven Person.
Ein viel zitiertes Gedächtnismodell aus der Gruppe der „aktiven semantischen
Netzwerke“ ist das von Rumelhart, Lindsay und Norman: Abbildung 1.[3] Diese
Autoren modellieren das semantische Gedächtnis durch Knotenpunkte, die durch
gerichtete Pfeile verschiedener Art miteinander verküpft sind. Die Knoten stellen
Wörter dar, welche für Begriffe oder Ereignisse stehen, und die Pfeile geben
Relationen zwischen diesen Begriffen und Ereignissen an. Stellt man einer Person
eine Frage, so besteht der Prozess der Antwortfindung darin, zu einem in der Frage
erwähnten Knoten zu gehen und von dort aus die entsprechenden Wege
einzuschlagen. Fragt man zum Beispiel eine Person, die eine Gedächtnisstruktur
wie die in Abbildung 1 besitzt, wer Mary ermordet habe, so beginnt die Person
beim Knoten für „Mary“ und arbeitet sich bis zum Knoten für „John“ vor. Ein
44
anderes Gedächtnismodell zeigt Abbildung 2, in dem die kognitive Struktur in
mehrere „Kanäle“ unterteilt wird.[4] Im Dingkanal sind die sensorisch gegebenen
Sachverhalte der Realität ebenfalls durch Knoten repräsentiert, und sie stehen in
Verbindung mit Knoten, welche Handlungsprogramme darstellen. Im Symbolkanal
repräsentieren die Knoten Phoneme (P), Wörter (W) und Sätze (S), welche in dem
Benennungskanal mit den Spracherzeugungseinheiten in Kontakt stehen:
„Zwischen den Kanälen bestehen Beziehungen verschiedener Art. Für uns sind die
»bedeutungskonstituierenden« Beziehungen zwischen Dingkanal und Symbolkanal
am wichtigsten. Sie machen es möglich, daß der Netzknoten für das akustische
Ereignis des gehörten Wortes »Apfel« den Netzknoten für das optische Ereignis
»Apfel« aktiviert und damit die mehr oder minder deutliche Vorstellung eines
Apfels hervorruft.“[5]
Abb. 2: Gedächtnismodell nach Dörner (1979): P bezeichnet Phoneme, W Wörter und S Sätze.
Die heutigen Gedächtnismodelle der Psychologie kann man natürlich nur als erste
Approximationen an die wirklichen Gedächtnisstrukturen betrachten. Trotzdem
erscheint die Hypothese plausibel, dass man einen Sachverhalt verstanden hat,
wenn es gelingt, diesen Sachverhalt an eine bestehende Gedächtnisstruktur
anzukoppeln. Ein Wissenschaftler mit dem mechanistischen Weltbild aus dem
frühen 17. Jahrhundert hat eine Gedächtnisstruktur, deren Knoten und Relationen
nur die korpuskulare Materie, Größe, Gestalt und den Bewegungszustand
repräsentieren. Eine Ankopplung von Begriffen wie „Geodäte“, „Entropie“ oder
„Energie“ ist nicht möglich, so dass hiermit ein Verständnis heutiger
physikalischer Theorien unmöglich ist. Die Psychologie des Verstehens macht
45
auch deutlich, warum Mathematiker, Experimentalphysiker und Techniker keine
Probleme mit der QM haben, während theoretische Physiker und Philosophen
unzufrieden sind. Das Gedächtnis des Mathematikers enthält mathematische
Begriffe, und der Mathematiker hat deshalb keinerlei Schwierigkeiten, den
mathematischen Formalismus der QM zu verstehen. Für Experimentalphysiker und
Techniker ist nur wichtig zu wissen, wie Voraussagen der Theorie experimentell
und technisch umgesetzt werden können. Auch hier gibt es keine Probleme, da es
ja gerade die Stärke der Theorie ist, den beobachtbaren Phänomenen sehr gut
gerecht zu werden. Theoretische Physiker und Philosophen wollen jedoch wissen,
was die Theorie über die Natur aussagt. Im Laufe ihrer Ausbildung haben sich
semantische Netzwerke herausgebildet, welche als Knotenpunkte Teilchen, Felder,
Wellen, Energie etc. enthalten, und die Relationen zwischen diesen Punkten
drücken bestimmte raumzeitliche und kausale Beziehungen aus. Ist nun eine neue
Theorie entdeckt worden, so möchten die theoretischen Physiker und Philosophen
diese Theorie verstehen, indem sie sich bemühen, die Begriffe der Theorie in ihr
vorhandenes Begriffsnetzwerk einzugliedern. Gelingt dies nicht, so haben sie das
Gefühl, die Theorie nicht verstanden zu haben. Es gibt dann zwei Möglichkeiten:
Entweder fordert man eine neue Theorie oder man muss die eigenen
Denkstrukturen, das semantische Netzwerk, ändern. Albert Einstein forderte eine
neue Quantenmechanik, wohingegen Werner Heisenberg uns aufforderte: „Es wäre
also unsere Aufgabe, unsere Sprache und unser Denken, d.h. auch unsere
naturwissenschaftliche Philosophie, dieser von den Experimenten geschaffenen
neuen Lage anzupassen.“[6]
Deutungsprobleme in der Quantenmechanik
In der QM steht man einer Vielzahl von Problemen gegenüber, die man mit den
klassischen Vorstellungen der Physik nicht verstehen kann. Die wichtigsten
Probleme sollen kurz erläutert werden, denn viele der bereits vorhandenen
Interpretationsversuche scheitern schon allein daran, dass die Interpreten gar nicht
alle Probleme behandeln.[7]
Welle-Teilchen Dualismus: 1909 formulierte Einstein zum ersten Mal explizit den
Dualismus von Welle und Teilchen, wonach Licht eine Wellen- und eine
Teilchennatur hat, und später wurde dies auf alle Objekte übertragen. Nun ist aber
eine Welle begrifflich etwas Anderes als ein Teilchen; ein Teilchen ist eine
räumlich abgegrenzte Substanz, eine Welle ist ein raumzeitliches Muster eines
Trägermediums. Beides gleichzeitig zu sein, ist logisch ausgeschlossen. Und doch
legen Experimente und die QM dieses nahe. Im Doppelspaltexperiment bewirkt
Licht, das durch zwei kleine Löcher eines schwarzen Schirmes gegangen ist, auf
einer Photoplatte teilchenförmige Schwärzungen, viele solcher Schwärzungen
46
erzeugen jedoch ein Muster, das auf wellenartige Interferenzen hindeutet. Dieses
Experiment verdeutlicht besonders gut, dass es sich bei den Verständnisproblemen
der QM nicht primär um das Unverständnis einer seltsamen Theorie handelt,
welches sich durch eine zukünftige Konstruktion einer neuen Theorie beheben
ließe, sondern dass es sich hierbei tatsächlich um fundamentale, aber unverstandene Aspekte der Natur handelt.
Bedeutung der Zustandsfunktion: In der QM gibt es mehrere gleichberechtigte
mathematische Formalismen. Im Schrödingerbild hat man als Lösung der
Schrödingergleichung die Zustandsfunktion Ψ , und das Besondere an der Ψ Funktion ist nun, dass man sie schreiben kann als eine Summe der den möglichen
Messwerten zugeordneten Eigenfunktionen: Ψ =
∑
k
ck uk . Die Vorfaktoren c der
k
2
einzelnen Eigenfunktionen sind in quadratischer Form ( c k ) ein Maß für die
Wahrscheinlichkeit, das Objekt im Eigenzustand uk mit dem Messwert ak
vorzufinden. Eine vieldiskutierte Frage ist nun, welche physikalische Bedeutung
der Zustandsfunktion zukommt. Ist sie der Repräsentant des physikalischen
Objektes im Formalismus? Wäre sie es nicht, dann wüsste man überhaupt nicht,
wie das Objekt im Formalismus dargestellt sein soll. Ist sie es aber, dann ergeben
sich anderweitig ernsthafte Verständnisschwierigkeiten. Die Ψ -Funktion lässt sich
formulieren als die Superposition aller möglichen Eigenfunktionen einer
Messgröße. Bedeutet das, dass die oftmals unendlich vielen Eigenwerte alle im
Objekt vorhanden sind? Was soll man sich unter einem Objekt vorstellen, das an
sehr vielen Orten gleichzeitig ist oder gleichzeitig unendlich viele Impulse und
Energiewerte besitzt? Beobachtet wird doch immer nur ein Wert. Problematisch an
der Zustandsfunktion ist ferner, dass sie nach den jeweiligen Eigenfunktionen des
Operators nur einer dynamischen Variablen entwickelt werden kann, aber niemals
gleichzeitig nach den Eigenfunktionen aller dynamischen Variablen. Entwickelt
man z.B. die Zustandsfunktion nach den Impulseigenfunktionen, kann man dann
dem Objekt noch einen Ort zusprechen?
Unschärferelation: Variablen, die nicht gleichzeitig in der Zustandsfunktion
repräsentiert sind, können in einer Ungleichung gemeinsam auftauchen - nämlich
in der Heisenbergschen Unschärferelation, allerdings auf eine sehr merkwürdige
Weise. Die Unschärferelation besagt, dass das Produkt der Standardabweichungen
( ∆ ) zweier nicht-kommutierender Variablen immer größer oder gleich einer
positiven Konstanten ist. Für Ort und Impuls gilt: ∆ x ⋅ ∆ p ≥

. Die merkwürdige
2
Eigenart dieser Ungleichung wird deutlich, wenn man sich fragt, was mit einem
Objekt bei einer Messung geschehen muss, damit diese Ungleichung erfüllt bleibt.
Führt man zum Beispiel eine sehr exakte Ortsmessung durch, so dass die
Standardabweichung der Ortswerte null wird, dann muss die Standardabweichung
47
der Impulswerte unendlich groß werden. Ein genauer Ort führt also zur völligen
Unbestimmtheit des Impulses. Führt man danach eine Impulsmessung durch, so
dass die Standardabweichung der Impulswerte verschwindet, so muss, damit die
Ungleichung erfüllt bleibt, die Standardabweichung der Ortswerte unendlich groß
werden. Die Messung einer Variablen verändert demnach die Streuung der Werte
anderer Variablen. Bedeutet das, dass die Messung einer Größe die anderen
Variablen physikalisch verändert? Heisenberg stellte einmal die These auf, dass
die Messung das Objekt störe, so dass z.B. eine Ortsmessung den Impuls
unvorhersagbar verändere.[8] Wenn aber die Ursache für die Variablenstreuung
das Messgerät wäre, dann wäre schwer zu verstehen, warum verschiedene
Messgeräte dieselbe Ungleichung erfüllen. Man kann eine beliebige Variable mit
verschiedenen Geräten messen - müssten nicht verschiedene Geräte das
beobachtete System auf verschiedene Weise stören? Die Heisenbergschen
Unschärferelationen gelten universell für alle Messapparaturen; zumindest konnte
bislang keine Abhängigkeit der Werteverteilung von der Messart festgestellt
werden.
Reduktion der Zustandsfunktion: Vor einer Beobachtung ist die Zustandsfunktion
einer zu messenden Größe in der Regel als Superposition sehr vieler Eigenfunktionen gegeben, nach der Beobachtung liegt meist nur eine Eigenfunktion vor,
welche den gemessenen Wert repräsentiert. Betrachtet man die Zustandsfunktion
als eine realistische Beschreibung des Objektes und nicht nur als unser Wissen
über das Objekt, so stellt sich das Problem, wie in der Beobachtung der Übergang
von der Superposition vieler Eigenwerte zu einem einzigen Eigenwert erfolgt. Dies
ist das berühmte Problem der „Reduktion des Wellenpaketes“. Es liegt nahe, die
Reduktion physikalisch zu erklären, indem man den Formalismus der QM
anwendet auf die Situation der Wechselwirkung eines Messgerätes mit dem zu
messenden Objekt. Dies löst jedoch das Problem nicht; im Gegenteil, es
demonstriert eine weitere seltsame Eigenschaft der QM. Wechselwirken nämlich
zwei Objekte (z.B. ein Messgerät und ein Messobjekt) miteinander, so verlieren
beide Systeme ihre Individualität und bilden ein unteilbares Gesamtsystem. Dieses
Gesamtsystem ist wieder als Superposition gegeben, so dass die Messung die
ursprüngliche Superposition des Messobjektes nicht aufhebt, sondern auf die
Superposition des Gesamtsystems Gerät + Objekt verschiebt.
EPR-Paradox: Die Vermutung, die superponierte Zustandsfunktion repräsentiere
nur unser unvollständiges Wissen um den genauen Wert einer Variablen, hat
Einstein, Podolsky und Rosen (EPR) 1935 dazu veranlasst, ein Argument für die
Unvollständigkeit der QM zu formulieren.[9] Für die Vollständigkeit einer Theorie
geben sie folgende notwendige Bedingung an: Jedes Element der physikalischen
Realität muss seine Entsprechung in der physikalischen Theorie haben. Als
hinreichendes Kriterium für Realität geben sie an: „Wenn wir, ohne auf irgendeine
48
Weise ein System zu stören, den Wert einer physikalischen Größe mit Sicherheit
(d.h. mit der Wahrscheinlichkeit gleich eins) vorhersagen können, dann gibt es ein
Element der physikalischen Realität, das dieser physikalischen Größe entspricht.“
Das EPR-Paradox behandelt zwei Systeme S1 und S2 (z.B. zwei Protonen), die für
eine kurze Zeit miteinander wechselwirken und danach in entgegengesetzte
Richtungen weg fliegen. Das zusammengesetzte System wird durch das Produkt
der Einzelzustände beschrieben, und die Schrödingergleichung erlaubt es, die
Entwicklung des kombinierten Systems zu berechnen, wenn die Anfangszustände
bekannt sind. Nach der Wechselwirkung kann man den Zustand eines Teilsystems
S1 oder S2 nicht voraussagen, aber selbst wenn sich die Teilsysteme beliebig weit
voneinander entfernen, bleibt sowohl die Differenz ihrer Positionen x1 − x2 als auch
die Summe ihrer Impulse p1 + p2 konstant. Will man etwas über den Zustand eines
Teilsystems erfahren, so muss man eine Messung durchführen. Misst man an S1
den Ort x1, dann kann man, da die Differenz der beiden Ortspositionen bekannt ist,
den Ort x2 von S2 mit Sicherheit voraussagen, ohne dabei S2 zu stören (nach der
Meinung der drei Autoren, denn die beiden Teilsysteme können nach beliebig
langer Zeit beliebig weit voneinander entfernt sein). Nach dem Realitätskriterium
muss also x eine Realität besitzen. Würde man jedoch an S1 statt einer Ortsmessung
eine Impulsmessung mit dem Ergebnis p1 durchführen, so könnte man, da die
Summe der beiden Impulse bekannt ist, den Impuls p2 mit Sicherheit voraussagen,
ohne dabei (nach der Meinung der drei Autoren) S2 zu stören. Nach dem
Realitätskriterium muss also p eine Realität besitzen. Da es im Belieben des
Experimentators steht, den Ort oder den Impuls von S1 zu messen, und durch die
Messung an S1 das System S2 nicht beeinflusst werden könne, müsse nach dem
Realitätskriterium S2 gleichzeitig sowohl einen realen Ort als auch einen realen
Impuls haben. Aber bekanntlich gibt es in der QM keine Zustandsfunktion, aus der
gleichzeitig Ort und Impuls, hier des Systems S2, berechnet werden kann. Also – so
lautet der Schluss von Einstein, Podolsky und Rosen – ist die QM eine
unvollständige Theorie. Niels Bohr kritisierte dieses Argument mit dem Hinweis,
dass man nach der QM die beiden Teilsysteme nicht als voneinander unabhängige
Objekte betrachten dürfe. Vielmehr besitzen nach Bohr Quantenobjekte einen
Ganzheitszug in dem Sinne, dass die gesamte Versuchsanordnung das Objekt
definiere. Nach Bohr ist also das Realitätskriterium des EPR-Argumentes
inadäquat: Es gibt durch die Messung an S1 zwar keine mechanische Störung von
S2, aber doch eine Änderung, weil beides eine Einheit bildet.
Verletzung der Bellschen Ungleichung: Bezüglich der Frage nach der Realität und
Trennbarkeit von Objekten hat Bell 1964 eine mathematische Ungleichung
bewiesen, deren experimenteller Test in den 70er und 80er Jahren die philosophische Diskussion um die QM neu entfacht hat.[10] Die Ungleichung bezieht sich
auf die EPR-Situation, in der zwei Protonen miteinander wechselwirken,
auseinanderfliegen, und an denen dann Werte des Spins, einer spezifisch
49
quantenmechanischen Eigenschaft, gemessen werden. Der Spin eines Objektes
kann nur zwei Werte annehmen, plus oder minus, und für eine Vielzahl von ZweiProtonen-Systemen lässt sich folgende Ungleichung herleiten:
n ( + A + B) ≤ n ( + A + C ) + n ( + B + C ) .
A, B und C geben die gemessenen Achsen an, und z.B. n ( + A + B) bezeichnet die
Anzahl an Protonenpaaren, in denen ein Partner die Komponente +A und der
andere die Komponente +B hat. Die Ungleichung lässt sich herleiten unabhängig
von der QM und hauptsächlich aus den folgenden zwei Voraussetzungen:
1. Realismus: Physikalische Objekte existieren unabhängig von ihrer Beobachtung.
2. Lokalität: Physikalische Effekte breiten sich nicht mit Überlichtgeschwindigkeit aus.
Die QM sagt voraus, dass unter bestimmten Bedingungen diese Ungleichung
verletzt ist, und die meisten und besten durchgeführten Experimente bestätigen
dies. Man scheint also nur die Wahl zu haben, entweder die Realität der Objekte zu
leugnen oder die endliche Signalübertragung, was als Verletzung der Trennbarkeit
oder Separabilität der Objekte gedeutet wird. Für die endliche Signalübertragung
spricht jedoch die Relativitätstheorie.
Bahnbegriff und Unstetigkeit: Unsere herkömmliche Vorstellung von der physikalischen Realität ist, dass die Welt aus Objekten bestehe, die räumlich voneinander getrennt sind und die sich in der Zeit durch den Raum bewegen. Umso
verwunderlicher ist, dass es in der QM den Bahnbegriff nicht gibt. Geht man von
der Teilchenvorstellung aus, so liefert die QM keine Beschreibung, auf welche
raumzeitliche Weise ein Objekt von einem Ort zu einem anderen gelangt. Der
Physiker und Kosmologe Wheeler vertritt sogar den Standpunkt: "there is no such
thing as spacetime in the real world of quantum physics. Spacetime is a classical
concept. It is incompatible with the quantum principle."[11] In diese Richtung
weisen mehrere weitere Phänomene der QM, z.B. die Quantisierung der Energieniveaus der Atome. Atome ändern beim Übergang von einem stationären Zustand
zu einem anderen ihre Energie plötzlich, und die Bewegung der Elektronen von
dem einen Zustand in einen anderen lässt sich räumlich nicht beschreiben. Wegen
dieses Problems kamen Bohr, Pauli und Heisenberg zu der Überzeugung, „daß
eine anschauliche raum-zeitliche Beschreibung der Vorgänge im Atom nicht
möglich wäre.“[12]
Spin: Ein weiteres Beispiel für die Raumproblematik ist der Spin. Der Spin wird
oft als Eigendrehimpuls gedeutet, was man aber nur als eine anschauliche Analogie
auffassen darf. Was ein Spin realistisch ist, ist auch heute noch umstritten.
50
Konfigurationsraum: Die Frage, ob es nach der QM einen Raum, wie wir ihn uns
vorstellen oder wie es die Allgemeine Relativitätstheorie in modifizierter Form
annimmt, tatsächlich gibt, hängt zusammen mit der Frage nach der Natur des
mathematischen Konfigurationsraumes. Die Prozesse der QM laufen in einem
abstrakten mathematischen Zustandsraum ab, dem sogenannten Hilbertraum, und
es stellt sich die Frage, „ist denn der Konfigurationsraum ein »wirklicher«
Raum?“[13] Dieser Raum ist unendlich-dimensionsal, und die Anzahl der
Dimensionen hängt davon ab, wie viele Objekte man in seine Betrachtung
einbezieht. Außerdem ist er komplex, d.h. er hat nicht nur reelle Komponenten,
sondern auch imaginäre, in der Physik gilt aber das Postulat, dass nur reelle Werte
Realität besitzen.
Wahrscheinlichkeiten: Die QM beschreibt nicht, wie ein Objekt von einem Ort zu
einem anderen gelangt, stattdessen liefert die Theorie Wahrscheinlichkeiten, mit
denen die Objekte bzw. ihre Eigenschaften an den verschiedenen Orten beobachtet
werden können. Die Wahrscheinlichkeiten betrachten manche Interpreten als ein
weiteres Argument für die Unvollständigkeit der Theorie. Bereits die Vorstellung,
ein Vorgang sei nicht durch irgendwelche Ursachen vollständig bestimmt, führte
bei Einstein zu einer ablehnenden Haltung gegenüber der Theorie: „Gott würfelt
nicht.“ Manche Wissenschaftler und Philosophen betrachten es geradezu als ein
Ziel der Wissenschaft, im scheinbaren zufälligen Chaos unserer Sinnesdaten
verborgene Gesetze aufzudecken.[14] In der QM gilt dies umso mehr, da die
quantenmechanischen Wahrscheinlichkeiten kein zufälliges Chaos bilden, sondern
eine gesetzmäßige Natur haben, denn sie erfüllen z.B. die Schrödinger-Gleichung.
Wie kann aber der undeterminierte Zufall einem Gesetz folgen? Die
Gesetzmäßigkeit des Wahrscheinlichkeitsprozesses scheint doch auf systematische
Faktoren hinzuweisen.
Deutungsversuche der QM
Die neuzeitliche Naturwissenschaft hat immer wieder den Anspruch erhoben,
aufgrund der experimentellen Kontrolle ein besser begründetes Wissen über die
Natur zu liefern als die Philosophie. In der Tat gibt es wenig Gründe, den
mathematischen Formalismus der QM in Zweifel zu ziehen. Der Formalismus
allein gibt uns aber noch kein Wissen über die Natur, vielmehr müssen die
mathematischen Terme eine semantische Bedeutung haben in Bezug auf
Strukturen der Natur. Eine allgemein akzeptierte Deutung des quantenmechanischen Formalismus ist aber bislang nicht gelungen, stattdessen gibt es eine
Vielzahl von Deutungsversuchen, so dass man an die Vielzahl philosophischer
Spekulationen vergangener Jahrhunderte erinnert wird, denen gegenüber sich viele
Wissenschaftler doch so überlegen fühlen. Im Folgenden sollen kurz einige
51
Interpretationsversuche und ihre eigenen Hauptprobleme beschrieben werden.
Kopenhagener Interpretation
Niels Bohr versammelte um sich in Kopenhagen eine Gruppe junger Physiker, die
maßgeblich am Aufbau der QM beteiligt waren. Bohr selbst bildete den führenden
Vertreter der Kopenhagener Interpretation, zu der sich viele Begründer der QM
bekannten und die heute vielleicht von den meisten Physikern vertreten wird.
Bohrs Einstellung lässt sich folgendermaßen zusammenfassen [15]: Die klassische
Ontologie, derzufolge physikalische Systeme in all ihren Eigenschaften unabhängig vom Beobachtungssystem existieren, wird aufgegeben. Es gibt eine
unteilbare Verknüpfung von Quantensystem und Messgerät, welche nur zusammen
als sogenanntes Quantenphänomen auftreten. Und weil es für die tatsächlichen
Abläufe nicht die passende Sprache gibt, müssen alle Experimente und ihre
Ergebnisse in der ungenauen Sprache der klassischen Physik beschrieben werden.
Wegen der unaufhebbaren Verknüpfung von Quantensystem und Messgerät und
wegen der nicht völligen Adäquatheit der klassischen Begriffe sind der gleichzeitigen Anwendbarkeit von bestimmten klassischen Begriffen Grenzen gesetzt.
Welche klassischen Begriffe in einer gegebenen Situation benutzt werden können,
hängt von der jeweiligen Experimentalanordnung ab. In einigen Experimentalanordnungen kann man zum Beispiel den Ortsbegriff benutzen, dann macht der
Impulsbegriff keinen Sinn, in anderen Experimentalanordnungen ist es umgekehrt.
Die Heisenbergschen Unschärferelationen sind der Ausdruck dessen, dass diese
Begriffe nur ungenau auf die Natur passen. (Man denke nur an den klassischen
Impulsbegriff, der eine kontinuierliche Teilchenbahn voraussetzt, da er die
Ableitung nach der Zeit, dx/dt, enthält.) Die verschiedenen Beschreibungen eines
Systems in mehreren Situationen, welche zu Widersprüchen führen würden, wollte
man sie in einem einzigen Bild zusammenfassen, bezeichnete Bohr als komplementär. Derartig komplementär seien z.B. der Teilchen- und der Wellenbegriff, die
nur in bestimmten und sich gegenseitig ausschließenden Experimentalanordnungen
benutzt werden könnten. Die raumzeitliche Beschreibung und die Forderung der
Kausalität waren für Bohr ebenfalls komplementär. Und wegen der Forderung der
klassischen Beschreibbarkeit muss in einem Experiment eine Einteilung der Welt
in einen zu untersuchenden quantenmechanischen Gegenstand einerseits und der
restlichen Welt mit den klassisch zu beschreibenden Messgeräten andererseits
vorgenommen werden. Die Lage dieses Schnittes zwischen dem Quantensystem,
welches ein Mikro- oder ein Makroobjekt sein kann, und der restlichen Welt ist
willkürlich bzw. hängt von der experimentellen Fragestellung ab.
Ein Experiment besteht aus drei Abschnitten: Zunächst wird das Untersuchungsobjekt präpariert und die Wahrscheinlichkeitsfunktion Ψ dafür bestimmt. Dann
berechnet man Ψ im Lauf der Zeit, und diese Funktion gibt die Wahrschein52
lichkeiten dafür an, was man schließlich in einer folgenden Messung erhalten wird.
Was zwischen zwei Beobachtungen realistisch geschieht, kann nicht angegeben
werden – trotzdem wird angenommen, dass es sich um Zufallsprozesse handele
und dass die quantenmechanische Beschreibung vollständig sei. Die Registrierung
von Objekten bzw. der Messprozess (die Reduktion des Wellenpaketes) beruht auf
irreversiblen Verstärkungseffekten im Registriergerät, die prinzipiell nicht näher
bestimmt werden können, und der quantenmechanische Formalismus ist nur ein
symbolisches Schema, das Voraussagen über Messergebnisse macht. Der
Formalismus sagt nichts über die Natur aus. Die Existenz von Quantenobjekten
leugnete Bohr manchmal sogar: "There is no quantum world. There is only an
abstract quantum physical description."[16]
Angesichts unserer Probleme, die QM zu verstehen, ist diese Kopenhagener
Deutung der QM teilweise durchaus überzeugend – zumindest solange es keine
neuen Begriffe gibt, mit denen man die Vorgänge zwischen den Beobachtungen
beschreiben kann. Trotzdem müssen ein paar kritische Anmerkungen zu dieser
Deutung gemacht werden:
Während Bohr vor der Konstruktion der QM in ihrer heutigen Form noch hoffte,
„daß sich im Laufe der Zeit neue Begriffe bilden, mit denen wir auch diese
unanschaulichen Vorgänge im Atom irgendwie ergreifen können“, gab Bohr die
Suche nach neuen Begriffen später auf und leugnete den klassischen Anspruch der
Physik, eine objektive Naturbeschreibung zu liefern.[17] Für ihn waren physikalische Theorien nur Instrumente zur Berechnung von Vorhersagen. Diese instrumentalistische Bewertung der Physik ist natürlich eine Kapitulationserklärung der
Physik als Naturwissenschaft. Bohrs Kopenhagener Interpretation ist deshalb für
realistische Erkenntnistheoretiker keine befriedigende Deutung der QM. Unklar ist
bei den Kopenhagener Interpreten vor allem, warum wir auf die Begriffe der
klassischen Physik unabdingbar angewiesen sein sollen, warum wir keine neuen
Begriffe erlernen können, wie Bohr es selbst ursprünglich annahm. Die Geschichte
der Wissenschaft und der Philosophie und die verschiedenen Kulturen auf der Welt
belegen deutlich die Grundeinstellung der heutigen Psychologie, wonach der
Mensch eine sehr umfangreiche Lernfähigkeit besitzt. Seit der Entstehung der
Kopenhagener Interpretation ist beispielsweise der Informationsbegriff entwickelt
worden und es hat sich der Vakuumbegriff geändert.
Ein großes Problem ist auch die gleichzeitige Behauptung, die Quantenvorgänge
seien indeterministisch, die Theorie sei vollständig und wir könnten prinzipiell
nicht wissen, was zwischen zwei Beobachtungen realistisch geschieht. Wie kann
der undeterminierte Zufall einem Gesetz folgen, z.B. der Schrödingergleichung
gehorchen? Die Gesetzmäßigkeit des Wahrscheinlichkeitsprozesses scheint doch
auf systematische Faktoren hinzuweisen.
53
Unklar ist auch, warum die Wechselwirkung des Messgerätes mit dem
Quantenobjekt prinzipiell unerklärbar sein soll. Verbunden mit diesem Problem ist
der mehr oder weniger willkürliche Schnitt zwischen dem Quantensystem und dem
Rest der Welt. Es kann sich hierbei nicht allein um das Problem mangelnder
Begriffe handeln, denn wir beobachten ja Makroobjekte (was vor der physikalischen Begriffsebene liegt). Die Kopenhagener Interpretation muss irgendwie
annehmen, dass klassische Makroobjekte (z.B. als Messgeräte) tatsächlich existieren. Wieso kann man aber die Existenz raumzeitlicher Messgeräte annehmen,
obwohl der Formalismus auch für Makroobjekte gültig sein soll und man sie also
auch als raumzeitlich unbeschreibbare Objekte auffassen soll?
Das Wellen- und das Teilchenbild sind für Bohr komplementäre Beschreibungen,
die bei verschiedenen Experimentalanordnungen anwendbar seien. Hiergegen
spricht, dass der Wellen- und der Teilchenaspekt in einer einzigen Versuchsanordnung auftauchen können: Hält man beim Doppelspaltversuch die Intensität der
Lichtquelle so gering, dass die Photonen einzeln ausgestrahlt werden, so entstehen
auf der photographischen Platte nacheinander punktförmige Schwärzungen, was
als Teilchenaspekt gedeutet wird. Viele aufeinanderfolgende Schwärzungen bewirken jedoch auf der photographischen Platte ein Muster stärkerer und schwächerer
Intensitäten, die sogenannten Interferenzstreifen, was dem Wellenaspekt entspricht.
Werner Heisenberg
Heisenberg bezeichnete sich als einen Vertreter der Kopenhagener Interpretation,
äußerte aber bereits in seiner Frühzeit Ansichten, die von den Vorstellungen der
anderen Kopenhagener Interpreten abwichen. In der Auseinandersetzung mit dem
Messproblem und bei der Frage „Was ist ein Elementarteilchen?“ vertrat
Heisenberg zwei nicht-klassische Realitätsvorstellungen und wich dadurch von der
instrumentalistischen Position Bohrs ab.[18] Im ersten Fall bezog er sich auf
Vorstellungen, die er auf Aristoteles zurückführte, im zweiten Fall orientierte er
sich an Platon. In der Elementarteilchenphysik zeichnen sich die Theorien dadurch
aus, dass sie ganz bestimmte Symmetrien enthalten. Symmetrien sind dadurch
charakterisiert, dass es bei Transformationen Invarianten, d.h. gleichbleibende
Strukturen während Veränderungen des Gesamtsystems, gibt. Eine Symmetrie
liegt vor, wenn ein physikalisches System z.B. einer Drehung unterworfen werden
kann und es danach dieselbe Gestalt hat bzw. auf dieselben Resultate führt wie
zuvor. Platon war nach der üblichen Auslegung seiner Philosophie der Meinung,
dass mathematische Strukturen eine wirkliche Seinsweise haben und dass die
Materie nur durch Ideen ihre Existenz erhält. Er glaubte, dass sich die irdische
54
Materie zusammensetze aus vier geometrischen Grundstrukturen, dem Kubus,
Tetraeder, Oktaeder und Ikosaeder. Die Himmelsmaterie bestehe aus dem Dodekaeder. Heisenberg war nun der Meinung, dass das Charakteristische an diesen
geometrischen Strukturen deren Symmetrieeigenschaften seien, und deshalb
brachte er sie mit den Symmetrien der Physik in Zusammenhang. Die Frage nach
der Natur der Elementarteilchen beantwortete Heisenberg wie folgt: „Wenn man
die Erkenntnisse der heutigen Teilchenphysik mit irgendeiner früheren Philosophie
vergleichen will, so könnte es nur die Philosophie Platos sein; denn die Teilchen
der heutigen Physik sind Darstellungen von Symmetriegruppen, so lehrt es die
Quantentheorie, und sie gleichen insofern den symmetrischen Körpern der
platonischen Lehre.“[19]
Heisenberg stimmte mit seinem Freund und Lehrer Niels Bohr darin überein, dass
alle Experimente und ihre Ergebnisse in der Sprache der klassischen Physik zu
beschreiben seien. Für ihn war jedoch der mathematische Formalismus kein rein
symbolisches Schema zur Voraussage von Messergebnissen, welches keinerlei
Referenzobjekte beschreibe. Für ihn war die Wahrscheinlichkeit eine neue „Art
von »objektiver« physikalischer Realität. Dieser Wahrscheinlichkeitsbegriff ist eng
verwandt mit dem Begriff der Möglichkeit, der »Potentia« in der antiken Naturphilosophie, z.B. bei Aristoteles; er ist gewissermaßen die Wendung des antiken
»Möglichkeitsbegriffs« vom Qualitativen ins Quantitative.“[20] Dieses Potentielle
war für Heisenberg etwas Reales, das aber nicht in den klassischen, in raumzeitlichen Begriffen beschrieben werden und das man deshalb über den mathemathischen Formalismus hinausgehend nicht beschreiben könne. Der Superpositionszustand eines Objektes vor einer Messung repräsentiere diese Potentialität. Das
Entscheidende ist, dass nach Heisenberg in der Wechselwirkung des Objektes mit
dem Messgerät diese Potentialität in die Aktualität übergeht. Nach der Wechselwirkung liegt ein bestimmter Zustand tatsächlich vor, und nur weil wir vor der
Ablesung des Messgerätes noch unwissend darüber sind, welche Aktualität
vorliegt, können wir nicht die neue Zustandsfunktion hinschreiben, sondern
benutzen noch die Superpositionsfunktion, welche nun eine Potentialität im Sinne
der Unwissenheit ausdrückt.
Über die Beziehung der beiden naturphilosophischen Überzeugungen zueinander,
die Deutung der Elementarteilchen als platonisch-mathematische Symmetrien und
die Deutung des Messvorganges als aristotelische Aktualisierung von Potentialitäten, hat sich Heisenberg meines Wissens nach nie genauer geäußert. Im Zusammenhang mit dem Welle-Teilchen Dualismus äußerte er die Meinung, dass eine
anschaulich raumzeitliche Beschreibung der Wirklichkeit nicht möglich sei. In
seinem Buch „Ordnung der Wirklichkeit“, das er nur an Freunde als Manuskript
verschickt hatte und welches erst nach seinem Tod veröffentlicht wurde, spricht er
von Zusammenhängen, „die sich nicht einfach als »Wirkungen« beschreiben
55
lassen, die aber bei ihrer Projektion in Raum und Zeit das Bild solcher scheinbarer
Wirkungen erzeugen.“[21] Man könnte nun Heisenberg so verstehen, dass den
Elementarteilchen raumzeitlose platonische Körper zugrunde liegen, welche bei
der Messung in die Raumzeit projiziert werden und in diesem Sinne von der
Potentialität in die Aktualität übergehen. Was für ein Naturzustand diese Aktualität
ist und welchen ontologischen Status die Raumzeit besitzt, darüber äußerte sich
jedoch Heisenberg nicht genauer. Zusammenfassend kann festgestellt werden, dass
Heisenberg sich nie direkt von der Kopenhagener Interpretation distanzierte (er
stand in enger freundschaftlicher Beziehung zu Niels Bohr), dass er aber immer
wieder versuchte, realistische Auswege zu finden. Seine realistischen Überlegungen betrafen nur einige bestimmte Probleme der QM, eine vollständige
realistische Deutung aller Interpretationsprobleme der QM hat er nie vorgelegt,
insbesondere äußerte er sich nie darüber, was zwischen zwei Beobachtungen
realistisch geschieht.
von Neumann, Wigner
Diese Interpretation hat viel gemeinsam mit der Kopenhagener Deutung, weicht
aber in einem entscheidenden Punkt von ihr ab. Während nach der Kopenhagener
Deutung die Reduktion des Wellenpaketes durch einen irreversiblen Verstärkungsakt im Messgerät geschieht, erfolgt bei von Neumann, London & Bauer und
Wigner die Reduktion durch das Bewusstsein.[22] Eine Messung wird
abgeschlossen durch das Bewusstsein desjenigen, der den Messapparat beobachtet.
Problematisch an dieser Deutung ist die Frage, ob es eine unabhängige Existenz
von anderen Personen gibt oder ob diese auch erst mit der eigenen Beobachtung
entstehen. Die Gefahr des Solipsismus erscheint unausweichlich, wenn man die
QM nicht nur auf Mikroobjekte, sondern auf alle Objekte der Welt anwendet, wie
es in der Physik üblich ist. Auf die Existenz realer Objekte möchte Wigner nicht
verzichten: "it would be virtually suicidal to refuse using it."[23] Wigner anerkennt
die Abhängigkeit unseres Bewusstseins von äußeren Objekten, z.B. von Nahrung.
Angesichts des drohenden Solipsismus als Konsequenz seiner Deutung beruft er
sich darauf, dass wir über das Verhältnis von Körper und Geist, von realen
Objekten und dem Bewusstsein, bislang noch zu wenig wissen.
Vielweltentheorie
Diese Interpretation, die erstmals von Everett in seiner Dissertation unter
Anleitung von Wheeler vorgeschlagen wurde, wird vor allem in der Kosmologie
wohlwollend diskutiert. Danach sind Objekte Wellen (Wellenpakete), und das
56
gesamte Universum wird durch eine Wellenfunktion, wie sie sich aus der
Schrödingergleichung ergibt, repräsentiert.[20] Treten zwei Untersysteme, z.B. ein
Objekt und ein Messgerät, miteinander in Wechselwirkung, so bildet das
Gesamtsystem eine Superposition von Elementen, in denen die Werte der
gemessenen Objektvariablen jeweils mit den entsprechenden Zeigerstellungen der
Messgeräte gekoppelt sind. Eine Reduktion dieser Superposition von verschiedenen Werten findet jedoch niemals statt. Vielmehr spaltet sich das gesamte
Universum in der Wechselwirkung in so viele Teile, in so viele Welten auf, wie
das Superpositionsgemenge Elemente enthält. Jede dieser Welten enthält eines der
Objekte mit demjenigen Messgerät, das den Wert des Objektes dieser Welt
registriert hat. Dieser universale Spaltungsprozess geschieht immer dann, wenn
nach der konventionellen QM ein Reduktionsprozess eintreten würde, also bei
jedem Elementarprozess überall im Universum. Das gesamte Universum besteht
danach aus Myriaden verschiedener Welten, von denen sich viele jeweils nur z.B.
durch die Zeigerstellung eines Messgerätes mit dem dazu gehörigen Quantenwert
unterscheiden, ansonsten aber gleich sind.
Insgesamt ist an dieser Interpretation zu bemängeln, dass sie nur einige wenige
Probleme der QM behandelt und die anderen im Unklaren lässt. (Denselben
Vorwurf muss man den meisten Interpretationsversuchen machen.) Es soll hier nur
der wichtigste Einwand gegen diese Interpretation genauer besprochen werden:
Führt man an einem Objekt eine Impulsmessung durch, so spaltet sich gemäß
dieser Deutung das Universum in viele Welten auf, wobei das Objekt in jeder Welt
durch genau eine Impulseigenfunktion charakterisiert ist. Führt man in einer dieser
Welten an dem Objekt eine zweite Messung, z.B. eine Ortsmessung, durch, so
spaltet sich diese Welt abermals in viele Welten auf, wobei das Objekt in jeder
Welt nun durch genau eine Ortseigenfunktion charakterisiert ist. Führt man in einer
dieser Welten an dem Objekt eine dritte Messung und zwar wieder eine
Impulsmessung durch, so spaltet sich diese Welt noch einmal in viele Welten auf,
wobei das Objekt in jeder Welt durch genau eine Impulseigenfunktion
charakterisiert ist. Wichtig ist, dass das Objekt vor der zweiten Impulsmessung
durch eine Superposition von Impulseigenfunktionen bestimmt ist, obwohl es nach
der ersten Impulsmessung genau eine Impulseigenfunktion hat. Die zwischengeschaltete Ortsmessung führt dazu, dass das Objekt von einem genau bestimmten
Impulszustand zu einer Superposition übergeht. Dieser Übergang von einer
einzigen Eigenfunktion zu einer Vielzahl von Eigenfunktionen ist aber uneinsichtig, da es sich nach dieser Deutung bei der Messung nur um einen
Spaltungsvorgang und nicht auch um einen Entstehungsvorgang handelt. Ein
Wellenpaket kann sich aufspalten, aber wie kann eine ebene Welle zu einem
Wellenpaket werden?
57
David Bohm
David Bohm hat im Laufe der Jahre mehrere realistische Interpretationsversuche
vorgelegt. Die Version von 1952 und von 1954 findet allerdings die meisten
Befürworter.[25] Bohms Interpretation ist genau genommen eine neue Theorie,
denn sie besteht aus einem neuen Formalismus. Bohm konnte nachweisen, dass
sein Formalismus zu denselben empirischen Ergebnissen führt wie die herkömmlichen Formalismen. In seiner Theorie bzw. seiner Interpretation der QM
geht er auf Einsteins Vorschlag ein, die ursprüngliche QM als unvollständig zu
betrachten, und zur Vervollständigung der physikalischen Naturbeschreibung führt
er neue Parameter ein, die sogenannten unbekannten oder verborgenen Parameter.
Nach Bohm repräsentiert die Zustandsfunktion ein reelles (Wellen-) Feld,
zusätzlich zu diesem Feld gibt es Teilchen, die immer wohldefinierte Koordinaten
besitzen. Das Feld unterliegt zufälligen und chaotischen Fluktuationen, und die
Schrödingergleichung bestimmt lediglich das mittlere Verhalten des Wellenfeldes.
Ähnlich der Verursachung der Brownschen Bewegung kleiner Partikel durch
Molekülstöße aus einer tieferen Ebene heraus entstammen diese Fluktuationen
einer tieferen subquantenmechanischen Ebene. Es existiert ein sogenanntes
Quantenpotential, und die Fluktuationen des Feldes wirken sich über das
fluktuierende Quantenpotential auf die Bewegungen der Teilchen aus. Stehen zwei
Teilchen in Wechselwirkung miteinander, so zeigen ihre Bahnen wilde Schwankungen, schließlich beruhigt sich das Verhalten des Systems und wird wieder
einfach. Das Wellenpaket eines jeden Teilchens zerfällt dabei in nichtüberlappende
Teile. Das Teilchen wird in einem Teil eingefangen, und die anderen Teile können
dann ignoriert werden, was als eine Lösung des Problems der Reduktion des
Wellenpaketes betrachtet wird. Das Quantenpotential entspricht einer nichtlokalen
Vielkörperkraft. Eine Wechselwirkung zwischen zwei Teilchen hängt deshalb von
allen anderen Teilchen ab, und selbst auf große Distanzen gibt es zwischen ihnen
eine große und direkte Kopplung. Beim Doppelspaltversuch beeinflusst das
geöffnete Loch, durch welches das Teilchen nicht hindurchgeht, das Verhalten des
Teilchens, weil das Quantenpotential Informationen über beide Löcher enthält. Die
Heisenbergschen Unschärferelationen sind ein Resultat dessen, dass ein beobachtetes Teilchen durch die wilden Schwankungen des Quantenpotentials während der
Messung unvorhersagbar und unkontrollierbar gestört wird. Das Quantenpotential
macht auch das EPR-Paradox intuitiv verständlich, da es Informationen über alle
Teilchen enthält.
In einer modifizierten Version seiner Interpretation vergleicht Bohm die Situation
mit einem automatischen Schiff, das durch Radarwellen geführt wird.[26] Das
Schiff ist ein eigenaktives System, und die Form der Aktivität wird bestimmt durch
den Informationsgehalt der Radarwellen. Analog wird die Schrödingerwelle zu
58
einer Informationswelle, welche aktive oder passive Informationen enthalten kann,
und den Elementarteilchen wird eine komplexe innere Struktur zugesprochen,
durch die sie die Informationen verrechnen können. Darüber hinaus bemühte sich
Bohm um eine relativistische Erweiterung seiner Theorie, was dazu führte, dass er
die Teilchenvorstellung aufgab und stattdessen Objekte als Feldanregungen
deutete.
Bohms Theorie ist ein eleganter und sehr beeindruckender Versuch, den
Problemen der QM zu begegnen. Die Theorie hat aber leider auch ihre Probleme;
vor allem, dass es für diese Theorie keine vollständige speziell-relativistische
Erweiterung gibt. Und die Forderungen einer komplizierten Innenstruktur der
Elementarteilchen und ihrer Verrechnungstätigkeit sind natürlich Annahmen, die
derzeit durch keinerlei empirisches Material gestützt werden und die den heutigen
Vorstellungen über Elementarteilchen deutlich widersprechen.
Bis zu seinem Tod im Jahre 1992 war Bohm mit der Theorie von 1952 bzw. mit
deren Deutung unzufrieden und versuchte immer wieder, neue Wege zu gehen. So
versuchte er außerdem, zwei verschiedene Seinssphären zu unterscheiden, das
Gebiet der impliziten Ordnung und das der expliziten Ordnung. Der Bereich der
expliziten Ordnung entspricht der von uns wahrgenommenen raumzeitlichen Welt,
der Bereich der impliziten Ordnung entspricht dem Potentia-Zustand von
Heisenberg, aus dem heraus materielle Objekte und vielleicht sogar die Raumzeit
erschaffen werden.
Erkenntnistheoretische Probleme der mathematischen Physik
Die Mathematik der theoretischen Physik wird oftmals als die Sprache der Natur
bzw. der Naturwissenschaft bezeichnet. Nach dieser Sichtweise wären die Regeln
der mathematischen Umformungen von Gleichungen die Syntax der Wissenschaftssprache, wohingegen das Verständnisproblem der QM darin besteht, die
Semantik der mathematischen Terme zu finden. Im Abschnitt über die Psychologie
des Verstehens wurde herausgearbeitet, dass sich die semantische Bedeutung der
Terme aus ihrer Einbettung in ein umfassenderes Begriffssystem ergeben sollte,
welches als das Weltbild des Wissenschaftlers bezeichnet werden kann.
Wenn eine Theorie entstanden ist, welche Begriffe enthält, die nicht in das
vorhandene Begriffssystem eines akzeptierten Weltbildes eingegliedert werden
können, man aber die Theorie beibehalten möchte, so gibt es die beiden
Möglichkeiten, das alte Begriffssystem zu modifizieren oder ein völlig neues
aufzubauen. Als Newton im 17. Jahrhundert seine Gravitationstheorie aufgestellt
hatte, reagierten seine mechanistischen Zeitgenossen zunächst abwehrend, weil
59
seine instantan wirkende Gravitationskraft nicht ins damalige mechanistische
System von korpuskularer Materie, Größe, Gestalt und Bewegungszustand der
Materie passte.[27] Schließlich wurde jedoch der Kraftbegriff in das Begriffssystem des Mechanismus aufgenommen, so dass heute sogar die Newtonsche
Physik als Vorzeigebeispiel für mechanistische Erklärungen gilt. Wie im vorigen
Abschnitt deutlich wurde, konnten die Eigenarten der QM bislang nicht in ein
bereits vorhandenes, aber modifiziertes Begriffssystem eingebunden werden, so
dass sich die Frage stellt, ob ein völlig neues Begriffssystem, d.h. ein neues
Weltbild, ausgearbeitet werden muss.
Im Abschnitt über die QM ist bereits angedeutet worden, dass es in der QM
zusätzlich zu dem Schrödinger-Formalismus mehrere andere Formalismen gibt, die
alle zueinander mathematisch äquivalent sind und somit dieselbe Erklärungsleistung haben. Das klassische Selbstverständnis der Physik ist, über die Natur
mittels Theorien objektives Wissen zu erreichen. Die Fähigkeit, durch Theorien
Beobachtungen vorhersagen zu können, wird von den erkenntnistheoretischen
Realisten als ein Hauptargument dafür betrachtet, dass die Theorien Realstrukturen
beschreiben. Wenn es jedoch für einen Anwendungsbereich mehrere gleichberechtigte Formalismen gibt, so können natürlich nicht alle vollständig eine wahre
Naturbeschreibung sein. In einer anderen Arbeit ist deshalb vom Autor
vorgeschlagen worden, nur diejenigen Elemente zur realistischen Interpretation
heranzuziehen, die in allen oder zumindest in mehreren gleichberechtigten
Formalismen auftreten.[28] Die Gemeinsamkeiten aller Formalismen der QM sind
noch nicht genügend untersucht worden, allen gemeinsam sind jedoch die
algebraischen Symmetrien. Bei der Deutung und Handhabung aller Formalismen
spielen außerdem Wahrscheinlichkeiten von vorhersagbaren Beobachtungen eine
Rolle. Ein Weltbild muss deshalb mindestens die drei folgenden Elemente
plausibel machen: Die Symmetrien der Formalismen, die Wahrscheinlichkeiten
und die beobachtbaren Phänomene. Darüber hinaus können die verschiedenen
Formalismen weitere Gemeinsamkeiten besitzen. Vergleicht man nur einmal den
Schrödinger-, den Heisenberg- und den Wechselwirkungsformalismus, so ist
festzustellen, dass sich beim Übergang von einem Formalismus zu einem anderen
die Observablen in Observable mit demselben Eigenwertspektrum und die
Eigenvektoren in Eigenvektoren transformieren und dass die algebraischen und die
Konjugationsbeziehungen und schließlich die Skalarprodukte sich nicht
ändern.[29] In allen Formalismen kommt es in der Beobachtung zu einer diskontinuierlichen Änderung, die nicht durch die Bewegungsgleichung beschrieben
werden kann.
60
Der Computer als Weltbild-Analogie
Für die semantische Deutung der Formalismen soll nun als Analogie die Welt mit
einem Computer verglichen werden. Eine derartig drastische Veränderung des
wissenschaftlichen Weltbildes scheint unverzichtbar zu sein, denn die Symmetrien,
welche ja in allen Formalismen auftreten und welche deshalb wichtige Kandidaten
für die realistische Deutung sind, lassen sich im klassischen demokritschen
Weltbild nicht verstehen. Im Rahmen eines solchen Computer-Vergleiches kann
man die Symmetrien und alle anderen mathematischen Gemeinsamkeiten aller
Formalismen (die Naturgesetze) als Strukturen der Software begreifen. Bei dieser
Deutung stellt sich die Frage nach der Hardware, wofür das Quantenvakuum in
Frage kommt. Das Vakuum ist in der heutigen Physik nicht mehr das Nichts,
vielmehr ist es der Grundbereich, aus dem heraus alle Objekte entstehen. Dieses
Konzept ist aus der heutigen Physik, insbesondere aus der Elementarteilchenphysik, nicht mehr wegzudenken, und die Physiker haben damit begonnen,
die innere Struktur des Vakuums zu untersuchen.[30] Als Nächstes soll der
Vorgang der Reduktion der Wellenfunktion mit dem Endergebnis eines
beobachteten Teilchens im Rahmen des Computer-Weltbildes (CWB) erläutert
werden. Der Weltcomputer soll mehrere parallel arbeitende und dem Hauptprozessor untergeordnete Prozessoren mit Unterprogrammen und mit jeweils
einem Bildschirm besitzen. Das bewusste visuelle Wahrnehmungsfeld eines
Menschen entspricht in dieser Computer-Analogie dem Bildschirm (der allerdings
dreidimensional ist), und in der Beobachtung wird von der Vielzahl der möglichen
Beobachtungsergebnisse eines ausgewählt und auf den Bildschirm projiziert. Die
Objekte des Wahrnehmungsfeldes entstehen danach ähnlich wie bei von
Neumanns Interpretation erst mit der Beobachtung. Die Reduktion der Wellenfunktion ist ein diskontinuierlicher Vorgang, weil es sich hierbei nicht um die
kontinuierliche Bewegung eines Teilchens innerhalb des Bildschirms handelt,
sondern um die schlagartige Projektion des Teilchens auf den Bildschirm.
Im CWB lassen sich alle Eigenheiten der QM verstehen, da jede heutige
Mathematik auf einem Computer implementiert werden kann. Im Folgenden soll
kurz angedeutet werden, wie die anderen Eigenarten der QM im CWB gedeutet
werden können: Die Diskontinuitäten der QM sind Ausdruck der schlagartigen
Projektionen auf den Bildschirm. Die Gesetzmäßigkeit der quantenmechanischen
Wahrscheinlichkeiten ist ebenfalls leicht zu verstehen; man kann nämlich einen
Computer so programmieren, dass er pseudorandomisiert Zahlen hervorbringt, die
den Augenschein von Zufälligkeit besitzen, obwohl der Computer deterministisch
arbeitet. Der Welle-Teilchen Dualismus lässt sich folgendermaßen deuten:
Beobachtete Teilchen wurden auf den Bildschirm projiziert, die zeitliche
Entwicklung der Wahrscheinlichkeiten für eine Beobachtung hat jedoch im
61
Computer intern die Form einer Welle. Man kann also einerseits von
Informationswellen in der Software und andererseits von Teilchen auf dem Bildschirm sprechen. In der QM kommt der Bahnbegriff deshalb nicht vor, weil sich
Teilchen tatsächlich nicht über den Bildschirm bewegen. Der Spin ist keine
räumliche Eigenschaft der Teilchen, er hat nur eine Funktion bei der Informationsverarbeitung. Beim EPR-Argument sind die Eigenschaften von zwei Teilchen, die
in der Vergangenheit eine Wechselwirkung hatten, korreliert, was ein Softwarezustand ist. Nach der Beobachtung eines Teilchens wird instantan die korrelierte
Eigenschaft beim anderen Teilchen angetroffen, weil beide Teilchen mit den
entsprechenden Eigenschaften gleichzeitig auf den Bildschirm projiziert werden.
Der Holismus der QM kommt daher, dass die Welt zum jeweiligen Zeitpunkt in
ihrer Gesamtheit auf den Bildschirm projiziert wird und dass ein einzelnes Objekt
vom Informationszustand für den gesamten Bildschirm abhängen kann. Das
Computerprogramm erlaubt gemäß der Unschärferelation nicht die gleichzeitige
Projektion von Ort und Impuls, und der Konfigurationsraum ist nicht der Raum
des Bildschirms, sondern nur ein mathematisches Schema, innerhalb dessen
Informationen verarbeitet werden. Die Dimensionalität des Konfigurationsraumes
hängt davon ab, wie viel Teilchen man betrachtet. Hierüber hat bereits David
Bohm geschrieben: "that the wavefunction constitutes a kind of information
content. Thus, it is well known that information (e.g., in a computer) can be
ordered in as many dimensions as may be convenient or appropriate. And so the
multidimensional nature of the wavefunction now presents no insoluble problem of
interpretation."[31] Schließlich wird sogar verständlich, warum es in der QM
mehrere Formalismen gibt: Jedes Problem lässt sich mit verschiedenen Computerprogrammen behandeln, und da sie alle dieselben Problemlösungen anstreben,
enthalten alle möglichen Programme gemeinsame Strukturen. Welches Programm
de facto in der Welt implementiert ist, lässt sich mit den heutigen Methoden nicht
feststellen.
Für den Fall, dass es den Physikern in Zukunft gelingen sollte, das Messproblem
(die Reduktion der Wellenfunktion) beobachterunabhängig zu behandeln, soll nun
noch das CWB in einer zweiten Version formuliert werden (die als eine teilweise
Veranschaulichung von Heisenbergs Deutung aufgefasst werden kann). Danach
besitzt der Zentralrechner einen eigenen universalen Bildschirm. Nach dem
Urknall, den man in der Computeranalogie als das Anschalten des Bildschirms mit
einem anfänglichen starken Lichtpunkt in der Bildschirmmitte vergleichen kann,
warf der Computer spontan bei irgendeiner Evolutionsstufe, bei irgendeiner
Teilchenkonfiguration, die Teilchen als Makroobjekte auf den Bildschirm. Die
Makroobjekte des Bildschirms waren dann in der Lage, den Reduktionsprozess der
QM für Quantenobjekte auszuführen. Immer wenn potentielle (Elementar-)
Teilchen (die nur als Möglichkeiten in der Software existieren) auf Makroobjekte
stoßen, werden sie auf den Bildschirm projiziert, was der Reduktion der
62
Wellenfunktion entspricht. Im weiteren Verlauf der Evolution entwickelten sich
aus den Bildschirmobjekten Lebewesen, und dabei spalteten Hauptprozessor und
Hauptprogramm des Zentralrechners Unterprozessoren und Unterprogramme ab,
die den Verstand der Lebewesen bilden. Es entstanden ferner für die
Unterprozessoren kleinere Bildschirme, die qualitativ auch anders sein können als
der Universalbildschirm und die das Bewusstsein (z.B. das visuelle
Wahrnehmungsfeld) der Lebewesen darstellen. Auf diese Weise entstand ein
Netzwerk von PCs (bzw. Macs), die an einen Zentralrechner angeschlossen sind.
Die einzelnen Kleinrechner sind in der Lage, auf ihren Bildschirmen (in vielleicht
nur grober oder veränderter Form) das wiederzugeben, was auf dem universalen
Bildschirm des Zentralrechners stattfindet; sie können also die „Realität“ des
Universalbildschirms beobachten.
Funktionen eines Weltbildes in den Naturwissenschaften
Ein Weltbild, wie es im vorigen Abschnitt entwickelt wurde, ist post hoc und somit
primär ohne erkenntnistheoretischen Wahrheitswert. Aber dadurch, dass es erlaubt,
eine Theorie in ein umfassenderes Begriffssystem einzubetten, kann es den
Wissenschaftlern ein Gefühl dafür vermitteln, dass die Theorie tatsächlich
Realstrukturen erfässt und dass die Theorie nicht offensichtlicher Unsinn darstellt,
den es abzulehnen gilt, wie man Einsteins Haltung überspitzt charakterisieren
könnte. Neben dieser Verständnisvermittlung kann ein Weltbild eine zweite
Funktion haben, nämlich die Stimulierung neuer Theorien und Forschungsrichtungen. Das atomistisch-mechanistische Weltbild, welches sich im 17.
Jahrhundert entwickelte, hatte die Naturwissenschaft über Jahrhunderte hinweg
vorangetrieben, obwohl es aus der Sicht der heutigen Theorien nicht haltbar ist.
Entsprechend könnte das Computer-Weltbild eine stimulierende Wirkung haben,
was jedoch an dieser Stelle nicht weiter ausgearbeitet werden soll. An anderer
Stelle sind auf dieser Grundlage Hypothesen über die Leib-Seele-Beziehung dargestellt worden, und auch der physikalischen Erforschung des biologischen Funktionalismus könnte dieses Weltbild neue Impulse geben: Das visuelle Bewusstsein
lässt sich nämlich, wie bereits angedeutet, mit einem Computerbildschirm
vergleichen, und ein Computer arbeitet Informationen auf ein funktionelles Ziel
hin ab.[32] Das CWB ermöglicht sogar ein Verständnis der Meditation und
erlaubt, diese introaktive Methode der Psychologie wissenschaftlich auszuarbeiten
[33]: Wenn man in der Meditation eine Frage stellt, dann wird diese Frage an den
Hauptrechner des Weltcomputers abgeschickt, und danach braucht man nur noch
auf die Antwort zu warten.
63
Anmerkungen
1. Beispielsweise R.P. Feynman: QED - Die seltsame Theorie des Lichts und der
Materie, München 1992, S. 20.
2. J.P. Houston: Fundamentals of learning and memory, New York 1981. P.H.
Lindsay, D.A. Norman: Einführung in die Psychologie, Berlin 1981. D. Dörner:
Problemlösen als Informationsverarbeitung, Stuttgart 1979. R.E. Mayer:
Denken und Problemlösen: Eine Einführung in menschliches Denken und
Lernen, Berlin 1979.
3. P.E. Rumelhart, P.H. Lindsay, D.A. Norman: 'A process model for long-term
memory'. In: E. Tulving, W. Donaldson (Hrsg.): Organization of memory, New
York 1972, S. 197-246.
4. D. Dörner, 1979, a.a.O., S. 50.
5. D. Dörner, 1979, a.a.O., S. 51.
6. W. Heisenberg: 'Was ist ein Elementarteilchen?', S. 5, Naturwiss. 63 (1976), S.
1-7.
7. Eine detailliertere Besprechung des Interpretationsproblems der QM ist vom
Autor gegeben worden in: L. Arendes: Gibt die Physik Wissen über die Natur?
Das Realismusproblem in der Quantenmechanik, Würzburg 1992.
8. W. Heisenberg: Physik und Philosophie, Stuttgart 1990.
9. A. Einstein, B. Podolsky, N. Rosen: 'Kann man die quantenmechanische
Beschreibung der physikalischen Wirklichkeit als vollständig betrachten?' In:
K. Baumann, R. Sexl (Hrsg.): Die Deutungen der Quantentheorie, Braunschweig 1986, S. 80-86.
10. Vgl. B. d'Espagnat: 'Quantentheorie und Realität', Spekt. d. Wiss. Heft 1,
Januar (1980), S. 69-81.
11. J.A. Wheeler: 'From Relativity to Mutability', S. 227. In: J. Mehra (Hrsg.): The
Physicist`s Conception of Nature, Dordrecht 1973, S. 202-247.
12. W. Heisenberg: Der Teil und das Ganze, München 1985, 9. Auflage, S. 90.
13. W. Heisenberg: 'Die Entwicklung der Deutung der Quantentheorie', S. 145. In:
K. Baumann, R. Sexl, 1986, a.a.O., S. 140-155.
14. Zum Beispiel B.O. Küppers: Molecular Theory of Evolution, Berlin 1983, S.
29f.
15. N. Bohr: Atomphysik und menschliche Erkenntnis: Aufsätze und Vorträge aus
den Jahren 1930-1961, Braunschweig 1985.
16. Zitiert nach M. Jammer: 'Wirklichkeit und Objektivität in der modernen
Physik', S. 126f. In: O. Molden: Autonomie und Kontrolle. Steuerkrisen der
modernen Welt, Europäisches Forum Alpbach 1986, S. 118-140.
17. W. Heisenberg, 1985, a.a.O., S. 54.
18. W. Heisenberg, 1976, 1990, a.a.O.
64
19. W. Heisenberg, 1976, a.a.O., S. 5.
20. W. Heisenberg, 1986, a.a.O., S. 140.
21. W. Heisenberg: Ordnung der Wirklichkeit, München 1990, S. 113.
22. J. von Neumann: Mathematische Grundlagen der Quantenmechanik, Berlin
1968. F. London, E. Bauer: The Theory of Observation in Quantum
Mechanics. In: J.A. Wheeler: Quantum Theory and Measurement, Princeton
1983, S. 217-259. E.P. Wigner: Symmetries and Reflections, Bloomington
1967.
23. E.P. Wigner, a.a.O., S. 191.
24. H. Everett III: 'The Theory of the Universal Wave Function'. In: B. de Witt, N.
Graham: The Many-Worlds Interpretation of Quantum Mechanics, Princeton
1973, S. 3-140.
25. D. Bohm: 'Vorschlag einer Deutung der Quantentheorie durch "verborgene"
Variable'. In: K. Baumann, R. Sexl (Hrsg.), 1986, a.a.O., S. 163-192. D. Bohm,
J.P. Vigier: 'Model of the Causal Interpretation of Quantum Theory in Terms
of a Fluid with irregular Fluctuations', Phys. Rev. 96 (1954), S. 208-216.
26. D. Bohm: 'A new Theory of the Relationship of Mind and Matter', J. Am. Soc.
Psych. Research 80 (1986), S. 113-135. D. Bohm, B. Hiley, P. Kaloyerou: 'An
Ontological Basis For The Quantum Theory', Physics Reports 144 (1987), S.
321-375. Part I: D. Bohm, B. J. Hiley: 'Non-relativistic Particle Systems', S.
323-348. D. Bohm, B.J. Hiley: The undivided universe, London 1993.
27. E.J. Dijksterhuis: Die Mechanisierung des Weltbildes, Berlin 1956.
28. L. Arendes, 1992, a.a.O.
29. A. Messiah: Quantenmechanik. Bd. I, Berlin 1976, S. 281.
30. J. Rafelski, B. Müller: Die Struktur des Vakuums. Ein Dialog über das Nichts,
Frankfurt a. M. 1985. H. Genz: Die Entdeckung des Nichts. Leere und Fülle im
Universum, München 1994.
31. D. Bohm: 1986, 'A new Theory of the Relationship of Mind and Matter',
a.a.O., S. 122.
32. L. Arendes: 'Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems', Philosophia Naturalis 33 (1996), S. 55-81. L. Arendes (a):
'Naturphilosophische Leitideen für die biophysikalische Forschung'.
http://freenet-homepage.de/LotharArendes/biophysik.pdf
33. L. Arendes (b): Grundlegung der introaktiven Psychologie. http://freenethomepage.de/LotharArendes/introaktion.pdf
65
Grundzüge der
wissenschaftlichen Weltauffassung
Dr. Lothar Arendes
Zusammenfassung: Im 20. Jahrhundert kam es durch die Quantenmechanik zum Zusammenbruch des klassischen wissenschaftlichen Weltbildes, und in diesem Aufsatz erläutere ich die
grundlegenden Begriffe unserer heutigen wissenschaftlichen Theorien: Äther bzw. Vakuum,
Elementarteilchen, Naturgesetze, Raumzeit, Emergenz, Selbstorganisation, Evolution, Einheit,
Ganzheit, System, Schachtelung der Objekte, Schichtung der Gesetze, Kausalität, Teleonomie,
Teleologie und Zufall. Aufbauend auf diesen Grundbegriffen wird eine allgemeine Beschreibung
unserer heutigen wissenschaftlichen Weltauffassung gegeben.
1. Einleitung
Das 20. Jahrhundert war ein Jahrhundert, in dem die Naturwissenschaften zu einer
großen Vielzahl von Ergebnissen gelangten, welche die technische Entwicklung
beschleunigten und dadurch die gesamte Gesellschaft grundlegend veränderten.
Parallel zu diesen Erfolgen in den Detailfragen der einzelnen Forschungsdisziplinen wurde jedoch das Gesamtbild unseres Verständnisses von der Natur –
von uns selbst und von der Welt in ihrem Grundaufbau – immer unklarer. Viele
Wissenschaftler sind sogar dazu übergegangen, die Fragen nach dem Gesamtaufbau für irrelevant, wenn nicht gar für unwissenschaftlich zu halten.
Demgegenüber muss jedoch betont werden, dass ein Überblickwissen über die
Grundstrukturen der Welt auch für die fachspezifische Forschung von Bedeutung
ist. Die Funktion eines Weltbildes beschränkt sich nämlich nicht darauf, lediglich
einen synoptischen Überblick über die Welt zu liefern. Vielmehr haben Weltbilder
auch die heuristische Funktion, den Wissenschaftlern für ihre Forschungen
Leitideen zu geben, die dazu beitragen können, spezifische Detailprobleme zu
lösen (vgl. Arendes 1996). Ein Weltbild gibt den Forschern allgemeine Hinweise,
wonach sie zu suchen haben. Nach dem Zusammenbruch des klassischen
Weltbildes ist deshalb heute eine der wichtigsten Aufgaben von Wissenschaft und
66
Philosophie, ein neues Weltbild zu entwerfen.
Die einzelnen Wissenschaften, vor allem aber die Physik, haben im 20.
Jahrhundert eine Entwicklung zu immer abstrakteren, unanschaulicheren Begriffen
genommen. Begriffe, Vorgänge und Phänomene wie Geodäten, Welle-Teilchen
Dualität und Spin sind sehr abstrakt und unanschaulich, aus diesem Grund wird in
der Quantenphysik immer wieder behauptet, dass sich die Natur nicht anschaulich
beschreiben lasse und dass sie nur auf mathematische Weise exakt wissenschaftlich beschrieben werden könne. Ein naturphilosophisches Weltbild ist
hingegen in der Regel ein anschauliches Modell, ein Bild von den Grundstrukturen
der Welt. Sollten die Prozesse der Quantenphysik und anderer Wissenschaften
tatsächlich unanschaulicher Art sein, so würde sich ein Weltbild in dem Maße von
den wissenschaftlichen Ergebnissen entfernen, wie es selbst vorstellbar wäre.
Deshalb soll im Folgenden nicht von „Weltbild“ gesprochen werden, sondern von
„Weltauffassung“. Begriffe wie „Weltbild“ und „Weltanschauung“ legen zu sehr
die visuelle Vorstellbarkeit nahe, was beim heutigen Stand der Wissenschaft für
die Grundstrukturen der Welt kaum noch möglich sein dürfte. Um aber den
Aufbau der Welt wissenschaftlichen Laien zu erläutern, kann ein Bild durchaus
nützlich sein. Ein Bild sagt mehr als tausend Worte, sagt ein Sprichwort. Als
didaktisches Mittel und als pädagogische Hilfe in den Schulen kann ein Weltbild
zur Erläuterung einer abstrakten Weltauffassung benutzt werden, und auch in der
wissenschaftlichen Forschung kann ein Bild durchaus als eine nützliche Heuristik
dienen. Im Folgenden werde ich deshalb manchmal zur Erläuterung einiger
Aspekte der hier dargelegten Weltauffassung ein Weltbild benutzen, das ich an
anderer Stelle ausgearbeitet habe (Arendes 1992, a). Bei diesem Weltbild wird die
Welt mit einem Computer verglichen, dessen Hardware das Quantenvakuum,
dessen Software die Naturgesetze und dessen Bildschirm mit den darin
befindlichen Objekten die von uns beobachtbare Welt darstellen.
In den folgenden Abschnitten werde ich die grundlegenden Aspekte der Welt, wie
sie sich im Lichte der heutigen Wissenschaften darstellen, beschreiben, indem ich
die wichtigsten Grundbegriffe der heutigen Theorien erläutere, um darauf
aufbauend im Schlusskapitel eine allgemeine Zusammenfassung der heutigen
wissenschaftlichen Weltauffassung zu geben (vgl. Arendes b).
2. Grundbegriffe heutiger wissenschaftlicher Theorien
2.1 Äther, Vakuum, Prima Materia
Das Vakuum ist in der Physik der Zustand, den man erhält, wenn man alle
Teilchen oder Felder entfernt, die man nach den Gesetzen der Physik überhaupt
67
entfernen kann. In der heutigen Physik ist dieser Zustand jedoch nicht das Nichts,
in dem wirklich nichts mehr existiert. Es ist vielmehr lediglich der Zustand
niedrigster erreichbarer Energie. Die physikalische Theorie, aus der dieses Konzept
hervorgegangen ist und das aus der heutigen Elementarteilchenphysik nicht mehr
wegzudenken ist, ist die relativistische Quantenmechanik, die Quantenfeldtheorie
(QFT). Quantenfelder sind Felder von Teilchenerzeugungs- und -vernichtungsoperatoren, deren wesentliche Aufgabe darin besteht, die Teilchenanzahl zu
verändern. Der Zustandsvektor n (mit n = 0,1, 2, 3... ) gibt die Teilchenzahl an, und
der Vakuumzustand 0 ist definiert als der niedrigstmögliche Energiezustand, in
dem keine reellen Teilchen (nur kurzzeitige, virtuelle) existieren.
Der Vakuumbegriff hat eine lange und widerspruchsvolle Geschichte. Bereits im
alten Griechenland gab es darüber zwei konträre Ansichten. Nach der ersten
Ansicht ist das Vakuum die Leere zwischen zwei materiellen Teilchen, die es
geben muss, damit sich diese Teilchen überhaupt bewegen können. Diese
Auffassung wurde u.a. von den Atomisten Demokrit und Lukrez vertreten. Nach
der zweiten Ansicht gibt es den leeren Raum gar nicht, vielmehr sei das Vakuum
ein ganz feiner Stoff. Aristoteles sprach sogar von einem ‚horror vacui‘ der Natur;
die Natur würde die völlige Leere vermeiden. Er nahm eine zugrunde liegende,
eine sogenannte erste Materie (prima materia) an, aus der heraus die beobachtbare
Materie hervorginge. Nach Aristoteles sprachen die antiken Stoiker von einem
Äther, welcher ein feiner Urstoff sei, aus dem heraus alles entstehe und der in
allem wirke. Wegen der großen Autorität des Aristoteles in der mittelalterlichen
Scholastik war die Auffassung von der Unmöglichkeit der völligen Leere die
vorherrschende Lehrmeinung bis zum 17. Jahrhundert. Erst in dieser Zeit begann
sich in Europa die Meinung durchzusetzen, dass es die völlige Leere gebe.
Ausschlaggebend für diesen Meinungsumschwung waren Versuche zur
Druckmessung. Toricelli hatte zum Beispiel gezeigt, dass der Raum über der
Quecksilbersäule in einem Rohr vollständig mit Wasser gefüllt werden kann,
wodurch er „bewiesen“ hatte, dass dieser Raum vollständig leer gewesen sein
müsse (vgl. Greiner & Wolschin 1994). Im 19. Jahrhundert entwickelte jedoch
Maxwell seine Theorie der Elektrodynamik, wonach sich Licht in Form von
Wellen ausbreitet, und dies führte dazu, dass man in der Physik wieder die Existenz eines Äthers als Trägermedium diskutierte. Einsteins Spezielle
Relativitätstheorie machte dann angeblich den Äther wieder unnötig, seine
Allgemeine Relativitätstheorie führte jedoch kurze Zeit darauf die Raumzeit als
real existierende Substanz ein, was Einstein selbst als eine neue Form von Äther
deutete (Einstein 1920). Und schließlich führte die QFT dazu, das Vakuum wieder
als etwas Existierendes zu betrachten.
Die Elementarteilchenphysik lehrt uns, dass Teilchen permanent entstehen und
vergehen. Da dies kaum aus dem völligen Nichts heraus geschehen kann,
68
zumindest nicht auf so gesetzmäßige Weise, muss irgendeine Substanz existieren,
die nicht direkt beobachtbar ist, die aber Beobachtbares hervorbringt. In der Physik
ist hierfür heute neben der Bezeichnung „Vakuum“ kein Name üblich, da aber
dieses „Etwas“ auch existiert, wenn es Teilchen hervorgebracht hat, also nicht im
Zustand niedrigster Energie, dem Vakuum, ist, sollte man hierfür einen eigenen
Namen einführen. Heisenberg (1990) hatte vom Potentia-Zustand gesprochen, aus
dem heraus die Teilchen aktualisiert würden. Man kann auch von der Urmaterie
oder mit Aristoteles von der prima materia sprechen. Aufgrund der Geschichte der
Physik bietet sich aber an, den Ätherbegriff auf diese Weise neu zu definieren. Der
Äther wäre dann im Sinne der heutigen Physik eine allgegenwärtige Substanz, die
unbeobachtbar ist, aber Beobachtbares hervorbringen kann, und die im Zustand
niedrigster Energie als Vakuum (ohne reelle Teilchen) bezeichnet wird (vgl.
Saunders & Brown 1991b; Finkelstein 1991).
Es gibt sogar Autoren, welche vermuten, dass das Vakuum nicht nur die Materie,
sondern auch die Raumzeit hervorbringt. Es ist nämlich bislang nicht allgemein
überzeugend gelungen, die QM mit der Allgemeinen Relativitätstheorie (ART) zu
vereinigen, und eine zukünftige quantenmechanische Gravitationstheorie könnte zu
der Ansicht führen, dass auch das geometrische Feld der ART, die Raumzeit, aus
dem Vakuum entsteht (vgl. Bohm & Hiley 1993; Saunders & Brown 1991a).
Darüber hinaus gibt es sogar Physiker, die vermuten, dass das Vakuum auch einen
Einfluss auf die Naturgesetze hat (Rafelski & Müller 1985).
2.2 Elementarteilchen
Elementarteilchen kann man in drei Gruppen einteilen, in Quarks, Leptonen und
Eichbosonen (vgl. Dosch 1995). Die Quarks machen, will man die Sprache der
Baukasten-Denkweise benutzen, die Bestandteile von Protonen und Neutronen aus,
und zu den Leptonen zählt beispielsweise das Elektron. Neben anderen
Eigenschaften haben Protonen eine Masse von 938,28 MeV/c2 (gemessen als
Energie) und eine positive elektrische Ladung von +1; Neutronen sind elektrisch
neutral mit einer Masse von 939,57 MeV/c2; Elektronen haben die Masse 0,51
MeV/c2 mit der negativen elektrischen Ladung –1; und Quarks haben Massen von
5 bis 170.000 MeV/c2 mit elektrischen Ladungen von –1/3 und +2/3. Die
Eichbosonen sind diejenigen Elementarteilchen, welche für die Wechselwirkungen
zwischen der Materie verantwortlich sind; beispielsweise ist das masselose und
elektrisch neutrale Photon Überträger der elektromagnetischen Kraft. Beschrieben
werden diese Wechselwirkungen von Quantenfeldtheorien, in denen „Teilchen“ als
Feldquanten auftreten, und sogenannte virtuelle Teilchen sxind unbeobachtbar und
sehr kurzlebig. Das bedeutet, dass auch die zwischen den Teilchen wirkenden
Kräfte – heutzutage in der Physik als Wechselwirkungen (WW) bezeichnet – von
69
den Feldtheorien als Austausch von Teilchen beschrieben werden. Zu jedem
Teilchen gibt es außerdem ein Antiteilchen, welches fast dieselben Eigenschaften
hat wie das zugeordnete Teilchen und nur bezüglich seiner inneren Eigenschaft
(wie elektrische Ladung) entgegengesetzt ist – so ist das Elektron elektrisch
negativ, das Positron hingegen bei gleicher Masse elektrisch positiv.
Protonen und Neutronen werden auch als Hadronen bezeichnet, und alle Hadronen
setzen sich aus Quarks zusammen. Man unterscheidet verschiedene Quarktypen (je
nach Theorie bis zu 12 Typen), welche sich unterscheiden anhand ihrer
Eigenschaften Flavor und Farbe (was nichts zu tun hat mit der herkömmlichen
Farbe – die Namensgebung in der Quarktheorie ist leider sehr irreführend, was
andererseits sehr gut die Willkürlichkeit der menschlichen Namensgebung
verdeutlicht). Auf die genaue Natur dieser und anderer physikalischer
Eigenschaften soll hier nicht näher eingegangen werden, da zu deren Verständnis
ein detaillierteres physikalisches Wissen nötig ist, als es im Rahmen dieser
Zusammenfassung vermittelt werden kann. Die verschiedenen Typen von Quarks
werden bezeichnet als down-Quark, strange-Quark, charm-Quark usw., und wegen
dieser hohen Typenzahl und ihrer Umwandlungsfähigkeit ineinander vermuten
manche Theoretiker sogar, dass Quarks nicht elementar seien, sondern sich
wiederum aus anderen Teilchen zusammensetzen, genannt Präonen.
So verwirrend die Vielzahl der Elementarteilchen auch ist (noch nicht erwähnt
wurden beispielsweise Teilchen aus der Gruppe der Leptonen wie Myone,
Neutrinos oder τ-Leptone), ihre Wechselwirkungen beschränken sich jedoch nach
heutigem Wissen auf vier Grundkräfte. Am bekanntesten sind die Gravitation für
die Massenanziehung und der Elektromagnetismus, welcher zwischen elektrisch
geladenen Teilchen wirkt; darüber hinaus kennt man die starke WW und die
schwache WW. Die starke WW hält die Protonen und Neutronen im Atomkern
zusammen, und sie ist auch die Kraft, die die Quarks aneinander bindet. Die
schwache WW spielt beim Zerfall einiger Elementarteilchen eine Rolle. Die
Feldquanten dieser Kräfte sind das Photon für den Elektromagnetismus, die
intermediären Vektorbosonen für die schwache WW, die Gluonen für die starke
WW und hypothetisch (da noch nicht nachgewiesen und noch keine befriedigende
quantenmechanische Theorie hierfür vorliegt) das Graviton für die Gravitation.
Die Physiker versuchen, alle vier Wechselwirkungen in einer einzigen Theorie so
zu vereinen, so dass alle vier Kräfte nur die verschiedenen Manifestationen einer
einzigen grundlegenden Kraft bilden. Für die schwache und die
elektromagnetische WW gibt es bereits eine gemeinsame Theorie, auch wenn diese
beiden Kräfte noch physikalisch verschieden bleiben.
Was aber alle diese quantenmechanischen Entitäten ontologisch sind, ist sehr
70
umstritten (s. Arendes 1992). Es handelt sich bei diesen Teilchen sicherlich nicht
um ewige und unzerstörbare Grundbausteine der Welt, was besonders auch die
virtuellen, d.h. kurzzeitigen Teilchen verdeutlichen. Wegen der Welle-TeilchenDualität aller Objekte sprechen manche Physiker auch statt von Teilchen von
Feldern oder mathematisch korrekter von Feldquanten. Insbesondere die auch von
mir hier verwendete Ausdrucksweise, dass ein Teilchen sich aus anderen Teilchen
„zusammensetze“ oder es aus ihnen „bestehe“ (z.B. Protonen aus Quarks) ist
deshalb nicht wirklich räumlich, sondern metaphorisch zu verstehen.
Wissenschaftlich korrekter kann man mit Heisenberg (1967) sagen, dass die
verschiedenen beobachtbaren „Teilchen“ lediglich verschiedene angeregte
Zustände eines universellen Materiefeldes darstellen, oder dass sie in meiner
Terminologie ausgedrückt verschiedene Hervorbringungen des Vakuums oder
Äthers sind.
2.3 Naturgesetze
„Ein wissenschaftliches Gesetz ist eine bestätigte wissenschaftliche Hypothese, die
eine konstante Relation zwischen zwei oder mehr Variablen feststellt, welche jede
eine Eigenschaft eines konkreten Systems (wenigstens teilweise und indirekt)
repräsentiert“ (Bunge 1967, I: 312; meine Übersetzung). Ein Beispiel ist das
Gesetz von der Energieerhaltung: »Die Energie eines isolierten Systems ist zeitlich
konstant.« Derartige Naturgesetze gelten mit beachtlicher quantitativer
Genauigkeit, sie sind aber trotzdem nur hypothetisch und oftmals nur approximativ
gültig. Während zum Beispiel das Gesetz von der Energieerhaltung zu Beginn des
20. Jahrhunderts als unumstößlich und vollständig gültig betrachtet wurde, ist es
heute auf kosmologischer und mikrophysikalischer Ebene nicht mehr gültig. Heute
wird in der Physik angenommen, dass die Materie-Energie mit dem Urknall
entstanden ist und dass es in ganz kleinen Zeitbereichen wegen der Energie-ZeitUnschärferelation zu beträchtlichen Energieschwankungen kommt.
Naturphilosophisch besonders interessant ist natürlich die Frage nach dem
ontologischen Status der Naturgesetze. Warum verhalten sich Objekte naturgesetzlich? Wie sind Naturgesetze in der Natur verankert? Die Quantenphysik hat
zum Beispiel entdeckt, dass Lichtquanten, die von einer Lichtquelle ausgesendet
wurden, in einiger Entfernung auf einer photographischen Platte mit bestimmten
Wahrscheinlichkeiten ein bestimmtes Absorptionsmuster erzeugen. Nun kann man
sich fragen, warum das Licht zwischen der Lichtquelle und der photographischen
Platte nicht eine völlig andere Richtung einschlägt, es etwa nach einiger Zeit die
Richtung umkehrt und es sich wieder zur Quelle zurück bewegt. Es muss
irgendetwas am Licht oder zwischen Quelle und Photoplatte geben, das für das
gesetzmäßige Verhalten der Lichtquanten verantwortlich ist. Im Rahmen des
71
klassischen mechanistisch-atomistischen Weltbildes war die Antwort ganz einfach:
Die Welt besteht aus kleinsten Teilchen, die ihre einmal eingeschlagenen
Bewegungsrichtungen beibehalten, sofern keine äußeren Kräfte auf sie einwirken.
Naturgesetze wären danach lediglich die Beschreibung des Verhaltens der Objekte,
das sie aufgrund ihrer inneren Eigenschaften haben. Nun sind aber in der QM die
Lichtquanten und alle anderen Elementarteilchen keine Objekte, die sich auf einem
bestimmten Weg durch den Raum bewegen und dabei beständig mit sich und ihren
Eigenschaften identisch bleiben. Quantenphänomene sind nach heutigem
Wissensstand keine substanziellen Objekte, die immer mit sich identisch sind; es
sind vielmehr Phänomene, die man mit bestimmten Wahrscheinlichkeiten
wiederholt beobachten kann, und was zwischen zwei Beobachtungen geschieht, ist
unklar (vgl. Arendes 1992). Wenn nun das Experiment mit der Lichtquelle und der
Photoplatte in einer Vakuumkammer durchgeführt wird, dann sollte es doch
zwischen Lichtquelle und Photoplatte im Vakuum irgendetwas geben, das für diese
Gesetzmäßigkeit verantwortlich ist. Im Rahmen der hier vorgestellten
Weltauffassung soll deshalb die Annahme gemacht werden, dass das Vakuum oder
besser ausgedrückt der Äther eine innere Struktur besitzt, die für diese
Gesetzmäßigkeit verantwortlich ist. Genau betrachtet ist das eine triviale
Hypothese, denn wie sollte es anders sein? Nicht trivial ist hingegen die Frage, auf
welche Weise die Naturgesetze im Äther verankert sind. Diese Frage lässt sich zur
Zeit nicht beantworten, da man über das Vakuum bzw. über den Äther noch zu
wenig weiß. Will man sich die Wirkungsweise der Naturgesetze trotzdem
irgendwie plausibel machen, so kann man als Analogie die Welt mit einem
Computer vergleichen. Nach dieser Analogie wären die Naturgesetze auf ähnliche
Weise im Äther verankert wie die Software eines Computers in dessen Hardware.
Das naturgesetzliche Verhalten der beobachtbaren Phänomene sollte sich somit aus
einer bestimmten Strukturierung des Äthers ergeben, so wie die Phänomene auf
einem Computer-Bildschirm durch die Prozesse in einer bestimmten Konstellation
von Chips, Transistoren o.ä. entstehen. Naturgesetze kann man demnach als
Informationen auffassen, die die Objekte der Welt steuern, so wie die Software die
Information eines Computers ist, welche die Prozesse des Computers bestimmt.
Eine besondere Eigenschaft der Naturgesetze, deren Symmetrien, soll noch
hervorgehoben werden. Von einer Symmetrie spricht man, wenn ein Objekt oder
auch ein Naturgesetz einer Transformation unterworfen werden kann und es
danach dieselbe Gestalt hat oder auf dieselben Resultate führt wie zuvor. Ist
beispielsweise Ψ ( x ) eine Lösung der Schrödinger-Gleichung für freie Teilchen, so
kann man eine räumliche Verschiebung ε durchführen, und die dadurch erhaltene
Funktion Ψ ( x + ε ) ist wiederum eine Lösung der Schrödinger-Gleichung.
Derartige Symmetrien der physikalischen Naturgesetze spielen heute in der Physik
eine überragende Rolle. Die heutigen fundamentalen Theorien der Physik werden
nämlich entdeckt, indem man zunächst eine dem System zugrunde liegende
72
Symmetrie bzw. Symmetriegruppe vermutet, und diese Symmetrieannahme führt
dann zur mathematischen Ausgestaltung der Theorie. Mit Wigner (1967) kann man
deshalb Symmetrien auch als Meta-Gesetze auffassen; sie sind allgemeine
Eigenschaften der Naturgesetze. Der Quantenelektrodynamik liegt zum Beispiel
eine Symmetriegruppe zugrunde, die mit U(1) bezeichnet wird, und der
Quarktheorie die SU(3).
2.4 Raum und Zeit
Die Begriffe Raum, Zeit und Masse haben im 20. Jahrhundert eine dramatische
Veränderung erlebt. Mit zunehmender Geschwindigkeit unterliegen Objekte einer
zunehmenden Längenkontraktion und Prozesse einer zunehmenden Zeitdilatation;
kein Objekt kann sich schneller als das Licht bewegen; und Masse ist nicht mehr
die »quantitas materiae«, sondern eine Form von Energie. Unsere Auffassung von
Raum und Zeit wurde besonders stark verändert durch Einsteins
Gravitationstheorie, die linke Seite der Einsteinschen Feldgleichungen stellt
nämlich die Struktur der Raumzeit dar und die rechte Seite die Energie. Nach
dieser Theorie gibt es neben der Energie eine zweite Substanz, die Raumzeit, und
die Energie eines Systems bestimmt die Struktur der Raumzeit, während
umgekehrt die Struktur der Raumzeit die Bewegung der Objekte steuert.
Bemerkenswert ist, dass die Raumzeit eine nichteuklidische Geometrie besitzt, die
man nur im Fall eines schwachen Gravitationsfeldes bzw. nur lokal annähernd als
euklidisch betrachten kann. Naturphilosophisch interessant ist ferner die
mathematische Nichtlinearität der Feldgleichungen. Sie unterliegen keinem
Superpositionsprinzip; d.h. wenn man zwei Lösungen der Feldgleichungen kennt,
kann man sie nicht addieren, um eine dritte zu erhalten (wie das in der QM der Fall
ist). Das bedeutet, dass die Welt nicht (oder nur approximativ) aus einzelnen
Bausteinen zusammengesetzt ist in dem Sinne, dass das Ganze lediglich die
Summe aller Teile ist. Das Ganze hat Eigenschaften, die sich nicht direkt aus den
Teilen ergeben.
Das interessanteste Anwendungsgebiet haben Einsteins Feldgleichungen in der
Kosmologie gefunden (vgl. Kanitscheider 1979). Unter Hinzunahme weiterer
Postulate (Weylsches Postulat und kosmologisches Prinzip) lassen sich mit
Einsteins Feldgleichungen Aussagen über die Struktur von Raum und Zeit des
Universums machen. Allerdings sind wegen der Nichtlinearität die Lösungen der
Feldgleichungen schwer überschaubar; hinzu kommt, dass sich kosmologische
Theorien und Modelle schlecht experimentell testen lassen. Als die
Standardlösungen der relativistischen Kosmologie bezeichnet man die FriedmannModelle. Die beiden bevorzugten Modelle, jedes besitzt Befürworter, sind das
73
oszillierende und das unendlich expandierende Modell. Beiden gemeinsam ist,
dass das Universum aus einer Anfangssingularität, dem Urknall, entstanden ist.
Seit dem Urknall dehnt sich das Universum aus, und das Modell des
expandierenden Universums nimmt an, dass diese Ausdehnung unendlich
weitergehen wird, wohingegen das oszillierende Modell annimmt, dass es in
Zukunft zu einer Kontraktion kommen wird, die in einer Endsingularität enden
wird, woraus ein neuer Urknall entstehen kann, so dass sich der ganze Prozess
wiederholen kann.
Während es in der QM den Bahnbegriff nicht gibt, ist Einsteins Theorie in dieser
Hinsicht eine klassische Theorie mit eindeutig definierten Ortswerten. Im
Augenblick bemühen sich die Physiker darum, die Gravitationstheorie mit der QM
zu verbinden, was vermutlich zu einer erneuten Revision unserer Begriffe von
Raum und Zeit führen wird. Ob die Raumzeit im mikrophysikalischen Bereich eine
Schaumstruktur besitzt, so dass zum Beispiel Zukunft und Vergangenheit nicht
immer unterscheidbar sind, ob die Begriffe Raum und Zeit vielleicht teilweise gar
nicht mehr anwendbar sind, oder ob es mehr als drei Raumdimensionen gibt, bleibt
abzuwarten. Vermutet wird heute schon von vielen Physikern, dass unsere
makrophysikalische Raumzeit ebenso wie die Materie aus dem Vakuum erschaffen
wurde. Beim Urknall vermutet man deshalb, dass das Universum bzw. die
Raumzeit aus einer Quantenfluktuation entstanden ist.
2.5 Emergenz
Unter Emergenz versteht man die Entstehung von etwas Neuem. Das prägnanteste
Beispiel hierfür ist das Erwachen aus dem Schlaf, die Entstehung von Bewusstsein.
Die Entstehung von neuen Eigenschaften ist auch in der Physik ein bekanntes
Phänomen: Bringt man eine sehr große Anzahl von Teilchen zusammen, so hat die
gesamte Ansammlung eine Temperatur. Temperatur ist eine physikalische
Eigenschaft, die keines der Einzelteilchen besitzt und die erst als Vielteilcheneigenschaft definierbar ist. Andere Beispiele für solche Vielteilcheneigenschaften
sind Druck und Entropie. Emergenz gibt es jedoch bereits unterhalb der
Vielteilchenebene. Die Entstehung von Elementarteilchen aus dem Vakuum ist
ebenfalls das Auftauchen von etwas Neuem. Die Auf- und Absteigeoperatoren der
QFT, Teilchenerzeugungs- und Vernichtungsoperatoren, sind eine physikalische
Beschreibung von Entstehungs- und Vernichtungsvorgängen.
Dass es Emergenz gibt, kann nicht bestritten werden, wie man aber so etwas im
Detail erklären kann, ist für die meisten Fälle noch völlig ungewiss. Man weiß,
dass viele neue Eigenschaften sogenannte Systemeigenschaften sind. Unter einem
System versteht man eine Einheit von mehreren Komponenten mit ihren
74
Wechselwirkungen, was oftmals von der Existenz einer Eigenschaft begleitet ist,
welche nur das Gesamtsystem besitzt und die nicht allein aus den Komponenten
erklärbar ist. So sind Wasserstoff und Sauerstoff Gase; Wasser hingegen (ein
Wasserstoff-Sauerstoff-System) ist eine Flüssigkeit. Kohlenstoff und Stickstoff
sind harmlos; ihre Verbindung (Cyan) ist hochgiftig. Graphit und Diamant
bestehen beide nur aus Kohlenstoff; sie haben aber völlig verschiedene Eigenschaften, weil der Kohlenstoff jeweils anders angeordnet ist.
Hinsichtlich der Emergenz von neuen Phänomenen lassen sich mehrere Typen
unterscheiden. Im Folgenden sollen die drei Arten 1. der Entstehung von Organisationseinheiten bzw. Systemen, 2. der Entstehung von Strukturen innerhalb von
Systemen und 3. der Entstehung von gänzlich neuen Entitäten unterschieden
werden. Mit der Entstehung von Systemen ist gemeint, dass sich im Laufe der
Evolution aus der fast homogenen oder chaotischen Elementarteilchenansammlung
nach dem Urknall zunächst Protonen, Neutronen und Elektronen zu Atomen
zusammenlagerten, danach verschiedene Atome zu Molekülen, diese zu
Makroobjekten, zu Zellen, Organismen, Gesellschaften und Gesellschaftssystemen. Mit dem zweiten Typ ist gemeint, dass sich innerhalb eines Systems, das
bereits zuvor existiert haben kann, verschiedene neue Strukturen herausbilden
können. Zum Beispiel kommt es in einem Stromkreis, der einen Kondensator und
eine Spule enthält, zu oszillierenden Schwankungen. Strom und Spannung
schwanken zwischen positiven und negativen Werten; man spricht deshalb von
einem Schwingkreis. Bei diesem Beispiel handelt es sich um das Auftauchen einer
Verhaltensstruktur innerhalb eines Systems. Mit dem dritten Typus, der
Entstehung von völlig neuen Entitäten, meine ich die Entstehung von völlig neuen
Phänomenen wie die Entstehung des Bewusstseins, wenn man aus dem Schlaf
erwacht. Bei den ersten beiden Typen handelt es sich bloß darum, dass sich bereits
existierende Objekte raumzeitlich besonders anordnen: Elektronen, Protonen und
Neutronen bleiben auf spezifische Weise beieinander, so dass man sie zusammen
als eine Einheit, als ein Atom auffassen kann; beim menschlichen Körper lagern
sich die Moleküle in einer spezifischen raumzeitlichen Lage zusammen, so dass
man von einer größeren Einheit, dem ganzen Lebewesen sprechen kann; beim
Schwingkreis verändert sich die räumliche Konstellation der elektrischen Teilchen
des Systems im Laufe der Zeit derartig, dass sie Schwingungen bilden.
Demgegenüber ist die Entstehung der Temperatur beim Vielteilchensystem, die
Entstehung von Materieteilchen aus dem Vakuum und die Entstehung von
Bewusstsein nicht bloß die neue Anordnung von bereits existierenden Entitäten zu
einer neuen Struktur oder Systemeinheit, hierbei entstehen tatsächlich völlig
neuartige Entitäten. Die ersten beiden Typen kann man als strukturelle Emergenz
charakterisieren, den dritten Fall als Entitätenemergenz. Die strukturelle Emergenz
wird in der Literatur auch als Selbstorganisation bezeichnet, wenn sie von selbst,
also nicht von außen erzwungen erfolgt (so wie beim Bau eines Hauses durch
75
Menschen). Da es sich bei der Strukturemergenz nur um eine neue Anordnung
bereits existierender Dinge handelt, bei der Entitätenemergenz jedoch um das
Auftauchen völlig neuer Größen, werde ich den Begriff Emergenz im Folgenden
hauptsächlich bei der Entitätenemergenz verwenden und den Begriff der
Selbstorganisation bei der Strukturemergenz.
Mit dieser begrifflichen Differenzierung zwischen Emergenz (von neuen Entitäten)
und Selbstorganisation soll nicht behauptet werden, dass diese beiden Arten in der
Natur immer vollkommen voneinander getrennt vorkommen. Im Gegenteil, die
Entstehung von neuen Organisationseinheiten durch Zusammenlagerung
verschiedener Objekte oder die neuartige Konstellation von Komponenten
innerhalb eines Systems kann gerade die Bedingung für das Auftauchen von neuen
Entitäten sein. So muss die Hirnmaterie in einem bestimmten Zustand sein, damit
Bewusstsein entsteht. Auf der anderen Seite können gerade die neuen Entitäten die
Ursache für weitere Neustrukturierungen sein, so wie Entropie und Temperatur
eines Systems (in Form von generalisierten Kräften) die weitere
Entwicklungsrichtung des Systems und damit auch die der Komponenten des
Systems bestimmen. Auch das Bewusstsein, das bei einer bestimmten Klasse von
Hirnmateriestrukturen entsteht, steuert umgekehrt wiederum die Hirnmaterie und
dadurch den gesamten Körper. Auf diese interessante Wechselbeziehung von
Systemkomponenten und übergreifenden Systemeigenschaften wird noch einmal
im Abschnitt über Selbstorganisation eingegangen.
Dass es Emergenz gibt, kann nicht bestritten werden, ob man aber jemals das
Auftauchen von neuen Entitäten wird erklären können auf derartige Weise, dass
man sogar vorhersagen kann, bei welchen Materiekonstellationen völlig neue und
heute noch unbekannte Entitäten entstehen, ist umstritten. Die ersten Ansätze zur
Erklärung der Entstehung völlig neuer Entitäten gibt es aber vielleicht sogar schon.
In der Elementarteilchenphysik werden nämlich neue Teilchenarten eingeführt
durch sogenannte Symmetriebrüche. Wie im Abschnitt über Naturgesetze erläutert
wurde, gehen die Physiker bei der Konstruktion einer neuen Theorie davon aus,
dass bestimmte Symmetrien vorliegen. Gelingt es ihnen aber zunächst nicht, eine
Theorie mit diesen Symmetrien zu formulieren, dann führen sie manchmal einfach
ein neues Skalarfeld ein, welches eine neue Teilchenart darstellt. Auf diese Weise
erreichen sie manchmal, dass die grundlegenden Naturgesetze zwar tatsächlich die
gewünschten Symmetrien besitzen, dass dies aber auf der Ebene der beobachtbaren
Phänomene durch die Einführung des neuen Teilchens nicht direkt sichtbar wird.
Man spricht dann von einem spontanen Symmetriebruch (Genz & Decker 1991).
Ist ein solches System in einem Zustand sehr hoher Energie, ist es also sehr heiß,
dann ist sogar auch der beobachtbare Zustand symmetrisch, und erst im Zuge einer
Abkühlung entstehen durch spontane Symmetriebrüche die neuen Teilchensorten,
welche neue Kräfte bzw. Wechselwirkungen darstellen. Das Universum war direkt
76
nach dem Urknall in einem Zustand hoher Energie, und im Zuge der Abkühlung
sind dann vermutlich durch spontane Symmetriebrüche die einzelnen
Wechselwirkungsarten (starke Wechselwirkung, Elektrizität etc.) entstanden,
welche die nachfolgenden Strukturbildungen ermöglichten (Genz & Decker 1991;
Jantsch 1992).
Neben der Symmetriebruchtheorie gibt es in der Physik weitere Theorien bzw.
Ansätze zur Erklärung von neuen Eigenschaften. So kann man zum Beispiel heute
in der Thermodynamik die Temperatur, die ursprünglich rein phänomenologisch
formuliert worden war, mit den Methoden der statistischen Physik erklären, und im
Forschungsbereich von Elementarteilchen und Gravitation versuchen beispielsweise Heim (1983, 1989) und Schmutzer (1996), die vierdimensionale Raumzeit
als eine Projektion aus einer Höherdimensionalität zu erklären.
2.6 Selbstorganisation und Evolution
Unmittelbar nach dem Urknall bestand das Universum aus einer fast homogenen
oder einer chaotischen Elementarteilchenansammlung in einem extrem heißen
Zustand. Im Zuge der Abkühlung entstanden daraus Atome, Moleküle, riesige
Makroobjekte, organische Substanzen wie Zellen, Zellkomplexe und Organismen
und schließlich Gesellschaften und Gesellschaftssysteme wie die Europäische
Union. Wie konnte es dazu kommen? Aus unserem Alltag wissen wir, dass neue
und komplizierte Strukturen in der Regel nur entstehen, wenn ein intelligentes
Wesen sie erbaut. Häuser entstehen nicht von allein, sondern werden von
Menschen planmäßig erschaffen. Ohne den Eingriff eines intelligenten
Lebewesens zerfallen in der Regel hochstrukturierte Objekte und entstehen nicht.
Ein großer Ausnahmebereich sind die Lebewesen selbst. Schöne und
hochstrukturierte Pflanzen entstehen aus einem Samen, der scheinbar völlig
einfach ist; wie wir jedoch aus der Biologie wissen, enthält der Samen eine
Erbsubstanz, die DNS, welche die Ausbildung der Pflanze steuert. Nach dem
Urknall hat es aber in der Elementarteilchenansammlung keine DNS gegeben,
welche die Entstehung komplexer Strukturen steuern konnte. Wie konnten sich
trotzdem Lebewesen und alle anderen komplexen Strukturen herausbilden? Dieser
Prozess der Entstehung von komplexen Strukturen ohne äußeren Eingriff wird als
Selbstorganisation der Materie bezeichnet. Wirklich von selbst erreicht das die
Materie natürlich nicht, denn das Verhalten der Materie wird gesteuert von den
Naturgesetzen. Inwieweit die Naturgesetze im Urknall zusammen mit der Materie
entstanden sind und inwieweit es auch eine Evolution der Naturgesetze gegeben
hat, ist in der Wissenschaft zur Zeit noch reine Spekulation. Wie hat sich aber die
Materie mit Hilfe der Naturgesetze strukturiert?
77
Die Thermodynamik von Zuständen, welche weit entfernt vom Gleichgewichtszustand sind, wurde vor allem von Ilya Prigogine und seinen Mitarbeitern
untersucht (Glansdorff & Prigogine 1971). Diese Theorie behandelt offene
Systeme, d.h. Systeme, die einen Energie- und Entropieaustausch mit der Umwelt
haben, und Prigogine konnte zeigen, dass bei der Vernichtung und bei der
Entstehung von Strukturen dasselbe Gesetz gültig ist, welches aber nah und fern
vom thermodynamischen Gleichgewicht unterschiedliche Konsequenzen hat.
Während es in der Nähe des Gleichgewichts meist zur Zerstörung von Strukturen
kommt, können sich weit entfernt vom Gleichgewicht Strukturen bilden. Zwar
kann es in geschlossenen Systemen nicht zu einer Abnahme der Entropie kommen,
in offenen Systemen können aber Strukturen entstehen durch Entropieabnahme,
indem nämlich Entropie in die Umwelt transportiert wird.
Neben der soeben erwähnten Theorie der nichtlinearen irreversiblen TD gibt es
weitere Ansätze zur Erklärung der Selbstorganisation. Allen gemeinsam ist, dass
ihre mathematischen Grundgleichungen von nicht-linearer Natur sind. Diese
verschiedenen Ansätze sind teilweise gegenseitig konkurrierende Erklärungsversuche, teilweise sind manche Theorien nur für spezielle Forschungsfragen
entwickelt worden, zum Beispiel für die Entstehung von Leben. Ein zur Zeit viel
diskutierter allgemeiner Ansatz zur Erklärung der Selbstorganisation ist die Synergetik von Hermann Haken (1982). Hervorgegangen ist dieses Paradigma aus
Hakens theoretischen Untersuchungen zum Laser. Ein Laser besteht aus sehr
vielen Atomen, die alle Licht mit derselben Wellenlänge ausstrahlen. Zu dieser
Kohärenz aller Wellenlängen kommt es, indem die emittierte Wellenlänge eines
Atoms die Kontrolle über das gesamte System bekommt und alle anderen Atome
dazu veranlasst, mit der gleichen Wellenlänge auszustrahlen. Die Grundgedanken
der Synergetik lassen sich gut erläutern anhand des Phänomens der sogenannten
Bénard-Instabilität (Haken & Wunderlin 1991). Hierfür stelle man sich eine große
und von unten erhitzte Flüssigkeitsschicht vor. Durch die Erhitzung von unten
dehnen sich die Flüssigkeitsvolumina an der Unterseite aus, die Flüssigkeit wird
spezifisch leichter und möchte nach oben steigen. Von oben her drückt aber die
schwere Flüssigkeit nach unten. Deshalb wird bei einer geringen
Temperaturdifferenz zwischen der oberen und unteren Flüssigkeitsoberfläche die
Wärme nur durch Konduktion nach oben weitergeleitet, wobei die Moleküle beim
Zusammenprall mit ihren Nachbarn die Wärmeenergie weitergeben, ohne sich
selbst zu sehr von ihrem Platz zu bewegen. Ab einer bestimmten
Temperaturdifferenz zwischen oben und unten setzt jedoch Konvektion ein, das
heisst ein Wärmetransport durch die Bewegung der Moleküle. Es kommt zu
typischen Rollenbewegungen von unten nach oben und umgekehrt, die von oben
betrachtet regelmäßige hexagonale Zellen bilden.
Hakens Synergetik erklärt die Entstehung der hexagonalen Zellen mit den
78
rollenförmigen Flüssigkeitsbewegungen folgendermaßen. Ausschlaggebend für
den Umschlag eines makroskopischen Zustandes in einen anderen ist ein
sogenannter Kontrollparameter. Bei unserem Beispiel ist dies die Temperaturdifferenz zwischen oben und unten, hervorgerufen durch die Erhitzung von unten,
also von außerhalb des Systems. Wird der Kontrollparameter kontinuierlich
verändert, so kommt es bei einem bestimmten Wert, dem sogenannten kritischen
Punkt, zur Entstehung einer neuen physikalischen Größe, dem sogenannten
Ordnungsparameter. Dass es an einem kritischen Punkt auf makroskopischer
Ebene plötzlich zu einer neuen Gesamtstruktur kommt, wird als Instabilität
bezeichnet. Ein Ordnungsparameter kann z.B. die Magnetisierung eines
Eisenstabes sein oder die Dichtedifferenz in einem Flüssigkeit-Gas-System oder
irgendeine andere plötzlich auftauchende Systemeigenschaft. In unserem
Flüssigkeitsbeispiel ist die Amplitude der Flüssigkeitsbewegung dieser Ordnungsparameter. Aufgabe des Ordnungsparameters ist es nun, die Subsysteme zu
versklaven; das heisst der Ordnungsparameter bestimmt das weitere Verhalten der
Systemkomponenten. Im Beispiel der Bénard-Instabilität bedeutet dies, dass die
Amplitude der gesamten Flüssigkeitsbewegung die Bewegungsrichtung der
einzelnen Moleküle steuert. In einer allgemeineren Form drückt es Haken auch so
aus, dass die Komponenten des Systems ein Feld (den Ordnungsparameter)
hervorbringen, welches umgekehrt das weitere Verhalten der Komponenten
steuert. Bereits in der Thermodynamik gibt es dieses Verhalten: Die
Systemkomponenten bringen Felder wie Temperatur und Entropie hervor (=
Ordnungsparameter), welche das weitere Verhalten der Systemkomponenten in
Form von generalisierten Kräften beeinflussen.
Neben den Theorien von Prigogine und Haken gibt es weitere Ansätze, die
Selbststrukturierung der Materie zu erklären. So entwickelte beispielsweise
Manfred Eigen seine Hyperzyklen-Theorie zur Erklärung der Entstehung der
biologischen Information, der Gene, als Ursprung des Lebens (Eigen 1971). Eigen
kommt dabei zu dem Resultat, dass in der präbiotischen Ära neben dem
darwinistischen Selektionsprinzip die Kooperation ein sehr wichtiger Evolutionsfaktor war. Erst das Wechselspiel von Kooperation und Konkurrenz der Moleküle
ermöglichte die Entstehung der genetischen Erbinformation.
Die Selbstorganisation ist ein wichtiger Bestandteil der Evolution des gesamten
Universums; sie ist die Evolution von Systemen zu übergeordneten Systemen und
diese wiederum zu über-übergeordneten Systemen usw. Aber innerhalb jeder
Systemstufe gibt es ebenfalls eine ständige Veränderung. Das Universum dehnt
sich kontinuierlich aus, Sterne und Planeten verändern sich permanent, ebenso
unsere Erdatmosphäre, und man unterscheidet eine chemische, eine biologische
und eine kulturelle Evolution.
79
Besonders interessant ist die biologische Evolution der Arten, insbesondere die
Entstehung des Menschen aus primatenartigen Vorfahren. Nach der heute
dominierenden neodarwinistischen und so genannten synthetischen Evolutionstheorie entwickeln sich Arten und entstehen neue durch eine Vielzahl zusammen
arbeitender Faktoren: Durch die beständige geringfügige und zufällige Variation
des Erbgutes (Mutationen) entstehen in der Fortpflanzung Individuen mit
verschiedenen körperlichen und verhaltensbezogenen Eigenschaften (dem
Phänotypen), und im Kampf ums Dasein bewirkt die natürliche Auslese, dass die
besser angepassten Tiere mehr Nachkommen haben und die weniger an ihre
Umwelt angepassten Tiere verdrängen. Weitere wichtige Evolutionsfaktoren sind
die Isolation (durch die räumliche Trennung von Tieren oder Pflanzen gleicher Art
wird die Fortpflanzungsgemeinschaft aufgehoben), Rekombination (Chromosomen-Neuverteilung bei der Meiose, durch Crossing-Over oder bei der Paarung),
Gendrift (Veränderungen der Genhäufigkeit, insbesondere in kleinen Populationen,
aufgrund stochastischer Schwankungen), Populationswellen (die Individuenzahl
einer Population und ihre Schwankungen beeinflussen das Tempo der Evolution)
und ökologische Nischen (Ausnutzung spezieller Existenzbedingungen wie
Wohnraum oder Nahrung). Die biologische Evolutionstheorie besteht somit aus
zwei Teilen: Sie behauptet einerseits die ständige Veränderung der Arten und die
daraus resultierende Entstehung neuer Arten und somit auch die Entstehung des
Menschen aus einer vorangegangenen Primaten-Art (dieser Teil der Theorie geht
hauptsächlich auf de Lamarck zurück, er hatte aber auch mehrere Vorläufer), und
sie versucht andererseits, diesen Entwicklungsprozess durch eine Reihe von
Faktoren zu erklären. Der erste Teil dieser Theorie wird heute in der Wissenschaft
nicht mehr bestritten; der zweite, der erklärende Teil kann jedoch noch nicht als
abgeschlossen betrachtet werden. Im Gegensatz zur synthetischen Theorie
bestreitet zum Beispiel der Evolutionsgenetiker Motoo Kimura (1988) die zentrale
Bedeutung des Selektionsfaktors, denn er nimmt an, dass neue Arten vor allem
durch Gendrift entstehen, und der Paläontologe und Geologe Gould (2002) nimmt
an, dass die Evolution vielfach auch abrupt, mit größeren Schubphasen und nicht
nur graduell verläuft (über weitere Kritiken und alternative Evolutionstheorien
siehe Krohs, Toepfer 2005).
2.7 Einheit, Ganzheit und Systeme
Unter Einheit versteht man das Zusammengehören mehrerer (scheinbar) getrennter
Objekte. Ein ähnlicher Begriff ist die Ganzheitlichkeit, wodurch man ausdrücken
will, dass scheinbar voneinander getrennte Objekte auf einer tieferen Ebene
voneinander abhängen. Der Körper eines Lebewesens besteht aus einer Vielzahl
verschiedener Moleküle, und mit welchem Recht kann jeder Leser von sich selbst
behaupten, er oder sie sei eine ganze Person, die sich lediglich aus austauschbaren
80
Teilchen zusammensetze? Nach klassisch-physikalischer Auffassung besteht
zwischen den Elementarteilchen eine völlige Leere, die die einzelnen Teilchen
voneinander trennt. Wären aber die Elementarteilchen tatsächlich völlig
voneinander getrennte Objekte, wie könnte man dann erklären, dass alle Moleküle
eines Körpers so gut zusammenarbeiten, so dass wir den gesamten Körper steuern
können, das zu tuen, was wir wollen? Die einzelnen Teile werden durch
physikalische Kräfte zusammengehalten, aber was sind Kräfte? Wären Kräfte
wieder nur voneinander getrennte Teilchen (Photonen, Gluonen etc.), dann würde
sich sofort wieder die Frage nach dem Zusammenhalt stellen. Wie kommt es, dass
ein Atom, bestehend aus Protonen, Elektronen etc., nicht zerfällt und eine stabile
Einheit bildet?
Im 20. Jahrhundert und besonders in den letzten Jahrzehnten hat es in der Physik
theoretische Fortschritte gegeben, die es nahe legen, dass die Natur auf einer sehr
grundlegenden Weise eine Ganzheitlichkeit besitzt, wodurch auch die Bildung von
zusammengehörenden Einheiten von scheinbar getrennten Objekten erklärbar
wird. Diese Entdeckung der Ganzheitlichkeit von scheinbar getrennten Objekten
hat sich aus dem Bemühen ergeben, den mathematischen Formalismus der QM
physikalisch zu verstehen. Anfang der 60er Jahre hatte Bell (1964) eine
mathematische Ungleichung bewiesen, die einigen Vorhersagen der QM
widerspricht, und da die meisten und besten der durchgeführten Experimente die
QM bestätigen und somit die Ungleichung verletzen, muss mindestens eine der
Voraussetzungen, die beim mathematischen Beweis der Ungleichung gemacht
werden, falsch sein. Die beiden wichtigsten Axiome des Beweises sind die Realität
der Objekte und die Lokalität der Informationsübertragung. Da viele Physiker
nicht bereit sind, auf die Realität der Quantenobjekte zu verzichten, geben sie die
Lokalitätsforderung auf, und da die Relativitätstheorie Objektbewegungen mit
schneller als Lichtgeschwindigkeit zu verbieten scheint, betrachten sie die
Experimente zur Bellschen Ungleichung als ein starkes Argument für eine völlig
neuartige Zusammenhangsart, für einen ganzheitlichen Zusammenhang der Welt.
Neben der Verletzung der Bellschen Ungleichung gibt es ein weiteres Argument
für den Holismus, welches auf direktere Weise mit dem Formalismus der QM
verbunden ist, nämlich das Pauli-Prinzip. Das Pauli-Prinzip besagt, dass keine
zwei Elektronen in einem Atom in allen vier Quantenzahlen übereinstimmen
können. In seiner allgemeinen Formulierung besagt es, dass die Gesamtwellenfunktion von mehreren Fermionen (ein Teilchentyp, zu dem auch die Elektronen
gehören) total antisymmetrisch ist. Dies bedeutet, dass sich Fermionen auch ohne
Wechselwirkung nicht mehr unabhängig voneinander bewegen. Die QM nimmt
keine zwischen den Fermionen wirkende Kraft an, und trotzdem ist das Verhalten
scheinbar voneinander getrennter Teilchen aufeinander abgestimmt.
81
Internationale Gesetze
Soziale Gesetze
Psychologische Gesetze
Biologische Gesetze
Chemische Gesetze
Physikalische Gesetze
Abb. 1: Schichtenaufbau der Naturgesetze. Jede Schicht ruht auf der
darunter liegenden Schicht auf, und die Gesetze jeder Schicht werden von
denen der darüber liegenden Schicht überformt bzw. ihnen angepasst.
In der Wissenschaft werden mehrere Objekte, die als Einheit zusammengehören,
als ein System bezeichnet. Die allgemeine Systemtheorie ist eine wissenschaftliche
Forschungsrichtung, in der versucht wird, allgemeine Gesetzlichkeiten von
Systemen ganz unterschiedlicher Zusammensetzungen zu untersuchen
(physikalische, biologische, soziologische etc.). Als Begründer der allgemeinen
Systemtheorie gilt der Biophysiker Ludwig von Bertalanffy (1968), der ein System
mathematisch so definierte, dass das Verhalten jedes Systemelementes vom
Verhalten der anderen Elemente abhänge; in mathematischer Form ausgedrückt:
dQi
= f i (Q1 , Q2 ,..., Qi ,... Qn ) . In der Terminologie von Hakens synergetischem
dt
Forschungsansatz kann man ein System auch definieren als eine Menge von
Elementen, die durch einen gemeinsamen Ordnungsparameter gesteuert werden.
2.8 Schachtelung und Schichtung
Wie jedes andere höhere Lebewesen auch enthält der menschliche Körper mehrere
82
verschiedene Organe: Herz, Magen, Nieren, Hirn etc. Jedes Organ besteht aus
mehreren Zellschichten, jede Zellschicht aus vielen Zellen, und jede Zelle enthält
viele verschiedene Zellorganellen, z.B. Mitochondrien, Ribosomen und den
Zellkern. Auf eine hochkomplexe Weise ist der Körper ein System, das aus einer
Vielzahl von ineinander verschachtelten Subsystemen besteht. Der menschliche
Körper ist wiederum selbst Teil einer Gesellschaft, die aus sehr vielen ineinander
gruppierten Subsystemen besteht, wie besonders die Bürokratie der modernen
Gesellschaften verdeutlicht.
Wie im vorigen Abschnitt erläutert wurde, bezeichnet man in der Wissenschaft
solche Objekte als Systeme, die aus mehreren Elementen bestehen, welche eine
zusammengehörende Einheit bilden. Um das Verhalten eines Objektes beschreiben
und zumindest teilweise erklären zu können, ist oftmals nicht nötig, die Subsysteme zu kennen. So konnte man in der Physik schon das Verhalten von Atomen
untersuchen, ohne zu wissen, dass diese sich aus Elektronen und Protonen und
diese sich wiederum aus Quarks zusammensetzen. Da ein Gesamtsystem
Eigenschaften haben kann, die die Subsysteme nicht besitzen, ist es oftmals
unumgänglich, für die Beschreibung des Gesamtsystems neue Variablen oder
Parameter einzuführen, zu deren Erklärung eigene Naturgesetze formuliert werden
müssen. Dass das Verhalten eines Gesamtsystems durch besondere Naturgesetze
beschrieben wird, welche von denen der Subsysteme verschieden sind (aber
natürlich damit vereinbar sein müssen), wird dadurch ausgedrückt, dass die
Naturgesetze der Prozesse von solchen ineinandergreifenden Gefügen
übereinander geschichtet sind. Die unterste Schicht der Gesetzeshierarchie wird
gebildet von den physikalischen Naturgesetzen für die Elementarteilchen, darüber
liegen die Gesetze für das Verhalten der Atome, darüber die thermodynamischen
Gesetze für Systeme mit einer hohen Anzahl statistisch verteilter Objekte. Zum
Beispiel gilt für ein einzelnes Teilchen die Schrödingergleichung, für ein Ensemble
von sehr vielen statistisch verteilten Objekten gilt die Thermodynamik, in der der
zweite Hauptsatz besagt, dass sich ein geschlossenes System mit der Zeit so
entwickelt, dass die Entropie nicht abnimmt. Die verschiedenen Gesetzesstufen der
Physik unbelebter Materie kann man grob zusammenfassen als die physikalische
Hauptschicht, über der (wieder nur grob zusammengefasst) die chemische
Hauptschicht liegt, darüber die der Biologie, Psychologie, Soziologie und die der
Politikwissenschaft der internationalen Beziehungen (siehe Abb. 1). Um nun ein
Objekt zu erklären, ist es vor allem wichtig, die Naturgesetze der betreffenden
Systemebene zu kennen. Die Naturgesetze für die Erklärung der
Systemkomponenten haben darüber hinaus ebenfalls einen hohen Erklärungswert,
und schließlich ist das Gesamtsystem oftmals selbst wieder in ein übergeordnetes
System eingebettet, dessen Gesetze ebenfalls einen hohen Erklärungswert haben
können. Eine höhere Gesetzesschicht ruht auf einer niederen auf und wird von
einer noch höheren modifiziert, und alle Schichten tragen zur Erklärung eines
83
Systems bei. Aus diesem Grund wird in der Biologie auch Biophysik betrieben und
in der Psychologie Biopsychologie und Sozialpsychologie. Um beispielsweise das
Verhalten eines Menschen zu erklären, benötigt man gute Psychologiekenntnisse;
einerseits wird aber ein großer Teil seines Verhaltens biologisch determiniert, etwa
sein tägliches Essverhalten, andererseits legen soziale Normen in einem großen
Umfang die Art seiner Handlungsweisen fest, etwa die Aktivitäten bei der Arbeit
oder die Gebräuche einer Gesellschaft beim Essen.
Während somit die realen Objekte ineinander verschachtelte Gefüge sind, kann bei
der wissenschaftlichen Erklärung von deren Verhalten von einer Schichtung der
Gesetze gesprochen werden, und jede höhere Gesetzesschicht ist einer
übergreifenderen Systemgesamtheit zugeordnet (vgl. Chauvet 1995).
2.9 Kausalität
Wenn sich plötzlich die Bewegung eines Objektes ändert, fragt man sich
unwillkürlich nach der Ursache für diese Veränderung. Jedes Geschehen hat eine
Ursache, so wird unwillkürlich angenommen, und dieses Kausalitätsprinzip ist die
Motivation der Naturwissenschaft, nach Erklärungen für die Vorgänge in unserer
Welt zu suchen. In der Geschichte der Philosophie tritt das Kausalitätsprinzip
ausdrücklich formuliert zuerst bei Demokrit auf, und für Aristoteles, der von der
causa efficiens (Wirkursache) spricht, wird alles, was bewegt wird, notwendig von
einem anderen bewegt. In der Neuzeit hat Leibniz den Satz vom zureichenden
Grund als einen Hauptsatz aller Erkenntnis und Wissenschaft aufgestellt: Nichts ist
ohne Grund, warum es sei. Dies haben zu allen Zeiten viele Philosophen geglaubt,
und in der Neuzeit war dies die Grundeinstellung der Naturwissenschaft bis zur
Entdeckung der QM, in der auch der Zufall eine maßgebende Rolle zu spielen
scheint.
In der Naturwissenschaft untersucht man kausale Zusammenhänge auf
experimentelle Weise, indem man alle Variablen eines Systems kontrolliert und
man dann eine oder einige wenige der Variablen systematisch variiert, um zu
sehen, was daraufhin mit den anderen Variablen passiert. Führt die Veränderung
einer Variable zu einer bestimmten Änderung einer anderen, so wird ein kausaler
Zusammenhang vermutet. Dass eine bestimmte Zustandsveränderung immer zu
bestimmten anderen Veränderungen führt, gilt als das methodologische Kriterium
für das Vorliegen von Kausalität. Dies führt dann unmittelbar zu der Frage, wie
diese Kausalbeziehung ontologisch realisiert ist, was ein jahrhundertealtes
philosophisches Grundproblem ist.
In der Physik ist heute die ontologische Natur der Kausalität dermaßen ungewiss,
84
dass Physiker diesen Begriff nur selten und dann meist in einem anderen Sinne
benutzen (zeitliche Abfolge von Ereignissen). Am naheliegendsten ist natürlich,
die Kausalbeziehung durch das Wirken von physikalischen Kräften zu erklären.
Ein Stein fällt nach Newton deshalb zu Boden, weil sich Erde und Stein durch die
Gravitationskraft anziehen. Nach der heutigen geometrischen Gravitationstheorie
lenkt die Struktur der Raumzeit die Bewegung des Steines. In den heutigen
Elementarteilchentheorien werden Wechselwirkungen, wie in Abschnitt 2.2
erläutert wurde, quantenfeldtheoretisch durch den Austausch von Feldquanten
bzw. Eichbosonen (Photonen, Gluonen etc.) beschrieben. Danach wirken Kräfte,
welche zur Kausalcharakterisierung herangezogen werden könnten, durch den
Austausch von kleinsten „Teilchen“ bzw. Feldquanten. Da aber die realistische
Interpretation der QM bzw. QFT noch ein großes Problem ist, da man sich also
darüber uneins ist, was zwischen zwei Beobachtungen von physikalischen
Messwerten realistisch geschieht, wird an dieser Stelle besonders deutlich, dass die
Physik die Kausalbeziehung zur Zeit nicht befriedigend erklären kann.
Beim Billiardspiel stößt man mit einem Stock eine Kugel an, diese rollt daraufhin
über den Tisch, trifft auf eine andere, noch ruhende Kugel, welche sich daraufhin
in Bewegung setzt. Das Auftreffen der ersten Kugel auf die zweite ist die Ursache
für die Bewegung der zweiten. Auf diese Weise stellt sich wohl manch einer
intuitiv die Kausalbeziehung vor; zumindest im gerade überwundenen
atomistischen Weltbild der Physik war dies vermutlich die Prototyp-vorstellung
von der Kausalbeziehung. Wie kann man aber beim heutigen Stand der
Wissenschaft die Kausalität ontologisch erklären? Vergleichen wir wieder einmal
die Welt mit einem Computer, so lässt sich unser Billiardspiel folgendermaßen
beschreiben. Auf dem Computer-Bildschirm ist ein Billiardtisch samt Spieler
abgebildet, eine Kugel wird wieder angestoßen, sie rollt über den auf dem
Bildschirm abgebildeten Billiardtisch und stößt auf eine andere Kugel, die sich
daraufhin in Bewegung setzt. Kann man nun behaupten, das Auftreffen der ersten
Kugel auf die zweite sei die kausale Ursache für die Bewegung der zweiten? Doch
wohl nicht, denn dies ist lediglich eine Scheinkausalität, weil die wirkliche
Ursache in den Informationsverarbeitungsprozessen im Rechner liegt. Wenn aber
die Welt tatsächlich in einigen Eigenschaften mit einem Computer vergleichbar
wäre, wäre dann nicht auch beim realen Billiardspiel das Auftreffen der ersten
Kugel auf die zweite nur eine Scheinkausalität, und läge dann nicht die wirkliche
Ursache für die Bewegung der zweiten im Äther verborgen? Nach der hier
vertretenen Weltauffassung sollten die Ursachen für alle realen Vorgänge im Äther
bzw. Vakuum liegen.
85
2.10 Teleonomie und Teleologie
Das Herz schlägt, um das Blut zirkulieren zu lassen; Vögel ziehen in warme
Gegenden, um den niedrigen Temperaturen und dem Futtermangel im Winter
auszuweichen; Professoren halten Vorträge, um Studenten zu belehren. All diese
Vorgänge laufen ab, um zu einem Ziel zu gelangen. Die Teleologie, welche
Vorgänge auf ihre Zwecke hin befragt und unter Berufung auf Endursachen
erklärt, geht auf Aristoteles zurück, der neben der Kausalität (causa efficiens), wie
sie im vorigen Abschnitt besprochen wurde, unter anderem auch die Zweckursache
annahm. Viele Philosophen und vielleicht die meisten Naturwissenschaftler lehnen
heutzutage teleologische Erklärungen ab. Auch gibt es zur Zeit in der Wissenschaft
und in der Philosophie keine allgemein akzeptierte Definition für Teleologie, für
die Psychologie kann man aber Teleologie definieren, wie es der Philosoph Nicolai
Hartmann (1951) tat. Er unterschied drei Bestandteile von teleologischen
Vorgängen: Zunächst erfolgt die Setzung des Zwecks im Bewusstsein als
Antizipation des Künftigen, dann erfolgt eine Auswahl der Mittel zum Erreichen
des Zwecks, und schließlich erfolgt die Realisation des Zieles durch die seligierten
Mittel, was als üblicher Kausalprozess abläuft. Hartmann anerkannte, dass es in
der Biologie viele Abläufe gibt, die auf ein Ziel hin abzulaufen scheinen, echte
Teleologie im Sinne seiner Definition könne dies jedoch nicht sein, weil die
bewusste Zielantizipation eines Subjektes fehle. Eine ähnliche Grundeinstellung
haben heute viele Biologen; es scheinen zwar biologische Vorgänge auf Ziele hin
abzulaufen, echte Teleologie könne dies aber nicht sein. Vor allem von Seiten der
Philosophen gibt es Versuche, biologische „um zu“-Erklärungen in kausale (d.h.
mechanistische) Erklärungen umzuformulieren. Viele Biologen sind jedoch mit
diesen „Übersetzungen“ von zweckgerichteten in kausale Erklärungen unzufrieden
(z.B. Mayr 1991). Nach ihrer Meinung würde bei diesen Übersetzungen etwas
verlorengehen, was notwendig zu biologischen Abläufen gehöre. Sagt man, das
Herz schlägt, um das Blut zirkulieren zu lassen, dann ist das eine etwas andere
Aussage, als wenn man nur sagt, das Herz schlägt und das Blut zirkuliert.
Um die zielgerichteten Abläufe der Biologie mit dem Kausalitätsprinzip der Physik
zu vereinbaren, hat man in der Biologie den Begriff „Teleonomie“ eingeführt.
Während teleologische Vorgänge zielintendierte Tätigkeiten von Subjekten mit
bewusster Zielantizipation sind, sollen teleonomische Vorgänge zielgerichtete
Abläufe der Natur ohne Bewusstsein und Willensakt sein. Mit den Worten von
Nicolai Hartmann handelt es sich im ersten Fall um zwecktätige Vorgänge, im
zweiten Fall um zweckmäßige. Der Terminus Teleonomie wurde 1958 von
Pittendrigh eingeführt und wird heute von vielen Biologen benutzt, so auch von
Ernst Mayr, einem der Begründer der synthetischen Evolutionstheorie. Mayr
versteht unter Teleonomie Folgendes: „Ein teleonomischer Vorgang oder ein
86
teleonomisches Verhalten ist ein Vorgang oder Verhalten, das sein
Zielgerichtetsein dem Wirken eines Programms verdankt“ (Mayr 1991: 61).
Teleonomische Prozesse erreichen also ein Ziel, weil sie von einem Programm, der
DNS, gesteuert werden, und dieses Programm ist im Laufe der Evolution als
Resultat der natürlichen Auslese entstanden. Diese Deutung der Teleonomie klingt
zunächst sehr befriedigend, kann aber auch kritisiert werden. Engels (1982)
kritisiert, dass zwar die Struktur der DNS die Prozesse im Organismus bewirkt,
eine Struktur oder Gestalt ist aber nicht schon ein Ziel, es sei denn, man definiere
es so; die Prozesse finden nicht um eines Zieles willen statt, sondern verlaufen
ebenso mechanistisch, wie ein fallender Stein als Zielzustand den Boden erreicht.
Noch schwerer als diese definitorische Kritik wiegt der Umstand, dass die
Umsetzung des in der DNS gespeicherten Programms, die Genexpression, ein
hochkomplexer und bislang nicht völlig verstandener Vorgang ist, der vermutlich
bereits Teleonomie voraussetzt. Bei der Genexpression haben unzählig viele
Proteine (Enzyme) ihre Funktionen in komplexen und ineinanderverzahnten
Vorgängen zu erfüllen, damit das Programm von den Genen bis zur Bildung der
dadurch kodierten Proteinarten realisiert werden kann.
In der Biologie akzeptieren immer mehr Wissenschaftler, dass es Abläufe gibt, die
man auf der Beschreibungsebene als Teleonomie bezeichnen kann. Wie man aber
diese scheinbare Zielgerichtetheit erklären kann und vor allem wie man sie mit den
sogenannten kausalen (mechanistischen) Gesetzen der Physik vereinbaren kann, ist
noch umstritten. Systemtheoretiker vermuten, dass Teleonomie (und in der
Psychologie verbunden mit Bewusstsein als Teleologie) gegenüber der
physikalischen Kausalität eine neue Systemeigenschaft ist, die auf der biologischen
Systemstufe als Emergenzphänomen auftritt (s. Engels 1982). Viele Physiker, die
an der Entwicklung der QM maßgebend beteiligt waren (Bohr, Heisenberg,
Wigner, Schrödinger u.a.) vertraten die Ansicht, dass für biologische Vorgänge
neuartige physikalische Naturgesetze gefunden werden müssten. Für solche
neuartigen Naturgesetze gibt es heute schon mehrere Ansätze. Bereits in den 40er
Jahren des 20. Jahrhunderts ist vor allem durch Norbert Wiener die Kybernetik
entstanden, welche mittels Rückkopplungs- und Kontrollmechanismen nicht nur
die Entwicklung komplizierter Maschinen ermöglichte, sondern auch die
Untersuchung von zu Maschinen isomorphen Strukturen in Organismen (Sachsse
1971). In der Kybernetik werden Regelkreise untersucht, in denen Abweichungen
von einem Sollwert (also eines Zielzustandes) durch Rückkopplungsmechanismen
beseitigt werden.
In neuerer Zeit hat sich vor allem Chauvet (1995) mit dem Problem der
Teleonomie beschäftigt. Teleonome Prozesse, die innerhalb eines Organismus
ablaufen mit dem Ziel, den Gesamtorganismus zu erhalten, werden auch als
funktionelle Prozesse bezeichnet. Chauvet vermutet, dass funktionelle
87
Interaktionen beschreibbar seien in der Attraktor-Sprache der Chaostheorie als
gerichtete Abläufe von den sogenannten Quellen zu den Senken. Auf ähnliche
Weise hat Arendes (a) vorgeschlagen, teleonomische bzw. funktionelle Prozesse
zu beschreiben auf der Ebene der Naturkonstanten oder Parameter von
nichtlinearen Differentialgleichungen. Er nimmt an, dass eine zukünftige
biophysikalische Theorie aus zwei Stufen bestehen wird: Die teleonomische
Einstellung der Parameter zur Festlegung von Attraktoren als Zielzustände und die
übliche mechanistische Bewegung der Objekte zu den Attraktoren.
2.11 Zufall
In der QM erhält man als Lösung der Schrödinger-Gleichung die Zustandsfunktion
2
Ψ , welche sich schreiben lässt in der Form Ψ = ∑ ck uk , wobei c ein Maß für
k
k
die Wahrscheinlichkeit ist, das Objekt im Eigenzustand uk vorzufinden. Es war vor
allem Albert Einstein, der sich nicht damit abfinden konnte, dass es in der Natur
echte Zufallsprozesse, Vorgänge ohne vollständige kausale Verursachung, geben
soll. Kann ein Objekt nach links oder nach rechts springen, ohne dass es dafür
jeweils eine Ursache gibt? Man kann es geradezu als ein Ziel der
naturwissenschaftlichen Forschung betrachten, im scheinbaren zufälligen Chaos
der beobachtbaren Phänomene systematisch wirkende Ursachen zu finden. Bis zur
Entdeckung der QM hatte sich die Naturwissenschaft bewusst oder unbewusst
immer leiten lassen vom Satz vom zureichenden Grunde, wonach nichts ohne
Grund passiere.
Steht man auf dem Standpunkt, dass alle Vorgänge der Welt streng deterministisch
nach Naturgesetzen ablaufen, dann steht man jedoch einem großen
erkenntnistheoretischen Problem gegenüber, welches sich aus dem alten
philosophischen Problem der Willensfreiheit ergibt. Beim Problem der
Willensfreiheit fragt man, auf welche Weise unsere Wünsche und Gedanken
entstehen. Menschen möchten gern tuen, was sie wollen, aber können sie auch
wollen, was sie wollen? Wie entsteht ein Wunsch oder ein Gedanke, ist dieser
Vorgang durch Hirnprozesse vollständig determiniert? Um die Relevanz dieser
Problematik für die Wahrheitsdiskussion zu verdeutlichen, soll einmal
angenommen werden, die Welt wäre im Sinne der Newtonschen Physik deterministisch und in der Vergangenheit sei das Universum durch einen Urknall
entstanden. In der klassischen Physik war (so glaubte man) durch Ort und Impuls
aller Teilchen die zukünftige Entwicklung des Universums eindeutig festgelegt.
Die Konstellation aller Teilchenorte und -impulse nach dem Urknall legte somit
bereits fest, dass Menschen entstehen würden mit Gehirnen mit bestimmten Ideen
und Theorien. Nimmt man an, dass Gedanken vollständig vom Gehirn bestimmt
88
werden, so würden unsere Wissenschaftler nicht deshalb an die Wahrheit ihrer
Theorien glauben, weil sie dafür gute Gründe hätten, sondern weil die
Teilchenkonstellation nach dem Urknall sie dazu determinierte (vgl. Popper 1995).
Die Theorien könnten zufällig wahr sein, sie könnten aber auch falsch sein. In
jedem Falle würden die Wissenschaftler an deren Wahrheit glauben, wenn die
Teilchenkonstellation ihrer Gehirne sie dazu verdammen würde. Ob sie an
bestimmte Theorien glauben, würde von Naturgesetzen und nicht von Argumenten
abhängen – dasselbe würde für die Argumentation für oder wider die
Willensfreiheit gelten.
Nun glauben heute die meisten Physiker nicht mehr an den klassischen
Determinismus, und die quantenmechanischen Wahrscheinlichkeiten werden von
manchen Physikern (z.B. von Jordan 1938) als Argument für die Willensfreiheit
angeführt. Deutet man im Sinne dieser Physiker die quantenmechanischen
Wahrscheinlichkeiten als Zufallsprozesse, dann ist aber trotzdem unser Problem
der Begründungsfähigkeit von Theorien noch nicht unbedingt gelöst. Denn nach
dieser Sichtweise würden Wissenschaftler eine Theorie annehmen oder ablehnen,
weil sich die Hirnteilchen zufällig in die eine oder in die andere Richtung
bewegten, und dies wäre völlig unabhängig vom tatsächlichen Wahrheitswert. Die
richtige Deutung der QM ist heute noch umstritten, und die Willensfreiheit lässt
sich vielleicht niemals wirklich begründen, weil vielleicht immer entgegengehalten
werden kann, unser Glaube an derartige Argumente könnte determiniert sein. Was
man jedoch von der Wissenschaft verlangen kann, ist, dass sie zumindest
selbstkonsistent ist. Behaupten Wissenschaftler die (partielle) Wahrheit von
Theorien, so sollte wenigstens die prinzipielle Möglichkeit einer Wahrheitsbegründung gegeben sein. Das Postulat der Willensfreiheit (in der Form der
Begründungsfähigkeit) ist somit eine Grundlage für wissenschaftliche
Untersuchungen mit dem Anspruch auf Wahrheitsfindung, und die aufgestellten
Theorien dürfen dieses Postulat nicht verletzen. Die Newtonsche Physik entzog
den Wissenschaftlern die Grundlage für eine glaubwürdige Wahrheitsbegründung
(im Fall, dass der Verstand völlig vom Gehirn abhängt); die Zufallsinterpretation
der QM ermöglicht hier vielleicht einen Ausweg. Es mag sein, dass die Fähigkeit
zur Wahrheitsbegründung bereits gegeben sein kann bei einer geschickten
Mischung von Zufall und Notwendigkeit: zufällige Variation der Gedanken und
notwendige Selektion der richtigen. Der Glaube daran könnte jedoch wieder
determiniert sein. Nach der heutigen Evolutionstheorie und der darauf aufbauenden
Evolutionären Erkenntnistheorie (Vollmer 1983) sind unsere Erkenntnisformen im
Wechsel von Zufall und Notwendigkeit entstanden: zufällige evolutionäre
Variation der Denkstrukturen und notwendige Auswahl der (teilweise) richtigen
durch die Umwelt. Und in der Hirnforschung hofft Edelman, seine
Wahrnehmungstheorie des neuronalen Darwinismus (Variation und Selektion von
Neuronengruppen) auf das Denken erweitern zu können (Edelman 1989, 1993).
89
3. Globale Beschreibung der Weltauffassung
Nachdem in den vorangegangenen elf Abschnitten die Grundbegriffe der heutigen
naturwissenschaftlichen Theorien ausführlich erläutert worden sind, kann ich nun
eine allgemeine Beschreibung der wissenschaftlichen Weltauffassung geben, wie
ich sie hier vorschlage:
Die Welt besteht aus einer allgegenwärtigen, unbeobachtbaren Grundsubstanz;
einem Äther, einem Urmateriefeld oder einer prima materia. In dieser Grundsubstanz sind die Naturgesetze als Informationen implementiert, welche die
Entstehung von beobachtbaren Phänomenen und deren Bewegungsformen steuern.
In Vorgängen der Emergenz entstehen aus dem Äther die beobachtbare Materie,
die Raumzeit, Bewusstsein und andere Phänomene. Aus dem Äther, oder wie man
zur Zeit in der Physik sagt aus dem Vakuum, ist vor mehreren Milliarden Jahren in
einem Urknall die beobachtbare Materie entstanden, das Universum dehnt sich
seitdem beständig aus und die zunächst fast vollständig homogene oder chaotische
Verteilung der sogenannten Elementarteilchen hat sich im Laufe der Zeit in einem
Prozess der Selbstorganisation zusammengelagert zu immer komplexeren
Systemen, die einer ständigen Evolution unterliegen: zu Atomen, Molekülen,
Organismen, Gesellschaften, Gesellschaftssystemen. Obwohl alle diese Objekte
aus mehreren Teilobjekten bestehen, sind sie in der Lage, als zusammengehörende
Einheiten zu wirken. Die Abgrenzung von zusammengehörenden Einheiten
gegenüber der Umwelt ist jedoch oft nicht vollständig; so können einzelne
Einheiten selbst wieder Teile von übergeordneten Gesamtsystemen sein. Die
Organe eines Körpers (Magen, Herz, Hirn etc.) bilden zwar voneinander getrennte
Gesamtkomplexe, sind aber dennoch Teile des gesamten Lebewesens. Tatsächlich
besitzen viele der im Laufe der Selbstorganisation entstandenen Objekte eine sehr
komplexe Schachtelungsstruktur. Schachtelung bedeutet, dass mehrere
Komponenten sich zu einem System zusammenlagern, mehrere derartige Systeme
bilden wiederum zusammen ein noch größeres System, viele solcher Systeme
wiederum ein übergeordnetes Gesamtsystem etc. Dieser Schachtelung der realen
Objekte entspricht auf der Ebene der Naturgesetze, die diese Objekte steuern, eine
hierarchische Struktur, die als Schichtung bezeichnet wird. Die untersten Schichten
werden gebildet von den Bewegungsgesetzen der einfachsten Objekte wie der
leblosen Materie, darüber liegt die Schicht der biologischen Gesetze, darüber die
der Psychologie, der Soziologie und der Wissenschaft von den Staatengemeinschaften. Leblose Materie wird von den Gesetzen der Physik und Chemie
gesteuert; sind aber beispielsweise Ionen Teile eines Körpers, so werden ihre
physikalischen Gesetze den Gesetzen der Biologie angepasst; Menschen sind Teile
einer Gesellschaft und ihr psychologisches Verhalten wird von sozialen Gesetzen
90
mitbestimmt. Die Konzeption einer Schichtung der Naturgesetze besagt somit,
dass die schichthöheren Naturgesetze die genaue Ausgestaltung der niederen
bestimmen. Dies bezeichnet man auch als Abwärtskausalität; die höhere
Systemebene beeinflusst das Verhalten der niederen. Bei Mikroobjekten
(Elementarteilchen) oder Aggregaten mit geringer Teilchenanzahl scheinen
Zufallsprozesse eine wichtige Rolle zu spielen, wohingegen das Verhalten von
Makroobjekten, die sich aus sehr vielen Bestandteilen zusammensetzen, dem
Kausalitätsprinzip unterliegt, wobei sich allerdings das Zufallsverhalten von
Mikroobjekten in bestimmten Situationen auch auf das Verhalten der
Makroprozesse übertragen kann. Das Kausalitätsprinzip besagt, dass Bewegungsänderungen eines Objektes durch äußere Ursachen hervorgerufen werden, und bei
komplexeren Systemen wie den Prozessen innerhalb eines Organismus oder des
gesamten Lebewesens sind die Bewegungsabläufe zumeist auch teleonom, d.h.
zielgerichtet.
Literaturverzeichnis
Arendes, L. (1992): Gibt die Physik Wissen über die Natur? Das Realismusproblem in der Quantenmechanik. Königshausen & Neumann, Würzburg.
Arendes, L. (1996): ‚Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems‘. Philosophia Naturalis 33: 55-81.
Arendes, L. (a): Das Computer-Weltbild. Funktionen der Naturphilosophie in der
Naturwissenschaft.
Arendes, L. (b): Die wissenschaftliche Weltauffassung. Wissenschaftliche Naturphilosophie.
Bell, J. (1964): ‚On the Einstein Podolsky Rosen Paradox‘. Physics 1: 195-200.
Bertalanffy, L. von (1968): General System Theory. Foundations, Development,
Applications. George Braziller, New York.
Bohm, D., Hiley, B. J. (1993): The undivided universe. An ontological interpretation of quantum theory. Routledge, London.
Bunge, M. (1967): Scientific Research. Vol. I, II. Springer, Berlin.
Chauvet, G. (1995): La vie dans la matière. Le rôle de l´espace en biologie. NBS,
Flammarion.
Dosch, H. G. (Hrsg.) (1995): Teilchen, Felder und Symmetrien. 2. Aufl., Spektrum
Akadem. Verlag, Heidelberg.
Edelman, G. M. (1989): The Remembered Present. A Biological Theory of
Consciousness. Basic Books, Inc., New York.
Edelman, G. M. (1993): Unser Gehirn – ein dynamisches System. Die Theorie des
91
neuronalen Darwinismus und die biologischen Grundlagen der
Wahrnehmung. Piper, München.
Eigen, M. (1971): ‚Self-organization of matter and the evolution of biological
macromolecules‘. Naturwiss. 58: 465-523.
Einstein, A. (1920): ‚Äther und Relativitäts-Theorie‘. In: A. Einstein (1986): Ausgewählte Texte. Herausgegeben von H. C. Meiser. Goldmann, München, 180198.
Engels, E.-M. (1982): Die Teleologie des Lebendigen. Duncker & Humblot,
Berlin.
Finkelstein, D. (1991): ‚Theory of Vacuum‘. In: S. Saunders, H. R. Brown (Hrsg.):
The Philosophy of Vacuum. Clarendon Press, Oxford, 251-274.
Genz, H., Decker, R. (1991): Symmetrie und Symmetriebrechung in der Physik.
Vieweg, Braunschweig.
Glansdorff, P., Prigogine, I. (1971): Thermodynamic Theory of Structure, Stability
and Fluctuations. Wiley-Interscience, New York.
Gould, S. J. (2002): The Structure of Evolutionary Theory. Harvard Univ. Press,
Cambridge (Mass.)
Greiner, W., Wolschin, G. (1994): ‚Einführung‘. In: W. Greiner & G. Wolschin
(Hrsg.): Elementare Materie, Vakuum und Felder. 2. Aufl., Spektrum
Akadem. Verlag, Heidelberg, 7-17.
Haken, H. (1982): Synergetik. Eine Einführung. Springer, Berlin.
Haken, H., Wunderlin, A. (1991): Die Selbststrukturierung der Materie. Synergetik in der unbelebten Welt. Vieweg, Braunschweig.
Hartmann, N. (1951): Teleologisches Denken. De Gruyter, Berlin.
Heim, B. (1983): Elementarstrukturen der Materie: Einheitliche strukturelle
Quantenfeldtheorie der Materie und Gravitation. Bd. 2. Innsbruck.
Heim, B. (1989): Elementarstrukturen der Materie: Einheitliche strukturelle
Quantenfeldtheorie der Materie und Gravitation. Bd. 1. 2. veränd. Aufl.,
Innsbruck.
Heisenberg, W. (1990): Physik und Philosophie. 5. Aufl., Hirzel, Stuttgart.
Jantsch, E. (1992). Die Selbstorganisation des Universums. Vom Urknall zum
menschlichen Geist. Hanser, München.
Jordan, P. (1938): ‚Die Verstärkertheorie der Organismen in ihrem gegenwärtigen
Stand‘. Naturwiss. 26: 537-545.
Kanitscheider, B. (1979): Philosophie und moderne Physik. Systeme · Strukturen ·
Synthesen. Wiss. Buchges. Darmstadt.
Kimura, M. (1988): 'Die „neutrale“ Theorie der molekularen Evolution'. In
Spektrum der Wissenschaft: Evolution: Die Entwicklung von den ersten
Lebensspuren bis zum Menschen. Heidelberg, 100-108.
Krohs, U., Toepfer, G. (Hrsg.) (2005): Philosophie der Biologie. Eine Einführung.
Suhrkamp, Frankfurt a. M.
Mayr, E. (1991): Eine neue Philosophie der Biologie. Piper, München.
92
Popper, K. (1995): Objektive Erkenntnis: Ein evolutionärer Entwurf. 3. Aufl.,
Hoffmann und Campe, Hamburg.
Rafelski, J., Müller, B. (1985): Die Struktur des Vakuums. Ein Dialog über das
Nichts. Harri Deutsch, Frankfurt a. M.
Sachsse, H. (1971): Einführung in die Kybernetik. Vieweg, Braunschweig.
Saunders, S., Brown, H. R. (Hrsg..) (1991a): The Philosophy of Vacuum. Clarendon Press, Oxford.
Saunders, S., Brown, H. R. (1991b): ‚Reflections on Ether‘. In: S. Saunders, H. R.
Brown, (Hrsg.): The Philosophy of Vacuum. Clarendon Press, Oxford, 27-64.
Schmutzer, E. (1996): ‚Die fünfte Dimension‘. In: W. Neuser, K. Neuser-vonOettingen (Hrsg.): Quantenphilosophie. Spektrum Akadem. Verlag, Heidelberg, 168-175.
Vollmer, G. (1983): Evolutionäre Erkenntnistheorie. 3. Aufl., Hirzel, Stuttgart.
Wigner, E. P. (1967): Symmetries and Reflections. Bloomington.
93
Veröffentlicht in Philosophia Naturalis 33: 55-81, 1996
Ansätze zur physikalischen Untersuchung
des Leib-Seele-Problems
Zusammenfassung
Auf der Grundlage der physikalischen Naturbeschreibung durch die Quantenmechanik, Relativitätstheorie und Thermodynamik werden Vorschläge ausgearbeitet zur experimentellen und
theoretischen Untersuchung des Leib-Seele-Problems (LSP). Beim LSP werden ein Kognitionsund ein Bewusstseinsproblem unterschieden. Es wird der Ansatz gemacht, dass das visuelle
Bewusstsein ein Feld ist in Analogie zum metrischen Feld der Allgemeinen Relativitätstheorie.
Die informationsverarbeitenden unbewussten Kognitionen sollten einerseits durch Modelle der
neuronalen Netzwerke erfasst werden, andererseits könnten einige Prozesse zusätzlich im
Quantenvakuum ablaufen.
1. Einleitung
Das Leib-Seele-Problem (LSP) ist ein fachbereichsübergreifender Forschungsgegenstand, bei dem versucht wird, Psychologie und Physiologie miteinander zu
verbinden. Es wird gefragt, wo und wie psychische Prozesse im Gehirn verankert
sind. Die gegenseitige Durchdringung von Physiologie und Psychologie hat in den
letzten Jahren gute Fortschritte gemacht. Auffallend ist allerdings, dass das heutige
Wissen über die physikalischen Grundstrukturen der Welt in der Hirnforschung
kaum berücksichtigt wird. Dies ist auch nicht verwunderlich, da hierfür die
Erkenntnisse eines dritten Fachbereiches benötigt werden, und die Physik hat in
diesem Jahrhundert mehrere Revolutionen erlebt, wobei die heute grundlegenden
Theorien, Relativitätstheorie (RT), Quantenmechanik (QM) und Thermodynamik
(TD), selbst den Physikern große Verständnisprobleme bereiten. In der
Hirnforschung sind zwar einige Physiker tätig, ihre theoretischen Arbeiten basieren
jedoch (von wenigen Ausnahmen abgesehen) ebenso wie die ihrer Kollegen aus
der Biologie, Medizin und Psychologie auf der mechanistisch-demokritschen
Weltauffassung. Gemäß dieser Sichtweise, die durch die Physik vor der
Entstehung von Relativitätstheorie und Quantenmechanik bestimmt ist, setzt sich
die Welt aus kleinsten Bestandteilen zusammen, welche in ihren Eigenschaften
94
und ihrer substantiellen Existenz vom Beobachter unabhängig sind, und aus den
zwischen ihnen wirkenden Kräften. Sämtliche Objekte, einschließlich aller
Lebewesen, setzen sich nach dieser Sichtweise bausteinartig aus diesen kleinsten
Teilchen zusammen. Danach reicht es zur Erklärung der Hirnprozesse aus, die
Bestandteile des Gehirns und deren Wechselwirkungen zu kennen. Je nach
Abstraktionsebene wählen Forscher entweder Ionen und Proteine oder Neuronen
oder Hirnkerne als die grundlegenden zu untersuchenden Bausteine, um über deren
Zusammenarbeit die Hirnfunktionen zu erklären.
In den letzten Jahren haben einige Forscher begonnen, neuere physikalische
Theorien, vor allem die Quantenmechanik, bei der Erklärung von Hirnfunktionen
zu berücksichtigen (Eccles, 1994; Penrose, 1989, 1994; Stapp, 1993). In der
vorliegenden Arbeit soll versucht werden, auf der Basis der drei grundlegenden
physikalischen Theorien (RT, QM, TD) Forschungsparadigmen zu entwickeln, die
für die Konstruktion von Theorien und für experimentelle Untersuchungen des
LSP nützlich sein können (Greiner, 1987; Landau/Lifschitz, 1984; Reif, 1987). Die
Theorien der Physik dienen hauptsächlich dazu, Veränderungen (meistens
Teilchenbewegungen) dynamisch zu erklären; das heisst, sie aus wenigen
allgemeinen Prinzipien ableiten zu können. Dabei beschränkt man sich darauf, nur
diejenigen Aspekte des betreffenden Phänomens zu berücksichtigen, die für die
Erklärung für wesentlich gehalten werden. In der Hirnforschung werden
hauptsächlich die Gehirne von Tieren (Affen, Katzen, Ratten usw.) untersucht,
wenngleich immer mehr Techniken für die Untersuchung menschlicher Gehirne
entwickelt werden. Bei der Untersuchung von Bewusstsein wird hierbei die
Arbeitshypothese gemacht, dass auch Säugetiere Formen von Bewusstsein haben.
Diese Annahme kann dadurch plausibel gemacht werden, dass man weiß, dass das
menschliche Bewusstsein eine sehr enge Beziehung zum Gehirn hat, und dass die
Hirnstruktur der Säugetiere sehr ähnlich ist der Hirnstruktur des Menschen (was
natürlich auch ein Problem ist angesichts der unterschiedlichen kognitiven
Leistungen). Ob die zukünftige Forschung dazu Anlass geben wird, diese
Arbeitshypothese aufzugeben, bleibt abzuwarten.
2. Charakterisierung des Leib-Seele-Problems
Zur Zeit gibt es in der Psychologie keine allgemein akzeptierten Definitionen für
„Bewusstsein“, „Geist“ oder „Seele“. Welche Explikationen brauchbar sind,
erweist sich in der wissenschaftlichen Forschung meist erst dadurch, dass die das
betreffende Phänomen erklärenden Theorien, welche ihre Grundbegriffe explizit
oder implizit definieren, sich im experimentellen Test als erfolgreich erweisen. Da
95
es derartige Theorien für das LSP noch nicht gibt, sollen die in dieser Arbeit
verwendeten Begriffe nur grob charakterisiert werden. Eine solche
Charakterisierung der Grundbegriffe wird natürlich beeinflusst von der
philosophischen Grundeinstellung des Autors zum LSP. Verschiedene
Philosophien führen zu verschiedenen Charakterisierungen der Grundbegriffe, was
verschiedene wissenschaftliche Forschungsparadigmen zur Folge hat. Welches
Forschungsparadigma das richtige ist und somit welche Philosophie die richtige
ist, lässt sich nicht im Voraus bestimmen. Deshalb ist es in der Wissenschaft
immer sinnvoll, mehrere Paradigmen zu verfolgen, um bei irgend einem
Paradigma zum Erfolg zu kommen. Es soll nun hier angenommen werden, dass
Leib und Seele keine unabhängig existierenden Substanzen sind.
Das LSP lässt sich in zwei Hauptprobleme unterteilen, die als das „Kognitionsproblem“ und als das „Bewusstseinsproblem“ bezeichnet werden sollen. Mit dem
Kognitionsproblem ist Folgendes gemeint: Das Gehirn bekommt von den
Sinnesorganen Informationen über äußere Reize, verarbeitet diese Informationen
und steuert die Muskelbewegungen, um auf die Reize adäquat reagieren zu
können. Zwischen Reizaufnahme und Reaktion liegen informationsverarbeitende
Prozesse, Kognitionen. Von welcher Art sind diese Prozesse? Sind sie im Gehirn
repräsentiert und wie? Kognitive Prozesse müssen nicht notwendigerweise bewusst
sein, denn Computer und Roboter verarbeiten ebenfalls Informationen, ohne dass
sie Bewusstsein haben. Im täglichen Leben kann man gelegentlich
Handlungsweisen beobachten, die unbewusst vonstatten gehen. Spricht man z.B
einen Schlafenden an, so reagiert er manchmal, indem er sich im Bett umdreht,
ohne dass man den Eindruck hat, dass er sich dessen bewusst ist. Schlafwandeln ist
ein anderes Beispiel. Dieses Phänomen der unbewussten Informationsverarbeitung
tritt jedoch viel häufiger auf, als man annimmt (eben weil die unbewussten
Vorgänge uns nicht bewusst werden). Unterhält man sich mit jemand, so kann es
vorkommen, dass man nicht sofort das richtige Wort findet um zu sagen, was man
meint; insbesondere wenn man in einer Fremdsprache spricht. Man zögert dann
eine Weile, ist vielleicht innerlich unruhig - und plötzlich fällt einem das Wort ein.
Von den Prozessen, die ablaufen, bis endlich das Wort gefunden ist, erleben wir
nur sehr wenig. Wir erleben nicht bewusst, ob es irgend welche
Gedächtnisspeicher gibt, die strategisch abgesucht werden, bis man das passende
Wort gefunden hat. Es ist, als ob uns immer nur die Ergebnisse oder
Zwischenergebnisse von Informationsverarbeitungen bewusst werden, nicht jedoch
die Berechnungen selbst (Crick, 1994; Jackendoff, 1987). Das Kognitionsproblem
ist also nicht identisch mit dem Bewusstseinsproblem.
Was meinen wir, wenn wir von Bewusstsein sprechen? Es ist derjenige Zustand,
der eintritt, wenn wir aus dem Schlaf erwachen oder aus einer Ohnmacht kommen.
96
Das Bewusstsein ist ein so komplexes Phänomen, dass es nützlich ist, die
Problematik für die gerade beginnende wissenschaftliche Erforschung
einzugrenzen. Es ist deshalb nützlich, die Untersuchungen zunächst auf das
visuelle Bewusstsein zu begrenzen. Damit ist Folgendes gemeint: Bestrahlt man
eine weiße Wand mit Licht der Wellenlänge 590 nm, so sieht man eine gelbe
Wand. Das psychische Erleben von „Gelb“ ist aber keine elektromagnetische
Welle mit der Wellenlänge 590 nm. Es ist eine psychische Qualität, die von
unserem Erkenntnisapparat hervorgebracht wird, wenn Licht der Wellenlänge 590
nm auf unser Auge fällt. Dass der Farbeindruck nicht identisch ist mit einer
elektromagnetischen Welle, wird auch dadurch deutlich, dass der gleiche
Farbeindruck durch unterschiedliche Wellenlängen hervorgebracht werden kann.
So kann eine gelbe Farbe erlebt werden, wenn eine weiße Wand gleichzeitig mit
Licht der Wellenlängen 640 und 540 nm bestrahlt wird. Bestrahlt man hingegen
die Wand nur mit Licht der Wellenlänge 640 nm oder nur mit Wellen der Länge
540 nm, so sieht man im ersten Fall eine rote Wand, im zweiten Fall eine grüne.
Unsere psychischen Farbqualitäten sind komplizierte Funktionen der betreffenden
Wellenlängen; sie werden von der Wahrnehmungspsychologie untersucht
(Murch/Woodworth, 1977; von Campenhausen, 1981). Das Erleben einer Farbqualität ist Bestandteil des visuellen Bewusstseins.
Ebenso sind Töne nicht Druckwellen, sondern psychische Qualitäten, die von
unserem Erkenntnisapparat hervorgebracht werden, wenn Druckwellen auf unsere
Ohren treffen. Das Erleben dieser Qualitäten wird als akustisches Bewusstsein bezeichnet. Analog entstehen bewusste Wahrnehmungsqualitäten, wenn die
adäquaten Reize auf die anderen Sinnesorgane fallen (Geschmacks-, Geruchs-,
Tastqualitäten usw.). Ein bewusster Erlebnisakt ist ein System dieser
verschiedenen Wahrnehmungsqualitäten. Könnte man die Entstehung einer
einzelnen Erlebnisqualität (z.B. die der Farben) wissenschaftlich erklären, so wäre
für die wissenschaftliche Erforschung des LSP bereits viel gewonnen. Das
philosophisch Interessante an diesem Problem würde man dann vermutlich bereits
kennen, da man sich die anderen Qualitäten durch analoge Mechanismen plausibel
machen könnte. Die Zusammensetzung der einzelnen Qualitäten zu einem
integrierten Wahrnehmungsakt wäre dadurch zwar noch nicht verstanden, dies
würde aber auf dem Weg zu einem naturwissenschaftlichen Weltbild, welches das
Bewusstsein als Teil der Natur enthielte, keine prinzipiellen Schwierigkeiten
darstellen.
Das Bewusstseinsproblem lässt sich nicht ganz vom Kognitionsproblem trennen.
Beim Anblick der Sonne erlebt man in der visuellen Wahrnehmung eine gelbe
Scheibe, diese wird aber nicht einfach als eine „gelbe Scheibe“ erlebt, sondern als
„Sonne“ gedeutet. Diese erlebte Deutung ist eine Bewusstseinsqualität, die unwill97
kürlich von unserem kognitiven Apparat hervorgerufen wird. In unserem Bewusstsein erleben wir also nicht nur psychische Wahrnehmungsqualitäten, sondern meist
gleichzeitig und unwillkürlich ihre Deutung in Bezug auf eine reale Außenwelt.
Geht man durch die Straßen einer Stadt, so sind uns unmittelbar nur unsere
psychischen Wahrnehmungsqualitäten (Farben, Töne, Gerüche...) gegeben, diese
werden aber im Augenblick ihrer Entstehung gedeutet als Häuser, Autos, Bäume
usw. Ob unseren Wahrnehmungsqualitäten Strukturen einer realen Welt außerhalb
des Subjektes entsprechen, ist ein altes philosophisches Problem, das wegen
einiger Interpretationsprobleme der Quantenmechanik wieder viel diskutiert wird
(Arendes, 1992). In dieser Arbeit soll als Arbeitshypothese davon ausgegangen
werden, dass unsere Wahrnehmungsphänomene zumindest teilweise realen
Objekten korrespondieren. Ferner soll angenommen werden, dass
wissenschaftliche Theorien die Realität genauer wiedergeben als unsere
biologische Wahrnehmungserkenntnis. Damit stellt sich das Bewusstseinsproblem
für den visuellen Bereich folgendermaßen: In welcher Beziehung stehen die
visuellen Wahrnehmungsqualitäten zum Gehirn, welches aus Materie besteht,
deren Eigenschaften durch die physikalischen Theorien (v.a. QM, RT, TD)
beschrieben werden?
In der mathematischen Physik spricht man von einem Feld, wenn jedem Punkt des
Raumes oder eines Teilraumes der Wert mindestens einer Größe zugeordnet ist.
Beobachtet man introspektiv in seinem Bewusstsein die visuellen Qualitäten, so
sieht man, dass jeder Punkt des Raumes einen Farbton besitzt oder potentiell dazu
in der Lage ist. Das visuelle Bewusstsein ist also mathematisch ein Feld. Deshalb
wird im Folgenden das visuelle Bewusstsein auch als phänomenologisches,
visuelles Wahrnehmungsfeld und der dadurch erlebte Raum als phänomenologischer Raum bezeichnet. Das visuelle Wahrnehmungsfeld ist das, was man im
alltäglichen Leben naiv für den dreidimensionalen Außenraum mit seinen
Objekten hält; dieser ist aber nur dessen psychische Repräsentation. Dieser erlebte
dreidimensionale Raum wird aufgespannt durch farbige Objekte mit dem eigenen
Körper im Vordergrund (s. Abb. 1). Zweifelhaft erscheint das Feldkonzept
zunächst bei den anderen Bewusstseinsqualitäten: Klang, Geschmack, Geruch usw.
Aber auch die Geräusche werden bestimmten Punkten des visuellen
Wahrnehmungsraumes, den sie verursachenden „Objekten“, zugeordnet: Sie
werden im visuellen phänomenologischen Raum lokalisiert erlebt. Analog wird der
eigene Leib als kontinuierliches Feld erlebt, und die Qualitäten der Tast- und
Druckwahrnehmung werden in diesem Leibesfeld lokalisiert. Dieses Leibesfeld
wird in der realistischen Deutung als das eigene „Selbst“ erlebt, das dadurch
gegenüber den anderen Phänomenen eine besondere Bedeutung hat.[1]
98
Abb. 1: Diese Abbildung zeigt, was ein bärtiger, auf einem Sofa liegender Mann einäugig in
seinem visuellen Bewusstsein erleben kann (von Campenhausen, 1981, S. 320; nach Mach,
1903).
Es soll noch einmal hervorgehoben werden, dass der phänomenologische Raum
und die darin erlebten Objekte nicht identisch mit dem Raum und den Objekten der
äußeren Realität sind: Das innere Erlebnis „grüner Baum“ bedeutet nicht, dass in
der Außenwelt in einiger Entfernung die psychische Qualität „Grün“ existiert. Die
Qualität „Grün“ liegt in unserer Psyche und wird nach außen hin projiziert erlebt.
(Es ergibt sich hier folgendes Paradox: In unserem psychischen Wahrnehmungsfeld erscheint der uns umgebende Raum viel größer als unser Kopf oder der Kopf
einer beobachteten Person; und doch soll all dies in unserem kleinen Gehirn
stecken?) Dass das Wahrnehmungserlebnis „äußerer Raum“ unsere eigene Psyche
ist, kann man sich schnell klar machen, indem man mit dem Finger seitlich leicht
auf einen Augapfel drückt: Dies führt zur Verdopplung des Raumes (bzw. der
darin enthaltenen Objekte)! Dass und ob diesem psychischen Raum etwas Reales
zugeordnet ist, wird in einer anderen Arbeit ausführlich diskutiert (Arendes, 1992).
Die Bewusstseinsqualitäten der Wahrnehmung sind zu unterscheiden vom
bewussten abstrakten Denken und vom reflexiven Selbstbewusstsein, bei dem der
Mensch mittels der Sprache über sich selbst nachdenkt. Diese Bewusstseinsformen
werden in dieser Arbeit nicht behandelt. Die bewusste Erlebnisqualität des
abstrakten Denkens ist jedoch nicht so unterschiedlich von den bisher besprochenen Qualitäten, wie man annehmen könnte. Abstraktes Denken kann als ein
inneres Sprechen aufgefasst werden, welches in der akustischen Modalität erlebt
wird. Die Qualitäten des bewussten Denkens haben also Ähnlichkeiten mit den
Qualitäten der Sprachwahrnehmung; allerdings wird der Ort dieser Qualitäten
nicht in eine Außenwelt projiziert, sondern in den Kopf.
99
3. Das Bindungsproblem
Sollte das Bewusstsein im Gehirn sein, so müsste es möglich sein, das
phänomenologische visuelle Feld abzubilden auf den realen Raum, den das Gehirn
mit seinen Zellen einnimmt. Aus physiologischer Sicht erscheint das zunächst eher
unplausibel, glaubt man doch zu wissen, dass die verschiedenen
Objekteigenschaften in verschiedenen Cortexarealen abgebildet werden,
wohingegen in unserem bewussten visuellen Wahrnehmungsfeld ein sich
bewegendes grünes, kantiges Objekt am selben Ort und zur selben Zeit „grün“,
„kantig“ und „bewegt“ erscheint. In der Literatur wird dies unter dem Stichwort
„Bindungsproblem“ diskutiert. Als Auflösung des Rätsels wird gern angeführt,
dass diejenigen Zellen, die verschiedene Eigenschaften desselben Objektes
repräsentieren, synchron feuern (Milner, 1974; von der Malsburg, 1981, 1983;
Gray/Singer, 1989; Eckhorn/Bauer/Jordan/Brosch/Kruse/Munk/Reitboeck, 1988;
Crick/Koch, 1990; Crick, 1994). Synchrones Feuern mag bei der
Informationsverarbeitung tatsächlich eine wichtige Rolle spielen, es löst das
Bindungsproblem aber noch nicht: „Grün“, „kantig“ und „bewegt“ sind im
Bewusstsein nicht nur zur selben Zeit präsent, sondern auch am selben Ort; es
kommt hinzu, dass diese Synchronizitäten auch bei anästhesierten Tieren auftreten,
wir aber doch das Bewusstsein erforschen wollen. Synchronizität mag für das
bewusste Erleben von Objekten notwendig sein, hinreichend ist sie sicher nicht.
Was meinen wir, wenn wir sagen, dass verschiedene Objekteigenschaften in verschiedenen Cortexarealen repräsentiert sind? Damit ist gemeint, dass die beobachteten Aktionspotentiale in verschiedenen Arealen auf verschiedene Objekteigenschaften ansprechen. Aber sind Aktionspotentiale ein gutes Indiz für die im Areal
repräsentierten Eigenschaften? Aktionspotentiale laufen vom Soma dem Axon
entlang in ein anderes Gebiet. Sie sind deshalb (von Interneuronen abgesehen) die
Informationsausgabe eines Areals. Ist aber die Informationsausgabe ein
unmittelbares Indiz für die in einem System ablaufenden Prozesse? Vielfach wird
angenommen, die Funktion des Bewusstseins sei es, Handlungen zu steuern,
müsste dann nicht der Informationsausgang eines Systems, welches Bewusstsein
besitzt, mit Handlungsintentionen korrelieren? Danach wäre die elektrische
Aktivität im Dendritenbaum, die von der Eingangsinformation und von inneren
Neuronenzuständen abhängt, vielleicht eher ein Korrelat des Bewusstseins. Für
diese Vermutung spricht, dass die elektrische Aktivität in den Dendriten durch
synaptische Übertragungen bewirkt wird und dass das EEG, welches bekanntlich
mit Bewusstseinszuständen korreliert, sich zu einem Großteil aus den
postsynaptischen Potentialen zusammensetzt (Niedermeyer/Lopes da Silva, 1987).
100
Dies steht auch im Einklang mit den Arbeiten von Walter Freeman und seinen
Mitarbeitern, welche die Potentialverteilung des EEG als Ausdruck mentaler
Vorgänge betrachten (Freeman/Barrie, 1994).
Sollte das Bewusstsein mit elektrischen Aktivitäten der Dendritenbäume stärker
korrelieren als mit Aktionspotentialen, so müsste man den möglichen Ort des
Bewusstseins und die Funktionen z.B. von Mittelhirn und Parietalcortex neu diskutieren. Der superiore Colliculus ist ein im Mittelhirn gelegenes Gebiet, welches
Informationen von sehr vielen Sinnesmodalitäten erhält und welches motorische
Funktionen hat. Kürzlich ist sogar gezeigt worden, dass die
Aktionspotentialfrequenzen mancher Zellen auf die Reizbedeutung ansprechen
(Arendes, 1993, 1994). Es ist bereits von mehreren Autoren vorgeschlagen
worden, das Mittelhirn oder den Hirnstamm als den Sitz des Bewusstseins
anzunehmen (Penfield/Roberts, 1959; Strehler, 1991). Der Parietalcortex ist
ebenfalls ein multisensorisches Integrationszentrum mit motorischer Funktion.
Beim Menschen führt eine großflächige Abtragung des Parietalcortex zu
Bewusstseinsaussparungen der Gegenseite. Visuelle und taktile Reize im
kontralateralen Gesichtsfeld bzw. auf der kontralateralen Körperhälfte werden
dann nicht mehr beachtet (Hyvärinen, 1982).
Man könnte auch versuchen, das Bindungsproblem auf eine ganz andere Weise zu
lösen. Die heutige Physik legt die Vermutung nahe, dass unsere Wahrnehmungserkenntnis die Realität nicht spiegelbildlich wiedergibt. Vielmehr scheint die
Information, die von der Realität in unseren Erkenntnisapparat gelangt,
transformiert zu werden in die Form unserer Wahrnehmungsobjekte. Das bedeutet,
dass die Art, wie die experimentell arbeitende Hirnforschung das Gehirn
beschreibt, nicht dem realen Gehirn entspricht. Die Allgemeine Relativitätstheorie,
die QM und die heutigen Bemühungen der Physik, die Raumzeit zu quantisieren,
lassen immer deutlicher werden, dass unsere naive Vorstellung von Raum und Zeit
falsch ist (Arendes, 1992). Die raumzeitliche Struktur des realen Gehirns ist
vielleicht derartig, dass sich das Bindungsproblem gar nicht stellt. Beim
Bindungsproblem wird also deutlich, dass Hirnforscher die heutige Physik zu
berücksichtigen haben.
4. Physikalische Naturerklärung
Die fundamentalsten Theorien der Physik sind die RT und die QM, eine Fusion
beider Theorien ist jedoch noch nicht gelungen. Eine allgemein-relativistische QM
101
wird immer noch gesucht, die speziell-relativistische QM existiert jedoch schon
seit langem. Die speziell-relativistische QM ist eine sogenannte
Quantenfeldtheorie (QFT). Die nicht-relativistische QM kann ebenfalls als eine
QFT formuliert werden (als sogenannte 2. Quantisierung); dieser Formalismus
wird jedoch seltener benutzt. Was sagt uns die QFT über die Natur? Die QFT
arbeitet mit Operatorenfeldern, die ihrerseits Funktionen von Teilchenerzeugungsund -vernichtungsoperatoren sind. Diese Operatoren verändern die zu
beobachtende Teilchenanzahl. Ein Teilchen ist danach nicht mehr wie in der
klassischen Physik unzerstörbare Ursubstanz, sondern entsteht aus dem
Vakuumzustand. Die allen Prozessen zugrundeliegende Substanz ist in der
heutigen Physik das Quantenvakuum. Teilchen kann man am besten als Anregungszustände des Vakuums betrachten. Vergleicht man das Vakuum mit einem
See, so könnte man sich die Teilchen als Wellen an der Seeoberfläche vorstellen.
Albert Einstein hat sich mit einem interessanten Problem beschäftigt, das
strukturell analog ist zum LSP. Der zentrale Teil der Allgemeinen
Relativitätstheorie
(AR)
sind
die
Einsteinschen
Feldgleichungen
, wobei die linke Seite die Struktur der Raumzeit darstellt, die
rechte Seite Massenverteilung und innere Materiespannungen. Bei diesen
Gleichungen stellt sich die Frage nach dem ontologischen Verhältnis von Materie
und Raumzeit (Kanitscheider, 1979). Manche Physiker billigen beiden eine
unabhängige Existenzweise zu, vertreten also einen ontologischen Dualismus.
Danach gibt es zwei „Substanzen“, zwischen denen jedoch eine gesetzmäßige
Beziehung besteht. Die Materie beeinflusst die Feldstruktur, und das Feld lenkt die
Materie. Andere Physiker betrachten die Raumzeit nur als sprachliches Mittel,
kausale Beziehungen zwischen materiellen Objekten auszudrücken. Einstein
versuchte umgekehrt, die Materie aus der Raumzeit abzuleiten; danach wäre die
gekrümmte Raumzeit das einzige Baumaterial der Welt. Dieses Projekt der
Konstruktion einer Geometrodynamik ist jedoch gescheitert, so dass das Verhältnis
von Raumzeit und Materie auch heute noch ungeklärt ist; es besteht eine
Korrelation, aber der Wirkungsmechanismus ist unbekannt. Weder ist es gelungen,
Materie aus der Raumzeit heraus zu erklären, noch kann man die Raumzeit aus der
Materie erklären. Nach den Einsteinschen Feldgleichungen könnte es auch eine
Raumzeit geben, wenn überhaupt keine Materie vorhanden wäre.
Aus der QFT wissen wir inzwischen, dass die Materie aus dem Vakuum entsteht.
Dies führt zu der Hypothese, dass auch die Raumzeit aus dem Vakuum entstehen
könnte, und tatsächlich versuchen die Physiker, eine quantenmechanische
Allgemeine Relativitätstheorie zu finden, wonach die Raumzeit quantisiert wäre.
Man könnte nun vermuten, dass Materie und Raumzeit Eigenschaften des
Vakuums sind und dass die Korrelation, wie sie in den Einsteinschen
102
Feldgleichungen zum Ausdruck kommt, eine Leistung der inneren Struktur des
Vakuums ist. Das Vakuum, welches definiert ist als der niedrigsterreichbare
Energiezustand, scheint eine innere Struktur zu haben, und die Physiker haben
damit begonnen, sie zu untersuchen (Rafelski/Müller, 1985; Genz, 1994).
Was können wir daraus für das LSP lernen? Das Raumzeit-Materie-Problem
demonstriert, dass eine Korrelation von zwei Phänomenbereichen nicht unbedingt
dadurch erklärt werden muss, dass der eine Bereich auf den anderen reduziert wird.
Falls das Vakuum neben Materie auch die Raumzeit hervorbringt, dann spricht
nichts dagegen, dass es noch weitere Phänomene, z.B. das Bewusstsein, generiert
und dass diese Phänomene mit Materiestrukturen korrelieren.
Die Thermodynamik (TD) behandelt Systeme, die aus sehr vielen Teilchen
bestehen. Beispiele sind Gase, Flüssigkeiten, feste Körper, elektromagnetische
Strahlung. Es hat sich gezeigt, dass viele Eigenschaften solcher Systeme sich nicht
als Summe oder Mittelwerte der Eigenschaften der Bestandteile ergeben, sondern
dass sie Eigenschaften (Zustandsgrößen) besitzen, welche einzelne Teilchen nicht
haben. Temperatur und Druck sind die bekanntesten Beispiele. Zusätzlich nimmt
die Theorie die Existenz von Potentialen an: innere Energie, Enthalpie, Entropie
usw. Die Methoden der statistischen Physik erlauben es, die zunächst rein
phänomenologisch formulierten Zustandsgrößen und Potentiale der reversiblen TD
aus den Eigenschaften der Teilchen, aus denen sich das System zusammensetzt, zu
berechnen. So gilt z.B. für ideale Gase die Gleichung
, wobei m die
Masse,
die mittlere quadratische Geschwindigkeit, k die Boltzmann-Konstante
und T die Temperatur ist. Die Temperatur ist also eine Funktion der mittleren
quadratischen Teilchengeschwindigkeit. Hervorgehoben werden soll, dass die
Temperatur nicht einfach identisch ist mit dem mittleren Geschwindigkeitsquadrat
oder mit der mittleren kinetischen Energie
. Sie ist etwas qualitativ
anderes, was dadurch zum Ausdruck kommt, dass die Gleichung zusätzlich eine
Naturkonstante enthält. Die lineare irreversible TD erklärt Bewegungen von
Teilchen oder Systemgrößen dadurch, dass es zwischen verschiedenen Raumteilen
Potentialdifferenzen gibt und dass die verallgemeinerten Kräfte, welche die
Verschiebungen bewirken, Funktionen dieser Potentialdifferenzen sind.
Eine wichtige Frage ist nun, ob die Potentiale reale Entitäten sind oder ob es sich
hierbei nur um mathematische Rechengrößen handelt, wie die Instrumentalisten für
alle physikalischen Konstrukte behaupten. In dieser Arbeit wird angenommen,
dass die Potentialfelder, ebenso wie das metrische Feld der AR, reale Entitäten
103
sind,
denn
aus
ihnen
ergeben
sich
Materiebewegungen.
(Eine
erkenntnistheoretische Diskussion der Realität physikalischer Konstrukte wird an
anderer Stelle geboten (Arendes, 1992)). Dass Potentiale nicht einfach die Summe
der Eigenschaften aller Teilchen, also nicht auf Teilcheneigenschaften reduzierbar
sind, ist besonders offensichtlich bei der Entropie: Sie ist eine Funktion der Anzahl
von Konfigurationen (Mikrozuständen), die einen Makrozustand bilden können: S
= k lnW, mit S für die Entropie, k für die Boltzmann-Konstante und W für die
Wahrscheinlichkeit des Zustandes. Das bedeutet, Potentiale sind Funktionen von
Teilchen und ihren Eigenschaften, sie sind aber nicht mit ihnen identisch.
Potentiale werden zwar von Teilcheneigenschaften bestimmt, sind aber neue
Systemeigenschaften. Physikalisch bewirken sie die Bewegungen der Teilchen.
Bei der Diskussion der Beziehung von Quantenvakuum und metrischem Feld
wurde oben gefragt, ob das Quantenvakuum weitere Eigenschaften hervorbringen
könne. Die Potentiale und Zustandsgrößen der TD sind hierzu zu zählen.
5. Ansätze zur Erklärung der Hirndynamik
Das Gehirn ist ein biochemisches System, in dem viele Prozesse nicht-linear sind.
Eine befriedigende nicht-lineare irreversible TD gibt es aber noch nicht. Bei
Prozessen fern vom lokalen thermodynamischen Gleichgewicht hat man große
Probleme, einige der Zustandsgrößen und Potentiale der linearen TD zu definieren
(z.B. Temperatur und Entropie). Außerdem scheint es, dass zu den Variablen der
reversiblen und linearen irreversiblen TD zusätzliche Variablen eingeführt werden
müssen (Reif, 1987). Da man introspektiv den Eindruck hat, dass das Bewusstsein
einen kausalen Einfluss auf unsere Körperbewegungen hat, und da auch aus
evolutionstheoretischen Gründen das Entstehen von Bewusstsein einen
Überlebensvorteil mit sich gebracht haben muss, liegt es nahe, das Bewusstsein als
ein hirnspezifisches thermodynamisches Potential aufzufassen: Ist die Hirnmaterie
in einem bestimmten neuronalen Zustand, so bringt das Quantenvakuum ein
Bewusstseinspotential hervor, welches bei Potentialdifferenzen zwischen
verschiedenen Bereichen zu verallgemeinerten Kräften führt, welche Hirnströme
bewirken. Gegen diese Hypothese spricht jedoch, dass Potentiale Skalarfelder sind
(d.h. jeder Punkt des Feldes besitzt einen einzigen Betragswert), wohingegen beim
Bewusstsein eine kompliziertere Struktur vorliegt. Erlebt man z.B. in seinem
phänomenologischen Wahrnehmungsfeld ein fahrendes Auto, so hat dieser Teil
des Feldes nicht nur Werte für den Farbeindruck (welcher bestimmt wird durch
Farbton, Sättigung und Helligkeit), sondern zusätzlich u.a. Werte für Geräusche,
Geruch und für die realistische Interpretation, ein reales Objekt, ein Auto, zu sein.
Die Felder der Elektrodynamik und der AR sind deshalb ein besserer Vergleich für
104
das Bewusstseinsfeld als die Skalarfelder der TD. Die TD ist jedoch noch keine
abgeschlossene Theorie, und es stellt sich die Frage, ob auch in einer nicht-linearen
TD kompliziertere Felder eingeführt werden müssen.
Eine bessere Hypothese ist, das Bewusstsein nicht als ein thermodynamisches
Potentialfeld aufzufassen, sondern als ein neuartiges Feld, welches mit der Struktur
der Hirnmaterie ähnlich korreliert ist wie in der AR das metrische Feld mit der
Materie. (Es ist nicht gemeint, dass das Bewusstsein strukturell ähnlich aufgebaut
sein soll wie das metrische Feld (obwohl beide Felder einen Raum aufspannen: s.
Abb. 1), sondern dass es zwischen Hirnmaterie und Bewusstsein einen ähnlichen
Korrelationsmechanismus gibt wie zwischen dem metrischen Feld und der
Materie, welcher allerdings ebenfalls unbekannt ist.) Auch nach dieser Hypothese
wird das Bewusstseinsfeld (ebenso wie das metrische Feld) von der Materie
beeinflusst und umgekehrt. Möglich ist auch, dass das Vakuum beides, sowohl
bislang unbekannte thermodynamische Potentiale als auch ein Feld analog zum
metrischen Feld der AR hervorbringt. Das Bewusstsein ist vielleicht eher ein Feld
analog zum metrischen Feld, wohingegen die Beeinflussung der Hirnströme
zusätzlich durch unbewusste Potentiale (etwa bei unbewussten Kognitionen)
erfolgt. Die Analogie zum metrischen Feld der AR ermöglicht eine Lösung des
oben angesprochenen Bindungsproblems. In der AR bestimmt die
Massenverteilung des gesamten Universums die Struktur der Raumzeit. Analog
könnte man sich denken, dass die Zellaktivitäten des gesamten Gehirns die
Struktur des Bewusstseinsfeldes bestimmen. Danach könnten die verschiedenen
Objekteigenschaften in verschiedenen Hirnstrukturen repräsentiert sein und
trotzdem im Bewusstseinsfeld beieinander liegen.[2]
Wir kommen nun zum Kognitionsaspekt des LSP. In den letzten Jahren hat die
Simulation neuronaler Netzwerke eine stürmische Entwicklung erlebt, und es ist
nicht möglich, hier auch nur einen Überblick zu geben (s. Müller/Reinhardt, 1990).
Allgemein lässt sich aber feststellen: Ein Neuronennetzwerk besteht aus n
Neuronen. Das i-te Neuron (i = 1,2,3,...,n) bekommt von allen Neuronen eine
Nettoinformationseingabe von
(Summe über alle j = 1,2,3,...,n), wobei
xj die Eingabe des j-ten Neurons ist und wij die synaptische Übertragungsstärke von
Neuron j auf i. Die Informationsausgabe von i ist eine Funktion von
und nimmt
die Werte 0, 1 oder einen Wert dazwischen an. Die Eingabe neti muss einen
bestimmten Schwellenwert erreichen, damit es zu einer Ausgabe kommt. Damit
ein solches Netzwerk kognitive Leistungen simulieren kann, müssen die
synaptischen Verbindungen wij entsprechend eingestellt werden. Gibt man einem
Netzwerk zu Beginn der Simulation ein zu lernendes Eingabemuster (z.B. ein
Gesicht), so verändern sich die synaptischen Verbindungen während mehrerer
wiederholter Darbietungen derartig, dass dieses Muster in den synaptischen
105
Verbindungen als gespeichert betrachtet werden kann. Das Netzwerk ist dann z.B.
in der Lage, derartige Muster wiederzuerkennen oder sogar zu vervollständigen:
Gibt man dem Netzwerk nur einen Ausschnitt eines ursprünglich gelernten
Gesichtes als Eingabe, so vervollständigt das Netzwerk das Gesicht selbständig.
Die Leistungsfähigkeit derartiger Netzwerke ist erstaunlich. Kritiken von Seiten
der experimentellen Hirnforscher werden aber geäußert, wenn sie als Modelle
realer Nervennetze betrachtet werden sollen. In vieler Hinsicht weichen
biologische Zellen von diesen künstlichen Neuronen ab (z.B. haben künstliche
Neuronen in der Regel keine Dendriten, und der Einfluss der Gliazellen bleibt
unberücksichtigt), und bei einigen Prozessen der künstlichen Netzwerke ist unklar,
wo und wie sie im Gehirn verankert sein sollen. So werden während eines
Lernvorganges bei den einzelnen Musterdarbietungen die synaptischen
Verbindungen wij neu errechnet und eingestellt, und es ist unklar, wie und wo das
im realen Hirn stattfinden soll. Inwieweit Modelle der neuronalen Netzwerke
unsere kognitiven Leistungen erklären können, wird die zukünftige Forschung
zeigen müssen.
In der künstlichen Intelligenz (KI) versucht man, Computer oder Roboter zu
konstruieren, die ähnliche Wahrnehmungs- und Verhaltensfähigkeiten besitzen wie
Menschen. Dabei hat sich herausgestellt, dass scheinbar elementare
Wahrnehmungsfähigkeiten mathematisch äußerst kompliziert sind, oftmals sogar
komplizierter als die von uns so geschätzten bewussten kognitiven Leistungen wie
das Lösen mathematischer Gleichungen. Die Simulation derartiger
Wahrnehmungs- und Verhaltensfähigkeiten erfordert Großrechner, die vielfach
größer als das Gehirn und dennoch langsamer sind als der Mensch. Diese
Diskrepanz wird gern damit erklärt, dass unsere heutigen Rechner seriell
arbeitende von-Neumann-Computer sind, wohingegen das Gehirn wie die
künstlichen neuronalen Netze Informationen parallel verarbeitet. Ob dieses
Argument tatsächlich eine vollständige Erklärung dieser Diskrepanz liefert, bleibt
abzuwarten. Es ist jedoch in der Wissenschaft üblich, Alternativhypothesen zu
diskutieren, wobei die experimentelle Forschung die endgültige Entscheidung zu
erbringen hat. Eine solche alternative Erklärung wäre, dass einige Informationen
außerhalb des Gehirns im Vakuum verarbeitet werden. Wie schon gesagt, ist das
Vakuum nach der heutigen Physik nicht mehr das Nichts, sondern es hat eine
innere Struktur. Es scheint sogar einen Einfluss auf die Naturgesetze zu haben,
enthält Informationen, kann einen Druck ausüben u.v.a.m. (Rafelski/Müller, 1985;
Genz, 1994). Angesichts der Kleinheit des Gehirns ist es nicht abwegig, einige
kognitive Prozesse außerhalb des Gehirns zu vermuten. Man bedenke, dass bereits
das Rattenhirn und noch kleinere Tiere Wahrnehmungsleistungen, die von der KI
untersucht werden, erbringen!
106
Geradezu paradox erscheint das Verhalten von Tieren nach vielen Läsionsexperimenten: Viele psychische Funktionen sind nach der Zerstörung bestimmter
Hirngebiete gestört oder fehlen völlig, erholen sich aber wieder nach einiger Zeit.
So weiß man, dass der Hypothalamus eine Rolle spielt beim Fress- und
Trinkverhalten der Tiere (Carlson, 1986). Anfangs hielt man den lateralen
Hypothalamus für das „Hungerzentrum“ und den ventromedialen Hypothalamus
für das „Sättigungszentrum“. Elektrische Stimulationen des lateralen
Hypothalamus lösen Fressen und Trinken aus, seine Zerstörung führt zur
Abwesenheit von Fressen und Trinken. Wenn man jedoch Tiere mit zerstörtem
lateralen Hypothalamus durch intragastrische Injektionen von Nahrung künstlich
ernährt, erholen sich die Funktionen wieder und die Tiere beginnen, wieder
selbständig zu fressen und zu trinken. Diese Plastizität des Gehirns, die Fähigkeit
des Gehirns, Neuronen derartig neu zu verschalten, dass andere Gebiete die
Funktionen übernehmen, ist erstaunlich und bislang ungeklärt. Im Rahmen der hier
vorgeschlagenen Hypothesen wäre es möglich, dass die neuronale Umverschaltung
durch das Vakuum gesteuert wird.
Abb. 2: Ein Atomkern zieht die im Vakuum vorhandenen positiven Ladungen an und stößt die
negativen Ladungen ab, weil sie zu Teilchen mit negativer Energie gehören. Die Vakuumpolarisation verstärkt deshalb das elektrische Feld des Atomkerns (Rafelski/Müller, 1985, S. 35).
Falls die Leistungsfähigkeit neuronaler Netze tatsächlich begrenzt oder falls der
Ort einiger hierbei durchgeführter Rechnungen nicht zu erklären sein sollte, könnte
man das Vakuum in Betracht ziehen. Wie könnte das Vakuum die Hirnmaterie
beeinflussen, und wie bekäme das Vakuum Informationen über Hirnstrukturen?
Der Informationsfluss vom Hirn zur Innenstruktur des Vakuums könnte dadurch
erfolgen, dass die im Gehirn vorhandenen Felder die Innenstruktur des Vakuums
verändern. In der Physik weiß man, dass elektromagnetische und andere bekannte
107
Felder das Vakuum verändern können: s. Abb. 2 (Rafelski/Müller, 1985; Genz,
1994). Umgekehrt beeinflusst das Vakuum die Nervennetze, indem es ein Feld
hervorbringt (z.B. das oben besprochene Bewusstseinsfeld). Auf diese Weise
könnte es die synaptischen Verbindungen oder die Schwellenwerte im Axonhügel
beeinflussen.[3] Es ist bereits gesagt worden, dass Felder von der Materiestruktur
abhängen, in unserem Fall wäre das die Hirnstruktur (z.B. aktive Neuronen). Die
Struktur eines Feldes hängt aber nicht nur von den Eigenschaften der Subsysteme
ab, sondern auch von Naturkonstanten. In der TD enthalten die Potentiale die
Boltzmann-Konstante und in der AR gibt es die Gravitationskonstante. Es soll nun
die Annahme gemacht werden, dass das hier postulierte Bewusstseinsfeld FB
einerseits von aktiven Hirnzellen Za und andererseits von Konstanten oder
allgemeiner ausgedrückt von Parametern PV abhängt, welche von der
Vakuumstruktur herrühren: FB=FB(PV,Za). Sind diese Parameter nicht konstant,
sondern raumzeitlich variabel (in der Kosmologie ist z.B. die Hubble-Konstante
ein zeitlich veränderlicher Parameter), so könnte das Vakuum durch dieses Feld
effektiv Hirnströme beeinflussen. Der Einfluss von veränderlichen Parametern auf
die Form von Potentialfelder und ihre Wirkung auf Teilchenbewegungen wurde
intensiv untersucht in der Katastrophentheorie von Thom (Thom, 1975): s. Abb. 3.
Die Veränderung des Feldes durch einen Parameter würde sich nicht nur auf die
Hirnmaterie auswirken, sondern auch, da es das Bewusstseinsfeld darstellt, auf das
Bewusstsein. Hierbei könnte es sich beim visuellen Bewusstsein z.B. um Affekte
oder Intentionen bezüglich des wahrgenommenen Objektes handeln oder um die
Aufmerksamkeitsstufe. Veränderungen des Bewusstseinsfeldes könnten jedoch
vielleicht nicht nur durch äußere Parameter oder durch die Hirnmaterie erfolgen,
sondern auch durch eine innere Dynamik des Feldes, so wie für das metrische Feld
Gravitationswellen postuliert werden.
Die beiden Hypothesen, dass das Bewusstsein ein physikalisches Feld sei und dass
manche kognitive Prozesse im Vakuum ablaufen, sind unabhängig voneinander.
Das heisst, man kann die Feldauffassung akzeptieren, ohne die Vakuumhypothese
annehmen zu müssen. Umgekehrt können diejenigen, die aus philosophischen
Gründen nicht glauben, dass die Psyche im Gehirn sei, die Vakuumhypothese als
einen wissenschaftlichen Forschungsansatz annehmen, ohne das Bewusstsein als
ein physikalisches Feld betrachten zu müssen. Wie zu Beginn des Artikels gesagt
wurde, führen verschiedene Philosophien zu verschiedenen Forschungsparadigmen
und in der Wissenschaft sollten mehrere Paradigmen verfolgt werden. Die hier
vorgeschlagenen beiden Hypothesen ermöglichen es, zwei Denkansätze zu
kombinieren: Die Hypothesen sind heuristisch nützlich sowohl für diejenigen, für
die psychische Prozesse physikalische Vorgänge sind, als auch für diejenigen,
welche nicht glauben, die Psyche sei im Gehirn, denn beides widerspricht sich
nicht.
108
6. Experimentelle und theoretische Erforschung der
vorgeschlagenen Hirnhypothesen
Wir kommen nun zum wichtigsten Teil dieser Arbeit, denn die vorgeschlagenen
Hypothesen haben primär die heuristische Funktion, Forschungsrichtungen zu
stimulieren. Wie weist man die Existenz unbekannter Felder nach? Die Begriffe
der Physik sind theoretische Konstrukte, die eingeführt wurden, um das Verhalten
von Materie (z.B. Betrag und Richtung der Geschwindigkeiten) zu erklären. So
wurde das Konstrukt „magnetisches Feld“ eingeführt, um die Phänomene der
Anziehung und Abstoßung bestimmter Körper, genannt Magnete, zu erklären.
Analog wurden in der physikalischen Chemie die Potentiale Enthalpie, Entropie
usw. eingeführt, um Systemeigenschaften zu erklären. Hierbei ist die Reihenfolge
der Forschungsschritte folgendermaßen: Man entdeckt ein Phänomen, das sich
nicht aus den bekannten Theorien erklären lässt, dann führt man systematisch
Experimente durch und beschreibt das Phänomen quantitativ, stellt empirische
Gleichungen auf und formuliert schließlich Theorien (mit theoretischen Begriffen
wie Feldern), die das Phänomen erklären sollen, um abschließend die Vorhersagen
der Theorien experimentell zu testen. Die empirischen Gleichungen und die
Theorien geben uns Hinweise, wie man Geräte konstruieren muss, um die
Feldstärken „direkt“ zu messen. Um im Gehirn Flüsse oder sonstige
Veränderungen zu entdecken, die mit den heutigen physikalischen Theorien nicht
zu erklären sind, bedarf es selbstredend guter Kenntnisse der theoretischen Physik.
Als Einstieg in die experimentelle Untersuchung könnte man mit Hirnschnitten
beginnen, um später lebende Gehirne zu untersuchen. Gehirne mit Bewusstsein
müssen sich auf irgend eine Art physikalisch von unbewussten Gehirnen
unterscheiden, denn die heutigen Theorien der Physik enthalten keine Terme für
das Bewusstsein, können also auf derartige Systeme noch nicht vollständig
anwendbar sein. Sollte irgend wann ein eindeutig unerklärbares Phänomen, d.h.
eine Abweichung von den heutigen Theorien, entdeckt werden, müsste es
quantitativ erfasst werden, um dann empirische Gleichungen aufstellen zu können.
Es wäre ein Feld zu postulieren, welches die Abweichung erklären könnte. Dieses
Forschungsprojekt wird erschwert dadurch, dass viele Hirnprozesse von nichtlinearer irreversibler Art sind, wofür es noch keine allgemein akzeptierte Theorie
gibt. Es wäre also gut, könnte man Effekte finden, die deutlich gegen heute
bekannte physikalische Grundprinzipien verstoßen. Könnte man ein Feld
konstruieren, das die Effekte erklärt, so müsste man als Nächstes untersuchen, ob
dieses Feld mit dem Bewusstsein korreliert. Das bedeutet, es wäre zu untersuchen,
ob die Feldstärke variieren würde mit Bewusstseinsinhalten (z.B. bei der
109
Beobachtung verschiedener Objekte) und mit Bewusstseinsstufen (Variation von
Tiefschlaf bis zur erhöhten Aufmerksamkeit).
Abb. 3: Oben: Ein Potential
für verschiedene Werte der Parameter u und
v. In den kleinen Koordinatensystemen ist jeweils der Kurvenverlauf des Potentials V in
Abhängigkeit vom Ort x abgebildet. Die Positionen der Ursprungspunkte der kleinen
Koordinatensysteme innerhalb des großen Achsenkreuzes geben die Größen der Parameter u und
v des jeweiligen Potentials an. Anhand der Lage im großen Achsenkreuz, d.h. anhand
bestimmter Kombinationen von u- und v-Größen, lassen sich verschiedene Typen von
Potentialkurven unterscheiden, was durch zwei geschwungene Linien im großen Achsenkreuz
angedeutet wird. Unten: Durch Veränderung der Werte von u und v verändert sich der
Kurvenverlauf des Potentials. Da sich ein Teilchen zum Minimum des Potentials bewegt, lässt es
sich durch Veränderungen der Minimumpositionen hin- und herbewegen (Saunders, 1986, S. 1314).
Einen zweiten Forschungsansatz gibt uns die Entstehungsgeschichte der AR:
Bevor Einstein seine Feldgleichungen aufstellte, welche die Raumzeit mit der
Materie in Zusammenhang bringen, gab es bereits einerseits die nicht-euklidischen
Geometrien und andererseits den begrifflichen Rahmen der Materieeigenschaften.
Will man eine analoge Gleichung [visuelles phänomenologisches Wahrnehmungsfeld als Funktion von der Hirnstruktur] aufstellen, so müsste zunächst der jeweilige
begriffliche Rahmen vorhanden sein. Die physiologischen Hirneigenschaften
110
werden in der Hirnforschung bereits detailliert untersucht. Man ist sich aber noch
nicht im klaren darüber, welche Hirnprozesse für das Bewusstsein relevant sind.
Francis
Crick
hat
kürzlich
vorgeschlagen,
Wachheitsoder
Aufmerksamkeitsneuronen zu suchen, deren synchrone Aktivitäten Korrelate des
visuellen Bewusstseins sein sollen, und in seinem Buch macht er viele interessante
Vorschläge (z.B. Neuronen der 6. Cortexschicht und Neuronen im Thalamus)
(Crick, 1994). Ein weiterer interessanter Forschungsansatz ist der von Walter
Freeman und seinen Mitarbeitern, welche die raumzeitlichen Muster des EEG
(verursacht hauptsächlich durch die synaptischen Aktivitäten) untersuchen
(Freeman/Barrie, 1994). Die für das Bewusstsein relevanten physiologischen
Eigenschaften müsste man auch quantitativ-mathematisch erfassen.
Die andere Seite der gesuchten Gleichung bereitet noch mehr Schwierigkeiten,
denn das nur subjektiv gegebene Bewusstsein müsste mathematisch beschrieben
werden. Lange Zeit war es in der Wissenschaft ein Tabu, über Introspektives zu
reden. Um das Bewusstsein physiologisch erklären zu können, ist es aber nötig,
unsere Wahrnehmungsphänomene möglichst präzise zu beschreiben. Die Methode
der systematischen und experimentellen Introspektion, wie sie z.B. in der
Würzburger Schule um die Jahrhundertwende betrieben wurde, muss wieder
aufgegriffen und präzisiert werden, um dadurch einen angemessenen
Begriffsrahmen für das Bewusstsein zu erhalten (Hehlmann, 1963). Dieses müsste
auch mathematisch ausgedrückt werden. Bei der introspektiven Methode lässt sich
Intersubjektivität erreichen, wenn jeder Mensch unter den gegebenen Umständen
die behaupteten Phänomene auch bei sich selbst introspektiv beobachten kann.
Dieser Forschungszweig ist nötig, denn nur wenn man einen begrifflichen Rahmen
für das introspektiv gegebene Bewusstsein und einen begrifflichen Rahmen für die
relevanten Hirnprozesse hat, wird man beides zueinander in eine wissenschaftlich
testbare Beziehung setzen können.
Selbst wenn die Vermutung, das Bewusstsein sei ein physikalisches Feld, richtig
sein sollte, wird es schwer sein, dieses wissenschaftlich nachzuweisen. Noch
schwieriger ist jedoch der Nachweis der zweiten Hypothese, nämlich der Einfluss
des Quantenvakuums auf dieses Feld. Wie oben beschrieben wurde, soll
angenommen werden, das Feld würde nicht nur von Hirnzellen abhängen, sondern
zusätzlich von Parametern PV des Vakuums: FB=FB(PV,Za). Sollte es gelingen, ein
Feld mathematisch zu formulieren, so müsste gezeigt werden, dass die
„Konstanten“ zeitlich variabel wären, dass sie evtl. von der Bewusstseinsstufe
abhängen. Die Erreichbarkeit eines derartigen Forschungszieles kann man
bezweifeln; vielleicht wird man wegen der Komplexität des Phänomenbereiches
nie eine exakte Leib-Seele-Theorie formulieren können. Wo die Grenzen des
wissenschaftlichen Verstehens liegen, erfährt man aber nur, indem man es
111
zumindest versucht. Den wissenschaftlichen Verstand sollte man nicht
unterschätzen; zur Zeit Galileis waren die AR und die QM ebenfalls völlig
undenkbar!
7. Interpretationsprobleme der theoretischen Physik
Bei den heutigen physikalischen Theorien haben selbst Physiker große Schwierigkeiten, die realistische Bedeutung ihrer Theorien auszumachen. Diese Verständnisprobleme scheinen darauf zu beruhen, dass versucht wird, Theorien im Rahmen
des klassischen wissenschaftlichen Weltbildes zu deuten, welches mit den
modernen Theorien jedoch nicht zu vereinbaren ist. Begriffe und Phänomene wie
das Zwillingsparadox, Zeitschleifen oder die Heisenbergsche Unschärferelation
haben in einem mechanistisch-demokritschen Weltbild keinen Platz. In einer
detaillierten Studie über die Interpretationsprobleme der QM wurde deshalb vom
Autor die Vermutung aufgestellt, dass unsere Wahrnehmungserkenntnis die
Realität nicht spiegelbildlich repräsentiere, sondern dass die Natur wesentlich
komplexer aufgebaut sei und deshalb auch nur abstrakt-mathematisch erfasst
werden könne (Arendes, 1992). Danach würden im Wahrnehmungsprozess die
Informationen, die von der Realität in unseren Erkenntnisapparat gelangen,
transformiert in die Form unserer Wahrnehmungsobjekte.[4] Die Realität (also auch
unser Gehirn) wäre danach wesentlich komplizierter, als es in diesem Artikel mit
der normalen (nicht-mathematischen) Sprache beschrieben werden kann. Eine
mathematische Formulierung der hier vorgeschlagenen Thesen wird deshalb
vielleicht ähnliche Überraschungen bringen, wie es die AR und die QM mit sich
brachten. Eine vollständige Erklärung der von uns beobachteten Phänomene (wie
es die Physik anstrebt) wird vermutlich unsere Wahrnehmungsstrukturen
berücksichtigen müssen.
Das bedeutendste Problem der QM ist die sogenannte „Reduktion der Wellenfunktion“. Im Schrödinger-Formalismus ist die Wellenfunktion vor einer Beobachtung eines Objektes in der Regel im Zustand einer Superposition von Eigenfunktionen; nach der Beobachtung liegt jedoch zumeist nur eine Eigenfunktion
vor, welche den beobachteten Messwert repräsentiert. Für diesen
Reduktionsprozess machen die Vertreter der orthodoxen Interpretation der QM das
Bewusstsein verantwortlich (von Neumann, 1986; Wigner, 1967; Stapp, 1993).
Niels Bohr, Werner Heisenberg und viele weitere Begründer der QM vertraten
jedoch die sogenannte Kopenhagener Interpretation, wonach die Reduktion durch
einen irreversiblen Verstärkungsakt im Messgerät erfolgt. Da es bislang noch keine
112
allgemeine irreversible (d.h. auch nicht-lineare) TD gibt, lässt sich zur Zeit
hierüber nur spekulieren. Es ist aber deshalb auch verfrüht, das Bewusstsein für die
Reduktion des Wellenpaketes verantwortlich zu machen, wie in manchen
Hirntheorien postuliert wird (Eccles, 1994; Stapp, 1993). Das Bewusstsein für die
Reduktion verantwortlich zu machen, ist auch deshalb eine bizarre Hypothese, weil
die Kosmologie frühe evolutionäre Phasen behandelt, während denen es noch
keine Lebewesen gab. Vonnöten wäre vielleicht eine allgemeine physikalische
Feldtheorie, welche angibt, was für Vielteilchen-Felder bei welchen
Materiezuständen entstehen; also eine Theorie der Emergenz von Feldern. Was für
Felder sind außer dem metrischen Feld der AR, den thermodynamischen
Potentialfeldern und dem vermuteten Bewusstseinsfeld zusätzlich möglich? Unter
Umständen entstehen bereits in Messgeräten Potentiale, welche die Reduktion
bewirken. Unbekannte Felder spielen vielleicht nicht nur im Gehirn eine Rolle,
sondern auch in anderen biologischen Systemen.
8. Vergleich mit ähnlichen Vorschlägen zum LSP
Der Feldbegriff wurde in der Psychologie das erste Mal in der ersten Hälfte
unseres Jahrhunderts von dem Gestaltpsychologen Kurt Lewin benutzt (Hehlmann,
1963). In neuerer Zeit wurde die Hypothese, das Bewusstsein oder der Geist
(„mind“) sei ein nicht-materielles Feld, von dem Philosophen und Physiker Henry
Margenau aufgestellt (Margenau, 1984). Ein nicht-materielles Feld ist zum
Beispiel das metrische Feld der AR. Margenau behauptet zusätzlich, das Feld
enthalte keine Energie, was in dieser Arbeit nicht vertreten wird.
Die Feldauffassung wird auch vertreten von dem Neurophysiologen Libet und von
dem Psychiater Mender (Libet, 1993; Mender, 1994). Libet spricht von einem
Conscious Mental Field und er macht interessante Vorschläge zum
experimentellen Test seiner Hypothese. Er schlägt z.B. vor, bei einer Operation
einen Teil des Cortex vom restlichen Gehirn zu isolieren und diese Zellen
elektrisch oder chemisch zu reizen. Bewirke dieses eine introspektiv erlebbare
Bewusstseinsänderung, so wäre das ein Beleg dafür, dass diese Zellen auf ein Feld
einwirken, welches mit dem gesamten Gehirn verbunden ist. Kritisch vermerkt
werden muss jedoch, dass es experimentell sehr schwierig ist, Zellen im Gehirn zu
belassen, sie aber vom restlichen Gehirn so zu isolieren, dass keine
elektromagnetischen Felder oder bewusstseinsunabhängigen thermodynamischen
Potentiale eine Informationsübertragung bewirken können. Libet vertritt ferner die
Auffassung, dass die Hypothese des Conscious Mental Field mit allen möglichen
philosophischen Positionen zum LSP verträglich sei. Bei der in dieser Arbeit
113
vorgeschlagenen Feldhypothese ist dies nicht der Fall. Die hier vorgeschlagene
LSP-Theorie ist nicht kompatibel mit einer dualistischen Philosophie.
Derzeit gibt es keine befriedigende irreversible TD. Als Alternative hat der
Physiker Hermann Haken die Synergetik begründet, welche allerdings ebenfalls
noch keine vollständige Theorie ist (Haken, 1983, 1990). In dieser Theorie gibt es
analog zu den thermodynamischen makroskopischen Variablen (z.B. Temperatur
und Druck) sogenannte Ordnungsparameter. Ähnlich wie die thermodynamischen
Variablen ändern sich diese Parameter langsamer in der Zeit als die
mikroskopischen Subsysteme. Diese Ordnungsparameter haben die Funktion, die
Subsysteme zu lenken, zu „versklaven“, und haben somit eine ähnliche Funktion
wie die thermodynamischen Kräfte, welche aus Potentialdifferenzen resultieren.
Haken vermutet, dass Gedanken derartige Ordnungsparameter sind. Über die Natur
der Bewusstseinsqualitäten (Farben, Gerüche etc.) äußert er sich allerdings nicht
genauer (Haken, 1983; Haken/Haken-Krell, 1992). Die Synergetik bezieht sich
also nur auf den Kognitionsaspekt des LSP.
Nur wenige Wissenschaftler messen der Quantenphysik eine zentrale Bedeutung
beim LSP bei (Eccles, 1994; Penrose, 1989, 1994; Stapp, 1993). Der bekannteste
Vertreter dieser Denkrichtung ist der Neurophysiologe John Eccles. Er ist ein
Substanz-Dualist. Er nimmt zwei unabhängig existierende Substanzen an, Seele
und Materie, welche miteinander wechselwirken. Die Seele wirke auf die Materie,
indem sie die quantenmechanischen Wahrscheinlichkeiten (der vesikulären
Exocytose in den Synapsen) beeinflusse bzw. indem das Bewusstsein im Sinne der
orthodoxen Interpretation der QM die Reduktion der Wellenfunktion bewirke. Da
die hier vorgeschlagene Vakuum-Hypothese potentiell den gleichen Erklärungswert hat wie Eccles' Seele, ist diese Hypothese vorzuziehen, denn das Vakuum ist
bereits ein zentraler Bestandteil der heutigen Physik und muss nicht erst für das
LSP postuliert werden.
Anmerkungen
1. In abnormen Zuständen wird das Selbst-Konzept nicht (bzw. nicht allein) an das
Leibesfeld geheftet, sondern (zusätzlich) an die Phänomene der erlebten
Außenwelt, was als außerkörperliche Erfahrung, out-of-body experience, (bzw. als
mystisches Einheitserlebnis) erlebt wird. Dieses ist jedoch kein empirischer Beleg
dafür, dass unsere Psyche außerhalb des Körpers existieren kann oder dass wir mit
der ganzen Welt „eins“ sind. Es zeigt lediglich, dass auch die Interpretationen der
114
Wahrnehmungserkenntnis (ebenso wie die Theorien der Wissenschaft) nicht
absolut wahr, sondern hypothetisch und fehlbar sind.
2. Damit es zum bewussten Erleben eines einheitlichen Objektes mit
verschiedenen Eigenschaften kommt, reicht es jedoch nicht aus, dass die Zellen der
verschiedenen Cortexareale (evtl. synchron) aktiv sind, denn dies ist auch der Fall
bei der visuellen Reizung von anästhesierten Tieren. Zusätzlich müssen noch
weitere Bedingungen erfüllt sein, z.B. die Aktivität der Formatio reticularis des
Mittelhirns, was vermutlich eine Voraussetzung für die Entstehung von
Bewusstsein ist (Carlson, 1986).
3. Roger Penrose vermutet, dass Quanteneffekte sich in den Mikrotubuli, winzigen
Proteinröhrchen im Inneren der Zellen, als Bewusstsein auswirken (Penrose,
1994).
4. Die für das visuelle Bewusstsein gesuchte Gleichung [visuelles phänomenologisches Wahrnehmungsfeld als Funktion von der Hirnstruktur] wäre eine derartige
Transformationsgleichung.
Literatur
Arendes, L., 1992, Gibt die Physik Wissen über die Natur? Das
Realismusproblem in der Quantenmechanik, Würzburg.
Arendes, L., 1993, Aufmerksamkeitseffekte in Zellen des superioren
Colliculus bei Makaken, Diss. Univ. Göttingen, Aachen.
Arendes, L., 1994, „Superior colliculus activity related to attention and to
connotative stimulus meaning“, Cogn. Brain Res., 2, 65-69.
von Campenhausen, C., 1981, Die Sinne des Menschen, Bd I: Einführung in
die Psychophysik der Wahrnehmung, Stuttgart.
Carlson, N. R., 1986, Physiology of Behavior, Boston.
Crick, F., 1994, The Astonishing Hypothesis: The Scientific Search for the
Soul, New York.
Crick, F. & Koch, C., 1990, „Towards a neurobiological theory of
consciousness“, Seminars Neurosci. , 2, 263-275.
Eccles, J. C., 1994, How the Self Controls its Brain, Berlin.
Eckhorn, R., Bauer, R., Jordan, W., Brosch, M., Kruse, W., Munk, M. &
Reitboeck, H. J., 1988, „Coherent oscillations: a mechanism of feature
linking in the visual cortex?“, Biol. Cybern., 60, 121-130.
115
Freeman, W. J. & Barrie, J. M., 1994, „Chaotic oscillations and the genesis
of meaning in cerebral cortex“, in: G. Buzsáki et al. (Hg.), Temporal coding
in the brain, 13-37, Berlin.
Genz, H., 1994, Die Entdeckung des Nichts, München.
Gray, C. M. & Singer, W., 1989, „Stimulus-specific neuronal oscillations in
orientation columns of cat visual cortex“, Proc. Natl. Acad. Sci. USA., 86,
1698-1702.
Greiner, W., 1987, Theoretische Physik, Bd. 6: Relativistische Quantenmechanik: Wellengleichungen, Frankfurt a. M.
Haken, H., 1983, „Synopsis and Introduction“, in: E. Basar, H. Flohr, H.
Haken & A.J. Mandell (Hg.), Synergetics of the Brain, 3-25, Berlin.
Haken, H., 1990, Synergetik. Eine Einführung, Berlin.
Haken, H. & Haken-Krell, M., 1992, Erfolgsgeheimnisse der Wahrnehmung,
Stuttgart.
Hehlmann, W., 1963, Geschichte der Psychologie, Stuttgart.
Hyvärinen, J., 1982, The Parietal Cortex of Monkey and Man, Berlin.
Jackendoff, R., 1987, Consciousness and the Computational Mind,
Cambridge.
Kanitscheider, B., 1979, Philosophie und moderne Physik, Darmstadt.
Landau, L. D. & Lifschitz, E. M., 1984, Klassische Feldtheorie, Berlin.
Libet, B., 1993, Neurophysiology of Consciousness, Boston.
Mach, E., 1903, Analyse der Empfindungen, Jena.
von der Malsburg, C., 1981, The Correlation Theory of Brain Function,
Internal Report of Max-Planck-Institute for Biophysical Chemistry
Göttingen, Dept. Neurobiology, 81-2, Göttingen.
von der Malsburg, C., 1983, „Modelling Self-Organization and Performance
of Neural Nets“, in: E. Basar, H. Flohr, H. Haken & A. J. Mandell (Hg.),
Synergetics of the Brain, 238-249, Berlin.
Margenau, H., 1984, The Miracle of Existence, Woodbridge.
Mender, D., 1994, The Myth of Neuropsychiatry: A Look at Paradoxes,
Physics, and the Human Brain, New York.
Milner, P. M.. 1974, „A model for visual shape recognition“, Psychol. Rev.,
6, 521-535.
Müller, B. & Reinhardt, J., 1990, Neural Networks: An Introduction, Berlin.
Murch, G. M. & Woodworth, G. L., 1977, Wahrnehmung, Stuttgart.
116
von Neumann, J., 1986, Mathematische Grundlagen der Quantenmechanik,
Berlin.
Niedermeyer, E. & Lopes da Silva, F., 1987, Electroencephalography:
Basic Principles, Clinical Applications and Related Fields, BaltimoreMünchen.
Penfield, W. & Roberts, L., 1959, Speech and Brain-Mechanisms, Princeton.
Penrose, R., 1989, The Emperor`s New Mind: Concerning Computers,
Minds and the Laws of Physics, Oxford.
Penrose, R., 1994, Shadows of the Mind: A Search for the Missing Science
of Consciousness, Oxford.
Rafelski, J. & Müller, B., 1985, Die Struktur des Vakuums: Ein Dialog über
das Nichts, Frankfurt a. M.
Reif, F., 1987, Statistische Physik und Theorie der Wärme, Berlin.
Saunders, P. T., 1986, Katastrophentheorie. Eine Einführung für Naturwissenschaftler, Braunschweig.
Stapp, H. P., 1993, Mind, Matter, and Quantum Mechanics, Berlin.
Strehler, B. L., 1991, „Where is the Self? A neuroanatomical theory of
consciousness“, Synapse 7, 44-91.
Thom, R., 1975, Structural Stability and Morphogenesis. Reading,
Massachusetts.
Wigner, E. P., 1967, Symmetries and Reflections, Bloomington.
117
Naturphilosophische Leitideen für die
biophysikalische Forschung
Zusammenfassung
Eine der Aufgaben der Naturphilosophie ist die Bereitstellung von Leitideen für
die naturwissenschaftliche Forschung, und in diesem Aufsatz werden Ansätze für
die Formulierung biophysikalischer Theorien ausgearbeitet. Im Unterschied zur
Physik und Chemie spielt in der Biologie der Funktionsbegriff eine überragende
Rolle. Deshalb wird die Hypothese aufgestellt, dass es in Organismen biophysikalische Felder mit einer funktionalistischen Dynamik gibt, was als das wesentliche
Kennzeichen von Leben betrachtet wird. Die heutige Physik wird als Grenzfall
einer umfassenderen biophysikalischen Theorie aufgefasst, und es wird vorgeschlagen, den Funktionalismus auf der Ebene der Naturkonstanten oder anderer
physikalischer Parameter im Rahmen der Mathematik nichtlinearer Differentialgleichungen zu formulieren.
1. Heuristische Funktion der Naturphilosophie
Naturphilosophische Untersuchungen werden von vielen Naturwissenschaftlern
mit großem Argwohn betrachtet. Ein Grund hierfür liegt in dem kategorischen
Verkünden vermeintlich völlig sicheren Wissens von vielen Philosophen der
Antike bis zur Neuzeit, aber auch der Gegenwart, während in den Naturwissenschaften mit großem experimentellen Aufwand auf theoretischer Ebene nur
hypothetisches Wissen erlangt werden kann, das zudem vielen naturphilosophischen Spekulationen widerspricht. Ein zweiter Grund für die ablehnende
Haltung vieler Naturwissenschaftler gegenüber naturphilosophischen Überlegungen ist der in den Naturwissenschaften immer noch weit verbreitete Glaube, die
Naturwissenschaft würde durch Induktion von den experimentellen Daten zu ihren
Theorien gelangen. Dieser Standpunkt ist nicht nur von Philosophen hinreichend
kritisiert worden, sondern auch die bedeutendsten Naturwissenschaftler des 20.
Jahrhunderts betonten die spekulativen Elemente bei der Theorienkonstruktion.
Zum Beispiel erläuterte Albert Einstein in einem Brief seine methodologischen
Ansichten (Einstein, 1960, S. 118-121). In diesem Brief vertritt er den Standpunkt,
dass man nur durch einen außerlogischen Vorgang, durch Intuition oder Spekulation, von den Sinneserlebnissen zu den Axiomen einer Theorie gelangen könne.
Dieser Übergang von den Daten zur Theorie ist ein psychologischer Vorgang, der
118
bislang noch nicht vollständig verstanden ist. Wie man jedoch anhand wissenschaftshistorischer Studien zeigen konnte, spielen bei diesem kreativen Vorgang
philosophische Leitideen oft eine nicht unbedeutende Rolle (vgl. Holton, 1973).
Wie in der Geschichte der Physik ausführlich dokumentiert ist, haben gerade die
herausragenden Persönlichkeiten der Physik während der Konstruktionsphasen
ihrer Theorien auf naturphilosophische Leitideen zurückgegriffen. Einstein, Bohr,
Heisenberg u.a. haben sich intensiv mit erkenntnistheoretischen und naturphilosophischen Fragen beschäftigt. Einstein bezeichnete sogar die Angst vor der
Metaphysik als eine Krankheit der empirizistischen Philosophie, und Heisenberg
warf den Positivisten vor, dass sie den großen Zusammenhang nicht sehen wollten
(Einstein, 1946; Heisenberg, 1985). Die Benutzung naturphilosophischer Ideen in
der naturwissenschaftlichen Forschung ist allerdings keine Erfindung des 20.
Jahrhunderts, sondern erfolgte bereits von Beginn an, wenngleich sich dessen viele
Naturwissenschaftler z.B. des 17. Jahrhunderts nicht bewusst waren. Robert Boyle,
ein Begründer der Chemie, war von seiner Weltsicht so fest überzeugt, dass er
meinte, die in Partikeln verteilte Materie und ihre Bewegung seien die einzigen
Erklärungsprinzipien, deren die Naturwissenschaften sich bedienen dürften
(Dijksterhuis, 1956, S. 487f). Auch Newton war der Überzeugung, er mache keine
Hypothesen: „hypothesis non fingo“. Die unbewusste und deshalb unreflektierte
Verfolgung philosophischer Ideen birgt jedoch die Gefahr in sich, in die Irre
geführt zu werden, nämlich wenn diese falsch sind. Eine Funktion der heutigen
Naturphilosophie ist deshalb die kritische Diskussion und Bereitstellung von
naturphilosophischen Leitideen für die einzelwissenschaftliche Forschung. Da
diese Ideen teilweise aus der Analyse der erfahrungswissenschaftlichen Theorien
hervorgehen, welche sich im Lauf der Zeit ändern, haben die heutigen
naturphilosophischen Systeme ebenso wie die Theorien der Wissenschaften nur
Hypothesencharakter. Und die Nützlichkeit naturphilosophischer Leitideen muss
sich erst noch in der wissenschaftlichen Forschung anhand der Stimulierung von
empirisch testbaren Theorien erweisen.
Der Geschichte der Wissenschaften lässt sich entnehmen, dass die
Naturphilosophie vor allem an drei Stellen der wissenschaftlichen Tätigkeit
heuristisch hilfreich ist, nämlich (Törnebohm, 1984, S. 26):
a) In Zeiten, in denen die fundamentalsten Anschauungs- und Denkweisen, die
methodologischen Grundeinstellungen darüber, wie gute Wissenschaft vorzugehen
hat, Veränderungen unterliegen. Ein Beispiel ist die Entstehung der heutigen Art,
Naturwissenschaft zu betreiben, vor allem im 17. Jahrhundert. Das atomistische
Weltbild Demokrits wurde zum integralen Bestandteil des entstehenden
mechanistischen Weltbildes, auf welchem die Forderungen basierten, wissenschaftliche Erklärungsprinzipien sollten sich auf die korpuskulare Materie, ihre
Gestalt und Bewegung beschränken, und die experimentellen Ergebnisse sollten
119
wiederholbar und vorhersagbar sein.
b) In Zeiten, in denen neue wissenschaftliche Disziplinen geschaffen werden.
Beispielhaft ist nicht nur die Entstehung der Chemie im 17. Jahrhundert u.a. durch
Boyle; im 20. Jahrhundert entstand die wissenschaftliche Kosmologie durch
Einsteins Relativitätstheorie, der sich stark von philosophischen Fragen leiten ließ.
c) In Zeiten der Ablösung alter Fundamentaltheorien durch neue. Niels Bohr, der
Großvater der heutigen Quantenmechanik (QM), war sehr an philosophischen
Fragen interessiert, und während der Entstehungszeit der QM diskutierten er und
seine jungen Mitarbeiter (Heisenberg, Pauli, Jordan etc.) die zu erklärenden
Phänomene auch in Hinblick auf naturphilosophische Fragestellungen.
In der vorliegenden Arbeit sollen nun im Sinne einer derartigen heuristischen
Funktion der Naturphilosophie Leitideen ausgearbeitet werden, die in der biophysikalischen Forschung nützlich sein könnten.
2. Biologischer Funktionalismus
In der Physik dominierte bis zu Beginn des 20. Jahrhunderts die Newtonsche
Physik, die sich bei Vorgängen in der mesokosmischen Welt über Jahrhunderte
hinweg vielfach bewährt hatte. Beim Übergang zu sehr hohen Geschwindigkeiten
und zu kosmologischen Dimensionen erwies sich diese Physik jedoch nur als
Grenzfall der relativistischen Physik. Denselben Grenzwertcharakter demonstrierte
sie ein zweites Mal beim Übergang zum atomaren Bereich. Innerhalb der relativistischen QM haben die quantitativen Aussagen der Newtonschen Physik nur
noch Gültigkeit für Systeme mit einer sehr hohen Teilchenanzahl und niedriger
Geschwindigkeit. Es war vor allem Werner Heisenberg, der nachdrücklich darauf
aufmerksam machte, dass beim Übergang zu einem neuen Forschungsbereich
oftmals neue Begriffe entwickelt werden müssen, so wie es bei der QM der Fall
war (Heisenberg, 1990a). Im Vergleich zu Physik und Chemie fällt auf, dass in der
Biologie der Begriff der Funktion eine überragende Rolle spielt. Ernst Mayr, einer
der Begründer der synthetischen Evolutionstheorie, spricht sogar von einer
Funktionsbiologie, und er plädiert für die Anerkennung der Eigenständigkeit der
biologischen Begriffe gegenüber den physikalischen (Mayr, 1991). Die Benutzung
des Funktionsbegriffes in der Biologie wird immer wieder von einigen Physikern
und Philosophen kritisiert, weil die Erfüllung einer Funktion ein teleologischer
Vorgang sei, der in der heutigen deterministisch-kausalen Naturwissenschaft keinen Platz habe. Die Biologie würde danach im Widerspruch zur Physik stehen, und
dieser Begriff sei deshalb unakzeptabel. Dem ist jedoch entgegen zu halten, dass in
der Physik kein Konsens darüber besteht, was die fundamentalste physikalische
Theorie, die QM, über die Natur aussagt. Nach der Kopenhagener Interpretation,
die vielleicht von den meisten Physikern vertreten wird, ist eine physikalische
120
Theorie lediglich ein Instrument zur Vorhersage von Beobachtungen ohne
Anspruch auf Wirklichkeitsbeschreibung (zumindest in der Version von Niels
Bohr). Es gibt zahlreiche andere Interpretationen und bislang konnte sich keine
Interpretation durchsetzen (s. Arendes, 1992). Angesichts der schon seit 80 Jahren
geführten Debatte darüber, was die QM nun eigentlich über die Natur aussagt,
angesichts unserer Unsicherheit über das Wesen der Grundstrukturen der Welt, ist
nicht einzusehen, weshalb sich Biologen und andere Wissenschaftler an bestimmten Interpretationen der physikalischen Formalismen orientieren sollten. Ernst
Mayr hielt die Mechanik als Paradigma für die Biologie für ungeeignet, und er
betont: „Das Auftreten zielgerichteter Abläufe ist vielleicht das charakteristischste
Merkmal in der Welt der lebenden Organismen“ (Mayr, 1991, S. 60). Mayr hebt
den heuristischen Wert der zweckgerichteten Fragestellung hervor; viele große
Fortschritte der Biologie sind dadurch möglich geworden, dass die Frage nach dem
Zweck gestellt wurde. Manche Philosophen hoffen, dass die teleologischen
Aussagen der Biologie in rein kausale (mechanistische) Feststellungen umformuliert werden können. Viele Biologen sind jedoch der Meinung, dass diese
"gesäuberten" Sätze den teleologischen Aussagen, aus denen sie entstanden, nicht
gleichwertig sind (z.B. Mayr, 1991, S. 75). Sagt man, das Herz schlage, um das
Blut zirkulieren zu lassen, dann ist das eine etwas andere Aussage als zu sagen, das
Herz schlägt und das Blut zirkuliert.
Es ist vorgeschlagen worden, u.a. von Ernst Mayr, zielgerichtete Prozesse als
Teleonomie zu definieren, um dadurch die Zweckhaftigkeit der Biologie mit der
mechanistischen Kausalität der Physik zu vereinbaren: „Ein teleonomischer
Vorgang oder ein teleonomisches Verhalten ist ein Vorgang oder Verhalten, das
sein Zielgerichtetsein dem Wirken eines Programms verdankt“ (Mayr, 1991, S.
61). Teleonomische Prozesse verlaufen also zu einem Ziel hin und werden von
einem Programm (der DNS) gesteuert, das in der Evolution als Resultat der
natürlichen Auslese entstanden ist. Die Erbsubstanz (die in der DNS lokalisierten
Gene) wird somit als Ursache funktioneller Prozesse verstanden. Diese Deutung
biologischer Funktionalität klingt zunächst sehr befriedigend, hat jedoch eine ganz
entscheidende Schwäche. Die Umsetzung des in der DNS gespeicherten Programms, die Genexpression, ist nämlich ein hochkomplexer und bislang nicht
völlig verstandener Vorgang, der bereits Funktionalität voraussetzt  und kann dies
wirklich im Einklang mit den heute bekannten quantenmechanischen und
thermodynamischen Gesetzen erfolgen? Jedes Lehrbuch über "Molekulare
Genetik" (z.B. Knippers, 1995) beschreibt auf beeindruckende Weise, wie viele
Proteine (Enzyme) ihre Funktionen in komplexen und ineinander verzahnten
Vorgängen zu erfüllen haben, damit das Programm ausgehend von den Genen bis
zur Bildung der dadurch kodierten Proteinarten realisiert werden kann. Im
Gegensatz zu Mayr führte beispielsweise der Genetiker Jacques Monod die
Teleonomie hauptsächlich auf das Proteinverhalten zurück. Er nahm an, dass sich
121
die Teleonomie aus den stereospezifischen Wechselwirkungen der Proteine
ergeben würde (Monod, 1996).
Wie besonders das Auftreten von Bewusstsein durch das Gehirn deutlich macht,
treten in der Natur auf höheren Systemebenen neue Eigenschaften auf, welche zu
ihrer Beschreibung neue Begriffssysteme erfordern. Deshalb erscheint es sinnvoll,
auch zu versuchen, den Funktionsbegriff in den Kanon wissenschaftlicher Begriffe
aufzunehmen und zu überlegen, ob dieser Begriff oder die bisher benutzten
Begriffe als Grenzfälle in einem umfassenderen Begriffssystem enthalten sind –
ähnlich dem Grenzwertverhältnis der Newtonschen Formeln zur relativistischen
QM. Die umfangreiche Literatur über Teleologie soll hier nicht besprochen werden
(s. Hartmann, 1951; Stegmüller, 1969; Nagel, 1977; Engels, 1982). Vielmehr wird
der Standpunkt vertreten, dass letzten Endes der experimentelle Erfolg von
wissenschaftlichen Theorien über die Güte der in den Theorien formulierten
philosophischen Ideen entscheidet. Vor Einsteins Entdeckung der Allgemeinen
Relativitätstheorie konnte man ebenfalls über den Wert der nichteuklidischen
Geometrien langanhaltend diskutieren und je nach Grundeinstellung des
Philosophen eine ablehnende oder zustimmende Haltung einnehmen. Erst die
Relativitätstheorie demonstrierte den Wert dieser mathematischen Formalismen,
und ebenso könnte eine biophysikalische funktionalistische Theorie eine Wende
vom mechanistischen zu einem funktionalistischen Weltbild bewirken. Man stelle
sich auch einmal die Reaktionen der Philosophen zu Beginn des 20. Jahrhunderts
(vor der Entdeckung der QM) vor, wenn man ihnen die philosophischen Ideen
erzählt hätte, die heute wegen der QM ernsthaft diskutiert werden. Eine allgemeine
erkenntnistheoretische Lehre, die man aus der Relativitätstheorie und der QM
ziehen kann, ist, dass die naturwissenschaftliche Forschung zu sehr
ungewöhnlichen Vorstellungen gelangen kann.
3. Physikalische Naturgesetze in der Biologie
Dass die heutigen physikalischen Gesetze nicht ausreichen, biologische Vorgänge
zu erklären, wurde von vielen Begründern der QM vermutet; von Bohr,
Heisenberg, Schrödinger, Pauli, Wigner u.a. So schreibt Heisenberg: „Daher wird
es wahrscheinlich für ein Verständnis der Lebensvorgänge notwendig sein, über
die Quantentheorie hinauszugehen und ein neues abgeschlossenes Begriffssystem
zu konstruieren, zu dem Physik und Chemie vielleicht später als Grenzfälle
gehören mögen“ (Heisenberg, 1990b, S. 92). An anderer Stelle schreibt er: „In
ähnlicher Weise wird vielleicht die Existenz gewisser biologischer Funktionen
(Stoffwechsel, Fortpflanzung usw.) die eigentliche Grundlage für das Verständnis
der Lebensvorgänge abgeben müssen, und das Studium der physikalisch-chemischen Eigenschaften der Mikroorganismen verschafft uns nur Kenntnisse über die
122
Vorgänge, mit denen die Natur spielt, um jene biologischen Grundformen zu
verwirklichen“ (Heisenberg, 1990a, S. 114).
Zu dem gleichen Thema schreibt Schrödinger in seinem Buch "Was ist Leben?":
„Wir müssen bereit sein, hier physikalische Gesetze einer ganz neuen Art am Werk
zu finden“ (Schrödinger, 1993, S. 139). Der Physiker Max Delbrück ist sogar in
die Biologie übergewechselt um nachzuweisen, dass die heutigen (bzw.
damaligen) physikalischen Gesetze in der Biologie nicht vollständig gültig seien.
Dies gelang ihm nicht, er wurde jedoch durch seine Untersuchungen zu einem
Begründer der experimentellen Biophysik, wofür er den Nobelpreis erhielt.
Nachdem in der experimentellen Biophysik im Lauf der letzten Jahrzehnte eine
Fülle biologischer Daten gesammelt wurde, entwickelt sich zur Zeit die theoretische Biophysik (s. von Bertalanffy, 1968; Davydov, 1982; Fröhlich, 1988;
Chauvet, 1995), so dass in der Biologie die Frage nach der Adäquatheit der heute
bekannten Naturgesetze auf theoretischer Basis neu angegangen werden kann.
Was für Hinweise gibt es für die Notwendigkeit neuartiger physikalischer
Gesetze in der Biologie neben der scheinbaren Unverzichtbarkeit des Funktionalitätsbegriffes? Beeindruckend ist die Schnelligkeit biologischer Vorgänge – nicht
nur bei der Informationsverarbeitung im Gehirn, sondern überall im Organismus.
Die Vielzahl der bei der Genregulation schnell zusammen arbeitenden und zeitlich
aufeinander abgestimmten Prozesse lässt sich sicherlich nicht im Rahmen von
zufälliger Diffusion verstehen. Neben der Geschwindigkeit wäre auch interessant
zu wissen, wie ca. 30.000 bis 40.000 menschliche Gene mehrere Millionen
Proteinarten expremieren können, und wie diese über mehrere Zellschichten
hinweg zusammenarbeiten. Um entscheiden zu können, ob für den genauen
zeitlichen Ablauf biologischer Prozesse neuartige Gesetze notwendig sind,
müssten exakte quantitative Daten über die zeitliche Abfolge vorliegen. Angesichts
der Komplexität biologischer Prozesse ist aber nicht verwunderlich, dass es
derartige Daten noch nicht genügend gibt. Will man den heutigen Zustand der
Biologie mit einer Epoche der Forschung der klassischen Physik vergleichen, so
könnte man überspitzt sagen, dass man zwar weiß, dass ein Apfel zum Erdboden
fällt, nachdem er sich vom Zweig gelöst hat, über den genauen zeitlichen Ablauf
des Fallens und die dabei wirkende Gravitationskraft ist man hingegen noch im
Dunkeln. Kann der hochkomplexe Vorgang der Genregulation durch Diffusion
einzelner Teilchen bzw. durch die heute bekannten Kräfte der Thermodynamik
(TD) gesteuert werden (vgl. Kauffman, 1992)? Es ist bekannt, dass viele
biologische Prozesse nichtlinear und irreversibel ablaufen, eine befriedigende
nichtlineare irreversible TD gibt es jedoch noch nicht. Die Suche nach neuartigen
physikalischen Gesetzen ist deshalb ein bereits existierendes Forschungsprojekt
(z.B. in der Synergetik); die Forderung von neuartigen physikalischen Gesetzen ist
somit nichts Revolutionäres. Die heute schon existierenden Ansätze einer nicht123
linearen irreversiblen TD zeigen, dass fern vom thermodynamischen Gleichgewicht (wie es bei Organismen der Fall ist) stabile Ordnungen entstehen können,
was zweifellos ein Hauptmerkmal biologischer Systeme ist (vgl. Kluge et al.,
1994).
Abb. 1: Phasendiagramme für das DGL-System aus Beispiel 1, oben für α = − 0,5 , unten für
α = + 0,5 und in der Mitte für α = 0 (aus Hubbard, West, 1995, S. 290).
Ein weiteres Argument für die Unzulänglichkeit heutiger physikalischer Gesetze
in der Biologie ist die Fähigkeit des Gehirns Bewusstsein hervorzubringen. Wie
vom Autor in einer anderen Arbeit über Leitideen zum Leib-Seele- Problem
dargelegt wurde, kann das Bewusstsein aus physikalischer Sicht aufgefasst werden
als ein neuartiges Feld, welches die Materie des Gehirns steuert (Arendes, 1996).
In der mathematischen Physik spricht man von einem Feld, wenn jedem Punkt des
Raumes oder eines Teilraumes der Wert mindestens einer Größe zugeordnet ist.
Lenkt man introspektiv seine Aufmerksamkeit auf sein eigenes visuelles
Bewusstsein, welches mittels Farben den uns umgebenden sogenannten äußeren
Raum repräsentiert, so wird deutlich, dass jeder Punkt des Raumes einen Farbton
besitzt bzw. potentiell dazu in der Lage ist. Wenn also das Gehirn in einem
bestimmten materiellen oder energetischen Zustand ist (der in der Hirnforschung
noch unbekannt ist), dann wird ein Bewusstseinsfeld erzeugt, und introspektiv
haben wir den Eindruck, dass das Bewusstsein unsere Bewegungen auf teleonome
Weise, d.h. auf Ziele hin gerichtet steuert. Nun ist aber das Gehirn ein biologisches
System und wird vermutlich nicht auf fundamentale Weise naturgesetzlich von
124
anderen biologischen Systemen abweichen. Das Prinzip, wonach ein übergeordnetes Feld die biologischen Prozesse auf funktionelle Weise steuert, könnte
deshalb auch für andere biologische Systeme, vielleicht sogar für alle, heuristisch
sinnvoll sein. Heisenberg vermutete, dass die quantenmechanischen Wahrscheinlichkeiten durch „übergeordnete Zusammenhänge“ determiniert sein könnten
(Heisenberg, 1990a, S. 94), und in Organismen kämen hierfür biophysikalische
Felder in Frage.
4. Funktionalistische Naturgesetze
Wie könnte die Steuerung durch ein Feld eine funktionelle Form haben? Dies führt
zu der Frage, was die Hauptmerkmale von Funktionalität sind. In der Biologie
bezeichnet man solche physiologischen Prozesse als funktionell, die dem Erhalt
des Organismus dienen. Die Funktionalität enthält somit zwei Komponenten:
Funktionelle Prozesse verlaufen zielgerichtet, und sie sind für irgendein System
oder Subsystem nützlich. (Demgegenüber ist das teleologische Verhalten von
Personen zwar zielgerichtet, dient aber nicht unbedingt einem anderen System,
etwa dem Erhalt eines übergeordneten Gesamtsystems; außerdem ist dies ein
bewusster Vorgang.) Bei der folgenden Betrachtung interessieren wir uns
hauptsächlich für die Komponente des Zielgerichtetseins, weil dies der naturphilosophisch interessanteste Aspekt der Funktionalität ist. In der mechanistischen Physik Newtons legt die anfängliche Teilchenkonfiguration die zukünftige Entwicklung des Systems eindeutig fest. Demgegenüber kann man funktionalistische
Systeme so auffassen, dass sich mehrere Systeme bei völlig gleicher Anfangskonstellation entsprechend der angestrebten Funktion verschieden entwickeln
können. Dies soll näher erläutert werden: Die theoretische Physik nimmt heutzutage nicht nur die Existenz von Materieteilchen bzw. Feldern an, sondern nach der
heute fundamentalsten Theorie, der Quantenfeldtheorie, entsteht die beobachtbare
Materie aus dem Quantenvakuum, dessen innerer Zustand nicht beobachtbar ist,
sondern nur theoretisch erfasst werden kann. Es ist von mehreren Autoren die
Vermutung aufgestellt worden, dass die Naturgesetze und z.B. die in den
Naturgesetzen auftretenden Naturkonstanten im Quantenvakuum enthalten sind
(Arendes, 1992; Prigogine et al., 1993). Nach der Quantenfeldtheorie ist nämlich
das Quantenvakuum nicht das Nichts, vielmehr ist es die Grundsubstanz, die die
Materieteilchen hervorbringt; es scheint eine innere Struktur zu haben, enthält
Informationen, kann einen Druck ausüben und hat vielleicht sogar einen Einfluss
auf die Naturgesetze (Rafelski et al., 1985). Mit der völlig gleichen Anfangskonstellation von funktionalistischen Systemen ist deshalb ihre Gleichheit in allen
ihren beobachtbaren Materieeigenschaften gemeint, innerhalb des unbeobachtbaren
Quantenvakuums könnten sie entsprechend ihrer Funktionen naturgesetzlich
verschieden sein. Funktionalistische Systeme sollten sich also bei gleichem (beo125
bachtbaren) Anfangszustand verschieden entwickeln können. Umgekehrt sollten
sich Systeme mit verschiedenen Anfangszuständen bei gleicher Funktion in
dieselbe Richtung entwickeln; sie sollten gegenüber kleineren äußeren Störungen
immun sein, wie es ja auch in der Biologie der Fall ist.
Abb. 2: Phasendiagramme für das DGL-System aus Beispiel 2 für verschiedene α - Werte (aus
Hubbard, West, 1995, S. 316).
Welche Form könnten funktionalistische biophysikalische Naturgesetze haben?
Im Grenzfall sollten sie die heutigen physikalischen Gesetze enthalten, so dass es
nahe liegend ist, Differentialgleichungen zu suchen. Das Kennzeichen
funktionellen Verhaltens, wonach auch bei kleinen Störungen der Zielzustand
erreicht wird, erinnert an das Attraktorverhalten nichtlinearer dynamischer
Systeme; und nichtlinear sind sicherlich viele biologische Prozesse. Aus diesem
Grund soll nun kurz die Theorie dynamischer Systeme (Chaostheorie) erläutert
werden. Es handelt sich hierbei jedoch gar nicht um eine Theorie im naturwissenschaftlichen Sinn, sondern um die mathematische Behandlung von Systemen
nichtlinearer Differentialgleichungen, welche man allerdings in zunehmendem
126
Maße in den Naturwissenschaften anzuwenden versucht.
Differentialgleichungen höherer Ordnung lassen sich schreiben als Systeme
mehrerer Differentialgleichungen erster Ordnung. Bei zwei Variablen x und y mit
dem Zeitparameter t lautet die allgemeine Form: x = dx dt = f ( x , y ) ,
y = dy dt = g ( x , y ) . x und y geben die zeitlichen Veränderungen der Variablen x und
y an, f ( x, y ) und g ( x , y ) sind (z.B. nichtlineare) Funktionen dieser Variablen. Zur
Illustration sollen zwei Systeme von Differentialgleichungen mit dem zusätzlichen
Parameter α besprochen werden (aus Hubbard, West, 1995):
1. Beispiel:
x = y
y = (α − x 2 ) ⋅ y − x
2. Beispiel:
x = x 2 − y 2 + 1
y = y − x 2 − α
Setzt man für α einen bestimmten Wert ein, so erhält man jeweils ein System
nichtlinearer Differentialgleichungen erster Ordnung. Bei einem gegebenen αWert kann man die Relation der x- und y-Werte zueinander grafisch darstellen,
und in Abbildung 1 sind für das 1. Beispiel drei Diagramme gezeigt, für α = − 0,5,
α = 0 und α = + 0,5. Die Linien in den Diagrammen geben an, wie x und y
einander zugeordnet sind, und die Pfeile auf den Linien geben an, in welche
Richtung ein System sich mit der Zeit verändert, wenn das System einen Punkt
dieser Linie einnimmt. Wie Abbildung 1 für α = − 0,5 zeigt, wird sich das System,
egal wo man im Diagramm startet, zum Ursprung bewegen und dort für immer
bleiben. Punkte und geschlossene Linien, zu denen sich ein System hin bewegt und
dort verbleibt, heißen Attraktoren. Ein System kann einen beliebigen Anfangswert
haben, solange es sich im Einzugsbereich eines Attraktors befindet, wird sich das
System zu diesem Attraktor hin bewegen. Ein System kann also kleineren
Störungen unterliegen; solange es dadurch den Einzugsbereich des Attraktors nicht
verlässt, wird sich am Zielverhalten nichts ändern. In der Biologie kann man
deshalb vielleicht funktionelle Zielzustände als Attraktoren behandeln. Abbildung
1 zeigt für α = + 0,5 eine andere Attraktorart, nämlich eine geschlossene Linie, die
in der Abbildung durch den Punkt bei ca. x = 1,44 und y = 0 verläuft. Egal ob man
innerhalb oder außerhalb dieser geschlossenen Linie das System startet, das
System wird sich zu dieser Attraktorlinie hin bewegen und für immer auf ihr
entlang laufen. Im 1. Beispiel haben alle Systeme für α < 0 im Ursprung einen
Punktattraktor wie in Abb. 1 für α = − 0,5 und alle Systeme mit α > 0 die
Attraktorart von Abb. 1 für α = 0,5. Variiert man im 1. Beispiel den Parameter α
127
von α < 0 in Richtung α > 0, so hat man jeweils ein anderes Systemverhalten. Bei
α = 0 verhält sich das System derartig, dass es ähnlich der Attraktorart aus Abb. 1
für α = 0,5 ständig auf einem scheinbaren Kreis um den Nullpunkt läuft, dass es
sich aber nach sehr, sehr langer Zeit zum Nullpunkt bewegt.
Abbildung 2 zeigt, wie sich für unterschiedliche α -Werte das System aus
Beispiel 2 verhält. Für α = − 2,0 gibt es im linken oberen Quadranten wieder wie
im vorigen Beispiel (für α = − 0,5) einen Punkt, zu dem sich das System hin
bewegt und dort verbleibt, wenn das System anfangs in dem Umfeld dieses
Punktes liegt. Einen derartigen Attraktor nennt man auch eine Senke. Eine Quelle
hingegen liegt im rechten unteren Quadranten: Liegt das System genau an diesem
Punkt, so bewegt es sich nicht, liegt es im Umfeld von diesem Punkt, so bewegt es
sich von diesem Punkt weg ins Unendliche, was durch den wegführenden Pfeil auf
einer der Linien angedeutet wird. Für α = − 2,0 gibt es demnach Bereiche, von
denen aus das System zur Senke gezogen wird, und Bereiche, von denen das
System sich von der Quelle weg ins Unendliche bewegt. Führt man wiederholt
Computer-“Experimente“ mit graphischer Darstellung des Systemverhaltens
durch, bei denen man das System jeweils an einem anderen Anfangspunkt starten
lässt, so gibt es eine scharfe Grenze zwischen diesen beiden Bereichen, wo das
System sich einmal zur Senke bewegt, ein anderes Mal bei nur kleinem
unterschiedlichen Anfangszustand von der Quelle weg getrieben wird. Diese
sensible Abhängigkeit vom Anfangszustand in einem derartigen Grenzbereich wird
als Chaos bezeichnet. Dieses chaotische Verhalten ist erkenntnistheoretisch
bedeutsam, weil es bei natürlichen Systemen mit einem derartigen Verhalten an
diesen Stellen schwierig ist, exakte Vorhersagen über das zukünftige Verhalten zu
machen und bei Experimenten exakte Replikationen durchzuführen. Wie die
Abbildung aber auch zeigt, ist (in diesem Beispiel) dieser chaotische Bereich
kleiner als die Bereiche, für die man verlässliche Vorhersagen machen kann.
Wissenschaftlich mindestens so interessant wie das Chaosverhalten sind deshalb
die Attraktorgebiete, so dass man statt von der Chaostheorie auch von der
Attraktortheorie sprechen kann. Abbildung 2 zeigt außerdem, wie sich das
Systemverhalten ändert, wenn man schrittweise den Wert für α erhöht. So gibt es
z.B. für α = 0 nur noch eine Senke und keine Quelle, und für α = 2,0 gibt es auch
keine Senke mehr.
Das zielgerichtete Verhalten in der Biologie könnte man nun, wie bereits
angedeutet, als die Bewegung zu einem Attraktor deuten. Die funktionelle
Zielsetzung wäre somit die Festlegung eines Attraktors, d.h. die entsprechende
funktionelle Einstellung der Parameter. Sind in einem System mit einem oder
mehreren Parametern alle Parameter entsprechend dem angestrebten Attraktor
eingestellt, so wird sich das System wie in der klassischen Physik deterministisch
vom Anfangszustand zum Attraktor hin bewegen. Es lassen sich somit zwei
128
Vorgänge unterscheiden: 1. Funktionelle Einstellung der Parameterwerte und 2.
mechanistische (bzw. quantenmechanische) Bewegung des Systems weg vom
Anfangszustand zum Attraktor. Gibt es wie bei der toten Materie kein
funktionelles Verhalten, so fällt Punkt 1 weg. In diesem Fall wären die Parameter
raumzeitlich unveränderliche Naturkonstanten (ähnlich wie es bei Computerprogrammen Standardwerte, Default-Werte, gibt, die verändert werden können,
aber nicht müssen). Leben liegt vielleicht dann vor, wenn diese Parameter variiert
werden können durch Vorgänge, die vermutlich im Quantenvakuum ablaufen.
Welcher Art könnte nun der funktionelle Teil der Naturgesetze (Vorgang 1)
sein, der die Parametereinstellung bewirkt? Vielleicht muss hierfür erst noch eine
völlig neue Formalismusart entwickelt werden. Wenn man bedenkt, dass man in
der QM nur Wahrscheinlichkeitsaussagen machen kann und dass es in der
Allgemeinen Relativitätstheorie wegen der Nichtlinearität ihrer Grundgleichungen
sehr schwer ist, Lösungen der Feldgleichungen zu finden, muss man angesichts der
Komplexität biologischer Prozesse darauf gefasst sein, nicht in allen biologischen
Forschungsbereichen quantitativ exakte Formeln finden zu können. In diesem Fall
müsste man sich damit begnügen, qualitative Vorhersagen zu machen. Vergleicht
man einmal die Situation mit einem Computer, der ja Programme auf ein Ziel hin
abarbeitet, so liegt es nahe, diese funktionellen Vorgänge algorithmisch zu formulieren wie es in der Informatik (bzw. in den Forschungsprojekten des Künstlichen
Lebens und der Künstlichen Intelligenz) bei der Planung von Computerprogrammen geschieht, etwa als Flussdiagramme, Zustandsdiagramme für Automaten oder semantische Netzwerke (z.B. für das Bewusstsein).
Neben der Formulierung von physikalischen Grundgleichungen als Differentialgleichungen gibt es in der theoretischen Physik die alternative Möglichkeit ihrer
Formulierung als Variationsprinzipien, und damit eine bestimmte Deutung der
physikalischen Grundgleichungen erkenntnistheoretisch plausibel sein kann,
müsste sie für jede Formulierungsart annehmbar sein. Wenn es gelänge, die Differentialgleichungsschreibweise teleonom zu deuten, so hätte man jedoch bei der
anderen Formulierungsart in der Physik hinsichtlich einer teleonomen Deutung
kaum Probleme. Variationsprinzipien, aus denen sich vermutlich alle bisherigen
Grundgleichungen der Physik herleiten lassen, werden in der Literatur schon seit
langem als zielgerichtete Formulierungen der Physik diskutiert (s. Barrow et al.,
1986). Hierbei werden Extremalforderungen dazu benutzt, die dynamischen
Gleichungen eines physikalischen Systems zu bestimmen. Man fordert, dass eine
bestimmte Größe ein Minimum einnimmt, z.B. dass ein klassisches Teilchen auf
derjenigen Bahn verläuft, die den Anfangs- und Endzustand auf dem kürzesten
Weg verbindet. Bei den Integralprinzipien hat die zu variierende Größe die
Dimension einer Wirkung, weshalb sie auch als Prinzip der kleinsten Wirkung
bezeichnet werden. Ein Beispiel ist das Hamiltonsche Prinzip. Dieses Prinzip
129
fordert, dass sich ein Objekt so bewegt, dass das zeitliche Integral über die
sogenannte Lagrange Funktion L, welche die freie Energie des Systems darstellt,
t1
einen Extremalwert annimmt: δ ∫ L dt = 0 (das Objekt bewegt sich zwischen den
t2
Zeiten t1 und t2). Aus der Anwendung dieses Prinzips lässt sich die Bahngleichung
des Systems ermitteln. Ernst Mach betrachtete diese Formulierung der Naturgesetze lediglich als mathematische Kuriosität, wohingegen z.B. Max Planck diese
Formulierung für fundamentaler gehalten haben soll als den herkömmlichen
mechanistischen Ansatz (Barrow et al., 1986, S. 150f). Kritisch vermerkt werden
muss jedoch, dass für jede in der Naturwissenschaft entdeckte Differentialgleichung im Nachhinein (post hoc) ein Extremum formuliert werden kann, aus
dem man diese Gleichung nachträglich ableiten kann. Damit Extremalprinzipien zu
einem grundlegenden Verfahren der Bestimmung der Naturgesetze (mit allen
genauen Parameterwerten) werden können, bedarf es einer richtigen Theorie über
die Art der zu extremierenden Größen. Bislang ist die Auswahl der Minimalgrößen
eher Raterei, wenngleich auf diese Weise David Hilbert sogar kurz vor Albert
Einstein die endgültigen Feldgleichungen der Allgemeinen Relativitätstheorie
entdeckte. In seiner Arbeit über die allgemeine Relativitätstheorie mit dem Titel
„Die Grundlagen der Physik“ bezeichnete Hilbert die Variationsrechnung und die
Invariantentheorie als die „mächtigen Instrumente“ der Analysis bzw. der
mathematischen Physik (Hilbert, 1915, S. 407).
Zu Beginn ist die Annahme gemacht worden, dass die heutige Physik als
Grenzfall in einer umfassenderen biophysikalischen Theorie enthalten sein soll.
Deshalb stellt sich die Frage, bei welchem Grenzwert und welcher Dimension eine
zukünftige biophysikalische Theorie dieselben quantitativen Aussagen machen
könnte wie die heutige Physik. Der Mediziner und theoretische Biophysiker
Gilbert Chauvet kennzeichnet Leben durch funktionelle Interaktionen zwischen
Einheiten einer hierarchischen Organisation mittels nicht-lokaler Felder, und die
Veränderung der Organisation im Lauf der Zeit erfolge gemäß Extremalprinzipien
(Chauvet, 1995). Chauvet stellt sehr detaillierte Hypothesen für eine biophysikalische Dynamik auf, er behandelt aber nicht das Grenzwertverhältnis aufeinanderfolgender physikalischer Theorien. Wichtig in unserem Zusammenhang ist nun,
dass Chauvet sehr überzeugend die hierarchische Organisationsform von
Lebewesen herausarbeitet: Das Gehirn zum Beispiel setzt sich u.a. aus vielen Hirnkernen zusammen, jeder Hirnkern aus vielen Neuronen, jedes Neuron enthält viele
Ionenkanäle und jeder Ionenkanal mehrere Proteine. Zusätzlich zu einer derartigen
strukturellen Hierarchie behandelt Chauvet funktionelle Hierarchien. Man könnte
nun vermuten, dass die Anzahl übereinander liegender Ebenen ein wichtiger
Parameter ist. Gibt es nur eine Ebene wie beim Elementarteilchen im leeren Raum
oder bei einer homogenen Teilchenansammlung, dann genügt vielleicht die heutige
(quanten-) mechanistische Physik, wohingegen die Funktionalität unübersehbar
130
wird bei einer so hohen Ebenenanzahl wie beim Gehirn. Unser Verhalten (und
somit die Teilchenbewegungen im Gehirn) ist augenscheinlich teleonom.
Vielleicht wird mit zunehmender Ebenenhöhe die raumzeitliche Variabilität der
DGL-Parameter immer größer.
Ein weiterer wichtiger Aspekt der Funktionalität soll noch behandelt werden.
Damit ein Objekt innerhalb eines Gesamtsystems eine Funktion erfüllen kann,
muss seine Bewegungsform abgestimmt sein auf den Zustand des Gesamtsystems.
Angesichts der physikalischen Experimente zur Bellschen Ungleichung ist eine
derartige holistische Naturauffassung durchaus im Rahmen unseres heutigen
physikalischen Wissens. Bezüglich der Frage nach der Realität und der Trennbarkeit von Objekten hatte Bell eine mathematische Ungleichung bewiesen, deren
experimenteller Test in den 70er und 80er Jahren die philosophische Diskussion
um die Quantenmechanik wieder neu entfacht hat (s. Arendes, 1992). Die
Ungleichung lässt sich herleiten unabhängig von der QM und hauptsächlich aus
den folgenden zwei Voraussetzungen: 1. Realismus: Physikalische Objekte existieren unabhängig von ihrer Beobachtung. 2. Lokalität: Physikalische Effekte breiten
sich nicht mit Überlichtgeschwindigkeit aus. Die QM sagt voraus, dass unter
bestimmten Bedingungen diese Ungleichung verletzt ist, und die meisten und
besten durchgeführten Experimente bestätigen dies. Man scheint also nur die Wahl
zu haben, entweder die Realität der Objekte zu leugnen oder die endliche
Signalübertragung, was als Verletzung der Trennbarkeit oder Separabilität der
Objekte bzw. als Holismus gedeutet werden kann. Aus diesem Grund nehmen
heute viele realistisch eingestellte Physiker eine holistische Weltauffassung an.
Die Ganzheitlichkeit könnte sich in den biologischen Naturgesetzen z.B.
dadurch ausdrücken, dass ein biologisches Vielteilchenfeld vom Gesamtzustand
des Organismus abhängt (so wie das geometrische Feld der Allgemeinen
Relativitätstheorie vom Materiezustand des gesamten Universums abhängt) oder
dass die Naturgesetze überhaupt nicht mehr für einzelne Teilchen formulierbar
sind, sondern nur noch für Ensemble, ähnlich wie Ilya Prigogine es mit seinen
Mitarbeitern anstrebt (Prigogine et al., 1993). Ganzheitliche Eigenschaften werden
in der Biologie und in der theoretischen Biophysik zunehmends unter dem Begriff
der Kohärenz oder Kohäsion diskutiert (Fröhlich, 1988; Mayr, 1991).
5. Was ist Leben?
Es soll nun die grundlegendste biologische Frage behandelt werden: Was ist
Leben? Als Kennzeichen des Lebens werden in biologischen Lehrbüchern in der
Regel Eigenschaften angeführt, die allen Organismen gemeinsam sind, z.B.
Metabolismus, Selbstreproduktion und Mutabilität. Die Aufzählung gemeinsamer
131
Merkmale ist jedoch noch keine testbare wissenschaftliche Theorie. Dass es über
das Wesen des Lebendigen keine allgemein akzeptierte Theorie gibt, wird schon
daraus deutlich, dass Wissenschaftler unterschiedlicher Herkunft verschiedene
Schwerpunkte setzen. So behandelt der Biochemiker Manfred Eigen unter dem
Stichwort "Entstehung des Lebens" hauptsächlich die Entstehung der Selbstreproduktion durch die genetische Information, während der theoretische Physiker
Freeman Dyson bei derselben Fragestellung primär bei den Proteinen ansetzt, die
Selbstreproduktion mittels der Gene erst in einem zweiten Schritt einbezieht und
die wichtigste Eigenschaft des Lebens in der Homöostasis sieht (Eigen et al., 1988;
Dyson, 1988;). Unter Homöostasis versteht Dyson „die Maschinerie der
chemischen Kontrollen und Rückkopplungsschleifen, die sicherstellen, daß jede
molekulare Sorte in einer Zelle in den richtigen Proportionen hergestellt wird,
nicht zuviel und nicht zuwenig“ (Dyson, 1988, S. 110). Ein anderer theoretischer
Physiker, Erwin Schrödinger, betrachtete vor allem die negative Entropie und das
„»Aufsaugen« von Ordnung aus seiner Umwelt“ als Kennzeichen des Lebens
(Schrödinger, 1993, S. 129). Der Genetiker Monod hingegen nahm die Teleonomie
in die Definition von Lebewesen auf, der Mediziner und theoretische Biophysiker
Chauvet charakterisiert Leben durch Funktionalität, hierarchische Organisationsform und nicht-lokale Felder, und wie ebenfalls bereits zitiert wurde, betrachtet
auch der Evolutionsbiologe Mayr das Auftreten zielgerichteter Abläufe als das
charakteristischste Merkmal von Leben (Monod, 1996; Chauvet, 1995; Mayr,
1991).
Im Rahmen der in dieser Arbeit vorgestellten Ansätze zur Formulierung
biophysikalischer Gesetze könnten vor allem zwei Eigenschaften für das Leben
kennzeichnend sein: die mögliche Existenz neuartiger physikalischer Felder, die
nur in Organismen vorkommen, und die Funktionalität (Teleonomie) der zugrunde
liegenden Naturgesetze. Naturgesetze könnten ohne ein Feld eine funktionalistische Form haben; die Funktionalität könnte aber auch durch thermodynamische oder durch ein neuartiges biophysikalisches Feld wirksam sein. Diese
Sichtweise des Lebendigen ist vereinbar mit den Standpunkten von Mayr, Monod
und Chauvet, aber auch mit denen von Schrödinger und Dyson, denn die
funktionalistischen Naturgesetze würden Homöostasis und Ordnung gewährleisten.
6. Naturgesetze, Willensfreiheit und Wahrheitsbegründung
Kritiker einer funktionalistischen Sichtweise werden natürlich fragen, woher die
funktionellen Zielsetzungen kommen. Diese Frage nach dem Ursprung und der
Wirkungsart der Naturgesetze stellt sich jedoch auch bei den mechanistischen
Gesetzen. Und ebenso wie in diesem Fall könnte man diese Frage (derzeit) auch
bei den funktionalistischen Gesetzen nicht beantworten. Bei jeder Theorie muss
132
man manche Annahmen als gegeben hinnehmen, um damit andere Phänomene
erklären zu können, so dass die unbeantwortete Frage nach dem Ursprung der
funktionellen Ziele nicht als Argument gegen eine funktionalistische Sicht benutzt
werden kann. Aufgrund unserer introspektiven Fähigkeit sind die Menschen der
Überzeugung, aus Absichten und für Ziele zu handeln; demgegenüber hofft die
mechanistische Physik, unser scheinbar zielgerichtetes Verhalten eines Tages
mechanistisch erklären zu können. Aber wie viele Jahrhunderte soll man noch mit
einer derartigen Hoffnung leben, bevor man einen neuen Ansatz versucht und die
scheinbare Teleonomie als die tatsächlich zugrunde liegende Wirklichkeit
annimmt?
In dieser Arbeit wurde bislang die Hypothese verfolgt, dass sich biologische
Prozesse gesetzmäßig beschreiben lassen. Überträgt man dies auf das Bewusstsein,
so steht man vor einem schweren erkenntnistheoretischen Problem, nämlich dem
Problem der Willensfreiheit, was abschließend erläutert werden soll. In unserem
demokratischen Zeitalter haben wir in einem großen Umfang die Freiheit, das zu
tuen, was wir wollen. Eine alte philosophische Frage lautet jedoch: Kannst Du
auch wollen, was Du willst? Dahinter steht die Frage, wie unsere Wünsche und
Gedanken entstehen. Sind unsere Wünsche und Gedanken durch vergangene
Ereignisse und Strukturen vollständig festgelegt? Um die Relevanz dieser
Problematik für die Wahrheitsdiskussion zu verdeutlichen, soll einmal angenommen werden, die Welt wäre im Sinne der Newtonschen Physik deterministisch
und in der Vergangenheit sei das Universum durch einen Urknall entstanden. In
der klassischen Physik war (so glaubte man) durch den Ort und den Impuls aller
Teilchen die zukünftige Entwicklung des Universums eindeutig festgelegt. Die
Konstellation aller Teilchenorte und -impulse nach dem Urknall legte somit bereits
fest, dass Menschen entstehen würden mit Gehirnen mit bestimmten Ideen und
Theorien. Nimmt man nun an, dass Gedanken vollständig vom Gehirn bestimmt
werden, so würden unsere Wissenschaftler nicht deshalb an die Wahrheit ihrer
Theorien glauben, weil sie dafür gute Gründe hätten, sondern weil die Teilchenkonstellation nach dem Urknall sie dazu determinierte. Die Theorien könnten
zufällig wahr sein, sie könnten aber auch falsch sein. In jedem Fall würden die
Wissenschaftler an die Wahrheit glauben, wenn die Teilchenkonstellation sie dazu
verdammen würde. Alle Argumente, die Wissenschaftler anführen, entständen,
weil sie dazu determiniert wurden. Ob sie an bestimmte Theorien glauben, würde
nur von ihrer determinierten Hirnstruktur abhängen, dasselbe gilt für die Argumentation für oder wider die Willensfreiheit.
Nun glauben wir heute nicht mehr an den klassischen Determinismus. Die
quantenmechanischen Wahrscheinlichkeiten machen jedoch unsere Begründungsfähigkeit nicht unbedingt besser, denn betrachtet man allein den quantenmechanischen Zufall, dann würden Wissenschaftler eine Theorie annehmen oder
133
ablehnen, weil sich die Hirnteilchen zufällig in die eine oder in die andere
Richtung bewegten und nicht weil sie überzeugende Argumente hätten. Die
Willensfreiheit lässt sich vielleicht niemals wirklich begründen, weil vielleicht
immer entgegen gehalten werden kann, unser Glaube an dafür sprechende
Argumente könnte determiniert sein. Was man jedoch von der Wissenschaft
verlangen kann, ist, dass sie zumindest selbstkonsistent ist. Behaupten Wissenschaftler die (partielle) Wahrheit von Theorien, so sollte wenigstens die
prinzipielle Möglichkeit einer Wahrheitsbegründung gegeben sein. Das Postulat
der Willensfreiheit (in der Form der Begründungsfähigkeit) ist somit eine Grundlage für wissenschaftliche Untersuchungen mit der Hoffnung auf Wahrheitsfindung, und die aufgestellten Theorien dürfen dieses Postulat nicht verletzen. Die
Newtonsche Physik entzog den Wissenschaftlern die Grundlage für eine
glaubwürdige Wahrheitsbegründung (im Fall, dass der Verstand völlig vom
materiellen Gehirn abhängt). Ob die Fähigkeit zur Wahrheitsbegründung bereits
gegeben sein kann bei einer geschickten Mischung von Zufall und Notwendigkeit
(zufällige Variation der Gedanken und notwendige Selektion der richtigen durch
die Umwelt), soll hier nicht weiter diskutiert werden, es wäre aber möglich. Der
Glaube daran könnte aber wiederum determiniert sein. Die Evolutionäre
Erkenntnistheorie, die ein derartiges Argumentationsmuster für unsere ererbten
Denkstrukturen einnimmt, spricht nur über unsere Wahrnehmungs- und Alltagserkenntnis, nicht aber über Wissenschaftserkenntnis (Vollmer, 1983). In der
Hirnforschung hofft jedoch Edelman, seine Wahrnehmungstheorie des neuronalen
Darwinismus (Variation und Selektion von Neuronengruppen) auf das Denken
erweitern zu können (Edelman, 1993). Vielleicht lässt sich einmal auf derartige
Weise die Willensfreiheit und die Fähigkeit, Theorien zu begründen, in wissenschaftlichen Theorien formulieren.
Nach der in dieser Arbeit bisher vertretenen Sichtweise wird der Zustand
biologischer Systeme (z.B. auch des Gehirns) bestimmt durch teleonome bzw.
funktionalistische Naturgesetze. Mechanistische und funktionalistische Naturgesetze legen jedoch gleichermaßen fest, was Menschen glauben und was sie als
sogenannte Beweise akzeptieren. Glaubt man aber nur, wozu man durch die Natur
getrieben wird, so kann man sich nie sicher sein, ob in Wirklichkeit nicht alles
ganz anders ist: Vielleicht war es das funktionelle Ziel, die Wahrheit zu erkennen,
vielleicht auch nicht. Theorien ließen sich nicht überzeugend als wahr beweisen,
selbst wenn sie es wären. Um dem Postulat der Willensfreiheit bzw. um unserem
Wunsch, die Wahrheit unserer Glaubensinhalte begründen zu können, gerecht zu
werden, sollte man nun also annehmen, dass die Prozesse irgendwie nicht
deterministisch ablaufen, wie es ja auch in der QM diskutiert wird. Im Abschnitt
über funktionalistische Naturgesetze wurde angenommen, dass bei den Naturgesetzen zwei Ebenen unterschieden werden können: funktionalistische Einstellung
der Parameter und mechanistische (bzw. quantenmechanische) Bewegung der
134
Objekte zu den Attraktoren. Vielleicht verläuft die Auswahl der Ziele mit der
anschließenden Einstellung der Parameter (Vorgang 1) nicht vollständig gesetzmäßig, sondern irgendwie anders. Hierüber wird man aber genauere Leitideen erst
ausarbeiten können, wenn eine wissenschaftliche Theorie der biophysikalischen
Dynamik zumindest ansatzweise vorliegt.
Ob es tatsächlich Willensfreiheit gibt, lässt sich heute nicht entscheiden. Viele
bekannte Phänomene aus der Psychologie und Neurophysiologie scheinen eher
dagegen zu sprechen. Aus der Hirnforschung weiß man, dass sich viele
Verhaltensweisen und sogar Gedanken durch elektrische Stimulationen auslösen
lassen, sie scheinen also naturwissenschaftlichen Gesetzen zu unterliegen. EEGStudien haben gezeigt, dass die vorbereitenden physiologischen Prozesse der
Hirnrinde (Bereitschaftspotentiale) bereits ungefähr 350 ms vor der bewussten
Willensintention einer Handlung auftreten; die Handlungsfreiheit müsste also auf
der unbewussten Ebene stattfinden, will man z.B. keine Retrokausalität oder
Zeitschleifen annehmen (Deecke et al., 1976; Libet, 1993; Penrose, 1994).
Einwenden kann man jedoch gegen Argumente mit reinen experimentellen Daten,
dass es sich bei empirischen Daten um Beobachtungsphänomene handelt, die QM
hingegen nahe legt, dass die Welt (z.B. die Raumzeit) nicht so beschaffen ist, wie
wir sie beobachten. Nur eine durch Experimente gestützte Theorie (und nicht allein
experimentelle Daten) kann uns Hinweise geben für oder wider die Willensfreiheit.
Außerdem soll es aber in der Hypnose möglich sein, einer Person einen
posthypnotischer Befehl zu geben, den die Person später tatsächlich ausführt. Fragt
man sie dann, warum sie die Handlung ausgeführt habe, so erfindet sie
irgendwelche Gründe, ohne zu wissen, dass sie es tat, weil es der Hypnotiseur
befohlen hatte. Unsere tagtäglichen Handlungen und Gedanken könnten ebenso auf
unbekannte Weise festgelegt sein. Dies würde dann allerdings auch für den
Glauben vieler Wissenschaftler an die Wahrheit ihrer Theorien gelten. Auch die
Wissenschaftler, wir alle, wären dann Marionetten an den Fäden der Naturgesetze,
durch die wir auf der großen Bühne der Welt unsere Rollen spielen würden.
Literatur
Arendes, L., 1992, Gibt die Physik Wissen über die Natur? Das Realismusproblem
in der Quantenmechanik, Würzburg.
Arendes, L., 1996, „Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems“, Philosophia Naturalis, 33, 55-81.
135
Barrow, J. D., Tipler, F. J., 1986, The Anthropic Cosmological Principle, Oxford.
Bertalanffy, L. v., 1968, General System Theory. Foundations, Development,
Applications, New York.
Chauvet, G., 1995, La vie dans la matière. Le rôle de l´espace en biologie,
Flammarion.
Davydov, A. S., 1982, Biology & Quantum Mechanics, Oxford.
Deecke, L., Grözinger, B., Kornhuber, H. H., 1976, „Voluntary Finger Movement
in Man: Cerebral Potentials and Theory“, Biol. Cybern., 23, 99-119.
Dijksterhuis, E. J., 1956, Die Mechanisierung des Weltbildes, Berlin.
Dyson, F., 1988, Die zwei Ursprünge des Lebens, Hamburg.
Edelman, G. M., 1993, Unser Gehirn – ein dynamisches System. Die Theorie des
neuronalen Darwinismus und die biologischen Grundlagen der
Wahrnehmung, München.
Eigen, M., Gardiner, W., Schuster, P., Winkler-Oswatitsch, R., 1988, „Ursprung
der genetischen Information“, in: Spektrum der Wissenschaft, Evolution: Die
Entwicklung von den ersten Lebensspuren bis zum Menschen, Heidelberg, 7.
Aufl., 60-80.
Einstein, A., 1946, „Bemerkungen zu Bertrand Russells Erkenntnis-Theorie“, in:
P. A. Schilpp (Hg.), The Philosophy of Bertrand Russell, Evanston, 277-291.
Einstein, A., 1960, Briefe an Maurice Solovine, Berlin.
Engels, E.-M., 1982, Die Teleologie des Lebendigen. Kritische Überlegungen zur
Neuformulierung des Teleologieproblems in der angloamerikanischen
Wissenschaftstheorie, Berlin.
Fröhlich, H. (Hg.), 1988, Biological Coherence and Response to External Stimuli,
Berlin.
Genz, H., 1994, Die Entdeckung des Nichts. Leere und Fülle im Universum,
München.
Hartmann, N., 1951, Teleologisches Denken, Berlin.
Heisenberg, H., 1985, Der Teil und das Ganze. Gespräche im Umfeld der
Atomphysik, München, 9. Aufl.
Heisenberg, W., 1990a, Ordnung der Wirklichkeit, München, 2. Aufl.
Heisenberg, W., 1990b, Physik und Philosophie, Stuttgart, 5. Aufl.
Hilbert, D., 1915, „Die Grundlagen der Physik“, Kgl. Ges. d. Wiss. Math.-phys.
Klasse, 3, 395-407.
Holton, G., 1973, Thematic Origins of Scientific Thought: Kepler to Einstein,
Cambridge.
Hubbard, J. H., West, B. H., 1995, Differential Equations: A Dynamical Systems
Approach. Higher Dimensional Systems, Berlin.
Kauffman, S. A., 1992, „Leben am Rande des Chaos“, in: Spektrum der
Wissenschaft: Entwicklung und Gene, Heidelberg, 162-170.
Kluge, G., Neugebauer, G., 1994, Grundlagen der Thermodynamik, Heidelberg.
Knippers, R., 1995, Molekulare Genetik, Stuttgart, 6. Aufl.
136
Libet, B., 1993, Neurophysiology of Consciousness, Boston.
Mayr, E., 1991, Eine neue Philosophie der Biologie, München.
Monod, J., 1996, Zufall und Notwendigkeit. Philosophische Fragen der modernen
Biologie, München.
Nagel, E., 1977, „Teleology revisited: goal directed processes in biology“, J. Phil.,
74, 261-301.
Penrose, R., 1994, Shadows of the Mind. A Search for the Missing Science of
Consciousness, Oxford.
Prigogine, I., Stengers, I., 1993, Das Paradox der Zeit. Zeit, Chaos und Quanten,
München.
Rafelski, J., Müller, B., 1985, Die Struktur des Vakuums. Ein Dialog über das
Nichts, Frankfurt a. M.
Schrödinger, E., 1993, Was ist Leben?, München, 4. Aufl.
Stegmüller, W., 1969, Probleme und Resultate der Wissenschaftstheorie und
Analytischen Philosophie. Bd I: Wissenschaftliche Erklärung und
Begründung, Kap. VIII: Teleologie, Funktionalanalyse und Selbstregulation,
Berlin.
Törnebohm, H., 1984, „Die Rolle der Naturphilosophie in der physikalischen
Forschung“, in: B. Kanitscheider (Hg.), Moderne Naturphilosophie,
Würzburg, 15-39.
Vollmer, G., 1983, Evolutionäre Erkenntnistheorie, Stuttgart, 3. Aufl.
137
Parapsychologische Untersuchungen zur Hypothese
vom Überleben des körperlichen Todes
Abstrakt: Seit über hundert Jahren werden von der Parapsychologie Phänomene beschrieben
und kritisch untersucht, die von manchen Autoren als empirische Belege für das geistige
Überleben des körperlichen Todes angeführt werden. Eine Zusammenfassung der wichtigsten
Phänomenarten (Erscheinungen, Sterbebett-Visionen, Nahtoderlebnisse, Medienkundgebungen,
scheinbare Erinnerungen an frühere Leben und außerkörperliche Erfahrungen) und die darauf
aufbauenden Argumente und Gegenargumente der Befürworter und Kritiker der
Überlebenshypothese werden in dieser Arbeit überblickartig vorgestellt, um am Schluss ein
neues Forschungsprojekt vorzustellen.
Einführung in die Forschungsfrage
In der neuzeitlichen Wissenschaft und insbesondere seit der Zeit der
Aufklärung wurde die traditionelle Auffassung vom Leben, wonach eine
Seele den materiellen Organismus steuere, ersetzt durch die Maschinentheorie des Lebens. Nach dieser Vorstellung der Materialisten ist der lebende
Körper lediglich eine sehr komplexe Maschine, und wie komplex und
leistungsfähig Maschinen sein können, verdeutlichen heutzutage insbesondere unsere Computer. Aber eine Maschine besteht in der Regel aus starren
Bestandteilen, die nur ganz bestimmte Bewegungsformen ausführen können,
wohingegen gerade die lebenswichtigen Teile eines Organismus, das
Zellinnere, eine wässrige bzw. kolloide Lösung ist, die man kaum mit dem
starren Aufbau unserer leistungsfähigsten Maschinen vergleichen kann. Aus
solchen und anderen Gründen hat es auch in neuerer Zeit immer wieder
herausragende Biologen gegeben, die die Maschinentheorie des Lebens
anzweifelten (s. von Hartmann 1906). Hans Driesch beispielsweise, der
Anfang des 20. Jahrhunderts bahnbrechende entwicklungsbiologische
Experimente durchführte, glaubte in Anlehnung an Aristoteles, dass eine
sogenannte Entelechie von außerhalb des Raumes die organische Materie
steuere (Driesch 1928). Eine Entelechie (griech. „das Ziel in sich haben“) ist
138
bei Aristoteles das Formprinzip, das einem Stofflichen, insbesondere einem
Organismus, seine Gestalt gibt und das Lebendige in ihm ist. Die Auffassung,
nach der im lebenden Körper organismusspezifische Prinzipien wirken (eine
Seele, Entelechie oder Lebenskraft) wird als Vitalismus bezeichnet.
Bis zur Neuzeit und vor allem bis zur Zeit der Aufklärung glaubten auch im
Westen die meisten Menschen aufgrund ihrer religiösen Bindung an ein
Leben nach dem Tod. Dem hielten später die Materialisten entgegen, dies
würde den wissenschaftlichen Erkenntnissen und philosophischen Überlegungen widersprechen, wonach die gesamte Natur nur aus kleinsten Teilchen
und den zwischen ihnen wirkenden Kräften bestehe. Da aber heutzutage
unklar ist, was die derzeit fundamentalste naturwissenschaftliche Theorie, die
Quantenmechanik (QM), über die Natur aussagt (s. Arendes 1992, 2005a),
muss der Materialist sich heute auf die Argumente zurückziehen, dass die
heute allgemein akzeptierten wissenschaftlichen Theorien keine Entitäten wie
die Seele oder Entelechie postulieren und dass es auch keine empirischen
Fakten gäbe, die auf die Notwendigkeit derartiger Entitäten hindeuten. Ob
das Letztere – dass es keine derartigen empirischen Befunde gäbe –
tatsächlich stimmt, wird besonders innerhalb der Parapsychologie von
einigen Autoren bestritten, auf deren Argumente in dieser Arbeit eingegangen werden soll.
Viele Menschen, die an ein Leben nach dem körperlichen Tod glauben,
glauben zusätzlich, dass es sich um ein bewusstes Leben handele – aber ist
Bewusstsein ohne Körper möglich? Wir alle erleben immer wieder die
Abhängigkeit unseres Bewusstseins von materiellen Stoffen. Ohne genügend
Sauerstoff werden wir bewusstlos, und über die Möglichkeit einer
Vollnarkose vor einer Operation durch Inhalation bestimmter chemischer
Stoffe ist jeder Patient sehr erfreut. Kann es trotz dieser offensichtlichen
materiellen Beeinflussbarkeit ein körperloses Bewusstsein geben? Die
überwiegende Mehrzahl der Naturwissenschaftler bestreitet dies. Jedoch
muss darauf hingewiesen werden, dass es eine naturwissenschaftliche
Bewusstseinstheorie noch nicht gibt, und erst eine psycho-biophysikalische
und experimentell getestete Theorie kann auf diese Frage eine wissenschaftlich befriedigende Antwort liefern.
In der heutigen Naturwissenschaft gibt es weder eine befriedigende Theorie
der biologischen Dynamik, anders formuliert keine Theorie des Leben, (auch
wenn Hakens Theorie der Synergetik und die Kybernetik schon sehr viel
139
leisten) noch eine Bewusstseinstheorie, und trotzdem sind die meisten
Naturwissenschaftler der festen Überzeugung, dass der Mensch mit dem
körperlichen Tod vollständig aufhöre zu existieren. Worauf beruht dieser
Glaube? Der Glaube an den völligen Tod hat hauptsächlich zwei Gründe.
Einerseits glauben manche Naturwissenschaftler immer noch an das klassische physikalische Weltbild (was ihnen anscheinend oftmals gar nicht
bewusst ist), wonach die Welt lediglich eine Zusammensetzung aus kleinsten
Teilchen und den zwischen ihnen wirkenden Kräften ist, andererseits
konzentrieren sich Naturwissenschaftler aus methodologischen Gründen auf
beobachtbare Dinge. Hätte das klassische wissenschaftliche Weltbild Recht,
so wäre der Mensch selbstverständlich tod, sobald seine Materiekonstellation
zerfallen ist. Aber wie kaum noch bestritten werden kann, hat spätestens die
QM das klassische Weltbild widerlegt, und heute gibt es kein Weltbild, dass
von allen Wissenschaftlern geteilt wird, so dass es derzeit keine alle
überzeugenden weltanschaulichen Argumente gegen ein Leben nach dem
körperlichen Tod geben kann.
Das zweite Argument gegen den Glauben an eine Seele oder Entelechie ist
die Unbeobachtbarkeit derartiger Entitäten. Im 17. Jahrhundert entstand
unsere heutige Form wissenschaftlicher Forschung und diese hat seitdem
einen so überragenden Erfolg gehabt, weil sich die Wissenschaftler, so
glaubten sie zumindest, streng an das Beobachtbare hielten und sie alle
transzendenten Entitäten, wie sie beispielsweise von den Kirchen im
Mittelalter gelehrt wurden (Teufel, Engel etc.), als unbeobachtbaren
Aberglauben negierten. Lange Zeit war man in der Wissenschaft der
Überzeugung, dass nur harte (d.h. beobachtbare) Fakten und darauf
aufbauende Verallgemeinerungen (die sogenannte induktive Methode) die
Grundlage der wissenschaftlichen Forschung ausmache. Aber auch diese
methodologische Grundeinstellung der Wissenschaftler musste im 20.
Jahrhundert revidiert werden. Grundlegende physikalische Theorien wie die
QM, die Thermodynamik und die metrische Gravitationstheorie lassen sich
nicht direkt aus Beobachtungsdaten ableiten, vielmehr sind grundlegende
Theorien kühne Vermutungen, die experimentelle Bestätigungen erhalten,
ohne aber bewiesen werden zu können (s. Arendes 1992, b). Außerdem
enthalten gerade die grundlegenden physikalischen Theorien Entitäten, die
nicht beobachtbar sind, mit denen sich aber beobachtbare Phänomene
erklären lassen. Solche Entitäten sind beispielsweise elektromagnetische
Felder (man beobachtet ihre Auswirkungen, aber nicht die Felder selbst),
thermodynamische Potentiale wie Enthalpie und Entropie, und selbst die
140
Quarks sind nach den heutigen Theorien nur im Verbund als andere
Teilchenarten beobachtbar, Quarks selbst jedoch nicht. Wenn aber eine
unbeobachtbare Entität im Rahmen einer experimentell getesteten Theorie
einen Erklärungswert besitzt, so wird sie von der Wissenschaftlergemeinschaft als existent betrachtet.
Da wir derzeit kein allgemein akzeptiertes Weltbild besitzen, das Entitäten
wie die Entelechie oder die Seele ausschließt, und da heutzutage auch die
wissenschaftliche
Methodologie
unbeobachtbare
Entitäten
nicht
grundsätzlich verbietet, kann heute die Frage nach dem Überleben des
körperlichen Todes auch von Naturwissenschaftlern vorurteilsfrei behandelt
werden.
Die empirischen Phänomene
Für die Hypothese vom Überleben des körperlichen Todes werden
verschiedene Phänomenarten angeführt, die im Folgenden kurz dargestellt
werden sollen, um anschließend die Hauptargumente der Kritiker und die
Gegenargumente der Befürworter der Überlebens-Hypothese (ÜH) darzustellen.
Bei den sogenannten außerkörperlichen Erfahrungen (s. z.B. Green, 1968;
Sabom 1982) hat man das Gefühl, sich außerhalb seines Körpers zu bewegen
und von außerhalb seine Umwelt zu betrachten, was von einigen Autoren als
Indiz dafür angesehen wird, dass das Bewusstsein ohne Körper existieren
könne. Auf ähnliche Weise sollen auch die Geister von Verstorbenen fortexistieren und uns in den Seancen über Medien Botschaften übermitteln
können. Bei diesen Medienkundgebungen (s. z.B. James 1910; Lodge 1917;
Broad 1962, 1980; Gauld 1983; Mattiesen 1987) befindet sich eine Person in
Trance und entweder hat sie Kontakt mit einem Geist (angeblich durch
Telepathie), den man als die Kontrolle bezeichnet, oder diese Kontrolle
ergreift Besitz von dem Körper des Mediums und benutzt ihre Sprechorgane,
um ihre Botschaften zu übermitteln. Die Kontrolle behauptet, in Kontakt mit
einem Verstorbenen (dem Kommunikator) zu stehen, der ein Verwandter
oder Freund eines in der Seance anwesenden Sitzers sei. Die Botschaften, die
die Kontrolle durch das Medium übermittelt, sind meistens Informationen
über das irdische Leben und über Eigenarten des Verstorbenen, die in
141
manchen Fällen sehr gut zu der vermutlichen Gedächtnisstruktur des
Verstorbenen am Ende seines Lebens zu passen scheinen und die auch seinen
charakterlichen Eigenarten und Redewendungen, seinem Humor, der Gestik
etc. zu entsprechen scheinen.
Verstorbene sollen außerdem in der Lage sein, sich als sogenannte
Erscheinungen (s. z.B. Green, McCreery 1975; Hart et al. 1956; Mattiesen
1987) in unserer physikalischen Welt bemerkbar zu machen. Erscheinungen
sind wie normale Objekte oder Personen scheinbar physikalisch existierend
sichtbar und treten vollständig oder teilweise mit einem Körper auf, den die
Verstorbenen zu Lebzeiten hatten. Bei den Sterbebett-Visionen (s. z.B.
Barrett 1926; Osis, Haraldsson 1978) erscheinen verstorbene Verwandte,
Freunde oder auch irgendwelche anderen, scheinbar göttliche Wesen (Engel,
Krishna u.ä.) dem Sterbenden, um ihn in die jenseitige Welt abzuholen oder
ihn darauf vorzubereiten. Von sogenannten Nahtoderlebnissen (s. z.B.
Moody 1977; Ring 1982, 1986) mit solchen Geisteswesen (Lichtwesen)
berichten Personen, die dem körperlichen Tod sehr nahe gewesen sind – als
klinisch tod beurteilt worden sind, im Koma gelegen haben o.ä. – und die im
Zustand einer außerkörperlichen Erfahrung in eine jenseitige Welt geflogen,
aber von dort aus wieder zurückgekehrt seien, da sie angeblich noch nicht
körperlich sterben sollten. Von einem vor der Geburt stattgefundenen
Kontakt mit einem jenseitigen Wesen berichten in ganz seltenen Fällen auch
Kinder, die sich als körperliche Wiedergeburt einer in der Vergangenheit
gelebten Person betrachten. Bei den spontanen Reinkarnationsfällen (s. z.B.
Stevenson 1986, 1999, 2005) sind Kinder ebenso wie die Medien der
Seancen in der Lage, sehr detailliert Informationen über das Leben eines
Verstorbenen zu geben, mit dem sie sich aber über mehrere Jahre hinweg
identifizieren, bevor ihre angeblichen Erinnerungen an dieses frühere Leben
nach einigen Jahren immer mehr verblassen und zumeist irgendwann ganz
aufhören. Vermeintliche Erinnerungen an frühere Leben werden außerdem in
hypnotischen Altersrückführungen erlebt (s. z.B. Bernstein 1973; Stevenson
1984).
Überblick über Argumente der Kritiker
Die Neurowissenschaft belegt auf vielfältige Weise, dass das Gedächtnis und
andere kognitive Funktionen von Hirneigenschaften abhängen, und nach
142
Ansicht der Kritiker könnten deshalb körperlose Geister von Verstorbenen
nicht existieren und beispielsweise nicht die Erinnerungsfähigkeit haben, wie
es bei verschiedenen Phänomenarten behauptet wird. Die behaupteten
Phänomene könnten deshalb, soweit es sich nicht einfach um Betrug handelt,
nur Halluzinationen sein, eventuell verbunden mit telepathisch und
hellseherisch erworbenem Wissen. Das dargebotene Wissen könnte von den
betroffenen Personen in der Vergangenheit erworben und eventuell
unbewusst aufgenommen worden sein, wurde dann aber scheinbar vergessen,
blieb jedoch im Unterbewusstsein gespeichert (Kryptoamnesie). Die
einzelnen Phänomenarten als Beweis des Überlebens einer körperlosen Seele
zu betrachten, ist auch deshalb voreilig, weil wir über viele menschliche
Fähigkeiten und über deren Entstehung noch zu unwissend sind. So ist noch
völlig ungeklärt, wie es zur außersinnlichen Wahrnehmung (ASW) kommt,
und deshalb ist auch unklar, wie umfangreich ASW sein kann und ob mit
dieser Fähigkeit Informationen beschafft werden können, wie sie
beispielsweise
in
den
Medienkundgebungen
und
bei
den
Reinkarnationsfällen dargeboten werden. Auch kennt man die Natur des
Gedächtnisses noch nicht vollständig; so ist denkbar, dass nicht nur
Lebewesen ein Gedächtnis besitzen sondern die gesamte materielle Welt, so
dass eventuell nach dem körperlichen Tod eines Menschen in der Natur
Gedächtnisspuren zurück bleiben, die auf unbewusste Weise zur
Halluzination von künstlichen Persönlichkeiten genutzt werden können (s.
Roll 1982). Und schließlich klingen die Berichte über das angebliche Jenseits
oftmals zu naiv und zu ähnlich der unsrigen Welt, um sie glauben zu können
(s. Baerwald 1925).
Um nun zur Kritik der Phänomenarten im Einzelnen zu kommen:
Insbesondere die Medienkundgebungen bestehen zu einem großen Teil aus
Unsinn und Banalitäten, wie man es von lebenden Geistern nicht erwarten
könne (Baerwald 1925). Durch die selektive Zitierung der sehr interessanten
Kundgebungen wird der Eindruck erweckt, derartige Informationsleistungen
mit ASW erklären zu können klinge zu unwahrscheinlich; da jedoch der
größte Teil der Kundgebungen aus wertlosem Unsinn besteht, ist das seltene
Auftreten von
erstaunlichen
ASW-Leistungen
einiger
weniger
herausragender Medien gar nicht so unplausibel. Insbesondere Experimente
mit Hypnose haben gezeigt, dass Menschen zu phantastischen Leistungen in
der Lage sind: Unter Hypnose können umfangreiche Geschichten fabuliert
werden, andere Personen und sogar Tiere werden nachgeahmt und
posthypnotisch ist ein automatisches Schreiben möglich, das der Proband
143
nicht bewusst wahrnimmt (Hilgard 1986). In unseren Träumen erfinden wir
jede Nacht die verschiedensten Personen, manchmal verbunden mit
telepathisch erworbenem Wissen, und das Krankheitsbild der multiplen
Persönlichkeit, bei der gleichzeitig oder abwechselnd verschiedene
Persönlichkeiten das Verhalten des Patienten bestimmen, belegt ebenfalls,
dass zumindest manche Menschen sogar bei Bewusstsein die unterschiedlichsten Persönlichkeiten darstellen können. Selbst einige Befürworter der ÜH
räumen ein, dass die Kontrollen von den Medien selbstgemacht sind, was
dann natürlich nahe legt, dass sie derartiges auch bei den Kommunikatoren
können. Dass Informationen geliefert werden, die genau auf die Verstorbenen
passen, ist sicherlich erstaunlich, aber die Natur des Trancezustandes ist noch
nicht genügend erforscht, und eher könnte der Zugang zu einem Gedächtnisspeicher eines Weltgeistes vermutet werden als die Existenz von Geistern.
Auch geben diese geisterhaften Kommunikatoren zu selten Bericht über das,
was sie zwischen den Seancensitzungen im Jenseits tuen und wie dies
Jenseits beschaffen sei. Und eines der schärfsten Argumente gegen die
Geisterdeutung der Medienkundgebungen ist die Tatsache, dass diese
angeblichen Verstorbenen noch nie überzeugend in der Lage waren,
beispielsweise in Briefen verschlüsselte Botschaften, die diese Personen vor
ihren körperlichen Tod versiegelt hinterlegt hatten, zu enthüllen.
Das semi-automatenhafte Verhalten vieler Erscheinungen und ihre wenigen,
aber oft bedeutungslosen Mitteilungen deuten ebenfalls darauf hin, dass ihre
Verursachung kein völlig vitaler Geist ist, wie es viele Spiritisten glauben
(Baerwald 1925). Auch gibt es – in seltenen Fällen – Erscheinungen lediglich
von Gegenständen wie von Häusern und Blumen, welche belegen, dass
Erscheinungen nicht von externen Aktivitätszentren ausgehen, sondern allein
vom Perzipienten hervorgebracht werden können.
Die Sterbebett-Visionen und Nahtoderlebnisse (NTE) sind nach Meinung der
Kritiker (s. z.B. Hövelmann 1985) Halluzinationen zur Verdrängung der
Todesangst, sie seien Wunschdenken und entständen aus einer
Erwartungshaltung religiöser Menschen über ihren Zustand nach dem Tod.
Medikamente und Drogen können Phänomene bewirken, wie sie in den NTE
auftreten, ebenso kennt man Krankheiten und physiologische Zustände wie
das Symptom der Depersonalisation, die cerebrale Anoxie und das limbische
System Syndrom, welche Phänomene wie die außerkörperliche Erfahrung
und andere Halluzinationen hervorbringen (Carr 1982; Noyes 1972; Noyes et
al. 1977; Rodin 1980, 1989; Siegel 1977, 1983).
144
Außerkörperliche Erfahrungen können kein Beweis für ein Leben ohne
Körper sein, weil während dieser Erlebnisse der Körper dieser Person noch
lebendig ist und als Trägersubstanz dieser Bewusstseinszustände dienen kann
(s. z.B. Hövelmann 1985; Thouless 1984). Dass man bei diesen Erlebnissen
glaubt, sich außerhalb seines Körpers zu befinden, komme lediglich daher,
dass bei diesen Sinnestäuschungen das Selbstkonzept versehentlich nicht dem
eigenen Körper sondern der Umwelt zugeordnet wird.
Was die angeblichen Erinnerungen an frühere Leben betrifft, so werden die
hypnotischen Rückführungen in angeblich frühere Leben selbst von den
meisten Parapsychologen als wenig aussagekräftig beurteilt, da unter
Hypnose Probanden durch Suggestionen leicht zu umfangreichen
Fabulierungen zu bringen sind, bei denen zuvor unbewusst erworbenes
Wissen benutzt werden kann. Eine unbewusste Wissensaufnahme kann auch
bei den Spontanfällen angeblicher Reinkarnation eine entscheidende Rolle
spielen (s. Roll 1982; Hick 1994), denn zwischen den beiden beteiligten
Familien – der aktuellen Familie des Kindes und der angeblich früheren –
gibt es oft örtliche und personale Verbindungen, die oft auch bei der
Erforschung des Falles auftreten und die beispielsweise mittels Psychometrie
(Informationsübertragung durch Kontakt mit Objekten) zu einer
Wissensaufnahme führen könnten. Die langjährige Identifizierung mit der
früheren Persönlichkeit – die Erlebnisse der erworbenen Informationen als
Erinnerungen früherer Erfahrungen – ist ebenfalls kein Beweis für die
Wahrheit der Behauptung des früheren Lebens, da auch Sensitive und
Medien sich manchmal mit den paranormal erworbenen Informationen
identifizieren.
Überblick über Argumente der Befürworter
Die Hirnforschung hat zwar Abhängigkeiten unseres Gedächtnisses und
unseres Denkvermögens vom Gehirn nachgewiesen, ein Beweis für eine
Unmöglichkeit des geistigen Überlebens sind diese empirischen Befunde
jedoch nicht. Zu vieles ist in den Neurowissenschaften noch ungeklärt;
vollständige wissenschaftliche Theorien über das Funktionieren von
Gedächtnis und Denken gibt es zur Zeit nicht. Die bekannten physiologisch
145
bedingten Gedächtnisstörungen sind beispielsweise auch erklärbar, wenn
man das Gehirn und diejenige Entität, die den körperlichen Tod überleben
kann, als ein zusammengehörendes System betrachtet, so dass sich
Hirnschädigungen negativ auf das Gesamtsystem auswirken können (Broad
1962, 1980).
Um die für das Überleben angeführten Phänomene in seinem Sinne zu
deuten, muss der Kritiker auf sehr umfangreiche Weise eine paranormale
Wissensaufnahme (vor allem Telepathie) behaupten, um die mitgeteilten
Informationen der Reinkarnationskinder, Medien und Erscheinungen erklären
zu können; in Laborexperimenten konnten aber derartig umfangreiche und
detaillierte telepathische Wissensübertragungen, wie es insbesondere bei den
Medienkundgebungen manchmal der Fall ist, noch nie nachgewiesen werden
– abgesehen von einige Untersuchungen mit Sensitiven, deren
wissenschaftliche Durchführung kritisiert werden kann. Darüber hinaus
lassen sich besondere Fähigkeiten wie die der responsiven Xenoglossie
(Kommunikation der Medien oder Hypnotisierten in einer Fremdsprache)
oder Tänze und Gesänge (die aufgeführt werden, ohne dass sie dieses jemals
haben erlernen können) allein mit ASW vermutlich nicht erklären (Stevenson
1974, 1984, 1986; Stevenson, Pasricha 1980).
Dass die Erscheinungen sehr oft ein semi-automatenhaftes Verhalten zeigen
und die Medienkundgebungen oft Banalitäten über ihr früheres Leben und
vielfachen Unsinn enthalten, kann daher kommen, dass man sich nach dem
körperlichen Tod in einem schlaf- oder traumähnlichen Zustand befindet (s.
Price 1965). Außerdem kann das Krankheitsbild der multiplen Persönlichkeit
nicht als Erklärung der Personationen in den Seancen angeführt werden, da
die Entstehung der multiplen Persönlichkeit ebenfalls ungeklärt ist und man
somit nur ein Rätsel durch ein anderes ersetzen würde. Hätten die Medien
ebenso wie die Kinder der Reinkarnationsfälle alle diejenigen Informationen,
die sie auf natürliche Weise gar nicht erlangt haben konnten, mittels
Telepathie von Lebenden erhalten, hätten sie somit außergewöhnliche ASWFähigkeiten besessen, so sollte man erwarten, dass sie viel öfter auch Dinge
gewusst hätten, die die Verstorbenen nicht wussten.
Was die Erscheinungen betrifft, so klingt die Halluzinationshypothese oft
sehr unwahrscheinlich, beispielsweise wenn die Erscheinung gleichzeitig von
mehreren Personen gesehen wurde. Dass sich solche Halluzinationen
ausgehend von einer Person auf telepathischem oder anderem Wege auf alle
146
anderen Anwesenden ausgedehnt haben sollen, ist besonders dann nicht sehr
überzeugend, wenn zuerst z.B. der Hund auf die Erscheinung angeschlagen
hatte und erst daraufhin die anwesenden Menschen es bemerkten. Irgendeine
objektive Ursache für derartige kollektive Wahrnehmungen sollte es deshalb
geben, ebenso für diejenigen Erscheinungen, die von den unterschiedlichsten
Perzipienten zu verschiedenen Zeiten und am selben Ort erlebt worden sind.
Oft wussten sogar die Perzipienten gar nichts vom Sterben des Erschienenen,
und wäre dies durch Telepathie übertragen worden, so sollte die Erscheinung
nur das Leid und die Todesangst des Erschienenen ausdrücken, anstatt Trost
oder Banalitäten darzustellen, wie es oft der Fall ist. Bei einer telepathischen
Auslösung von Erscheinungen sollten außerdem öfter Lebende erscheinen
und nicht so überhäufig Tote.
Zu den Kritiken an den Nahtoderlebnissen ist zu sagen, dass keine der
angeführten neurophysiologischen Theorien alle bei den NTE auftretenden
Phänomenen erklären kann, auch treten NTE bei Personen ohne
Medikamenteneinnahme und bei vollem Bewusstsein auf; Drogenhalluzinationen und Träume sind außerdem viel variabler (Hövelmann 1985; Moody
1977; Ring 1982). Viele Kritiken der ÜH-Gegner klingen plausibel, wenn
man sie ganz allgemein vorträgt, schaut man sich aber die Phänomene im
Detail an, so bleiben oft einige Zweifel. Würde es sich bei den NTE
beispielsweise um Wunschdenken handeln, dann sollten sterbende Kinder
viel öfter ihre Eltern halluzinieren und nicht verstorbene Verwandte, die sie
nie zuvor gesehen haben; auch hatten Patienten, die an das Überstehen ihrer
Krankheit glaubten, keinerlei Grund zum Wunschdenken. Wie eine Studie
von Osis und Haraldsson (1978) zeigte, spielen psychologische Faktoren wie
Stress und medizinische Faktoren wie Medikamente und Hirnschädigungen
bei den Sterbebett-Visionen keine ausschlaggebende Rolle.
Dass einige Kritiker weltanschaulich bedingten Abwehrmechanismen
unterliegen, ist manchmal bei den Reinkarnationsfällen unübersehbar – wenn
beispielsweise die daran beteiligten Personen als vom Teufel verführt
bezeichnet werden (s. Bernstein 1973). Und die Hypothese vom Zugriff auf
spezifische Gedächtnisspeicher eines Weltgeistes zur Erklärung von
mitgeteilten Informationen, die selektiv auf die Gedächtnisstruktur eines
Verstorbenen passen, mag bei Medien im abnormen Trance-Zustand
plausibel erscheinen, jedoch kaum bei Kindern im normalen Wachzustand. In
seltenen Fällen wurde das Kind eines Reinkarnationsfalles geboren, bevor die
vorangegangene Persönlichkeit starb (s. Stevenson 1986); nach der
147
Telepathie- und Halluzinationshypothese sollte man aber derartiges (und vor
allem Identifizierungen mit noch Lebenden) viel häufiger erwarten; das
seltene Auftreten solcher Fälle des später Geborenen könnte deshalb eher die
Verdrängung einer zuvor inkarnierten Seele bedeuten. Bemerkenswert ist
auch, dass bei Gegenüberstellungen mit der angeblich früheren Familie
Täuschungsversuche der Familie oft nicht zu falschen Wiedererkennungsbehauptungen des Kindes führen. Die ASW-Hypothese erklärt außerdem
nicht die Identifizierung des Kindes mit der früheren Persönlichkeit; die
mitgeteilten Informationen werden erlebt als die eigenen Erinnerungen, was
bei Sensitiven und Medien auch vorkommt, aber nie über mehrere Jahre
hinweg.
Obwohl die außerkörperlichen Erfahrungen (AKE) zunächst nur als ein
indirektes Argument für das Überleben angeführt werden, nämlich als Beleg
für die Existenz des Bewusstseins ohne Körper, und obwohl die Gegner
diesem Argument begegnen können (der Körper als Trägersubstanz von
Bewusstseinsphänomenen existiert während dieser Erfahrungen, AKE seien
deshalb nur Sinnestäuschungen), ergeben sich dennoch aus den AKEUntersuchungen zwei wichtige Argumente. Wie der Kardiologe Sabom
(1982) in seinen Untersuchungen zeigen konnte, entsprechen die AKE,
welche Patienten während Operationen und Notfallmaßnahmen hatten, zu
einem großen Teil tatsächlich den wirklich stattgefundenen Vorgängen, da
aber Nahtoderlebnisse meistens mit AKE beginnen und da es einen
kontinuierlichen Übergang von den anfänglichen Beobachtungen des eigenen
Körpers und seiner physikalischen Umwelt zu den anschließenden
Beobachtungen in einer vermeintlich jenseitigen Welt gibt, liegt die
Vermutung nahe, dass auch die späteren Erlebnisse von NTE im Jenseits
teilweise wahr sind. Darüber hinaus ist der Materialist vor die Frage gestellt,
wie überhaupt in Koma liegende Personen derartige Bewusstseinszustände
haben können, wenn das Bewusstsein lediglich eine Emergenzeigenschaft
des materiellen Gehirns sein soll. Hier steht der Materialist vor der
Erklärungspflicht zu zeigen, wie Bewusstseinszustände, die aber keinerlei
z.B. mit einem Unfall verbundene Schmerzen enthalten, im Koma möglich
sind.
148
Abschließende Beurteilungen
Wie in jedem wissenschaftlichen Forschungsprojekt gibt es auch bei dieser
Forschungsfrage viele einander gegenüber stehende Argumente und alternative Theorien. Unter den vielen Erlebnisberichten und Darstellungen der
einzelnen Phänomenarten (s. Mattiesen 1987; Ring 1982, 1986; Stevenson
1986, 2005) mag es ab und zu Betrügereien geben, dass es solche Phänomene
tatsächlich gibt, kann jedoch nicht angezweifelt werden. Betrug, Gedächtnistäuschungen und Übertreibungen spielen vermutlich nur bei den Details der
Berichte eine wichtigere Rolle, jedoch stützen sich die Argumente der
Befürworter manchmal gerade auf Details der Geschehnisse. Neben der
Betrugshypothese ist ein anderes wichtiges Argument der Kritiker, dass es
sich bei Phänomenen wie den Erscheinungen, Medienkundgebungen und
Nahtoderlebnissen um Halluzinationen handele. Wenn man jedoch bedenkt,
dass es wegen der QM derzeit kein allgemein akzeptiertes wissenschaftliches
Weltbild gibt und dass wir zur Zeit auch keine experimentell getesteten
Theorien über das Bewusstsein und über die Natur des Lebens bzw. über
Biodynamik haben, sollte man mit der Halluzinationsbehauptung vorsichtig
sein. Zweifelsohne gibt es Menschen, die allzuleicht ihre reinen Phantasien
als Tatsachen hinnehmen, auch gibt es einflussreiche Organisationen, die aus
Machtinteressen die Wahrheit bekämpfen und vor Betrug nicht zurückschrecken, aber erst wissenschaftliche Theorien über Bewusstsein und
Biodynamik können uns Aufschluss darüber geben, ob derartige Phänomene
wirklich so unglaubwürdig sind, wie es viele Kritiker annehmen.
Als am wenigsten überzeugend erscheint mir die Geisterdeutung der
Medienkundgebungen, denn hiergegen haben die Kritiker sehr viele und
teilweise sehr überzeugende Argumente vorzubringen (z.B. die
außergewöhnlichen Gedächtnis- und Fabulierleistungen von Hypnotisierten,
das Phänomen des Krankheitsbildes der multiplen Persönlichkeit, negativ
ausgefallene Tests mit zu Lebzeiten hinterlassenen versiegelten Botschaften
u.a.). An die Mitteilungen von wirklichen Geistern in den Seancen kann man
deshalb nur glauben, wenn man aufgrund anderer Argumente ohnehin von
der Existenz der Verstorbenen überzeugt ist; zumindest soweit man keine
persönlichen Erfahrungen hiermit hat und Medienkundgebungen nur vom
Lesen kennt. Sehr interessant sind jedoch Sterbebett-Visionen und
Nahtoderlebnisse; leider sind aber die Erlebnisse in einer angeblich
149
jenseitigen Welt nicht direkt wissenschaftlich überprüfbar, so dass man
lediglich die innere Konsistenz der Berichte aller Personen mit solchen
Erlebnissen untersuchen kann und man sich auf indirekte Argumente wie
dem vom kontinuierlichen Übergang der AKE zu den Erlebnissen in einer
anderen Welt stützen muss. Auch wäre es wünschenswert, wenn es mehr
Untersuchungen von unterschiedlichen Forschergruppen zu den SterbebettVisionen gäbe.
Die Hinweise auf ein Überleben, die sich aus den Reinkarnationsfällen
ergeben, sind nicht so umfangreich, wie die aus anderen Phänomenbereichen;
insbesondere im Westen gibt es nur wenige interessante Fälle, aber aus
theoretischen Gründen sind die Argumente der anderen Bereiche auch
indirekte Argumente für die Wiedergeburt. Denn sollte ein menschlicher
Körper zu seiner Steuerung eine Entelechie oder Seele benötigen, dann läge
die Vermutung nahe, dass diese steuernde Instanz nicht für jeden
entstehenden Körper erst neu erschaffen wird: Entsprechend der Komplexität
des menschlichen Körpers sollte eine Entelechie ebenfalls eine komplexe
Entität sein, eine mit dem Körper während der Embryogenese parallel sich
erst herausbildende Entelechie wäre denkbar, aber nicht unbedingt zu
erwarten, da diese doch schon dazu in der Lage sein soll, die hochkomplexe
Genexpression der Vorgänge der ontogenetischen Entwicklung zu steuern.
Nach der Ansicht der ÜH-Vertreter gäbe es doch genügend einsatzbereite
Entelechien (im Jenseits), so dass eine völlige Neuerschaffung unnötig wäre.
Plausibler ist deshalb die Vermutung, dass Entelechien nacheinander
verschiedene Körper steuern können und dass die Komplexität solcher
Instanzen sich während der phylogenetischen Evolution von den niedersten
biologischen Lebewesen zum Menschen entwickelte. Dass es tatsächlich eine
steuernde Instanz geben könnte, ist naturwissenschaftlich nicht undenkbar,
denn die Naturgesetze der unbelebten Natur sind kausal-deterministisch (in
der QM verbunden mit einem scheinbaren Zufallscharakter), die Prozesse
eines Körpers jedoch zielgerichtet; und für die teleonome Modifikation der
Naturgesetze könnte man zusätzliche Parameter postulieren (s. Arendes b),
die Teile einer Entelechie sein könnten.
Ein weiteres Argument für die ÜH ist, dass die verschiedenen
Phänomenarten auf einfache Weise durch die Existenz einer den körperlichen
Tod überdauernden Entität erklärt werden können, wohingegen die Kritiker
eine Vielzahl von verschiedenen und teilweise zusammen arbeitenden
Faktoren zur Erklärung anführen müssen: Betrug, Halluzination, Telepathie,
150
Kryptoamnesie, Verdrängung von Todesängsten, Wunschdenken,
Suggestionen des Hypnotiseurs, unbewusste (und eventuell psychometrische)
Informationsaufnahme, physiologische Hirnschäden der verschiedensten
Arten, Nebenwirkungen von Medikamenten und Sauerstoffmangel. Je mehr
Faktoren zur Erklärung der Phänomene nötig sind, desto unplausibler wirkt
dieser Standpunkt natürlich. Die ÜH ist jedoch nur scheinbar einfach, denn
auf der ontologischen Ebene ist sie tatsächlich sehr komplex. Zur Erklärung
der Phänomene müsste nicht nur eine überdauernde Entelechie postuliert
werden sondern zusätzlich eine jenseitige, eventuell unphysikalische Welt, es
müsste außerdem ein noch unbekannter physikalischer Mechanismus zur
Herbeiführung der Erscheinungen angenommen werden und/oder ein
Mechanismus zur telepathischen Kommunikation mit Verstorbenen, und aus
den Nahtoderlebnissen ergibt sich die Annahme höherer Wesen (z.B.
Lichtwesen), will man dieses Element der NTE nicht als Halluzination
wegerklären und damit den Gegnern der ÜH dieses Argument zur
Wegerklärung auch der anderen Phänomene zugestehen.
Zu den fünf Elementen einer Theorie im Sinne der ÜH (Entelechie,
zusätzlicher jenseitiger Seinsbereich, Mechanismus zur Bildung von
Erscheinungen, Telepathie, höherstehende Geisteswesen) sollen nun einige
Anmerkungen bezüglich ihrer wissenschaftlichen Plausibilität gemacht
werden. Telepathie kann man auch unabhängig von der ÜH vermuten, ist
also kein Erklärungsfaktor, der extra für die ÜH postuliert werden muss. Für
die Existenz von Telepathie gibt es unabhängig von der Überlebensfrage
überzeugende Belege (s. Bender 1980) und als Ansatzpunkt zur Erklärung
dieses Phänomens bietet sich das EPR-Paradox der QM (s. Arendes 1992, a)
an, welches einen noch unbekannten Informationsübertragungsmechanismus
vermuten lässt. Was die Postulierung einer Entelechie betrifft, muss daran
erinnert werden, dass eine Theorie zur Erklärung des Bewusstseins ohnehin
noch gefunden werden muss und allein zur Erklärung dieses Phänomens wird
man eventuell heute noch unbekannte Eigenschaften oder Entitäten der Natur
postulieren müssen. Auch gibt es in der Physik wegen der QM immer mehr
Physiker, die einen verborgenen Seinsbereich vermuten; Heisenberg (1990)
sprach von der Potentialität, aus der heraus unsere beobachtbaren Dinge
aktualisiert würden, und Bohm unterschied die explizite und die implizite
Ordnung (s. Arendes 1992, a). Ein solcher zusätzlicher Seinsbereich der
heutigen QM mag zwar kaum als Lebenswelt von Verstorbenen plausibel
erscheinen, aber als Lagerungsstätte für entelechiale Strukturen, die von dort
aus den Körper der physikalischen Realität steuern und die zwischen den
151
Inkarnationen nur in einem Traumzustand sind, ist er denkbar. Zumindest
deutet die QM an, dass unsere materielle Welt nicht die gesamte Wirklichkeit
ausmacht. Was die Erscheinungen betrifft, wären sie physikalisch existent, so
wäre dies tatsächlich eine sehr große Herausforderung an die Physik. Da
Erscheinungen eine soziale Funktion zu spielen scheinen, wären sie – falls sie
nicht nur telepathisch ausgelöste psychische Wahrnehmungserlebnisse sind
sondern tatsächlich physikalisch existent – ein sehr beeindruckendes
physikalisch-soziales Emergenzphänomen. Aus heutiger wissenschaftlicher
Sicht ist dieses jedoch nicht physikalisch undenkbar, denn aus der
Elementarteilchenphysik wissen wir, dass Elementarteilchen keine
unzerstörbaren Grundsubstanzen sind, sondern permanent entstehen und
vergehen. Als Argument für die ÜH müssen aber Erscheinungen nicht
unbedingt physikalisch existent, sondern könnten auch telepathisch
ausgelöste Bewusstseinsphänomene sein. Ein mögliches fünftes Element
einer Theorie des Überlebens sind die höheren Geisteswesen, worauf nun als
Letztes einzugehen ist. Bei den Sterbebett-Visionen treten beispielsweise in
den USA und in Indien unterschiedliche religiöse Figuren auf (s. Osis und
Haraldsson 1978), auf der einen Seite etwa Jesus und Maria, auf der anderen
Seite Krishna u.ä., so dass – will man diese Unterschiede nicht als kulturell
bedingte Halluzinationen bewerten – unterschiedliche symbolische
Einkleidungen von erlebten und wirklich existenten höheren Wesen
vorkommen, soweit es nicht nur unterschiedliche rationale Interpretationen
der gleichen Wahrnehmungserlebnisse sind. Die symbolische Darstellungsform von Informationen ist somit für die ÜH ein weiterer notwendiger
Erklärungsfaktor (zumindest für Engel o.ä.). Jedoch weiß man aus Träumen
und Meditationserlebnissen, dass symbolische Verkleidungen tatsächlich
vorkommen können. Was die genaue Natur dieser Wesen betrifft ist
erwähnenswert, dass man in der Meditation manchmal Wesen erleben kann,
die man im ersten Augenblick ebenfalls als symbolische Darstellungen von
Gott o.ä. deutet. Wenn man aber derartige Erfahrungen über einen längeren
Zeitraum hinweg häufiger macht, dann ändert man seine Meinung in der
Regel und hält diese Visionen z.B. höchstens noch für einen möglicherweise
sehr weit entwickelten Menschen, den man telepathisch wahrnimmt.
Demgegenüber haben die Patienten mit NTE und Sterbebett-Visionen dieses
Erlebnis in der Regel nur einmal – und glauben deshalb an die zunächst nahe
liegende Deutung der höheren Wesen. Da Patienten und Personen mit NTE
diese höheren Wesen vermutlich nur in einer symbolischen Darstellung
erleben, können wir über ihre Natur keine genaueren Aussagen machen, es
müssten aber nicht notwendigerweise Götter, Dämonen o.ä. sein.
152
Die vorangegangenen Erläuterungen zeigen, dass die Annahme der ÜH zu
einer tiefgreifenden Änderung unserer Weltsicht führen würde, weshalb man
für eine solche Änderung sehr gute Gründe fordern kann. Gäbe es nur den
einen Phänomenbereich beispielsweise der Medienkundgebungen, so wäre es
durchaus vertretbar, dieses nur als Fabulierung plus Telepathie zu bewerten;
gäbe es nur den einen Phänomenbereich der Erscheinungen, so wäre auch
hier die Deutung der Halluzination akzeptabel; gäbe es nur den einen Bereich
der Reinkarnationsfälle, so wäre es nahe liegend, die Krankheit der multiplen
Persönlichkeit, verbunden mit der Fehldeutung des dargebotenen Wissens als
Erinnerung an ein früheres Leben, zu vermuten. Aber alle Phänomenbereiche
zusammen als einen Hinweis auf ein mögliches Überleben des körperlichen
Todes zu ignorieren, scheint mir nicht sehr rational zu sein. Alle
Phänomenbereiche zusammen genommen legen nahe, dass an der ÜH etwas
Wahres dran sein könnte. Natürlich kann man argumentieren, allen
Phänomenen läge als Auslöser unsere Todesfurcht zugrunde und diese
Todesfurcht produziere immer wieder irgendwelche Effekte, um sich mit
dem Glauben an ein künftiges Leben zu trösten. Aber welche überzeugenden
Argumente haben wir denn umgekehrt für den Standpunkt vom körperlichen
Tod als dem endgültigen Ende? Wir beobachten, dass jeder höhere
Organismus irgendwann zerfällt, aber in der Wissenschaft muss man auch in
Betracht ziehen, dass es unbeobachtbare Dinge gibt und dass solche Entitäten
eventuell den Zerfall des Körpers überdauern. Ein weiteres Argument ist
unser fehlendes Erinnerungsvermögen an vorige Leben (abgesehen von den
Kindern der Reinkarnationsfälle u.a.), aber selbst von unserer jetzigen frühen
Kindheit haben wir kaum noch Erinnerungen, so dass Erinnerungen an ein
vorangegangenes Leben ohnehin unwahrscheinlich sein sollten. Solange es
keine wissenschaftlich getestete Bewusstseinstheorie und keine Theorie des
Lebens gibt, lässt sich deshalb nicht zwingend behaupten, dass alle für die
ÜH angeführten Argumente keinerlei Aussagekraft besitzen. Könnte es nicht
auch umgekehrt so sein, dass der Glaube an Argumente für den absoluten
Tod ein Wunschdenken von Leuten ist, die sich an ein bestimmtes
materialistisches Weltbild gewöhnt haben und nun nicht umdenken wollen?
Angesichts der heutigen empirischen und theoretischen Sachlage sollte man
also mit einer endgültigen Entscheidung über die ÜH vorsichtig sein und die
Frage nach dem Überleben zumindest offen lassen. Wäre man dazu
gezwungen, sich pro oder contra zu entscheiden, etwa um als Wissenschaftler
an dem einen oder anderen Forschungsprojekt teilzunehmen, so würde ich
153
persönlich mich angesichts der empirischen Befunde und auf der Basis der
von mir angestellten theoretischen Überlegungen zu Biodynamik und
Bewusstsein für die Annahme vom Überleben entscheiden, was ich nun noch
genauer erläutern möchte. In anderen Aufsätzen und Büchern (z.B. Arendes
1992, a ,b) habe ich wegen der Interpretationsprobleme der QM die Welt mit
einem Computer verglichen, wonach unsere vierdimensionale Raumzeit mit
ihren materiellen Objekten dem Computerbildschirm mit seinen Abbildungen
und die Naturgesetze der Computersoftware entsprechen. Innerhalb dieser
Analogie kann man sich die Entelechien der Lebewesen als Prozessoren
vorstellen, welche die Prozesse jeweils eines Organismus steuern, so wie die
Prozessoren
eines
Multiprozessorcomputers
jeweils
verschiedene
Abbildungen erzeugen und steuern könnten. Ein Prozessor ist das Herzstück
eines Computers; er steuert die Datenverarbeitung, führt Berechnungen und
Vergleiche durch, speichert Ergebnisse und veranlasst die Ein- und Ausgabe
der Daten.
Das Computer-Weltbild und eine darauf aufbauende Theorie der
Biodynamik, wonach Parameter des Quantenvakuums bzw. Äthers für die
Teleonomie körperlicher Prozesse verantwortlich sind, lassen sich natürlich
auch analogiefrei beschreiben (s. Arendes c), darüber hinaus habe ich in
früheren Arbeiten (z. B. Arendes 1996, b) Ansätze zu einer physikalischen
Bewusstseinstheorie formuliert, auf die ich hier nicht im Detail einzugehen
brauche, die aber die Möglichkeit offen lässt, dass es Bewusstsein ohne
Hirnmaterie geben könnte. Danach wäre denkbar, dass Parameter des
Quantenvakuums als Teil der Persönlichkeit den körperlichen Tod
überdauern und für Bewusstseinsprozesse im Vakuum bzw. Äther
verantwortlich sind. In diesem Zusammenhang erwähnenswert sind auch die
Arbeiten des theoretischen Physikers Burkhard Heim (1983 1989, 1994,
1995), der eine Theorie der Vereinigung von geometrischer
Gravitationstheorie und Elementarteilchenphysik vorgelegt hat, wonach
unsere Raumzeit in eine höherdimensionale Welt eingebettet ist und wonach
in den höheren Dimensionen postmortale Strukturen existieren könnten.
Meine Prozessordeutung der aristotelischen Entelechie könnte man in
Zukunft im Rahmen des Forschungsprojektes „Künstliches Leben“ genauer
untersuchen. In dieser Forschungsrichtung bemüht man sich darum
aufzuklären, was die Grundprinzipien des Lebens sind, indem man entweder
reale biologische Organismen und künstliche Wesen in Computern simuliert
oder augenscheinlich lebensähnliche Maschinen (Roboter) baut (s.
154
Terzopoulos et al. 1994;Adami 1998; Langton 1995). Da für Simulationen
ein Prozessor ohnehin nötig ist, kann man bei Untersuchungen im Sinne
meiner Hypothese simulierte organismusspezifische Prozessoren zwanglos
hinzufügen und deren Wirkungsmöglichkeiten genauer erforschen. Auf diese
Weise könnte man z.B. nach dem Tod eines Lebewesens den frei werdenden
Prozessor für eine Neugeburt einsetzen, wodurch dieses Lebewesen evtl.
Verhaltensweisen bekommt, die für den verstorbenen Organismus
charakteristisch waren. Vielleicht wird man einmal aus derartigen
Gedankenexperimenten Ideen für experimentelle Tests mit wirklichen
Organismen erhalten.
Literaturverzeichnis
Adami, C. (1998): Introduction to Artificial Life. New York.
Arendes, L. (1992): Gibt die Physik Wissen über die Natur? Das
Realismusproblem in der Quantenmechanik. Würzburg.
Arendes, L. (1996): 'Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems'. Philosophia Naturalis 33: 55-81.
Arendes, L. (a): Das Realismusproblem in der Quantenmechanik. Gibt die Physik
Wissen über die Natur? Frühere Version erschienen unter: Gibt die Physik
Wissen über die Natur? Das Realismusproblem in der Quantenmechanik.
Würzburg 1992. (Magisterarbeit an der Univ. Gießen 1988)
Arendes, L. (b): Das Computer-Weltbild. Funktionen der Naturphilosophie in der
Naturwissenschaft.
Arendes, L. (c): Die wissenschaftliche Weltauffassung an der Jahrtausendwende.
Wissenschaftliche Naturphilosophie.
Arendes, L. (d): Gibt es ein Überleben des körperlichen Todes? Empirische
Untersuchungen und theoretische Überlegungen der Parapsychologie zur
Überlebenshypothese.
Baerwald, R. (1925): Die intellektuellen Phänomene. Band II von: 'Der
Okkultismus in Urkunden', herausgegeben von M. Dessoir. Berlin.
Barrett, W. F. (1926): Death-bed visions. London.
Bender, H. (Hrsg.) (1980): Parapsychologie. Entwicklung, Ergebnisse, Probleme.
5. Aufl., Darmstadt.
Bernstein, M. (1973): Protokoll einer Wiedergeburt. – Der weltbekannte Fall
Bridey Murphy: Der Mensch lebt nicht nur einmal. München.
Broad, C. D. (1962): Lectures on Psychical Research. New York.
Broad, C. D. (1980): The Mind and its Place in Nature. Neuauflage von 1925.
155
London.
Carr, D. (1982): 'Pathophysiology of Stress-Induced Limbic Lobe Dysfunction: A
Hypothesis for NDEs'. Anabiosis 2: 75-89.
Driesch, H. (1928): Philosophie des Organischen. 4. Aufl., Leipzig.
Gauld, A. (1983): Mediumship and Survival. A Century of Investigations. London.
Green, C. (1968): Out-of-the-Body-Experiences. Oxford.
Green, C., McCreery, C. (1975): Apparitions. London.
Hart, H., et al. (1956): 'Six Theories About Apparitions'. Proc. Soc. Psych. Res.
50: 153- 239.
Hartmann, E. von (1906): Das Problem des Lebens. Biologische Studien. Bad
Sachsa.
Heim, B. (1983): Elementarstrukturen der Materie: Einheitliche strukturelle
Quantenfeldtheorie der Materie und Gravitation. Bd. 2. Innsbruck.
Heim, B. (1989): Elementarstrukturen der Materie: Einheitliche strukturelle
Quantenfeldtheorie der Materie und Gravitation. Bd. 1. 2. veränd. Aufl.,
Innsbruck.
Heim, B. (1994): Postmortale Zustände? Die televariante Area integraler
Weltstrukturen. 3. Aufl., Innsbruck.
Heim, B. (1995): Der kosmische Erlebnisraum des Menschen. 3. Aufl., Innsbruck.
Heisenberg, W. (1990): Physik und Philosophie. 5. Aufl., Stuttgart.
Hick, J. (1994): Death And Eternal Life. Louisville.
Hilgard, E. R. (1986): Divided Consciousness: Multiple Controls in Human
Thought and Action. Erw. Aufl., New York.
Hövelmann, G. H. (1985): 'Evidence for Survival from Near-Death Experiences?
A Critical Appraisal'. In: P. Kurtz (Hrsg.): A Skeptic's Handbook of
Parapsychology. Buffalo, S. 645-684.
James, W. (1910): 'Report on Mrs. Piper's Hodgson-Control'. Proc. Soc. Psych.
Res. 23: 2-121.
Langton, C. G. (Hrsg.) (1995): Artificial Life. An Overview. Cambridge, Mass.
Lodge, O. (1917): Raymond or Life and Death. With examples of the evidence for
survival of memory and affection after death. 8. Aufl., London.
Mattiesen, E. (1987): Das persönliche Überleben des Todes. Eine Darstellung der
Erfahrungsbeweise. Bd. I-III. Neuauflage der Ausgabe von 1936/1939,
Berlin.
Moody, R. A. (1977): Leben nach dem Tod. Reinbek.
Moser, F. (1950): Spuk. Irrglaube oder Wahrheit? Eine Frage der Menschheit.
Baden bei Zürich.
Noyes, R. (1972): 'The experience of dying'. Psychiatry 35: 174-184.
Noyes, R., Hoenk, P. R., Kuperman, S., Slymen, D. J. (1977): 'Depersonalization
in accident victims and psychiatric patients'. Jn. of Nervous and Mental
Disease: 164: 401-407.
Oesterreich, T. K. (1921): Die Besessenheit. Langensalza.
156
Osis, K., Haraldsson, E. (1978): Der Tod – Ein neuer Anfang. Freiburg i. Br.
Paterson, R. W. K. (1995): Philosophy and the Belief in a Life after Death.
Houndmills.
Price, H. H. (1965): 'Survival and the Idea of `Another World`'. In: J. R. Smythies
(Hrsg.): Brain and Mind. Modern Concepts of the Nature of Mind. London, S.
1-33.
Ring, K. (1982): Life at Death. A Scientific Investigation of the Near-Death
Experience. New York.
Ring, K. (1986): Den Tod erfahren – das Leben gewinnen. Erkenntnisse und
Erfahrungen von Menschen, die an der Schwelle zum Tod gestanden und
überlebt haben. 2. Aufl., Bern.
Rodin, E. A. (1980): 'The Reality of Death Experiences. A Personal Perspective'.
Jn. of Nervous and Mental Disease 168: 259-263.
Rodin, E. (1989): 'Comments on ''A Neurobiological Model for Near-Death
Experiences'''. Jn. of Near-Death Studies 7(4): 255-259.
Roll, W. R. (1982): 'The Changing Perspective on Life after Death'. In: S. Krippner
(Hrsg.): Advances in Parapsychological Research. Vol. 3. New York.
Sabom, M. B. (1982): Erinnerung an den Tod. Eine medizinische Untersuchung. 2.
Aufl., Berlin.
Schrenck-Notzing, A. von (1923): Materialisationsphänomene. Ein Beitrag zur
Erforschung der mediumistischen Teleplastie. München.
Siegel, R. K. (1977): 'Hallucinations'. Scientific American 237: 132-140.
Siegel, R. K. (1983): 'Life After Death'. In: G. O. Abell, B. Singer (Hrsg.): Science
and the Paranormal. Probing the Existence of the Supernatural. New York.
Soal, S. G., Bateman, F. (1954): Modern Experiments in Telepathy. Westport.
Stevenson, I. (1974): Xenoglossy: a Review and Report of a Case. Bristol.
Stevenson, I. (1984): Unlearned Language. New Studies in Xenoglossy.
Charlottesville.
Stevenson, I. (1986): Reinkarnation. Der Mensch im Wandel von Tod und
Wiedergeburt. 20 überzeugende und wissenschaftlich bewiesene Fälle. 5.
Aufl., Freiburg i. Br.
Stevenson, I. (1999): Reinkarnationsbeweise. Geburtsnarben und Muttermale
belegen die wiederholten Erdenleben des Menschen. Grafing.
Stevenson, I. (2005): Reinkarnation in Europa. Erfahrungsberichte. Grafing.
Stevenson, I., Pasricha, S. (1980): 'A Preliminary Report on an Unusual Case of
the Reincarnation Type with Xenoglossy'. Jn. Am. Soc. Psych. Res. 74: 331348.
Terzopoulos, D., Tu, X., Grzeszczuk, R. (1994): Artificial Fishes: Autonomous
Locomotion, Perception, Behavior, and Learning in a Simulated Physical
World. Artificial Life 1(4): 327-351.
Thouless, R. H. (1984): 'Do We Survive Bodily Death?' Proc. Soc. Psych. Res. 57:
1-52.
157
Deutungsprobleme in der mathematischen
Physik:Lorentz-Transformationen und
Einsteins Feldgleichungen
Zusammenfassung
Während in der Quantenmechanik die semantische Deutung des mathematischen Formalismus in
Bezug auf die physikalische Realität und/oder auf die Sinnesdaten immer noch sehr umstritten
ist, hat sich bei den Formeln der Lorentz-Transformationen und bei den Einsteinschen
Feldgleichungen die relativistische Deutung durchgesetzt. In dieser Arbeit werden die Probleme
der relativistischen Deutung untersucht, und es wird vorgeschlagen, die alternative Deutung von
Lorentz und Poincaré wieder in Betracht zu ziehen. Es wird versucht zu zeigen, dass die
Spezielle Relativitätstheorie im Rahmen des klassischen physikalischen Realismus nicht
verstanden werden kann, dass sie aber vereinbar ist mit denjenigen Interpretationen der Quantenmechanik, nach denen die Physik primär nur über Beobachtungen spricht. Es wird außerdem
dafür argumentiert, dass es Einstein nicht gelungen ist, das allgemeine Relativitätsprinzip
befriedigend zu verwirklichen.
Die Theorien der Physik bestehen aus zwei Anteilen, aus dem mathematischen
Formalismus und aus dessen semantischer Deutung bezüglich der vermuteten
Realität und/oder bezüglich der experimentellen Sinnesdaten. Entsprechend besteht
die physikalische Forschung aus zwei Teilen: Es müssen die „richtigen“ Formeln
gefunden werden, und zusätzlich gilt es, die mathematischen Terme der Realität
oder den Beobachtungen zuzuordnen. Dieser doppelte Forschungsaspekt ist
besonders deutlich in der Quantenmechanik (QM), in der es bereits vor über 80
Jahren gelungen ist, den Formalismus auf recht befriedigende Weise zu
beschreiben, obwohl die Semantik bis heute umstritten ist. Anders sieht die
Sachlage bei den Formeln der Lorentz-Transformationen und den Formeln der
Längenkontraktion und Zeitdilatation für bewegte Objekte aus. Obwohl die
Entdecker dieser Formeln (hauptsächlich Lorentz und Poincaré) eine eigene
Deutung vorgeschlagen hatten, setzte sich auf diesem Forschungsgebiet Albert
Einsteins Deutung durch, die zusammen mit den Formeln als die Spezielle
Relativitätstheorie (SRT) bezeichnet wird. In der vorliegenden Arbeit wird es
darum gehen zu untersuchen, ob diese relativistische Deutung der Formeln auf
befriedigende Weise gelungen ist oder ob (wie in der QM) der zweite
Forschungsaspekt, die semantische Deutung der Formeln, noch nicht als
abgeschlossen betrachtet werden kann.
158
Im 19. Jahrhundert hatte Maxwell die Theorie der Elektrodynamik entwickelt,
wonach es elektromagnetische Wellen mit einer konstanten Ausbreitungsgeschwindigkeit c geben sollte. Die Wellen wurden dann von Hertz nachgewiesen,
wodurch sich zwei Probleme stellten: 1. Wären diese elektromagnetischen Wellen
ein analoges Phänomen wie die Schallwellen in der Luft, so sollte es auch für diese
Lichtwellen ein Trägermedium geben, welchen man Äther nannte. 2. Sendet man
von einem bewegten Objekt Lichtwellen aus, so sollte man für die resultierende
Lichtgeschwindigkeit eine Addition beider Geschwindigkeiten erwarten, die
Lichtgeschwindigkeit sollte also entgegen der Maxwellschen Theorie nicht
konstant sein. Der Äther wurde als absolut ruhend betrachtet, und Licht, das von
der Erde in verschiedene Richtungen ausgesendet wird (z.B. in Richtung der
Erdbewegung und in Richtung entgegengesetzt der Erdbewegung), sollte
verschiedene Geschwindigkeiten haben. Um diese Geschwindigkeitsunterschiede
nachzuweisen, führten Michelson und Morley Experimente durch, die jedoch ein
negatives
Resultat
hatten.
Sie
konnten
keine
unterschiedlichen
Lichtgeschwindigkeiten nachweisen. Um diesem experimentellen Ergebnis gerecht
zu werden, entwickelten Lorentz und Poincaré ihre mathematischen Formeln.
Nach diesen Formeln hatten Michelson und Morley keine Differenz der
Lichtgeschwindigkeiten feststellen können, weil jeder Körper in Richtung seiner
Bewegung kontrahiert wird. Poincaré und Lorentz deuteten die Längenkontraktion
1
und die Zeitdilatation ∆ t ′ = ∆ t 1 − v 2 c 2 als reale physikalische
Effekte, welche entstehen sollten, wenn sich Objekte durch den Äther bewegen
(Lorentz 1892, 1895, 1904; Poincaré 1905). Sie hofften, diese Effekte ließen sich
später dynamisch erklären, etwa mit Hilfe der Molekularkräfte.
l ′ = l 1 − v 2 c2
Spezielle Relativitätstheorie
Albert Einstein gab demselben Formalismus eine völlig andere, eine relativistische
Deutung. Während Poincaré und Lorentz von experimentellen Ergebnissen
ausgehend zum Formalismus gelangten, erhielt Einstein die Lorentz-Transformationen, aus denen sich alle anderen Formeln herleiten lassen, deduktiv
hauptsächlich aus dem Relativitätsprinzip (das in der verwendeten Formulierung
als Erster Poincaré aufstellte) und dem Prinzip der Konstanz der
Lichtgeschwindigkeit. (Zusätzlich muss noch die Homogenität und die Isotropie
des Raumes angenommen werden.) Das Prinzip der Konstanz der
Lichtgeschwindigkeit besagt, dass im leeren Raum in allen Inertialsystemen (in
allen relativ zueinander gleichförmig bewegten Bezugssystemen) die
Lichtgeschwindigkeit c gleich ist, unabhängig davon, ob die Lichtquelle sich
159
bewegt oder in Ruhe ist. Der Inhalt dieses Prinzips lässt sich auf zwei Arten
illustrieren. Einmal kann man von einer Situation ausgehen, in der ein Lichtstrahl
von der Erde aus abgeschickt wird und ein anderer Lichtstrahl von einer Rakete,
die sich relativ zur Erde gleichförmig bewegt. Beide Lichtstrahlen haben von
irgendeinem Inertialsystem aus betrachtet dieselbe Geschwindigkeit. Das Prinzip
lässt sich jedoch auch illustrieren anhand der Situation, in der es nur einen einzigen
Lichtstrahl gibt, dessen Geschwindigkeit aber von zwei Koordinatensystemen aus
gemessen wird, die sich zueinander und zum Licht gleichförmig bewegen. Beide
Lichtgeschwindigkeitsmessungen führen zum gleichen Ergebnis.
Das zweite Postulat der SRT ist das Relativitätsprinzip. Hierbei wurde Einstein
von dem Physiker und Philosophen Ernst Mach beeinflusst, der in seinem Buch
über „Die Mechanik in ihrer Entwicklung“ den Standpunkt vertrat, dass alle
Massen, alle Geschwindigkeiten und demnach alle Kräfte relativ seien (Mach,
1883). Mach hatte eine Lücke in Newtons Argumentation für die Existenz eines
absoluten Raumes entdeckt, der Newton dazu diente, Geschwindigkeiten als
absolute Größen aufzufassen. Natürlich konnte auch Newton die Geschwindigkeit
eines Objektes nur bestimmen in Relation zu einem anderen Objekt, diese auf den
Erkenntnisvorgang bezogene Relativität hinderte ihn jedoch nicht daran, für die
ontologische Existenz eines absolut ruhenden Raumes zu argumentieren. (Diese
Argumentation und Machs Einwand werden im Rahmen der Allgemeinen
Relativitätstheorie im nächsten Abschnitt behandelt.)
In seiner Arbeit von 1905 über die SRT schreibt Einstein, „daß dem Begriffe der
absoluten Ruhe nicht nur in der Mechanik, sondern auch in der Elektrodynamik
keine Eigenschaften der Erscheinungen entsprechen“ (Einstein, 1905, S. 26). Das
Relativitätsprinzip wird in der Regel in einer schwächeren Form geschrieben als in
der von Mach, und auch Einstein definiert es in seiner Arbeit von 1905 explizit in
der folgenden Form:
„Die Gesetze, nach denen sich die Zustände der physikalischen Systeme
ändern, sind unabhängig davon, auf welches von zwei relativ zueinander
in gleichförmiger Translationsbewegung befindlichen Koordinatensystemen diese Zustandsänderungen bezogen werden.“ (Einstein, 1905, S. 29)
Das Prinzip der Gültigkeit der Naturgesetze in allen Inertialsystemen ist
plausibel, weil man z.B. in einem gleichmäßig fahrenden Zug dieselben
experimentellen Ergebnisse erhält wie in einem ruhenden Labor. Die Schreibweise
des Relativitätspostulates als Invarianz der Naturgesetze ist allerdings nicht ganz
dasselbe wie die Behauptung, es gäbe keine absolute Bewegung. Diese Invarianz
der Naturgesetze bleibt nämlich auch dann erhalten, wenn man zwar eine absolute
Bewegung annimmt, aber mit Poincaré und Lorentz zusätzlich behauptet, dass
160
Prozesse bzw. Objekte einer geschwindigkeitsabhängigen objektiven Zeitdilatation
und Längenkrontraktion unterliegen.
Abb. 1: Bewegung eines Stabes vom Beobachter weg. SA steht für Stabanfang, SE für
Stabende, B für Beobachter und v für Geschwindigkeit. x und y geben die Koordinatenachsen,
SA(t1) die Position des Stabanfangs zur Zeit t1 und SE(t2) die Position des Stabendes zur Zeit t2
an.
Wohingegen also Poincaré und Lorentz den Formalismus, d.h.
Längenkontraktion und Zeitdilatation auf eine realistische (ontologische) Weise
deuteten, hatten für Einstein Länge und Zeitdauer nur einen Wert relativ zum
Beobachter, zum jeweiligen Inertialsystem. Außerdem ist in der SRT ein absoluter
Raum oder ein Äther nicht nötig, und Länge und Zeitdauer ändern sich nicht durch
irgendeinen verborgenen kausalen Mechanismus, vielmehr hängen diese Werte
vom Inertialsystem des Beobachters ab. Da dasselbe Objekt gleichzeitig von
mehreren Inertialsystemen aus beobachtet werden kann, gibt es gleichzeitig viele
Längen- und Zeitwerte; für jedes Koordinatensystem jeweils einen. Die LorentzTransformationen erlauben es, die Orts- und Zeitwerte von einem
Koordinatensystem in ein anderes umzurechnen; für eine relativ zueinander
gleichförmige Bewegung v (Betrag und Richtung der Bewegung bleiben konstant)
in x-Richtung gilt:
x′ =
x − v⋅ t
1 − v 2 c2 ,
y′ = y ,
z′ = z ,
t′ =
v⋅ x
c2 .
1 − v 2 c2
t−
Daraus ergibt sich auch die berühmte Relativität der Zeit: Zwei Ereignisse, die
161
an verschiedenen Orten stattfinden, erscheinen in manchen Inertialsystemen als
gleichzeitig, in anderen nicht. Um die Relativität der Länge zu verdeutlichen,
betrachte man folgende paradoxe Situation. Eine im eigenen Bezugssystem 20 m
lange Rakete bewege sich so schnell, dass sie im Koordinatensystem eines
ruhenden Tunnels 10 m lang erscheine. Ist der Tunnel im Koordinatensystem des
Tunnels selbst 10 m lang, so sieht ein Beobachter, der beim Tunnel steht, dass die
Rakete vollständig im Tunnel verschwindet, während sie dort hindurchfliegt. Aus
der Sicht des Piloten der Rakete sieht dieselbe Situation ganz anders aus. Von ihm
aus betrachtet ist seine Rakete 20 m und der Tunnel nur 5 m lang. Von ihm aus
betrachtet passt seine Rakete nicht der Länge nach in den Tunnel.
Dass die Längenkontraktion kein physikalisch-kausaler Vorgang sei, sondern
von der Beobachtungssituation herrühre, wird in der Literatur oft dadurch
illustriert, dass man die zur Beobachtung nötigen Lichtstrahlen vom Objekt zum
Beobachter verfolgt. Diese Veranschaulichung der Längenkontraktion ist jedoch
nicht haltbar, was die folgenden Überlegungen demonstrieren. Abbildung 1 stellt
einen Stab S dar, der sich im Koordinatensystem eines Beobachters B in Richtung
der x-Achse mit einer großen Geschwindigkeit v vom Beobachter weg bewegt. Der
Körper soll ständig leuchten, und der Beobachter fotographiert ihn in seinem
System. Beim Fotographieren wird der Kameraverschluss so kurzzeitig geöffnet,
dass die Lichtstrahlen, die vom Stabanfang und Stabende kommen und den Stab
auf der Fotoplatte abbilden, im System von B gleichzeitig eintreffen. Nun hat
jedoch das Licht vom Stabanfang SA einen größeren Weg zum Beobachter
zurückzulegen als das Licht vom Stabende SE. Damit das Licht von SA und SE im
System des Beobachters gleichzeitig die Fotoplatte erreicht, muss das Licht von
SA früher abgesandt worden sein als von SE. Das Licht von SA verlasse den Stab
zur Zeit t1, das Licht von SE kurzzeitig später zur Zeit t2. In der Zeit zwischen t1
und t2 bewegt sich jedoch der Stab. Das bedeutet, dass zur Zeit t2 das Stabende an
einem Ort ist, der näher beim Ort des Stabanfanges zur Zeit t1 liegt, als der
Stabanfang sein Licht abgab (Abb. 1). Auf der Fotoplatte erscheint deshalb der
Stab verkürzt. Diese Illustration der Längenkontraktion hat jedoch nur
didaktischen Wert zur Erklärung der Theorie vor Laien; diese Interpretation der
mathematischen Formeln lässt sich leider nicht konsistent durchhalten. Man
bedenke nämlich, was passiert, wenn sich der Stab nicht vom Beobachter weg
bewegt, sondern auf ihn zu: Abbildung 2. Nun hat das Licht vom Stabende einen
größeren Weg zum Beobachter als das Licht vom Stabanfang. Das Licht von SE
muss also früher (t1) abgesandt werden als das Licht von SA (t2). Während t1 und t2
bewegt sich der Stab wieder, so dass er diesmal auf der Fotoplatte größer
erscheint! Die SRT sagt jedoch für beide Fälle (Bewegung zum Beobachter hin
und Bewegung vom Beobachter weg) dieselbe Längenkontraktion voraus – nicht
die Bewegungsrichtung relativ zum Beobachter ist von Bedeutung, sondern nur der
162
Geschwindigkeitsbetrag: l ′ = l 1 − v 2 c 2 . Die Längenkontraktion der SRT ist also
keine Erscheinung, die man erhält, wenn man Objekte mit Lichtstrahlen auf
Beobachtersysteme projiziert.
Abb. 2: Bewegung eines Stabes zum Beobachter hin. SA steht für Stabanfang, SE für Stabende,
B für Beobachter und v für Geschwindigkeit. x und y geben die Koordinatenachsen, SE(t1) die
Position des Stabendes zur Zeit t1 und SA(t2) die Position des Stabanfangs zur Zeit t2 an.
Eine analoge Argumentation zeigt, dass sich auch die Zeitdilatation nicht durch
Lichtübertragungen vom Objekt zum Beobachter erläutern lässt: Findet an einer
Stelle des Stabes ein Prozess mit den Anfangs- und Endzeiten t1 und t2 statt, so
benötigt das Licht von t2 zum Beobachter weniger Zeit als das Licht von t1, wenn
der Stab auf den Beobachter zufliegt, es benötigt hingegen mehr Zeit, wenn der
Stab vom Beobachter wegfliegt. Im ersten Fall hätte man eine Zeitkontraktion, im
zweiten Fall eine Zeitdilatation, die SRT sagt jedoch für beide Fälle eine
Zeitdilatation voraus: ∆ t ' =
∆t
1 − v2 / c2 .
Und die Relativität der Gleichzeitigkeit lässt sich ebenfalls nicht durch
Lichtübertragungen erklären: Angenommen der Stab bewege sich wie in
Abbildung 2 auf den Beobachter zu, erreiche dessen Position auf der x-Koordinate
und fliege dann von ihm weg wie in Abbildung 1. Diesmal sollen vom
Koordinatensystem des Stabes aus betrachtet gleichzeitig von beiden Stabenden
Lichtblitze in periodischen Abständen ausgesandt werden. Fliegt der Stab zu
Beginn auf den Beobachter zu, so erreicht das Licht vom Stabende den Beobachter
später als das Licht vom Stabanfang, weil der Abstand größer ist. Während also im
163
Ruhesystem des Stabes die beiden Ereignisse des Absendens von Licht von beiden
Stabseiten gleichzeitig erfolgt, registriert der Beobachter das Licht von SA früher
als das von SE. Der Stab fliege kontinuierlich weiter, und irgendwann liegt der
Stabmittelpunkt bei der x-Position des Beobachters. Nun empfängt der Beobachter
beide Lichtblitze gleichzeitig. Fliegt jedoch anschließend der Stab vom Beobachter
weg wie in Abbildung 1, so hat nun das Licht von SA den weiteren Weg. Jetzt
registriert der Beobachter zuerst das Licht von SE. Eine derartige Verschiebung
der zeitlichen Relation zweier Ereignisse sagt aber die SRT nicht voraus – die
zeitliche Abfolge zweier Ereignisse hängt nicht von der Bewegungsrichtung,
sondern vom Betrag ab: ∆ t ' =
∆ t − ( v / c 2 )⋅ ∆ x
1 − v2 / c2
.
Längenkontraktionen und Zeitdilatationen werden nach der SRT nicht auf
physikalisch-kausale Weise bewirkt (wie Poincaré und Lorentz es annahmen), sie
lassen sich jedoch auch nicht erklären durch physikalische Projektionen der
Objekte und Ereignisse z.B. mit Licht auf das Beobachtersystem. Wie lassen sich
diese Phänomene dann verstehen? Ist es Einstein wirklich gelungen, den
Formalismus befriedigend zu deuten? Die Probleme von Einsteins Deutung, der
SRT, werden besonders deutlich beim sogenannten Zwillingsparadox. Beim
Zwillingsparadox geht man davon aus, dass auf der Erde die beiden Zwillinge A
und B leben. Zur Erdzeit t = 0 besteigt B ein Raumschiff, und A beobachtet dessen
Reise und stellt Folgendes fest: B beschleunigt auf eine sehr hohe
Geschwindigkeit, etwa auf v = 0,8 ⋅ c . Mit dieser Geschwindigkeit fliegt er 10 Jahre
lang, dann verringert er seine Geschwindigkeit und dreht sie um auf − 0,8 ⋅ c , d.h. er
fliegt nun in die umgekehrte Richtung mit 0,8 ⋅ c . Er fliegt abermals 10 Jahre lang
und bremst dann seine Geschwindigkeit ab, um wieder auf der Erde zu landen. Für
A sind nun, wenn man die Beschleunigungszeiten vernachlässigt, 20 Jahre
vergangen, wohingegen er für B eine Zeitdilatation feststellt: Aus der Sicht von A
ist B nur 12 Jahre älter geworden; A sieht sich also 8 Jahre älter als B. Im
Zwillingsparadox wird nun angenommen, dass man nach der SRT auch B als
ruhend und die Erde mit A als bewegt betrachten kann. Betrachtet sich B als
ruhend, dann verstreichen für ihn 20 Jahre, wohingegen er für die Erde mit A eine
Zeitdilatation feststellt. Aus der Sicht von B ist nun B 8 Jahre älter als A. Wenn
also nach der Reise A und B ihre Uhren vergleichen, so behaupten beide, jeweils
der andere sei jünger. In einem realistischen Sinne ist das natürlich sehr paradox.
Um diesen scheinbaren Widerspruch zu vermeiden, wird von manchen Autoren
(z.B. Greiner 1981) darauf verwiesen, dass es bei diesem Gedankenexperiment
Beschleunigungsphasen gibt, in denen der Zwilling sich nicht in einem
Inertialsystem befindet, worüber die SRT keine Aussagen macht.1 Eine
Asymmetrie beider Zwillinge entstände danach durch die tatsächliche
164
Beschleunigung von Zwilling B. Dass aber die beim Zwillingsparadox
auftretenden Beschleunigungen den Zeitdilatationseffekt nicht auf asymmetrische
Weise bewirken (oder rückgängig machen derart, dass bei der Rückkehr des
Zwillings beide wieder dasselbe Alter haben), kann leicht verdeutlicht werden:
Fliegt der Zwilling in den Phasen der gleichförmigen Bewegung nicht 20 Jahre,
sondern z.B. 40 Jahre lang, so führt das bei gleichen Beschleunigungsphasen nicht
zu einer Zeitdifferenz zwischen beiden Zwillingen von 8, sondern von 16 Jahren.
Die gleichen Beschleunigungsphasen können jedoch nicht die Ursache sein für
unterschiedliche Zeitdifferenzen.
Eine zunächst denkbare und schärfere Formulierung des Beschleunigungsargumentes gegen das Zwillingsparadox ist der Hinweis darauf, dass die SRT nur auf
Systeme mit gleichförmigen Bewegungen anwendbar ist und dass deshalb die SRT
überhaupt nicht auf die Zwillingssituation angewendet werden könne. Wäre jedoch
diese Argumentation gültig, dann wäre die SRT überhaupt nicht anwendbar, da
(fast) alle Objekte irgendwann einer Beschleunigung unterliegen. Unser
empirisches Wissen über Bewegungen ist nur durch Vergleich mit anderen
Objekten möglich, und Einsteins Motivation für die SRT war die Relativität der
Bewegung in der Weise, dass es eine absolute Bewegung relativ zu einem
ausgezeichneten Ruhesystem überhaupt nicht gäbe. Einstein ging dabei auf Mach
zurück, welcher die Meinung vertrat, alle Geschwindigkeiten und alle Kräfte seien
relativ. Dass die SRT nur über gleichförmige Bewegungen spricht, war für
Einstein die Motivation dafür, eine allgemeine Relativitätstheorie zu konstruieren.
Da in unserer Welt alle Körper irgendwann Beschleunigungen unterliegen, kann
das Relativitätsprinzip in der Machschen Formulierung nur dann physikalisch
sinnvoll sein, wenn es auch für beschleunigte Bewegungen gilt. Eine Theorie, die
das allgemeine Relativitätsprinzip (Ausdehnung auf beschleunigte Bewegungen)
verwirklicht, sollte aber dazu führen, dass die paradoxe symmetrische Situation des
Zwillingsexperimentes bestehen bleibt (wenn die spezielle Theorie in der
allgemeinen enthalten ist).
Nach der SRT sind die Längen der Objekte und die Zeitintervalle zwischen
Ereignissen keine objektiven Größen, vielmehr hängen sie vom relativen
Bewegungszustand des Beobachters ab. Wie oben dargelegt wurde, lässt sich diese
Relativität nicht erläutern durch die physikalische Projektion der Objekte und
Ereignisse auf das Beobachtersystem mittels Lichtstrahlen. Wie aber kann man
diese Phänomene dann verstehen? Neben der Relativitätstheorie (RT) ist die QM
die zweite fundamentale Theorie der heutigen Physik, und wie bereits gesagt
wurde, gibt es auf diesem Gebiet keine allgemein akzeptierte Deutung des
Formalismus. Eines der Hauptprobleme der QM ist das Problem der Reduktion der
Zustandsfunktion: Vor einer Beobachtung ist die Zustandsfunktion eines Objektes
in der Regel durch eine Superposition von Eigenfunktionen gegeben, nach der
165
Beobachtung liegt im Idealfall genau eine Eigenfunktion vor. Der Übergang von
der Superposition zu der einen Eigenfunktion lässt sich jedoch durch die
quantenmechanischen Bewegungsgleichungen nicht beschreiben. Aus diesem und
aus anderen Gründen sind manche Physiker der Meinung, dass die QM nicht die
Realität beschreibe, sondern nur über unsere Beobachtungen spricht (s. Arendes,
1992). Diese Deutung würde den klassischen Anspruch der Physik, Wissen über
die Natur zu liefern (Physik als Naturwissenschaft), leugnen, weshalb sie für
Wissenschaftler mit objektiven Erkenntnisansprüchen als unannehmbar erscheint.
In der vorliegenden Arbeit können die verschiedenen Interpretationsversuche der
QM nicht behandelt werden (vgl. Arendes, 1992), es soll jedoch gezeigt werden,
dass die Deutung, die Physik spreche hauptsächlich nur über unsere
Beobachtungen, auch die SRT verstehbar macht.2 Unabhängig von der QM könnte
man diese Sichtweise durch die Annahme plausibel machen, dass unsere
Beobachtungen die Realität nicht spiegelbildlich objektiv wiedergeben, dass
vielmehr die Informationen, die von der Natur in unseren Erkenntnisapparat
gelangen, transformiert werden in unsere psychischen Wahrnehmungsphänomene,
so dass unsere Beobachtungen und somit auch die experimentellen Daten der
Naturwissenschaft die Natur nicht objektiv wiedergeben. Und nach der
angesprochenen Deutung der QM bezieht sich deshalb die Physik primär nur auf
Beobachtungen.
Damit die folgende Darlegung leichter verfolgt werden kann, soll einmal als
Analogie der Beobachter mit einem Computer (Personal Computer, PC, bzw. Mac)
verglichen werden. Der Bildschirm des PC repräsentiere das visuelle Bewusstsein
des Beobachters, und die auf den Bildschirm projizierten Objekte seien seine
Beobachtungen. Mit dieser Analogie lässt sich die SRT (relative
Längenkontraktionen, Zeitdilatationen, Zwillingsparadox etc.) folgendermaßen
verstehen. Bei der Beobachtung werden die Objekte auf den Bildschirm projiziert,
und jeder PC (jeder Beobachter) hat seinen eigenen Bildschirm (seine eigenen
Beobachtungen). Befinden sich zwei PCs in einem Zustand, den man als eine
relative Bewegung zueinander beschreibt, dann können tatsächlich beide
Bildschirme verschiedene Längen und Zeiten abbilden. Beobachtet man von der
Erde aus eine Rakete, so zeigt der Bildschirm des Erdbeobachters eine kleinere
Rakete als der Bildschirm eines Beobachters im Ruhesystem der Rakete. Dafür
werden die Objekte der Erde auf dem Raketenbildschirm kleiner abgebildet als auf
dem Erdbildschirm. Beim oben erwähnten Tunnel-Rakete-Paradox sieht der
Beobachter in der Rakete tatsächlich, dass seine Rakete länger ist als der Tunnel.
Und der Beobachter am Tunnel sieht tatsächlich die Rakete im Tunnel
verschwinden. Dieselbe Asymmetrie gilt für Zeitdifferenzen. Innerhalb dieser
Analogie kann dieselbe Situation auf verschiedenen Bildschirmen unterschiedlich
abgebildet werden, ohne dass dadurch ein logischer Widerspruch und somit eine
Kritik an der SRT entsteht. Könnte man das Gedankenexperiment mit den
166
Zwillingen tatsächlich ausführen, so würde bei der Rückkehr des Zwillings jeder
behaupten, der andere wäre jünger, weil dies auf dem jeweiligen Bildschirm (im
visuellen Wahrnehmungsfeld) tatsächlich so abgebildet wäre. Wäre also das
Zwillingsexperiment wirklich ausführbar, so könnte man (hätte die SRT Recht)
zeigen, dass die Welt, wie wir sie erleben, nicht die objektive Welt ist, sondern
primär nur ihre Projektion auf unser bewusstes Wahrnehmungsfeld. Nur weil alle
Menschen sich immer mit geringen Relativgeschwindigkeiten bewegen, sind alle
unsere Beobachtungen zueinander (fast) konsistent. Dies ermöglichte den Glauben,
wir beobachteten die Welt, wie sie wirklich sei.
Allgemeine Relativitätstheorie
Im Zusammenhang mit dem Zwillingsparadox wurde erwähnt, dass die Relativität
der Bewegung auf beschleunigte Bewegungen ausgedehnt werden musste. Führt
zum Beispiel ein Objekt A bezüglich eines anderen Objektes B zunächst eine
Beschleunigung aus, um daraufhin eine gleichförmige Bewegung zu haben, so ist
es physikalisch nicht sinnvoll, zunächst die Beschleunigung nur A zuzusprechen,
um danach im Sinne der SRT wahlweise A oder B als ruhend zu betrachten.
Einsteins Deutung der Formeln von Lorentz und Poincaré ist also nur haltbar,
wenn die Relativität auch für Beschleunigungen gilt. Entsprechend schreibt
Einstein in seiner 1916 erschienenen Arbeit zur Allgemeinen Relativitätstheorie
(ART) über die Erweiterung des Relativitätspostulates:
„Von allen denkbaren, relativ zueinander beliebig bewegten Räumen R1,
R2 usw. darf a priori keiner als bevorzugt angesehen werden ... Die
Gesetze der Physik müssen so beschaffen sein, daß sie in bezug auf
beliebig bewegte Bezugssysteme gelten.“ (Einstein, 1916, S. 83)
Wie bereits gesagt, ging Einstein auf Machs Annahme zurück, dass alle
Bewegungen relativ seien. Die Annahme, dass es absolute Bewegungen, d.h.
Bewegungen bezüglich eines absolut ruhenden Raumes gäbe, kam durch Newton
in die klassische Physik; Ernst Mach fand jedoch in Newtons Argumentation eine
Schwachstelle. Für die objektive Existenz eines Raumes argumentierte Newton mit
Hilfe seines Eimerversuches. Der Versuch besteht darin, einen Eimer mit Wasser
an einem Seil aufzuhängen und ihn solange im Kreis zu drehen, bis das Seil durch
die Drehung steif ist. Daraufhin lässt man den Eimer los, und die sich
anschließende Bewegung verläuft in vier Phasen: Zuerst rotiert der Eimer, aber
nicht das Wasser, seine Oberfläche bleibt flach. Schließlich übertragen die
Reibungskräfte zwischen Eimer und Wasser die Rotation des Eimers auf das
Wasser, die Wasseroberfläche wird konkav. Als Nächstes wird der Eimer
167
angehalten, das Wasser rotiert aber noch eine Weile, seine Oberfläche bleibt
konkav. Letzlich wird das Wasser zur Ruhe kommen und die Oberfläche sich
glätten. Das Entscheidende an Newtons Argument ist Folgendes: Lässt man ein
Koordinatensystem sich mit dem Eimer drehen, so bleibt aus der Sicht dieses
Koordinatensystems der Eimer ständig in Ruhe; das Wasser geht jedoch von der
zunächst glatten Oberfläche in einen konkaven Zustand über und zum Schluss
wieder in den glatten. Für Newton war das der Beleg für die Existenz eines
absoluten Raumes: Rotieren Eimer und Wasser in diesem Raum, so bewirke der
Raum die Veränderung der Wasseroberfläche! Ernst Mach wendete auf diese
Argumentation Folgendes ein: Der Eimer mit Waser ist kein Objekt, das ganz
allein im Universum existiert, vielmehr ist er umgeben von sehr vielen Massen.
Die uns umgebenden Sterne, der sogenannte Fixsternhimmel, haben eine enorm
große Masse, die nach Newtons Gravitationstheorie eine instantane Wirkung
ausüben. Vom Koordinatensystem aus betrachtet, welches sich mit dem Eimer
dreht, erscheint der Eimer zwar als ruhend, dafür gibt es aber eine relative
Kreisbewegung des Fixsternhimmels um den Eimer herum. Nach Mach bewirkt
die relative Bewegung der umgebenden Massen die Wölbung der
Wasseroberfläche. Albert Einstein akzeptierte Machs Argumentation. Um eine
allgemeine Theorie der Relativität zu formulieren, war er deshalb genötigt, in diese
Theorie die Gravitation mit aufzunehmen. In der Konstruktionsphase der Theorie
ließ sich Einstein von einem Prinzip leiten, das nach Ernst Mach das Mach-Prinzip
genannt wird. Dieses Prinzip wird auf vielfältige Weise formuliert, etwa in der
Form „Ein Körper in einem sonst leeren Universum wird keine
Trägheitseigenschaften besitzen.“ oder in der Form „Die Materieverteilung
bestimmt die Geometrie.“.
Eine zweite Argumentationsrichtung führte Einstein ebenfalls zu der Idee, die
allgemeine Relativität mit der Gravitation zu verbinden. Hierbei ging Einstein von
dem sogenannten Äquivalenzprinzip aus, wonach schwere und träge Masse
äquivalent sind. Die schwere Masse ist dasjenige an einem Körper, das ihn zur
Erde zieht; man könnte sie analog der elektrischen Ladung als
„Gravitationsladung“ bezeichnen. Die träge Masse hingegen ist diejenige
Eigenschaft eines Körpers, die seinen Widerstand gegen irgendeine wirkende
Kraft, gegen beliebige Beschleunigungen, bewirkt. Weil nun die quantitativen
Werte von schwerer und träger Masse gleich sind, kann man die Wirkung eines
homogenen Gravitationsfeldes nicht unterscheiden von dem Effekt eines
beschleunigten Bezugssystems: Ein Körper A, der in Richtung eines Körpers B
beschleunigt wird, kann auch als ruhend betrachtet werden mit einem
Gravitationsfeld, welches B anzieht. Ruhe und Beschleunigung sind also relativ. In
seiner Arbeit von 1916 bespricht Einstein das Beispiel zweier zueinander
beschleunigter Koordinatensysteme K und K' mit beliebiger Richtung, und er fasst
seine Schlussfolgerung in dem Satz zusammen: „Aus diesen Erwägungen sieht
168
man, daß die Durchführung der allgemeinen Relativitätstheorie zugleich zu einer
Theorie der Gravitation führen muß; denn man kann ein Gravitationsfeld durch
bloße Änderung des Koordinatensystems erzeugen“ (Einstein, 1916, S. 84).
Einstein kam zu der Überzeugung, dass das allgemeine Relativitätsprinzip (jedes
Koordinatensystem könne als ruhend betrachtet werden) in der zu konstruierenden
Theorie dadurch verankert sein sollte, dass sie die folgende Forderung zu erfüllen
hatte:
„Die allgemeinen Naturgesetze sind durch Gleichungen auszudrücken,
die für alle Koordinatensysteme gelten, d.h. die beliebigen
Substitutionen gegenüber kovariant (allgemein kovariant) sind.“
(Einstein, 1916, S. 86)
Darüber hinaus machte Einstein die Annahme, dass dieses Prinzip der
allgemeinen Kovarianz, sein allgemeines Relativitätsprinzip, erfüllt sei, wenn die
Gleichungen eine tensorielle Form haben. (Ein mathematischer Ausdruck ist ein
Tensor, wenn er sich gemäß einer bestimmten Koordinatentransformationsart
transformiert.)
Das Endergebnis all dieser und anderer Überlegungen publizierte Einstein 1916.
Die zentralen Gleichungen der ART lauten (ohne die kosmologische Konstante):
Rµ ν − 1 / 2 g µ ν ⋅ R = − χ T µ ν . Ohne auf mathematische Details einzugehen, lässt sich
so viel dazu sagen: Die linke Seite der Gleichungen stellt die Struktur der
Raumzeit dar, die rechte Seite steht für die Energie des Systems
(Massenverteilung, innere Materiespannungen etc.). Masse und Energie (was ja
gemäß E = m ⋅ c 2 äquivalent ist) bestimmen demgemäß die Struktur der Raumzeit,
welche wiederum die Bewegung der Materie steuert.
Die ART hat mehrere sehr bemerkenswerte Eigenschaften, die sich aus den
Feldgleichungen ergeben. Während die SRT die Annahme eines Äthers scheinbar
unnötig machte, ergibt sich aus der ART neben der Materie die Existenz eines
geometrischen Feldes, welches als Äther gedeutet werden kann. In Einsteins
eigenen Worten: „Nach der allgemeinen Relativitätstheorie ist der Raum mit
physikalischen Qualitäten ausgestattet; es existiert also in diesem Sinne ein Äther“
(Einstein, 1920, S. 198). Die genaue Struktur dieses geometrischen Feldes bzw. der
vierdimensionalen Raumzeit hängt jedoch gemäß dem Prinzip der allgemeinen
Kovarianz vom benutzten Koordinatensystem ab, welches fast keiner
Beschränkung unterliegt. Entgegen dem ursprünglichen Ziel Einsteins lässt sich
jedoch ein Gravitationsfeld nicht in allen Fällen wegtransformieren, nämlich nicht
im Fall der Rotation von Objekten (s. d'Inverno, 1995). Die mit der Rotation
auftretende Problematik kann man sich leicht veranschaulichen: Betrachtet man
169
bei Newtons Gedankenexperiment den Eimer als ruhend, so müsste sich der
Fixsternhimmel innerhalb ca. einer Sekunde einmal im Kreis drehen – bei der
riesigen Entfernung der Sterne würde das aber Überlichtgeschwindigkeit bedeuten,
was der Formalismus verbietet. Das rotierende Koordinatensystem lässt sich also
nur beschränkt nutzen; die Rotation war jedoch gerade Newtons Argument für die
Existenz eines absoluten Raumes. Was Einstein aber besonders überraschte, war
die Tatsache, dass die Feldgleichungen eine Lösung erlauben, selbst wenn es im
Universum keine Materie gäbe. Ein einzelnes Objekt in einem sonst materiefreien
Universum besitzt Trägheitseigenschaften! Das ist deshalb so bedeutsam, weil
Mach Newtons Argumentation für einen absoluten Raum entgegenhielt, die
Trägheit des Wassers beim Eimerexperiment käme allein von den fernen Massen.
Neben dem Rotationsproblem gibt es aber noch eine weitere interessante Eigenart
der Theorie. Die statischen Schwarzschild-Lösungen (die Metrik verändert sich
zeitlich nicht) besitzen nämlich eine absolute Zeitkoordinate, die Weltzeit: „Wir
begegnen also in einer statischen Raumzeit wieder der alten Newtonschen Idee
einer absoluten Zeit in dem Sinne, daß die Mannigfaltigkeit auf eine wohldefinierte
Weise in Hyperflächen t = konstant aufgeschnitten werden kann“ (d'Inverno, 1995,
S. 243).
Relativ versus objektiv
In der Relativitätstheorie sind die quantitativen Werte vieler Größen relativ zum
betrachteten Koordinatensystem. Es gibt zwar invariante Eigenschaften, zum
Beispiel die Lichtgeschwindigkeit und das vierdimensionale Raumzeitintervall,
aber das, was wir mit unserer biologischen Wahrnehmungsfähigkeit primär
beobachten (die Längen ausgedehnter Objekte und die Zeitintervalle von
Prozessen) ist nicht objektiv gültig. Wie im Abschnitt über die SRT gezeigt wurde,
lässt sich diese Relativität nicht durch die Projektion der Objekte und Ereignisse
mittels Lichtstrahlen auf unser Beobachtungssystem erklären, dafür steht sie aber
mit manchen Interpretationen der QM in Einklang, wonach die Physik primär nur
über Beobachtungen spricht.
Bei der Besprechung des Zwillingsparadoxes ist darauf hingewiesen worden,
dass Einstein das Relativitätsprinzip auf Beschleunigungen ausdehnen musste,
damit seine Deutung der Formeln plausibel sein konnte: Wird ein Körper A relativ
zu Körper B zunächst beschleunigt, um sich danach gleichförmig zu bewegen, so
macht es physikalisch keinen Sinn, zunächst die Beschleunigung als absolut und
danach wahlweise A oder B als ruhend zu betrachten. Es soll nun die Frage
behandelt werden, ob es Einstein gelungen ist, das allgemeine Relativitätsprinzip
(alle Bewegungen seien relativ) in seiner ART zu verwirklichen. Newtons
170
Argument für absolute Bewegungen war die Wasseroberflächenwölbung während
der Rotation eines Wassereimers. Mach hingegen behauptete, dieses Phänomen
entstände vollständig durch die relative Drehung der fernen Massen. In Einsteins
ART gibt es jedoch Trägheitskräfte, selbst wenn sich nur ein Objekt im ansonsten
leeren Universum befindet (Kanitscheider 1984; d`Inverno 1995). Die Masse
beeinflusst die Struktur der Raumzeit, sie bedingt sie aber nicht vollständig; die
Einsteinschen Feldgleichungen erlauben eine Lösung, selbst wenn es keine Materie
gäbe. Ein weiteres Problem des allgemeinen Relativitätsprinzips ist, dass ein
rotierendes Koordinatensystem nicht einfach durch eine Koordinatentransformation als ruhend betrachtet werden kann. Zumindest bei Rotationen ist die
allgemeine Relativität nicht erfüllt. Eventuell ist sie jedoch überhaupt nicht erfüllt:
Einstein wollte das allgemeine Relativitätsprinzip als allgemeines Kovarianzprinzip durch die Tensorform der Gesetze verwirklichen, und dagegen ist der
Einwand erhoben worden, dass diese allgemeine Kovarianz keine physikalische
Bedeutung besitze, da man jede Gleichung in eine tensorielle Form bringen kann
(Kretschmann, 1917; d'Inverno, 1995, S. 173). Einstein hat diese Kritik akzeptiert
(Einstein, 1918). Während jedoch Kretschmann die Feldgleichungen im Sinne
einer Absoluttheorie deutete, war Einstein für die Beibehaltung des
Relativitätsprinzips: „Ich halte Hrn. Kretschmanns Argument für richtig, die von
ihm vorgeschlagene Neuerung jedoch nicht für empfehlenswert“ (Einstein, 1918,
S. 242). Für die Beibehaltung des Relativitätsprinzipes plädierte Einstein mit dem
Argument, es hätte eine bedeutende heuristische Kraft, die sich am
Gravitationsproblem bereits bewährt habe. Einsteins Argument für das
Relativitätsprinzip basierte also nicht primär auf durch experimentelle Daten
gestützte mathematische Gleichungen, sondern war genuin philosophischer, d.h.
erkenntnistheoretischer Natur. Für Wissenschaftler mit anderen Heuristiken kann
somit dieses Argument nicht das Gewicht einer wissenschaftlichen Tatsache
einnehmen.
Das Mach-Prinzip spielte ebenfalls eine bedeutsame heuristische Funktion, und
diesbezüglich schreibt der Kosmologe Wolfgang Rindler (1977, S. 244): „Be this
as it may, if Einstein really sought to find a framework for Mach`s principle in his
general relativity, one would probably have to conclude that he, like Columbus,
failed in his purpose. And yet, in the one case as in the other, how rich the actual
discovery and how forgotten, by comparison, the original purpose!“ Um die
allgemeine Relativität zu verwirklichen, sah sich Einstein gezwungen, die
Gravitation in die Theorie aufzunehmen. Was er in seiner ART zweifellos
erreichte, war eine neue Gravitationstheorie. Ob er jedoch die Relativität in ihrer
allgemeinen Form erreichte, kann mindestens bezweifelt werden. In diese
Richtung deutet auch die mögliche Existenz einer Weltzeit in der Kosmologie.
Sollte das Ziel einer allgemeinen Theorie der Relativität noch nicht verwirklicht
worden sein, so gäbe es nur zwei Möglichkeiten. Entweder müsste ein neuer
171
Versuch gestartet werden, oder die Relativität wäre aufzugeben; die ART wäre
dann lediglich als Gravitationstheorie zu betrachten. Wie im Abschnitt über die
SRT erwähnt wurde, gibt es zu Einsteins Interpretation des mathematischen
Formalismus (der SRT) einen Konkurrenten, nämlich die Deutung der Entdecker
dieser Mathematik (Lorentz und Poincaré), wonach Längenkontraktionen und
Zeitdilatationen reale, objektive Phänomene sind. Lorentz, Poincaré, Michelson,
Fitzgerald und (vermutlich) sogar Ernst Mach haben die SRT abgelehnt (vgl.
Kanitscheider, 1988). Lorentz war der Überzeugung, dass die Differenz zwischen
seiner und der Einsteinschen Auffassung nur erkenntnistheoretischer Natur sei
(Kanitscheider, 1988, S. 130). Und auch heute noch gibt es Autoren, die den
Unterschied nicht im Formalen, sondern in der physikalischen Semantik sehen (s.
z.B. Kanitscheider, 1988, S. 105), und die der Meinung sind, die Theorie von
Lorentz sei bezüglich der beobachtungsmäßigen Voraussagen der SRT äquivalent
(z.B. Rindler 1977, S. 7; Zahar, 1973a,b). Beim experimentellen Test einer Theorie
wird hauptsächlich der mathematische Formalismus getestet, so dass die
experimentell bedingte Glaubwürdigkeit primär der Mathematik gilt, nicht jedoch
deren Deutung. Die physikalische Interpretation eines Formalismus geht allerdings
oftmals über die reine Mathematik hinaus, z.B. kann sie deren Anwendungsweise
festlegen, so dass dadurch doch ihre experimentelle Testbarkeit gegeben ist.
Tatsächlich scheint es ein experimentelles Ergebnis gegen die relativistische
Deutung der Formeln zu geben: Um die Zeitdilatation der SRT zu testen, hat man
eine Atomuhr um die Erde geflogen und anschließend mit einer auf der Erde
verbliebenen Uhr verglichen (Hafele/Keating, 1972a,b). Dabei wurde gefunden,
dass die bewegte Uhr (im Flugzeug) um den durch die Zeitdilatation
vorhergesagten Betrag langsamer gegangen war.3 Dieses Ergebnis wird von den
Autoren als eine Bestätigung der SRT bezeichnet, obwohl die SRT besagt, man
könne bei gleichförmigen Bewegungen jedes Objekt als ruhend betrachten. Nach
dieser Sichtweise hätten eigentlich die Piloten nach dem Flug feststellen können,
dass die Uhr der Erde langsamer gegangen sei, denn sie hätten die Erde als bewegt
betrachten können. Diesen symmetrischen Effekt hat man nicht berichtet, vielmehr
entspricht das Resultat eher dem, was Poincaré und Lorentz vermutet hätten:
Zeitdilatation nur im Flugzeug wegen einer absoluten Flugzeuggeschwindigkeit.
Die Theorie von Einstein und die seiner Konkurrenten machen also verschiedene
Vorhersagen, und das Flugzeug-Experiment spricht eher gegen die SRT. Aufgrund
dieses Experimentes kann man übrigens auch eine Asymmetrie beim
Zwillingsparadox vermuten.
Warum hat sich Einsteins Interpretation, die SRT, gegenüber der von Lorentz
und Poincaré durchgesetzt? Die ART wurde als Fortentwicklung der SRT
betrachtet, so dass das relativistische Programm eine größere Erklärungsleistung
aufweisen konnte als die Sichtweise der Konkurrenten. Unabhängig von diesem
Argument, ohne die Einbeziehung der später entstandenen ART als
172
Relativitätstheorie (und nicht allein als eine neue Gravitationstheorie, wofür in
dieser Arbeit argumentiert wird) waren die Gründe für die Akzeptanz der SRT
vermutlich alle rein erkenntnistheoretischer Natur (vgl. Zahar, 1973a,b): Einsteins
SRT scheint ohne einen Äther auszukommen, ihre Ontologie ist also sparsamer als
die der Konkurrenten. Hinzu kommt, dass zu Beginn unseres Jahrhunderts eine
phänomenalistische, operationalistische Grundeinstellung in der Erkenntnistheorie
der Physiker sehr verbreitet war. Nach dieser erkenntnistheoretischen Position
sollen in einer physikalischen Theorie nur beobachtbare Größen enthalten sein. In
seiner Arbeit über die SRT von 1905 definierte Einstein Zeit und Gleichzeitigkeit
operational: „indem man durch Definition festsetzt, daß die „Zeit“, welche das
Licht braucht, um von A nach B zu gelangen, gleich ist der „Zeit“, welche es
braucht, um von B nach A zu gelangen. ... Die „Zeit“ eines Ereignisses ist die mit
dem Ereignis gleichzeitige Angabe einer am Orte des Ereignisses befindlichen,
ruhenden Uhr, welche mit einer bestimmten, ruhenden Uhr, und zwar für alle
Zeitbestimmungen mit der nämlichen Uhr, synchron läuft“ (Einstein 1905: 28f). In
seiner Arbeit zur ART von 1916 forderte er konsequenter Weise, dass „als
Ursachen und Wirkungen letzten Endes nur beobachtbare Tatsachen auftreten“,
alles andere „ist aber bloß fingierte Ursache, keine beobachtbare Sache“ (Einstein,
1916, S. 82). Im Sinne dieser phänomenalistischen Erkenntnistheorie hat später
Heisenberg den ersten Schritt zur heutigen QM unternommen, indem er sich
möglichst streng nur an die beobachtbaren Phänomene hielt. Umso erstaunter war
Heisenberg, als sich diesbezüglich Einstein ihm gegenüber sehr unzufrieden
äußerte – rückblickend schrieb Heisenberg über ein Gespräch mit Einstein aus dem
Jahr 1926, kurze Zeit nach seinem ersten Schritt zur QM:
„»... Da es aber doch vernünftig ist, in eine Theorie nur die Größen
aufzunehmen, die beobachtet werden können, schien es mir naturgemäß,
nur diese Gesamtheiten, sozusagen als Repräsentanten der Elektronenbahnen, einzuführen.«
»Aber Sie glauben doch nicht im Ernst«, entgegnete Einstein, »daß man
in eine physikalische Theorie nur beobachtbare Größen aufnehmen
kann.«
»Ich dachte«, fragte ich erstaunt, »daß gerade Sie diesen Gedanken zur
Grundlage Ihrer Relativitätstheorie gemacht hätten? Sie hatten doch
betont, daß man nicht von absoluter Zeit reden dürfe, da man diese
absolute Zeit nicht beobachten kann. Nur die Angaben der Uhren, sei es
im bewegten oder im ruhenden Bezugssystem, sind für die Bestimmung
der Zeit maßgebend.«
»Vielleicht habe ich diese Art von Philosophie benützt«, antwortete
Einstein, »aber sie ist trotzdem Unsinn. Oder ich kann vorsichtiger
sagen, es mag heuristisch von Wert sein, sich daran zu erinnern, was
man wirklich beobachtet. Aber vom prinzipiellen Standpunkt aus ist es
173
ganz falsch, eine Theorie nur auf beobachtbare Größen gründen zu
wollen. Denn es ist ja in Wirklichkeit genau umgekehrt. Erst die Theorie
entscheidet darüber, was man beobachten kann.«“ (Heisenberg, 1985, S.
79f)
Damit in Übereinstimmung steht, dass Einstein, von der Relativitätstheorie
abgesehen, in der Regel eine sehr realistische Erkenntnistheorie vertrat: Er
kritisierte später die QM immer auf der Basis eines objektiven
Erkenntnisanspruches real ablaufender Prozesse. Bereits in seiner Frühzeit,
ebenfalls 1905, argumentierte er für die reale Existenz von damals
unbeobachtbaren Atomen und Molekülen, die man aufgrund der Brownschen
Molekularbewegung vermuten konnte. Damit in Übereinstimmung stehen auch
seine erkenntnistheoretischen Bemerkungen an den verschiedensten Stellen, an
denen Einstein nicht von operationalen Definitionen spricht, sondern von der
empirischen Bewährung intuitiv gewonnener Begriffe und Annahmen (Einstein,
1946, 1960, S. 118-121, 1991).
Heutzutage wird eine enge operationalistische Erkenntnistheorie, wie sie Anfang
des 20. Jahrhunderts auf viele Wissenschaftler überzeugend wirkte, kaum noch
vertreten. Am deutlichsten wird das bei der Quarktheorie. Einzelne Quarks lassen
sich nämlich prinzipiell nicht beobachten, da die für die Isolierung einzelner
Quarks notwendige Energie derartig groß ist, dass aus dieser Energie gemäß der
Formel E = m ⋅ c 2 neue Quarks entstehen, die sich verbinden, so dass Quarks nie
einzeln, sondern nur im Verbund als andere Teilchenarten auftreten. Quarks sind in
Einsteins Terminologie „bloß fingierte Ursachen“. Trotzdem wird die
Quarktheorie als eine sehr gute Theorie betrachtet, was verdeutlicht, dass eine
strikte operationalistische Grundeinstellung heute kaum noch vertreten wird. Auf
der Grundlage einer realistischen Erkenntnistheorie darf man Zeit und
Gleichzeitigkeit in einem objektiven Sinne definieren. Davon zu trennen ist die
Frage, wie man die Zeit bzw. die Gleichzeitigkeit von zwei Ereignissen faktisch
bestimmt. Die Bestimmung irgendwelcher Größen ist oft schwierig und
fehleranfällig; man muss sich jedoch damit abfinden, dass man nicht alles exakt
messen kann, was vielleicht tatsächlich existiert.
Das andere bedeutsame Argument gegen die Theorie von Lorentz und Poincaré
war, dass die SRT ohne Äther auskomme. Ein Äther, die Raumzeit, trat 1916 in
der ART wieder auf, der jedoch nicht die objektive Bestimmung von absoluten
Längen ermöglicht. Im Jahre 1965 hat es aber eine Entdeckung gegeben, die es
ermöglicht, von einem ausgezeichneten Bezugssystem zu sprechen, nämlich die
Entdeckung der kosmischen 3 K-Mikrowellenhintergrundstrahlung. Es handelt
sich hierbei um eine im ganzen Universum homogene und isotrope Strahlung, die
als ein Relikt des Urknalls betrachtet wird. Bezüglich dieser Strahlung lassen sich
174
Geschwindigkeiten ermitteln; z.B. hat die Erde nach heutigem Wissen eine
Geschwindigkeit von 600 km/sec (Kanitscheider, 1988, S. 100).
Über die Lorentz-Transformationen und den daraus ableitbaren Formeln der
Längenkontraktion und Zeitdilatation lässt sich somit abschließend sagen, dass ihre
relativistische Deutung in dem Maße zweifelhaft ist, wie es Einstein nicht
gelungen ist, das allgemeine Relativitätsprinzip in seiner ART zu verwirklichen.
Sollte sich dieser Verdacht des Scheiterns der ART als Relativitätstheorie in
Zukunft weiter erhärten, so müssten die Physiker von neuem die Deutung von
Lorentz und Poincaré in Betracht ziehen. Hierbei wäre nur wichtig die Annahme,
dass die Effekte physikalisch verursacht werden während Absolutbewegungen.
Benutzt man die Theorie von Lorentz und Poincaré, so spräche auch nichts
dagegen, die Formeln nicht nur für gleichförmige Bewegungen, sondern auch für
beschleunigte Bewegungen zu benutzen. Über weitergehende Vermutungen der
Autoren, z.B. über die Verursachung der Effekte durch Molekularkräfte, wäre
damit noch nichts gesagt; zumindest bei Elementarteilchen können
Molekularkräfte für die Effekte nicht verantwortlich sein.
Anmerkungen
1. Das Zwillingsparadox wird in der Literatur oft durch grafische Abbildungen,
durch Minkowski-Diagramme, erläutert und vermeintlich befriedigend
aufgeklärt. Da diese Diagramme jedoch nur bildhafte Wiedergaben der
mathematischen Formeln sind, sind diese Diagramme nicht dazu geeignet, den
Formalismus physikalisch zu deuten. Lorentz und Poincaré hätten diese
Diagramme ebenfalls benutzen können.
2. Damit soll nicht für diese empiristische Interpretation der QM Partei genommen werden. Die verschiedenen Theorien der Physik müssen aber konsistent
zueinander sein, so dass die Interpretation des Formalismus aus einem
Forschungsbereich Hinweise geben kann für die richtige Interpretation der
Formeln eines anderen.
3. Die bei diesem Experiment aufgetretenen allgemein-relativistischen Effekte
wurden bei der theoretischen Datenanalyse von den reinen Geschwindigkeitseffekten getrennt.
175
Literaturverzeichnis
Arendes, L., 1992, Gibt die Physik Wissen über die Natur? Das Realismusproblem
in der Quantenmechanik, Würzburg.
Einstein, A., 1905, „Zur Elektrodynamik bewegter Körper“, Ann. d. Phys. 17.
Abgedruckt in H. A. Lorentz, A. Einstein, H. Minkowski, 1982, Das
Relativitätsprinzip. Eine Sammlung von Abhandlungen, Darmstadt, S. 26-50.
Einstein, A., 1916, „Die Grundlage der allgemeinen Relativitätstheorie“, Ann. d.
Phys. 49. Abgedruckt in H. A. Lorentz, A. Einstein, H. Minkowski, 1982, Das
Relativitätsprinzip. Eine Sammlung von Abhandlungen, Darmstadt, S. 81-124.
Einstein, A., 1918, „Prinzipielles zur allgemeinen Relativitätstheorie“, Ann. d.
Phys. 55, 241-244.
Einstein, A., 1920, „Äther und Relativitäts-Theorie“. In A. Einstein, 1986,
Ausgewählte Texte, herausgegeben von H. C. Meiser, München, S.. 180-198.
Einstein, A., 1946, „Bemerkungen zu Bertrand Russells Erkenntnis-Theorie“, In
P. A. Schilpp (Hrsg.), The Philosophy of Bertrand Russell, Evanston, S. 277291.
Einstein, A., 1960, Briefe an Maurice Solovine, Berlin.
Einstein, A., 1991, Autobiographical Notes, La Salle.
Greiner, W., 1981, Theoretische Physik. Bd. I: Mechanik I, Frankfurt a. M.
Hafele, J. C., Keating, R. E., 1972a, „Around-the-World Atomic Clocks: Predicted
Relativistic Time Gains“, Science 177, 166-168.
Hafele, J. C., Keating, R. E., 1972b, „Around-the-World Atomic Clocks: Observed
Relativistic Time Gains“, Science 177, 168-170.
Heisenberg, W., 1985, Der Teil und das Ganze, 9. Auflage, München.
d'Inverno, R., 1995, Einführung in die Relativitätstheorie, Weinheim.
Kanitscheider, B., 1984, Kosmologie. Geschichte und Systematik in
philosophischer Perspektive, Stuttgart.
Kanitscheider, B., 1988, Das Weltbild Albert Einsteins, München.
Kretschmann, E., 1917, „Über den physikalischen Sinn der Relativitätspostulate,
176
A. Einsteins neue und seine ursprüngliche Relativitätstheorie“, Ann. d. Phys. 53,
575-614.
Lorentz, H. A., 1892, „Maxwell`s Electromagnetic Theory and its Application to
Moving Bodies“. In H. A. Lorentz, 1936, Collected Papers, Nijhoff, The Hague,
Bd. 2, S. 164-343.
Lorentz, H. A., 1895, Treatise on a theory of electrical and optical phenomena in
moving bodies, Leiden.
Lorentz, H. A., 1904, „Elektromagnetische Erscheinungen in einem System, das
sich mit beliebiger, die des Lichtes nicht erreichender Geschwindigkeit bewegt“,
Proceed. Acad. Sc. Amsterdam 6, 809. Abgedruckt in H. A. Lorentz, A.
Einstein, H. Minkowski, 1982, Das Relativitätsprinzip. Eine Sammlung von
Abhandlungen, Darmstadt, S. 6-25.
Mach, E., 1883, Die Mechanik in ihrer Entwicklung, Leipzig.
Poincaré, H., 1905, „Sur la dynamique de l'électron“, Comptes rendus de
l'Académie des Sciences 140, 1504-1508.
Rindler, W., 1977, Essential Relativity. Special, General, and Cosmological,
Berlin.
Zahar, E., 1973a, „Why did Einstein`s Programme supersede Lorentz`s? (I)“, Brit.
J. Phil. Sci. 24, 95-123.
Zahar, E., 1973b, „Why did Einstein`s Programme supersede Lorentz`s? (II)“,
Brit. J. Phil. Sci. 24, 223-262.
177
Philosophische Leitideen für die
geisteswissenschaftliche Forschung
Zusammenfassung: Auf der Grundlage der heutigen wissenschaftlichen Weltauffassung werden
heuristische Leitideen für die Forschungen auf den Gebieten der Psychologie, Soziologie und
Philosophie ausgearbeitet. Dabei geht es u.a. um Bewusstsein und Handlungstheorie, um die
ontologische Natur von Werten und Normen, die Faktoren des gesellschaftlichen Wandels und
um die Ausarbeitung gesellschaftlicher und internationaler Werte.
1. Methodik von Wissenschaft und Naturphilosophie
In der Naturwissenschaft dominierte über Jahrhunderte hinweg der Glaube, man
gelange durch Induktion von den experimentellen Daten zu allen Theorien, was
gleichzeitig als Wahrheitsbegründung der Theorien galt. Von der Seite der
Philosophen war es vor allem Karl Popper (aufbauend auf David Hume), der diesem Selbstverständnis der Wissenschaft, durch induktive Beweise begründbare
wahre Erkenntnisse zu liefern, ein Ende bereitete, nachdem bereits zuvor Albert
Einstein in der naturwissenschaftlichen Forschungspraxis gezeigt hatte, dass selbst
sehr gut bestätigte Theorien durch neue und bessere ersetzt werden können. Weder
kann man durch eine irgendwie geartete logische Methode die Grundbegriffe der
wissenschaftlichen Theorien erhalten, noch gibt es ein Induktionsprinzip, mit dem
sich induktive, d.h. logisch gültige Schlüsse von den einzelnen Daten zur Theorie
durchführen lassen (Popper 1935).
Wie die wissenschaftliche Theorienkonstruktion tatsächlich verläuft, lässt sich
überblickartig gut anhand eines Briefes von Albert Einstein beschreiben. In einem
Brief an einen Freund hatte er sehr detailliert seine erkenntnistheoretischen
Ansichten beschrieben (Einstein 1960). In diesem Brief gibt Einstein eine Skizze
zur wissenschaftlichen Methode, und in dieser Skizze werden drei Ebenen
unterschieden (s. Abb. 1). Unmittelbar gegeben sind uns die Sinneserlebnisse,
welche die unterste Ebene, die Basis der Forschung bilden. Die höchste Ebene
wird gebildet von den theoretischen Axiomen, und zwischen den Axiomen und den
Sinneserlebnissen liegt die mittlere Ebene der Einzelaussagen bzw. Theoreme. Der
Wissenschaftler (bzw. die Wissenschaftlerin) startet bei der untersten Ebene, den
Sinneserlebnissen, und versucht, von dort zur höchsten Ebene, zu den Axiomen zu
gelangen. Aus diesen Axiomen leitet er dann auf logischem Weg die
178
Einzelaussagen der mittleren Ebene ab, welche nach Einstein Anspruch auf
Richtigkeit erheben können. Zuletzt werden diese Theoreme wieder mit den
Sinneserlebnissen der untersten Ebene in Beziehung gebracht, d.h. sie unterliegen
einer Prüfung an der Erfahrung. In diesem Kreislauf von den Sinneserlebnissen
über Axiome und Einzelaussagen zurück zu neuen Sinneserlebnissen ist nach
Einstein nur der Schritt von den Axiomen zu den Theoremen ein logischer
Übergang. Die Theoreme werden auf deduktivem Weg aus den Axiomen
abgeleitet. Der Schritt von den Sinneserlebnissen zu den Axiomen ist nicht auf
logischem Weg zu erreichen, zwischen beiden gibt es nur einen intuitiven
(psychologischen) Zusammenhang. Ebenso gehört nach Einstein die Prüfung der
Einzelaussagen an der Erfahrung der extra-logischen Sphäre an, denn die in den
Einzelaussagen auftretenden theoretischen Begriffe stehen mit den
Sinneserlebnissen nicht in einem logischen Zusammenhang. Insgesamt ist somit
die wissenschaftliche Forschung an zwei Stellen nicht logischer Natur: Einerseits
müssen mit Begriffen Axiome gebildet werden, andererseits müssen theoretische
Begriffe zu den Sinnesdaten in Beziehung gebracht werden.
Abb. 1: Einsteins Skizze zur wissenschaftlichen Methode. A bezeichnet das System von
Axiomen, S, S', S'' die daraus gefolgerten Sätze und E die Mannigfaltigkeit der unmittelbaren
(Sinnes-) Erlebnisse.
Die Geschichte der Naturwissenschaft, vor allem die von Physik und Biologie,
zeigt, dass eine Wissenschaft im Lauf ihrer Entwicklung verschiedene
methodologische Stadien durchläuft. Man kann hauptsächlich drei Stadien
unterscheiden, die allerdings fließend ineinander übergehen. Auch enthält jedes
Stadium die Vorgehensweise der vorherigen. Im Frühstadium konzentrieren sich
Wissenschaftler darauf, über ihren Forschungsgegenstand möglichst viele
empirische Daten zu sammeln und diese in Form von allgemeinen Sätzen
zusammenzufassen. Es tauchen dann irgendwann Fragestellungen auf, die sich
hierdurch nicht beantworten lassen. Man kommt in das Stadium, wie es Einstein in
seinem Brief darlegte: Ausgehend von den Beobachtungsdaten versucht man,
Axiome zu formulieren, aus denen Sätze deduktiv abgeleitet werden können,
welche sich schließlich an der Erfahrung bewähren müssen. Hat man einmal auf
179
diese Weise eine gute Theorie gefunden, dann kann in der Folgezeit zweierlei
passieren. Es kann einerseits vorkommen, dass neue experimentelle Daten von der
Theorie nicht erklärt werden können. Dann versucht der Wissenschaftler (bzw. die
Wissenschaftlerin) wieder nach Einsteins Schema, von diesen Daten spekulativ zu
einer neuen Theorie zu gelangen. Auf diese Weise ist die Quantenmechanik (QM)
entstanden: Eine neue Theorie war nötig geworden, um die diskontinuierlichen
Atomspektren zu erklären. Es kann jedoch auch Folgendes passieren: Zwar erklärt
die vorhandene Theorie alle für relevant gehaltenen Daten, aber die
Wissenschaftler sind unzufrieden mit den grundlegenden Prinzipien, den
Grundbegriffen oder Axiomen der Theorie, und sie bemühen sich deshalb um eine
neue Theorie. Ein Beispiel ist die Gravitationstheorie. Einstein wollte das
allgemeine Relativitätsprinzip verwirklichen und musste aus theoretischen
Gründen die allgemeine Relativität mit der Gravitation verbinden. Außerdem war
er unzufrieden damit, dass Newtons Gravitationskraft eine Fernwirkungskraft war,
und mit der Allgemeinen Relativitätstheorie (ART) eliminierte er diese „spukhafte
Fernwirkung“ aus der Gravitationsphysik. Unglücklicherweise tauchte die
Fernwirkung kurze Zeit später in der QM wieder auf. Und abermals: Obwohl die
QM die experimentellen Daten sehr exakt erklären kann, wurde Einstein nicht
müde, darauf zu drängen, eine neue Theorie zu finden.
Zusammenfassend kann man folgende drei Forschungsstadien unterscheiden: 1.
das Sammeln von experimentellen Daten und das Aufstellen allgemeiner
Aussagen; 2. das Bemühen, von den Beobachtungsdaten durch Spekulation zu den
theoretischen Begriffen und Axiomen zu gelangen, um dann deduzierte Sätze mit
Beobachtungen zu konfrontieren; 3. die Ersetzung von Theorien durch neue
Theorien mit akzeptableren Prinzipien oder Eigenschaften. Wie eine derartig
bessere Theorie auszusehen hat, ist durch keine feste methodologische Regel
vorgeschrieben und wird von Wissenschaftler zu Wissenschaftler verschieden
eingeschätzt. Wissenschaftler lassen sich hierbei von Leitideen führen, was weiter
unten genauer erläutert wird. Von der Wissenschaftlergemeinschaft wird eine neue
Theorie in der Regel nur dann übernommen, wenn sie zusätzlich zu den
Vorhersagen der alten Theorie neue empirische Befunde korrekt vorhersagt.
Methodologisch besonders interessant sind natürlich die Fragen, wie im zweiten
Stadium der spekulative Schritt von den Daten zu den Axiomen verläuft und nach
was für Prinizipien die Wissenschaftler im dritten Stadium vorgehen. Wie die
kognitive Psychologie zeigen konnte, spielen bei sehr komplexen Problemen
während der Lösungssuche Heurismen eine wichtige Rolle (Dörner 1979).
Heurismen sind Leitideen, durch welche Probleme unter Umständen gelöst werden
können, sie sind Vermutungen darüber, welche Bestandteile die Lösung des
Problems haben könnte. Gerald Holton (1973) hat derartige Leitideen u.a. aus den
Arbeiten von Einstein herausgearbeitet, und diese Leitideen lassen verstehen, wa180
rum Einstein bestimmte Theorien bevorzugte und andere ablehnte, obwohl sie
empirisch gestützt waren; sie beruhten nämlich auf anderen Leitideen.
Schlagwortartig zusammengefasst waren derartige Leitideen bei Einstein (s.
Kanitscheider 1988): Bevorzugung partieller Differenzialgleichungen, Vereinheitlichung und große Reichweite der Theorien, Sparsamkeit im ontologischen
Aufwand, Notwendigkeit, Symmetrie, Einfachheit, Kausalität, Vollständigkeit und
Kontinuum.
Abb. 2: Naturphilosophische Erweiterung von Einsteins Skizze zur wissenschaftlichen Methode
(s. Abb. 1). WB bezeichnet das Weltbild bzw. WA die Weltauffassung (falls die Grundstrukturen
der Welt unanschaulich sein sollten), L, L' Leitideen, A, A', A'' Axiomensysteme, S, S', S''
deduzierte Sätze und E die unmittelbaren Erlebnisse. Die gestrichelten Linien geben sehr
spekulative Forschungsschritte an.
Eine wichtige Funktion der Naturphilosophie in der Wissenschaft ist deshalb, den
Wissenschaftlern für ihre Forschungsbemühungen Heurismen bzw. Leitideen
bereitzustellen. Die wissenschaftliche Forschung ist heutzutage einerseits sehr
fachspezifisch, andererseits sehr zeitintensiv, so dass der einzelne Wissenschaftler
neben seinen spezifischen Forschungsinteressen und seinen sonstigen
Verpflichtungen wie Lehrveranstaltungen kaum noch Zeit und Muße findet, mehrere Forschungsrichtungen oder gar mehrere Wissenschaften zu durchdringen. Der
Publikationsdruck ist derartig groß, dass für die genaue erkenntnistheoretische
Analyse selbst der eigenen Wissenschaft kaum noch Zeit bleibt. Der
Wissenschaftsphilosoph (bzw. die Wissenschaftsphilosophin) hingegen überblickt
durch gründliches Literaturstudium in der Regel mehrere Wissenschaftsdisziplinen
und hat die nötige erkenntnistheoretische Schulung, um die Grundaussagen
mehrerer Theorien herausarbeiten und miteinander vergleichen zu können. Die
systematische Herausarbeitung und der Vergleich grundlegender theoretischer
181
Begriffe und Strukturen verschiedener Theorien aus unterschiedlichen
Wissenschaften wird deshalb heutzutage vornehmlich von Philosophen geleistet. In
einem zweiten Schritt kann nun der Naturphilosoph versuchen, die vielen
Detailergebnisse zu einer konsistenten Zusammenschau zu integrieren, d.h. ein
Weltbild oder eine Weltauffassung zu formulieren. Die Synthese einer
Weltauffassung, die natürlich (wie alle Integrationen von einzelnen Bausteinen zu
einem Ganzen) über die Detailergebnisse der Wissenschaften hinausgeht, hat aber
nicht nur den Wert einer teleskopartigen Zusammenfassung bereits vorliegender
wissenschaftlicher Erkenntnisse, sondern kann den Wissenschaftlern auch zur
Orientierung und Ausrichtung ihrer Forschungen dienen, denn aus einer
umfassenden Weltauffassung lassen sich Leitideen ableiten, die bei der
experimentellen Forschung und bei der Theorienkonstruktion hilfreich sein können
(s. Abb. 2). So hat zum Beispiel das Demokritsche Weltbild zur Suche nach
kleinsten Bausteinen, den Atomen, geführt, was heute bis zur Quarktheorie führte.
Neben der Analyse der Grundstrukturen der Theorien und der Synthese einer
Weltauffassung hat also der Philosoph die zusätzliche Aufgabe, durch
Bereitstellung naturphilosophischer Leitideen, erhalten aus einer Weltauffassung,
Theorienkonstruktionen zu fördern.
Im Folgenden werde ich zunächst eine kurze Zusammenfassung der
Weltauffassung geben, wie sie sich angesichts der heutigen Erkenntnisse der
Naturwissenschaften darstellt. Anschließend werde ich auf Grundlagenprobleme
von Psychologie und Soziologie eingehen und dabei an manchen Stellen auf
methodologisch-erkenntnistheoretische Argumente und auf die zuvor beschriebene
Weltauffassung zurückgreifen, um für die wissenschaftliche Forschung
heuristische Leitideen zu formulieren. Diese Leitideen sollen keine
unwiderlegbaren Wahrheiten darstellen, wie sie von Naturphilosophen allzuoft
gegenüber Wissenschaftlern vertreten werden und die deshalb bei
Wissenschaftlern immer wieder von vornherein auf Abneigung stoßen, sondern
heuristische Anregungen, die in der einzelwissenschaftlichen Forschung vielleicht
zur Ausformulierung empirisch testbarer Theorien führen können. Im letzten
Kapitel werde ich kurz andeuten, welche Auswirkungen die hier vorgestellte
Weltauffassung und die darauf aufbauenden Leitideen auf das philosophische
Selbstverständnis haben.
2. Grundzüge der wissenschaftlichen Weltauffassung
Im 20. Jahrhundert haben die Naturwissenschaften zu einer Vielzahl von
Einzelerkenntnissen geführt, unser Gesamtbild vom Aufbau der Natur wurde dabei
aber immer unklarer. Aus diesem Grund habe ich in einer anderen Arbeit (Arendes
b) detailliert die Grundstrukturen der Welt herausgearbeitet, wie sie sich angesichts
182
der heutigen Theorien der Physik, Chemie und Biologie darstellen. Diese
wissenschaftliche Weltauffassung kann man folgendermaßen kurz zusammenfassen:
Die Welt besteht aus einer allgegenwärtigen, unbeobachtbaren Grundsubstanz;
einem Äther, einem Urmateriefeld oder einer prima materia. In dieser
Grundsubstanz sind die Naturgesetze als Informationen implementiert, welche die
Entstehung von beobachtbaren Phänomenen und deren Bewegungsformen steuern.
In Vorgängen der Emergenz entstehen aus dem Äther die beobachtbare Materie,
die Raumzeit, Bewusstsein und andere Phänomene. Aus dem Äther, oder wie man
zur Zeit in der Physik sagt aus dem Vakuum, ist vor mehreren Milliarden Jahren in
einem Urknall die beobachtbare Materie entstanden, das Universum dehnt sich
seitdem beständig aus und die zunächst fast vollständig homogene oder chaotische
Verteilung der sogenannten Elementarteilchen hat sich im Lauf der Zeit in einem
Prozess
der
Selbstorganisation
zu
immer
komplexeren
Systemen
zusammengelagert: zu Atomen, Molekülen, Organismen, Gesellschaften,
Gesellschaftssystemen. Obwohl alle diese Objekte aus mehreren Teilobjekten
bestehen, sind sie in der Lage, als zusammengehörende Einheiten zu wirken. Die
Abgrenzung von zusammengehörenden Einheiten gegenüber der Umwelt ist
jedoch oft nicht vollständig; so können einzelne Einheiten selbst wieder Teile von
übergeordneten Gesamtsystemen sein. Die Organe eines Körpers (Magen, Herz,
Hirn etc.) bilden zwar voneinander getrennte Gesamtkomplexe, sind aber dennoch
Teile des gesamten Lebewesens. Tatsächlich besitzen viele der im Lauf der
Selbstorganisation entstandenen Objekte eine sehr komplexe Schachtelungsstruktur. Schachtelung bedeutet, dass mehrere Komponenten sich zu einem System
zusammenlagern, mehrere derartige Systeme bilden wiederum zusammen ein noch
größeres System, viele solcher Systeme wiederum ein übergeordnetes Gesamtsystem etc. So bilden zum Beispiel im Gehirn mehrere Proteine einen Ionenkanal,
viele Ionenkanäle bilden mit anderen Objekten eine Zellmembran, diese ist
wiederum Teil einer Hirnzelle, viele Hirnzellen bilden einen Hirnkern, viele Kerne
sind Teile des Gehirns, welches Teil eines Menschen ist, welcher zu einer
Gesellschaft gehört. Dieser Schachtelung der realen Objekte entspricht auf der
Ebene der Naturgesetze, die diese Objekte steuern, eine hierarchische Struktur, die
als Schichtung bezeichnet wird. Die untersten Schichten werden gebildet von den
Bewegungsgesetzen der einfachsten Objekte der leblosen Materie, darüber liegt die
Schicht der biologischen Gesetze, darüber die der Psychologie, der Soziologie und
der Wissenschaft von den internationalen Beziehungen. Leblose Materie wird von
den Gesetzen der Physik und Chemie gesteuert; sind aber beispielsweise Ionen
Teile eines Körpers, so werden ihre physikalischen Gesetze von den Gesetzen der
Biologie überformt; Menschen sind Teile einer Gesellschaft und ihr
psychologisches Verhalten wird von sozialen Gesetzen mitbestimmt. Die
Konzeption einer Schichtung der Naturgesetze besagt somit, dass die
183
schichthöheren Naturgesetze die genaue Ausgestaltung der niederen bestimmen.
Dies bezeichnet man auch als Abwärtskausalität; die höhere Systemebene
beeinflusst das Verhalten der niederen. Bei Mikroobjekten (Elementarteilchen)
oder Aggregaten mit geringer Teilchenanzahl scheinen Zufallsprozesse eine
wichtige Rolle zu spielen, wohingegen das Verhalten von Makroobjekten, die sich
aus sehr vielen Bestandteilen zusammensetzen, dem Kausalitätsprinzip unterliegt,
wobei sich allerdings das Zufallsverhalten von Mikroobjekten in bestimmten
Situationen auch auf das Verhalten der Makroprozesse übertragen kann. Das
Kausalitätsprinzip besagt, dass Bewegungsänderungen eines Objektes durch
äußere Ursachen hervorgerufen werden, und bei komplexeren Systemen wie den
Prozessen innerhalb eines Organismus oder des gesamten Lebewesens sind die
Bewegungsabläufe zumeist auch teleonom, d.h. zielgerichtet.
Auf der Grundlage dieser naturwissenschaftlichen Weltauffassung sollen nun
einige wichtige Grundlagenprobleme von Psychologie und Soziologie besprochen
werden.
3. Psychologie
Psychologie ist die Wissenschaft von der Psyche, und das heisst vor allem, dass sie
Denken und Bewusstsein untersuchen sollte. Neben der Erklärung der
Denkvorgänge ist es Aufgabe der Wissenschaft, Bewusstsein zu beschreiben und
zu untersuchen, wie es entsteht und wozu es dient. Das Bewusstsein ist heute kein
Phänomenbereich mehr, der sich einer wissenschaftlichen Erklärung grundsätzlich
entzieht. Vielmehr ist es eine Emergenzeigenschaft des Gehirns, was man grob
vergleichen kann mit Emergenzeigenschaften von statistisch verteilten
Vielteilchenaggregaten, z.B. mit der Temperatur und Entropie solcher Systeme. In
einer früheren Arbeit (Arendes 1996) habe ich auch vorgeschlagen, das visuelle
Bewusstsein als ein physikalisches Feld analog zur Raumzeit, welche nach den
Einsteinschen Feldgleichungen ein Korrelat zur Energie des Universums ist,
aufzufassen. Möglich ist auch, dass unbewusste kognitive Prozesse nicht nur im
materiellen Gehirn, sondern zusätzlich im Äther ablaufen. Dies sind jedoch
Forschungsgebiete, die eher in der Biophysik und in der Psychobiologie
angesiedelt sind, weshalb ich hier nicht näher darauf eingehen werde.
Dass das Bewusstsein u.a. dazu dient, das Verhalten zu steuern, führt dazu, dass
Psychologen sehr intensiv das von außen beobachtbare Verhalten von Menschen
und Tieren untersuchen. Im Extrem war dies im Behaviorismus dazu ausgeartet,
sich nur auf das äußere Verhalten zu beschränken und sogar die Existenz von
Bewusstsein zu leugnen oder zumindest für nicht wissenschaftlich untersuchbar zu
erklären. Unser Bewusstsein ist aber durchaus mit wissenschaftlichen Methoden
184
untersuchbar. Besonders deutlich wird dies in der Psychophysik, die gesetzmäßige
Relationen zwischen physikalischen Reizen und Erlebnisqualitäten im
Wahrnehmungsbewusstsein untersucht (vgl. von Campenhausen 1981). Bewusstseinsinhalte sind nämlich in dem Sinne objektiv erforschbar, dass alle Personen die
behaupteten Phänomene auch bei sich selbst beobachten können sollten. Auf
introspektive Berichte wird deshalb heute wieder in vielen Bereichen der
wissenschaftlichen Psychologie zurückgegriffen. Besonders wichtig sind natürlich
introspektiv
erhaltene
Bewusstseinsbeschreibungen,
wenn
man
auf
naturwissenschaftlicher Ebene, in der Psychobiologie, das Leib-Seele Problem
untersuchen will. Um Bewusstsein physiologisch zu erklären – das heisst zunächst,
um Bewusstseinsphänomene mit physiologischen Korrelaten in Beziehung zu
setzen –, benötigt man eine genaue und wenn möglich eine formale Beschreibung
des Bewusstseins. Introspektive Untersuchungsformen, wie sie z.B. in der
Würzburger Schule zu Beginn des 20. Jahrhunderts praktiziert wurden (vgl. Hussy
1984), müssen deshalb in Zukunft weiter ausgearbeitet werden, um als
Vorbedingung für eine biologische Leib-Seele Theorie möglichst auch zu einer
mathematischen Beschreibungsform zu gelangen. Nützliche Leitideen hierfür
können Psychologen aus der Geschichte der Philosophie erhalten. In der
philosophischen Phänomenologie hat sich beispielsweise Edmund Husserl sehr
darum bemüht, Bewusstseinsphänomene möglichst theorienfrei, rein deskriptiv zu
erfassen. Hierbei beschäftigte er sich gerade mit dem schwierigsten Bestandteil des
Bewusstseins, dem Erleben der semantischen Deutung der Erlebnisinhalte, was er
in der Nachfolge von Brentano, und wie heute in der Phänomenologie üblich, als
Intentionalität bezeichnete (Husserl 1993). Neben Husserl gibt es viele andere
Autoren aus der Phänomenologie, von denen Psychologen interessante
Anregungen erhalten können. Diese Ideen sollten jedoch nicht kritiklos
übernommen werden, sondern müssen mit wissenschaftlichen Methoden von der
Psychologengemeinschaft auf intersubjektive Weise untersucht werden.
Philosophische Autoren – so auch der späte Husserl – neigen dazu, die rein
deskriptive Phänomenologie mit zusätzlichen philosophischen Positionen zu
vermengen. Für die Psychologie ist nur entscheidend zu beschreiben, dass und wie
wir zum Beispiel Farbmuster erleben, in welchen Dimensionen sie beschreibbar
sind (Farbton, Helligkeit, Sättigung), wie wir ihre auf die Realität bezogene
Bedeutung erleben, mit welchen Dimensionen dieser Intentionalitätsaspekt
beschrieben werden kann, wie man dafür eine Skalierung einführen kann usw.
Die introspektive Untersuchungsform wird in der Psychologie noch zu wenig
beachtet, in der Nachfolge des Behaviorismus hat sich jedoch eine andere sehr
wichtige und heute dominierende psychologische Schule entwickelt, welche die
Art der Informationsverarbeitung untersucht. Diese sogenannte kognitive
Psychologie orientiert sich an der Computer-Metapher zur Untersuchung der
Denkvorgänge (s. Hussy 1984; Dörner 1979). Formal sieht das so aus, dass die
185
Vorgänge z.B. in Form von Flussdiagrammen beschrieben werden, wie es in der
Informatik beim Programmschreiben üblich ist, und dass zusätzlich zu den
experimentellen Untersuchungen der Menschen Computersimulationen durchgeführt werden.
Natürlich darf die Psychologie neben der Untersuchung der oft oder zum größten
Teil unbewusst ablaufenden Informationsverarbeitungsprozesse nicht den
Bewusstseinsaspekt, die introspektive Methode, ignorieren. Darüber hinaus gibt es
weitere Kritikpunkte an der kognitiven Psychologie, die nun behandelt werden
sollen. Aus der Sicht der Neurophysiologie ist zunächst zu fragen, wie die in der
Computersprache formulierten Informationsverarbeitungsprozesse in der Natur (im
Gehirn oder anderswo) implementiert sein sollen. Vom Gehirn weiß man, dass es
Informationen sehr stark parallel verarbeitet, was bei heutigen Computern nur in
relativ geringem Umfang der Fall ist. Hierauf kann von Seiten der kognitiven
Psychologie geantwortet werden, dass einerseits künftige Computer in immer
größerem Umfang Informationen parallel verarbeiten werden, andererseits scheint
aber bei höheren kognitiven Prozessen beim Menschen tatsächlich nur wenig
paralleles Verarbeiten vorzuliegen (s. Hussy 1984). Ein weiterer und noch
wichtigerer Einwand von Seiten der Physiologie ist, dass das Gehirn insgesamt
betrachtet nur wenig Ähnlichkeit mit dem Aufbau eines Computers hat. So scheint
es im Gehirn – anders als im Computer – keine für die verschiedenen Speicherund Gedächtnisstrukturen abgegrenzten Areale zu geben. Auch sieht das
dynamische Verhalten jeweils anders aus. Während ein Computer sein Programm
nach logischen Regeln abarbeitet und dadurch seine Zielzustände erreicht,
verändern sich zum Beispiel nach manchen Modellen der neuronalen Netzwerke
die Nervenverbände gemäß den dynamischen Prinzipien von nichtlinearen
Differenzial- bzw. Differenzengleichungen, wobei z.B. der Zielzustand erreicht
wird, indem das System in einen Attraktor läuft. Das Relaxieren in einen Attraktor
nach physikalischen Prinzipien ist natürlich ein ganz anderer Vorgang als die
Abarbeitung von logischen Regeln bzw. Algorithmen. Zwar werden die Modelle
der neuronalen Netzwerke auf Computer simuliert, es handelt sich aber eben nur
um Simulationen; die tatsächliche Informationsverarbeitung des Computers erfolgt
nach den Regeln der Informatik. Ob man in Zukunft Computer bauen kann, die wie
unser Gehirn arbeiten, bleibt abzuwarten; dann würde sich aber auch die
Beschreibungsweise der kognitiven Psychologie ändern müssen, wollte sie sich
weiterhin an der Computer-Metapher orientieren. Darüber hinaus lässt sich auf
diese physiologischen Kritiken von Seiten der kognitiven Psychologie Folgendes
antworten. Zunächst einmal kann argumentiert werden, dass wissenschaftliche
Theorien ohnehin nur Approximationen an die Wahrheit sind, und es ist nicht
auszuschließen, dass man später adäquatere Beschreibungsformen finden wird.
Auch ist es möglich, dass unser kognitives Verhalten beides enthält,
Entscheidungen gemäß logischer Prinzipien wie in der Informatik und das
186
Einlaufen des Systems in einen Attraktor. Die Beschreibungsform von
Algorithmen mittels Flussdiagrammen könnte auf einem höheren Niveau des
Entscheidungsbaumes adäquat sein; zum Beispiel bei Entscheidungen darüber,
welche Unterziele erreicht werden sollen. Die Realisierung der letzten Unterziele
könnte dann gemäß Differenzialgleichungen erfolgen. Wie ich an anderer Stelle
ausgearbeitet habe (Arendes 1996, a, b), ist es denkbar, dass zusätzlich zu den
Prozessen im materiellen Gehirn weitere Informationsverarbeitungen im Äther
ablaufen könnten, und dass die Naturgesetze aus zwei Stufen bestehen könnten,
aus teleonomen Prozessen zur Festlegung von Attraktoren und aus dem
herkömmlichen kausalen bzw. mechanistischen Einlaufen in Attraktoren. Die
teleonome Fixierung der Parameter von Differenzialgleichungen zur Festlegung
von Attraktoren könnte nun im Äther nach den heutigen Prinzipien der Informatik
und somit gemäß der kognitiven Psychologie erfolgen, die Erreichung der
letztendlichen Zielzustände hingegen durch Relaxierung in Attraktoren im Gehirn.
Neben der introspektiven Forschungsmethode und der Frage nach der
Informationsverarbeitungsweise gibt es in der Psychologie einen dritten sehr
bedeutsamen Problemkomplex, der hier behandelt werden soll, nämlich die
Gegenüberstellung von Verhaltenstheorie und Handlungstheorie. Beim
Behaviorismus gibt es zwei Lernparadigmen, das klassische und das operante
Konditionieren. Das klassische Konditionieren beginnt mit einem Verhalten, das
reflexartig durch einen äußeren Reiz auslösbar ist, etwa das Augenzwinkern bei
einem Luftstoß gegen das Auge. Wenn man nun diesen Reiz wiederholt mit einem
anderen Reiz paart, etwa mit einem gleichzeitig gegebenen Ton, so löst nach
einigen Durchgängen dieser zweite Reiz bereits allein, also zum Beispiel ohne den
Luftstoß, die entsprechende Verhaltensreaktion aus. Demgegenüber beginnt man
beim operanten Konditionieren mit einem Verhalten, das die Person spontan und
eventuell zufällig hin und wieder ausführt, und immer wenn dieses Verhalten
auftritt, gibt man dem Lebewesen, zum Beispiel auch einer Ratte, eine Belohnung,
etwa ein Futterstückchen. Durch derartige Belohnungen und durch Bestrafungen
bringt man das Lebewesen dazu, bestimmte Verhaltensweisen besonders häufig
auszuführen oder sie zu vermeiden. Insgesamt genommen spielen somit beim
klassischen und operanten Konditionieren, beim Behaviorismus, äußere Ereignisse
(als auslösende Reize und als Belohnungen und Bestrafungen) eine zentrale Rolle.
Demgegenüber kommen bei der Handlungstheorie inneren, mentalen Zuständen
eine zentrale Bedeutung zu. Nach dieser Theorie handeln Menschen hauptsächlich,
weil sie bestimmte Ziele vor Augen haben, die sie erreichen möchten (vgl.
Reimann et al. 1985). Zwar nimmt der Behaviorismus auch an, dass es zwischen
Reiz und Reaktion innere intervenierende Variablen gibt, bei der Verhaltenstheorie
spielen aber dennoch die äußeren Vorgänge die wichtigere Rolle, bei der
Handlungstheorie die inneren.
187
Die Verhaltenstheorie wird heute von der Psychologie zwar nicht mehr als
dominierendes Erklärungsmuster für menschliche Aktivitäten benutzt, es ist aber
trotzdem sehr aufschlussreich, sich zu vergegenwärtigen, warum der
Behaviorismus in der Mitte des zurückliegenden Jahrhunderts die dominierende
Schule in der Psychologie war. Der Behaviorismus erfüllte zwei methodologische
Forderungen in besonders einfacher Form. Zum Einen wandte er sich gegen die
introspektive Methode, die abgelehnt wurde, weil man innere Zustände nicht in
dem Maße objektiv messen kann wie zum Beispiel die Stärke eines Luftstoßes
oder die Anzahl von Futterpellets. Zum Anderen wollte man sich an den
erfolgreichen Naturwissenschaften orientieren, die sich um kausale Erklärungen
bemühen. Im Gegensatz zu den teleologischen Erklärungen der Handlungstheorie
(das Erreichen von Zielen) erfüllen die Reiz-Reaktions-Beziehungen der
Verhaltenstheorie das Muster von kausalen Beziehungen besonders gut: Wenn
Ereignis A geschieht (ein Reiz taucht auf), dann folgt Ereignis B (eine Reaktion).
Beim operanten Konditionieren ist das zwar schon nicht mehr so einfach, man
entdeckte hier aber dennoch mehrere Gesetze, die sich im Labor auf einfache und
durchaus beeindruckende Weise untersuchen lassen, hauptsächlich jedoch bei
Tieren wie Ratten und Tauben.
Der Behaviorismus wurde schon vor einiger Zeit von der kognitiven Psychologie
abgelöst. Wie bereits beschrieben, versucht man in der kognitiven Psychologie die
Aktivitäten der Menschen in Anlehnung an die Informationsverarbeitungsart der
Computer zu erklären. Da Computer Programme abarbeiten, um Ziele zu
erreichen, ist in der kognitiven Psychologie implizit enthalten, dass Menschen
Ziele erreichen wollen. Die Handlungstheorie wird zwar in ihrer expliziten Form
an den Universitäten im Rahmen der »Allgemeinen Psychologie« oftmals nicht
dargestellt (ich selbst habe sie erst in der Soziologie kennengelernt), Ziele, Motive
etc. werden heute aber zumindest im Rahmen der Motivations- und
Persönlichkeitspsychologie explizit behandelt.
Dass Menschen nicht nur quasi passive Verhaltensautomaten sind, sondern von
innen heraus aktiv sind und Ziele verwirklichen wollen, hat sich zwar in der
Psychologie wieder durchgesetzt, trotzdem sollen hier noch ein paar Argumente
zugunsten der Handlungstheorie angeführt werden. Dass Menschen Ziele erreichen
wollen, ist ein introspektives Faktum, und dass es für die Psychologie grundlegend
wichtig ist, auch introspektive Untersuchungen durchzuführen, ist bereits
ausgeführt worden. Introspektive Berichte sind in dem Sinne objektiv, wie jeder
die behaupteten Phänomene auch bei sich selbst beobachten kann (Objektivität als
Intersubjektivität); und dass wir Ziele erreichen wollen, weiß jeder Mensch von
sich selbst, ist also objektiv bzw. intersubjektiv gültig. Zusätzlich zu dieser
Argumentationsrichtung ist besonders hervorhebenswert, dass man selbst bei einer
sehr engen Anlehnung an die Naturwissenschaft und selbst aus physiologischer
188
Sicht Erklärungen mittels Zielen anstreben sollte, denn selbst viele Biologen sehen
sich dazu veranlasst, Prozesse in Organismen teleonom zu erklären (Mayr 1991):
Das Herz schlägt, um das Blut zirkulieren zu lassen; eine der Aufgaben der Nieren
ist, Abfallprodukte auszuscheiden; das Gehirn dient dazu, Informationen zu
verarbeiten etc. Der Biophysiker Chauvet (1995) hat vorgeschlagen, zielgerichtete
Prozesse im Rahmen von nichtlinearen Differenzialgleichungen als Abläufe von
sogenannten Quellen in Senken zu behandeln, und auf ähnliche Weise habe ich in
einer früheren Arbeit (Arendes a) vorgeschlagen, teleonome Prozesse auf der
Ebene der Parameter von nichtlinearen Differenzialgleichungen zu erklären. Der
wichtigste Unterschied zwischen den biologischen und den psychologischen
Vorgängen ist dabei lediglich, dass uns die psychologischen Zielzustände oft
bewusst sind, die biologischen Prozesse (etwa in den Nieren) jedoch nicht; die
Existenz von Bewusstsein wird aber auch von Naturwissenschaftlern nicht
geleugnet. Ein weiterer wichtiger Unterschied ist, dass die Prozesse in den
Organen ihre Funktionen in der Regel immer und sozusagen automatisch erfüllen,
wohingegen wir Menschen für unsere Ziele oftmals kämpfen müssen und sie
trotzdem oft nicht erreichen. Diese Unterschiede verdeutlichen sehr gut eine der
Thesen der Schichtentheorie, wonach auf verschiedenen Systemebenen – hier auf
denen der biologischen und der psychologischen – ähnliche Naturgesetze, aber in
abgewandelter Form auftreten können (Hartmann 1949a, 1950).
Der Schichtungscharakter der Welt kann auch dazu benutzt werden, das Verhältnis
von Verhaltenstheorie und Handlungstheorie zu klären. Man kann nämlich drei
Hauptebenen der menschlichen Aktivitäten unterscheiden. Die unterste Ebene wird
gebildet vom Verhalten, wie es Reflexphysiologen und Behavioristen untersuchen:
Ein Luftstoß gegen das Auge bewirkt Augenzwinkern, ein lautes Geräusch von der
Seite bewirkt einen Orientierungsreflex, Zucker auf der Zunge bewirkt
Speichelfluss etc. Überlagert wird dieses automatische und konditionierbare
Verhalten von der Handlungsebene. Die menschlichen Aktivitäten werden nicht
vorwiegend durch äußere Reize ausgelöst, sondern kommen von innen her und
dienen der Zielerreichung. Neurophysiologisch spiegelt sich dieses überlagerte
Schichtungsverhältnis von Handlung und Verhalten darin wieder, dass die
übergeordneten Hirnzentren einige Parameter der niederen Zentren regulieren
können. Wiederum überlagert werden diese beiden Aktivitätsstufen, die
hauptsächlich von Biologen und Psychologen untersucht werden, von einer dritten,
die vornehmlich von Soziologen untersucht wird, nämlich das Handeln zur
Erfüllung gesellschaftlicher Werte und Normen. Man spricht hier auch von der
„Soziologischen Handlungstheorie“ (vgl. Miebach 1991; Reimann et al. 1985). Die
Werte und Normen einer Gesellschaft sind gegenüber der psychologischen Ebene
etwas Neues, eine emergente Systemeigenschaft, worauf im nächsten Abschnitt
über Soziologie genauer eingegangen wird. Die Normenbefolgung und das
Streben, soziale Werte zu verwirklichen, haben aber auch etwas mit den beiden
189
tieferliegenderen Ebenen gemeinsam. Einerseits werden soziale Werte und
Normen von den Mitmenschen an uns herangetragen und insofern sind sie etwas
Äußeres wie die äußeren Reizen des Behaviorismus bzw. der Reflexphysiologie.
Andererseits werden die Werte und Normen im Sozialisierungsprozess von den
Individuen internalisiert, sie werden zusätzlich zu den eher egoistischen Zielen von
den Personen aufgenommen und zu weiteren inneren Zielen, die zu erreichen sie
sich bemühen, und insofern sind sie relevant für die psychologische Handlungstheorie.
4. Soziologie
In der Soziologie, einer sogenannten Geisteswissenschaft, gibt es mehrere
ontologische und in diesem Sinne naturwissenschaftliche Fragestellungen. Mehrere
Grundlagenprobleme der Soziologie, die seit ihrer Entstehung als eigenständiger,
von der Philosophie unabhängigen Wissenschaft immer wieder diskutiert werden,
sollen in diesem Abschnitt im Rahmen unserer Weltauffassung besprochen
werden. Es handelt sich hierbei um die Fragen, ob die Gesellschaft eine
ontologische Entität mit einer gegenüber den physikalischen Gesetzen eigenen
Gesetzlichkeit ist, ob die Soziologie überhaupt Gesetze zu suchen hat und nicht
vielmehr die historisch-kulturellen und einmaligen Gegebenheiten nur beschreibend untersuchen soll, ob es um Verstehen statt um Erklären von sozialen
Zusammenhängen geht, welche Faktoren beim sozialen Wandel ausschlaggebend
sind und was Werte und Normen sind.
Eine der bedeutendsten Persönlichkeiten der Geschichte der Soziologie ist
Durkheim, der die Meinung vertrat, das Soziale bilde eine besondere ontologische
Entität, deren Eigengesetzlichkeit von der Soziologie zu untersuchen sei (Jonas
1981). Von den Kritikern wurde dies als ein metaphysischer Irrglaube
abqualifiziert; über den Köpfen der einzelnen Personen einer Gesellschaft schwebe
nicht irgendeine metaphysische Wolke, die das Soziale ausmache, vielmehr würde
eine Gesellschaft nur aus den einzelnen Personen und ihren Handlungen bestehen.
Der bedeutendste Gegenspieler Durkheims war Max Weber, nach dem
Kollektivbegriffe wie Staat, Gesellschaft und Gruppe auf das Handeln der
beteiligten Einzelmenschen zurückgeführt werden sollten, und deshalb sollten alle
Erklärungen an die Motive der Einzelnen anknüpfen. Diese wissenschaftliche
Streitfrage ist analog zum Reduktionsproblem der Biologie, bei dem es darum
geht, ob alle biologischen Prozesse durch physikalische Gesetze der leblosen
Materie erklärt werden können oder ob es besondere biologische Entitäten bzw.
Gesetze gibt. Da bereits in der Physik und in der Biologie akzeptiert wird, dass es
auf höheren Systemebenen emergente Eigenschaften gibt, die eigenen Gesetzen
folgen, kann nun auch angenommen werden, dass es in der Soziologie emergente
190
Phänomene gibt. Da es selbst in der Physik Emergenz gibt (z.B. Temperatur,
Entropie, Enthalpie), ist dies kein metaphysischer Irrtum, sondern eine
wissenschaftliche Annahme, die mit den Methoden der Wissenschaft untersucht
werden kann.
In jeder Gesellschaft gibt es eine Vielzahl von Systemeigenschaften, die allein
durch das Handeln einzelner Personen nicht erklärt werden können. So ist die
wissenschaftliche Rationalität eine typische Kollektiveigenschaft, denn ohne
gründliches Literaturstudium und ohne die kritisierenden Publikationen der
Kollegen könnte der einzelne Wissenschaftler seine eigenen Idiosynkrasien und
seine oft festgefahrenen Grundeinstellungen nicht überwinden. Die Wissenschaft
ist heute auch soweit fortgeschritten, dass sich kein Nachwuchswissenschaftler
ohne die lehrende Vermittlung der älteren oder ohne Fachliteratur in ein
spezifisches Forschungsproblem einarbeiten kann. Andere typisch soziale
Systemphänomene sind Kunst, Moral, Recht, das Rollenverhalten in Beruf und
Familie und insgesamt die Befolgung von gesellschaftlichen Verhaltensnormen.
Ontologisch ist eine Gesellschaft eine Einheit, die Einzelmenschen enthält, die
aber mehr ist als die Summe aller Personen, ebenso wie ein Körper nicht nur die
Ansammlung von Molekülen oder Zellen ist. In der Soziologie bezeichnet man
diesen Unterschied zwischen den Interaktionen einzelner Personen und globalen
gesellschaftlichen Gegebenheiten mit Mikrosoziologie und Makrosoziologie. Eine
Gesellschaft enthält zwar Personen, aber gerade die hochmodernen Gesellschaften
der heutigen Zeit enthalten wesentlich mehr, auch leblose Materie. Um sich das zu
verdeutlichen, stelle man sich einmal vor, was in den Innenbezirken unserer großen
Städte passieren würde, wenn schlagartig alle Verkehrsschilder, Ampeln etc.
weggeräumt würden; das totale Verkehrschaos würde ausbrechen. Oder man stelle
sich einmal vor, alle Gesetzesbücher und schriftlich festgehaltenen DINVorschriften würden schlagartig verschwinden.
Der Mensch ist ein eingeschachtelter Teil eines übergeordneten Systems, einer
Gesellschaft, und im Bereich der Naturgesetze bedeutet das, dass es über der
biologischen und der psychologischen Schicht eine soziologische mit eigenen
Gesetzen geben sollte. Der Unterschied zwischen Biologie und Soziologie kann
durch mehrere Beispiele verdeutlicht werden. Dass für gesellschaftliche Prozesse
teilweise andere Gesetze gelten als für biologische wird beispielsweise daraus
deutlich, dass eine Gesellschaft innerhalb kurzer Zeit verschiedene Staats- und
Gesellschaftsformen haben kann, obwohl sich die Biologie der darin lebenden
Personen nur unwesentlich ändert. Die Biologie und die Umwelt allein
determinieren nicht die sozialen Prozesse. Biologisch bedingt hat der Mensch zwar
die Tendenz zum Egoismus, er wird aber im Sozialisierungsprozess und durch
soziale Kontrolle zum Sozialwesen. Sicherlich gibt es auch eine genetische
Prädisposition zum Sozialen, diese wird aber erst durch soziale Mechanismen
191
ausgestaltet. Auch ist offensichtlich, dass sich beispielsweise der reibungslose
Autoverkehr und unser Rechtsverhalten nicht allein durch die Soziobiologie
erklären lassen, da kein anderes Lebewesen über die Schriftsprache verfügt.
Menschen unterscheiden sich von Tieren durch ihre wesentlich höhere Intelligenz
und dadurch, dass sie Teil einer übergeordneten sozialen Einheit sind, wie es sie in
dieser Form sonst nirgendwo in der Biologie gibt (auch wenn es rudimentäre
Analogien geben mag), weshalb man in Psychologie und Soziologie im Gegensatz
zur Biologie zurecht zwischen Mensch und Tier unterscheidet. Zwar leben
beispielsweise auch Bienen und Ameisen in einer sozialen Ordnung, diese besteht
aber nicht aus Institutionen, Werten und Normen, weil Tiere im Gegensatz zum
Menschen keine sehr hohe Fähigkeit der Symbolverarbeitung und der sprachlichen
Kommunikation mittels Symbolen haben. Zwischen Mensch und Tier gibt es
ebenso große Unterschiede wie zwischen Tier und Pflanze, auch wenn alle drei
viele Gemeinsamkeiten besitzen. Mensch und Tier unterscheiden sich aber
hauptsächlich auf der psychologischen und soziologischen Ebene voneinander und
nicht so sehr auf der biologischen.
Trotz aller Unterschiede zwischen einem Körper und einer Gesellschaft ist ein
analogiemäßiger Vergleich sehr lehrreich. Bereits in der Antike haben manche
Autoren die Gesellschaft mit dem Körper eines Lebewesens verglichen. Wie der
Magen dem materiellen Überleben und dem Wachstum dient, so dienen auch
Handwerk und Industrie dem Überleben der Gesellschaft. Systemtheorie (mehrere
Einzelteile bilden zusammengehörende Einheiten mit emergenten Systemeigenschaften) und Funktionalismus (Prozesse von Komponenten laufen ab, um
das Gesamtsystem zu erhalten) sind Theorien, die ursprünglich in der Biologie
entstanden und die wegen der Analogien zwischen Körper und Gesellschaft schnell
auf die Gesellschaft übertragen worden sind (vgl. Reimann et al. 1985; Jonas
1981). Verglichen mit dem Körper der Lebewesen sind die Institutionen (vor allem
in Form von Organisationen) die Organe der Gesellschaft; sie sind relativ
abgegrenzte Einheiten mit dem Ziel des Überlebens der übergeordneten Einheit,
der Gesellschaft. Institutionen sind Systeme von Handlungsstandardisierungen,
Werten und Normen zur Erreichung bestimmter Interessen. Die Familie dient dem
Zusammenleben und dem Großziehen des Nachwuchses, die Politik der Sicherung
des Gesamtwohls und der Wahrung der Interessen gegenüber den Nachbarstaaten,
und ein wissenschaftliches Institut dient der Erzeugung von Wissen. Der Vergleich
mit dem Körper wird, wie bereits oben getan, gern auch dazu herangezogen zu
verdeutlichen, dass eine Gesellschaft mehr ist als die Summe aller Personen, so
wie der gesamte Körper mehr ist als die Summe aller Zellen. Und so wie ein
Körper zusätzlich zu den lebenden Zellen aus im Grunde genommen leblosen
Knochen besteht (vom Mark abgesehen), so besteht eine moderne Gesellschaft
nicht nur aus Personen, sondern zum Beispiel auch aus Büchern und
Fabrikanlagen. Der Vergleich mit dem Körper hat natürlich auch seine Grenzen;
192
eine höhere ontologische Schicht ist eben nicht einfach die Wiederholung einer
niederen. Nicht alle Institutionen der Gesellschaft dienen dem Überleben der
Gesamtgesellschaft; es gibt hier auch viel Spielerisches, etwa die Vereinigung von
Briefmarkensammlern oder jede echte Form von Kunst.
Zu den interessantesten Entitäten einer Gesellschaft zählen die Werte und Normen.
Welchen ontologischen Status diese haben, was sie von ihrer Natur her sind, wird
in der Soziologie immer wieder neu diskutiert (s. Hechter et al. 1993). Schaut man
sich nur einmal die Kapitelüberschriften von Büchern über Werte an (z.B.
Hartmann 1949b; Schorlemmer 1995; Wickert 1995), so findet man dort
Ausdrücke wie Gerechtigkeit, Freiheit, Solidarität, Wahrhaftigkeit, Verantwortung,
Zivilcourage, Nächstenliebe, Weisheit etc. Diejenigen Soziologen, die der
Meinung sind, eine Gesellschaft wäre lediglich die Summe aller Einzelpersonen,
vertreten die Position, dass Werte nur die psychologischen Präferenzen der
Menschen seien. Im Rahmen der hier dargestellten Weltauffassung kann
demgegenüber angenommen werden, dass sie Emergenzeigenschaften der
gesamten Gesellschaft sind. So wie die biologischen Prozesse in einem
Körperorgan darauf abzielen, bestimmte Funktionen zu erfüllen, sind Werte die
Zielzustände einer Gesellschaft, die hauptsächlich – aber nicht nur – darauf
abzielen, den Bestand der Gesellschaft zu gewährleisten. Man kann sich dies mit
Computersimulationen verdeutlichen. Will man ein Computerprogramm schreiben,
um eine Stadt zu simulieren, so reicht es nicht aus, einfach nur für die Personen
dieser Stadt Programme zu entwerfen, welche bestimmen, wie die Personen ihre
Arme und Beine zu bewegen haben, wie sie miteinander sprechen etc. Damit eine
Computerstadt über einen längeren Zeitraum funktioniert, müssen im
Stadtprogramm allgemeine Randbedingungen, Regeln, gegeben sein, die die
Personen einhalten müssen, damit die Stadt (ihre Verwaltung etc.) funktioniert.
Diese Regeln könnten beispielsweise so fixiert sein, dass die Personen in Büchern
nachlesen können, was sie zu tuen haben, oder dass sie es von anderen Personen
gesagt bekommen und dass sie diese Regeln dann ins eigene Personenprogramm
integrieren und sich fortan daran halten.
In diesem Sinn kann man Werte als gesellschaftliche Sollzustände auffassen, und
Normen sind Handlungsanweisungen zur Erreichung dieser Ziele (vgl. Laszlo
1996). Ob etwas ein Wert oder eine Norm ist, ist jedoch relativ. Ziele können in
Unterziele aufgegliedert werden, und ein Unterziel kann relativ zum
höhergelegenen Ziel als Norm und relativ zu einem daruntergelegenen UnterUnterziel als Wert aufgefasst werden.
Zum Bestand einer Gesellschaft ist in allen Gesellschaftsformen nötig, dass sich
ihre Mitglieder nicht gegenseitig ermorden. Neben solchen existenznotwendigen
Werten und Normen gibt es viele andere, die eher zufällig sind (beispielsweise der
193
Wert des technologischen Fortschritts), die aber zur Fortentwicklung der
Gesellschaft beitragen können und durch die sich die vielen Gesellschaften und
Kulturen der Welt voneinander unterscheiden. Welche Werte und Normen
existenznotwendig und welche eher zufällig sind, welche es in allen
Gesellschaftsformen gibt und welche nur in einigen, ist eine sehr interessante
Forschungsaufgabe von Soziologie und Ethnologie. Das Wissen darüber ist aber
nicht allein von einem akademischen Interesse, denn bei den existenznotwendigen
Werten und Normen ist in der Erziehung besonders stark darauf zu achten, dass der
Nachwuchs sie als die eigenen Motive und Ziele internalisiert. (Hat eine Person
Werte internalisiert, dann spricht man auch von den Tugenden des Menschen.)
Da Werte und Normen (grob gesagt die Moral oder Ethik) soziale Entitäten sind,
muss ihre Beachtung durch die Gesellschaftsmitglieder hauptsächlich durch soziale
Mittel bewirkt werden. Zwar gibt es sicherlich eine genetische Grundlage zum
Sozialverhalten, angesichts der kriminellen Delikte in allen Gesellschaften
gewährleistet dies jedoch offensichtlich nicht genügend das moralische Verhalten.
Auch reichen philosophisch-rationale Argumentationen nicht aus, Menschen zum
moralischen Verhalten zu bewegen, da sich kein Mensch nur von Rationalität
leiten lässt. Von philosophischen Sätzen wie „Handle so, dass die Maxime deines
Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten
könne.“ (Kant) lassen sich nur diejenigen leiten, die ohnehin die Moral befolgen
wollen. Schon David Hume hatte betont, dass nicht die Vernunft, nicht die
rationale Einsicht, sondern Gewohnheit und Erziehung die Grundlagen der
Institutionen und des „moral sense“ sind (s. Jonas 1981). Natürlich spielen aber bei
der Erziehung und im täglichen Leben u.a. auch rationale Argumente eine Rolle,
aber nicht die einzige. Wegen der Komplexität der Wertinternalisierung ist es
besonders wichtig, die Mechanismen des Erziehungsprozesses und der allgemeinen
Sozialisierung wissenschaftlich zu erforschen, um auf diesen Erkenntnissen
aufbauend die Kinder in den Familien und in den Schulen dazu zu veranlassen, die
Werte und Normen der Gesellschaft in die eigenen kognitiven Strukturen zu
integrieren, d.h. sie zu internalisieren, damit die Ziele der Gesellschaft zu ihren
eigenen, persönlichen Zielen werden. Bemerkenswert am Prozess der
Internalisierung ist beispielsweise, dass die Normen zunächst als Zwang erlebt
werden, dass sie aber nach ihrer Verinnerlichung oftmals unbewusst ausgeführt
und nicht mehr als bedrückend empfunden werden, dass sie dann manchmal sogar
als Ziel oder Mittel der Selbstverwirklichung betrachtet werden. Gut erläutern kann
man das mit dem Erlernen des Autofahrens. In der Fahrschule ist das Erlernen des
Fahrens eine oftmals unangenehme Last, der man sich am liebsten entziehen
möchte. Hat man dann aber den Führerschein und führt viele der nötigen Handund Fußbewegungen unbewusst aus, so empfindet man diese Handlungsvorschriften nicht mehr als Last und man kann die Beherrschung der Handlungsstandards dazu benutzen, um ins Gebirge, an die See oder in eine schöne Stadt zu
194
fahren, um sich dort seinen Hobbies zu widmen und seine Ziele und Wünsche zu
verwirklichen. Der anfängliche Zwang ist oft lästig, die spätere Beherrschung kann
eine Lust sein; dies gilt auch für die gesellschaftlichen Etiketten.
Ein weiteres lohnenswertes Forschungsthema der Soziologie ergibt sich aus der
Frage nach dem Verhältnis der soziologischen Ebenen zueinander, ihrem
Zusammenwirken. Die Werte und Normen der Gesellschaft (= Makroebene)
bewirken ihre Realisierung durch die Menschen (= Mikroebene) nicht auf die
Weise, wie in einem biologischen Organismus die Organe ihre Funktionen
erfüllen. Die teleonome Zielerreichung der biologischen Prozesse erfolgt zumeist
unfehlbar und automatisch; demgegenüber haben die Werte der Gesellschaft dem
Einzelmenschen gegenüber nur einen Aufforderungscharakter, den die Menschen
oft nicht befolgen. Dieser Unterschied verdeutlicht noch einmal, dass sich die
Gesetzesform einer ontologischen Schicht auf einer höheren nicht einfach
wiederholt. Der Zwang des Staates auf die Einzelmenschen zur Befolgung der
Normen kann aber – wie die verschiedenen demokratischen und diktatorischen
Staaten der Welt belegen – unterschiedlich stark sein. Deshalb ist eine besonders
interessante Frage, wie viel Liberalität in einer Gesellschaft möglich ist, damit sich
die Individuen in ihr wohlfühlen, und wie viel staatliche Kontrolle nötig ist, damit
die Gesellschaft nicht in sich bekämpfende Partikularinteressen zerfällt. Zu viel
Liberalität bewirkt, dass einzelne Unternehmer niedere Bevölkerungsschichten
unterdrücken, zu viel Staat bewirkt, dass Diktatoren oder Parteien das ganze Volk
unterdrücken. Um dieses Verhältnis der Mikro- und Makroebene einer
Gesellschaft, aber auch das der biologischen, psychologischen und soziologischen
Schichten zueinander untersuchen zu können, wird man vermutlich die einzelnen
Ebenen und ihre Interrelationen erst noch wissenschaftlich präziser formulieren
müssen, entweder formal-mathematisch oder stärker qualitativ in Form von Flussdiagrammen, Netzwerken o.ä.
Ein weiteres interessantes Forschungsthema der Soziologie ist die Frage nach den
Faktoren des gesellschaftlichen Wandels. Zwei Gegenpositionen hierzu wurden in
der Soziologiegeschichte von Karl Marx und Max Weber vertreten (vgl. Jonas
1981). Für Marx waren Gesellschaften hauptsächlich Wirtschaftsgesellschaften, in
denen wirtschaftliche Motive und Institutionen die entscheidende Rolle spielen:
Der materielle Unterbau, die Produktionsverhältnisse, würde die gesellschaftliche
Dynamik bestimmen. Demgegenüber meinte Weber, dass kulturelle Faktoren, die
Ideen und Werte einer Gesellschaft, wichtiger für den sozialen Wandel seien. Marx
wollte die Dynamik der Gesellschaft von unten her erklären, Weber von oben. Aus
der Sicht unserer Weltauffassung ist bei diesem Diskussionsthema eher Max
Weber zuzustimmen. Wie Physik und Biologie zeigen konnten, ist die Welt
geschichtet geordnet, wobei die höhere Schicht auf der niederen zwar aufruht, aber
die Dynamik der Komponenten der niederen Schicht steuert. In der Physik ist das
195
vor allem in der Synergetik gezeigt worden; so wird zum Beispiel im Laser die
Wellenlänge eines Atoms zum Ordnungsparameter des Gesamtsystems und diese
Wellenlänge steuert die Emissionen aller anderen Atome (Haken 1982). Natürlich
können auch niedere Schichten die Entwicklung beeinflussen. Wenn zum Beispiel
in der Biologie ein Körper keine Nahrung erhält, dann wird das Gehirn bald keine
steuernde Wirkung mehr ausüben können. Ebenso können eher zufällige
Veränderungen der Produktionsverhältnisse eine Gesellschaft drastisch
beeinflussen und anhaltend verändern; beispielsweise bei Naturkatastrophen, die
die Ernte zerstören, oder bei einem globalen Klimawechsel, welcher die
Produktionsverhältnisse und deshalb auch die staatliche Organisation verändert. In
der Regel haben aber die schichthöheren Entitäten den dominierenden Einfluss auf
die Dynamik. Besonders deutlich ist das bei den modernen Industrienationen.
Aufgrund der bei uns etablierten Werte der Meinungsfreiheit, der Freiheit der
wissenschaftlichen
Forschung
und
vor
allem
des
Wertes
der
naturwissenschaftlichen Erkenntnis konnte sich im Westen die Naturwissenschaft
entwickeln, auf deren Grundlage sich das Ingenieurwesen entwickelte, dessen
Erfindungen die technische Entwicklung und dadurch den industriellen Wohlstand
bewirkten. Ohne solche Werte wie Wahrhaftigkeit und Meinungsfreiheit wäre die
moderne Gesellschaft in ihrer heutigen Form nicht entstanden. Der intellektuelle
Überbau einer Gesellschaft ermöglichte erst bestimmte Produktionsverhältnisse,
wenngleich umgekehrt anderweitig bedingte Veränderungen der Wirtschaft auch
Einfluss auf die intellektuelle Führungsschicht und auf die Werteebene haben
können. Das genaue Zusammenwirkungsgeflecht der verschiedenen Ebenen ist
sicherlich noch zu wenig bekannt, so wie auch in der Biologie die Schichtentheorie
noch sehr unterentwickelt ist. Veränderungen im Wertesystem bewirken
Veränderungen im Verhalten der Individuen, aber welche Faktoren spielen bei der
Wertentstehung und -entwicklung eine Rolle? Sind soziale Konflikte die Folge
oder die Ursache davon? Kann die Philosophie bei der Wertentwicklung eine Art
Kristallisationspunkt sein, indem Philosophen schon existente, aber noch
weitgehend unbewusste Werte ins Bewusstsein heben und dadurch ihre
gesellschaftliche Ausbreitungsgeschwindigkeit erhöhen? Während der Zeit der
Aufklärung hatten viele Philosophen diesen Einfluss auf die europäischen
Gesellschaften gehabt und dadurch eine neue kulturelle Epoche mit den modernen
Gesellschaften eingeleitet.
Zum Schluss des Abschnittes über Soziologie möchte ich noch zwei
methodologische Streitthemen dieser Wissenschaft ansprechen, das Thema
„Erklären versus Verstehen“ und das Thema „Gesetze versus Einmaligkeit“ (vgl.
Reimann et al. 1985). Diejenigen Vertreter der Soziologie, die die soziologische
Forschung in einem eher naturwissenschaftlichen Sinne durchführen, suchen nach
kausalen Erklärungen (nach Ursachen der sozialen Prozesse) und nach
allgemeingültigen
Gesetzen.
Demgegenüber
meinen
die
eher
196
geisteswissenschaftlich orientierten Soziologen, dass jede Gesellschaft eine
historisch-kulturelle Einmaligkeit sei, für die man keine allgemeinen Gesetze
formulieren könne, und dass es in der Soziologie nicht darum gehe, kausale
Ursachen zu suchen, sondern die Motive und Ziele der Individuen zu verstehen.
Aus der Sicht unserer Weltauffassung sind aber „Erklären“ durch Ursachen und
„Verstehen“ von Zielen und Motiven keine wirklichen Gegensätze. Schon in der
Biologie, die zweifelsohne eine Naturwissenschaft ist, kommt man nicht völlig
ohne funktionelle Zielzustände aus. In der Biologie ist das „Verstehen“ von Zielen
eine teleonomische Erklärung. Der Unterschied zur Psychologie und Soziologie ist
lediglich der, dass in diesen beiden Bereichen die Zielzustände teilweise bewusst
sind, so dass man hier von teleologischen Erklärungen spricht. Einen
unbehebbaren Widerspruch zur Physik braucht man dabei nicht zu befürchten, die
Unvollständigkeit unseres Naturwissens liegt hier vor allem auf der Seite der
Physik. Es gibt aber bereits Bestrebungen, das zielgerichtete Verhalten in und von
Organismen durch teleonome Dynamiktheorien physikalisch zu erklären (Chauvet
1995; Arendes a).
Was die Problematik „Einmaligkeit“ der historisch-kulturellen Gegebenheiten
versus Suche nach „Gesetzen“ betrifft, so ist die Kosmologie zweifelsohne eine
Naturwissenschaft, obwohl sie sich mit einem einmaligen Objekt und einem
einmaligen Prozess – dem Universum und seiner Entwicklung – beschäftigt. In der
Kosmologie werden neben einmaligen Vorgängen auch gesetzmäßige behandelt
(vgl. Vollmer 1986), dieses sollte also auch in der Soziologie möglich sein;
gleichgültig ob man sie als Natur- oder als Geisteswissenschaft betrachtet. Egal ob
man die Schichten der Physik und Biologie betrachtet oder die Schichten der
Psychologie und Soziologie, im Rahmen unserer Weltauffassung sind singuläre
Vorfälle überall möglich. Die Informationsverarbeitung im Äther kann neben
gesetzmäßigen Prozessen auch einmalige Vorfälle bewirken, so wie man einen
Computer derart programmieren kann, dass bestimmte Vorgänge nur einmal
geschehen. In der wissenschaftlichen Forschung geht es nirgendwo nur darum, sich
wiederholende Abläufe zu finden; vielmehr möchten Wissenschaftler unsere Welt
erkunden, wie sie faktisch ist. Sich wiederholende Prozesse, wo sie auftreten,
sollen durch Gesetze erklärt werden, einmalige Vorfälle, wo sie auftreten, als
solche Einmaligkeiten dokumentiert werden. Gesetze finden wird man allerdings
nur, wenn man sie auch sucht.
5. Liebe zur Weisheit
Wie die vorangegangenen Kapitel gezeigt haben, kann die Naturphilosophie den
Wissenschaftlern zahlreiche Hinweise geben, auf welche Weise bestehende
Probleme und was für neue Forschungsrichtungen angegangen werden sollten.
197
Bisher ist nur besprochen worden, wie die wissenschaftliche Forschung durch
philosophische Leitideen unterstützt werden kann. Unsere Weltauffassung kann
aber umgekehrt auch Auswirkungen auf die Tätigkeit der Philosophen haben.
Philosophie bedeutet wörtlich übersetzt „Liebe zur Weisheit“. Was aber ist
Weisheit, und welches sollte die wichtigste Aufgabe der Philosophie sein, wenn sie
sich tatsächlich um Weisheit bemühen will? Wie bei der Beschreibung der Weltauffassung erläutert wurde, hat die Welt eine geschichtete Struktur, und auf einer
der höchsten Systemebenen, der soziologischen, treten Werte und Normen auf, die
die Handlungen der Menschen beeinflussen. Im Rahmen unserer
wissenschaftlichen Weltauffassung ist Weisheit das Bemühen, auf der Basis einer
profunden Welt- und Selbsterkenntnis die Werte der Gesellschaft zu verwirklichen
und weiter zu entwickeln, aber natürlich mit der stoischen Gelassenheit eines
Menschen, der sich bewusst ist, dass zumindest ein großer Teil der Natur von
Gesetzen beherrscht wird, denen gegenüber man machtlos ist. Eine der
grundlegendsten Aufgaben der Philosophie ist deshalb die Beschäftigung mit
Werten und Normen, kurz gesagt mit Moral bzw. Ethik; dies aber nicht nur, indem
man darüber nachdenkt und redet, sondern auch indem man als Philosoph die
Werte tatsächlich internalisiert und danach lebt.
Wenn man nur ein wenig darüber nachdenkt, wird einem sofort klar, dass es nicht
zu den höchsten Werten zählt, von unseren Konsumgütern immer gleich das
neueste Modell zu besitzen. Und schon gar nicht zeugt es von Weisheit, sogar mit
kriminellen oder zumindest unmoralischen Mitteln das Geld dafür in mühevoller
Arbeitszeit – die selbst vielleicht wertvoller ist als das Konsumgut – zusammen zu
raffen. Bescheidenheit galt deshalb schon immer als ein äußeres Merkmal des
Weisen, ohne dass jedoch der Weise (bzw. die Weise) auf das Angenehme des
Lebens, das ihm zufällt, verzichtet. Weisheit bedeutet innere Unabhängigkeit von
äußeren Gütern und nicht Askese. Der Philosoph Nicolai Hartmann schrieb in
seiner „Ethik“ über Weisheit: „Die Gesinnung des Weisen ist die aus der
Bescheidenheit seiner Selbsterkenntnis heraus auf die ethischen Werte gerichtete
Einstellung des Menschen.“ Und an anderer Stelle: „Die sapientia ist der ethische
Geschmack, und zwar der feine, differenzierte, wertunterscheidende, kultivierte
Geschmack, die Kultur des moralischen Organs, sofern es, auf die Lebensfülle
gerichtet, Fühlung mit allem bedeutet und bejahende, auswertende Einstellung auf
alles, was wertvoll ist“ (Hartmann 1949b: 428f).
Der Weise denkt nicht nur an sein eigenes Leben, sondern auch, da sein Leben in
eine Gesellschaft eingebunden ist, an das Wohl der gesamten Gesellschaft. Hier ist
nun eine der wichtigsten Aufgaben der Philosophie, zusammen mit der Soziologie
die Werte der Gesellschaft zu untersuchen, sie der Gesellschaft bewusst zu
machen, sie weiter zu entwickeln, ihre Verwirklichung in der Gesellschaft zu
überwachen und unter Umständen – zusammen mit anderen Bevölkerungsgruppen
198
wie den Politikern, Schriftstellern, Journalisten, Unternehmern etc. – neue Werte
zu etablieren. Dieser Aufgabe, neue Werte zu etablieren, stehen wir gerade in der
heutigen Zeit globaler gesellschaftlicher Veränderungen gegenüber. Zwei
Beispiele sollen dies veranschaulichen: In der Wissenschaft wird es in Zukunft
darum gehen, den Wert der Geisteswissenschaften gegenüber den Ingenieur- und
Naturwissenschaften zu betonen; aber natürlich ohne diese zu vernachlässigen. Das
auf unsere Naturkenntnisse aufbauende technische Vermögen reicht bereits aus,
um alle Menschen der Welt zu ernähren und ihnen ein menschenwürdiges Dasein
zu ermöglichen. Wir wissen aber relativ wenig über die Psychologie und
Soziologie des Menschen, also über uns selbst; warum Menschen nicht fähig sind,
von ihrem überschäumenden Reichtum den Armen etwas abzugeben, warum
Machthaber ihr eigenes Volk belügen und betrügen, warum Geld so viel und Moral
so wenig gilt. Die experimentelle und theoretische Biophysik wird in naher
Zukunft das Fundament dafür legen, dass viele weitere Krankheiten – z.B. die des
Gehirns – behandelt werden können. Damit aber dieses Wissen nur zum Heilen
benutzt wird und nicht auch, um die Menschen zu schädigen – etwa durch
Hirnmanipulationen –, ist vorher ein besseres moralisches Fundament unserer
Gesellschaft nötig. Um die Methoden zur moralischen Erziehung zu verbessern
und eine funktionierende Staatsform zu erhalten, in der die Regierenden kompetent
sind und sich dem Gesetz und der Moral verpflichtet fühlen, und in der das Volk
aufgeklärt genug ist, die Manipulationsversuche der Massenmedien zu
durchschauen, ist ein wesentlich umfangreicheres geisteswissenschaftliches
Wissen der Bevölkerung nötig, wofür es auch weiterer geisteswissenschaftlicher
Forschungen bedarf.
Das zweite Beispiel für die Etablierung neuer Werte betrifft den Begriff der
Kooperation. Im Zuge der darwinistischen Evolutionstheorie hat sich eine teilweise
rücksichtslose Wettkampfmentalität durchgesetzt, die die westlichen
Gesellschaften zunehmends zerrüttet. Auf dem Gebiet der Evolutionsforschung hat
es aber schon vor geraumer Zeit bedeutende Veränderungen gegeben, die jedoch in
der Öffentlichkeit kaum beachtet wurden. Manfred Eigen (1971, 1996) hat nämlich
eine Theorie der Entstehung der biologischen Information, der Gene, entwickelt,
die neben dem Selektionsbegriff die Kooperation als zentralen Faktor der
Evolution enthält. Wenn man bedenkt, dass sich die Elementarteilchenansammlung
nach dem Urknall im Laufe der Zeit zu Atomen, Molekülen, Zellen, Organismen,
Gesellschaften und riesigen Kulturkreisen zusammenlagerte, wird offensichtlich,
dass die Kooperation ein wichtiger Evolutionsfaktor sein muss. Fortschritt kommt
primär durch Kooperation zustande, und dies sollte man auf den Ebenen der
gesellschaftlichen und der internationalen Werte stärker verankern. Auf der
internationalen Ebene sollte man also beispielsweise die UN weiter stärken, um so
eine internationale Kooperation voranzutreiben und den Selektionsfaktor (Krieg,
Ausbeutung und kulturelle Unterdrückung) zurückzudrängen.
199
Zusammengefasst ist die Philosophie der Ort, wo die Werte der Gesellschaft
diskutiert werden sollen. Philosophie ist ein Elfenbeinturm, der weit ins Land
hinaus Sinn und Orientierung ausstrahlen soll.
Literaturverzeichnis
Arendes, L. (1996): ‚Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems‘. Philosophia Naturalis 33: 55-81.
Arendes, L. (a): Das Computer-Weltbild. Funktionen der Naturphilosophie in der
Naturwissenschaft.
Arendes, L. (b): Die wissenschaftliche Weltauffassung. Wissenschaftliche Naturphilosophie.
Campenhausen, C. von (1981): Die Sinne des Menschen, Bd. I: Einführung in die
Psychophysik der Wahrnehmung. Thieme, Stuttgart.
Chauvet, G. (1995): La vie dans la matière. Le rôle de l´espace en biologie. NBS,
Flammarion.
Dörner, D. (1979): Problemlösen als Informationsverarbeitung. 2. Aufl.,
Kohlhammer, Stuttgart.
Eigen, M. (1971): ‚Self-organization of matter and the evolution of biological
macromolecules‘. Naturwiss. 58: 465-523.
Eigen, M. (1996): Steps towards life. A perspective on evolution. Univ. Press,
Oxford.
Einstein, A. (1960): Briefe an Maurice Solovine. Berlin.
Haken, H. (1982): Synergetik. Eine Einführung. Springer, Berlin.
Hartmann, N. (1949a): Der Aufbau der realen Welt. Grundriß der allgemeinen
Kategorienlehre. 2. Aufl., Westkulturverlag Anton Hain, Meisenheim.
Hartmann, N. (1949b): Ethik. 3. Aufl., De Gruyter, Berlin.
Hartmann, N. (1950): Philosophie der Natur. Abriß der speziellen
Kategorienlehre. De Gruyter, Berlin.
Hechter, M., Nadel, L., Michod, R. E. (1993): The Origin of Values. Aldine De
Gruyter, New York.
Holton, G. (1973): Thematic Origins of Scientific Thought: Kepler to Einstein.
Cambridge.
Husserl, E. (1993): Logische Untersuchungen. Bd. II: Untersuchungen zur Phänomenologie und Theorie der Erkenntnis. 7. Aufl., Max Niemeyer, Tübingen.
Hussy, W. (1984): Denkpsychologie. Ein Lehrbuch. Band 1: Geschichte, Begriffsund Problemlöseforschung, Intelligenz. Kohlhammer, Stuttgart.
200
Jonas, F. (1981): Geschichte der Soziologie. Bd. 1, 2. 2. Aufl., Westdeutscher
Verlag, Opladen.
Kanitscheider, B. (1988): Das Weltbild Albert Einsteins. C. H. Beck, München.
Laszlo, E. (1996): The Systems View of the World. A Holistic Vision for Our Time.
Hampton Press, Cresskill.
Mayr, E. (1991): Eine neue Philosophie der Biologie. Piper, München.
Miebach, B. (1991): Soziologische Handlungstheorie. Eine Einführung.
Westdeutscher Verlag, Opladen.
Popper, K. (1935): Logik der Forschung. Wien.
Reimann, H., Giesen, B., Goetze, D., Schmid, M. (1985): Basale Soziologie:
Theoretische Modelle. 3. Aufl., Westdeutscher Verlag, Opladen.
Schorlemmer, F. (Hrsg.) (1995): Das Buch der Werte. Wider die
Orientierungslosigkeit in unserer Zeit. VS Verlagshaus, Stuttgart.
Vollmer, G. (1986): Was können wir wissen? Bd. 2: Die Erkenntnis der Natur.
Hirzel, Stuttgart.
Wickert, U. (1995): Das Buch der Tugenden. Hoffmann und Campe, Hamburg.
201
Kopenhagener Interpretation (Bohr, Heisenberg)
Die unter Physikern vermutlich verbreitetste Deutung der Quantenmechanik (QM)
ist die Kopenhagener Interpretation, benannt nach Bohrs Institut in Kopenhagen.
Bei genauerem Hinsehen handelt es sich hierbei jedoch gar nicht um eine
einheitliche Deutung. Schon die beiden Hauptinterpreten, Bohr und Heisenberg,
haben voneinander teilweise abweichende Auffassungen.
Die klassische Ontologie, derzufolge physikalische Systeme in all ihren
Eigenschaften unabhängig vom Beobachtungssystem existieren, wird bei dieser
Interpretation aufgegeben. Es gibt eine unteilbare Verknüpfung von
Quantensystem und Messgerät, welche nur zusammen als sogenanntes
Quantenphänomen auftreten. Und weil es für die tatsächlichen Abläufe nicht die
passende Sprache gibt, müssen alle Experimente und ihre Ergebnisse in der
ungenauen Sprache der klassischen Physik beschrieben werden. Wegen der
unaufhebbaren Verknüpfung von Quantensystem und Messgerät und wegen der
nicht völligen Adäquatheit der klassischen Begriffe sind der gleichzeitigen
Anwendbarkeit von bestimmten klassischen Begriffen Grenzen gesetzt. Welche
klassischen Begriffe in einer gegebenen Situation benutzt werden können, hängt
von der jeweiligen Experimentalanordnung ab. In einigen Experimentalanordnungen kann man zum Beispiel den Ortsbegriff benutzen, dann macht der
Impulsbegriff keinen Sinn, in anderen Experimentalanordnungen ist es umgekehrt.
Die Heisenbergschen Unschärferelationen sind der Ausdruck dessen, dass diese
Begriffe nur ungenau auf die Natur passen. (Man denke nur an den klassischen
Impulsbegriff, der eine kontinuierliche Teilchenbahn voraussetzt, da er die
Ableitung nach der Zeit, dx/dt, enthält.) Die verschiedenen Beschreibungen eines
Systems in mehreren Situationen, welche zu Widersprüchen führen würden, wollte
man sie in einem einzigen Bild zusammenfassen, bezeichnete Bohr als
komplementär. Derartig komplementär seien z.B. der Teilchen- und der Wellenbegriff, die nur in bestimmten und sich gegenseitig ausschließenden
Experimentalanordnungen benutzt werden könnten. Die raumzeitliche
Beschreibung und die Forderung der Kausalität waren für Bohr ebenfalls
komplementär.
Ein Experiment besteht aus drei Abschnitten: Zunächst wird das
Untersuchungsobjekt präpariert und die Wahrscheinlichkeitsfunktion Ψ dafür
bestimmt. Dann berechnet man Ψ im Lauf der Zeit, und diese Funktion gibt die
Wahrscheinlichkeiten dafür an, was man schließlich in einer folgenden Messung
202
erhalten wird. Die Registrierung eines Objektes (die Reduktion des Wellenpaketes)
beruht auf irreversiblen Prozessen im Registriergerät, die prinzipiell nicht näher
bestimmt werden können. Der quantenmechanische Formalismus, vor allem die
Wahrscheinlichkeitsfunktion, ist (zumindest für Bohr) nur ein symbolisches
Schema, das Wahrscheinlichkeitsvoraussagen über indeterministische Messergebnisse macht; er sagt nichts über die Natur aus. Was zwischen zwei
Beobachtungen realistisch geschieht, kann nicht angegeben werden – trotzdem
wird angenommen, dass es sich um Zufallsprozesse handele und dass die
quantenmechanische Beschreibung vollständig sei. Heisenberg ging in seiner
Deutung in einem wichtigen Punkt über Bohr hinaus, er deutete nämlich die
Wahrscheinlichkeitsfunktion als eine ontologische Potentialität, die aber nicht in
raumzeitlichen Begriffen beschrieben werden könne, und deshalb könne man nicht
angeben, was zwischen zwei Beobachtungen passiert. Für alle Kopenhagener
Interpreten gilt wieder, dass der Formalismus nicht nur für Mikroobjekte, sondern
auch für Makroobjekte zuständig sei. Wegen der Forderung der klassischen
Beschreibbarkeit muss aber in einem Experiment eine Einteilung der Welt in einen
zu untersuchenden quantenmechanischen Gegenstand einerseits und der restlichen
Welt mit den klassisch zu beschreibenden Messgeräten andererseits vorgenommen
werden. Die Lage dieses Schnittes zwischen dem Quantensystem, welches ein
Mikro- oder ein Makroobjekt sein kann, und der restlichen Welt ist willkürlich
bzw. hängt von der experimentellen Fragestellung ab.
Angesichts unserer Probleme, die QM zu verstehen, ist diese Kopenhagener
Deutung der QM teilweise durchaus überzeugend – zumindest solange es keine
neuen Begriffe gibt, mit denen man die Vorgänge zwischen den Beobachtungen
beschreiben kann. Trotzdem müssen ein paar kritische Anmerkungen zu dieser
Deutung gemacht werden:
a) In den Kopenhagener Interpretationen wird die „»objektiv-reale Wirklichkeit«
auf den Bereich des vom Menschen anschaulich in Raum und Zeit Beschreibbaren
beschränkt“ (Heisenberg, 1986, 154). Einer der zentralen Punkte der Deutungen
von Bohr und Heisenberg ist deshalb die Forderung der Beschreibung des
Versuchsaufbaus und der Versuchsergebnisse in der Sprache der klassischen
Physik.
Als Begründung wird angeführt, daß mit dem Wort Experiment nur ein Verfahren
gemeint sein kann, bei dem wir anderen mitteilen können, was wir getan haben.
Diese Begründung ist schon etwas seltsam, da Bohr und Heisenberg selbst nichtklassische Begriffe verwenden und den Lesern unterstellen, trotzdem zu verstehen,
was gemeint sei. Begriffe wie "aristotelische Potentialitäten" und "Aktualisierung"
sind nicht-klassisch und trotzdem von jemandem verstehbar, der sich in der
aristotelischen Philosophie auskennt. Bohr benutzt die in der klassischen Physik
203
unbekannten Begriffe „Ganzheit“ und „Komplementarität“, und wenn man Bohr
lange genug liest, versteht man auch, was er damit meint. Man muss sich also auch
bei den Kopenhagener Interpreten an neue Begriffe gewöhnen, und es ist unklar,
warum man nicht für die Versuchsbeschreibung und für reale Vorgänge außerhalb
von Experimenten weitere neue Begriffe erlernen kann. (Seit der Ausarbeitung der
Kopenhagener Deutung hat sich z.B. der Informationsbegriff entwickelt und der
Vakuumbegriff verändert.) Als Heisenberg und Bohr sich 1922 in Göttingen
erstmals trafen, sagte Bohr: „so kann man hoffen, daß sich im Laufe der Zeit neue
Begriffe bilden, mit denen wir auch diese unanschaulichen Vorgänge im Atom
irgendwie ergreifen können“ (Heisenberg, 1985, 54). Warum Bohr diese Hoffnung
später aufgegeben hat, ist unbekannt.
Die Bildung von neuen Begriffen und ihre Verstehbarkeit wird untersucht von der
Psychologie, die zu diesen Themen mehrere Bemerkungen zu machen hat. Da ist
zunächst das Nervensystem, das neben festgelegten auch plastische, veränderbare
neuronale Strukturen enthält. Der Umfang einer phylogenetischen und
ontogenetischen Festlegung von Hirnstrukturen ist noch nicht genügend erforscht,
so dass man, wenn man das Denken als eine Fähigkeit des Gehirns betrachtet, noch
nicht sagen kann, inwieweit wir auf angeborene Begriffe angewiesen sind. In der
kognitiven Psychologie werden derzeit kaum solche unverzichtbaren Elemente des
Denkens postuliert. „Verstehen“ kann man als das Erleben von Bedeutung
auffassen, je nach psychologischer Schule versteht man aber unter der Bedeutung
eines Wortes etwas anderes (Bedeutung als Bezeichnung, als Assoziation, als
Vorstellung, als Begriff, als Bewertung, als Aktivierung und Kontrolle), wobei
anzunehmen ist, daß keine dieser Konzeptionen allein eine erschöpfende Erfassung
der Wortbedeutung liefert (Herkner, 1983; Paivio, Begg, 1981; Lindsay, Norman,
1981). Was die Satzbedeutung betrifft, so gibt es auch hier mehrere Theorien.
Allen psychologischen Ansätzen gemeinsam ist, dass der Mensch eine große
Lernfähigkeit besitzt. Neue Begriffe können erlernt werden; sei es gemäß der
behavioristischen Schule durch Konditionierung oder sei es gemäß der kognitiven
Psychologie durch Umstrukturierung der Denkstrukturen. Es ist deshalb nicht
einsehbar, weshalb wir auf die Begriffe der klassischen Physik unabdingbar
angewiesen sein sollen. Eine derartige Beschränkung zu postulieren, ist beim
heutigen Stand der Forschung voreilig.
Wie sehr der Mensch zu andersartigen Begriffssystemen in der Lage ist, macht
man sich schnell bewusst, wenn man andere Kulturen, aber auch die Geschichte
der Philosophie und die Physik vor Galilei und Newton betrachtet. Auch in der
diachronen Wissenschaftstheorie hat man sich längst daran gewöhnt, dass
wissenschaftliche Revolutionen Bedeutungsverschiebungen zur Folge haben.
204
Heisenberg versuchte später selbst, die Wirklichkeit mit neuen Begriffen zu
beschreiben. 1976 schrieb er: „Es wäre also unsere Aufgabe, unsere Sprache und
unser Denken, d.h. auch unsere naturwissenschaftliche Philosophie, dieser von den
Experimenten geschaffenen neuen Lage anzupassen“ (Heisenberg, 1976, 5). In
Anlehnung an die Ideenlehre Platons werden der Welt von Heisenberg
Symmetrieeigenschaften zugesprochen: Teilchen sind Darstellungen von
Symmetriegruppen, die den symmetrischen Körpern der platonischen Lehre
gleichen.
b) Etwas voreilig ist wohl auch Bohrs Verzicht auf die detaillierte Verfolgung der
Wechselwirkung von Objekt und Messgerät. Es ist nicht klar, warum die
Plancksche Wirkungskonstante, die Bohr zur Begründung heranzieht, dieses
unmöglich machen soll.
c) Der mehr oder weniger willkürliche Schnitt zwischen dem Quantensystem und
dem Rest der Welt ist ebenfalls unbefriedigend. Es kann sich hierbei nicht allein
um das Problem mangelnder Begriffe handeln, denn wir beobachten ja
Makroobjekte (was vor der physikalischen Begriffsebene liegt). Wieso kann man
die Existenz raumzeitlicher Messgeräte annehmen? Es müsste also noch geklärt
werden, warum wir raumzeitliche Makroobjekte beobachten, obwohl man sie nach
der Kopenhagener Interpretation auch als raumzeitlich unbeschreibbare Objekte
auffassen kann. Bezüglich der Existenz von klassischen bzw. raumzeitlichen
Makrokörpern sind Bohr und Heisenberg sehr widersprüchlich. Nach den
orthodoxen Interpreten Wigner und von Neumann entstehen Makroobjekte und
somit auch Messgeräte ebenfalls erst in der Beobachtung, wodurch sie aber dem
Problem des Solipsismus schwer entgehen können. Wie die Kopenhagener
Interpreten dieser Problematik der orthodoxen Interpreten entgehen können, ist
unklar.
d) Die QM wird bezüglich der physikalischen Realität als vollständig betrachtet,
obwohl die Kopenhagener Interpreten gleichzeitig behaupten, nichts aussagen zu
können darüber, was zwischen zwei Beobachtungen passiert. Sollte die QM
tatsächlich nur über Beobachtungen sprechen, sollte man sich dann nicht über die
Vollständigkeit vorsichtiger äußern und dieses für künftige neue
Theorienkonstruktionen offenhalten?
e) Das Wellen- und das Teilchenbild sind für Bohr komplementäre Beschreibungen, die bei verschiedenen Experimentalanordnungen anwendbar seien. Hiergegen
spricht, dass der Wellen- und der Teilchenaspekt in einer einzigen
Versuchsanordnung auftauchen können: Hält man beim Doppelspaltversuch die
Intensität der Lichtquelle so gering, dass die Photonen einzeln ausgestrahlt werden,
so entstehen auf der photographischen Platte nacheinander punktförmige
205
Schwärzungen, was als Teilchenaspekt gedeutet wird. Viele aufeinanderfolgende
Schwärzungen bewirken jedoch auf der photographischen Platte ein Muster
stärkerer und schwächerer Intensitäten, die sogenannten Interferenzstreifen, was
dem Wellenaspekt entspricht.
Literatur
Bohr, N. (1985): Atomphysik und menschliche Erkenntnis: Aufsätze und
Vorträge aus den Jahren 1930-1961. Braunschweig.
Heisenberg, W. (1976): 'Was ist ein Elementarteilchen?' Naturwiss. 63: 1-7.
Heisenberg, W. (1985): Der Teil und das Ganze. Gespräche im Umfeld der
Atomphysik. 9. Aufl., München.
Heisenberg, W. (1986): 'Die Entwicklung der Deutung der Quantentheorie'. In:
K. Baumann, R. Sexl (Hrsg.): Die Deutungen der Quantentheorie.
Braunschweig, 140-155.
Heisenberg, W. (1990): Physik und Philosophie. Stuttgart. 5. Aufl. Das Original
'Physics and Philosophy' erschien 1958 in The World Perspective Series.
Herausgegeben von R. N. Ansien, New York.
Herkner, W. (1983): Einführung in die Sozialpsychologie. Bern.
Lindsay, P.H., Norman, D.A. (1981): Einführung in die Psychologie. Berlin.
Paivio, A., Begg, I. (1981): Psychology of Language. Englewood Cliffs.
206
Objektive Erkenntnis
In der wissenschaftlichen Philosophie wird von mir der Standpunkt eingenommen,
dass wir objektive Erkenntnis besitzen in dem Sinne, dass einige Strukturen
unserer Wahrnehmungs-, Erfahrungs- und Wissenschaftserkenntis Realstrukturen
entsprechen sollten. Meine erkenntnistheoretische Position habe ich detaillierter in
meinem Buch über die Quantenmechanik beschrieben, aus dem ich im Folgenden
eine Stelle zitiere, um kurz meine Argumentationsrichtung anzudeuten:
Lothar Arendes: "Gibt die Physik Wissen über die Natur? Das
Realismusproblem in der Quantenmechanik", Würzburg 1992, S. 7
- 10:
"Es wird vermutlich nie möglich sein, eine Realismusposition absolut zu
begründen. Dennoch ist möglich, dass einige Plausibilitätsüberlegungen einen
realistischen Standpunkt nahe legen können. Um bei der Argumentation nicht
schon von vornherein in den Prämissen eine realistische Position vorauszusetzen,
ist es nötig, möglichst entfernt vom Faktenwissen, also bei der Phänomenologie zu
beginnen.
Erscheinungen wie Ohnmacht und Schlaf- und Wach-Rhythmus, also das
regelmäßige Verschwinden und Wiederkehren des Bewusstseins, lassen kaum
einen Zweifel daran, dass unser Bewusstsein von etwas anderem abhängt, dass es
also etwas außerhalb unseres Bewusstseins gibt. In die gleiche Richtung zielt die
phänomenologische Tatsache, dass es innerhalb unserer Erscheinungswelt eine
Zahl von invarianten Mustern, Konstanzphänomenen, Regularitäten, Konkordanzen von Prozessen in verschiedenen Erfahrungsbereichen gibt, die es als
vernünftig erscheinen lassen, die ontologische Hypothese zu wagen, dass diese
gleichbleibenden Muster durch eine permanente, hinter den Erscheinungen
liegende Welt verursacht werden und dass "die Veränderungen, deren
Regularitäten wir feststellen, auf objektive Strukturen transphänomenaler
Provenienz zurückgehen" (Kanitscheider, 1987b, 53).
Diese hinter den Erscheinungen liegende Welt kann nun das Unterbewusstsein
des erkennenden Subjektes des subjektiven Idealismus oder die Welt des
ontologischen Realismus sein. Im Bewusstsein erleben wir ein phänomenologisches Wahrnehmungsfeld, und es stellt sich die Frage, ob die Qualitäten
dieses psychischen Feldes, von dem wir einige Teile unwillkürlich als reale
Objekte interpretieren, tatsächlich mit der außerhalb des Bewusstseins
207
existierenden Welt in einem derartigen Zusammenhang stehen, dass wir die
Vermutung wagen können, dass die phänomenologischen Erlebnisse uns
Informationen geben können über die Art dieser Welt. Beobachten wir unser
phänomenologisches Wahrnehmungsfeld genauer, so stellen wir interessante
Korrelationen fest zwischen Veränderungen innerhalb dieses Feldes und
anderen Empfindungen. Wir erleben z.B. im Wahrnehmungsfeld Qualitäten, die
wir als "Mund" zu bezeichnen gelernt haben. Andere Qualitäten lernten wir als
"Nahrung" zu bezeichnen. Es liegt in unserer Willkür, die Nahrungsqualitäten
in unserem Wahrnehmungsfeld so zu verschieben, dass sie bei der
Mundqualität verschwinden, was dann das interessante Ergebnis nach sich
zieht, dass dadurch auch ganz andere Qualitäten, z.B. Hunger- und
Durstempfindungen, beeinflusst werden. Äußerst verwunderlich ist aber auch,
dass wir diese Nahrungsqualitäten im Wahrnehmungsfeld nicht rein willkürlich
entstehen lassen können. Das Entstehen von Qualitäten im Wahrnehmungsfeld
hängt von bestimmten Bedingungen ab. Bleiben diese längere Zeit aus, so dass
wir z.B. Nahrungsqualitäten bei der Mundqualität über längere Zeit hinweg
nicht zum Verschwinden bringen können, so kann es passieren, dass unser
Bewusstsein endgültig entschwindet. Dass wir unsere Erlebnisqualitäten nicht
willkürlich entstehen lassen können, ist ein starkes Indiz dafür, dass ihre
Entstehung von etwas außerhalb von uns abhängt, so dass wir vielleicht durch
sie Aufschlüsse bekommen über Strukturen der Außenwelt. Wir haben gelernt,
einzelne visuelle Wahrnehmungsqualitäten (z.B. verschiedene Nahrungsmittelqualitäten) anhand struktureller Besonderheiten zu unterscheiden, und wir
können dadurch gezielt bestimmte andere Empfindungen (z.B. verschiedene
Geschmacksempfindungen: süß, sauer, salzig usw.) hervorrufen. Viele ähnliche
Fähigkeiten lassen die Annahme vernünftig erscheinen, dass wir tatsächlich
mittels der Wahrnehmungsobjekte Strukturen der äußeren Welt zumindest
teilweise erkennen. Dass man diese Annahme nicht vorschnell im Sinne einer
genauen spiegelbildlichen Abbildung deuten darf, belegt das Phänomen des
Traumes. Im Schlaf kann man eine Person erträumen, die die gleichen
Korrelationen besitzt. In diesem Fall ist man weniger geneigt, die Ursachen der
Entstehung der Wahrnehmungsqualitäten einer Außenwelt zuzuschreiben; sie
liegen vollständig in der Person. Dies führt zu der Möglichkeit, dass auch bei
der normalen Wahrnehmung die genaue Gestalt der Wahrnehmungsqualitäten
nicht nur von der äußeren Welt abhängt, sondern vom erkennenden Subjekt
mitbestimmt wird. Prinzipiell ist es sogar möglich, dass unsere gesamte
Wirklichkeit lediglich der Traum oder die Phantasie eines einsamen Dämons
ist. Für die Annahme, dass wir mittels der Wahrnehmungsphänomene einige
Strukturen der Außenwelt erkennen, kann man aber noch eine pragmatische
Begründung anführen. Gesetzt den Fall, wir glaubten an unsere
Wahrnehmungserkenntnis und richteten unser Handeln danach, obwohl sie
völlig falsch wäre, so würde uns durch diesen Glauben kein großer Nachteil
208
entstehen; alles könnte so weiter gehen wie bisher. Aber gesetzt den Fall,
unsere Wahrnehmungserkenntnis wäre tatsächlich teilweise richtig, aber wir
glaubten nicht daran und richteten unser Handeln nicht danach, so könnte dieser
Irrtum tödlich ausgehen – zum Beispiel wenn ein Lastwagen auf uns zurollte
und wir nicht zur Seite sprängen, weil unsere Erscheinungen vermeintlich doch
nur Lug und Trug seien. Letzten Endes muss also die (teilweise) Gültigkeit der
Wahrnehmungserkenntnis aus pragmatischen Gründen – also ohne eine
wirkliche erkenntnistheoretische Begründung – gesetzt werden. Von einem
vollkommenen erkenntnistheoretischen Antirealisten kann man jedoch insofern
Konsistenz in Glauben und Handeln verlangen, als dass er beim Anblick eines
Lastwagens keinerlei Grund hätte, zur Seite zu springen, sondern er einfach nur
die Augen zu schließen brauchte – wenn überhaupt, denn auch sein Tod wäre ja
letztlich nur Schein. Letzten Endes hat jemand, der alle Wahrnehmung für
Täuschung hält, keinen Anlass, irgendjemanden vom Antirealismus zu
überzeugen, denn auch von der Existenz anderer Personen und Meinungen weiß
er nur durch die Wahrnehmung."
209
Diskussionen über Bewusstsein
Auszüge aus meinem Buch „10 Jahre InternetDiskussionen“
210
Vorwort
Von Mitte Juli 2000 bis Ende Mai 2010 habe ich an zahlreichen Internetdiskussionen
teilgenommen. Vor ein paar Monaten habe ich alle meine Mitteilungen an meine Mailbox
weitergeleitet und die überwiegende Mehrheit dieser Mitteilungen in einem Buch zeitlich
geordnet zusammengestellt, aus dem ich hier meine Diskussionen über Bewusstsein
zusammenfasse.
In meinen Mitteilungen zitiere ich meistens aus Beiträgen anderer Teilnehmer, was in der
Regel durch das voranstehende Zeichen > angedeutet wird; Zitierungen von Zitaten sind
durch >> gekennzeichnet u.s.w. Da die von mir zitierten Diskussionsteilnehmer ihre
eigenen Beiträge kannten, hatte ich in meiner Antwort ihren Text oft nur sehr spärlich
zitiert, so dass die Leser der vorliegenden Schrift aus diesen Zitaten allein oft nicht
genügend erkennen können, worum es sich handelt. Deshalb habe ich hier in meine
Originalmitteilungen oftmals Zusätze eingefügt, in denen ich weiteren Text aus den
Beiträgen der anderen Teilnehmer anführe. Diese Zusätze zu meinen Originalmitteilungen habe ich in doppelten eckigen Klammern, [[ ... ]], angebracht. Weitere
Anmerkungen zu meinen ursprünglichen Mitteilungen – z.B. meine heutige Meinung zu
meinen früheren Texten oder weitere Erläuterungen – habe ich in Fußnoten angeführt.
Da es beim schnellen Eintippen von Text – beispielsweise wenn man im Internet-Café
unter Zeit- (bzw. Geld-) Druck steht – manchmal zu Tippfehlern kommen kann, habe ich
hier hin und wieder aufgetretene Rechtschreibfehler korrigiert, und da die
Rechtschreibung mancher anderer Autoren oftmals sehr dürftig war und ich dieses
meinen Lesern nicht zumuten will, habe ich auch bei ihnen „Tippfehler“ korrigiert; aber
natürlich jeweils ohne den Textsinn zu verändern. Auch wegen dieser Änderung fremden
Textes habe ich alle Diskussionsteilnehmer anonymisiert, indem ich nur die Initialen
ihres Namens (oder Pseudonyms) angegeben habe. Wer die Originaltexte und Namen
lesen will, den verweise ich auf die für jedes Diskussionsthema angeführte URL-Adresse
der vollständigen Internetdiskussion. Bei sehr interessanten Diskussionen kann ohnehin
empfohlen werden, sich alle Beiträge aus dem Internet herunterzuladen.
Bei Zitierungen von Zitaten aus meinen eigenen früheren Beiträgen habe ich meine
Initialen vorangestellt: [[L.A.:]]. Analog bin ich manchmal bei Zitaten anderer Autoren
vorgegangen. Entfernt habe ich aus meinen Originalmitteilungen die eMail-Adressen
aller Autoren und sehr oft die am Ende meiner Mitteilungen aufgeführten Links zu
meiner Homepage oder zu meinen Blogs. Zu Beginn jeder Mitteilung habe ich das
Datum der Veröffentlichung angegeben, zu Beginn jedes Diskussionsthemas den Namen
der Diskussion und den Namen der Newsgroup. Zumeist habe ich selbst die Diskussion
begonnen; hatte ich mich hingegen in eine laufende Diskussion anderer Teilnehmer
eingeschaltet, so beginnt bei dieser Diskussionsrunde meine erste Mitteilung in der Regel
mit dem Zitat eines anderen Teilnehmers.
Abschließend ist noch zu erwähnen, dass ich alle Links zu meiner Homepage und zu
meinen Dateien durch die derzeit aktuellen URL-Adressen ersetzt habe.
211
Thema: Wissenschaftliche Naturphilosophie (16 Mitteilungen)
(u.a. Bewusstseinstheorie)
http://groups.google.de/group/de.sci.philosophie/browse_thread/thread/d8e75abcfb13170
6/a66c23986b05fc42?hl=de#a66c23986b05fc42
Gruppe: de.sci.philosophie
Datum: 13. Aug. 2000, 09:00
Möchte jemand meine philosophischen Thesen von meiner Website mit mir
diskutieren?:
http://LotharArendes.de/
Ich habe Philosophie, theoretische Physik, Psychologie, Soziologie und Biologie
studiert, und auf dieser Grundlage versuche ich einige naturphilosophische
Probleme zu lösen. Ich habe dies "Wissenschaftliche Naturphilosophie" genannt,
weil ich wissenschaftliche Erkenntnisse heranziehe, um philosophische Probleme
zu behandeln.
Zum Beispiel habe ich vorgeschlagen, Bewußtsein als ein neues physikalisches
Feld zu betrachten, und wir sollten mathematische Gleichungen wie die
Einsteinschen Feldgleichungen suchen, welche auf analoge Weise die
Raumzeitstruktur durch die Energie erklären. Wir sollten also nach einer
Gleichung der folgenden Form suchen:
[physiologische Eigenschaften wie Entropie und Energie = Phänomenologie des
Bewußtseins].
Die physiologische Seite muß von Neurowissenschaftlern untersucht werden, die
phänomenologische Seite von Psychologen, und theoretische Biophysiker sollten
beide Eigenschaftsarten in einer mathematischen Gleichung gegenüberstellen.
Eine andere Hypothese ist, daß die Natur nur bei sehr einfachen Objekten eine
mechanistische Dynamik besitzt. Kompliziertere Objekte wie der menschliche
Körper haben eine zielgerichtete Dynamik, und die Biophysiker sollten
versuchen, diese Teleonomie auf der Ebene der Parameter von nichtlinearen
Differentialgleichungen zu formulieren.
Ich behandle auf meinen Webseiten viele andere Problembereiche, die Sie
vielleicht mit mir diskutieren wollen: Quantenmechanik, Methodologie, Werte,
Vergleich der Welt mit einem Computer etc.
212
Datum: 14. Aug. 2000, 09:00
>Von: C. B.
>Datum: 14. Aug. 2000 04:05:17 +0200
>LotharArendes schrieb im Newsbeitrag vom 13.8.00:
>>[[L.A.:]] Möchte jemand meine philosophischen Thesen von meiner Website mit mir
>> diskutieren?:
http://LotharArendes.de/
>Stell doch mal eine Kernfrage, die sich diskutieren läßt.
>Grüße, C.
Aus meiner Newsmitteilung lassen sich schnell mehrere Kernfragen bilden:
Naturwissenschaft und Naturphilosophie werden von manchen Leuten als
Alternativen betrachtet in der Weise, dass Naturphilosophie nicht mehr nötig
sei, da die Naturwissenschaft die Natur schon erkläre oder es versuche. Eine
wichtige Frage für Philosophen ist deshalb, ob Naturphilosophie überhaupt noch
sinnvoll ist. Wozu noch Naturphilosophie? Erklärt nicht die Wissenschaft schon
alles oder versucht es? Oder ist die Physik falsch, so dass die
Naturphilosophen bessere Antworten geben würden? Mein Vorschlag auf meinen
Webseiten ist, dass sich beides ergänzt. Meine methodologischen Vorschläge habe
ich u.a. im Aufsatz über "Die Methodologie der wissenschaftlichen
Naturphilosophie" ausgearbeitet. Vielleicht kann man das Verhältnis von
Philosophie und Wissenschaft auch anders sehen. Die analytischen Philosophen
meinen, Philosophen bleibe nur noch das Analysieren von sprachlichen Aussagen.
Ich finde das etwas dürftig. Die analytische Philosophie war entstanden u.a.
als Reaktion auf zu wildes Spekulieren. Wie kann man aber als Philosoph etwas
über die Natur aussagen, ohne wild zu spekulieren und ohne von
Naturwissenschaftlern nur noch verspottet zu werden?
Eine zweite Kernfrage ist, ob Bewußtsein etwas Physikalisches sein kann. Dies
bejahe ich, und darüber hinaus behaupte ich, es sei mathematisch als Feld
formulierbar. Derartige Aussagen lösen bei Philosophen oft Emotionen aus. Gibt
es aber philosophische Argumente, die es (apriori?) ausschließen, dass
Bewußtsein etwas Physikalisches ist? Was ist denn das: Physikalisches?
Eine dritte Kernfrage ist die Frage nach der Zielgerichtetheit: Die
physikalische Dynamik ist eine ziellose, mechanistische; trotzdem drängt sich
uns immer der Eindruck auf, wir als Ganzes und die Prozesse in unserem Körper
würden sich zielgerichtet bewegen. Ist beides ein Widerspruch? Ist die Physik
falsch? Ist Teleonomie nur eine Illusion? Oder läßt sich beides vereinen und
213
wie? Meine Antwort darauf gebe ich in Kapitel 10 meines Buches über "Funktionen
der Naturphilosophie in der Naturwissenschaft" (dort erkläre ich auch, was
Differentialgleichungen sind) und etwas kürzer auf meiner englischen Homepage
in dem Aufsatz "Challenges for theoretical biophysics: consciousness,
functionalism, and free will". Diese Kernfrage kann man aber auch diskutieren,
ohne meine Antwort darauf gelesen zu haben: Gibt es zielgerichtete Prozesse und
widerspricht das der heutigen Physik?
Liebe Grüße, Lothar Arendes
Datum: 15. Aug. 2000, 09:00
>Von: D. W.
>Datum: 14. Aug. 2000 22:43:13 +0200
>Du willst ein Feld mathematisch beschreiben?
>Aufgrund welcher Daten denn?
Bewußtsein ist ein sehr komplexes Problem, weshalb Francis Crick in einem Buch
vorgeschlagen hatte, sich zunächst auf das visuelle Bewußtsein zu
konzentrieren. (Nebenbei bemerkt hatte ich schon mehrere Jahre vor diesem Buch,
als ich Philosophie studierte und in die Hirnforschung wechseln wollte, mich an
amerikanischen Universitäten beworben mit der Bemerkung, bei der
Bewußtseinsforschung zunächst mit dem visuellen Bereich zu beginnen.) Unter
visuellem Bewußtsein versteht man das Muster von Farben, das man in der
Wahrnehmung erlebt und welches als Realität gedeutet wird. Was man sieht, der
PC, vor dem Du sitzt, ist ein Farbmuster, welches Teil Deiner eigenen Psyche
ist und die Außenwelt repräsentieren soll. Dein visuelles Wahrnehmungsfeld sind
die Daten, die man zunächst mathematisch erfassen soll. Diesbezüglich gibt es
in der Psychophysik bereits große Fortschritte. Zum Beispiel werden dort unsere
Wahrnehmungsphänomene - unser visuelles Bewußtsein - in den Dimensionen
Farbton, Helligkeit und Sättigung beschrieben (s. von Campenhausen 1981,
zitiert in meinen Büchern).
>Mir ist keine nachweisbare Auswirkung eines
>Bewußtseins bekannt. Ich weiß, dass _ich_ Bewußtsein habe, aber dass andere
>Menschen Bewußtsein haben, nehme ich nur an. Wie wirkt sich Bewußtsein
>überhaupt aus?
Das visuelle Bewußtseinsfeld mathematisch zu erfassen, ist vielleicht für einen
guten Mathematiker oder eine gute theoretische Physikerin kein großes Problem.
Das größte Problem ist, dies mit der Physiologie in Beziehung zu setzen. So wie
ja auch Einsteins größtes Problem war, die schon existierende nichteuklidische
214
Geometrie zur Materie in Beziehung zu bringen. Wenn Wissenschaftlern dies beim
Bewußtsein einmal gelungen sein sollte, dann wird uns die Theorie auch sagen,
wie sich Bewußtsein auf Materie auswirkt.
Über die Auswirkung des Bewußtseins wissen wir heute nur intuitiv, dass wir
bewußt einen Willensentschluß gefaßt haben und sich dann tatsächlich der Arm
und die Beine bewegen, um ans Ziel zu kommen. Bevor Maxwell seine
Elektrodynamik entwickelte und Einstein seine Gravitationstheorie, wußten sie
auch nur, dass Magnetismus feldartig auftritt und der Raum ein Feld ist. Wie
diese Entitäten Einfluß ausüben, wußten sie vor ihren Theorien auch nicht
genau. Eine Theorie fällt aber nicht einfach vom Himmel; Vorüberlegungen sind
nötig. Und beim Bewußtseinsproblem ist vermutlich der erste Schritt, das
Bewußtseinsfeld deskriptiv zu erfassen.
Es ist richtig, dass das Bewußtsein der Mitmenschen nur eine Vermutung ist.
Aber von Hirnoperationen wissen wir (oder glauben zu wissen), dass das
Bewußtsein irgendwie vom Gehirn abhängt (durch die verbalen Berichte der
Patienten, die natürlich lügen oder sich irren könnten etc.). Da aber alle
Menschen eine ähnliche Hirnstruktur haben, ist die Hypothese vernünftig, dass
auch alle Menschen mit intaktem Gehirn Bewußtsein haben. Das sind natürlich nur
Vermutungen, mehr benötigt man aber eigentlich nicht, um in der Wissenschaft
das Bewußtseinsproblem in Angriff zu nehmen. Sollte durch derartige Vermutungen
später einmal eine Theorie gefunden werden, dann wird uns die Theorie sagen,
wie wir sie zu testen haben.
Datum: 15. Aug. 2000, 09:00
>Von: C. B.
>Datum: 15. Aug. 2000 02:49:40 +0200
>>[[L.A.:]] Wozu noch Naturphilosophie? Erklärt nicht die Wissenschaft schon
>> alles oder versucht es?
>eben, sie versucht es.
Die Naturwissenschaften haben schon sehr viel erreicht - man denke nur an
Einsteins Raumzeit-Gravitationstheorie oder an Heisenbergs und Diracs
Quantenmechanik. Bei den noch ausstehenden grundlegenden Problemen
(Bewußtseinstheorie, Teleonomie etc.) versuchen sie es jetzt, Theorien zu
finden. Es spricht aber nichts dagegen, dass sie auch hierbei erfolgreich sein
können. Aber so wie Einstein und Heisenberg für ihre Theorien Anregungen aus
der Philosophie erhielten, so bekommen vielleicht auch in Zukunft
Naturwissenschaftler wichtige Hinweise aus der Philosophie.
215
>Dabei sollte man wohl beachten, daß die Wissenschaft
>von völlig anderen Voraussetzungen ausgeht als die Philosophie. Die
>Wissenschaft betrachtet die quantitativen Verhältnisse der Welt. Die Natur >Philosophie die qualitativen Zusammenhänge.
Das Problem sind nicht die unterschiedlichen Voraussetzungen, sondern das
Begründungsproblem. Wie begründet ein Philosoph die Wahrheit seiner
Naturerklärungen? Logische Konsistenz eines Gedankengebäudes ist nicht genug
als Wahrheitsargument. Die Naturwissenschaftler haben zusätzlich die
systematischen Beobachtungen, die Experimente. Das liefert zwar auch noch keine
Beweise, ist aber doch besser als nur rationale Argumentationen. Wenn einem
Philosophen (einer Philosophin) für qualitative oder für andere Zusammenhänge
eine Erklärung mit guter Begründung einfällt, dann wird das auch in der
Wissenschaft aufgegriffen und experimentell überprüft.
Auch ist der Unterschied zwischen Naturphilosophie und Naturwissenschaft nicht
der, dass die einen Qualitäten und die anderen nur Quantitäten behandeln.
Naturwissenschaftler bemühen sich auch um die verschiedenen Qualitäten der
realen Entitäten, aber innerhalb jeder Seinsart quantifizieren sie zusätzlich.
Magnetismus, Elektrizität, Entropie: das sind alles qualitativ verschiedene
Dinge, was in der Physik dadurch zum Ausdruck kommt, dass die physikalischen
Größen nicht nur quantitative Werte besitzen, sondern auch Einheiten (Druck
wird in [Pascal] beschrieben, es gibt [Kilogramm], [Joule] etc.) Mit Hilfe der
Symmetriebruchtheorie versucht man z.B., die Entstehung verschiedener Kräfte zu
erklären etc.
Das größte Problem in der Wissenschaft ist vielmehr, dass sich Wissenschaftler
oft zu sehr in Details verlieren; sie sehen dann den Wald vor lauter Bäume
nicht mehr. Und genau hier liegt mein Ansatzpunkt für eine Wissenschaftliche
Naturphilosophie: Philosophen können aus den vielen Details der
wissenschaftlichen Erkenntnis einen Überblick herausschälen, und aus einem
derartigen Weltbild lassen sich neue Theorienansätze stimulieren, die die
Wissenschaftler aufgreifen können, um diese Theorien vollständig auszuarbeiten
und experimentell zu testen.
> Denn ich meine, dass die Naturwissenschaft durch ihre Prämisse: nämlich lediglich die
>qualtitativen Verhältnisse zu betrachten und zu analysieren, dem Sinn, der
>darin steckt, nicht auf die Spur kommen kann. Sie kann nur sagen, wie sich
>etwas verhält und auf welche Weise man darauf Einfluß nehmen kann. Die
>Wissenschaft kann aber keine Gründe nennen, aus welchem Grund man Einfluß
>oder keinen Einfluß nehmen "darf". Die Ethik ist keine Sache der
>Wissenschaft, sondern der spekulativen (und meiner Meinung nach
>Natur-) Philosophie. Wenn man einen Philosophen beispielsweise wegen des
>Engagements für die Ethik verspottet, sollte man als Wissenschaftler lieber
216
>weiter den durchschnittlichen Erbsenumfang einer handelsüblichen Gemüsemarke
>berechnen.
Du hast Recht, dass die Naturwissenschaftler keinen Sinn erkennen können und
sich nicht um Ethik kümmern. Diese Forschungsbereiche bezeichnet man aber in
der akademischen Philosophie nicht als Naturphilosophie. Dies ist praktische
Philosophie, Ethik etc. Ethik ist ein sehr wichtiges Gebiet der Philosophie und
kein Wissenschaftler wird einen Philosophen deswegen verspotten, wenn er oder
sie es auf rationale Weise tut.
Datum: 15. Aug. 2000, 09:00
>Von: K.
>Datum: 15. Aug. 2000 20:26:04 +0200
>Bleibt am Rande aber mal festzuhalten, daß es sich auch bei der
>Philosophie um eine Wissenschaft handelt! Mag zwar sein, daß Sie das
>auch so gemeint haben, doch es ensteht fast der Eindruck, als seien nur
>noch die sog. exakten Wissenschaften Wissenschaften im eigentlichen Sinne.
In der Tat benutze ich den Begriff "Wissenschaft" nur abkürzend, um in der
Argumentation die Philosophie von den empirischen Naturwissenschaften
abzugrenzen bzw. um beides im Ausdruck "Wissenschaftliche Naturphilosophie" zu
kombinieren. Ob man die Philosophie als Wissenschaft bezeichnet, ist
Definitionssache. Man könnte die Philosophie auch als Meta-Wissenschaft
bezeichnen.
Mathemathische Symbolik allein beweist auch noch nicht Wissenschaftlichkeit.
Würden Sie z.B. Hegels Philosophie als Wissenschaft bezeichnen? Welche
Aussagensysteme der Philosophie kann man denn als Wissenschaft bezeichnen, und
welchen prozentualen Anteil hat das an dem, was landläufig als Philosophie
bezeichnet wird?
>doch ohne formale Logik etc. kann man sicher Philosophie heut gar nimmer betreiben
Das sehe ich anders. Sie scheinen aus der analytischen Philosophie zu kommen,
wo dies ein Credo (oder Dogma?) zu sein scheint. Philosophie ist aber mehr als
analytische Philosophie.
217
Datum: 16. Aug. 2000, 09:00
>Von: R. H.:
>>[[L.A.:]] Wie kann man aber als Philosoph
>>etwas über die Natur aussagen, ohne wild zu spekulieren und ohne von
>>Naturwissenschaftlern nur noch verspottet zu werden?
>Hier gibt es beidseitig vielerlei Gelegenheit, Dilettantantismus in völlen Zügen
auszuleben.
Richtig, und deshalb können und sollen sich wissenschaftliche Experimente und
philosophische Rationalität gegenseitig ergänzen und korrigieren.
>Neben den bekannten Verdächtigen auf phil.
>Seite ist Moleschott, der Begründer der physiologischen Chemie zu
>nennen, der mit Sätzen wie "Ohne Phosphor kein Gedanke" oder der
>Meinung, dass die "Angel, um die die heutige Weltweisheit sich dreht",
>die "Lehre vom Stoffwechsel" sei, seine Zeitgenossen schockte.
Phosphor ist tatsächlich ein sehr wichtiger Stoff. Als Bestandteil von ATP
(Adenosin-tri-phosphat) ist er der wichtigste Energiespeicher im Körper. Ohne
ATP hat das Gehirn enorme Energieprobleme: ohne Energie kein funktionsfähiges
Gehirn, kein Bewußtsein und keine Gedanken! Was zunächst wie eine große
Dummheit aussieht, ist manchmal genial. (Übrigens halte ich die theoretische
Biophysik für wichtiger als die physiologische Chemie. Da die Biophysik aber
noch nicht weit vorangeschritten ist, ist ihre Bedeutung noch nicht so ersichtlich.)
>>[[L.A.:]] Eine zweite Kernfrage ist, ob Bewußtsein etwas Physikalisches sein kann.
>>Dies bejahe ich, und darüber hinaus behaupte ich, es sei mathematisch als Feld
>>formulierbar.
>Was? Etwa als Vektorfeld, d.h. als Schnitt in ein Tangentialbündel
>einer diffb. Mannigfaltigkeit? Eine äußerst skurrile Idee.
In der mathematischen Physik spricht man von einem Feld, wenn jedem Punkt des
Raumes oder eines Teilraumes der Wert mindestens einer Größe zugeordnet ist (es
ist ein Kontinuum). Das visuelle Bewußtsein unserer Wahrnehmung besteht aus
einem Muster von Farben mit unterschiedlichen Helligkeiten und Sättigungen,
welches als äußere Realität interpretiert wird. Das Blatt Papier, das Sie
lesen, oder der PC, den Sie sehen, ist primär Ihre eigene Psyche, die durch
dieses Farbmuster die Außenwelt repräsentieren will. Schauen Sie Ihr
Wahrnehmungsfeld introspektiv an, so erkennen Sie leicht, dass es ein Kontinuum
von Farben, ein Feld ist. Mein Satz, Bewußtsein ließe sich als Feld
beschreiben, ist also trivial. Näher erläutert habe ich das in Kapitel 9 meines
218
Buches über "Funktionen der Naturphilosophie in der Naturwissenschaft", das Sie
auf meiner Homepage finden können:
http://LotharArendes.de/
Als äußerst skurrile Ideen hatten Philosophen zunächst auch die
nichteuklidische Geometrie, die Relativitätstheorie und die Quantenmechanik
betrachtet. Philosophen sollten sich inzwischen daran gewöhnt haben, dass die
Naturwissenschaften nicht auf Gewohnheiten Rücksicht nehmen.
Datum: 17. Aug. 2000, 09:00
>Von: spie
>Datum: 16. Aug. 2000 14:39:20 GMT
>LotharArendes schreibt:
>>>>[[L.A.:]] darüber hinaus behaupte ich, es sei mathematisch als Feld formulierbar.
>>[[L.A.:]] Mein Satz, Bewußtsein ließe sich als Feld
>>beschreiben, ist also trivial. Näher erläutert habe ich das in Kapitel 9
>>meines Buches über "Funktionen der Naturphilosophie in der Naturwissenschaft", das
>>Sie auf meiner Homepage finden können:
>>http://LotharArendes.de/
S. P. schreibt:
>Dass unser Bild im Bewusstsein, was die
>Ausseninformationen aus der Umwelt (nehmen wir das mal an, obwohl nicht zu
>beweisen) darstellt, sich u. anderem als Feld darstellen könne, ist ziemlich
>trivial, das stimmt allerdings.
Dass unser visuelles Erlebnis von Farben als Feld beschreibbar ist, wird von
manchen Leuten nicht verstanden. Es freut mich, dass Sie sofort erkannt haben,
dass ich Recht habe. (Was man mathematisch als "trivial" bezeichnet, ist
übrigens manchmal selbst für Mathematiker sehr kompliziert.)
>Erklärt aber nichts.
Das soll auch noch keine Erklärung sein! Bevor man etwas erklären kann, muß man
das zu Erklärende ordentlich beschreiben. Mit der mathematischen
Feldformulierung soll beschrieben werden, was dann im nächsten Schritt mit der
Physiologie in Zusammenhang gebracht werden muß. Ich suche also eine Gleichung
von der Art: [Phänomenologie des Bewußtseins = Physiologie] (in Anlehnung an
Einsteins Feldgleichungen). Auch das wäre noch nicht das Ende der
219
Bewußtseinsforschung!
>Es gibt da andere Lösungsansätze, die auch falsch sein mögen, aber da schon
>viel überzeugender klingen. So denken manche, dass das Bewusstsein durch
>Synchronisierung von Quantenzuständen und sekundenlange Aufrechterhaltung
>dieser in bestimmten Zellen des Gehirns entsteht.
Bei der von mir gesuchten Gleichungsart könnte auf der Seite der Physiologie
tatsächlich die Synchronisation von Zellaktivitäten eine Rolle spielen. (Prof.
von der Malsburg ist ein sehr intelligenter Physiker. Schade, dass er seine
Ideen nicht weiter verfolgen kann.) Der neuronale Code der Zellaktivitäten ist
aber noch nicht bekannt. Neben der zeitlichen Abfolge der Aktionspotentiale
spielen aber vermutlich noch andere Dinge eine Rolle: evtl. Energie, Entropie
etc. Das vermute ich zumindest; das ist aber für meinen Forschungsansatz nicht
entscheidend. Das sekundenlange Festhalten von Aktivitäten in Zellen, wie Sie
schreiben, kann wohl schwerlich für das bewußte Wahrnehmungsfeld verantwortlich
sein, da sich unsere Wahrnehmung im Bruchteil einer Sekunde verändern kann.
Vielleicht meinten Sie Millisekunden.
>Die "Punkte" der Wahrnehmung in unserem Bewusstsein sind aber keine Orte in Raum
>und Zeit.
Woher wissen Sie das? Betrachtet man sein Farbfeld, so scheint es räumlich zu
sein; und die Farben verändern sich mit der Zeit. Was ist denn Raum und Zeit?
Es muß ja auch nicht in Raum und Zeit unserer materiell-physikalischen Welt
sein. (Es würde mich nicht stören, wenn es ein mathematischer
Konfigurationsraum wäre.) Vielleicht ist es auch nicht im Raum, sondern spannt
einen Raum auf! So wie Einsteins geometrisches Feld nicht im Raum ist, sondern
den Raum bildet! Es gibt auch Psychophysiker (s. von Campenhausen 1981), die
vermuten, dass es sich um eine nichteuklidische Geometrie handelt.
Datum: 17. Aug. 2000, 09:00
>Von: U. F.
>Datum: 16. Aug. 2000 13:51:10 +0200
>>[[L.A.:]] ohne Energie kein funktionsfähiges Gehirn, kein Bewußtsein und keine
>>Gedanken!
>Woher weißt Du das?
Mit absoluter Gewißheit weiß ich das natürlich nicht. Aber die überwiegende
Mehrheit der Hirnforscher nimmt heute an, dass zum Bewußtsein ein
220
funktionsfähiges Gehirn nötig ist. Bis es Anhaltspunkte für das Gegenteil gibt,
sollte man dies als eine plausible Arbeitshypothese annehmen.
>>[[L.A.:]] Das visuelle Bewußtsein unserer Wahrnehmung besteht aus
>> einem Muster von Farben mit unterschiedlichen Helligkeiten und Sättigungen,
>> welches als äußere Realität interpretiert wird.
>Einmal ganz abgesehen davon, daß es schwer
>sein dürfte, von Bewußtsein sprechen zu können, wenn die Sinneseindrücke (ich gehe
>davon aus, daß Du sie meinst, wenn Du von "visuellem Bewußtsein" sprichst)
>voneinander isoliert werden,
Du hast Recht. Weil es sich dabei nur um einen Teilaspekt des Bewußtseins
handelt, spricht man auch nur vom "visuellen Bewußtsein". (Über die Verbindung
der verschiedenen Sinnesqualitäten mache ich in meinem Buch in Kap. 9 eine
kurze diesbezügliche Anmerkung.)
>bleibt hier doch eine ganz fundamentale Frage offen: und
>zwar, *wer oder was* denn dann z.B. das "Muster von Farben mit unterschiedlichen
>Helligkeiten und Sättigungen", dem dann im akustischen und olfaktorischen
>etc. Bereich vermutlich ähnliche korrespondieren sollen, "als äußere Realität"
>*interpretiert*? - M.a.W.: Woher sollte denn einem "Bewußtsein als Feld" eine
>Vorstellung oder gar ein Begriff von so etwas zuwachsen wie gerade die/der
>von einer "äußeren Realität"? Und dazu noch: Wie *interpretiert* dann ein solches
>Feld das, was es ist (also seinen "Inhalt")? Wird es dabei sozusagen
>selbstreflexiv? Und wenn ja, wie macht es das?
Das visuelle Bewußtseinsfeld von Farben macht diese Interpretation bzgl. der
äußeren Realität nicht. Vielmehr wird diese Interpretation - ebenso wie das
Farbfeld - von dem unbewußten Informationsverarbeitungsapparat (evtl. vom
Gehirn), welcher das Bewußtsein hervorbringt, generiert. Wie das Gehirn dies
macht, ist natürlich noch unklar. In der Wissenschaft geht man aber so vor,
dass man nacheinander die Teile eines Gesamtproblems behandelt. Wenn man es
erst einmal geschafft hätte, das visuelle Farbfeld deskriptiv mathematisch zu
erfassen, dann wäre wenigstens der erste Schritt getan. Aber Du hast Recht, dass
dies bei weitem noch nicht alles wäre. Mein Vorschlag ist eben, dass als
zweiter Schritt diese mathematisch formulierte Phänomenologie mit der
Physiologie in Beziehung gebracht werden muß. Wäre das dann nur eine
Korrelationsgleichung, müßte als Nächstes die Korrelation erklärt werden und
wie das Feld generiert wird. Dann hätte man aber immer noch nicht den
Deutungsaspekt behandelt, den Du zurecht vermißt. Das Bewußtseinsproblem ist
sehr komplex und wird die Wissenschaft noch lange beschäftigen. Trotzdem ist
mein Vorschlag nicht unvernünftig, nun wenigstens erst einmal den Farbanteil
des visuellen Bewußtseins mathematisch zu beschreiben, um dies dann mit der
Physiologie in Zusammenhang zu bringen. Unser visuelles Bewußtsein ist mehr als
221
Farbe, aber in der Philosophie hatten bislang viele Leute geglaubt, dass diese
Qualia der schwierigste Teil des Bewußtseinsproblems wären, was ich bezweifle.
>>[[L.A.:]] Das Blatt Papier, das Sie lesen, oder der PC, den Sie sehen, ist primär Ihre
>>eigene Psyche, die durch dieses Farbmuster die Außenwelt repräsentieren will.
>Nein! Ein "Blatt Papier", das ich lese oder "der PC", den ich sehe, ist per
>se niemals "meine eigene Psyche", sondern ein Aussenweltobjekt, das als solches
>von *mir* erkannt wurde.
Nein!! Drück einmal mit Deinem Zeigefinger seitlich auf einen Augapfel. Wenn Du
das richtig getan hast, werden sich die Gegenstände Deiner Umwelt - der PC oder
das Blatt Papier etc. - verdoppeln. Sicherlich nimmst Du nun nicht an, Du
hättest jetzt zwei PCs. Die Verdopplung ist eben nur die Verdopplung der
repräsentierten Gegenstände in Deiner Psyche. Dass diese zwei
Erscheinungsobjekte einem Objekt Deiner Außenwelt entsprechen, ist Deine
Vermutung. Die beiden Erscheinungsobjekte und Deine Vermutung sind Teil Deiner
selbst. Dass es tatsächlich eine reale Außenwelt gibt, ist eine Hypothese. Man
benötigt eine raffinierte philosophische Argumentation, um von unseren
Wahrnehmungsobjekten ausgehend eine äußere Realität begründen zu können. (Diese
Hypothese teile ich mit Dir, sie ist aber für die deskriptive Erfassung unseres
Wahrnehmungsbewußtseins unerheblich. Der Glaube an diese Hypothese ist
sicherlich angeboren.) Das Blatt Papier und der PC, die Du siehst (oder
neutraler ausgedrückt, die Du erlebst), sind Teil Deiner Psyche, die
gleichzeitig annimmt, dies sei bereits die Außenwelt. Es gibt außerhalb von Dir
keine Farben: kein weißes Blatt (außer vermutlich in den Psychen Deiner
Mitmenschen). Farben sind psychische Qualitäten, die nach der klassischen
Physik elektromagnetischen Wellen der Außenwelt nur zugeordnet sind.
>>[[L.A.:]] Schauen Sie Ihr Wahrnehmungsfeld introspektiv an,
>Ich vermute mal, daß derjenige, der *das* könnte und eine adäquate
>Beschreibung davon lieferte, tatsächlich ein aussichtsreicher Kandidat für alle
möglichen
>Nobelpreise wäre.
In der Psychophysik wird täglich Ähnliches gemacht. Aber Du hast nicht ganz
Unrecht, ich habe mich tatsächlich ungenau oder zu kurz ausgedrückt. Als ich
die Mitteilung schrieb, dachte ich, das würde hinreichen, um zu verstehen, was
ich meine. Gemeint hatte ich etwas wie: "Beschreiben Sie, was für
Farbempfindungen Sie erleben, wenn Sie ein Blatt Papier oder einen PC
betrachten." Als Reaktion hatte ich erwartet eine Beschreibung etwa von der
folgenden Art: "Ich empfinde viel weiße Farbe." (Diese Ausdrucksweise klingt
auch schief, aber man bezeichnet in der Psychologie das Erleben von Farbe,
glaube ich, als Empfindung. Vielleicht fällt Dir eine bessere Terminologie
222
ein.) Aber weiter mit der erhofften Beschreibung:
"Wenn ich bei diesem weißen Farberlebnis in Gedanken von links nach rechts gehe
[man kann seine Aufmerksamkeit nacheinander auf verschiedene Aspekte lenken],
folgt kontinuierlich weiße Farbe, bis ich plötzlich zu einer schwarzen Farbe
gelange [= der erste Buchstabe des Textes]." Die weiße Farbe ist kontinuierlich
weiß, das Schwarz des ersten Buchstabens ist kontinuierlich schwarz. Der
Übergang von weiß zu schwarz ist abrupt, es handelt sich aber weiterhin um
Farbe, allerdings mit anderem Farbwert. Diese Beschreibungsart nennt man auch
Phänomenologie. Die Aufforderung zu dieser komplizierten phänomenologischen
Beschreibung des Farberlebnisses habe ich kurz und bündig bezeichnet mit
"Schauen Sie Ihr Wahrnehmungsfeld introspektiv an." Ich hätte auch schreiben
können: "Richten Sie Ihre Aufmerksamkeit auf Ihr Farberlebnis und beschreiben
Sie rein deskriptiv, ohne die Farben realistisch zu deuten."
>Verwechselst Du hier nicht "die Wahrnehmung" oder besser: "das Wahrgenommene"
>mit dem, was Du daraus machst, wenn Du darauf reflektierst?
Meine Terminologie hätte ich für Dich tatsächlich gleich genauer definieren
sollen. Ich weiß nicht, ob es in der Wahrnehmungspsychologie eine einheitliche
Sprechweise gibt. In Zukunft will ich bei den sogenannten Qualia (bei den
Farben, Tönen etc.) von Empfindungen oder Erlebnissen sprechen. Eine
Wahrnehmung besteht aber nicht nur aus diesen Empfindungen, sondern auch aus
deren gleichzeitigen Deutung, z.B. ein Objekt der Außenwelt zu sein. Empfindung
plus Deutung als einheitlicher Wahrnehmungsakt wird auch als Perzept
bezeichnet. Bei dieser Terminologie sollte man dann tatsächlich nicht
schreiben, man habe die Wahrnehmung eines Farbfeldes. Man erlebt ein Farbfeld
oder Farbe.
>Zur Verdeutlichung dieser Nachfrage möchte ich ein Beispiel aus der
>Gestaltpsychologie bemühen. Unten konstruierte Figur ist unvollständig.
>*
>*
>*****
>Wenn man einem Probanten eine Tafel mit obiger Figur kurz zeigt und sie dann
>wieder verschwinden läßt, könnte es sein, daß er glaubt, ein Dreieck wahrgenommen zu
>haben. Zu diesem Fehlschluß wird er u.U. verleitet, weil sein Reflexionsvermögen
>das Wahrgenommene automatisch zu einer integren Figur ergänzt - womit gezeigt
>sein dürfte, daß das tatsächlich Wahrgenommene nicht unbedingt identisch mit dem
>sein muß, was man *meint*, wahrgenommen zu haben.
Bist Du Dir sicher, dass es sich bei allen derartigen Experimenten nur um einen
Fehlschluß handelt (also nur auf der Deutungsebene)? Vielleicht hat die
Versuchsperson bei seinen/ihren Farbempfindungen tatsächlich das Erlebnis eines
ganzen Dreiecks. (Bei Deiner Zeichnung ist das natürlich nicht der Fall; aber
223
das sollte ja wohl auch nur die Experimente andeuten, die in der Psychologie
durchgeführt werden.) Unser Unterbewußtsein (die Physiologie des Gehirns)
verarbeitet die eingegangenen Informationen und stellt darüber eine Hypothese
auf. Wenn nun das Bewußtseinsfeld generiert wird, hat diese Interpretation
vielleicht auch einen Einfluß darauf, was für eine bewußte Empfindung
hervorgebracht wird. Die Fehlinterpretation kann das Gesehene (bzw. Erlebte)
beeinflussen! Man nennt das auch Wahrnehmungstäuschung.
Dieses Beispiel zeigt aber schön, wie kompliziert es ist, über Introspektives
zu reden, und dass man zwischen Empfindung (Qualia o.ä.) und Deutung
unterscheiden muß. Da die Deutung selbst ein bewußtes Erlebnis ist,
unterscheide ich gern zwischen zwei Arten von Bewußtseinsqualitäten: Qualia
(Farben, Töne etc.) und das Deutungserlebnis bzw. die Deutungsqualitäten. Eines
der kompliziertesten Probleme der deskriptiven Bewußtseinserfassung ist, wie
diese beiden Arten (das Farbfeld und deren Deutung) zusammen mathematisch
erfaßt werden können - von der anschließenden physiologischen Erklärung ganz zu
schweigen! Für eine wissenschaftliche Bewußtseinstheorie ist das alles nötig.
In der Philosophie würde es aber für das Leib-Seele-Problem im Prinzip bereits
ausreichen, wenn man die Entstehung der Qualia (Farben etc.) erklären könnte die Entstehung der anderen Bewußtseinseigenschaften könnte man sich dann durch
analoge Vorgänge plausibel machen; jedenfalls wäre es dann besonders
unglaubwürdig, noch weiter Geister, Seelen o.ä. zu postulieren.
Mit freundlichen Grüßen, Lothar Arendes
Datum: 17. Aug. 2000, 09:00
>Von: M. E.
>Datum: 16. Aug. 2000 22:44:54 +0200
Ich hatte geschrieben:
>>>[[L.A.:]] Schauen Sie Ihr Wahrnehmungsfeld introspektiv an,
>>>[[L.A.:]] dass es ein Kontinuum von Farben, ein Feld ist.
Du hattest dazu bemerkt:
>letztlich erkenne ich, wenn ich genau genug hinsehe, eine Pigmentstruktur oder
>eine Interferenzstruktur, aber kein Kontinuum!
Es ist richtig, dass ein weißes Blatt Papier nicht vollständig (kontinuierlich)
weiß ist; das ist eine Idealisierung, um das Argument auf den Punkt zu bringen.
Das Blatt Papier enthält feine graue Punkte, Streifen etc. (Ebenso ist der
224
Rahmen eines PC nicht einheitlich grau, sondern enthält Flecken etc.) Der
springende Punkt ist aber, dass diese grauen Punkte, Streifen etc. ebenfalls
Farben sind, so dass unser visuelles Bewußtsein tatsächlich von einem
kontinuierlichen Farbfeld aufgespannt wird. Die Farbwerte innerhalb dieses
Feldes können sich natürlich sprunghaft von weiß nach schwarz o.ä. ändern.
Datum: 17. Aug. 2000, 09:00
>Von: D. B.
>Datum: 17. Aug. 2000 10:27:19 +0300
>Im Internet kann jeder sagen, was er will. OK.
>Aber was willst du eigentlich sagen? Komm doch mal auf den Punkt.
Meine Mitteilung war eine Antwort auf einen Text von D. W. vom
14.8.00. Um zu verstehen, was ich geschrieben habe, mußt Du diesen Text
ebenfalls lesen. Meine Antwort bezog sich auf die Zitate, die Du in Deinem
Zitat gelöscht hast.
Längere Texte zu lesen, ist man ja beim Internet kaum noch gewohnt. In den
Chat-Räumen etc. kann man froh sein, ganze Sätze zu erhalten. Deshalb will ich
Dir zwei kurze Sätze aus meiner Mitteilung wiederholen, die einiges auf den
Punkt bringen und über die Du nachdenken kannst.
1. "Was man sieht, der PC, vor dem Du sitzt, ist ein Farbmuster, welches Teil
Deiner eigen Psyche ist und die Außenwelt repräsentieren soll."
2. "Und beim Bewußtseinsproblem ist vermutlich der erste Schritt, das
Bewußtseinsfeld deskriptiv zu erfassen."
Bei einer möglichen Antwort solltest Du trotzdem versuchen, die Sätze nicht aus
dem Zusammenhang zu reißen, sondern den Sinn der Sätze aus dem begleitenden
Text zu entnehmen. Lies bitte auch die auf diese Thesen gefolgten Antworten der
anderen Diskussionsteilnehmer und meine Antworten darauf.
Datum: 18. Aug. 2000, 09:00
>Von: R. H.
>Datum: 16. Aug. 2000 23:10:51 +0200
R. H. hat geschrieben:
225
>dass die sinnvolle Zuschreibung von Gedanken und
>Bewußtsein nicht auf Menschen oder Wesen mit einer ähnlichen
>Physiologie beschränkt sein muss, da es möglicherweise geistbegabte
>Wesen gibt, die völlig anders strukturiert sind
Solange nicht nachgewiesen ist, dass es im Universum noch andersartige
Lebewesen gibt, sollte man ruhig von irdischen Lebewesen ausgehen, um das
Bewußtseinsproblem zu erforschen. Eine zukünftige biophysikalische
Bewußtseinstheorie wird uns vielleicht Hinweise geben, auf welchen anderen
Weisen Bewußtsein entstehen könnte. Aber um Energie wird man vermutlich nicht
herumkommen.
> ist der "Phophorgehalt" keine *essentielle* Eigenschaft von Gedanken wie der
>semantische Gehalt, die Gerichtheit von Gedanken auf Gegenstände.
Phosphor ist natürlich keine essentielle Eigenschaft von Gedanken. Für die
Deskription von Bewußtsein ist Phosphor überhaupt nicht nötig. Aber bei der
Erklärung der Entstehung von Bewußtsein ist es bedeutsam.
Ich hatte geschrieben:
>>[[L.A.:]] Übrigens halte ich die theoretische Biophysik für wichtiger als die
>>physiologische Chemie. Da die Biophysik aber noch nicht weit vorangeschritten ist,
>>ist ihre Bedeutung noch nicht so ersichtlich.
Deine Frage:
>Wofür? Für "Bewußtsein"?
Ja, für die Erklärung der Entstehung von Bewußtsein, von Teleonomie u.a. Dies
kann man aber auch als biophysikalische Chemie bezeichnen.
Ich hatte geschrieben:
>>[[L.A.:]] Das visuelle Bewußtsein unserer Wahrnehmung besteht aus
>>einem Muster von Farben mit unterschiedlichen Helligkeiten und Sättigungen,
>>welches als äußere Realität interpretiert wird.
Deine Bemerkung dazu:
>Das halte [ich] für unsinnig. Die Wahrnehmung von Farben, unabhängig von der
>Theorie, der man in diesem Fall anhängt, ist schon Teil der
>Interpretation, nicht etwas unmittelbar Gegebenes, das dieser vorausgeht.
In unserem Bewußtsein erleben wir in der Regel beides zusammen: ein Farbmuster
226
und dessen realistische Deutung. Trotzdem sind es aber ontologisch verschiedene
Entitäten. Jeder Gegenstand besitzt auch immer gleichzeitig eine Temperatur und
eine Farbe (im physikalischen Sinne gemeint: Reflexion von Wellenlängen o.ä.).,
eine Entropie etc. Das sind aber trotzdem verschiedene Eigenschaften.
Demgegenüber treten manchmal Fälle auf, wo man ein Farbmuster erlebt, aber
nicht dessen Bedeutung. Z.B. wenn man aus dem Schlaf oder der Ohnmacht erwacht,
ist man sich manchmal kurzzeitig noch nicht der Bedeutung des Erlebten bewußt.
Ich hatte geschrieben:
>>[[L.A.:]] Das Blatt Papier, das Sie lesen, oder der PC, den Sie sehen, ist primär Ihre
>>eigene Psyche, die durch dieses Farbmuster die Außenwelt repräsentieren will.
Du hast geantwortet:
>Nein. Erkennen und diesem Sinne auch Sehen bezieht sich auf distale
>Gegenstände, die möglicherweise in unserem Gehirn repräsentiert werden.
Deine sich hier anschließenden Bemerkungen beruhen vermutlich auf
terminologischen Mißverständnissen. Diesbezügliche habe ich bereits am 17.
August an U. F. eine umfangreiche Antwort über den Äther geschickt. Falls
Du es noch nicht gelesen hast, möchte ich Dich bitten, Dir diese Mitteilung
anzuschauen.
>Der Begriff des Wahrnehmungsfelds ist eine *Metapher*, er ist kaum
>ein Feld in einem physikalischen Sinn, schon deshalb, weil der
>Wahrnehmungsraum im *Wortsinne* nichts Raumzeitliches ist.
Woher weißt Du das? Genau das bestreite ich. Was ist denn das: Physikalisches?
>Abgesehen davon, dass es recht kühn ist, sich mit Gauss, Einstein,
>Heisenberg oder Bohr zu vergleichen,
Das habe ich weder geschrieben noch gemeint. Du solltest Texte sorgfältiger
lesen und nichts hineininterpretieren. Zunächst einmal hatte ich nicht
behauptet, das Bewußtsein sei ein "Schnitt in ein Tangentialbündel". (U.a. dies
hattest Du als skurril bezeichnet, was ich dann als Wahrheitskriterium
zurückwies.) In der theoretischen Physik werden die Theorien mathematisch
formuliert, aber nicht alles von dieser Mathematik ist von
physikalisch-realistischer Bedeutung. In der Quantenmechanik gibt es zum
Beispiel eine intensive Debatte darüber, welche mathematischen Symbole eine
realistische Bedeutung haben. (Hat z.B. "i" eine realistische Bedeutung?) In
den physikalischen Theorien gibt es eine Menge mathematisches Beiwerk ohne
physikalisch-realistische Bedeutung.
227
Was ich mit meiner Bemerkung [[vom 16. August]] über Relativitätstheorie und
Quantenmechanik ausdrücken wollte, war, dass sich Philosophen nicht noch einmal bei
Naturwissenschaftlern lächerlich machen sollten, weil sie etwas ablehnen, das
sie nur seltsam finden. Diese Lehre sollte man doch aus der
Philosophie-Wissenschaftsgeschichte gezogen haben und sollte für alle
diskutierten Hypothesen gelten. Bist Du es nicht gewesen, der dem Begründer der
physiologischen Chemie Dilettantismus unterstellte, obwohl er Recht hatte? War
das nicht sehr kühn?
> sind die Kognitionswissenschaften , wiewohl durchaus empirisch, *keine*
>Naturwissenschaften.
Falls das Bewußtsein Teil der Natur ist und falls es physikalisch erklärt
werden kann, dann kann man diesen Forschungsbereich auch als Naturwissenschaft
bezeichnen. Selbst manche Psychologieprofessoren bezeichnen die Psychologie als
Naturwissenchaft.
Datum: 18. Aug. 2000, 09:00
>Von: R. H.
>Datum: 18. Aug. 2000 02:32:24 +0200
>Lothar Arendes schrieb:
>>[[L.A.:]] Der springende Punkt ist aber, dass diese grauen Punkte, Streifen etc.
>>ebenfalls Farben sind, so dass unser visuelles Bewußtsein tatsächlich von einem
>>kontinuierlichen Farbfeld aufgespannt wird. Die Farbwerte innerhalb dieses
>>Feldes können sich natürlich sprunghaft von weiß nach schwarz o.ä. ändern.
>Entweder ist das "Feld" "kontinuierlich" oder nicht. Da du das "Feld"
>in einer DGL anführen möchtest, muss es zumindest einmal (stetig)
>differenzierbar sein, d.h. es kann sich _nicht_ sprunghaft ändern.
Richtig! Die Übergänge sollten also sehr schnell erfolgen, so dass der
plötzliche Umschlag nur ein scheinbarer ist. (So wie es in der Physik sehr
schnelle Phasenübergänge gibt.)1
1 In der Physik sind allerdings auch sprunghafte Veränderungen erlaubt, was die Quantensprünge der
Quantenmechanik zeigen. Beim Feldbegriff ist definitionsmäßig nur entscheidend, dass es
kontinuierlich Werte besitzt, welcher Art diese Werte sind und ob sich deren Größe sprunghaft ändert,
ist eine andere Frage. Ob ein Feld als DGL oder andersartig beschrieben werden muss, darauf will ich
mich hier nicht festlegen.
228
Datum: 20. Aug. 2000, 09:00
>Von: R. H.
>Datum: 19. Aug. 2000 19:52:02 +0200
Hallo R. H.,
Du bezeichnest den Begründer der physiologischen Chemie als Dilettant, platt
und verwirrt, und Bohr sei ein Philosophie-Dilettant. Verglichen mit Deinen
Bewertungen dieser klugen Leute bin ich ja bei Deiner Beurteilung noch
glimpflich davongekommen. Da dieses Forschungsthema Dich offensichtlich
emotional tief berührt, wird es vielleicht besser sein, wenn ich mir aus Deinen
künftigen Mitteilungen nur das Positive merke, ohne Dir auf das Zweifelhafte zu
antworten. Ich möchte niemand verletzen.
>Die Frage, welchen Wesen sinnvoll Bewußtsein zugeschrieben werden
>kann, ist eine _philosophisch_ interessante Frage
Das mag sein. Solange es keine wissenschaftliche Bewußtseinstheorie gibt, sind
aber die Antworten darauf Spekulationen, und es ist nicht angebracht, jemanden
als Dilettant zu bezeichnen, der eine andere Meinung hat als Du.
>>[[L.A.:]] Phosphor ist natürlich keine essentielle Eigenschaft von Gedanken. Für die
>>Deskription von Bewußtsein ist Phosphor überhaupt nicht nötig. Aber bei der
>>Erklärung der Entstehung von Bewußtsein ist es bedeutsam.
>Wie kommst du darauf?
Wenn Dein Gehirn kein Phosphor mehr hat, hast Du auch kein Bewußtsein mehr;
jedenfalls nach dem heutigen Stand der Hirnforschung.
>Wenn Phosphor keine essentielle Eigenschaft von Gedanken ist, dann ist
>die Aussage, Phosophor sei notwenig für Gedanken, einfach falsch.
Für die Entstehung des menschlichen Bewußtseins ist Phosphor wichtig, nicht
jedoch für die Beschreibung des Bewußtseins. Folgendes Beispiel soll den
Unterschied klarer machen. Stell Dir vor, die Billiardkugel 1 wird von
Billiardkugel 2 angestoßen und setzt sich daraufhin in Bewegung. Für die
Beschreibung der Bewegung von Kugel 1 ist Kugel 2 unnötig. Um die Bewegung von
1 zu beschreiben, benötigt man von deren Geschwindigkeit nur Richtung und
Betrag. Will man aber erklären, warum sich 1 bewegt, dann ist 2 wichtig. Ebenso
ist für die Beschreibung des Bewußtseins Phosphor nicht nötig, bei der
Erklärung der Entstehung des menschlichen Bewußtseins spielt es aber irgendwie
eine Rolle.
229
>>[[L.A.:]] In unserem Bewußtsein erleben wir in der Regel beides zusammen: ein
>>Farbmuster und dessen realistische Deutung.
>[R.H.:] Nein, deine zweistufige Theorie entbehrt jeder Plausibilität.
> ist deine Zweistufentheorie, dass semantische Zustände aufbauend
>auf _bewußten_ phänomenalen Erlebnissen gebildet werden, einfach falsch,
Ich behaupte keine Zweistufentheorie. Ich behaupte nicht, dass semantische
Zustände aufbauend auf bewußten phänomenalen Erlebnissen gebildet werden.
Beides wird in der Regel gleichzeitig von der unbewußten Hirnphysiologie
hervorgebracht. Ich behaupte, dass die Farbphänomene und die semantische
Deutung ontologisch zwei verschiedene Entitäten sind, obwohl sie in der Regel
gleichzeitig existieren. Analog hat ein physikalischer Makrokörper immer
gleichzeitig Temperatur, Entropie und andere Eigenschaften, obwohl diese
Eigenschaften ontologisch verschiedene Entitäten sind. Und der Physiker kann
die Temperatur beschreiben, ohne die Entropie zu erwähnen, und das kann
forschungsmäßig sinnvoll sein.
>Selbstwiderspruch: Wenn eine wissenschaftliche Theorie behauptet, unsere
>Wahrnehmung sei größtenteils falsch oder nur auf unsichere Vermutungen gegründet
Das behaupte ich doch gar nicht. Bitte lies meine Texte aufmerksamer und
interpretiere nichts hinein.
> Der Begriff des Gegenstands im engeren Sinne
>gehört zum Bereich der Alltagsphysik, und bezieht sich auf nicht-flüchtige Entitäten
Du solltest anderen Leuten nicht Deine Definitionen vorschreiben, sondern
zunächst auf deren Wortgebrauch achten, um zu verstehen, was der Autor sagen
will (denk an die Hermeneutik). Bei phänomenologischen Beschreibungen meint man
nicht die physikalischen Gegenstände, sondern die uns in unserer Wahrnehmung
erscheinenden.
>Ein physikalisches Ereignis ist eines, das durch ein physikalisches,
>extensionales Vokabular beschrieben werden kann. Wenn der subjektive
>Wahrnehmungsraum etwas Raumzeitliches wäre,
Das Vokabular der Physik ist viel variabler, als Du glaubst: Heisenbergs
Potentialitäten, Bohms implizite Ordnung, Penroses Twistoren sollen nichts
Raumzeitliches sein. Entsprechend spricht nichts dagegen, psychologische Farbe,
Bedeutung etc. im Rahmen einer biophysikalischen Bewußtseinstheorie als
Begriffe in die Physik einzuführen. Neue Begriffe sind schon wiederholt
eingeführt worden (Energie, Entropie etc.).
>Übrigens sagt das Roche-Lexikon Medizin:
230
>"Wahrnehmungsfeld das Hirnrindengebiet (Area) als Projektionszentrum,
Gleiche Wörter bedeuten in verschiedenen Bereichen manchmal Unterschiedliches.
Hier ist die Physiologie gemeint (das Hirnrindengebiet, in dem Wahrnehmung
verarbeitet wird) und nicht die psychologische Phänomenologie der Wahrnehmung.
>Wenn du meine Bewertung deiner Theorie als skurril mit dem Hinweis
>begegnest, auch Theorien wie die QT oder die ART seien von Philosophen
>als skurril eingestuft worden, so gleichst du nun 'mal deine Theorie
>den Theorien der aufgeführten illustren Herren an.
Ich habe dabei Dich mit den Kritikern von Einstein, Heisenberg etc. verglichen.
Ich habe als Beispiele für verfehltes Kritikerverhalten die Relativitätstheorie
und die Quantenmechanik ausgewählt, weil dies die bekanntesten Beispiele aus der
Wissenschaftsgeschichte sind, so dass ich davon ausgehen konnte, dass Du und
alle Diskussionsteilnehmer wissen werden, was ich meine. Wenn kleinere Geister
als Einstein und Heisenberg bekanntere Fälle wären, hätte ich diese genannt.
Diskussionen müssen mit Argumenten geführt werden, nicht mit Affekten. (Ich
kritisiere in meinem CWB-Buch auch die RT, aber mit rationalen Argumenten.)
Darüber hinaus ist die Physik bislang mit jeder neuen Theoriengeneration immer
komplexer und unanschaulicher geworden, und man kann sich ruhig darauf
einstellen, dass dies auch bei den Theorien über das Bewußtsein und über
Teleonomie sein wird - egal von wem diese Theorien stammen werden.
>Es kann ja wohl kaum darum gehen, _jede_ mittelmäße Theorie irgendwelcher
>Wissenschaftler vor Kritik zu immunisieren.
Du glaubst also tatsächlich, dass Skurrilität ein Wahrheitskriterium (eine
Widerlegung oder Kritik) ist? Wie begründest Du das denn?
>der anscheinend noch nie etwas von Mannigfaltigkeiten gehört
>hat (eigentlich unglaublich!) Jedes Feld läßt sich als Schnitt in ein
>entsprechendes Vektorraumbündel deuten;
Das war mir schon bei Deiner ersten Mitteilung klar. Das ist zwar mathematisch
richtig, aber physikalisch unbedeutend. Die Physik baut auf der Mathematik auf,
ist aber nicht mit ihr identisch: Teile ihrer Mathematik müssen realistisch
gedeutet werden, andere Teile haben keine physikalisch-realistische Bedeutung,
obwohl sie zur Berechnung der physikalischen Größen notwendig sind. (Das ist
ein sehr interessantes erkenntnistheoretisches Problem.) Naturwissenschaftlich
(physikalisch, realistisch) ist es unbedeutend, dass ein Feld mathematisch ein
Schnitt in ein Tangentialbündel ist. Naturwissenschaftlich bedeutsam ist am
Feldbegriff, dass es im Raum Punkt für Punkt Werte für physikalische Größen
gibt. Ein anderes Beispiel: In der theoretischen Physik spielt die imaginäre
Zahl mathematisch eine sehr große Rolle; trotzdem sind aber Elementarteilchen
231
keine imaginären Objekte, sondern (nach ihrer Beobachtung) materielle.
> Faktisch *sind* die Kognitionswissenschaften keine Naturwissenschaften, da sie sich
>(1) einer intentionalen (und damit intensionalen) Sprache bedienen und (2)
>die Psyche auf *funktionaler* Ebene, nicht auf *physikalischer* Ebene beschreiben.
Und genau das will die Physik neuronaler Netzwerke ändern, zumindest für einen
Teilbereich.
>>[[L.A.:]] Selbst manche Psychologieprofessoren bezeichnen die Psychologie als
>>Naturwissenchaft.
>Naja, die Selbsteinschätzung vieler Wissenschaftler ist immer etwas schönfärberisch.
Müssen denn alle Wissenschaftler Deine Definitionen (z.B. von
Naturwissenschaft) akzeptieren? Das Bewußtsein ist Teil der Natur; das glauben
nun einmal manche Leute, und entsprechend benutzen sie ihre Grundbegriffe.
Mit freundlichen Grüßen, Lothar Arendes
Datum: 21. Aug. 2000, 08:58
>Von: H. R.
>Datum: 20. Aug. 2000 14:55:17 +0200
Hallo H. R.,
>Freilich, die explizite Informationsdarstellung des Bewusstseinsinhaltes
>ist so irreal wie das Bild bei einem Hologramm.
Hast Du Dich mit der Darstellung des expliziten Bewußtseinsinhaltes schon
intensiver beschäftigt und kannst uns dazu noch etwas schreiben? Der Bezug zu
Hologrammen ist interessant; kennst Du dazu gute Literatur, vor allem
mathematische Lehrbücher?
MfG, Lothar Arendes
Datum: 23. Aug. 2000, 08:41
>Von: D. B.
>Datum: 22. Aug. 2000 07:45:15 +0300
232
>[wischiwaschi konfusi]
[[ D. B. schrieb außerdem:
„In dieser NG gibt's ja (wie wohl in jeder) viel unausgegorenes Zeug zu
lesen. Meist kommt das von Laien, und die sagen es z. T. auch ehrlich
dazu.
Du dagegen verbreitest im akademischen Gewand vorwiegend arrogantes
Geschwätz. Statt Deiner eher lächerlichen Selbstdarstellungen solltest
Du vielleicht versuchen, hier aus der Diskussion noch was
dazuzulernen. Zum Beispiel, wie man im Internet schreiben sollte,
kannst Du Dir von Rolands knappen, kompetenten und doch anschaulichen
Beiträgen abgucken.“
]]
Das Niveau einer Argumentation ist in der Regel umgekehrt proportional zur
Stärke der Polemik. Stellst Du die tatsächliche Situation nicht vollständig auf den Kopf?!
Datum: 26. Aug. 2000, 09:00
Hallo alle miteinander,
da ich keine Bemerkungen oder Fragen mehr bekomme von Leuten, die sich für eine
Verbindung von Naturwissenschaft und Naturphilosophie interessieren, melde ich
jetzt mein Abonnement der Newsgroups ab. Falls doch noch jemand Fragen hat,
kann er/sie mir eine eMail schicken.
Ich denke, die Diskussionen waren sehr interessant und haben schön gezeigt, wie
schwierig es ist, über Introspektives zu reden. Was meint man mit der
"Vorstellung" von einer Pflaume?: Stellt sich ein durstiger Mann in der Wüste
vor, Pflaumen zu essen, oder ist das die Farbempfindung, die man bei der
Objektwahrnehmung einer Pflaume hat?
Zum Schluß möchte ich aber noch erläutern, dass das psychische Farbfeld
vermutlich nicht so im Kopf ist wie Maxwells elektromagnetisches Feld in einer
Wohnstube. Selbst in der Elektrodynamik hat man diese Art von Felder schon vor
langer Zeit aufgegeben. Was unsere Außenwelt (Kraftfelder und Objekte wie
Kugeln und Köpfe) physikalisch-realistisch ist, ist zur Zeit in der Physik sehr
umstritten. Der Hilbert-Raum der Quantenmechanik ist beispielsweise ein sehr
abstrakter Raum, den Bohm mit einer impliziten Ordnung in Zusammenhang bringt,
und Heisenberg spricht bei den Objekten vom raumzeitlosen Potentiellen. Von
einer ähnlichen Art ist vielleicht auch das psychische Feld. Dies verdeutlicht
233
auch, wie wichtig es für Philosophen, die über das Leib-Seele Problem
diskutieren, ist, die heutige Physik zu berücksichtigen.
Wer mehr wissen möchte über eine konstruktive Zusammenarbeit von
Naturwissenschaft und Philosophie, dem empfehle ich folgende Bücher:
Bernulf Kanitscheider: Moderne Naturphilosophie, 1984.
Gerhard Vollmer: Was können wir wissen? Band 2: Die Erkenntnis der Natur, 1986.
Mario Bunge: Das Leib-Seele Problem, 1984.
Tschüß, L.A.
Thema: Mittelhirn und Bewusstsein (13 Mitteilungen)
http://groups.google.de/group/de.sci.biologie/browse_thread/thread/85a539f1f1ca26b0/a8
94a45ec68eb40?hl=de&q=
Gruppe: de.sci.biologie
Datum: 10. Sep. 2008, 10:11
Hallo!
Traditionell glauben viele Hirnforscher, dass der Neocortex der Sitz
des Bewusstseins sei, aber ein starkes Argument dagegen ist, dass es
scheinbar keine adäquaten Cortexgebiete gibt, die alle verschiedenen
Reizeigenschaften miteinander kombinieren (Bindungsproblem). Ein
Gegenargument hiergegen ist die Hypothese, dass die Bindung durch
zeitliche Synchronisation erfolge. Aber es ist nicht klar, wodurch
diese Synchronisation gesteuert wird, außerdem sind z.B. im visuellen
Bewusstseinsfeld die entsprechenden Reizdimensionen nicht nur
gleichzeitig vorhanden, sondern tatsächlich räumlich, was durch
Synchronisation noch nicht erklärt ist. Außerdem konnte gezeigt
werden, dass Patienten ohne Cortex Bewusstsein haben können:
http://www.bbsonline.org/Preprints/Merker-03062006/Referees/Merker03062006_preprint.pdf
Diese und viele zusätzliche Argumente legen als die vernünftigste
Hypothese die Vermutung nahe, dass das Bewusstsein zum Mittelhirn in
Beziehung steht. Zum Beispiel hat der Colliculus Superioris (SC) sehr
viele anatomische Verbindungen mit fast allen wichtigen Hirngebieten,
so dass es ein solches multisensorisches Integrationszentrum ist, wie
man es von einer Hirngegend erwarten sollte, die das Bewusstsein
234
generiert. Und tatsächlich konnte sogar gezeigt werden, dass Zellen im
SC auf die konnotative Reizbedeutung ansprechen:
http://LotharArendes.de/sc.pdf
Es gibt Neurowissenschaftler, die wegen der Problematik, das
Bewusstsein im Cortex zu lokalisieren, annehmen, es sei überhaupt
nicht im Gehirn. Beim heutigen Stand der Forschung ist das eine Ernst
zu nehmende Hypothese, aber wäre eine konservativere Haltung nicht
erst einmal angebrachter, also zu untersuchen, ob das Bewusstsein,
wenn nicht im Cortex, dann wenigstens woanders im Gehirn liegt: im
Mittelhirn, wie es schon früher von Wissenschaftlern wie Penfield
vermutet worden ist?2
Tschüssi, Lothar Arendes
Datum: 10. Sep. 2008, 10:27
[[Meine Literaturangabe zu Kindern (fast) ohne Hirnrinde:]]
Consciousness without a cerebral cortex:
[[in B. Merker, Behavioral and Brain Sciences (2007) 30: 63-134. ]]
http://www.bbsonline.org/Preprints/Merker-03062006/Referees/Merker03062006_preprint.pdf
Datum: 12. Sep. 2008, 09:20
[[ J. P. schrieb am 10. Sept.:
>> [[L.A.:]] Traditionell glauben viele Hirnforscher, dass der Neocortex
>> der Sitz des Bewusstseins sei, aber ein starkes Argument
>> dagegen ist, dass es scheinbar keine adäquaten Cortexgebiete
>> gibt, die alle verschiedenen Reizeigenschaften miteinander
>> kombinieren (Bindungsproblem). Ein Gegenargument hiergegen
>> ist die Hypothese, dass die Bindung durch zeitliche
>> Synchronisation erfolge. Aber es ist nicht klar, wodurch
>> diese Synchronisation gesteuert wird, außerdem sind z.B.
>> im visuellen Bewusstseinsfeld die entsprechenden Reizdimensionen
>> nicht nur gleichzeitig vorhanden, sondern tatsächlich räumlich,
>> was durch Synchronisation noch nicht erklärt ist.
]]
2 Richtiger ist vermutlich die Annahme, dass das Bewusstsein nur in Funktion zum Mittelhirn steht, was
nicht ausschließt, dass auch Faktoren außerhalb des Gehirns, Parameter einer Entelechie, bei dieser
funktionalen Beziehung eine Rolle spielen.
235
> Es gibt Versuche, Tomaso Poggio, James DiCarlo und anderen,
> das Gesehene bei Affen auszulesen. Objekte sind im Inferotemporalen Kortex
>repräsentiert:
[[>"In a fraction of a second, visual input about an object runs
>from the retina through increasingly higher levels of the
>visual stream, continuously reformatting the information
>until it reaches the highest purely visual level,
>the inferotemporal cortex (IT). The IT cortex provides the key
>information for identifying and categorizing to other
>brain regions such as prefrontal cortex.". ]]
Ja, diejenigen, die fest an den Cortex glauben, weil das ihr
Forschungsgebiet ist, wofür sie Forschungsgelder haben wollen,
versuchen es immer wieder, aber die wissenschaftliche Gemeinschaft
konnte noch nicht allgemein überzeugt werden. Vielleicht steht das
Bewusstsein ja tatsächlich zum Cortex in Beziehung, aber ich plädiere
dafür, auch andere Forschungshypothesen zu verfolgen und finanziell zu
fördern. Wissenschaft sollte kein Dogma sein!
Tschüssi, Lothar
Datum: 12. Sep. 2008, 09:36
>[[J. P. am 10. Sept.:]] Jedoch gibt es auch Neuronen im Hippocampus,die das Gesehene
>wiederspiegeln.
> "For example, a neuron in the hippocampus of one patient
> fired very strongly to a picture of the patient's brother
> when recognized and remained completely silent when it
> was not, another neuron behaved in the same manner with
> pictures of the World Trade Centre, etc."
Das ist richtig, dass es Neuronen gibt, die auf Personen, auf bekannte
versus unbekannte Gesichter etc. ansprechen. Das ist aber nicht das
Problem. Beim Bindungsproblem sucht man Hirngebiete, die die
verschiedenen Reizattribute repräsentieren (ein Objekt ist zum
Beispiel gleichzeitig und am selben Ort im psychischen
Wahrnehmungsfeld rot, kantig und sich bewegend).
236
Datum: 12. Sep. 2008, 09:43
10. Sep., 18:10, J. L. schrieb:
> Lothar Arendes schrieb:
> > [[L.A.:]] Es gibt Neurowissenschaftler, die wegen der Problematik, das
> > Bewusstsein im Cortex zu lokalisieren, annehmen, es sei überhaupt nicht im Gehirn.
> Sondern? Vielleicht im Magen???
Nicht im Magen und nicht im materiellen Körper, sondern evtl. außerhalb
unserer herkömmlichen Raumzeit, so wie die Physiker Burkhard Heim und
David Bohm es vermuteten. Auf meiner Homepage habe ich einen Aufsatz,
in dem ich z.B. die Hypothese aufstelle, dass es evtl. eine Art
Prozessor (eine Art Entelechie, wie Aristoteles es behauptete) im
Quantenvakuum bzw. Äther geben könnte. Diese Forschungsrichtung möchte
ich aber in dieser Diskussionsrunde nicht weiter verfolgen und mich
lieber auf das Mittelhirn konzentrieren, das bereits mehrere
hochrangige Hirnforscher (z.B. Penfield) für den Sitz des Bewusstseins hielten.
Tschüssi, Lothar
Datum: 12. Sep. 2008, 09:50
>[[R. D. am 10. Sept.:]] Ehrlich gesagt ist für mich das Wörtchen 'Bewusstsein' ein
> Buzzword, ein Wort, das nur Leute in den Mund nehmen, die schwafeln wollen.
Wenn Dein Beitrag nicht nur Schwafelei gewesen sein soll und Du Dich
wirklich für die Bewusstseinsforschung interessierst, empfehle ich Dir
als Einstieg folgendes Buch:
B. Baars (1988): A cognitive theory of consciousness.
Glaubst Du wirklich, all die Neurophysiologen, die auf diesem Gebiet
arbeiten, seien nur Schwafeler? Zu einer genaueren Charakterisierung
des Begriffes kannst Du einen Aufsatz auf meiner Homepage lesen.
Tschüssi
Datum: 13. Sep. 2008, 10:52
> >[[L.A.:]] Das ist aber nicht das Problem. Beim Bindungsproblem sucht
237
> > man Hirngebiete, die die verschiedenen Reizattribute
> > repräsentieren (ein Objekt ist zum Beispiel gleichzeitig
> > und am selben Ort im psychischen Wahrnehmungsfeld rot,
> > kantig und sich bewegend).
> [[J. P. am 12. Sept.:]] Das halte ich für ein Scheinproblem. Man sucht das Falsche.
> Mit Sicherheit kennst Du die 7 -2-Regel, die besagt, daß
> man sich spontan nicht mehr als ca. 7 Symbole merken kann.
> Symbole sind in ihrem Informationsgehalt äquivalent.
> Man kann das, für das ein Symbol steht, einem beliebigen
> anderen Symbol zuordnen.
> Attribute von Objekten, Klänge, Gerüche, Farben, Orte
> im Raum, sind nichts anderes als Symbole, weil sie die
> Aufgabe von Symbolen übernehmen können: für einen
> Sachverhalt zu stehen.
Farben, Kanten, Bewegungen, Gerüche etc. kann man als Symbole deuten,
das heisst, sie sollen etwas aus der Außenwelt repräsentieren. Aber
darum geht es hier nicht: Wir haben diese Eigenschaften in unserem
Bewusstsein, und die Existenz dieser Eigenschaften soll erklärt
werden. (Dass diese Eigenschaften Symbol für etwas sein sollen, ist
ein anderes Problem.) Wie kann man die Existenz von Farben, Kanten,
Gerüchen etc. erklären? Das will man in der Bewusstseinsphysiologie
erklären.
Lothar
Datum: 15. Sep. 2008, 10:04
14. Sep., 13:44, B. F. schrieb:
> R. D. schrieb:
> > Lothar Arendes schrieb:
> >> [[L.A.:]] Traditionell glauben viele Hirnforscher, dass der Neocortex der
> >>Sitz des Bewusstseins sei, aber ein starkes Argument dagegen
> >>ist, dass es scheinbar.....
> > Was soll denn das Bewusstsein sein? Die Fähigkeit, dass ein Wesen
> > mit Gehirn seinen eigenen Körper wahrnehmen kann?
238
>>
> > Ach.
> > Warum sollte irgendein Wesen seinen eigenen Körper, sein
> > Denkvermögen, in anderem Maße wahrnehmen können, als jeden
> > anderen Gegenstand der Umwelt?
> Der Spiegeltest zeigt, dass die Möglichkeit der Lebewesen, sich selbst
> wahrzunehmen, offensichtlich unterschiedlich ausgeprägt ist. Im
> Gegensatz zu den meisten Tieren erkennen nur Menschenaffen, Delfine,
> Elefanten und Elstern im Spiegelbild sich selbst, wie man aus dem
> Verhalten schließen kann. Das läßt vermuten, dass sich das
> Ich-Bewußtsein im Laufe der Evolution mehrfach und vielleicht
> unterschiedlich entwickelt hat.
> <http://www.spiegel.de/wissenschaft/natur/0,1518,445479,00.html>;
> <http://www.stern.de/wissenschaft/natur/Tiere-Elstern-Spiegel/635336.html>;
> Gruss,
> B.
Spiegeltest und Selbstwahrnehmung sind für eine Diskussion über
Selbstbewusstsein interessant, aber wir sollten erst einmal versuchen,
das Bewusstsein von der normalen Objektwahrnehmung zu erklären, denn
das ist vermutlich leichter. Wie entstehen Farben, Töne (die
psychischen, nicht die physikalischen) etc.?
Lothar
Datum: 16. Sep. 2008, 15:12
16. Sep., 14:39, H. M. schrieb:
> Lothar Arendes schrieb:
> > [[L.A.:]] Hallo!
> > Traditionell glauben viele Hirnforscher, dass der Neocortex der Sitz des
Bewusstseins >>sei,
> Wie definierst du Bewusstsein? Hat ein Einzeller Bewusstsein? Wenn ja,
> inwiefern. Und wenn nein, warum nicht. Ich möchte jetzt weniger in
> endlos langen philosophischen Diskursen schwelgen, sondern die Frage
> hat einen praktischen Hintergrund.
239
> Wenn wir Einzellern so etwas wie ein Bewusstsein zubilligen, dann
> müssten wir das im Grunde doch auch arbeitsteiligen Zellen.
> Einfaches Beispiel sind hier Staatsquallen, bei denen sich die Zellen
> aus welchen Gründen auch immer solch einer Spezialisierung unterziehen.
> Hat nun eine Staatsqualle Bewusstsein oder hat sie nicht?
> Wenn sie es aber hat, haben dann nicht die einzelnen Spezialistenzellen
> auch ein Bewusstsein?
> Wenn wir aber konzedieren, dass dem so ist, dann müssten wir dieses
> auch Mehrzellern zugestehen, dass also jede einzelne Zelle ein
> irgendwie geartetes Bewusstsein hat.
> Und wenn dies so wäre, so gäbe es kein "_das Bewusstsein_, sondern
> deren viele, die sich dann letztlich quasi als Subsummierung durch das
> Gehirn artikulieren.
> Grüße
> H.
Hallo,
da die Wissenschaft noch nicht genau weiss, was Bewusstsein ist bzw.
wie es entsteht, kann man Bewusstsein noch nicht wissenschaftlich
angemessen definieren. Für mich ist Bewusstsein der Zustand, den man
erlebt, wenn man morgens erwacht oder wenn man aus einer Ohnmacht
kommt.
In der Forschung ist es bei einem neuen Forschungsobjekt üblich, mit
einem möglichst einfachen Beispiel zu beginnen: In der
Bewusstseinsforschung habe ich mich deshalb Ende der achtziger Jahre
bei mehreren amerikanischen Universitäten als Student beworben mit dem
Vorschlag, zunächst das visuelle Bewusstsein (Entstehung der Farben
etc.) zu erforschen. Dies ist dann später auch von Francis Crick
publiziert worden und wird nun von vielen Neurophysiologen befolgt.
Wie ich auf meiner Homepage im Aufsatz über das Leib-Seele Problem
genauer beschreibe, ist das visuelle Bewusstsein (das visuelle
psychische Wahrnehmungsfeld) auf der mathematischen Ebene ein Feld,
welches Werte für Farbton, Helligkeit und Sättigung und mit
entsprechender semantischer Bedeutung besitzt.
Ob Einzeller rudimentäres Bewusstsein haben, kann man heute nocht
nicht sagen. Ich glaube, dass das Bewusstsein eine Systemeigenschaft
von vielen Zellen ist. In der Systemtheorie glaubt man, dass ein
System aus Komponenten besteht, das globale emergente Eigenschaften
besitzt, welches die Komponenten nicht haben. In der Thermodynamik
beispielsweise haben Vielteilchenaggregate Eigenschaften wie Entropie
und Enthalpie; das sind Eigenschaften, die die einzelnen Atome nicht
240
haben, aber das Gesamtsystem.
Lothar Arendes
Datum: 18. Sep. 2008, 09:53
17. Sep., 11:39, H. M. schrieb:
> Lothar Arendes schrieb:
> > H. M. schrieb:
> >> Lothar Arendes schrieb:
> >>> [[L.A.:]] Traditionell glauben viele Hirnforscher, dass der Neocortex der Sitz
> >>> des Bewusstseins sei,
> >> Wie definierst du Bewusstsein? Hat ein Einzeller Bewusstsein? Wenn
> >> ja, inwiefern. Und wenn nein, warum nicht....
> > [[L.A.:]] da die Wissenschaft noch nicht genau weiss, was Bewusstsein ist bzw.
> > wie es entsteht, kann man Bewusstsein noch nicht wissenschaftlich
> > angemessen definieren. Für mich ist Bewusstsein der Zustand, den man
> > erlebt, wenn man morgens erwacht oder wenn man aus einer Ohnmacht kommt.
> Wenn man nicht genau weiß, was Bewußtsein ist, dann kann man auch nicht
> sagen, wo sich dieses befindet.
Richtig, deshalb bemühen sich ja auch die Neurowissenschaftler darum, beides zu
erkunden.
> > [[L.A.:]] Wie ich auf meiner Homepage im Aufsatz über das Leib-Seele Problem
> > genauer beschreibe, ist das visuelle Bewusstsein (das visuelle
> > psychische Wahrnehmungsfeld) auf der mathematischen Ebene ein Feld,
> > welches Werte für Farbton, Helligkeit und Sättigung und mit
> > entsprechender semantischer Bedeutung besitzt.
> Ja, das gilt aber für jeden Sinneseindruck und ist nicht auf das Sehen
> beschränkt.
Beim akustischen Bewusstsein spielt der Farbton natürlich keine Rolle.
Grüße, Lothar
241
Datum: 25. Sep. 2008, 09:42
> Wenn man nicht genau weiß, was Bewußtsein ist, dann kann man auch nicht
> sagen, wo sich dieses befindet.
Ich persönlich glaube allerdings nicht, dass das Bewusstsein irgendwo
im dreidimensionalen Gehirn "lokalisiert" ist, sondern nur eine
Funktion von Hirnstrukturen ist, und hier mag der Colliculus eine
wichtige Rolle spielen. Die theoretische Physik macht immer
deutlicher, dass unsere heutigen Raumzeitvorstellungen nicht ganz
adäquat sind, und für das Bewusstseinsproblem wird man sich vielleicht
völlig neue Konzepte überlegen müssen, etwa so wie Burkhard Heim es
sich vorstellt.
Tschüssi, Lothar
Datum: 29. Sep. 2008, 13:54
> [[J. P. am 25. Sept.:]] Nehmen wir an, da wären zwei Ameisen, die eine mit, die andere
> ohne Bewußtsein. Würdest Du einen Unterschied merken?
Damit sprichst Du das alte Problem an, dass unser Bewusstsein uns nur
introspektiv gegeben ist. Im Augenblick kann man nur vermuten, dass
zumindest Menschen normalerweise Bewusstsein haben. Sollte es
irgendwann einmal eine wissenschaftliche Bewusstseinstheorie geben,
dann müsste die uns sagen, wann Bewusstsein vorliegt und wie man das
testen könnte (auch in Bezug auf Ameisen u.a.). Im Augenblick kann man
jedoch zum Beispiel in der Psychophysik sehr gut Experimente
durchführen zur Untersuchung von Farben, Tönen etc. Wahrnehmungsqualitäten scheinen also Menschen normalerweise zu haben,
und das ist das Qualia-Problem der Bewusstseinsforschung. Aber welche
genaue Funktion Bewusstsein hat, ist noch sehr spekulativ.
Tschüssi, Lothar
Datum: 30. Sep. 2008, 13:47
> [[J. P. am 29. Sept.:]] Oder sollte es beim Menschen einen Geisteszustand "Ohne
>Bewußtsein" geben, bei dem eine Person wach ist?
Lies mal das jüngste Buch von Damasio über das Bewusstsein. Er
242
beschreibt Epilepsieanfälle, bei denen die Patienten wach, aber ohne
Bewusstsein sind. Deshalb unterscheidet Damasio, wie ich finde recht
überzeugend, zwischen wach und bewusst.
Tschüssi, Lothar
Subject: Evolutionary Psychology and Religion (8 Posts)
(Discussion about consciousness)
http://groups.google.de/group/talk.philosophy.misc/browse_thread/thread/8ca5d5e752d4
8efb/ec72b5b5821376bd?hl=de&
To: alt.philosophy, sci.philosophy.meta, sci.psychology.theory,
talk.philosophy.misc
Date: 3 Jan. 2004, 18:34
> [[On 3 Jan., J. J. wrote:]]
> A purely physical world, materialism, can present no objects or systems.
[[On 3 Jan., K. A. wrote:]]
>>This makes no sense to me.
Hi!
You identify physicalism with materialism, and this is wrong. For instance,
classical electromagnetic fields are not material objects but something else. In
quantum mechanics physicists do not agree upon the question what physical
objects are. In thermodynamics entities like enthalpy and entropy are not
material objects either but other types of entities. Physical objects are those
objects which physics needs to explain the world – but these physical objects
are not necessarily material objects. Maybe in future physics will be able to
explain consciousness, and consciousness would then become a physical entity,
but this physical entity would not automatically be something material.
Lothar Arendes
Date: 4 Jan. 2004, 20:01
[[On 4 Jan., K. A. wrote:]]
>Consciousness is provable non explainable by physics
>http://www.anasoft.co.uk/replicators/thehardproblem.html
243
I do not agree with you. Read my essay about biophysics:
http://LotharArendes.de/bio.pdf
Lothar Arendes
Date: 4 Jan. 2004, 20:16
> > [[L.A.:]] In thermodynamics entities
> > like enthalpy and entropy are not material objects either but other types of entities.
>[[On 4 Jan., K. A. wrote:]] They are not even physical objects. They are conceptual or
>virtual objects describing properties of mass-energy objects.
They are "something" (what exactly it is, that is a question of
interpretation) with a field character and which exists when you have a huge
number of mass-energy objects (it is a compound property, or an emergent
entity); similarly consciousness may be an emergent field when the neurons
are in a specific state.
Date: 6 Jan. 2004, 19:04
Hi!
I read your article [[see K. A. on 4 Jan.]] but I do not agree with you [[that consciousness
is provable non explainable by physics]].
Kevin:
>that before any statements about understanding conscious awareness can be
>made whatsoever, the very word and notion of "understanding" must be first defined.
Lothar:
On my homepage there is the link to my essay on quantum mechanics (cwv.htm)
in which I describe in the introduction how psychologists can explain
‘‘understanding‘‘: Something is understood when you could embed it in a
network of concepts which make up your long-term memory. These present
theories of psychology do not say anything about consciousness but I do not
see any reason why these mechanisms of semantic networks should not play a
central part in the generation of conscious understanding and why scientists
should in principle be unable to explain it in a future theory.
244
Kevin:
>How than, are we to "understand" our
>own consciousness, as understanding requires such consciousness?
>"Understanding" itself requires consciousness, therefore consciousness
>cannot be "understood" without referring to itself for the explanation,
>therefore the "hard problem" of consciousness [[the explanation of the qualia
>of consciousness like colors, tone etc.]], is intrinsically unsolvable as it is self referral.
>This is a self referral or circular situation.
Lothar:
There seems to be some kind of a circle but it is not a logical circle. More
exactly described, the situation of scientific research is the following:
In the beginning the psychologist or neurophysiologist does not try to
explain his own consciousness but that of another person. Let us assume the
scientist oberserves a person who has the conscious perception of a red
ball. He now tries to explain this consciousness, and since the person`s
consciousness is not his own consciousness but an external event to him he
can try to explain this thing just as we try to explain all other events of
reality. Let us assume he really succeeded in explaining the consciousness
of this person and of many other persons. Then he can generalize his theory
in such a way that this theory does also explain his own consciousness. He
can argue: Since we are all humans and since biology showed that the biology
of all members of a species are similar to each other, the theory probably
is also true for my own consciousness. (This is not a proof but nowhere in
science you can prove a theory.) And such a theory of consciousness would
require the concept of a qualia (I think you call it emotion) of
understanding. To me such a qualia is an emergent compound property of the
brain which could be introduced as a new scientific concept just like the
concepts enthalpy and entropy were invented in physical chemistry or the
metric field in general relativity.
Kevin:
>I don't accept that the physical laws of biological systems can
>be different from inorganic objects. This would be a fundamental
>contradiction to existing physics. The issue is that the laws of physics
>for *all* objects are not complete.
Lothar:
I can accept what you write. What I mean is that our current physical laws
are ‘‘approximately‘‘ true for simple objects but cannot be used as an
explanation for more complex systems like processes within organisms. (In
the same way as classical physics is acceptable for objects with small
velocity but not for objects with the velocity of light where you need
245
relativity theory.)
Kevin:
>I see no reason, in principle, why
>consciousness can not exist in a variety of implementations. The notion
>of "organic" in my view is completely misguided. There is no reason to
>suggest that organic molecules are special. They are just something we
>see a lot of here. Intelligent aliens might well be constructed from
>silicon, or some other yet unknown basic molecule.
Lothar:
I agree. But whether an implementation of consciousness in other substances
is possible or not, only a scientific theory can show. And to get such a
theory we must start to explore our consciousness which is based on the
organic brain.
Kevin:
>Biological systems are simply assemblies of quantum systems.
Lothar:
No. Biological systems are systems of quantum systems. The exact structure
is very important - especially for the generation of emergent properties
like consciousness; a brain is sometimes conscious and during sleep not. And
most of our present physical theories do not say anything about systems with
special structures. Reversible thermodynamics is a many-body theory but
these objects are only statistically distributed, irreversible
thermodynamics and synergetics explore the role of structures. (I wrote more
about emergent properties and the role of structure in my essay on
‘‘Fundamentals of the scientific conception of the world‘‘, chpt. 2.3; 2.5.)
Kevin:
>The issue of deterministic or not deterministic is not relevant to a
>conscious "I" that can take independent action. Either systems are
>classically deterministic or quantum uncertain (or a combination). If they
>are deterministic, there is no "I". If they are quantum random, there is
>also no "I", as "I" can have no effect over quantum randomness. ... So, QM
>can not be used to solve the free will problem.
Lothar:
I do not understand your argument. What do you mean with ‘‘I‘‘ and with
‘‘independent action‘‘? According to my view an ‘‘I‘‘ can exist no matter
whether deterministic or not deterministic. If consciousness were a physical
field, as I propose in my essay, it could control the movement of brain
objects and it would be important to know whether deterministicly or not.
246
Bye, Lothar
http://LotharArendes.de/
Date: 7 Jan. 2004, 19:58
Hi!
Kevin [[on 6 Jan.]]:
>Please *define* the word "understanding". Do it without using the words "aware",
>"experience" or "conscious" "conscious memory" or similar words.
Lothar:
Understanding is a specific quality (in philosophy we usually call it
qualia) which is generated when someone was able to integrate a concept
within the semantic network of his long-term memory. (I will say more about
this kind of definition at the end.) And the task of a physiological explanation is to show
under which circumstances the brain generates such a qualia.
Kevin:
>> [[L.A.]] These present theories of psychology do not say anything
>> about consciousness but I do not see any reason why these mechanisms
>> of semantic networks should not play a central part in the generation
>> of conscious understanding
>The hard problem is not rooted in physics, its rooted on linguistics.
Lothar:
I did not write anything about physics. What you call the hard problem is a part of
psychology.
Kevin:
>Explain *exactly* what you mean when you use the word "explain".
Lothar:
I use the word explanation in the way it is used in science and in
philosophy of science: An event is explained when it is possible to derive
it from a law with specific extra conditions. Something is explained when
you can tell the causes which generated it. (There is no need to talk about
awareness or such things. Get rid of it!)
Unfortunately the verb ‘‘to explain‘‘ has (at least) two meanings: To
explain a word or concept means telling the meaning of the word or sentence.
247
This is what you seem to think of. You wrote: "Explain exactly what you mean
when you use the word explain." In this case it is better to prefer the verb
‘‘to explicate‘‘.
But in science an explanation of an event or property is the ability to tell
the causes which generated it. Probably I now know what your problem is.
When you claim that we cannot explain consciousness or understanding then
you want to say that we cannot derive the meaning of these words from other
words. I do agree with that. But this is nothing new in science. You also
cannot derive the concept temperature from another concept, it is a unique
phenomenon just like space or time so that it needs a basic concept which
cannot be derived from other concepts. But nevertheless we can explain
temperature (in the way of explanation as said above: telling the causes
which influence it), and in this way science can also look for an
explanation of consciousness. The factor which influences temperature is:
the average velocity of the atoms which the object contains. (Because
understanding is such a basic concept I gave an ‘‘operational definition‘‘
of it above. ‘‘Operational definition‘‘ is an expression from analytic philosophy.)
Kevin:
>All you have done is simply unilaterally declared the existence of a soul,
Lothar:
How much do you know about physics and about the soul of religions? I think
it is not necessary that I give an answer to all your misunderstandings.
Bye, Lothar
Date: 8 Jan. 2004, 22:16
Hi!
Kevin [[on 8 Jan.]]:
>> [[L.A.:]] How much do you know about physics
>Quite a bit.
Lothar:
Then you should not claim that my physical ansatz would postulate a soul. If
you interpret a physical field as a soul then you obviously do not know what this is.3
3 In 2004, I had not yet proposed my hypothesis that our self, which perhaps survives our bodily death,
could be something like a processor within a higher dimension of spacetime and which some people
may interpret as a soul (see the discussion about “Life after Death“). In the biophysics paper which K.
A. had read I only proposed that consciousness should be a physical field generated as a function of
248
Kevin:
>Now define "qualia". ... Explain why a kick in the balls hurts.
Lothar:
A qualia is (at the present time) a basic concept which cannot be defined by
other concepts. Therefore I gave an operational definition. Basic phenomena
must at first be described and measured (what psychophysics has started to
do with consciousness; for instance, in the case of colors), and later
scientists have to look for an explanation, for the causes which have an
influence on it: At first a thermometer was invented and temperature was
measured, and then the explanation was given: average velocity of all atoms.
At the beginning of a research project you only have to be able to identify
what you want to explain; at the end of a long research chain you can say
more about it (you can give an internal-theory definition): Several hundred
years ago you could not say much about magnetism, but scientists were able
to identify what had to be explored: several objects attracted themselves.
Today physicists can tell you more about magnetism.
But what a basic concept is, is relative (relative to your present theory).
What we today take for basic may be explainable in future by other yet
unknown factors. In the past the euclidean space was a given basic
phenomenon, today we know that space is non-euclidean and that its structure
is influenced by the mass-energy of the whole universe. Similarly it could
be possible in future that your feeling of having been kicked in the balls
can be defined in the way you wish to have it. But you want to have a
definition from me now - but this can maybe only given by scientists in
future. ( I do not see any proof that this is impossible for all times.) If
you are interested in basic concepts and their relativity you should read
some books from analytical philosophy about it. I do not know any specific
book that I could tell you, but I know that analytical philosophy dealt with
this problem.
As I described in my essay about biophysics we have to do the following in
consciousness research: At first we have to represent mathematically what we
call conscious qualia, and this will lead to something which is called a
field in theoretical physics (and this would be a basic concept which could
not be defined by something else; at least not at this research stage). Next
we would have to relate this consciousness field to brain physiology, just
like in general relativity the metric field is related to mass-energy. And
just like today some physicists (Wheeler, Penrose, Schmutzer etc.) try to
explain the emergence of space-time (the metric field) from something else,
at the end physiologists could try to explain the emergence of the
brain physiology and additional quantum vacuum parameter (see the discussion about “Physics of
Consciousness“).
249
consciousness field from something else. If scientists had succeeded in this
then a definition of consciousness without concepts like awareness etc.
could be possible. (And by the way: I do not see any reason why we have to
define a basic concept. There is no hard problem of consciousness because
this is no problem at all: Just represent consciousness in a mathematical
formalism and find the physiological factors which influence and generate
it. That your problem is no problem is the problem.)
Never say ‘‘impossible‘‘!: Centuries ago many scientists claimed that it
would be impossible to say something about the interior of the sun, today we
know quite a lot.
Never say ‘‘impossible‘‘ - too often this was refuted in the history of
science. Many philosophers had believed that it would be true analytically
that space would be euclidean – until Einstein showed up!
Bye, Lothar
Date: 9 Jan. 2004, 20:04
Hi!
Kevin [[on 9 Jan.]]:
>The problem is "what is it that a kick in the balls hurts".
Lothar:
You do not understand that this problem is not unique:
You can also ask:
What is it that space is spatial?
What is it that temperature is cold?
If you try to give a definition then you get your circularity. It is how it
is, and science does not need to say more about it.4 If you want to know how
a kick in the balls feels then ask someone for kicking you – science cannot
give you more knowledge about it (at the present time), and your question is
unimportant and not hard!
This is the problem with all basic properties.
Your kind of question reminds me of the old essence-questions: What is the
essence of ...? But science cannot explain the essence of anything.
4 Science does not want to explain what conscious qualia (like colors, tones, or the feeling of being
kicked) are – everybody knows or can know this from introspection – science wants to explain how
these qualia are generated. If we could scientifically explain the generation of colors then we could
assume on the philosophical level that all other qualia are generated by similar mechanisms.
250
And one more point: Why do you call your linguistic problem the ‘‘hard‘‘
problem? Hard or important in what way? If the old philosophical mind-body
could ever be solved by science then certainly without solving your
‘‘linguistic‘‘ problem! Maybe your problem is an interesting question, but
it is an unimportant one.
[[Kevin:
>In addition I have had a look at your QM paper,
>One of your fundamental flaws here is that there is no reduction of the
>wave packet. This is an ad-hoc notion in an interpretation proven to be
>false, as indicated in the above paper and associated links.
>You are obviously not up to date with modern and correct views of QM, ]]
(Finally: the problem of the reduction of QM is not solved yet, although
again and again and again some people try and believe it!)
Bye, Lothar!
Date: 10 Jan. 2004, 13:22
[[On 10 Jan., Kevin wrote:]]
> This "expert" [[the philosopher David Chalmers]], apparently, is not aware that the
> problem [[the „hard problem“ of explaining conscious qualia]] is a word definition
issue. >To the best of my knowledge, all workers in this field have failed to see this
trivial fact.
What a great fortune to science that you finally came into existence!
Subject: Physics of Consciousness (18 Posts)
http://groups.google.de/group/sci.physics.foundations/browse_thread/thread/ef7282132c9
14f0e/8d34c6117ef85607?hl=de&
To: sci.physics.foundations
Date: 19 Jun. 2008, 16:25
251
Hi!
In theory of general relativity, the field equations describe a
relationship between spacetime on the one side and energy on the other
side. In the mind-body problem we search for a relationship between
consciousness and the brain. In physical research, scientists usually
try to explain a specific part of nature by explaining the most simple
system which can be regarded as a representative example of the
general problem (in classical physics this was the harmonic
oscillator, in quantum mechanics it is the hydrogen atom). In
consciousness research, it is the best way to try to explain visual
consciousness. Since visual consciousness consists of a field of
colors which are interpreted as being real objects (which actually
only represent real objects), it is near at hand to look for equations
similar to those of general relativity theory but equating a color
field with brain physiology. The color field of visual consciousness
is described in psychophysics, and therefore we now have to look for
those physiological properties of the brain which are the elements of
the other side of the consciousness equation:
Color Field = Function of Brain Properties.
Which physiological elements could be responsible for the generation
of the consciousness field? I assume that energy does play an
important role. And since the brain seems to be an information
processing system, information should also play a role. Entropy is a
form of information as defined by Shannon although this information
concept certainly is not enough in psychology. What else properties
could play a role, and in which exact way could energy and entropy be
elements of the consciousness equations? Who does have some good
ideas?
Bye, Lothar Arendes
http://LotharArendes.de/
Date: 21 Jun. 2008, 12:42
On 21 Jun., 10:57, O. N. wrote:
> I do not find anything in the equations of physics which can explain our
> experience of consciousness.
This is right. In PRESENT equations of physics you cannot find
anything that can explain cnsciousness. And therefore neurophysicists
252
search for such equations.
[[>Certainly it [[consciousness]] is not directly related to
>either thought or sense perception, since this is contradicted by]]
> experience of enhanced consciousness in isolation tanks and in
> meditation, in which a state without thought can be developed.
And why does this exclude the possibility of consciousness equations
relating brain physiology to consciousness?
http://LotharArendes.de/bio.pdf
Date: 21 Jun. 2008, 12:42
> > [[L.A.:]] Which physiological elements could be responsible for the generation
> > of the consciousness field?
[[On 20 Jun., C. M. wrote:]]
> Neural network.
Yes, but which parts of neural networks represent unconscious
information processing and which parts conscious contents? Does every
electrical activity of a neural network when being, for instance, in
an attractor represent something conscious?
Date: 23 Jun. 2008, 22:18
On 20 Jun., 22:54, C. M. wrote:
> Neural network.
An interesting question is where the neurons of this network are. Are
these neurons scattered over the whole brain or are they located in
one area? There is some evidence that this network is in the midbrain
and in the diencephalon; visual consciousness is perhaps related to
the superior colliculus. There is some evidence that consciousness is
not in the cortex of the forebrain: Patients without the cortex still
have consciousness, though with very simple content (since the
information processing of the cortex is missing).
Bye, Lothar Arendes
253
Date: 23 Jun. 2008, 22:12
On 22 Jun., 18:30, C. M. wrote:
> >> > [[L.A.:]] Which physiological elements could be responsible for the generation
> >> > of the consciousness field?
> >> Neural network.
> > [[L.A.:]] Yes, but which parts of neural networks represent unconscious
> > information processing and which parts conscious contents? Does every
> > electrical activity of a neural network when being, for instance, in
> > an attractor represent something conscious?
> It wasn't your question. The neural network is the device able to recognize
> real objects in the color field. Only the result of this processing becomes conscious.
But does every result of such a processing becomes conscious? Is it a
necessary or a sufficient condition for consciousness?
>What you call "energy" is probably not the same thing as in physics.
Certainly, it is. The electrical activity of neural networks has a lot of physical energy.
Bye, L.A.
Date: 23 Jun. 2008, 22:24
On 21 Jun., 16:31, O. N. wrote:
[[>>> experience of enhanced consciousness in isolation tanks and in
>>> meditation, in which a state without thought can be developed.
>>[[L.A.:]] And why does this exclude the possibility of consciousness equations
>> relating brain physiology to consciousness?]]
> It suggests that the types of things we attempt to study, sense
> perception, thought, are not directly related to consciousness.
Of course, there is a lot of unconscious information processing before
having a conscious experience. But finally, something yet to be found
is the correlate of consciousness in the sense that the consciousness
254
field is a function of it (a "function" can mean that it is not identical with it).5
>Another barrier is that we cannot write equations unless we can quantify and
> measure the system under study.
You should study books about psychophysics or psychology of
perception. In psychophysics, the visual field of visual perception is
described using three dimensions (for example, color tone). Therefore,
in order to find the equation "Visual Field = Function of Brain Physiology"
the side for the visual field is no big problem. Scaling
is done in psychophysics, too. You should really read some books about
it if you are interested in consciousness research.
Bye, Lothar Arendes
Date: 25 Jun. 2008, 13:37
On 20 Jun., 22:54, C. M. wrote:
> > [[L.A.:]] Which physiological elements could be responsible for the generation
> > of the consciousness field?
> Neural network.
Are action potentials or electrical activities in the dendrites
responsible for consciousness? In artificial neural networks, only
action potential frequencies are usually simulated.
Bye, Lothar Arendes
5 Of course, conscious sense perception and thought are parts of consciousness! Consciousness is not
something unknown; consciousness is that what we experience consciously (it is directly given to us).
Unknown to us are the mechanisms (the unconscious information processing) and perhaps the
substance which generate consciousness. Maybe, there is a state without thought in isolation tanks but
this does not show that all other conscious experiences like thought are no consciousness and that we
cannot find physical consciousness equations. The underlying substance of our consciousness can
generate a lot of different conscious qualities: not only colors, tones, thoughts but also conscious
qualia like those in meditation or isolation tanks. If scientists could explain at least one kind of qualia
– for example, colors – then we could philosophically argue that similar mechanisms generate all other
qualia. The principal way of how the underlying substance does generate conscious qualia would have
been found then. (My reply in my above message is a little bit short – I have the impression that some
text was deleted on the Internet. Probably this is also the case in other messages.)
255
Date: 25 Jun. 2008, 13:51
On 24 Jun., 23:19, O. N. wrote:
> I think studying consciousness after the manner of Gurdjieff is probably
> more valid than anything done in psychophysics.6
And how can you use Gurdjeff for formulating a physical theory of
consciousness? You need to describe consciousness mathematically.
L.A.
Date: 25 Jun. 2008, 13:51
On 23 Jun., 09:45, S. wrote:
> Physics cannot replace physiology.
> The notion physics of conciousness is an indication of lacking knowledge.
The observable properties of physiology are not identical with consciousness [[for
example, action potentials are no conscious qualia like colors]], and the relationship
between both is to be found by physics.
Biophysics is physics in biology.
L.A.
Date: 27 Jun. 2008, 16:32
On 25 Jun., 09:45, S. wrote
> >> Physics cannot replace physiology.
> >> The notion physics of conciousness is an indication of lacking knowledge.
> > [[L.A.:]] The observable properties of physiology are not identical with
consciousness,
> In order to elucidate consciousness, one has to deal with physiology first.
> Immediate physical explanation is doomed to fail.
That is right, and this is the reason why, in my first posting, I
6 Gurdjieff was no scientist but something like a guru (“spiritual leader“) in esoterics or mysticism.
Interestingly, O. N. never described Gurdjeff's consciousness theory.
256
asked which physiological properties could be the correlates of the
equation which we should look for in physics.
With regard to the physiological correlates I want to mention several publications:
G. Edelman, G. Tononi (2000): A universe of consciousness.
(This is probably the best theory of the neural correlates of
consciousness at the present time. "Breaking new grounds", writes
Damasio. But it is too complicated that I want to describe it here.
Entropy in cortex and thalamus plays an important role.)
A. Damasio (1999): The feeling of what happens.
(Mainly about self-consciousness.)
B. Merker: "Consciousness without a cerebral cortex", in: Behavioral
and Brain Sciences (2007) 30: 63-134.
(Without a cortex, the midbrain may take over the role.)
S. Zeki et al.: Toward a theory of visual consciousness", in:
Consciousness & Cognition (1999) 8: 225-259.
Regards,
Lothar Arendes
Date: 27 Jun. 2008, 16:32
On 25 Jun., 14:35, O. N. wrote:
> >> I think studying consciousness after the manner of Gurdjieff is probably
> >> more valid than anything done in psychophysics.
> > [[L.A.:]] And how can you use Gurdjeff for formulating a physical theory of
> >consciousness? You need to describe consciousness mathematically.
> I don't think you can.
If you want to describe the color field of visual consciousness
mathematically you use a function which gives you three values (one
for color tone, one for saturation, and one for brightness) for each
point of space (x,y,z) in front of you. Spherical coordinates might be
best. If you had read a book about psychophysics you would have known it.
L. A.
257
Date: 27 Jun. 2008, 16:53
On 21 Jun., 16:31, O. N. wrote:
> Another barrier is that we cannot write equations unless we can quantify and
> measure the system under study.
In physics, not everything must be measurable. Theoretical concepts
(for instance, quarks) cannot be measured but can have observable
consequences. We cannot measure the structure of spacetime of the
universe far away from us, but we have the mathematics to describe the
spacetime structure of the whole universe. If the equations of general
relativity theory describe a specific structure we can indirectly test
it. In the same way, consciousness equations could, in future, tell us
how visual consciousness should look like when the physiology is in a
specific state. We could then manipulate a patient`s brain in such a
way and could ask the patient what he sees.
L.A.
Date: 27 Jun. 2008, 17:40
On 25 Jun., 17:56, S. wrote:
[[>> [[L.A.:]] The observable properties of physiology are not identical with
consciousness,
>> and the relationship between both is to be found by physics. Biophysics is physics in
>>biology.]]
> Don't you know what people are doing in psychophysics? Usually they perform
> the better the less they are inspired by generalized theories.
Scientists start with the most simple and then continue to deal with
the more complicated. And neuroscience and psychophysics are now in
the phase to address the consciousness problem which is reflected by
the many recent publications.
L.A.
Date: 30 Jun. 2008, 12:20
On 27 Jun., 17:50, O. N. wrote:
258
> > [[L.A.:]] If you want to describe the color field of visual consciousness
> >mathematically you use a function which gives you three values (one
> >for color tone, one for saturation, and one for brightness) for each
> >point of space (x,y,z) in front of you. Spherical coordinates might be best.
> If you do that, you would have a mathematical function for a colour
> field, not a description of consciousness.
This color field is to represent the color field of visual
consciousness within our theory. Just like a mathematical function of
energy is to represent energy in physics.
L.A.
Date: 30 Jun. 2008, 12:20
On 27 Jun., 19:21, M. A. wrote:
> >> [[O. N.:]] Another barrier is that we cannot write equations unless we can quantify
and > >> measure the system under study.
> > [[L.A.:]] In physics, not everything must be measurable. Theoretical concepts
> >(for instance, quarks) cannot be measured but can have observable
> >consequences. We cannot measure the structure of spacetime of the
> >universe far away from us, but we have the mathematics to describe the
> >spacetime structure of the whole universe. If the equations of general
> >relativity theory describe a specific structure we can indirectly test
> >it. In the same way, consciousness equations could, in future, tell us
> >how visual consciousness should look like when the physiology is in a
> >specific state. We could then manipulate a patient`s brain in such a
> >way and could ask the patient what he sees.
> There is the major factor of subjectivity (I think this was mentioned
> before). You lose an objective measure when you ask an individual what
> he sees. His expression of what he sees is strongly influenced by his
> language, his culture and his physical well-being.
The asking is just a test of the color function which is to represent
visual consciousness. You are right that verbal reports as indications
of consciousness properties are tricky. Therefore in neuroscience and
psychophysics, other indications are discussed which are more
complicated to be described here.
259
L.A.
Date: 30 Jun. 2008, 15:25
On 30 Jun., 12:42, O. N. wrote:
> >> > [[L.A.:]] If you want to describe the color field of visual consciousness
> >> >mathematically you use a function which gives you three values (one
> >> >for color tone, one for saturation, and one for brightness) for each
> >> >point of space (x,y,z) in front of you. Spherical coordinates might be best.
> >> [[O. N.:]] If you do that, you would have a mathematical function for a colour
> >> field, not a description of consciousness.
> > [[L.A.:]] This color field is to represent the color field of visual
> >consciousness within our theory. Just like a mathematical function of
> >energy is to represent energy in physics.
> I think we are at cross purposes. We can describe a colour field, and
> physical properties of sensors. We may also be able to describe the
> electrochemical processes involved. We could do precisely the same for
> an automaton. What we cannot do is describe how we can actually be aware
> of such things. We certainly don't think that an automaton can be aware.
This is the same thing with all theories: a representation of an
entity (material bodies or other things) is not identical with the
thing represented. But we can use a representation7 as a mean to describe
it, and then we can experimentally test whether this
description is correct. The metrical description of spacetime of
general relativity theory is also not identical with the spacetime of
our universe.
L.A.
Date: 4 Jul. 2008, 12:06
On 30 Jun., 16:00, O. N. wrote:
7 The color field is to be the representation (the description) of color awareness within the theory, and an
automaton does not have a conscious color field. I do not speak of physical colors (electromagnetic
waves) but of qualia of consciousness. (I believe that I had written something more in my original post
(about cellular automata?) and that it had been deleted afterwards. O.N.'s post cries for a direct
response to his remark on automata: An automaton can do unconscious information processing but
has no visual consciousness.)
260
[[>> [[O. N.:]] What we cannot do is describe how we can actually be aware
>> of such things. We certainly don't think that an automaton can be aware.
> [[L.A.:]] This is the same thing with all theories: a representation of an
>entity (material bodies or other things) is not identical with the
>thing represented. But we can use a representation as a mean to
>describe it, and then we can experimentally test whether this
>description is correct. The metrical description of spacetime of
>general relativity theory is also not identical with the spacetime of
>our universe.]]
> This is not what I mean. You are describing something we can be
> conscious of. I see little point in that, because the most accurate
> description of it is the experience itself. I am not talking about
> something we can be conscious of, but about consciousness itself.
> You are describing something we can be conscious of.
You do not understand me. The color field is not a representation of
real objects but a descriptive representation of visual consciousness
itself (which in turn is to be a representation of real objects).
But, of course, visual consciousness is only a part of the whole
phenomenon consciousness, and you can describe visual consciousness
just as you can describe the temperature of a material body though
ignoring its geometric form, physical color etc.
> I am talking about ... consciousness itself.
You cannot describe "space itself" but only properties, only the
structure of space. Similarly, you must describe properties of
consciousness. You should at first study scientific psychology instead
of reading esoteric books like those of Gurdjeff.
L.A.
[[O. N., being the moderator of this group, added at the end of my posting:]]
======================================= MODERATOR'S COMMENT:
I would like to remind that this is a physics group8
8 O. N. reminded me that this was a physics group although it was O. N. who had mentioned the
esoteric writings of Gurdjeff who was no scientist at all. Moreover, psychology of perception is a part
of psychophysics. I had the feeling that O. N. abused his role as a group moderator (by repeatedly
mentioning his functional status), and therefore I finished the discussion.
261
Date: 11 Jul. 2008, 22:37
Hi!
For those who are interested in this research paradigm - a good scientific book about
consciousness is:
B. Baars (1988): A cognitive theory of consciousness.
This psychological book is very often mentioned in neuroscience. It is
easy to read and gives a lot of useful background information also to
psychophysicists and psycho-biophysicists.
Bye, Lothar Arendes!
262
Diskussionen über Leben
Auszüge aus meinem Buch „10 Jahre InternetDiskussionen“
263
Vorwort
Von Mitte Juli 2000 bis Ende Mai 2010 habe ich an zahlreichen Internetdiskussionen
teilgenommen. Vor ein paar Monaten habe ich alle meine Mitteilungen an meine Mailbox
weitergeleitet und die überwiegende Mehrheit dieser Mitteilungen in einem Buch zeitlich
geordnet zusammengestellt, aus dem ich hier meine Diskussionen über Leben zusammenfasse.
In meinen Mitteilungen zitiere ich meistens aus Beiträgen anderer Teilnehmer, was in der
Regel durch das voranstehende Zeichen > angedeutet wird; Zitierungen von Zitaten sind
durch >> gekennzeichnet u.s.w. Da die von mir zitierten Diskussionsteilnehmer ihre
eigenen Beiträge kannten, hatte ich in meiner Antwort ihren Text oft nur sehr spärlich
zitiert, so dass die Leser der vorliegenden Schrift aus diesen Zitaten allein oft nicht
genügend erkennen können, worum es sich handelt. Deshalb habe ich hier in meine
Originalmitteilungen oftmals Zusätze eingefügt, in denen ich weiteren Text aus den
Beiträgen der anderen Teilnehmer anführe. Diese Zusätze zu meinen
Originalmitteilungen habe ich in doppelten eckigen Klammern, [[ ... ]], angebracht.
Weitere Anmerkungen zu meinen ursprünglichen Mitteilungen – z.B. meine heutige
Meinung zu meinen früheren Texten oder weitere Erläuterungen – habe ich in Fußnoten
angeführt.
Da es beim schnellen Eintippen von Text – beispielsweise wenn man im Internet-Café
unter Zeit- (bzw. Geld-) Druck steht – manchmal zu Tippfehlern kommen kann, habe ich
hier hin und wieder aufgetretene Rechtschreibfehler korrigiert, und da die
Rechtschreibung mancher anderer Autoren oftmals sehr dürftig war und ich dieses
meinen Lesern nicht zumuten will, habe ich auch bei ihnen „Tippfehler“ korrigiert; aber
natürlich jeweils ohne den Textsinn zu verändern. Auch wegen dieser Änderung fremden
Textes habe ich alle Diskussionsteilnehmer anonymisiert, indem ich nur die Initialen
ihres Namens (oder Pseudonyms) angegeben habe. Wer die Originaltexte und Namen
lesen will, den verweise ich auf die für jedes Diskussionsthema angeführte URL-Adresse
der vollständigen Internetdiskussion. Bei sehr interessanten Diskussionen kann ohnehin
empfohlen werden, sich alle Beiträge aus dem Internet herunterzuladen.
Bei Zitierungen von Zitaten aus meinen eigenen früheren Beiträgen habe ich meine
Initialen vorangestellt: [[L.A.:]]. Analog bin ich manchmal bei Zitaten anderer Autoren
vorgegangen. Entfernt habe ich aus meinen Originalmitteilungen die eMail-Adressen
aller Autoren und sehr oft die am Ende meiner Mitteilungen aufgeführten Links zu
meiner Homepage oder zu meinen Blogs. Zu Beginn jeder Mitteilung habe ich das
Datum der Veröffentlichung angegeben, zu Beginn jedes Diskussionsthemas den Namen
der Diskussion und den Namen der Newsgroup. Zumeist habe ich selbst die Diskussion
begonnen; hatte ich mich hingegen in eine laufende Diskussion anderer Teilnehmer
eingeschaltet, so beginnt bei dieser Diskussionsrunde meine erste Mitteilung in der Regel
mit dem Zitat eines anderen Teilnehmers.
Abschließend ist noch zu erwähnen, dass ich alle Links zu meiner Homepage und zu
meinen Dateien durch die derzeit aktuellen URL-Adressen ersetzt habe.
264
Thema: Quelle des Lebens (21 Mitteilungen)
http://groups.google.de/group/de.sci.philosophie/browse_thread/thread/480b7f89c94e24a
c/ecc6268d540a8e67?hl=de&q=
Gruppe: de.sci.philosophie
Datum: 21. Aug. 2003, 12:55
Hallo,
was sind die wesentlichen Eigenschaften des Lebens? Als Kennzeichen des
Lebens werden in biologischen Lehrbüchern in der Regel Eigenschaften
angeführt, die allen Organismen gemeinsam sind, z.B. Metabolismus,
Selbstreproduktion und Mutabilität. Die Aufzählung gemeinsamer Merkmale
ist jedoch noch keine testbare wissenschaftliche Theorie. Dass es über
das Wesen des Lebendigen keine allgemein akzeptierte Theorie gibt, wird
schon daraus deutlich, dass Wissenschaftler unterschiedlicher Herkunft
verschiedene Schwerpunkte setzen. So behandelt der Biochemiker Manfred
Eigen unter dem Stichwort "Entstehung des Lebens" hauptsächlich die
Entstehung der Selbstreproduktion durch die genetische Information,
während der theoretische Physiker Freeman Dyson bei derselben
Fragestellung primär bei den Proteinen ansetzt, die Selbstreproduktion
mittels der Gene erst in einem zweiten Schritt einbezieht und die
wichtigste Eigenschaft des Lebens in der Homöostasis sieht. Unter
Homöostasis versteht er "die Maschinerie der chemischen Kontrollen und
Rückkopplungsschleifen, die sicherstellen, dass jede molekulare Sorte in
einer Zelle in den richtigen Proportionen hergestellt wird, nicht zuviel
und nicht zuwenig." Ein anderer theoretischer Physiker, Erwin
Schrödinger, betrachtete vor allem die negative Entropie und das
"»Aufsaugen« von Ordnung aus seiner Umwelt" als Kennzeichen des Lebens.
Der Genetiker Monod hingegen nahm die Teleonomie in die Definition von
Lebewesen auf, der Mediziner und theoretische Biophysiker Chauvet
charakterisiert Leben durch Funktionalität, hierarchische
Organisationsform und nicht-lokale Felder, und auch der
Evolutionsbiologe Mayr betrachtet das Auftreten zielgerichteter Abläufe
als das charakteristischste Merkmal von Leben.
In meinem Aufsatz “Naturphilosophische Leitideen für die
biophysikalische Forschung” (http://LotharArendes.de/Biophysik.pdf)
schlage ich vor, dass es bislang noch unbekannte physikalische Felder gibt, die nur
in Organismen existieren, und dass diese Felder die biologischen
Prozesse zielgerichtet steuern. Ich vermute, dass das biologische
Zielverhalten zustande kommt durch das Attraktorverhalten von
nichtlinearen Differentialgleichungen, wobei die physikalischen
265
Parameter jeweils entsprechend dem gewünschten Zielverhalten eingestellt
werden können, was eine völlig neue Art von Naturgesetz sein würde.
Was haltet ihr davon bzw. welche alternativen Ideen habt ihr?
Lothar
Datum: 21. Aug. 2003, 18:43
H. G. schrieb:
> Vor allem ist mir der Sinn dieser Diskussion nicht klar, was bringt es, welche
Erkenntnis > ist damit verbunden, etwa den Tabakmosaikvirus als Lebewesen zu
bezeichnen oder
> das Leben erst von mir aus mit E. coli beginnen zu lassen? Ist das
> intellektuelle Arbeitsplatzsicherung?
Etwas Analoges hättest Du auch schon Newton vorhalten können - und doch
entwickelte sich aus seiner Theorie eine ungeheure Technik, die ganz Europa
veränderte. Nichts ist so praktisch wie eine gute Theorie!!! Eine Theorie des
Lebens wird man vielleicht in der Medizin anwenden können. Darüber hinaus ist
Erkenntnis für kultivierte Menschen auch ein hoher Selbstwert. Auf dieser Basis
dürfte sogar die Philosophie entstanden sein, und wenn Du das nicht magst, bist
Du in der Newsgroup Philosophie vielleicht nicht ganz am rechten Ort.
MfG, Lothar
Datum: 22. Aug. 2003, 09:34
H. G. schrieb:
> Ich bestreite, dass es jemals eine Theorie des Lebens, was das denn auch
> immer sei, geben wird. "Leben" ist ein vom Menschen erfundener und mit
> verschiedenen Inhalten gefüllter Begriff und einer objektiven Beschreibung
> nicht zugänglich, weil "die Natur" oder "die Evolution" diese Begriffe gar
> nicht kennen.
Wenn Du meinst, dass es bei biologischen Prozessen keine naturgesetzlichen
Unterschiede zu den heute bekannten physikalischen Gesetzen gibt, dann zeige mir
doch, wie man mit Quantenmechanik, Thermodynamik etc. z.B. Genexpression und
Hirndynamik erklären kann. Sollte es doch Unterschiede geben, dann gibt es ja
vielleicht doch etwas in der Natur, das man als Leben bezeichnen könnte. Vor
Einsteins Formulierung der Allgemeinen Relativitätstheorie gab es auch
266
"Philosophen", die die Raumzeit für nichts Reales und für pure Erfindung des
menschlichen Geistes hielten. (Die gibt es auch heute noch, aber sind heute eher
in der Defensive.) Ob es "Leben" gibt, kann man nur zeigen, indem man eine
Theorie entwickelt und diese dann experimentell testet. Lothar
Datum: 23. Aug. 2003, 11:13
Hallo T.:
>Ein spezielles Feld, das nur in Lebewesen existieren soll zu
>postulieren, halte ich für sehr problematisch. Diese Theorie ist
>unvereinbar mit der heutigen Evolutionsthorie, nach der die Grenze
>zwischen lebendiger und unbelebter Materie fließend ist.
Zunächst einmal ist die heutige Evolutionstheorie selbst problematisch.
Mikroevolution mag nach den heute bekannten Faktoren ablaufen, die Entstehung
der Arten, Makroevolution, meiner Meinung nach eher nicht. Zumindest ist der
empirische Bestätigungsgrad der heutigen Theorie wie schon zu Darwins Zeiten
eher dürftig: Stichwort “missing links”. (Das ist aber ein eigenes
Diskussionsthema, was ich hier nicht weiter ausführen möchte.) Aber selbst
wenn man die heutige Theorie akzeptiert, sehe ich nicht ein, wieso diese
Theorie organismusspezifische Felder verbieten sollte. Um behaupten zu können,
dass die Grenze zwischen lebender und unbelebter Materie fließend sei, müßte
man bereits wissen, was “Leben” ist, was heute nicht der Fall ist. Erst eine
Theorie des Lebens könnte angeben, wann eine Materieansammlung lebendig ist
und wann nicht.
>Lebendes könnte demnach nicht aus unbelebtem entstehen,
Aber genau das versucht ja Manfred Eigens molekulare Evolutionstheorie zu
erklären; nach deiner Meinung müßte also Eigens Theorie schon im Ansatz völlig
daneben liegen. Wie immer man auch zu Eigens Theorie stehen mag: Direkt nach
dem Urknall gab es noch keine Organismen, und irgendwann ist aus diesem
Material Leben entstanden! Hier versagt die heutige Evolutionstheorie
natürlich völlig, und diesen Vorgang wollten de Lamarck und Darwin auch noch
gar nicht erklären.
>denn wie sollte eine lediglich um wenige Moleküle reichere Organisationsebene
>ein "unbekanntes physikalisches Feld" generieren?
Das zu erklären ist genau die interessante wissenschaftliche Herausforderung.
Wie ist Emergenz möglich? (Dass es grundsätzlich Emergenz gibt, zeigt dein
Bewußtsein: Wenn du aus dem Schlaf erwachst, entsteht dein Bewußtsein – wie
ist das möglich?) Aber aus so wenig Teilchen, wie du behauptest, bestehen
267
selbst Bakterien nicht! Frage doch mal einen Physiker, wieviel Teilchen
vorhanden sein müssen, damit ein thermodynamisches Feld entsteht (Temperatur,
Enthalpie etc.) Übrigens behandelt auch die Synergetik die Entstehung von
neuen Feldern mit Steuerfunktion (Felder von Ordnungsparametern) z.B. im
Laser. Und der Mediziner und theoretische Biophysiker Chauvet vermutet ebenfalls
neuartige Felder in Organismen.
> und dass diese Felder die biologischen Prozesse zielgerichtet steuern. Mit welchem
Ziel?
Die einzelnen Organe (Nieren, Magen etc.) haben bestimmte Funktionen, und
genau das wird von vielen Biologen schon seit Jahrhunderten und auch heute
noch als zweckgerichtete bzw. zielgerichtete Prozesse gedeutet. Wie erfüllen
die Organe ihre Funktionen??? Wie kommt es, dass du als biologischer
Organismus Ziele verfolgst – weise nach, dass dies nur Schein ist?!
> Ein biologischer Prozess ist niemals zielgerichtet, er ergibt sich aus der
>Summe seiner biochemischen Reaktionen.
Da postulierst du, was ja gerade die wissenschaftliche Streitfrage ist.
Biochemische Reaktionen sind es sicherlich; aber es ist mehr als fraglich,
dass diese mit den heutigen physikalischen Theorien (Quantenmechanik,
Thermodynamik etc.) erklärt werden können. Und von “Summe” bei nichtlinearen
Prozessen zu sprechen (wie sie zu sein scheinen) ist mehr als problematisch.
>Welches Zielverhalten? Kein Organismus hat meines Erachtens ein Zielverhalten,
Meines Erachtens eben doch. Ob ich Recht habe (und andere wie z.B. der
Mitbegründer der heutigen synthetischen Evolutionstheorie Mayr), wird sich
natürlich erst durch eine experimentell getestete Theorie aufzeigen lassen.
Aber falls wir Recht haben sollten, werden wir eine solche Theorie nur
bekommen, indem wir eine solche Theorie auch wirklich suchen. Diese Bemühung
wirst du als Zeitvergeudung betrachten, aber wenn wir Recht haben sollten,
könnte diese Theorie z.B. in der Medizin sehr vielen Menschen großen Nutzen bringen.
>> [[L.A.:]] zustande kommt durch das Attraktorverhalten von nichtlinearen
>>Differentialgleichungen,
>Gleichungen sollen sich gegenseitig anziehen?
Vielleicht bevorzugst du ein anderes Sprachspiel: Attraktorverhalten von
Systemen, die nichtlinearen Differentialgleichungen gehorchen. Was genau
gemeint ist, kannst du in meinem Aufsatz nachlesen. (Kann es sein, dass du
dich absichtlich dumm stellst und auch alle deine anderen Bemerkungen nur
Nebelwerferei sind, um einen liebgewordenen Glauben beibehalten zu können?)
268
>>[[L.A.:]] wobei die physikalischen Parameter jeweils entsprechend dem gewünschten
>>Zielverhalten eingestellt werden können, was eine völlig neue Art von Naturgesetz
sein >>würde.
>Wer stellt die Parameter ein?
Muss es ein “wer” sein? “Was” stellt die Parameter ein? Die Natur!9 Deine Frage
ist aber trotzdem interessant – in ihrer allgemeinsten Form lautet sie: Wie
wirken Naturgesetze? Warum verhalten sich Objekte naturgesetzlich? Diese
Fragen kann man aber auch schon hinsichtlich der heute bekannten
mechanistischen Naturgesetze stellen – und nicht beantworten – oder doch? (-: .
>Durch die bestehenden, bekannten Naturgesetze ergibt sich Leben als
>eine zwangsläufige Erscheinung, sobald einige physikalische und chemische
>Parameter erfüllt sind.
Das ist eine mutige Behauptung! Kannst du das auch nachweisen? Dazu musst du
erst einmal definieren, was “Leben” ist, und wie schon erwähnt, gibt es noch
keine allgemein akzeptierte wissenschaftliche Definition (bzw. getestete
Theorie) von Leben. Eigens Theorie erklärt nur die Entstehung der genetischen
Information – dass oder ob dies schon Leben ist, ist nur ein (umstrittener)
interpretatorischer Zusatz seiner Theorie, der ohne Verlust der
experimentellen Ergebnisse fallengelassen werden kann.
Mit freundlichen Grüßen, Lothar
Datum: 23. Aug. 2003, 13:01
Hallo:
Wer meine Frage beantworten will, muss sich natürlich Gedanken darüber
machen, was die heutige Wissenschaft über Leben aussagt und ob die
heutige Physik bereits eine ausreichende Antwort geben kann. Die heutige
Physik würde ich aber nicht mehr in allen ihren Teilen als
reduktionistisch bezeichnen; nicht die Synergetik und, so wie ich die
Thermodynamik verstehe, auch nicht die Thermodynamik (Enthalpie,
Entropie, Temperatur etc.). Meiner Meinung nach definieren manche
Philosophen den Begriff “Reduktion” heutzutage zu weit, so dass darunter
jetzt auch Standpunkte fallen, die ich eher als Gegenposition verstehe.
Definitionsstreitereien interessieren mich aber nicht besonders, so dass
9 Zur Frage, wer oder was die Parameter einstellt, siehe auch das Diskussionsthema „Entelechie“. Im
Computer-Weltbild ist es ein Prozessor.
269
ich darauf nicht weiter eingehen werde. Was mein Thema betrifft, ist die
folgende Frage interessant: Kann die heutige Physik Leben erklären?
Hierauf gehe ich in meinem Aufsatz kurz ein:
(http://LotharArendes.de/biophysik.pdf)
Mit freundlichen Grüßen, Lothar
Datum: 23. Aug. 2003, 13:10
> > [[L.A.:]] Zunächst einmal ist die heutige Evolutionstheorie selbst problematisch.
Ein interessanter Aufsatz zu diesem Thema ist: “Die Unvollständigkeit der
Evolutionstheorie”, von Gerhard Vollmer, in: B. Kanitscheider (1984): “Moderne
Naturphilosophie”, S. 285-316.
Datum: 23. Aug. 2003, 16:28
H. G. schrieb:
> Lothar Arendes schrieb im Newsbeitrag
>http://groups.google.com/[email protected]...
> > > > [[L.A.:]] Zunächst einmal ist die heutige Evolutionstheorie selbst problematisch.
> > [[L.A.:]] Ein interessanter Aufsatz zu diesem Thema ist: "Die Unvollständigkeit der
> > Evolutionstheorie", von Gerhard Vollmer, in: B. Kanitscheider (1984): "Moderne
> > Naturphilosophie", S. 285-316.
> Hallo Lothar,
> einen Artikel, auch wenn er von Vollmer ist, zu zitieren, ist keine
> Kompetenz, eine Aussage zu treffen. Du hast die Evolutionstheorie in Frage
> gestellt, (um darauf wieder weitere Behauptungen aufzustellen). Ich würde in
> einer NG, die ja ein Diskussionsforum ist, erwarten, dass du deine
> Behauptungen auch begründest. Für mich ist dieses Infragestellen einer
> Theorie natürlich legitim, genauso legitim, wie ich erkläre, die Erde sei
> eine Scheibe und die Sonne umkreist diese Scheibe in einer perfekten Kurve.
> Grüße
Begründet habe ich meine Behauptung bereits in einem vorigen Posting: In der
Wissenschaft zählen nicht Autoritäten, sondern empirische Fakten: und da sind
die von mir [[am 23. August]] erwähnten Missing Links relevant.
Mehr darüber im von mir zitierten Aufsatz.
270
[[In einem anderen Posting vom 23. August schrieb H. G.:
>Doch noch etwas: es war ein Gott, der hat bestimmen "Organismen" Leben,
>Seele eingehaucht. Genügt das jetzt?“
]]
Außerdem hast du mit Wissenschaft wenig zu tuen, wenn du Gott ins Spiel bringst. Deine
Einstellung zum Thema scheint emotional verblendet zu sein. Lothar
Datum: 24. Aug. 2003, 19:25
> Überlasse das Reaktionsverhalten lieber vorerst der Chemie und diese erklärt wirklich
gut.
Bei meiner Frage, ob die Wissenschaft heute schon Leben oder z.B. die
Magenaktivitäten erklären kann, geht es nicht primär um die beteiligten Substanzen
(das ist aber natürlich die Vorbedingung), sondern ob wir die Dynamik der Prozesse,
ihren zeitlichen Ablauf und die dabei wirkenden Kräfte oder Prinzipien, erklären
können. Chemische Forschungsergebnisse bieten hier höchstens kinetische
Erkenntnisse. Zur Erklärung der Dynamik wird hauptsächlich die Thermodynamik
benutzt (welche noch nicht einmal eine richtige Dynamiktheorie ist), die aber
nichtlineare irreversible Prozesse noch nicht befriedigend erklären kann. Chemiker
sind also mitnichten in der Lage, Vorgänge in Nieren, Magen etc. befriedigend zu
erklären.
Datum: 24. Aug. 2003, 20:01
> es freut mich aber, dass du die Diskussion "Gott" als unwissenschaftlich
>einstufst, wenigstens was.
Du scheinst bislang geglaubt zu haben, dass die einzige Alternative zur
heutigen Evolutionstheorie Gott sei (den Verdacht habe ich bei vielen Gläubigen
der neodarwinistischen Evolutionstheorie) --- aber eine wissenschaftliche
Alternative zu einer wissenschaftlichen Theorie ist nur eine andere
wissenschaftliche Theorie. (Traurig, dass man so etwas extra über den Äther
schicken muss.) Übrigens gab es vor Darwin bereits de Lamarck, der schon
unbekannte Kräfte in Lebewesen vermutete und diese auch an der Evolution
beteiligt glaubte. Von de Lamarck stammen viele Erkenntnisse, die man heute
fälschlicherweise Darwin zuschreibt; z.B. dass die Affen unsere Vorfahren
waren.
271
Datum: 24. Aug. 2003, 20:04
O. R. schrieb:
> Im Grunde ist es doch nur die Wiederauferstehung der als Gespenst umgehenden "vis
>vitalis".
Tatsächlich ist der Begriff der Lebenskraft ein sehr altes Konzept, aber
aufgrund des heutigen wissenschaftlichen Instrumentariums (z.B. die
Synergetik) läßt sich heute daraus vielleicht eine experimentell
testbare Theorie formulieren. Ich selbst mag aber den Begriff Kraft
nicht, weil er zu anthropozentrisch klingt, und spreche deshalb lieber
von Feldern, Potentialen o.ä. (Aristoteles führte zur Erklärung von Leben
die Entelechie ein.)
Datum: 24. Aug. 2003, 20:34
Mir geht es bei der derzeitigen Diskussion zwar nur um das Thema Leben, aber da
es bei der Kritik an der Evolutionstheorie immer wieder zu Missverständnissen
kommt, will ich hierzu doch noch etwas sagen:
Die Evolutionstheorie besteht aus zwei Teilen. Der erste Teil behauptet, dass
es eine Evolution gegeben hat, dass die Arten auseinander entstanden sind. Der
zweite Teil versucht die Faktoren anzugeben, die hierbei wirksam waren. Die
erste wissenschaftliche Evolutionstheorie stammt von de Lamarck (welcher bei
Teil 1 schon Vorläufer hatte, und die Idee der Evolution scheint vor allem aus
der deutschen Philosophie der Romantik zu kommen; soviel ich darüber weiß). Nur
de Lamarcks Hypothesen aus Teil 2 wurden von Darwin durch andere Faktoren
ersetzt. (Die heutige Theorie stammt also von de Lamarck und von Darwin;
jeweils für Teil 1 und Teil 2). Religiöse Fanatiker stören sich bereits an Teil 1
der Theorie. Wenn Wissenschaftler die Theorie kritisieren, meinen sie Teil 2;
d.h. sie glauben nicht, dass wir schon die richtigen Faktoren der Evolution kennen.
Lothar Arendes
Datum: 25. Aug. 2003, 09:22
> Wenn ich von chem. Reaktionsverhalten/Reaktionen spreche, ist damit
> eine DYNAMIK, ein ZEITLICHER Ablauf und die dabei wirkenden KRÄFTE und
> PRINZIPIEN gemeint! Und die lassen sich ganz gut erklären.
Wann hast du denn dafür den Nobelpreis bekommen? In den letzten Jahren muss ich
etwas verschlafen haben.
272
Datum: 25. Aug. 2003, 11:28
Hallo F.:
Kannst du mir für alle deine zitierten Bücher oder Aufsätze [[im Posting vom 25. August
von h. bzw. K.F.]] die genauen Literaturhinweise geben (Titel, Erscheinungsort etc.);
möglichst auch mit der Seitenangabe des Zitates?
> Wie schon durch andere bemerkt, führt das Adjektiv "naturphilosophisch" im Titel zu
>Irritationen.
Im Titel des Aufsatzes steht das “Naturphilosophische”, weil ich diese Ideen 1996
ausgearbeitet habe in einem naturphilosophischen Buch (“Das Computer-Weltbild”). Das
Buch hatte ich im Jahr 2000 schon einmal im Internet veröffentlicht und dann in einer
Newsgroup diskutiert; ich hoffe, doch einmal einen Verlag zu finden.
> Nach den beiden führenden Kognitionswissenschaftlern George Lakoff und
> Mark Johnson [Philosophy in the Flesh, 1999] wurde grundsätzlich
> entdeckt, dass unser Denken größtenteils unbewusst ist, weil es auf
> einer Ebene operiert, die der gewöhnlichen bewussten Wahrnehmung unzugänglich ist.
Das ist aber ein sehr alter Hut! Versuchen da wieder ein paar Amerikaner, sich
nachträglich die Priorität zu ergaunern – so wie man es bei der Kybernetik versucht, die
hauptsächlich von Norbert Wiener stammt?10 Reicht es denn nicht, dass Engländer und
Amerikaner an deutschen Forschungsstätten stehlen wie die Raben?: Kaum hat ein
deutscher Wissenschaftler eine besonders gute neue Idee formuliert, gibt der in der
Abteilung oder am Institut arbeitende Engländer die Idee ans Ausland weiter, und diese
Publikation erscheint spätestens zeitgleich mit der des Deutschen. (Dieses Verhalten ist
unter Wissenschaftspolitikern so hinlänglich bekannt, dass ich dafür keine Beispiele
anführen muss.) Außerdem mag ich den Ausdruck “führende Wissenschaftler” nicht (in
Amerika üblich), weil das zu sehr nach Bevormundung (der anderen Wissenschaftler z.B.
über die Vergabe der Forschungsgelder) und nach Argumentationsersatz aussieht.
MfG, Lothar Arendes
Datum: 26. Aug. 2003, 09:34
[[Am 26. August schrieb F. K. u.a.:
Fritjof Capra, Hidden Connections, New York, 2002 [Verborgene
10 Norbert Wiener war selbst Amerikaner.
273
Zusammenhänge, Scherz Verlag, S. 29 ff]
Fritjof Capra, The Web of Life, New York, 1996
Ian Stewart, Life's Other Secret, New York, 1998
]]
Hallo F.:
Danke. Kannst du auch noch die Literaturangabe für Brian Goodwin (1994)
geben?
Lothar
Datum: 27. Aug. 2003, 11:28
Hallo C. T.:
Danke für deinen interessanten Beitrag [[vom 26. August]]. Zu deinem Beitrag nur ein
paar Kleinigkeiten:
>Die Thermodynamik ist irreversibel.
Ja, aber eine befriedigende nichtlineare irreversible TD haben wir noch nicht.
Die herkömmliche TD, die der Physikstudent in seiner ersten TD-Vorlesung
präsentiert bekommt, ist eine reversible Theorie (und eine Vielteilchentheorie)
und noch gar keine wirkliche Dynamik, da diese Theorie nur Gleichgewichtszustände
betrachtet.
>Die Physik behandelt den informationellen Charakter nicht.
Heute noch nicht, aber vielleicht einmal in der Zukunft? “Information” könnte
einmal zu einem physikalischen Begriff werden so wie Energie und Masse.
>In der Physik liefert das energieliefernde Feld auch gleich die
>Bewegungsrichtung des Systems mit.
Das hast du schön ausgedrückt. Ich denke, das kommt daher, dass die Physik mit
Vektoren arbeitet und Vektoren bestehen aus Betrag und Richtung. In der
Vergangenheit habe ich mich schon manchmal gefragt, ob es einmal eine Theorie
geben könnte, in der beide Anteile getrennt sind (man müsste ohne Vektoren
auskommen). Eine Theorie, die nur die Bewegungsrichtung behandelt, wäre man
damit auf dem Weg zu einer informationellen Physik? Wenn ich diese Stelle in
deinem Posting richtig verstanden habe, deutetest du an, dass Information sich
auf Bewegungsrichtung bezieht. Das wäre ein interessanter Gedanke. (Shannons
274
Information ist natürlich etwas Anderes, aber damit sind ja viele unzufrieden.)
Datum: 27. Aug. 2003, 11:28
Hallo!
>Be-Deutung kann nur gewinnen, was ich be-greifen kann.
Mit dem “nur” wäre ich vorsichtiger. Die kognitive Entwicklung kleiner Kinder
verläuft natürlich so, dass sie Begriffe erwerben (intern Bedeutungen aufbauen), indem
sie handelnd mit der Umwelt umgehen – d.h. die Objekte der Umwelt be-greifen.
Aber später sind wir auch ohne Handlungen zum Bedeutungserlebnis in der Lage.
Wenn der Physiker sagt: “Vor 5 Milliarden Jahren gab es den Urknall”, dann
verstehe ich die Bedeutung des Satzes, ohne dass ich den Urknall anfassen kann.
Aber du hast insofern Recht, dass man bei der Erforschung von “Bedeutung” mit
den einfacheren und ursprünglicheren Dingen beginnen sollte. Ob oder inwieweit
kompliziertere Bedeutungserlebnisse (wie das aus meinem Urknall-Beispiel)
letzten Endes doch irgendwie indirekt mit der Motorik zusammenhängen, muss
die zukünftige Forschung zeigen.
Lothar
Datum: 27. Aug. 2003, 11:31
Hallo!
[[ T. B. schrieb am 26. August u.a.:
> > Wenn ich von chem. Reaktionsverhalten/Reaktionen spreche, ist damit
> > eine DYNAMIK, ein ZEITLICHER Ablauf und die dabei wirkenden KRÄFTE und
> > PRINZIPIEN gemeint! Und die lassen sich ganz gut erklären.
> [[L.A.:]] Wann hast du denn dafür den Nobelpreis bekommen? In den letzten Jahren
muss
>ich etwas verschlafen haben.
]]
>Nehmen wir als Beispiel die Photosynthese:
>Man weiß, welcher Molekülkomplex wo lokalisiert für wie lange über
>welche Bindungsart die Umsetzung eines Moleküls katalysiert, wieviele
>Elektronen an welche Moleküle weitergibt und das Produkt über welche
>räumlichen Wege zu welchem weiteren Reaktionsschritt gelangt.
275
>Das würde ich schon als Dynamik und zeitlichen Ablauf der
>Photosynthese mit seinen Prinzipien und Kräften werten.
In der Physik verlangt man mehr. Ich will die Situation mal mit der Physik
vor Newton vergleichen: Ein Apfel löst sich vom Zweig und fällt zu Boden.
Angenommen, man konnte damals schon genaue Messungen durchführen,
dann wußte man, nach welcher Zeit der Apfel wo ist und wann er den Boden
erreicht. Man hatte also vergleichsweise dein Wissen über Photosynthese
– aber man wußte noch nicht, dass hier die Gravitationskraft am Werke ist.
Die Beschreibung des bloßen Bewegungsverlaufes bezeichnet man als Kinetik,
die Erklärung mittels Kräfte, warum der Bewegungsverlauf so ist, ist eine
dynamische Erklärung. Bei Mehrteilchensystemen muss man auf die Thermodynamik
zurückgreifen (also statistisch arbeiten, weil man nicht jede einzelne
Teilchenbewegung quantenmechanisch erklären kann), eine fertige nichtlineare
irreversible Thermodynamik (und nichtlinear und irreversibel sind wohl biologische
Prozesse) gibt es aber noch nicht. Die TD erklärt bzw. will erklären
Bewegungsabläufe mittels Kräften, die sich aus Enthalpie, Entropie etc.
ergeben. Haken glaubt, seine Synergetik sei besser.
Lothar
Datum: 28. Aug. 2003, 19:28
Hallo C.:
[[ C. T. zitierte am 27. August u.a.:
>>Die Physik behandelt den informationellen Charakter nicht.
>[[L.A.:]] Heute noch nicht, aber vielleicht einmal in der Zukunft? “Information”
> könnte einmal zu einem physikalischen Begriff werden so wie Energie und Masse.
]]
> Dann isses nich mehr die Physik, sondern ihre Erweiterung,
Das wäre noch Physik - aber eine andere als heute, so wie die Physik vor 100
Jahren anders war als die heutige.
Lothar
276
Datum: 28. Aug. 2003, 19:28
Hallo!
Ich bevorzuge eine Art von Evolutionstheorie, wie sie Chauvet in seinem
Buch “La vie dans la matière” anstrebt. (Meine Übersetzung des Titels:
Das Leben in der Materie). Selbst wenn seine Theorie im Detail falsch
sein sollte (mit Extremalprinzipien und einer “Orgatropie” als Alternative
zur Entropie), ist seine Vorgehensweise doch vorbildlich.
Sehr interessant ist darin auch seine Theorie des Lebens. (Näheres dazu
steht in meinem Aufsatz.) Im Gegensatz zu mir arbeitet er nicht mit
Differentialgleichungen, sondern mit Extremalprinzipien, so dass wir uns
gegenseitig ergänzen; jeder greift auf eine der beiden Formalismusarten
zurück, die in der Physik üblich sind (aber da er im Gegensatz zu mir
theoretischer Physiker ist, ist seine Theorie natürlich weiter ausgearbeitet).
Ich habe kürzlich noch einmal einen Brief von Chauvet gelesen, den er mir
gesandt hatte. Wie ich schon vergessen hatte, schrieb er mir, sein französisches
Buch ins Englische übersetzen zu wollen. Wer also von euch französisch nicht
versteht, sollte ab und zu suchen, ob das Buch schon erschienen ist. Für jeden,
der sich wissenschaftlich für Leben interessiert, ist das Buch ein absolutes MUSS.
Lothar
Datum: 31. Aug. 2003, 17:07
Hallo!
Hinsichtlich Chauvets Theorie muss ich etwas korrigieren. Chauvet benutzt
leider sowohl bei der ontogenetischen Entwicklung als auch bei der
phylogenetischen Evolution den Ausdruck “evolution”. Deshalb habe
ich seine Theorie beim letzten Durchblättern des Buches etwas
missverstanden: Er meint nicht die phylogenetische Evolution, sondern die
ontogenetische Entwicklung. Aber trotzdem: Etwas Analoges zu seinem
Organisationspotential, was die Entwicklung vorantreibt, könnte es
auch bei der Evolution geben – ein evolutionäres Organisationspotential
(bzw. Orgatropie) o.ä.
Lothar
277
Datum: 3. Sep. 2003, 09:49
Ich melde mich aus der NG ab. Danke an alle für die interessanten Diskussionsbeiträge!
Thema: Leben nach dem Tod (24 Mitteilungen)
http://groups.google.de/group/de.sci.philosophie/browse_thread/thread/c076f29b9dd127a
2/1652eb24836131df?hl=de&
Gruppe: de.sci.philosophie
Datum: 25. Sep. 2006, 11:14
Hallo!
Wer hat Lust, über die Möglichkeit des Überlebens zu diskutieren?
Man kann dabei auf drei Ebenen diskutieren: der weltanschaulichen, der
wissenschaftlich-theoretischen Ebene und der empirischen.
Was die weltanschauliche Ebene betrifft: Die Religionen bejahen es, der
größte Teil der Wissenschaft verneint es. (Mein Computer-Weltbild
hält es für möglich: Die Welt als Multiprozessor-Computer, wobei die
unsterbliche Seele ein Prozessor wäre.)
Was die wissenschaftlich-theoretische Ebene betrifft: Es gibt in der
Wissenschaft weder eine experimentell bestätigte physiologische
Bewusstseinstheorie noch eine physikalische Theorie der biologischen
Dynamik bzw. eine physikalische Theorie des Lebens. Aus Gründen des
klassischen wissenschaftlichen Weltbildes halten die meisten
Wissenschaftler das Überleben für unmöglich, dieses Weltbild ist
aber schon seit langer Zeit nicht mehr haltbar. Aber auch diejenigen
Parapsychologen, welche an das Überleben glauben, haben noch keine
guten wissenschaftlich testbaren Theorien vorgelegt.
Da es weder eine allgemein akzeptierte Weltanschauung gibt, noch
wissenschaftlich getestete Theorien heute weiter helfen, bleibt für
die Diskussion hauptsächlich nur die empirische Ebene. Ich möchte nun
hier die provokante These aufstellen, dass die Empirie eher für das
Überleben spricht (nach meiner erkenntnistheoretischen Position hat
aber nur eine getestete Theorie das letzte Wort).
Es gibt folgende Bereiche der empirischen Forschung, die für das
Überleben angeführt werden:
1. Nahtod-Erlebnisse (von klinisch Toten u.ä.)
278
2. Sterbebett-Visionen im Allgemeinen (Erscheinungen des Abholens der
Sterbenden von toten Verwandten)
3. Reinkarnationsberichte (spontane Erinnerungen von Kindern an
frühere Leben und hypnotische Altersregressionen)
4. Medienkundgebungen in Seancen (Kommunikation mit Geistern)
5. Erscheinungen im Allgemeinen (Geister, Spuk etc.)
Mit freundlichen Grüßen, Lothar Arendes
Datum: 25. Sep. 2006, 11:17
Hallo!
Für diejenigen, die sich für die Überlebensfrage interessieren, die
aber die Literatur nicht kennen, ein paar Literaturhinweise:
1. Alan Gauld: Mediumship and Survival. 1982
2. C.D. Broad: Lectures on psychical research. 1962
3. Für diejenigen, die nicht so gut englisch verstehen, kann ich als
Einführung nur das umfangreiche (dreibändige) Werk von Emil Mattiesen
empfehlen: Das persönliche Überleben des Todes. 1936-1939 / 1987
Interessant sind auch:
4. Raymond Moody: Leben nach dem Tod. 1977 (Nahtoderlebnisse)
5. K. Osis, E. Haraldsson: Der Tod - ein neuer Anfang. 1978 (Sterbebett-Visionen)
6. Ian Stevenson: Reinkarnation. Der Mensch im Wandel von Tod und Wiedergeburt.
1976
7. Als allgemeine Einführung in die Parapsychologie (Telepathie, Präkognition etc.):
Hans Bender: Parapsychologie. 1980
MfG, Lothar Arendes
Datum: 25. Sep. 2006, 11:20
Hallo!
Am spannendsten sind natürlich die Medienkundgebungen in Seancen,
deshalb möchte ich hiermit die Diskussion beginnen: Hat jemand
persönliche Erfahrungen hiermit und möchte seine/ihre Meinung
mitteilen?
Zur Motivation kurz ein Zitat über Geisterkundgebungen von dem
berühmten amerikanischen Psychologen William James.
Aus W. James: Report on Mrs. Piper`s Hodgson-Control (Proceedings of
the society for psychical research 23, 1910: S. 2-121):
279
S. 120f: "I myself feel as if an external will to communicate were
probably there ... But if asked whether the will to communicate be
Hodgson`s [who had died], or be some mere spirit-counterfeit of
Hodgson, I remain uncertain and await more facts, facts which may not
point clearly to a conclusion for fifty or a hundred years."
Sind wir heute in einer besseren Situation, Medienkundgebungen zu
beurteilen? Sind die angeblichen Geister von Verstorbenen real oder
vollständige Halluzinationen der Medien?
Tschüssi, Lothar
Datum: 25. Sep. 2006, 17:31
Deine Literaturangabe [[R. I. vom 25. Sept.: „Google mit den Begriffen: "Pim van
Lommel, Lancet"“]] sieht interessant aus, es gibt aber schon seit längerem diverse
wissenschaftliche Studien über Nahtoderlebnisse, z. B. von Kenneth Ring.
Datum: 25. Sep. 2006, 17:40
Hallo!
Spiritisten und sonstige Vertreter der Überlebenshypothese führen
u.a. zwei Argumente für die Echtheit der Medienkundgebungen an:
1. Es werden über die Trancemedien Informationen gegeben, die das
Medium und die Beisitzer nicht wissen konnten. Eine telepathische
Erklärung dieses Wissens müsste also telepathische Wissensübertragungen
von dritter Seite postulieren.
2. Die Art der Kundgebungen: Die Kommunikatoren benutzen manchmal
Redewendungen, Stil, Gestik etc., wie es für den angeblichen
Verstorbenen üblich gewesen sein soll. Eine halluzinatorische
Personifikation ist leicht möglich, wie Traum, Hypnose und das
Krankheitsbild der "multiplen Persönlichkeit" zeigen, aber die
Erfindung einer Person, die (angeblich) einer verstorbenen Person
gleicht, ist schon schwieriger.
Tschüssi, Lothar
280
Datum: 26. Sep. 2006, 10:56
> > "Leben ist Stoffwechsel".
Ein Kennzeichen des Lebens ist Stoffwechsel. Aber erstens ist die
Aufzählung von Kennzeichen (ein anderes ist z.B. Mutabilität) noch
keine Theorie, und zweitens kann auch der Stoffwechsel noch nicht
genügend erklärt werden. Alle biologischen Prozesse laufen
zielgerichtet ab, und genau das kann die heutige mechanistische Physik
noch nicht erklären, auch wenn Synergetik und Kybernetik schon viel
leisten.
Lothar
Datum: 26. Sep. 2006, 11:08
[[L. K. schrieb am 26. Sept.:]]
> > [[L.A.:]] Aus Gründen des klassischen wissenschaftlichen Weltbildes halten die
meisten > > Wissenschaftler das Überleben für unmöglich, dieses Weltbild ist
> > aber schon seit langer Zeit nicht mehr haltbar.
> sagt wer?
Die Quantenmechanik zeigt das.
> >[[L.A.:]] Es gibt folgende Bereiche der empirischen Forschung, die für
> >das Überleben angeführt werden:
> > 1. Nahtod-Erlebnisse (von klinisch Toten u.ä.)
> von Drogenerlebnissen und Klartraeumen nicht zu unterscheiden.
Drogenhalluinationen sind verschwommener und Träume sind variabler
als das Muster der Nahtoderlebnisse.
> >[[L.A.:]] 2. Sterbebett-Visionen im Allgemeinen (Erscheinungen des Abholens der
> > Sterbenden von toten Verwandten)
> Wer sehnt sich im Augenblick des Todes nicht nach seiner Mutter?
Kleine sterbende Kinder sehnen sich z.B. nach ihren Eltern, und genau
281
deshalb ist es erstaunlich, dass sie nicht ihre (lebenden) Eltern
halluzinieren, sondern z.B. tote Verwandte, die sie nie kannten.
> >[[L.A.:]] 3. Reinkarnationsberichte (spontane Erinnerungen von Kindern an
> > frühere Leben und hypnotische Altersregressionen)
> die keine nachpruefbar neuen Informationen liefern
Dann lies mal das von mir im 2. Posting zitierte Buch von Stevenson.
Offensichtlich kennst Du die Literatur noch nicht einmal rudimentär.
> >[[L.A.:]] 4. Medienkundgebungen in Seancen (Kommunikation mit Geistern)
> die dummerweise aeusserst kamerascheu sind.
Das ist mir neu.
> > 5. Erscheinungen im Allgemeinen (Geister, Spuk etc.)
> Hast Du welche gesehen? Oder zumindest glaubhafte Zeugen?
Ich kenne jemanden, deren Bekannter nach seinem Tod an ihrem Bett erschienen ist.
Aber wann ist ein Zeuge glaubwürdig? Vermutlich glaubst Du ihm/ihr
erst dann, wenn er/sie das sagt, was Deiner Meinung entspricht.
Lothar
Datum: 26. Sep. 2006, 11:12
[[Literaturangabe von R. I. am 25. Sept.:]]
> Dreißig Jahre unter den Toten (Gebundene Ausgabe) von Carl Wickland11
Schreib mal genauer, um was es in dem Buch geht.
Datum: 26. Sep. 2006, 18:16
G. O. schrieb:
11 Ich habe mir das Buch inzwischen genauer angeschaut, bin aber ziemlich skeptisch; auch habe ich
schon von einem Parapsychologen sehr Kritisches über diesen Autor gelesen.
282
> Ich empfehle die 3 Bücher von R.A.Monroe, wobei die besten Hinweise auf
> das, was hinter dem für uns Sichtbaren abläuft, im zweiten Buch (Der zweite
> Körper) und dort beginnend im Abschnitt "Ein neuer Freund" zu finden ist.
> Das erste Buch (Der Mann mit den zwei Leben) ist eigentlich nur wichtig,
> wenn man nachvollziehen möchte, welche Entwicklung M. durchgemacht hat.
> MfG
> G.
Kannst Du mal genauer beschreiben, worum es in diesen Büchern geht?12
Lothar
Datum: 26. Sep. 2006, 18:34
>>[[L.A.:]] Es gibt in der Wissenschaft weder eine experimentell bestätigte
physiologische
> > Bewusstseinstheorie
[[L. K. am 26. Sept.:]]
> Haengt natuerlich an der Schwammigkeit des Bewusstseinsbegriffes, aber
> wenn Du willst: Ein Modell der Umwelt inklusive Selbstmodell zu haben,
> um Handlungen vorher durchspielen zu koennen.
Das ist natürlich noch keine physikalische Bewusstseinstheorie, die
Bewusstsein als Teil der Natur auszeichnet. Wie kann die Natur - z.B.
die Elementarteilchen - so etwas wie Farben hervorbringen? Betrachtet
man nur einmal das visuelle Bewusstsein, so zeigt die Phänomenologie
des Farbfeldes, dass das Bewusstsein mathematisch ein Feld ist. Ich
habe deshalb in einer Veröffentlichung in der "Philosophia naturalis"
(33, 1996: S. 55-81) vorgeschlagen, das Bewusstsein mit dem metrischen
Feld der Allgemeinen Relativitätstheorie (ART) zu vergleichen: In der
ART steht das metrische Feld in einer funktionalen Beziehung zur
Masse-Energie, analog wie das Bewusstsein zur Hirnphyiologie. Was mich
im Nachhinein an dieser Analogie stutzig machte, ist, dass es nach der
ART ein metrisches Feld ohne Materie geben könnte. Bei meiner Analogie
wäre das ein Bewusstsein ohne Gehirn. Das war mit eine Motivation
dafür, mich über die Argumente der Spiritisten genauer zu
informieren. (Eine andere Motivation waren einige meiner
Meditationserlebnisse. Über solche Erlebnisse gibt es aber, glaube
ich, keine systmatischen Untersuchungen bzw. Veröffentlichungen. Das
muss also jeder für ich selbst erforschen.)
Lothar
12 Auch diesem Autor stehe ich sehr skeptisch gegenüber.
283
Datum: 27. Sep. 2006, 11:28
P. H. schrieb:
> > Lothar Arendes schrieb:
> > Alle biologischen Prozesse laufen zielgerichtet ab, [...].
> "Erfordert irgendein Vorgang in der Evolution eine teleologische
> Erklärung? - Die Antwort lautet eindeutig: Nein.
> [Mayr, Ernst (2005). /Das ist Evolution/. München: Goldmann. (S. 336)]
Da Du Ernst Mayr zitierst:
Mayr ist sich sehr wohl bewusst, dass die Evolutionstheorie in ihrer
heutigen Form noch nicht alles erklären kann, insbesondere nicht die
Makroevolution. Umgekehrt wird vermutlich eine biophysikalische Theorie
der biologischen Teleonomie auch der Evolutionsbiologie neue Impulse
geben. Im Augenblick kann jedenfalls die (quanten-) mechanistische
Physik das zielgerichtete Verhalten der physiologischen Prozesse nicht
erklären. Zumindest sahen das viele der größten Physiker des 20.
Jahrhunderts ebenso (Heisenberg u.a.).
Datum: 27. Sep. 2006, 11:48
> Es gibt keinen Grund so einen Unfug wie Aberglauben und Geister hier zu
> diskutieren.
> X-Post und Tschüss :-)
> -> Mit freundlichen Grüssen
> P. N.
Dogmatiker sind in der Philosophie schon immer fehl am Platz gewesen
und haben nur die Entwicklung der Menschheit gebremst.
Datum: 29. Sep. 2006, 13:17
G. O. schrieb:
> >> Ich empfehle die 3 Bücher von R.A.Monroe, wobei die besten Hinweise auf
> >> das, was hinter dem für uns Sichtbaren abläuft, im zweiten Buch (Der zweite
> >> Körper) und dort beginnend im Abschnitt "Ein neuer Freund" zu finden ist.
284
Wenn ich Dich richtig verstanden habe, geht es bei diesen Büchern
hauptsächlich um außerkörperliche Erfahrungen (AKE), wobei
allerdings nicht die normale Wirklichkeit wahrgenommen wird, sondern
eine andere. In meinem ersten Posting habe ich fünf Phänomenbereiche
angeführt, die von Vertretern der Überlebenshypothese (ÜH) als
Argumente benutzt werden. Die außerkörperlichen Erfahrungen kann man
als einen sechsten Bereich nennen, der für die ÜH spreche. Allerdings
wäre das nur ein indirektes Argument, welches zeigen soll, dass das
Bewusstsein unabhängig vom Körper existieren könne. Natürlich können aber die
AKE nicht widerlegen, dass (bzw. ob) trotzdem ein lebender
körperlicher Träger des Bewusstseins existieren muss, um derartige
Erlebnisse haben zu können. Meine Frage an Dich ist aber, ob Du (oder
jemand anders) Untersuchungen über AKE (bzw. OBE) kennst, bei denen
man "außerkörperlich" nachweislich Erfahrungen machte, die man normal
nicht bekommen konnte. Ich kenne Studien darüber, aber ihre Resultate
sind alle zweideutig.
Datum: 29. Sep. 2006, 13:34
P. N. schrieb:
> > Dogmatiker sind in der Philosophie schon immer fehl am Platz gewesen
> > und haben nur die Entwicklung der Menschheit gebremst.
> Sagt die planlose Pappnase, die von Wissenschaft offensichtlich keinen Plan hat.
> Mit freundlichen Grüssen
> P. N.
Das sehen die Universitätsbibliotheken weltweit anders.
Lies doch mal mein Buch über das Realismusproblem in der
Quantenmechanik. Denjenigen, die die Mathematik der theoretischen
Physik nicht verstehen, gebe ich immer den Rat, nur die fettgedruckten
Zitate in Kapitel 3 zu lesen. In diesen Zitaten beschreiben die
führenden Vertreter der Physik des 20. Jahrhunderts (Heisenberg,
Einstein, Schrödinger, Bohr ...) in einer unmathematischen Sprache,
worum es in der QM geht.
Auch könntest Du meine Dissertation, die ich in der Hirnforschung
angefertigt habe, lesen; das verstehst Du vielleicht sogar.
MfG, Dr. Lothar Arendes
285
Datum: 29. Sep. 2006, 13:39
I&O R. schrieb:
> "Lothar Arendes" schrieb.
> > [[L.A.:]] Im Augenblick kann jedenfalls die (quanten-) mechanistische
> > Physik das zielgerichtete Verhalten der physiologischen Prozesse nicht erklären.
> Beim Lesen dieses Satzes geht es einem wie Buridans Esel:
> Wie nur find ich 'raus, ob er aus philosophischer oder aus
> naturwissenschaftlicher Sicht idiotischer ist. :-(
Wie heisst das so schön: Wenn ein Buch und ein Kopf zusammenstoßen
und es klingt hohl, muss das nicht unbedingt am Buch liegen. Inhaltlich
lässt sich das auch auf Sätze übertragen.
Datum: 29. Sep. 2006, 13:45
R. I. schrieb:
> Naturwissenschaftlich will sein Körper leben.
> Philosophisch sein Geist.
> Nun soll sich der Esel entscheiden.
> Gruß
> Ri
Esel können, wenn überhaupt, dann wohl nur eins. Naturphilosophen
können beides.
Datum: 29. Sep. 2006, 14:47
P. N. schrieb:
> Sagt die planlose Pappnase die von Wissenschaft offensichtlich keinen Plan hat.
> Mit freundlichen Grüssen
> P. N.
Polemik wird uns sicherlich nicht weiterbringen. Außerdem denke ich,
dass auch das empirische Datensammeln (wie es bezüglich der fünf
Phänomenbereiche aus meinem ersten Posting größtenteils getan wird)
keine überzeugenden Argumente liefert. Was wir brauchen, sind
zunächst physikalische Theorien über Bewusstsein und Leben (bzw.
über die biologische Dynamik), und wenn tatsächlich etwas dran sein
sollte am Überleben des körperlichen Todes (wofür es durchaus
286
empirische Hinweise gibt), dann werden uns diese Theorien darüber
Auskunft geben können - z.B. in der Form, dass die
Differentialgleichungen einer Bewusstseinstheorie ein Bewusstseinsfeld
erlauben, selbst wenn es keine Hirnmaterie gäbe, so wie die Allgemeine
Relativitätstheorie ein metrisches Feld ohne Anwesenheit von Materie
erlaubt. Und eine Theorie der Biodynamik könnte uns sagen, was für
immaterielle Parameter (z.B. variable "Naturkonstanen") von Bedeutung
sein könnten. Diese Theorien könnten aber u.U. auch nahe legen, dass
dieses Überleben nicht auf die Weise erfolgt, wie es Spiritisten und
die traditionellen westlichen Religionen annehmen, sondern eher als
schattenförmiger Traumzustand, der eine Übergangsphase bis zur
nächsten Reinkarnation ist. Weil die heutigen empirischen Daten dieses
andeuten, wird ja auch die Parapsychologie und insbesondere die
Untersuchung der Überlebenshypothese im Westen und insbesondere in
Deutschland massiv behindert.
Datum: 30. Sep. 2006, 14:02
P. N. schrieb:
> Am 29. Sep. 2006 05:47:00 -0700 schrieb Lothar Arendes:
> >[[L.A.:]] Weil die heutigen empirischen Daten dieses andeuten, wird ja auch die
> > Parapsychologie und insbesondere die Untersuchung der
> > Überlebenshypothese im Westen und insbesondere in Deutschland massiv behindert.
> Das ist doch schlichter Unfug. Parapsychologisches Brimborium lässt sich in
> jeder zweiten Talkschau unwidersprochen bewundern. Wenn das eine massive
> Behinderung ist? Bringe mal harte Fakten!
> Mit freundlichen Grüssen
> P. N.
Was in den Talkshows gebracht wird, hat keinen wissenschaftlichen Wert,
und das wird auch gar nicht beansprucht. Was dort an Unsinn gebracht
wird, kann oft genug nur abstossen und genau das wird manchmal
beabsichtigt. Wenn Du Dich für die Behinderung der wissenschaftlichen
Parapsychologen interessierst, musst Du diese fragen. Ich kenne Zitate
von britischen Wissenschaftlern, nach denen diese Behinderung in den
USA begann und nun in immer stärkeren Maße auf Europa herüber
schwappt. Übrigens hatte ich selbst mal daran gedacht, in die
Parapsychologie zu gehen, und werde aber hier nicht erzählen, wie es
mir ergangen ist.
287
Datum: 30. Sep. 2006, 14:31
P. H. schrieb:
> Erläuterung von Mayr selbst:
> Es ist nicht gerechtfertigt, evolutive Vorgänge oder
> Trends als zielgerichtet (teleologisch) zu beschreiben.
Ich rede nicht von evolutiven Vorgängen, sondern von physiologischen
Prozessen im Körper.
> Vorgänge (Verhaltensweisen), deren
> Zielgerichtetsein durch ein Programm gesteuert ist, können
> 'teleonomisch' genannt werden. [...]
Mayr anerkannte, dass physiologische Prozesse den Anschein von
Teleonomie haben. Er glaubte aber, dies sei mit der heutigen Physik
vereinbar. Genau das glaube ich nicht, ebenso wie beispielsweise
Heisenberg und andere Physiker. Mayr war kein Physiker, und was er
über die theoretische Physik und ihren hohen Erklärungsansprüchen
wusste, war sicherlich nicht allzu viel. Als Erklärung der scheinbaren
Teleonomie biologischer Prozesse bot er an, die Chromosomen, das
Erbgut, seien ein Programm, das die Prozesse kausal steuere. (Ebenso
wie ein Computer zielgerichtet arbeitet, aber streng kausal, weil das
Computerprogramm so eingerichtet ist.) Mayrs genetische
Programmerklärung der scheinbaren Teleonomie scheitert daran, dass die
Genexpression selbst noch nicht erklärt werden kann und dass die dabei
ablaufenden Prozessen selbst schon teleonom sind. Unser Erbgut enthält
natürlich Informationen über unseren Körper, aber wie die Dynamik
der Umsetzung dieser Informationen in die Eigenschaften des Körpers
erfolgt, ist die entscheidende Frage. Um dieses zu erklären, nutzt es
nichts, von Evolution, Selektion etc. zu reden, vielmehr muss man
hierfür Thermodynamik, Synergetik, Kybernetik etc. heranziehen. Ein
vollständiges System von biophysikalischen Theorien zur Erklärung
biologischer Vorgänge gibt es aber noch nicht; und dies ist der
springende Punkt meiner Argumentation. Dass die Physik die biologische
Dynamik noch nicht vollständig erklären kann, wird auch daran
deutlich, dass die Physiker noch nicht einmal eine befriedigende
irreversible Thermodynamik gefunden haben - aber natürlich daran
arbeiten -, dass aber natürlich die meisten biochemischen Prozesse
irreversibel und auf thermodynamischer Ebene ablaufen.
288
Datum: 2. Okt. 2006, 13:17
Lothar Arendes schrieb:
>[[L.A.:]] Meine Frage an Dich ist aber, ob Du (oder
> jemand anders) Untersuchungen über AKE (bzw. OBE) kennst, bei denen
> man "außerkörperlich" nachweislich Erfahrungen macht, die man normal
> nicht bekommen konnte. Ich kenne Studien darüber, aber ihre Resultate
> sind alle zweideutig.
Ich habe gerade damit begonnen, das Buch "Erinnerung an den Tod" von
Michael Sabom zu lesen. In diesem Buch finde ich das, worum ich im
Posting gebeten habe. Bei diesem Buch geht es zwar hauptsächlich um
Nahtoderlebnisse, die Sabom als transzendente Erfahrungen bezeichnet,
er hatte aber bei seiner Studie auch mehrere Fälle der außerkörperlichen
Erfahrungen während Operationen und medizinischen
Notfallbehandlungen. Der Kardiologe Sabom berichtet recht überzeugend,
dass diese Patienten Dinge über medizinische Vorgänge wussten, die
diese normal nicht haben konnten, da sie bewusstlos waren.13
Datum: 2. Okt. 2006, 13:39
> > [[L.A.:]] Was wir brauchen, sind
> > zunächst physikalische Theorien über Bewusstsein und Leben
> Physikalische Theorien über Bewusstsein und Leben. Gut. Dann fang doch mal an.
Siehe meinen Aufsatz: "Ansätze zur physikalischen Untersuchung des
Leib-Seele Problems", in "Philosophia naturalis" 33, 1996: S. 55-81.
Datum: 2. Okt. 2006, 13:43
> >[[L.A.:]] immaterielle Parameter
> Parameter sind immer immateriell. Oder hast du zufällig einen in der
> Hosentasche? [[P. W. am 1. Okt.]]
Du solltest mal versuchen, Physik zu studieren, z.B. die Synergetik.
Aber das ist natürlich schwieriger, als sich im Internet als blöd zu entlarven.
13 Je mehr ich von und über Sabom lese, umso skeptischer werde ich aber inzwischen bezüglich seiner
Ergebnisse. Bevor seine Ergebnisse nicht von mehreren anderen Wissenschaftlern repliziert worden
sind (ich kenne keine solchen weiteren Untersuchungen), sollte man vorsichtig damit umgehen.
289
Datum: 4. Okt. 2006, 13:26
> >[[L.A.:]] wissenschaftlichen Parapsychologen interessierst,
> Hüstel! Was ist wissenschaftliches Paradingenskirchen? [[P. N. am 30. Sept.]]
Übrigens kommen gerade die Gegner der Überlebenshypothese nicht ohne
die Telepathie der Parapsychologen aus. Insbesondere bei den
Medienkundgebungen ist man ohne die Annahme der Telepathie den
Argumenten der Spiritisten völlig ausgeliefert, wenn man nicht auf
paranoide Weise alles als Betrug abtun will. Aber Leuten deiner Art ist
ja ohnehin jedes Mittel recht: Dass nicht sein kann, was nicht sein
darf ... Übrigens mögen nicht nur die traditionellen Religionen die
Befunde der Parapsychologen nicht, auch Marxisten und ähnliche
Heilsbringer haben Angst, dass ihnen dann ihre Gläubigen weglaufen,
wenn sich so etwas herumspricht.
Ich freue mich schon auf deine intelligenten Antworten! Das Fernsehen
ist heutzutage viel zu langweilig.
Datum: 9. Okt. 2006, 14:06
[[s. schrieb am 4. Okt.:
„Vor 20 Jahren haben ein paar Jugendliche beschlossen, herauszufinden,
was es mit diesem damals in Mode gekommenen Gläserrücken auf sich hat.
So trafen sich 2 Mädchen und 3 Jungen in einer sturmfreien Wohnung, um
es auszuprobieren. Man wußte, wie es gehen sollte, mehr Erfahrung hatte
keiner. Nachdem wir alle anti-satanistischen Relikte aus dem Wohnzimmer
der Wohnung entfernt hatten (es war ein katholisches Haus), legten wir
also diesen Buchstabenkreis aus, legten jeder einen Finger darauf und
versuchten uns in Stimmung zu bringen. Es hat eine gute Stunde gedauert,
bis keiner mehr loslachen mußte, sobald es ruhig wurde ;-)
Irgendwann stellte ich "dem Glas" die Frage, ob es losgehen kann, und es
bewegte sich. Alles klar, die anderen schieben. Nach ein paar
belanglosen Fragen, an die ich mich heute nicht mehr erinnere, stellte
der eine Junge die Frage: Wie lautet der 2. Vorname meiner Mutter? und
nahm seinen Finger vom Glas. Der Name, den "das Glas" uns verriet, war
Brigitte. Das war das Ende der Session.
Der Junge, der die Frage stellte und seinen Finger dann vom Glas nahm,
290
war dem Rest der Klicke erst seit kurzem bekannt. Er war frisch
zugezogen und durch seine Freundin, die an diesem Abend aber nicht
anwesend war, in die Klicke gekommen.
Und er war auf einmal ganz blaß. Ob es stimmt, fragten wir ihn, und
bejahend erklärte er uns, daß wir dies gar nicht wissen konnten, da
seine Mutter seit 16 Jahren tot war und er uns bestimmt noch nie ihren
2. Vornamen gesagt hat. Nunja, die Mädels fingen an zu heulen und auch
mein Kumpel war auf einmal recht schreckhaft.
Ich habe nach einer Erklärung gesucht, die habe ich inzwischen auch
gefunden. Er kann es uns nur suggeriert haben! Nur wie? Und über welches
Medium? Niemand hat ihn auch nur angesehen, als das Glas über den Tisch
wanderte.“
]]
s. schrieb:
> Ich habe nach einer Erklärung gesucht, die habe ich inzwischen auch
> gefunden. Er kann es uns nur suggeriert haben! Nur wie? Und über welches
> Medium? Niemand hat ihn auch nur angesehen, als das Glas über den Tisch wanderte.
Ein Psychologe könnte Folgendes antworten:
Nachdem der Junge seine Frage gestellt hatte, dachte er öfter an den
Namen seiner Mutter, und es ist möglich, dass er dabei unbewusst
seine Lippen bewegte. Denken wird öfters von kaum merkbarem Sprechen
begleitet. Als nun der Junge seinen eigenen Finger vom Glas nahm, sahen
ihn sicherlich sofort einige unwillkürlich und kurzzeitig an, und der
eine oder andere mag dabei unbewusst die Lippenbewegungen registriert
haben.
Dieser von s. berichtete Fall ist für Kritiker der
Überlebenshypothese mühelos zu erklären. (Dass wirklich zu keinem
Zeitpunkt jemand den Jungen angesehen hatte, ist unwahrscheinlich.)
Es gibt aber auch Fälle (veröffentlicht z.B. bei Mattiesen 1987), bei
denen die anwesenden Sitzer die durchgegebenen Informationen
nachgewiesenermaßen nicht kannten, die Informationen konnten aber
nachträglich verifiziert werden. Diese Fälle erklären Kritiker mit
Telepathie, was aber in manchen Fällen sehr gezwungen klingt, wenn
nämlich nicht eine einzige lebende Person alle Informationen gewusst
hatte, sondern die Information über das Gedächtnis mehrerer Personen
verteilt war. Die Society for Psychical Research hat derartige Fälle
untersucht, und die verwendeten Medien wurden teilweise von Detektiven
beschattet.
291
Thema: Überleben des körperlichen Todes (17 Mitteilungen)
http://groups.google.de/group/de.sci.philosophie/browse_thread/thread/963bf0bf7272bcd
d/df3d8e9201badbc9?hl=de&
Gruppe: de.sci.philosophie
Datum: 23. Aug. 2007, 19:16
Hallo!
Obwohl es in der Biologie noch keine Theorie des Lebens gibt, ist die
vorherrschende Grundeinstellung von Psychologen und
Naturwissenschaftlern, dass der Tod des biologischen Organismus das
endgültige Ende sei und dass es keine Seele oder Entelechie gäbe, die
den körperlichen Tod überdauere.
Ich habe mich in den letzten Jahren mit den empirischen Phänomenen
beschäftigt, die von manchen Autoren als Belege für ein Leben nach dem
körperlichen Tod angeführt werden, und habe darüber ein Buch
geschrieben. Eine vorläufige Version meines Buches "Gibt es ein
Überleben des körperlichen Todes?" habe ich auf meiner Homepage
veröffentlicht: http://LotharArendes.de/
Wer hat Lust, über derartige Phänomene zu diskutieren? Als Vorschlag
für einen Diskussionsbeginn führe ich in den folgenden Postings ein paar
Stellen aus meinem Buch an.
MfG, Lothar Arendes
Meine Blog-Adresse: http://LotharArendes.blogspot.com
Datum: 23. Aug. 2007, 19:19
Auszüge aus meinem Buch:
S. 151f (Darstellung der Phänomenarten):
Bei den außerkörperlichen Erfahrungen hat man das Gefühl, sich
außerhalb seines Körpers zu bewegen und von außerhalb seine Umwelt zu
betrachten, und auf ähnliche Weise sollen auch die Geister von
Verstorbenen fortexistieren und uns in den Seancen über Medien
Botschaften übermitteln können. Bei den Medienkundgebungen befindet
sich eine Person in Trance und hat angeblich entweder über Telepathie
292
Kontakt zu einem Geist, den man als die Kontrolle bezeichnet, oder
diese Kontrolle ergreift Besitz von dem Körper des Mediums und benutzt
ihre Sprechorgane, um ihre Botschaften zu übermitteln. Die Kontrolle
behauptet, in Kontakt mit einem Verstorbenen (dem Kommunikator) zu
stehen, der ein Verwandter oder Freund eines in der Seance anwesenden
Sitzers sei. Die Botschaften, die die Kontrolle durch das Medium
übermittelt, sind meistens Informationen über das irdische Leben und
über Eigenarten des Verstorbenen, die in manchen Fällen sehr gut zu
der vermutlichen Gedächtnisstruktur des Verstorbenen am Ende seines
Lebens zu passen scheinen und die auch seinen charakterlichen
Eigenarten und Redewendungen, seinem Humor, der Gestik etc. zu
entsprechen scheinen. Geister sollen außerdem in der Lage sein, sich
als sogenannte Erscheinungen in unserer physikalischen Welt bemerkbar
zu machen. Erscheinungen sind wie normale Objekte oder Personen
scheinbar physikalisch existierend sichtbar und treten vollständig
oder teilweise mit einem Körper auf, den die Verstorbenen zu Lebzeiten
hatten. Bei den Sterbebett-Visionen erscheinen verstorbene Verwandte,
Freunde oder auch irgendwelche andere, scheinbar göttliche Wesen dem
Sterbenden, um ihn in die jenseitige Welt abzuholen oder ihn darauf
vorzubereiten. Von Nahtoderlebnissen mit solchen Geisteswesen
berichten Personen, die dem körperlichen Tod sehr nahe gewesen sind als klinisch tod beurteilt worden sind, im Koma gelegen haben o.ä. und die im Zustand einer außerkörperlichen Erfahrung in eine
jenseitige Welt geflogen, aber von dort aus wieder zurückgekehrt
seien, da sie angeblich noch nicht körperlich sterben sollten. Von
einem vor der Geburt stattgefundenen Kontakt mit einem jenseitigen
Wesen berichten in ganz seltenen Fällen auch Kinder, die sich als
körperliche Wiedergeburt einer in der Vergangenheit gelebten Person
betrachten. Bei den spontanen Reinkarnationsfällen sind die Kinder
ebenso wie die Medien der Seancen in der Lage, sehr detailliert
Informationen über das Leben eines Verstorbenen zu geben, mit dem sie
sich aber über mehrere Jahre hinweg identifizieren, bevor ihre
angeblichen Erinnerungen an dieses frühere Leben immer mehr verblassen
und zumeist irgendwann ganz aufhören. Vermeintliche Erinnerungen an
frühere Leben werden außerdem in hypnotischen Altersrückführungen
erlebt.
S. 155f:
Überblick über Argumente der Befürworter
Die Hirnforschung hat zwar Abhängigkeiten unseres Gedächtnisses und
unseres Denkvermögens vom Gehirn nachgewiesen, ein Beweis für eine
Unmöglichkeit des Überlebens sind diese empirischen Befunde jedoch
nicht. Zu vieles ist in den Neurowissenschaften noch ungeklärt;
vollständige wissenschaftliche Theorien über das Funktionieren von
293
Gedächtnis und Denken gibt es zur Zeit nicht. Die bekannten
physiologisch bedingten Gedächtnisstörungen sind beispielsweise auch
erklärbar, wenn man im Sinne von Broads Zweifaktorentheorie den
psychischen Faktor und den körperlichen Faktor als ein
zusammengehörendes System betrachtet.
Um die für das Überleben angeführten Phänomene in seinem Sinne zu
deuten, muss der Kritiker auf sehr umfangreiche Weise eine paranormale
Wissensaufnahme behaupten; in Laborexperimenten konnten aber derartig
umfangreiche und detaillierte telepathische Wissensübertragungen, wie
es bei den Medienkundgebungen manchmal der Fall ist, noch nie nachgewiesen werden - abgesehen von einige Untersuchungen mit Sensitiven,
deren wissenschaftliche Durchführung kritisiert werden kann. Darüber
hinaus lassen sich besondere Fähigkeiten wie die der responsiven
Xenoglossie oder Tänze und Gesänge allein mit ASW vermutlich nicht
erklären.
Dass die Erscheinungen sehr oft ein semi-automatenhaftes Verhalten zeigen und
die Medienkundgebungen oft Banalitäten über ihr früheres Leben und
vielfachen Unsinn enthalten, kann daher kommen, dass man sich nach dem
körperlichen Tod in einem schlaf- oder traumähnlichen Zustand
befindet. Außerdem kann das Krankheitsbild der multiplen
Persönlichkeit nicht als Erklärung der Personationen in den Seancen
angeführt werden, da die Entstehung der multiplen Persönlichkeit
ebenfalls ungeklärt ist und man somit nur ein Rätsel durch ein anderes
ersetzen würde. Hätten die Medien ebenso wie die Kinder der
Reinkarnationsfälle alle diejenigen Informationen, die sie auf
natürliche Weise gar nicht erlangt haben konnten, mittels Telepathie
erhalten, hätten sie somit außergewöhnliche ASW-Fähigkeiten besessen,
so sollte man erwarten, dass sie viel öfter auch Dinge gewusst hätten,
die die Verstorbenen nicht wussten. Zumindest ist die Postulierung
eines Weltgeistes, der in bestimmten Speichern genau das Wissen
bestimmter verstorbener Personen enthält, ebenso ungewöhnlich und
entgegen dem heutigen naturwissenschaftlichen Wissen wie die
Überlebenshypothese, mit der man jedoch zusätzlich alle anderen
Phänomene (evtl. außer die höheren Wesen) erklären kann und die somit
eine größere Erklärungskraft besitzt.
Was die Erscheinungen betrifft, so klingt die Halluzinationshypothese
oft sehr unwahrscheinlich, beispielsweise wenn die Erscheinung
gleichzeitig von mehreren Personen gesehen wurde. Dass sich solche
Halluzinationen einer Person auf telepathischem oder anderem Wege auf
alle anderen Anwesenden ausgedehnt haben sollen, ist besonders dann
nicht sehr überzeugend, wenn zuerst der Hund auf die Erscheinung
angeschlagen hat und erst daraufhin die anwesenden Menschen es
294
bemerkten, wie es in einem Fallbeispiel beschrieben wurde. Irgendeine
objektive Ursache für derartige kollektive Wahrnehmungen ist ziemlich
wahrscheinlich, ebenso für dieselben Erscheinungen bei den
unterschiedlichsten Perzipienten zu verschiedenen Zeiten und am selben
Ort. Oft wussten auch die Perzipienten nichts vom Sterben des
Erschienenen, und wäre dies durch Telepathie übertragen worden, so
sollte die Erscheinung viel öfter das Leid und die Todesangst des
Erschienenen ausdrücken, anstatt Trost oder Banalitäten darzustellen.
Bei einer telepathischen Auslösung von Erscheinungen sollten außerdem
öfter Lebende erscheinen und nicht so überhäufig Tote.
Zu den Kritiken an den Nahtoderlebnissen ist zu sagen, dass keine der
angeführten neurophysiologischen Theorien alle bei den NTE
auftretenden Phänomenen erklären kann, auch treten NTE bei Personen
ohne Medikamenteneinnahme und bei vollem Bewusstsein auf;
Drogenhalluzinationen und Träume sind außerdem viel variabler. Viele
Kritiken der ÜH-Gegner klingen plausibel, wenn man sie ganz allgemein
vorträgt, schaut man sich aber die Phänomene im Detail an, so bleiben
oft einige Zweifel. Würde es sich bei den NTE beispielsweise um
Wunschdenken handeln, dann sollten sterbende Kinder viel öfter ihre
Eltern halluzinieren und nicht verstorbene Verwandte, die sie nie
zuvor gesehen haben, auch hatten Patienten, die an das Überstehen
ihrer Krankheit glaubten, keinerlei Grund zum Wunschdenken. Wie die
Studie von Osis und Haraldsson zeigte, spielen psychologische Faktoren
wie Stress und medizinische Faktoren wie Medikamente und
Hirnschädigungen bei den Sterbebett-Visionen keine ausschlaggebende Rolle.
Dass einige Kritiker weltanschaulich bedingten Abwehrmechanismen
unterliegen, ist manchmal bei den Reinkarnationsfällen unübersehbar wenn beispielsweise die daran beteiligten Personen als vom Teufel
verführt bezeichnet werden -, und die Hypothese vom Zugriff auf
spezifische Gedächtnisspeicher eines Weltgeistes zur Erklärung von
mitgeteilten Informationen, die selektiv auf die Gedächtnisstruktur
eines Verstorbenen passen, mag bei Medien im abnormen Trance-Zustand
plausibel erscheinen, jedoch kaum bei Kindern im normalen Wachzustand.
In seltenen Fällen wurde das Kind eines Reinkarnationsfalles geboren,
bevor die vorangegangene Persönlichkeit starb, nach der Telepathieund Halluzinationshypothese sollte man aber derartiges (und vor allem
Identifizierungen mit noch Lebenden) viel häufiger erwarten; das
seltene Auftreten solcher Fälle des später Geborenen könnte eher die
Verdrängung einer zuvor inkarnierten Seele bedeuten. Bemerkenswert ist
auch, dass bei Gegenüberstellungen mit der angeblich früheren Familie
Täuschungsversuche der Familie oft nicht zu falschen
Wiedererkennungsbehauptungen des Kindes führen. Die ASW-Hypothese
erklärt außerdem nicht die Identifizierung des Kindes mit der früheren
295
Persönlichkeit; die mitgeteilten Informationen werden erlebt als die
eigenen Erinnerungen, was bei Sensitiven und Medien auch vorkommt,
aber nie über mehrere Jahre hinweg.
Obwohl die außerkörperlichen Erfahrungen zunächst nur als ein
indirektes Argument für das Überleben angeführt werden, nämlich als
Beleg für die Existenz des Bewusstseins ohne Körper, und obwohl die
Gegner diesem Argument begegnen können (der Körper als Trägersubstanz
von Bewusstseinsphänomenen existiert während dieser Erfahrungen;
AKE seien deshalb Sinnestäuschungen), ergeben sich dennoch aus den
AKE-Untersuchungen zwei wichtige Argumente. Wie Sabom in seinen
Untersuchungen zeigen konnte, entsprechen die AKE, welche Patienten
während Operationen und Notfallmaßnahmen machen, zu einem großen Teil
tatsächlich den wirklich stattgefundenen Vorgängen, da aber
Nahtoderlebnisse meistens mit AKE beginnen und da es einen
kontinuierlichen Übergang von den Beobachtungen des eigenen Körpers
und seiner physikalischen Umwelt zu den Beobachtungen in einer
vermeintlich jenseitigen Welt gibt, liegt die Vermutung nahe, dass
auch die späteren Erlebnisse von NTE teilweise wahr sind. Darüber
hinaus ist der Materialist vor die Frage gestellt, wie überhaupt
Patienten während Operationen unter Vollnarkose derartige
Bewusstseinszustände haben können, wenn das Bewusstsein lediglich eine
Emergenzeigenschaft des materiellen Gehirns sein soll. Hier steht der
Materialist vor der Erklärungspflicht zu zeigen, wie Bewusstseinszustände, die
aber keinerlei mit der Operation verbundenen Schmerzen enthalten, möglich sind.
S. 158:
Fazit
Wie in jedem wissenschaftlichen Forschungsprojekt gibt es auch bei
dieser Forschungsfrage viele einander gegenüberstehende Argumente und
alternative Theorien, und in den beiden Kapiteln 5 und 6 wurden die
Standpunkte der Befürworter und Kritiker der ÜH detailliert beschrieben.
Unter den vielen Erlebnisberichten zu den einzelnen Phänomenarten mag
es ab und zu Betrügereien geben, dass es solche Phänomene
tatsächlich gibt, kann jedoch nicht angezweifelt werden. Betrug,
Gedächtnistäuschungen und Übertreibungen spielen vermutlich nur bei
den Details der Berichte eine wichtigere Rolle, jedoch stützen sich
die Argumente der Befürworter manchmal gerade auf Details der
Geschehnisse. Ein anderes wichtiges Argument der Kritiker ist, dass es
sich bei Phänomenen wie den Erscheinungen, Medienkundgebungen und
Nahtoderlebnissen um Halluzinationen handele; wenn man jedoch
bedenkt, dass es wegen der QM derzeit kein allgemein akzeptiertes
wissenschaftliches Weltbild gibt und dass wir zur Zeit auch keine
wissenschaftlich getesteten Theorien über das Bewusstsein und über die
296
Natur des Lebens bzw. über Biodynamik haben, sollte man mit der
Halluzinationsbehauptung vorsichtig sein. Zweifelsohne gibt es
Menschen, die allzuleicht ihre reinen Phantasien als Tatsachen
hinnehmen, auch gibt es einflussreiche Organisationen, die aus Machtinteressen die Wahrheit bekämpfen und vor Betrug nicht
zurückschrecken, aber erst wissenschaftliche Theorien über Bewusstsein
und Biodynamik können uns Aufschluss darüber geben, ob derartige
Phänomene wirklich so unglaubwürdig sind, wie es viele Kritiker annehmen.
MfG, L.A.
Datum: 23. Aug. 2007, 19:22
Auszug aus meinem Buch
S. 114f (Reinkarnationsphänomene):
Fallbeispiel Helmut Kraus
Als zweite Illustration des Phänomentyps spontaner Erinnerungen an
frühere Leben soll nun zum Abschluss dieses Abschnittes ein Fall aus
Europa vorgestellt werden (Stevenson 2005: 167-171), allerdings ohne
im Anschluss daran auf Kritiken und Gegenkritiken einzugehen. Wie
Stevenson selbst einräumt (ebd. S. 392), sind die europäischen Fälle
in ihrer Beweiskraft für einen paranormalen Vorgang insgesamt viel
schwächer als die stärkeren Fälle aus Asien, und der Fall Helmut Kraus
ist für ihn der einzige europäische Fall, in dem die angebliche
frühere Persönlichkeit identifiziert und einige Informationen durch
nicht im Fall beteiligte Personen bestätigt werden konnten (ebd. S. 391).
Helmut Kraus wurde 1931 in Linz, Österreich, geboren, sein Vater war
Biologielehrer an einer höheren Schule und es gab keine Soldaten in
der Familie. Ab dem Alter von vier Jahren sprach Helmut häufig über
ein früheres Leben und seine Bemerkungen pflegte er einzuleiten mit
Worten wie ,,Früher, als ich groß war ...", was bei
Reinkarnationsfällen oft vorkommt. So sagte er einmal, als ihn eine
Freundin der Familie (Helga Ullrich) vom Kindergarten nach Hause
brachte: ,,Als ich groß war, wohnte ich in der Manfredstraße 9." Helga
Ullrich hatte eine Freundin, Anna Seehofer, die in der Manfredstraße 9
wohnte, diese erkundigte sich nach Männern, die dort gewohnt hatten,
und weitere Aussagen des kleinen Helmut gaben Veranlassung zu der
Vermutung, dass sich seine Erinnerungen auf das Leben ihres Cousins
General Seehofer bezogen.
297
1958 erfuhr Karl Müller, welcher Fälle angeblicher Wiedergeburt
erforschte, von diesem Fall und stellte einige Untersuchungen an,
worüber er Stevenson unterrichtete, der 1965 Helga Ullrich interviewte
und später General Seehofers Leben und Tod erkundete; Kontakt zu
Helmut Kraus hatte Stevenson jedoch nicht.
Werner Seehofer wurde 1868 in Preßburg (Österreich-Ungarn) geboren,
lebte einige Zeit in Wien, war ab 1902 Oberst im Generalstab in Linz,
wurde im 1. Weltkrieg im Januar 1918 zum General befördert und war
Kommandeur einer Division an der Italienfront. Im Juni 1918 verließ er
bei einer Offensive sein Hauptquartier, ging an die Frontlinie, wo er
verwundet wurde und in die italienische Gefangenschaft geriet. Wenig
später starb er an seinen Verletzungen - vermutlich an einer
Kopfverletzung - im Alter von fast fünfzig Jahren.
Helmut gab an, ,,hoher Offizier im großen Krieg" gewesen zu sein,
sagte aber nie, dass er General gewesen sei oder Seehofer geheißen hätte. Er
machte jedoch mehrere weitere Aussagen, die auf General Seehofer
hindeuten. Bei einer Gelegenheit sagte er: ,,Als ich groß war, lebte
ich mehrere Jahre in Wien.", und er nannte die Straße und Hausnummer
einer Wohnung dort. Anna Seehofer bestätigte die Richtigkeit dieser
Aussage für den General. Helmut gab angeblich auch korrekt die Adresse
in Linz an, wo seine Schwiegerfamilie gewohnt hatte. Zusätzlich zu
diesen angeblichen Erinnerungen zeigte Helmut Verhaltensweisen, die zu
seinen angeblichen Erinnerungen passen. So bestand er darauf, dass
sein Mantel zugeknöpft wurde, denn, so sagte er, ,,ein Offizier darf
nicht mit offenem Mantel umhergehen". Andererseits hatte er Angst vor
lauten Geräuschen, zum Beispiel vor Gewehrschüssen, was aber zum Tod
des Generals durch eine Kopfverletzung an der Front passt. Als
Erwachsener entschloss sich Helmut nicht für ein Leben beim Militär
und ging in die Gastronomie.
MfG, L.A.
Datum: 24. Aug. 2007, 15:53
[[C. berichtete von angeblichen Induzierungen von Ausleibigkeitserlebnissen im
psychologischen Experiment im Rahmen von virtueller Realität, um zu demonstrieren,
dass man sich hierbei nicht tatsächlich außerhalb seines Körpers befinde]]14:
Experimente über außerkörperliche Erfahrungen [[Linkangaben zu Texten im Internet]]:
14 Das Posting von Christian ist im Internet gelöscht worden, so dass ich nur noch Zitate darüber habe.
298
> > Am 24. Aug. 2007 00:29:05 0200 schrieb C.:
> > http://www.spiegel.de/wissenschaft/mensch/0,1518,501713,00.html
>> ...und hier: http://www.spiegel.de/wissenschaft/mensch/0,1518,306870,00.html
Was das reine Wahrnehmungsphänomen, sich als außerhalb seines Körpers
zu empfinden, betrifft, ist dieses Phänomen allein für sich genommen
noch nie ein starkes Argument für das Überleben des Körpers gewesen,
denn dieses Phänomen könnte simple Sinnestäuschung sein, bei der das
Selbstkonzept fälschlicherweise an die sogenannte Außenwelt geknüpft wird.
Die oben zitierten Experimente mit der virtuellen Realität bringen da
nichts Neues. (Obwohl ich Bedenken habe zu glauben, dass bei diesen
Experimenten wirklich bereits richtige Ausleibigkeitsphänome
hergestellt werden konnten. Aber in Zukunft wird das vielleicht
gelingen; das ist aber nicht der springende Punkt bei unserer Fragestellung.)
Wichtiger in unserem Zusammenhang ist die Frage, wie zusätzlich zu dem
Ausleibigkeitsphänomen noch Informationen aufgenommen werden können,
die der Perzipient eigentlich gar nicht haben dürfte: Wahrnehmungen
über Vorgänge während Operationen, bei denen der Patient narkotisiert
war und verdeckte Augen hatte (siehe die Bücher von Michael Sabom, wie
in meinem Buch zitiert). Außerdem: Wenn die Narkose nicht tief genug
war, warum hatte er dann keine operationsbedingten Schmerzen?
Datum: 26. Aug. 2007, 09:47
> > [[L.A.:]] noch nie ein starkes Argument für das Überleben des Körpers gewesen,
> Was bitte soll das: Argument für das Überleben des Körpers?
Der Ausdruck "Überleben des Körpers" soll eine Kurzform für "Überleben
des körperlichen Todes von einer Entelechie" sein. Mitdenken wäre auch
für dich nicht schlecht.
Datum: 26. Aug. 2007, 09:51
> > > Am 24. Aug. 2007 00:29:05 0200 schrieb C.:
> > > http://www.spiegel.de/wissenschaft/mensch/0,1518,501713,00.html
> > ...und
299
>> hier: http://www.spiegel.de/wissenschaft/mensch/0,1518,306870,00.html
Zu den wahrnehmungspsychologischen Experimenten über außerkörperliche
Erfahrungen möchte ich noch etwas hinzufügen. Wenn in
wahrnehmungspsychologischen Experimenten außerkörperliche Erlebnisse
induziert werden könnten, dann würde das allein natürlich noch nichts
über den Wahrheitsgehalt dieser Phänomene aussagen. Durch
Hirnstimulationen bei Patienten während Operationen kann man auch ganz
normale Objektwahrnehmungen auslösen, das besagt aber natürlich nicht,
dass es die materielle Welt nicht gibt, nur weil es sich hierbei um
induzierte Halluzinationen handelt. Zum Nachweis oder zur Widerlegung
von Realitätsbehauptungen reichen Experimente allein nicht aus; dazu
muss man etwas mehr Verstand aufwenden. Was man benötigt in Bezug auf
AKE, ist eine richtige (Bewusstseins-) Theorie, die man dann experiementell testet.
Im Zusammenhang mit unserer Fragestellung wäre wichtig zu wissen, wie
man bei narkotisierten Personen solche AKE auslösen könnte, bei denen
die Personen nichts davon spüren, wenn man an ihrem Herz
herumschneidet, sie aber sehen, wie der Chirurg das macht!
Datum: 26. Aug. 2007, 20:45
[[ R. M. zitierte mich am 25. August:
> [[L.A.:]] Außerdem: Wenn die Narkose nicht tief genug
> war, warum hatte er dann keine operationsbedingten Schmerzen?
]]
R. M. schrieb:
>>Weil Schmerzbetäubung, Muskellähmung und Schlaf drei verschiedene
>>Funktionen der Narkose sind, die mit verschiedenen Chemikalien durchgeführt
werden.
Danke für die Mitteilung!
Obwohl man also auf diese Weise die Ausschaltung
des Schmerzes erklären kann, erklärt dies aber noch nicht die
scheinbar wahrheitsgetreue Beobachtung von Operationsabläufen (falls
man Sabom vertrauen kann) - ein Rest von Erklärungsbedarf bleibt also.
Außerdem gibt es ähnliche Berichte von schmerzfreien AKE außerhalb von
300
Operationen (ohne Narkosemittel) während Unfällen. Saboms
Operationsberichte sind nur deshalb besonders wichtig zu erwähnen,
weil man hierbei das Erlebte gut mit den tatsächlichen Vorkommnissen
vergleichen kann. Falls man also den Berichten über AKE während
Unfällen glauben kann, stellt sich hier doch wieder die Frage, warum
kein Schmerzerlebnis vorgelegen hat.
Datum: 26. Aug. 2007, 20:47
H. B. schrieb:
> Vielleicht könntest du die Welt noch mit einer Anmerkung beglücken,
> "wer" denn seinen Körper überleben soll.
Die postulierte Entelechie oder Seele, die laut ÜH-Vertreter die
eigentliche Persönlichkeit ausmachen soll.
Datum: 26. Aug. 2007, 20:50
H. B. schrieb:
> Meine Phantsie reicht nicht aus, das vorherzusehen, was du da meinen
> könntest, aber definitiv nicht gesagt hast.
Jede Sprache ist vieldeutig. Im Deutschen kann man mit "Überleben des
Körpers" meinen, der Körper würde überleben, aber auch, etwas überlebe
den Körper.
Datum: 27. Aug. 2007, 12:37
> Ist (für dich) die Seele nun eine Annahme oder eine erlebte Wirklichkeit?
Dies ist eine Hypothese, mit der man versuchen kann, die in meinem
Buch beschriebenen Phänomene zu erklären.
Ich selbst habe hierzu noch keine endgültige Meinung und würde ohnehin
den Ausdruck Entelechie bevorzugen.
301
Datum: 27. Aug. 2007, 12:45
> Die Grundeinstellung ist, dass Naturwissenschaften darüber keine
> Aussagen machen können, es ist keine wissenschaftliche Frage.
Das ist durchaus eine naturwissenschaftlich behandelbare Frage, aber
die meisten Naturwissenschaftler kennen gar nicht all die empirischen
Phänomene, die man dafür anführen kann. Auch haben viele
Naturwissenschaftler Angst davor, von den Kollegen als irrational
betrachtet zu werden, wenn sie sich hiermit beschäftigen. Die
Ignorierung dieses Forschungszweiges von vielen Wissenschaftlern hat
sozio-psychologische Gründe und ist ein irrationales Element innerhalb
der akademischen Gemeinschaft.
> Nahtod-Erfahrungen zeigen, was beim Sterben passieren kann, über den
> Tod selbst sagen sie NICHTS aus.
Das ist eben die Frage und darf nicht durch Definition von vornherein festgelegt werden.
Datum: 27. Aug. 2007, 18:47
F. schrieb:
> Die Grundeinstellung ist, dass Naturwissenschaften darüber keine
> Aussagen machen können, es ist keine wissenschaftliche Frage.
Das ist selbstverständlich eine naturwissenschaftliche Fragestellung,
aber viele Wissenschaftler kennen gar nicht all die empirischen
Phänomene, die für die Überlebenshypothese von den Vertretern
angeführt werden. Auch haben viele Wissenschaftler Angst davor, sich
mit diesem Forschungsbereich zu beschäftigen, weil sie befürchten, von
ihren Kollegen als irrational betrachtet zu werden. Die Ignorierung
dieses Forschungsbereiches von Wissenschaftlern hat soziopsychologische Gründe und ist ein irrationales Element innerhalb der
Wissenschaftlergemeinschaft.
> Nahtod-Erfahrungen zeigen, was beim Sterben passieren kann, über den
> Tod selbst sagen sie NICHTS aus.
Das ist gerade die Frage und darf nicht durch Definition
(definitorische Eingrenzung des Begriffes Tod auf irreparable
körperliche Funktionsunfähigkeit) von vornherein festgelegt werden.
302
Datum: 29. Aug. 2007, 11:03
> Wenn du mir ein Wesen zeigen kannst, das seinen Tod überlebt hat, reden wir weiter.
Man kann in der Wissenschaft z.B. sinnvoll über Quarks reden, obwohl
man sie nicht beobachten kann. Ähnlich kann man die empirischen
Phänomene, die für die ÜH angeführt werden, als Argumentationsbasis
benutzen, auch wenn ich deinen Wunsch nicht erfüllen kann.
Datum: 29. Aug. 2007, 11:15
> Wenn es irgendetwas "Transzendentes" gibt, was nicht vom potentiell
> lebensfähigen Körper abhängig ist, so kann man logischerweise mit den
> sog. Nah"tod"-Erfahrungen, die vom Körper abhängig sind, nichts darüber aussagen.
Da setzt du schon wieder voraus, was ja zur Diskussion steht: dass
Nahtoderlebnisse logischerweise vom potentiell lebensfähigen Körper
abhängen. Philosophen mit einer dualistischen Leib-Seele-Theorie mögen
da Bedenken haben. Wenn du nur sagen willst, dass Personen mit NTE
noch einen lebendigen Körper hatten, so magst du Recht haben (wenn du
einen Körper als lebendig definierst, soweit er noch nicht irreparabel
funktionsunfähig ist). Es mag sein, dass NTE nichts über den Tod
aussagen; aber um das überzeugend behaupten zu können, benötigt man
vollständige Theorien über Bewusstsein und Leben. Solange wir das
nicht haben, können NTE als Indizien betrachtet werden, die auf ein
Überleben hindeuten könnten und die dazu motivieren, Lebenstheorien zu
formulieren, die ein Leben nach dem körperlichen Tod erlauben und die
dann experimentell zu testen sind.
Datum: 29. Aug. 2007, 11:27
> Und wie ist deine (des Lothar Arendes) Stellung zu dieser Entelechie.
> Bist du sie? Hast du sie? Kannst du sie (nur bei anderen?) beobachten?
> Ist es sinnvoll, dass man sie postuliert?
Meine Meinung ist die, dass wir zur Zeit noch keine physikalische
Theorie haben, die die Dynamik von körperlichen Prozessen erklärt
(siehe auf meiner Homepage den Aufsatz über Biophysik). Ich glaube,
dass für die Erklärung von teleonomen Prozesse eines Körpers eine neue
303
Theorie nötig ist; in dem gerade genannten Aufsatz vermute ich, dass
die Parameter von Differentialgleichungen variabel sind und
zielgerichtet eingestellt werden können. Diese Instanz, die eine
derartige Einstellung bewirkt, sollte im Quantenvakuum bzw. Äther
liegen und man könnte sie mit Aristoteles als Entelechie bezeichnen.
Dieses Konstrukt ließe sich ganz normal mit den Methoden der
theoretischen Physik formulieren. Wie ich außerdem auf meiner Homepage
beschreibe, benutze ich gern als Erläuterungsmittel den Vergleich der
Welt mit einem Computer, und innerhalb dieses Computer-Weltbildes wäre
die Entelechie eine Art Prozessor, der nacheinander verschiedene
Körper steuern kann. Mein inneres Selbst wäre also eine Art Prozessor
(evtl. verbunden mit einer Basissoftware). Diesen Ideenkomplex könnte
und sollte man innerhalb des Forschungsbereiches "Künstliches Leben"
ausarbeiten und darauf aufbauend mit normalen Methoden der Biophysik testen.
Datum: 17. Sep. 2007, 13:44
[[S. S. schrieb u. a. am 30. August:
„Die Aufklärung hat uns in vielen Bereichen vor dem Aberglauben und den
irrationalen Auswüchsen von verschiedenen Glaubensrichtungen befreit.
Die technische Entwicklung der letzten Jahrhunderte von der
Dampfmaschine bis zum Handy oder Plasmabildschirm würde es ohne die
Aufklärung nicht geben. Von daher halte ich diesen Weg prinzipiell für
richtig und wünschenswert.
Es gibt auch leider eine Kehrseite dieser Medallie. Das rationale Denken
ist in der Tat nur eine Teilmenge des Ganzen. Intuitionen, Gefühle usw.
sind in Ihr nicht enthalten, obwohl dieser Aspekt auch im
wissenschaftlichen Bereich für den Fortschritt wichtig ist. Viele
bahnbrechende Anstöße sollen aus dem irrational-intuitiven Arealen des
Geistes hervorgegangen sein. Alleine mit Aufklärung und Vernunft können
Menschen und deren Gesellschaften nicht gedeihlich existieren.15 In der
Erziehung und Ausbildung darf dieser Bereich alleine nicht die Oberhand
gewinnen, auch wenn ich ihn für wichtig halte.“
]]
> >>> Die Aufklärung hat uns in vielen Bereichen vor
> >>> dem Aberglauben und den irrationalen Auswüchsen
> >>> von verschiedenen Glaubensrichtungen befreit.
15 Aber über die gehabten Intuitionen muss man nachträglich rational nachdenken. Wer all seinen
spontanen Einfällen blind vertraut, wird ab und zu fatale Fehler begehen.
304
Da hier immer so viel über die Aufklärung die Rede ist, will ich kurz
eine Stelle aus meiner Aphorismensammlung einfügen:
Aufklärung: Von ihren Theorien und Weltanschauungen her betrachtet
war die Aufklärung (franz. illumination) eher eine Zeit der
Verdunklung; zumindest die materialistischen Anschauungen der
französischen Aufklärer. Angesichts der heutigen öffentlich
betriebenen Esoterik kann man nur feststellen, dass sich im
Inhaltlichen die deutsche Romantik weltweit immer mehr durchsetzt;
auch ist die heutige Physik von den Anschauungen der Aufklärer weit
entfernt. Jedoch hat sich die Methode der Aufklärer - seinen eigenen
Verstand zu benutzen und religiöse Autoritäten nicht anzuerkennen siegreich durchgesetzt. Jeder Anfang ist eben ein wenig dümmlich, aber
Beharrlichkeit führt ans Ziel.
Mehr dergleichen auf meiner Webseite:
http://LotharArendes.de/intuitionen.pdf
Tschüssi, L.A.
Datum: 18. Sep. 2007, 13:28
17. Sep., 15:02, H. B. schrieb:
> > [[L.A.:]] Da hier immer so viel über die Aufklärung die Rede ist, will ich kurz
> >eine Stelle aus meiner Aphorismensammlung einfügen:
> >Aufklärung: Von ihren Theorien und Weltanschauungen her betrachtet
> >war die Aufklärung (franz. illumination) eher eine Zeit der
> >Verdunklung; zumindest die materialistischen Anschauungen der
> >französischen Aufklärer. Angesichts der heutigen öffentlich
> >betriebenen Esoterik kann man nur feststellen, dass sich im
> >Inhaltlichen die deutsche Romantik weltweit immer mehr durchsetzt;
> >auch ist die heutige Physik von den Anschauungen der Aufklärer weit entfernt.
> Bis hierher volle Übereinstimmung.
> >[[L.A.:]]Jedoch hat sich die Methode der Aufklärer - seinen eigenen
> >Verstand zu benutzen und religiöse Autoritäten nicht anzuerkennen > >siegreich durchgesetzt.
> Da sind wir im vollen Dissens.
> Glaubenssucht ist heute beinahe schon ein "Wissenschaftskriterium",
> ohne servilen Glauben (und volle Akzeptanz der Gläubigkeit) keine
305
> wissensschaftliche Karriere.
Na ja, ganz Unrecht hast Du nicht.
Wer an bestimmte Theorien nicht glaubt, kann tatsächlich sein blaues Wunder erleben!
Aber für mich ist die Rationalität der Wissenschaft ohnehin eher eine
Systemeigenschaft - sie steht also über den Schwächen der Einzelnen!
Thema: Leben nach dem körperlichen Tod? (10 Mitteilungen)
Philosophie-Forum:
http://www.philosophie-raum.de/
Zugang zu den Webseiten nur für Mitglieder:
http://www.philosophie-raum.de/index.php?page=Thread&threadID=12788&highlight=
Donnerstag, 30. August 2007, 12:39
Hallo!
Im Forschungsprojekt "Künstliches Leben" (KL) wird versucht, Leben zu simulieren.
Gute Beispiele dafür sind die Aufsätze von Terzopoulos. Zum Beispiel werden in seinem
Aufsatz über Fische (http://www.cs.ucla.edu/~dt/ siehe "Publications" und Nr. 26) die
Tiere schon sehr komplex und realistisch gezeigt.
Auf der anderen Seite legen wissenschaftliche Untersuchungen über Reinkarnation (siehe
Ian Stevenson: Reinkarnation), Nahtod-Erlebnisse und Erscheinungen die Vermutung
nahe, dass so etwas wie eine Seele oder Entelechie den körperlichen Tod überleben
könnte.
Aber falls es in Zukunft gelingen sollte, innerhalb der KL-Forschung Leben erfolgreich
zu simulieren: Würde das bedeuten, dass eine Entität wie die Seele, die den körperlichen
Tod überdauere, nicht existiere? --- Nicht notwendigerweise, weil eine Simulation einen
Computer benötigt: Man benötigt Software und - vor allem - einen Prozessor. Und so
etwas wie ein Prozessor (der die Naturgesetze als Weltsoftware benutzt) ist vielleicht
auch in der realen Welt nötig. Wenn es nur einen Prozessor für alle materiellen Objekte
gäbe, wäre das eine Art Weltgeist. Aber vielleicht ist die Welt ein Multiprozessorsystem
und vielleicht gibt es für jedes Lebewesen jeweils einen Prozessor. Solche
lebensspezifische Prozessoren (die man Entelechie oder Seele nennen könnte)
kontrollieren vielleicht einen anderen Körper, nachdem der vorherige gestorben ist.
Was haltet ihr von diesen Ideen? Kann man sich Experimente vorstellen, die diese
306
Hypothesen testen?
Tschüssi, Lothar Arendes
Donnerstag, 30. August 2007, 12:50
In der Biologie und Psychologie geht man heutzutage davon aus, dass der körperliche
Tod das vollständige Ende sei. Als Motivation für eine wissenschaftliche Diskussion der
Frage nach einem möglichen Überleben will ich noch eine Stelle aus meinem Buch, das
ich auf meiner Homepage veröffentlicht habe, anführen:
Auszug aus meinem Buch "Gibt es das Überleben des körperlichen Todes?"
S. 114f (Reinkarnationsphänomene):
Fallbeispiel Helmut Kraus
Als zweite Illustration des Phänomentyps spontaner Erinnerungen an
frühere Leben soll nun zum Abschluss dieses Abschnittes ein Fall aus
Europa vorgestellt werden (Stevenson 2005: 167-171), allerdings ohne
im Anschluss daran auf Kritiken und Gegenkritiken einzugehen. Wie
Stevenson selbst einräumt (ebd. S. 392), sind die europäischen Fälle
in ihrer Beweiskraft für einen paranormalen Vorgang insgesamt viel
schwächer als die stärkeren Fälle aus Asien, und der Fall Helmut Kraus
ist für ihn der einzige europäische Fall, in dem die angebliche
frühere Persönlichkeit identifiziert und einige Informationen durch
nicht im Fall beteiligte Personen bestätigt werden konnten (ebd. S. 391).
Helmut Kraus wurde 1931 in Linz, Österreich, geboren, sein Vater war
Biologielehrer an einer höheren Schule und es gab keine Soldaten in
der Familie. Ab dem Alter von vier Jahren sprach Helmut häufig über
ein früheres Leben und seine Bemerkungen pflegte er einzuleiten mit
Worten wie ,,Früher, als ich groß war ...", was bei Reinkarnationsfällen
oft vorkommt. So sagte er einmal, als ihn eine Freundin der Familie
(Helga Ullrich) vom Kindergarten nach Hause brachte: ,,Als ich groß war,
wohnte ich in der Manfredstraße 9." Helga Ullrich hatte eine Freundin,
Anna Seehofer, die in der Manfredstraße 9 wohnte, diese erkundigte sich
nach Männern, die dort gewohnt hatten, und weitere Aussagen des kleinen
Helmut gaben Veranlassung zu der Vermutung, dass sich seine Erinnerungen
auf das Leben ihres Cousins General Seehofer bezogen.
1958 erfuhr Karl Müller, welcher Fälle angeblicher Wiedergeburt
erforschte, von diesem Fall und stellte einige Untersuchungen an,
worüber er Stevenson unterrichtete, der 1965 Helga Ullrich interviewte
307
und später General Seehofers Leben und Tod erkundete; Kontakt zu
Helmut Kraus hatte Stevenson jedoch nicht.
Werner Seehofer wurde 1868 in Preßburg (Österreich-Ungarn) geboren, lebte einige Zeit
in Wien, war ab 1902 Oberst im Generalstab in Linz, wurde im 1. Weltkrieg im Januar
1918 zum General befördert und war Kommandeur einer Division an der Italienfront. Im
Juni 1918 verließ er bei einer Offensive sein Hauptquartier, ging an die Frontlinie, wo er
verwundet wurde und in die italienische Gefangenschaft geriet. Wenig später starb er an
seinen Verletzungen - vermutlich an einer Kopfverletzung - im Alter von fast fünfzig
Jahren.
Helmut gab an, ,,hoher Offizier im großen Krieg“ gewesen zu sein, sagte aber nie, dass er
General gewesen sei oder Seehofer geheißen hätte. Er machte jedoch mehrere weitere
Aussagen, die auf General Seehofer hindeuten. Bei einer Gelegenheit sagte er: ,,Als ich
groß war, lebte ich mehrere Jahre in Wien.", und er nannte die Straße und Hausnummer
einer Wohnung dort. Anna Seehofer bestätigte die Richtigkeit dieser Aussage für den
General. Helmut gab angeblich auch korrekt die Adresse in Linz an, wo seine
Schwiegerfamilie gewohnt hatte. Zusätzlich zu diesen angeblichen Erinnerungen zeigte
Helmut Verhaltensweisen, die zu seinen angeblichen Erinnerungen passen. So bestand er
darauf, dass sein Mantel zugeknöpft wurde, denn, so sagte er, ,,ein Offizier darf nicht mit
offenem Mantel umhergehen.“ Andererseits hatte er Angst vor lauten Geräuschen, zum
Beispiel vor Gewehrschüssen, was aber zum Tod des Generals durch eine
Kopfverletzung an der Front passt. Als Erwachsener entschloss sich Helmut nicht für ein
Leben beim Militär und ging in die Gastronomie.
Freitag, 31. August 2007, 10:33
[[a. schrieb am 30. August:
Abgesehen davon, dass es ja auch viele Menschen gibt, die nun gar nicht an eine Seele
glauben, gibt es bei denen, die daran glauben ja die unterschiedlichsten Vorstellungen,
wie so eine Seele beschaffen sein mag und wie die Verbindung mit dem Körper zustande
kommt. Eine dieser Vorstellungen ist folgende:
Die Seele ist ein Bewusstseinsfragment, welches in Form von feinstofflicher Energie
außerhalb unserer physisch wahrnehmbaren Dualität in einer raum- und zeitlosen Sphäre
existiert. Sobald eine Seele sich nach freiem Willen entschieden hat, den irdischen
Inkarnationszyklus in physischer Form zu durchlaufen, um im Zuge ihrer Entwicklung
Erfahrungen zu machen, die außerhalb der Physis nicht möglich sind, beginnt sie sich in
menschliche Körper zu inkarnieren. Und dazu sucht sie sich planmäßig die Eltern, das
Umfeld und die Umstände aus, welche nötig sind das angestrebte Entwicklungsziel und
308
die dafür zu machenden Erfahrungen in dem jeweiligen Leben zu gewährleisten.
Nun kann die Seele aber auch innerhalb eines gewissen Zeitrahmens den Zeitpunkt
bestimmen, wann sie den neuen Körper endgültig beseelt. D.h. sie kann entweder bereits
nach der Zeugung in den ausgewählten werdenden Körper eintreten oder auch erst nach
der Geburt. Dabei wird davon ausgegangen, dass der menschliche Körper ein sog. reines
Körperbewusstsein hat, demzufolge alle lebensnotwendigen körperlichen Abläufe
gewährleistet sind, doch dass das, was den Menschen ausmacht, sein Selbst-Bewusstsein,
sein Geist, erst nach der Beseelung zum Ausdruck kommt.
Und die Erfahrungen und Erinnerungen eines jeden Lebens gehen ein in das
Seelenbewusstsein und bleiben dort bewahrt und formen u.a den Charakter eines
Menschen.
Angenommen, diese Theorie wäre tatsächlich richtig, dann würde sie die Möglichkeit
Leben zu simulieren oder Körper mit künstlichen Mittel zu erschaffen nicht ausschließen,
denn wenn die Seele frei entscheiden kann, wann und in welchen Körper sie inkarniert,
könnte sie sich auch entscheiden, entweder den werdenden Körper im Leib einer Mutter
oder den in einem Reagenzglas oder wo auch immer zu beseelen, wenn dieser Körper ihr
die Voraussetzungen für ihr jeweiliges Entwicklungsziel bietet.
]]
Hallo a.!
Du beschreibst eine interessante Theorie, zu der ich nicht viel anzumerken habe. Nur
zwei Kleinigkeiten:
"Die Seele ist ein Bewusstseinsfragment"
Ich würde es eher umdrehen: das Bewusstsein als Seelenfragment (Bewusstsein als
Eigenschaft der Substanz Seele).
"Aber wie gesagt, es ist nur eine unter vielen nicht bewiesenen und (noch) nicht
beweisbaren Theorien."
Beweisen kann man ohnehin nichts, weder Quarktheorie noch Quantenmechanik. Aber
man kann eine Theorie exakt ausformulieren und überlegen, was daraus für
experimentelle Beobachtungsmöglichkeiten folgen. Wenn eine Entelechie wiedergeboren
wird in verschiedenen, sagen wir mal Fischen. Kann man das so manipulieren, dass
spätere Fische ähnliche Verhaltensgewohnheiten haben wie zuvor verstorbene?
309
Freitag, 31. August 2007, 10:59
Hallo!
Du schreibst [[Sch. am 30. August]]:
"Hier wird eine 'wissenschaftliche Untersuchung' angeführt, die, will sie sich mit
Reinkarnation befassen, schlechterdings nicht wissenschaftlich sein kann. Das hängt
insbesondere damit zusammen, dass man es mit Seelen und Entelechien [[(das Wort
taucht meines Wissens zuerst bei Aristoteles auf und bezeichnet eine Art metaphysischen
Punkt, aber auf jeden Fall etwas Nichtphysisches), diese Begriffe tauchen hier ja auch
auf, zu tun hat. Die Seele, sogar die im Jahrhunderte dauernden philosophischen Diskurs
geschliffene katholische Kirche definiert diesen Begriff unscharf und mit allergrößter
Vorsicht, entzieht sich dem, was wir Wissenschaft nennen würden. Wissenschaft befasst
sich mit meßbaren Phänomenen, mit quantifizierbaren Größen.“]]
Die von mir zitierten Untersuchungen sind empirische Untersuchungen, die theoretischen
Überlegungen mit Begriffen wie Seele, Entelechie etc. vorangelagert sind und nach ganz
normalen experimentell-methodologischen Kritierien zu beurteilen sind.
[[Sch.:]] "Ein Wissenschaftler untersucht die Kausalbeziehungen seiner Umwelt. Kausal
aufeinander einwirken - das ist das Paradigma der paradigmatischsten aller
Naturwissenschaften: der Physik."
Seit der Quantenmechanik ist der Kausalbegriff in der Physik sehr umstritten und wird
selten (und dann meist in etwas anderer Hinsicht im Rahmen der Relativitätstheorie:
zeitliche Reihenfolge von Ereignissen) gebraucht. Und in der Biologie wird zunehmends
der Teleonomiebegriff benutzt, dessen Beziehung zur Kausalität unterschiedlich bewertet
wird.
Die wissenschaftliche Vorgehensweise ist: Ein Wissenschaftler stellt eine Theorie auf
(getriggert durch empirische Phänomene) und schaut, was für Vorhersagen man daraus
ableiten kann. Über die Art der Theorie gibt es keinen Dogmatismus in der Wissenschaft
(jedenfalls sollte es das nicht).
[[Sch.:]] "Indem sie [[die Entelechie]] aber dieses Kriterium, die Nichtkörperlichkeit,
erfüllt, disqualifiziert sie sich für die wissenschaftliche Betrachtung."
Die Felder der theoretischen Physik (z.B. das Raumzeitfeld der Allgemeinen
Relativitätstheorie) sind nichtkörperlicher Art. Ebenso die Naturkonstanten - und auf
dieser Ebene betrachte ich die Entelechie. (Ich deute also die Mathematik im
310
platonischen Sinne als konkret existent. Heisenberg war z.B. Platoniker. Über die
ontologische Natur der Naturgesetze gibt es aber (noch?) keine wissenschaftliche
Theorie.)
[[Sch.:]] "Das ist zuallererst die unkritische Übernahme eines kartesisch-dualistischen
Weltbildes"
Könnte es nicht sein, dass du ein materialistisches Weltbild unkritisch übernommen hast?
(Über mein monistisches Computer-Weltbild siehe den entsprechenden Aufsatz auf
meiner Homepage. Descartes war Substanz-Dualist.)
[[Sch.:]] "Es wird überhaupt nicht deutlich, inwiefern die Seele notwendig als Prozessor
begriffen werden muss, zumal nicht mal klar ist, zwischen welchen Medien eine
Vermittlung (was für eine Vermittlung? Zusatzfrage) vonstatten gehen soll."
Ich habe nicht geschrieben, dass eine Seele notwendig als Prozessor begriffen werden
muss; das war nur ein Vorschlag. Mit deiner Prozessor-Definition kann ich auch nicht
viel anfangen. In welchem Sinne wäre denn ein Prozessor innerhalb eines Intel-PC ein
Vermittler? Übertrage das dann auf die Entelechie innerhalb der realen Welt.
[[Sch.:]] "Unmöglichkeit, Deine Hypothesen experimentell zu testen, zeigt, dass dies kein
wissenschaftliches Projekt sein kann."
Dass dies unmöglich ist, hast du nicht überzeugend darstellen können; dies kann man erst
bewerten, nachdem eine solche Theorie vollständig ausgearbeitet wäre.
Montag, 3. September 2007, 12:01
Hallo!
[[Sch.:]] "Ich würde mich mal dafür interessieren, was die von Dir angeführten
'empirischen' Untersuchungen genau abprüfen."
Bei den Berichten über Nahtoderlebnissen und außerkörperlichen Erfahrungen wird
durch Interviews das Erlebnis, das jemand hatte, als er z.B. im Koma lag, genau
beschrieben, und anschließend wird untersucht, ob das Erlebnis (z.B. "Beobachtungen"
über Vorgänge während seiner Operation) der Wahrheit entspricht. (Hier hat z.B. der
311
Kardiologe M. Sabom interessante Untersuchungen angestellt.) Bei den
Reinkarnationsfällen behaupten Kinder, Erinnerungen an frühere Leben zu haben. Hier
kann man dann untersuchen, ob das Kind diese Informationen auf normalen Weg erhalten
haben konnte oder nicht, und ob die "erinnerten" Vorfälle tatsächlich stattgefunden
haben. Beweisen tut das alles nichts, gibt aber zu denken.
[[Sch.:]] "Die teleologische Vorgehensweise, die Du der Biologie zuschreibst, ist nichts
anderes als eine Arbeitshypothese."
Das ist die Frage. Und viele Philosophen und Biologen sehen das anders. Das wäre aber
eine Fragestellung, für die man wieder eine eigene Diskussionsrunde starten könnte.
[[Sch.:]] "Es ist doch mithin so, dass, wenn immer ich einen Prozess beobachte (zB wenn
ein Ball ins Zimmer rollt), ich die Ursache des Ballrollens vermute."
Ja, aber angesichts der Quantenmechanik und ihrer Interpretationsprobleme ist
physikalisch nicht klar, wo diese Ursache genau liegt. Aber mit meiner
Prozessorhypothese leugne ich auch gar nicht die Kausalität - woimmer sie auch
ontologisch liegen mag.
[[Sch.:]] "Wie sollte es eine Theorie der Ontologie der Naturgesetze geben?"
Solange es über ein Problem keine Theorie gibt, solange weiß man natürlich nicht, wie
eine solche Theorie auszusehen hat; aber das beweist nicht, dass eine Theorie unmöglich
ist.
[[Sch.:]] "Wie willst Du wissen können, dass die Naturgesetze den Dingen immanent
sind und nicht bloß unsere erfolgreiche Strategie, mit der Natur zu verfahren?"
Das Problem ist, dass es nach der Quantenmechanik gar keine substanziellen Objekte
gibt, sondern nur Phänomenbeobachtungen, die sich gesetzlich verhalten. Wieso
verhalten sich diese Phänomene (bzw. ihre Beobachtungen) so regelmäßig? Wenn wir
nur unsere Denkgewohnheiten hineinprojizieren, warum können dann andere Menschen
mit anderen Einstellungen nicht etwas ganz anderes beobachten?
[[Sch.:]] "Insbesondere beißt sich der ontologische Anspruch mit der geforderten
Empirie. Denn das Experiment kann immer nur ein Ergebnis zu dieser Zeit an diesem Ort
feststellen, wobei die Explikation eines Naturgesetzes, Hume wies eindeutig darauf hin,
312
Induktion ist - das Aufpfropfen von menschlichen Schemata auf eine Welt, die man auf
diese Weise ordnen will."
Hier bist Du wieder bei einem alten philosophischen Problem, über das die Vertreter der
unterschiedlichen Standpunkte dicke Bücher geschrieben haben. Da es mir hier nicht
primär um dieses Problem geht, gehe ich auch hierauf wieder nicht näher ein. Meine
grundsätzliche Position ist: Wenn man empirische Daten hat, die man noch nicht
überzeugend erklären kann, so muss man hierfür eine Theorie entwickeln, daraus
Beobachtungsvorhersagen ableiten und diese experimentell testen. Soweit bin ich
natürlich noch lange nicht.
[[Sch.:]] "Du bist Monist? Das kann ich nicht erkennen. Deiner Reinkarnationsthese
zufolge löst sich doch eine unkörperliche Seele von einem körperlichen Körper (schöne
Tautologie), oder nicht?"
Man muss unterscheiden zwischen Substanzdualismus und Eigenschaftsdualismus.
Natürlich ist ein Prozessor etwas anderes als ein Computerbildschirm mit seinen
Abbildungen; aber alles ist Teil eines Systems: des einen Computers. Ein Monist muss
natürlich auch erklären können, warum wir Unterschiedliches beobachten. Wenn alles
Eines wäre, woher kommt dann die Vielheit? Das ist wieder ein altes philos. Problem.
Wenn man sich die vielen -ismen der Philosophie genauer anschaut, sind sie alle viel
komplexer, als man zuerst angenommen hat.
[[Sch.:]] "die Seele als Prozessor ist ein Vorschlag. Welche Vorzüge hat es, dieses
Gedankenexperiment zu machen?"
Das könnte eine Ansatzstelle für die Erklärung der oben genannten empirischen Befunde
sein. Innerhalb des Forschungsprojektes KL kann man diese Hypothese ausformulieren,
Simulationen durchführen und experimentelle Testmöglichkeiten entdecken.
[[Sch.:]] "Meine Prozessordefinition passt sehr gut zum PC-Prozessor. So, wie der Hut
zwischen Wind und Sand vermittelt, also eine Information über die Windrichtung in den
Sand schreibt, so schreibt der PC-Prozessor Informationen über den Input auf eine
Festplatte."
Das mag ja für deine Kommunikationstheorie recht interessant sein, für mich als
Naturwissenschaftler ist bedeutsamer, dass der Prozessor eine reale Struktur ist, die die
Bildschirmphänomene erzeugt. Analog vermuten manche Physiker, dass unsere
Raumzeit auch nur eine Projektion aus einer tieferen Struktur heraus ist, deren inneren
Strukturen die Objekte unserer Raumzeitwelt steuern (z.B. B. Heim).
313
[[Sch.:]] "nachgewiesen zu habe, dass Deine Ansprüche nicht einlösbar sein werden."
Mit Behauptungen über "Beweise" sollte man sehr vorsichtig sein - solche
Unmöglichkeitsbeweise sind schon oft empirisch überholt worden.
Mittwoch, 5. September 2007, 10:58
Hallo!
[[Sch.:]] "habe ich mich mit Kübler-Ross und anderen Sterbeforschern
auseinandergesetzt"
Von dem wissenschaftlichen Wert der Bücher von Kübler-Ross halte ich nicht sehr viel um es vorsichtig auszudrücken.
[[Sch.:]]
[[" "Die teleologische Vorgehensweise, die Du der Biologie zuschreibst, ist nichts
anderes als eine Arbeitshypothese." Das findest Du zweifelhaft?"]]
"Mein alter Herr ist Mikrobiologieprofessor und hat mir bestätigt [[,dass es letztlich ein
überholter Naturalismus ist, ein Unterstellen eines festgesetzten Ziels, welches angeblich
die Evolution verfolgen soll, wenn man eine Teleologie voraussetzt.“]]
Von den philosophischen Äußerungen von Naturwissenschaftlern sollte man nicht zu viel
erwarten; sie mögen im jeweiligen Spezialgebiet sehr gut sein, aber vielleicht gerade
deshalb auf anderen Gebieten oftmals nicht so sehr.
[[Sch.:]]
[[Zitat L.A.: „Das Problem ist, dass es nach der Quantenmechanik gar keine
substanziellen Objekte gibt, sondern nur Phänomenbeobachtungen, die sich gesetzlich
verhalten. Wieso verhalten sich diese Phänomene (bzw. ihre Beobachtungen) so
regelmäßig?“]]
"Die verhalten sich gar nicht regelmäßig! Die verhalten sich unvorhersehbar, erratisch,
zufällig."
Ohne ein Mindestmaß an Regelmäßigkeiten in der Welt wäre Leben und Kommunikation
gar nicht möglich. Selbst die Elementarteilchen befolgen die Schrödingergleichung,
obgleich sie doch sehr eigenwillig sind (-:
314
[[Sch.:]] "Falls es einen deterministischen Zentralcomputer gibt, dessen Teile wir alle nur
sind, dann bin ich nicht und Du auch nicht. Folglich können wir dann auch schlecht
wiedergeboren werden... "
Ob ein Weltcomputer deterministisch sein muss, weiss ich nicht. Auch könnten wir
existieren, wenn wir ein Teil davon wären, so wie auch der Prozessor in meinem PC
existiert, aber eben nicht als isoliertes Individuun. Was den Ausdruck "Wiedergeburt"
betrifft, müsste man ihn sicherlich ein wenig präzisieren bzw. umdefinieren; das
überlasse ich Dir.
Freitag, 7. September 2007, 11:09
[[Sch.:]] "Du gehst überhaupt nicht auf den springenden Punkt der Kritik ein: Den
kantisch-hume'schen Vorwurf der Ontologisierung der Naturgesetze, obwohl sie sich nur
phänomenologisch zeigen. Warum nicht?"
Ich gehe nicht darauf ein, weil es zur Entwicklung von naturwissenschaftlichen Theorien
nicht nötig ist und auch bei meiner Prozessortheorie nicht nötig ist, dieses philosophische
Problem aber ein Fass ohne Boden ist, wofür man eine neue Diskussionsrunde starten
könnte. Es ist eine andere Fragestellung.
Montag, 10. September 2007, 14:12
Hallo!
[[Sch.:]] "An anderer Stelle (früher in diesem, naja, mittlerweile Dialog) sagtest Du, man
solle vorsichtig sein, wenn Naturwissenschaftler philosophische Themen angehen. Nun
meinst Du, eine naturwissenschaftliche Theorie zu entwickeln, obwohl wir es
zweifelsohne mit einem philosophischen Thema zu tun haben. Weshalb gilt die von Dir
festgestellte Aporie des philosophierenden Naturwissenschaftlers nicht für Dich?"
Das gilt natürlich auch für mich, aber im Zusammenhang mit der Überlebensfrage ist es
mir gleichgültig, was Du über die ontologische Natur der Naturgesetze glaubst.16 Man
16 Was ich mit meiner früheren Bemerkung über den Biologieprofessor zum Ausdruck bringen wollte,
war, dass ein Naturwissenschaftsprofessor bei Aussagen über die Geschichte oder Philosophie seines
Faches nicht unbedingt solch eine Autorität besitzt, wie wenn er sich zu seinem unmittelbaren
315
kann sehr gut Naturwissenschaft (Quantenmechanik etc.) betreiben, ohne dieses Problem
gelöst zu haben. Und auch in der Philosophie kann man beide Punkte voneinander
trennen. Natürlich wäre es schön, wenn wir alle philosophischen Probleme lösen
könnten, und ich würde mich freuen, wenn Dir das gelingen sollte.
Zu Anfang unseres Dialoges hattest Du auf die materiellen Körper hingewiesen. Ich habe
ein ganzes Buch über die Frage veröffentlicht (Würzburg 1992), ob die materiellen
Objekte real sind, aber eine endgültige beweisende Antwort habe ich nicht anbieten
können. Da es also bislang noch niemandem gelungen ist, die Realität der materiellen
Welt zu beweisen, wird mir das für die Naturgesetze erst recht nicht gelingen. Du wirst
aber Deine Position auch nicht beweisen können.
[[Sch.:]] "Was macht Deine Theorie überhaupt naturwissenschaftlich?"
Man kann sie im Rahmen des Forschungsprojektes "Künstliches Leben" ausformulieren
und durch Simulationen experimentelle Testmöglichkeiten erkunden.
Montag, 11. September 2007, 11:49
Hallo!
[[Sch.:]] "So bleibt die Computer-Hypothese nur ein Modell, es gibt keinerlei gute
Gründe, Dein Weltbild gegenüber anderen Weltbildern zu präferieren."
Den Anspruch erhebe ich auch gar nicht. Bei Weltbildern kann man nur nach sehr langer
Zeit rückblickend feststellen, welches Weltbild bei der Stimulation von neuen Theorien
nützlicher war.
[[Sch.:]] "Original [[L.A.]]: "Wir haben objektive Erkenntnisse über die Welt." [[von
Sch. auf meiner Homepage gelesen]] Dies ist quasi ein Grundpfeiler Deiner Theorie.
Diese Basis ist aber nicht nur zweifelhaft, sondern mit Sicherheit falsch."
Du bist mit definitiven Behauptungen immer sehr schnell. Neben Musgrave [[den Sch.
als Kritiker objektiver Erkenntnis anführt]] gibt es noch sehr viele andere
Erkentnistheoretiker, die seine Meinung nicht teilen. Ich habe nichts dagegen, wenn Du
anderer Meinung bist als ich, aber einfach festzustellen, meine Gegenposition sei falsch,
zeigt, dass Du die Komplexheit philosophischer Probleme mit ihren Argumenten und
Forschungsgebiet äußert – und natürlich kann er sich auch dort irren.
316
Gegenargumenten noch nicht erkannt hast.
[[Sch.:]] "Die Ontologie der Naturgesetze. Stets und immer kann das Naturgesetz nur
vermittelst der beobachtbaren Wirkungen festgestellt werden."
Das ist richtig, sagt aber noch nichts über den Wahrheitsgehalt einer Aussage über die
Natur der Naturgesetze. Dazu sind komplexere Gedankengänge nötig.
[[Sch.:]] "Folglich ist es eine recht weitgehende Unterstellung, zu behaupten, die
Zusammenhänge seien den Objekten immanent und nicht vom Betrachter induziert!"
Richtig, meine Vermutung ist weitgehend. Ich sage aber nicht, die Gesetze seien den
Objekten immanent, sondern produzieren diese. (Eine Computersoftware ist den
Bildschirmabbildungen nicht immanent, vielmehr werden Abbildungen vom Prozessor
mit der Software hervorgebracht.) Ich will hier gar nicht die ontologische Existenz der
Naturgesetze begründen, sondern gehe deduktiv vor: Angenommen, die Welt wäre
vergleichbar mit einem Computer, dann läge die Vermutung nahe, dass Naturgesetze eine
ähnlich konkrete Seinsweise haben wie die Software in einem Computer (als Struktur in
der Hardware; also tatsächlich immanent in etwas, aber nicht immanent in den
Bildschirmabbildungen). Ich will hier gar nichts definitiv begründen, sondern frage: Was
folgt aus diesen Annahmen? Evtl. können dadurch wissenschaftliche Theorien getriggert
werden, die sich experimentell testen lassen. Und meine dadurch getriggerte
Entelechiehypothese (Entelechie als eine Art Prozessor in einer Struktur außerhalb
unserer Raumzeit) ist eine naturwissenschaftliche These, die sich mit Simulationen und
daraus folgenden Experimentvorschlägen untersuchen lässt. Dass es sich hierbei um eine
naturwissenschaftliche These handelt, wird schon daraus deutlich, dass der theoretische
Physiker B. Heim eine Theorie entwickelt hat, die dem ähnlich ist, aber wesentlich
differenzierter ist (ich habe sie erst später kennengelernt).
Dienstag, 18. September 2007, 13:20
[[Sch.:]] "Falls ich Referenzen beibringen muss, dass ich die "Komplexität
philosophischen Denkens" doch im Ansatz verstehe, so kann ich mit dem Staatsexamen
in Englisch und Philosophie dienen."
Genau das ist Deine Argumentationseinstellung, die eine Diskussion sinnlos macht. (In
einem früheren Posting hast Du schon einmal einen Biologieprofessor als Beleg Deiner
Meinung angeführt.)
317
Thema: Entelechie (17 Mitteilungen)
http://groups.google.de/group/de.sci.psychologie/browse_thread/thread/277538d5a2a5ac
06/2f613fc2ba4c3a6a?hl=de&
Gruppe: de.sci.psychologie
Datum: 7. Sept. 2007, 10:47
Hallo!
Obwohl es in der Biologie noch keine Theorie des Lebens gibt, ist die
vorherrschende Grundeinstellung von Psychologen und
Naturwissenschaftlern, dass der Tod des biologischen Organismus das
endgültige Ende sei und dass es keine Seele oder Entelechie gäbe, die
den körperlichen Tod überdauere.
Ich habe mich in den letzten Jahren mit den empirischen Phänomenen
beschäftigt, die von manchen Autoren als Belege für ein Leben nach dem
körperlichen Tod angeführt werden, und habe darüber ein Buch
geschrieben. Eine vorläufige Version meines Buches "Gibt es ein
Überleben des körperlichen Todes?" habe ich auf meiner Homepage
veröffentlicht:
http://LotharArendes.de/
Wer hat Lust, über derartige Phänomene und über die Notwendigkeit des
Seelen- oder Entelechiebegriffes zu diskutieren? Als Vorschlag für
einen Diskussionsbeginn führe ich im Folgenden ein paar Stellen aus
meinem Buch an.
MfG, Lothar Arendes
Meine Blog-Adresse: http://LotharArendes.blogspot.com
Datum: 7. Sept. 2007, 10:55
Auszüge aus meinem Buch:
S. 151f (Darstellung der Phänomenarten):
Bei den außerkörperlichen Erfahrungen hat man das Gefühl, sich
außerhalb seines Körpers zu bewegen und von außerhalb seine Umwelt zu
betrachten, und auf ähnliche Weise sollen auch die Geister von
318
Verstorbenen fortexistieren und uns in den Seancen über Medien
Botschaften übermitteln können. Bei den Medienkundgebungen befindet
sich eine Person in Trance und hat angeblich entweder über Telepathie
Kontakt zu einem Geist, den man als die Kontrolle bezeichnet, oder
diese Kontrolle ergreift Besitz von dem Körper des Mediums und benutzt
ihre Sprechorgane, um ihre Botschaften zu übermitteln. Die Kontrolle
behauptet, in Kontakt mit einem Verstorbenen (dem Kommunikator) zu
stehen, der ein Verwandter oder Freund eines in der Seance anwesenden
Sitzers sei. Die Botschaften, die die Kontrolle durch das Medium
übermittelt, sind meistens Informationen über das irdische Leben und
über Eigenarten des Verstorbenen, die in manchen Fällen sehr gut zu
der vermutlichen Gedächtnisstruktur des Verstorbenen am Ende seines
Lebens zu passen scheinen und die auch seinen charakterlichen
Eigenarten und Redewendungen, seinem Humor, der Gestik etc. zu
entsprechen scheinen. Geister sollen außerdem in der Lage sein, sich
als sogenannte Erscheinungen in unserer physikalischen Welt bemerkbar
zu machen. Erscheinungen sind wie normale Objekte oder Personen
scheinbar physikalisch existierend sichtbar und treten vollständig oder
teilweise mit einem Körper auf, den die Verstorbenen zu Lebzeiten
hatten. Bei den Sterbebett-Visionen erscheinen verstorbene Verwandte,
Freunde oder auch irgendwelche andere, scheinbar göttliche Wesen dem
Sterbenden, um ihn in die jenseitige Welt abzuholen oder ihn darauf
vorzubereiten. Von Nahtoderlebnissen mit solchen Geisteswesen
berichten Personen, die dem körperlichen Tod sehr nahe gewesen sind als klinisch tod beurteilt worden sind, im Koma gelegen haben o.ä. und die im Zustand einer außerkörperlichen Erfahrung in eine
jenseitige Welt geflogen, aber von dort aus wieder zurückgekehrt
seien, da sie angeblich noch nicht körperlich sterben sollten. Von
einem vor der Geburt stattgefundenen Kontakt mit einem jenseitigen
Wesen berichten in ganz seltenen Fällen auch Kinder, die sich als
körperliche Wiedergeburt einer in der Vergangenheit gelebten Person
betrachten. Bei den spontanen Reinkarnationsfällen sind die Kinder
ebenso wie die Medien der Seancen in der Lage, sehr detailliert
Informationen über das Leben eines Verstorbenen zu geben, mit dem sie
sich aber über mehrere Jahre hinweg identifizieren, bevor ihre
angeblichen Erinnerungen an dieses frühere Leben immer mehr verblassen
und zumeist irgendwann ganz aufhören. Vermeintliche Erinnerungen an
frühere Leben werden außerdem in hypnotischen Altersrückführungen
erlebt.
S. 155f:
Überblick über Argumente der Befürworter
Die Hirnforschung hat zwar Abhängigkeiten unseres Gedächtnisses und
unseres Denkvermögens vom Gehirn nachgewiesen, ein Beweis für eine
319
Unmöglichkeit des Überlebens sind diese empirischen Befunde jedoch
nicht. Zu vieles ist in den Neurowissenschaften noch ungeklärt;
vollständige wissenschaftliche Theorien über das Funktionieren von
Gedächtnis und Denken gibt es zur Zeit nicht. Die bekannten
physiologisch bedingten Gedächtnisstörungen sind beispielsweise auch
erklärbar, wenn man im Sinne von Broads Zweifaktorentheorie den
psychischen Faktor und den körperlichen Faktor als ein
zusammengehörendes System betrachtet.
Um die für das Überleben angeführten Phänomene in seinem Sinne zu
deuten, muss der Kritiker auf sehr umfangreiche Weise eine paranormale
Wissensaufnahme behaupten; in Laborexperimenten konnten aber derartig
umfangreiche und detaillierte telepathische Wissensübertragungen, wie
es bei den Medienkundgebungen manchmal der Fall ist, noch nie
nachgewiesen werden - abgesehen von einige Untersuchungen mit
Sensitiven, deren wissenschaftliche Durchführung kritisiert werden
kann. Darüber hinaus lassen sich besondere Fähigkeiten wie die der
responsiven Xenoglossie oder Tänze und Gesänge allein mit ASW
vermutlich nicht erklären.
Dass die Erscheinungen sehr oft ein semi-automatenhaftes Verhalten und
die Medienkundgebungen oft Banalitäten über ihr früheres Leben und
vielfachen Unsinn enthalten, kann daher kommen, dass man sich nach dem
körperlichen Tod in einem schlaf- oder traumähnlichen Zustand
befindet. Außerdem kann das Krankheitsbild der multiplen
Persönlichkeit nicht als Erklärung der Personationen in den Seancen
angeführt werden, da die Entstehung der multiplen Persönlichkeit
ebenfalls ungeklärt ist und man somit nur ein Rätsel durch ein anderes
ersetzen würde. Hätten die Medien ebenso wie die Kinder der
Reinkarnationsfälle alle diejenigen Informationen, die sie auf
natürliche Weise gar nicht erlangt haben konnten, mittels Telepathie
erhalten, hätten sie somit außergewöhnliche ASW-Fähigkeiten besessen,
so sollte man erwarten, dass sie viel öfter auch Dinge gewusst hätten,
die die Verstorbenen nicht wussten. Zumindest ist die Postulierung
eines Weltgeistes, der in bestimmten Speichern genau das Wissen
bestimmter verstorbener Personen enthält, ebenso ungewöhnlich und
entgegen dem heutigen naturwissenschaftlichen Wissen wie die
Überlebenshypothese, mit der man jedoch zusätzlich alle anderen
Phänomene (evtl. außer die höheren Wesen) erklären kann und die somit
eine größere Erklärungskraft besitzt.
Was die Erscheinungen betrifft, so klingt die Halluzinationshypothese
oft sehr unwahrscheinlich, beispielsweise wenn die Erscheinung
gleichzeitig von mehreren Personen gesehen wurde. Dass sich solche
Halluzinationen einer Person auf telepathischem oder anderem Wege auf
320
alle anderen Anwesenden ausgedehnt haben sollen, ist besonders dann
nicht sehr überzeugend, wenn zuerst der Hund auf die Erscheinung
angeschlagen hat und erst daraufhin die anwesenden Menschen es
bemerkten, wie es in einem Fallbeispiel beschrieben wurde. Irgendeine
objektive Ursache für derartige kollektive Wahrnehmungen ist ziemlich
wahrscheinlich, ebenso für dieselben Erscheinungen bei den
unterschiedlichsten Perzipienten zu verschiedenen Zeiten und am selben
Ort. Oft wussten auch die Perzipienten nichts vom Sterben des
Erschienenen, und wäre dies durch Telepathie übertragen worden, so
sollte die Erscheinung viel öfter das Leid und die Todesangst des
Erschienenen ausdrücken, anstatt Trost oder Banalitäten darzustellen.
Bei einer telepathischen Auslösung von Erscheinungen sollten außerdem
öfter Lebende erscheinen und nicht so überhäufig Tote.
Zu den Kritiken an den Nahtoderlebnissen ist zu sagen, dass keine der
angeführten neurophysiologischen Theorien alle bei den NTE
auftretenden Phänomenen erklären kann, auch treten NTE bei Personen
ohne Medikamenteneinnahme und bei vollem Bewusstsein auf;
Drogenhalluzinationen und Träume sind außerdem viel variabler. Viele
Kritiken der ÜH-Gegner klingen plausibel, wenn man sie ganz allgemein
vorträgt, schaut man sich aber die Phänomene im Detail an, so bleiben
oft einige Zweifel. Würde es sich bei den NTE beispielsweise um
Wunschdenken handeln, dann sollten sterbende Kinder viel öfter ihre
Eltern halluzinieren und nicht verstorbene Verwandte, die sie nie
zuvor gesehen haben, auch hatten Patienten, die an das Überstehen
ihrer Krankheit glaubten, keinerlei Grund zum Wunschdenken. Wie die
Studie von Osis und Haraldsson zeigte, spielen psychologische Faktoren
wie Stress und medizinische Faktoren wie Medikamente und
Hirnschädigungen bei den Sterbebett-Visionen keine ausschlaggebende Rolle.
Dass einige Kritiker weltanschaulich bedingten Abwehrmechanismen
unterliegen, ist manchmal bei den Reinkarnationsfällen unübersehbar wenn beispielsweise die daran beteiligten Personen als vom Teufel
verführt bezeichnet werden -, und die Hypothese vom Zugriff auf
spezifische Gedächtnisspeicher eines Weltgeistes zur Erklärung von
mitgeteilten Informationen, die selektiv auf die Gedächtnisstruktur
eines Verstorbenen passen, mag bei Medien im abnormen Trance-Zustand
plausibel erscheinen, jedoch kaum bei Kindern im normalen Wachzustand.
In seltenen Fällen wurde das Kind eines Reinkarnationsfalles geboren,
bevor die vorangegangene Persönlichkeit starb, nach der Telepathieund Halluzinationshypothese sollte man aber derartiges (und vor allem
Identifizierungen mit noch Lebenden) viel häufiger erwarten; das
seltene Auftreten solcher Fälle des später Geborenen könnte eher die
Verdrängung einer zuvor inkarnierten Seele bedeuten. Bemerkenswert ist
321
auch, dass bei Gegenüberstellungen mit der angeblich früheren Familie
Täuschungsversuche der Familie oft nicht zu falschen
Wiedererkennungsbehauptungen des Kindes führen. Die ASW-Hypothese
erklärt außerdem nicht die Identifizierung des Kindes mit der früheren
Persönlichkeit; die mitgeteilten Informationen werden erlebt als die
eigenen Erinnerungen, was bei Sensitiven und Medien auch vorkommt,
aber nie über mehrere Jahre hinweg.
Obwohl die außerkörperlichen Erfahrungen zunächst nur als ein
indirektes Argument für das Überleben angeführt werden, nämlich als
Beleg für die Existenz des Bewusstseins ohne Körper, und obwohl die
Gegner diesem Argument begegnen können (der Körper als Trägersubstanz
von Bewusstseinsphänomenen existiert während dieser Erfahrungen; AKE
seien deshalb Sinnestäuschungen), ergeben sich dennoch aus den AKEUntersuchungen zwei wichtige Argumente. Wie Sabom in seinen
Untersuchungen zeigen konnte, entsprechen die AKE, welche Patienten
während Operationen und Notfallmaßnahmen machen, zu einem großen Teil
tatsächlich den wirklich stattgefundenen Vorgängen, da aber
Nahtoderlebnisse meistens mit AKE beginnen und da es einen
kontinuierlichen Übergang von den Beobachtungen des eigenen Körpers
und seiner physikalischen Umwelt zu den Beobachtungen in einer
vermeintlich jenseitigen Welt gibt, liegt die Vermutung nahe, dass
auch die späteren Erlebnisse von NTE teilweise wahr sind. Darüber
hinaus ist der Materialist vor die Frage gestellt, wie überhaupt
Patienten während Operationen unter Vollnarkose derartige
Bewusstseinszustände haben können, wenn das Bewusstsein lediglich eine
Emergenzeigenschaft des materiellen Gehirns sein soll. Hier steht der
Materialist vor der Erklärungspflicht zu zeigen, wie Bewusstseinszustände, die aber
keinerlei mit der Operation verbundenen Schmerzen enthalten, möglich sind.
Datum: 9. Sep. 2007, 16:03
7. Sep., 13:50, H. U. G. schrieb:
> 2. Raum, Zeit und Materie bilden eine Einheit, sind ohne einander nicht denkbar.
Nach den Feldgleichungen der Allgemeinen Relativitätstheorie kann es
eine Raumzeitstruktur ohne Materie geben. Aber natürlich kommt Materie
nur innerhalb der Raumzeit vor.
Wichtiger in unserem Zusammenhang ist die Quantenmechanik. Nach
einigen Interpretatoren - z.B. nach Heisenberg - wird die Materie erst
322
im Beobachtungsakt in unsere Raumzeit projiziert; es scheint also
etwas außerhalb unserer Raumzeit zu existieren. Diesbezüglich
besonders interessant ist die Theorie von Burkhard Heim, nach der
unsere vierdimensionale Raumzeit eingebettet ist in eine Höherdimensionalität.
> Die Existenz eines Gegenstandes beweisen wir, indem wir angeben, wann und wo wir
>diesen Gegenstand beobachten und an welchen Merkmalen wir ihn erkennen können.
Viele Entitäten der theoretischen Physik wie Quarks u.ä. sind aber gar
nicht beobachtbar. Die Nützlichkeit eines Begriffes ergibt sich
vielmehr daraus, dass man aus der Theorie, innerhalb der dieser
Begriff auftaucht, Theoreme ableiten kann, die sich experimentell
testen lassen. Es ist nicht undenkbar, dass man empirisch überprüfbare
Theoreme eines Tages auch aus einer vollständig ausformulierten
Überlebenstheorie wird ableiten können. Als Motivation für die
Konstruktion einer solchen Theorie müsste es aber empirische Hinweise
geben, die als Indizien für ein Überleben des körperlichen Todes
betrachtet werden können. Und solche Indizien ergeben sich evtl. aus
Untersuchungen über Nahtoderlebnisse, Reinkarnation etc., und solche
empirischen Befunde zu sammeln und zu diskutieren ist Aufgabe der
Psychologie.
MfG, Lothar Arendes
Datum: 10. Sep. 2007, 14:36
9. Sep., 16:39, H. U. G. schrieb:
> Feldgleichungen hin oder her. Interessanter scheint mir in unserem
> Zusammenhang die Frage, wie man die Existenz von Gegenständen, und seien
> es auch "Raumzeitstrukturen", durch Beobachtung verifizieren will, wenn
> sie immateriell sind.
Immateriell sind auch physikalische Entitäten wie die Raumzeit der
Allgemeinen Relativitätstheorie oder die Felder der Thermodynamik
(Entropie etc.). Die Nützlichkeit dieser Begriffe ergibt sich aus der
empirisch-experimentellen Nützlichkeit der gesamten Theorie.
> Da stellt sich mir die Frage, wie etwas außerhalb der Raumzeit
> Existierendes bewiesen werden könnte: Wie macht man es dingfest, wenn es
> nicht in Raum und Zeit existiert? Wie beobachtet man etwas außerhalb von
> Raum und Zeit?
323
Du hast eine zu empiristische Grundeinstellung, die in der Physik
schon seit langem nicht mehr gilt. Beweisen kann man weder ART,
QM, Evolutionstheorie etc. etc. Man kann aber experimentelle
Vorhersagen überprüfen. Wie man sich Strukturen außerhalb von Raum und
Zeit vorstellen kann, kannst Du bei verschiedenen Physikern nachlesen;
z.B. bei Penrose, Heim etc.
Wenn man die raumzeitliche Welt einmal mit Abbildungen auf einem
Computerbildschirm vergleicht, dann könnte eine Entelechie ähnlich
existieren wie der Computerprozessor (d.h. außerhalb des Bildschirmes
und evtl. als Struktur innerhalb einer Höherdimensionalität; die
Abbildungen auf einem Bildschirm sind zweidimensional).
> Richtig. Beobachtetes kann Indikator sein für etwas, das nicht direkt
> beobachtet werden kann. Der Indikator ist aber nur dann ein
> Existenzbeweis, wenn eine zwingende logische Beziehung zwischen ihm und
> dem besteht, dessen Existenz er angeblich anzeigt.
Experimentelle Resultate von physikalischen Theorien können diese
Theorien nicht beweisen! Sie machen die Theorien nur plausibel.
> Damit hier Theoreme abzuleiten überhaupt Sinn macht, muss man zunächst einmal die
> Existenz der Seele beweisen, solange der Körper noch lebt.
Solange es keine Indizien für ein Überleben des körperlichen Todes
gibt, ist es gar nicht nötig, die Existenz einer Seele zu postulieren.
Erst wenn es Hinweise geben sollte, dass man den Körper überleben
kann, stellt sich die Frage, wie das möglich sein kann. Erst dann ist
es sinnvoll, eine Entelechie zu postulieren und sich zu fragen, wie
man diese Hypothese testen könnte.
Natürlich wäre anzunehmen, dass eine Seele bzw. Entelechie - sollte es
so etwas geben - auch bezüglich des lebenden Körpers irgendwie wirksam
wäre. Hier ist hervorhebenswert, dass man in der Biophysik die
scheinbare Teleonomie der physiologischen Prozesse noch nicht erklären
kann; hier mag die Entelechie eine Rolle spielen. Auf dieses Thema
will ich aber hier nicht weiter eingehen. Wenn Dich meine genaue
Meinung hierzu interessiert, verweise ich auf meinen Biophysik-Aufsatz
auf meiner Homepage:
http://LotharArendes.de
MfG, Lothar Arendes
324
Datum: 11. Sep. 2007, 11:13
10. Sep., 18:17, H. U. G. schrieb:
> Dass man Theorien nicht beweisen kann, ist mir geläufig. Darum geht es
> nicht. Es geht ja nicht um Universalaussagen, auf denen Theorien beruhen,
> sondern um Existenzaussagen, hier konkret: Die Behauptung der Existenz der
> Seele. Da man eine Existenzaussage nicht widerlegen kann (aus logischen
> Gründen, nebenbei - bekanntlich sind Universal- und Existenzaussagen
> erkenntnistheoretisch asymmetrisch), muss man wohl oder übel den Beweis der
> Existenz antreten.
Physikalische Theorien wie die über Quarks und Entropie
(Thermodynamik) machen auch Existenzaussagen, obwohl man Quarks nicht
direkt beobachten kann. Die Nützlichkeit dieser Konzepte ergibt sich
aus den experimentellen Testmöglichkeiten der gesamten Theorie.
> Es geht hier zunächst nicht um Theorien, sondern um etwas Elementareres,
> nämlich um die Klärung der grundlegenden Begriffe.
Grundlegende Begriffe werden aber manchmal erst durch die sie
erklärenden Theorien definiert. (So definiert die Allgemeine
Relativitätstheorie die Raumzeit anders, als man es vorher tat.) Bevor
man solch eine Theorie hat, muss man erst einmal mit weniger zufrieden
sein und allgemein angeben, in welche Richtung man sich die Sache
vorstellt. (So wird "Bewusstsein" in der Psychologie auch noch nicht
allgemein befriedigend definiert, trotzdem gibt es eine
Bewusstseinforschung.) Eine umfangreichere Darstellung von
entelechialen Strukturen in einer höherdimensionalen Welt findest Du
bei dem theoretischen Physiker B. Heim.
>Ohne Klarheit der Begriffe kann es keinen Existenzbeweis der Seele geben, nicht
einmal
> plausible Vermutungen.
Mit Entelechie meine ich eine Struktur, die sich außerhalb unserer
Raumzeit befinden könnte (ob es sie gibt, weiß ich nicht definitiv),
die für die Steuerung des Organismus zuständig wäre und die evtl. den
körperlichen Tod überdauert. Für den Beginn eines Forschungsprojektes
reicht diese Charakterisierung. In einem Simulationsprogramm innerhalb
des Forschungsbereiches "Künstliches Leben" könnte man das
präzisieren, Simulationen durchführen und dadurch Ideen für
experimentelle Untersuchungen erhalten, die evtl. einmal zu einer
vollständigen Theorie führen werden. Was Du gern möchtest, wäre das
325
Endprodukt eines Forschungsprogrammes; wir sind aber erst am Anfang.
> Wie anders sollte sich denn eine Seele bemerkbar machen, wenn nicht durch
> eine Wirkung auf lebende Körper.
Richtig. Aber ob es so etwas wie eine Entelechie gibt, wissen wir
nicht definitiv. Dafür können aber empirische Untersuchungen über
Reinkarnation, Nahtoderlebnisse etc. Hinweise geben. Nimmt man darauf
aufbauend an, dass es eine Entelechie geben könnte, dann kann man mit
dieser Hypothese versuchen, die Teleonomie der Organismen zu erklären.
Das zielgerichtete Verhalten allein ist aber noch kein Beleg für eine
entelechiale Steuerung der physiologischen Prozesse, das könnte man
sich beim derzeitige Stand der Forschung auch anders vorstellen.
Datum: 11. Sep. 2007, 11:19
10. Sep., 14:05, P. schrieb:
[[>>[[L.A.:]] Und solche Indizien ergeben sich evtl. aus
>> Untersuchungen über Nahtoderlebnisse, Reinkarnation etc., und solche
>> empirischen Befunde zu sammeln und zu diskutieren ist Aufgabe der
>> Psychologie. ]]
> die psychologie kann nur die subjektive wahrnehmung solcher phaenomene
> untersuchen. nicht aber ihre relevanz zur realen welt.
Aufgabe der Psychologie ist nicht nur, subjektive Erlebnisse zu
beschreiben, sondern auch ihre Entstehung zu erklären. Sind
Nahtoderlebnisse und "Erinnerungen" an frühere Leben nur
Halluzinationen? Wie ist es möglich, dass Kinder Vorgänge berichten
können, die sie eigentlich gar nicht wissen könnten? Neben der
Halluzinationsthese ist ein anderer Erklärungsansatz, Reinkarnation
u.ä. mittels einer Entelechie zu erklären. All die unterschiedlichen
Erklärungsansätze kann man nun mit den üblichen wissenschaftlichen
Methoden auf deren Plausibilität hin untersuchen, und insgesamt
genommen müssen hierbei Psychologen, Biologen und Physiker zusammenarbeiten.
MfG, L.A.
326
Datum: 13. Sep. 2007, 12:29
11. Sep., 11:55, P. schrieb:
> biologen und physiker beschaeftigen sich dann mit dem bezug zur realitaet,
> ausserhalb des subjektiven geistes.
Aber die Psychologie tut das auch.
Datum: 13. Sep. 2007, 13:04
13. Sep., 12:53, P. schrieb:
>> [[L.A.:]] Aber die Psychologie tut das auch.
> inwiefern? so weit ich informiert bin, beschaeftigt sich die
> humanpsychologie nicht damit, was ausserhalb menschlicher koepfe vor sich
> geht, abgesehen vom erforschen, welche einfluesse von der aeusseren welt
> einfluss auf den menschlichen geist haben.
Eben, um zu erforschen, was warum in unserem Bewusstsein ist, muss man
auch die Außenwelt berücksichtigen. So meinte ich das. In der
Neuropsychologie muss man deshalb auch die Struktur des Gehirns
untersuchen; aber das würdest Du wohl eher als Neurobiologie
bezeichnen. Ich denke, wir meinen dasselbe, sehen es aber evtl. aus
einer etwas anderen Perspektive.
Datum: 17. Sep. 2007, 16:11
[[H.U.G. schrieb am 13. Sept.:]]
[[>> [[L.A.:]] Physikalische Theorien wie die über Quarks und Entropie
>> (Thermodynamik) machen auch Existenzaussagen, obwohl man Quarks nicht
>> direkt beobachten kann. Die Nützlichkeit dieser Konzepte ergibt sich
>> aus den experimentellen Testmöglichkeiten der gesamten Theorie.]]
> Die Verifizierung einer Existenzaussage fordert auch nicht,
> dass eine Entität direkt beobachtet werden kann. [[Gefordert ist aber eine eindeutige
>logische Beziehung zwischen einem Indikator und der fraglichen Entität,
>hier also der Seele.]]
327
Mir ist nicht klar, was Du mit ,,Verifizierung" meinst. Die Existenz
von Quarks ist auch nicht indirekt bewiesen; deshalb gab und gibt es
Physiker (z.B. Heisenberg), die nicht an deren Existenz glauben. Diese
Theorie verschwindet vielleicht eines Tages wieder aus der Physik;
ebenso wie die berühmten Strings, an die ich nicht glaube, obwohl für
sie so viel Propaganda gemacht wird (anders kann man das schon nicht
mehr nennen).
Natürlich muss eine Existenzaussage innerhalb einer Theorie irgendwie
rational plausibel sein. Die logische Struktur der Forschung ist wie
folgt: Wenn eine Theorie T wahr ist, dann folgen daraus bestimmte
Beobachtungsmöglichkeiten B. Hat man dann diese Beobachtungen
tatsächlich gemacht, so folgt daraus jedoch nicht die Wahrheit der
Theorie. Denn dazu wäre die umgekehrte logische Relation nötig: Wenn
B, dann T. Das wäre aber ein induktiver Schluss von den Beobachtungen
auf die Theorie, woran im Sinne des Beweisens keiner mehr glaubt.
Übrigens können manchmal aus verschiedenen Theorien dieselben Theoreme
bzw. Beobachtungsmöglichkeiten abgeleitet werden; deshalb sind
Beobachtungen keine zwingenden Belege.
>Woran erkenne ich, dass ein Objekt eine Seele hat?
Falls man die Existenz von empirischen Phänomenen wie Nahtoderlebnisse
oder scheinbare Erinnerungen an frühere Leben akzeptiert und man sie
nicht anderweitig erklären kann, dann sind genau diese Phänomene
Hinweise (aber keine Beweise) auf eine Entelechie. Deshalb schreibe
ich ja immer wieder, dass die besten Argumente für ein Überleben aus
diesem Bereich kommen.
>>[[L.A.:]] Mit Entelechie meine ich eine Struktur, die sich außerhalb unserer
>> Raumzeit befinden könnte (ob es sie gibt, weiß ich nicht definitiv),
>Es fällt mir schwer, irgend eine Definition von "Struktur" zu finden, die
>Raumzeit nicht bereits voraussetzt. Wie sollte etwas ohne Dauer und
>Ausdehnung "strukturiert", also angeordnet sein?
Abgesehen davon, dass unser normales Vorstellungsvermögen schon seit
langer Zeit von der theoretischen Physik strapaziert wird (s. Penrose,
Wheeler bzgl. einer Raumzeitfundierung), habe ich von "unserer"
Raumzeit gesprochen. Damit meinte ich unsere herkömmliche 4dimensionale Raumzeit, die in einer höherdimensionalen Raumzeit (s. B. Heim)
eingebettet sein könnte.
>>[[L.A.:]] Nimmt man darauf aufbauend an, dass es eine Entelechie geben könnte,
328
>Warum, zum Teufel, sollte man das annehmen?
Nichts zwingt Dich dazu. Meine Prozessordeutung der aristotelischen
Entelechie ist lediglich ein Vorschlag, mit dem man evtl. im Rahmen
des Forschungsbereiches ,,Künstliches Leben" die fraglichen empirischen
Phänomene wird erklären können. Es steht Dir frei, einen alternativen
Erklärungsvorschlag zu machen.
[[>Bei der Reinkarnation geht es doch um die Korrelation von Verhalten.
>Beispiel: Der zukünftige Dalai Lama greift bevorzugt nach denselben
>Spielsachen, die sein Vorgänger ebenfalls besonders geliebt hat. Mit
>Seele hat dies zunächst einmal gar nichts zu tun. Es ist eine Korrelation.]]
Aber allein mit solchen Sprüchen, wie Du über Reinkarnation und den
Dalai Lama gemacht hast, kannst Du den empirischen Daten mit Sicherheit
nicht gerecht werden. (Korrelationen erfordern eine Erklärung, und darum geht es!)
In jedem Forschungsbereich gibt es Wissenschaftler, die jeweils verschiedene
Theorien präferieren, das ist völlig normal; aber wer Recht hat,
müssen empirische und theoretische Untersuchungen zeigen. Die
Ignorierung oder simplifizierende Verdrehung der Daten ist keine
Wissenschaft. (Das war sicherlich nicht Deine Absicht, klang aber so.)
Übrigens bin ich kein Buddhist, sondern Philosoph und Biopsychologe mit
einer physikalistischen Grundeinstellung. Meine Einstellung zur
Religion habe ich auf meiner Homepage in meiner Aphorismensammlung
,,Denkanstöße" http://LotharArendes.de/intuitionen.pdf
genauer beschrieben.
Ich bleibe also dabei, dass es nicht zwingend ist, dass man zunächst
die Entelechie eines lebenden Körpers untersuchen muss - zumindest die
Existenz einer Entelechie deutet sich am ehesten in der
Überlebensforschung an -, aber wie ich in meinem Buch zum Schluss
geschrieben habe, sollte man sich in Zukunft zunächst tatsächlich mit
der Formulierung von Theorien über Bewusstsein und Biodynamik
beschäftigen. Ob man hierfür eine Entelechie benötigt, wird sich evtl. zeigen.
Tschüssi, L.A.
Datum: 18. Sep. 2007, 12:50
17. Sep., 17:09, D. S. schrieb:
[[>> [[L.A.:]] Mir ist nicht klar, was Du mit ,,Verifizierung" meinst. Die Existenz
329
>> von Quarks ist auch nicht indirekt bewiesen; deshalb gab und gibt es
>> Physiker (z.B. Heisenberg), die nicht an deren Existenz glauben. Diese
>> Theorie verschwindet vielleicht eines Tages wieder aus der Physik;
>> ebenso wie die berühmten Strings, an die ich nicht glaube, obwohl für
>> sie so viel Propaganda gemacht wird (anders kann man das schon nicht
>> mehr nennen).
>Hm, auch wenn ich mich nur ungern in Bereiche vorwage, von denen ich
>praktisch gar nichts verstehe, und mir Deine folgenden Absaetze gut
>gefallen haben,
]]
> so ist mir dennoch aufgefallen, dass Du [[L.A.]] Heisenbergs
> Stellung/Glauben bezueglich eines recht jungen Forschungsgebiets erwaehnst.
> Werner Karl Heisenberg: 5.12.1901 - 1.2.1976
> Publikation 'Entdeckung vom Top-Quark am Tevatron': 1995
> Ich frage mich nur, was Heisenberg wohl meinen/glauben wuerde, wenn er
> diese Publikation noch gelesen haette. ;-)
Weil Heisenbergs Äußerungen hierzu schon länger zurück liegen, habe
ich ja auch zusätzlich geschrieben, dass auch noch andere Physiker
skeptisch sind. Aber trotzdem war Deine Anmerkung natürlich
berechtigt. Aber auch die neueren Publikationen können keine direkten
Beobachtungen von Quarks berichten, sondern nur Beobachtungen
bezüglich Folgerungen, falls Quarks existieren. Auch hat Heisenberg
die empirischen Befunde durchaus akzeptiert und auch die neueren hätte
er akzeptiert, seine Kritik war aber fundamentaler, erkenntnistheoretischer
Natur, was er nur machen konnte, weil Quarks selbst direkt nicht beobachtet werden.
Datum: 18. Sep. 2007, 12:58
17. Sep., 18:35, H. U. G. schrieb:
[[> > [[L.A.:]] Mir ist nicht klar, was Du mit ,,Verifizierung" meinst.
„Ich schrieb es schon: Die Exixtenz eines Gegenstandes verifiziert man, indem
man angibt, wann und wo man ihn beobachten und an welchen Merkmalen man ihn
erkennen kann. Es ist natürlich auch eine indirekte Verifikation.“]]
> Dazu benennt man einen Indikator, der dann und nur dann auftritt, wenn der
> fragliche Gegenstand erscheint, den man, aus irgend einem Grund, nicht
330
> unmittelbar beobachten kann.
Einen solchen Indikator ("der dann und nur dann auftritt") gibt es
aber auch für Quarks nicht, weil dieselben Beobachtungsmöglichkeiten
aus verschiedenen Theorien folgen können. Trotzdem ist die
Quarktheorie eine sehr gute Theorie.
> Auch eine Theorie T der Seele oder eine Theorie, in der die Seele ein
> wesentlicher Bestandteil ist, käme nicht umhin, die Seele zu definieren,
> sonst hätte sie keinen empirisch überprüfbaren Gehalt.
Wir wiederholen uns inzwischen nur noch in unseren Äußerungen.
Trotzdem noch einmal:
Eine Entelechie soll eine Struktur außerhalb unserer Raumzeit sein,
die den Körper steuert und seinen Tod überleben könnte. Für den Beginn
eines Forschungsprojektes reicht das. Weitere Präzisierungen können im
Rahmen von Simulationen im Forschungsprojekt folgen. (Prozessoren kann
man auch simulieren.)
Tschüssi.
Datum: 19. Sep. 2007, 09:46
18. Sep., 19:31, H. U. G. schrieb:
> Auf welcher wissenschaftlichen Grundlage willst du denn eine Entelechie
> außerhalb unserer Raumzeit simulieren.
Innerhalb des Forschungsprojektes "Künstliches Leben". Gute Beispiele
hierfür sind die Veröffentlichungen von Terzopoulos. In seinem Aufsatz
über Fische (http://www.cs.ucla.edu/~dt/ siehe Publications - No. 26) zeigen seine Tiere
schon zielich komplexes und realistisches Verhalten. Für seine Simulationen sind aber
natürlich ein Prozessor (den man auch für jeden Fisch jeweils simulieren könnte)
und Software nötig.
>Die Theorien B. Heims sind meines Wissens - sagen wir einmal, hmm - ich will sie
>nicht umstritten nennen, denn dann müssten sie ja von einer breiteren Fachöffentlichkeit
>zur Kenntnis genommen worden sein, was nach meinen Beobachtungen nicht zutrifft.
[[>Einer größeren Beliebtheit erfreut sich Heim bei Parapsychologen, UFOlogen,
>Homöopathen und Esoterikern vieler Schattierungen.]]
Umstritten war Darwin anfangs auch. Und Newton hat sogar an Alchemie
331
geglaubt. Was Heim betrifft, gibt es aber auch Physikprofessoren, die
das anders sehen. Wichtiger ist, dass er aus seinen Feldgleichungen
als Approximationen die Feldgleichungen der Allgemeinen
Relativitätstheorie und die Gleichungen der QM ableiten kann - eine
Vereinigung beider Theorien wird seit langem gesucht - und dass er das
Massenspektrum der heute bekannten Teilchen angeben kann. Was er
außerhalb der Physik glaubt, ist irrelevant. Ich habe seine Theorien
ja auch nur angeführt, um Dir zu verdeutlichen, dass man Strukturen
außerhalb unserer Raumzeit wissenschaftlich exakt formulieren kann
(das haben auch Penrose und Wheeler versucht, die sicherlich Deine
Akzeptanzkriterien erfüllen) - auf den Wahrheitswert seiner Theorien
brauche ich gar nicht einzugehen, auch wenn ich mich der Meinung
mancher Physikprofessoren anschließe, dass Heims Theorien vermutlich
zumindest in die richtige Richtung weisen.
Ich will noch ein letztes Beispiel geben für unseren wichtigsten
Streitpunkt: Newton hatte zur Erklärung der Gravitationsphänomene die
Gravitationskraft postuliert. Deiner Meinung nach hätte er also einen
Existenznachweis der folgenden Art führen müssen: Wenn die
Gravitationskraft existiert, dann und nur dann gibt es die und die
Beobachtungsmöglichkeiten. Diesen Nachweis konnte er natürlich nicht
führen, denn wie man heute weiß, kann man die klassische Mechanik
außer mit Differentialgleichungen (mit dem Kraftbegriff) auch über
Variationsprinzipien formulieren, und in der Hamilton- und HamiltonJacobi-Theorie gibt es hierbei keine Kräfte: Zwei verschiedene
Formalismen mit denselben Vorhersagen! Deiner Meinung nach müsste also
Newtons Theorie keine wissenschaftliche Theorie sein, da sie ja einen
unwissenschaftlichen Begriff enthalte! Und Alchemist war er ja auch!
Tschüssi.
Datum: 21. Sep. 2007, 09:56
20. Sep., 17:22, H. U. G. schrieb:
[[>> [[L.A.:]] Innerhalb des Forschungsprojektes "Künstliches Leben". Gute Beispiele
>> hierfür sind die Veröffentlichungen von Terzopoulos. In seinem Aufsatz
>> über Fische (... siehe Publications - No. 26) zeigen seine Tiere schon zielich
>>komplexes und realistisches Verhalten. Für seine Simulationen sind aber natürlich
>> ein Prozessor (den man auch für jeden Fisch jeweils simulieren könnte) und Software
>>nötig.
]]
332
> Schön, interessant, lehrreich. Allerdings vermag ich nicht zu erkennen, wie man auf
dieser >Ebene die Steuerung der Seele aus der fünften Dimension oder gar deren
Überleben des >körperlichen Todes simulieren könnte.
> >> [[L.A.:]] Ich will noch ein letztes Beispiel geben für unseren wichtigsten
> >> Streitpunkt: Newton hatte zur Erklärung der Gravitationsphänomene die
> >> Gravitationskraft postuliert. Deiner Meinung nach hätte er also einen
> >> Existenznachweis der folgenden Art führen müssen: Wenn die
> >> Gravitationskraft existiert, dann und nur dann gibt es die und die
> >> Beobachtungsmöglichkeiten.
> Nein. Mir ging es nicht um den Beweis einer Theorie, weiß ich doch, dass dies
> aus logischen Gründen unmöglich ist. Mir ging es um den Beweis der Existenz
> eines Gegenstandes,
Dieses Beispiel mit Newtons Gravitationskraft habe ich nicht
angeführt, um die Unbeweisbarkeit von Theorien zu demonstrieren,
sondern um zu zeigen, dass es in der Physik Existenzaussagen gibt bzw.
gab (die Existenz der Gravitationskraft), die man nicht in Deinem
Sinne beweisen kann (weil es die Gravitationskraft evtl. gar nicht
gibt: die Allgemeine Relativitätstheorie erklärt Gravitation
alternativ über die Struktur der Raumzeit, deren ontologische Existenz
ebenfalls von manchen Physikern/Philosophen angezweifelt wird).
(Begriffe wie Lebenskraft, Seele oder Entelechie hat man in der
Geschichte der Philosophie bzw. Biologie schon öfter als physikalische
Kraft zu deuten versucht. Das ist aber nicht meine Einstellung.)
Im Rahmen des Forschungsprojektes "künstliches Leben" soll nur gezeigt
werden, dass man Entelechien im Sinne von Prozessoren zur Steuerung
lebender Körper erforschen kann. Das hat tatsächlich nichts mit
höheren Dimensionen zu tun. Aber sollte sich diese Anschauung von den
höheren Dimensionen eines Tages in der Physik durchsetzen, dann wäre
es sehr leicht, künstliches Leben auch in einer solchen Welt zu simulieren.
Datum: 24. Sep. 2007, 09:23
20. Sep., 14:22, K.-H. Z. schrieb:
> Statt mühsam Bücher zu schreiben solltest du vielleicht einfach den Randi-Preis17
Was ich von Leuten wie Randi halte, habe ich in meinem Buch, im
17 Der Originalbeitrag dieses Autors befindet sich nicht mehr im Internet. Randi ist ein Kritiker der
Parapsychologie, der demjenigen Geld verspricht, der ihm die Existenz eines parapsychologischen
Phänomens beweist.
333
Kapitel über Parapsychologie, beschrieben. Der Mann ist
wissenschaftlich wertlos, unter anderem weil er selbst ein
finanzielles Interesse damit verbindet, so dass er nicht objektiv sein kann.
Datum: 24. Sep. 2007, 09:28
Übrigens hat auch der Mitbegründer der sogenannten darwinistischen
Evolutionstheorie, A. Wallace, die Existenz parapsychologischer
Phänomene wie Erscheinungen akzeptiert; und selbst Darwin ließ sich
davon am Ende seines Lebens überzeugen. Aber seit ein paar Jahrzehnten
verfällt die Wissenschaft immer mehr in einen unerträglichen
Dogmatismus, was vorwiegend aus den USA kommt. Innerhalb der EU spielt
Frankreich leider diese Rolle (über Brüssel), wenngleich bei
bestimmten Theorien in entgegengesetzte Richtung arbeitend.
Datum: 24. Sep. 2007, 09:43
23. Sep., 10:41, H. U. G. schrieb:
>> [[I&O R.:]] Jegliche auf Wissenschaft getrimmte Semantik hängt in
>> der Luft, wenn ihr Gegenstand nicht fassbar ist.
>Im vorliegenden Falle ist der Gegenstand durchaus fassbar. Dazu wäre es
> erforderlich, dem Objekt, das hier verhandelt wird, nämlich der Seele Merkmale
>zuzuschreiben.
Ein Prozessor hat sehr viele Merkmale, die ich wohl nicht alle
aufzählen muss. Kauf Dir einfach ein Buch darüber und lies es.
> Unter einem Prozessor verstehe ich jedoch eine Entität, die Informationen verarbeitet.
>Verarbeitung ist ein Prozess in Raum und Zeit.
Diese Raumzeit kann aber höherdimensional sein. Ich habe Dir schon
mehrmals geschrieben, dass unsere Raumzeit in eine höhere
Dimensionalität eingebettet sein kann. Ich werde das Gefühl nicht los,
dass Du nun meinen Standpunkt bewusst verdrehst, nachdem Du mit Deiner
Argumentation über einen Existenznachweis gescheitert bist. Leute
Deiner Sorte interessieren sich leider gar nicht für die Wahrheit sie wollen einfach nur Recht behalten und drehen und winden sich ...
Eine wirkliche Diskussion wird dadurch natürlich unmöglich. Deshalb
gebe ich Dir den Rat: Verdrehe mich auch weiterhin - aber in Zukunft
ohne mich.
334
Datum: 10. Okt. 2007, 11:29
24. Sep., 17:57, H. U. G. schrieb:
> Ich schrieb: Da man Existenzaussagen nicht widerlegen kann, muss man
> versuchen, sie zu beweisen. Du schriebst: Da die Existenz der Schwerkraft nicht
> bewiesen wurde bzw. nicht beweisbar ist, hast du Unrecht. Welch eine Logik!
Das Beispiel mit der unbewiesenen Schwerkraft hat demonstriert, dass
Theorien (z.B. die von Newton) wissenschaftlich akzeptabel sein
können, obwohl sie Entitäten enthalten, deren Existenz nicht bewiesen
werden konnte. Es besteht in der Naturwissenschaft kein Zwang (obwohl
es wünschenswert wäre), die Existenz einer Entität zu beweisen. Die
Theorie muss aber insgesamt genommen experimentell testbar sein. Zur
experimentellen Testbarkeit meiner Prozessortheorie habe ich am Ende
meines Aufsatzes, in dem ich mein Buch zusammengefasst habe, eine
kurze Andeutung gemacht - mit etwas Phantasie kannst Du Dir mehr
darüber selbst ausdenken:
http://LotharArendes.de/entelechie.pdf
Zum Abschluss noch eine Bemerkung darüber, dass Du gern den Begriff
Seele verwendest, ich aber lieber von Entelechie spreche:
Die "Seele" betrachte ich als einen Substanz-Begriff innerhalb einer
dualistischen Weltanschauung. Mein Computer-Weltbild ist jedoch ein
monistisches Weltbild und der Prozessor ist darin nur eine steuernde
Struktur und keine eigenständige Substanz. Wörter wie Seele und
Entelechie kann man aber natürlich definieren, wie man will, also
fahre fort damit, den eher religiös beladenen Begriff der Seele zu verwenden.
335
Teil II:
Schriften mit weiteren Themen
336
Kritische Bewertung verschiedener Computer-Weltbilder
Zusammenfassung: In den letzten Jahren ist von mir ein Computer-Weltbild für die
Interpretation der Quantenmechanik und für die Bereitstellung von Leitideen für die
wissenschaftliche Forschung ausgearbeitet worden. In der vorliegenden Arbeit werden
alternative Vergleiche der Welt mit einem Computer, wie sie von Konrad Zuse, John
Barrow und Seth Lloyd vorgeschlagen worden sind, vorgestellt und kritisch untersucht.
In meiner philosophischen Magisterarbeit, die ich im Herbst 1987 schrieb
und Anfang 1988 dem Zentrum für Philosophie der Universität Gießen
überreichte, verglich ich die Welt mit einem Computer, um damit die
Interpretationsprobleme der Quantenmechanik (QM) zu behandeln. Aus
dieser Magisterarbeit mit dem Titel „Das Realismusproblem in der
Quantenmechanik“ ist mein Buch „Gibt die Physik Wissen über die Natur?
Das Realismusproblem in der Quantenmechanik“ hervorgegangen, welches
1992 veröffentlicht worden ist. Das hierin nur angedeutete ComputerWeltbild (CWB) habe ich später in einem Buch mit dem Titel „Das
Computer-Weltbild. Funktionen der Naturphilosophie in der Naturwissenschaft“ detailliert ausgearbeitet und in späteren Aufsätzen (http://freenethomepage.de/LotharArendes) und Büchern („Die wissenschaftliche
Weltauffassung an der Jahrtausendwende“ und „Gibt es ein Überleben des
körperlichen Todes?“) weiter verfeinert. Bei meiner Konzeption eines
Computer-Weltbildes vergleiche ich unsere beobachtbare Realität – unsere
Raumzeit mit den darin befindlichen Objekten einschließlich aller Lebewesen
– mit dem Computerbildschirm und den darauf befindlichen Objektdarstellungen, und die Naturgesetze, wie sie von der Physik und den anderen
Wissenschaften beschrieben werden, bilden innerhalb dieser Metapher die
Computer-Software. Da dementsprechend alle materiellen Objekte
einschließlich der Elementarteilchen (nach einer Beobachtung im aktualisierten Zustand) nur Abbildungen auf dem (hier nun dreidimensionalen)
Computerbildschirm sind, können die Elementarteilchen natürlich nicht die
Hardware des Weltcomputers bilden. Da nach Heisenbergs Interpretation der
QM die Elementarteilchen vor ihrer Messung – vor ihrer „Aktualisierung“ –
337
nur in einem potenziellen Zustand sind, vermute ich eine zweite Seinssphäre,
aus der heraus die Materie erschaffen wird und die ich mit dem in der Physik
gängigen Begriff „Quantenvakuum“ kennzeichne oder auch als „Äther“
bezeichne, und die die Hardware des Weltcomputers ausmacht. Mit dieser
Konzeption des CWB kann man sämtliche Interpretationsprobleme der
theoretischen Physik lösen, was ich hier nicht im Detail ausführen will und
deshalb auf meine Bücher und Aufsätze verweise. Unabhängig von meiner
Konzeption eines CWB haben mehrere andere Autoren ebenfalls versucht,
die Welt als einen Computer zu deuten, und diese Ansätze will ich im
Folgenden kurz beschreiben, um auf ihre Schwächen einzugehen.
Konrad Zuse (1969): „Rechnender Raum“
Konrad Zuse war nicht nur der Konstrukteur des ersten Computers, er war
gleichzeitig der Erste, der die Idee entwickelte, das Universum könnte eine
gigantische Datenverarbeitungsanlage sein. In Anlehnung an die Vermutung
einiger theoretischer Physiker, der Raum könnte nicht kontinuierlich sondern
diskret sein, es könnte also eine kleinste Länge geben, nahm Zuse an, die
kleinsten Volumeneinheiten wären kleine Rechner, der physikalische Raum
wäre somit ein Gitter von informationsverarbeitenden Einheiten, die jeweils
Zustände von 0 oder 1 annehmen. Elementarteilchen würden sich aus den mit
1 besetzten Zuständen dieser kleinen Rechner ergeben, so dass die gesamte
Materie eine Eigenschaft des physikalischen Raumes wäre (wie Einstein es
auf andere Weise vermutete).
Dass das gesamte Universum nicht ein großer Rechner sondern eine extrem
hohe Anzahl von sehr kleinen Rechnern sei, wirft natürlich problematische
Fragen auf. Wie können diese vielen Einheiten so zusammen arbeiten, dass
so komplizierte Gebilde wie Lebewesen und sogar menschliche Gehirne mit
Bewusstsein entstehen? Ein Gebilde, das wie Zuses physikalischer Raum aus
vielen Recheneinheiten besteht, wird als zellulärer Automat bezeichnet, und
innerhalb des Forschungsprojektes „Zelluläre Automaten“ bemüht man sich
herauszufinden, wie mittels einfacher Regeln, die die einzelnen Automaten
befolgen, komplexe Strukturen entstehen können. In der heutigen Zeit
bemüht sich vor allem Stephen Wolfram („A new kind of science“), der eine
338
ähnliche Weltauffassung wie Zuse vertritt (die Welt als gigantischer
zellulärer Automat), darum, mit diesem Ansatz die Komplexität unserer Welt
zu erklären. Zwar konnte er zeigen, dass man mit einfachen Regeln
tatsächlich einige Muster hervorbringen kann, aber ob man mit diesem
Ansatz selbst so komplizierte Gebilde wie das menschliche Gehirn wird
erklären können (mit all seinen Eigenheiten wie einer hierarchischen
funktionellen Gliederung und insbesondere mit Bewusstseinsqualitäten wie
Farben, Töne, Liebe etc.), diesbezüglich bin ich eher skeptisch eingestellt.
Nun kann man der Meinung sein, dass Myriaden von (kleinen) Rechnern
dasselbe leisten können sollten wie ein großer Rechner, wie ich es
vorschlage, aber wenn ein Rechner alles leisten könnte, warum soll man dann
noch Myriaden von Rechnern postulieren? Zu bedenken ist außerdem, dass in
der Konzeption von Zuse und Wolfram jeder Rechner nur zwei mögliche
Zustände hat – 1 oder 0 –, wie kann man aber damit Bewusstseinsqualitäten
erklären? Demgegenüber führe ich für die Emergenz der Farben des visuellen
Bewusstseins den Computerbildschirm an, und zur Generierung anderer
Qualitäten wie Töne sollte der Weltcomputer durch analoge Mechanismen in
der Lage sein.
Zuse hatte die Idee vom rechnenden Raum entwickelt, um damit die
Eigenarten der QM plausibel zu machen. Er hatte also die gleiche Motivation
(oder zumindest eine ähnliche) wie ich bei meinem Vergleich der Welt mit
einem Computer. So hält auch Zuse es für möglich, dass die
quantenmechanischen Wahrscheinlichkeiten Pseudorandomisationen der
Rechner sind. Jedoch kann Zuse mit seinem Weltbild nicht alle
Verständnisprobleme der QM lösen, beispielsweise nicht die Eigenschaftskorrelationen beim EPR-Paradox. In meiner CWB-Konzeption projiziert der
Rechner bei der Messung eines Protonspins gleichzeitig beide Protonen mit
den entsprechenden Spins auf den Weltbildschirm, und im Quantenvakuum
sind Veränderungen (Rechnungen) mit Überlichtgeschwindigkeiten möglich.
Wie aber in Zuses CWB-Konzeption die beiden weit voneinander entfernten
Kleinrechner die korrelierten Spins anzeigen können, ist nicht ersichtlich.
Zuse erwähnt selbst Schwachstellen seines Weltbildes. Da seine Kleinrechner
nur die zwei Zustände 0 und 1 kennen, hat Zuse Probleme mit der Erzeugung
der Intensitäten von Feldstärken, wenn die Elementarlänge bei ca. 10-13 cm
liegt, wie er es annimmt. Zuse macht mehrere Vorschläge zur Behandlung
dieses Problems. Beispielsweise hält er es für möglich, dass es zusätzlich zu
den drei bekannten Raumdimensionen eine Schichtdimension gibt (ebd. S.
339
66), so dass Intensitäten dadurch erzeugt würden, dass jeder zelluläre
Rechner aus mehreren Addierstufen bestehe. Eine zusätzliche Dimension ist
vermutlich auch bei meiner CWB-Version nötig, denn wie sonst sollte es
möglich sein, dass etwas von außerhalb der vierdimensionalen Raumzeit in
die Raumzeit projiziert werden kann, und ich vermute, dass diese zusätzliche
Dimension im mathematischen Sinn imaginär ist, so wie Burkhard Heim es
annimmt. Im Gegensatz zu Zuse lasse ich jedoch die Frage, ob unser Raum
diskret oder kontinuierlich ist, offen.
Bei Zuses CWB-Version stellt sich natürlich die Frage, wie die kleinsten
Raumvolumina Rechner sein können, wenn die Elementarlänge von z.B. ca.
10-13 cm nicht weiter unterteilbar sein soll. Eine andere interessante Frage ist,
warum Zuse nicht so wie ich nur einen großen Rechner postulierte. Vielleicht
lag das lediglich daran, dass zu der Zeit, als er sein Weltbild entwickelte, die
Computergrafik noch nicht so fortgeschritten war wie Ende der achtziger
Jahre, als ich mein CWB formulierte, um damit hauptsächlich Heisenbergs
Ideen der Aktualisierung der Potentialitäten und der Symmetrieeigenschaften
der Elementarteilchen plausibel zu machen. (Nebenbei möchte ich bemerken,
dass ich Zuses Konzeption nicht kannte, als ich mein CWB entwickelte;
hiervon habe ich erst im Jahr 2006 erfahren.)
John Barrow (1993): „Warum die Welt mathematisch ist“
Um zu erläutern, warum die Welt mathematisch sei, stellt sich der
Astronomieprofessor John Barrow die Frage, „ob wir die Naturgesetze
behandeln sollten wie eine Software, die auf dem materiellen Inhalt des
Universums läuft“ (ebd. S. 76). In seinem Buch erwähnt er den möglichen
Vergleich der Welt mit einem Computer nur andeutungsweise, kommt aber
schließlich doch zu dem folgenden Schluss: „Wir stellen uns die
Naturgesetze als eine Art Software vor, die auf einer Hardware läuft, die aus
den Elementarteilchen und der Energie unserer materiellen Welt besteht“
(ebd. S. 89). Die Welt bestehe also aus Energie und Elementarteilchen, worin
die Software irgendwie implementiert sei. Wie genau diese NaturgesetzSoftware darin implementiert sei, darüber sagt er jedoch nicht sehr viel,
ebenso wie zum Interpretationsproblem der QM – die realistische Existenz
340
der Elementarteilchen und der Energie wird einfach vorausgesetzt. Wie aber
die Elementarteilchenphysik zeigt, sind Elementarteilchen keine Substanzen;
sie entstehen und vergehen und wandeln sich ineinander um. Auch die
Energie ist keine Substanz; nach der Energie-Zeit Unschärferelation
unterliegt die Energie in kleinen Zeitabschnitten ständigen Fluktuationen,
und in der Kosmologie ist die Energieerhaltung selbst im Großen nicht
gegeben. Folglich kann die Energie keine Hardware sondern nur eine Größe
der Software zur Festlegung der Materiedynamik sein.
Seth Lloyd (2006): „Programming the universe“
Seth Lloyd ist als promovierter Physiker Professor für Maschinenbau und
arbeitet an der Entwicklung von Quantencomputern. Zukünftige Quantencomputer sollen eine wesentlich umfangreichere Informationsverarbeitungsfähigkeit besitzen als heutige Computer, indem sie die Superpositionszustände der QM ausnutzen. Das bedeutet, dass sie nicht nur die möglichen
Bitzustände 0 und 1 wie die heutigen Computer haben, sondern auch alle
möglichen Überlagerungszustände (α |0> + β |1>), wobei natürlich die
quantenmechanischen Superpositionszustände als real gedeutet werden, man
sich also auf eine bestimmte realistische Interpretationsrichtung der QM
festlegt. Um die quantenmechanischen Superpositionszustände für die
Rechenleistung nutzen zu können, sind Elementarteilchen wie Photonen und
Elektronen
integrale
Bestandteile
der
Rechenvorgänge
eines
Quantencomputers.
Lloyd vergleicht nun das gesamte Universum mit einem (zukünftigen
leistungsfähigen) Quantencomputer und stellt dies seinen Studenten
gegenüber als wissenschaftliche Wahrheit dar: “The universe is a quantum
computer“ (ebd. S. 3). Die Hardware dieses Welt-Quantencomputers wird
seiner Meinung nach gebildet von den Elementarteilchen, die ebenso wie die
Superpositionszustände der Wellenfunktionen als real existierend
angenommen werden: “The world is composed of elementary particles –
electrons, photons, quarks – and each elementary piece of a physical system
registers a chunk of information: one particle, one bit“ (ebd. S. 6). Die
341
rechnerische Tätigkeit der Welt (“the computational nature of the universe“)
ergibt sich aus den Wechselwirkungen aller Elementarteilchen, die
insbesondere während der Superpositionszustände eine immens hohe
Verarbeitungskapazität besitzen.
Lloyds Buch ist auf dem Niveau eines einführenden Studentenkurses
geschrieben, was dazu führt, dass zwar elementare quantenmechanische
Phänomene und Konzepte wie Heisenbergs Unschärferelation, das
Doppelspaltexperiment und das EPR-Paradox erläutert werden (in oftmals
anekdotischer Form), dass aber Problemfelder, wie etwa die Fragen nach dem
Abschluss des Messprozesses, der Reduktion der Wellenfunktion etc. –
wofür sich Professoren der theoretischen Physik interessieren würden – nicht
mit wissenschaftlicher Akribie behandelt werden müssen. Die kritischen
Problempunkte des Interpretationsproblems der QM werden deshalb eher
ausgeklammert oder geschickt umgangen als gelöst. Auch enthält das Buch
einige grobe Ungenauigkeiten. So stellt er den berühmten Aufsatz von
Einstein, Podolsky und Rosen, das EPR-Paradox, so dar, als würde nach den
drei Autoren die QM die Existenz der Realität leugnen, wohingegen es die
Absicht der drei Autoren war, die Unvollständigkeit der QM zu belegen.
Loyd schreibt wörtlich über den Aufsatz: “With Boris Podolsky and Nathan
Rosen, he [Einstein] wrote a famous paper on what is now commonly
referred to as the EPR paradox, pointing out the counterintuitive nature of
entanglement and showing that it implied that there were no underlying
‘‘elements of reality‘‘ in the world‘‘ (ebd. S. 120). Offensichtlich hat Lloyd
einige der wichtigsten Veröffentlichungen zum Interpretationsproblem der
QM nicht gelesen.
Lloyds Vergleich des Universums mit einem Quantencomputer basiert auf
einer realistischen Interpretation der Elementarteilchen und insbesondere der
Superpositionszustände der Wellengleichung, seine Interpretation der QM
begründet er jedoch nicht genügend und lässt viele Problempunkte im
Dunkeln. So schreibt er, dass die Verschränkung zweier Objekte nach einer
Wechselwirkung (z.B. die Protonen im EPR-Paradox) zwar keine
Fernwirkung benötige, dass die Korrelation der beiden Teilchen aber doch
„spukhaft“ sei (ebd. S. 120) – wie in der Realität eine derartige Korrelation
physikalisch möglich sein kann, bleibt jedoch offen. Ebenso nebulös äußert
sich Lloyd über das Problem der Reduktion des Wellenpaketes. Er glaubt an
keine Reduktion der Psi-Funktion, äußert sich aber gegen die
Vielwelteninterpretation, wonach alle Superpositionselemente als verschie342
dene Welten auch nach einer Beobachtung tatsächlich weiter existieren
würden. Für Lloyd existieren zwar nach einer Beobachtung noch alle
Elemente der Wellenfunktion, die nicht beobachteten seien aber nicht real,
wobei nicht ganz klar ist, was genau er hier mit „real“ meint. Lloyd meint,
diejenigen Teile der Wellenfunktion, die nicht zum beobachteten Wert
gehören, ignorieren zu können, weil sie auf die Realität keine Wirkung mehr
ausüben. Das Problem der Reduktion des Wellenpaketes wird somit nicht in
einem streng wissenschaftlichen Sinn gelöst, sondern verdrängt. Mit dieser
Unklarheit hängt zusammen, dass für Lloyd zwar die Umwelt die Verschränkung korrelierter Teilchen aufhebt, aber was genau die „Umwelt“ ist, wird
nicht detailliert ausgeführt. Auch sei eine Messung reversibel, aber wann eine
Messung endgültig abgeschlossen ist, bleibt unklar.
Lloyd hält das Universum für einen Quantencomuter, dessen Hardware aus
den Elementarteilchen besteht. Da er jedoch keine überzeugende
Interpretation der QM liefert, stellt sich nach wie vor die Frage, ob
Elementarteilchen überhaupt real sind und ob insbesondere die
Wellenfunktion etwas Reales darstellt, was für die Idee eines
Quantencomputers unabdingbar zu sein scheint. Auch stellt sich die Frage,
welchen wissenschaftlichen Wert sein Vergleich der Welt mit einem
(zukünftigen) Quantencomputer haben soll. Ich habe meine Version des
Computer-Weltbildes ausgearbeitet, um dadurch eine realistische
Interpretation der QM plausibel machen zu können und um daraus Leitideen
für die zukünftige wissenschaftliche Forschung abzuleiten. Diese Funktionen
hat aber bei Lloyd das CWB nicht. Außerdem sei die Welt nicht einfach ein
Computer, sondern ein Quantencomputer – was ist damit gemeint? Der
zentrale Teil der QM, der für die Informationsverarbeitungsfähigkeit der
Quantencomputer zuständig sein soll, sind die superponierten
Wellenfunktionen. Aber ob die Wellenfunktion etwas Ontologisches darstellt
(und wenn ja, was), ist doch gerade eines der großen Rätsel der QM. Bei
meiner Version des CWB wird die Materie der Welt hervorgebracht von
einer Seinsschicht, welche ähnlich der Hardware eines Computers
Informationen verarbeitet, aber welcher Art diese Informationsverarbeitung
ist (ob sie vergleichbar ist mit der unserer Computer oder andersartig),
darüber mache ich keine Aussage. Wenn aber Lloyd schreibt, dass die Welt
kein herkömmlicher Computer sei, sondern ein Quantencomputer, dann bietet
er nur scheinbar mehr an als ich, denn was genau die Wellenfunktion ist,
kann er nicht sagen. In Anlehnung an Bohm bezeichne auch ich die
Wellenfunktion als eine Informationswelle, wie es zu dieser Informations343
welle kommt, ist aber unklar. Die Bereitstellung eines neuen Wortes – statt
von „Rechnung“ von „Quantenrechnung“ zu reden – ergibt keinen
wissenschaftlichen Wissensgewinn. Man wird hier sehr an Goethes Faust
erinnert, wo Mephisto sagt:
Denn eben wo Begriffe fehlen,
Da stellt ein Wort zur rechten Zeit sich ein.
Mit Worten läßt sich trefflich streiten,
Mit Worten ein System bereiten,
An Worte läßt sich trefflich glauben,
Von einem Wort läßt sich kein Jota rauben.
Nur zu behaupten, die Welt sei kein Computer sondern ein Quantencomputer,
ist nicht sehr informativ. In der Technik wäre es sinnvoll, als Abgrenzung zu
den heutigen Computern von einem Quantencomputer zu reden – nämlich als
Hervorhebung, dass hierbei Elementarteilchen von grundlegender Bedeutung
sind (sollte es in Zukunft tatsächlich gelingen, ihn zu bauen); aber in der
Wissenschaft die Welt als Quantencomputer statt als Computer zu
bezeichnen, bringt keinen zusätzlichen Erkenntnisgewinn, da wir ja gar nicht
wissen, welche Art von Informationsverarbeitung der QM zugrunde liegt.
Wissenschaftlichen Wert hat nur die Aussage, dass die Welt ein
informationsverarbeitendes System zu sein scheint. Dass mein CWB sich auf
die Quantenwelt bezieht, braucht nicht im Namen hervorgehoben zu werden,
da es ja für die Interpretation der QM entwickelt worden ist. Wollte man
unbedingt einen anderen Namen haben, dann wäre es angebrachter, vom
parallel arbeitenden „Supercomputer“ zu sprechen, wie es ihn sogar schon
gibt. Aber auf der Weltbildebene benötigt man nicht bei jeder neuen
Computertechnologie einen neuen Namen. Bei Lloyds Weltbild kommt noch
hinzu, dass er die Elementarteilchen für die Hardware hält, was angesichts
der vielen Deutungsprobleme der QM eine meiner Meinung nach unhaltbare
Position ist. Und ebenso wie bei Barrows Weltbild ist auch hier nicht zu
verstehen, wie Elementarteilchen als Teile des menschlichen Gehirns
Bewusstseinsqualitäten hervorbringen können und was der Prozessor sein
soll.
344
Schlussbemerkungen
Seit ein paar Jahren mehren sich die Autoren, die auf die Computermetapher
eingehen – sowohl in Büchern und Fachzeitschriften als auch im Internet –,
was hier aber nicht weiter ausgeführt zu werden braucht, da es sich entweder
nicht um systematische Begründungen eines CWB handelt oder die Autoren
nur modifizierte Versionen der hier behandelten Weltbilder anbieten. Ein
interessanter Aufsatz ist beispielsweise einer von Nick Bostrom mit dem
Titel „Are you living in a computer simulation?“, in dem der Autor
philosophische Argumente dafür anführt, dass unsere Welt eventuell nur eine
Computersimulation sei, aber ohne dabei auf die ontologisch-physikalische
Ausgestaltung des zugrunde liegenden Rechners einzugehen. (Wie sollte es
auch für simulierte Wesen, die nur tuen und denken, was ein Programm
vorschreibt, möglich sein, die Wahrheit herauszufinden und diese
glaubwürdig zu begründen? Die Wahrheit müsste nämlich vom
Programmierer ins Programm eingebaut worden sein, was aber die
simulierten Wesen kaum definitiv beweisen könnten.)
Entkleidet man das Computer-Weltbild der Computer-Metapher, so bleibt die
Aussage übrig, dass die Welt ein informationsverarbeitendes System sei. Es
gibt Autoren, die dieses behaupten, ohne dabei den Computer als Vergleich
zu benutzen. Werner Heisenberg war der erste Quantenphysiker, der die Welt
in zwei Bereiche einteilte, in den Bereich des Potentiellen, dessen Objekte im
Messakt in die Aktualität übergehen. David Bohm begann am Ende von
Heisenbergs Leben und vor allem nach dessen Tod 1976 damit, dessen
Unterscheidung zu übernehmen, allerdings benutzte er andere Wörter und
sprach von den Bereichen der impliziten und expliziten Ordnung. Im
Gegensatz zu Heisenberg, der als Vertreter einer Kopenhagener Interpretation
über den potentiellen Bereich keine weiteren Aussagen machte, wies jedoch
Bohm darauf hin, dass es sich bei der Wellenfunktion um eine
Informationswelle handeln könnte, und insofern legte er nahe, dass die Welt
auf der untersten ontologischen Ebene ein informationsverarbeitendes
System sei. (Die Idee, dass Information ein physikalischer Begriff sei, hat als
Erster vielleicht in der Kybernetik Norbert Wiener in die Fachdiskussion
gebracht.)
Als die detaillierteste Ausarbeitung der heisenbergschen Idee der potenziellen
345
Objekte, die in die Raumzeit als den Bereich des Aktualisierten projiziert
werden, kann man die Arbeiten von Burkhard Heim betrachten. Laut Heim
ist die vierdimensionale Raumzeit Teil einer Höherdimensionalität, wobei die
Materie von den höheren Dimensionen aus in den Raum projiziert wird.
Zunächst postulierte Heim nur sechs Dimensionen, in einer späteren Version,
die er zusammen mit Dröscher erarbeitete, spricht er jedoch von 12
Dimensionen, wobei die zusätzlichen Dimensionen eine informationsbezogene Bedeutung haben, so dass es sich auch hierbei um die Welt als
informationsverarbeitendes System handelt. Die Weltauffassung von Heim
und Dröscher könnte man geradezu als physikalische Ausgestaltung meines
als Naturphilosophie konzipierten Computer-Weltbildes betrachten.
Inwieweit sich die Heim-Dröscher Theorie in der Physik durchsetzen wird,
bleibt abzuwarten. Obwohl natürlich die informationstheoretische
Erweiterung von Heims Theorie meinem Weltbild entgegen kommt, stehe ich
jedoch dieser Erweiterung mit größerer Skepsis gegenüber als Heims
ursprünglicher Theorie. Dennoch glaube ich, dass dieser ganze Ansatz in die
richtige Richtung weist.
Da wir für die unanschaulichen mikrophysikalischen Vorgänge der QM
zumindest zur Zeit noch nicht die passenden Begriffe haben, weil sich unsere
herkömmlichen Begriffe im Umgang mit mesokosmischen Gegebenheiten
entwickelt haben, sind alles umfassende Weltbilder mit mesokosmischen
Begriffen (z.B. Computer-Weltbilder) nur Metaphern ohne wissenschaftlichen Wahrheitswert. Jedoch können solche Weltbilder in der Wissenschaft
zwei wichtige Funktionen erfüllen. Zum Einen kann ein Weltbild helfen, die
Interpretation der mathematischen Formeln einer physikalischen Theorie
anschaulich plausibel zu machen, zum Anderen lassen sich aus Weltbildern
heuristische Leitideen entwickeln, die der Forschung wichtige Anregungen
geben können. Meine Version des CWB diente zunächst nur dazu, das
Interpretationsproblem der QM zu lösen, später habe ich aber aus meinem
CWB zahlreiche Leitideen für die biophysikalische Forschung erarbeitet.
Auch Zuse und Bohm entwickelten ihre Weltbilder, um die seltsamen
Vorgänge der QM zu verstehen, Bohm stellte darauf aufbauend außerdem die
Hypothese auf, dass kognitive Vorgänge und das Bewusstsein in der
impliziten Ordnung lokalisiert seien (was auch ich vermute und worüber ich
zusätzlich die Hypothese aufgestellt habe, den körperlichen Tod vielleicht
überdauernde Entelechien könnten eine Art Prozessor sein). Barrow will mit
seinem Weltbild verständlich machen, warum die Welt mathematisch sei
(inwieweit ihm das mit seinem CWB gelungen ist, sei dahin gestellt),
346
wohingegen Lloyd mit seiner CWB-Version weder Verständnisprobleme der
theoretischen Physik behandelt noch Leitideen zur Stimulierung der
zukünftigen Forschung anbietet.
Abschließend soll noch erwähnt werden, dass Zuse und Lloyd ihr jeweiliges
Weltbild nicht nur als Metapher, sondern als wirklichkeitsgemäße Beschreibung der Welt darstellen, dass aber Zuse sein Weltbild nur als
bedenkenswerte Möglichkeit in die Diskussion brachte, ebenso wie
vermutlich Barrow, wohingegen Lloyd fest davon überzeugt ist, die Welt sei
ein Quantencomputer. Demgegenüber vermute ich zwar, dass die Welt ein
informationsverarbeitendes System mit zwei verschiedenen Seinsbereichen
und mit der Fähigkeit zur Emergenz von Qualitäten wie die des Bewusstseins
ist, aber ohne die Computermetapher als wahre Realitätsbeschreibung
aufzufassen.
Literaturverzeichnis
Arendes, L. (1992): Gibt die Physik Wissen über die Natur? Das
Realismusproblem in der Quantenmechanik. Würzburg.
Arendes, L. (1996): 'Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems'. Philosophia Naturalis 33: 55-81.
Arendes, L. (a): Das Computer-Weltbild. Funktionen der Naturphilosophie in der
Naturwissenschaft.
Arendes, L. (b): Die wissenschaftliche Weltauffassung an der Jahrtausendwende.
Wissenschaftliche Naturphilosophie.
Arendes, L. (c): Gibt es ein Überleben des körperlichen Todes? Empirische
Untersuchungen und theoretische Überlegungen der Parapsychologie zur
Überlebenshypothese.
Barrow, J. (1993): Warum die Welt mathematisch ist. Frankfurt am Main.
Bohm, D. (1980): Wholeness and the implicate order. London.
Bohm, D. (1986): 'A new Theory of the Relationship of Mind and Matter'. J. Am.
Soc. Psych. Res. 80: 113-135.
Bohm, D., Hiley, B. (1984): 'Measurement Understood Through The Quantum
Potential Approach'. Found. of Phys. 14: 255-274.
Bohm, D., Hiley, B. J. (1993): The undivided universe. An ontological
interpretation of quantum theory. London.
347
Bohm, D., Hiley, B. J., Kaloyerou, P. N. (1987): 'An Ontological Basis For The
Quantum Theory'. Phys. Rep. 144: 321-375. Part I (323-348): D. Bohm, B. J.
Hiley: 'Non-relativistic Particle Systems'. Part II (349-375): D. Bohm, B. J.
Hiley, P. N. Kaloyerou: 'A Causal Interpretation of Quantum Fields'.
Bostrom, N. (2003): 'Are you living in a computer simulation?' The Philosophical
Quarterly 53: 243-255.
Dröscher, W., Heim, B. (1996): Strukturen der physikalischen Welt und ihrer
nichtmateriellen Seite. Innsbruck.
Einstein, A., Podolsky, B., Rosen, N. (1986): 'Kann man die quantenmechanische
Beschreibung der physikalischen Wirklichkeit als vollständig betrachten?' In:
K. Baumann, R. Sexl (Hrsg.): Die Deutungen der Quantentheorie.
Braunschweig, 80-86.
Heim, B. (1983): Elementarstrukturen der Materie: Einheitliche strukturelle
Quantenfeldtheorie der Materie und Gravitation. Bd. 2. Innsbruck.
Heim, B. (1989): Elementarstrukturen der Materie: Einheitliche strukturelle
Quantenfeldtheorie der Materie und Gravitation. Bd. 1. 2. veränd. Aufl.,
Innsbruck.
Heisenberg, W. (1976): 'Was ist ein Elementarteilchen?' Naturwiss. 63: 1-7.
Heisenberg, W. (1986): 'Die Entwicklung der Deutung der Quantentheorie'. In: K.
Baumann, R. Sexl (Hrsg.): Die Deutungen der Quantentheorie.
Braunschweig, 140-155.
Heisenberg, W. (1990): Physik und Philosophie. 5. Aufl., Stuttgart.
Lloyd, S. (2006): Programming the universe. New York.
Wolfram, S. (2002): A new kind of science. Winnipeg.
Zuse, K. (1969): Rechnender Raum. Braunschweig.
Zuse, K. (1982): 'The computing universe'. Int. J. Theoret. Phys. 21: 589-600.
348
Grundlegung der introaktiven Psychologie
Zusammenfassung:
In den letzten Jahren ist es in den Bevölkerungen der westlichen Staaten zu einem starken
Anstieg der esoterischen Praktiken gekommen. Da es außerdem im 20. Jahrhundert in der Physik
zu theoretischen und weltanschaulichen Veränderungen gekommen ist, die die Mechanismen
derartiger Techniken theoretisch denkbar machen, wird in dieser Arbeit dafür plädiert, diese
Praktiken wissenschaftlich zu untersuchen. Dazu werden hier die weltanschaulichen und
methodologischen Grundlagen dieser neu zu etablierenden introaktiven Psychologie besprochen.
1. Wissenschaftliche Naturphilosophie
Aufgrund der überragenden Erfolge der empirischen Naturwissenschaften bei der
Erklärung der Naturvorgänge seit Galilei und Newton im 17. Jahrhundert bis zu
Heisenberg und Dirac im 20. Jahrhundert ist die Philosophie als rationalistischer
Weg der Erkenntnis immer mehr in den Hintergrund gerückt. Nachdem man schon
fast den Eindruck haben musste, dass die Philosophie als Mittel der Erkenntnis
gescheitert sei, ist es jedoch in den letzten Jahren zu einer Wiederbelebung
philosophischer Erkenntnisweisen gekommen. Nicht zuletzt ist es dazu gekommen
durch eine eingehende Analyse der Geschichte der Naturwissenschaften. Der
Geschichte der Wissenschaften lässt sich entnehmen, dass die Naturphilosophie
vor allem an drei Stellen der wissenschaftlichen Tätigkeit heuristisch hilfreich ist,
nämlich (vgl. Törnebohm 1984: 26):
a) In Zeiten der Ablösung alter Fundamentaltheorien durch neue. Niels Bohr, der
Großvater der heutigen Quantenmechanik (QM), war sehr an philosophischen
Fragen interessiert, und während der Entstehungszeit der QM diskutierten er und
seine jungen Mitarbeiter (Heisenberg, Pauli etc.) die zu erklärenden Phänomene
auch in Hinblick auf naturphilosophische Fragestellungen.
b) In Zeiten, in denen neue wissenschaftliche Disziplinen geschaffen werden.
Beispiele sind die Entstehung der Chemie im 17. Jahrhundert u.a. durch Robert
Boyle, der sich auf das atomistisch-mechanistische Weltbild stützte, und im 20.
Jahrhundert die Entstehung der wissenschaftlichen Kosmologie durch Einsteins
349
Relativitätstheorie, der sich bewusst sehr von philosophischen Fragen leiten ließ.
Bei manchen historisch bedeutsamen Veröffentlichungen drückte sich diese innige
Beziehung von Naturwissenschaft und Naturphilosophie bereits im Titel aus.
Newtons Hauptwerk von 1687 trägt den Titel „Philosophiae naturalis principia
mathematica”, John Dalton, ebenfalls ein Begründer des neuzeitlichen Atomismus,
veröffentlichte 1808 seine Schrift „A new system of chemical philosophy”; und
1809 erschien Jean-Baptiste de Lamarcks Schrift „Philosophie zoologique”, die
Begründung der Evolutionsbiologie.
c) In Zeiten, in denen die fundamentalsten Anschauungs- und Denkweisen, die
methodologischen Grundeinstellungen darüber, wie gute Wissenschaft vorzugehen
hat, Veränderungen unterliegen. Ein Beispiel ist die Entstehung der heutigen Art,
Naturwissenschaft zu betreiben, im 17. Jahrhundert. Das atomistische Weltbild
Demokrits wurde zum integralen Bestandteil des entstehenden mechanistischen
Weltbildes, auf welchem die Forderungen basierten, wissenschaftliche
Erklärungsprinzipien sollten sich auf die korpuskulare Materie, ihre Gestalt und
Bewegung beschränken und die experimentellen Ergebnisse sollten wiederholbar
und vorhersagbar sein.
Eine eingehende Betrachtung der Geschichte der Naturwissenschaften, vor allem
der von Physik und Biologie, zeigt auch, dass eine Wissenschaft im Laufe ihrer
Entwicklung verschiedene methodologische Stadien durchläuft. Man kann
hauptsächlich drei Stadien unterscheiden, die allerdings fließend ineinander
übergehen. Auch enthält jedes Stadium die Vorgehensweise der vorherigen. Im
Frühstadium konzentrieren sich Wissenschaftler darauf, über ihren Forschungsgegenstand möglichst viele empirische Daten zu sammeln und diese in Form von
allgemeinen Sätzen zusammenzufassen. Es tauchen dann irgendwann Fragestellungen auf, die sich hierdurch nicht beantworten lassen. Man kommt dann in
ein Stadium, in dem man versucht, ausgehend von den Beobachtungsdaten
spekulativ Axiome zu formulieren, aus denen Sätze deduktiv abgeleitet werden
können, welche sich schließlich an der Erfahrung bewähren müssen (Einstein
1960; Heisenberg 1990). Hat man einmal auf diese Weise eine gute Theorie
gefunden, dann kann es in der Folgezeit dazu kommen, dass die vorhandene
Theorie zwar alle für relevant gehaltenen Daten erklärt, dass aber die
Wissenschaftler unzufrieden sind mit den grundlegenden Prinzipien, den
Grundbegriffen oder Axiomen der Theorie, und deshalb bemühen sie sich um eine
neue Theorie. Ein Beispiel ist die Gravitationstheorie. Einstein wollte das
allgemeine Relativitätsprinzip verwirklichen und musste aus theoretischen
Gründen die allgemeine Relativität mit der Gravitation verbinden. Außerdem war
er unzufrieden damit, dass Newtons Gravitationskraft eine Fernwirkungskraft war,
und mit der Allgemeinen Relativitätstheorie eliminierte er diese »spukhafte
Fernwirkung« aus der Gravitationsphysik.
350
Zusammenfassend kann man folgende drei Forschungsstadien unterscheiden: 1.
das Sammeln von experimentellen Daten und das Aufstellen allgemeiner
Aussagen; 2. das Bemühen, von den Beobachtungsdaten durch Spekulation zu den
theoretischen Begriffen und Axiomen zu gelangen, um dann deduzierte Sätze mit
Beobachtungen zu konfrontieren; 3. die Ersetzung von Theorien durch neue
Theorien mit akzeptableren Prinzipien oder Eigenschaften. Wie eine derartig
bessere Theorie auszusehen hat, ist durch keine feste methodologische Regel
vorgeschrieben und wird von Wissenschaftler zu Wissenschaftler verschieden
eingeschätzt. Wissenschaftler lassen sich hierbei von Leitideen führen, was weiter
unten genauer erläutert wird. Von der Wissenschaftlergemeinschaft wird eine neue
Theorie in der Regel nur dann übernommen, wenn sie zusätzlich zu den
Vorhersagen der alten Theorie neue empirische Befunde korrekt vorhersagt.
Methodologisch besonders interessant sind natürlich die Fragen, wie im zweiten
Stadium der kreative Schritt von den Daten zu den Axiomen verläuft und nach was
für Prinizipien die Wissenschaftler im dritten Stadium vorgehen. Wie die kognitive
Psychologie zeigen konnte, spielen bei sehr komplexen Problemen während der
Lösungssuche Heurismen eine wichtige Rolle (Dörner 1979). Heurismen sind
Leitideen, durch welche Probleme unter Umständen gelöst werden können, sie sind
Vermutungen darüber, welche Bestandteile die Lösung des Problems haben
könnte. Gerald Holton (1973) hat derartige Leitideen aus Einsteins Arbeiten
herausgearbeitet, und diese Leitideen lassen verstehen, warum Einstein bestimmte
Theorien bevorzugte und andere ablehnte, obwohl sie empirisch gestützt waren; sie
beruhten nämlich auf anderen Leitideen.
Eine wichtige Funktion der Naturphilosophie in der Wissenschaft ist deshalb, den
Wissenschaftlern für ihre Forschungsbemühungen Heurismen bzw. Leitideen
bereitzustellen. Die wissenschaftliche Forschung ist heutzutage einerseits sehr
fachspezifisch, andererseits sehr zeitintensiv, so dass der einzelne Wissenschaftler
(bzw. die Wissenschaftlerin) neben seinen (ihren) spezifischen Forschungsinteressen und seinen sonstigen Verpflichtungen wie Lehrveranstaltungen kaum
noch Zeit und Muße findet, mehrere Forschungsrichtungen oder gar mehrere
Wissenschaften zu durchdringen. Der Publikationsdruck ist derartig groß, dass für
die genaue erkenntnistheoretische Analyse selbst der eigenen Wissenschaft kaum
noch Zeit bleibt. Der Wissenschaftsphilosoph (bzw. die Wissenschaftsphilosophin)
hingegen überblickt durch gründliches Literaturstudium in der Regel mehrere
Wissenschaftsdisziplinen und hat die nötige erkenntnistheoretische Schulung, um
die Grundaussagen mehrerer Theorien herausarbeiten und miteinander vergleichen
zu können. Die systematische Herausarbeitung und der Vergleich grundlegender
theoretischer Begriffe und Aussagen verschiedener Theorien aus unterschiedlichen
Wissenschaften wird deshalb heutzutage vornehmlich von Philosophen geleistet.
In einem zweiten Schritt kann nun der Naturphilosoph versuchen, die vielen
351
Detailergebnisse aller Wissenschaften zu einer konsistenten Zusammenschau zu
integrieren, d.h. ein Weltbild bzw. eine globale Weltauffassung zu beschreiben.
Die Synthese einer Weltauffassung, die natürlich (wie alle Integrationen von
einzelnen Bausteinen zu einem Ganzen) über die Detailergebnisse der
Wissenschaften hinausgeht, hat nicht nur den Wert einer teleskopartigen
Zusammenfassung bereits vorliegender wissenschaftlicher Erkenntnisse, sondern
kann den Wissenschaftlern auch zur Orientierung und Ausrichtung ihrer künftigen
Forschungen dienen, denn aus einer umfassenden Weltauffassung lassen sich
Leitideen ableiten, die bei der experimentellen Forschung und bei der
Theorienkonstruktion hilfreich sein können. So hat zum Beispiel das Demokritsche
Weltbild zur Suche nach kleinsten Bausteinen, den Atomen, geführt, was in
unserer Zeit bis zur Quarktheorie führte (obwohl man diese sogenannten
Elementarteilchen nicht als Atome im Sinne Demokrits auffassen kann). Neben der
Analyse der Grundaussagen der Theorien und der Synthese einer Weltauffassung
hat also der Philosoph die zusätzliche Aufgabe, durch Bereitstellung
naturphilosophischer Leitideen, erhalten aus einer globalen Weltauffassung,
Theorienkonstruktionen zu fördern.
Wie die Geschichte der Wissenschaften lehrt, sind mit Ausnahme von Mathematik
und Astronomie alle Erfahrungswissenschaften aus der Philosophie
hervorgegangen, und in der vorliegenden Arbeit soll es darum gehen, die
Grundlagen für eine weitere Forschungsrichtung zu legen. Die empirischen
Wissenschaften gehen von den empirischen Daten aus, es stellt sich aber die Frage,
welcher Art diese Daten zu sein haben. Während im Osten, z.B. in Indien,
introspektive Erlebnisse innerhalb des Subjektes die Grundlage bilden für die
dortigen Weltauffassungen, sind die westlichen Wissenschaften so überragend
erfolgreich, weil man sich hier auf die Beobachtungsdaten über die Außenwelt
stützt, denn diese empirischen Befunde lassen sich wesentlich einfacher objektiv
bewerten. Da jedoch das Bewusstsein selbst ein Teil der Welt ist, den es ebenfalls
wissenschaftlich zu untersuchen gilt, kann man in der Psychologie auf
introspektive Berichte nicht verzichten. Es fragt sich deshalb, ob man
psychologische Erkenntnismethoden, wie sie in Asien oder auch bei uns im
Westen in noch unakademischer, unsystematischer Weise praktiziert werden,
wissenschaftlich (im westlichen Sinne) nutzbar machen kann. In einer früheren
Arbeit über das von mir entworfene Computer-Weltbild (Arendes a) hatte ich
heuristische Leitideen für eine introaktive Psychologie angedeutet, was ich nun in
der vorliegenden Arbeit detaillierter ausarbeiten möchte. Zuvor werde ich deshalb
dieses Weltbild und einige daraus abgeleitete Leitideen kurz zusammenfassen.
352
2. Das Computer-Weltbild
In den zwanziger Jahren des vorigen Jahrhunderts wurde die QM entwickelt,
welche dem klassischen mechanistisch-atomistischen Weltbild ein Ende bereitete.
Zahlreiche Phänomene und Eigenschaften der QM lassen sich mit klassischen
Vorstellungen nicht verstehen; um nur einige zu nennen: Objekte kann man
sowohl als Wellen als auch als Teilchen deuten. Die beobachtbaren Phänomene
verlaufen nicht auf räumlichen Bahnen; vielmehr gibt uns die QM nur
Wahrscheinlichkeiten, mit denen wir sie beobachten können. Die Zustandsfunktion
ist vor ihrer Beobachtung als eine Superposition gegeben, und ihre Reduktion zum
beobachteten Wert ist derzeit physikalisch nicht zu beschreiben. Das sogenannte
EPR-Paradox und die Verletzung der Bellschen Ungleichung legen nahe, dass es
entweder physikalische Objekte vor ihrer Beobachtung gar nicht gibt oder dass es
zwischen den Objekten der Welt eine ganzheitliche Verbindung geben kann.
Um diese seltsamen Eigenschaften der QM verstehbar zu machen, habe ich in
früheren Arbeiten (1992, a) die Welt mit einem Computer verglichen. Dabei
werden die mathematischen Formalismen der theoretischen Physik, die
Naturgesetze, mit der Software eines Computers und die beobachtbare Welt mit
den Abbildungen auf dem Computer-Bildschirm verglichen. In dieser Analogie
bilden Unterprogramme der Software den Verstand der Menschen und die
Hardware entspricht dem Quantenvakuum. Wie sich in der Elementarteilchenphysik immer mehr herausstellt, ist das Quantenvakuum nicht das Nichts, sondern
der Grundbereich der Welt, aus dem heraus die materiellen Objekte entstehen (vgl.
Rafelski, Müller 1985). Im Rahmen dieses Weltbildes kann man dann die QM so
deuten, dass die Reduktion der Zustandsgleichung der Projektion eines Teilchens
auf den Bildschirm entspricht. Auf dem Bildschirm ist das Objekt teilchenförmig,
aber die Wahrscheinlichkeiten für die Projektion eines Teilchens zu einem
bestimmten Ort verändern sich in der Software wellenförmig. In der Software sind
die Eigenschaften verschiedener Objekte, die in der Vergangenheit eine
Wechselwirkung hatten, miteinander gekoppelt, was dem Ganzheitscharakter beim
EPR-Paradox entspricht.
Das Computer-Weltbild (CWB) habe ich später (Arendes b) zusätzlich in einer
analogiefreien Sprache formuliert, worauf ich hier aber nicht näher einzugehen
brauche. Da die Computeranalogie anschaulicher ist, werde ich nur diese benutzen,
um einige der folgenden Gedanken zu erläutern; aber natürlich ohne zu behaupten,
dass dieses Forschungsprojekt von der Wahrheit eines bestimmten Weltbildes
abhängig sei.
353
3. Methodologische Leitideen für die Psychologie
Eine zur Zeit viel beachtete intellektuelle Fähigkeit ist die Kreativität. Hierbei
handelt es sich um eine Fähigkeit, die von vielen Psychologen als ein Prozess
betrachtet wird, der nicht automatisch abläuft und der nicht vorhersagbar ist. Es
entsteht etwas Neues, eine neue Idee, was sich schwer gesetzmäßig erklären lässt.
Vielfach wird berichtet, dass ein »plötzlicher Einfall« die Lösung eines Problems
brachte. Hierbei ist es oft so, dass man sich nach einer Phase der aktiven
Lösungsbemühung zunächst eine Zeitspanne gar nicht mehr mit dem Problem
beschäftigt hatte (die Inkubationszeit) und dass dann unerwartet ein plötzlicher
Einfall kam (Dörner 1979).
Im CWB lässt sich die Kreativität, wie ich in meinem Buch bereits angedeutet
habe, folgendermaßen deuten: In einem Computernetzwerk sind mehrere PCs mit
einem Hauptrechner verbunden, und der Anwender kann Rechnungen, für die sein
PC kein Programm enthält, an den Hauptrechner abschicken. Nachdem er sein
Problem dem Hauptrechner mitgeteilt hat, braucht er nur noch zu warten, bis auf
seinem Bildschirm die Antwort erscheint. Bei kreativen Problemlösungen gehen
der plötzlichen Intuition Phasen der aktiven Lösungsbemühung und oft auch der
Problemignorierung (Inkubation) voraus. Der anfängliche Lösungsversuch könnte
gemäß dem CWB die Funktion haben, die Problemfrage an den Zentralrechner
abzuschicken und die zum Verständnis der Problemantwort nötigen Grundbegriffe
zu erlernen. In der Psychologie geht man heute davon aus, dass die
Problemstellung zu Beginn eines kreativen Prozesses lediglich dem eigenen
Unterbewusstsein und keinem »Zentralrechner« übertragen wird. Solange es aber
keine wissenschaftliche Leib-Seele Theorie gibt, solange man nicht genauer weiß,
was das Unterbewusstsein ist, ist die Hypothese des Unterbewusstseins nur die
Bereitstellung eines Wortes für etwas Unbekanntes und keine vollständige
wissenschaftliche Erklärung der Kreativität. Bei der Kreativität spielen unbewusste
Hirnprozesse sicherlich zu einem großen Teil eine wichtige Rolle, aber bei
besonders genialen Einfällen vielleicht nicht allein, sondern auch informationsverarbeitende Prozesse im Quantenvakuum.
Wie ich ebenfalls in meinem Buch über das CWB ausgeführt habe, kann man im
Rahmen des CWB auch versuchen, die heute außerhalb der Universitäten sehr
beliebte Technik der Meditation wissenschaftlich nutzbar zu machen. Es gibt sehr
viele Formen von Meditation, und man kann sie grob in zwei Klassen einteilen: die
konzentrative Form der Meditation und die Form des „Sich-Öffnens” (vgl.
Naranjo, Ornstein 1988). Bei der konzentrativen Meditation konzentriert man sich
auf einen bestimmten Gegenstand, ein Bild oder einen Gedanken, das man sich
354
visualisiert bzw. den man sich mechanisch immer wieder innerlich vorsagt. Bei der
zweiten Form der Meditation versucht man, keine Gedanken willentlich zu
verfolgen, von allen bestimmten Gedanken und inneren Erscheinungen
„loszulassen“, „an nichts anzuhaften“ und sich dadurch offen zu halten für alles,
was in einem passiert. Die zweite Form ist eine introspektive Methode, bei der
man passiv alles registriert; die erste Form ist eine aktive Methode. Beide
Methoden können miteinander kombiniert, und zwar nacheinander ausgeführt
werden, und im CWB entspräche die erste Form dem Abschicken des Problems an
den Hauptrechner, die zweite Form entspräche dem Warten auf die Antwort, die
auch nach der Meditation in entspannten Situationen wie dem Spazierengehen als
Intuition kommen könnte. Die psychologische Methode der Introspektion sollte
also ausgeweitet werden in dem Sinne, dass zunächst aktiv irgendwelche mentalen
Übungen ausgeführt werden, um danach innerlich alles teilnahmslos zu
beobachten. Wissenschaftliche Objektivität in der Form von Intersubjektivität lässt
sich bei derartigen Methoden erreichen, wenn jeder Mensch unter den gegebenen
Umständen die behaupteten Phänomene auch bei sich selbst introspektiv
beobachten kann, und eine systematische wissenschaftliche Anwendung dieser
Vorgehensweise lässt sich am treffendsten als »experimentelle Introaktion«
bezeichnen. In der ersten Phase kann man über wissenschaftliche Probleme
meditieren wie etwa über „Was ist Leben? ” oder „Was bedeutet der WelleTeilchen-Dualismus? ”
Der in meinem CWB-Buch erstmalig vorgestellte Forschungsbereich der
experimentellen Introaktion soll nun in diesem Aufsatz eingehender besprochen
werden. Esoterische Methoden – denen auch heute noch der Hauch des Irrationalen
anhaftet – wissenschaftlich nutzbar zu machen, klingt natürlich zunächst sehr
ungewöhnlich. Der menschliche Erkenntnisdrang ging aber im Lauf seiner
Geschichte schon wiederholt durch umfangreiche erkenntnistheoretische,
methodologische Umwälzungen. Die Entstehung der Philosophie in der
griechischen Antike legte das Fundament zu unserer heutigen Rationalität, die
methodischen Erneuerungen des 17. Jahrhunderts begründeten die neuzeitliche
Naturwissenschaft, und es ist nicht auszuschließen, dass es in Zukunft noch einmal
ähnlich drastische methodische Erweiterungen geben kann.
4. Esoterik
Nachdem ich im Rahmen des CWB eher zufällig zu einem möglichen Verständnis
mancher esoterischer Praktiken gekommen war, begann ich, diese Techniken
genauer zu untersuchen, was dadurch erleichtert wurde, dass zur selben Zeit
355
geradezu eine Esoterik-Welle über die westlichen Gesellschaften hinweg
schwappte. Schon ein kurzer Blick in die heutigen Buchläden zeigt die große
Vielfalt dieser Techniken. Da wohl selbst desinteressierte Akademiker hiervon
schon einiges gehört haben, ist es nicht nötig, dass ich hier einen systematischen
Überblick über die Esoterik versuche. Stattdessen will ich zur Illustration nur ein
paar Techniken vorstellen.
Bereits erwähnt habe ich die Meditation. Hierbei sitzt man in der Regel entspannt,
aber nicht schlaff, in gerader Körperhaltung und hat die Augen ganz oder teilweise
geschlossen, während man sich entweder auf ein Wort oder ein inneres Bild
konzentriert oder während man sich bemüht, sein Bewusstsein vollkommen leer zu
halten. Meditationen werden auch im Liegen durchgeführt, das Sitzen ist aber
vermutlich besser, weil durch den erhöhten Muskeltonus die Formatio reticularis
des Hirnstammes aktiv ist (besonders im Lotussitz o.ä.). Wenn die Formatio
reticularis aktiv ist, gibt sie nicht nur motorische Impulse an die Muskeln ab,
sondern schüttet auch Noradrenalin im Kortex aus, was die kortikale Wachheit
steigert. Meditation ist deshalb zwar ein entspannter, aber trotzdem ein sehr
wacher Bewusstseinszustand; Meditation ist eine Technik zur Steigerung der
inneren Aufmerksamkeit. Die genauen Techniken kann man in sehr vielen guten
Büchern nachlesen (z.B. Schwäbisch, Siems 1983; Sekida 1975; Brunton 1940). In
der Literatur wird die Meditationstechnik oft mit einem theoretischen Hintergrund,
meist einem religiösen, beschrieben, für die Durchführung der Meditation sind
aber autorspezifische theoretische Einfärbungen belanglos. Jedoch ist es durchaus
möglich, dass für das Erreichen mancher Meditationsziele nicht nur die
routinemäßigen Sitzungen nötig sind, sondern eine beständige besondere innere
Einstellung und Lebensführung (vgl. Suzuki 1988).
In der Öffentlichkeit ebenfalls sehr bekannt sind die Praktiken des geistigen
Heilens. Hierbei sollen u.a. durch innere Imaginationen von heilendem Licht
Krankheiten geheilt werden (vgl. Wallace, Henkin 1982; Brennan 1989).
Westliche Mediziner sind diesbezüglich natürlich aufgrund unserer erfolgreichen
physiologischen Medizin besonders skeptisch. Erinnert werden muss aber an den
sogenannten Placebo-Effekt: Krankheiten können verschwinden allein durch die
Einnahme vermeintlicher Medikamente, die in Wirklichkeit gar keine sind. Hier
sind Selbstheilungskräfte am Wirken, deren Mechanismen wir noch nicht
durchschauen und die natürlich auch durch geistige Methoden ausgelöst werden
könnten. Neben diesen für westliche Naturwissenschaftler dubiosen Techniken
gibt es in der Esoterik auch unbedenkliche Methoden; z.B. Traumbeeinflussungen
durch Autosuggestionen (Garfield 1974). Demgegenüber gibt es viele weitere
Methoden, die bei den meisten Akademikern Abwehremotionen auslösen, z.B. die
Techniken der Astralreisen. Hierbei bemüht man sich darum, eine
außerkörperliche Erfahrung zu stimulieren, um dann als körperloser Geist durch
356
die Luft zu fliegen (z.B. Rogo 1985). Ebenfalls Skepsis provozieren natürlich
Methoden z.B. zur Erkenntnis sogenannter höherer Welten (Steiner 1961).
Um meine Erfahrungen von über zehn Jahren mit der Esoterik zusammenzufassen:
Ich habe den Eindruck, dass die Esoterik, wie sie sich heute in der Öffentlichkeit,
in Büchern und Kursen etc., darstellt, ein großer Misthaufen ist. Im Deutschen gibt
es aber das Sprichwort „Auf dem größten Misthaufen wachsen manchmal die
dicksten Kartoffeln”. Ich bin mir sicher, dass es hier für die Wissenschaft
Wichtiges zu lernen gibt, neben diesen dicken Kartoffeln findet man aber in
esoterischen Kreisen auch viel Schmutz (Aberglaube wie die mathematisch exakte
Berechnung von astrologischen Vorhersagen, Geldgier, Bauernfängerei von Sekten
und Kirchen etc.), vor allem wachsen hier aber auch giftige Fliegenpilze
(Bösartigkeiten und Gefahren). Aufgabe der Wissenschaft sollte es nun sein,
Kriterien zu entwickeln, mit denen man diese drei Komponenten sicher
unterscheiden kann. Positiv an esoterischen Techniken ist, dass man dadurch zu
Erfahrungen gelangen kann, die nahe legen, dass die heutige wissenschaftlichmechanistische Weltauffassung nur eine sehr grobe Approximation an die
Wahrheit sein kann. Schon die Biologie, die Prozesse in lebenden Organismen
legen die Vermutung nahe, dass die Natur auch zu teleonomen, funktionellen
Vorgängen in der Lage ist. Wer sich viele Jahre mit Esoterik beschäftigt hat, hat
aber manchmal den Eindruck, dass selbst die unbelebte Natur zur Funktionalität
fähig ist und dass die Welt von einer intelligenten Macht gesteuert wird.
5. Wissenschaftliche Erforschung introaktiver Methoden
Unter Wissenschaftlern ist die Meinung vorherrschend, dass es sich bei der
Esoterik-Welle nur um Irrationalität handele, die mit der wissenschaftlichen
Vernunft beseitigt werden müsse. Tatsächlich ist hier viel Irrationalität und
bewusste Verdunkelung durch Sekten und Kirchen anzufinden. Man muss aber
unterscheiden zwischen einerseits den reinen introaktiven Techniken und den
dadurch provozierten Bewusstseinsphänomenen und andererseits den theoretischen
und weltanschaulichen Deutungen dieser Phänomene. So wie experimentelle
Daten der Wissenschaft manchmal unterschiedlich deutbar sind, so sind auch die
Phänomene der Esoterik offen für wissenschaftliche und für irrationale Deutungen.
Es ist aber ebenso wenig rational, wenn Wissenschaftler ohne vorherige
Überprüfung meinen, alle Theorien der Esoterik wären völliger Unsinn.
Wissenschaftler sollten immer darauf gefasst sein, dass neue empirische Daten
(hier durch introaktive Methoden) zu einer Revision wissenschaftlicher
Anschauungen führen. Von Philosophen und Wissenschaftlern gibt es bereits
357
einige gute Beschreibungen und Analysen von esoterischen Glaubensinhalten (z.B.
Runggaldier 1996; Albert 1996; Albrecht 1958); was aber davon wissenschaftlich
haltbar ist, werden erst wissenschaftliche Untersuchungen zeigen können. Zu einer
Zeit, als die mechanistische Physik Newtons als gut begründet und wahr betrachtet
werden konnte, war es eine vernünftige Grundeinstellung der Wissenschaftler, die
Esoterik als blanken Unsinn abzulehnen (wenngleich man immer die empirischen
Erfahrungen suchen sollte, bevor man ein Urteil fällt). Aber Wissenschaftler, die
nach den großen wissenschaftlichen Revolutionen des 20. Jahrhunderts
(geometrische Gravitationstheorie, QM etc.) immer noch ohne vorherige
Überprüfung meinen, introaktive Methoden seien offensichtlicher Unsinn, sind
selbst nicht rational sondern dogmatisch.
Ein weiterer Grund, weshalb Wissenschaftler diesen Bereich bislang nicht systematisch untersuchten, ist, dass immer wieder behauptet wurde, Bewusstseinsphänomene ließen sich nicht objektiv erforschen. Diesem Argument lag aber ein
ungenügendes Wissen über das Wesen der Objektivität zugrunde. Objektivität
bedeutet nicht, dass ein behaupteter Sachverhalt notwendigerweise in einer
Außenwelt liegt und nicht im Bewusstsein, in einer Innenwelt. Objektivität
bedeutet methodologisch vor allem Intersubjektivität (was natürlich nur eine
notwendige und keine hinreichende Bedingung für Wahrheit ist). Um dies zu
verdeutlichen, stelle man sich vor, zwei Wissenschaftler würden einen roten Ball
beobachten, der auf einem weißen Fußboden liegt. Was bedeutet das, dass ein
Mensch einen roten Ball sieht? Primär bedeutet das lediglich, dass er in seinem
Bewusstsein etwas Rotes, umgeben von etwas Weißem, erlebt und dass er dies als
Ball deutet (s. Arendes 1996). Das Phänomen selbst liegt ganz in seinem
Bewusstsein, in der Außenwelt gibt es keine Farben. Er erlebt die Qualia »Rot«
und die semantische Deutung »Ball in der Außenwelt, auf dem Fußboden liegend«.
Weil der zweite Wissenschaftler dasselbe Erlebnis hat, beide also ähnliche
Erlebnisse haben, gilt die Aussage „Ball auf dem Fußboden liegend” als objektiv.
Damit die theoretische Deutung eines Phänomens wissenschaftlich akzeptabel
wird, ist in der Wissenschaft für die Erklärung eines Phänomens etwas Zusätzliches nötig. Damit eine theoretische Erklärung keine post hoc Interpretation ist,
wird gefordert, dass man mit der Theorie neue Beobachtungen vorhersagen kann.
Um sicher zu sein, dass z.B. ein Phänomen eine Ente und kein Hase ist, sollte es
möglich sein, dass das Objekt fliegen kann. Um nun introaktive Techniken und die
dadurch gewonnenen Ideen wissenschaftlich erforschen zu können, sind auch hier
diese beiden Postulate, Intersubjektivität der Erlebnisse und Vorhersage von neuen
Beobachtungen bzw. Erlebnissen, zu beachten. Das bedeutet, wenn jemand
behauptet, er (bzw. sie) habe während oder nach der Ausführung bestimmter
mentaler Aktivitäten bestimmte innere Erlebnisse gehabt, dann müssen andere
Menschen in der Lage sein, dies zu bestätigen. Versucht man nun eine Erklärung
358
dieses Phänomens zu geben, so muss man in der Lage sein vorherzusagen, was für
andere Erlebnisse man haben wird, wenn man bestimmte andere mentale
Aktivitäten ausführt. Und es gibt apriori keinen Grund, warum das methodologisch
nicht möglich sein sollte. Bewusstseinsphänomene werden in der Psychophysik
schon seit langem intersubjektiv erforscht, nur dass hier die auslösenden Stimuli
keine mentalen Aktivitäten, sondern physikalische Reize sind. Dass manche
Berichte über esoterische Phänomene intersubjektiv gültig sind, weiß jeder, der
schon einmal ein Buch über einen derartigen Bereich gelesen hat, die darin
empfohlenen Techniken befolgt hat, und dabei tatsächlich die behaupteten
Phänomene oder einige davon bei sich beobachtete. Bezüglich der
Intersubjektivität muss allerdings beachtet werden, dass man in der Wissenschaft
für viele Dinge erst als Experte ausgebildet sein muss. Nicht jeder kann die
mathematischen Gleichungen der theoretischen Physik lösen, und nicht jeder weiß,
was er sieht, wenn ihm ein Biologe ein mikroskopisches Präparat zeigt, und auch
für esoterische Techniken braucht man etwas Übung. Eine gute Grundlage für die
Ausbildung zum introaktiven Wissenschaftler ist das Buch von Schultz (1956)
über autogenes Training. Das autogene Training ist eine heute sehr beliebte
Entspannungsübung, in der man in einer Oberstufe beispielsweise Bilder in sich
vorstellt oder Bilder und Episoden auf eine Frage hin (z.B. „Was mache ich
falsch?” oder „Wie werde ich glücklich?”) in sich aufsteigen lassen kann.
Was in Zukunft zunächst erforderlich ist, ist eine systematische Untersuchung
darüber, welche Techniken zu welchen Erlebnissen mit welchen Variationen
führen. Ein interessantes Buch über die phänomenologischen Erlebnisse im
Meditations- bzw. Versunkenheitszustand ist beispielsweise ein Buch von Carl
Albrecht (1990). Was jedoch erforderlich ist, sind Berichte von verschiedenen
Autoren über denselben Gegenstandsbereich, um diese miteinander vergleichen
und subjektive Fehldeutungen eliminieren zu können. In den Forschungsberichten
der introaktiven Wissenschaftler ist also zu beschreiben erstens, welche mentalen
Aktivitäten ausgeführt wurden, und zweitens die genaue Phänomenologie der
dabei oder danach aufgetretenen Erlebnisse. Im fortgeschrittenen Forschungsstadium werden sich daran Hypothesen zur Erklärung der Phänomene und
Vorschläge zum Test dieser Hypothesen anzuschließen haben.
Ein weiterer wichtiger Bestandteil der wissenschaftlichen Methodologie, und zwar
des Experimentes, ist die Replizierbarkeit der Befunde. In den letzten Jahren hat
sich allerdings herausgestellt, dass es Phänomene gibt, die sich nur schwer
replizieren lassen. Dies sind Phänomene, die einer nichtlinearen Dynamik
gehorchen; nur ganz geringe Unterschiede in den Anfangsbedingungen können zu
einem völlig unterschiedlichen Verhalten in der Zeit führen. Da man den
psychischen Zustand von zwei Menschen nie ganz gleich herstellen kann und da
die Hirnforschung nahe legt, dass die Hirndynamik nichtlinear ist, kann man
359
natürlich an die Experimente der introaktiven Psychologie nicht die Erwartungen
stellen wie an die Experimente der klassischen Physik; dies gilt aber auch schon
für andere Wissenschaften wie der Verhaltensbiologie und der Soziologie. Der
einzelne Forscher muss also geduldig die zu erforschende Technik immer wieder
ausprobieren, bis er das gewünschte Resultat erhalten hat, und die genauen
Standards der introaktiven Methodologie sind im Zuge der Forschung in
Anlehnung an den jeweiligen Phänomenbereich erst noch zu entwickeln. Auch ist
damit zu rechnen, dass sich manche Phänomene der Esoterik überhaupt nicht
wissenschaftlich untersuchen lassen. In der QM ist in den letzten Jahren im
Rahmen der Untersuchungen zum EPR-Paradox und zur Bellschen Ungleichung
deutlich geworden, dass es zwischen scheinbar getrennten Objekten ganzheitliche
Verbindungen geben kann. Das Herstellen derartiger Beziehungen in
experimentellen Situationen ist vielleicht nicht immer möglich. Ich bin mir sicher,
dass es Telepathie gibt, ob man dies aber wissenschaftlich kontrollierbar herstellen
kann, ist umstritten. Andererseits gibt gerade die Meditation diesbezüglich Grund
zur Hoffnung. Die Meditation ist ein erhöhter Aufmerksamkeitszustand, in dem
man telepathisch erhaltene Gedanken und Stimmungen eher erkennen kann als im
normalen Bewusstseinszustand.
Was die Erklärung der erlebten Phänomene betrifft, soll auch noch einmal
hervorgehoben werden, dass man bei ihren Deutungen sehr vorsichtig sein muss.
Es gibt Leute, die z.B. das Gefühl haben, als körperloser Geist um die Erde fliegen
zu können, oder die sich mit der ganzen Welt als Einheit fühlen. Was ist aber
Bewusstsein und wie entsteht es? Wie oben schon erläutert wurde, gibt es in der
Außenwelt keine Farben; Farben sind psychische Qualitäten, welche die
Außenwelt repräsentieren sollen. Sieht man einen roten Ball, so erlebt man in
seinem Bewusstsein etwas Rotes und dessen realistische Interpretation, ein in der
Außenwelt liegender Ball zu sein. Diesen doppelten Aspekt des Bewusstseins –
Qualia und semantische Deutung – gibt es fast immer beim Bewusstsein. Die
semantischen Wahrnehmungsdeutungen können aber falsch sein, wie die
bekannten Wahrnehmungstäuschungen verdeutlichen. Auch die Selbstwahrnehmung hat diesen doppelten Aspekt: Der eigene Körper wird in einer
spezifischen Qualität erlebt, und diese Qualia wird als »Selbst« gedeutet. Es ist nun
aber denkbar, dass dieses Selbstkonzept nicht mit der Körperqualia verbunden
wird, sondern mit den Qualiae, die die gesamte Welt repräsentieren, oder
nacheinander mit verschiedenen Qualiabereichen, die die Luft repräsentieren; man
erlebt dann ein mystisches Einheitserlebnis bzw. eine Astralreise. Die Deutungen
von introaktiven Erlebnissen sind also nach demselben Muster zu testen wie die
Theorien aller anderen Wissenschaften. Um die Vorhersage einer Theorie aus dem
introaktiven Bereich zu testen, kann man entweder eine introaktive Methode
benutzen oder aber auch die der Außenwahrnehmung; z.B. physiologische
Messungen von Körperreaktionen. Die umgekehrte Vorgehensweise – eine
360
Theorie aus der physiologischen Forschung und ihr introaktiver Test – ist auch
möglich: Sollte es in Zukunft der Hirnforschung gelingen, eine testbare
Bewusstseinstheorie zu formulieren, dann könnte der Test der Theorie so aussehen,
dass die Hirnforscher das Gehirn eines Patienten beeinflussen und dieser dann
seinen inneren Zustand beschreibt.
6. Weitere Ableitungen aus dem Computer-Weltbild
Wie bereits erwähnt, war für mich das CWB ein Grund, mich intensiver mit der
Esoterik zu beschäftigen. Aus dem CWB lassen sich zusätzlich zu den schon
erwähnten die folgenden drei Vorhersagen ableiten.
In der naturwissenschaftlichen Forschung sammelt man empirische Daten, um von
hier ausgehend die Naturgesetze bzw. Theorien zu erraten. Besäße die Welt eine
enge Analogie zu einem Computer, so wäre es natürlich einfacher, wenn man das
Weltprogramm auf seinen Bildschirm (in sein Bewusstseinsfeld) laden könnte.
Dabei würde dann vermutlich das Problem auftreten, dass wir die Sprache, in der
das Programm geschrieben wäre, nicht verstehen würden. Hierbei muss man
natürlich sofort an das denken, was Mystiker immer wieder behaupten, nämlich
dass das von ihnen Geschaute unaussprechlich sei. Man kann aber hoffen, dass
auch für das heute noch Unaussprechliche eine neue Sprache geschaffen werden
kann, wenn mehrere introaktive Wissenschaftler derartige Erlebnisse wiederholt
haben könnten und sie darüber diskutierten.
Der Gedanke, das Weltprogramm ins eigene Bewusstsein laden zu können, führt
direkt zu der Idee, dieses Programm auch verändern zu können. Dies wäre dann die
Umkehrung der Psychophysik. In der Psychophysik gibt man physikalische Reize,
um zu untersuchen, wie sich diese im Wahrnehmungsbewusstsein auswirken. Bei
unserer Methode würde man mentale Aktivitäten ausführen, um nachher zu
beobachten, wie sich das in der Natur auswirkt. Ob es magische Praktiken
tatsächlich gibt, möchte ich hier nicht weiter besprechen; auf jeden Fall wäre
hiervor sehr zu warnen, worauf im nächsten Abschnitt genauer eingegangen wird.
Das CWB würde auch die von Esoterikern und Parapsychologen behauptete
Zukunftsschau erlauben (vgl. Bender 1980), denn in einem Computer ist das ganze
zukünftige Verhalten im Programm vorgegeben. Man kann sich beispielsweise in
der Meditation oder in der Oberstufe des autogenen Trainings eine Frage über
seine Zukunft stellen, um dann abzuwarten, was für Bilder in einem auftauchen. In
361
der esoterischen Literatur liest man manchmal, dass Zukunftsvisionen (oder auch
Telepathie oder unbewusste Situationsbewertungen z.B. im Traum) in
symbolischer Form ankommen. Wenn man also zum Beispiel in der Meditation
sieht, wie man von seinem Institutsdirektor ans Kreuz genagelt wird, dann bedeutet
das nicht, dass man am nächsten Tag tatsächlich gekreuzigt wird. Vielmehr könnte
es sein, dass man am nächsten Tag die außerordentliche Kündigung erhält. Das
Ankommen von symbolischen Verzerrungen ließe sich im CWB folgendermaßen
erklären: Der Maschinencode des Weltcomputers ist uns nicht bekannt, d.h.
unverständlich; Informationen aus dieser Software müssen deshalb erst in eine uns
verstehbare Form transformiert werden, und der semantische Gehalt einer
Information wird deshalb (manchmal) bildlich-symbolisch erfahren.
7. Chancen und Gefahren
In vielen Büchern über Meditation und Mystik wird berichtet, dass derjenige, der
diesen Weg geht, viel Leid und Unglück zu ertragen habe (vgl. Brunton 1940;
Dürckheim 1991; Albert 1996). Paul Brunton schreibt, „wir erlangen diesen
gesegneten Zustand nicht, bevor wir gelitten haben” (S. 337), und bei Dürckheim
lesen wir (S. 108): „Indem er das Absurde, die Qual der höchsten Ungerechtigkeit
und Widersinnigkeit auf sich nimmt, das heißt, das für das Welt-Ich
Unannehmbare annimmt, die Dunkelheit über sich kommen läßt, geht das Licht,
das nicht von dieser Welt ist, in ihm auf.” Es ist, als ob der Suchende permanent
vom Unglück verfolgt wird. Ist das purer Aberglaube? In der religiösen und
esoterischen Literatur wird diese »via negativa«, der negative Weg, so gedeutet,
dass derjenige, der zu Gott will, erst durch Leid und Unglück gereinigt werden
müsse, bis er Gottes würdig sei; mythologisch gesprochen muss man erst durch das
Fegefeuer gehen, bevor man in den Himmel kommt. Das Leiden, die Katharsis, sei
als innere Läuterung eine notwendige Durchgangsstufe auf dem Weg zur
mystischen Schau. Weshalb man jedoch jahrelang leiden soll, bevor man den Gott
der Liebe schauen dürfe, dafür wird keine plausible Erklärung angeboten (z.B.
»Um Gott schauen zu können, muss man erst Gott ähnlich werden.«). Innerhalb
des CWB bietet sich deshalb folgende Erklärung an. Besäße die Welt eine enge
Analogie zu einem Computer und könnte man Programme der Natur in sein
Bewusstsein laden und womöglich manipulieren, dann könnte man damit auch
großen Schaden anrichten. Treibt man die Analogie auf die Spitze, dann stellt sich
die Frage, ob man den Weltcomputer auch zum Abstürzen bringen kann. Es könnte
nun sein, dass es Schutzmechanismen in der Software gibt, die verhindern sollen,
dass man wichtige Programme lädt und manipuliert. Die »via negativa« des
meditativen Lebens hat daher vielleicht den Zweck, die Person davon abzuhalten,
362
weiter zu meditieren. Manche Techniken der Esoterik sind vielleicht derjenige
Baum der Erkenntnis, von dem wir nicht essen sollten; oder zumindest nur
teilweise und nur moralisch hochstehende Personen. Vielleicht nicht ohne Grund
war die Esoterik bis zum 20. Jahrhundert ein Geheimwissen (seit Platon ist das
vermutlich die geheime Methode auch vieler Philosophen gewesen). Als Warnung
bedenke man, dass die ursprünglich so harmlos anmutenden wissenschaftlichen
Untersuchungen zum Atomaufbau zur Atombombe führten; und die Literatur zur
Esoterik sieht von vornherein in einigen ihrer Teile nicht harmlos aus. Wohin
könnte eine systematische Untersuchung introaktiver Methoden führen? Ich bin
davon überzeugt, dass nicht alles an der heutigen Esoterik nur Aberglaube ist –
wichtiger als die Frage, ob man das wissenschaftlich erforschen kann, sind mir
jedoch die Fragen, ob man es erforschen soll, in welchem Umfang und durch wen.
Falls die via negativa nicht bloßer Aberglaube sein sollte, dann könnte die heutige
Esoterik-Welle, die Zugänglichkeit bestimmter Bücher in den Buchläden, auf lange
Sicht negative Folgen haben (wer die gesamte Esoterik für reine
Volksverdummung hält, kann zur selben Schlussfolgerung gelangen). Ein Motiv
dafür, diesen Aufsatz zu schreiben, war deshalb, die Anregung zu geben, die
Esoterik aus der Öffentlichkeit weg zu bekommen. Die Untersuchung derartiger
Techniken sollte man den Universitäten überlassen. Wer sich außerhalb der
Universitäten dafür interessiert, der kann in Volkshochschulen ausgewählte
Techniken erlernen und dort die dazu nötige Literatur mitgeteilt bekommen. Wer
Entspannungstechniken benötigt, kann dort das autogene Training erlernen. Selbst
wer als Entspannungstechnik mit einer harmlosen Form von Meditation beginnt,
wird in der Regel später neugierig und versucht tiefere Formen; und ob das auf
lange Sicht entspannend ist, ist noch fraglich. Wer wissen will, was man in
Meditationen erleben kann, kann auch Bücher von glaubwürdigen Wissenschaftlern lesen (z.B. Albrecht 1990); die erkenntnistheoretische Bedeutung dieser
Phänomene muss ohnehin erst noch erforscht werden. Vor allem sollte man davor
warnen, dass Personen in hohen verantwortungsvollen Positionen esoterische
Praktiken betreiben. Sollte es die via negativa wirklich geben, könnten regierende
Politiker der ganzen Gesellschaft Unglück bringen; ebenso könnte es für die
gesamte Gesellschaft schädlich sein, wenn große Teile der Bevölkerung derartige
Techniken praktizierten (man denke nur an die esoterischen Vorlieben von Juden
und Nazis zu Beginn des vorigen Jahrhunderts). Wer trotz möglicher Gefahren
meditieren will, sollte über Glück und Gesundheit meditieren (hierfür eignet sich
bereits das autogene Training) und nicht über tiefschürfende mystische Dinge.
Solange die Auswirkungen der introaktiven Methoden wissenschaftlich nicht
erforscht sind, ist sicherlich Vorsicht geboten.
Trotz der möglichen Gefahren sollte man jedoch nicht vollständig darauf verzichten, introaktive Methoden zu erforschen, denn ein Wissen um dadurch
363
stimulierte Erlebnisse kann auch Vorteile mit sich bringen. Vielleicht sind wirklich
einige theoretische Ansichten der Esoteriker wahr, was bedeutsam für die Moral
sein könnte. So soll ein früherer indischer Präsident, Radhakrishnan, einmal gesagt
haben: „Du sollst deinen Nächsten lieben wie dich selber, weil du dein Nächster
bist. Nur eine Illusion läßt dich glauben, dein Nächster sei ein anderer als du
selber” (zitiert nach Gaarder 1993: 167). Wichtiger noch scheint mir die Frage zu
sein, ob es das Gesetz vom Karma gibt. Nach dem Karmagesetz bestimmen die
eigenen guten und schlechten Taten die zukünftigen Glücksfälle und
Schicksalsschläge, die manchmal »zufällig« über einen kommen. Wäre das so,
dann hätte auch der größte Egoist ein Motiv, immer nur Gutes zu tuen; es würde
die Maxime gelten : »Behandle alle Menschen so, wie du behandelt werden
willst.«
Was für Resultate auch immer die introaktive Psychologie in Zukunft bringen
wird, ich bin mir aber sicher, dass ein Rückfall in den platten Materialismus
heutiger akademischer Prägung mit seinen sozialdarwinistischen psychologischen
Konsequenzen dann nicht mehr möglich sein wird.
8. Schlussbemerkungen
Wissenschaftler, welche skeptisch darüber sind, ob introaktive Methoden wissenschaftlich und therapeutisch untersucht und angewendet werden können, mögen
daran denken, dass es derartiges bereits gibt, z.B. in Form von Hypnose und
autogenem Training. (Bei der Hypnose führt man zwar die einleitenden mentalen
Aktivitäten nicht selbst aus, sondern der Hypnotiseur, im weiteren Sinne ist es aber
doch eine introaktive Methode, außerdem gibt es die Selbsthypnose.) Auch lassen
sich sicherlich Autosuggestionen bereits in der Wissenschaft zur Förderung der
Kreativität einsetzen.
Hoffen kann man auch, dass Versunkenheitszustände beispielsweise in der
Parapsychologie helfen, umstrittene Phänomene eindeutiger nachzuweisen;
versucht wird dies bereits. Meditationen könnten dazu beitragen, dass sogar
Skeptiker Telepathie o.ä. selbst erleben. Zu einer höheren Akzeptanz derartiger
Phänomene kann es auch kommen, wenn die phänomenologische Natur dieser
Phänomene besser beschrieben werden kann, wozu autogenes Training o.ä.
hilfreich sein kann. Beispielsweise darf man sich telepathische Informationen nicht
unbedingt so vorstellen, dass man wie am Telefon eine fremde Stimme an seinem
Ohr oder in seinem Kopf hört. Vielmehr erlebt man oftmals diese Informationen
z.B. als eigene Gedanken. In sehr schönen Worten hat dies der Mitbegründer der
364
QM, Erwin Schrödinger (1987: 150), ausgedrückt, als er schrieb über alle
„wahrhaft Liebenden, die beim Anblick des geliebten Wesens gewahr werden, daß
Denken und Freuen ihnen gemeinam und nicht nur ähnlich oder gleichartig sind.”
Das Erleben fremder Gedanken als die eigenen soll durch folgende Anekdote
verdeutlicht werden: Ein junger Mann sitze mit ein paar jungen Frauen in einem
Café. Nach einiger Zeit verabschiedet er sich und fährt mit seinem Fahrrad weg.
Beim Fahrradfahren gehen ihm viele Gedanken durch den Kopf, z.B. über sein
Studium, die Frauen etc. Dabei denkt er dann plötzlich auch, dass er der tollste
Mann der Stadt sei. Da er normalerweise ein bescheidener Mensch ist, wundert er
sich, wie er auf so etwas kommen konnte. „Ich bin alles andere als ein
Frauenheld.”, denkt er und tadelt seine eigenen überheblichen Gedankengänge.
Trotzdem muss er noch öfter denken, dass er hier der beste Mann sei. Ein paar
Tage später trifft er eine der Frauen und sie erzählt ihm: „Als du neulich das Café
verlassen hast, haben wir die uns bekannten Männer der Stadt auf einer Skala von
0 bis 15 bewertet, und du warst mit 12 Punkten der Beste.” Was diese Geschichte
verdeutlichen soll, ist, dass ungewohnte Gedanken, die plötzlich in einem als die
eigenen aufsteigen, von anderen Menschen stammen könnten, und introaktives
Training kann helfen, dies leichter zu erkennen.
In den 60er und 70er Jahren des 20. Jahrhunderts hat sich eine psychologische
Forschungsrichtung entwickelt, die als transpersonale Psychologie bezeichnet wird
und die große Ähnlichkeit hat mit einer introaktiven Psychologie. Auf das
wissenschaftliche Niveau dieser Forschungsrichtung will ich hier nicht näher
eingehen, Charles Tart (1978) hat aber einen lesenswerten Aufsatz über die
methodologische Grundlegung dieser Disziplin verfasst, in dem er vieles geschrieben hat, was auch auf unsere Forschungsrichtung zutrifft, was ich aber hier nicht
alles zusammenfassen will. In der transpersonalen Psychologie werden neben
Experimenten mit Drogen auch introaktive Methoden benutzt, es geht hierbei
jedoch hauptsächlich um die Untersuchung sogenannter höherer bzw. veränderter
Bewusstseinszustände, wohingegen die introaktive Psychologie allgemeiner
ausgerichtet ist und auch innerhalb von normalen Bewusstseinsstufen
experimentieren soll. Auch hat die transpersonale Psychologie hauptsächlich das
Ziel, spirituelle Erlebnisse zu untersuchen; und die Bezeichnung »transpersonal«
drückt schon eine intendierte theoretische Interpretation aus, wohingegen es bei der
introaktiven Psychologie erst einmal nur um eine Methode geht, unabhängig
davon, was dabei als Natur- und Menschenerkenntnis in Zukunft herauskommen
wird. Auch forschen in der transpersonalen Psychologie sehr viele religiöse
Menschen, wohingegen ich der Meinung bin, dass introaktive Wissenschaftler
keiner Kirche oder Religion angehören sollten, da diese die bewusste oder
unbewusste Tendenz haben, ihre Selbstbeobachtungen im Sinne ihrer jeweiligen
Religion zu verfälschen. Dieser Gefahr war sich schon Charles Tart bewusst, denn
in dem bereits erwähnten Aufsatz schrieb er (S. 41): „derjenige, der mit starken
365
heimlichen Vorurteilen an ein solches Erlebnis herangeht, kann leicht seine
Wahrnehmungen so verzerren, daß sie seine (vorgefaßten) Erwartungen erfüllen.”
Literaturverzeichnis
Albert, K. (1996): Einführung in die philosophische Mystik. Darmstadt.
Albrecht, C. (1958): Das mystische Erkennen. Gnoseologie und philosophische
Relevanz der mystischen Relation. Bremen.
Albrecht, C. (1990): Psychologie des mystischen Bewußtseins. Mainz.
Arendes, L. (1992): Gibt die Physik Wissen über die Natur? Das Realismusproblem in der Quantenmechanik. Würzburg.
Arendes, L. (1996): 'Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems'. Philosophia Naturalis 33: 55-81.
Arendes, L. (a): Das Computer-Weltbild. Funktionen der Naturphilosophie in der
Naturwissenschaft.
Arendes, L. (b): Die wissenschaftliche Weltauffassung. Wissenschaftliche Naturphilosophie.
Bender, H. (Hrsg.) (1980): Parapsychologie: Entwicklung, Ergebnisse, Probleme.
Darmstadt.
Brennan, B. A. (1989): Licht-Arbeit. Das große Handbuch der Heilung mit
körpereigenen Energiefeldern. München.
Brunton, P. (1940): Das Überselbst. Zürich.
Dörner, D. (1979): Problemlösen als Informationsverarbeitung. Stuttgart.
Dürckheim, K. (1991): Vom doppelten Ursprung des Menschen. Freiburg i. B.
Einstein, A. (1960): Briefe an Maurice Solovine. Berlin.
Gaarder, J. (1993): Sofies Welt. Roman über die Geschichte der Philosophie.
München.
Garfield, P. (1974): Kreativ träumen. München.
Heisenberg, W. (1990): Ordnung der Wirklichkeit. München.
Holton, G. (1973): Thematic Origins of Scientific Thought: Kepler to Einstein.
Cambridge.
Naranjo, C., Ornstein, R. E. (1988): Psychologie der Meditation. Frankfurt a. M.
Rafelski, J., Müller, B. (1985): Die Struktur des Vakuums. Ein Dialog über das
Nichts. Frankfurt a. M.
Rogo, D. S. (1985): Reisen in die unsterbliche Dimension. Ein 8 Schritte-Führer
für Astralreisen. München.
Runggaldier, E. (1996): Philosophie der Esoterik. Stuttgart.
Schrödinger, E. (1987): Was ist Leben? München.
366
Schultz, I. (1956): Das autogene Training (Konzentrative Selbstentspannung).
Versuch einer klinisch-praktischen Darstellung. Stuttgart.
Schwäbisch, L., Siems, M. (1983): Selbstentfaltung durch Meditation. Eine
praktische Anleitung. Reinbek.
Sekida , K. (1975): Zen Training. Methods and Philosophy. New York.
Steiner, R. (1961): Wie erlangt man Erkenntnisse der höheren Welten? Dornach.
Suzuki, D. T. (1988): Koan. Der Sprung ins Grenzenlose. Das Koan als Mittel der
meditativen Schulung im Zen. Bern.
Tart, C. (1978): 'Wissenschaft, Bewußtseinszustände und spirituelle Erfahrungen:
Die Notwendigkeit bewußtseinszustands-orientierter Wissenschaften'. In C.
Tart (Hrsg.): Transpersonale Psychologie, Olten, S. 21-98.
Törnebohm, H. (1984): 'Die Rolle der Naturphilosophie in der physikalischen
Forschung'. In B. Kanitscheider (Hrsg.): Moderne Naturphilosophie.
Würzburg, 15-39.
Wallace, A., Henkin, B. (1982): Anleitung zum geistigen Heilen. Essen.
367
Funktionen der Ethik in einer naturalistischen Welt
und ihre Ausarbeitung durch die Philosophie
Zusammenfassung:
Nachdem die Philosophie seit ihrer Wiedergeburt in der Renaissance große Fortschritte in der
Staats- und Gesellschaftsphilosophie (z.B. durch Grundlegung der modernen Demokratie) und in
jüngerer Zeit auch in Erkenntnistheorie und Naturphilosophie gemacht hat, verbleibt nun noch,
die Ethik als letztes wichtiges philosophisches Hauptgebiet modern auszuarbeiten. Dies ist
heutzutage auch deshalb besonders wichtig, weil immer mehr Kulturträger und Politiker den
kulturellen Niedergang des Westens zu beklagen haben. In dieser Arbeit wird herausgearbeitet,
dass aus naturalistischer Sicht die beiden Hauptfunktionen der Ethik die Erhaltung der
Gesellschaft und das Glück der in ihr lebenden Personen sind, und auf dieser Grundlage werden
Hinweise gegeben, auf welche Weise die Philosophie die drei Hauptbereiche der Ethik
(Begründung bzw. Durchsetzung der Werte und Normen, Allgemeinethik und Spezialethiken)
ausarbeiten sollte.
1. Einleitung: Ethik als die größte Herausforderung unserer Zeit
Im 16. Jahrhundert schrieb der italienische Politiker Machiavelli in seinem Buch
»Der Fürst«, dass der Herrscher zur Machtgewinnung und Machterhaltung auch zu
unmoralischen Mitteln greifen dürfe, und er leitete dadurch die Trennung von
Politik und Moral ein. Im 17. Jahrhundert wendete als Erster der französische
Kardinal und Staatsmann Richelieu Machiavellis Prinzipien im großen Stil in der
internationalen Politik an, und bald danach machten es ihm viele andere
Staatsmänner nach, so dass heute diese sogenannte „Realpolitik“ weltweit ein
dominierender Politikstil ist. Ebenfalls einen großen Einfluss auf die europäische
Moral hatte der britische Biologe Darwin mit seiner Evolutionstheorie, nach der es
zur Entwicklung der Lebewesen komme u.a. durch die Selektion der schwächeren
bzw. schlechter angepassten Organismen. Darwin selbst mag dies nicht so gemeint
haben, dass man auch auf der sozialen oder gar auf der internationalen Ebene
rücksichtslos seinen Eigennutz suchen solle, psychologisch hatte aber seine
Theorie eine derartige Auswirkung auf das Denken und Handeln vieler Europäer.
Einen vernichtenden Einfluss auf die Moral hatte schließlich Friedrich Nietzsche,
der zwar von Haus aus Philologe war, aber für seine Zeit ein hervorragender
368
Psychologe war und durch seine außerordentliche sprachliche Fähigkeit besonders
auch auf philosophische Laien eine große Suggestivkraft ausübte. Er stellte den
Nutzen von Moral generell in Frage und vertrat den Standpunkt, alle
gesellschaftlichen Werte seien relativ und könnten durch ihr Gegenteil ersetzt
werden. Das Gedankengut von Machiavelli, Darwin, Nietzsche und anderen prägte
im Lauf der Zeit zunehmend mehr die Grundeinstellungen von Personen aus
Politik und Volk, führte in der ersten Hälfte des 20. Jahrhunderts zu einer
internationalen Katastrophe mit dem Zusammenbruch der europäischen
Vorherrschaft in der Welt und bewirkte in der zweiten Hälfte des 20. Jahrhunderts
einen langsamen, aber beständigen Niedergang des Kulturverhaltens breiter
Bevölkerungsschichten im gesamten Westen.
Heutzutage kann man in der Öffentlichkeit kaum noch für Moral eintreten, ohne
von Möchtegern-Intellektuellen ein überlegenes Lächeln zu riskieren. Statt Sorge
für das Gemeinwohl gilt die individualistische Grundeinstellung der persönlichen
Glückssuche, wobei mit Glück oftmals gemeint ist, dass alles erlaubt und alles
erhältlich sein soll. Der Sicherheitsberater des früheren US-Präsidenten Carter,
Brzezinski, schreibt in seinem Buch »Macht und Moral« (1994: 85): „Sollten die
vorherrschende westliche Kultur und die verbreitete geistige Haltung des Westens
tatsächlich Werte reflektieren, die den Ausdruck permissiver Überfluß [alles ist
erlaubt und erhältlich] rechtfertigen, oder Werte, die aus dem Gefühl erwachsen,
daß eben jener Überfluß einem verwehrt bleibt, dann ist die Sorge berechtigt, ob
die sogenannte westliche Zivilisation langfristig lebensfähig sein wird, und
besonders, ob sie in der Lage sein wird, der politisch erwachenden Welt im
postutopischen Zeitalter sinnvolle Inhalte zu vermitteln.“ Seine Sorge um den
Bestand der westlichen Kultur (bezogen hauptsächlich auf die USA, in
zunehmenden Maße aber auch gültig für Europa) begründet er mit einer Reihe von
Grundproblemen; um nur einige zu nennen: eine habgierige, reiche Oberschicht;
hohe Kriminalität und Gewalt; sexuelle Promiskuität; die massive Verbreitung
moralischer Dekadenz durch die visuellen Medien; das Entstehen einer potentiell
auseinanderdriftenden multikulturellen Vielfalt; Cliquenwirtschaft in der Politik.
Die gleiche Sorge äußern zunehmend mehr Menschen in Zeitschriften und
Büchern, so warnt beispielsweise Marion Gräfin Dönhoff (1997: 159): „Eine
Gesellschaft, die nicht über einen ethischen Minimalkonsens einig ist und die keine
allgemeinen moralischen Barrieren akzeptiert, wird mit der Zeit unweigerlich
zerfallen.“
In den Massenmedien und in den Reden vieler Politiker wird derzeit viel über den
medizinischen Nutzen der Gentechnik, über den wirtschaftlichen Nutzen des
Internets und die Notwendigkeit von Informatikern gesprochen, was wir
heutzutage jedoch am nötigsten brauchen, sind nicht Techniker, sondern Philosophen, die unseren Kulturkreis wieder auf eine solide moralische Basis stellen, um
369
dadurch den kulturellen Verfall des Westens aufzuhalten, bevor der Osten den
degenerierenden Westen dominieren kann. Die Religionen haben aufgrund ihrer
unglaubwürdigen Seinslehre und ihres eigenen vielfachen moralischen
Fehlverhaltens nicht mehr einen hinreichenden Einfluss auf die Bevölkerung, um
diese Aufgabe noch erfüllen zu können.
Im Lauf der Geschichte ist „Philosophie“ auf unterschiedliche Weise definiert
worden. Eine mögliche Definition ist: Philosophie ist das vernunftgeleitete Streben
nach Wissen und dessen Anwendung zur Anleitung einer guten Lebensführung: Sie
erstrebt ein globales Wissen u.a. über die Art und Geltung unserer Erkenntnis
(Erkenntnistheorie) und über die Natur von Mensch und Welt (Naturphilosophie)
und macht darauf aufbauend Vorschläge über die höchsten Ziele unserer
Handlungen und über die Weise ihrer Erreichung (Ethik, Staats- und
Gesellschaftsphilosophie). Seit der Wiedergeburt der Philosophie in der
Renaissance des 15. und 16. Jahrhunderts haben neuzeitliche Philosophen sehr viel
erreicht, und ich will die Grundgedanken des bisher Erreichten, wie ich es sehe,
kurz darstellen. Zunächst zur Erkenntnistheorie: Der Empirismus ist die
erkenntnistheoretische Richtung, welche alle Erkenntnis aus der Sinnes-Erfahrung
ableitet, wohingegen der Rationalismus die Vernunft als die wichtigste
Erkenntnisquelle betrachtet. Aus diesen einander gegenüberstehenden erkenntnistheoretischen Bemühungen um gesichertes Wissen entwickelten sich im Lauf der
Jahrhunderte die einzelnen naturwissenschaftlichen und in jüngerer Zeit auch die
geisteswissenschaftlichen Disziplinen, welche inzwischen einen sehr beachtlichen
Wissensstand erreicht haben. Unter Rückgriff auf Ergebnisse einiger dieser
Einzelwissenschaften, vor allem auf Physik, Biologie und Psychologie, und auf die
Methodologie der Naturwissenschaften kann man heute guten Gewissens eine
empiristisch-rationalistische Erkenntnistheorie vertreten, wonach die Erkenntnis
zwar auf Sinneserfahrungen aufbaut, diese aber nach Prinzipien des Verstandes
gedeutet werden. Ferner ist heute plausibel anzunehmen, dass sich viele unserer
Erfahrungs- und Denkstrukturen im Lauf der Evolution an die Realstrukturen
angepasst haben, also vermutlich teilweise gültig sind, dass aber unsere
Erkenntnisse vornehmlich nur Strukturwissen sind (wir also nicht das „Wesen“ der
Welt erkennen), und dass unser Wissen nur eine Approximation an die Wahrheit
ist.
Auf die Naturphilosophie, wie sie durch die modernen wissenschaftlichen
Theorien nahe gelegt wird, werde ich im nächsten Kapitel detaillierter eingehen,
deshalb soll sie hier nur schlagwortartig zusammengefasst werden: Die Welt
besteht aus einer ganzheitlichen Substanz, die auf höheren Systemebenen emergente Eigenschaften mit einer teleonomen Dynamik hervorgebracht hat.
Was die Staatsphilosophie betrifft, hatten viele Philosophen insbesondere des 17.
370
bis 19. Jahrhunderts die geistigen Grundlagen geschaffen für den Kampf von Volk
und Intellektuellen gegen die Monarchien und dadurch geholfen das
herbeizuführen, was man heutzutage als Demokratie bezeichnet. Im Gegensatz
zum Zeitalter der absoluten Monarchie wählt heute das Volk ins Parlament Abgeordnete, welche für kompetent gehalten werden und bezüglich der verschiedenen
Volksgruppen repräsentativ sein sollen und durch welche der Volkswille indirekt
die Gesetzgebung bestimmt. Auf die Realisierung dieses Ideals wird in einem
späteren Kapitel genauer eingegangen. Was die allgemeine Gesellschaftsphilosophie betrifft, hat sich im Westen eine liberale Gesellschaft mit sozialer
Absicherung durchgesetzt, wobei Letzteres derzeit wieder sehr gefährdet ist.
Was diese drei Hauptgebiete der Philosophie betrifft (Erkenntnistheorie,
Naturphilosophie und Staats- und Gesellschaftsphilosophie), hat die Philosophie
seit ihrer Renaissance beeindruckend viel geleistet. Zwar muss in jedem dieser
Bereiche auch in Zukunft noch einiges verbessert werden, aber bereits ihr heutiger
Stand ist durchaus befriedigend. Anders sieht die Sachlage in der Ethik aus. Hier
ist es zu einem Niedergang der traditionellen, christlichen Ethik gekommen, ohne
dass es bislang gelungen ist, einen Ersatz auszuarbeiten und im Volk zu etablieren.
Die Bemühungen um ethische Fragen haben aber in den letzten Jahrzehnten in der
Philosophie wieder stark zugenommen, und es besteht zurecht die Hoffnung, dass
diese philosophische Disziplin im vor uns liegenden Jahrhundert ebenfalls
befriedigende Ergebnisse liefern wird. Nachdem drei der vier grundlegenden
philosophischen Disziplinen ein recht gutes Niveau erreicht haben, ist nun die
Ethik die letzte große Herausforderung an die Philosophie, und in diesem Aufsatz
soll es darum gehen herauzuarbeiten, welche Funktionen Moral und die gesamte
Ethik aus naturwissenschaftlicher bzw. ontologischer Sicht haben und was die
Philosophie in Zukunft auf diesem Gebiet für Aufgaben zu bewältigen hat. Im
nächsten Abschnitt werde ich zunächst die heutige wissenschaftliche
Weltauffassung genauer beschreiben, anschließend werde ich einige Theorien und
Forschungsgebiete von Biologie und Soziologie vorstellen, um danach auf dieser
Grundlage zu besprechen, welcher Art eine philosophische Ethik und ihre
Umsetzung in der Gesellschaft sein sollte. Dabei verstehe ich unter Ethik (vom
griechischen ta ethika, „die Sittenlehre“) das gesamte System gesellschaftlicher
Werte und Normen und den Versuch ihrer Begründung bzw. gesellschaftlichen
Etablierung, wohingegen ich mit Moral (vom lateinischen moralis, „sittlich“)
denjenigen Ausschnitt der Ethik meine, der für eine Gesellschaft
existenznotwendig ist und bei jedem erwachsenen Menschen angenommen werden
sollte.
371
2. Die wissenschaftliche Weltauffassung
Im 20. Jahrhundert ist es auf allen Gebieten der naturwissenschaftlichen Forschung
zu großen und teilweise revolutionären Fortschritten gekommen, wodurch sich
gegenüber dem 19. Jahrhundert die wissenschaftliche Weltauffassung grundlegend
verändert hat (s. Arendes a). Diese neue Weltauffassung lässt sich folgendermaßen
kurz zusammenfassen:
Die Welt besteht aus einer allgegenwärtigen, unbeobachtbaren Grundsubstanz;
einem Äther, einem Urmateriefeld oder einer prima materia. In dieser
Grundsubstanz sind die Naturgesetze als Informationen implementiert, welche die
Entstehung von beobachtbaren Phänomenen und deren Bewegungsformen steuern.
In Vorgängen der Emergenz entstehen aus dem Äther die beobachtbare Materie,
die Raumzeit, Bewusstsein und andere Phänomene. Aus dem Äther, oder wie man
zur Zeit in der Physik sagt aus dem Vakuum, ist vor mehreren Milliarden Jahren in
einem Urknall die beobachtbare Materie entstanden, das Universum dehnt sich
seitdem beständig aus und die zunächst fast vollständig homogene oder chaotische
Verteilung der sogenannten Elementarteilchen hat sich im Lauf der Zeit in einem
Prozess der Selbstorganisation zu immer komplexeren Systemen zusammengelagert; zu Atomen, Molekülen, Organismen, Gesellschaften, Gesellschaftssystemen. Obwohl alle diese Objekte aus mehreren Teilobjekten bestehen, sind sie
in der Lage, als zusammengehörende Einheiten zu wirken. Die Abgrenzung von
zusammengehörenden Einheiten gegenüber der Umwelt ist jedoch oft nicht
vollständig; so können einzelne Einheiten selbst wieder Teile von übergeordneten
Gesamtsystemen sein. Die Organe eines Körpers (Magen, Herz, Hirn etc.) bilden
zwar voneinander getrennte Gesamtkomplexe, sind aber dennoch Teile des
gesamten Lebewesens. Tatsächlich besitzen viele der im Lauf der Selbstorganisation entstandenen Objekte eine sehr komplexe Schachtelungsstruktur.
Schachtelung bedeutet, dass mehrere Komponenten sich zu einem System
zusammenlagern, mehrere derartige Systeme bilden wiederum zusammen ein noch
größeres System, viele solcher Systeme wiederum ein übergeordnetes Gesamtsystem etc. Dieser Schachtelung der realen Objekte entspricht auf der Ebene der
Naturgesetze, die diese Objekte steuern, eine hierarchische Struktur, die als
Schichtung bezeichnet wird. Die untersten Schichten werden gebildet von den
Bewegungsgesetzen der einfachsten Objekte der leblosen Materie, darüber liegt die
Schicht der biologischen Gesetze, darüber die der Psychologie, der Soziologie und
der Wissenschaft von den Staatengemeinschaften. Leblose Materie wird von den
Gesetzen der Physik und Chemie gesteuert; sind aber beispielsweise Ionen Teile
eines Körpers, so werden ihre physikalischen Gesetze von den Gesetzen der
Biologie überformt. Menschen sind Teile einer Gesellschaft und ihr psychologisches Verhalten wird von sozialen Gesetzen mitbestimmt. Die Konzeption einer
372
Schichtung der Naturgesetze besagt somit, dass die schichthöheren Naturgesetze
die genaue Ausgestaltung der niederen bestimmen. Dies bezeichnet man auch als
Abwärtskausalität; die höhere Systemebene beeinflusst das Verhalten der niederen.
Bei Mikroobjekten (Elementarteilchen) oder Aggregaten mit geringer
Teilchenanzahl scheinen Zufallsprozesse eine wichtige Rolle zu spielen,
wohingegen das Verhalten von Makroobjekten, die sich aus sehr vielen
Bestandteilen zusammensetzen, dem Kausalitätsprinzip unterliegt, wobei sich
allerdings das Zufallsverhalten von Mikroobjekten in bestimmten Situationen auch
auf das Verhalten der Makroprozesse übertragen kann. Das Kausalitätsprinzip
besagt, dass Bewegungsänderungen eines Objektes durch äußere Ursachen
hervorgerufen werden, bei komplexeren Systemen wie den Prozessen innerhalb
eines Organismus oder des gesamten Lebewesens sind aber die Bewegungsabläufe
zumeist auch teleonom, d.h. zielgerichtet.
3. Emergente Systemeigenschaften und Funktionalismus
In diesem Kapitel werden einige Elemente der wissenschaftlichen Weltauffassung
genauer besprochen, weil sie für das Verständnis der Natur gesellschaftlicher
Werte besonders wichtig sind. Temperatur, Entropie und Druck sind Beispiele für
Eigenschaften, die ein einzelnes Teilchen nicht besitzt und die nur als
Vielteilcheneigenschaften definierbar sind. Die Entstehung neuer Eigenschaften
bei Vielteilchenaggregaten gegenüber einzelnen Teilchen wird als Emergenz
bezeichnet. Ein anderes und besonders erstaunliches, aber jedem bekanntes
Emergenzphänomen ist die Entstehung von Bewusstsein, wenn man aus dem
Schlaf erwacht. Statt von „emergenten“ Eigenschaften spricht man oft auch von
Systemeigenschaften, denn ein System (z.B. ein Gehirn) ist eine Einheit von
mehreren Komponenten mit ihren Wechselwirkungen (z.B. Neuronen und ihren
Verbindungen), was in der Regel von der Existenz von Eigenschaften begleitet ist
(z.B. von Bewusstsein), welche nur das Gesamtsystem (oder Subsysteme) besitzt
und die nicht allein aus den Komponenten erklärbar sind. So sind Wasserstoff und
Sauerstoll Gase, Wasser hingegen (ein Wasserstoff-Sauerstoff-System) ist eine
Flüssigkeit; und Grafit und Diamant bestehen beide nur aus Kohlenstoff, haben
aber völlig verschiedene Eigenschaften, weil der Kohlenstoff jeweils anders
angeordnet ist.
In der Theorie der Synergetik wird angenommen, dass es in Vielteilchensystemen
zur Entstehung neuer physikalischer Größen, den sogenannten Ordnungsparametern, kommen kann, die dann die Dynamik des Gesamtsystems bestimmen,
indem sie die Komponenten des Systems steuern bzw. „versklaven“, was auch als
Abwärtskausalität bezeichnet wird (Haken, Wunderlin 1991). So kann man sich
373
zum Beispiel vorstellen, dass das Gehirn, wenn es in einem bestimmten Zustand
ist, ein Bewusstseinsfeld hervorbringt, welches umgekehrt wieder die neuronalen
Prozesse mancher Hirnbereiche steuert (s. Arendes 1996).
Mehrere Systeme können zusammen ein übergeordnetes System bilden, mehrere
derartig übergeordnete Systeme zusammen ein noch höheres Gesamtsystem usw.,
und eines der interessantesten und komplexesten Gesamtsysteme ist der Körper
eines Lebewesens. Eine der bemerkenswertesten Systemeigenschaften eines
belebten Körpers ist die Teleonomie bzw. Funktionalität der organischen Prozesse.
Während physikalische Makrokörper und chemische Stoffe im Reagenzglas kausal
ablaufen, verlaufen Prozesse in einem Organismus und auch das Gesamtverhalten
des Organismus auf ein Ziel hin: Das Herz schlägt, um das Blut zirkulieren zu
lassen; Vögel ziehen in warme Gegenden, um den niedrigen Temperaturen und
dem Futtermangel im Winter auszuweichen; Professoren halten Vorträge, um
Studenten zu belehren etc. Während nun zielintendierte Tätigkeiten von Subjekten
mit bewusster Zielantizipation als teleologische Vorgänge bezeichnet werden,
spricht man bei den zielgerichteten Vorgängen ohne Bewusstsein und Willensakt,
wie es im Organismus geschieht, von teleonomen Vorgängen. Teleonome
Prozesse, die dem Erhalt eines Gesamtsystems dienen – wie das Schlagen des
Herzens für die Blutzirkulation zum Erhalt des gesamten Körpers – werden
darüber hinaus auch als funktionale Prozesse bezeichnet.
Ein noch höher gelegeneres Gesamtsystem als der Körper eines Lebewesens ist
eine Gesellschaft, deren Subsysteme die Menschen sind. Ontologisch ist eine
Gesellschaft eine Einheit, die Einzelmenschen enthält, die aber mehr ist als die
Summe aller Personen, ebenso wie ein Körper nicht nur die Ansammlung von
Molekülen oder Zellen ist. In der Soziologie bezeichnet man den Unterschied
zwischen den Interaktionen einzelner Personen und globalen gesellschaftlichen
Gegebenheiten mit Mikrosoziologie und Makrosoziologie. Der Mensch ist ein
eingeschachtelter Teil eines übergeordneten Systems, einer Gesellschaft, und im
Bereich der Naturgesetze bedeutet das, dass es über der biologischen und der
psychologischen Schicht eine soziologische mit eigenen Gesetzen gibt. Der
Unterschied zwischen Biologie und Soziologie kann durch mehrere Beispiele
verdeutlicht werden. Dass für gesellschaftliche Prozesse teilweise andere Gesetze
gelten als für biologische wird beispielsweise daraus deutlich, dass sich
Gesellschaften sehr stark voneinander unterscheiden können, obwohl sich die
Biologie der darin lebenden Personen nur unwesentlich voneinander unterscheidet;
z.B. die verschiedenen europäischen Gesellschaften im 20. Jahrhundert. Die
Biologie und die Umwelt allein determinieren nicht die sozialen Prozesse! Und
biologisch bedingt hat der Mensch zwar die Tendenz zum Egoismus, er wird aber
im Sozialisierungsprozess zum Sozialwesen. Sicherlich gibt es auch eine
genetische Prädisposition zum Sozialen, diese wird aber erst durch soziale
374
Mechanismen ausgestaltet.
In jeder Gesellschaft gibt es eine Vielzahl von Systemeigenschaften, die allein
durch das Handeln einzelner Personen nicht erklärt werden können. So ist die
wissenschaftliche Rationalität eine typische Kollektiveigenschaft, denn ohne
gründliches Literaturstudium und ohne die kritisierenden Publikationen der
Kollegen könnte der einzelne Wissenschaftler seine eigenen Idiosynkrasien und
seine oft festgefahrenen Grundeinstellungen nicht überwinden. Andere typisch
soziale Systemphänomene sind Kunst, Moral, Recht, das Rollenverhalten in Beruf
und Familie und insgesamt die Befolgung von gesellschaftlichen Verhaltensnormen.
4. Ontologische Natur und Funktionen von Werten und Normen
Zu den interessantesten Entitäten einer Gesellschaft zählen die Werte und Normen.
In Büchern über Ethik (z.B. Hartmann 1949) werden Werte wie Gerechtigkeit,
Tapferkeit, Nächstenliebe, Weisheit etc. behandelt, und welchen ontologischen
Status Werte haben, was sie von ihrer Natur her sind, wird in der Soziologie immer
wieder neu diskutiert. Im Rahmen der hier dargestellten Weltauffassung kann
angenommen werden, dass Werte Emergenzeigenschaften der gesamten
Gesellschaft sind. So wie die biologischen Prozesse in einem Körperorgan darauf
abzielen, bestimmte Funktionen zu erfüllen, sind Werte die Zielzustände einer
Gesellschaft, die hauptsächlich – aber nicht nur – darauf abzielen, den Bestand der
Gesellschaft zu gewährleisten. Man kann sich dies mit Computersimulationen
verdeutlichen. Will man ein Computerprogramm schreiben, um eine Stadt zu
simulieren, so müssen im Stadtprogramm allgemeine Randbedingungen, Regeln
gegeben sein, die die Personen einhalten müssen, damit die Stadt (ihre Verwaltung
etc.) funktioniert.
In diesem Sinne kann man Werte als gesellschaftliche Sollzustände auffassen, und
Normen sind Handlungsanweisungen zur Erreichung dieser Ziele (vgl. Laszlo
1996). Ob etwas ein Wert oder eine Norm ist, ist jedoch relativ. Ziele können in
Unterziele aufgegliedert werden, und ein Unterziel kann relativ zum höher
gelegenen Ziel als Norm und relativ zu einem darunter gelegenen Unter-Unterziel
als Wert aufgefasst werden. Zum Bestehen einer Gesellschaft ist in allen
Gesellschaftsformen nötig, dass sich ihre Mitglieder nicht gegenseitig ermorden.
Neben solchen existenznotwendigen Werten und Normen, die im engeren Sinne
als die Moral bezeichnet werden, gibt es viele andere, die eher zufällig sind
(beispielsweise der Wert des technologischen Fortschritts), die aber zur
Fortentwicklung der Gesellschaft beitragen können und durch die sich die vielen
375
Gesellschaften und Kulturen der Welt voneinander unterscheiden. Welche Werte
und Normen existenznotwendig und welche eher zufällig sind, welche es in allen
Gesellschaftsformen gibt und welche nur in einigen, ist eine sehr bedeutsame
Forschungsaufgabe von Soziologie und Ethnologie.
Eine solche naturwissenschaftliche Betrachtungsweise der Gesellschaft zeigt, dass
die Ethik hauptsächlich zwei Funktionen zu erfüllen hat. Als gesellschaftliche
Zielzustände haben Werte primär die Aufgabe, den Erhalt und die Fortentwicklung
der Gesellschaft zu gewährleisten, ebenso wie in einem biologischen Organismus
Blutkreislauf und Verdauungssystem dem Überleben des Lebewesens dienen.
Zwischen einer Gesellschaft und einem Körper gibt es jedoch folgenden
Unterschied, der in Bezug auf die Ethik sehr bedeutsam ist. Wohingegen in einem
Körper die Moleküle, welche durch ihr Verhalten die Existenz des Organismus
sichern, keinerlei Bewusstsein haben, sind die Komponenten einer Gesellschaft
Menschen, welche Bewusstsein und dadurch die Fähigkeit haben, Glück und Leid
zu empfinden. Wenn in einem Lebewesen ein Organ seine Komponenten, die
Moleküle, synergetisch dazu „versklavt“, sich gemäß den globalen Zielzuständen
zu verhalten, dann braucht sich das Organ als höhere Systemebene nicht darum zu
kümmern, ob es dadurch die einzelnen Komponenten quälen könnte. Anders sieht
die Sachlage natürlich in einer Gesellschaft aus. Die Komponenten einer
Gesellschaft sind leidensfähige Personen, worauf die höhere Systemebene – die
Werte und der Staat als politisches Lenkungsorgan – Rücksicht zu nehmen hat. Die
Werte einer Gesellschaft haben somit die Funktion, die Gesellschaft in ihrer
Existenz zu sichern, und innerhalb dieses Rahmens haben sie zusätzlich das
Glücksbedürfnis der Individuen zu berücksichtigen: Existenzerhaltung der Gesellschaft (das sogenannte Gemeinwohl) und das Glück der Individuen sind aus
naturalistischer Sicht die beiden Grundfunktionen der Ethik. Diese beiden Grundpfeiler einer Ethik hängen auch miteinander zusammen: Menschen sind
biologische Wesen, die nur in Gemeinschaften überleben und glücklich sein
können; zum Glück der Menschen gehört somit der Erhalt der Gesellschaft. Auf
der anderen Seite ist die Existenz einer Gesellschaft nur dann wirklich gesichert,
wenn sich die Menschen in ihr wohl fühlen oder zumindest nicht dauerhaft in ihr
zu leiden haben; ansonsten werden sie entweder eine Revolution planen und somit
die ursprüngliche Gesellschaft zerstören wollen, oder sie werden keine große
Motivation haben, diese Gesellschaft gegenüber äußeren Feinden zu verteidigen.
Zusätzlich zu den beiden Hauptfunktionen der Gesellschaftserhaltung und der
individuellen Glücksfindung hat die Ethik in den religiösen Ethiken eine dritte
Funktion, die hierin sogar die Hauptfunktion einnimmt: Die sittliche Vervollkommnung der Menschen (Menschenliebe, den Mitmenschen zu helfen etc.) gilt
hier nämlich als Wert an sich und als der Sinn des Lebens. Aus wissenschaftlicher
Sicht lassen sich für eine derartige Hauptfunktion der Ethik zur Zeit keine
376
konkreten Argumente anführen. Ob die Wissenschaft in Zukunft diesbezüglich
positivere Aussagen machen wird – beispielsweise innerhalb der introaktiven
Psychologie, welche auf Meditationserlebnisse zurückgreift (s. Arendes b) – bleibt
abzuwarten. Eine sittliche Vervollkommnung zum Guten würde sich aber ohnehin
in den Handlungen so auszudrücken haben, dass man sich um das Wohl der
Mitmenschen und um die Erhaltung der Gesellschaft zu bemühen hätte, wäre also
in Übereinstimmung mit den beiden hier besprochenen Hauptfunktionen der Ethik.
In der Geschichte der Philosophie wurde dieses ethische Ziel beispielsweise von
der Stoa vertreten (s. Weinkauf 2001).
5. Aufgaben der Philosophie in der Ethik
Wie in der Einführung dargelegt wurde, ist eine der vordringlichsten Aufgaben
unserer Zeit, die kulturelle Grundlage der westlichen Gesellschaften, ihre Ethik, zu
erneuern. Hierbei hat die Philosophie drei Aufgabenbereiche zu bewältigen. Der
erste Aufgabenbereich betrifft die theoretischen Grundlagen der Ethik, die
Begründung, warum die Menschen ihre Handlungen an den Werten der
Gesellschaft orientieren sollen, vor allem an denjenigen Werten, die für die
Gesellschaft existenznotwendig sind, was die Moral im engeren Sinne ausmacht.
Dieser Bereich ist schon immer ein Hauptarbeitsgebiet der Philosophie gewesen,
aber spätestens seit Nietzsche auch der Bereich, wo die Philosophen viele
Menschen noch nicht überzeugen können. Insbesondere diejenigen Menschen,
welche glauben, der „Kampf ums Dasein“ treibe die Evolution voran, sind schwer
davon zu überzeugen, dass man auch dann nicht illegal vorgehen dürfe, wenn es
niemand sieht, man also die Justiz nicht zu befürchten hat. Vielleicht wird die
Wissenschaft einmal in Zukunft überzeugende Argumente dafür finden, warum
man zumindest den moralischen Kern der Ethik befolgen sollte; eventuell
innerhalb der introaktiven Psychologie, die auf esoterische Methoden zurückgreift
(s. Arendes b). In der Esoterik glauben viele Menschen, dass dasjenige, was man
anderen Menschen zufügt, irgendwann einmal auf einen zurück fällt. Wäre das so,
dann hätten selbst Egoisten ein starkes Motiv, nur Gutes zu tuen. Solange aber
dafür keine alle Menschen überzeugenden Argumente vorliegen, muss man sich
daran erinnern, dass Werte und Normen soziale Entitäten sind und dass somit ihre
Beachtung von den Gesellschaftsmitgliedern durch soziale Mittel bewirkt werden
muss. Die rationale Überzeugung, eine philosophische Begründung der Werte, ist
natürlich ebenfalls ein soziales Mittel der Verbreitung von Werten, darüber hinaus
gibt es aber weitere Methoden, die die kindliche Erziehung und allgemein die
Sozialisierung ausmachen. Neben Elternhaus und Schule haben heute die
Massenmedien einen prägenden Einfluss auf das Verhalten der Menschen; leider
ist es aber zur Zeit so, dass gerade die Massenmedien, besonders die Filme im
377
Fernsehen, den Menschen permanent Gewalt, Egoismus etc. zeigen und dadurch
eine negative Sozialisierungswirkung ausüben.
Der zweite wichtige Aufgabenbereich der heutigen Philosophie in der Ethik ist die
Ausarbeitung einer allgemeinen Pflichtenlehre. Hiermit ist gemeint, dass
beschrieben werden muss, welche Werte und Normen in unserer Gesellschaft von
allen Menschen beachtet werden sollen. Bei dieser allgemeinen Sittenlehre ist zu
unterscheiden einerseits zwischen denjenigen Werten, die für die Gesellschaft
existenznotwendig sind, also die Moral ausmachen (z.B. „Du sollst nicht
morden!“). Andererseits sind diejenigen Werte zu bestimmen, die wir über die
Moral hinausgehend befolgen wollen und durch die sich unsere Gesellschaft von
einigen anderen unterscheiden soll (z.B. der Wert von Bildung, Wissenschaft und
technologischem Fortschritt; oder das Streben nach platonischer Liebe und
Schönheit). Insbesondere bei der allgemeinen Pflichtenlehre ist zu beachten die
zweite Hauptfunktion der Ethik, das Glücksstreben der einzelnen Personen. Die
pflichtgemäßen Anforderungen dürfen nicht wie in totalitären Staaten so extrem
sein, dass dadurch das Glück der Menschen unmöglich wird. Der Pflichtbegriff
war deshalb in der Vergangenheit sehr in Misskredit geraten (man spricht jetzt oft
lieber von „Verantwortung“), und erst seit ein paar Jahren bemüht sich eine
internationale Gruppe von Personen wieder, für ein globales Weltethos einige
Pflichten zusammen zu stellen (Küng 1991). Was die zweite Hauptfunktion der
Ethik betrifft, das Glücksstreben der einzelnen Personen, ist auch betonenswert,
dass die Ethik nicht nur eine Sollensethik zu sein hat, sondern auch Ratschläge
geben kann, auf welche Weise der einzelne Mensch am ehesten glücklich werden
kann (ohne dabei die Gesamtgesellschaft und seine Mitmenschen zu gefährden),
was als Lebensweisheit bezeichnet wird.
Innerhalb der Geschichte der Philosophie hat es schon mehrere Versuche gegeben,
eine Pflichtenlehre zusammenzustellen. Im 18. Jahrhundert formulierte Christian
Wolff Pflichten gegen sich, gegen Gott und gegen andere Menschen (s. Pieper
1992), eine Pflichtenlehre formulierte später Hegel (s. Spaemann 1987), und im
20. Jahrhundert gab auch der Biologe und Philosoph Hans Driesch (1927) auf
etwas über 100 Seiten eine „Lehre von den Pflichten“. Demgegenüber sind
natürlich bei einer heutigen Zusammenstellung von Werten und Normen die
starken gesellschaftlichen Veränderungen in den letzten 100 Jahren, der
sogenannte Wertewandel, zu berücksichtigen. Bedacht werden muss auch, dass
eine derartige Zusammenstellung für den Gebrauch in Familie und Schule in einer
möglichst knappen und allgemein verständlichen Form bereitstehen sollte;
umfangreiche Bücher sind nur für die innerphilosophische Diskussion und nicht als
Erziehungsgrundlage sinnvoll.
Der dritte wichtige Aufgabenbereich der Philosophie ist die Ausarbeitung von
378
Spezialethiken. Während es bei der allgemeinen Pflichtenlehre um diejenigen
Werte und Normen geht, die für alle Menschen (zumindest in ihrem Privatleben)
gelten sollen, geht es bei den Spezialethiken um Handlungsanweisungen für die
Personen einiger besonderer Berufe und Tätigkeitsfelder: Wirtschaftsethik,
Medizinethik, Rechtsethik, Wissenschaftsethik, Ethiken für Politik, Religionen,
Medien, Staatengemeinschaften etc. Auf diesen Gebieten der Spezialethiken sind
Philosophen zur Zeit besonders stark aktiv, was in den Massenmedien immer
wieder unter „Bioethik“ deutlich wird.
Neben Wirtschafts-, Bio- und Medizinethik ist beispielsweise eine dringlich
auszuarbeitende Spezialethik die Politikethik (vgl. Küng 1998). Zu den Pflichten
des Politikers gehört es, für den Fortbestand der Gesellschaft zu sorgen und in
diesem Rahmen dem Einzelnen zu ermöglichen, so frei und glücklich zu leben wie
möglich. Leider lassen sich heute viele Politiker von egoistischen
Interessengruppen kaufen (Sponsoring, Spenden etc.), so dass manchmal beispielsweise eher die Pharmaindustrie und nicht der Patient saniert wird. Hier wird es in
unserem politischen System wieder ein Umdenken geben müssen. Wenn möglich,
sollte es wieder ein Ehre-Ethos geben, so dass Politiker auch ohne großen
gesellschaftlichen Druck zurücktreten, wenn sie bei etwas Unmoralischem ertappt
worden sind; eine einfache öffentliche Entschuldigung ist in diesem wichtigen
Berufsfeld zu billig.
Eine wichtige Spezialethik wäre auch eine Religionsethik, d.h. Handlungsanweisungen für die Kirchenleitungen. In einer Welt, die immer mehr zusammen
wächst und neben Atheisten viele verschiedene Religionen enthält, dürfen hohe
Kirchenleute nicht glauben, Andersdenkende „to the glory of God“ mobben und
morden zu dürfen. In den 10 Geboten der jüdisch-christlichen Religionen gibt es
das Gebot „Du sollst keine fremden Götter neben mir haben!“ Da dieses Gebot
immer wieder dazu führt, dass Kirchenleitungen mit kriminellen und gewalttätigen
Mitteln gegen Andersdenkende vorgehen, sollte in der Spezialethik für Religionen
gefordert werden, die 10 Gebote zu ändern. In seinem Buch „Kampf der Kulturen“
hat Huntington (1998) die Möglichkeit dargestellt, dass es im Stile eines
weltweiten „Dreißigjährigen Krieges“ zu einem katastrophalen Konflikt zwischen
den Weltkulturen – vor allem zwischen den Religionen – kommen könnte.
Angesichts des technischen Niveaus der heutigen Menschheit könnte solch ein
Krieg leicht in die Apokalypse führen, so dass, um dies zu verhindern, die
Religionen toleranter werden müssen. Da die Philosophie ein Garant der Vernunft
ist, sollten Gläubige am Besten an den Gott der Philosophie glauben, der außerdem
(in moderner Formulierung) im Einklang mit dem heutigen Stand der Wissenschaft
steht: als Weltgeist, Weltvernunft o.ä. (s. Weinkauf 2001). Deshalb sollte auch ein
Ritual zur Anbetung und Verehrung des Weltgeistes entwickelt werden (z.B. in
Form von regelmäßiger Lektüre von introaktiver Literatur, autogenem Trainings,
379
Meditationen o.ä.).
Soweit die drei Hauptaufgaben der Ethik-Philosophie. Zum Abschluss dieses
Kapitels noch ein paar allgemeine Hinweise für die Ausarbeitung der Ethik. Wie
schon die Spezialethiken zum Ausdruck bringen, ist bei der Ausarbeitung der Ethik
die Struktur der modernen Gesellschaften zu beachten. Wie besonders die Biologie
zeigt, sind die meisten natürlichen Objekte geschachtelt aufgebaut: Der Mensch
besteht aus vielen Organen, das Gehirn besteht aus vielen Hirnkernen, ein
Hirnkern enthält viele Neuronen, ein Neuron enthält viele Organellen etc. Ebenso
verschachtelt ist die Gesellschaft: Eine einzelne Person ist Mitglied einer Gruppe,
diese arbeitet in einem Institut, dieses gehört zu einer Organisation, die
Organisation gehört zu einem Netzwerk von Organisationen, welches Teil der
Gesellschaft ist. Wie in der Biologie die Systemtheorie und die Synergetik gezeigt
haben, haben höhere Systemebenen oftmals neue Systemeigenschaften, welche
eigenen Gesetzmäßigkeiten folgen. Analog stellt sich in der Soziologie immer
mehr heraus, dass höhere gesellschaftliche Ebenen teilweise jeweils eigentümliche
Werte- und Normensysteme besitzen. Man unterscheidet zwischen
personenorientierter und institutionenorientierter Ethik, zwischen Kleingruppenund Großgruppenmoral. Bezeichnet man die einzelnen Individuen als die
Mikroebene, Institutionen und Organisationen als die Mesoebene und die gesamte
Gesellschaft als die Makroebene, dann stellt sich in einer modernen Ethik die
Frage, wie das gesamte Werte- und Normensystem auf jeder Ebene auszusehen hat
und wie die drei Ebenen aufeinander abgestimmt sein müssen (vgl. Küng 1998).
Hier ein konsistentes Ethiksystem mit verschiedenen, aber aufeinander
abgestimmten Teilethiken zu schaffen, ist eine sehr große Herausforderung. Bei
dieser Problematik wird man sofort an Machiavelli erinnert mit seiner These von
der Unabhängigkeit der Politik von Moral. Diese These lässt sich nun aus
moderner Sicht abschwächen dahingehend, dass die Politik eine Spezialethik
besitzen sollte, welche sich von der allgemeinen Pflichtenlehre teilweise
unterscheidet, aber mit ihr irgendwie konsistent sein muss. Wann darf zum
Beispiel ein Politiker lügen? Im Wahlkampf sollte das Wahlvolk davon ausgehen
können, nicht belogen zu werden (das Gegenteilige kommt oft vor, sollte aber als
unmoralisch gelten). In der Praxis der Politik, etwa in diplomatischen
Verhandlungen, kommt jedoch ein guter Politiker in manchen Situationen nicht
ums Lügen herum. Und soweit alle beteiligten Politiker wissen, dass der
Gegenüber nur das für seinen Staat Optimale herauspokern will, ist dagegen
ethisch nichts einzuwenden – zumindest solange die Staatengemeinschaft noch
kein verlässliches Normensystem besitzt. Die Abweichung der Politikethik von der
allgemeinen Ethik muss aber Grenzen haben; eine Regierung darf nicht ganze
Volksgruppen ausrotten. Was man in einer Spezialethik, z.B. auch in der
Wirtschaftsethik, darf und was nicht, welche Abweichungen es von der
Allgemeinethik geben darf, ist sicherlich kein leicht zu lösendes Problem.
380
Im Lauf der Geschichte der Philosophie und gerade auch in den letzten
Jahrzehnten hat es von unterschiedlichen Philosophen Vorschläge zur Behandlung
ethischer Fragestellungen gegeben. Aus der Sicht der hier vorgestellten
naturwissenschaftlichen Herangehensweise haben manche Ethik-darstellungen
Mängel, auf die hier kurz hingewiesen werden soll, um diese Fehler in Zukunft
besser vermeiden zu können. Philosophische Ethiken – im Gegensatz zu religiösen
– haben oft die Schwäche, dass sie zu sehr die Individuumebene (das Glück oder
die Interessen der Individuen) betonen und die Gesellschaftsebene (die
ontologische Funktion der Gesellschaftserhaltung) vernachlässigen; so z.B. der
antike griechische Philosoph Epikur oder in der heutigen Zeit Singer (1994).
Natürlich ist es eine noble Geste, primär das Glück der einzelnen Personen im
Auge zu haben. Wenn man darüber jedoch die Existenzerhaltung der gesamten
Gesellschaft nicht bedenkt, kann eine Gesellschaft daran im Verlauf von
Jahrzehnten oder Jahrhunderten zugrunde gehen, und dann sind die Individuen
dieser Zeit unglücklich. Selbstverständlich darf man nicht den entgegengesetzten
Fehler begehen, nur an die Gesamtgesellschaft zu denken, wie es in totalitären
Staaten der Fall ist. Auch eine solche Gesellschaft wird auf Dauer schwer
aufrechtzuerhalten sein, da die unglücklichen Menschen sich nach dem Scheitern
des Staates sehnen und sich entsprechend verhalten. Zwischen beiden
Gesichtspunkten – Gesellschaftserhalt und persönlicher Glückssuche – ist das
richtige Verhältnis auszubalanzieren. Diesbezüglich ist beispielsweise eine
interessante Frage, woran im Lauf der Geschichte Hochkulturen zugrunde
gegangen sind. Das mächtige antike Rom hat sich gegen seine Eindringlinge nicht
wehren können oder wollen, weil Kaiser und Volk nicht genügend den
Gesamterhalt anvisierten, sondern primär eine dekadente Form von Lust.
Ein weiterer möglicher Fehler beim Entwurf eines Werte- und Normensystems ist
die Vernachlässigung der Existenz anderer Staaten. Ein Volk ist nicht allein auf
der Welt; jede Gesellschaft lebt in einer kompetitiven Umwelt. Die Dynamik der
Evolution erfolgt zwar nicht nur nach darwinistischen Prinzipien, ein wichtiger
Evolutionsfaktor ist die Selektion aber doch. Und leider muss ein Staat von seinen
Bürgern mehr abverlangen, wenn seine Nachbarn ihm feindlich gesonnen sind. Es
ist deshalb aus ethischer Sicht besonders wichtig, dass auf der Ebene der
Staatengemeinschaft ein verlässliches Normensystem geschaffen wird (wie es sich
bereits in Form von Menschenrechten und UN immer mehr entwickelt), denn eine
Regierung kann sich umso mehr um das Glück ihrer Bürger kümmern, je sicherer
sie sich auf der internationalen Ebene fühlt.
Zusammenfassend kann man sagen, dass in der Allgemeinethik eine Synthese des
stoischen und des epikureischen Lebensideals gefunden werden muss, wie es in
jüngerer Zeit beispielsweise Nicolai Hartmann (1949) anstrebte. Aristoteles (1995)
381
befürwortete generell die Mitte zwischen zwei Extremen, und erwähnenswert ist
auch die Ethik des großen römischen Staatsmannes und Philosophen Cicero
(1999a).
6. Die Strukturen der Gesellschaft als ethische Rahmenbedingungen
Damit sich die Menschen ethisch gut verhalten können, muss die gesamte
Gesellschaft, ihre Institutionen, Organisationen und insbesondere das politische
System (der Staat), eine entsprechende Struktur haben. Die Institutionen der
Gesellschaft müssen gerecht sein, vor allem was die Verteilung der Grundlebensbedürfnisse betrifft, ansonsten lässt sich moralisches Verhalten der Bürger schwer
durchsetzen. Da der Staat das Rechtssystem und die grundlegenden Strukturen der
Gesellschaft bestimmt, kommt diesem eine Schlüsselrolle in der Gesellschaft zu.
Besteht die Regierung wie in vielen totalitären Staaten aus Kriminellen, so kann
sich das Volk nur bedingt gesetzmäßig und ethisch verhalten, und Staats- und
Gesellschaftsphilposophie sind deshalb auch innerhalb der Ethik von großer
Bedeutung.
Im antiken Griechenland und im antiken Rom vertraten viele Philosophen in der
Nachfolge von Platon und Aristoteles die Meinung, dass eine Mischverfassung die
beste Form eines Staates sei (vgl. Cicero 1999b; Büchner 1999), und dem liegt der
folgende Gedanke zugrunde. Eine Aristokratie, d.h. eine Gruppe von klugen und
politisch erfahrenen Menschen, besitzt zwar in einem hohen Maße politische
Kompetenz, es besteht aber immer die Gefahr, dass diese Gruppe sich vom Rest
der Gesellschaft isoliert und bei ihren politischen Entscheidungen nur noch an sich
selbst denkt. In einer Demokratie hingegen ist gewährleistet, dass das Volk
tatsächlich an das Gemeinwohl denkt, dafür besitzen jedoch große Bevölkerungskreise nicht die nötige politische Kompetenz. Der Vorteil eines Monarchen ist,
dass er als Einzelperson z.B. in Krisensituationen schnell Entscheidungen treffen
kann, wohingegen lange Diskussionen der Aristokratie oder des gesamten Volkes
zu gefährlichen Handlungsverzögerungen führen können. Der Nachteil einer
Monarchie ist jedoch, dass die Herrschaft einer einzelnen Person schnell zu einer
Tyrannei ausarten kann und dass eine einzelne Person oft nicht die nötige
Kompetenz besitzt. Degeneriert ein Monarch zur völligen Dekadenz, wie es im
antiken Rom in der Untergangszeit öfter der Fall war, geht selbst ein mächtiges
Weltreich zugrunde. Da alle drei Verfassungsarten Vor- und Nachteile haben,
vertraten viele Philosophen der Antike die Auffassung, dass derjenige Staat der
beste sei, in dem alle drei Typen miteinander kombiniert sind: Monarchie,
Aristokratie und Demokratie, in ein und demselben Staat vereinigt, überwachen
sich gegenseitig.
382
Im politischen System sind insbesondere zwei Prinzipien zu beachten. Die
politische Führung muss einerseits das Gemeinwohl anstreben, andererseits muss
sie auch die dazu nötige Kompetenz besitzen. Das Problem einer Verfassung ist,
beides richtig miteinander zu kombinieren, und in den heutigen Demokratien
scheint dieses Problem auf elegante Weise gelöst zu sein: Die politischen Parteien
sind ein Ort der Schulung und Selektion von kompetenten Personen, und das
Wahlvolk wählt diejenigen Parteimitglieder als Volksrepräsentanten ins Parlament,
die es für vertrauenswürdig hält; hinzu kommt, dass jeder aus dem Volk sich
darum bemühen kann, selbst in einer Partei aufzusteigen. In der Terminologie der
antiken Philosophen sind unsere westlichen Verfassungen Mischverfassungen, und
man kann annehmen, dass viele antike Philosophen – etwa Cicero und Polybios
(vgl. Cicero 1999b) – mit unseren Verfassungen im Prinzip zufrieden gewesen
wären. Wir bezeichnen unsere heutigen Staaten zwar als Demokratien, aber
Demokratie in ihrer ursprünglichen griechisch-philosophischen Bedeutung,
wonach alle Bürger in der Volksversammlung zusammenkommen können und
jeder Bürger an allen Führungsämtern Anteil haben kann (z.B. Ämtervergabe
durch ein Los), sind wir natürlich nicht.
Auf welche Weise unsere Verfassungen die drei Elemente Demokratie,
Aristokratie und Monarchie enthalten, soll noch kurz genauer beschrieben werden.
In der Antike verstand man in der Philosophie unter Aristokratie nicht primär einen
Geburtsadel, sondern eine Gruppe von politisch besonders begabten Personen. Für
Aristoteles (1995) waren Aristokraten die Besten und Tugendhaftesten. Da der
Geburtsadel früher die einzigen Personen ausmachte, die genügend Muße hatten,
sich mit Politik zu beschäftigen, waren sie früher automatisch auch die
kompetentesten. Heute erfüllen aber die politischen Parteien diese Funktion, sie
sind im Sinne der antiken philosophischen Terminologie die moderne Aristokratie.
Das demokratische Element unserer Verfassung drückt sich dadurch aus, dass alle
mündigen Bürger wahlberechtigt sind und dass es auf einigen Ebenen der
Gesellschaft (Stadt und Land) Volksbegehren und Volksentscheide gibt. Das
monarchische Prinzip findet sich bei uns darin wieder, dass der Bundeskanzler eine
dominierende Position innerhalb der Regierung einnimmt; über seine
Richtlinienkompetenz kann er seinen Ministern viele Entscheidungen
vorschreiben. Noch stärker verankert ist das monarchische Prinzip in präsidialen
Demokratien wie in den USA und in Frankreich, wo der Präsident gegenüber dem
Parlament eine sehr starke Position hat, dafür aber auch vom Volk direkt gewählt
wird. In Ländern wie Großbritannien und den Niederlanden gibt es sogar noch
formal Monarchen, politisch haben sie aber nur wenig zu entscheiden.
Bei der antiken philosophischen Idee einer Mischverfassung ging es natürlich nicht
allein darum, die drei Elemente irgendwie miteinander zu verknüpfen, sondern sie
383
auch in einem guten gegenseitigen Verhältnis zueinander zu kombinieren. Hier
gibt es nun heute einige Politikwissenschaftler, die mit der Gewichtung der drei
Elemente in unserer Verfassung nicht zufrieden sind. Hans von Arnim (2000) und
Klaus von Beyme (2000) befürchten beispielsweise, dass die Parteien gegenüber
dem Volk zu mächtig geworden sind. In der Politikwissenschaft benutzt man
bereits Begriffe wie „Parteielite“ und „politische Klasse“, wodurch ausgedrückt
werden soll, dass sich eine Gruppe von politisch besonders begabten Leuten vom
eigentlichen Volk abhebt. Zusätzlich wird von immer mehr Politikwissenschaftlern
die Entwicklung der politischen Klasse zu einer Clique, die vornehmlich an sich
selbst denkt, befürchtet, so dass manche schon von einer Parteiokratie
(Parteienherrschaft) oder vom Parteienstaat sprechen. Um nun das demokratische
Element unserer Verfassung zu stärken, wurden mehrere Vorschläge gemacht. Von
Arnim (2000) setzt sich dafür ein, Volksbegehren und Volksentscheide auch auf
der Bundesebene einzuführen. (Selbst Aristoteles war der Meinung, dass die
Volksmehrheit manchmal etwas besser weiß als die Aristokratie. Das liegt z.B.
daran, dass die Masse der Bevölkerung andere Lebensumstände hat als die Elite
und dadurch einige Wahrheiten hautnah erlebt.) Ein anderer Vorschlag ist, bei den
Wahlen die Anzahl der Listenplätze zu verringern, da derzeit gar nicht so sehr das
Volk entscheidet, wer ins Parlament einzieht, sondern vornehmlich die Parteien.
Eine wichtige weitere Anregung ist, die innerparteiliche Demokratie zu verbessern.
Ein Parteienstaat kann nur in dem Maße eine Demokratie sein, wie auch innerhalb
der Parteien Demokratie gilt. Leider ist es zur Zeit nicht so, dass der Parteiführer,
wichtige andere Parteiposten und der Kanzlerkandidat vom Parteivolk gewählt
werden, sondern es diesbezüglich Entscheidungen von oben gibt. Über das Internet
ließen sich heute leicht Wahlen der Parteimitglieder durchführen (und vielleicht
auch leicht manipulieren). Eine andere Möglichkeit, das demokratische Element zu
stärken, ist die Absenkung der 5% Klausel bei Wahlen auf evtl. 3%. Die 5%
Klausel wurde eingerichtet, weil die Weimarer Verfassung u.a. daran gescheitert
sein soll, dass zu viele Parteien im Parlament waren. Eine Demokratie kann aber
auch am Gegenteil zugrunde gehen. In der Wirtschaft hat sich Wettbewerb als
qualitätssteigernd herausgestellt, und warum sollte das nicht auch für den
Ideenwettbewerb gelten? Ein guter Kompromiss zwischen zu vielen und zu
wenigen Parteien scheint mir eine 3% Klausel zu sein. Auch ist das Prinzip der
Gewaltenteilung (von Exekutive, Legislative und Judikative) nicht genügend
verwirklicht, da z.B. die höchsten Richter von den Politikern ernannt werden und
somit hier eine Abhängigkeit besteht. In einer Rechtsethik muss deshalb
hervorgehoben werden, dass sich auch Staatsanwälte, Richterinnen und
Ministerialbeamte an die Gesetze zu halten haben und sie nicht verdrehen dürfen.
Und zum Abschluss dieser Vorschläge zur Stärkung des demokratischen
Elementes ist noch darauf hinzuweisen, dass die Übertragung weiterer
Entscheidungsrechte von der nationalen Ebene auf die der Europäischen Union
und deren Ausweitung erst dann weitergeführt werden sollten, wenn genügend
384
Demokratie auf der EU-Ebene vorhanden ist.
Einen Staat kann man als eine besonders große und besonders komplex
strukturierte Organisation auffassen (im Scherz wird deshalb manchmal von der
„Deutschland AG“ gesprochen), so dass man über seine internen Mechanismen
auch von der Organisationspsychologie und -soziologie Hinweise erhalten kann.
Bemerkenswert ist hier, dass die Organisationssoziologie entdeckt hat, dass sich
innerhalb von offiziellen Organisationen informelle Gruppen bilden, dass neben
den offiziellen Zielen operative Ziele und neben den geschriebenen auch
ungeschriebene Normen existieren können (s. Büschges, Abraham 1997). Offiziell
sind solche Ziele, die nach außen bekannt sind, operative Ziele sind dagegen jene,
die tatsächlich praktiziert werden. Informelle Gruppen sind jene, die nicht aus
formalen Organisationsvorschriften resultieren. So schreibt Luhmann (1999: 30):
„daß in großen Arbeitsorganisationen sich neben den offiziellen Vorschriften eine
andere Verhaltensordnung mit eigenen Normen und Kommunikationswegen, einer
besonderen Logik und einem entsprechenden Argumentationsstil, mit eigenen
Statusgesichtspunkten, einer eigenen Führungsstruktur und eigenen Sanktionen
entwickelt.“ Die Sekretärin des Direktors oder ein besonders qualifizierter und
unbedingt benötigter Facharbeiter haben manchmal mehr Einfluss als ein formal
Höherstehender. Informelle Verhaltensweisen und Ziele können sich natürlich
auch in Parteien und insgesamt im Staat entwickeln. Da derartig informelle Ziele
nicht in der Öffentlichkeit besprochen würden, ständen sie auch in Wahlen nicht
zur Debatte, so dass das Volk Parteien mit ihm unbekannten Zielen wählen könnte.
Was informelle Gruppierungen in Parteien betrifft, sind aus den Massenmedien
Begriffe wie „Seilschaften“ und „Strippenzieher“ bekannt. Werden nun Parteivorsitzende und sonstige hohe Parteiposten nicht demokratisch von unten vom
Parteivolk gewählt, sondern von einigen wenigen an der Parteispitze, so ist
denkbar, dass informelle Gruppen aus der Gesellschaft es erreichen, dass sie diese
Leute nicht nur innerhalb einer Partei, sondern in vielen oder gar in allen
Parlamentsparteien stellen. In einem solchen Falle könnte das Volk wählen, welche
Partei auch immer es wollte, trotzdem wäre immer dieselbe Clique an der Macht.
Politikwissenschaftler würden dann von einem Parteienkartell sprechen. Wenn
derartiges nicht nur in Parteien, sondern in allen wichtigen Ämtern der
Gesellschaft geschieht, spricht man auch davon, dass die Gesellschaft
unterwandert wurde. Im Volksmund wird derartiges Bestreben gern bei den
Freimaurern vermutet, andere soziale Organisationen, auch ausländische, wären
dazu aber sicherlich ebenfalls in der Lage. Vor ein paar Jahren führte die damalige
CDU-Regierung eine Pressekampagne durch mit dem Vorwurf, die Scientologen
wollten die westlichen Gesellschaften unterwandern – dieses Beispiel verdeutlicht,
dass manche Politiker der Meinung sind, dass ein Staat oder sogar die ganze
Gesellschaft tatsächlich unterwandert werden kann. Besonders bedenklich wäre die
Situation, wenn eine solche Clique auch viele Posten in den Massenmedien
385
beherrschen würde, dann könnte sie vor jeder Wahl dem Volk einreden, wen es zu
wählen hätte. Schon Oswald Spengler hatte Anfang des 20. Jahrhunderts
geschrieben (1999: 1119): „Und was die moderne Presse betrifft, so mag der
Schwärmer zufrieden sein, wenn sie verfassungsmäßig „frei“ ist; der Kenner fragt
nur danach, wem sie zur Verfügung steht.“ Bei der Ausarbeitung einer Ethik, wie
sie in den vorigen Kapiteln besprochen wurde, muss deshalb in der Allgemein- und
in den Spezialethiken hervorgehoben werden, dass Unterwanderung, inoffizielle
Parteienziele und Parteienabsprache in Form von Kartellbildung unethisch sind.
Was könnte das Volk tuen, wenn durch derartige Mechanismen das demokratische
Element unserer Verfassung immer mehr ausgehöhlt würde? Neben den bereits
angeführten Vorschlägen wäre es im Fall eines Parteienkartells ratsam, bei jeder
Wahl immer die jeweiligen Oppositionsparteien zu wählen. Damit käme zwar
unter Umständen nur eine Partei desselben Kartells an die Regierung, da aber die
jeweilig Regierenden primär an sich selbst denken und nicht an die gesamte
Clique, wäre das eine Motivation für sie, während ihrer Regierungszeit möglichst
volksnah zu regieren. Eine stärkere Waffe wäre, eine Randpartei zu wählen, die die
mächtigen Parteien über die Massenmedien besonders stark diffamieren – mit einer
derartigen Partei haben sie keine Absprachen getroffen. Diese Mittel wirken aber
nur, wenn die Stimmenauszählung bei der Wahl rechtsgemäß erfolgt. Sollte ein
Staat so weit degeneriert sein, dass er kein Rechtsstaat mehr wäre (Beispiel DDR),
dann hätte das Volk nicht nur das Recht, sondern die moralische Pflicht, einen
Staatsstreich durchzuführen, denn eine kriminelle Regierung kann über mehrere
Jahrzehnte hinweg (wenn nicht schon früher) eine Gesellschaft völlig zugrunde
richten. Auf diese Pflicht muss auch in der Ethik hingewiesen werden.
7. Schlussbemerkungen
Die Ausarbeitung einer vollständigen Ethik und die Überwachung der
gesellschaftlichen Strukturen können Philosophen natürlich nicht allein leisten und
benötigen dazu die Hilfe von Politikern, Unternehmern, Wissenschaftlern und von
vielen anderen aus Kunst und Kultur. Um genügend Lebenserfahrung zu haben, ist
außerdem für die Arbeit in der Ethik ein nicht geringes Lebensalter und einige
Arbeitszeit außerhalb der angenehmen Hörsaal-Tätigkeit nötig. Dass selbst manche
hohe Würdenträger in Wirklichkeit üble Halunken sind und gerade diese oft in der
Öffentlichkeit besonders laut nach Moral rufen, muss man an eigener Haut
erfahren haben, um die Problematik der Ethik vollständig verstehen zu können. Ein
weiteres Problem ist, dass die Methodik der Philosophie sich auf das Denken
konzentriert, der menschliche Verstand aber allein aus sich heraus nicht alles
leisten kann. In der theoretischen Philosophie, beispielsweise in der Natur386
philosophie, ist deshalb der Philosoph (bzw. die Philosophin) auf die Erkenntnisse
der empirisch arbeitenden Naturwissenschaften angewiesen. Analog muss der
Ethiker umfangreiche Kenntnisse u.a. in Soziologie, Psychologie, Politologie,
Wirtschaftswissenschaft und Rechtswissenschaft haben.
Wenn man sich die Geschichte der Naturphilosophie betrachtet, dann fällt auf, dass
es im Lauf der Jahrhunderte sehr viele verschiedene Weltentwürfe gegeben hat, die
Entwerfer dieser Systeme waren oftmals felsenfest von der Wahrheit jeweils ihres
Gedankengebäudes überzeugt und ließen sich oftmals nicht durch Argumente ihrer
Kritiker überzeugen. Dieses demonstriert sehr schön die Schwäche der reinen
Vernunft, und es ist in der Ethik zu erwarten, dass hier ebenfalls in Zukunft sehr
viele Philosophen mit verschiedenen Systemen auftreten werden (was heute schon
der Fall ist), die sich von ihren Gegnern nicht überzeugen lassen. Letztlich geht es
aber bei der Ethik nicht wie in der Naturphilosophie darum herauszufinden, was
die Wahrheit über die Natur ist, sondern darum, wie die Menschen sich verhalten
sollen. Und die Auswahl dieses Sollens hat einen Entscheidungscharakter; das
heisst, letztlich müssen Personen aus Kultur und Politik entscheiden, welche Werte
und Normen in der Gesellschaft verankert werden sollen (es wird hier auch ein
vorsichtiges Ausprobieren geben müssen). Philosophen müssen sich aber darum
bemühen, für diesen Entscheidungsprozess möglichst plausible Vorlagen zu
liefern.
Hat man sich schließlich dazu entschlossen, bestimmte Werte und Normen in der
Gesellschaft zu verankern, so erfolgt ihre Durchsetzung durch entsprechende
Anweisungen an Pädagogen und Sozialarbeiter, durch die Bücher von
Schriftstellern, durch die Massenmedien, durch Politiker etc. Rationale Überlegungen von Philosophen können dabei eine Rolle spielen, aber nicht unbedingt die
Hauptrolle. Eine Schlüsselrolle in der Erziehung zum moralischen Verhalten
kommt der Familie zu. Leider ist es zur Zeit so, dass das Geldverdienen zu den
höchsten Werten zählt und zwar derart, dass die Hausfrau, die sich ganz ihrer
Familie und insbesondere der Erziehung der Kinder und deren Hilfe bei den
Schulaufgaben widmet, nicht die ihr gebührende soziale Anerkennung findet.
Insbesondere einige politische Richtungen erwecken den Eindruck, dass ein
Mensch erst dann ein erfülltes und hochwertiges Leben führe, wenn er bzw. sie in
einem Beruf Geld verdient. Selbstverständlich kann und soll jede Frau, die keine
Kinder oder nebenbei genügend Zeit hat, in einem eigenen Beruf arbeiten. Auch ist
es so, dass die Anwesenheit von Frauen die allgemeine Arbeitsatmosphäre
verbessert. Es ist aber bedenklich, wenn eine Frau deshalb keine Kinder haben
will, weil sie im Beruf mehr Sozialprestige erhält. Hier ist vor allem die Politik
gefordert, die dafür zu sorgen hat, dass eine Hausfrau in Zukunft wieder die ihr
gebührende Anerkennung findet, entweder in Form von öffentlichen
Preisverleihungen und Ehrungen oder indem es z.B. zur gesetzlichen Pflicht wird,
387
dass der Lohn des arbeitenden Mannes zur Hälfte auf das Konto der Frau
überwiesen wird („Hausfrau“ muss als Beruf anerkannt werden). Alles
Geschriebene gilt natürlich auch umgekehrt, wenn die Frau im Beruf arbeitet und
der Mann zu Hause bleibt. Aufgrund ihrer biologischen Ausstattung, ihrer
größeren Sensibilität, ist jedoch vermutlich die Frau für die Fürsorge der Kinder
besonders geeignet. Angesichts der heutigen Veränderungen auf dem Arbeitsmarkt
wäre es sogar für alle Beteiligten vorteilhaft, wenn beide nur halbtags arbeiten
könnten und jeweils zu verschiedenen Zeiten.
Zum Abschluss noch ein kurzes Wort darüber, dass gesellschaftliche Regeln und
insbesondere die moralischen in unserer liberal-individualistischen Zeit als
Einengung der persönlichen Freiheit empfunden werden. Regeln beschneiden
tatsächlich die eigene Freiheit, aber wenn die Mitmenschen einem selbst
gegenüber diese Regeln ebenfalls einhalten, bekommt man dadurch viel mehr
zurück, als man selbst gibt. Die Einhaltung der Regeln durch die Mitmenschen ist
deshalb auch im Interesse jedes Einzelnen, und jeder sollte deshalb die Courage
haben, dieses in seiner sozialen Umwelt einzufordern, und nicht alles auf den Staat
abschieben.
Literaturverzeichnis
Arendes, L. (1996): 'Ansätze zur physikalischen Untersuchung des Leib-SeeleProblems'. Philosophia Naturalis 33: 55-81.
Arendes, L. (a): Die wissenschaftliche Weltauffassung. Wissenschaftliche Naturphilosophie.
Arendes, L. (b): Grundlegung der introaktiven Psychologie. http://freenet-homepage.de/LotharArendes
Aristoteles (1995): Philosophische Schriften 4: Politik. Felix Meiner Verlag,
Hamburg.
von Arnim, H. (2000): Vom schönen Schein der Demokratie. Politik ohne
Verantwortung – am Volk vorbei. Droemer Verlag, München.
von Beyme, K. (2000): Parteien im Wandel. Von den Volksparteien zu den
professionalisierten Wählerparteien. Westdeutscher Verlag, Wiesbaden.
Brzezinski, Z. (1994): Macht und Moral. Neue Werte für die Weltpolitik.
Hoffmann und Campe, Hamburg.
Büchner, K. (1999): 'Einleitung'. In: M. Cicero (1999): De re publica. Vom
Gemeinwesen. Reclam Verlag, Stuttgart, S. 3-82.
388
Büschges, G., Abraham, M. (1997): Einführung in die Organisationssoziologie. 2.
Aufl., Teubner, Stuttgart.
Cicero, M. (1999a): De officiis. Vom pflichtgemäßen Handeln. Hrsg. H.
Gunermann, Reclam Verlag, Stuttgart.
Cicero, M. (1999b): De re publica. Vom Gemeinwesen. Hrsg. K. Büchner, Reclam
Verlag, Stuttgart.
Dönhoff, M. (1997): 'Es muss Maßstäbe geben'. In: H. Schmidt (Hrsg.):
Allgemeine Erklärung der Menschenpflichten. Ein Vorschlag. Piper Verlag,
München, S. 155-159.
Driesch, H. (1927): Die sittliche Tat. Ein moralphilosophischer Versuch. Verlag
Emmanuel Reinicke, Leipzig.
Haken, H., Wunderlin, A. (1991): Die Selbststrukturierung der Materie. Synergetik in der unbelebten Welt. Vieweg, Braunschweig.
Hartmann, N. (1949): Ethik. 3. Aufl., De Gruyter, Berlin.
Huntington, S. P. (1998): Kampf der Kulturen. Die Neugestaltung der Weltpolitik
im 21. Jahrhundert. 2. Aufl., Siedler Verlag, München.
Küng, H. (1991): Projekt Weltethos. 3. Aufl., Piper Verlag, München.
Küng, H. (1998): Weltethos für Weltpolitik und Weltwirtschaft. 3. Aufl., Piper
Verlag, München.
Laszlo, E. (1996): The Systems View of the World. A Holistic Vision for Our Time.
Hampton Press, Cresskill.
Luhmann, N. (1999): Funktionen und Folgen formaler Organisation; mit einem
Epilog 1994. 5. Aufl., Duncker und Humblot, Berlin.
Machiavelli, N. (1978): Der Fürst. Hrsg. R. Zorn, Kröner Verlag, Stuttgart.
Pieper, A. (1992): 'Ethik der aufgeklärten Vernunft'. In: A. Pieper (Hrsg.):
Geschichte der neueren Ethik 1. Francke Verlag, Tübingen, S. 66-80.
Singer, P. (1994): Praktische Ethik. 2. Aufl., Reclam Verlag, Stuttgart.
Spaemann, R. (Hrsg.) (1987): Ethik-Lesebuch. Von Platon Bis Heute. Piper Verlag,
München.
Spengler, O. (1999): Der Untergang des Abendlandes. Umrisse einer Morphologie
der Weltgeschichte. 14. Aufl., Deutscher Taschenbuch Verlag, München.
Weinkauf, W. (Hrsg.) (2001): Die Philosophie der Stoa. Ausgewählte Texte.
Reclam Verlag, Stuttgart.
389
Hauptprobleme heutiger Gesellschaftsphilosophie
Liebe • Weisheit • Freiheit
Zusammenfassung:
Unsere Gesellschaft hat sich in den letzten 100 Jahren tiefgreifend verändert, was auch zu vielen
neuen gesellschaftspolitischen Problemen geführt hat, die jeweils für sich und im globalen
Zusammenhang von der Gesellschaftsphilosophie überdacht werden müssen. In diesem Aufsatz
werden diese Probleme hauptsächlich nur vorgestellt, um ihre wissenschaftlich-philosophische
Bearbeitung zu motivieren, Vorschläge für die Behandlung dieser Probleme werden aber
ebenfalls gegeben.
1. Ausarbeitung einer wissenschaftlich-philosophischen
Gesellschaftsordnung
Der Liberalismus ist eine freiheitliche Gesinnung, die sich von Überlieferungen,
Gewohnheiten und Dogmen befreien will, und als wirtschaftliche Lehre tritt er für
freien Wettbewerb und freien Warenverkehr ein. Vor allem im 18. und 19.
Jahrhundert hatten die Liberalen einen entscheidenden Anteil daran, den extrem
dirigistischen Obrigkeitsstaat der Konservativen zu bekämpfen, mit zunehmendem
Einfluss des Liberalismus wurden aber auch seine negativen wirtschaftlichen
Auswirkungen immer stärker: Die Verelendung ganzer Volksschichten führte zur
Entstehung der Sozialdemokratie, der wir die endgültige Überwindung des
Obrigkeitsstaates und umfangreiche soziale Errungenschaften im 20. Jahrhundert
mit zu verdanken haben. Aber auch die Sozialdemokratie hat inzwischen in ihrer
heutigen Form ihre negativen Seiten offenbart: Stiefmütterlich behandelt werden in
der Sozialdemokratie Kultur und Erziehung (zwar wird „Bildung für alle“
gefordert, aber leider auf sehr niedrigem Niveau für möglichst alle). Auf dem
Höhepunkt der Sozialdemokratie ist deshalb nun unsere Zukunft bedroht, nicht nur
weil von vielen Menschen und Konzernen auf Kosten der Allgemeinheit starker
Sozialmissbrauch betrieben wird, sondern hauptsächlich weil Erziehung und
Kultur am Boden liegen, diese beiden Bereiche aber die langfristige Entwicklung
der Gesellschaft bestimmen.
Die wissenschaftlich-technischen, wirtschaftlichen und sozialen Errungenschaften
390
der letzten 100 Jahre haben die westlichen Gesellschaften tiefgreifend verändert,
die Lebensform großer Bevölkerungsteile hat sich in dieser Zeit drastisch
verbessert, parallel dazu sind aber auch immer mehr neue Gefahren und Probleme
entstanden, die es neu zu bestehen und zu lösen gilt, wenn es in Zukunft nicht zu
einem Verfall des erreichten Wohlstandes kommen soll. In diesem Aufsatz sollen
nun die Grundprobleme unserer heutigen Gesellschaft erörtert werden, und diese
Probleme sind so zahlreich und teilweise so tiefgreifend, dass es nicht möglich sein
wird, jedes Problem isoliert für sich und vom jeweiligen Fachexperten behandeln
zu lassen, dass vielmehr die Gesellschaft in ihrer gesamten Grundstruktur und in
ihren Grundeinstellungen neu überdacht werden muss und dass deshalb hier die
Philosophie gefordert ist. Aufgabe der Gesellschaftsphilosophie wird sein, ein
Forschungsprojekt zur Ausarbeitung einer wissenschaftlich-philosophischen
Gesellschaftsordnung durchzuführen. Zur Bewältigung der Probleme werden
einerseits die Fachwissenschaften (Wirtschaftswissenschaft, Soziologie,
Politologie etc.) nötig sein, andererseits aber auch die Philosophie, denn viele
Probleme hängen miteinander zusammen, Fachwissenschaftler sind aber in der
Regel zu sehr spezialisiert, um globale gesellschaftliche Zusammenhänge
bearbeiten zu können, und ein großer Teil der Probleme wird nur dadurch gelöst
werden können, dass die gesellschaftlichen Werte und Normen neu bestimmt und
begründet werden, die Wissenschaft kann aber keine Werte begründen. In der
Wissenschaft geht es um das Sein und nicht um das Sollen – aber um angemessene
Werte und Normen aufstellen zu können, benötigt man ein umfangreiches Wissen
über die Natur von Mensch und Gesellschaft. Das mangelnde Wissen über die
Natur von Mensch und Gesellschaft war schon immer der Grundfehler des
Kommunismus – und die mangelnde Reflektion darüber, welche Werte die
wichtigeren sind, war schon immer der Grundfehler der Geldgierigen,
insbesondere in der Form des heutigen Neoliberalismus, der fast nur noch Geld für
wichtig hält.
2. Hauptprobleme unserer Gesellschaft
In diesem Kapitel werde ich die Grundprobleme der westlichen Gesellschaften
nacheinander vorstellen, wobei es aber nicht meine Absicht sein kann anzugeben,
wie diese Probleme alle gelöst werden können, da mir oft das nötige Fachwissen
fehlt. Der erste Schritt zu einer Problemlösung ist jedoch, sich des Problems
bewusst zu werden, und hierzu soll dieser Aufsatz dienen. Auch ist es für einen
Fachwissenschaftler oder Philosophen, der ein spezielles Problem behandeln will,
wichtig, die anderen Probleme zu kennen, da mehrere Einzelprobleme miteinander
zusammenhängen und manchmal nur gemeinsam gelöst werden können. Eine
kurze Zusammenstellung aller Probleme ist deshalb sehr nützlich, wobei ich
391
jedoch keinen Anspruch darauf erheben kann, tatsächlich alle Grundprobleme
identifiziert zu haben; während der Durchführung dieses Forschungsprojektes
könnten durchaus neue Probleme sichtbar werden. Auch behandel ich nicht
Probleme wie beispielsweise die Zunahme des Drogenkonsums und der PseudoWissenschaften (Astrologie u.ä., soweit es mehr als ein Orakel sein soll); dass man
sich dem enthalten sollte, folgt schon aus elementarster Vernunft. (Um nicht
missverstanden zu werden, will ich noch anmerken, dass ich mit dem Entwurf
einer neuen Gesellschaftsordnung nicht meine, unsere heutige Gesellschaft sei
vollständig umzustrukturieren, sondern dass jeder Bereich unserer heutigen
Gesellschaft geprüft und überdacht werden muss.)
a) Staatsform: Das politische Subsystem, der Staat, hat in der Gesellschaft die
steuernde Funktion und ist deshalb für jede Gesellschaft von grundlegendster
Bedeutung. Probleme der Staatsphilosophie habe ich bereits in meinem Aufsatz
„Demokratie und Rechtsstaatlichkeit“ beschrieben, was ich deshalb hier nur kurz
zusammenfassen will: Unsere geschriebene Verfassung ist ein Ideal, das in der
Realität nur ungenügend umgesetzt ist, denn durch legale und illegale Aktivitäten
können Parteien, die Verwaltung und der gesamte Staat von kleineren
Gruppierungen für egoistische Ziele unterwandert werden. Gegen derartige
Unterwanderungsmechanismen gilt es Schutzvorrichtungen zu entwickeln, sowohl
in der Form von institutionellen Strukturen als auch durch gewissenhafteres
Bewerten des moralischen Charakters der Politiker. Charakterliche Defizite an der
Staatsspitze dürfen nicht verharmlost werden durch Entschuldigungen wie „Wir
sind ja alle keine Engel!“ Da das Wohl aller abhängt von den regierenden
Personen, muss hier besonders stark auf Moral geachtet werden. Kompetenz und
Charakter unserer Politiker zählen zu den fundamentalsten Problemen unserer
Gesellschaft, und deshalb muss auch überlegt werden, wie die Wahlen verbessert
werden können, um z.B. keine von großen Organisationen gekauften
„Marionetten“ als Parlamentsabgeordnete zu bekommen. Die heutige
geldaufwendige Form des Wahlkampfes direkt vor der Wahl sollte vielleicht
verboten werden. Das ständige wahlkampffixierte Verhalten vieler Politiker
während der gesamten Legislaturperiode ist ebenfalls sehr problematisch, da
Politiker deshalb oft nicht das tuen, was nötig ist, sondern das, wofür sie eventuell
wieder gewählt werden. Sehr problematisch ist auch unsere hohe
Staatsverschuldung und die daraus resultierende Notwendigkeit, immer neue
Kredite aufzunehmen, weil dadurch unser Staat von einigen wenigen Bankiers
abhängt, die die Regierung damit erpressen können, keine weiteren Kredite geben
zu wollen. Und schließlich ist auch hervorzuheben, dass Justiz und Massenmedien
von der Politik unabhängig werden müssen, und eine Gewaltenteilung von
Exekutive und Legislative ist in Deutschland ebenfalls noch nicht genügend
erreicht.
392
b) Souveränität: Durch die europäischen Nationalstaaten kam es im 20.
Jahrhundert zu zwei verheerenden Weltkriegen, weshalb nach dieser kriegerischen
Epoche die Europäische Union und die UNO entstanden sind, um derartige Kriege
in Zukunft zu verhindern. Aber wie viel Souveränität kann oder soll ein Staat an
übergeordnete Institutionen abgeben? Die EU sollte beispielsweise so viel Einfluss
haben, dass dadurch tatsächlich ähnliche europäische Kriege wie die im 20.
Jahrhundert verhindert werden. Auf der anderen Seite: Sollte sie so mächtig sein,
dass sie als zukünftige Supermacht in Kriege mit anderen Supermächten geraten
kann? Das würde der ursprünglichen Absicht der europäischen Einigung entgegen
stehen. Ist also ein Bundesstaat oder ein Staatenbund vorzuziehen und im einen
wie im anderen Fall von welcher Art?
Für die weitere Argumentation will ich zunächst auf einige Aspekte unserer
wissenschaftlichen Weltauffassung zu sprechen kommen und einen Vergleich mit
einem biologischen Organismus anstellen (vgl. meinen Aufsatz „Grundzüge der
wissenschaftlichen Weltauffassung“). Organismen bestehen aus ineinander verschachtelten Objekten: Der Mensch enthält viele Organe, sein Gehirn enthält viele
Hirnkerne, ein Hirnkern enthält viele Neuronen, ein Neuron viele Zellorganellen
etc. Ein Lebewesen ist somit hochstrukturiert, wobei die einzelnen Strukturen oft
durch Grenzen voneinander unterschieden sind (z.B. durch Zellmembranen oder
durch besondere Zellschichten). Nun ist natürlich die Staatengemeinschaft kein
biologischer Organismus, enthält aber Menschen als Subsysteme, und nach
schichtentheoretischen Überlegungen (z.B. des Philosophen Nicolai Hartmann)
sollten die Kategorien von niederen Schichtebenen auf höheren Schichtebenen (in
abgewandelter Form) wieder auftreten. Bezüglich der EU stellen sich deshalb
folgende Fragen: Wie viel innere Struktur bzw. wie viel Eigenständigkeit ist
innerhalb von Europa am effektivsten? Würden nicht die traditionellen
innereuropäischen Landesgrenzen es einfacher machen, die organisierte
Kriminalität und Ausländer einschleusende Banden zu bekämpfen? Ist ein
Bundesstaat mit starker Zentralmacht besser oder ein Staatenbund? Eine
Zentralmacht kann eine sehr negative Wirkung haben auf die kulturelle Vielfalt
und somit auf die künftige Anpassungsfähigkeit Europas bei neuen
Herausforderungen. Die EU hat bereits die europäische Vereinheitlichung der
Hochschulen beschlossen, Konkurrenz hat sich aber in der Wirtschaft als
qualitätssteigernd herausgestellt, und könnte das nicht auch für die universitäre
Qualität gelten? Ein anderes Beispiel: Ist es wirklich sinnvoll, wenn in Brüssel
entschieden werden kann, ob sonntags auf deutschen Autobahnen Lastwagen
fahren dürfen? Und im Augenblick ist in Deutschland leider noch nicht einmal die
minimal notwendige Souveränität, der Schutz der Gesundheit der deutschen
Bevölkerung, gewährleistet, da Geheimdienste durch heimliche Bestrahlungen
393
viele Personen zu bestimmten politischen und sonstigen Verhaltensweisen zwingen
wollen. Auch gibt es noch ein weiteres wichtiges Argument für den Staatenbund:
Innerhalb von Staaten treten immer wieder Cliquen auf, die durch Unterwanderung
die Macht des Staates dauerhaft an sich reißen wollen, einen ganzen Staatenbund
kann man aber nicht so leicht tyrannisieren wie einen Bundesstaat.
Nach der Systemtheorie können mehrere Objekte ein übergeordnetes System
bilden, mehrere derartige Systeme zusammen wiederum ein übergeordnetes
System, mehrere derartige Gesamtsysteme ein noch größeres Gesamtsystem etc.
Was soll aber die EU sein? Sollen die einzelnen europäischen Staaten aufgelöst
werden, um so wiederum nur einen Staat (wenn auch einen größeren) zu ergeben,
oder soll die EU eine höhere ontologische Einheit bilden: ein Staatensystem?
Die Frage, wie viel Souveränität ein Staat an internationale Institutionen abgeben
sollte, stellt sich nicht nur bezüglich der EU, sondern auch bezüglich UNO, WTO,
IWF etc. Auf der einen Seite wird man durch internationale Institutionen eines
Tages vielleicht tatsächlich erreichen, dass es keine Kriege mehr gibt und dass
somit Kants Traum vom ewigen Frieden in Erfüllung geht. Auf der anderen Seite
bergen zentrale Entscheidungsinstanzen immer die Gefahr in sich, dass manche
Regionen übervorteilt und andere Regionen benachteiligt werden. Arbeiten z.B.
WTO und IWF wirklich im Interesse aller Staaten oder nur im Interesse einiger
Staaten oder sogar nur im Interesse einiger Großunternehmen des Westens? Wie
kann bei derartigen Institutionen Gerechtigkeit garantiert werden?
c) Weltordnung: Der vorige Punkt hängt eng mit der Frage zusammen, wie die
globale Weltordnung, der gesamte weltliche Staatenverbund, aussehen soll. Die
einzelnen Staaten des Westens sind jeweils Mischverfassungen aus Aristokratie
(Parteielite), Monarchie (Präsident, Kanzler oder Monarch) und Demokratie
(Wahlvolk). Zwar enthält eine höhere Systemebene immer auch neue, emergente
Eigenschaften, aber trotzdem kann man versuchen, die Idee einer Mischverfassung
von Staaten auf die höhere Systemebene des Staatenverbundes zu übertragen. In
der UNO sind alle Staaten mit Stimmrecht vertreten, was dem demokratischen
Element innerhalb von Staaten entsprechen würde und welches in Zukunft
sicherlich noch gestärkt werden muss z.B. durch stärkere Exekutivrechte der UNO.
De facto besitzen aber die USA zur Zeit eine sehr starke Dominanz auf der
internationalen Ebene, was vergleichbar ist mit dem monarchischen Element in
Staaten. Und insbesondere die europäischen Staaten haben ein großes
internationales Mitsprache- und Entscheidungsrecht, was den Aristokraten
entsprechen würde.
Nun wird die heutige Weltordnung natürlich von vielen Staaten bzw. Menschen als
394
ungerecht empfunden, denn der dominante Staat und die „aristokratischen“ Staaten
denken hauptsächlich an das eigene Wohl. Wie könnte aber eine gerechte
Weltordnung aussehen? Sicherlich werden bis auf absehbare Zeit immer ein oder
einige wenige Staaten eine dominante Stellung einnehmen und viele der
hochentwickelten Länder ein einflussreiches Mitspracherecht und eine beratende
Funktion ausüben. Trotzdem sollte heute schon von Philosophen überlegt werden,
wie in Zukunft der Idealzustand aussehen könnte. Und was die heutige Zeit
betrifft: Einen dominanten Staat wird es auf absehbare Zeit weiterhin geben
(wenngleich ein Triumvirat oder eine Fünfergruppe vorzuziehen wäre), aber dieser
dominante Staat darf die anderen Staaten nicht ausbeuten oder demütigen (z.B. in
Form einer Kulturdiktatur). Tut das der dominante Staat dennoch, so haben die
anderen Staaten das Recht und die Pflicht, einen internationalen Umsturz
herbeizuführen (und ein derartiger Umsturz könnte sogar zum Vorteil des Volkes
des dominanten Staates sein, da die Vormachtstellung Geld kostet, was manchmal
das eigene Volk teuer bezahlen muss).
d) Überwachung und Staatskriminalität: Wir leben heute in einer sehr
komplexen Gesellschaft, in der die unterschiedlichsten Bereiche voneinander
abhängen, was auch eine größere Störanfälligkeit der heutigen Gesellschaft im
Gegensatz zu denen im Mittelalter oder auch im 19. Jahrhundert bedeutet, und
durch die heutigen technischen Möglichkeiten sind selbst Einzelpersonen dazu in
der Lage, in Terrorakten Massenvernichtungswaffen einzusetzen. Die Entwicklung
der Gesellschaft zu diesem Zustand hat parallel dazu geführt, dass der Staat die
Bevölkerung immer stärker überwacht, wodurch die persönliche Freiheit immer
stärker eingeschränkt wird. Diese Entwicklung lässt sich durchaus im Rahmen der
allgemeinen Evolution betrachten: Direkt nach dem Urknall waren die
Elementarteilchen völlig unabhängig voneinander, im Zuge der Systembildung zu
Atomen, Molekülen, Organismen, Gesellschaften und Kulturkreisen wurde jedoch
die Anzahl der Freiheitsgrade der Systemkomponenten immer kleiner, da für sie
als Teile eines übergeordneten Systems nur noch systemkonformes Verhalten
erlaubt ist. Die naturgesetzliche Evolution zu immer stärkerer Vernetzung und
somit zu immer stärkerer Einschränkung der individuellen Freiheit wird vielleicht
nicht aufzuhalten sein – auf der Ebene der Gesellschaft ist das der Preis, den wir
für den Komfort der modernen Lebensweise zu zahlen haben. Aber zusätzlich zu
dieser eher naturgesetzlichen Notwendigkeit gibt es in vielen Gesellschaften auch
Machthaber, die nur aus persönlichen, egoistischen Interessen andere Personen mit
kriminellen Mitteln überwachen und sogar von ihren Geheimdiensten heimlich
bestrahlen oder anderswie ermorden lassen, so dass es sich bei einem derartigen
Staat nicht mehr allein um einen Überwachungsstaat, sondern um ein kriminelles
totalitäres Regime handelt. Aufgabe der gesellschaftlichen Analyse muss es nun
sein, beide Komponenten – die Einschränkung der persönlichen Freiheit wegen
395
einer gesellschaftlichen Notwendigkeit oder wegen staatlicher Kriminalität – zu
identifizieren und voneinander zu unterscheiden, um im Fall von Staatskriminalität
dagegen vorgehen zu können, und hierzu wird man beispielsweise die
Geheimdienste (die eigenen und die des Auslandes) stärker kontrollieren müssen.
e) Information und Kommunikation: Viele Soziologen und Politiker bezeichnen
unseren heutigen Gesellschaftstyp als eine Informations- und Kommunikationsgesellschaft, weil Information und Kommunikation eine immer wichtigere Rolle
spielen, was am prägnantesten durch die Bedeutung von Computer und Internet
zum Ausdruck kommt. Wegen dieser Schlüsselstellung der Übertragung von
Informationen ist es besonders wichtig, dass diese Bereiche pluralistisch
strukturiert und nicht in den Händen einiger weniger Personen konzentriert sind.
Die Wirtschaft befindet sich zur Zeit in einer Phase, in der Großunternehmen
immer mehr kleinere Unternehmen aufkaufen und dadurch immer mehr Macht
erhalten. Auch auf dem Informationssektor kann das sehr schnell sehr negative
Auswirkungen haben, denn befinden sich die Zeitungen, Illustrierten, Fernseh- und
Rundfunksender etc. in den Händen einiger weniger Personen, dann haben diese
Personen eine sehr große Manipulationsfähigkeit; sie können die
Lebensgewohnheiten aller Menschen und Parlaments- und Präsidentenwahlen sehr
entscheidend beeinflussen. Deshalb wird es in Zukunft darum gehen, derartige
Konglomerationen von Kommunikationsmedien (z.B. Google) zu verhindern;
Einzelpersonen und einzelne Parteien dürfen auf dem Informationssektor keine zu
großen Einflussmöglichkeiten haben, und auch muss sicher gestellt werden, dass
das Internet weiterhin frei zugänglich bleibt und nicht vom Staat kontrolliert wird.
f) Ethik: Die Werte und Normen einer Gesellschaft haben eine langfristige
Steuerfunktion, und degenerieren Staat und Volk zur völligen Dekandenz, wie es
im antiken Rom in der Untergangszeit der Fall war, dann geht selbst ein mächtiges
Weltreich zugrunde. Leider ist heute bei uns im Westen ein immer stärker
werdender kultureller Niedergang zu beobachten, der gestoppt und umgekehrt
werden muss, will der Westen in Zukunft nicht von den stärker werdenden
östlichen Ländern dominiert werden. Da ich über Ethik ausführlich in meinem
Aufsatz „Funktionen der Ethik in einer naturalistischen Welt und ihre
Ausarbeitung durch die Philosophie“ geschrieben habe, will ich die
diesbezüglichen Aufgaben der Philosophie wieder nur kurz zusammenfassen: Die
Philosophie wird in der Ethik vor allem drei Aufgaben zu erfüllen haben. Erstens
ist eine glaubwürdige Begründung der Werte und Normen nötig; das heisst, eine
Begründung, warum die Menschen ihre Handlungen an den Werten der
Gesellschaft orientieren sollen, vor allem an denjenigen, die für die Gesellschaft
existenznotwendig sind, was die Moral im engeren Sinn ausmacht. Der zweite
396
Aufgabenbereich ist die Ausarbeitung einer allgemeinen Pflichtenlehre, also
welche Werte und Normen von allen Personen beachtet werden sollen. So müssen
Kooperation und Sittlichkeit im täglichen Leben und in der Wirtschaft wieder
stärker betont werden. Und drittens sind für besondere Berufsfelder wie die
Medizin, Wissenschaft und Wirtschaft Spezialethiken auszuarbeiten. Bei der
Etablierung der Werte und Normen in der Bevölkerung, insbesondere der
allgemeinen Pflichtenlehre, haben neben den Philosophen viele andere
Bevölkerungsgruppen wie beispielsweise Politiker, Schriftsteller und die
Menschen in den Massenmedien mitzuhelfen, wobei die Massenmedien heute
leider eine eher negative Sozialisierungswirkung ausüben durch die permanente
Darstellung von Verlogenheit, Hinterlist, Sex und Gewalt.
Was die Ethik betrifft, muss jedoch auch vor Pseudo-Moral gewarnt werden.
Scheinbar moralische Argumente werden manchmal dazu benutzt, egoistische und
skrupellose Interessen durchzusetzen – wie kann und soll man damit in der
Öffentlichkeit umgehen? Helmut Kohl kam mit dem Versprechen an die Macht,
eine geistig-moralische Wende herbeizuführen – aber nach Bekanntwerden seiner
schwarzen Kassen kam er nicht einmal vor Gericht. Und um Deutschland mit
immer mehr Ausländern vollzupumpen, um es zu ruinieren, wird an unser
Mitgefühl appelliert, werden Wirtschaftsflüchtlinge als politisch Verfolgte
deklariert und wird uns eingeredet, wir würden Ausländer benötigen wegen
unseres Geburtenmangels, woran aber dieselbe politische Clique, die so
argumentiert, durch Herabsetzung des Wertes der Familie und durch Förderung der
Konsumgier Schuld ist. Was viele der sogenannten Gutmenschen bieten, ist nicht
das moralisch Gute, denn das kann nicht zum Schaden einer Gesellschaft sein, da
die Funktion der Ethik die Erhaltung der Gesellschaft ist, sondern Pseudo-Moral,
um ganz andere Ziele zu erreichen. Das permanente Aufbauschen der Ermordung
von Juden am Ende des 2. Weltkrieges dient bei manchen Personen ebenfalls
primär der Erpressung von Geld und Macht und hat darüber hinaus höchstens noch
die Wirkung, dass es in anderen Ländern bezüglich deren Minderheiten zu einem
Nachahmeffekt kommt (siehe die jüngste Vergangenheit auf dem Balkan). PseudoMoralisten müssen in Zukunft von der Öffentlichkeit deutlicher als Heuchler
gebrandmarkt werden.
g) Kultur und Wissenschaft: Die Werte, Normen und Handlungsstandards
machen die Kultur eines Landes im weiteren Sinn des Wortes aus. Im engeren Sinn
versteht man gewöhnlich unter Kultur Bereiche wie Kunst, Literatur, Musik, Film
etc., die aber die Werte und Normen des weiteren Kulturbegriffes transportieren
und in der Bevölkerung zu verankern helfen. Wie ich in meinem politischen
Aufsatz „Kulturkampf“ dargelegt habe, ist es auf dem Gebiet dieses engeren
Kulturbegriffes in Deutschland seit dem Ende des 2. Weltkrieges zu einem
397
drastischen Absinken deutscher Kultur und Wissenschaft gekommen. In den
Radios werden kaum noch deutsche Lieder gespielt, in den Buchläden werden
überwiegend ausländische Autoren ausgelegt, in den Museen gelten allein schon
Bilder von nackten Frauen als besonders hervorhebenswerte Kunst. Und seit der
Wiedervereinigung sinkt auch die deutsche Sprache immer tiefer: Anglizismen
treten nicht nur immer häufiger auf, sondern vermischen sich auf immer
abstoßenderer Weise mit deutschen Wortbrocken. So kann man auf
Getränkeverpackungen „Grapefruitsaftkonzentrat“ lesen, womit Pampelmusensaftkonzentrat gemeint ist; oder ein Artikelname heisst „Selection“ und im Text zu
lesen ist dann: „Für diese Selection wurden nur sorgfältig ausgewählte ...“. Es wäre
schön, wenn man bei der Wortwahl auch sorgfältig wäre. Oder ist die Verhunzung
der deutschen Sprache Absicht? Was für Leute sitzen eigentlich in den Chefetagen
großer deutscher Firmen? Vielleicht sollte man Artikel mit zuviel Sprachsalat
einfach nicht mehr kaufen; jedenfalls ist es kein Wunder, dass unsere Kinder nicht
mehr richtig schreiben können, wenn sie auf Verpackungen, Plakaten etc. nur noch
Schund zu lesen bekommen.
Was die Wissenschaft betrifft, ist hervorzuheben, dass die Forschung mit Steuergeldern finanziert wird und dass somit die Gesellschaft ein Recht hat
mitzubestimmen, welche Art von Forschung betrieben wird und wie die
Forschungsergebnisse verwendet werden. Dies darf aber nicht von religiösen
Fanatikern oder anderen Gruppierungen dazu ausgenutzt werden, Philosophie und
Wissenschaft mit politischen Mitteln zu unterdrücken, und deshalb sollten die
Universitäten weitgehend unabhängig sein und nicht von übergeordneten
Institutionen gelenkt werden. Zu warnen ist auch vor nur scheinbaren Philosophen
und scheinbaren Wissenschaftlern, die bestimmte Gedanken nur propagieren, um
dadurch die Macht bestimmter Gruppierungen zu festigen. Die Anwendung
wissenschaftlicher Forschungsergebnisse und den Einfluss wissenschafts- und
philosophiefeindlicher Gruppierungen gilt es stärker als bisher zu beobachten.
Aber was die Verwendung der Forschungsergebnisse betrifft, tragen auch die
einzelnen Wissenschaftler die ethische Mitverantwortung z.B. für militärische und
industrielle Großschäden. Auch darf es nicht sein, dass die Gesellschaft mittels
Steuergelder die Grundlagenforschung finanziert, und anschließend mit deren
Ergebnissen nur die Konzerne das große Geld machen und durch Rationalisierungen Arbeitslosigkeit produzieren, wofür dann allein die Gesellschaft
aufkommen muss.
h) Erziehung, Schule und Familie: Werte, Normen und Kultur insgesamt haben
eine langfristige Steuerfunktion. Wenn es aber in der Erziehung nicht gelingt, dass
der Nachwuchs die Werte der Gesellschaft internalisiert, dann werden diese Werte
mit der Zeit aus der Gesellschaft verschwinden und nur noch schöne Worte in
398
Sonntagsreden sein. Die Folge würde sein, dass das Land zunächst kulturell und
darauf folgend auch wirtschaftlich verfällt, und das Ende einer langen Kette von
Folgeereignissen könnte sein, dass mächtigere Länder unseren Kulturkreis erobern.
Wegen dieser fundamentalen Bedeutung von Erziehung hat beispielsweise Platon
in der Gesellschaftsphilosophie seines Buches „Nomoi“ („Gesetze“) der Erziehung
einen großen Platz eingeräumt. Die heutige Situation der Erziehung der Kinder in
Deutschland ist jedoch katastrophal, was in den letzten Jahren von mehreren
Autoren eindrucksvoll beschrieben worden ist (z.B. Gaschke 2003, Gerster und
Nürnberger 2002). Sowohl das intellektuelle Vermögen, als auch das
Sozialverhalten von immer mehr Kindern lassen sehr zu wünschen übrig.
Schuld daran sind vor allem Politiker, die die Bedeutung der Familie herabsetzen
und unsere Schulen kaputtreformiert haben (vgl. Kraus 1998); moralisches
Verhalten lässt sich nur durch gute Erziehung gewährleisten. Wie aber sollen
Erziehung und Schule in Zukunft beschaffen sein? Da man in den letzten
Jahrzehnten durch übereilte Reformen sehr viel Schaden angerichtet hat, wird man
vermutlich vieles wieder rückgängig machen müssen. Um eine Orientierung für
die Wiederherstellung von Erziehung und Schule zu bekommen, wäre es gut, wenn
unsere älteren Pädagogen eine genaue Beschreibung davon geben könnten, wie
diese beiden Bereiche in Deutschland Ende der 60er Jahre beschaffen waren. So
wird das Gymnasium wieder wirklich höhere kulturelle Bildung vermitteln
müssen: höhere Literatur, klassische Musik, aber auch gründlich Mathematik,
Physik und objektive Geschichtskenntnisse. Auch wird man wohl nicht darum
herumkommen, heute unpopuläre Methoden wieder einzuführen. Beispielsweise
wird man in Schule und Familie nicht ohne Sanktionen auskommen: Allein durch
rationale Argumente lassen sich schwer Erziehbare, Faule u.a. nicht überzeugen –
vollständig rational sind nicht einmal Erwachsene –; dies ist ein völlig falsches
Menschenbild vieler Politiker. Bei allen Menschen ist Rationalität mit Affekten,
Gedankenlosigkeit, Bequemlichkeit etc. vermischt. Ein verhauener Hintern eines
permanent bockigen Kindes oder nach einer besonders schweren Missetat tut zwar
weh, aber der Schaden, den ein Erwachsener mit schlechten Manieren bei sich
selbst und anderen anrichten kann, ist oft wesentlich gravierender. Die Erfahrung
eines Kindes, seinen Willen nicht immer durchsetzen zu können, wird dem
Menschen auch als Erwachsener nützlich sein. Natürlich darf man nicht ins andere
Extrem fallen und Kinder permanent grün und blau schlagen – der Mittelweg
zwischen Extremen ist oft der goldene Weg. Die Ursachen für schlechtes
Benehmen und schlechte Schulleistungen der Kinder liegen allerdings heute oft
auch bei den Eltern, die lieber beide in einem Beruf Geld und Karriere machen, um
die eigene Eitelkeit zu befriedigen, als ihre Kinder zu erziehen. Schlechte
Erziehung und schlechte Schulleistungen haben viele Ursachen, und ohne einen
allgemeinen Wertewandel (weg von Geldgier, Narzismus und Egoismus) werden
diese wie auch viele andere Probleme nicht gelöst werden können. Fleiß,
399
Leistungsbereitschaft und gutes Benehmen müssen wieder positiv bewertet
werden!
Die Gleichberechtigung von Mann und Frau ist eine wichtige Errungenschaft
unserer Zeit, und unsere Arbeitszeit muss neu strukturiert werden, damit es
weniger Arbeitslose gibt, dies muss jedoch damit vereinbar sein, dass auch Frauen
in einem Beruf arbeiten können, dass aber trotzdem Kinder auch genügend
Zuwendung, Liebe und Erziehung bekommen. Mehr staatliche Rollenübernahme –
mehr Kindergärten und Ganztagsschulen – ist vielleicht nicht aufzuhalten, aber
dies könnte leicht zu einer gefährlichen Gleichschaltung führen, insofern der Staat
immer mehr Kontrolle über die Denk- und Lebensweise aller Menschen erhält.
Was den Wert und die wissenschaftliche Objektivität der heutigen PISA-Studien
betrifft, bin ich eher skeptisch, dass aber die Schulleistungen unserer Kinder immer
schlechter werden, ist schon seit langem offensichtlich, hängt aber sicherlich nicht
an unserem Schulsystem (das intellektuelle und kulturelle Niveau Deutschlands
war einmal weltweit führend und vorbildlich), sondern am zunehmenden Ausfall
von Unterrichtsstunden, fehlenden Sanktionsmitteln der Lehrer und an einem
Verfall der Werte in der gesamten Gesellschaft (kurzsichtiger Egoismus,
Bequemlichkeit, Oberflächlichkeit), und hiergegen muss die Politik antreten.
Stattdessen freuen sich die Politiker, angesichts der PISA-Ergebnisse mehr
Ganztagsschulen einrichten zu können, um dadurch die beliebte Gleichschaltung
aller Köpfe vorantreiben zu können. Ganztagsschulen sind leider angesichts der
heutigen Wertesituation in Deutschland nötig, besser wäre es aber, wenn man die
Bevölkerung dazu veranlassen könnte, sich wieder mehr um ihre Kinder zu
kümmern; zumindest bei den Gymnasien sollte die traditionelle Halbtagsschule
überwiegend erhalten bleiben, da schwierigere Übungsaufgaben besser allein zu
Hause bearbeitet werden können.
Der Verfall der Familie und die Vermassung der Menschen in staatlichen
Institutionen müssen aufgehalten werden, denn nur in einer kleinen
überschaubaren Familie können sich Kinder geborgen fühlen und lernen, zu
anderen Menschen intensive persönliche Beziehungen aufzubauen, was für das
Wohlfühlen im ganzen Leben wichtig ist. Vermutlich sind Frauen biologisch
bedingt für die Zuwendung zu Kindern besser geeignet als Männer, trotzdem
sollen aber natürlich auch Frauen in einem Beruf arbeiten, was auch das gesamte
Arbeitsklima verbessert. Die Gleichberechtigung der Frau muss in Zukunft weiter
vorangetrieben werden, man darf aber Frauen nicht einreden, dass nur typisch
männliche Tätigkeitsweisen hochwertig und sinnvoll seien, die traditionell typisch
weiblichen Tätigkeiten jedoch nicht. Wie wertvoll geleistete Erziehungsarbeit und
Zuwendung zu Kindern sind, wird gerade in Zeiten des kulturellen Verfalls
deutlich, was heute schon wirtschaftliche Konsequenzen hat. Erwähnt werden
muss auch, dass Scheidungen für die Kinder sehr belastend sind, so dass sich
400
Eltern stärker überlegen sollten zusammenzubleiben, auch wenn sie sexuell bereits
getrennte Wege gehen. Vielleicht sollte die Möglichkeit einer Scheidung in
Zukunft gesetzlich wieder erschwert werden, zumindest bis die Kinder ein
Mindestalter haben.
i) Kinderanzahl, ältere Menschen und Medizin: Wegen der geringen deutschen
Geburtenrate hat Deutschland zahlreiche Schwierigkeiten; beispielsweise
funktioniert unser Rentensystem nicht mehr und es werden immer mehr Ausländer
ins Land geholt, was neue Probleme schafft, da viele von ihnen z.B. auch
Arbeitslosengeld oder Sozialhilfe beziehen. Als Grund für die geringe
Kinderanzahl unserer Familien wird von vielen Eltern vorgeschoben, dass man
sich mehr Kinder finanziell nicht leisten könne. Der gesamte Westen (und
Deutschland insbesondere) ist aber reicher als jemals zuvor, so dass die Finanzen
kaum der Hauptgrund sein können. Der wirkliche Grund für diese Problematik
liegt wie bei so vielen anderen der in diesem Aufsatz aufgezählten Problemen bei
den in unserer Gesellschaft vorherrschenden Werten. Der materielle Konsum, der
von der Industrie uns eingeredete Glaube, man müsse immer die allerneuesten
Verkaufsgüter besitzen, und Befriedigung der Eitelkeit durch berufliche Karrieren
haben in den letzten Jahrzehnten vorangigere Werte in den Hintergrund geschoben.
Mit der niedrigen Geburtenrate und mit unseren medizinischen Erfolgen hängt
zusammen, dass heutzutage die westlichen Gesellschaften überproportional viel
ältere Menschen haben. Angesichts der langen Lebenszeit stellt sich die Frage,
welche neuen Aufgaben die Menschen nach ihrem Ausscheiden aus dem
Arbeitsprozess in der Gesellschaft übernehmen können; ein stärkeres Engagement
in sozialen Hilfsorganisationen, auch z.B. in der Politik und in der Erziehung der
Enkelkinder sind mögliche Betätigungsfelder. Der hohe Anteil an älteren
Menschen wirft außerdem Probleme mit unseren Sozialsystemen auf, und in der
Medizin stehen wir vor der Frage nach der Sterbehilfe. Ist es sinnvoll, unheilbar
kranke (auch jüngere) Menschen mit unseren technischen Mitteln solange wie
möglich am Leben zu erhalten, selbst wenn sie nur noch große Schmerzen haben
und sterben wollen? Wie könnte verhindert werden, dass wegen der Möglichkeit
der Sterbehilfe alte und auch junge kranke Menschen von kriminellen Verwandten
und Ärzten bewusst so lange gequält werden, bis sie freiwillig ihre
Sterbebekundung unterschreiben?
Darüber hinaus gibt es in der Medizin weitere zu überdenkende Fragestellungen:
Welche Art der genetischen Manipulationen soll erlaubt sein (diese Frage stellt
sich auch für die Landwirtschaft)? Wann sind Abtreibungen bei nachgewiesener
Erkrankung des Embryos sinnvoll, möglich oder gar Pflicht? Die Frage nach der
Möglichkeit der Abtreibung stellt sich aber nicht nur bei der Erkrankung des
401
Embryos, sondern ist ein grundlegenderes Problem, das immer noch – zurecht –
sehr umstritten ist. Wenn bei einem Embryo die Hirnaktivität eingesetzt hat und
vermutlich schon Bewusstsein möglich ist, haben dann die Eltern oder andere
Personen noch das Recht, das neue Leben zu beenden (das beurteile ich eher
negativ)?
j) Wirtschaft, Eigentum und Umwelt: Unser heutiges System der sozialen
Marktwirtschaft hat den Menschen im Westen großen Wohlstand gebracht, aber
diese Wirtschaftsform bringt auch immer wieder Nachteile hervor, so dass auch
immer an der Verbesserung unseres Wirtschaftssystems gearbeitet werden muss.
Im 19. Jahrhundert führte die Verelendung großer Bevölkerungsmassen durch den
zu extremen Liberalismus zur Entstehung der Sozialdemokratie, durch deren
Existenz es im 20. Jahrhundert zur sogenannten sozialen Marktwirtschaft kam.
Aber insbesondere seit die Bedrohung durch den Kommunismus seit Ende des 20.
Jahrhunderts nicht mehr vorhanden ist, nimmt der Wirtschaftsliberalismus wieder
unsozialere Tendenzen an, der heutige Neoliberalismus fördert eine Globalisierung
unseres Wirtschaftssystems, die hauptsächlich nur den großen, weltweit
operierenden Konzernen zugute kommt. Ganze Staaten geraten in die Gefahr
bankrott zu gehen, aber auch in den reichen Ländern gehen zahlreiche
Unternehmen insbesondere des Mittelstandes zugrunde, und in unseren
Innenstädten stehen immer mehr Läden leer.
Verglichen mit den Ursprüngen des Liberalismus in der Zeit der Aufklärung ist der
jetzige Neoliberalismus eher anti-liberal. „Liberal“ bedeutet primär freiheitlich –
aber durch die Großkonzerne werden immer mehr Unternehmen des Mittelstandes
vernichtet, wodurch immer mehr Menschen in die Abhängigkeit von Staat und
Großkonzernen getrieben werden. Die multinationalen Konzerne sind inzwischen
so mächtig, dass sie die Staatsführungen erpressen können durch die Drohung,
Arbeitsplätze ins Ausland zu verlagern. So wie im Zeitalter des Feudalismus die
größten Großgrundbesitzer die Macht des Kaisers immer mehr untergraben
konnten, so wird heute die Macht von Staat und Volksherrschaft (Demokratie)
immer mehr von den großen Konzernen untergraben – die allgemeine
Abhängigkeit von einigen wenigen Leuten ohne die Möglichkeit einer
demokratischen Kontrolle dieser Personen nimmt immer mehr zu. Gegen diese
Entwicklung wird man sich in Zukunft verstärkt zu wehren haben, aber es ist zur
Zeit unklar, durch welche Gesetze oder gesellschaftlichen Mechanismen dies
erfolgen kann.
Ein Vorschlag, den negativen Einfluss von zu reichen Personen zu begrenzen,
wäre die Festlegung einer Obergrenze des individuellen Geldbesitzes. Die
Möglichkeit von Einzelpersonen, Politiker z.B. während Wahlkampfzeiten zu
402
kaufen, könnte dadurch begrenzt werden. Wo eine derartige Obergrenze zu liegen
hätte, müsste von Politikern mit guten Wirtschaftskenntnissen festgelegt werden.
Angenommen, jede erwachsene Person dürfte maximal 10 Millionen Euro
besitzen, dann könnte eine Familie mit einem erwachsenen Kind 30 Millionen
Euro besitzen, was schon sehr viel Einfluss und jede Menge persönlichen Komfort
erlaubt. Als Ergänzung oder als Alternative zu diesem Vorschlag könnte man auch
festlegen, dass Unternehmen und Banken nur eine maximale jährliche
Umsatzgröße haben dürfen, eine festgelegte Anzahl von Milliarden Euro. Eine
Alternative hierzu wäre die Überlegung, dass Konzerne und Banken ab einer
bestimmten Größe demokratisch strukturiert sein sollten: festgelegte
Gewaltenteilung an der Konzernspitze und regelmäßige demokratische Wahl der
Führungsspitze durch alle Konzernmitglieder. Aber neben strukturellen
gesellschaftlichen Verbesserungen können auch die einzelnen Menschen, die
Konsumenten, etwas dafür tuen, dass Konzerne nicht zu mächtig werden.
Beispielsweise werden in unseren Innenstädten immer mehr Geschäfte der lokalen
Unternehmer durch große Unternehmensketten verdrängt, und die Konsumenten
einer Stadt können dem entgegen wirken, indem sie mehr in den kleinen
Geschäften der lokalen Besitzer kaufen, was aber ein Verhalten ist, dass sich arme
Menschen nicht leisten können.
Sehr reiche Personen werden natürlich der Meinung sein, dass einige der soeben
gemachten Vorschläge ungerecht seien, da sie ihr Geld ehrlich verdient hätten und
man es ihnen nicht einfach wegnehmen dürfe. Aber sie werden zugeben müssen,
dass beim menschlichen Durchschnittscharakter sehr Reiche großen Schaden
anrichten können. Und es ist das Recht einer Gesellschaft, sich davor zu schützen.
Wer den Selbstschutz einer Gesellschaft nicht akzeptieren will, der soll jeglicher
Gesellschaft den Rücken kehren, sich eine Insel kaufen und dort ohne die Vorteile
einer Gesellschaft versuchen, allein glücklich zu werden. Auch ist es gerecht,
Großkonzerne stärker zu kontrollieren, denn das viele Geld können sie heute nur
verdienen, weil sie die Forschungsergebnisse der Gesellschaften (z.B. die
Entdeckung der Elektrizität, die Entwicklung von Elektrodynamik,
Thermodynamik und Quantenmechanik) nutzen können, wofür sie kaum etwas
bezahlt haben. Ihren Reichtum verdanken Konzerne Wissenschaftlern, die von der
Gesellschaft finanziell unterstützt worden sind. Unsere Konzerne nutzen die
Ergebnisse der Grundlagenforschung und produzieren durch Rationalisierungen
mittels der neuesten Technik Arbeitslose, zu deren Unterstützung sie deshalb auch
herangezogen werden sollten. Die Entdeckung der Erbsubstanz, der DNS, wurde
geleistet von Wissenschaftlern wie Schrödinger, Delbrück, Crick und Watson;
wenn darauf aufbauend (Pharma- und Agrar-) Konzerne sich genetische
Entdeckungen patentieren lassen, dann wäre es gerecht, dass Gewinne aus diesen
Patenten auch an die Gesellschaft abgeführt werden, welche die biologische
Grundlagenforschung unterstützt hat (nebenbei bemerkt bin ich aber eher gegen
403
Patente auf wissenschaftliche Entdeckungen). Auch geht es nicht an, dass
Professoren von Fachhochschulen mit staatlichen Subventionen Unternehmen
helfen, neue Geräte zu entwickeln, und diese Unternehmen dann mit diesen
Innovationen ins Ausland verlagert werden, weil sie dort weniger Steuern zu
zahlen haben. Haben Steuerflüchtlinge und Manager, die ihre Unternehmen in
Steueroasen verlagern, das moralische Recht, das Sozial- und Kultursystem
unseres Landes noch weiter nutzen zu dürfen?
Ob die soeben gemachten Vorschläge durchführbar sind, müssen andere beurteilen
– auch müssten einige der entsprechenden Gesetze weltweit durchgesetzt werden,
damit nicht die großen Unternehmen in andere Länder abwandern –, aber dass
unser Wirtschaftssystem geändert werden muss, wird immer offensichtlicher. Es
gibt noch viele andere Wirtschaftsprobleme, als die bereits erwähnten: Produziert
wird vielfach nicht, was nötig ist, vielmehr wird uns die Notwendigkeit und
Begehrlichkeit des Produzierten durch die Werbung eingeredet. Es wird sehr viel
hergestellt, was nach kurzer Zeit wieder weggeworfen wird, bei der Produktion
wird scheinbar auch schon auf kurze Haltbarkeit geachtet, und nötige Ersatzteile
gibt es nach ein paar Jahren nicht mehr oder nur sehr teuer, so dass man lieber ein
neues Gerät anschafft. Unsere Wirtschaft dient immer weniger dem Herstellen von
(haltbaren) Gütern, sondern primär nur noch der Geldzirkulation. Auswirkungen
unserer falschen Wirtschaftsweise sind schneller Raubbau der Ressourcen, schnell
wachsende Müllberge und eine immense Belastung der Umwelt. Dass wir eine
umweltverträglichere Wirtschafts- und Lebensweise brauchen, wird inzwischen
allgemein anerkannt; das muss natürlich auch für die Landwirtschaft gelten.
Gefordert sind hier Wirtschaftswissenschaftler, die ein vernünftigeres
Wirtschaftssystem ausarbeiten müssen. Vielleicht ist ein Wirtschaftssystem
möglich, das ohne permanenten Wachstum auskommt oder in dem man unter
Wachstum auch eine Zunahme von wirklicher Lebensqualität (nicht nur
materieller, sondern psychologischer) und Sicherung der Natur versteht.
k) Arbeitslosigkeit: Es gibt eine permanente hohe Arbeitslosigkeit nicht nur, weil
Arbeitsplätze in Niedriglohn-Länder exportiert werden, sondern vor allem wegen
der Ersetzung menschlicher Arbeitskraft durch maschinelle. Die Robotisierung und
Computerisierung unserer Lebenswelt wird sicherlich nicht aufzuhalten sein, es
wird also in Zukunft immer weniger wirklich notwendige Arbeit geben. Da es
unvernünftig ist, dass immer mehr Menschen ohne Arbeit sind und verarmen,
wohingegen die anderen durch volle Arbeitszeit ein vergleichsweise luxuriöses
Leben führen können, muss die vorhandene Arbeitszeit gerechter verteilt werden.
Wünschenswert wäre deshalb, wenn pro Familie nur einer oder eine voll arbeiten
würde oder beide nur halbtags. (Die Eltern hätten dann auch mehr Zeit für ihre
Kinder!) Eine Familie könnte sich dann zwar finanziell weniger leisten, aber es ist
404
sozial ungerecht, dass viele Menschen arbeitslos sind, während andere im üblichen
Luxus leben. Eine Spaltung der Gesellschaft in arm und reich kann langfristig zu
größeren sozialen Unruhen führen, wohingegen mehr Freizeit für alle auch mehr
Zeit für angenehmere Tätigkeiten, als es die Berufstätigkeit in der Regel ist,
ermöglicht.
Durch die Robotisierung und Computerisierung machen die Konzerne immer mehr
Gewinne, das wissenschaftliche (Grundlagen-) Wissen dazu stammt aber aus der
Leistung der gesamten Gesellschaft, so dass Großkonzerne, wie bereits im
vorherigen Punkt erwähnt worden ist, in Zukunft für die von ihnen freigesetzten
Arbeitskräfte stärker aufkommen sollten – aber damit die Großkonzerne nicht in
Steueroasen abwandern, müsste es hier eine weltweite Regelung geben. (Eine
Stärkung der UNO und ihrer Exekutivrechte wird also nicht nur aus militärischer,
sicherheitsgarantierender Sicht immer notwendiger, sondern auch aus
wirtschaftlicher Sicht.) Überlegenswert ist natürlich auch, ob Großunternehmen,
insbesondere solche, die durch Automation große Gewinne machen, verstaatlicht
werden sollten, um mit dem Profit, der dann dem Staat zufließen würde,
Sozialausgaben wie das Arbeitslosengeld finanzieren zu können.
Mehr Arbeitsplätze schaffen kann man natürlich auch durch Herabsenken des
Rentenalters, wodurch man aber wiederum Probleme mit der Rentenversicherung
bekommt. Unser gesamtes Sozialsystem muss daher neu überdacht werden, was
unsere Politiker zur Zeit schon versuchen, aber Politiker haben heute oft nur eine
zu kurze Sichtweise, so dass Wissenschaftler und Philosophen auch hier gefordert
sind. Auch ist die Existenz von Obdachlosen eine Schande für jede soziale
Gemeinschaft.
l) Sexualität: Das Sexualverhalten der Deutschen hat sich in den vergangenen
dreißig Jahren stark gewandelt. Dies ist gut, insofern veraltete traditionelle Regeln
aufgebrochen worden sind; angesichts zunehmender Kinderpornographie,
sexuellen Belästigungen und sinkenden Schulleistungen der Jugendlichen muss
aber über diesen Verhaltensbereich auch einmal aus der Perspektive der gesamten
Gesellschaft nachgedacht werden.
Über die „Prüderie“ vergangener Zeiten wird heute hauptsächlich abfällig geurteilt,
man muss sich aber einmal den gesellschaftlichen Nutzen derartiger Zurückhaltung
vergegenwärtigen. Viele Traditionen sind in der Vergangenheit entstanden, weil
sie ursprünglich einen Nutzen hatten, der dann aber später in Vergessenheit geraten
ist und man dann die Regeln nur noch „aus Tradition“ ausführte. Wenn
Erwachsene in der Gegenwart der Kinder kein sexuelles Verhalten zeigen wollten,
dann hatte das den Zweck, Kinder hiervon noch abzuhalten, da Kinder
405
Verhaltensweisen durch Beobachtung lernen; Kinder ahmen Verhaltensweisen
schnell nach. Bezogen auf die gesamte Lebensspanne ist die Jugendzeit eine sehr
kurze Zeit, sie ist aber für das gesamte spätere Leben von entscheidender
Bedeutung. Wenn Jugendliche die Schule vernachlässigen, weil sie lieber Kontakt
mit dem anderen Geschlecht haben wollen, dann haben sie daran während ihrer
Jugendzeit großen Spaß, der aber für ihre Zukunft nachteilige Konsequenzen
haben kann. Das offene Zurschaustellen von sexuellen Reizen, wie es in den
Zeitungen, im Fernsehen, in Badeanstalten und auf der Straße heute üblich ist,
sollte also einmal vorurteilsfrei (und das auch im Sinne einer möglichen
Restriktion) überdacht werden. Menschen und auch Männer sind von ihrer Natur
her biologische Wesen, und für deren sexuellen Belästigungen und
Vergewaltigungen sind auch die Chefetagen unserer Massenmedien
verantwortlich, da sie für viele der existierenden auslösenden Reize verantwortlich
sind. Doppelmoral: Das liegt auch vor, wenn überall Pornographie und Sex gezeigt
wird, man sich aber gleichzeitig über Kinderpornograhie, sexuelle Belästigungen
und Vergewaltigungen entrüstet zeigt. Gesellschaftliche sexuelle Borniertheit: Das
liegt auch vor, wenn sexuell zurückhaltende Menschen verachtet und verspottet
werden. Hier wird es überall mehr Weisheit und Toleranz geben müssen.
Beispielsweise können für meditative Erfahrungen Einsamkeit und sexuelle
Zurückhaltung sehr förderlich sein.
Selbstverständlich kann es nicht das Ziel sein, veraltete Traditionen wiederherzustellen. Homosexualität erscheint wohl nur wegen unserer christlichen Tradition
als etwas Negatives. Allerdings bin ich skeptisch, was Kinder in homosexuellen
Beziehungen betrifft. Kinder lernen Verhaltensweisen durch Nachahmung, und
wenn Kinder in einer Lebensform aufwachsen, in der ein Geschlecht nicht
vorhanden ist (z.B. ein Junge unter Lesben), dann fehlen diesen Kindern vielleicht
Lebenserfahrungen (nicht nur was sexuelle Verhaltensweisen betrifft), die für ihr
zukünftiges Wohlergehen notwendig wären. Hierüber und wie man eventuellen
Defiziten begegnen könnte, müssen sicherlich noch soziologische Studien
angestellt werden.
Neben der Homosexualität wird heute die Prostitution viel diskutiert. Während ich
bezüglich der Zurschaustellung von Sex wie oben beschrieben eher zur
traditionellen Zurückhaltung neige, tendiere ich bei dieser Gewerbeart eher zur
staatlichen Duldung, aber nicht zur Förderung, wie es heute in manchen Städten
geschieht, nicht in der Öffentlichkeit wie auf Parkplätzen o.ä., und insofern die
mögliche Übertragung von Geschlechtskrankheiten (nachträglich auch auf den
Ehepartner) vermieden wird und die Freier auch dafür mitverantwortlich sind, dass
sie nicht zur Prostitution gezwungene Frauen (durch Menschenhandel o.ä.)
aufsuchen. Die Biologie des Menschen ist nun einmal, wie sie ist, und es gibt
schlechtere Formen als die Prostitution, um in manchen Situationen damit
406
umzugehen.
m) Migration: Die hohe Kultur der Antike wurde vernichtet durch innere
Dekadenz und durch die Völkerwanderung, und auch heute dringen wieder fremde
Volksgruppen in unseren Kulturkreis ein und belasten unsere Kultur und unsere
Sozialsysteme. Nun ist es unsere humanitäre Pflicht, Völkern mit schlechteren
Lebensbedingungen zu helfen, aber das kann nicht dadurch geschehen, dass wir
politisch getarnte Wirtschaftsflüchtlinge aufnehmen, und auch die wirklichen
politischen Flüchtlinge können wir nicht alle für immer aufnehmen. Wir können
nicht ganze Völker aufnehmen; wenn unsere Sozialsysteme zusammenbrechen, ist
niemandem geholfen. Besser ist es, anderen Völkern beim Aufbau eigenen
Wohlstandes zu helfen, und außerdem ist den heutigen Flüchtlingen zu
verdeutlichen, dass der Westen sein Niveau nur dadurch erreichte, dass mutige
Männer ihre kriminellen Machthaber bekämpften und nicht davonliefen.
Leider gibt es aber bei uns Gruppierungen, die unser System bewusst vernichten
wollen und dazu auch die Migration einsetzen (vgl. M. Hardt und A. Negri, 2003:
Empire, S. 225f), und das menschenfreundliche Gerede vieler sogenannter
Gutmenschen dient nur der Tarnung. Es muss deshalb durch wirklich gute und
soziologisch kenntnisreiche Menschen überlegt werden, wie viel und was für
Menschen der Westen aufnehmen kann und will, und über UN und internationale
Nichtregierungsorganisationen muss anderen Ländern beim eigenen Aufbau
geholfen werden. (Und selbstverständlich müssen ehemalige Ausländer, die bereits
legal bei uns wohnen und die nach dem 2. Weltkrieg beim Wiederaufbau geholfen
haben, wie alle anderen Menschen als Bestandteile unserer Gesellschaft akzeptiert
werden.)
n) Tiere: Höher entwickelte Tiere sind vermutlich ebenso wie wir Menschen zum
bewussten Leiden fähig, und deshalb erfordert ethisches Handeln, dass wir diesen
Tieren unnötiges Leid ersparen. Überzogene ethische Forderungen, wie etwa das
Verbot, Fleisch zu essen, sind jedoch nicht sinnvoll, denn auch wir Menschen sind
ebenso wie die Tiere in der Evolution durch Faktoren wie bestimmte gegenseitige
Nahrungsaufnahme entstanden, und die Mechanismen der Evolution zu
verdammen hieße auch, unsere eigene Entstehung zu verwünschen. Es mag sein,
dass in fernerer Zukunft die Menschen kein Fleisch mehr essen und auf uns
herabblicken werden, wie wir heute auf Kannibalen. Aber ethische Grundsätze
sind keine außerweltlichen göttlichen Gebote, sondern Teil einer allgemeinen
Evolution und dienen der Erhaltung und dem Wohl der Gesellschaft, und es steht
uns frei, bestimmte Regeln anzunehmen und andere zu verwerfen. Vielleicht wäre
es im Sinne einer Mitleidsethik wünschenswert darauf hinzuwirken, nur noch
407
Fleisch von Tieren niedrigen Entwicklungsniveaus zu essen, daran müssten dann
aber die Menschen von Kindheit an gewöhnt sein; die Umstellung im höheren
Lebensalter gelingt nicht jedem.
Zweifellos ist es aber so, dass wir heute zu skrupellos mit Tieren umgehen:
unnatürliche Tierhaltung, quälender Tiertransport, unsinnige Tierexperimente für
dekadentes Konsumverhalten etc. Die radikalen Kritiker von Tierexperimenten
sollten aber bedenken, dass ein großer Teil unseres medizinischen Wissens auf
Tierexperimenten beruht, und konsequenterweise müssten radikale Kritiker auf
Krankenhausaufenthalte (Operationen etc.) verzichten.
o) Militär: Am besten wäre es vielleicht, wenn jegliches Militär der UN
unterstehen würde für innerweltliche Polizeieinsätze. Solange dies nur Utopie sein
kann, muss überlegt werden, wie viel Militär in welcher Form für welche Einsätze
sinnvoll ist. Auslandseinsätze der Bundeswehr sollten nur unter UN-Mandat
durchgeführt werden; aber auch hier muss man vorsichtig sein, bei „humanitären“
Aktionen ist nicht selten Pseudo-Moral möglich. Vor einem UN-Auftrag ist zu
prüfen, ob nicht vielleicht die Geheimdienste bestimmter Länder eine Volksgruppe
der kriegführenden Länder aufgestachelt und mit Waffen versorgt haben, um dann
dieses Gebiet unter dem Vorwand einer Menschenrechtsverletzung mit den
eigenen Truppen besetzen zu können.
p) Spiritualität: Die großen westlichen Religionen haben moralisch völlig versagt,
denn Andersdenkende und sogar die eigenen Religionsmitglieder werden mit
Terror, Mord und Mobbing überzogen, wofür meine eigene langjährige
Arbeitslosigkeit ein Beispiel ist. Wünschenswert wäre es natürlich, wenn alle
Menschen so vernünftig wären, nur noch rational vertretbare Behauptungen zu
glauben – und hierauf gilt es hinzuarbeiten. Diejenigen, die aber immer noch in
herkömmlichen Religionen sind, sollten wenigstens so fair sein, anderen Menschen
zu erlauben, einer anderen Religion anzugehören, und z.B. Moslems nicht zu
benachteiligen. Wenn also beispielsweise in Schulen das Tragen von Kopftüchern
wegen angeblicher religiöser Neutralität des Staates verboten ist, dann sollten auch
Kreuze aus den Schulen entfernt werden – das Beibehalten der Kreuze mit Hinweis
auf Tradition wäre nur Heuchelei und würde in Zukunft immer wieder zum
sozialen Unfrieden führen. Gegen jede Form von religiöser Intoleranz oder gar
religiöser Kriminalität müssen in Zukunft bessere Vorbeugemechanismen
entwickelt werden, als dies derzeit der Fall ist, und es darf hierüber nicht länger
geschwiegen werden.
Viele Menschen haben den Wunsch, mit dem Grund des Seins in Kontakt zu sein,
408
und für alle diejenigen, die an einen transzendenten Urgrund, an einen Weltgeist
oder etwas Ähnliches, wofür mein Computer-Weltbild eine Analogie ist, glauben,
und die das Bedürfnis haben, Formen der Verehrung auszuführen und sich
regelmäßig inspirieren zu lassen, sollte Entsprechendes ausgearbeitet und eine
angemessene Form von regelmäßiger Meditation gesellschaftlich etabliert werden.
Tiefergehende Meditationen, welche viel Zeit und Aufwand beanspruchen, sollten
nur von einigen wenigen Personen ausgeführt werden, aber einfachere Formen wie
Meditationen über Liebe, Glück und Frieden könnten täglich oder wöchentlich von
jedem ausgeführt werden, und hierfür wäre es nicht einmal nötig, sich in die
Abhängigkeit einer Kirche oder Sekte zu begeben, wenngleich (informelle)
Zusammenschlüsse durchaus nützlich sein können. (Diejenigen, die an keine
transzendente Wirkung der Meditation glauben, können sich die Wirkung
derartiger Praktiken so erklären, dass das Meditationsobjekt tief im
Unterbewusstsein des Meditierenden verankert wird und dadurch dessen tägliches
Verhalten beeinflussen kann. Außerdem sollte jeder so vernünftig sein, keine
negativen esoterischen Handlungen auszuführen, da dies auch auf einen selbst
zurückfällt. Die Wirkungen esoterischer Praktiken, insbesondere ihre Gefahren,
müssen jedoch erst noch wissenschaftlich untersucht werden.)
3. Liebe, Weisheit, Freiheit!
„Freiheit, Gleichheit, Brüderlichkeit!“ – das war der Schlachtruf der französischen
Revolution. Aber Gleichheit – erzwungen durch despotische staatliche Kontrolle –
kann uns heute nur noch abstoßen. Ungleichheiten mögen manchmal Neid und das
Gefühl von Ungerechtigkeit hervorrufen, sie geben aber dem Leben die Farbe, die
für ein erfülltes Leben auch nötig ist. Überall in der Biologie gibt es Schichtungen
mit Abwärtskausalität, und das Scheitern der kommunistischen Experimente in
Osteuropa legt nahe, dass dies auch in Gesellschaften nötig ist. Versuchen
Politiker, den Schichtungscharakter zu beseitigen, dann führt das höchstens zu
einer Zweischichtengesellschaft: einer großen amorphen Masse und einer
despotischen Politikeraristokratie. Jedoch ist in der Politik immer darauf zu achten,
dass nur so viel Hierarchie existiert, wie für das Funktionieren der Gesellschaft
wirklich notwendig ist (keine Kasten o.ä.).
In seinem gesellschaftsutopischen Buch „Nomoi“ schreibt Platon, dass die
Grundlagen einer Gesellschaft Liebe, Weisheit und Freiheit sein sollten: In der
Gesellschaft „soll Freiheit bestehen und mit Weisheit verbundene wechselseitige
Liebe“ (Platon 1994: S. 243). Der Liberalismus des 18. und 19. Jahrhunderts hatte
sich sehr stark für Freiheit eingesetzt; der Sozialdemokratie des 19. und 20.
Jahrhunderts kann man die Liebe zuordnen, denn sie hatte sich für die großen
409
armen Menschenmassen sehr stark eingesetzt; was aber nun nötig ist, das ist eine
Bewegung der kulturellen Erneuerung, die sich mit wissenschaftlichphilosophischer Vernunft für die Freiheit und das Wohl aller einsetzt: Freiheit,
Liebe, Weisheit! (Statt „Liebe“ kann man heute das Wort „Kooperation“
bevorzugen, weil das Zusammenwirken verschiedener Elemente desselben
Systems wissenschaftlich korrekter als Kooperation bezeichnet werden kann, aber
als Leitstern des zu erreichenden Ideals ist die Liebe ein sehr gutes Symbol.)
Aufgabe der Philosophie ist es heute, die Strukturen der Gesellschaft in Hinblick
auf die in diesem Aufsatz aufgeführten Fragestellungen zu überdenken, dies muss
aber geschehen in enger Zusammenarbeit mit wissenschaftlichen Erkenntnissen.
Vorgeschlagene Gesellschaftsänderungen sollten immer wissenschaftlich überprüft
werden in Hinblick auf ihre tatsächlichen Auswirkungen. Zu bedenken ist hierbei
jedoch auch, dass die Wissenschaften von komplexen Wirklichkeitsbereichen,
insbesondere die Geisteswissenschaften, in ihren Ergebnissen wesentlich
unsicherer sind als naturwissenschaftliche Theorien. Und schon die Situation der
Naturwissenschaften muss man sich vergegenwärtigen: Die Physik erforscht einen
vergleichsweise einfachen Wirklichkeitsbereich und kann exakte Experimente
durchführen, und trotzdem musste die Newtonsche Physik verworfen und durch
andere Theorien ersetzt werden! Geisteswissenschaftliche und wirtschaftswissenschaftliche Theorien können naturgemäß nicht den experimentellen
Bestätigungsgrad bekommen, wie ihn selbst die Newtonsche Physik hatte, und
deshalb ist gegenüber diesen Forschungsergebnissen immer große Skepsis
angebracht. Aus diesem Grund muss man auch in der Politik immer darauf gefasst
sein, dass der politische Gegner Recht haben könnte – und schon in der
Philosophie habe ich immer besonders viel gelernt in der kritischen
Auseinandersetzung mit Autoren, die andere Grundeinstellungen hatten als ich
selbst. Wegen der Unsicherheit über die wirklichen Folgen von gesellschaftlichen
Änderungen ist es auch nie angebracht, zur Durchsetzung neuer Ideen große
umwälzende Revolutionen durchzuführen. (Natürlich muss man einen
gewaltsamen Umsturz anstreben, wenn die Volksherrschaft (Demokratie) zu einer
Kriminellenherrschaft degeneriert ist; dies ist aber nicht das Thema dieses
Aufsatzes.) Eine gesellschaftliche Umstrukturierung muss durch langsame,
kontinuierliche Evolution erfolgen: Nach der Einführung einer gesellschaftlichen
Veränderung müssen erst einmal ihre Auswirkungen abgewartet werden, bevor
weitere durchgeführt werden. Allerdings mag zur Durchsetzung mancher
Verbesserungen auch massiver Druck vom Volk nötig sein, nicht nur auf die
Politiker, sondern auch auf die Großkonzerne, denn aus egoistischen Gründen
werden sicherlich einige Leute immer behaupten, bestimmte Verbesserungen seien
nicht möglich, Veränderungen seien unnütz oder ihr Nutzen sei noch nicht
wissenschaftlich erwiesen. Letzten Endes kann jedoch ohnehin nur die tatsächliche
Durchführung einer gesellschaftlichen Strukturänderung zeigen, wie sich eine
410
derartige Änderung in der Realität auswirkt.
Literaturhinweise
Arendes, L. (a): Grundzüge der wissenschaftlichen Weltauffassung. http://freenethomepage.de/LotharArendes
Arendes, L. (b): Funktionen der Ethik in einer naturalistischen Welt und ihre
Ausarbeitung durch die Philosophie. http://freenet-homepage.de/LotharArendes
Arendes, L. (c): Kulturkampf. http://freenet-homepage.de/LotharArendes
Arendes, L. (d): Demokratie und Rechtsstaatlichkeit. http://freenet-homepage.de/LotharArendes
Gaschke, S. (2003): Die Erziehungskatastrophe. Kinder brauchen starke Eltern.
Deutsche Verlags-Anstalt, München.
Gerster, P., Nürnberger, C. (2002): Der Erziehungsnotstand. Wie wir die Zukunft unserer
Kinder retten. Rowohlt, Berlin.
Kraus, J. (1998): Spasspädagogik. Sackgassen deutscher Schulpolitik. Universitas,
München.
Platon (1994): Nomoi. In: Sämtliche Werke, Band 4. Rowohlt, Reinbek.
411
Denkanstöße
Eine kleine Aphorismensammlung
412
1.
Intuition: In seinem Buch »Ecce Homo« schreibt Nietzsche über Inspiration: „Mit
dem geringsten Rest von Aberglauben in sich würde man in der Tat die
Vorstellung, bloß Inkarnation, bloß Mundstück, bloß Medium übermächtiger
Gewalten zu sein, kaum abzuweisen wissen. Der Begriff Offenbarung, in dem
Sinn, daß plötzlich, mit unsäglicher Sicherheit und Feinheit, etwas sichtbar, hörbar
wird, etwas, das einen im Tiefsten erschüttert und umwirft, beschreibt einfach den
Tatbestand. Man hört, man sucht nicht; man nimmt, man fragt nicht, wer da gibt;
wie ein Blitz leuchtet ein Gedanke auf, mit Notwendigkeit, in der Form ohne
Zögern – ich habe nie eine Wahl gehabt.“
Das Problem mit Intuitionen ist jedoch, dass sie zwar einerseits oft mit einem
Evidenzgefühl erlebt werden (d.h. man empfindet ganz stark, dass es sich eindeutig
um die Wahrheit handele), dass aber andererseits Gefühle kein Wahrheitskriterium
sind und dass Intuitionen falsch sein können. Im Lauf der Zeit können zum selben
Thema mehrere Intuitionen zueinander widersprüchlich sein, und man muss die
richtigen wie ein Puzzlespiel zusammensetzen. Dies scheint Nietzsche nicht klar
gewesen zu sein. Wenn man einen Einfall hat, muss man anschließend diese Idee
gründlich überprüfen. Zu Beginn meiner Magisterarbeit über »Das
Realismusproblem in der Quantenmechanik« war mir auch intuitiv völlig klar, dass
es eine klassisch-realistische Interpretation der Quantenmechanik (QM) geben
müsse und dass ich das in meiner Arbeit zeigen könnte. In diesem Sinne begann
ich, meine Magisterarbeit zu schreiben, z.B. das 2. Kapitel über Erkenntnistheorie,
in der Mitte meiner Arbeit musste ich aber das Scheitern meines Vorhabens
akzeptieren, so dass ich mich Heisenberg anschloss und eine nicht-klassische
Realitätsvorstellung vertrat.
In diesem Sinne sind auch die im Folgenden vorgestellten Aphorismen zu
verstehen: Sie sind nur Denkanstöße; bei genauerer Überprüfung könnte sich das
eine oder andere als falsch herausstellen.
2.
Nietzsches Unmoral: Nietzsches unmoralische Schriften lassen sich auf
mindestens vierfache Weise deuten:
a) Sozialdarwinistische Deutung: Unmoralisches Verhalten, die Idee des "Willens
zur Macht" und die Sinnlosigkeit des Lebens angesichts der "ewigen Wiederkehr
des Gleichen" würden einen "Selektionshammer" bewirken, schrieb Nietzsche z.B.
413
im Nachlass. Die langfristige Folge sei, dass nur die Starken überleben; diejenigen,
die die Sinnlosigkeit des Lebens ertragen können. (Eine alternative Deutung der
Idee der ewigen Wiederkehr ist, dass Nietzsche damit die Fähigkeit von
Zukunftsträumen erklären wollte: als Erinnerung an bereits Erlebtes. — Mein
Computer-Weltbild gibt hierfür jedoch eine bessere Erklärung.)
b) Lou Andreas-Salome (seine kurzzeitige Freundin, zu der er laut eigenen
Angaben oft sehr offen gesprochen hatte, wohingegen er laut eigenen
Andeutungen in seinen Büchern viele seiner Intentionen nicht mitgeteilt hatte)
schrieb 1894 in ihrem Buch »Friedrich Nietzsche in seinen Werken« (S. 181f):
„Hiermit stehen wir vor dem Rätsel und Geheimnis in den Lehren Nietzsches, –
vor der Frage: wie denn die Entstehung des Übermenschlichen aus dem
Unmenschlichen überhaupt möglich sei, wenn beide als unversöhnliche
Gegensätze zu denken sind. Die Beantwortung dieser Frage erinnert unwillkürlich
an ein altes moralisches Heilrezept, welches ungefähr so lautet: „Um einen Fehler
loszuwerden, gebe man ihm nach und übertreibe ihn so lange, bis er durch seine
Übertreibung und sein Übermaß abschreckend wirkt.“ Das moralische Heilrezept,
das Nietzsche für die Menschheit schrieb, weil er für sich selbst kein probateres
wußte, besitzt eine gewisse Ähnlichkeit damit. Er wollte in der Tat den Menschen
durch die Entfesselung aller wildesten Triebe in einen Zustand bringen, in dem der
egoistische Selbstgenuß durch das Übermaß und die Übertreibung zu einem
Leiden am eigenen Selbst wird. Aus der Qual eines solchen Leidens heraus sollte
dann eine grenzenlose, übermächtige Sehnsucht nach dem eigenen Gegensatz
erwachsen, – die Sehnsucht des Starken, Unmäßigen, Heftigen nach dem Zarten,
Maßvollen, Milden; die Sehnsucht der Häßlichkeit und dunklen Begierde nach der
Schönheit und lichten Reinheit, – die Sehnsucht des gequälten, von seinen wilden
Trieben besessenen Menschen nach seinem Gott. Nietzsche hielt es für möglich,
daß aus einem solchen Gemütszustand tatsächlich dessen Gegensatz durch die
Übergewalt eines Affektes hervorbrechen könne.“
c) Unmoral als Test für den Wert der Moral: Um herauszufinden, was gut und
böse, was lobens- und tadelnswert ist, müsse man sich auf den Gegenstandpunkt
stellen und dessen Folgen betrachten. Dieses Argument ist dem vorigen verwandt,
hierbei geht es aber nicht um einen psychologischen Umschlag zum guten
Charakter, sondern um die rationale Erforschung, welche Werte tatsächlich
lebensdienlich sind.
d) Unmoral als Mittel der mystischen Erkenntnis: Nietzsches Erkenntnismethode
war nicht primär die Rationalität der Philosophie, sondern Mystik, und er glaubte,
durch naturwidrige Greuel zum mystischen Erlebnis des Ur-Einen, zum
Zerbrechen des principii individuationis gelangen zu können. In seinem Buch »Die
Geburt der Tragödie« schrieb er: „daß dort, wo durch weissagende und magische
414
Kräfte der Bann von Gegenwart und Zukunft, das starre Gesetz der Individuation
und überhaupt der eigentliche Zauber der Natur gebrochen ist, eine ungeheure
Naturwidrigkeit ... als Ursache vorausgegangen sein muß; denn wie könnte man
die Natur zum Preisgeben ihrer Geheimnisse zwingen, wenn nicht dadurch, daß
man ihr siegreich widerstrebt, d. h. durch das Unnatürliche? ... Ja der Mythus
scheint uns zuraunen zu wollen, daß die Weisheit und gerade die dionysische
Weisheit ein naturwidriger Greuel sei, daß der, welcher durch sein Wissen die
Natur in den Abgrund der Vernichtung stürzt, auch an sich selbst die Auflösung
der Natur zu erfahren habe.“
(Ähnliche Gedanken sind z.B. auch in der »Morgenröte«, Punkt 45: Die sich
opfernde Menschheit als Mittel zur Erkenntnis der Wahrheit.)
Welche Nietzsche-Deutung ist die richtige? Ich neige am meisten zur vierten,
deute also Nietzsche von seinem Buch »Die Geburt der Tragödie« her (auch
aufgrund des Buches von Lou Salome). Die Argumente aus b und c mögen bei
Nietzsche auch eine Rolle gespielt haben; da man gegenüber der Geliebten oft sehr
schwatzhaft ist, wird Salome nicht ganz Unrecht haben. Möglich ist aber auch,
dass Nietzsche einfach nur seinen (unbewusst) schlechten Charakter austoben
wollte; und alles andere war nur eine Selbstrechtfertigung, modern ausgedrückt
eine Rationalisierung.
Anmerkungen zu den vier Deutungen:
Zu Deutung a) Nietzsche mag ernsthaft an darwinistische Argumente gedacht
haben (evtl. um den Lesern seine Ideen schmackhaft zu machen), an die
darwinistische Evolutionstheorie hat er aber vermutlich nicht geglaubt. Er vertrat
in Bezug auf die Außenwelt immer wieder eine psychologistische, perspektivische
Erkenntnistheorie, wonach man die objektive Wahrheit der Außenwelt gar nicht
erkennen könne. In seiner Schopenhauer-Phase und vermutlich auch später wieder
in der Zarathustra-Phase war er hauptsächlich Mystiker, was von biologischen
Theorien weit entfernt ist. In seinem Nachlass der Achtzigerjahre kann man lesen:
„Anti-Darwin. – Was mich beim Überblick über die großen Schicksale des
Menschen am meisten überrascht, ist, immer das Gegenteil vor Augen zu sehn von
dem, was heute Darwin mit seiner Schule sieht oder sehen will: die Selektion
zugunsten der Stärkeren, Besser-Weggekommenen, den Fortschritt der Gattung.
Gerade das Gegenteil greift sich mit Händen: das Durchstreichen der Glücksfälle,
die Unnützlichkeit der höher geratenen Typen, das unvermeidliche Herr-Werden
der mittleren, selbst der unter-mittleren Typen.“ Nietzsches Konzeption des
"Übermenschen" war also höchstwahrscheinlich nicht biologisch gemeint sondern
psychologisch.
Das sozialdarwinistische Argument ist heute vermutlich bei vielen Menschen
415
bewusst oder unbewusst eine starke Motivation zur egoistischen Unmoral. Aber
Darwins Theorie als Erklärung der Entstehung der biologischen Arten ist selbst
heute noch nicht wissenschaftlich nachgewiesen; die Theorie hat zu viele
empirische Schwierigkeiten (z.B. die missing links), und nur weil die Biologen
noch keine bessere Theorie gefunden haben, halten sie an der Theorie (in ihrer
heutigen Formulierung) fest und diffamieren alle ihre Gegner gern als religiöse
Fanatiker. Gegen den Glauben, hauptsächlich durch zufällige Mutationen und
Selektionen verliefe die gesamte Evolution, spricht auch Eigens Theorie der
Entstehung der biologischen Information. In dieser Theorie kommt es durch
Kooperation und Extremwertprinzipien zur Entstehung der Gene.
In der Biologie ist es heute auch üblich, den Genen Teleonomie, zielgerichtetes
Verhalten, zuzuschreiben (die egoistischen Gene, deren Ziel es sei, sich zu
verbreiten); dass das im Sinne Darwins sei, kann auch bezweifelt werden. Und
außerdem: Warum sollen dann nur Gene Teleonomie besitzen, warum nicht auch
andere Stoffe und ganze Zellen, die auf diese Weise das Erbmaterial beeinflussen?
Inwieweit die heutige Evolutionsbiologie darwinistisch ist, wäre für die analytische
Philosophie eine lohnenswerte Arbeit der Begriffsexplikation.
Zu b) Dass Menschen automatisch ins Moralische umschlagen, wenn sie lange
genug bösartig waren, ist sicherlich ein sehr naiver Glaube. Bei manchen
Menschen mag das äußerlich betrachtet so ausgesehen haben, obwohl vermutlich
in Wirklichkeit andere Gründe dafür ausschlaggebend waren (vielleicht aus
irgendeinem Grund ein Umschlag zur Religiosität). Als moralisches Heilmittel
Bösartigkeit zu empfehlen, ist bestimmt so brauchbar wie Rattengift zur
Bekämpfung der Grippe.
Zu c) Traditionen, so auch Sitten und moralische Verhaltensweisen, haben sich
über Jahrhunderte und Jahrtausende hinweg entwickelt, weil sich dieses Verhalten
(teilweise) als nützlich erwiesen hat. Das Wissen, warum ein bestimmtes Verhalten
nützlich ist, kann aber im Lauf der Zeit verlorengehen, so dass sich die Menschen
dann nur noch "aus Tradition" so verhalten. Nun kann es aber vorkommen, dass
die Umstände, weshalb das Verhalten ursprünglich nützlich war, später
verschwinden, so dass nun das traditionelle Verhalten nicht mehr nützlich ist. Aus
diesem Grund können kulturelle Verfallszeiten den positiven Nebeneffekt haben,
dass die Gesellschaft moralisches Verhalten wieder neu erlernen muss und
diejenigen Verhaltensweisen nicht mehr zur neuen Tradition werden lässt, die
nicht mehr angebracht sind. Es ist aber sicherlich so, dass bestimmte
Verhaltensweisen, insbesondere diejenigen, die im engeren Sinne als Moral
bezeichnet werden, zu allen Zeiten sinnvoll sind und nicht alle paar hundert Jahre
neu überprüft werden müssen; z.B. dass man die Mitglieder der Gesellschaft nicht
ermorden darf. Es ist eben nicht so, wie Nietzsche es gern darstellte, dass alle
416
Werte und Normen völlig gesellschaftsrelativ seien; manche Verhaltensweisen
existieren in allen Gesellschaften und immer; vermute ich mal. Nietzsche hatte
seine Ideen zu sehr übertrieben und verallgemeinert.
Zu d) Wenn man einmal hypothetisch annimmt, dass es mystische Erkenntnis
tatsächlich gibt, dann sollte man aber diesbezüglich die gesamte Literatur zur
Kenntnis nehmen. Es fällt auf, dass in religiösen Kulturen das "Opfer" eine große
Rolle spielt. Auf dieser Welt bekommt man nirgendwo etwas für umsonst, und
auch für mystische Erlebnisse muss man etwas geben; z.B. permanente
Anstrengung und Willenskraft. Wer nun wie Nietzsche von Haus aus ein
Moralfanatiker (jedenfalls auf der ihm bewussten Ebene) ist und glaubt, für
tiefgehende Erlebnisse Verbrechen begehen zu müssen, der mag – falls das ganze
nicht purer Aberglaube sein sollte – derartige Erlebnisse bekommen. Aber primär
geht es dabei wohl nicht um das Opfer, ein Verbrechen zu begehen, sondern
darum, sich anzustrengen und dafür überhaupt etwas Wertvolles zu opfern (in
vielen Religionen ist z.B. die geschlechtliche Enthaltung der Priesterkaste üblich).
Wer trotzdem Nietzsches Weg gehen will, darf sich nicht wundern, wenn er auch
so endet wie Nietzsche: im Irrenhaus. — Eine alternative Deutung zur
Opferhypothese ist, dass innere Stress- und Notzustände, Angst und Schmerz, eine
Triggerwirkung für mystische Erlebnisse haben (und Stress und Angst mögen oft
vorliegen bei verbrecherischen Aktivitäten, können aber anderweitig besser
herbeigeführt werden). In der Psychologie ist bekannt, dass Notzustände die
gesamte physiologische Reaktionsfähigkeit steigern können (z.B. kognitive
Fähigkeiten, wenn der Stress nicht zu groß ist), was biologisch sinnvoll ist, da bei
Gefahren oftmals schnell reagiert werden muss.
Insgesamt ist zu Nietzsches Moralkritik festzuhalten, dass es eine seiner vielen
Übertreibungen war, dass jegliche Moral relativ sei. Die heutigen
Sozialwissenschaften gehen, soweit ich mich dort auskenne, davon aus, dass
manche Verhaltensweisen in allen Kulturen auftreten. Zu Nietzsche lässt sich
ohnehin allgemein feststellen, dass er immer groß im Behaupten allgemeiner
Thesen war, diese aber selten systematisch erforschte. Als introspektiver
Psychologe hat er sehr viele interessante Beobachtungen und Thesen beschrieben
und ist dabei sehr inspirierend, beim logischen Denken und in der Philosophie war
er aber "nur Narr, nur Dichter", wie er es selbst in einem Gedicht so schön
andeutete. Philosophie kann man charakterisieren als den Versuch, mittels der
Vernunft die Wahrheit zu erkennen und ein gutes Leben zu führen. Nietzsche hatte
aber geradezu eine Abneigung gegen sokratisch-aristotelische Vernunft und
Wissenschaft (vermutlich weil er dazu nicht in der Lage war). Ganz im Sinne eines
religiösen Fanatikers (dem zu allem Übel auch noch sein Gott abhanden
gekommen war) kritisierte der evangelische Pastorensohn Vernunft und
Wissenschaft immer wieder und bevorzugte Affekt und Leidenschaft. Was seine
417
Erkenntnismittel betrifft, war er geradezu ein Anti-Philosoph. Die Nazis haben sich
dann sehr stark von Nietzsche und seiner Vernunftabneigung beeinflussen lassen
und haben durch das von ihnen angerichtete Unheil verdeutlicht, dass gerade
umgekehrt die Unvernunft das Überleben der Menschheit bedroht; man denke auch
an das dunkle Mittelalter im Vergleich zum römisch-hellenistischen Lebensniveau
oder an den religiösen Dreißigjährigen Krieg. Demgegenüber ist es die Vernunft
der Philosophen gewesen, die das Mittelalter beendete, über die Ausbildung der
Wissenschaften unseren Wohlstand herbeiführte und die geistigen Grundlagen der
Demokratie schuf.
3.
Vor- und Nachteile der Moral: Moralisten wird gern vorgeworfen, dass
gesellschaftliche Regeln die Freiheit des Einzelnen einengen. Regeln beschneiden
tatsächlich die Freiheit, aber ohne sie funktioniert keine Gesellschaft. Der Mensch
ist nun einmal ein Gesellschaftswesen: Allein im Urwald will niemand leben, und
allein würde man auch nicht lange überleben. Regeln beschneiden die eigene
Freiheit, aber wenn die Mitmenschen umgekehrt einem selbst gegenüber diese
Regeln ebenfalls einhalten, bekommt man dadurch viel mehr zurück, als man
selbst gibt. Man denke an all das, was man seit der Geburt von den Mitmenschen
bekommen hat: in der Familie, Schule, von Nachbarn etc. Wenn man selbst als
Säugling in die Mülltonne geworfen wäre, dann wäre das auch eine Verletzung der
Regeln gewesen; wollen das die Kritiker der Moral? Natürlich will niemand
zurück zu einem militärisch-spartanischen Lebensstil, aber heutzutage liegt das
Problem auf der anderen Seite des Extrems: zu wenig Moral. Die Kunst der
richtigen Lebensführung ist es, die Mitte einzuhalten: Zu viel und zu wenig Regeln
sind falsch. Aristoteles hatte sich in seiner Ethik dafür ausgesprochen, den
Mittelweg zwischen Extremen zu gehen; daran sollten besonders die konsequenten
Deutschen ab und zu denken. Damit eine Kultur nicht degeneriert, müssen
allerdings auch Politiker, Kirchenleute etc. gute Vorbilder sein. Wenn Minister,
Bischöfe etc. mit schlechtem Beispiel vorangehen, wird das Volk mit Sicherheit
folgen. Es reicht nicht aus, dass Bischöfe dem Volk Moral nur predigen, ohne sich
selbst daran zu halten, es reicht nicht aus, dass Politiker sich nur entschuldigen,
wenn sie bei einer Missetat ertappt worden sind, auch Richterinnen und
Staatsanwälte sollten Gesetze einhalten und sie nicht verdrehen. – Benötigt wird
wieder ein Ehre-Ethos.
418
4.
Intersubjektivität und Introspektion: Kann eine introspektive Psychologie
Wissenschaft sein? Eine Grundvoraussetzung für Wissenschaft ist die
Intersubjektivität, wie kommt es aber z.B. in der Physik zur Intersubjektivität?
Unmittelbar gegeben ist jedem, auch dem Physiker, nur seine eigene Psyche:
Angenommen ich sitze in einem Zimmer und beobachte die bunte Tapete. Um
mich herum sehe ich also ein Muster von Farben; Farben gibt es aber in der
Außenwelt nicht. In der Außenwelt gibt es nach der klassischen Physik
diesbezüglich nur elektromagnetische Wellen, die in mir Farbeindrücke auslösen.
Ich erlebe unmittelbar nur mein eigenes psychisches und farbiges
Wahrnehmungsfeld, das ich als die Außenwelt interpretiere. Beobachten nun zwei
Physiker ein Objekt und berichten dieselben Objekteigenschaften (sind also ihre
Beschreibungen intersubjektiv, d.h. objektiv), so bedeutet das, dass dieses Objekt
in beiden Physikern dieselben Erlebnisphänomene ausgelöst hat. Intersubjektivität
der Physik bedeutet somit: Man stellt eine bestimmte Reizkonstellation her, und
alle Physiker erleben im eigenen psychischen Wahrnehmungsfeld dasselbe oder
glauben das zumindest. Ob sie wirklich dasselbe erleben, lässt sich nicht beweisen,
da jeder nur die verbalen Berichte der anderen kennt; es mag Unterschiede geben,
die aber nicht verbalisiert werden und für die Theorienbildung irrelevant sind.
Genauso muss man es in der introspektiven Psychologie machen: Eine bestimmte
Reizkonstellation herstellen und dann berichten, was man in sich erlebt hat. Ein
Problem der Psychologie im Gegensatz zur Physik ist jedoch, dass sich im Laufe
von Jahrtausenden eine sehr gute Sprache für die sogenannte Außenwelt entwickelt
hat, für sogenannte psychische Phänome jedoch nicht in dem Maße. Für manche
psychischen Erlebnisphänomene wird man wohl erst noch angemessene Begriffe
entwickeln müssen. So wie sich in der Physik eine eigene Wissenschaftssprache
entwickelt hat, so sollte es auch in der Psychologie möglich sein, für introspektive
Phänome in Zukunft eine präzisere Sprache zu entwickeln. In der
Experimentalphysik werden Beobachtungen von Spezialisten ausgeführt, und
ebenso sollten in der Psychologie Spezialisten für Introspektion ausgebildet
werden.
5.
Wissenschaftskinder: Aus der Denkpsychologie ist bekannt, dass kleine Kinder
neugelernte Begriffe zunächst übergeneralisieren: Haben sie z.B. gelernt, dass ein
kleiner Vierbeiner mit Schwanz ein "Wauwau" ist, so sagen sie zunächst auch bei
Katzen "Wauwau". Einen ähnlichen Fehler hatten die Physiker gemacht: Nachdem
419
Newton für die mesokosmische Welt seine Theorien entwickelt hatte, glaubten
viele Physiker, diese Theorien würden für alle Objekte und Vorgänge gelten.
Inzwischen haben Relativitätstheorie und QM unser Differenzierungsvermögen
stark gesteigert, aber es gibt immer noch Leute, welche glauben, die QM auf
Katzen oder innerartliche Entwicklungsfaktoren (z.B. Variation und Selektion) auf
die Entstehung der Arten anwenden zu können, oder welche Menschen mit
Robotern vergleichen und Bewusstsein im Computer vermuten.
6.
Philosophische Arbeitsgebiete und Aufgaben: Bereiche behandeln, in denen die
Einzelwissenschaften (noch) keine Antworten geben; den Wissenschaften
heuristische Leitideen liefern; Analyse und Kritik der Wissenschaften; unlösbare
metaphysische Fragen in Erinnerung halten, um dadurch zu verhindern, dass die
Menschen erkenntnisbezogen überheblich werden; Erkenntnistheorie; Lebenshilfe:
"Lebensweisheit"; Sinngebung; Ethik; Gesellschafts- und Staatsphilosophie;
Ästhetik u.a.
7.
Wissenschaftliche Philosophie: In der Naturwissenschaft gelten, vereinfacht
ausgedrückt, experimentelle „Fakten“ als Argumentationsbasis für theoretische
Überlegungen. Kann es in der Philosophie eine ähnliche Argumentationsbasis
geben oder ist die Schulenbildung in der Philosophie unumgänglich? In der
Naturphilosophie sollten die allgemein akzeptierten Theorien der
Naturwissenschaft eine derartige Ausgangslage sein. In Ethik und Gesellschaftsund Staatsphilosophie könnten die Theorien von Psychologie, Soziologie,
Wirtschaftswissenschaft, Politologie etc. eine ähnliche Basis bilden, jedoch sind
die
Theorien
dieser
Wissenschaften
noch
umstrittener
als
die
naturwissenschaftlichen Theorien, da hier zum größten Teil die experimentelle
Kontrolle fehlt.
Es wäre deshalb sinnvoll, das Philosophiestudium folgendermaßen neu zu
strukturieren: Neben dem Hauptfach Philosophie sollte man etwa vier
einzelwissenschaftliche Studienelemente haben; z.B. Physik, Biologie,
Psychologie, Soziologie; oder Politologie, Ökonomie etc. In diesen
Veranstaltungen sollte den Philosophiestudenten das Basiswissen des Faches
vermittelt werden, das für die Philosophie wichtig ist (in Physik z.B.
420
Quantenmechanik, Relativitätstheorie, Thermodynamik). Wer bestimmte
Studienelemente nicht belegt hat, sollte als Ersatz für das jeweilige Fach
mindestens einen scheinpflichtigen Semesterkurs belegen, in dem ein Professor aus
der jeweiligen Fachwissenschaft alles das zusammen stellt, was er für die
Philosophie für wichtig hält (so wie Medizinstudenten auch Kurse über
Psychologie und Soziologie absolvieren müssen). Hat zum Beispiel ein(e)
Student(in) nicht das Studienelement Politikwissenschaft, so ist zumindest einmal
eine Vorlesung darüber zu belegen. Für das Doppelstudium Philosophie zusammen
mit einem vollständigen anderen Studiengang mag es Ausnahmeregelungen geben.
8.
Rationalität als Sozialphänomen: Einzelne Wissenschaftler können ebenso wie
alle anderen Menschen hin und wieder irrational und dogmatisch sein. Einsteins
permanente Kritik an der QM hatte wohl eher emotionale Gründe; viele heutige
Biologen haben eine fast religiöse Hingabe an die darwinsche Evolutionsbiologie.
Trotzdem ist die Wissenschaft im Großen und Ganzen rational, denn diese
Rationalität ist eine gesellschaftliche Systemeigenschaft: Viele Wissenschaftler
haben unterschiedliche Vorlieben, aber ihre gegenseitigen Kritiken bewirken im
Laufe der Zeit den objektiven Fortschritt der Wissenschaft.
Weil Rationalität eine soziale Systemeigenschaft ist, ist es auch nicht unbedingt
irrational, wenn ein Einzelner sich an die Mehrheitsmeinung anpasst: Die
Wahrscheinlichkeit, dass man sich selbst bei einer gegenüber der Mehrheit
abweichenden Meinung geirrt hat, mag größer sein, als dass die Mehrheit sich
irrte. Trotzdem darf man nicht sklavisch an den die Mehrheitsmeinungen repräsentierenden Autoritäten hängen; die Argumentationen jedes Wissenschaftlers sollte
man jederzeit überprüfen, soweit man dazu intellektuell in der Lage ist.
Abweichende Meinungen sind auch für die Kreativität, für den Fortschritt der
Wissenschaft unumgänglich.
9.
Kant: Kant hatte Recht damit, dass wir alles mit unseren Erkenntnisstrukturen
erkennen. Er behauptete aber zuviel damit, dass man mit subjektiven Denkstrukturen die Welt prinzipiell nicht objektiv erfassen könne. Ob man mit seinen
Denkstrukturen die Welt objektiv erkennt oder nicht, lässt sich beides nicht
beweisen. Es könnte ja sein, dass Denk- und Realstrukturen aufeinander passen;
421
die evolutionären Erkenntnistheoretiker behaupten dies, als unbeweisbare Hypothese. Wenn man die Annahme macht, dass Menschen der Natur gegenüber nicht
wie vor einem Fernseher sitzen, sondern selbst Teil der Natur sind und sich
handelnd mit ihr auseinandersetzen müssen, dann ist die Hypothese plausibel, dass
sich unsere Denkstrukturen evolutionär an die Naturstrukturen angepasst haben.
Ein weiterer Fehler Kants war, dass er annahm, alle Denkstrukturen wären
unveränderlich, wohingegen die heutige Psychologie annimmt, dass
Denkstrukturen variabel sind und sich dadurch an zuvor ununtersuchte
Realitätsbereiche anpassen können. Außerdem lag Kant mit seinem Empirismus
falsch. Er nahm an, alles Denken gründe sich nur auf dasjenige, was wir mittels der
Sinneswahrnehmung erkennen. In der Physik werden heute auch unbeobachtbare
Entitäten angenommen (z.B. Quarks oder der Äther). Mittels der Vernunft können
wir über das empirisch Wahrnehmbare hinausgehen und beispielsweise auch
nichteuklidische Räume postulieren.
Trotzdem war Kants Philosophie zu seiner Zeit ein großer Fortschritt; auch
philosophische Systeme sind eben nur solange gut, bis sie durch bessere ersetzt
werden. Hinzugefügt werden muss auch, dass man mit seinen Denkstrukturen nur
Realstrukturen, d.h. Strukturen und nicht das "Wesen" der Naturobjekte erkennt.
Wenn Kant behauptete, man erkenne das "Ding an sich" nicht, so hatte er Recht,
wenn er damit meinte, man erkenne das "Wesen" der Dinge nicht. Was man aber
genau mit "Wesen" meint, ist umstritten; intuitiv ist diese Behauptung jedoch
durchaus plausibel: Wenn ein Physiker die Bahnen von zwei Elementarteilchen in
einer Blasenkammer beobachtet, dann wird diese Struktur wohl tatsächlich einer
realen Struktur entsprechen; was aber "Elementarteilchen" sind, weiß er dadurch
noch nicht.
10.
Induktion: Ist die Methode der Naturwissenschaft die Induktion? Es kommt
darauf an, was man unter Induktion versteht. Für Aristoteles war Induktion der
Aufstieg vom Besonderen zum Allgemeinen. Die Naturwissenschaft beginnt bei
den empirischen Daten und entwickelt immer allgemeinere Theorien, und insofern
geht sie in diesem Sinne induktiv vor. Jedoch ist die Bezeichnung dieser
Vorgehensweise als Induktion inhaltlich ziemlich leer, da man nicht weiß, wie
genau die Wissenschaftler von den empirischen Daten zu ihren Theorien gelangen.
Statt Induktion könnte man es auch Kreativität oder Spekulation nennen. In der
Neuzeit, besonders seit dem Wiener Kreis, versteht man unter Induktion die
Verallgemeinerung von experimentellen Erkenntnissen. In diesem Sinne gelangt
422
man jedoch nicht zu fundamentalen wissenschaftlichen Theorien, da z.B. durch
Verallgemeinerungen keine neuen Begriffe geschaffen werden können, die oftmals
für grundlegende Theorien nötig sind. Einstein äußerte sich deshalb gegen die
Induktion.
So viel zum Entstehungszusammenhang von Theorien; darüber hinaus gibt es im
Rahmen des Begründungsproblems die Vorstellung, Theorien ließen sich induktiv
bestätigen. Damit ist gemeint, dass man in Bezug auf die Wahrheit um so sicherer
sein könne, je mehr experimentelle Vorhersagen einer Theorie bestätigt wurden.
Diesbezüglich hat dann Popper, auf Hume aufbauend, betont, dass noch so viele
empirische Bestätigungen die Wahrheit einer allgemeinen Aussage wie „Alle
Schwäne sind weiß.“ nicht beweisen können, da in der Zukunft ein einziger
gefundener Gegenbeleg die Aussage widerlegen würde. Theorien sind aber nicht
einfach allgemeine Aussagen von der Form „Alle Schwäne sind weiß.“, sondern
sehr komplexe Aussagensysteme, so dass man eine Theorie trotz negativer
empirischer Befunde retten kann, indem man mit Zusatzannahmen arbeitet.
Besonders deutlich ist das bei der Evolutionstheorie; den Evolutionsbiologen fallen
immer wieder neue Faktoren ein, um Kritiken zu begegnen.
11.
Mensch und Maschine: Folgende Frage wurde einmal in einer InternetNewsgroup gestellt: „Werden wir eines Tages Maschinen bauen können, die
kognitiv von Menschen nicht zu unterscheiden sind, oder wird das nie möglich
sein, weil z.B. der Mensch sein eigenes Gehirn nicht vollständig erkennen kann, da
dies z.B. ein logischer Zirkel wäre?“ Wir werden vermutlich nie eine Maschine
bauen können, die von einem Menschen nicht mehr zu unterscheiden ist. Dies liegt
aber an der Komplexität des Gehirns und nicht an einem logischen Zirkel. Es ist in
der Forschung nicht so, dass der Psychologe bzw. der Hirnforscher sich selbst bzw.
sein eigenes Gehirn erforscht. Wissenschaftler untersuchen das Verhalten und die
Hirnstrukturen von anderen Menschen, und mittels biologischer Argumente
(Artgleichheit aller Menschen) wird vermutet, dass dieses an anderen Menschen
Entdeckte für alle Menschen, auch für einen selbst gilt. Die
Wissenschaftlergemeinschaft (ein Subsystem der Gesellschaft) versucht, ein
kleineres Subsystem der Gesellschaft (das Gehirn) in Büchern zu beschreiben bzw.
es zu erklären; dies ist kein logischer Zirkel. Natürlich wird dies aber nie dazu
führen, dass wir uns "vollständig" erkennen. Vollständig erkennen können die
Physiker noch nicht einmal die Atome, auch wenn man beim Wasserstoffatom
schon sehr weit ist. Warum gilt z.B. das Pauli-Prinzip? Und unser Bewusstsein und
unser Gehirn sind wesentlich komplizierter als Atome und Moleküle, bereiten also
423
noch größere Erkenntnisschwierigkeiten. In der Wissenschaft geht es aber auch nie
darum, alles völlig zu erkennen, sondern nur die wesentlichen Prinzipien. Was ist
am Gehirn das Wesentliche? Wenn man diese Frage einmal wird beantworten
können, dann wird man vielleicht eines Tages Maschinen bauen können, die so
ähnlich sind wie wir. Vielleicht wird man dies aus praktischen Gründen nie
können; die Nanotechnik macht zur Zeit jedoch gute Fortschritte. Trotzdem ist es
müßig, sich heute schon Gedanken zu machen über ethische Probleme im Umgang
mit diesen Maschinen. Sollte man aber das Leib-Seele Problem eines Tages lösen
und dann auf der Grundlage einer derartigen Theorie Maschinen mit Bewusstsein
bauen können, dann stände man allerdings bei ihnen denselben ethischen
Problemen gegenüber wie heute bereits bei denjenigen höherentwickelten Tieren,
die vermutlich Bewusstsein haben.
12.
Innerer Zerfall von Staaten: In Umbruchzeiten der Kultur bzw. Moral tritt
vermutlich immer eine allgemeine Konfusion auf. Da es dann keine
allgemeingültigen Normen in der Gesellschaft mehr gibt, entsteht unmoralisches,
egoistisches Verhalten; ohne allgemein verbindliche Richtlinien tut jeder, was er
will. Es kommt dann zu einem kulturellen Niedergang, der die ganze Gesellschaft
vernichten kann. Manche Wissenschaftler vermuten, dass so das antike Rom
zugrunde ging, als sich in der römischen Gesellschaft innerhalb der heidnischen
Moral die christliche Moral entwickelte. Einen ähnlichen kulturellen und
gesellschaftlichen Verfall der westlichen Gesellschaften hat vielleicht die
Ausbreitung der heutigen Multikultur zur Folge. Da es keine allgemeingültigen
Normen mehr gibt, verhält sich jeder, wie er will, wodurch die gesamte Kultur mit
der Zeit degeneriert. Aus diesem Grund muss man entweder dafür sorgen, dass
Leute aus fremden Kulturen in ihrer Kultur bleiben oder dass diese in die
Gastkultur integriert werden; demgegenüber führt eine Ausgrenzung der
eingewanderten Personen innerhalb des Gastlandes zu einer gefährlichen
Fragmentierung ("Multikultur") der Gastgesellschaft. Die Beschränkung der
Immigration ist deshalb keine Ausländerfeindlichkeit, sondern ab einer größeren
Einwanderungsmenge eine staatserhaltende Notwendigkeit; den Ausländern kann
man aber helfen, indem man ihnen dabei hilft, bei ihnen zu Haus bessere
Lebensumstände herbei zu führen.
424
13.
Emergenz von Bewusstsein: Bevor Maxwell seine elektromagnetische Theorie
entwickelt hatte, galten Magnetismus und Elektrizität als zwei verschiedene
Phänomene. Seit seiner Elektrodynamik ist der Elektromagnetismus ein einziges
Phänomen mit zwei verschiedenen Seiten: Könnte es mit Leib und Seele ähnlich
sein?
Bewegte elektrische Ladung erzeugt ein Magnetfeld – eine bestimmte Hirnstruktur
erzeugt Bewusstsein? Betrachtet man das Phänomen des Elektromagnetismus
genauer, so ergibt sich folgendes Bild: Bewegen sich viele Elektronen in einem
Leiter in dieselbe Richtung, so entsteht außerhalb des Leiters ein Magnetfeld; der
Magnetismus existierte aber bereits vor der gleichsinnigen Bewegung aller
Elektronen, denn jedes einzelne Elektron hat jederzeit ein magnetisches Feld, nur
heben sich diese bei einer chaotischen Bewegung aller Elektronen nach außen hin
gegenseitig auf. Die Entstehung von Magnetismus bei der gleichsinnigen
Bewegung ist also nur eine epistemische Emergenz (wir bemerken den
Magnetismus dann erst) und keine ontologische. Könnte es derartiges auch beim
Gehirn geben: Es gibt jederzeit Bewusstsein, aber erst bei einer geordneten
Hirnstruktur wird es sichtbar? Ist die ontologische Emergenz von völlig neuen
Eigenschaft überhaupt möglich (wäre das nicht creatio ex nihilo?) oder kann alles
nur epistemische Emergenz sein? Aber wenn man morgens aus dem Schlaf
erwacht oder aus der Ohnmacht kommt, dann war man vor diesem Erwachen ohne
Bewusstsein, es entsteht beim Erwachen etwas Neues; die Empirie scheint also für
die Entstehung neuer Eigenschaften zu sprechen, auch wenn man das kaum
begreifen kann.
Diese (heutige) Unbegreiflichkeit dieses Phänomens ist aber kein Argument gegen
den Materialisten bzw. Monisten, denn dasselbe Problem hat auch der Dualist: Wie
kann die Seele von einem unbewussten zum bewussten Zustand übergehen? Ein
zweites Substrat, eine kartesianische Seele zu postulieren, löst kein Problem und
schafft nur neue. Das intuitive Argument des Dualisten gegen den Materialisten
(„So etwas Großartiges wie Bewusstsein aus der schnöden Materie zu erschaffen
ist völlig unmöglich!“) wirkt nur überzeugend, wenn man eine naive
Materieauffassung hat (Materie als kleine Schrotkügelchen). In Wirklichkeit
wissen wir ja gar nicht, was Materie ist. Stegmüller sprach vom Treppenwitz des
20. Jahrhunderts: Die materialistische Denkweise hat sich immer mehr
durchgesetzt, der Begriff der Materie wurde aber immer unklarer.
425
14.
Popper: Welchen erkenntnistheoretisch-methodologischen Status hat Poppers
Kritischer Rationalismus (KR)? Wenn Theorien nicht beweisbar sind und nur
falsifizierbar, gilt das dann nicht auch für die Theorie des KR? Wenn der KR
falsch sein könnte, könnten dann Theorien nicht doch beweisbar sein? Popper hat
darauf einmal geantwortet, der KR sei keine Theorie, sondern gäbe nur
methodologische Ratschläge („Versuche, Theorien zu widerlegen!“, was
Experimentatoren aber auch schon vor Popper taten). Wäre aber der KR nur eine
Methodologie, dann könnten Theorien ja vielleicht doch beweisbar sein, und wäre
es dann nicht heuristisch gut, die Empfehlung aufzustellen „Versuche, Theorien zu
beweisen!“? Falls das wirklich möglich sein sollte, wird man es nur erreichen,
wenn man es zumindest versucht. Später wurde von Popper zugestanden, dass
Theorien streng genommen gar nicht falsifizierbar sind, da sie bei negativen
experimentellen Befunden durch Zusatzannahmen gerettet werden können. Was
sagt dann aber der KR noch Neues gegenüber denjenigen Erkenntnistheoretikern,
die schon immer bestritten haben, dass die Wahrheit bewiesen werden könne, ohne
dass es ihnen gelang, die Falschheit zu beweisen?
In der Forschungspraxis der Wissenschaften ist es heutzutage so, dass eine Theorie
auch bei negativen Befunden erst dann abgelehnt wird, wenn es eine andere gibt,
die die Wissenschaftler für besser halten; besser in Hinsicht von mehr Voraussagen
und einer besseren praktischen Anwendbarkeit. Dabei vermutet man dann, dass die
neue Theorie deshalb besser anwendbar sei und mehr Voraussagen gestatte, weil
sie eine bessere Annäherung an die Wahrheit sei.
15.
Menschenrechte: Über Menschenrechte reden Politiker nur, wenn es um die
Schandtaten ihrer Gegner geht.
16.
Mathematik des Unendlichen: Teilt man Eins durch Zwei, erhält man Einhalb.
Teilt man Eins durch Eins, erhält man Eins. Teilt man Eins durch Einhalb, erhält
man Zwei. Teilt man Eins durch Eindrittel, erhält man Drei. Also: Je kleiner der
Nenner, desto größer der Bruch. Nähert man den Nenner immer mehr der Null, so
nähert sich der Bruch immer mehr Unendlich. Anders sieht es aus, wenn der
426
Nenner negativ ist: Eins geteilt durch minus Zwei macht minus Einhalb. Eins
durch minus Eins macht minus Eins. Eins durch minus Einhalb macht minus Zwei.
Eins durch minus Eindrittel macht minus Drei. Nähert man sich auf diese Weise
immer mehr Null, so nähert sich der Bruch immer mehr minus Unendlich. Fazit:
Wenn man sich von der positiven Seite im Nenner Null nähert, nähert sich der
ganze Term plus Unendlich; nähert man sich im Nenner von der negativen Seite
Null, erhält man minus Unendlich. Lässt man in beiden Fällen im Grenzwert den
Nenner Null werden, so steht in beiden Fällen im Nenner Null, in einem Fall sollte
jedoch der Bruch im Grenzwert plus Unendlich sein, im anderen Fall negativ
Unendlich: Sind also plus Unendlich und negativ Unendlich miteinander identisch
(da plus Null gleich minus Null ist)? Nikolaus von Kues glaubte, dass im
Unendlichen alle Gegensätze zusammenfallen. Die Allgemeine Relativitätstheorie
(Gravitationstheorie) wird manchmal so gedeutet, dass man, wenn man immer
weiter geradeaus in eine Richtung fliegt, irgendwann aus der anderen Richtung
wieder zurück kommt.
Beim Beweis der Aussage, dass plus Unendlich gleich minus Unendlich sei, wurde
die Annahme gemacht, dass die Welt ein Kontinuum sei – dass es ganz ganz kleine
Intervalle gäbe, die man im Grenzwert als Null betrachten kann. Geht man jedoch
von der Vermutung einiger Physiker aus, dass die Raumzeit kein Kontinuum sei,
sondern aus kleinsten Längen bestehe, die nicht unterschritten werden können,
dann kommt man nicht zu diesem paradoxen Urteil. Betrachtet man die Aussage,
plus Unendlich sei gleich minus Unendlich, als einen Widerspruch, den es zu
vermeiden gilt, dann ist diese Aussage ein weiteres Argument für die Diskretheit
der Raumzeit. Aber wenn die Welt aus kleinsten diskreten Einheiten besteht, wieso
bildet sie dann eine Einheit und zerfällt nicht?
Geht man davon aus, dass das Problem mit der positiven und negativen
Unendlichkeit durch die Einführung der diskreten Raumzeit vermieden wird, so
kann man daraus eine allgemeine Erkenntnis gewinnen: Treten innerhalb eines
Begriffsystems Paradoxien auf, so kann das daher kommen, dass ein oder mehrere
Begriffe nicht ganz adäquat sind (im Beispiel mit den Unendlichkeiten der
Kontinuumsbegriff). Analog könnte auch das Problem der Willensfreiheit
(subjektives Freiheits- und moralisches Verantwortungsgefühl versus deterministische Naturgesetze) an der Inadäquatheit unserer Begriffe liegen. In diese Richtung
könnte auch die Quantenmechanik weisen: Obwohl die Elementarteilchen der
deterministischen Schrödingergleichung gehorchen, kann man für die Messwerte
nur Wahrscheinlichkeitsvorhersagen machen. Vielleicht sind beide Grundbegriffe
des Freiheitsproblems (Determinismus und Willens- oder Handlungsfreiheit)
inadäquat. Statt völlig frei eine Handlung bestimmen zu können, haben wir
vielleicht nur die Wahl zwischen bestimmten Alternativen: Wahlfreiheit (und auch
dieser Begriff ist nicht ganz befriedigend).
427
17.
Zeitalter der Verwissenschaftlichung: Wissenschaft und Philosophie haben nach
dem Mittelalter in drei Perioden einen großen Schub erhalten: In der Renaissance
fand die Wiedergeburt der griechisch-römischen Philosophie statt; in der
Aufklärung verbreitete sich schwunghaft eigenständiges philosophisches und
wissenschaftliches Denken in ganz Europa; und im heutigen Zeitalter der
Verwissenschaftlichung werden alle Lebensbereiche der wissenschaftlichen
Untersuchung unterzogen, und selbst Politiker bemühen sich heute um den Rat
wissenschaftlicher Experten.
18.
Philosophie sei Dank!: Die Philosophen haben in der Renaissance das dunkle
Mittelalter beendet und dadurch im Lauf der Jahrhunderte die Lebensverhältnisse
drastisch verbessert: Aus der Philosophie sind die einzelnen Wissenschaften
entstanden, und die technischen Anwendungen von deren Erkenntnissen haben
unseren Wohlstand und unsere Medizin herbeigeführt. Die Philosophie hat die
geistigen Grundlagen der Demokratie geschaffen und uns so mit Hilfe vieler
mutiger Menschen von Fürsten, Königen und Kaisern befreit. Die Philosophie hat
die Menschen von einer unmenschlichen Moral befreit, die uns immer nur aufs
Jenseits vertröstete und von uns verlangte, permanent im Büßerhemdchen zu
gehen.
19.
Begriffsexplikation: Manche analytische Philosophen glauben, eine ihrer
Aufgaben sei es, wissenschaftliche Begriffe zu definieren, und die Wissenschaftler
müssten sich dann daran halten. Tatsächlich werden in vielen
Wissenschaftsdisziplinen die Grundbegriffe sehr schwammig benutzt, und eine
Begriffsexplikation von Seiten der Philosophie kann sehr nützlich sein. Man darf
aber den
Exaktheitsfanatismus mancher Philosophen nicht übertreiben: Gerade
zu Beginn eines Forschungsprogrammes ist es sinnvoll, die Grundbegriffe nicht zu
sehr festzulegen, weil ja die empirisch-theoretische Forschung erst noch
herausfinden soll, um was für ein Phänomen es sich handelt. Hätte sich Einstein an
428
philosophische Begriffsexplikationen von Begriffen wie Raum und Zeit gehalten,
wäre er nie zu seinen Raumzeittheorien gekommen, da hier die Grundbegriffe,
entgegen den Erwartungen vieler seiner zeitgenössischen Philosophen,
nichteuklidisch sind. Entsprechendes Offenhalten der Grundbegriffe ist sicherlich
auch beim Leib-Seele Problem nützlich. In einer Internet-Newsgroup hatte mir
gegenüber einmal ein (Hobby-) Philosoph vorgeworfen, die Psychologie wäre ja
noch nicht einmal in der Lage, Bewusstsein zu definieren. Er selbst oder einige
seiner Freunde definierten Bewusstsein über die "kausale Rolle" des Bewusstseins:
Wat`n Quatsch, werden viele Psychologen unter den Lesern gedacht haben,
besonders die introspektiven! Was vielen Philosophen nicht klar ist, ist, dass auch
Begriffsexplikationen Theorien zugrunde liegen (im vorigen Beispiel z.B. der
Funktionalismus), und dass die Adäquatheit von Theorien empirisch überprüft
werden muss. Philosophen können also nur Vorschläge für Explikationen machen,
deren Nützlichkeit muss dann die Wissenschaft zeigen. Andererseits ist es
besonders bei sehr alten Theorien sicherlich angebracht, das Begriffssystem einmal
sorgfältig zu untersuchen; z.B. bei der Evolutionstheorie.
20.
Logik der psychologischen Forschung: Wenn die Psychologie die menschliche
Vernunft erklären will, so liegt hierbei kein logischer Zirkel vor: Der Psychologe
untersucht nicht introspektiv seine eigene Vernunft; er beugt sich nicht introspektiv
über sich selbst, sondern erforscht das Denkvermögen seiner Mitmenschen. Seine
Versuchsperson ist für ihn ein äußeres Objekt, das man wie alle Objekte
naturwissenschaftlich untersuchen kann. In einem zweiten Schritt kann dann der
Psychologe seine Untersuchungsergebnisse auch auf sich selbst generalisieren mit
dem biologischen Argument, dass die grundlegenden Denkvorgänge genetisch
bedingt sind und somit für alle Menschen, auch für ihn selbst, gelten. Wenn der
Psychologe seine eigenen Denkvorgänge doch einmal introspektiv untersucht,
dann hat dies den heuristischen Wert der Stimulierung von Ideen, die er später
objektiv an Versuchspersonen weiter untersucht.
21.
Religion: Von manchen wird behauptet, im Gegensatz zu Asien hätte Europa
keine Religion hervorgebracht. Was aber ist "Religion"? Es gibt Religionen ohne
den Gottesbegriff. Ist Religion das Zusammenleben in einer Werte- und
Normengemeinschaft, verbunden mit einem bestimmten Glauben über Herkunft
429
und Struktur von Welt und Mensch? Außerirdische Ethnologen, die Europa
beobachteten, würden vermutlich feststellen, dass die Europäer einen primär
naturwissenschaftlichen Glauben haben und ein Werte- und Normensystem
befolgen, das teilweise philosophischen Ursprungs ist (Liberalismus, soziale
Sicherung und Demokratie), teilweise aus einer älteren (christlichen) Religion
stammt, die seit ein paar Jahrhunderten langsam, aber kontinuierlich verdrängt
wird.
Das Selbstverständnis der Naturwissenschaft war lange Zeit, dass Religion nur auf
unbeweisbarem Glauben beruhe, die wissenschaftlichen Theorien hingegen
beweisbar seien durch Induktion. Mit diesem absoluten Vertrauen in
wissenschaftliche Theorien ist es schon seit einiger Zeit vorbei, Wissenschaftler
sind aber trotzdem fest davon überzeugt, dass ihre Theorien sehr glaubwürdig
seien – das haben aber zu allen Zeiten die Vertreter aller Religionen geglaubt.
Philosophisch-erkenntnistheoretische Argumente können meiner Meinung nach
tatsächlich plausibel machen, dass unsere wissenschaftliche Weltsicht besser
begründet ist als die aller (anderen) Religionen: Haben wir also nur die bessere
(naturwissenschaftliche) Religion? Zumindest ist diese "Religion" international,
und niemand wird ermordet, der nicht daran glaubt (oder ist der plötzliche Tod
mancher Kritiker der Relativitätstheorie ein Gegenbeispiel?). In jeder Religion
wird jedoch etwas verehrt, was als etwas Höherstehendes empfunden wird – z.B.
Buddha oder das Tao –; dies fehlt in den Wissenschaften, wäre jedoch zukünftig in
Form der Verehrung des Weltgeistes in einer wissenschaftlich orientierten
Philosophie möglich.
22.
Parapsychologie: Telepathie: Chauvet nimmt in seiner Theorie der biologischen
Dynamik an, dass biologische Felder hierarchisch geschichtet sind und dass es
durch derartige Felder zu nichtlokalen Interaktionen kommt: Das Gehirn
beschreibt er beispielsweise als ein Feld von Synapsen, darüber gelagert ist das
Feld von Neuronen, und Neuronen interagieren nichtlokal miteinander, weil im
Neuronenfeld die einzelnen Neuronen kontinuierlich beieinander liegen, also ohne
räumliche Trennung. Chauvet äußerte auch die Vermutung, dass man diese
geschichtete Felddynamik auf die Gesellschaft übertragen könne. Nimmt man
diese Vermutung ernst, wäre ein Feld zu beschreiben, in dem die Gehirne aller
Personen ohne Zwischenraum kontinuierlich beieinander liegen, und zwischen
diesen Gehirnen könnte es nichtlokale Informationstransfers geben. (Ob allerdings
Chauvets Vorstellungen von nichtlokalen Wechselwirkungen tatsächlich im Sinne
der QM sind, erscheint mir manchmal zweifelhaft. Die quantenmechanische EPR430
Korrelation könnte jedoch in Zukunft bei einer physikalischen Erklärung von
Telepathie eine Rolle spielen).
Präkognition: Von manchen Interpreten wird die Allgemeine Relativitätstheorie so
gedeutet, dass nach dieser Theorie das gesamte Werden von der Vergangenheit bis
in die Zukunft als ein einziger Raumzeitblock existieren würde. – Wenn die
Zukunft in den Feldgleichungen tatsächlich schon vorgegeben sein sollte, wie
könnte man über zukünftige Ereignisse Informationen erhalten? Anwendungen der
Gleichungen in der Kosmologie ergeben Zeitschleifen bei rotierenden Massen.
Wie sehen aber die Lösungen der Feldgleichungen für Vorgänge im Gehirn aus –
gibt es auch hier Zeitschleifen? Im Gehirn durchläuft die Information unzählig
viele Kreise; das ist natürlich nicht dasselbe wie Rotationen von schweren Massen,
aber die Physik ist auf biologischem Gebiet ohnehin noch sehr unvollständig, und
die Anwendung von Einsteins Feldgleichungen auf das Gehirn könnte noch manch
eine Überraschung bringen. Sollte es Präkognition tatsächlich geben, läge die
Vermutung von Zeitschleifen im Gehirn nahe. Aber wird es jemals einen genialen
Mathematiker geben, der Einsteins Feldgleichungen für das Gehirn lösen kann?
Experimente: Sollten parapsychologische Phänomene soziale Emergenzphänomene sein, dann müsste man bei experimentellen Untersuchungen mit sozialen
Situationen arbeiten: Gruppen, Verwandte, emotional Verbundene, bei Experimenten mit Tieren Arten mit sogenannter Staatenbildung.
An die Vorsehung geglaubt hat die Philosophie der Stoa: Seneca, Cicero etc.
23.
Religiöse Kriminalität: Das stärkste psychologische Argument gegen die
Existenz des jüdisch-christlichen Gottes ist die Kriminalität der Kirchen: Wer auf
systematische Weise elementare Anweisungen der 10 Gebote bricht, demonstriert
dadurch, dass er selbst an diese Lehre nicht mehr glaubt – und wenn selbst die
Kirchenleitung nicht mehr dran glaubt ...
24.
Mängel der Wissenschaft: 1. Theorien sind nur Idealisierungen. Kleine Abweichungen der Realität von spezialisierten Theorien könnten aber im
Gesamtzusammenhang der Natur von Bedeutung sein. 2. Für denselben Anwen431
dungsbereich gibt es manchmal mehrere mathematische Formalismen, z.B. in der
klassischen Physik und in der QM, so dass nur die Gemeinsamkeiten dieser
verschiedenen Formalismen realistisch deutbar sind. 3. Mathematische Strukturen
werden üblicherweise normalsprachlich gedeutet, obwohl diese Sprache zumeist
aus der mesokosmischen Lebenswelt stammt, die auf andere Bereiche vielleicht
gar nicht anwendbar ist. 4. Theorien aus Laboruntersuchungen sind vielleicht nicht
einfach auf die Welt außerhalb des Labors übertragbar, da die Natur insgesamt
vielleicht eine höhere Systemebene mit emergenten Systemeigenschaften ist: Das
Leben lehrt uns manchmal Dinge, die man von der Laborwissenschaft nicht zu
hören bekommt – aber was ist davon nur Täuschung?
5. Wissenschaftliche
Phänomene sollten replizierbar sein, nichtlineare Phänomene sind aber schlecht
replizierbar und werden deshalb vielleicht teilweise von der Wissenschaft ignoriert
(Selektionseffekt). Wegen Punkt 4 und 5 gibt es auch Felduntersuchungen, hierbei
ist es aber schwer, kausale Zusammenhänge zu entdecken.
Trotz allem ist die Wissenschaft das Beste, was wir als Erkenntnismittel (zur Zeit)
haben!
25.
Indeterminismus: Solange die Reduktion der Wellenfunktion nicht physikalisch
erklärt ist, ist auch die Behauptung des Indeterminismus der QM nur spekulative
Metaphysik. Die zeitliche Entwicklung der Wellenfunktion vor der Reduktion ist
deterministisch, aber trotzdem haben wiederholte Beobachtungen einen
Zufallscharakter. – Eine zukünftige Erklärung der Reduktion wird vielleicht auch
den Zufallscharakter der Theorie eliminieren.
26.
Philosophie-Definitionen: Philosophie ist im Lauf der Geschichte auf vielerlei
Weise definiert worden. Eine mögliche Definition ist: Philosophie ist das
vernunftgeleitete Streben nach Wissen: Globales Wissen u.a. über die Art und
Geltung unserer Erkenntnis (Erkenntnistheorie), über die Natur von Mensch und
Welt (Naturphilosophie und Ontologie, falls man glaubt, das gesamte Sein sei
mehr als die materielle Welt), über die höchsten Ziele unserer Handlungen und die
Weise ihrer Erreichung (Ethik, Staats- und Gesellschaftsphilosophie). Mit
"vernunftgeleitet" ist Folgendes gemeint: Während die Wissenschaft zur Erlangung
von Wissen vorzugsweise empirisch arbeitet, bevorzugen die Philosophen die
432
Vernunft. Jede der beiden Disziplinen benutzt zwar auch die Methode der anderen,
sie haben aber verschiedene und sich ergänzende Schwerpunkte. Außerdem
konzentriert sich die Naturphilosophie auf die globalen Züge der Natur, die
Einzelwissenschaften hingegen auf die Details.
Eine andere Definition ist: Philosophie ist das Streben nach sittlicher
Vollkommenheit; dazu nötig ist ein Wissen über die höchsten Ziele und die
Einübung der dahinführenden Handlungen; dazu ist wiederum nötig ein Wissen
über die Natur von Mensch und Welt, dazu wiederum ist nötig ein Wissen über
Natur und Geltung unserer Erkenntnis.
Die erste Definition ist eher im Sinne der alten Griechen (Betonung auf Theorie),
die zweite eher im Sinne der alten Römer (z.B. der Stoa: Betonung auf die
Lebensführung). Viele der alten Römer und der alten Griechen glaubten, dass die
höchsten Ziele durch die Natur vorgegeben seien, dass man sie also erkennen, ein
Wissen von ihnen erreichen könne. Heutzutage ist das in der Philosophie eine sehr
streitbare Behauptung; viele Menschen glauben, dass wir uns unsere Ziele frei
setzen können. Auch glauben heute nur wenige an so etwas wie "sittlicher
Vollkommenheit". Beide Definitionen kann man aber zu der folgenden modernen
Philosophieauffassung synthetisieren:
Philosophie ist das vernunftgeleitete Streben nach Wissen und dessen Anwendung
zur Anleitung einer guten Lebensführung: Sie erstrebt ein globales Wissen u.a.
über die Art und Geltung unserer Erkenntnis (Erkenntnistheorie) und über die
Natur von Mensch und Welt (Naturphilosophie) und macht darauf aufbauend
Vorschläge über die höchsten Ziele unserer Handlungen und über die Weise ihrer
Erreichung (Ethik, Staats- und Gesellschaftsphilosophie).
27.
Richtung der Zeit: Die Entropie wird von manchen Physikern für die Definition
der Zeitrichtung benutzt. Das Gesetz von der Zunahme der Entropie im Lauf der
Zeit setzt aber bereits Zeit voraus. Und wenn in einem System die Entropie
abnimmt, läuft dann dort die Zeit rückwärts oder gilt dort das Entropiegesetz
nicht?
433
28.
Objektivität: Wer die Objektivität unserer Erkenntnisse generell leugnet (die
Konstruktivisten?), muss dafür entweder objektiv gültige Argumente anführen und
sich somit selbst widersprechen, oder er benutzt nicht objektive Argumente und
überzeugt somit niemanden. – Manchmal streiten sich Philosophen nur über
Worte: Was meint wer mit Objektivität?
29.
Cortexfunktionen: Seit langer Zeit wird in der Hirnforschung angenommen, die
Hirnrinde des Vorderhirns sei der Sitz der höheren Denkfunktionen und des
Bewusstseins. Demgegenüber ist meine Hypothese, dass die Hirnrinde vor allem
die Funktion des Fine-Tunings hat: auf sensorischem Gebiet detaillierte
Kategorisierungen durchzuführen und auf motorischem Gebiet feine muskuläre
Aktivitäten zu steuern.
30.
Imaginäre Realität: In der theoretischen Physik spielen komplexe Zahlen (Zahlen
mit Real- und Imaginäranteil: z = a + i b, mit i = Wurzel aus -1 bzw. i zum Quadrat
= -1) eine überragende Rolle. Trotzdem gilt in der Physik das Postulat, dass nur der
Realteil physikalische Bedeutung besitzt, d.h. beobachtbar ist. Warum kommt dann
aber die theoretische Physik nicht ohne komplexe Zahlen aus? Vielleicht entspricht
dem Imaginäranteil doch etwas in der Realität, und es gibt dafür nur noch keine
Messgeräte, weil es dafür noch keine explizite Theorie gibt. (Mit imaginär ist nicht
gemeint, dass dieser Realitätsbereich nur eingebildet, sondern dass er nicht der
herkömmliche, beobachtbare Anteil ist.) Manche Physiker vermuten, dass die Zeit
imaginär sei, und Burkhard Heims Theorie enthält zusätzliche imaginäre
Raumdimensionen, die für uns unbeobachtbar sind.
Vielleicht spielen imaginäre Prozesse auch eine Rolle beim quantenmechanischen
Messprozess.
Sollte das Bewusstsein durch imaginäre Zahlen beschreibbar sein, dann wäre das
ein Grund, weshalb das Bewusstsein im Gehirn nicht direkt physikalisch
beobachtet werden kann, denn nach der heutigen Physik sind nur die Realanteile
der komplexen Zahlen beobachtbar.
434
31.
Kulturelle Epochen: Kulturelle Epochen zeichnen sich durch ihre obersten Werte
bzw. Ziele aus. Im Mittelalter war es die Hingabe an Gott, heute das Geld. Das
Zeitalter des Kapitalismus und sein umweltzerstörender Einfluss werden erst zu
Ende gehen, wenn es ein neues oberstes Ziel gibt; z.B. Kunst, Wissenschaft und
Moral: das Edle als Sozialprestige. Vielleicht wird man eines Tages für Reichtum
arbeitende Menschen als primitive Kuriositäten verachten und in der Öffentlichkeit
meiden; für den materiellen Wohlstand der Gesellschaft zu sorgen, muss aber
immer Pflicht bleiben.
32.
Kooperationsprinzip: Die Evolutionsbiologen haben erkannt, dass es bei Tieren
Kooperation gibt, und sie erklären, dass sich dies entwickelt habe, weil es einen
Selektionsvorteil bietet. Nun mussten aber aus der homogenen oder chaotischen
Elementarteilchenansammlung nach dem Urknall erst einmal Tiere entstehen, die
dann Selektionsverhalten zeigen konnten; die Elementarteilchen mussten sich
zusammenlagern und kooperieren, um Tiere zu ermöglichen: Das
Kooperationsprinzip war also früher da als das Selektionsprinzip. – Diese Prioritätenfrage (Kooperation oder Selektion?) ist ein Kriterium für oder wider Darwins
Theorienansatz.
33.
Mystik: Mystik ist die Methode der Produktion von inneren Erlebnissen mit
(scheinbar) weltanschaulicher Bedeutung (Einheitserlebnisse etc.). Aber so wie die
Empiristen falsch mit ihrer Behauptung lagen, dass alle Erkenntnisse auf Sinneswahrnehmungen zurückführbar seien, so mögen auch Mystiker falsch liegen mit
ihrem Glauben, ihre Erlebnisse seien die direkte Schau der Wahrheit. So wie
empirische Daten ohne theoretischen Hintergrund keine glaubwürdigen Aussagen
über die Natur bieten, so sind auch mystische Erlebnisse ohne Theorie und Test
zweifelhaft. Sinnestäuschungen werden als Täuschungen erkannt, weil sie selten
sind und im Widerspruch zu den alltäglichen Wahrnehmungen stehen; mystische
Einheitsgefühle und außerkörperliche Erfahrungen sind auch selten und stehen im
435
Widerspruch zu alltäglichen Erfahrungen. Warum vertrauen Mystiker trotzdem
ihren Erfahrungen? Warum haben manche Menschen eine Freude daran,
Ungewöhnliches zu glauben – ist alles nur Psychologie? Eine Antwort darauf wird
die Wissenschaft nur finden, wenn sie sich auf die mystische Methode einlässt und
deren Resultate prüft.
34.
Kriminellen-Psychologie: Wollen kriminelle Organisationen sich bei jemandem
einschmeicheln, um ihn auszuhorchen, einzufangen etc., dann benutzen sie oft das
Prinzip Ähnlichkeit: Sie kleiden sich so ähnlich wie das Opfer (gleiche Lederjacke,
Weste o.ä.), haben evtl. denselben Haarschnitt, verhalten sich ähnlich, haben
ähnliche Interessen, Schwächen usw. Wenn also plötzlich besonders viele Leute
um einen herum auftauchen, die so ähnlich sind wie man selbst, kann man ahnen,
was für Leute das sind.
Eine andere Methode wird angewandt, wenn Kriminelle jemanden dazu bringen
wollen, eine bestimmte Handlung auszuführen. In diesem Fall gibt es um die
Person herum immer wieder Leute, die genau diese Handlung ausführen (etwa eine
betimmte Veranstaltung besuchen oder laut die Treppe herunter laufen, um ihn
zum Ausgehen zu bewegen); man macht es ihm sozusagen vor.
Will man der zu beeinflussenden Person bestimmte Informationen unterschieben,
dann ist auch eine beliebte Methode, dass sich beispielsweise auf dem Flur zwei
Personen unterhalten, und wenn die zu beeinflussende Person vorbeigeht, erzählt
die eine der anderen, was die vorbeigehende hören soll.
Unterstützt ein Politiker die Unterdrückung von Wissenschaftlern, Autoren oder
allgemein gesagt von Intellektuellen, so veröffentlicht er selbst gern Bücher
(geschrieben u.U. von Ghoswritern), um den Eindruck zu erwecken, dass er nicht
gegen intelligente Menschen sei, da er ja selbst dazu gehöre und selbst Bücher
publiziere.
Heutzutage ist die Technik schon so weit entwickelt, dass man Menschen heimlich
bestrahlen kann, selbst in ihren Wohnungen, um dadurch Herz-, Gelenk- oder
irgendwelche anderen Beschwerden hervorzurufen, wobei gern solche Organe
bestrahlt werden, an denen man schon einmal erkrankt war, damit man die
Ursachen der Schmerzen falsch deutet. Auch stellen kriminelle Ärzte absichtlich
falsche Diagnosen, um die Patienten permanent zur Medikation und zum
436
Arztbesuch zu zwingen. Deutet der Patient an, dass er der Diagnose nicht vertraue,
so wird er heimlich bestrahlt, um dadurch die entsprechenden Symptome zu
bewirken. Außerdem werden dann Fachärzte hinzugerufen, welche zur selben
kriminellen Organisation gehören und welche weitere entsprechende
Krankheitssymptome entdecken – d.h., es wird die „Flucht nach vorn“ angetreten,
wenn der „Patient“ Verdacht schöpft. Auch werden in den schriftlichen
Untersuchungsberichten für andere Ärzte manchmal Krankheiten erwähnt, die in
der Untersuchung mündlich überhaupt nicht erwähnt worden sind, wie es mir
beispielsweise ergangen ist hinsichtlich Krankheiten, die mir unsere Tyrannen
schon seit Jahren unterschieben wollten.
Es kommt auch vor, dass die Ärzte nichts diagnostizieren, wenn ein Organ
wirklich erkrankt ist; insbesondere wenn dies durch heimliche Bestrahlungen oder
Vergiftungen hervorgerufen wurde. Wird heimlich das Herz bestrahlt, so
diagnostizieren kriminelle Ärzte gern hohe Blutfettwerte; denn kommt es
versehentlich zum Herzinfarkt, können hierfür die Fettwerte verantwortlich
gemacht werden.
Herunterladen