JGW-SchülerAkademie Papenburg 2011

Werbung
JGW-SchülerAkademie
Papenburg 2011
Jugendbildung in Gesellschaft und Wissenschaft e. V.
Mit freundlicher Unterstützung von der Bildung & Begabung gemeinnützigen GmbH,
Bonn.
JGW e. V. bedankt sich herzlich bei den Förderern, von denen die Durchführung der
JGW-SchülerAkademie Papenburg 2011 unterstützt wurde:
Privatspenden:
– Kai Beckhaus
– Dr. Peter Breckle
– Sylvia Dietrich
– Michael Margraf
– Anja Rittmann-Berneiser
– Hans-Peter Tiele
– Rüdiger und Barbara Schmolke
– Christa Wahl
– Stefan Wolf
Firmenspenden:
– Private Universität Witten/Herdecke gGmbH
– Konradin Medien GmbH (Leinfelden-Echterdingen)
– SFB 593 (Sprecher Prof. Dr. Roland Lill) der Deutschen Forschungsgemeinschaft
Die in dieser Dokumentation enthaltenen Texte wurden von den Kursleitern und Teilnehmern
der JGW-SchülerAkademie Papenburg 2011 erstellt. Die Autoren der einzelnen Texte sind JGW
e. V. bekannt, wurden aber aus datenschutzrechtlichen Gründen entfernt.
Bei allgemeinen Personen- oder Berufsbezeichnungen sind stets Personen männlichen und
weiblichen Geschlechts gleichermaßen gemeint;aus Gründen der Vereinfachung wird teilweise
nur die gemeinsame Form, die der männlichen gleicht, verwendet.
Redaktion: JGW-Dokuteam
Endredaktion: Stefan Fechter
Dieses Dokument wurde mit Hilfe von LATEX gesetzt. Als Hauptschriften wurden die Linotype
Palatino von Hermann Zapf und die Mathpazo von Diego Puga verwendet.
Druck und Bindung: K&K Copy Druck Service, Heidelberg
c 2012 JGW e. V., Berlin. Alle Rechte vorbehalten.
Copyright !
»Bildung beginnt mit Neugierde.«1
Neue Ereignisse, bei denen man nicht genau weiß, was einen erwartet, werden oft
begleitet von einem Gefühl der Unsicherheit und leichten Nervosität, gepaart mit großer
Vorfreude, Begeisterung und Neugierde. Die JGW-SchülerAkademie Papenburg 2011
gehörte für die meisten von uns sicherlich zu dieser Art von Ereignissen. Wir als Akademieleitung haben uns gefragt, ob »Vorfreude« nicht vielleicht noch untertrieben war,
wenn die Motivation sogar so weit reichte, dass sich einzelne Teilnehmende noch wenige
Tage oder sogar Stunden vor der Akademie spontan für die Teilnahme entschieden,
wenn noch ein Platz frei geworden war. Bei der Ankunft der 93 Teilnehmenden in
der Historisch-Ökologischen Bildungsstätte Papenburg – kurz HÖB – konnten wir als
Akademieleitung diese Mischung von Unsicherheit und gleichzeitiger Vorfreude in
vielen Augen wiedererkennen. Doch nach einem Jahr Vorbereitungszeit waren auch wir
mindestens genauso gespannt, was die folgenden zehn Tage mit sich bringen würden
und wie aus 108 Personen, aus dem In- und teilweise auch Ausland, eine so verbundene
Gruppe entsteht.
Die Neugierde war bei allen Beteiligten groß und schnell wurde klar, wie sehr jeder der sechs sehr verschiedenen Kurse auf seine eigene Art und Weise die Gelegenheit bot, dieser Neugierde nach zu kommen. Während sich der Mathematik-Kurs mit
systemtheoretischen Fragestellungen auseinandersetzte, darunter vor allem der Frage,
was eigentlich dynamische Systeme charakterisiert und wie sie sich optimieren lassen,
untersuchten die Biologen – unter anderem anhand vieler Experimente – verschiedene
Mikroorganismen und deren Einsatz in der Biotechnologie. Um die neurobiologischen
Grundlagen des Gedächtnisses zu erfassen widmete sich der neurobiologische Kurs
zunächst den verschiedenen Arten des Gedächtnisses, bevor konkrete Fallbeispiele,
Tiermodelle und Schlussfolgerungen für das eigene Lernen besprochen wurden. Nach
Diskussion der molekularen Ursachen von Krebs und dem Erfassen von Tumoren verschiedener Organsysteme behandelte der Onkologie-Kurs die klassischen Therapien und
ihre Wirkweisen. Ausgehend von den Fragestellungen, welche Bedeutung Erinnern und
Vergessen für die Geschichtswissenschaft haben und ob es eine »objektive Geschichte«
gibt, wurden im zweiten Teil des Geschichtskurses verschiedene Konzeptionen von Erinnern und Vergessen erörtert. Der Philosophie-Kurs erarbeitete mit einer breit gefächerten
Auswahl antiker Texte eine »Philosophie der Liebe«, um diese abschließend anhand
einiger Dramen auf ihre Tragfähigkeit hin zu überprüfen.
Aber nicht nur innerhalb der Kurse zeigte sich, wie sehr die Kursinhalte alle Beteiligten beschäftigten. Sei es während der Mahlzeiten, in den Kurspausen oder in der
Freizeit – immer wieder wurde kontrovers und kritisch hinterfragend diskutiert. Bei der
Rotation gab es dann auch die Möglichkeit sich intensiver über die Inhalte der anderen
Kurse auszutauschen. Sehr schön wurde dies in einem häufig gehörten Kommentar
zusammengefasst: »Es war wirklich spannend, einen Einblick in die anderen Kurse zu
erhalten, aber ich weiß trotzdem, dass ich für mich genau den richtigen Kurs gewählt
habe«.
1
Peter Bieri, geb. 1944, Philosophieprofessor und Autor, in: ZEITmagazin Leben, 02. 08. 2007 Nr. 32
3
Die Akademie bestand jedoch nicht nur aus Kursarbeit: In der kursfreien Zeit gab
es ein vielfältiges Angebot an kursübergreifenden Aktivitäten. Bei der Vielzahl der
Aktivitäten fiel die Entscheidung nie leicht, ob man nun zur abendlichen WerwolfRunde, zum Tanzen, zum (Improvisations-)Theater oder zum Ballsport in die Turnhalle
gehen sollte. Außerdem lud das Ruderboot zu Fahrten auf dem See und der Tischkicker
zu zahlreichen Duellen ein. Alternativ traf man sich im Kaminzimmer oder in den
Wintergärten um zu reden, Karten zu spielen oder am Literaturabend teilzunehmen.
Beim Ausflugstag teilten wir uns in drei Gruppen auf. Während die Teilnehmenden der
Moorführung im Rahmen einer Fahrradtour viele Informationen über die Beschaffenheit
und Besiedlungsgeschichte des Papenburger Hochmoores erfuhren, galt es bei der
Führung für moderne Kunst im Schloss Clemenswert selbst aktiv zu werden. So folgte
nach einer intensiven Auseinandersetzung mit einem gruppenweisen ausgesuchten
Künstler und ausgehend von dieser Inspiration die Gestaltung eines eigenen Werkes.
Außerdem durfte natürlich auch die Meyer-Werft nicht fehlen, bei der es gewaltige
Kreuzfahrtschiffe zu sehen gab. Abgerundet wurde das kursübergreifende Programm
durch Kerrys vielfältige musikalische Angebote, bestehend unter anderem aus einem
großen Chor, einem Kammerchor, einem Klosterchor und einem Orchester, die ihre
Fertigkeiten abschließend in einem sehr beeindruckenden Konzert präsentierten.
Voller neuer Begegnungen, Erfahrungen und intensiver gemeinsamer Eindrücke fiel
es schwer, den Koffer zu packen und wieder Richtung Heimat zu fahren. Die Abschiedsszenen zeigten deutlich, wie sehr allen die SchülerAkademie gefallen hat, wie innerhalb
der kurzen Zeit eine sehr verbundene Gruppe entstanden ist und dass die SchülerAkademie wohl noch lange in Erinnerung behalten wird. So überrascht es auch nicht, dass
direkt die Planung für erste Nachtreffen begann.
Liebe Teilnehmende, es hat uns viel Freude bereitet, diese Akademie mit euch interessierten und aufgeschlossenen Menschen zu verbringen. Gestaltet eure Zukunft, macht
etwas aus eurem Talent und vor allem: Bewahrt euch eure Neugierde, es gibt noch so
viel zu entdecken!
4
Dank
Jede Veranstaltung kann nur durch das intensive Engagement aller Helfer und Mitstreiter
gelingen. Daher möchten wir uns bei allen bedanken, ohne die die JGW-SchülerAkademie
Papenburg 2011 in dieser Form nicht möglich gewesen wäre. Unser ganz besonderer
Dank geht an das gesamte JGW-SchülerAkademie-Team: an Nina Dengg, Stefan Fechter,
Philipp Möller, Maike Speck, Friederike Trimborn, Caroline Wacker, Ricarda Wagner,
Johannes Waldschütz, Christiane Weiler und Jan Thorben Wilkens. Die Planung, die
bereits ein Jahr zuvor begann, umfasste unter anderem das Anwerben und die Betreuung
von Kursleitenden, den Kontakt zu den Teilnehmenden, die Abwicklung der Finanzierung, die Sponsorensuche, die Organisation der Homepage, die Ausflugsplanung,
die Nachbereitung dieser Dokumentation und vieles mehr. Auch allen Kursleiterinnen und Kursleitern möchten wir einen großen Dank aussprechen: Vera und Mathias,
Andrea und Philip, Isabell und Juliane, Johanna und Wiebke, Andreas und Johannes,
Ricarda und Björn, ihr habt die Kurse sehr gewissenhaft, ansprechend und kreativ
vorbereitet und durchgeführt, so dass die Teilnehmenden sich mit großer Begeisterung
in den Kursen engagierten. Es war eine Freude das Akademieleitungsbüro in einer
geschäftig-gemütlichen Atmosphäre mit euch zu teilen. Für das sehr vielseitige musikalische Programm möchten wir uns bei Kerry bedanken, der es geschafft hat, über
die Hälfte aller Beteiligten zur Teilnahme in einem der Chöre oder Orchester zu motivieren. Ebenso möchten wir uns herzlich bei den Mitarbeiterinnen und Mitarbeitern
der Historisch-Ökologischen Bildungsstätte Papenburg bedanken. Das Essen war stets
köstlich, die Räumlichkeiten ließen nie Wünsche offen und wir hatten das Gefühl, dass
uns jeder Wunsch von den Augen abgelesen wurde. Unser ganz besonderer Dank geht
an unsere Ansprechpartnerin, an das immer hilfsbereite und sehr zuvorkommende
Team aus Hausmeistern und Zivildienstleistenden sowie an die Hauswirtschaft für
die tolle Rundum-Versorgung. Vor Ort wart vor allem ihr es, liebe Teilnehmende, die
die Akademie gestaltet habt, die intensiv und motiviert in den Kursen mitgearbeitet
und kursübergreifende Aktivitäten ins Leben gerufen habt. Für euren Einsatz und eure
Motivation, durch die diese JGW-SchülerAkademie zu einem solch großartigen und
unvergesslichen Erlebnis wurde, möchten wir euch herzlich danken!
Andrea Müller
Jan Brockhaus
Akademieleitung
5
GESUNDHEIT
WIRTSCHAFT
KULTUR
Perspektiven.
Wechsel!
www.uni-wh.de/schnuppertag
um
Jetzt z
llen
e
u
d
i
v
i
ind
rtag
e
p
p
u
n
h
Sc
n!
anmelde
Die Teilnehmerinnen und Teilnehmer der
JGW-SchülerAkademie Papenburg 2011.
Inhaltsverzeichnis
1 Dynamische Systeme auf dem optimalen Weg · 11
2 Biotechnologie im Alltag · 31
3 Auf der Suche nach dem Gedächtnis · 51
4 Onkologie · 73
5 Gedenken oder Vergessen? · 97
6 Eine philosophische Analyse der Liebe · 121
7 Kursübergreifende Aktivitäten · 136
9
10
1
Dynamische Systeme auf dem optimalen Weg
1.1
Einleitung
Mathias Linden und Vera Schemann
Dynamische Systeme finden sich an vielen Stellen im alltäglichen Leben und der Versuch, sie auf einen optimalen Weg zu bringen, beschäftigt ständig mehr Menschen.
Mathematisch gesehen bildet die Theorie der dynamischen Systeme die Grundlage
für viele weitere Forschungsgebiete – unter anderem der optimalen Steuerung und
der Modellreduktion. Im Kurs wurde – aufbauend auf einige Grundlagen – ein Bogen gespannt von einer Einführung in die Systemtheorie über die optimale Steuerung
bis hin zur Modellreduktion. Diese behandelte Vielfalt soll auch durch die folgende
Kursdokumentation widergespiegelt werden.
1.2
Komplexe Zahlen
Die komplexen Zahlen C erweitern in der Mathematik den Zahlenbereich der reellen
Zahlen R und ermöglichen, dass die folgende Gleichung lösbar wird:
x2 + 1 = 0
|−1
√
x 2 = −1 |
√
x1,2 = ± −1.
Die Wurzel aus einer negativen Zahl konnte nur gezogen werden, weil eine neue Zahl
√
eingeführt wurde. Diese Zahl heißt i und hat die Eigenschaft i := −1, sie wird als
imaginäre Einheit bezeichnet.
Im Allgemeinen haben sich zwei unterschiedliche Notationen für die komplexen
Zahlen durchgesetzt, die kartesische Form
z = a+i·b
und die polare Form
z = r · (cos(φ) + i sin(φ)),
r ∈ R.
Wobei a und b sowie r und φ reelle Zahlen sind und i die imaginäre Einheit ist. a wird
als »Realteil« und b als »Imaginärteil« von a + b · i = z bezeichnet.
Sollen zwei komplexe Zahlen a + b · i und c + d · i addiert werden, so gilt:
( a + ib) + (c + id) = ( a + c) + i (b + d).
11
1 Dynamische Systeme auf dem optimalen Weg
Sollen zwei komplexe Zahlen multipliziert werden, so gilt:
( a + ib) · (c + id) = ( ac − bd) + i ( ad + bc).
Der Betrag der komplexen Zahlen stimmt mit der Länge ihres Vektors überein:
| z | = a2 + b2 .
In Polarkoordinaten ist der der Betrag gleich der Zahl r.
Matrizen
1.3
Matrizen werden als Rechteckschema von Zahlen dargestellt. Eine Matrix A hat die
Form:

a1,1
 ..
A= .
am,1

· · · a1,n
..  ,
..
.
. 
· · · am,n
A ∈ R m×n .
Die Matrix benutzt man zum Beispiel als Koeffizientenmatrix, um ein lineares Gleichungssystem (Ax = y) darzustellen. Man kann zudem mit ihr verschiedene Abläufe in
einem System darstellen. Die Zahlen oder Funktionen in den Zeilen und Spalten heißen
Elemente. Matrizen bezeichnet man oft mit Großbuchstaben (A, B, C, . . . ).
Wenn A und B zwei Matrizen mit der gleichen Anzahl an Spalten und Zeilen sind,
kann man sie addieren und zu einer neuen Matrix C zusammenfassen, indem man die
jeweils entsprechenden Elemente addiert.
'
a1,1 a1,2
a2,1 a2,2
(
+
'
b1,1 b1,2
b2,1 b2,2
(
=
'
a1,1 + b1,1 a1,2 + b1,2
a2,1 + b2,1 a2,2 + b2,2
(
=
'
c1,1 c1,2
c2,1 c2,2
(
Man kann auch das Produkt der Matrizen A und B berechnen. Wichtig ist hier, dass
die Anzahl der Spalten von A gleich der Anzahl der Zeilen von B ist, da man bei der
Multiplikation von Matrizen jeweils die Zeilen mit den Spalten multipliziert.
(

b1,1 b1,2


·  b2,1 b2,2  =
b3,1 b3,2

'
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3
'
a1,1 · b1,1 + a1,2 · b2,1 + a1,3 · b3,1 a1,1 · b1,2 + a1,2 · b2,2 + a1,3 · b3,2
a2,1 · b1,1 + a2,2 · b2,1 + a2,3 · b3,1 a2,1 · b1,2 + a2,2 · b2,2 + a2,3 · b3,2
(
In einer Einheitsmatrix I sind alle Elemente auf der Hauptdiagonalen 1. Die restlichen
12
1.3 Matrizen
Elemente sind gleich 0. Somit ist I · b = b,


1 0 0


I =  0 1 0 .
0 0 1
Wenn A · B = B · A = I dann ist B die Inverse von A. Man schreibt:
B = A −1 .
Zudem gilt:
A · A−1 = I = A−1 · A.
Um die Inverse einer Matrix bestimmen zu können müssen verschiedene Voraussetzungen gelten. Zum Beispiel muss die Determinante der Matrix ungleich null sein.
Dies ist eine spezielle Funktion, die einer quadratischen Matrix ein Skalar zuordnet.
A=
'
a b
c d
(
,
det( A) = ad − bc.
Bei der Transponierten werden Zeilen und Spalten einer Matrix vertauscht. So wird
eine m × n Matrix zu einer n × m Matrix.
So ist

die Transponierte zu

1 4


AT =  2 5 
3 6
A=
'
1 2 3
4 5 6
(
.
Ferner gilt ( A T ) T = A und (r · A) T = A T · r , r ∈ R.
Ein Skalarprodukt ist eine Abbildung zweier Vektoren auf die reellen Zahlen. Es
entsteht durch die Multiplikation der entsprechenden Elemente der Vektoren x und y.
Ein Skalarprodukt ist nur möglich, wenn die Anzahl der Zeilen beider Vektoren gleich
ist.
& x, y' = x1 · y1 + x2 · y2 + · · · + xn · yn
Wenn man die Transponierte eines Vektors (Matrix mit einer Spalte) mit einem anderen
Vektor multipliziert erhält man das Skalarprodukt beider.
x T · y = & x, y' ,
x, y ∈ R n
13
1 Dynamische Systeme auf dem optimalen Weg
1.4
Eigenwerte und Eigenvektoren
Komplexere mathematische Rechnungen mit verhältnismäßig großen Matrizen gestalten sich schwierig. Für das Modellieren und die Berechnung sowie die Steuerung
dynamischer Systeme sind diese jedoch unabdingbar. Ein wichtiges Hilfsmittel bei der
Berechnung von Matrizen stellen die Eigenwerte und Eigenvektoren von Matrizen dar.
Durch die Matrizenmultiplikation einer beliebigen Matrix A ∈ R n×m mit einem Vektor
!x ∈ R m entsteht ein Vektor !xneu ∈ R n . Es können zu einer Matrix A ∈ R n×n nun Skalare
λi ∈ R, 1 ≤ i ≤ n gefunden werden, so dass für die Gleichung
A · !xi = λi · !xi ,
außer !xi = !0 noch weitere Lösungen existieren. Die aus der Gleichung hervorgehenden
Vektoren !xi ∈ R n werden als die Eigenvektoren der Matrix A bezeichnet, während die
Menge der λi die Eigenwerte von A bilden.
Zu jeder Matrix A existieren maximal n verschiedene Eigenwerte. Da der Vektor !xi
auf beiden Seiten der Gleichung mit einem beliebigen Skalar multipliziert werden kann,
ohne die Eigenwerte zu beeinflussen, existiert zu jedem Eigenwert eine unbegrenzte
Anzahl an Eigenvektoren. Da jeder dieser Vektoren durch alle anderen Vektoren mit Hilfe
der Multiplikation eines weiteren Skalars dargestellt werden kann, können maximal n
linear unabhängige Eigenvektoren existieren.
Lineare Unabhängigkeit einer Menge von n Vektoren ist gegeben, falls die Gleichung
c1 · x!1 + c2 · x!2 + · · · + cn · x!n = !0
ausschließlich die Lösung ci = 0 ∀i hat. Keiner dieser Vektoren kann in diesem Fall
durch die Summe einer beliebigen Anzahl aus Vielfachen der anderen Vektoren dargestellt werden. Um die Eigenwerte und im Folgenden mögliche Eigenvektoren zu
berechnen, können alle λi durch Lösen der folgenden Gleichung berechnet werden:
det ( A − λ · I ) = 0.
Die so erhaltenen Eigenwerte setzen wir in eine Umformung der oben beschriebenen
Gleichung ein:
( A − λ · I ) · !x = !0,
wobei I hier die Einheitsmatrix beschreibt. Dieses lineare Gleichungssystem kann nun
gelöst werden, so dass konkrete Werte für die Komponenten von !x ermittelt werden können. Um Berechnungen mit diesen spezifischen Matrizeneigenschaften durchzuführen,
überführen wir die Eigenvektoren als Spalten in die Eigenvektormatrix S, während
die jeweiligen Eigenwerte analog zu der Einheitsmatrix die Werte der Diagonalen der
Eigenwertmatrix so bilden, dass Λii = λi . Durch die oben genannten Zusammenhänge
gilt für eine beliebige Matrix A ∈ R n×n , solange die Gleichung A = SΛS−1 n linear unabhängige Eigenvektoren aufweist. Somit kann das entsprechende Produkt aus
Eigenvektor- und Eigenwertmatrix für A eingesetzt werden.
14
1.5 Ableitungen von Funktionen im Raum
Mit dieser Zerlegung wird das Berechnen einiger großer Gleichungen deutlich vereinfacht. Speziell bei dynamischen Systemen bieten sowohl Eigenvektormatrix als auch
Eigenwertmatrix viele Vorteile, da die diagonale Struktur der Eigenwertmatrix verschiedene Rechnungen vereinfacht. Somit bilden Eigenwerte eine wichtige Technik in der
Systemtheorie.
1.5
Ableitungen von Funktionen im Raum
Der Gradient ist eine Rechenoperation, die auf eine Funktion von C n nach C angewendet
werden kann und als Ergebnis ein Vektorfeld liefert. Dabei wird jedem Punkt ein Vektor
zuordnet, welcher jeweils die Richtung und Stärke des steilsten Anstieges von diesem
Punkt aus wiedergibt.
Man kann eine Funktion, die von mehreren Variablen abhängt, nach jeder Variablen
einzeln ableiten. Es gelten dabei die normalen Ableitungsregeln, wobei die Variablen,
nach denen nicht abgeleitet wird, als konstant betrachtet werden. Dies nennt man partielle
Ableitung. Es wird nun ein einfaches Beispiel angegeben:
f ( x1 , x2 ) = sin x1 · sin x2
∂ f ( x1 , x2 )
= cos x1 · sin x2
∂x2
∂2 f ( x1 , x2 )
= cos x1 · cos x2
∂x1 ∂x2
Der Gradient ist nun die verkürzte Schreibweise aller partiellen Ableitungen einer
Funktionen. Bei der Bildung des Gradienten eines Punktes in einem (Skalar-)Feld
wird in jeder Richtung der Anstieg des Feldes in dieser Richtung im Ergebnisvektor
wiedergegeben.
15
1 Dynamische Systeme auf dem optimalen Weg
Das Formelzeichen, um den Gradienten zu bilden, wird Nabla-Operator genannt:




∇ f ( x ) = ∇ f ( x1 , x2 , · · · , x n ) = 


∂ f (x)
∂x1
∂ f (x)
∂x2
..
.
∂ f (x)
∂xn




.


Es wird also nach jeder einzelnen Achsenrichtung partiell abgeleitet und das Ergebnis
wird in einem Vektor wiedergegeben. Man kann auch die zweite Ableitung einer Funktion bilden, indem man eine Matrix erstellt, in der man jede Richtung des Gradienten
erneut nach jeder Variable ableitet.
Die Summen-, Produkt- und Kettenregel kann man analog auf Funktionen im Raum
anwenden. Mit Hilfe der Ableitung von Funktionen kann man z. B. Extremstellen in
Feldern berechnen, da die Ableitungen nur bei Extremstellen !0 sind. Wenn man von
einer Funktion zweimal ableitet, dann erhält man ein Maß für die Krümmung des Feldes
in jedem Punkt.
1.6
Geschichte der Systemtheorie
Da die Systemtheorie in vielen verschiedenen Bereichen wieder zu finden ist, kann
man sie als ein interdisziplinäres Erkenntnismodell beschreiben, welches versucht verschiedene komplexe Phänomene zu beschreiben bzw. zu erklären. Allgemein gehen
Systemtheorien von Systemen aus, die sich selber erhalten, wie zum Beispiel die Gesellschaft oder die Justiz. Handelt ein Individuum innerhalb eines dieser Systeme auf
eine bestimmte Art und Weise, wird dies anhand seiner gesellschaftlichen Position und
den daraus folgenden Zwängen erklärt. Weiterhin wird mit Hilfe von Struktur- und
Funktionsanalyse versucht den weiteren Verlauf des Systems vorherzusagen. Systemtheorien lassen sich also in verschiedenen Fachbereichen wiederfinden. Zum einen
natürlich in der Mathematik, aber auch in Bereichen wie Biologie, Chemie, Ethnologie,
Informatik, Geographie etc.
Der Begriff »Allgemeine Systemtheorie« wurde um 1950 von dem Biologen Ludwig
von Bertalanffy (1901–1972) geprägt und steht im Zusammenhang mit der Kontrolltheorie, welche die Kommunikation, Steuerung und Regelung von lebenden, technischen
und sozialen Systemen beschreibt.
Um 1970 entstand der mathematische Zweig der Katastrophentheorie. Er befasst
sich mit plötzlichen Veränderungen innerhalb eines Systems, die sich aus kleinen Impulsen ergeben. Ungefähr 10 Jahre später folgte die Chaostheorie: Eine Theorie von
nichtlinearen, dynamischen Systemen, welche eine Reihe von Phänomen aufweisen,
die man Chaos nennt. Ein bekanntes Beispiel dieser Theorie ist unter anderem der
Schmetterlingseffekt. Der Grundgedanke hinter diesem Beispiel ist, dass allein eine
marginale Veränderung innerhalb eines Systems (wie zum Beispiel das Auffliegen eines
16
1.7 Dynamische Systeme
Schmetterlings) dramatische Folgen haben kann, beispielsweise das Entstehen eines
Taifuns oder Tornados.
Als letzter wichtiger chronologischer Eintrag im Bezug auf die Systemtheorie folgten die 1990 entstandenen »Komplexen adaptive Systeme«. Dabei handelt es sich um
die Beschreibung von Emergenz, Anpassung und Selbstorganisation. Agenten und
Computersimulationen werden hier genutzt, um soziale und komplexe Systeme zu
erforschen.
1.7
Dynamische Systeme
Dynamische Systeme sind mathematische Modelle, die zur Beschreibung von Prozessen
dienen. Dabei wird die Veränderung des Zustands und des Ausgangs des Systems über
die Zeit betrachtet. Solche Systeme werden in den unterschiedlichsten Gebieten zur
Modellierung von Prozessen verwendet. Viele dieser Prozesse sind Beispiele aus der
Mathematik, aber vor allem auch in der Physik und in der Biologie werden Vorgänge
auf diese Art beschrieben. Beispiele sind die Bewegung eines Pendels, Klimamodelle
oder die Entwicklung einer Population von Lebewesen.
Dabei unterscheidet man zwischen offenen und geschlossenen Systemen. Geschlossene
Systeme haben keinen Eingang, also keine Steuerung. Sie können von außen nicht
beeinflusst werden und sind nur Relationen innerhalb des Systems unterworfen. Offene
Systeme hingegen sind offen für Eingriffe von außen, die Einfluss auf das Fortschreiten
des Prozesses nehmen.
Im Folgenden werden solche Systeme mathematisch beschrieben. Wir behandeln dabei
LTI-Systeme. LTI steht für »linear, time invariant«, was also bedeutet, dass diese Systeme
linear sind und sich die Systemmatrizen über die Zeit nicht verändern. Des Weiteren
beschränken wir uns auf Beschreibungen und Berechnungen von diskreten Systemen.
Für solche Systeme lassen sich Zustand und Ausgang zu bestimmten Zeitpunkten im
Abstand von gleichen Intervallen bestimmen. Es gibt auch kontinuierliche Systeme, bei
denen die Berechnung dieser Werte kontinuierlich und eben nicht nur iterativ erfolgt.
Mathematisch werden solche Systeme wie folgt dargestellt:
Σ:
)
x k +1 = A · x k + B · u k
.
yk = C · xk + D · uk
Der Vektor xk ∈ R n beschreibt den Zustand des Systems zu einem Zeitpunkt k. In
diesem Vektor sind alle Größen des Systems enthalten, die von Nöten sind um es
vollständig zu beschreiben. Die Anzahl dieser Zustandsgrößen, in diesem Fall n, gibt die
Dimension des Systems an.
A ∈ R n×n ist die systemeigene Matrix, die die Relationen, die innerhalb des Systems
auftreten, beschreibt. Sie wird auch als Dynamik des Systems bezeichnet. uk ∈ R m
ist ein Vektor der den Eingang oder die Steuerung des Systems beschreibt, wobei die
Matrix B ∈ R n×m die Relation wiedergibt. yk ∈ R p wird als Ausgang bezeichnet und mit
17
1 Dynamische Systeme auf dem optimalen Weg
Hilfe der weiteren Systemmatrizen C ∈ R p×n und D ∈ R p×m berechnet. Eine übliche
Bezeichnung lautet wie folgt:
Σ=
'
A B
C D
(
.
Für die Berechnung eines beliebigen Zustandes Φ lässt sich auch eine analytische
Lösung der Zustandsgleichung formulieren. Dabei wird der Ausgang des Systems außer
Acht gelassen. Diese Gleichung lautet wie folgt:
Φ(u; x0 ; t) := At−t0 · x0 +
t −1
∑ A t −1− j · B · u ( j ) ,
j = t0
t ≥ t0 .
Das heißt Φ(u; x0 ; t) ist der Zustand, der mit der Steuerung bzw. den Eingängen u
vom Startzustand x0 zur Startzeit t0 nach der Zeit t erreicht wurde. Solche Systeme
können auf verschiedene Eigenschaften wie Beobachtbarkeit, Stabilität, Erreichbarkeit
und Steuerbarkeit untersucht werden.
1.8
Beispiel eines linearen Systems
Wir betrachten die zwei Städte Matheheim und Formelhausen, die in einer Region liegen.
Im Folgenden untersuchen wir die Einwohnerzahl und das gesamte Steueraufkommen
der beiden Städte in Zeitabschnitten von fünf Jahren.
Die Stadträte der Städte kämpfen um Mehreinnahmen durch Steuergelder, die sie
durch höhere Einwohnerzahlen erreichen wollen.
Matheheim ist attraktiver als Formelhausen, weshalb 80% der Menschen aus Formelhausen innerhalb von fünf Jahren nach Matheheim ziehen. In Formelhausen allerdings
sind die Steuern niedriger, weshalb 50% der Menschen im gleichen Zeitintervall von
Matheheim nach Formelhausen ziehen. Der Rest der Anwohner zieht nicht um.
Innerhalb von fünf Jahren ziehen aber auch neue Bürger in die Städte, die vorher
in anderen Regionen gelebt haben. Durch Angebote wie freie Kindergartenplätze oder
Startprämien für Studenten, schafft es Formelhausen, 700 der aus anderen Regionen
zuziehenden Menschen für sich zu gewinnen, 300 ziehen nach Matheheim.
Die Besteuerung pro Kopf ist in den beiden Städten stark verschieden. Die Bewohner
von Formelhausen zahlen alle fünf Jahre 2000 Euro, die Menschen aus Matheheim zahlen
in der gleichen Zeit 5000 Euro.
Die Bevölkerungssituation und die dazugehörigen Steuereinnahmen der beiden Städte
lassen sich mathematisch als LTI-System modellieren. Die Zustandsgleichung xk+1 =
A · xk + B · uk setzt sich aus verschiedenen Elementen zusammen:
Die Transfermatrix
A=
18
'
0.5 0.8
0.5 0.2
(
,
A ∈ R 2×2 ,
1.9 Beobachtbarkeit
beschreibt die Dynamik des Systems, also wie die schon in den Städten wohnhaften
Personen in einem Zeitintervall wandern. Die erste Spalte der Matrix gibt den Anteil
der Menschen an, die in Matheheim bleiben, bzw. von Matheheim nach Formelhausen
ziehen. In der zweiten Spalte stehen die Anteile der Anwohner, die von Formelhausen
nach Matheheim ziehen, bzw. in Formelhausen bleiben.
Der Zustandsvektor
xk =
'
xm
xf
(
,
xk ∈ R2
gibt die Einwohnerzahl der Städte zu jedem Zeitpunkt k an, wobei das Intervall zwischen
k und k + 1 fünf Jahre beträgt.
Das System enthält auch einen Eingang, der durch die in die Region ziehenden
Menschen gegeben ist. Dabei gibt der Eingang
B · uk = b =
'
(
700
300
,
die von außerhalb zuziehenden Menschen an, sich in Matheheim, bzw. Formelhausen
niederlassen.
Der Ausgang des Systems enthält die Steuereinnahmen der beiden Städte. Die Ausgangsgleichung lautet folgendermaßen: yk = C · xk + D · uk .
C=
'
5000
0
0
2000
(
,
C ∈ R 2×2 ,
beschreibt die Besteuerung pro Einwohner in Matheheim und Formelhausen. Der Summand D · uk fällt weg, da die Steuerung uk keinen Einfluss auf den Ausgang hat.
In Abbildung 1.1 ist graphisch gezeigt, wie sich die Einwohnerzahlen und die Steuereinnahmen über 50 Jahre, also zehn Zeitabstände k verhält, wenn zu Anfang der Betrachtung jeweils 10000 Menschen sowohl in Matheheim als auch in Formelhausen leben und
in jedem Zeitintervall 1000 Menschen in die Region ziehen. Der Startvektor lautet also
x0 =
1.9
'
10000
10000
(
.
Beobachtbarkeit
Damit es möglich ist ein dynamisches System zu verändern, muss bekannt sein, wie es
zu der Ausgabe yk kommt. Dies ist bekannt, wenn es möglich ist x0 aus der Ausgabe
yk zu rekonstruieren. Denn dann ist der Startwert x0 eindeutig. Wenn es nun bei einem
dynamischen System möglich ist bei bekanntem uk von dem Ausgang yk in endlicher Zeit
19
1 Dynamische Systeme auf dem optimalen Weg



























(a) Entwicklung der Einwohnerzahlen.
×

×
×
×
×















(b) Entwicklung der Steuern.
Abbildung 1.1: Entwicklung der Einwohnerzahlen und der Steuereinnahmen über 50 Jahre.
20
1.9 Beobachtbarkeit
auf den Startwert x0 zu schließen, dann ist ein System in dem Zustand x0 beobachtbar.
Wenn dies sogar für alle x ∈ R n möglich ist, dann ist das ganze System vollständig
beobachtbar.
Um festzustellen, ob ein System beobachtbar ist, müssen die einzelnen Rekursionsschritte betrachtet werden. Bei diesen sind die Summanden mit uk bekannt, weshalb
diese nicht betrachtet werden müssen. So kann ohne Beschränkung der Allgemeinheit
von uk = 0 ausgegangen werden. Also werden von dem System nur die Matrizen A und
C betrachtet.
Definition: Ein Wert x ∈ R n ist genau dann unbeobachtbar, falls yk = Φ(0; x; k ) =
C · Ak · x = 0 für alle k. Die Menge der unbeobachtbaren x sei X unobs . Dann ist ein
System genau dann vollständig beobachtbar falls X unobs = {0}.
Für das System bedeutet dies, dass sich die Ausgabe yk bei jedem x unterscheidet.
Dadurch lässt sich eindeutig sagen, vom welchem Startwert x0 ausgegangen wurde.
Zu dem System existiert dann eine Beobachtbarkeitsmatrix:




Q B ( A, C ) := 



C
C·A
C · A2
..
.
C · A n −1




.



Diese Matrix hat die Dimension p · n × n. Mit Hilfe der Matrix, kann leicht bestimmt
werden, ob das System beobachtbar ist. Nämlich genau dann, wenn die Anzahl der
linear unabhängigen Zeilen bzw. Spalten gleich n ist. Diese Anzahl gibt der Rang einer
Matrix an.
Also ist ein System genau dann beobachtbar, falls gilt:
rang( Q B ) = n.
Somit gibt es zwei äuqivalente Bedingungen unter denen das System vollständig
beobachtbar ist:
– rang( Q B ) = n,
– yk = C · Ak · x = 0 für alle k.
Ist ein System vollständig beobachtbar weiß man, dass man von jedem yk und k auf
den Startwert x0 schließen kann.
21
1 Dynamische Systeme auf dem optimalen Weg
1.10
Steuerbarkeit bzw. Erreichbarkeit
Die Steuerbarkeit eines Systems ist eine der grundlegenden Bedingungen für eine vernünftige Verarbeitung. Die Frage nach der Steuerbarkeit bedeutet, dass überprüft wird,
ob in endlicher Zeit ein beliebiger Anfangszustand x0 durch eine geeignete Steuerung
u in einen beliebigen Endzustand x1 überführt werden kann. Vollständig steuerbar
bedeutet, dass jeder Zustand (t0 , x0 ) für alle x0 ∈ R n nach x1 ∈ R n gesteuert werden
kann.
Immer aus einem System erschließbar ist die Steuerbarkeitsmatrix Q, die wie folgt
definiert wird:
Q=
*
b Ab
A2 b
...
A n −1 b
+
.
Ein System ist vollständig steuerbar, wenn eines der beiden folgenden Kriterien erfüllt
ist:
– Die Determinante der Steuerbarkeitsmatrix Q ungleich Null ist.
det( Q) = det
*
b Ab A2 b . . . An−1 b
+
,= 0
– Der Rang der Steuerbarkeitsmatrix Q gleich der Dimension des Systems ist.
rang( Q) = rang
*
b Ab A2 b . . . An−1 b
+
=n
Der Rang gibt an, wie viele linear unabhängige Spalten bzw. Zeilen die Steuerbarkeitsmatrix enthält.
Für Systeme, die nicht vollständig steuerbar sind, können nicht alle Zustände angesteuert werden, was man sich einfach an einem Beispiel vorstellen kann: Wenn ein
Heißluftballon fliegt, dann ist dieser nur in vertikaler Richtung steuerbar. In der Horizontalen wird die Richtung des Ballons vom Wind gesteuert, auf den man jedoch
keinerlei Einfluss nehmen kann. Demnach sind Zustände entgegen der Windrichtung
nicht erreichbar.
1.11
Stabilität
In diesem Abschnitt befassen wir uns mit einer Eigenschaft der Stabilität dynamischer
Systeme. Es geht darum zu überprüfen, ob Zustände in dynamischen Systemen für lange
Zeit berechenbar bleiben oder ob sich bestimmte Werte so auf das System auswirken,
dass es nicht mehr berechenbar ist. Dazu betrachten wir ein diskretes dynamisches
System der Form xk+1 = Axk + bu mit einer Dynamikmatrix A ∈ R n×n , den Zuständen
xk und dem Eingangsvektor b. Das System heißt stabil, falls für alle Eigenwerte λi von A
22
1.12 Optimierung
gilt: |λi | ≤ 1 und für |λi | = |λ j | = 1 λi ,= λ j bei i ungleich j gilt. Der Einfachheit halber
lassen wir den Eingang außer Betracht und erhalten xk+1 = Axk .
Es sind nun drei Fälle zu unterscheiden: Wenn alle Beträge der Eigenwerte von A
echt kleiner 1 sind geht xk gegen 0 für ein größer werdendes k und das System heißt
asymptotisch stabil. Andererseits falls der Betrag eines Eigenwertes größer als 1 ist würde
xk nicht gegen unendlich gehen, womit das System nicht stabil wäre. Falls kein Betrag
von den Eigenwerten größer 1 ist, aber mindestens einer gleich 1 ist, läuft xk weder gegen
0 noch ins Unendliche und bleibt damit berechenbar. Dabei müssen alle Eigenwerte
paarweise verschieden sein, sonst würde xk gegen Unendlich gehen und wäre damit
nicht stabil.
Im Folgenden befassen wir uns vor allen Dingen damit, ob ein System asymptotisch
stabil ist oder überhaupt nicht stabil ist. Es ist nun x1 = Ax0 ; x2 = Ax1 = A2 x0 ;
x3 = Ax2 = A3 x0 , also xk = Ak x0 . Um die Stabilität zu überprüfen müssen wir
Zustände für große k ausrechnen, weshalb wir zunächst jedes A mit A = SΛS−1
diagonalisieren. Dazu müssen wir annehmen, dass A n linear unabhängige Eigenvektoren hat, die wir als Spalten der Eigenvektormatrix S schreiben. Nun haben wir
Ak = (SΛS−1 )(SΛS−1 )...(SΛS−1 ). Da die Matrizenmultiplikation assoziativ ist, können
wir jeweils S−1 S zur Einheitsmatrix zusammenfassen und erhalten Ak = SΛk S−1 . Danach können wir den Exponenten k von Λk in die Matrix hineinziehen, so dass jeder
Eigenwert den Exponenten k erhält. Nun können wir zumindest schon das Verhalten
der λik für k gegen Unendlich abschätzen. Sobald der Betrag eines Eigenwertes größer 1
ist, geht die k-te Potenz dieses Eigenwertes ebenfalls gegen unendlich. Wenn aber die
Beträge aller Eigenwerte kleiner 1 sind, streben die k-ten Potenzen gegen 0.
Jetzt drücken wir xk anders aus um auch das Verhalten für die xk abzuschätzen. Da wir
n linear unabhängige Eigenvektoren vi haben, kann jeder Vektor (vor allen Dingen x0 ) als
Linearkombination der vi geschrieben werden. Also x0 = c1 v1 + c2 v2 + ... + cn vn mit ci als
Skalaren (reelle Zahlen). Dazu multiplizieren wir A und können wegen Avi = λi vi (was
für die n linear unabhängigen Eigenvektoren gilt) x1 = c1 λ1 v1 + c2 λ2 v1 + ... + cn λn vn
schreiben. Mehrmaliges multiplizieren mit A ergibt
xk = c1 λ1k v1 + c2 λ2k v1 + ... + cn λkn vn .
Solange also bei einem Eigenwert, dessen Betrag größer als 1 ist, der zugehörige
konstante Faktor nicht 0 ist, strebt xk gegen Unendlich und ist damit instabil. Wenn alle
Beträge der Eigenwerte kleiner als 1 sind, strebt xk gegen 0 und ist damit asymptotisch
stabil. In der Literatur wird der Begriff stabil oft gleichbedeutend mit asymptotisch stabil
verwendet.
1.12
Optimierung
Die statische Optimierung einer Funktion f ( x ), f : R n −→ R zielt darauf ab das Minimum oder Maximum (den »optimalen Wert«) dieser zu ermitteln. Im Gegensatz zur
optimalen Steuerung, die versucht ein dynamisches System bestmöglich zu steuern,
23
1 Dynamische Systeme auf dem optimalen Weg
ist die Optimierung eine statische Analyse der so genannten Zielfunktion um den besten Wert eines gewissen Systemzustands zu ermitteln. Ein einfaches Beispiel hierfür
aus der Wirtschaft wäre die Gewinnfunktion, für welche ein jedes Unternehmen jedes
Jahr das Maximum anhand von verschiedenen Parametern wie Materialkosten, Produktion oder Lohnkosten sucht. Die gesuchten Extrema dieser Zielfunktion werden
eindimensionalen Fall durch das zu Null setzten der ersten Ableitung ermittelt, und im
n-dimensionalen Fall durch das Null setzten des Vektorgradienten ∇ f . Bei den meisten
komplexen Zielfunktionen ist es aber kompliziert globale Extrema zu ermitteln, so dass
man sich auf lokale Extremstellen, die durch weitere Nebenbedingungen eingegrenzt
werden können, beschränkt. In der Mathematik lassen sich manche Nebenbedingungen
durch setzten von Funktionen auf feste Werte ausdrücken g( x ) = 0, g : R m −→ R
ausdrücken. Das Lagrange-Multiplikator Gesetz besagt hierbei, dass die Lösungen für
solche Optimierungsprobleme sich durch eine neue Zielfunktion
m
L( x, λ) = f ( x ) + ∑ λi · gi ( x )
i =1
berechnen lassen. Solche sind nur an Stellen x zu finden, für welche es LagrangeMultiplikatoren λ gibt, die die Bedingungen
)
∇ x L( x, λ)
= ∇ x · f ( x ) + ∑im=1 λi · ∇ x gi ( x ) = 0,
∇λ L( x, λ) gi ( x ) = 0
λ ∈ Rm
erfüllen. Das sind die notwendigen Bedingungen für das Finden eines lokalen Minimums,
wobei ∇λ L( x, λ) gi ( x ) = 0 nur die Nebenbedingungen des Anfangs wiederholt. Die
Lösungen dafür nennt man kritische Punkte. Nun ist es aber im n-dimensionalen Raum
wie im 1-dimensionalen so, dass die eine Nullstelle der ersten Ableitung auch einen
Sattelpunkt statt eines Extremums bedeuten kann. Um hierbei zu unterscheiden, gibt
24
1.13 Optimale Steuerung
es die hinreichenden Bedingungen, die die zweite Ableitungen der Lagrange-Funktion
benötigen, die sich wie folgt ausdrücken:
s T · ∇2xx L( x̂, λ̂) · s ≥ 0, ∀s ∈ R n
mit
∇ x ( gi ( x̂ ))T · s = 0.
Wobei x̂, λ̂ kritische Punkte aus den notwendigen Bedingungen sind.
1.13
Optimale Steuerung
Das Ziel der optimalen Steuerung ist es, Eingriffe in das System möglichst effizient
zu regulieren. Die meisten Optimierungsprobleme lassen sich auf linear-quadratische
Regulatorprobleme zurückführen, die durch folgende Zielfunktion beschrieben werden:
J ( x, u) =
1
2
N −1
1
∑ (xkT Qk xk + ukT Rk uk ) + 2 xTN SN x N .
k =0
Dabei werden die Matrizen Qk , Rk und Sk verwendet, um abhängig vom Ziel der
Optimierung die Variablen des Systems ( xk , uk , x N ) verschieden zu gewichten. Soll zum
Beispiel die Steuerung uk und deren Minimierung stärker gewichtet werden, als das
Erreichen der Zustände xk , so werden Qk und RK so gewählt, dass . Rk . < . Qk ..
Ziel ist es nun, J ( x, u) zu minimieren, wobei die Systemgleichung xk+1 = Axk + Buk
als Nebenbedingung betrachtet wird. Diese Problemstellung lässt sich so auf die statische
Optimierung zurückführen und man erhält die neue Zielfunktion:
J̃ ( x, u, λ) =
N −1
1
1
∑ ( 2 (xkT Qk xk + ukT Rk uk ) + λkT+1 ( Ak xk + Bk uk − xk+1 )) + 2 xTN SN x N .
k =0
Die auftretenden Lagrange-Multiplikatoren λi , wurden im Zusammenhang mit der
Lagrange-Funktion (siehe Abschnitt 1.12) bereits erwähnt. Durch Bildung des Gradienten
nach den Variablen x, u, λ und Umformung erhält man die folgenden Gleichungen:
1
−1
−1 T
xk = A−
k xk +1 + Ak Bk Rk Bk λk +1 ,
(1.1)
λk =
(1.2)
uk =
Qk xk + AkT λk+1 ,
1 T
− R−
k Bk λk +1 .
(1.3)
Im folgenden Betrachten wir ein System mit einem fest vorgegebenen Endzustand
xn := rn . Wir betrachten ein LTI-System, das heißt, die Systemmatrizen A, B und die
Gewichtungsmatrix R sind zeitunabhängig. Wir setzen Qk = 0 und S N = 0, da sowohl
der Anfangszustand x0 als auch der Endzustand r N vorgegeben sind und wir daher
die Zustände xk (0 < k < N ) als nicht relevant für die Steuerung betrachten, was das
System deutlich vereinfacht. Daher erhalten wir die neue Zielfunktion J0 :
J0 (u) =
1
2
N −1
∑
k =0
ukT Ruk .
25
1 Dynamische Systeme auf dem optimalen Weg
Aus Gleichung (1.2) folgt durch Rückwärtsiteration:
λ k = A T λ k +1
⇒
λk = ( A T ) N −k λ N .
Eingesetzt in Gleichung (1.1) ergibt:
xk+1 = Axk − BR−1 B T ( A T ) N −k−1 λ N .
Unter Verwendung der analytischen Lösung eines diskreten Systems (siehe Abschnitt
1.7) erhält man:
x k = A k x0 −
N −1
∑
i =1
Ak−i−1 BR−1 B T R T ( A T ) N −i−1 λ N .
,
-.
(1.4)
/
=:Gk
Für k = N ergibt sich unter der Annahme, dass GN invertierbar ist,
−1
λ N = GN
( A xN0 − r N ).
Dieses Ergebnis setzt man in Gleichung (1.4) ein:
−1
( A N x0 − r N ).
λk = ( A T ) N −k GN
Das wiederum in Gleichung (1.3) eingesetzt, ergibt:
−1
(r N − A N x0 ).
u∗k = R−1 B T ( A T ) N −k−1 GN
(1.5)
Um die Herleitung zu vervollständigen, bleibt zu zeigen, wann unsere Annahme GN sei
invertierbar zutrifft. Es gilt:


GN = R 
R −1
0
..
0
.
R −1

 T
R ,
wobei R die Erreichbarkeitsmatrix (siehe Abschnitt 1.10) bezeichnet. GN ist invertierbar,
wenn det( GN ) ,= 0 und somit wenn das System vollständig erreichbar ist und N > n ist.
In Gleichung (1.5) lässt sich nun die Steuerung uk für jedes 0 ≤ k ≤ N allein anhand
der Systemmatrizen und dem vorgegebenen Anfangs- und Endzustand berechnen. Es
liegt keine Zustandsrückkoppelung vor, da die Steuerung nicht vom aktuellen Zustand xk
abhängig ist. Dadurch können Abweichungen von der Steuerung oder der modellierten
Realität teils drastische Auswirkungen haben.
Ist lediglich der Startzustand x0 gegeben, nicht jedoch der Endzustand x N , so ist
Qk = 0 sowie S N = 0 keine sinvolle Vereinfachung. Durch Bildung der partiellen
Ableitung ∂x∂ J̃N und mit Hilfe des Konzepts der statischen Optimierung erhält man eine
explizite Formel für die optimale Steuerung u∗k :
26
1.14 Modellreduktion
u∗k = − ( Rk + BkT Sk+1 Bk )−1 BkT Sk+1 Ak xk ,
,
-.
/
=:Kk
= − Kk x k ,
dabei bezeichnet Kk die Kalman-Folge. In diesem Falle ist die Steuerung vom Zustand xk
abhängig, es liegt also eine Zustandsrückkopplung vor.
1.14
Modellreduktion
Bei der Modellierung komplexer Sachverhalte, wie zum Beispiel des Wetters, erhält
man dynamische Systeme sehr hoher Dimension n (A ∈ R n×n , B ∈ R n×m , C ∈ R p×n ,
D ∈ R p×m ), die mit entsprechend großem Rechenaufwand verbunden sind.
Ziel der Modellreduktion ist daher die Konstruktion eines reduzierten Systems Σ̂ mit
 ∈ Rr×r , B̂ ∈ Rr×m , Ĉ ∈ R p×r , D̂ ∈ R p×m und r 1 n, wodurch der Rechenaufwand
deutlich verringert wird. Dabei wird angestrebt, dass die Differenz der Ausgänge ||y − ŷ||
bei gleichem Eingang u möglichst klein ist. Dabei ist die Auswahl der Zustände, die
bei der Erstellung von Σ̂ vernachlässigt werden, von entscheidender Bedeutung. Eine
mögliche Methode um diese Auswahl zu treffen ist das Balanced Truncation (Balanciertes
Abschneiden). Dazu benötigt man zunächst die »Unendliche Gramsche Matrix der
Erreichbarkeit«
∞
P=
∑ ( Ak BBT ( AT )k ),
k =0
und die »Unendliche Gramsche Matrix der Beobachtbarkeit«
∞
Q=
∑ (( AT )k CT CAk ).
k =0
Mit Hilfe dieser Matrizen kann man folgende Berechnungen machen:
– Die minimale Energie um von x0 = 0 zu einem Zustand x̄ zu steuern, ist
||u||2 = x̄ T P −1 x̄
⇒ Die am schwierigsten zu erreichenden Zustände, liegen dann in den Eigenräumen zu den kleinsten Eigenwerten von P .
– Die maximale Energie, die durch x̄ erzeugt werden kann, ist
||y||2 = x̄ T Q x̄
⇒ Die am schwierigsten zu beobachtenden Zustände, liegen dann in den Eigenräumen zu den kleinsten Eigenwerten von Q.
27
1 Dynamische Systeme auf dem optimalen Weg
Ziel ist es schwer erreichbare und schwer beobachtbare Zustände »abzuschneiden«.
Allerdings stimmen schwer erreichbare und schwer beobachtbare Zustände im Allgemeinen nicht überein. Systeme in denen schwer beobachtbare und schwer erreichbare
Zustände übereinstimmen, und die deshalb einfacher behandelt werden können, heißen
balanciert. Für sie gilt dann P = Q.
Noch einfacher ist die Behandlung der Systeme, wenn P und Q nur Werte auf ihrer
Diagonalen haben. Dann spricht man von Hauptachsen-balancierten Systemen,


P=Q=
σ1
..
0
.
0
σn


.
0
Die σi = λi ( PQ) für i = 1, . . . , n heißen dabei Hankel-Singulärwerte.
Für die Methode des Balancierten Abschneidens überführt man das zu reduzierende
System Σ durch eine Transformation in eine Hauptachsen-balancierte Form – man
balanciert das System.
Hat man dann die folgende Darstellung

mit
A11

 A21
C1

A12 B1

A22 B2 
C2 D


Λ1 = 
σ1
..
und
0
.
0
σr
P=Q=



und
'
Λ1 0
0 Λ2
(
,
A11 ∈ Rr×r ,
so lässt sich durch Abschneiden eine Reduzierung durchführen. Das reduzierte System
setzt sich dann folgendermaßen zusammen:
'
A11 B1
C1 D
(
.
So hat man eine Ordnungsreduktion von Σ durchgeführt. Die Anzahl der Variablen
im Modell wurde reduziert und die Dimension des Systems somit verringert.
1.15
Literatur
Als Literatur wurden Aufzeichnungen aus Vorlesungen an der Universität Bremen
verwendet, sowie die folgenden Fachbücher:
[1] Antoulas, Athanasios C.: Approximation of Large-Scale Dynamical Systems (Advances in
Design and Control). Philadelphia, PA, USA 2005.
[2] Strang, Gilbert: Lineare Algebra. Heidelberg 2003.
28
30
2
Biotechnologie im Alltag
2.1
Vorwort
Andrea Freikamp und Philip Weyrauch
In den vergangenen Jahren hat die Biotechnologie einen wahren Boom erlebt und sich
zu einem wichtigen und weiterhin stark wachsenden Wirtschaftszweig entwickelt. Doch
die Verwendung von Mikroorganismen zur Herstellung verschiedener Produkte ist
keineswegs neu. Schon vor tausenden von Jahren machten sich Menschen unbewusst die
Stoffwechselleistungen von einzelligen Lebewesen zu Nutze, wie zum Beispiel bei der
Gärung von Traubensaft zu Wein. Inzwischen sind die dafür verantwortlichen Prozesse
bekannt und zahlreiche molekularbiologische und gentechnische Methoden machen es
möglich, Mikroorganismen, aber auch Tiere oder Pflanzen, gezielt zu verändern und für
spezielle Zwecke zu entwickeln.
Wird in der Öffentlichkeit über Biotechnologie diskutiert, stehen meist umstrittene
Anwendungen wie genetisch veränderte Lebensmittel im Zentrum der Debatte. Darüber
geraten andere, schon seit langem etablierte Anwendungen der Biotechnologie leicht in
Vergessenheit. Beispiele sind die Zugabe von Enzymen zu Waschmitteln oder die Verwendung von Mikroorganismen zur Synthese chemischer Verbindungen, die unter anderem
auch Lebensmitteln zugesetzt werden – als wichtige Vertreter wären hier Zitronensäure,
Glutamat und Aromastoffe zu nennen. Diese modernen Anwendungsbeispiele standen
ebenso wie molekularbiologische Methoden im Fokus unserer Kursarbeit.
2.2
Biotechnologie in der Lebensmittelindustrie
Biotechnologie ist überall zu finden, auch da, wo wir es nicht erwarten. Allgemein
wird sie als Anwendung von Naturwissenschaft und Technologie an lebenden Organismen, den Teilen und Produkten von ihnen verstanden (Definition gemäß der OECD).
Zusätzlich wird sie in drei Teilbereiche unterteilt: die weiße, rote und grüne Biotechnologie, wobei weiß für industrielle, rot für medizinisch-pharmazeutische und grün für
landwirtschaftliche Anwendungen der Biotechnologie stehen.
Alltäglich begegnet uns diese Technologie in den Lebensmitteln, die wir zu uns
nehmen. So sind es Mikroorganismen, die uns beispielsweise Wein, Bier und viele
verschiedene Käsesorten schaffen. Früher unbewusst eingesetzt, um Lebensmittel haltbarer zu machen, werden sie heute gezielt verwendet – für Geschmacks- und Aromaveränderung sowie zur Erhöhung der gesundheitlichen Wertigkeit und zum Erzielen
einer berauschenden Wirkung. Durch Gärungen, bei denen organisches Material von
Mikroorganismen unter Anaerobie (Ausschluss von Sauerstoff) abgebaut wird, entstehen für die Lebensmittel interessante Stoffwechselprodukte. Während bei aeroben
31
2 Biotechnologie im Alltag
Bedingungen (in Anwesenheit von Sauerstoff) nur Kohlenstoffdioxid und Wasser entstehen, sind es bei Gärungen z. B. Milchsäure (Lactat) und Ethanol.
Damit die verschiedenen Mikroorganismen ihre Funktionen durchführen können,
beginnt man mit einer Starterkultur. Diese übernimmt dabei die Pionierfunktion und
besiedelt das Nahrungsmittel als erstes. Zudem ist durch diese Kultur die erste Säureoder Alkoholproduktion möglich, die zur Konservierung des Lebensmittels beiträgt. Des
Weiteren gibt man Schutzkulturen zu der Fermentation (Gärung), um das Wachstum
von Krankheitserregern zu verhindern. Zudem gibt es noch Reifungs- und probiotische
Kulturen (auch: Probiotika), wobei die Reifungskulturen für die Entwicklung des Aromas und Geschmacks der Lebensmittel zuständig sind. Die Probiotika verändern die
funktionellen Eigenschaften der Lebensmittel, d. h. sie können eine positive gesundheitliche Wirkung für uns haben, wenn genug von ihnen aktiv in den Darm gelangen.
Beispielsweise können sie den Verlauf von Infektionen im Verdauungstrakt mildern
und/oder verkürzen.
Den Prozess der Fermentation können vor allem Bakteriophagen stören. Diese infizieren die Bakterien und zerstören sie durch ihre Vermehrung. Der Hauptgrund für
Säuerungsstörungen in milchverarbeitenden Betrieben sind eben genannte Bakteriophagen. Ein weiteres Problem bei der Fermentation kann eine Fehlgärung sein. Das kann
beispielsweise durch Propionsäurebakterien geschehen, die in Hartkäsen vorhanden und
für die Löcher oder Augen im Käse verantwortlich sind. Diese Bakterien setzen unter
bestimmten Bedingungen Lactat unter Bildung von Kohlenstoffdioxid und Wasserstoff
zu Buttersäure um. Die Buttersäure macht den Käse dann ungenießbar. Trotz der Fehlgärungen, die auftreten können, haben wir durch die Mikroorganismen eine Vielzahl
an Käsesorten gewonnen und es durch Aromen geschafft, viele Geschmackssorten zu
entwickeln.
2.3
Bioverfahrenstechnik
Die Bioverfahrenstechnik, welche die technologische Teildisziplin der Biotechnologie
darstellt, hat das Ziel, Anlagen für die Biokatalyse von bestimmten Stoffumwandlungen
zu entwickeln, die effizient arbeiten und den speziellen Anforderungen der verwendeten
biologischen Systeme entsprechen. Des Weiteren müssen Verfahren zur ständigen Kontrolle des Prozesses und eine Aufarbeitung der entstehenden Produkte konzipiert werden.
Optimierung und Erweiterung dieser Anlagen sind ein weiteres Teilgebiet der Bioverfahrenstechnik. Wichtigster Bestandteil dieser Anlagen sind Bioreaktoren, die optimale
Bedingungen für die jeweiligen spezifischen Biokatalysatoren (Mikroorganismen bzw.
isolierte Enzyme) bieten.
Es gibt viele verschiedene Bioreaktoren, welche alle Vor- und Nachteile haben. Der
traditionellste und am häufigsten verwendete Bioreaktor ist der Rührkesselbioreaktor,
welcher z. B. bei der Bierherstellung verwendet wird. Das Gehäuse des Rührkesselbioreaktors besteht meistens aus austenitischem Stahl (max. Kohlenstoffanteil von 0.08 %);
nur wenn das im Reaktor befindliche Medium hochkorrosiv ist, muss Titan verwendet
32
2.3 Bioverfahrenstechnik
werden. Weitere wichtige Bestandteile dieses Reaktors sind der Rührer, welcher zur
Dispersion/Durchmischung dient, und Strombrecher, welche eine Wirbelbildung bei
hohen Drehzahlen verhindern. Die Temperatur im Reaktor wird durch einen von Wasser
durchflossenen Doppelmantel reguliert. Bei aeroben Fermentationen ist ein Begaser zum
Einbringen von Sauerstoff vorhanden.
Im Gegensatz zum Rührkessel-Bioreaktor hat der Air-Lift-Schlaufenreaktor keinen
Rührer, sondern der Begaser übernimmt die Aufgabe der Durchmischung des Mediums.
Dabei wird durch den Begaser Luft in den Reaktor geschleust, sodass es in diesem Teil
zum Aufsteigen des Mediums kommt (»Riser« genannt). An der Oberfläche angekommen verlässt der Großteil der Blasen das Medium, wodurch dieses dichter wird und
wieder in den unteren Teil des Reaktors absinkt (»Downcomer«). Der »Riser« und der
»Downcomer« werden dabei von Trennblechen isoliert, sodass es zu einer umlaufenden
Strömung kommen kann. Es gibt eine abgewandelte Form dieses Bioreaktors, bei dem der
»Downcomer« extern angeordnet ist. Dies hat den Vorteil, dass man den Durchmesser
des »Downcomers« verringern kann und sich dadurch die Fließgeschwindigkeit erhöhen
lässt. Das Erhöhen der Fließgeschwindigkeit ermöglicht eine bessere Durchmischung
des Mediums.
In einigen Bioreaktoren, wie z. B. im Festbettreaktor, benutzt man Trägermaterialien,
um die Biokatalysatoren zu immobilisieren. Dabei wird das Medium extern mit Sauerstoff und Nährstoffen versorgt und dann durch ein Festbett mit den Trägermaterialien
geleitet. Die Trägermaterialien müssen einige Bedingungen erfüllen, wie zum Beispiel
eine hohe Porosität und einen kleinen Durchmesser zur Vergrößerung der Oberfläche,
auf dem die Biokatalysatoren wachsen können. Allerdings sollte das Trägermaterial
nicht zu klein sein, da es sonst zum Verwachsen der Poren kommen kann und somit zu
einer Kanalbildung im Festbett, wodurch die Versorgung für einige Mikroorganismen
abgeschnitten wird. Da in diesen Reaktoren die Mikroorganismen eine lange Lebenszeit
haben, lassen sich große Suspensionsreaktoren (mehrere hundert Liter) bereits durch
Festbettreaktoren mit einem Volumen von 5–10 l ersetzen; allerdings sind diese schwer
zu reinigen und zudem ist das Scale-Up dieser Reaktoren ein weiterer kritischer Faktor.
Der Anspruch, die Prozesse der Fermentation möglichst ökonomisch zu gestalten,
führte zur Entwicklung verschiedener Verfahren. Das ursprünglichste und einfachste Verfahren, welches auch die weiteste Verbreitung in den verschiedenen Industriebranchen
findet, ist das Batch-Verfahren. In einem Bioreaktor wird Substrat von Biokatalysatoren
umgesetzt. Während der Reaktion bleibt das Volumen des Mediums weitgehend unverändert, es werden lediglich Stoffe hinzugegeben um wichtige Parameter wie beispielsweise
den pH-Wert zu optimieren. Nach Ablauf des Prozesses wird das Medium aus dem
Reaktor entnommen und die Produkte in verschiedenen Aufarbeitungsschritten isoliert.
Schon erste, unbewusste Fermentationen von Lebensmitteln (zum Beispiel Bierbrauen)
funktionierten nach diesem Prinzip. Höhere Effizienz, aber auch gesteigerte Ansprüche
an die Technologie, bietet das Fed-Batch-Verfahren. Es läuft zunächst wie der Batch
ab. Ist das Substrat jedoch weitgehend verbraucht, wird neues, konzentriertes Substrat
(Feed) hinzugegeben. Frisches Substrat regt das Wachstum der Mikororganismen an,
sodass diese keine stationäre Phase erreichen.
33
2 Biotechnologie im Alltag
Während die erstgenannten Verfahren eine diskontinuierliche Fermentation beinhalten,
ermöglicht der Chemostat einen kontinuierlichen Prozess. Dabei wird ständig ein Feed
in den Reaktor eingebracht. Gleichzeitig fließt Medium ab, was aufgrund niedriger
Produktkonzentrationen höhere Ansprüche an die Isolation von bestimmten Stoffen
aus diesem stellt. Dieses Verfahren findet vor allem in der Umwelttechnik Verwendung.
Befindet sich am Abfluss des Chemostat eine Einheit, die Biomasse (Zellen) abscheidet
und in den Reaktor zurückführt, spricht man von Perfusion mit Zellzurückhaltung.
Sollen Zellen den Reaktor nicht verlassen, ist dieses Verfahren eine Möglichkeit, die im
Vergleich zur Dialyse weniger aufwändig ist. Bei der Dialyse fließt frisches Medium am
Medium des Reaktors vorbei. Die Membran, welche beide Medien voneinander trennt,
ist semipermeabel und ermöglicht die Diffusion von Substrat oder Produkten. Entweder
ist das hochmolekulare Produkt nicht in der Lage durch die Membran zu diffundieren,
oder die Membran dient lediglich dazu, die Biomasse im Reaktor anzureichern. Der
erste Fall hat eine hohe Produktkonzentration zur Folge, welche weniger aufwändig
aufbereitet werden muss.
Jedes der einzelnen Verfahren stellt andere Ansprüche an die Prozesskontrolle und
Prozesssteuerung. So müssen bei kontinuierlichen Verfahren ein Auswaschen der Biomasse durch eine zu hohe Verdünnungsrate verhindert werden. Außerdem muss der
Prozess mit den Anforderungen der eingesetzten Biokatalysatoren kompatibel sein.
Weiterhin ist auch abzuwägen, ob der technische Aufwand einer Dialyse ökonomischer
ist als zusätzliche Aufbereitungsschritte in Verbindung mit einem wenig komplexen
Batch-Verfahren.
34
2.4 Antibiotika
2.4
Antibiotika
Antibiotika sind Substanzen mit geringer molekularer Masse, die schon bei niedrigen
Konzentrationen das Wachstum von Mikroorganismen (Bakterien oder Pilze) hemmen.
Sie wirken gegen diese wachstumsinhibierend (bakteriostatisch) oder irreversibel schädigend (bakterizid). Seit es Alexander Fleming im Jahre 1929 gelang, mit dem Pilz
Penicillium notatum das Wachstum des Bakteriums Staphylococcus aureus auf einer
Agarplatte zu hemmen, gelten Antibiotika als wichtigste Entdeckung in der Medizin.
Mikroorganismen stellen bis heute die entscheidende Gruppe dar, aus denen Antibiotika
isoliert werden. Obwohl bereits mehr als 12 000 Substanzen bekannt sind, geht die Suche
nach neuen Wirkstoffen ständig weiter, da noch längst nicht alle Verbindungen mit
antibiotischer Wirkung gefunden wurden. Von den fädigen Bakterien, den Streptomyces,
wurden beispielsweise erst ca. 3–5 % erforscht.
Nun stellt sich die Frage, wie ein Antibiotikum in einer Bakterienzelle wirkt. Es
greift mit bestimmten Mechanismen in die Zellwandsynthese, die Proteinsynthese,
die DNA-Replikation usw. ein. In der Zellwand hemmen z. B. ß-Laktam-Antibiotika
wie Penicillin die Biosynthese bestimmter Makromoleküle (Peptidoglykane), die der
Zellwand Stabilität verleihen. Die Übersetzung der mRNA in Aminosäureketten wird
durch das Antibiotikum Chloramphenicol unterbrochen.
Da Antibiotika leider oft falsch angewendet und zu schnell an den Patienten vergeben werden, nimmt die bakterielle Resistenzentwicklung immer weiter zu. Auch die
Verwendung von Antibiotika in der Viehzucht stellt eine wichtige Ursache für die Verbreitung von Resistenzen und der daraus resultierenden Gefahr dar. Bakterien können
auf verschiedene Weise zu ihrer Resistenz gegenüber einem Antibiotikum gelangen.
Man unterscheidet primäre oder natürliche Resistenzen von sekundären, erworbenen
Resistenzen. Bei den primären Resistenzen besitzt das Antibiotikum bei dem Bakterium
eine Wirkungslücke und ist von vornherein unwirksam. Cephalosporine wirken beispielsweise nicht bei Enterokokken. Bei den sekundären Resistenzen wäre das Bakterium
eigentlich empfindlich gegen das Antibiotikum, jedoch sind einzelne Stämme resistent
geworden. Dies geschieht durch Mutation oder Übertragung von Resistenz vermittelten
Genen durch Transformation, Transduktion oder Konjugation. Der Schutz der Bakterien vor Antibiotika kann folgendermaßen aussehen: Sie können Enzyme bilden, die
die Antibiotika spalten oder ändern. So werden die Antibiotika unwirksam oder inaktiviert. Außerdem können die Bakterien sogenannte Efflux-Pumpen ausbilden, die
die Antibiotikakonzentration im Bakterium so gering halten, dass das Antibiotikum
ebenfalls nicht wirken kann.
In Deutschland sterben jährlich 40 000 Menschen aufgrund multiresistenter Keime. Je
häufiger Antibiotika eingesetzt werden, desto höher ist die Wahrscheinlichkeit, dass neue
Resistenzen entstehen, also ist eine rationale Anwendung von Antibiotika unerlässlich,
um die oft unterschätzte Gefahr der Resistenzen einzudämmen.
35
2 Biotechnologie im Alltag
2.5
Enzymscreening und rekombinante Proteinproduktion
2.5.1 Enzymscreening
Enzyme als Alternative zu umweltschädlichen Chemikalien sind gerade für die Industrie
interessant, z. B. als Fettfleckentferner in Waschmitteln, denn sie arbeiten meist sehr
spezifisch und werden dafür nur in geringen Mengen benötigt. Außerdem sind sie
biologisch abbaubar.
Beim Enzymscreening sucht man nach Enzymen, die eine bestimmte Funktion erfüllen,
um sie für industrielle Prozesse zu nutzen. Zunächst wird das Problem definiert und auf
sein Geschäftspotenzial analysiert. Entscheidet man sich zur Umsetzung des Projekts,
werden zuerst die Kriterien für die gewünschte Anwendung bestimmt, darunter die
umzusetzende Substanz, der pH-Wert und die Temperatur. Danach wird daraus ein
biochemischer Assay entwickelt, d. h. die Umgebung, in der das Enzym später seine
spezifische Wirkung entfalten soll.
Beim primären und sekundären Screening gibt man potentielle Enzyme hinzu und
selektiert solche mit positivem Ergebnis, wobei der Assay beim sekundären Screening
selektiver gestaltet wird. Um die Enzyme in größerem Maßstab herstellen und testen zu
können, werden die Gene für die Enzyme aus dem Spenderorganismus isoliert und in
Wirtsorganismen hergestellt (s. u.). Mit den daraus entstandenen Enzymen kann man bei
Anwendungsversuchen eindeutige Rückschlüsse auf deren Wirkungsweise und Effizienz
ziehen.
2.5.2 Alternative Screeningmethoden
Kennt man für eine bestimmte Anwendung bereits ein geeignetes Enzym, so kann
man beispielsweise über Homologie-basiertes Screening im reichen Fundus der Natur nach ähnlichen Enzymen mit möglicherweise noch besseren Eigenschaften suchen.
Homologie-basiertes Screening beruht auf der Ähnlichkeit zwischen enzymkodierenden
Genen. Die Sequenzinformationen werden benutzt, um Sequenzhomologien aufzufinden und die durch die Evolution besonders konservierten Regionen der DNA zu
identifizieren, also die Bereiche, die sich im Laufe der Zeit kaum durch Mutationen
verändern. Mittels dieser Abschnitte werden Primer hergestellt, die an den ähnlichen
konservierten Bereich anderer enzymkodierender Gene binden. Dadurch ist es möglich,
die von dem Primer gebundene DNA mittels PCR (Polymerase Chain Reaction, deutsch
Polymerase-Kettenreaktion) zu vervielfältigen, um das Genfragment in Wirtsorganismen zu integrieren. Alternativ werden Hybridisierungsmethoden angewandt. Hierbei
wird die zu untersuchende DNA mit einer radioaktiv markierten Probe, Fragment einer
konservierten Region, inkubiert. Dabei bindet die Probe nur an Gensequenzen, die mit
ihrer eigenen ganz oder nahezu identisch sind. Anhand der Markierung kann man nach
der Inkubation feststellen, ob die Probe an die DNA gebunden hat. Ist dies der Fall, so
weiß man, dass sich das Gen, aus dem die Probe stammt, auf der getesteten Sequenz
befunden hat. Damit hat man ein dem Enzym, aus dessen konserviertem Bereich die
Probe stammt, in der Funktion ähnliches Protein gefunden.
36
2.5 Enzymscreening und rekombinante Proteinproduktion
Abbildung 2.1: Proteinaufreinigung durch Säulenchromatographie.
2.5.3 Rekombinante Proteinproduktion
Zur Herstellung von bestimmten Zielproteinen in bakteriellen Wirtsorganismen bedient
man sich natürlicher Chromosom-unabhängiger DNA-Elemente, den sogenannten Plasmiden. Diese werden unabhängig vom Bakterienchromosom repliziert und besitzen
einen DNA-Abschnitt, in den mittels DNA-sequenzspezifischer Enzyme, den Restriktionsenzymen, leicht das Zielgen integriert werden kann. Letzteres ist einem sogenannten
Promotor unterstellt, über den reguliert wird, ob und wann das Gen abgelesen werden
kann und somit auch die Produktion des Zielproteins beeinflusst wird. In der Biotechnologie bedient man sich häufig eines Promotors, bei dem nur in Anwesenheit eines
bestimmten Signalstoffs das Gen zum Ablesen freigegeben ist. Damit kann man von
außen die Produktion des erstrebten Produkts steuern.
Zur leichteren Aufreinigung des Zielproteins nach der Produktion setzt man oft einen
tag ein, d. h. eine an das Protein fusionierte Peptidsequenz, die sehr spezifisch an einen
bestimmten Stoff, den sogenannten Liganden, bindet. Über diese Bindungseigenschaft
kann man das Zielprotein von den restlichen Wirtsproteinen trennen, wie man in Abbildung 2.1 sehen kann. Das hellgrau dargestellte Zielprotein mit dem tag (schwarz) kann
an die Liganden (schwarze Pfeile an der weißen Säule) binden, die Wirtsproteine (dunkelgrau) nicht. Zum Schluss sind alle Wirtsproteine abgeflossen und nur das Zielprotein
verbleibt am Liganden. Bei Zugabe eines weiteren Stoffs löst sich das Zielprotein wieder
und kann in einem separaten Behälter aufgefangen werden. So erhält man eine relativ
saubere und konzentrierte Lösung des erzielten Produkts als Ausgangspunkt für z. B.
Struktur- und Funktionsanalysen.
Soll ein für den Wirtsstamm toxisches Protein produziert werden, integriert man in
das Zielprotein eine zusätzliche Aminosäuresequenz, wodurch es zunächst inaktiv bleibt.
Diese wird nach dem Abtöten der Zellen herausgeschnitten und das funktionelle Protein
entsteht, ohne aber vorher den Wirtsorganismus zu schädigen. Diese Methode nennt
man Protein-Splicing.
37
2 Biotechnologie im Alltag
2.5.4 Produktionssysteme
Biotechnologische Laborstämme sind meist gentechnisch verändert, um Produktionserfolg und -menge zu steigern, z. B. durch den Einsatz eines schnelleren Transkriptionsapparats, d. h. das Gen wird schneller abgelesen und somit mehr Zielprotein in kürzerer
Zeit hergestellt. Meist sind Bakterien wie Escherichia coli das Produktionssystem der Wahl,
denn sie produzieren viel und billig in relativ kurzer Zeit und sind leicht zu kultivieren.
Einfache Eukaryoten wie z. B. die Bierhefe Saccharomyces cerevisiae teilen diese Vorteile;
höhere Systeme wie z. B. Tierzellen sind ungleich schwieriger zu handhaben, wobei
hier auch komplexere Proteine fehlerfrei hergestellt werden können. Dies liegt daran,
dass bei Proteinen höherer Organismen häufig noch eine weitere Prozessierung für die
spätere Funktionalität vonnöten ist, z. B. die Anbindung eines Zuckermoleküls. Bakterien
können diese sogenannten posttranslationalen Modifikationen nicht durchführen und
komplexe Proteine somit nicht fehlerfrei produzieren.
2.6
Pharmaproteine
Pharmaproteine sind biotechnologisch hergestellte Proteine, die in der Medizin genutzt
werden, zum Beispiel als Therapeutika. Dabei kann man zwischen verschiedenen Arten
von Pharmaproteinen wie Enzymen, Botenstoffen und Impfstoffen unterscheiden. Ihnen
allen ist gemein, dass sie als Ersatz für ein defektes oder in nicht ausreichendem Maße
natürlich produziertes Protein eingesetzt werden.
Pharmaproteine können aus menschlichem oder tierischem Gewebe isoliert werden.
Meistens nutzt man jedoch gentechnisch veränderte Tiere und Pflanzen oder rekombinante Mikroorganismen zur Synthese. Bei der Wahl des Organismus gilt, dass je komplexer
das zu synthetisierende Protein ist, desto komplexer müssen die Syntheseleistungen
der produzierenden Organismen sein. So nutzt man für einfache Proteine Bakterien wie
Escherichia coli oder einzellige Hefen, die im Gegensatz zu Bakterien eukaryotisch sind.
Für komplexere Proteine werden transgene Tiere oder Pflanzen eingesetzt.
Die Nutzung von biotechnologischen Produktionsverfahren zur Synthese von Pharmaproteinen hat zum einen den Vorteil, dass die Erträge im Vergleich zu deren Isolierung aus Geweben wesentlich höher sind. Zum anderen kann eine Verunreinigung
durch Krankheitserreger nahezu ausgeschlossen werden. Trotzdem können allergische
Reaktionen auftreten, da das gebildete Protein dem menschlichen meistens nicht vollkommen gleicht, wenn dieses in rekombinanten Organismen synthetisiert wurde. So
werden zum Beispiel bei posttranslationalen Modifikationen oft falsche Zuckerreste an
die Proteine angehängt. Das kann zur Folge haben, dass das Protein als fremd eingestuft
wird und eine Immunreaktion hervorruft.
Wie schon erwähnt werden oftmals Bakterien oder einzellige Hefen zur Synthese von
Pharmaproteinen genutzt. In einigen Fällen werden die Proteine ins Medium sekretiert
und können daraus direkt gereinigt werden. In anderen Fällen müssen zunächst die
produzierenden Organismen aus dem Medium geerntet und anschließend die Proteine
aus ihrem Inneren isoliert und mitunter aufwendig gereinigt werden. Oftmals ist, falls
38
2.7 Therapie von Diabetes mit biotechnologisch hergestelltem Insulin
Bakterien zur Synthese genutzt werden, noch eine zusätzliche Renaturierung vonnöten.
Ein Grund dafür ist, dass eukaryontische Proteine in Bakterien normalerweise nicht in
ihrer korrekten dreidimensionalen Struktur vorliegen. Sie sammeln sich daher in Aggregaten, den sogenannten »inclusion bodies«, an. Eine weitere Ursache für die Entstehung
dieser Aggregate ist, dass Gram-negative Bakterien wie E. coli die Proteine nicht ins
Medium sekretieren können, sodass sich zu viele Proteine im Cytosol ansammeln.
Am Schluss soll das Protein in möglichst reiner Form vorliegen und vor eventuellen
Schädigungen wie zum Beispiel Denaturierung durch Oxidation geschützt sein. Da die
Qualitätskontrollen sehr strikt sind, muss durch die Produktionsverfahren gewährleistet
werden, dass die entsprechenden Proteine immer in gleichbleibend hoher Qualität
hergestellt werden können.
Die Möglichkeiten der Biotechnologie zur Synthese von Pharmaproteinen sind noch
nicht ausgeschöpft. Stetig forscht man an effizienteren Produktionsverfahren. Forscher
gehen sogar davon aus, dass man in Zukunft proteinkodierende Gene als Medikamente
nutzen kann, sodass das entsprechende Protein direkt im Körper selbst produziert wird.
Ein Beispiel für ein oft verwendetes Pharmaprotein ist das Insulin, das zur Therapie
von Diabetes eingesetzt wird.
2.7
Therapie von Diabetes mit biotechnologisch hergestelltem Insulin
Das kleine Peptidhormon Insulin ist das einzige Hormon, das den Blutzuckerspiegel
senken kann. Durch die Einnahme von Nahrung und deren Abbau gelangt Glucose
ins Blut und erhöht den Blutzuckerspiegel. Insulin ermöglicht die Aufnahme von Glucose in die Zellen und bewirkt gleichzeitig die Synthese von Proteinen, die dann die
Glucose verarbeiten. Insulin besteht aus zwei Polypeptid-Ketten (α und β), die durch
zwei Disulfidbrücken verbunden sind. Zudem gibt es noch eine dritte Disulfidbindung innerhalb der α-Kette. Jede Disulfidbindung bildet sich zwischen zwei Cysteinen
(Aminosäuren).
Das Insulin wird in den β-Zellen der Langerhans-Inseln (im Pankreas) synthetisiert.
Im Zellkern wird das Insulingen zu mRNA transkribiert, die ihn danach verlässt. Im
Cytoplasma wird die mRNA von den am endoplasmatische Retikulum (ER) lokalisierten
Ribosomen zu Prä-Proinsulin translatiert, das zwar ein Protein ist, aber noch kein aktives
Hormon. Beim Verlassen des ER wird eine Signalsequenz vom Prä-Proinsulin abgespalten,
so dass Proinsulin entsteht. Letzteres wird vom Golgi-Apparat aufgenommen und
dort gelagert. Bei Insulinbedarf verarbeiten Enzyme das Proinsulin weiter, so dass
aktives Insulin entsteht. Dieses verlässt den Golgi-Apparat, wird ins Blut sekretiert und
bindet an die Insulinrezeptoren der Zellen. Infolgedessen werden im Inneren der Zelle
vorliegende Glukosetransporter in die Zellmembran eingebaut und die Glucose kann
aus dem Blut in die Zelle gelangen. Außerdem werden zwei Phosphorylierungskaskaden
aktiviert: Proteinkinase-B für die kurzzeitige Kontrolle der Stoffwechselenzyme durch
Phosphorylierung, und die Signalübertragungsproteine Ras und MAPK (mitogen activated
protein kinase), die die Synthese weiterer Proteine zur Verarbeitung von Glucose bewirken.
39
2 Biotechnologie im Alltag
Diabetes mellitus ist eine Stoffwechselkrankheit, die mit einem erhöhten Blutzuckerspiegel einhergeht. Man unterscheidet zwei Typen der Erkrankung: Beim Typ I werden
die Insulin produzierenden Zellen zerstört, zur Therapie gibt man lebenslang künstlich
Insulin zu. Beim Typ II reagiert der Organismus weniger empfindlich gegen Insulin
(Insulinresistenz), die Therapie drückt sich in Gewichtsabnahme und in schweren Fällen
ebenfalls durch Insulinzugabe aus. Das Ziel ist das Überwinden der Insulinresistenz.
Die ersten Behandlungsverfahren von Diabetes bestanden in der Gabe von Schweinebzw. Rinderinsulin, das direkt aus den Tieren isoliert wurde. Aufgrund der vielen Nachteile, die diese Methoden mit sich brachten, wird Insulin seit dem Jahr 1979 gentechnisch
durch Bakterien hergestellt. Dafür werden die Gene für die α- bzw. β-Kette auf separaten Plasmiden jeweils hinter das Gen für das Enzym β-Galactosidase als Reportergen
fusioniert. Zwischen die beiden Gene baut man noch die Nukleotidsequenz für die
Aminosäure Methionin ein. Diese zwei Plasmide werden dann in zwei verschiedene E.
coli-Kulturen eingebracht und die Zielgene darin exprimiert. Man isoliert anschließend
die von den Bakterien gebildeten Proteine und unterzieht sie einer Bearbeitung mit Bromcyan (CNBr). Diese Säure spaltet Proteinketten dort, wo es Methionin gibt. So gewinnt
man die α- und β-Ketten. Schließlich erstellt man eine Mischung beider Ketten und
unterzieht diese einer sogenannten oxidativen Sulfitolyse, wobei die Disulfidbindungen
zwischen den beiden Ketten entstehen. Nun hat man aktives Insulin gewonnen.
2.8
Immuntechnologie
2.8.1 Antikörper
Antikörper sind Moleküle des Immunsystems, die körperfremde Moleküle (Antigene)
erkennen und binden. Sie bestehen aus vier Proteinuntereinheiten: zwei leichten und
zwei schweren Ketten. Jede dieser Ketten besteht aus einer konstanten und einer variablen Region. Die konstante Region ist innerhalb eines Organismus bei allen Antikörpern
derselben Klasse gleich, wohingegen die variablen Regionen, welche an das Antigen
binden, differieren.
Durch die schweren Ketten lassen sich die Antikörper in verschiedene Oberklassen
einteilen. So gehören die häufigsten Antikörper zur Oberklasse Immunglobulin G,
welches vor allen Dingen gegen Bakterien wirkt. Durch weitere kleine Unterschiede
in den Ketten werden die Antikörper dieser Oberklasse nochmals in verschiedene
Unterklassen eingeteilt.
Die Aufgabe von Antikörpern ist es, dem Körper durch das Binden der Antigene eine
gewisse Immunität vor Krankheitserregern zu vermitteln. Sie werden jeweils spezifisch
von einer B-Zell-Population synthetisiert. Entgegen der Auffassung, dass sie nur im
Krankheitsfall produziert werden, sind Antikörper ständig in geringer Konzentration im
Körper vorhanden. Sind Antigene im Körper, so werden die B-Zellen, welche Antikörper
produzieren, die auf das Antigen reagieren, angeregt und beginnen damit sich verstärkt
zu teilen. Somit werden auch die Antikörper häufiger produziert. Mittels Mutation und
Selektion wird der am besten auf das Antigen passende Antikörper ausgewählt. Dar-
40
2.8 Immuntechnologie
aufhin greifen weitere Mechanismen des Immunsystems, um das Antigen unschädlich
zu machen. Weiterhin werden einige B-Zellen zu Gedächtniszellen und speichern so
das Wissen um den Antikörper im Gedächtnis des Immunsystems, um ihn bei erneuter
Infektion schneller in größerer Zahl produzieren zu können.
2.8.2 Impfen
Das Immunsystem ist durch das immunologische Gedächtnis in der Lage, sich an Antigene, die es schon einmal bekämpft hat, zu »erinnern« und so sehr viel schneller und
effizienter eine Immunreaktion einzuleiten – oft schon, bevor erste Krankheitssymptome
auftreten. Diese Fähigkeit sich zu erinnern beruht auf einigen wenigen Gedächtniszellen.
Viele Impfstoffe basieren auf unschädlich gemachten oder abgeschwächten Krankheitserregern, die immer noch als Antigen fungieren können und so das immunologische
Gedächtnis mit neuen Informationen versorgen.
Dieses Vorgehen ist jedoch nicht mit allen Krankheitserregern möglich. Daher bedient
man sich beispielsweise Spaltimpfstoffen, die nur ein als Antigen wirksames Protein
aus der Oberfläche des Krankheitserregers enthalten. Sollte auch diese Methode ihre
Wirkung verfehlen, so kann auf Peptidimpfstoffe zurückgegriffen werden. Diese bestehen nur aus Bruchstücken von Proteinen des Krankheitserregers, welche mithilfe eines
Carrier-Proteins verbunden werden. Ferner kann man sich auch sogenannter Vektorimpfstoffe bedienen. Hierbei wird die DNA eines Antigens vom Erreger in die eines nicht
pathogenen Wirtes eingeschleust. Dies induziert eine Immunreaktion sowohl gegen das
ursprüngliche Antigen, als auch gegen den Wirt.
Für all diese Verfahren muss ein spezifisches Antigen des Erregers bekannt sein. Um
neue Antigene zu identifizieren, bedient man sich der reversen Impfstoffentwicklung.
Dabei beginnt die Suche nach einem neuen Antigen mit dem Anlegen einer Expressionsbibliothek und der Prüfung auf eine Immunantwort an Mäusen. Löst ein Protein eine
starke Immunreaktion im Tierversuch aus, so ist es möglicherweise zur Herstellung
eines Impfstoffes geeignet. Es muss jedoch noch geprüft werden, ob das exprimierte
Protein auch ein Oberflächenprotein ist.
2.8.3
Enzymatische Testverfahren: Der ELISA
bedeutet »enzyme-linked immunosorbent assay«, was übersetzt enzymgekoppelter
Immunadsorptionstest heißt. Man benutzt ihn, um bestimmte Proteine, Viren oder
Ähnliches in einer Probe nachzuweisen, oder um die Konzentration derer zu ermitteln.
Das Antigen, welches für die Antikörper spezifisch ist, wird auf eine Mikrotiterplatte
immobilisiert. Anfangs muss man also einen Antikörper synthetisieren, der für das
nachzuweisende Protein spezifisch ist. An diesen Antikörper koppelt man ein Enzym,
welches als Nachweissystem dient. Dieses setzt ein farbloses Edukt zu einem farbigen
Produkt um, wie zum Beispiel die alkalische Phosphatase, die X-Phos in einen blauen
Farbstoff umsetzt.
Das Protein, welches man nachweisen will, wird an eine Mikrotiterplatte gebunden.
Daraufhin wird der Antikörper mit dem gekoppelten Nachweissystem hinzugegeben,
welcher an das Antigen bindet. Anschließend wird die Mikrotiterplatte gewaschen,
damit keine Rückstände zurückbleiben und man nur den Antigen-Antikörperkomplex
ELISA
41
2 Biotechnologie im Alltag
mit dem daran gekoppelten Nachweissystem erhält. Gibt man nun das Edukt hinzu,
wird dieses vom Nachweissystem umgesetzt. Die Intensität des Farbstoffs gibt nun die
Konzentration der Antigene an.
Es gibt auch ELISA-Assays, bei denen das Nachweissystem nicht an den primären
Antikörper gekoppelt ist, sondern an einen sekundären. Der primäre Antikörper erkennt
hierbei spezifisch das Antigen. Der sekundäre Antikörper erkennt jedoch nicht das
Antigen, sondern den konstanten Teil des primären Antikörpers. Die Kombination
aus zwei Antikörpern ist im Endeffekt meist wirtschaftlicher, weil die sekundären
Antikörper alle primären Antikörper eines Organismus erkennen und somit nicht für
jedes nachzuweisende Protein ein eigener enzymgekoppelter Antikörper hergestellt
werden muss.
Der ELISA wird für die klinische Diagnose von Erkrankungen des Menschen, wie
zum Beispiel HIV-Infektion, Erkrankungen bei Milchkühen und Geflügel sowie für
Pflanzenerkrankungen, zur Forschung und für Schwangerschaftstests eingesetzt. ELISAKits erkennen selbst winzige Mengen eines pathogenen Virus oder Bakteriums, bevor
der Organismus Zeit gehabt hat darauf zu reagieren, da bei bestimmten Krankheiten
charakteristische Proteine den Beginn dieser kennzeichnen, noch bevor der Patient
Symptome entwickelt. Dieses hilft die Krankheit schon zu behandeln, bevor der Patient
massiv geschädigt wird.
Ein ELISA kann aber nicht nur ein Antigen, sondern auch das Vorhandensein eines
Antikörpers nachweisen. So kann man zum Beispiel Antigene des HI-Virus auf der
Mikrotiterplatte immobilisieren und Blutserum der Testperson hinzugeben. Ist die
Person mit HIV infiziert, befinden sich in ihrem Serum Antikörper, die an das Antigen
binden. Mit einem gegen den konstanten Teil von menschlichen Antikörpern gerichteten
sekundären Antikörper können eventuell gebundene HIV-Antikörper des Probanden
nachgewiesen werden.
42
2.9 Transgene Organismen
2.9
Transgene Organismen
Ein transgener Organismus ist ein Organismus, der in der Natur natürlicherweise
nicht vorkommt. Er wird hergestellt, indem ein Gen aus einem anderen Organismus
(Tiere, Pflanzen, Bakterien, Archaen oder Viren) auf den zu modifizierenden übertragen
wird. Dadurch erhält der modifizierte Organismus über die Expression des eingebauten
Transgens spezifische neue Merkmale. Der Einbau eines Transgens erfolgt bei Pflanzen
und Tieren auf jeweils unterschiedliche Weise.
2.9.1 Erzeugung transgener Pflanzen
Die Verwendung des Ti-Plasmids (Tumor-induzierendes Plasmid) ist eine häufig angewandte Methode zur Herstellung transgener Pflanzen. Es stammt ursprünglich aus
dem Gram-negativen Agrobacterium tumefaciens, welches von Wundsekreten der Pflanze
angelockt wird und Teile des Plasmids in die Zelle einschleust, die anschließend fest
in das Genom der Pflanzen integriert werden. Durch vorherige Modifikation des eingeschleusten Genabschnittes kann man Pflanzen gezielt genetisch verändern. Agrobacterium
tumefaciens kann jedoch nur bestimmte Pflanzenarten infizieren. Eine weitere verbreitete
Methode ist deshalb das Beschießen von Pflanzenzellen mit kleinen Goldkügelchen, die
mit DNA beschichtet sind.
2.9.2 Erzeugung transgener Tiere
Bei der genetischen Manipulation von Tieren wendet man je nach Tierklasse verschiedene
Methoden an. Bei Säugetieren stellt die Mikroinjektion eine geeignete Methode dar.
Hierbei wird das Transgen in den Vorkern des Spermiums injiziert, kurz bevor bei einer
künstlichen Befruchtung die beiden Vorkerne verschmelzen. Dort wird das Transgen
dann durch homologes Crossing-Over in das Genom des Spermiums eingebaut. Dafür
müssen die das Transgen flankierenden DNA-Abschnitte identisch sein mit Abschnitten
im Genom, gegen die sie dann ausgetauscht werden. Bei erfolgreichem Einbau entsteht
ein transgenes Gründertier.
Bei Insekten bedient man sich gerne der sogenannten Transposons, um ein Transgen
einzubauen: Transposons sind »springende Gene«, die bei Anwesenheit einer Transposase (eine Unterklasse der DNA-Rekombinasen) spontan aus ihrer Position im Genom
herausspringen und an einer anderen Stelle im Genom wieder eingebaut werden können. Die Transposons sind flankiert von invertierten Sequenzwiederholungen, die als
Erkennungssequenzen für die Transposase dienen. Im Gegensatz zum gewöhnlichen
Einbau werden bei dieser Methode zwei DNA-Konstrukte verwendet anstatt nur einem:
Zum einen ein Helfer-DNA-Konstrukt, das auf Grund defekter invertierter Sequenzwiederholungen nicht in das Wirtsgenom eingebaut werden kann, sondern lediglich
die Transposase exprimiert, und zum anderen das DNA-Konstrukt mit dem Transgen,
das jedoch kein Gen für die Transposase enthält. Daraus folgt, dass das DNA-Konstrukt
mit dem Transgen nach dem Einbau in das Wirtsgenom bei den Nachkommen nicht
mehr im Genom »umherspringen« kann. Das Transgen wird also stabil an künftige
Generationen weitervererbt.
43
2 Biotechnologie im Alltag
2.9.3 Anwendungsbereiche
Ein häufiger Anwendungsbereich transgener Pflanzen ist die Erhöhung des Ernteertrags,
beispielsweise durch Herbizid- und Insektenresistenzen. Des Weiteren hofft man, in
Zukunft infolge aktueller Forschungen in der Lage zu sein, kontaminierte Böden mit
Hilfe von transgenen Pflanzen zu reinigen, indem sie die schädlichen Stoffe dieser Böden
zersetzen.
Im tierischen Bereich erzeugt man zum Beispiel sogennante transgene KnockoutMäuse zur Erforschung spezifischer Genfunktionen. Dabei wird ein Gen, dessen Funktion man untersuchen möchte, kloniert und in vitro deaktiviert. Das geschieht, indem
man das klonierte Zielgen durch den Einbau einer DNA-Kassette unterbricht. Mit dieser
inaktiven Kopie wird dann eine heterozygote transgene Maus erzeugt, die jedoch immer
noch eine funktionierende Kopie des Gens trägt. Kreuzt man nun diese transgene Maus
mit einer weiteren transgenen Maus, so entstehen unter anderem Nachkommen, die
zwei inaktive Kopien des Gens enthalten, also homozygot sind. An diesen Mäusen kann
untersucht werden, welche phänotypische Veränderung eine Inaktivierung des Gens
hervorruft.
Zur Überprüfung, ob ein Transgen erfolgreich in einen Organismus eingebaut wurde,
gibt es verschiedene Selektionsverfahren. Bei allen wird mit dem Transgen zusammen
ein sogenanntes Markergen eingesetzt, das beispielsweise eine Antibiotikaresistenz
bewirkt. Bei Hinzugabe des Antibiotikums überleben nur die Organismen, die das
Transgen erfolgreich eingebaut haben. Es gibt aber auch nicht-letale Selektionsverfahren,
die zum Beispiel mit Lumineszenzen arbeiten. Das sogenannte lux-Gen, welches aus
Glühwürmchen stammt, wird in die DNA des Pflanzengewebes eingebaut. Dort wird
es exprimiert, und das Enzym Luciferase wird gebildet. Bei Hinzugabe des Substrats
Luciferin entsteht Lumineszenz, wodurch die Zellen erkennbar sind, die das gewünschte
Transgen eingebaut haben.
Die Verwendung von Antibiotikaresistenzgenen um den Einbau der DNA bei Pflanzen
zu überprüfen, stößt auf viel Kritik. Mithilfe des Cre-Systems, das nach dem gleichen
Prinzip arbeitet wie die oben beschriebenen Transposasen, können diese Gene nachträglich wieder entfernt werden. Die zu entfernende DNA-Sequenz wird auf beiden Seiten
von der loxP-Sequenz aus 34 Basenpaaren flankiert. Das Cre-Protein ist ein RekombinaseEnzym, das die spezifischen Sequenzen erkennt und dort anbindet. Die zwischen den
loxP-Sequenzen eingeschlossene Region wird durch Rekombination herausgeschnitten
und anschließend in der Zelle abgebaut (weil es an keiner anderen Stelle im Genom
loxP-Sequenzen gibt, kann das Transgen nirgendwo anders wieder eingebaut werden).
Die Pflanzen-DNA enthält nun keine Antibiotikaresistenzgene mehr, sondern nur noch
eine einzelne loxP-Sequenz. Um dies in der Praxis zu erreichen, werden Pflanzen mit
durch loxP-Sequenzen flankiertem Antibiotikaresistenzgen mit Pflanzen, die das Cre-Gen
besitzen, gekreuzt. Die F1-Generation besitzt nun das Transgen mit dem vorgeschalteten,
von loxP-Sequenzen flankierten Antibiotikaresistenzgen und das cre-Gen. Dieses cre-Gen
wird abgelesen und das Rekombinase-Enzym hergestellt. Durch das oben genannte System wird das Antibiotikaresistenzgen herausgeschnitten. Die Pflanzen besitzen nun das
gewünschte Transgen und das Gen für die Cre-Rekombinase, jedoch kein Antibiotikaresistenzgen.
44
2.10 Versuch: Quantifizierung der Aktivität der Beta-Galactosidase
Abbildung 2.2: Schematischer Aufbau des Lactose-Operons.
2.10
Versuch: Quantifizierung der Aktivität der Beta-Galactosidase
2.10.1 Einleitung: Das Lactoseoperon
Das Enzym β-Galactosidase ermöglicht Bakterien wie Escherichia coli die Verwertung des
Zucker-Dimers Lactose, da es diese in die Zucker-Monomere Glucose und Galactose
spaltet, welche dann als Wachstumssubstrate genutzt werden können. Die Synthese der
β-Galactosidase unterliegt einer Transkriptionskontrolle. Deshalb wird die Transkription
nur dann zugelassen, wenn Lactose vorhanden und gleichzeitig keine Glucose in der
Umgebung der Zelle ist, welche bevorzugt als Substrat genutzt wird. Durch das Fehlen
der Glucose wird die vermehrte Bildung des Botenstoffs cAMP induziert, welcher an den
Regulator cAMP-Response-Protein (CRP) bindet. Für die Transkription des Gens, das für
die β-Galactosidase codiert, spielt auch die Anwesenheit von Lactose eine Rolle. Diese
hebt, in Allolactose umgewandelt, die Blockierung der Aktivität der RNA-Polymerase
auf, wodurch das Gen abgelesen werden kann. Dieser Prozess ist auf den Abbildungen
2.2 und 2.3 veranschaulicht.
2.10.2 Material und Methoden
Mittels des durchgeführten Versuchs sollte die Abhängigkeit der Synthese der β-Galactosidase vom zugegebenen Zucker nachgewiesen werden. Des Weiteren sollte gezeigt
werden, dass die β-Galactosidase nicht bereits in ausreichender Konzentration in der
Zelle vorhanden ist, sondern erst bei Glucosemangel und Anwesenheit von Lactose synthetisiert wird. Die Enzymaktivität wird durch die Zugabe des Farbstoffs o-Nitrophenylβ-D-galactopyranosid (ONPG), welcher bei der Spaltung durch β-Galactosidase eine gelbe
Färbung hervorruft, nachgewiesen.
Im Versuch wurden drei E. coli K12-Kulturen in einem LB-Medium (5 g/l Hefeextrakt,
10 g/l Pepton, 10 g/l NaCl, pH 7,4) herangezüchtet. Je nach Versuchsansatz wurden
2 mM Lactose bzw. 2 mM Lactose und zusätzlich 8 mM Glucose bzw. im dritten Ansatz
2 mM Lactose und Chloramphenicol (2 µg/ml) zugegeben. Anschließend wurden zu den
Zeitpunkten 0 min/15 min/30 min/60 min/120 min pro Kultur je zwei Proben mit dem
Volumen 1 ml entnommen und jeweils die optische Dichte bei einer Wellenlänge von
600 nm (OD600) gemessen, da dieser Wert für die spätere Berechnung der Enzymaktivität
benötigt wird. Danach wurden die Proben abzentrifugiert und in flüssigem Stickstoff
45
2 Biotechnologie im Alltag
Abbildung 2.3: Regulation des Lactose-Operons.
46
2.10 Versuch: Quantifizierung der Aktivität der Beta-Galactosidase
schockgefroren. Dieser Teil des Versuches wurde in einem Labor vorbereitet; die im
Folgenden beschriebenen Schritte wurden im Kurs durchgeführt.
Zuerst wurden die Zellpellets in 1 ml Z-Puffer (60 mM Na2 HPO4 , 40 mM NaH2 PO4 ,
10 mM KCl, 1 mM MgSO4 , 50 mM β-Mercaptoethanol, pH 7,0) resuspendiert und pro
Versuchsansatz (die Kulturen wurden in vier Teile aufgeteilt – ein Teil davon diente
als Referenzwert für die spätere photometrische Messung) 100 µl Zellsuspension mit
700 µl Z-Puffer verdünnt. Um die Zellen aufzubrechen, wurden daraufhin jeweils 20 µl
Chloroform und 20 µl 0,1 % (w/v) SDS zugegeben. Zum Starten der Nachweisreaktion
wurde zu den Ansätzen 200 µl 4 mg/ml ONPG hinzugefügt. Sobald ein Farbumschlag ins
Gelbe stattgefunden hatte, wurde die Reaktion durch Zugabe von 400 µl 1M Natriumcarbonat, das jegliche Enzymaktivität durch Verschiebung des pH-Werts ins Basische
unterbindet, gestoppt und die Reaktionszeit gemessen. Für die Kontrollversuche wurde
das Natriumcarbonat vor dem ONPG hinzugefügt, damit keine Reaktion stattfindet und
man einen Vergleichswert für die photometrische Messung erhält. Um präzise Ergebnisse zu erhalten, wurden Dreifachbestimmungen für die verschiedenen Kulturen und
Zeitpunkte durchgeführt. Dazu wurde jeweils mit 1 ml des abgestoppten Reaktionsansatzes bei 420 nm am Photometer die Absorption gemessen; die Kontrollversuche dienten
dabei als Referenzwerte. Die β-Galactosidase-Aktivität (in Miller-Units) wurde dann mit
folgender Formel ermittelt:
MU =
1000A420
OD600 · V · t
(V = Volumen des Reaktionsansatzes in mL, t = Reaktionszeit in min)
2.10.3 Ergebnisse
Bei den Versuchsansätzen, die nur Lactose enthielten, zeigte sich die größte Enzymaktivität. Es war deutlich zu erkennen, dass die Enzymaktivität steigt, je länger die Kultur
auf dem Nährmedium mit dem Zucker wachsen konnte. Dies ist darauf zurückzuführen,
dass in einer längeren Zeitspanne eine größere Enzymmenge produziert werden kann.
In den Versuchsansätzen, die sowohl Lactose als auch Glucose enthielten, zeigte sich eine
deutlich geringere Enzymaktivität. Auch hier war eine Abhängigkeit der Enzymaktivität
von der Wachstumszeit der Bakterienkultur zu erkennen. In den Proben mit Lactose
und Chloramphenicol ließ sich keine Enzymaktivität feststellen. Ferner war auch bei
den Kontrollversuchen, die die jeweiligen Referenzwerte lieferten, keine Enzymaktivität
nachzuweisen, weil der pH-Wert durch die frühzeitige Zugabe des Natriumcarbonats so
stark erhöht wurde, dass die Enzyme denaturiert wurden.
2.10.4 Diskussion
Insgesamt zeigte der Versuch, dass die β-Galactosidase-Aktivität reguliert wird und
ihre Aktivität sowohl vom vorhandenen Zucker als auch von der Wachstumszeit der
Zellkultur auf dem Nährmedium abhängt. So ist wie erwartet bei den Ansätzen mit
Glucose und Chloramphenicol wenig bis gar keine β-Galactosidase nachzuweisen, da
47
Abbildung 2.4: Galaktosidase-Aktivitäten bei unterschiedlichen Inkubationsbedingungen.
Chloramphenicol die Proteinbiosynthese verhindert und die Glucose wie vermutet die
Transkription des Lactoseoperons verhindert.
Wie die grafische Darstellung des Versuchsergebnisses (siehe Abbildung 2.4) veranschaulicht, lieferten die Messungen keine eindeutigen Werte, sondern zeigten teilweise
hohe Standardabweichungen. Dies ist auf Messfehler bei der Herstellung der verschiedenen Ansätze bzw. zu lange Reaktionszeiten mit dem ONPG zurückzuführen, wodurch
die Färbung der Lösung zu stark wurde und deswegen in manchen Ansätzen verdünnt
werden musste, was zu weiteren Ungenauigkeiten führte.
2.11
Literaturverzeichnis
[1] Antranikian, Garabed: Angewandte Mikrobiologie. Berlin/Heidelberg 2005.
[2] Clark, David; Pazdernik, Nanette: Molekulare Biotechnologie. Heidelberg 2009.
[3] Süßbier, Siegfried; Renneberg, Reinhard: Biotechnologie für Einsteiger. Heidelberg
2009.
2.11 Literaturverzeichnis
49
50
3
Auf der Suche nach dem Gedächtnis
3.1
Einleitung
Juliane Jäpel und Isabell Woest
Ob Fahrrad fahren, Vokabeln lernen oder den Weg zur Schule finden – in allen Lebenslagen sind wir abhängig von unserem Gedächtnis. Mit eben diesem und den
neurobiologischen Grundlagen des Lernens haben wir uns in unserem Kurs beschäftigt.
Nach einer kurzen Einführung zu allgemeinen Mechanismen wie Ruhe- und Aktionspotential und zur Neuroanatomie haben wir uns diesem schrittweise genähert. Dabei
haben wir uns anfangs mit der Arbeit des berühmten Neurowissenschaftlers und Nobelpreisträgers Eric Kandel beschäftigt, der einmal sagte: »Das Gedächtnis ist der Leim,
der unser geistiges Leben zusammenhält.« Es gibt verschiedene Patienten, deren Fälle veranschaulichen, was bei einem gestörten Gedächtnis passiert. So haben wir uns
beispielsweise intensiv mit dem Patienten H.M. beschäftigt. Zwar konnte er nach einer
Operation neue motorische Fähigkeiten erlernen, sich jedoch nicht mehr daran erinnern,
was er zum Frühstück gegessen hatte.
Im Nachfolgenden haben wir Vorträge zu verschiedenen Gedächtnissystemen – dem
räumlichen, episodischen, motorischen und emotionalen Gedächtnis – gehört, und uns
dabei sowohl mit verschiedenen Tiermodellen als auch mit Ergebnissen beim Menschen
auseinander gesetzt. Dabei sind wir auch näher auf die Mechanismen, die dem Lernen
zugrunde liegen, eingegangen.
Weiterhin haben wir näher beleuchtet, was die Krankheit Morbus Alzheimer ausmacht
und wie es bei ihr zum Gedächtnisverlust kommt. Abschließend hatten die Teilnehmer
die Möglichkeit sich in Gruppenarbeit zu erarbeiten, inwiefern das Gedächtnis abhängig
ist von Faktoren wie Genetik, Schlaf und Alter.
Nun können wir zwar nicht besser Fahrrad fahren oder uns besser räumlich orientieren, aber wir wissen jetzt, welche Gehirnbereiche maßgeblich daran beteiligt sind und
wo sich diese befinden. Durch eine selbst durchgeführte Studie kennen wir nun auch
verschiedene Lernmethoden und haben festgestellt, dass die Loci-Methode, welche auch
von Gedächtnisweltmeistern verwendet wird, am besten zum Lernen geeignet ist.
3.2
Klassische Konditionierung
Bei der klassischen Konditionierung erlernt der Körper, auf einen Reiz eine antrainierte
Reaktion zu zeigen. Der Physiologe Ivan Pawlow entdeckte diese, als er den Speichelfluss
bei Hunden untersuchte: Verstärkter Speichelfluss wird durch Futter ausgelöst. Pawlow
trainierte die Hunde, indem er vor dem Füttern immer mit einer Glocke läutete. Nach
dem Erlernen des Zusammenhangs zwischen Futter und Glocke, der so genannten
51
3 Auf der Suche nach dem Gedächtnis
Konditionierung, produzierten die Hunde schon vermehrt Speichel, sobald die Glocke
läutete, weil sie gelernt hatten, dass sie danach gefüttert werden.
Vor der Konditionierung ist die Fütterung ein unkonditionierter Reiz, auf den der Hund
mit Speichelfluss reagiert. Der Speichelfluss ist in diesem Fall angeboren und muss
nicht erlernt werden. Glockenläuten ohne anschließende Fütterung ist ein neutraler Reiz,
auf den der Hund nicht reagiert. Nach der Konditionierung ist das Glockenläuten ein
konditionierter Reiz, auf den der Hund mit einer konditionierten, erlernten Reaktion
reagiert, indem er Speichel produziert.
Es gibt sowohl die Appetenzkonditionierung als auch die Aversionskonditionierung. Die
Appetenzkonditionierung ist eine Konditionierung mittels eines positiven Reizes wie
zum Beispiel die Fütterung der Hunde. Die Aversionskonditionierung dagegen erfolgt
beispielsweise durch einen Stromschlag, der einen negativen Reiz darstellt.
Konditionierungen können auch gelöscht werden, sodass der zuvor konditionierte Reiz
abtrainiert wird. Bei einem so genannten Pawlowschen Hund müsste man also immer
wieder mit der Glocke läuten, ohne dass die Hunde anschließend Futter bekommen. So
würden sie nach einer gewissen Zeit nicht mehr konditioniert auf das Läuten reagieren,
was bedeutet, dass sie keinen Speichel mehr produzieren.
Die Konditionierung spielt sich unter anderem im Kleinhirn, dem Cerebellum, ab. Es
gibt zwei Inputpfade, einen für den konditionierten Reiz und einen für die angeborene Reaktion. Beide Pfade laufen zu den Purkinjezellen in der Kleinhirnrinde und dem
Nucleus interpositus. Hier findet die Verknüpfung zwischen konditioniertem und unkonditioniertem Reiz statt. Der Befehl für die konditionierte Reaktion auf den Reiz geht
über einen Output-Pfad zurück, der vom Nucleus interpositus zu den entsprechenden
motorischen Arealen führt.
3.3
Aplysia
Die Meeresschnecke Aplysia Californica sorgte in den letzten Jahrzehnten für eine neurobiologische »Weltsensation«. Wie viele andere wirbellose Tiere besitzt sie ein kleines
Nervensystem mit großen Neuronen. Gepaart mit dem günstigen Preis und der kurzen
Lebenserwartung wurde Aplysia zum perfekten Studienobjekt für Eric Kandel.
Untersucht wurde der Kiemenrückzugsreflex: Wird ein röhrenförmiges Organ (Sipho)
mit einem Wasserstrahl gereizt, ziehen sich die Kiemen zurück. Man hat herausgefunden,
dass die Reaktion auf den Reiz mit der Zeit schwächer wird; diese Art des Lernens nennt
man Habituation. Habituation ist eine unbewusste Form des Lernens, bei der die Reaktion
auf einen als ungefährlich erkannten Reiz geschwächt wird. Eric Kandel und sein Team
konnten das Motoneuron identifizieren, das den Muskel für das Zurückziehen der
Kiemen innerviert, und nannten es L7. Nicht an den Sinnesneuronen am Sipho, sondern
an den Synapsen des sensorischen Neurons, welches den Reiz am Sipho aufnimmt, findet
bei der Habituation eine Veränderung statt. Dabei wird die präsynaptische Endigung so
verändert, dass sie weniger Neurotransmitter ausschüttet. Es ist noch nicht bekannt, wie
dies passiert, vermutlich findet eine Abschwächung der Funktionalität von Ca2+ -Kanälen
52
3.4 Synaptische Plastizität
Abbildung 3.1: Neben Referaten erarbeiteten wir uns Inhalte auch in Gruppenarbeit.
statt. Wurde das Versuchstier habituiert, entsteht ein geringeres Aktionspotenzial bei
L7 und letztendlich eine schwächere Reaktion auf den ursprünglichen Reiz. Diese
Habituation hält unterschiedlich lange an. Ungefähr zehn Stimulationen führen zu
einem Kurzzeitgedächtnis für einige Minuten, während vier Sitzungen, die auf mehrere
Tage verteilt sind, zu einem Langzeitgedächtnis führen.
Die Sensitivierung ist das Gegenteil von Habituation, hierbei wird die Reaktion auf
einen Reiz immer stärker. Dabei wird die Synapsenaktivität von Neuronen gesteigert.
Um Aplysia zu sensitivieren, gab Kandel der Schnecke einen leichten Elektroschock
am Kopf, wodurch das Neuron L29 aktiviert wurde. L29 hat eine Synapse mit der
Axonterminale des sensorischen Neurons, das auch eine Synapse mit L7 besitzt. Wird
L29 gereizt, schüttet es den Neurotransmitter Serotonin aus. An der Axonterminale
gibt es Rezeptoren für Serotonin, die an ein G-Protein gekoppelt sind. Dieses Protein
aktiviert Adenylatcyclase, welche aus ATP den second messenger cAMP herstellt. Es
findet eine Signalweiterleitung statt, bis schließlich Kaliumkanäle geöffnet werden.
Dies bewirkt ein längeres postsynaptisches Potential und somit eine stärkere Reaktion.
Weiterhin gibt es auch Unterschiede bei der Sensitivierung bezüglich Langzeit- und
Kurzzeitgedächtnis: Beim Langzeitgedächtnis z. B. werden neue Proteine gebildet, wobei
sich auch neue Synapsen ausbilden. Zusammenfassend lehrt die Forschung an Aplysia
über grundlegende Formen des Lernens.
3.4
Synaptische Plastizität
Die Synapse stellt die Verbindung der Nervenzellen im Gehirn dar. Das Axon bindet hier
an Dendriten einer anderen Zelle; dazwischen befindet sich nur der synaptische Spalt.
Die synaptische Plastizität beschreibt, wie sich die Synapse während eines Lernprozesses
verändert. Dabei gibt es zwei generelle Formen von Ereignissen, die zur Veränderung
53
3 Auf der Suche nach dem Gedächtnis
der Synapse beitragen: die Langzeitpotenzierung, auch LTP genannt, und die Langzeitdepression, auch als LTD bekannt. Dabei spielt die Häufigkeit, mit der eine Synapse zur
Reizweiterleitung verwendet wird, eine große Rolle.
Ist die Synapse über einen längeren Zeitraum aktiv, findet LTP statt. Hierfür müssen
zeitgleich eine postsynaptische Depolarisation und eine präsynaptische Freisetzung von
Neurotransmittern stattfinden. Zunächst findet die Depolarisation statt; dadurch gibt
das Mg2+ NMDA-Kanäle frei, durch die nun Na+ in den postsynaptischen Teil gelangt.
LTP wird von zwei Faktoren aufrecht erhalten: zum einen durch die Ergänzung von
AMPA-Rezeptoren an der Postsynapse, die dadurch mehr Neurotransmitter aufnehmen
kann, zum anderen durch die erhöhte Freisetzung von Glutamat, einem Neurotransmitter,
der an eben jene Rezeptoren anbindet und dadurch Reize weiterleitet. Dieser Prozess
tritt beim Lernen auf; wird die Synapse gestärkt, lassen sich Informationen leichter
miteinander verknüpfen.
Die LTD ist das Gegenteil der LTP. Hier sind die Synapsen über längere Zeit kaum oder
gar nicht aktiv. LTD entsteht durch eine Aktivierung von Neuronen, die nicht ausreichend
ist für die Entstehung von LTP. Meist passiert dies durch eine asynchrone Aktivierung
des Neurons durch zwei andere Neurone. Als Folge werden AMPA-Rezeptoren in die
Zelle eingezogen. Diesen Vorgang nennt man Internalisierung. Möglicherweise kann es
sogar zu einer Eliminierung der kompletten Synapse kommen.
Die Plastizität der Synapse beschreibt den Prozess des Lernens im Gehirn. Veränderung
der Effizienz von Synapsen ist dabei ursächlich. Das Lernen lässt sich auch mit dem
Muskeltraining vergleichen: Häufiges Wiederholen stärkt die Verbindungen.
3.5
Patient H.M.
Im Jahr 1926 wurde ein Junge geboren, dessen Vergangenheit, Zukunft und Gegenwart
sich mit 27 Jahren dramatisch verändern sollten. Schon mit neun Jahren war er nicht
mehr der Junge Henry, sondern Patient H.M., der unter den Anfängen einer schwerer
werdenden Epilepsie litt. 18 Jahre später, mit 27, stimmte er, in Absprache mit seinen
Ärzten, einer schweren Gehirnoperation zu, da er nicht einmal mehr in der Lage war zu
arbeiten. Zu diesem Zeitpunkt vermutete man unter Neurowissenschaftlern, dass ein
bestimmter Bereich im Gehirn, nämlich Teile des Temporallappen u. a. der Hippocampus,
der Ursprungsort für epileptische Anfälle ist.
Nach vielen fehlgeschlagenen Therapieversuchen blieb H.M. als letzte Option die
Entfernung von Hippocampus und Amygdala, um seine Krankheit zu heilen. Während
einer Operation wurden im Jahr 1953 Teile des Hippocampus und die komplette Amygdala entfernt. Nach der Operation kamen alle Wissenschaftler zu einem erstaunlichen
Ergebnis. Er war scheinbar von der Epilepsie geheilt. Kurze Zeit später hatte man jedoch
eine zweite, tragischere, Erkenntnis. Man stellte fest, dass H.M. keine neuen Erinnerungen abspeichern konnte. Er erinnerte sich an nichts, was er tat, sobald er einmal von
seiner aktuellen Tätigkeit abgelenkt war. Dies war ein Zeichen dafür, dass das sogenannte Arbeitsgedächtnis intakt war, während die Übertragung in das Langzeitgedächtnis
54
3.6 Deklaratives Gedächtnis
anscheinend nicht mehr stattfinden konnte. Diese Form von Gedächtnisverlust nennt
man anterograde Amnesie. Erinnerungen, die vor der Schädigung, also der Operation,
abgespeichert worden waren, konnten teilweise noch abgerufen werden, während der
Patient nicht mehr in der Lage war, ein Gedächtnis in der Zeit nach der Schädigung
aufzubauen.
Das Erstaunliche war, dass er trotz der fehlenden Gedächtnisfähigkeiten motorische
Fertigkeiten erlernen konnte. So erlernte er z. B. das Golfspielen problemlos, war jedoch
jedes Mal davon überzeugt, dass er ein Naturtalent war und eine gottgegebene Begabung
besaß, da er sich ja nicht mehr an den Lernvorgang erinnern konnte.
H.M. wurde also nicht nur vom kleinen Jungen zum Epilepsiepatienten, sondern auch
vom Patienten zum wissenschaftlich hochinteressanten Versuchsobjekt. Er interagierte
mit einer eigenen Psychologin, mehreren Ärzten und Betreuern, doch er konnte sich
nicht einmal an sie erinnern. Einmal beschrieb er sein Leben wie ein ständiges Erwachen
aus einem Traum, der seine eigene Vergangenheit verkörperte. Er konnte sich kein
wirkliches Hier und Jetzt mehr aufbauen, lebte bis zu seinem Tod in einem sich ständig
verändernden und alternden Körper, während er die Persönlichkeit seines 27-jährigen
Ichs behielt.
So starb er mit 82 Jahren. Die Wissenschaft jedoch behielt ihn als einen außergewöhnlichen Patienten in Erinnerung, der der Neurobiologie viele neue Erkenntnisse rund um
das Gedächtnis brachte.
3.6
Deklaratives Gedächtnis
Das so genannte deklarative oder explizite Gedächtnis speichert Fakten und Ereignisse im
Gehirn. Es lässt sich untergliedern in die folgenden beiden Bereiche: Das episodische
Gedächtnis für persönliche Erinnerungen und Erlebnisse, beispielsweise eine Geburtstagsfeier oder eine Unterhaltung, und das semantische Gedächtnis für allgemeine Fakten
über die Welt, zum Beispiel den Namen eines Bekannten oder die Tatsache, dass Rio de
Janeiro in Brasilien liegt. Die beiden sind nicht zwangsweise miteinander verknüpft. Es
kommt ja vor, dass man sich nicht erinnern kann, woher man etwas weiß; die episodische
Erinnerung fehlt also. Andererseits erinnert man sich auch häufig an eine Situation, in
der man bestimmte Fakten erfahren hat, die Fakten an sich jedoch sind einem entfallen.
Hier fehlt die semantische Erinnerung.
Das deklarative Gedächtnis ist von dem sogenannten impliziten Gedächtnis abzugrenzen. Unter diesem Begriff wird Verschiedenes zusammengefasst: Einerseits motorisches
oder prozedurales Lernen, also der Erwerb bestimmter Fertigkeiten (wie zum Beispiel
Fahrradfahren), andererseits Vorgänge wie Priming oder Konditionierung. Beide, das
deklarative und das implizite Gedächtnis, beruhen auf unterschiedlichen Vorgängen im
Gehirn, die auch in anderen Bereichen stattfinden.
Für deklaratives Lernen, das bedeutet das Hinzufügen von neuen Informationen
zum deklarativen Gedächtnis, ist der Hippocampus im medialen, also mittig gelegenen,
Temporallappen essentiell. Er ist in beiden Hirnhälften vorhanden. Hier werden die neu
55
3 Auf der Suche nach dem Gedächtnis
aufgenommenen Informationen zwischengespeichert, bis sie schließlich ins Langzeitgedächtnis übergehen. Diesen Vorgang nennt man Konsolidierung. Der Hippocampus
fungiert dabei als eine Art Knotenpunkt der Verschaltungen zwischen einzelnen Nervenzellen der Großhirnrinde, die für die Speicherung zuständig sind. Ob sich diese Nervenzellen mit der Zeit auch untereinander stärker vernetzen, sodass der Hippocampus zur
Speicherung dieser Informationen nicht mehr benötigt wird (Konsolidierungstheorie),
oder ob er seine Funktion als Schaltstelle weiter beibehält (Theorie multipler Gedächtnisspuren), ist noch umstritten. Jedenfalls führt eine Schädigung des Hippocampus zu
erheblichen Gedächtnisproblemen, die vor allem den Übergang zwischen Kurzzeit- und
Langzeitgedächtnis, sowie das Abrufen von Informationen aus diesem betreffen (siehe
auch Patient H.M.).
Eine weitere für das deklarative Langzeitgedächtnis sehr wichtige Hirnregion ist der
frontale Cortex, also die Rinde des Stirnlappens, der die Funktion des Hippocampus
hemmt, um zu verhindern, dass überflüssige Informationen gespeichert oder abgerufen
werden.
Des Weiteren spielen auch Teile des Zwischenhirns eine tragende Rolle beim deklarativen Lernen und Abrufen. Eine Schädigung des Zwischenhirns (zum Beispiel durch
vermehrten Alkoholkonsum) kann zum Korsakow-Syndrom führen, welches gekennzeichnet ist durch Störungen des Gedächtnisses und Konfabulation, d. h. der Patient erfindet
unbewusst Geschichten, um seine Gedächtnislücken zu füllen.
3.7
Amnesien
Eine Amnesie beschreibt das Phänomen des Gedächtnisverlusts, welches am häufigsten
aufgrund von Schädel-Hirn-Traumata eintritt. Weitere Möglichkeiten für den Eintritt
dieser Störung bestehen bei übermäßigem Alkohol- und Drogenkonsum oder bei bestimmten Krankheiten, wie unter anderem Epilepsie, Meningitis oder Enzephalitis. Dabei
tritt eine Amnesie grundsätzlich plötzlich ein und baut sich nicht über einen längeren
Zeitraum auf. Nach Ausbildung besteht sie entweder für einen begrenzten Zeitraum
oder sogar lebenslang. Je nach Art der Amnesie ist die Wahrscheinlichkeit, seine Erinnerungen wiederzuerlangen, unterschiedlich. In seltenen Fällen sind die Erinnerungen
durch Gedächtnistraining oder Psychotherapie wieder aufzubauen. Mögliche emotionale
Folgen für den Patienten sind Angststörungen und Depressionen.
Prinzipiell sind verschiedene Arten von Amnesien zu unterscheiden. Die erste Form
wird als retrograde Amnesie bezeichnet und beschreibt den Verlust der Erinnerungen
an eine Zeitspanne vor einer Hirnschädigung. In diesem Fall herrscht eine Störung
des autobiographischen Gedächtnisses vor. Es ist also nicht mehr möglich, sich an ein
bestimmtes, selbst erlebtes Ereignis zu erinnern. So kann man sich beispielsweise nicht
an seine eigene Lebensgeschichte oder an seine Angehörigen erinnern. Im Anschluss
an diesen Ausfall ist es bei einer dauerhaften Schädigung der Neuronen meistens unmöglich, das Gedächtnis wiederzuerlangen. Dies ist auf ein Absterben von Nervenzellen
zurückzuführen, welches unter anderem durch Hirnblutungen hervorgerufen werden
kann.
56
3.8 Langzeitpotenzierung im Hippocampus
Abbildung 3.2: Zwischendurch aktivierten wir uns mit verschiedenen kleinen Spielen.
Eine andere Form der Amnesie ist die anterograde Amnesie, welche ebenfalls bei
Gehirnerschütterungen auftritt. Sie entsteht durch eine Läsion des Hippocampus, sodass
der Mechanismus der Informationsübertragung vom Kurzzeitgedächtnis ins Langzeitgedächtnis gestört ist. Neue Informationen können lediglich für ein bis zwei Minuten
gespeichert werden und gehen verloren, sobald sich die betroffene Person einem anderen
Thema widmet. Häufig ist eine anterograde Amnesie auch mit einer retrograden Amnesie
verbunden.
Weiterhin gibt es die transiente globale Amnesie. Am häufigsten tritt sie im hohen Alter
auf, da sie Folge eines Schlaganfalls sein kann, für den die Wahrscheinlichkeit mit dem
Alter zunimmt. Dabei stellt sie eine anterograde Amnesie dar, die jedoch für maximal
24 Stunden anhält. Andere Merkmale der transienten globalen Amnesie sind zudem
Orientierungsstörungen in Bezug auf Zeit, Situation und Ort. Hieraus ergibt sich, dass
die Patienten oft ratlos wirken und wiederholt die gleichen Fragen stellen, obwohl sie
diese bereits mehrmals beantwortet bekommen haben. Nach solch einem Zeitraum von
ca. 24 Stunden verhalten sie sich jedoch wieder normal und leiden lediglich noch an
einer Gedächtnislücke für die entsprechende Zeit der Amnesie.
Letztendlich ist bei allen Formen der Amnesie jedoch nicht das prozedurale Gedächtnis
betroffen. Somit bleiben alle automatischen motorischen Fähigkeiten erhalten.
3.8
Langzeitpotenzierung im Hippocampus
Der Hippocampus ist Teil des Temporallappens und besteht aus zwei Schichten von neuronalen Verschaltungen. Dabei handelt es sich um den Gyrus dentatus und das Ammonshorn,
wobei letzteres in weitere vier Bereiche gegliedert ist, von denen die Bereiche CA1 und
CA3 die größte Bedeutung in der Forschung haben. Der Hippocampus ist wichtig für
die langfristige Speicherung von Informationen, bei der die Reizübertragung durch die
Induktion von LTP beeinflusst werden kann.
57
3 Auf der Suche nach dem Gedächtnis
Wenn LTP induziert werden soll, müssen gewisse Bedingungen erfüllt sein. Dabei
handelt es sich um die Depolarisation der postsynaptischen Membran, welche durch
das Eintreffen mehrerer Aktionspotentiale ausgelöst wird. Experimentell wird beispielsweise eine elektrische Reizabfolge gesendet, die der Frequenz der elektrochemischen
Signalübertragung mehrerer Aktionspotenziale entspricht. Dies ermöglicht, dass mehrere Aktionspotentiale zeitgleich ausgelöst werden und so die Langzeitpotenzierung
ausgelöst wird.
Hierbei dient Glutamat als Transmitter der Synapsen, da er an AMPA-Rezeptoren bindet.
Dies löst den Einstrom von Na+ in die Zelle aus und es kommt zur Depolarisation.
Dadurch werden blockierende Mg2+ -Ionen von NMDA-Rezeptoren entfernt, was zudem
dafür sorgt, dass Ca2+ -Ionen einströmen und von Glutamat aktiviert werden, indem
Glutamat an diesen Rezeptor bindet. Aufgrund dieses Einstroms werden zwei Proteinkinasen aktiviert, Proteinkinase C und CaMK2, welche für den weiteren Verlauf von großer
Bedeutung sind, da sie für den Einbau weiterer AMPA-Rezeptoren zuständig sind. Der
weitere Verlauf wurde bisher aber noch nicht vollständig erforscht.
Da eine Steigerung der Effizienz der Reizübertragung hervorgerufen werden soll,
werden die AMPA-Rezeptoren von der Proteinkinase CaMK2 phosphoryliert, sodass ein
erhöhter Na+ -Ioneneinstrom durch eine größere Ionenleitfähigkeit ermöglicht wird. Es
können des Weiteren neue AMPA-Rezeptoren eingebaut werden, was zu einem erhöhten Ioneneinstrom führen würde, oder es besteht die Möglichkeit, weitere Synapsen
auszubilden, sodass mehr Aktionspotentiale übertragen werden können.
Aufgrund eines ständigen Austausches an AMPA-Rezeptoren gehen bereits phosphorylierte Rezeptoren verloren, dennoch ist eine dauerhafte Potenzierung, also Steigerung
der Effizienz einer Reizübertragung, möglich. Dieser Prozess wird ermöglicht, da die
Proteinkinase CaMK2 sich selbst phosphorylieren kann, indem sie durch den Ca2+ Einstrom aktiviert wird. Die neuen AMPA-Rezeptoren werden somit immer wieder neu
phosphoryliert und können den Reizübertragungsprozess in Gang halten.
Abschließend kann der Prozess der Langzeitpotenzierung als ein Zusammenspiel mehrerer Faktoren gekennzeichnet werden, bei dem die elektro-chemische Reizübertragung
in ihrer Dauer und ihrer Intensität gesteigert wird.
3.9
Räumliches Lernen bei Tieren
Beim räumlichen Lernen wird die Fertigkeit trainiert, sich in einem Raum zurechtzufinden.
Von den im Gehirn dafür verantwortlichen Bereichen ist vor allem der Hippocampus
wichtig. Der Hippocampus liegt zentral im Gehirn und ist verantwortlich für den
Transfer von Informationen vom Kurzzeitgedächtnis ins Langzeitgedächtnis. Er ist sehr
wichtig für das Speichern von Erinnerungen und die Koordinierung verschiedener
Gedächtnisinhalte.
Die Wichtigkeit des Hippocampus bewies unter anderem der Wissenschaftler Richard
Morris mithilfe des nach ihm benannten Morris-Wasserlabyrinths. Dieses ist ein runder,
mit dunkel gefärbtem Wasser gefüllter Behälter, sodass nicht zu sehen ist, was sich
58
3.10 Räumliches Lernen bei Menschen
unter der Oberfläche befindet. In diesen Behälter werden nun Ratten gesetzt, die solange
schwimmen müssen, bis sie ein nicht sichtbares Podest gefunden haben, beziehungsweise
bis die Maximalzeit vorbei ist. Vor diese Aufgabe wurden sowohl gesunde Ratten als
auch Ratten mit Schäden am Hippocampus gestellt. Während die gesunden Ratten
schnell lernten und das Podest nach wenigen Übungen sehr schnell fanden, zeigte
sich kein Lernfortschritt bei Ratten mit hippocampalen Schäden. Sie konnten auch nach
mehreren Durchgängen das Podest im Wasser nicht finden. Daraus lässt sich schließen,
dass aufgrund der hippocampalen Schäden kein Lernprozess zu verzeichnen war.
Um Genaueres über das räumliche Lernen zu erfahren, maß man die Neuronenaktivität der Ratten im Hippocampus. Dabei fand man heraus, dass bestimmte Nervenzellen
auf bestimmte Bereiche in einem Raum reagieren. Diese Neurone nennt man Ortszellen.
Dabei nennt man die Orte, die in einem bestimmten Neuron die höchste Aktivität hervorrufen, Ortsfelder. Die Ratten lokalisieren ihren Standort mithilfe sensorischer, vorwiegend
visueller Reize. Dabei senden bestimmte Neurone Signale an einer bestimmten Stelle
im Raum. Dadurch können sich die Zellen an ihre Umgebung anpassen. Dafür ist der
folgende Versuch ein gutes Beispiel.
In einem Raum hat man die Neuronenaktivität einer Ratte an einem bestimmten
Punkt gemessen. Anschließend drehte man den Raum und wiederholte den Versuch.
Die Neuronen der Ratte feuerten wieder an derselben Stelle im Raum, obwohl sich diese
nicht am gleichen Ort befand. Hier haben sich also die Neuronen an die Umgebung
angepasst und mitgelernt. Man schloss daraus, dass der Hippocampus am sogenannten
Ortsgedächtnis beteiligt ist und eine Art räumliche Karte der Umwelt erstellt.
Verhaltenswissenschaftler fanden heraus, dass es zwei Möglichkeiten gibt, wie Erinnerungen im Ortsgedächtnis gespeichert wird. Zum einen die räumliche Karte und
zum anderen das relationale Gedächtnis. Hier werden Verbindungen zwischen verschieden Assoziationen geknüpft, wobei ein verständliches Bild der räumlichen Umgebung
entsteht.
Zusammenfassend lässt sich sagen, dass das räumliche Gedächtnis von Verbindungen
verschiedener Sinneseindrücke abhängig ist und dadurch ein räumliches Bild entsteht,
welches eine Orientierung ermöglicht. Dabei spielt der Hippocampus eine entscheidende
Rolle.
3.10
Räumliches Lernen bei Menschen
Der Mensch prägt sich Dinge ein, indem das Gehirn Sinneseindrücke verarbeitet. Wir
lernen, wenn es zu einer synaptischen Veränderung im Gehirn kommt. Wichtig für das
räumliche Lernen ist der Hippocampus. Dieser ist in beiden Gehirnhälften lokalisiert. Der
hintere Teil wird als posteriorer Hippocampus, der vordere als anteriorer Hippocampus
bezeichnet. Er ist zum Beispiel verantwortlich für die Gedächtniskonsolidierung, der
Überführung von Gedächtnisinhalten aus dem Kurzzeit- in das Langzeitgedächtnis.
Im Jahre 2008 wurde in London die Studie »Navigation-related structural change in
the hippocampi of taxi drivers« durchgeführt. Hierbei wurden die Hippocampi von
59
3 Auf der Suche nach dem Gedächtnis
Taxifahrern und einer gleichen Anzahl anderer Testpersonen, die einen anderen Beruf
ausübten, getestet. Die Taxifahrer hatten eine zweijährige Ausbildung absolviert und
dadurch die Fähigkeit erworben zwischen tausenden von Plätzen in London zu navigieren. Die anderen Testpersonen hatten keine außergewöhnlichen Navigationsfähigkeiten.
Die Untersuchung des Gehirns wurde mithilfe der voxel-basierten Morphometrie (VBM)
durchgeführt. Dies ist eine tomographische Schichtbildaufnahme, welche zum Beispiel
der Charakterisierung von Strukturen im Gehirn dient. So konnten die Formen und
Größen der Hippocampi ermittelt und verglichen werden.
Da die Taxifahrer in ihrer Ausbildung sehr präzise die Straßen Londons auswendig
lernen mussten, kam es in ihrem posterioren Hippocampus zu einem Lernvorgang, zu
einer synaptischen Veränderung. Der posteriore Hippocampus ist gewachsen, während
der anteriore Hippocampus dagegen kleiner geworden ist.
Die Studie bestätigt, dass es im Hippocampus zu einer strukturellen Plastizität kommt.
Wenn wir lernen und bestimmte Bereiche des Gehirns trainieren, bilden sich weitere
Synapsen aus und diese Bereiche können auch größer werden. Der posteriore Hippocampus ist hierbei der Bereich des Gehirns, der für das räumliche Lernen und den
Orientierungssinn zuständig ist. Somit schnitten die Taxifahrer sehr gut in Orientierungsfragen ab. Sollten sie jedoch Wortpaare bilden, so schnitten sie eher schlechter ab, weil
der posteriore Hippocampus mit dem Navigationslernen auf Kosten des anterioren
Hippocampus wuchs, welcher zum Beispiel für Assoziationen wichtig ist.
Um festzustellen, wie sich Schäden am Hippocampus auf die Fähigkeit räumlich
zu lernen auswirken, testeten Forscher um 2005 den Patienten E.P., der durch einen
Unfall Schäden am Hippocampus erlitt. E.P. konnte sich an seine Heimat vor dem Unfall
erinnern und in dieser zurechtfinden, jedoch nicht mehr an die Orte, die er nach dem
Unfall besucht hat, auch seine eigene Wohnung. Trotz der Schäden am Hippocampus
war es für ihn möglich sich an Sachen zurückzuerinnern, jedoch nicht neue Sachen zu
erlernen.
Das räumliche Lernen wird demnach durch den Hippocampus bestimmt. Dieser
verarbeitet und leitet aktuelle Informationen weiter. Dies kann zu einer nachhaltigen
Speicherung führen, wenn der Hippocampus keine Schädigungen hat. Trainieren wir
bestimmte Bereiche des Hippocampus sehr stark, so kann es zu einem sichtbaren
Wachstum kommen
3.11
Was ist motorisches Lernen
Motorisches Lernen beschreibt das Erlernen einer Fertigkeit und deren Abspeicherung im
Fertigkeitengedächtnis – auch prozedurales Gedächtnis genannt. Die Fertigkeiten werden
unterteilt in sensomotorische und kognitive Fertigkeiten. Sensomotorische Fertigkeiten
beinhalten jegliche Art von Bewegung und lassen sich noch einmal differenzieren, in
geschlossene (Bedingungen vorgeschrieben und immer gleich) und offene (veränderbare
Bedingungen) Fertigkeiten. Als gutes Beispiel gilt das Tanzen – zum einen mit fester
Choreographie beim Hip-Hop (geschlossen) und zum anderen mit mehr Freiheit beim
60
3.12 Verarbeitung von motorischem Lernen
Standard-Tanz (offen). Kognitive Fertigkeiten beschreiben das Erlernen von gedanklichen
Vorgängen, wie zum Beispiel das Kopfrechnen oder das Zahlenrätsel Sudoku.
Alle Fertigkeiten lassen sich durch Übung verbessern, jedoch nur bis zu einem bestimmten Grad. Das Potenzgesetz der Übung legt fest, dass die Fortschritte im Verlauf
eines Lernprozesses immer kleiner werden, beziehungsweise es länger dauert ähnlich
große Fortschritte wie zu Beginn eines Lernprozesses zu erreichen. Das Potenzgesetz ist
durch Rückmeldung oder ein so genanntes Feedback zu überwinden (Beispiel: Tanzen
vor einem Spiegel). Um sich weiter zu verbessern und um kleinste Fehler einzustellen
braucht der Mensch solch ein Feedback, da er sich selbst irgendwann nicht mehr genau
reflektieren kann. Hierbei gilt, dass häufiges Feedback einen kurzfristigen Erfolg zur
Folge hat und ein eher seltenes Feedback einen langfristigen Erfolg.
Sensomotorische sowie kognitive Fertigkeiten können implizit erlernt werden. Implizites Lernen beschreibt unbewusstes Erlernen einer Fertigkeit. Ein geeignetes Beispiel
hierfür ist das selbstständige und eben unbewusste Erlernen der effektivsten Methode
ein Fenster zu putzen.
Dies wird anschaulich dargestellt durch das »Drei-Phasen-Modell« des Fertigkeitenerwerbs. Zu Anfang eines Lernprozesses steht die kognitive Phase, in der aktives Denken
erforderlich ist (Aufbau eines neuen Zeltes mit genauem Studieren der Anleitung).
Darauf folgt die assoziative Phase, in der man sich an vormals ausgeführte Handlungen
erinnert (erneutes Aufbauen des Zeltes mit genauem Erinnern an den ersten Aufbau).
Zum Abschluss gelangt man in die automatische Phase, in der keine große Aufmerksamkeit
mehr benötigt wird (erneutes Aufbauen, nun jedoch parallel dazu Gespräche oder
anderes möglich). Sind diese drei Phasen durchlaufen, nennt man das ein motorisches
Programm. Dies ist eine gelernte Handlungsabfolge und nicht zu vergleichen mit einem
Reflex, der eine angeborene Reaktion darstellt.
Den Vorgang des Verlernens und Vergessens einer Fertigkeit nennt man Fertigkeitenzerfall, wobei sensomotorische länger und besser behalten werden können als kognitive
Fertigkeiten. Das erneute Erlernen der vergessenen Fertigkeit fällt den Menschen dann
aber leichter.
3.12
Verarbeitung von motorischem Lernen
Wie kann man motorische Fähigkeiten erlernen? Hierfür relevante Hirnstrukturen sind
die Basalganglien unterhalb der Großhirnrinde, der Cortex und das Cerebellum in der
hinteren Schädelgrube.
Die Aufgabe der Basalganglien lässt sich mit Hilfe eines Experiments nachvollziehen:
Zunächst wurde eine Ratte in ein mit Wasser gefülltes Becken gesetzt. Dieses Wasser war
dunkel gefärbt und ein kleines Podest wurde an einem bestimmten Punkt kurz unter der
Wasseroberfläche angebracht. Die Ratte sollte dieses nun finden. Das Experiment wurde
oft wiederholt. Ratten ohne Schädigung im Gehirn lernten nach einiger Zeit, wo sich
das Podest befindet, wohingegen Ratten mit hippocampaler Läsion sich diesen Ort nicht
merken konnten. Die Ratten, die eine Schädigung der Basalganglien aufwiesen, hatten
61
3 Auf der Suche nach dem Gedächtnis
Abbildung 3.3: Auch wir übten uns im motorischen Lernen.
hingegen keine Schwierigkeiten damit. Nun wurde aber der sogenannte Lerntransfer
eingesetzt, d. h. man hat die Plattform während die Ratte sich im Becken befand sichtbar
verschoben. Die Ratte schwamm zunächst zum alten Standort des Podests und lokalisierte es erst anschließend neu. Sie hatte sich an die Stelle an der sich das Podest befand, den
Ort der Rettung, erinnert. Dahingegen nahm die Ratte mit hippocampaler Schädigung
das Podest, das Objekt der Rettung, wahr und steuerte deshalb den neuen Standort
an. Hier wird deutlich, dass die Basalganglien wichtig für die Interaktion zwischen
dem sensorischen und dem motorischen System sind. Sie initialisieren Bewegungen und
steuern z. B. die Geschwindigkeit. Das motorische Fertigkeitsgedächtnis wird aufgebaut.
Bei der Krankheit Morbus Parkinson treten Defizite motorischer Steuerung und Koordination auf. Die eigentlich aktivierende Wirkung der Basalganglien auf die Großhirnrinde
ist aufgrund von Dopaminmangel in der Substantia Nigra gestört.
Der cerebrale Cortex ist für die Steuerung und Koordinierung von Bewegungen zuständig und steuert somit komplexe Handlungen. Im Cortex sind die Neuronenverschaltungen
in besonderem Maße auf die häufig ausgeführten Tätigkeiten ausgelegt: Bereiche können
durch spezifisches Training an Volumen gewinnen, die Plastizität spielt also eine große
Rolle.
Das Cerebellum dient zur Koordination von zeitlichem Ablauf und Bewegungsabfolge
sowie zur Feinabstimmung der Motorik. Die Purkinjezellen im Kleinhirn sorgen für
dessen Verbindung zu Neuronen anderer Gehirnregionen, was zur Ausführung von
sensomotorischen Fähigkeiten essentiell ist.
Das Erlernen komplexer motorischer Fähigkeiten erfordert demnach die richtige
Funktion aller drei Komponenten. Miteinander verknüpft sind diese größtenteils über
das Rückenmark. Allgemein besteht die Verarbeitung motorischen Lernens in einem
Prozess, der von der Initialisierung in den Basalganglien über die Steuerung im Cortex
bis hin zur Koordinierung von Zeit und Ablauf im Cerebellum reicht.
62
3.13 LTD im Kleinhirn
3.13
LTD
im Kleinhirn
Im Gegenteil zur Langzeitpotenzierung (LTP), die eine dauerhafte Verstärkung der
synaptischen Übertragung hervorruft, beschreibt das Modell der Langzeitdepression
(LTD) eine beständige Abschwächung der Signalübertragung an den Synapsen von
Nervenzellen.
LTD ist unter anderem im Kleinhirn, auch Cerebellum genannt, messbar. Dieses befindet
sich unterhalb der Okzipitallappen, den Hinterhauptslappen, in der hinteren Schädelgrube und ist für die koordinierte, zeitlich präzise Durchführung von Bewegungen
zuständig.
Das Cerebellum lässt sich in drei Schichten unterteilen: Die äußerste Schicht, die
Molekularschicht, enthält diverse Zellkörper, die Dendriten der Purkinjezellen, Kletterund Parallelfasern. Die Parallelfasern sind Verzweigungen der Axone der Moosfasern,
welche Informationen über die Stellung von Kopf und Körper und Zustand von Muskeln,
Sehnen und Gelenken vermitteln. Kletterfasern kommen aus der unteren Olive und
»klettern« an den Dendriten der Purkinjezellen hoch, wo sie erregende synaptische
Verbindungen eingehen. Die mittlere Schicht, die Purkinjezellschicht, besteht aus den
Zellkörpern der gleichnamigen Zellen. Zellkörper von Körner- und Golgizellen bilden
die Körnerschicht.
Ständig erregende Impulse aus dem motorischen System werden von den Zellkörpern
der Molekularschicht an die Dendriten der Purkinjezelle weitergeleitet. Danach können
diese Impulse nicht weitergeleitet werden, denn das Axon der Purkinjezelle hemmt
durch den Neurotransmitter GABA die Übertragung auf die Kleinhirnkerne. Nur wenn
die Purkinjezelle durch inhibitorischen Neurone, die Stern- und Korbzellen, gehemmt
wird, fällt die inhibitorische Wirkung auf die Kleinhirnkerne weg. Nun kann ein Impuls
weitergeleitet und an weitere motorische Zentren im Gehirn übergeben werden.
LTD im Kleinhirn ist in der postsynaptischen Membran der Purkinjezelle zu lokalisieren. Dazu kommt ein Aktionspotenzial aus der Kletterfaser. Darauf aktivieren
Neurotransmitter spannungsabhängige Natrium- und Calciumkanäle in der Membran
der Purkinjezelle.
Auch die Parallelfasern, die Axone der Körnerzellen, bilden Synapsen mit den Purkinjezellen. Sie setzen den Neurotransmitter Glutamat frei, welcher dann an die Glutamatrezeptoren der Purkinjezellen andockt. Dadurch kann Natrium durch Kanäle in die
Dendriten einströmen.
Ein weiterer Rezeptor in dieser Membran ist der metabotrope Glutamatrezeptor. Metabotropie bedeutet, dass einem Rezeptor eine weitere intrazelluläre Signalkaskade
folgt. Durch Aktivierung des Rezeptors durch Glutamat werden sekundäre Botenstoffe
produziert und die Proteinkinase C aktiviert.
LTD beruht auf der Abnahme der postsynaptischen Reaktion auf Glutamat. Die sogenannten AMPA-Rezeptoren in der postsynaptischen Membran werden nach der Induktion von
LTD internalisiert.
Zusammenfassend festzuhalten ist, dass es im Kleinhirn nur zu einem Lernvorgang
kommt, wenn eine synaptische Veränderung stattfindet. Dafür müssen die drei vorherig
63
3 Auf der Suche nach dem Gedächtnis
aufgeführten Signale gleichzeitig auftreten. So braucht LTD einen Anstieg der internen
Calcium- und Natriumkonzentration und die Aktivierung der Proteinkinase C. LTD ist
die Voraussetzung, dass im Kleinhirn zum Beispiel geschickte, präzise Bewegungsabläufe
erlernt werden können.
3.14
Menschliche Emotionen
Eine menschliche Emotion ist ein Gesamt von drei unterschiedlichen, aber wechselseitig
miteinander verbundenen Reaktionsarten: Einer physiologischen Reaktion, einer beobachtbaren Verhaltensweise und dem bewussten Empfinden der Emotion. Es gibt viele
verschiedene Emotionen. Sie werden von allen Menschen empfunden: z. B. Freude, Wut
und Trauer. Eine Emotion wird durch einen emotionalen Reiz ausgelöst, der zum Gehirn
weitergeleitet wird. Dort wird der Reiz verarbeitet und es erfolgt eine physiologische
Reaktion, wie zum Beispiel erhöhter Herzschlag, und man bemerkt eine charakteristische
Verhaltensweise bei der Person, die eine bestimmte Emotion verspürt. Beispielsweise
fangen traurige Menschen oft an zu weinen. Im Gehirn gibt es verschiedene Bereiche, die
für die Verarbeitung der Emotionen zuständig sind. Der Cortex ist für die Interpretation
des Kontextes und die Überwachung des Emotionsausdruckes verantwortlich, die Amygdala aktiviert die Stresshormonfreisetzung und ist wichtig bei der Emotionsverarbeitung.
Der Hippocampus ist nötig, damit wir uns später an die emotionsgeladene Situation
erinnern können.
Manche Emotionen, etwa Ekel werden mit ansteigendem Alter erlernt, andere Emotionen sind jedoch von Geburt an bei den Menschen verankert, z. B. Freude und Angst.
Diese nennt man universelle Emotionen. Menschen aller Nationalitäten können sie empfinden und auch die äußeren Merkmale der verschiedenen Emotionen bei anderen
erkennen. Der Umgang mit Emotionen ist allerdings von Kultur zu Kultur unterschiedlich. So zeigen Japaner gegenüber einer Autoritätsperson ihre Emotionen nicht offen
und verstecken sie. Jeder Mensch auf der Welt hat dieselben Emotionen, aber die Kultur,
in der ein Mensch lebt, zeigt eigene Regeln im Umgang mit den Emotionen und ihrer
Zurschaustellung.
Eine Tatsache, die Menschen aller Kulturen betrifft, ist, dass emotionsgebundene Erinnerungen länger im Gedächtnis bleiben. Eines der bekanntesten Beispiele ist der 11.
September 2001. Fast jeder erwachsene Mensch der westlichen Welt kann sich erinnern,
wo er an diesem Tag war, als er die Nachricht des Terroranschlages gehört hat. Wenn
man einen Menschen jedoch fragt, wo er am 14. September war, kann sich fast niemand
daran erinnern. Der 11. September ist ein Ereignis, dass sehr tief in unserem Gedächtnis
verankert ist, da dieser Tag einen hohen Emotionsgehalt hat. Emotionsgeladene Erinnerungen lassen wir sehr viel häufiger als gewöhnliche Tage vor unserem inneren Auge
Revue passieren und wir unterhalten uns häufig über sie. Dies wird zudem durch die
Medien verstärkt, die oft über emotionale Ereignisse berichten. Abschließend kann man
sagen, dass Ereignisse, die für eine Person emotional bedeutsam sind, ihr länger in
Erinnerung bleiben.
64
3.15 Wie erlernen Tiere emotionale Reaktionen?
3.15
Wie erlernen Tiere emotionale Reaktionen?
Um eine möglichst sichtbare emotionale Reaktion bei Tieren hervorzurufen, wird meistens mit Angst gearbeitet. Es bestehen gewisse Verständnisprobleme zwischen Mensch
und Tier, aber die biologische Angstreaktion ist oft ähnlich. Ein Beispiel dafür ist der
schnellere Herzschlag in Angstsituationen. Diese Angstsituationen eignen sich deshalb
gut, weil ihre Reaktion einfach hervorzurufen und zu beobachten ist.
Im Folgenden soll auf drei verschiedene Arten der erlernten emotionalen Reaktionen
eingegangen werden.
Als erste wird die konditionierte Angstreaktion (LeDoux 1933), die auf der Klassischen
Konditionierung beruht, vorgestellt. Hierbei wurde einer Ratte in einem geschlossen
Raum ein 10 Sekunden andauernder Ton vorgespielt. Im Anschluss wurde der Ratte
ein Elektroschock versetzt, was ihren Herzschlag erhöhte und sie in eine Schockstarre
fallen ließ. Dies wurde einige Male wiederholt. Als die Forscher daraufhin allein den
Ton abspielten, lernte die Ratte den Ton mit ihrer Angst vor einem Elektroschock zu
verbinden und zeigte dieselbe Angstreaktion wie zuvor.
Auf dieser Reaktion baut die konditionierte Vermeidung auf. Dabei wird zum Beispiel der
Ratte versucht eine Abneigung gegenüber einem dunklen Raum beizubringen, indem
man das Betreten dieses Raumes mit einem Elektroschock begleitet. So wurde der Ratte
durch Angst eine Vermeidung dieses Raumes antrainiert.
Der dritte Versuch kommt von den Forschern Seligman und Maier und wurde 1967
durchgeführt. In diesem Experiment befand sich ein Hund in einem geschlossenen
Raum, in dem er, wie die Ratten im ersten Experiment, einen Ton hörte und einen
darauf folgenden Stromstoß erhielt. Diesen Vorgang wiederholte man mehrmals. Dabei
versuchte der Hund immer aus dem Raum zu entkommen, scheiterte aber jedes Mal.
Da der Hund merkte, dass seine Bemühen aus dem Raum zu fliehen unnütz waren,
fing er an zu jaulen und setzte sich in eine Ecke. Als der Hund konditioniert war,
stellte man eine Trennmauer zwischen dem einen Raum mit den Stromstößen und
einem anderen Zufluchtsraum. Obwohl der Hund den Stromstößen nun mühelos hätte
entfliehen können, blieb er währenddessen nur jaulend in der Ecke sitzen. Selbst als
die Trennwand weggenommen wurde und der Hund sogar mit Futter aus dem Raum
gelockt wurde, blieb er an seiner Stelle.
Als Ursache hierfür ist eine gesenkte Motivation des Hundes neue Techniken zu erlernen
anzusehen, da er in der vorherigen Situation auch nichts machen konnte, um sich zu
befreien. Durch dieses Experiment wurde seine Motivation ohne Stromstöße zu leben
gesenkt und ihm eine Hilflosigkeit antrainiert, auch konditionierte Hilflosigkeit genannt.
Im weiteren Verlauf des Experimentes ist der Hund erst eigenständig in den anderen
Raum gegangen, nachdem die Forscher ihn dort wiederholt hingetragen hatten.
Diese Experimente zeigen, dass emotionales Lernen sehr schnell stattfindet, da sich
unser Gedächtnis dies besser merken kann als zum Beispiel nicht emotional gebundenes
Faktenwissen. Außerdem ist am Beispiel des Hundes klar geworden, dass diese Form
von Lernen lange anhält und schwer wieder weg zu trainieren ist.
65
3 Auf der Suche nach dem Gedächtnis
3.16
Was ist Alzheimer
Die Krankheit Alzheimer wurde 1901 von Dr. Alois Alzheimer entdeckt. Seine Beschreibung bildet noch heute die Grundlage für die Charakterisierung von Alzheimer. Alzheimer ist die häufigste Form der Demenz, welche durch Nervenzellensterben charakterisiert
wird. Zu den Symptomen der Demenz gehören Störungen von Gedächtnis, Orientierung,
intellektuellen Fähigkeiten und Wortfindung. Bei der vaskulären Demenz kommt es
auch zu Wahrnehmungsproblemen. Patienten mit Alzheimer können außerdem Persönlichkeitsänderungen erfahren und werden zunehmend pflegebedürftig.
Die Krankheit Alzheimer entsteht aufgrund von Neuronenverlust, bedingt durch eine
Ablagerung von Fibrillen und Plaques zwischen Neuronen. Dies hat einen Mangel von
Acetylcholin zur Folge, welcher wiederum zu einer schlechteren Reizweiterleitung im
Nervensystem führt. Eine autosomal-dominante Vererbung ist möglich, wobei es dann
schon früher zu einem Ausbruch kommt. Von 1 200 000 Demenzerkrankten in Deutschland (weltweit sind es 24 Millionen) haben ca. 2/3 Alzheimer und die Anzahl der
jährlichen Neuerkrankungen (280 000) wird vermutlich immer weiter steigen. Das Risiko
zu erkranken liegt bei einem Alter von über 65 Jahren bei 6–9 %, bei Jüngeren bei unter
0,1 %.
Um eine Diagnose stellen zu können, führt man bei potenziellen Alzheimerpatienten
einfache Gedächtnistests und eine Elektroenzephalographie durch, welche die summierte
elektrische Aktivität des Gehirns anzeigt. Außerdem untersucht man die Veränderungen des Großhirns mittels Computertomographie oder Magnetresonanztomographie. Durch
Blutuntersuchungen kann man feststellen, ob es sich um vaskuläre Altersdemenz oder
Alzheimer handelt, da sich bei der vaskulären Altersdemenz bestimmte Proteine verändern, die bei Alzheimer aber gleich bleiben.
Es gibt mehrere mögliche Therapien, von denen aber keine eine Heilung ermöglicht,
sondern nur den Lauf der Erkrankung verlangsamt. Neben dem Verabreichen bestimmter
Medikamente werden Alzheimerpatienten dazu angehalten, sich Notizen zu machen und
viel Kontakt zu anderen Menschen zu haben (da das Gehirn so »fit« bleibt). Auch körperliche Betätigung und Teilnahme an Selbsthilfegruppen, besonders da Depressionen
bei Alzheimerpatienten häufig vorkommen, werden empfohlen.
3.17
Wie entsteht Alzheimer?
Alzheimer ist eine Demenzerkrankung, die zum Verlust von Nervenzellen führt. Die
Betroffenen sind meistens über 65 Jahre alt. In Deutschland leben 750 000 Erkrankte.
Das Typische bei dieser Erkrankung ist, dass Nervenzellen durch Plaques und Neurofibrillen absterben. Die Plaques bestehen aus fehlerhaft gefalteten Proteinen. Das AmyloidPrecursor-Protein (APP) wird durch Alpha-, Beta- und Gammasekretase zu Aß-40 und
Aß-42. Diese beiden sind neurotoxisch und bilden Plaques. Plaques führen zu einer
66
3.18 Glossar
Störung der Synapsenfunktion, weil sie an diesen anlagern. Das bedeutet, dass die
Reizweiterleitung gestört ist. Außerdem kommt es dabei zu einer Entzündungsreaktion.
Dazu kommt, dass Aß die Phosphorylierung von Tauproteinen beschleunigt. Tau
bindet normalerweise an sogenannte Mikrotubuli und stabilisiert sie. Mikrotubuli sind
wichtig für die Stabilität der Zelle, indem sie das Zytoskelett, also das Skelett der Zelle,
bilden. Phosphoryliertes Tau verschlechtert seine Bindungsaffinität zu den Mikrotubuli,
wodurch weniger Tau an die Mikrotubuli bindet und nicht nur die Mikrotubli, sondern
auch das Zytoskelett und Transportprozesse in der Zelle gestört werden. Dies führt zu
einer schlechteren Weiterleitung von Informationen in den betroffenen Nervenzellen,
weil die Axone geschädigt sind.
Durch das Sterben der Nervenzellen und die gestörte chemische Weiterleitung von
Reizinformationen kommt es zu einer Schrumpfung des Gehirns um bis zu 20 % und
damit zur Degeneration der Hirnrinde.
Alzheimer ist eine u. a. genetisch bedingte Krankheit. Zu den betroffenen Genen gehört
das APP. Bei einer Mutation kommt es zu einer Veränderung der Aß-Prozessierung.
Daneben gibt es weitere Risikogene, zu welchen auch das Apolipoprotein E (ApoE)
gehört. Es bewirkt ein erhöhtes Auftreten von Aß.
Die Faktoren, die diese Krankheit auslösen, werden bis jetzt nur vermutet. Dazu
gehören Tuberkulose, Fieber, Parodontose, Stress, Bluthochdruck, Alkohol und der
Konsum von Tabak. Die Ursache für diese Krankheit ist bis zum heutigen Tag noch nicht
geklärt, weshalb sich die Wissenschaftler bemühen, diese Krankheit weiter zu erforschen,
um so ein Medikament zu finden, welches den Zerfall der Neuronen verhindert.
3.18
Glossar
– Acetylcholin: Neurotransmitter
– Adenylatcyclase: ein Enzym, das die Umwandlung von Adenosintriphosphat in
cAMP katalysiert
– Aktionspotential: kurze Veränderung des Membranpotentials, verursacht durch das
schnelle Öffnen und Schließen von spannungsabhängigen Ionenkanälen
– AMPA-Rezeptor: ein Subtyp des Glutamatrezeptors; ein glutamatabhängiger Ionenkanal, der für Na+ und K+ durchlässig ist
– Amygdala: ein mandelförmiger Kern im Temporallappen, von dem man annimmt,
dass er an der Empfindung von Gefühlen, bestimmten Formen des Lernens und
am Gedächtnis beteiligt ist
– anterior: vorne
– autosomal-dominante Vererbung: geschlechtsunabhängige Vererbung, bei der ein
Merkmal auftritt, wenn ein Elternteil das dafür zugehörige Gen besitzt
– Axon: langer, faserartiger Fortsatz einer Nervenzelle, der auf die Leitung von
Nervenimpulsen spezialisiert ist
67
3 Auf der Suche nach dem Gedächtnis
– Axonterminale: Ende des Axons, das den präsynaptischen Teil der Synapse bildet
– Basalganglien: eine Reihe von assoziierten Zellgruppen im basalen Großhirn
– cAMP: cyclisches Adenosinmonophosphat; ein Botenstoff, der für die Weiterleitung
von Signalen in der Zelle verantwortlich ist
– Cerebellum: Kleinhirn; mit dem Hirnstamm verbunden und wichtiges Zentrum für
die Kontrolle von Bewegungen
– Cortex: äußere Schicht des Großhirns, reich an Nervenzellen
– Computertomographie: bildgebende Verfahren zur Darstellung von Weichteilstrukturen mit Hilfe von Röntgenstrahlung
– Demenz: Erkrankung im Gehirn, bei der eine Gehirnatrophie auftritt, wodurch je
nach Hinregion verschiedene Fähigkeiten bzw. Eigenschaften verändert werden
– Dendrit: Nervenfortsatz, der auf die Aufnahme von synaptisch übertragenen Informationen durch andere Neuronen spezialisiert ist
– Depolarisation: Änderung des Membranpotentials in Richtung positiverer Werte
– Epilepsie: eine chronische Störung im Gehirn, die durch wiederholt auftretende
Krämpfe gekennzeichnet ist
– Enzephalitis: eine durch Viren oder Bakterien bedingte Entzündung des Gehirns
– Fibrillen: feine Muskel- und Nervenfäserchen
– Hippocampus: eine Region der Hirnrinde, die in Nachbarschaft zur Riechrinde liegt
und vermutlich eine große Rolle beim Lernen und der Gedächtnisbildung spielt
– G-Protein: ein membrangebundenes Protein, das durch einen Rezeptor aktiviert
wird und andere Proteine stimulieren oder inhibieren kann
– Ionenkanal: ein membrandurchspannendes Protein, das eine Pore bildet, die einen
Durchtritt von Ionen durch die Membran erlaubt
– Läsion: Schädigung oder Verletzung
– Langzeitdepression: ein Prozess, in dem die synaptische Transmission aufgrund kurz
vorangehender Aktivität weniger wirksam wird
– Langzeitpotenzierung: ein Prozess, in dem die synaptische Transmission aufgrund
kurz vorangehender Aktivität wirksamer wird
– Magnetresonanztomographie: bildgebendes Verfahren zur Darstellung von Weichteilstrukturen mit Hilfe hochfrequenter Magnetfelder
– Morbus Alzheimer: Demenzerkrankung, bei der eine Gehirnatrophie auftritt und
die kognitiven Fertigkeiten eingeschränkt sind
68
3.18 Glossar
– Morbus Parkinson: eine Bewegungsstörung, die durch Schädigung der Substantia nigra verursacht wird und die durch Bewegungsarmut, Probleme bei der Ausführung
von willkürlichen Bewegungen und Ruhetremor gekennzeichnet ist
– Neuron: die informationsverarbeitende Zelle des Nervensystems
– Neurotransmitter: chemische Substanz, die durch ein präsynaptisches Element nach
Stimulierung freigesetzt wird und postsynaptisch Rezeptoren aktiviert
– NMDA-Rezeptor: ein Subtyp des Glutamatrezeptors; ein glutamatabhängiger Ionenkanal, der für Na+ , K+ und Ca2+ durchlässig ist und spannungsabhängig durch
Magnesium geblockt wird
– Nucleus interpositus: einer der Tiefenkerne des Cerebellums
– Plaques: Ablagerungen
– post: nach
– posterior: hinten
– prä: vor
– Priming: Phänomen, bei dem eine vorherige Darbietung eines Reizes die Fähigkeit
eines Organismus fördern kann, diesen Reiz später zu erkennen
– prozedurales Gedächtnis: das Gedächtnis für Fertigkeiten, im Unterschied zu anderen
Gedächtnisinhalten wie Ereignissen oder Sachwissen
– Purkinje-Zelle: eine Zelle in der Kleinhirnrinde, deren Axon in die tiefen Kleinhirnkerne projiziert
– Rezeptor: ein Protein, das chemische Signalsubstanzen wie Neurotransmitter wahrnimmt und eine zelluläre Reaktion einleitet
– Substantia nigra: eine Zellgruppe im Mittelhirn, deren Neurotransmitter Dopamin
ist
– Synapse: der Kontaktbereich, in dem ein Neuron Information auf ein anderes
Neuron überträgt
– synaptischer Spalt: der Bereich, der bei Neuronen die präsynaptische von der postsynaptischen Membran trennt
– Temporallappen: der Bereich des Großhirns, der sich unter dem Schläfenbein befindet
69
3 Auf der Suche nach dem Gedächtnis
3.19
Literaturverzeichnis
[1] Ashe, Karen; Zahs, Kathlee: Probing the biology of Alzheimer’s disease in mice. In:
Neuron Vol. 65 2010, 631-345.
[2] Bear, Mark; Connors, Barry; Paradiso, Michael: Neurowissenschaften - Ein grundlegendes Lehrbuch für Biologie, Medizin und Psychologie. Heidelberg 2008.
[3] Ballard, Clive et al.: Alzheimer’s disease. In: The Lancet Vol. 377 2011, 1019-1031.
[4] Berlit, Peter: Klinische Neurologie. Heidelberg 2005.
[5] Bertram, Lars; Lill, Christiane; Tanzi, Rudolph: The genetics of Alzheimer’s disease:
Back to the future. In: Neuron Nr. 68 2010, 270-281.
[6] Essig, Marco; Reith, Wolfgang: Morbus Alzheimer – Die Geschichte einer Erkrankung
und die Rolle der modernen diagnostischen Radiologie. In: Radiologe Nr. 43 2003, 511-512.
[7] Gazzaniga, Michael; Ivry, Richard; Mangun, Georg: Cognitive Neuroscience: The
Biology of Mind. Norton 2008.
[8] Gluck, Mark; Mercado, Eduardo; Myers, Catherine: Lernen und Gedächtnis: Vom
Gehirn zum Verhalten. Heidelberg 2010.
[9] Ittner, Lars; Götz, Jürgen: Amyloid-beta and tau – a toxic pas de deux in Alzheimer’s
disease. In: Nature Reviews Neuroscience Vol. 12 2011, 65-72.
[10] Kandel, Eric; Schwartz, James; Jesse, Thomas: Principles of Neural Science. McGrawHill Professional 2000.
[11] Maguire, Eleanor et al.: Navigation-related structural change in the hippocampi of taxi
drivers. In: PNAS Vol. 97 2000, 4398-4403.
[12] Masuhr, Karl; Neumann, Marianne: Duale Reihe – Neurologie. Stuttgart 2007.
[13] Sweatt, David: Mechanism of Memory. Academic Press 2008.
[14] Teng, Edmond; Squire, Larry: Memory for places learned long ago is intact after
hippocampal damage. In: Nature Vol. 400 1999, 675-677.
[15] Thompson, Richard: Das Gehirn. Heidelberg 2010.
[16] Woollett, Katherine; Maguire, Eleanore: Navigational expertise may compromise anterograde associative memory. In: Neuropsychologia Vol. 47 2009, 1088-1095.
70
Abbildung 3.4: Erarbeitung des Glossars im Kurs.
72
4
Onkologie
4.1
Einleitung
Johanna Kuhnt und Wiebke Nadler
Im Kurs »Onkologie« erarbeiteten wir gemeinsam die molekularen und medizinischen
Grundlagen der Tumorbiologie. Nach einer kurzen Übersicht über Verbreitung und
Risikofaktoren von Krebs bekam der Kurs Besuch von Solveig und Christian – zwei
Ärzten, die uns so Einiges zu berichten hatten: vom Umgang mit Patienten, vom Alltag
auf der Palliativstation und von sehr konkreten Fallbeispielen. Wie wichtig, aber auch
wie schwierig die erste Konfrontation mit der Diagnose »Krebs« sein kann, wurde bei
der Simulation eines Patientengesprächs schnell deutlich.
Von der Patientenperspektive wechselten wir nun zurück zu den molekularbiologischen Aspekten. Was macht Tumorzellen so besonders? Wieso sind sie nur so schwer
anzugreifen? Und welche Theorien erklären die Existenz von Krebs? Eine auch von der
neusten Forschung noch nicht abschließend beantwortete Reihe von Fragen, mit denen
wir uns beschäftigten, bevor wie einen Blick auf die Vielfalt möglicher Krebserkrankungen wagten.
Für manche Tumorarten gibt es spezielle Vorsorgemöglichkeiten, etwa für Brustkrebs, Prostatakarzinome oder Darmkrebs. Zur Diagnosestellung benötigt man spezielle
bildgebende Verfahren, wie Röntgen, Magnetresonanztomographie oder Positronenemissionstomographie, die es ermöglichen, Lokalisierung und Ausdehnung eines Tumors zu
bestimmen. Wie aber therapiert man kranke Zellen sinnvoll, ohne die gesunden Zellen
zu stark zu beeinträchtigen? Die Standardverfahren Chemotherapie, Strahlenbehandlung
und chirurgische Eingriffe bilden zweifellos die drei Säulen der Krebstherapie. Aber
besonders immuntherapeutische Ansätze und zielgerichtete Therapien beeinflussen
mittlerweile die Forschung und zeigen großes Potenzial. Neben den klassischen schulmedizinischen Ansätzen vertrauen sich viele Patienten alternativen Heilverfahren an.
Die Diskussion über die Problematik zwischen Selbstbestimmung des Patienten und der
Fürsorgepflicht des Arztes bildete den Abschluss des Kurses. Für die motivierte Mitarbeit und die spannenden Diskussionen möchten wir uns herzlich bei den Teilnehmern
bedanken.
4.2
Epidemiologie
Obwohl oder vielmehr gerade weil die Medizin in den letzten Jahren große Fortschritte
verzeichnen konnte, nehmen die Inzidenzen (Krebsneuerkrankungen) stetig zu. Diese
auf den ersten Blick paradoxe Erscheinung ist auf die Entwicklung und den Gebrauch
einer Vielzahl von diagnostischen Verfahren zurückzuführen sowie auf den Anstieg der
durchschnittlichen Lebenserwartung der Menschen in den Industrienationen.
73
4 Onkologie
Das Bundeskrebsregisterdatengesetz verpflichtete die Bundesländer 1995–1999 dazu,
das Krebsgeschehen flächendeckend zu erfassen und an das »Zentrum für Krebsregisterdaten« des Robert-Koch-Instituts weiterzuleiten. Diese zentrale Krebsregisterstelle
untersucht anhand der eingehenden Daten in epidemiologischen Studien die Häufigkeit,
die Verteilung, den Verlauf und die Ursachen von Krebs in Deutschland, um ihre Ergebnisse zu publizieren und internationale Vergleiche zu ermöglichen. Hierbei betrachten
alle Krebsregisterstellen die Inzidenz, die Mortalität (Krebssterblichkeit), sowie die 5Jahres-Prävalenz, also die Zahl der im Zeitraum von 5 Jahren an Krebs Erkrankten, der
einzelnen Tumorarten und der Krankheit Krebs im Allgemeinen. Die Epidemiologie bedient sich der Altersstandardisierung als Methode, um vergleichbare Aussagen machen
zu können. Altersstandardisierung bedeutet, dass die Zahlenangaben zu Inzidenz und
Mortalität auf eine festgehaltene Altersstruktur der Bevölkerung bezogen werden, um
die Effekte der steigenden Lebenserwartung auf die Krebshäufigkeit herauszurechnen.
Im Jahr 2010 erkrankten den Studien zufolge 450 000 Menschen an Krebs. Das sind
etwa 30 % mehr als im Jahr 1980. Schätzungen zufolge starben im Jahr 2010 ca. 210 000
Menschen an Krebs – ungefähr 20 % weniger als im Jahr 1980. Das Durchschnittsalter
der Erkrankung liegt bei Männern momentan bei 68 Jahren und bei Frauen bei 69 Jahren.
Somit handelt es sich bei Krebs um eine Krankheit, die vermehrt im Alter auftritt. Auf
einen unter 15-jährigen Erkrankten kommen den epidemiologischen Analysen zufolge
200–300 Tumorpatienten, die das 80. Lebensjahr vollendet haben. Bei Männern führt
Krebs im Durchschnitt im Alter von 72 Jahren und bei Frauen im Alter von 76 Jahren
zum Tode.
Indem die Krebsregister ihre Daten auf internationaler Ebene miteinander vergleichen,
werden Regionen auffällig, in denen gewisse Krebsarten ungewöhnlich häufig auftreten,
sogenannte Cluster. Beispielsweise ist die Häufigkeit des schwarzen Hautkrebs regional
sehr unterschiedlich. Bei der hellhäutigen Bevölkerung Australiens ist das Lebenszeitrisiko im Vergleich zu Europäern etwa vierfach erhöht. Forscher erklären dies über den
Einfluss der Sonneneinstrahlung. Da das zentrale Krebsregister in Deutschland erst seit
einem Jahrzehnt existiert und mit teilweise fehlerhaft erfassten Daten aus den letzten
Jahren arbeiten muss, sollten die veröffentlichten Ergebnisse stets genau betrachtet und
eine Ungenauigkeit der Werte in Betracht gezogen werden.
Hinsichtlich der immer besser vernetzten Datenerfassung hat die Bedeutung der epidemiologischen Auswertungen für die Qualitätskontrolle der Krebstherapie in Deutschland
zugenommen. Auch zukünftig sollen die Krebsregister weiter vereinheitlicht und ausgebaut werden, um »langfristig die Qualität der onkologischen Versorgung besser zu
dokumentieren« (KID).
4.3
Risikofaktoren
Die verschiedenen bekannten Krebsformen können durch viele verschiedene Faktoren verursacht werden. Bei der Diagnosestellung sind die Ursachen der jeweiligen
Erkrankung oft unklar. Zur Erforschung der häufigsten Krebsauslöser wurden bereits
74
4.3 Risikofaktoren
viele wissenschaftliche Studien durchgeführt. Die Umsetzung der daraus resultierenden
Ergebnisse konnte schon zahlreiche Krebsfälle verhindern.
Rauchen bildet den ersten wichtigen Risikofaktor. Besonders bei Langzeitrauchern mit
einem hohen täglichen Zigarettenkonsum steigt die Wahrscheinlichkeit einer (Lungen-)
Krebserkrankung. So erkranken ungefähr 10 % der Raucher circa 30–40 Jahre nach
Beginn des Rauchens an Lungenkrebs. Durch den Konsum einer Schachtel Zigaretten
am Tag kann sich das Risiko einer Erkrankung 10–20-fach erhöhen.
Die Ernährung stellt neben dem Rauchen ein Hauptgefährdungsgebiet dar. In 30–
35 % der Krebserkrankungen ist eine falsche Ernährung an der Entstehung des Tumors
beteiligt. Beispielsweise können beim Grillen oder Räuchern fetthaltiger Fleischwaren
krebsauslösende Stoffe (Kanzerogene) entstehen. Solche karzinogenen Stoffe sind etwa
polyzyklische aromatische Kohlenwasserstoffe (PAK), die eine Tumorbildung begünstigen.
Übergewicht kann ebenfalls das Erkrankungsrisiko vieler Krebsarten fördern. Ab
einem Body Mass Index von 40 erhöht sich die Erkrankungswahrscheinlichkeit im
Vergleich zu Normalgewichtigen bei Männern um über 50 %, bei Frauen um über 60 %.
Die vermehrte Hormonproduktion oder Hormonveränderung des Fettgewebes kann das
Krebswachstum fördern.
Alkohol bedingt eine weitere Krebsgefahr, speziell für Erkrankungen des Verdauungstraktes sowie der Leber. Der Anteil der durch Alkoholkonsum verursachten malignen
Tumoren an allen Krebserkrankungen beträgt circa 3 %. Schon durch geringe Mengen
und besonders in Kombination mit Rauchen kann Alkoholkonsum das Risiko stark
erhöhen.
Virale und bakterielle Infektionen können ebenfalls an der Entstehung eines Tumors
beteiligt sein. Die Anfälligkeit des Körpers für Tumoren kann durch eine Schwächung
des Immunsystems oder DNA-Schäden zunehmen. Durch Infektionen bedingte maligne
Tumoren sind oft in Mundhöhle, Kehlkopf, Rachen, Speiseröhre, etc. vorzufinden.
Krebsfördernde Gene treten oft bei Personen mit einer hohen familiären Krebserkrankungsrate auf. Durch diese Gene werden besonders Darm- und Brustkrebserkrankungen
begünstigt. Für 5–10 % der Darmkrebserkrankungen und 5–20 % der Brustkrebserkrankungen können die Erbanlagen die Ursache sein.
Eine erhöhte Strahlenbelastung löst bis zu 2 % aller Krebserkrankungen aus. Maligne
Tumoren bilden sich vorzugsweise in Knochenmark, Brust, Schilddrüse und Weichteilgewebe. 10 % der Krebserkrankungen sind durch eine starke natürliche oder künstliche
(Solarien) Sonneneinstrahlung bedingt. Diese Art maligner Tumoren befallen oft die
Haut und bilden Melanome.
Zusammenfassend lässt sich sagen, dass sich das Risiko einer Erkrankung durch
eine gesunde Lebensweise und das Umgehen vermeidbarer Risikofaktoren deutlich
reduzieren lässt.
75
4 Onkologie
Abbildung 4.1: Melanie erklärt anhand einer in Gruppenarbeit gestalteten Grafik den Zellzyklus.
4.4
Molekulare Grundlagen
4.4.1
Tumordefinition und Mutationstheorie
Was ist eigentlich ein Tumor? – Als Tumor bezeichnet man eine Ansammlung von Zellen,
die bestimmte Eigenschaften erlangt haben, wodurch sie sich von gesunden Körperzellen
unterscheiden. Nach dem neuesten Stand der Forschung ergeben sich wenigstens acht
wichtige Eigenschaften: das Vermeiden der Erkennung durch das Immunsystem, das
fehlende Ansprechen auf negative Wachstumssignale, die Apoptoseresistenz, ein gesteigertes proliferatives Signaling, die potenzielle Unsterblichkeit, genomische Instabilität,
ein verstärkter (und veränderter) Metabolismus, sowie die vermehrte Angiogenese.
Im Einzelnen bedeutet dies, dass Tumorzellen das Immunsystem umgehen können,
indem sie für die Immunantwort wichtige Signale nicht oder nicht mehr aussenden.
Manche Tumorzellen können daher von Zellen der Immunabwehr nicht von gesundem
Gewebe unterschieden werden. Zusätzlich können sie mit der Mobilisation regulatorischer T-Zellen (»T-regs«) der Immunreaktion entgegenwirken. Im Allgemeinen
reagieren Tumorzellen nicht auf wachstumseinschränkende Signale umliegender Zellen und vermehren sich unkontrolliert. Sogenannte Tumorsuppressor-Proteine dienen
als Kontrollmechanismen im Zellzyklus (siehe Abbildung 4.1) und bei der Proteinsynthese. Einige Mutationen bewirken eine defekte oder ausbleibende Synthese dieser
Tumorsuppressor-Proteine, wodurch es zu unkontrolliertem Zellwachstum kommen
kann. Eines der bekanntesten Tumorsuppressor-Proteine ist p53, das eine steuernde
Funktion beim programmierten Zelltod (Apoptose) (siehe Abbildung 4.2) einnimmt. p53
ist in vielen Tumoren defekt oder in seiner Konzentration stark herabreguliert, sodass
76
4.4 Molekulare Grundlagen
Abbildung 4.2: Alex veranschaulicht die Apoptose anhand einer in Gruppenarbeit gestalteten
Grafik.
Tumorzellen gegenüber den Apoptose auslösenden Faktoren (z. B. DNA-Schäden) resistenter sind als gesunde Zellen. Jede Zelle exprimiert Rezeptoren, die durch die Bindung
der von umliegenden Zellen sezernierten Signalmoleküle Wachstumsprozesse einleiten.
Durch die Überproduktion oder Mutation dieser Rezeptoren erhalten viele Tumorzellen
permanent das Signal zur Proliferation und werden so zum unkontrollierten Wachstum angeregt. Eine weitere wichtige Eigenschaft von Tumorzellen ist die potenzielle
Unsterblichkeit. Jedes Chromosom besitzt an seinen Enden sogenannte Telomere. Dies
sind sich wiederholende DNA-Abschnitte, die nicht für Proteine kodieren und sich bei
jeder DNA-Verdoppelung verkürzen. Ist eine gewisse Mindestlänge unterschritten, wird
die Apoptose (siehe Abbildung 4.2) eingeleitet oder die Zelle geht in die Ruhephase
über. So bleibt die Anzahl an Zellteilungen, die eine Zelle durchführen kann, begrenzt.
Tumorzellen exprimieren häufig das Enzym Telomerase. Die Telomerase ist in der Lage,
die verkürzten Telomere wieder zu verlängern und so die Krebszelle unsterblich zu
machen. Zellen deren Genom bereits instabil ist, sind anfälliger für Mutationen. Da
sowohl Kontrollmechanismen des Zellzyklus (siehe Abbildung 4.1) als auch die Möglichkeit der Apoptose bei Tumorzellen eingeschränkt sind, wird das Genom durch die
Ansammlung weiterer DNA-Schäden zunehmend instabiler. Aus der unkontrollierten
Zellvermehrung resultiert ein verstärkter Metabolismus, so dass Tumorgewebe einen
höheren Energieverbrauch als gesundes Gewebe aufweist. Die achte Eigenschaft, die
Angiogenese, bezeichnet die Fähigkeit von Tumorzellen, Signale zur Einsprossung neuer
Blutgefäße auszusenden, wodurch sich Tumoren in gewisser Weise selbst die Infrastruk-
77
4 Onkologie
Abbildung 4.3: Martim verdeutlicht Zellteilung und Mitose anhand einer in Gruppenarbeit
gestalteten Grafik.
tur für ein übermäßiges Wachstum schaffen. Bösartige Tumoren besitzen die Fähigkeit
zur Metastasenbildung. Das heißt, dass Tumorzellen in der Lage sind, sich über die
Blut- oder Lymphbahnen im Körper zu verteilen und Tochtergeschwülste in anderen
Geweben auszubilden.
Doch wie kommt es überhaupt zur Entartung von Zellen? – Vorweg soll erwähnt werden,
dass es bislang keine exakte Erklärung für dieses Phänomen gibt. Die seit 25 Jahren
gängigste Theorie ist die klassische Mutationstheorie. Sie besagt, dass durch Schäden in
der DNA, die das Ergebnis zufälliger Mutationen sind, ganze Gene inaktiviert oder verändert werden. Die Proteinsynthese auf Basis veränderter DNA führt zu Veränderungen
der Konzentrationen verschiedener Proteine. Besonders schädlich sind die Mutationen
in Tumorsuppressorgenen, deren Proteine die Zellvermehrung regulieren, sowie ProtoOnkogenen, deren Proteine die in Abbildung 4.3 veranschaulichte Zellteilung fördern.
Durch jede neue zufällige Mutation kann eine Tumorzelle eine weitere der oben genannten acht Eigenschaften erlangen. Zur Entartung einer Zelle sind ca. 4–10 Mutationen
nötig. Allerdings lässt sich mit dieser Theorie nur die Entstehung von ca. 1/3 aller
Krebserkrankungen erklären. Andere Hypothesen, wie die Theorie der Aneuploidie und
die Tumorstammzelltheorie versuchen bestimmte Teilaspekte der Tumoreigenschaften
noch differenzierter zu erfassen. Die Theorie der Aneuploidie besagt, dass es durch
Chromosomen-Aberrationen (Verlust oder Verdopplung ganzer Chromosomen) oder
fehlende, zusätzliche und möglicherweise auch vertauschte DNA-Fragmente auf Chromosomen zu Konzentrationsveränderungen verschiedener Proteine kommt. Demgegenüber
geht die Tumorstammzelltheorie davon aus, dass nur eine sehr begrenzte Teilpopulation
der Zellen eines Tumors in der Lage ist, einen Tumor neu entstehen zu lassen, also das
Potenzial hat, Metastasen zu bilden.
78
4.5 Tumorentitäten
4.5
Tumorentitäten
4.5.1
Leukämien und Lymphome
Die Leukämie ist eine Krankheit des blutbildenden Systems, bei der der Reifeprozess
der weißen Blutkörperchen unterbrochen ist. Die unreifen Leukozyten breiten sich im
Knochenmark und im Blut aus und infiltrieren auch weitere Organe. Eine Leukämie
verläuft in 3 Phasen. In der aleukämischen Phase findet die Proliferation von entarteten
Zellen nur im Knochenmark statt. Während der subleukämischen Phase sind schon erste
unreife Vorstufen im Blut nachweisbar, deren Anzahl in der leukämischen Phase deutlich
ansteigt. Man unterteilt Leukämien nach dem Verlauf in akute und chronische Leukämien. Akute Leukämien sind durch einen raschen Krankheitsverlauf gekennzeichnet, der
mit schweren Symptomen einhergeht. Dagegen verlaufen chronische Leukämien schleppend und sind am Anfang oft asymptomatisch. Außerdem unterteilt man Leukämien
noch nach der Art der betroffenen weißen Blutkörperchen in myeloische Leukämien
(Granulozyten) und lymphatische Leukämien (Lymphozyten). Als Ursachen für die
Entstehung einer Leukämie gelten ionisierende Strahlen, Chemikalien, Viren, Zytostatika und genetische Faktoren, wie etwa Chromosomenmutationen. Symptome einer
Leukämie sind z. B. eine Anämie, Blutungen, Infektanfälligkeit und Beeinträchtigungen
der Organfunktionen. Anhand einer Blut- und Knochenmarkuntersuchung werden
Leukämien diagnostiziert und anschließend je nach Art und Stadium der Erkrankung
behandelt. Dies erfolgt z. B. durch Chemotherapie oder Hochdosis-Chemotherapie mit
anschließender Stammzelltransplantation.
Lymphome sind Krebserkrankungen des lymphatischen Systems. Man unterteilt sie
in zwei Gruppen. Zum einen gibt es das klar abgegrenzte Hodgkin-Lymphom, auch
Morbus Hodgkin genannt, bei dem in den Lymphknoten Hodgkin- und SternbergReed-Zellen nachweisbar sind. Zum anderen unterscheidet man die große Gruppe der
Non-Hodgkin-Lymphome (NHL), bei der diese Zellen nicht nachgewiesen werden können. Die Ursachen der Erkrankung sind noch weitgehend unbekannt. Umwelteinflüsse
und Viren (z. B. Epstein-Barr-Virus) werden aber mit der Entstehung von Lymphomen in
Verbindung gebracht. Symptomatisch sind Lymphome durch Lymphknotenschwellungen und eine sogenannte B-Symptomatik mit Fieber, Nachtschweiß und Gewichtsverlust
gekennzeichnet. Bei Verdacht auf ein Lymphom wird ein Lymphknoten entnommen
und untersucht. Ist die Diagnose abgesichert, erfolgen verschiedene Untersuchungen
zur Einschätzung der Bösartigkeit der Tumorzellen. Therapiert wird die Krankheit
durch Bestrahlung, Chemotherapie oder Hochdosis-Chemotherapie mit anschließender
Stammzelltransplantation.
4.5.2
Mammakarzinom
Das Mammakarzinom ist die häufigste Krebsart bei Frauen. Weltweit erkrankt jede 14.
Frau an Brustkrebs und allein in Deutschland treten jährlich bis zu 40 000 Neuerkrankungen auf.
79
4 Onkologie
Bei Mammakarzinomen handelt es sich um maligne Tumoren, die die Brustdrüsen
befallen. Der Tumor ist eine Agglomeration von bösartig mutierten Zellen in den Brustdrüsen und weist ein unkontrolliertes Wachstum auf. Das Wachstum wird im Falle eines
Brustkrebses maßgebend von Hormonen, wie Östrogenen und Progesteronen, beeinflusst. Hierbei handelt es sich um zwei Hormone, die während des Menstruationszyklus
in den Eierstöcken vermehrt produziert werden.
Zu den Risikofaktoren zählen zudem auch ein erhöhtes Alter, Übergewicht, Kinderlosigkeit, Einnahme von Hormonen (Pille, Tabletten während des Klimakteriums),
mangelhafte Bewegung, Mastopathie (gutartige Strukturveränderung der Brustdrüsen),
Rauchen und ionisierende Strahlung. 4–9 % aller Brustkrebse sind erblich. BCR1 und BCR2
(Breast Cancer) sind wichtige Beispiele für brustkrebsassoziierte Mutationen. Bei familiärer Disposition steigt das Risiko des Entstehens eines bösartigen Brusttumors. Deshalb
werden Risikopatientinnen zeitige und häufigere Vorsorgeuntersuchungen empfohlen.
Häufig auftretende Symptome sind Knoten bzw. Verhärtungen in der Brust, Austreten
von Flüssigkeiten aus einer Brustwarze, unterschiedliche Brustbewegungen beim Anheben der Arme, Form- bzw. Größenveränderung, brennender Schmerz einer Brust und
Einziehen der Brustwarze. Auch geschwollene Lymphknoten im Achselbereich können
auf ein mögliches Mammakarzinom hindeuten. Dies kann zum einen Ausdruck der
Immunantwort des Körpers sein und zum anderen Zeichen einer bereits einsetzenden
Metastasierung. Häufigste Metastasierungsorte sind Lymphknoten, Knochen, Haut, Leber, Lunge und Gehirn. Trotz ihres langsamen Wachstums streuen Mammakarzinome in
der Regel früh in andere Organe.
Frauen ab dem 50. Lebensjahr werden Mammographien als Vorsorgeuntersuchung im
Abstand von zwei Jahren empfohlen, um Diagnosen frühzeitig stellen zu können. Zeitig
entdeckte Tumoren haben bessere Therapiemöglichkeiten und eine bessere Prognose. Die
wichtigsten Therapieoptionen sind der chirurgische Eingriff, Chemotherapie und Strahlentherapie. Zusätzlich können in ausgewählten Fällen Hormon- und Antikörpertherapie
eingesetzt werden.
Allgemein gilt das Mammakarzinom als Krebs mit guten Heilungschancen. Die 5Jahres-Überlebensrate nach erfolgter Therapie beträgt 83–87 %. Ab diesem Zeitpunkt
verringert sich das Risiko eines Rezidivs kontinuierlich.
4.5.3
Melanome und Glioblastome
Das Melanom ist der häufigste Hautkrebs. Es entsteht durch Mutationen der pigmentbildenden Zellen, den Melanozyten. Diese Tumorerkrankung hat in den letzten 20 Jahren
stark zugenommen. Die Inzidenzen (Neuerkrankungen) sind regional sehr verschieden, was auf ethnische und geografische Faktoren zurückgeführt werden kann. Die
Spitzenreiter sind Australien und Neuseeland mit 50 Melanompatienten auf 100 000
Einwohner. Dagegen erkranken in Deutschland nur ca. 15 Menschen von 100 000 Einwohnern. Weltweit ist eine größere Anfälligkeit von hellhäutigen ethnischen Gruppen
erkennbar. Insgesamt erkranken Frauen im Durchschnitt früher und doppelt so häufig
wie Männer.
80
4.5 Tumorentitäten
Ursachen für die Erkrankung sind eine hohe Dosis UV-Strahlung, Sonnenbrände,
eine große Anzahl von Pigmentflecken und die familiäre Prädisposition (genetische
Vorbelastung). Hinweise auf ein Melanom sind Farb- und Formveränderungen von Leberflecken und Blutungen dieser. Anhand der A(Asymmetrie) B(Begrenzung) C(Colour)
D(Durchmesser) E(Erhabenheit)-Regel lässt sich abschätzen, ob ein Leberfleck krebsverdächtig ist. Eine Biopsie und histologische Untersuchungen erlauben eine genauere Diagnose. Positive Befunde haben weitere Untersuchungen (Röntgen-Thorax, MRT,
Abdomen-Sonographie) zur Detektion und Lokalisierung möglicher Metastasen zur Folge. Da das Melanom früh zur Metastasierung neigt, muss es schnellstmöglich behandelt
werden.
Die vier häufigsten Arten des Melanoms sind das Superfiziell-spreitende Melanom
(SSM; 60 %), das Noduläre M. (NM; 20 %), das Lentigo-maligna-M. (LMN; 15 %) und das
Akrolentiginöse M. (ALM; 5 %). Nach erfolgreicher Typisierung wird die direkte Therapie
(chirurgischer Eingriff, Radio-Therapie, Hyperthermie und Palliativtherapie) eingeleitet,
die durch indirekte Therapieansätze (z. B. Stärkung des Immunsystems) unterstützt wird.
Trotz einer hohen Erkennungsrate im nichtinvasiven Stadium (85 %) werden nur 45 %
der Patienten rechtzeitig behandelt. Die Nachsorge umfasst psychosoziale Hilfestellung
sowie eine ständige medizinische Überwachung, welche dem hohen Rückfallrisiko
entgegenwirken soll.
Das Glioblastom ist die häufigste Hirntumorerkrankung. Dennoch treten Tumoren des
Zentralen Nervensystems mit ca. 6000 Neuerkrankungen jährlich in Deutschland relativ
selten auf. Glioblastome finden sich vorwiegend im Frontal- und im Temporallappen. An
dem sich aggressiv ausbreitenden und nur schwer prognostizierbaren Tumor erkranken
vor allem Erwachsene zwischen 50 und 60 Jahren.
Ursachen für die Entstehung eines Glioblastoms sind unter anderem ionisierende Strahlen und eine familiäre Prädisposition. Symptome des Tumors sind akute Beschwerden
wie Kopfschmerzen, Erbrechen oder epileptische Anfälle. Später können neurologische
Ausfälle und ein Anstieg des Hirninnendrucks auftreten. Bildgebende Verfahren wie MRT
und CT ergeben eine erste Diagnose. Die vom Glioblastom gebildeten Metastasen sind
in der Regel auf das Nervensystem beschränkt.Die Komplexität des Gehirns erschwert
die Entfernung des Tumors erheblich, sodass Therapieversuche bislang keine Heilung
versprechen.
4.5.4
Lungen- und Magenkarzinom
Lungenkrebs (Lungenkarzinom) ist die dritthäufigste bösartige Tumorerkrankung, an der
mehr Männer als Frauen erkranken. In der Todesursachenstatistik (von 2005) stellt diese
bei Männern die häufigste und bei Frauen die dritthäufigste krebsbedingte Todesursache
dar.
Ein Lungenkarzinom ist eine bösartige Geschwulst in der Lunge, die sich im Verlauf
auch auf andere Organe ausbreiten kann. Die wichtigsten Risikofaktoren sind Aktivsowie Passivrauchen. Auch der Kontakt mit Schadstoffen in der Luft und vorhandenes
Narbengewebe können krebsauslösende Zellmutationen hervorrufen. Lungentumore
werden oft erst im späten Stadium erkannt, da die Symptompe sehr unspezifisch sind.
81
4 Onkologie
Symptomatiken, die auf einen Lungentumor deuten können, sind beispielsweise ungewollter Gewichtsverlust, Erkältungen, die über mehrere Wochen trotz Antibiotika nicht
besser werden, Schmerzen in der Brust und Atemnot oder anhaltender Husten.
Zur Diagnosestellung des Lungenkrebses werden Röntgen, Computertomographie,
Bronchoskopie und histologische Gewebeuntersuchungen genutzt. Die wichtigsten
Lungenkrebsformen sind das nichtkleinzellige (80 %) und das kleinzellige (20 %) Lungenkarzinom. Das kleinzellige Lungenkarzinom hat eine schlechtere Prognose, da es
schnell wächst und bei Diagnosestellung in 80 % der Fälle bereits metastasiert hat. Zu den
Therapiemöglichkeiten gehören Chemotherapie, Strahlentherapie sowie eine operative
Entfernung des Tumors. Je nach Tumorstadium werden entweder nur das Tumorgewebe
plus Sicherheitsabstand oder Lungenlappen bzw. ein Lungenflügel entnommen. Eine
vollständige Heilung ist nur in wenigen Fällen möglich. Die Fünf-Jahres-Überlebensrate
liegt zwischen 5–10 %.
Etwa 8 % aller bösartigen Krebserkrankungen kommen im Magen vor. Glücklicherweise sinkt die Anzahl der Neuerkrankungen in den letzten Jahren. Die Tumorzellen
haben ihren Ursprung meistens in der Magenschleimhaut und breiten sich von dort
aus aus. Die wichtigsten Risikofaktoren zur Entstehung eines Magenkarzinoms sind
schlechte Ernährung und Magenschleimhautentzündung, vor allem durch das Bakterium Helicobacter pylori. Auch die Symptome dieser Krebsart sind unspezifisch.
Häufig berichtet werden Oberbauchbeschwerden, ungewollter Gewichtsverlust, Schluckbeschwerden, Appetitlosigkeit, ein »empfindlicher« Magen, Abneigung gegen Fleisch
und Völlegefühl nach dem Essen. Zur Diagnosestellung werden speziell die Gastroskopie
(Magenspiegelung) und die Endosonographie angewandt. Zu den Therapiemöglichkeiten gehören Chemotherapie, Strahlentherapie, endoskopische sowie operative Entfernung des Tumors. Bei der Operation können entweder nur Teile oder der ganze Magen
entfernt werden. Nach einem solchen Eingriff ist es möglich, weitgehend normal zu leben.
Die Essgewohnheiten müssen jedoch angepasst werden. Die Fünf-Jahres-Überlebensrate
beträgt je nach Stadium der Erkrankung zwischen 80 und 5 %.
4.6
Therapie und Diagnostik
4.6.1
Anamnese und Untersuchung
Jeder kennt diese Situation: Man ist krank, weiß aber nicht genau, was einem fehlt. Also
geht man zum Arzt. Was erwartet man nun von ihm? Eine eindeutige Diagnose des
Krankheitsbefundes und eine Heilung, denn das ist ja sein Beruf. In der Kurseinheit
»Anamnese und Untersuchung« setzten wir uns damit auseinander, wie man als Arzt
vorgeht, um diesen Erwartungen gerecht zu werden.
Der Arzt erhebt eine Anamnese, in der er den jetzigen Zustand des Patienten, die
medizinische Vorgeschichte bzw. Familiengeschichte und das soziale Umfeld erfasst.
Eine sorgfältige Datenerhebung hilft, eine genaue Diagnose zu stellen und die richtige
Therapie auszuwählen. Bei der Befragung des Patienten muss der Arzt auf bestimmte
Dinge achten:
82
4.6 Therapie und Diagnostik
Zu Beginn des Arztbesuches ist es erwünscht, dass der Patient eigenständig und frei
von seinen Symptomen erzählt. Daher leitet der Arzt das Gespräch häufig mit Worten
wie »Was führt Sie heute zu uns?« ein. Die offen formulierte Frage erleichtert es dem
Patienten, von sich zu erzählen. Wichtig ist auch das »Heute«, da der Arzt wissen will,
ob der Patient akute Beschwerden und Symptome hat. Dennoch wird ein Patient bei
der Konsultation im Durchschnitt bereits nach 18 Sekunden wieder unterbrochen. Von
großer Bedeutung ist auch das aktive Zuhören.
Mit den berühmten W-Fragen kann der Arzt anfangen, die auftretenden Symptome
spezifischer festzuhalten: »Wann«, »Wo«, »Wie« und »Was«. Dabei liegt die Schwierigkeit darin, die subjektive Beschreibung des Patienten richtig einzuschätzen. Auffälligkeiten wie Gewichts- und Appetitverlust, Brechreiz, Alkoholkonsum und Rauchen sind
ebenfalls wichtige Aspekte zur Diagnosestellung. Es ist erforderlich zu wissen, welche
Medikamente der Patient schon genommen hat und welche davon die Symptome lindern
konnten.
Mit diesen gesammelten Informationen hat der Arzt häufig bereits eine Vermutung, die
er dann mit Hilfe verschiedener Tests und Untersuchungen zu bestätigen versucht. Dazu
inspiziert der Arzt seinen Patienten erst einmal gründlich, hört Herzschlag und Atmung
ab und kann bestimmte Regionen abtasten und abklopfen. Eine Bestimmung bestimmter
Laborparameter in der Blutabnahme bringt zudem häufig wichtige Zusatzinformationen.
Hat der Arzt eine Diagnose gestellt, so kann er einen Therapieplan erstellen.
4.6.2
Bildgebende Verfahren I (CT und MRT)
Es gibt verschiedene bildgebende Verfahren in der Medizin, die uns einen Blick in das
Innere unseres Körpers werfen lassen, ohne diesen aufschneiden zu müssen.
Eines dieser Verfahren ist das Röntgen. Hierbei wird Röntgenstrahlung auf den zu
untersuchenden Bereich des Körpers geschickt. Sie kann Materie durchdringen und wird
83
4 Onkologie
von verschiedenem Gewebe unterschiedlich stark absorbiert. Mit einer Röntgenkamera
wird die verbleibende Strahlung aufgefangen und als Röntgenbild wiedergegeben. Auf
diesem ist nun Gewebe mit einer hohen Dichte hell und Gewebe mit einer niedrigen
Dichte dunkel abgebildet. Eine Röntgenuntersuchung ist im Vergleich zu anderen
bildgebenden Verfahren kostengünstig und liefert ein schnelles Ergebnis. Besondere
Bedeutung hat das Verfahren in der Darstellung des Skelettapparates und der weiblichen
Brust.
Um suspekte Strukturen genauer zu untersuchen, sind häufig weitere Untersuchungen
wie Computertomographie (CT) und Magnetresonanztomographie (MRT) indiziert:
Die CT beruht auch auf Röntgenstrahlung. Hierbei drehen sich die Röntgenröhre, die
die Strahlung emittiert, und der Detektor um den Patienten; es werden Aufnahmen
aus verschiedenen Richtungen gemacht und ein Computer errechnet aus diesen ein
Schnittbild durch den Körper. Ebenso ist mit dem Computer eine dreidimensionale
Darstellung am Bildschirm möglich. Die CT wird aufgrund der kurzen Untersuchungszeit
in Notfallsituationen und bei Patienten, die nicht lange still liegen können, genutzt.
Außerdem bietet sie bei der Tumorerkennung durch eine höhere Auflösung genauere
Ergebnisse als das Röntgen. Es können Tumore sowie Metastasen dargestellt werden.
Mithilfe von Kontrastmitteln, die oral sowie intravenös verabreicht werden können,
lassen sich Gewebe noch detaillierter darstellen.
Ein Nachteil von Röntgen und CT ist die ionisierende Strahlung, die erbgutverändernd
wirken kann und somit auch krebsauslösend ist. Dies ist beim folgenden bildgebenden
Verfahren nicht der Fall:
Die MRT arbeitet mit einem starken Magnetfeld und nutzt den Effekt des Kernspins.
Durch den Effekt des Kernspins, die Eigenrotation des Atomkerns, entsteht bei bestimmten Atomen ein Magnetfeld. Dieses richtet sich nach dem starken Magnetfeld des MRT
aus und kann durch einen elektromagnetischen Impuls ausgelenkt werden. Dabei gibt
es eine Magnetfeldänderung und messbarer Strom wird induziert. Die MRT zeichnet
sich durch einen sehr hohen Weichteilkontrast aus und eignet sich dadurch besonders
zur Darstellung von Organen. Dies ermöglicht die Diagnosestellung verschiedenster
Tumorentitäten. Durch die Möglichkeit von Echtzeitaufnahmen kann beispielsweise ein
schlagendes Herz in Bewegung beobachtet werden. Die Untersuchungsdauer ist mit
etwa 30 Minuten relativ lang und kann nicht von jedem Patienten toleriert werden. Die
MRT ist das Schonendste der drei vorgestellten bildgebenden Verfahren, da sie keine
Strahlenbelastung darstellt.
4.6.3
Bildgebende Verfahren II (Positronen-Emissions-Tomographie)
Bei der Positronen-Emissions-Tomographie, kurz PET, handelt es sich um ein bildgebendes Verfahren der Medizin, das zur Diagnostik eingesetzt wird. Es findet größtenteils
Verwendung in der Onkologie um Tumorgewebe zu lokalisieren. Es bestehen auch
andere Einsatzmöglichkeiten wie beispielsweise eine Messung der Herzdurchblutung.
Bei einer PET wird der Stoffwechsel des untersuchten Organismus gemessen und
visualisiert. Dies geschieht, indem dem Patienten ein Radiopharmakon, auch Tracer
84
4.6 Therapie und Diagnostik
genannt, injiziert wird. Dabei handelt es sich um ein Radionuklid, das einzeln oder mit
einem Carrier-Molekül verabreicht werden kann. Verwendet wird meistens der Tracer
FDG (Fluordesoxyglucose) mit dem Radionuklid Fluor-18. Da es sich bei FDG um ein
Zuckermolekül handelt, wird dieses vermehrt von Gewebe mit hohem Metabolismus
aufgenommen. Dazu zählen Tumore, aber auch das Gehirn und Entzündungsherde.
Um eine optimale Wirkung zu erreichen, sollte vor der Behandlung einige Stunden
kein Zucker eingenommen werden. Das verwendete Fluorisotop hat die Eigenschaft,
beim Zerfall ein Positron und ein Neutrino zu emittieren; die entscheidende Rolle spielt
hierbei Ersteres. Da es sich bei Positronen um das Antiteilchen der Elektronen handelt,
reagieren emittierte Positronen mit Elektronen und setzen in einer Vernichtungsreaktion
Gammastrahlung frei. Hier wird nach dem Prinzip der Energie-Masse-Äquivalenz,
E = mc2 , die gesamte Masse der zwei Teilchen vernichtet und in Strahlung umgesetzt, die
zwei entstehenden Photonen werden in einem Winkel von 180◦ emittiert. Die freigesetzte
Strahlung wird von einem Detektorring aufgefangen und in ein elektrisches Signal
umgesetzt; dazu wird ein Photomultiplier eingesetzt. Gemessen werden nur Photonen
mit einer Energie von 511 keV. Das Ziel ist es, koinzident – also gleichzeitig – eintreffende
Photonen zumessen, sogenannte »trues«, da so der Weg dieser Photonen bis zum
Ursprung ermittelt werden kann. Da dieser Prozess sehr oft abläuft, kann gemessen
werden, in welchen Gebieten viele dieser trues auftreten. Daraus resultiert, dass dort ein
Gewebe mit hohem Stoffwechsel vorliegt, beispielsweise ein Tumor. Obwohl nicht alle
Photonen gemessen werden können, da der Körper sie absorbieren oder streuen kann
oder sie möglicherweise außerhalb des detektierten Bereichs austreten, zählt die PET zu
den genausten Bildgebenden Verfahren.
Noch bessere Ergebnisse werden erzielt, wenn PET-Geräte mit der Computertomographie oder der Magnetresonanztomographie kombiniert werden.
Da bei der PET ein Radionuklid verwendet wird, ist der Patient einer Strahlenbelastung ausgesetzt. Dieses Risiko überwiegt der Nutzen jedoch bei weitem. Eine andere
Problematik besteht in den hohen Kosten einer PET-Untersuchung und dem Aufwand bei
der Herstellung des Radiopharmakons. Zugunsten der Patienten sollten diese Probleme
jedoch keine Rolle spielen.
4.6.4
Chemotherapie
Eine der wichtigsten Therapien gegen Krebs ist die Chemotherapie. Durch sogenannte
Zytostatika werden dabei bösartige Tumorzellen abgetötet oder deren unkontrolliertes
Wachstum gehemmt.
Tumorzellen haben eine sehr hohe Teilungsrate, daher kommt es dort häufig zu
Mitosen. Da Zytostatika eben diesen Teilungsprozess angreifen, wirken sie auf bösartiges
Tumorgewebe stärker als auf gesundes Gewebe, wo es vergleichsweise selten zu Mitosen
kommt. Es gibt jedoch auch verschiedene gesunde Gewebearten (z. B. Schleimhäute
und Knochenmark), in denen die Teilungsrate sehr hoch ist. Diese Zellen werden dann
ebenso stark angegriffen, wodurch es zu erheblichen Nebenwirkungen kommt.
85
4 Onkologie
Zu den Zytostatika gehören u. a. die sogenannten Antimetabolite, wie 5-Fluoruracil.
Aufgrund der Strukturähnlichkeit dieses Wirkstoffes mit den Basen Uracil, Cytosin
und Thymin wird 5-Fluoruracil während der Replikation der DNA und auch während
der Transkription fälschlicherweise anstelle der Basen eingebaut. Die auf diese Weise
entstehende fehlerhafte RNA hemmt das Wachstum der Zelle. Eine weitere Wirkung der
Antimetabolite ist die Hemmung eines Enzyms, das die Synthese von dTMP katalysiert.
Das für die DNA-Reparatur und die DNA-Synthese wichtige dTMP kann dann nicht
synthetisiert werden, so dass letztlich die Zellteilung inhibiert wird.
Eine weitere Gruppe der Zytostatika sind die Taxane. Zu ihnen gehört der Arzneistoff
Paclitaxel, der ursprünglich in der Rinde der Pazifischen Eibe gefunden wurde. Während
der Metaphase der Mitose sind die Spindelfasern dafür zuständig, die beiden Schwesterchromosomen voneinander zu trennen und zu den Spindelpolen zu ziehen. Durch
Paclitaxel wird dieser Mechanismus unterbunden. Die Mitose läuft nicht vollständig ab,
was zum Tod der Tumorzelle führt.
Zu den Zytostatika gehören außerdem die sogenannten Alkylanzien. Diese Wirkstoffe,
wie zum Beispiel Nimustin, sind Zellzyklusunabhängig, wirken also weniger spezifisch auf Tumorzellen. Sie schädigen die DNA der Zellen durch eine Modifizierung der
Basenpaare, die Alkylierung. Bei der Alkylierung werden zwei Basen durch eine Kohlenwasserstoffkette verknüpft. Diese Basen können im selben (Intrastrang-Quervernetzung)
oder in gegenüberliegenden DNA-Einzelsträngen liegen (Interstrang-Quervernetzung).
Aufgrund dieser Modifikation kann die DNA nicht mehr repliziert werden. Der Zellstoffwechsel kommt zum Erliegen und die Apoptose wird eingeleitet. Eine ähnliche
Wirkung besitzen Platinverbindungen, zum Beispiel Cis-Platin. Auch hier kommt durch
eine irreversible Bindung des Moleküls an die DNA zu Quervernetzungen.
Bei der Chemotherapie werden meist verschiedene Wirkstoffe kombiniert und in einer
geplanten zeitlichen Abfolge verabreicht. Die Behandlung folgt also einem individuellen
Schema, in welchem Faktoren wie die Wirkdauer der Medikamente und die Regenerationszeit des Körpers berücksichtigt werden. Der Erfolg einer Chemotherapie hängt
auch davon ab, wie gut die Wirkstoffe die Krebszellen im Körper erreichen können. Eine
wichtige Rolle spielt weiterhin die Abbaugeschwindigkeit des Medikaments und die
mögliche Resistenz von Tumorzellen gegen das Zytostatikum.
4.6.5
Strahlentherapie
Die »Strahlentherapie« ist ein modernes Fachgebiet der Medizin, welches sich mit dem
Einsatz von ionisierender und somit hochenergetischer Strahlung auf Menschen und
Tiere beschäftigt. Hierbei ist das Ziel, verschiedene Krankheitstypen vollständig zu
heilen (kurative Bestrahlung), deren weiteren Fortschritt zu verhindern oder bei nicht
zu erwartender Heilung die Krankheitssymptome durch eine palliative Bestrahlung zu
lindern.
Der grundsätzliche Wirkungsmechanismus der Strahlentherapie beruht auf der Energieübertragung der eingesetzten Strahlung auf das bestrahlte Gewebe. Durch diese kommt
es zu verschiedenen Folgereaktionen: Zum einen kann die Zell-DNA durch direkte Treffer
86
4.6 Therapie und Diagnostik












Abbildung 4.4: Intensitätsvergleich zwischen Elektronen-/Röntgenbremsstrahlung und Protonen in Abhängigkeit von der Gewebetiefe. Quelle: Wikipedia [44].
der Strahlung stark geschädigt werden, was auf das Brechen von Einzelsträngen oder
dem gesamten Doppelstrang zurückzuführen ist. Zum anderen können freie Radikale
durch die Ionisierung von Wassermolekülen entstehen. Da freie Radikale ein oder mehrere ungepaarte Elektronen besitzen, sind diese Moleküle sehr reaktionsfreudig, sodass
sie durch sofortige Reaktionen mit der Zell-DNA diese akut schädigen.Die verursachten
Schäden übersteigen die ohnehin geringe Reparaturfähigkeit einer Tumorzelle, sodass
die Mitose und somit die weitere Vermehrung der Zellen verhindert wird und bei
übermäßigen Schäden an der DNA der Tumorzelle die Apoptose eingeleitet wird.
Um nun noch die Intensität der verwendeten Strahlung quantitativ beschreiben zu
können, wurde eine Einheit eingeführt, welche die »durch ionisierende Strahlung verursachte ( . . .) und ( . . .) [folglich] pro Masse absorbierte Energie« (Wikipedia [43]) angibt.
Diese Energiemenge wird in J/kg angegeben.
Betrachtet man nun die angewandten Therapieformen, so lassen sich drei Haupttherapien unterscheiden: Die Teletherapie, die Partikel-/Schwerionentherapie und die
Brachytherapie.
In der Teletherapie wird die benötigte Strahlung in Linearbeschleunigern erzeugt.
Hierbei handelt es sich entweder um Elektronenstrahlung, Photonenstrahlung oder
Röntgenbremsstrahlung. Charakteristisch für die Teletherapie ist das auftretende Spektrum der Strahlung wie es in Abbildung 4.4 zu erkennen ist. Das Dosismaximum der
Strahlung liegt relativ am Anfang der Flugbahn, anschließend baut sich die Intensität nur
langsam ab, sodass auf den Tumor folgendes Gewebe ebenfalls hohe Strahlungsdosen
erfährt.
87
4 Onkologie
Im Gegensatz hierzu werden in der Partikel-/Schwerionentherapie Schwerionen verwendet, die auf sehr hohe Geschwindigkeiten beschleunigt werden und den Tumor irreparabel schädigen. Dies liegt an der in der Abbildung 4.4 zu erkennenden Dosisverteilung,
nach der das Dosismaximum kurz vor dem Ende der Flugbahn liegt. Hierduch kann der
Tumor noch effektiver bestrahlt werden, während benachbartes Gewebe geschont wird.
Die dritte Therapieform ist die Brachytherapie, bei der zum einen die Möglichkeit besteht, kleine Strahlungskörper (Seeds) zu implantieren, die dann im Patienten verbleiben
und ihre Strahlung abgeben. Zum anderen können während einer Operation Hohlnadeln
in einen Körperhohlraum eingebracht werden, in denen dann Strahlenquellen einzelne
Positionen der Nadel abfahren und den Tumor bestrahlen. In beiden Fällen wird der
Tumor direkt vom Körperinneren her bestrahlt.
4.6.6
Monoklonale Antikörper
Monoklonale Antikörper stellen neben der Chemo- und Strahlentherapie eine zukunftsweisende Therapiemöglichkeit in der Onkologie dar.
Bei der natürlichen Immunantwort produzieren die B-Zellen des Immunsystems Antikörper, welche jeweils definierte Bindungsstellen (Epitope) ihrer Antigene erkennen.
Über das Hybridom-Verfahren lassen sich sogenannte monoklonale Antikörper künstlich
herstellen. Monoklonale Antikörper gehen auf eine einzige Zelllinie von B-Lymphozyten
(Zellklon) zurück. Bei der Hybridom-Technik werden B-Zellen mit sich schnell teilenden
Myelomzellen fusioniert. Man erhält sogenannte Hybridomzellen, die Antikörper produzieren. Nach Auswahl der geeignetsten Zellen werden diese in Kultur gehalten und
als Vorrat tiefgefroren. Da die B-Zellen der Milz einer Maus entommen wurden, müssen
monoklonale Antikörper vor dem Einsatz in der Therapie humanisiert werden, sodass
sie nicht als Fremdkörper vom Immunsystem aufgefasst werden.
Monoklonale Antikörper werden in Bezug auf Tumorerkrankungen sowohl in der
Diagnostik als auch in der Therapie eingesetzt. So ist es beispielsweise durch radioaktive
Markierung eines monoklonalen Antikörpers möglich, ihn zu detektieren, nachdem er
»sein« tumorspezifisches Protein erkannt hat. Somit kann man einen Tumor markieren
und lokalisieren. In der Therapie können monoklonale Antikörper auch die Übertragung
zellulärer Signale hemmen. Dazu binden sie an die entsprechenden, auf Tumorzellen
vermehrt vorkommenden Rezeptoren und blockieren deren Weiterleitung spezifischer
Signale. Diese Therapie wird häufig bei Brustkebs angewandt und führt schließlich zum
Anhalten des Tumorwachstums. Ein ähnlicher Effekt wird erreicht, wenn monoklonale
Antikörper eingesetzt werden, um die für die Angiogenese verantwortlichen Signalmoleküle zu blockieren. Dadurch erhält der Tumor keinen zusätzlichen Zugang zu
Sauerstoff und Nährstoffen, die über die Blutgefäße verteilt werden.
Um einen Tumor gezielt töten zu können, werden die Antikörper mit Giften oder
radioaktiven Substanzen kombiniert. Der Giftstoff befindet sich dann – aufgrund der
Antikörperbindung an ein Oberflächenprotein – in direkter Nähe zur Tumorzelle und
kann diese selektiv töten.
Ein weiterer Ansatz besteht darin, einen monoklonalen Antikörper mit einem Enzym
zu kombinieren. Diese Therapie bezeichnet man als Antibody-directed-enzyme-prodrug-
88
4.6 Therapie und Diagnostik
therapy oder kurz ADEPT. Hierbei werden dem Patienten mit dem Enzym Cytosindeaminase kombinierte Antikörper gespritzt, welche an Rezeptoren binden, die hauptsächlich an Tumoren zu finden sind. In einem zweiten Schritt wird dem Patienten die
zunächst wirkungslose Prodrug 5-Fluorcytosin gegeben. Wenn diese den am Tumor
befindlichen Antikörper-Enzym-Komplex erreicht, katalysiert die Cytosindeaminase die
Umwandlung der Prodrug in das Zellgift 5-Fluoruracil. Im Gegensatz zu verschiedenen
Chemotherapeutika, die gegen alle sich teilenden Zellen gerichtet sind, ermöglichen
antikörperbasierte Ansätze eine zielgerichtetere Therapie mit weniger Nebenwirkungen.
Insgesamt steckt in den unterschiedlichen Forschungsansätzen mit monoklonalen
Antikörpern daher ein großes Potential für die Krebstherapie.
4.6.7
Alternative Therapien – Misteltherapie
Ein kontrovers diskutiertes Thema in der modernen Krebsforschung stellen die alternativen Therapien dar. Eine der bekanntesten ist die Behandlung mit Mistelpräparaten,
die hauptsächlich von Vertretern der anthroposophischen Medizin angewandt wird.
Dabei handelt es sich um eine alternative Richtung, welche die Persönlichkeit des Patienten bei der Behandlung berücksichtigt. Ihr Begründer, der österreichische Philosoph
und Esoteriker Rudolf Steiner (1861 – 1925), beschrieb Anfang des 20. Jahrhunderts
das medizinische Potenzial der Mistel, eines Halbschmarotzers, der auf Bäumen und
Sträuchern lebt. Misteln wurden schon zuvor als Hausmittel gegen hohen Blutdruck,
Epilepsie und Asthma angewendet. Spätere Nachforschungen brachten zwei für Misteln
spezifische Inhaltsstoffe ans Licht, denen Anthroposophen große Bedeutung für die
Krebstherapie zuschreiben. Dabei handelt es sich einerseits um die Mistellektine, zuckerhaltige Eiweißstoffe, die das Immunsystem anregen, das Wachstum von Krebszellen
stoppen und durch das Auslösen des »Zellselbstmordes« sogar Tumore zerstören können
sollen. Andererseits beinhalten Misteln sogenannte Viscotoxine. Diese eiweißhaltigen
Verbindungen ähneln in ihrer chemischen Struktur Schlangengiften und sollen ebenfalls
das Immunsystem stimulieren und Krebszellen durch Auflösen der Zellwand zerstören
können.
Für die Therapie werden die Mistelpräparate zwei- bis dreimal pro Woche an Bauch
oder Oberschenkel unter die Haut gespritzt. Der Preis für eine dieser Dosen variiert
zwischen 6 und 10 Euro. In Ausnahmefällen kann das Präparat auch direkt in den Tumor
gespritzt werden oder per Infusion verabreicht werden.
Die Verfechter dieser komplementär zur konventionellen Behandlung ablaufenden Therapie räumen ihr das Potenzial ein, Tumore zu zerstören oder zumindest ihr Wachstum
zu verlangsamen; das Immunsystem zu stimulieren und vor allem die Lebensqualität
der Patienten zu erhöhen. Kritiker entgegnen, diese Wirkung habe in repräsentativen
Studien nicht bestätigt werden können. Als gesichert gilt demgegenüber, dass die Misteltherapie verschiedene Nebenwirkungen auslösen kann. Eine allergische Reaktion auf
die Präparate kann zudem lebensgefährlich sein.
Letztlich ist es vor allem eine Grundsatzfrage für den Patienten, ob er der ausführlich
erforschten, konventionellen Behandlung (Operation, Chemo-/Strahlentherapie) folgt
oder sich auch auf die viel diskutierte, alternative Misteltherapie einlässt.
89
4 Onkologie
4.7
Palliativmedizin und Patientenumgang
4.7.1
Palliativmedizin
Wenn bei Tumorpatienten die Möglichkeit einer Heilung ausgeschlossen wird, der Tumor
also inkurabel ist, werden diese nicht mehr kurativ, sondern palliativ behandelt. Das
Ziel der Palliativmedizin ist es dabei, nicht nur mehr Lebenszeit für den Patienten,
sondern auch die bestmögliche Lebensqualität zu erreichen. Neben der Linderung
von Leiden und Schmerzen gehört zur palliativen Behandlung auch das Stoppen des
Tumorwachstums, die Wiederherstellung von wichtigen Körperfunktionen und die
psychologische Betreuung.
Das weitere Tumorwachstum wird z. B. durch eine abgeschwächte Chemo- oder Strahlentherapie bekämpft. Um die Leiden eines Patienten abzumildern, bekommt er vor allem
Schmerzmittel verabreicht, es sind jedoch auch Operationen und leichte Chemotherapien
möglich. Bei Operationen werden beispielsweise Umgehungsgefäße (Blutgefäße oder
Verdauungsgänge) und Stents gelegt und Embolisationen durchgeführt, also Verödungen von Blutgefäßen, die zum Tumor hinführen. In Studien hat sich interessanterweise
gezeigt, dass sich durch diese palliativmedizinischen Maßnahmen die Lebensdauer der
behandelten Patienten gegenüber der prognostizierten Lebensdauer erhöht.
Anders als auf den gewöhnlichen Stationen im Krankenhaus, wird auf den Palliativstationen großer Wert auf eine wohnliche Einrichtung gelegt. Neben der medizinischen
Behandlung erhalten die Patienten auch Physio- und Ergotherapie zur Wiedererlangung
ihrer Mobilität und psychologische Unterstützung; denn für den Erfolg der Behandlung
ist auch die mentale Stärke und Akzeptanz entscheidend. Bei der Verarbeitung der
Krankheit benötigen nicht nur die Patienten und deren Angehörige psychologische
Betreuung, sondern auch alle Mitarbeiter der Palliativstation.
Auch das Gemeinschaftsgefühl zwischen Mitarbeitern und Patienten wird auf der
Palliativstation stärker gefördert, als auf anderen Stationen eines Krankenhauses. Dies
geschieht beispielsweise durch die regelmäßige gemeinsame Nutzung der Küche.
Ungewöhnlich ist auf der Palliativstation auch, die verhältnismäßig niedrige Patientenrate pro Arzt. Die unheilbar kranken Patienten werden wenn möglich auf der Palliativstation behandelt bis sich ihr Zustand soweit stabilisiert, dass sie die Zeit bis zu ihrem Tod
entweder zu Hause, im Pflegeheim oder im Hospiz verbringen. Die Erkrankten werden
außerdem auf die Zeit nach der Palliativstation vorbereitet. So beraten beispielsweise
Mitarbeiter des Sozialdienstes der Palliativstation die Patienten und ihre Angehörigen
über die praktischen Fragen der Betreuung und organisieren für später einen ambulanten
palliativen Pflegedienst, falls der Wunsch danach besteht.
Sowohl für die Patienten als auch für die mitarbeitenden Ärzte, Pfleger und Psychologen ist es während der gesamten Arbeit äußerst wichtig, niemals das große Ziel aller
palliativen Maßnahmen und Betreuung aus den Augen zu verlieren:
Nicht dem Leben mehr Tage hinzuzufügen, sondern dem Tag mehr Leben.
90
4.7 Palliativmedizin und Patientenumgang
4.7.2
Psychologische Aspekte
Neben den starken körperlichen Schmerzen werden Krebspatienten auch von psychischen Belastungen gequält. Im einen Moment noch erfüllt von Angst, Verzweiflung
und Hilflosigkeit, fühlen sie sich im nächsten Moment gestärkt von Mut, Zuversicht und
Entschlossenheit. Elisabeth Kübler-Ross teilt die Verarbeitung einer Krankheit in fünf
Stadien ein: »The Five Stages Of Grief«: Verleugnung, Wut, Verhandeln, Depression und
schließlich Akzeptanz.
Nicht nur für den Patienten selbst ist die Diagnose Krebs eine psychische Belastung,
sondern auch für die Angehörigen. Christoph Schlingensief, ein berühmter deutscher
Regisseur, beschreibt diese Situation in seinem Krebstagebuch wie folgt: »Nicht der
Leidende ist der, der eine Prüfung macht, sondern der, der auf den Leidenden trifft.
Deshalb ziehen sich auch manche Leute zurück, weil dieses Aufeinandertreffen bedeutet,
dass man sich über manche Dinge Gedanken machen muss, die man im Normalfall
lieber verschiebt. [ . . .] Es tut einem Leid, weil man mit existentiellen Problemen nichts
anfangen kann oder will« (Schlingensief 2005). Das Zitat zeugt von der Hilflosigkeit und
Unsicherheit der Angehörigen, wenn sie Zeit mit einem Todkranken verbringen.
Im Alltag sieht man sich nur äußerst selten mit existenziellen Fragen konfrontiert.
Oftmals möchte man sich nicht mit der Endlichkeit des Lebens beschäftigen. Tritt nun
jedoch eine Krankheit innerhalb des sozialen Umfeldes auf, so wird man von der
erschreckenden Realität des Todes eingeholt. Man wird sich der Tatsache bewusst, dass
mit dem Tod eines geliebten Menschen ein gemeinsames Leben endet. Dieser Einschnitt
in die Normalität kann beängstigend sein. Zudem kann Angst vor dem Schmerz der
Trauer und vor der anstehenden Veränderung entstehen. Häufig reagieren Angehörige
aus Unsicherheit mit einer abwehrenden Haltung. Diese Distanz kann in manchen Fällen
dazu beitragen, dass Patienten keine Möglichkeit sehen, ihren tiefsten Ängsten und
Wünschen Ausdruck zu verleihen, weil sie sich niemandem anvertrauen können.
»Damit wir begreifen lernen, dass es im Kern um eine Beziehung zum Leben geht,
die nicht nur von Schönheit und Erfolg ausgeht, sondern auch mit Hässlichkeit und
Misserfolg rechnen lernt. Dass man sich dem Zöllner und der Hure näher fühlen sollte
als dem Pharisäer« (Schlingensief 2005). Schlingensiefs Worte beschreiben die Mentalität
unserer Gesellschaft. Es geht um Leistung, Erfolg, Makellosigkeit und Perfektionismus.
Solch’ eine Gesellschaft besitzt keinen Platz für chronisch Kranke. Dies kann zu einer
Ausgrenzung des Kranken aus der Masse führen.
Um den Patienten auf körperlicher und seelischer Ebene zu unterstützen, sollten wir
offener über Themen wie Krebs, Tod und Verlust sprechen. Dies würde eine Verbesserung bzw. Erleichterung der Situation auf beiden Seiten bedeuten. Zudem wäre es
wünschenswert, wenn die Gesellschaft für die Bedürfnisse chronisch Kranker mehr Platz
schaffen würde.
91
4 Onkologie
4.8
Literaturverzeichnis
Epidemiologie
[1] http://www.krebsinformationsdienst.de/themen/grundlagen/krebsregister.php
Deutsches Krebsforschungszentrum (KID): Krebsregister: Warum zählen so wichtig ist.
[2] Robert Koch Institut und Gesellschaft der epidemiologischen Krebsregister in Deutschland e. V: Krebs in Deutschland 2005/2006 - Häufigkeiten und Trends. Berlin 2010.
Risikofaktoren
[3] http://www.onkologie.hexal.de/krebs/lungenkrebs/gefaehrdet/
Hexal AG: Lungenkrebs - Ursachen und Risiko.
[4] www.chirurgie-frankfurt.com/de/pdfs/Krebsvorsorge.pdf
Klinik für Allgemein-, Viszeral-, und Minimal Invasive Chirurgie – Patienteninformation: Kann man sich vor Krebs schützen?
[5] http://www.med.uni-goettingen.de/media/global/tag_der_medizin/
tdm_2006_krebs_unduebergewicht.pdf
Raddatz, Dirk: Krebs und Übergewicht, Göttingen 2006.
[6] Rechkemmer, Gerhard: Krebs - auch ein Ernährungsproblem. In: Spektrum der Wissenschaft, Spezial: Krebsmedizin II, Spezial 3/2003, 40–44.
Molekulare Grundlagen
[7] http://www.krebsinformationsdienst.de/themen/grundlagen/immunsystem.php#
immunsystem-und-krebs
Deutsches Krebsforschungszentrum (KID): Immunsystem und Krebs: Kompliziertes
Wechselspiel.
[8] Gibbs, W. Wayt: Chaos in der Erbsubstanz. In: Spektrum der Wissenschaft Spezial:
Krebsmedizin II Spezial 3/2003, 12–22.
[9] Hanahan, Douglas und Weinberg, Robert A.: Hallmarks of Cancer: The Next Generation. In: Cell Vol. 144 (5) 2011, 646.
[10] http://uni-protokolle.de/nachrichten/id/44808/
Müller-Hermelink, Hans Konrad: Genomische Instabilität als Ursache der Krebsentstehung.
Leukämien und Lymphome
[11] http://www.dkv.com/gesundheit-krebs-leukaemie-beschreibung-12310.html
Larisch, Katharina: Leukämie und Lymphome – Beschreibung.
[12] Leischner, Hannes: Basics Onkologie. München 2010.
92
4.8 Literaturverzeichnis
Mammakarzinom
[13] http://www.frauenaerzte-im-netz.de/de_brustkrebs-risikofaktoren-vorbeugung_367.
html#Alter
Berufsverband der Frauenärzte e. V.: Brustkrebs: Risikofaktoren und Vorbeugung.
[14] http://www.netdoktor.de/Krankheiten/Brustkrebs/Wissen/BrustkrebsMammakarzinom-92.html
Buschek, Nina: Brustkrebs (Mammakarzinom).
[15] http://www.krebsinformationsdienst.de/themen/risiken/gutartige-brustveraenderungen.
php
Deutsches Krebsforschungszentrum (KID): Gutartige Veränderungen in der Brust.
[16] http://edoc.hu-berlin.de/dissertationen/richard-frank-1999-12-13/PDF/Richard.pdf
Richard, Frank: Chromosomale Imbalancen invasiv duktaler und invasiv lobulärer
Mammakarzinome detektiert mittels komparativer genomischer Hybridisierung (CGH),
Berlin 1999.
Melanome und Glioblastome
[17] Altmeyer, P. und Reich, S.: Hautkrebs - Ein oft unterschätztes Risiko: Risikofaktoren,
Diagnostik, Therapie & Prognose. Stuttgart 2006.
[18] Leischner, H., siehe [12].
[19] Sauer, R: Strahlentherapie und Onkologie. München 2010.
[20] http://www.glioblastom.org/
Weiberg, Horst: Glioblastom (Glioblastoma multiforme).
Lungen- und Magenkarzinom
[21] Deutsche Krebsgesellschaft e. V.: Der blaue Ratgeber, Magenkrebs. Berlin 2011.
[22] Deutsche Krebsgesellschaft e. V.: Patientenratgeber Lungekrebs. Berlin 2009.
[23] http://www.medicoconsult.de/wiki/Magenkarzinom
Medicoconsult Facharztwissen: Magenkarzinom, Häufigkeit.
[24] http://de.wikipedia.org/wiki/Bronchialkarzinom
Anamnese und Untersuchung
[25] http://www.patientenanwalt.com/fileadmin/dokumente/04_publikationen/
expertenletter/komunikation/upatzent0512_DrDegn.pdf
Degn, Barbara: Das Arzt-Patienten Gespräch.
Bildgebende Verfahren I (CT und MRT)
[26] http://www.welt.de/gesundheit/article4895003/Roentgen-CT-MRT-wie-wir-in-unserInneres-sehen.html
93
4 Onkologie
Bisculm, Martina: Bilgebende Verfahren: Röntgen, CT, MRT – wie wir in unser Inneres
sehen.
[27] http://www.krebsinformationsdienst.de/themen/untersuchung/roentgen.php
Deutsches Krebsforschungszentrum (KID): Röntgen: Den Körper durchleuchten.
[28] http://www.roe.med.tu-muenchen.de/download/vorlesung/Kurzscript\%20
zum\%20Radiologiekurs\%20MRT.pdf
Kurzscript zum Radiologiekurs » MRT + Skelettdiagnostik«.
[29] http://www.medical.siemens.com/siemens/de_DE/rg_marcom_FBAs/files/
Patienteninformationen/CT_Patienteninfo.pdf
Siemens AG, Medicial Solutions: Computertomographie – Informationen für Patienten.
[30] http://www.focus.de/gesundheit/ratgeber/krebs/diagnose/tid-6503/
krebsdiagnose_aid_62475.html
Uhlmann, Berit: Kernspintomografie (MRT).
Bildgebende Verfahren II (Positronen-Emissions-Tomographie)
[31] www.medizin-netz.de
[32] www.ogn.at
[33] www.pet.at
Chemotherapie
[34] http://www.krebs-bei-kindern.de/info/fachinfo/chemotherapie/chemotherapie.php
Artner, Juraj: Chemotherapie maligner Erkrankungen.
[35] http://www.krebsinformation.de/themen/behandlung/chemotherapie-wirkungresistenz.php
Deutsches Krebsforschungszentrum (KID): Chemotherapie: Resistenz und Wirkungsverlust.
[36] http://www.medizinfo.de/arzneimittel/arzneimittelklassen/antimetabolite.shtml
Wehner, Jürgen: Antimetabolite.
[37] http://de.wikipedia.org/wiki/Taxane
Strahlentherapie
[38] http://www.meduniwien.ac.at/typo3/?id=739
[39] http://www.operation.de/brachytherapie
Neubauer, Stephan und Derakhshani, Pedram: Brachytherapie / Seed-Implantation /
Afterloading Therapie – die Operation.
94
4.8 Literaturverzeichnis
[40] http://www.uni-heidelberg.de/presse/news03/2312ione.html
Schwarz, Michael: Heidelberger Schwerionen-Therapieanlage schließt Versorgungslücke
bei unheilbaren Tumoren.
[41] van den Berg, Franz: Angewandte Physiologie 2: Organsysteme verstehen und beeinflussen: Band 2. Stuttgart 2005.
[42] http://de.wikipedia.org/wiki/Gray
[43] http://de.wikipedia.org/wiki/Strahlentherapie
[44] http://de.wikipedia.org/w/index.php?title=Datei:Tiefendosiskurven.svg
Monoklonale Antikörper
[45] http://zlp.charite.de/forschung/pathobiochemiezellbiologie/ag_fuchs/projekte/adept/
Fuchs, Hendrik: ADEPT.
[46] http://www.kliniken.de/lexikon/Medizin/Immunologie/Monoklonaler_
Antik\%C3\%B6rper.html
[47] http://www.medizin-aspekte.de/2010/09/brustkrebs_trastuzumab_11941.html
[48] http://www.nuvomanufacturing.de/wundheilung/informationen.html
[49] Purves et al.: Biologie. Heidelberg 2010.
[50] Stryer et al.: Biochemie. Heidelberg 2010.
Alternative Therapien – Misteltherapie
[51] http://www.mistel-therapie.de/mistel.html
Kienle, Gunver S. und Bopp, Annette: Die Mistel in der Krebstherapie.
[52] http://www.test.de/themen/gesundheit-kosmetik/meldung/Misteltherapiebei-Krebs-Mythen-und-Tatsachen-1294947-2294947/
Stiftung Warentest (Berlin): Misteltherapie bei Krebs - Mythen und Tatsachen.
Psychologische Aspekte
[53] http://bit.ly/pULTBG
[54] Schlingensief, Christoph: So schön wie hier kanns im Himmel gar nicht sein! München
2009.
95
96
5
Gedenken oder Vergessen?
5.1
Einleitung
Andreas Schlüter und Johannes Waldschütz
»Die Geschichte ist kein Friedhof«, hat der französische Philosoph Paul Ricoeur einmal
gesagt – »nur die lebendige Erinnerung« der Zeitzeugen gebe den Blick frei auf die
»Träume, hochfliegende[n] Hoffnungen, Projekte« der historischen Akteure (Ricoeur
1998). Und nicht nur die Beliebtheit von Geschichtsdokumentationen im Fernsehen zeigt,
dass die Beschäftigung mit Erinnern und Vergessen in den letzten beiden Jahrzehnten immer stärker zugenommen hat. Die meisten Historiker im Wissenschaftsbetrieb
sind dagegen deutlich skeptischer, was die Verlässlichkeit und Aufrichtigkeit solcher
Erinnerungen betrifft. In diesem Spannungsfeld zwischen lebendigem Eintauchen in
das Vergangene und nüchterner Distanz bewegte sich unser Kurs. Das gab uns die
Möglichkeit, Grundlagen und Methoden der Geschichtswissenschaft zu diskutieren und
so zu verstehen, was Wissenschaftlichkeit ausmacht.
Im ersten Teil erarbeiteten wir uns gemeinsam die interdisziplinären Grundlagen:
Wir bekamen einen Überblick, was in den Naturwissenschaften und der Psychologie,
in der Philosophie und unter Historikern über das Erinnern herausgefunden und
gedacht worden ist. Zentral ist die Erweiterung des Erinnerungsbegriffs vom Gedächtnis
Einzelner auf Gruppen und ganze Gesellschaften, die so an einem kollektiven Gedächtnis
teilhaben können. Und durch Friedrich Nietzsche machten wir uns damit vertraut, dass
auch das Vergessen seinen Nutzen haben kann.
So gerüstet, nahmen wir im zweiten, genuin historischen Teil den Umgang mit
Erinnern und Vergessen in verschiedenen Zeiten und Kulturen in den Blick: Die mittelalterliche Memorialkultur rückte angesichts der tief verankerten Frömmigkeit das Jenseits
ständig ins Bewusstsein. Wie das Erinnern in den Dienst der Macht treten kann, zeigte
uns z. B. der kreative Rückgriff von Adligen auf vermeintliche Ahnen zur eigenen
Herrschaftssicherung. Die immer wieder verfeinerte damnatio memoriae bediente sich als
Herrschaftstechnik auch des Vergessens. Es zeigte sich, dass im Lauf der Geschichte
ganz unterschiedlich mit Gedenken und Vergessen umgegangen wurde, was auf uns
heute fremd und unverständlich wirken kann.
Mit diesem Wissen betrachteten wir im dritten Kursteil Erinnerungsformen und
-konstruktionen der Gegenwart, u. a. die Inszenierung von Geschichte in Museen und
Medien, den Stellenwert historischer Erinnerung beim Umgang mit historischem Unrecht
oder die Bedeutung von Geschichtspolitik in demokratischen wie totalitären Gesellschaften.
Als Klammer dienten dabei Fragen, die das Thema Erinnerung im Hinblick auf die
wissenschaftliche Praxis zu verorten versuchten: Wie beeinfluss(t)en historische Prozesse
die individuelle und kollektive Erinnerung? Wie kann die (historische) Wissenschaft mit
97
5 Gedenken oder Vergessen?
sich wandelnder Erinnerung umgehen? Gibt es eine von der Erinnerung unabhängige
»objektive Geschichte«? So unterschiedlich die Antworten der Teilnehmenden dabei auch
ausgefallen sind, so deutlich wurde es, dass dabei ein Prozess des Nachdenkens und
Hinterfragens eingesetzt hatte – die Grundlage jeder wissenschaftlichen Beschäftigung.
5.2
Neurologische und psychologische Grundlagen des Erinnerns
Für das Erinnern spielt das menschliche Gedächtnis eine wichtige Rolle. Es gibt drei
Unterteilungen des Gedächtnisses: das Ultrakurzzeitgedächtnis, das Arbeitsgedächtnis
und das Langzeitgedächtnis. Das Langzeitgedächtnis nimmt allerdings als einziges die
Rolle der wirklichen Speicherung ein, wohingegen die anderen sich mit der Verarbeitung von kurzfristigen Reizen beschäftigen. Auch das Langzeitgedächtnis lässt sich in
zwei Bereiche unterteilen: das explizite und das implizite Gedächtnis. Zum expliziten
Gedächtnis gehört das semantische Gedächtnis, das für Faktenwissen zuständig ist, und
das episodische Gedächtnis, das speziell für Erinnerungen zuständig ist. Der zweite
Bereich, das implizite Gedächtnis, setzt sich zusammen aus dem prozeduralen Gedächtnis, das für Bewegungsabläufe zuständig ist, und dem Priming-Gedächtnis, das für die
Wiedererkennung von Reizen sorgt (Piefke, Markowitsch 2010: 11–13).
Während der Speicherung von Daten im Langzeitgedächtnis findet auf neuronaler
Ebene eine Genaktivierung statt, die die Bildung eines Proteins zur Folge hat, das
wiederum die Strukturen der Synapsen ändert. Diese Genaktivierung kann z. B. durch
häufige Wiederholung oder durch eine starke emotionale Bindung mit dem Erlebten
zustande kommen. Sollte die Erinnerung jedoch erst einmal im Langzeitgedächtnis
festgehalten worden sein, kann sie theoretisch zeitlich unbegrenzt dort fortbestehen.
Da sich allerdings die Synapsen im Gehirn ständig verändern, kann die Erinnerung in
Vergessenheit geraten, wenn sie nicht mehr durch Reize angeregt wird. Auch ähnliche
Erinnerungen oder etwas, das mit der Erinnerung in einem Zusammenhang steht, kann
einen Reiz auslösen. Bei der langfristigen Wiederholung von Erinnerungen kann es
problematisch sein, dass die Erinnerungen sich in einem geringen Maß verändern. So
kann es sein, dass der sich Erinnernde völlig vom Ablauf der Erinnerung und den
Details überzeugt ist, obwohl der eigentliche Hergang möglicherweise anders gewesen
ist. Des Weiteren spielt beim Erinnern auch immer der aktuelle persönliche Kontext eine
wichtige Rolle (Piefke, Markowitsch 2010: 17).
Durch diese Abänderung oder Verfälschung besteht die Gefahr, dass Vergangenes
anders interpretiert oder gewertet werden kann. Dieser Effekt kann besonders beim
kommunikativen Gedächtnis (Assmann 2006) auftreten, da neben der Verfälschung
durch die Erinnerung auch eine mögliche Verfälschung durch die kommunikative
Weitergabe entstehen kann. Geringer ist dieser Effekt beim kulturellen Gedächtnis
(Assmann 2006), da sich dieses durch eine Speicherung des zu Erinnernden mittels
der Kultur auszeichnet. Das kulturell Festgehaltene kann zwar aufgrund eines anderen
zeitlichen und sozialen Kontextes »falsch« neuinterpretiert werden, jedoch entsteht dabei
eine einmalige Verfälschung, während beim kommunikativen Gedächtnis die minimalen
Abänderungen aufeinander aufbauen und sich somit selbst verstärken.
98
5.3 Glücklich ohne Erinnerung?
5.3
Glücklich ohne Erinnerung? Philosophische Betrachtungen Nietzsches
über den »Nutzen der Historie«
Nietzsche wurde 1844, im Zeitalter des Historismus, geboren. Im gesamten westlichen
Kulturkreis suchte man in dieser Zeit nach seinen ethnischen Wurzeln; Geschichte wurde
zur wichtigsten Wissenschaft. Diesem Gesellschaftsbild stellte Nietzsche im zweiten
Teil seiner »Unzeitgemäßen Betrachtungen« (erschienen 1874) eine neue Theorie des
Vergessens gegenüber.
»Es ist möglich, fast ohne Erinnerung zu leben, ja glücklich zu leben, wie das Thier
zeigt, es ist aber ganz und gar unmöglich ohne Vergessen überhaupt zu leben« (Nietzsche
1954: 213). Wenn wir nur erinnern, unterdrücken wir nach Nietzsche unsere Triebe des
Vergessens, was heißt, dass die Historie uns zwingt, uns selbst zu verleugnen. Jenes
Übermaß an Historie erzeuge einen inneren Konflikt und schwäche die Persönlichkeit.
Des Weiteren lasse es uns in der Vergangenheit leben und die Gegenwart »vergessen«
(Nietzsche 1954: 219–221).
Doch auch Nietzsche sah in der Historie nicht nur etwas Negatives, sondern hielt
sie in einem gewissen Maß für sinnvoll. Hierfür schlägt er eine Kombination aus drei
verschiedenen Betrachtungsweisen vor: die monumentale, die antiquarische und die
kritische Historie (Nietzsche 1954: 219–238). Der monumentale Mensch sehe Geschichte
als einen sich wiederholenden Kreislauf, als etwas Besonderes, und nutze sie als Mittel
gegen Resignation. Das berge die Gefahr, dass man nach der Vergangenheit lebe und
handele; deshalb benötige man die antiquarische Betrachtungsweise. Der antiquarische
Mensch sehe sich als Teil der Geschichte, ohne dass er Einfluss auf sie hätte. Gefährlich
sei hier, dass man in seiner »kleinen Welt« lebe und die Übersicht verliere. Deswegen
bestehe die Notwendigkeit der kritischen Historie, die über die Vergangenheit richte und
selektiv entscheide, was vergessen werde und was nicht. Nur wenn man Historie so in
den »Dienst des Lebens« stelle, sei sie sinnvoll.
Man könnte Nietzsches Gedanken, dass das Vergessen der Vergangenheit wichtig
sei, um die Gegenwart wahrzunehmen, mit der Theorie von Jan und Aleida Assmann
vergleichen. Diese teilt unser »gesellschaftliches Gedächtnis« in zwei Gedächtnisse:
in das kommunikative Gedächtnis und das kulturelle Gedächtnis. Das kommunikative
Gedächtnis habe eine Dauer von etwa 80 Jahren und beruhe auf sozialer Interaktion.
Das kulturelle Gedächtnis sei wiederum in zwei Gedächtnisse unterteilt: Funktions- und
Speichergedächtnis. Im Funktionsgedächtnis befänden sich alle Informationen, die im
Moment für unsere Kultur wichtig seien, während im Speichergedächtnis unser gesamtes
historisches Wissen (Archive etc.) gespeichert seien (Assmann 2006: 5). Man könnte also
sagen, dass das, was Nietzsche als »sinnvolles Vergessen« bezeichnet, eigentlich nur ein
Verschieben von irrelevanten Informationen vom Funktions- ins Speichergedächtnis ist.
Nietzsches Werke im Gesamtbild kann man kontrovers sehen, da sie im frühen
Stadium historienkritisch und im mittleren und späten historienfreundlich sind (Ottmann
2000: 255). Daraus kann man schließen, dass Nietzsche selbst im Laufe seines Lebens
seine historienkritische Theorie des Vergessens relativiert hat. Diese viel diskutierte
Theorie eröffnete die Sicht auf die positiven Seiten des Vergessens, weshalb sich die
Ansätze vieler heutiger Historiker auf Nietzsche zurückverfolgen lassen.
99
5 Gedenken oder Vergessen?
5.4
Das kollektive Gedächtnis nach Maurice Halbwachs
Der französische Philosoph und Soziologe Maurice Halbwachs (1877–1945) stellte 1925
in Les Cadres sociaux de la mémoire die These auf, der Mensch könne sich nicht ohne
Anbindung an die Gesellschaft an etwas erinnern. Jeder Mensch sei fest in gesellschaftlichen Rahmenbedingungen, den »cadres sociaux« verankert, die durch kommunikative
Teilnahme an bestimmten Gruppen entstünden. Die wichtigsten Erinnerungsrahmen
seien Sprache, Zeit, Raum und Erfahrung.
Die Abhängigkeit von der Gesellschaft bezeichnet Halbwachs als kollektives Gedächtnis – kollektiv im Gegensatz zum individuellen Gedächtnis. Ein solches sei jedoch nur
bei einem komplett isoliert aufgewachsenen Menschen zu finden oder im Traum (Halbwachs 1985: 366–367). Denn nur die unmittelbaren Wahrnehmungen und Empfindungen
eines Menschen sind nach Halbwachs individuell. Sobald er beginne, zu verstehen,
benennen oder auszudrücken, nehme er Bezug auf die ihn umgebenden Rahmen, wobei
die Sprache der hauptsächlichste sei (Pethes 2008: 53).
Diese durch Beeinflussung einer Gruppe gebildete Erinnerung werde beim Erinnerungsprozess leicht verformt, da der Mensch bei jedem Reproduktionsvorgang den Wert
der einzelnen Aspekte anders gewichte (Halbwachs 1985: 381–382).
Ein Beispiel hierfür gibt Halbwachs in seiner empirischen Studie La Topographie légendaire des Evangiles en Terre Sainte (1941), in der er die Verbreitung und die Wirkung
kollektiver Glaubensvorstellungen im Wandel der Zeit erforscht. Gemäß Halbwachs sind
»Erinnerungen an die Vergangenheit wesentlich [. . .] Rekonstruktionen im Lichte der
Gegenwart« (Wetzel 2009: 61). Das Gedächtnis der religiösen Gruppe werde somit zum
religiösen Gedächtnis, indem die gemeinsamen Traditionen und Riten, die eine symbolische Kraft besäßen, sich dauerhaft im kollektiven Gedächtnis verankerten (Wetzel 2009:
69–70; 74–75).
Des Weiteren ergänzt Halbwachs in seinem posthum veröffentlichten Werk La mémoire
collective seine Definition des kollektiven Gedächtnisses insofern, als er ihm eine soziale
Funktion beimisst. Dadurch und durch anerkannte Werte und Standards würde das
kollektive zum kulturellen Gedächtnis und somit zur Sammelstelle für Erinnerungen
(Wetzel 2009: 76–77).
Trotz dieser Funktion als eine Art Archiv unterscheide sich das kollektive Gedächtnis
von der Geschichte: Es gebe mehrere zeitlich und räumlich begrenzte kollektive Gedächtnisse, die im Gegensatz zur Gesamtgeschichte nicht in künstliche Epochen eingeteilt
seien (Wetzel 2009: 78–79).
Halbwachs’ Theorie wurde von Jan und Aleida Assmann aufgegriffen und weiterentwickelt. Laut diesen unterteilt sich das kollektive Gedächtnis in das kommunikative
und das kulturelle Gedächtnis. Das kommunikative Gedächtnis setze sich aus den Erzählungen und mündlichen Überlieferungen zusammen und umfasst nach Assmann
ungefähr 80 Jahre (ca. drei Generationen). Im kulturellen Gedächtnis hingegen seien
alle Erinnerungen einer Kultur gesammelt sowie alle für diese Kultur wichtigen Ereignisse, Symbole etc. Dieses Gedächtnis sei wiederum unterteilt in Funktions- und
100
5.5 Oral History
Abbildung 5.1: Auf Plakaten dargestellt: Was Philosophen über Erinnerung sagen. Hier: Hegel.
Speichergedächtnis: Im Funktionsgedächtnis seien alle Informationen vorhanden, die im
Augenblick wichtig für die Gesellschaft seien. Wenn diese an Bedeutung verlören, würde
sie ins Speichergedächtnis wandern, von wo sie bei Bedarf wieder hervorgeholt werden könnten. Somit entstünde ein permanenter Austausch von Erinnerungen zwischen
Speicher- und Funktionsgedächtnis (Assmann 2006).
5.5
Oral History
5.5.1
Der Zeitzeuge als Feind des Historikers?
Der Begriff »Oral History« bezeichnet eine geschichtswissenschaftliche Methode, Zeitzeugen zu befragen. Die Befragung findet immer in Form eines Interviews statt und
zeichnet sich dadurch aus, dass man den Interviewten möglichst frei erzählen lässt. Auf
diese Weise sollen die Erinnerungen des Zeitzeugen und seine persönliche Sichtweise
möglichst unverfälscht erforscht werden. Beschäftigt man sich mit der Thematik des
Erinnerns und Vergessens, spielt die »Oral History« schon allein deswegen eine Rolle,
weil sie vollständig auf diese angewiesen ist.
Gerade deswegen ist die »Oral History«-Methode unter Historikern sehr umstritten.
Befürworter sehen sie als Chance, die Sicht der Individuen auf die Weltpolitik zu
101
5 Gedenken oder Vergessen?
erforschen und sie zur Kontrolle und Korrektur von schriftlichen Quellen zu nutzen
(von Plato 2000: 26). Als Argument wird angeführt, dass mündliche Quellen denselben
Quellenwert besäßen wie schriftliche, da auch diese von subjektiven Autoren stammten,
die unter dem Einfluss ihrer Umgebung, Zeit und Kultur stünden (von Plato 2000: 9).
Obwohl versucht wird, Zeitzeugen möglichst wenig zu beeinflussen, sehen Kritiker der
»Oral History« Zeitzeugen als für wissenschaftliche Quellenarbeit nicht geeignet an
(Welzer 2000: 61). Hauptsächlich wird darauf verwiesen, dass Zeugen Situationen oft
wesentlich anders beschreiben als sich diese objektiv betrachtet zugetragen haben. Dies
habe jedoch nichts damit zu tun, dass die Zeugen das Erlebte »falsch« darstellen wollten,
sondern vielmehr damit, dass ihre Erinnerung so vielen äußeren Einflüssen ausgesetzt
sei, dass diese sich unbewusst verändere (Welzer 2000: 60).
Um dieser Kritik zu begegnen, wurden spezielle Interviewtechniken entwickelt (von
Plato 2000: 21–22), bei denen das Interview in vier Phasen eingeteilt wird:
1. die freilaufende Phase: Die interviewte Person erzählt weitgehend ununterbrochen
von ihrem Leben.
2. die Nachfrage-Phase: Der Interviewer fragt gezielt nach nicht verstandenen Details.
3. die Fragelisten-Phase: Eine vorher erarbeitete Frageliste wird in einer Gesprächssituation abgearbeitet.
4. die Streit-Phase: Differenzen zwischen den Interviewpartnern werden angesprochen.
Darüber hinaus existiert in der Fachwelt eine weitere Position, welche die »Oral
History« als Möglichkeit wahrnimmt, die Erinnerungen und kollektiven Gedächtnisse
von Minderheiten und Unterschichten zu berücksichtigen. Im Gegensatz zur Oberschicht
würden diese seltener schriftliche Quellen hinterlassen, wodurch sie das kulturelle
Gedächtnis (Erll 2005: 27–30) nicht so entscheidend prägen würden wie gesellschaftliche
Mehrheiten (Dejung 2008: 114). Entsprechend würde die Zulassung mündlicher Quellen
also auch eine Erweiterung des kulturellen Gedächtnisses ermöglichen bzw. vorantreiben.
Doch auch unter den Befürwortern des »Oral History«-Konzepts wird keine blinde
Glaubwürdigkeit gegenüber Zeitzeugenaussagen verlangt (Hockerts 2001: 20). Deshalb
herrscht in der Fachwelt immerhin darin Einigkeit, dass Interviews mit (mindestens)
derselben wissenschaftlich distanzierten Haltung betrachtet werden müssen wie jede
andere Quelle auch.
5.6
Les lieux de mémoire
Pierre Nora (geb. 7. 11. 1931), ein französischer Historiker, war der Erste, der sich der
Frage angenommen hat, welche Veränderungen die Vergangenheits- und Zukunftsentwürfe der Nationen im Laufe der Zeit erfahren und worin der gemeinsame Besitz eines
reichen Erbes an Erinnerungen (und Vergessenem) besteht. Dieses reiche Erbe, das die
102
5.7 »Die Gegenwart der Toten« – mittelalterliche Gedächtniskultur
Identität der Nationen ausmacht, ist die Grundlage seines Werks »Les lieux de mémoire«
(1984–1992).
Unter einem Erinnerungsort versteht Nora etwas Materielles oder Immaterielles, das
die Erinnerungsbilder der französischen Nation aufruft. Darin kondensiere, verkörpere,
kristallisiere sich das Gedächtnis der Nation Frankreich (François & Schulze 2001:
15). Erinnerungsorte können Gedenkstätten sein, aber auch die »Marseillaise«, die
»Trikolore«, der 14. Juli, der Code Civil, der Sonnenkönig, Descartes oder Gebäude wie
Notre-Dame oder der Eiffelturm.
Im Grunde kann alles, was dazu beigetragen hat, eine Identität zu entwickeln, als
Erinnerungsort aufgefasst werden. Allerdings muss laut Nora ein Erinnerungsort über
eine »materielle, funktionelle und symbolische Dimension« verfügen. Das bedeutet, dass
der Erinnerungsort als Zeiteinheit oder reales Objekt existieren muss (Erll 2005: 24). Oft
bleiben über Jahrhunderte nur die äußeren Merkmale eines »lieu de mémoire« erhalten,
»während ihre symbolische Aufladung sich ändern kann« (François & Schulze 2001: 16).
Auf Grund dieser Vielseitigkeit können sich an ihrer Erschließung Wissenschaftler aus
zahlreichen Fachbereichen beteiligen, wodurch sich diese Theorie großer Beliebtheit erfreut hat und in vielen weiteren Ländern wie Italien, Kanada und auch Deutschland umgesetzt worden ist (Erll 2005: 25). Nichtsdestotrotz wurde Noras »zivilisationskritisches
Timbre« (Niethammer) (Erll 2005: 25) kritisiert, ebenso die Lockerung seiner strengen
Definition im Laufe des Werkes. Darüber hinaus habe Nora es versäumt, die Erinnerungsorte der französischen Kolonien und der zahlreichen Immigranten miteinzubeziehen
(Erll 2005: 25).
Die Verfasser der »Deutschen Erinnerungsorte«, Etienne François und Hagen Schulze,
haben im Gegensatz zum französischen Vorbild einige Anpassungen für Deutschland
vornehmen müssen: So wurde der Fokus eher auf das 19. und 20. Jahrhundert gelegt, ein
Zeitalter mit besonders hohem Stellenwert für die deutsche Geschichte. Des Weiteren
würde bei den deutschen Erinnerungsorten eine europäische Sichtweise angestrebt;
so sind auch mit anderen Nationen geteilte Erinnerungsorte wie »Karl der Große«
miteinbezogen worden sowie Betrachtungen von außen, also wie »Deutschland« aus
dem europäischen Umfeld gesehen wurde, beispielsweise in der Germania von Tacitus
(François & Schulze 2001: 21). Insgesamt soll zwischen den einzelnen Erinnerungsorten
keine Hierarchie herrschen, womit jeder denselben Stellenwert innehat. So findet man
Essays über die »Bundesliga« und »Schrebergarten« neben anderen, vermeintlich wichtigeren wie »Goethe« oder »Weimar«. Die zum Teil sehr positiven Rezensionen scheinen
das Motto der Autoren »Belebung statt Belehrung« (François & Schulze 2001: 23) zu
bekräftigen.
5.7
»Die Gegenwart der Toten« – mittelalterliche Gedächtniskultur
Im mittelalterlichen Abendland war der Tod in der Gesellschaft besonders präsent.
Der Tod wurde aber nicht als furchteinflößendes Ende, sondern als eine Erlösung
von den irdischen Qualen (ergastulum) aufgefasst. Er ermöglichte das ewige Leben im
Himmelreich Gottes, wenn man im Diesseits ein frommer, guter Christ war.
103
5 Gedenken oder Vergessen?
Man muss die mittelalterliche Erinnerungskultur, von der Forschung auch Memoria
genannt, in einem breiten historischen Kontext betrachten, welcher bis weit in die
heidnische Antike zurückreicht. So dokumentierte bereits der römische Schriftsteller
Tertullian (um 200 n. Chr.) in mehreren Werken Totenzeremonien. Aus diesen geht hervor,
dass die Toten in der römischen Antike als Rechtssubjekte mit Rechts- und Handlungsfähigkeit angesehen wurden (Oexle 1983: 29). Dies zeigt sich u. a. auch an der Zeremonie
des Totenmahls. Memoria meint folglich nicht nur das einfache Erinnern der Toten,
sondern insbesondere soziales Handeln in einer Verbindung der Lebenden und Toten als
Rechtspersonen (Oexle 1983: 29). Die frühen Christen übernahmen im 3./4. Jahrhundert
die Vorstellung des »lebendigen« Toten in die Liturgie und christianisierten die ehemals
heidnischen Todeskulte (Oexle 1983: 50–51).
Das Bedürfnis, der Toten zu gedenken, lag im Seelenheil der Menschen begründet. Wer
sich nicht an die Gebote Gottes hielt, also sündigte, kam nach dem Tod ins Fegefeuer. Es
wurde als ein Ort der Qualen verstanden (Kuithan 2000: 78) und brachte die Menschen
dazu, bereits im Diesseits für ihr Seelenheil vorzusorgen. Adlige wie Liutold von Achalm
(11. Jahrhundert) stifteten Klöster oder traten umfangreiche Güter an die Kirche ab
(Kuithan 2000: 93). Sie wollten sich ein unvergessliches Denkmal setzen und einen
Platz im Himmel sichern. Das Leben solcher Stiftsgründer wurde von Mönchen in den
sogenannten Vitae nacherzählt (Oexle 1983: 26). Die Fürbitte war darüber hinaus ein
zentrales Element der katholischen Liturgie und dem Seelenheil bereits Verstorbener
gewidmet. Sie sollte als eines der »guten Werke« (Kuithan 2000: 78) aufgefasst werden
und den Toten aus dem Fegefeuer in den Himmel holen (Kuithan 2000: 78). Neben den
Vitae fungierten auch Nekrologe und Verbrüderungsbücher als schriftliche Werke der
Memoria. Die Nekrologe, die aus den Namen sowie den Todesdaten der Verstorbenen
bestanden, ermöglichten ein jährliches Totengedenken. »In der Nennung seines Namens
wird der Tote als Person evoziert« (Oexle 1983: 31).
Den Verbrüderungsbüchern liegt das im Mittelalter an Bedeutung gewonnene Phänomen der sogenannten Einung zugrunde. Vermehrt schlossen sich geistliche oder
weltliche Personen in Verbrüderungen zusammen. Falls ein Vertragspartner gestorben
war, wurde ihm von den anderen Brüdern Gebetshilfe für das Seelenheil garantiert
(Oexle 1994: 312).
5.8
Ursprungserzählungen als Legitimationsstrategie
Gerade in der Frühen Neuzeit erwachte unter Adligen ein reges Interesse an ihrer
Familiengeschichte. Sie hatten seit dem späten Mittelalter festgestellt, dass sie ihre
Herrschaftsansprüche mit dem Verweis auf eine hohe Herkunft besser legitimieren
konnten. Dies führte zu einer »deutlichen Intensivierung der Suche nach Ursprung und
Vergangenheit des eigenen Geschlechts« (Hecht 2006: 10). So gaben immer mehr adlige
Familien eine Chronik in Auftrag. Diese Aufträge häuften sich, wenn für eine Familie
eine konkrete Bedrohung bestand (beispielsweise eine hohe Verschuldung oder das
Aussterben eines Zweiges der Familie) und der Wunsch nach einer Verbesserung des
Familienstandes größer wurde.
104
5.9 Invented traditions
In diesen Chroniken fand man normalerweise eine Legende über den Ursprung
des beschriebenen Geschlechtes. Im Vordergrund stand der Versuch, die Familie des
Auftraggebers in einem guten Licht darzustellen und ihr eine möglichst lange und
ehrenvolle Herkunft zu verleihen. So führten viele Stammbäume in den Bereich der
Mythen und Sagen und des Alten Testamentes. Zudem wurde versucht, eine Verbindung
zu den neun Guten Helden zu ziehen (Czech 2003: 41).
Ein beliebter Ursprung war auch der aus einer römischen Adelsfamilie. So leiteten sich
sowohl das Geschlecht der Henneberger als auch die der Stolberg, Zollern und Reuß zeitweise von der Adelsfamilie Colonna ab (Czech 2003: 53). Durch die Wiederentdeckung
der »Germania« des Tacitus in der Zeit des Humanismus wurde der Ursprung einer
Familie von den Germanen immer häufiger, da die »Deutschen« nun die Germanen zu
ihrer Urgeschichte zählten.
Viel Wert wurde darauf gelegt, Tapferkeit, Frömmigkeit und die frühe hohe Stellung
der Ahnen zu betonen. Damit wollte man zeigen, dass die eigene Familie ihren Platz in
der Gesellschaft verdient habe oder dass sie sogar einen höheren Platz verdient hätte.
Hatte eine Familie wichtige »Vorfahren« gefunden, verwies sie auf diese mit Hilfe von
Wappen, Münzen, Ahnenporträts, Gemälden oder Inschriften (Czech 2003: 118).
Auch Zünfte hatten ihre Ursprungslegenden. Auffällig ist bei diesen allerdings, dass
solche Legenden nur in Städten auftraten, in denen der gesellschaftliche Rang der Zünfte
eher niedrig war. So hatten die Zünfte in Frankfurt und Nürnberg Geschichten über
die Anfänge ihrer Handwerke, die Zünfte aus Köln und Straßburg hingegen nicht.
Patrick Schmidt erklärt dies damit, dass die Ursprungslegenden als »positive Identifikationsmöglichkeiten« halfen, das Selbstbild einer Zunft und ihrer Mitglieder sowie
ihr Gemeinschaftsgefühl zu stärken. In Köln und Straßburg sei dies nicht notwendig
gewesen, da die Stellung der Zünfte in diesen Städten höher war und die Zünfte politisch
mehr Mitspracherecht besaßen als die Zünfte in Frankfurt und Nürnberg und somit
auch ohne Ursprungslegenden ein hohes Selbstbild besaßen (Schmidt 2007: 131).
An der Thematik der Ursprungslegenden lässt sich erkennen, dass Menschen der Frühen Neuzeit Vergangenes als ein Mittel der Selbstdarstellung nutzten. So kann man sich
auf die historische Wirklichkeit der Ursprungslegenden zwar nicht verlassen, aber sie bieten »hervorragende Zeugnisse bei der Suche nach vergangenen Vorstellungshorizonten
und Denkweisen« (Hecht 2006: 2).
5.9
Invented traditions
5.9.1 Europa um 1871
Durch die Entstehung von Nationen änderte sich ab der Mitte des 19. Jahrhunderts
die Lage in Europa grundsätzlich. Mit dem Prozess der Nationsbildung ging häufig
eine Demokratisierung einher, die die Legitimierung der Staaten und ihrer Herrschaftsstrukturen herausforderte.
105
5 Gedenken oder Vergessen?
5.9.2 »Invented traditions«
Nach Eric Hobsbawm sind all diejenigen Mythen, Riten und Denkmäler »invented
traditions«, welche Institutionen legitimieren und einen Status von Autorität schaffen,
indem die Vergangenheit so verwertet wird, dass sie die gegenwärtigen politischen
Machtstrukturen absichert. Gerade in Zeiten sozialer Umbrüche sei eine Anpassung der
gesellschaftsspezifischen Traditionen und Bräuche notwendig, weil »invented traditions«
den Menschen helfen würden, sich mit ihrem Land zu identifizieren. Am Beispiel Frankreichs zeigt Hobsbawm drei Merkmale erfundener Traditionen auf und erläutert deren
Bedeutung: 1. öffentliche Bildung als Äquivalent zur Kirche — man brauchte Bildung mit
revolutionärem und liberalem Inhalt — , 2. öffentliche Zeremonien wie der französische
Nationalfeiertag, da diese Glanz und Macht ausstrahlten, und 3. sichtbare Monumente,
die Patriotismus ausstrahlen sollten (Hobsbawm 1999: 270–272). In Deutschland wollte
(vor allem) Wilhelm II. erreichen, dass die Menschen durch »invented traditions« eine
Verbindung zwischen dem 1. und dem 2. Deutschen Kaiserreich herstellen würden und
die Erfahrungen Preußens und des restlichen »Deutschlands« miteinander verbinden
konnten (Hobsbawm 1999: 276).
5.9.3 Ein besonderes Beispiel: das Hermannsdenkmal
Eine besonders bekannte erfundene Tradition ist das Hermannsdenkmal im Teutoburger
Wald, das an die Schlacht der Germanen gegen die Römer um 9 n. Chr. erinnern soll.
Bei dieser besiegten die Germanen unter Arminius drei römische Legionen, die unter
Varus losgezogen waren, um das römische Reich nach Osten hin auszudehnen. Arminius
überfiel die Römer im Teutoburger Wald aus einem Hinterhalt und besiegte sie in
einer dreitägigen Schlacht. Arminius, später Hermann genannt, wurde vor allem im
19. Jahrhundert für viele Menschen zum »ersten Deutschen« und zu einem Mythos,
der dazu auffordern sollte, Freiheit zu gewinnen, Einigkeit und Geschlossenheit zu
erreichen und ein stolzes Selbstbewusstsein zu bekunden (Münkler 2009: 166–167).
Nach dem Erfolg bei der Völkerschlacht 1813 wurde der Hermann-Mythos sogar zu
einem Nationalmythos stilisiert, doch fehlte dafür ein großes Denkmal, welches später
im Teutoburger Wald errichtet und 1875 eingeweiht wurde (Münkler 2009: 173). Bei
dessen Einweihung wurde Arminius mit Wilhelm I. verglichen, denn Arminius habe die
Deutsche Einigung begonnen und Wilhelm diese vollendet (Münkler 2009: 175).
Letztendlich halfen die »invented traditions« den Menschen bei der Verarbeitung
aktueller Ereignisse, da sie, obwohl sie historische Fiktionen sind, suggerieren, dass
etwas schon immer da gewesen sei.
5.10
Damnatio memoriae
Viele Philosophen und Wissenschaftler, von Platon über Locke bis Assmann, beschäftigte
die Frage, ob man eher gedenken oder vergessen sollte. Ausgehend von dieser Frage
setzte sich in der Antike ein Verfahren durch, womit ein gezieltes und organisiertes
Vergessen von bestimmten Personen im öffentlichen Raum gewährleistet werden sollte.
106
5.10 Damnatio memoriae
Abbildung 5.2: Foto des Hermannsdenkmals im Teutoburger Wald von 2007. Quelle: Wikipedia
[48].
Dieses Verfahren mit dem (Forschungs-)Namen damnatio memoriae wurde vor allem
im alten Rom angewandt, um die Erinnerung an unbeliebte verstorbene Kaiser für
alle Zeiten zu vernichten. Hierzu wurden auf radikale Weise die Zeugnisse seiner
Existenz und seiner Macht (z. B. Bilder, Statuen oder Münzen) zerstört. Diese gründliche
Beseitigung der Identität sollte die politische Unzufriedenheit des Volkes ausdrücken
und wurde als eine der schlimmsten Strafen angesehen. Doch nicht nur im alten Rom
fielen berühmte Persönlichkeiten wie Kaiser Caligula, Kaiser Maximian und Kaiser Nero
(Flower 2006: 199 f.) einer damnatio memoriae zum Opfer. Auch in Ägypten wurden auf
ähnlich radikale Weise Statuen von Pharaonen – wie Echnaton oder Hatschepsut – nach
ihrem Tod zerstört und ihre Namen aus Inschriften getilgt.
Ein ähnliches Verfahren wurde in der mittelalterlichen Kirche angewandt. Teilungen
innerhalb der Kirche führten zu Spannungen und Konflikten zwischen den einzelnen
Parteien, da beide Gruppen einen alleinigen Anspruch auf das Papstamt behaupteten.
Dieses Ringen zwischen dem Papst und dem sogenannten Gegenpapst endete oft in
einem »manipuliertem Vergessen« des sieglosen Anwärters. Klare Abweichungen zur
antiken damnatio memoriae lassen sich jedoch in der Intention entdecken. Im Mittelalter
sollte nicht die komplette Erinnerung an die betroffene Person vernichtet, sondern die
Qualität der Erinnerung beeinflusst werden. Dies wurde erreicht, indem man gezielt nur
bestimmte Erinnerungen ins Gedächtnis der Menschen zu rufen versuchte (Sprenger
2009: 40 f.). Des Weiteren konnte man im Mittelalter eine »manipulierte Erinnerung«
nicht nur wie in der Antike nach dem Tod des Betroffenen, sondern auch vor dem Tod
beobachten (Sprenger 2009: 37 f.).
107
5 Gedenken oder Vergessen?
Auch fast 500 Jahre später, in der stalinistischen Sowjetunion der Neuzeit, wurde
— beispielsweise durch das Retuschieren von Bildern — gezielt das Bild Stalins zu
seinen Gunsten verfälscht, um so seine Herrschaft zu sichern. Der Machthaber ließ
ihm unangenehme Personen aus Bildern entfernen, um sie auch aus den Köpfen der
sowjetischen Bevölkerung verschwinden zu lassen (King 1997: 68).
Anzeichen, dass Formen von damnatio memoriae auch in der Gegenwart angewandt
werden, zeigt das Beispiel Mubarak. In Ägypten wurde nach dem Sturz des Präsidenten
sein Name aus Büchern und Straßennamen entfernt, um die Erinnerung an Mubarak
auszulöschen (Bond 2011). Resümierend lässt sich sagen, dass die damnatio memoriae der
Antike, wenn auch in veränderter Form, die Epochen überdauert und die Geschichte
geprägt hat und vermutlich auch weiterhin prägen wird.
5.11
Präsentation von Geschichte in Museen
Museen und Ausstellungen sind eine Institution mit großer Macht und großem Einfluss!
Sie können nicht nur das Interesse der Bevölkerung an einem Thema wecken – wie
etwa die Stauferausstellung in Stuttgart 1977 verdeutlicht – , sondern auch ein kritisches
Schlaglicht auf Ereignisse werfen und dadurch helfen, diese aufzuarbeiten, wie etwa in
der sogenannte Wehrmachtsausstellung 1995 (Assmann 2004: 137–138, 141).
Diese Macht beruht auf dem Vertrauen, das die Bevölkerung ihrem »Museumstempel«
entgegenbringt und dessen Wahrheiten sie meist nicht anzweifelt (Heinemann 2011:
214). Die Glaubwürdigkeit von Museen entsteht nicht nur durch das Vertrauen der
Besucher auf Expertenwissen und die »Aura« von Museumsgebäuden und Exponaten,
sondern sie wird auch aktiv erzeugt, nämlich durch die Inszenierung der Geschichte
auf visueller, auditiver, interaktiver und emotionaler Ebene (Heinemann 2011: 214–215).
Auch die Auswahl der Exponate und wie diese angeordnet werden sollen, die sogenannte
»Re-Kontextualisierung«, spielt eine wichtige Rolle (Assmann 2007: 152).
Man vergisst leicht, dass das Museum neben der »exponierenden« auch eine »interpretierende Beziehung zur Vergangenheit« hat und deshalb nie alle Perspektiven wertfrei
präsentiert werden können. Es wird also durch bewusste Inszenierung eine Geschichte
konstruiert, die nie völlig allgemeingültige Wahrheit sein kann (Heinemann 2011: 213–
216, 236).
Ein Beispiel für verschiedene Auslegungen von Geschichte bietet ein Vergleich von
Museen in Großbritannien, Frankreich und Deutschland. Während in Deutschland der
zweite Weltkrieg vor allem aus der Perspektive der Opfer präsentiert wird, zeigt man in
Großbritannien die Perspektive der »Befreier«. Die Geschichte der Opfer, vom Holocaust
abgesehen, wird fast völlig verschwiegen (Thiemeyer 2010: 463, 473 f.).
Ein wichtiges Mittel der Inszenierung ist die Emotionalisierung, die durch die Nutzung
kultureller Codes oder Wertungen den Besucher mittels der Gefühlsebene völlig für
eine Sichtweise einnehmen kann (Heinemann 2011: 215 f., 234 ff.). Als Beispiel hierfür
kann das Museum im Pawiak in Warschau gelten, das stark emotional eine »nationalmartyrologische« (Heinemann 2011: 236) Deutung der Besatzung Polens während des
108
5.12 Guido Knopp und Hollywood
2. Weltkrieges durch die Deutschen bietet, indem die Opfer zu Helden stilisiert werden,
die stellvertretend für alle Polen stehen sollen. Hier wird durch die Beleuchtung für
eine düstere Stimmung gesorgt und Opfer wie der 1982 heiliggesprochene Maximilian
Kolbe auf überlebensgroßen Glaswänden als Vorbilder und Repräsentanten vorgestellt
(Heinemann 2011: 218–226).
Auch die Politik hat die Macht des Museums erkannt und nutzt diese für die Geschichtspolitik, wie das Beispiel der durchweg negativen Darstellung der DDR zeigen
mag (Mittler 2007: 14–17). Aufgrund der starken Subjektivität des scheinbar so objektiven Museums ist es dem unwissenden Besucher kaum möglich, sich dieser subjektiven
Darstellung zu entziehen (Heinemann 2011: 235 f.).
5.12
Guido Knopp und Hollywood – Geschichte im Spielfilm und der
historischen Dokumentation
Geschichte ist in Film und Fernsehen keine Seltenheit mehr. Mit dem Versprechen,
Unterhaltung und Wissenschaft zu vereinen und Geschichte zum Leben zu erwecken,
sprechen die Macher ein breites Publikum an. Viele Historiker dagegen kritisieren den
Anspruch auf Authentizität, mit dem der Eindruck erweckt wird, es handele sich um
wissenschaftliche Werke. Besonders viel Aufmerksamkeit erhielten in den letzten Jahren
drei Beispiele, anhand derer der Konflikt verdeutlicht werden soll.
5.12.1 Guido Knopps »historische Dokumentationen«
Guido Knopp machte sich seit Mitte der 90er Jahre mit Geschichtsdokumentationen
im ZDF einen Namen. Ihm gelang es mit Hilfe von zahlreichen filmischen Neuerungen,
die historische Dokumentation im Abendprogramm des deutschen Fernsehens zu etablieren und eine große Zuschauerschaft zu locken. Sein Stil, geprägt von häufigen
Bildwechseln, dramatischer Musik und nachgespielten historischen Szenen, wird auch
als »Infotainment« bezeichnet (Kansteiner 2003: 642). Von Historikern wurden insbesondere seine Dokumentationen über die Zeit des Nationalsozialismus kritisiert, da er die
Zuschauer in die Position der Augenzeugen versetze. Dadurch sei eine Betrachtung mit
Distanz unmöglich, es werde sogar ein »deutsches Wir-Gefühl« vermittelt (Kansteiner
2003: 634).
5.12.2 Der Untergang
»Der Untergang« (2004) ist ein Spielfilm über die letzten Tage des 2. Weltkrieges im
Berliner Führerbunker. Die Filmmacher wollten ein authentisches Bild der damaligen
Zeit und der verantwortlichen Persönlichkeiten entwerfen, was jedoch viele Historiker
kritisierten. Nach Michael Wildt handelt es sich um eine »bewusste Täuschung« des
Zuschauers, da Authentizität in der Schauspielerei unmöglich sei (Wildt 2008: 77).
109
5 Gedenken oder Vergessen?
5.12.3 Das Leben der Anderen
Der deutsche Spielfilm »Das Leben der Anderen« (2006) von Florian Henckel von
Donnersmarck befasst sich mit der Überwachung durch die Staatssicherheit in der
DDR. Es handelt sich um eine frei erfundene Geschichte, die jedoch in den historischen
Hintergrund eingebettet wird. Auch dieser Film verspricht Authentizität, was — ebenso
wie einige »historische Fehler« — von Historikern kritisiert wird. Noch dazu handele es
sich um eine einseitige Darstellung der DDR, die neben dem Künstlerpaar nur Tristesse
und Menschenleere zeige (Seegers 2008: 25).
5.12.4 Geschichte in Film und Fernsehen: Gefahr oder Gewinn
Durch die Kritik an den genannten Beispielen wird deutlich, dass historische Filme und
Dokumentationen häufig wegen »historischer Fehler« und einseitiger, subjektiver Darstellungen kritisiert werden. Dem Zuschauer wird ein Bild der Vergangenheit vermittelt,
das stark von den Machern der Filme abhängt. Andererseits hinterlassen Filme einen
deutlich stärkeren Eindruck als historische Fakten. Die Zuschauer werden emotional
in ein Thema eingeführt, was auch zum Verständnis der dargestellten Zeit und der
Handlungsweise der Personen beitragen kann. Insofern sind historische Dokumentationen und Filme zwar stets mit Vorsicht zu genießen, sie können aber Projektions- und
Diskussionsfläche für Geschichte sein, was sie zu einem wertvollen Zeitdokument sowohl der dargestellten als auch der heutigen Zeit macht. Lu Seegers bezeichnet deshalb
»Erinnerungsfilme« als »Medien des kollektiven Gedächtnisses, die Vorstellungen von
der Vergangenheit zu einem bestimmten Zeitpunkt aufnehmen und zugleich prägen«
(Seegers 2008: 22).
5.13
Geschichte und Architektur
Architektur ist eine der relevantesten Verbindungen der Vergangenheit mit der Gegenwart. Hinsichtlich der Identität eines Landes rücken für dessen Geschichte häufig
wichtige Bauten in den Blickwinkel: für Deutschland beispielsweise der Reichstag in Berlin, der gesellschaftlich wie politisch eine wichtige Position einnimmt. Dieses Verhältnis
einer Gegenwart zur Vergangenheit ist in konstantem Wandel. Ein derartiger Wandel ist
durch die Rekonstruktionswelle stark bemerkbar. Befürworter der Rekonstruktion sehen
die symbolische Bedeutung als wichtigstes Motiv des Bauwerks an. Somit bestünde nur
wenig Gefahr am Verlust eines materiellen Wertes. Weiterhin weisen sie auf die Möglichkeit der Reaktivierung bedeutender Kunst- und Kulturzeugnisse hin und betonen,
dass Rekonstruktion architektonische Normalität sei (Nerdinger 2010: 17). Die Gegner
hingegen verschreiben sich der Authentizität der Bausubstanz und verpflichten sich
zur Erhaltung und Pflege nicht reproduzierbarer Geschichtszeugnisse. Der Zustand des
Originals, zerstört oder intakt, stelle selbst eine geschichtliche Quelle dar. Kritiker der
Rekonstruktion argumentieren, dass Geschichte nicht auf die Identifizierung bestimmter
Epochen reduziert werden darf. Geschichte umfasse immer mehr als das, was gerade in,
politisch opportun und touristisch vermarktbar sei (Assmann 2007: 98 ff.).
110
5.14 Der Umgang mit der kollektiven Schuld am Beispiel des Holocaust
Abbildung 5.3: Dieser Anblick beherrscht bald wieder die Stadtmitte Berlins. Foto des Stadtschlosses aus den 1920er Jahren. Quelle: Wikipedia [49].
Berlin ist heute zum achten Mal die Hauptstadt eines sich wandelnden politischen
Gemeinwesens. Jede Stadt, die sich auf konzentriertem Raum befindet, erlebt im Laufe
der Zeit wiederholte Umformung, Überschreibung und Sedimentierung nicht nur der
Bauwerke, sondern auch der Geschichte. Es ist diese Schichtung von Geschichte, welche
die Frage aufkommen lässt, welcher Zeitgeschichte Vorzug gegeben werden soll. Das
Stadtschloss in Berlin ist ein Beispiel eines solchen Phänomens, bei dem die ältere
Geschichte die neue Geschichte regelrecht verschluckt. Das alte Staatsratgebäude der
DDR musste Platz machen für den Wiederaufbau des ehemals größten Barockbaus
nördlich der Alpen. Das stärkste Argument für den Abriss des Palastes der Republik
2008 war, dass dessen Standort ein Teil des historischen Stadtkerns Berlins sei und dass
dieser durch Rekonstruktion des Stadtschlosses als »Humboldt-Forum« wieder seine
alte Form einnehmen solle.
»Auf historischem Grund ist jede Baumaßnahme ein Zerstörungsakt« (Assmann
2007: 127). Diese Aussage trifft der deutsche Philosoph Hermann Lübbe und greift
damit das eigentliche Problem von Geschichte und Architektur auf, nämlich dass es
unmöglich ist, jemals etwas Neues zu errichten, ohne in irgendeiner Weise in das frühere
Erscheinungsbild einzugreifen und dieses damit permanent zu verändern. Die Frage
ist nur, welche Geschichte wir als erhaltenswert sehen und ob dies die Perspektive der
Zukunft beeinträchtigt.
5.14
Der Umgang mit der kollektiven Schuld am Beispiel des Holocaust
Seit 70 Jahren prägen der Holocaust und der Umgang mit diesem die deutsche Identität.
Besonders heute, da die Erfahrungsgemeinschaft der Zeitzeugen ausstirbt, führt das
Erinnern an den Holocaust zu Kontroversen.
Obwohl 1946 in Nürnberg die Hauptkriegsverbrecher verurteilt wurden, leugnete
die Bevölkerung ebenso wie Parteien und Kirche jegliche Beteiligung an deren Taten.
111
5 Gedenken oder Vergessen?
In dieser Phase des Eskapismus versuchten die Deutschen durch Geschichtslosigkeit
und Verdrängung einen Neubeginn. Erst durch den Einsatzgruppenprozess und die
antisemitische Welle um 1960 erhielt das Thema neue Brisanz. Das Schweigen der
jungen BRD sowie die Kontinuität von Hitlers Eliten nach 1945 gerieten in die Kritik der
westlichen Bündnispartner und wurden trotz allgemeiner Skepsis in Westdeutschland
erstmals öffentlich thematisiert.
Die Rekonstruktion der Vergangenheit setzte mit dem Auschwitz-Prozess (1962–1965)
ein, der die Praktiken der Massenvernichtung freilegte. Trotzdem verlangte ein Großteil
der Bevölkerung, einen Schlussstrich zu setzen. Indem die Regierung sich diesem
Wunsch nach einer Generalamnestie nicht entgegenstellte, sondern Doppelmoral bei
der Verfolgung der Verbrechen ihrer Mitglieder walten ließ, fürchtete der linke Flügel
der Studentenbewegung die Wiederkehr eines tendenziell faschistischen Staates. Gerade
durch diese generationelle Abgrenzung der 68er wurden erstmals auch individuelle
Verbrechen beleuchtet (Siegfried 2000: 85–105; Görtemaker 1999: 199–206, 207).
Die Geschichtswissenschaft, die den Holocaust mehrheitlich als zentral gesteuerte,
eigenständig funktionierende Vernichtungspolitik sieht, regte die Diskussion durch
Veröffentlichungen aus dem Ausland an. Die Intentionalisten, die an einen einmaligen
Führerbefehl zur Judenvernichtung glaubten, und die Strukturalisten, die den Holocaust
als einen auf mehrere Interessengruppen verteilten dynamischen Prozess sahen, radikalisierten die Debatte um die Schuldfrage. Auch neue Methoden und alternative Ideen
weiteten die Tätergruppe aus: Die Wehrmachtsausstellung (1995–2001) legte erstmals
die Verbindung des Holocaust zum Militär offen – der Gruppe, mit der sich die meisten
deutschen Familien im Krieg identifiziert hatten (Herbert 2001: 5–12).
Aus psychologischer Sicht wird der Holocaust aus Täter-, Opfer- und Unbeteiligtenperspektive betrachtet. Die (rein deutsche) Täterperspektive wirft ein Licht auf die
akribische Bürokratie des Dritten Reiches, während die Opferperspektive den Holocaust
als subjektive psychisch-physische Erfahrung sieht. Es gibt sowohl Täter als auch Opfer,
die ihre Erinnerungen verdrängen müssen (individueller Eskapismus), um das Überleben
psychisch ertragen zu können (Bar-On 2005: 38–42; Bartov 2003: 99–105).
Insgesamt etablierte die angesprochene Debatte Deutschland zwar als Land der vielen
Täter, doch war diese Konkretisierung der individuellen Schuld erst in der Folgegeneration möglich. Diese steht jedoch nicht mehr in unmittelbarer Beziehung zum Holocaust,
weshalb ein gesellschaftliches Erinnern unerlässlich ist (Bartov 2003: 112 ff.).
5.15
Verordnete Erinnerungen und Verdrängen in totalitären Diktaturen
am Beispiel der Stadt Kaliningrad
Erinnerung ist sowohl für eine Gesellschaft als auch für deren Machthaber von großer
Bedeutung. Nachdem der Kommandant der »Festung Königsberg«, Otto Lasch, am
07. 04. 1945 kapitulierte, nahmen die Machthaber der Sowjetunion die Stadt ein: Daraufhin erfolgte ein Bevölkerungsaustausch, der die Ausweisung der Deutschen sowie die
Neubesiedlung durch die russische Bevölkerung zur Folge hatte (Hoppe 2000: 299).
112
5.16 Versöhnen durch Vergessen
Durch die Darstellung des alten Königsbergs als Paradebeispiel für feindliche, privatkapitalistische Städte wurde die Umstrukturierung und Umbenennung in Kaliningrad
legitimiert. Darüber hinaus sollte die »Tabuisierung der deutschen Vorkriegsgeschichte«
dem Ziel der Eingliederung Kaliningrads in die Sowjetunion dienen (Matthes 2001:
1350). Dabei wurde versucht, diese aus dem kollektiven Gedächtnis der Einwohner zu
verdrängen, und eine neue Vergangenheit, vor allem aber eine ruhmreiche Zukunft
zu kreieren. Mit Hilfe der feststehenden Ideologie sollte die Weltanschauung der Heranwachsenden geformt werden. Die Durchsetzung dieser »verordneten Einstellung«
erwies sich allerdings als problematisch, da beispielsweise noch verbliebene Bauten in
der Stadt an eine bessere Zeit erinnerten (Hoppe 2000: 300–303).
Die Bevölkerung reflektierte die durch die Regierung verordnete Bewertung und es
begann ein Prozess der Neubeurteilung der deutschen Vergangenheit. Ein Spiegel dieser
Entwicklung ist die Diskussion über den Erhalt oder die Sprengung des alten Königsberger Schlosses als zentraler Erinnerungsort der Stadt. Der sowjetische Parteiapparat
hatte schon früh hervorgehoben, dass die Bewahrung des Schlosses im Widerspruch
zur kommunistischen Ideologie stand. So erkannten die Kommunisten beispielsweise
im Schloss einen Ausdruck reaktionärer Verhältnisse. In der Öffentlichkeit nahm allerdings langsam die Überzeugung zu, dass der Erhalt des Schlosses als Sehenswürdigkeit
und Verbindungsstück der deutsch-russischen Vergangenheit erhalten bleiben sollte.
Trotz schlagkräftiger Plädoyers für den Erhalt des Schlosses wurde dieses schließlich
gesprengt, um den Führungsanspruch der Partei zu unterstreichen (Hoppe 2000: 305 f.).
An der Stelle des Schlosses begann der Neubau eines »Haus der Sowjets«, das die Formensprache der sowjetischen Zentralregierung aufnahm und in die Provinz weitertragen
sollte, allerdings nie abgeschlossen wurde (Sezneva 2003: 71).
Dieser Ausgang der Diskussion erwies sich als äußerlicher Sieg der KPdSU, da sich
entgegen der Zielsetzung bei den Kaliningradern eine regionale Identität entwickelte.
Die Bevölkerung stellte vermehrt die Besonderheiten, die ihre Region aufgrund der
deutschen Vergangenheit aufzuweisen hatte, heraus. Gerade im heutigen russischen
Zentralstaat offenbart sich dieser Lokalpatriotismus in Schlagzeilen wie »Kaliningrad
will mehr Königsberg« oder in den Plänen, das gesprengte Schloss zu rekonstruieren
(Guratzsch: 2010).
5.16
Versöhnen durch Vergessen
Nach einem (Bürger-)Krieg vergessen beide Seiten, was geschehen ist, um den Frieden
und das gemeinsame Zusammenleben zu sichern. Eine Erinnerung an das Schlimme
dagegen erzeugt Rache, diese wiederum Wiederrache (Meier 2010: 13).
Das »Vergessen« als Lösung von Konflikten setzt sich von den Indianern bis heute
fort: Winston Churchill wünschte 1946 den Frieden zwischen den ehemals verfeindeten
Nationen durch einen »segensreichen Akt des Vergessens« zu vollziehen. In der Antike
festigte sich dafür, ausgehend vom terminus technicus me mnesikakein (»Gedenke nicht
das Schlimme«), der Begriff der »Amnestie« (»Nicht-Erinnern«) (Meier 2010: 18). Bin-
113
5 Gedenken oder Vergessen?
Abbildung 5.4: Als das aus deutscher Zeit stammende Königstor 2005 renoviert wurde, kehrten
die Statuen preußischer Herrscher nach Jahrzehnten wieder an ihren alten Platz zurück – ein Zeichen, dass sich die russische Stadtbevölkerung inzwischen der Erinnerungsspuren der fremden
Vergangenheit annimmt (Foto von 2009). Quelle: Wikipedia [50].
dende Verträge, »nicht an Schlimmes zu erinnern«, wurden in Griechenland erstmals in
den Jahren zwischen 424–422 v. Chr. aufgezeichnet. Um den Frieden zu wahren, ging
man sogar so weit, Trauergesang zu verbieten, um übermäßige Emotionen auf zu engem
Raum zu verhindern.
Die »Amnestie« stellt einen Ausgleich zwischen Gerechtigkeit und Frieden her, indem
lediglich die Hauptverantwortlichen bestraft wurden. Das Gesamtwohl (eines Gemeinwesens) stand dabei über der individuellen Rache (Meier 2010: 21). Zu Besiegelung
sprachen beide Parteien einen Eid, der gegebenenfalls regelmäßig wiederholt wurde.
Einige Verbote sicherten dessen (konsequente) Einhaltung.
Ob es sich dabei tatsächlich um ein Vergessen handelt, ist umstritten, da die Methoden
gegen Tyrannei und den Anlass des Vergessens weiterhin in Erinnerung gehalten wurden.
Auch fand eine sogenannte »Dokimasie« (Prüfung von Personen auf Amtswürdigkeit)
statt. Man kann also me mnesikakein als Tendenz bezeichnen; nötige Erinnerungen werden
allerdings zugelassen und die Vergangenheit wird weiterhin kritisch betrachtet (Meier
2010: 26).
Auch in der Nachkriegszeit (1945) wurden die Geschehnisse zunächst verdrängt, aber
durch das Ausmaß begann die nächste Generation (mithilfe von zeitlicher Distanz), sie
zu verarbeiten (Meier 2010: 50).
Nach der Wiedervereinigung 1989 kam eine Amnestie nicht in Frage, denn zwischen
der gestürzten Regierung und den Bürgerrechtlern bestand ein eindeutig überwiegendes Machtverhältnis seitens der (friedlichen) Bürgerrechtler, es bestand somit keine
Gefahr weiteren Blutvergießens. Die DDR war außerdem kein »in sich geschlossenes
Gemeinwesen«, das stärker als jedes andere kommunistische Land an die BRD gebunden
war (McAdams 2003: 3) und unter ständiger Beobachtung stand; eine Selbstreflexion
war kaum möglich. Hinzu kam, dass die Stasi-Akten den Bürgerrechtlern versprochen
worden waren und diese sie sofort veröffentlichten; von einem »Vergessen« der soge-
114
5.17 Literaturverzeichnis
nannten Mitläufer konnte also keine Rede mehr sein. Laut Christian Meier handelt es
sich immer um Präzedenzfälle, wobei man häufig zur Amnestie tendierte. Nötig zur
Verarbeitung schlimmer Ereignisse ist seiner Meinung nach vor allem das Verstehen und
Reflektieren der Geschehnisse. Dafür sei eine klare Definition von Unrecht und Tugend
erforderlich; meist benötige es mehrere Generationen, bis mithilfe der zeitlichen Distanz
die Geschehnisse tatsächlich aufgearbeitet werden könnten.
5.17
Literaturverzeichnis
[1] Assmann, Aleida: Geschichte im Gedächtnis. Von der individuellen Erfahrung zur
öffentlichen Inszenierung. München 2007.
[2] Assmann, Jan: Körper und Schrift als Gedächtnisspeicher. In: Kakanien Revisited Nr. 4
2006, 1–7.
[3] Bar-On, Dan: Die Erinnerung an den Holocaust in Israel und Deutschland. In: Aus
Politik und Zeitgeschichte Nr. 15 2005, 37–45.
[4] Bartov, Omar: Der Holocaust. Von Geschehen und Erfahrung zu Erinnerung und Darstellung. In: Beier, Rosmarie: Geschichtskultur in der Zweiten Moderne. Frankfurt am
Main 2000, 95–119.
[5] Czech, Vinzenz: Legitimation und Repräsentation. Zum Selbstverständnis thüringischsächsischer Reichsgrafen in der Frühen Neuzeit. Berlin 2003.
[6] Dejung, Christof: Oral History und das kollektive Gedächtnis. In: Geschichte und
Gesellschaft Nr. 34 2008, 96–115.
[7] Erll, Astrid: Kollektives Gedächtnis und Erinnerungskulturen. Eine Einführung. Stuttgart
2005.
[8] Flower, Harriet I.: The Art of Forgetting. Disgrace and Oblivion in Roman Political
Culture. Chapel Hill 2006.
[9] François, Etienne; Schulze, Hagen: Einleitung. In: François, Etienne; Schulze, Hagen:
Deutsche Erinnerungsorte Band 1. München 2001, 9–24.
[10] Görtemaker, Manfred: Geschichte der Bundesrepublik Deutschland. Von der Gründung
bis zur Gegenwart. Frankfurt am Main 1999, 199–217.
[11] Halbwachs, Maurice: Das Gedächtnis und seine sozialen Bedingungen. Frankfurt am
Main 1985.
[12] Hecht, Michael: Die Erfindung der Askanier. Dynastische Erinnerungsstiftung der Fürsten von Anhalt an der Wende vom Mittelalter zur Neuzeit. In: Zeitschrift für Historische
Forschung Nr. 33 2006, 1–31.
115
5 Gedenken oder Vergessen?
[13] Heinemann, Monika: Emotionalisierungsstrategien in historischen Ausstellungen am
Beispiel ausgewählter Warschauer Museen. In: Heinemann, Monika; Maischein, Hannah et al.: Medien zwischen Fiction-Making und Realitätsanspruch & Konstruktionen
historischer Erinnerungen. München 2011, 213–236.
[14] Hobsbawm, Eric: Mass Producing Traditions: Europe 1870-1914. In: Hobsbawm, Eric;
Ranger, Terence: The invention of tradition. Cambridge 1999, 263–308.
[15] Hockerts, Hans Günther: Zugänge zur Zeitgeschichte. Primärerfahrung, Erinnerungskultur, Geschichtswissenschaft. In: Aus Politik und Zeitgeschichte Nr. 28 2001, 15-30.
[16] Hoppe, Bert: Die Last einer feindlichen Vergangenheit. Königsberg als Erinnerungsort im
sowjetischen Kaliningrad. In: Weber, Matthias: Preußen in Ostmitteleuropa. Geschehensgeschichte und Verstehensgeschichte. München 2003, 299–311.
[17] Kansteiner, Wulf: Radikalisierung des deutschen Gedächtnisses im Zeitalter seiner kommerziellen Reproduktion. Hitler und das »Dritte Reich« in den Fernsehdokumentationen
von Guido Knopp. In: Zeitschrift für Geschichtswissenschaft Nr. 51 2003, 626–648.
[18] King, David: Stalins Retuschen. Foto- und Kunstmanipulationen in der Sowjetunion.
Hamburg 1997.
[19] Kuithan, Rolf: Das Totengedenken für Liutold von Achalm. In: Gemeinhardt, HeinzAlfred; Lorenz, Sönke: Liutold von Achalm (†1098). Graf und Klostergründer. Reutlingen
2000, 75–111.
[20] Matthes, Eckhard: Verbotene Erinnerung. Die Wiederentdeckung der ostpreußischen
Geschichte und regionales Bewußtsein im Gebiet Kaliningrad. In: Osteuropa Nr. 11/12
2001, 1350–1390.
[21] McAdams, A. James: Transitional justice after 1989: Is Germany so different?. In:
German Historical Institute Bulletin Nr. 33 2003, 53–64.
[22] Meier, Christian: Das Gebot zu vergessen und die Unabweisbarkeit des Erinnerns - Vom
öffentlichen Umgang mit schlimmer Vergangenheit. Bonn 2010.
[23] Meyer, Katrin: Art. Historie. In: Ottmann, Henning: Nietzsche Handbuch. Leben, Werk,
Wirkung. Stuttgart 2000, 255–256.
[24] Mittler, Günther R.: Neue Museen & neue Geschichte?. In: Aus Politik und Zeitgeschichte
Nr. 49 2007, 13–20.
[25] Münkler, Herfried: Die Deutschen und ihre Mythen. Berlin 2009.
[26] Nerdinger, Winfried: Geschichte der Rekonstruktion. München 2010.
[27] Nietzsche, Friedrich: Vom Nutzen und Nachteil der Historie für das Leben. In: Nietzsche,
Friedrich: Werke in drei Bänden. München 1954, Band 1, 209–287.
116
5.17 Literaturverzeichnis
[28] Oexle, Otto Gerhard: Die Gegenwart der Toten. In: Braet, Hermann; Verbeke, Werner:
Death in the Middle Ages. Leuven 1983, 19–77.
[29] Oexle, Otto Gerhard: Memoria in der Gesellschaft und in der Kultur des Mittelalters. In:
Heinzle, Joachim: Modernes Mittelalter. Neue Bilder einer populären Epoche. Frankfurt
am Main 1994, 297–323.
[30] Pethes, Nicolas: Kulturwissenschaftliche Gedächtnistheorien. Hamburg 2008.
[31] Piefke, Martina; Markowitsch, Hans J.: Neuroanatomische und neurofunktionelle
Grundlagen von Gedächtnis. In: Gudehus, Christian: Geschichte und Erinnerung. Ein
interdisziplinäres Handbuch. Weimar 2010, 11–21.
[32] Schmidt, Patrick: Die symbolische Konstituierung sozialer Ordnung in den Erinnerungskulturen frühneuzeitlicher Zünfte. In: Carl, Horst; Schmidt, Patrick: Stadtgemeinde und
Ständegesellschaft. Formen der Integration und Distinktion in der frühneuzeitlichen Stadt.
Berlin/Münster 2007, 106–139.
[33] Seegers, Lu: »Das Leben der anderen« und die »richtige« Erinnerung an die DDR.
In: Erll, Astrid, Wodianka, Stephanie: Film und kulturelle Erinnerung. Plurimediale
Konstellationen. Berlin/New York 2008, 21–52.
[34] Sezneva, Olga: Dual History. The Politics of the Past in Kaliningrad, Former Königsberg.
In: Czaplicka, John J.; Ruble, Blair A.: Composing Urban History and the Constitution
of Civic Identities. Washington, DC 2003, 58–85.
[35] Siegfried, Detlef: Zwischen Aufarbeitung und Schlußstrich. Der Umgang mit der NSVergangenheit in den beiden deutschen Staaten 1958 bis 1969. In: Schildt, Axel; Siegfried,
Detlef et al.: Moderne Zeiten. Die sechziger Jahre in den beiden deutschen Gesellschaften.
München 2000, 77–113.
[36] Sprenger, Kai-Michael: Damnatio memoriae oder damnatio in memoria? Überlegungen
zum Umgang mit so genannten Gegenpäpsten als methodisches Problem der Papstgeschichtsschreibung. In: Quellen und Forschungen aus italienischen Archiven und Bibliotheken
Nr. 89 2009, 32–62.
[37] Thiemeyer, Thomas: Zwischen Helden, Tätern und Opfern. Welchen Sinn deutsche,
französische und englische Museen heute in den beiden Weltkriegen sehen. In: Geschichte
und Gesellschaft Nr. 36 2010, 462–491.
[38] von Plato, Alexander: Zeitzeugen und die historische Zunft. In: BIOS Nr. 13 2000,
5–29.
[39] Welzer, Harald: Das Interview als Artefakt. In: BIOS Nr. 13 2000, 51–63.
[40] Wetzel, Dietmar J.: Maurice Halbwachs (Klassiker der Wissenssoziologie 15). Konstanz
2009.
117
5 Gedenken oder Vergessen?
[41] Wildt, Michael: “Der Untergang”. Ein Film inszeniert sich als Quelle. In: Fischer,
Thomas; Wirtz, Rainer: Alles authentisch? Popularisierung der Geschichte im Fernsehen.
Konstanz 2008, 73–86.
[42] http://www.welt.de/kultur/history/article10422903/Wie-Kaliningrad-zum-neuenKoenigsberg-werden-koennte.html
Dankwart Guratzsch, Wie Kaliningrad zum neuen Königsberg werden könnte. In: Die
Welt vom 25. 10. 2010.
[43] http://www.zeit.de/1998/42/Die_Geschichte_ist_kein_Friedhof
Paul Ricoeur im Gespräch mit Jörg Lau, Die Geschichte ist kein Friedhof. In: Die Zeit
vom 8. Oktober 1998.
[44] http://www.zeit.de/2004/10/Steam_Punk/komplettansicht
Peter Kümmel, Ein Volk in der Zeitmaschine, in: Die Zeit vom 26.02.2004.
[45] http://www.nytimes.com/2011/05/15/opinion/15bond.html?_r=2
Sarah E. Bond, Erasing the Face of History. In: New York Times, 14. Mai 2011.
[46] http://www.arte.tv/de/geschichte-gesellschaft/geschichte/Bild_20des_20Monats/
Damnatio_20memoriae/1015862.html
Tarek Chafik, D wie “Damnatio memoriae”. Wie Stalin die Erinnerung auslöschte, 30. 6.
2009.
[47] http://www.lfpr.lt/uploads/File/2001-8/Herbert.pdf
Ulrich Herbert, Der Umgang mit dem »Holocaust« in der Bundesrepublik Deutschland.
In: Lithuanian Foreign Policy Review 8 (2001).
[48] https://commons.wikimedia.org/wiki/File:Hermannsdenkmal_statue.jpg
Hermannsdenkmal.
[49] https://commons.wikimedia.org/wiki/File:Berlin_Stadtschloss_1920er.jpg
Berliner Stadtschloss.
[50] https://commons.wikimedia.org/wiki/File:Royal_gate_of_Koenigsberg.jpg
Königstor Kaliningrad.
118
5.17 Literaturverzeichnis
119
120
6
Eine philosophische Analyse der Liebe
6.1
Vorwort
Björn Freter und Ricarda Gäbel
Mit der Liebe hat sich das abendländische Denken seit jeher beschäftigt. So verstehen
etwa Hesiod und Empedokles die Liebe als weltschöpfende Kraft. Platon begreift unter
der sogar Liebe all das, was menschliches Tun überhaupt in Bewegung setzt, ein Begehren
hin zum Schönen und Guten. Und die Theologie des Neuen Testamentes entsteht ganz
aus der Annahme, in der Passion Christi habe sich die unbedingte Liebe Gottes gegen
seine Geschöpfe erwiesen.
Indes, es ist doch irritierend bei all diesen Ansätzen, sei es der eines Hesiod, eines Platon oder eines Paulus, dass die Liebe immer erst im Rahmen einer komplizierten Metaphysik
bestimmt werden kann. Sollten wir die Liebe vielleicht erst verstehen können, sollten wir
gar erst lieben können, nachdem wir vorsokratische Kosmologie oder platonische Dialoge
oder das Neue Testament studiert haben? Müssen wir etwa das Denken über die Liebe und
das Lieben voneinander trennen? Geht es um eine Liebe, wenn wir über sie nachdenken,
und um eine ganz andere Liebe, wenn wir sie leben? Wie konnte es eigentlich zu dieser
Spannung zwischen gedachter und gelebter Liebe gekommen?
Der Eindruck dieser Spannung verstärkt sich noch, wirft man etwa einen Blick in
die dramatische Literatur der Antike. Denn dort, in praxi, scheinen die existentiellen
Probleme der Liebe viel unmittelbarer dargestellt – in einer Weise, wie sie mit Hilfe der
antiken Philosophie und Theologie gar nicht beschrieben werden könnten.
Der Kurs hat sich vor allem auf die Analyse der anthropologischen Fundamente
konzentriert, also vor allem an den Präliminarien der philosophischen Analyse der
Liebe gearbeitet. So wird in den folgenden Texten auch vor allem diese grundlegende,
anthropologische Arbeit dokumentiert.
6.2
Ein literarischer Versuch über die griechische Tragödie
. . . wen die Götter verderben wollen, den schlagen sie mit Blindheit, und
bewirken so auf unheilvolle Weise, daß das, was geschieht, mit vollem Recht zu
geschehen scheint, und so verwandelt sich tiefes Unglück in tiefste Schuld . . .
— Velleius Paterculus
Es kommt der schicksalhafte Tag, da werden die Größten unter den Sterblichen durch
die Götter von ihrem Thron gestürzt, wie aus dem Nichts fällt das Unglück über sie herein. Mit Blindheit geschlagen treiben sie auf den Wellen der Hybris auf ihren Untergang
zu, denn in den wirren Nebeln der Täuschung sind die Schiffbrüchigen unfähig, das
121
6 Eine philosophische Analyse der Liebe
Ruder des Schicksals herumzureißen, sodass sie ihre Augen vor dem unausweichlichen
Sturz verschließen, womit sie ihn besiegeln. Geformt aus den mythischen Sagen der
Alten, überdauern die unsterblich Gewordenen die Jahrtausende, ihr Unglück macht
sie zu Göttern der Seele des Abendlandes. Der stolze König Ödipus, der aus Furcht
und Liebe den Orakelspruch flieht, nimmt sich das Licht der Welt mit einer Nadel der
erhängten Gottlosen. Aus demselben Hause stammend, mit derselben Hybris geschlagen,
wagt Antigone das Werk der Götter selbst anzufangen, als dieses schon vollbracht, aus
Bruderliebe zieht sie sich und das Haus des Tyrannen ins Unglück, aus dem Leben gerissen durch die eigene Hand. Den beiden Herrschern, mit allem Leid der Welt beladen,
widerfährt die sophokleische Gnade der Einsicht. Ach, wehe denen, die nicht besonnen
sind, ihr Wissen zu teilen, abzuwägen – ihr Handeln, ihr Fallen, wozu? Der Mensch, das
leidende Wesen. Die mächtige, lodernde Zauberin, die verschmähte Liebende, die stolze
Kriegerin Medea. Sie, die unglücklichste aller Mütter, die ihre Kinder der Ehre zur Rache
opfert, welch Kampf tobt in ihrer Brust. Doch selbst jener treueste Diener der Reinheit,
sein Leben Artemis geweiht, zu Tode geschleift liegt Hippolytos danieder. Er vergibt
dir, oh Theseus. Gedenke deiner Geliebten, die Aphrodite im Neid mit jener Krankheit
vergiftete, die die Seele in Flammen setzt. Welch große Frau, die stolze Phaidra. Ihr
großen Helden, was wollt ihr uns sagen? Dem Schicksal sich fügen? Die Götter, meint
ihr, sie ehren im Leben? Das Herz vor den schwachen Gefühlen verschließen? Den Tod
aus Scham der Schande vorziehen? Oh ihr Helden, wo ist eure gepriesene Weisheit
geblieben? Konntet ihr nicht auf solcherlei Weisen eurem Schicksal entrinnen, als ihr
noch unter der Sonne wandeltet?
6.3
Sophokles’ König Ödipus: Wie Ödipus lernt zu sehen, als er nicht
mehr sieht
In diesem Aufsatz soll sowohl die Frage nach der Schuld des Ödipus als auch die
Relevanz dieser Frage analysiert werden. Des Weiteren wird ein Blick auf die Verfassung
und Reaktion des Protagonisten nach Aufdeckung seines Schicksals geworfen und
versucht, nachzuvollziehen, welches pädagogische Ziel Sophokles womöglich verfolgt
haben könnte.
König Ödipus gehört zweifellos zu den bedeutendsten griechischen Tragödien und
hat aufgrund der moralisch-ethischen Thematik nie an Aktualität verloren. Das Uraufführungsdatum kann nicht eindeutig bestimmt werden, es beläuft sich auf die Jahre
zwischen 429–425 v. Chr. Der Ödipusmythos ist fast jedem grob bekannt und wird bis
heute heftig von Philosophen, Philologen und Psychoanalytikern diskutiert.
Zunächst die Vorgeschichte: Die Ehe des Laios, Königs von Theben, und seiner Frau
Iokaste bleibt sehr lange kinderlos, woraufhin Laios aufbricht, das delphische Orakel
zu befragen. Aufgrund eines Vergehens an einem Jungen erhält er von den Göttern ein
Verbot, Söhne zu zeugen. Handele er diesem zuwider, werde sein Sohn ihn töten und
die Mutter heiraten. Das Ehepaar widersetzt sich dem Verbot und zeugt einen Sohn,
den sie aus Angst vor dem Orakel mit durchbohrten Füßen im Gebirge aussetzen lassen,
122
6.3 Sophokles’ König Ödipus: Wie Ödipus lernt zu sehen, als er nicht mehr sieht
damit er den Tieren zum Opfer fällt. Der Diener jedoch übergibt das Kind aus Mitleid
einem korinthischen Hirten, der es zu dem Königspaar Polybos und Merope bringt,
die es als Sohn annehmen. Ein Betrunkener äußert eines Tages vor dem erwachsenen
Ödipus, er sei nicht das leibliche Kind der vermeintlichen Eltern, woraufhin er sich auf
den Weg macht, das delphische Orakel nach seiner Herkunft zu befragen. Dort erfährt
er, dass er seinen Vater töten und die Mutter heiraten werde und beschließt, nicht nach
Korinth zurückzukehren. An einer Wegenge kommt ihm ein Wagen mit einem alten
Mann entgegen. Der Wagenlenker will Ödipus beiseite drängen und wird daraufhin
von dem jungen Mann geschlagen. Als Ödipus den Wagen passiert, gibt der Greis ihm
einen Streich auf den Kopf, woraufhin Ödipus die gesamte Reisegesellschaft erschlägt;
nur einer kann entfliehen. Dass es sich bei dem alten, erschlagenen Mann um seinen
leiblichen Vater Laios handelte, war ihm natürlich nicht bewusst. Die Stadt Theben ist
zu der Zeit bedroht von einer Sphinx, deren Rätsel niemand zu lösen vermag. Ödipus
schafft es jedoch mit Leichtigkeit und erhält als Lohn die Witwe Iokaste zur Frau, womit
sich der zweite Teil des Orakels erfüllt.
Zu Beginn von Sophokles’ Drama wütet in Theben eine verheerende Seuche, von der
Ödipus, als König, sein Volk befreien soll. Nach Befragung des Orakels durch Kreon
erhält er die Botschaft, dass diese Befreiung nur gelinge, wenn Ödipus den Mörder des
Laios finde. Der Seher Teiresias hält Ödipus vor, er sei der Gesuchte und wisse über
seine eigene Herkunft nichts. Im Zorn wirft der König Kreon und dem Seher einen
Komplott gegen ihn vor. In einem Dialog mit Iokaste erfährt er von dem Orakelspruch
und der befohlenen Tötung des Sohnes und schildert seinerseits den begangenen Mord
am Dreiweg. Was hier nur vage Zweifel sind, bewahrheitet sich durch den überlebenden
Begleiter des Laios, der zugleich der Hirte war, der Ödipus nach Korinth gegeben hatte.
Ödipus muss erkennen, dass er seinen Vater getötet und die Mutter geheiratet hat.
Iokaste, die das Unheil bereits erkannt hat, findet er tot im Palast und blendet sich mit
den Spangen von Iokastes Gewand.
123
6 Eine philosophische Analyse der Liebe
Im Folgenden sollen nun drei Interpretationsansätze zur Schuldfrage des Ödipus
aufgezeigt werden:
Schuldig durch seinen Charakter
– Ödipus ist eine charakterlich problematische und kritisierenswerte Figur. Er ist
nicht im Vorsatz schuldig oder durch bösen Willen, sondern durch charakterliche
Fehltendenzen, die eine verheerende Wirkung haben.
– Unvorsichtigkeit: Ödipus missachtet den Kommentar des Betrunkenen über seine
Herkunft vollkommen; er nimmt an, Merope und Polybos seien seine leiblichen
Eltern. Aufgrund seiner unklaren Herkunft müsste er nicht nur Korinth meiden,
sondern sich ebenso hüten, einen älteren Mann zu erschlagen und eine ältere Frau
zu heiraten.
– Zorn, Unbeherrschtheit: Am Dreiweg wird Ödipus zwar angegangen, seine Vergeltung ist aber viel massiver, sodass man nicht von reiner Notwehr reden kann.
Bei dieser Interpretation wird von der numinosen Sphäre abgesehen und die Tragik
des Ödipus als rein menschliches Problem gesehen. Das Schicksal wird allein durch
charakterliche Eigenschaften bestimmt und nicht von den lenkenden Göttern.
Unvermeidbare Schuld
– Ödipus’ Schicksal ist von seiner Geburt an vorbestimmt, da Laios das Orakel
ignorierte und daher die Erfüllung der angekündigten Taten des Sohnes ihren
Lauf nimmt. So bilden Ödipus’ Taten eine Kette von unvermeidbaren Konsequenzen und es zeigt sich der »lebensgeschichtliche ‘Schuldzwang’« (Rumpf 2003,
49). Ödipus handelt nicht nach eigenen Entschlüssen, vielmehr sind alle seine
Handlungen durch die Sprüche des delphischen Orakels vorbestimmt. Laut Bernd
Manuwald ist aus dem Drama eindeutig herauszulesen, dass Orakel »unweigerlich
eintreten und es nicht in der Macht der Menschen liegt, der Erfüllung der Weissagung zu entgehen« (Manuwald 1992, 12). Deshalb ist für Ödipus nach diesem
Interpretationsansatz auch keine subjektive Schuld anzunehmen.
Ödipus als Beispiel für metaphysische Wesensschuld
– In Sophokles’ Tragödie wird die metaphysische Tragik des Menschen deutlich.
Der Mensch ist zum Handeln berufen, doch ihm fehlt die Voraussetzung für
verantwortliches Handeln: Allwissenheit.
– Wegen der menschlichen Unwissenheit dürfte der Mensch eigentlich erst gar nicht
handeln, da er unausweichlich schuldig wird. Die daraus resultierende menschliche
Situation ist ausweglos und die Welt ist im Grunde höchst tragisch.
Diese Interpretationsansätze haben deutlich aufgezeigt, dass die Schuldfrage auf
verschiedene Weise beantwortet werden kann. Jede dieser Deutungen findet ihre Rechtfertigung und lässt sich am Text belegen. Es stellen sich nun die Fragen, welcher Ansatz
124
6.4 Sophokles’ Antigone: »Einsicht ist das aller Güter höchste!«
die Intention Sophokles wiedergibt und ob Sophokles die Schuld überhaupt als zentralen
Aspekt seiner Tragödie gesehen hat.
Darauf wäre folgendermaßen zu antworten: Ein antiker Dramatiker verfolgte mit
seinem Werk stets ein pädagogisches Ziel. Wenn Sophokles die Frage nach der Schuld
als so wichtig empfunden hätte, hätte er sie dann nicht klarer und für uns verständlicher
verarbeitet? Es scheint, dass man vielmehr den Aspekt der Einsicht, die am Ende der
Tragödie durch Ödipus erfolgt, beleuchten sollte: Ödipus erleidet ein sehr schlimmes
Schicksal. Er muss erkennen, dass sich sein Orakel, obwohl er versucht hat, diesem zu
entgehen, erfüllt hat. Er nimmt sich daraufhin das Augenlicht.
Man könnte sagen, dass er anfängt zu sehen, als er nichts mehr sieht. Dieses Sehen
bedeutet vor allem das genaue Analysieren von Situationen, die nur durch Überlegung und Reflexion durchschaut werden können. Während der Tragödie geht Ödipus
ganz nach der condition humaine (Bedingung der menschlichen Existenz) den Weg vom
Schein zum Sein: Nach und nach deckt er das Unheil auf und beginnt zu erkennen. Die
Befleckung aufdeckend vollzieht sich in Ödipus zum Schluss ein Prozess äußerster Reinigung, welche ihn bei sich selbst ankommen lässt. Weder versucht er seinem Schicksal
zu entgehen, noch klagt er die Götterwelt an, sondern findet sich zum ersten Mal mit
den Gegebenheiten ab.
6.4
Sophokles’ Antigone: »Einsicht ist das aller Güter höchste!«
Sehet, ihr Edlen aus Thebens Volk, die letzte, die blieb vom Königsgeschlecht!
Seht, was ich dulden muss, und von wem, weil ich Heiliges heilig gehalten!
— Antigone 940–944
Dies sind die letzten Worte der Antigone aus der gleichnamigen Tragödie des Griechen
Sophokles. Doch weshalb kommt es überhaupt mit ihr zu einem solchen Ende? Was
ist es, das sie »heilig gehalten« und weswegen sieht sie sich klar im Recht? Wenn man
diese Fragen zu beantworten versucht, dann muss man nicht nur an den Anfang des
Geschehens blicken, sondern noch darüber hinaus.
Antigones Brüder, Polyneikes und Eteokles, vereinbaren in alternierender Reihenfolge
nach dem Tod des Vaters Ödipus die Regentschaft in Theben zu übernehmen. Als
Eteokles sein erstes Jahr beendet, verweigert er Polyneikes den Thron; daraufhin greift
Polyneikes die Stadt an. Beide Brüder bringen sich im Kampf gegenseitig um. Der Onkel
der Geschwister, Kreon, ist nun rechtmäßiger Herrscher Thebens. Dieser verbietet es, den
Leichnam des Verräters Polyneikes jemals zu begraben. Jeder, der sich dem widersetzen
sollte, würde durch öffentliche Steinigung bestraft werden.
Sophokles’ Tragödie beginnt mit einem Dialog zwischen Antigone und ihrer Schwester
Ismene. Antigone plant, ihren Bruder trotz des Gesetzes zu begraben und fragt Ismene,
ob sie willens sei, ihr dabei zu helfen. Als diese jedoch entschieden verneint, ist Antigone
entschlossen, ihr Ziel auf eigene Faust zu erreichen. Obwohl sie sich der Konsequenz
ihrer Tat bewusst ist, lässt sie nicht von ihr ab. Denn sie fühlt sich nach göttlichem Recht
dazu verpflichtet. Sie wendet sich von diesem Punkt an von Ismene ab.
125
6 Eine philosophische Analyse der Liebe
Vermutlich zeitgleich berichtet ein Wächter Kreon von einem wundersamen ersten
Begräbnis des Polyneikes, verursacht durch einen »spurlosen Täter« (Antigone 252). Auf
den Befehl Kreons, den Täter ausfindig zu machen, findet der Wächter Antigone, die
nichts von diesem ersten Begräbnis mitbekommen hatte, unbekleidet und jammernd
neben dem Leichnam. Antigone ist also im Begriff, Polyneikes ein zweites Mal zu
begraben. Vom Wächter gefasst, gesteht sie sowohl das zweite wie auch das erste
Begräbnis, welches sie rein zeitlich nicht begangen haben kann. Ismene behauptet ihrer
Schwester dabei geholfen zu haben, wird aber von Antigone verächtlich zurückgewiesen.
Wider den Einwand seines Sohnes Haimon, Antigones Verlobten, entschließt sich Kreon,
Antigone töten zu lassen und verschärft die Bestrafung, indem er sie lebendig in ein
Felsengrab bringen lässt. Die anfängliche Entschlossenheit der Antigone wandelt sich in
Todesfurcht. Sie ist enttäuscht in ihrer Gottverlassenheit. In ihrer Orientierungslosigkeit
klagt sie über das ihr, in ihren Augen, zu Unrecht zugestoßene Leid.
Der Seher Teresias, der als Mittler zwischen Göttern und Menschen auftritt, weist
Kreon darauf hin, dass alle Menschen einmal irre gingen und prophezeit ein unheilvolles
Ende, wenn er Antigone nicht befreit. Nachdem Teresias Kreon noch immer nicht
überzeugt zurück gelassen hat, fordert der Chor Kreon dazu auf, Antigone augenblicklich
zu befreien und dem Polyneikes endlich ein Grab zu geben. Allerdings kommt Kreons
Einsicht viel zu spät. Ein Bote berichtet ihm: Verzweifelt über ihr Schicksal hat sich
Antigone längst für den Freitod entschieden. Ihr Verlobter Haimon, der sie tot im Verlies
vorgefunden hat, nahm sich daraufhin ebenfalls das Leben. Den Verlust ihres Sohnes
betrauernd, ermordet sich auch Kreons Frau Eurydike. Zurück bleibt ein einsamer und
gebrochener König, der seine Fehler bereut und einsieht. Unglücklich muss er feststellen:
»Ich bin nicht mehr – ich bin nicht mehr als ein Nichts« (Antigone 1325).
Bei einer näheren Betrachtung der Hauptfiguren wird oft von Antigone als der tragischen Figur des Stückes ausgegangen. Sie scheint völlig unverschuldet in ihr Unglück zu
geraten, denn ihr vermeintlich frommes Handeln wendet sich zuletzt gegen sie selbst.
Doch entspricht Antigones Handeln dem Willen der Götter? Die griechische Mythologie in
sophokleischer Deutung versteht die Beziehung zwischen Gott und Mensch als eine, in
der die Menschen den Willen der Götter fromm annehmen sollten. Fordern die Götter
eine gewisse Tat, dann wenden sie sich mit einer klaren Anweisung an die Menschen.
Antigone aber dringt aktiv in den Aufgabenbereich der Götter ein und überschreitet ihre
Grenzen. Eine Anweisung dazu oder auch nur eine Genehmigung hat sie von ihnen nie
erhalten.
Eine andere Frage, die sich ebenfalls stellt, ist: Wenn sie sich doch zu Beginn fest entschlossen für den Tod entscheidet, warum kann sie ihn dann nicht annehmen? Einerseits hat
Antigone mit einem anderen Tod gerechnet. Sie hoffte öffentlich und ruhmvoll durch
eine Steinigung zu sterben. Deshalb weist sie Ismene auch vor Kreon zurück, weil sie
den Ruhm für die heroische Tat alleine genießen will. Nun sieht sie einen kläglichen und
jämmerlichen Tod vor sich. Andererseits zeigt ihre Reaktion auf den bevorstehenden
Tod nur, wie menschlich Antigone ist. Dadurch werden die Grenzen des Menschseins
deutlich, welche der Mensch gemäß der delphischen Maxime »Erkenne dich selbst« im
Blick haben sollte. Sie stürzt folglich aufgrund des Mangels an Maßhaltung.
126
6.5 Platons Phaidon und die Unsterblichkeit der Seele
Hätte sie ihr Schicksal denn überhaupt verhindern können? Wie hätte sie zur Erkenntnis
gelangen sollen? Auffällig ist, dass Antigone ihre Tat nie reflektiert. Im Stück findet
sich kein Monolog, in welchem sie die Problematik ihres Vorhabens thematisiert. Auch
der Dialog mit ihrer Schwester kann nicht als wirkliches Gespräch bezeichnet werden,
denn sie unterrichtet Ismene lediglich von ihrem Plan. Ein Gespräch mit Kreon kommt
ebenfalls nie zustande. Redete Antigone mit Kreon, würde sie erfahren, dass ihr Bruder
längst begraben ist.
Wie ist der Sturz Kreons in diesem Zusammenhang zu deuten? Bezüglich des Scheiterns
in der Tragödie lässt sich eine Parallele zu Antigone feststellen. Denn auch Kreon
verpasst es, ein aufschlussreiches Gespräch aufzusuchen und handelt nur im Sinne des
Vaterlandes. Weder dem Volk, dessen Willen er als Herrscher berücksichtigen sollte,
noch seinem eigenen Sohn, der sich um ihn sorgt, noch dem Teresias, der als hohe
moralische Instanz gilt, schenkt er Gehör. Seine Sturheit wird ihm zum Verhängnis.
Der Machtdemonstration wegen stellt Kreon sein Gesetz über die Gesetzte der Götter.
Dadurch legt er gegenüber den Göttern Hybris und Anmaßung an den Tag.
Gibt es überhaupt einen Unterschied zwischen den Protagonisten Kreon und Antigone? Aus
dem ganzen Stück folgt, dass, hätten die Charaktere ein Gespräch miteinander gesucht,
sei es mit sich oder mit anderen, dann wären sie zur Besinnung gekommen, sodass die
Katastrophe nicht hätte entstehen können. Auch wenn beide Figuren aufgrund mangelnder Besinnung scheitern, wird am Ende des Stückes deutlich, dass Kreon dennoch zu
einer Erkenntnis gelangt, welche der Antigone bis zum Tod fehlt. Denn während Kreon
sich seine Fehler eingesteht und bereut, weiß Antigone bis zum Ende nicht, weshalb
die Götter sie auf diese Weise enden ließen. Sie erkennt nicht ihr Fehlverhalten den
Göttern gegenüber und akzeptiert ihr Schicksal nicht. Somit scheint Kreon Antigone
einen Schritt voraus zu sein, denn nur er gelangt zu der Erkenntnis: »Einsicht ist das
aller Güter höchste!« (Antigone 1348–1349).
6.5
Platons Phaidon und die Unsterblichkeit der Seele
Platons Akademie war eine besondere Art von Bildungsstätte, mit welcher unsere womöglich altbackene Konzeption der Schüler-Lehrer-Situation inkommensurabel ist. Nicht
umsonst wird die sokratische Lehrmethode als pädagogisch ausgeklügelte Vorgehensweise gepriesen, anhand derer Platon das strukturelle Grundgerüst seiner Werke konzipiert hat. In nuce: Es geht um die funktionelle Bedeutungspotenz der Dialogform, durch
die der Lernprozess des Lesers überaus effektiv geprägt wird. Das simple Prinzip von
»Rede – Gegenrede« zeichnet sich nicht nur durch seine den Rezipierenden ansprechende Form aus, sondern ermöglicht und rechtfertigt überdies den »fehlenden« Zwang zur
systematischen Vollständigkeit. Es können Positionen revidiert, facettenreiche Attitüden
referiert werden. Somit sind Platons Lehrstücke nicht als trockene, belehrende Schulbücher zu verstehen, sondern vielmehr als zum kritischen Denken motivierende Dialoge.
Denn abgesehen von den werkimmanenten Gesprächen sind es Platons Texte in persona,
mit welchen der Leser im Dialog zu stehen hat. Erst wenn diese Konfrontation zwischen
127
6 Eine philosophische Analyse der Liebe
Leser und Text zustande kommt und das Zwiegespräch zwischen beiden eingeleitet wird,
ist es möglich, Platons eigentliche »ungeschriebene« Lehre zu verstehen. Will heißen:
Es ist das Hinterfragen mancher nicht selten ironisch dargestellter Beziehungen und
Sachverhalte, das Weiterentwickeln einfach erscheinender Gedankenstränge, kurzum,
die Urteilsbildung des Lesers, auf die Platon abzielt. Protagonist der meisten Dialoge ist
Sokrates, der, sich seiner maieutischen Lehrweise bedienend, seine Gesprächspartner
stets regelrecht dazu »zwingt«, Wissen, oder präziser formuliert, Einsicht in die Dinge
selbst zu erwerben – und sei es »nur« jene in die Unbeantwortbarkeit diverser den
Menschen betreffenden Grundkonstanten.
Das Kernproblem der Dialoge stellt demnach die Frage nach der arete (Tugend) und
der Seelsorge dar. Dies soll illustriert werden an einem Werk aus Platons mittlerer
Schaffensperiode, nämlich am Phaidon.
Phaidon In diesem Dialog Platons berichtet Phaidon, Freund des Sokrates, von den
letzten Gesprächen am Todestag des großen Philosophen:
Sokrates sitzt im Jahre 399 v. Chr. nach der Verurteilung zum Tod im Athener Staatsgefängnis, umgeben von seinen engsten Freunden, und philosophiert mit ihnen angesichts
des nahen Todes über die Unsterblichkeit der Seele.
Warum ist Sokrates unmittelbar vor seinem Lebensende vollkommen gelassen und
zufrieden? Warum empfiehlt er sogar einem anderen Philosophen, ihm bald in den Tod
zu folgen? Diese Fragen der Anwesenden geben Sokrates den Anstoß zu den folgenden
Ausführungen.
– Der Körper-Seele-Dualismus
Der Tod bedeutet die Trennung der Seele vom Körper; tot-sein heißt, die Seele
existiert allein für sich, losgelöst vom Körper. Dieser Zustand ist für jeden wahren Philosophen erstrebenswert; ihn zu erreichen ist oberstes Ziel. Denn: Kriege,
Krankheit, Unvernunft, Maßlosigkeit – alles Übel hat seine Ursache im Körper
und seinen Bedürfnissen. Er verlangt nach Pflege, Nahrung, Fürsorge jeglicher Art,
er behindert den Menschen beim Denken, lenkt ihn vom Philosophieren ab. Die
Sinneseindrücke, die der Körper liefert, sind trügerisch, wechselhaft und unvollkommen. Dies widerstrebt dem Philosophen jedoch zutiefst: Der philos (Freund)
der sophia (Wissen, Erkenntnis) darf sich beim Streben nach to on (dem wirklich
Seienden) weder auf seine Sinneseindrücke verlassen, noch den Verlockungen des
Körpers nachgeben. Ein wahrhaftiger Philosoph strebt die Abwendung vom Körper
und Hinwendung zur Seele an. Damit übt sich der Philosoph ein Leben lang in
der Trennung von Körper und Seele, er befindet sich in ständiger melete thanatou,
Einübung des Todes. Der Tod selbst erfüllt schließlich das lebenslange Streben;
nach dem Tod kann die Seele, befreit aus dem soma (Körper) als ihrem sema (Grab),
endgültig Erkenntnis erlangen. Daher ist der Tod nichts Böses, geschweige denn
etwas Beängstigendes.
– Die Ideenhypothese als Unsterblichkeitsargument
Unter Sokrates’ Freunden besteht jedoch die Sorge, die Seele könne sich nach
128
6.6 Seneca – De providentia
der Trennung vom Körper auflösen und zerstäuben. Sokrates reagiert auf diese
Zweifel mit der Ideenlehre, die der Autor dem Protagonisten in den Mund legt.
»Idee« bedeutet hier nicht »Einfall« im heutigen Sinne, sondern übersinnliches
»Urbild«. Das Urbild nämlich, von dem alle sinnlich erfahrbaren Dinge nur ein
Abbild sind. Es gibt beispielsweise die Idee des »Großen«, die Idee des »Geraden«,
des »Schönen« und des »Guten«. Alle Sinnendinge, die daneben groß, gerade,
schön oder gut sind, haben Anteil an der entsprechenden Idee.
Die Idee der Größe kann niemals klein werden. Doch nicht nur gegensätzliche Ideen
selbst schließen sich aus, sondern auch Dinge, die diese Gegensätze in sich tragen, ohne
selbst Gegensatz zu sein: Die Zahl drei ist nicht Gegenteil vom Geraden, kann aber als
ungerade Zahl (mit Teilhabe an der Idee des »Ungeraden«) niemals das Gerade in sich
aufnehmen.
Diese Feststellung überträgt Sokrates auf die Seele, welche Trägerin des Lebens ist.
(Das griechische Wort für Seele, psyche, bedeutet auch ursprünglich »Leben«.) Wenn die
Seele in einen leblosen Körper hineinfährt, dann bringt sie ihm immer das Leben. Damit
kann sie als Teilhaberin an der Idee des Lebens allerdings nie den Gegensatz Tod in sich
aufnehmen. Sie ist unsterblich.
6.6
Seneca – De providentia — Unglück als wahres Glück
Die vorliegende Schrift De providentia, zu Deutsch Über die Vorsehung, ist eine Spätschrift
von L. Annaeus Seneca (1 v./n. Chr. – 65 n. Chr.). Ausgehend von der Frage, warum,
»wenn die Welt durch eine Vorsehung gelenkt werde, guten Menschen viel Unheil
zustoße« (I, 1), entwickelt Seneca seine stoische Auffassung vom Schicksal. Der Autor
geht zum einen davon aus, dass eine feste und gottgelenkte Weltordnung besteht, die auf
aufeinanderfolgenden Ursachen fußt, und zum anderen davon, dass sich Gleichartiges
in der Natur niemals gegenseitig negativ beeinflussen könne. Das heißt, dass die Götter
niemals guten Menschen (boni viri) schaden könnten. Dementsprechend besteht zwischen
den Göttern und den boni viri »Verwandtschaft und Ähnlichkeit« (I, 5). Diesem Verhältnis
nach erzieht der Gott die guten Menschen so, »dass sie vor Härten und Schwierigkeiten
nicht zurückschrecken, noch sich über das Schicksal beklagen, dass sie, was auch immer
geschieht, für gut befinden und es zum Guten wenden« (II, 4). Dafür teilt der Gott ihnen
harte Schicksale zu, damit sie sich an ihnen erproben und abhärten können, bis sie
durch die Gewohnheit zum »Vergnügen« (IV, 15) werden. Durch die Erprobung und
die Abhärtung gelangt der bonus vir zur Erkenntnis über sich selbst, da er erst jetzt
erkennt, was er »zu leisten vermag [. . .]« (IV, 3). Seneca geht es darum, das existenzielle
Problem der Unerklärbarkeit von Unglück in der Welt dadurch zu lösen, dass nicht
das Ausgangsproblem, sondern der Zugang bzw. die Haltung des Menschen zu diesem
grundlegend verändert wird.
Das häufige Auftreten von Unglück im Leben eines bonus vir zeigt folglich die Gunst
der Götter an, da sie den bonum vir als würdig genug erachten, um ihm ein hartes
Schicksal aufzuerlegen. Das bedeutet, dass das Erhalten von Unglück in Wirklichkeit
129
6 Eine philosophische Analyse der Liebe
Glück ist, das der gute Mensch mit freudiger Erwartung empfangen sollte. Durch diese
mentale Einstellung zum Schicksal und die erlangte »stoische Gelassenheit« stellt sich
der gute Mensch dann sogar über das Schicksal. Mit der Umkehrung von Glück und
Unglück im Hinblick auf das Schicksal – hier muss man bedenken, dass der stoische
Glücksbegriff nur das Nichtvorhandensein von Unglück meint – ergibt sich zwangsläufig,
dass ein glückliches Schicksal nicht mit einem wahrhaft glücklichen Leben vereinbar
ist. Dies erklärt Seneca damit, dass die »Materie« (V, 9), aus der die guten Menschen
geschaffen sind, unzertrennlich mit einem harten Schicksal verbunden ist. Vielmehr
führt »lähmendes Glück« (IV, 9) zu Erschlaffung und einem rauschhaften Zustand, der
mit Realitätsverlust einhergeht. In einem solchen Zustand hat das Unglück bringende
Schicksal dann eine umso verheerendere Wirkung.
Seneca hat nicht zufriedenstellend erklären können, wie das Verhältnis zwischen
dem freien menschlichen Streben und der Notwendigkeit des Schicksals zu bestimmen
ist. Dunkel bleibt auch die irritierende Vorstellung, warum Unglück Glück ist. Ferner
scheint es, dass Seneca von einem maximal entmenschlichten Menschenbild ausgeht
und dadurch eine ethische Anwendbarkeit seiner Überlegungen nicht möglich ist.
6.7
Sextus Empiricus – Skepsis und Liebe im Konflikt
Philosophiegeschichtliche Einordnung Bevor genauer auf die Skepsis nach Sextus
eingegangen wird, wird diese grundlegend in einen philosophisch-geschichtlichen
Kontext eingeordnet. Zur Zeit Sextus’ (ca. 2. Jahrhundert n. Chr.) konkurrierten nach
Sextus’ Auffassung im Wesentlichen drei philosophische Strömungen: Die Dogmatiker,
die glaubten, das »Wahre« bereits gefunden zu haben; die Akademiker, die dachten, das
»Wahre« sei nicht zu finden, sowie die Skeptiker.
Wesentliche Aspekte der Pyrrhonischen Skepsis Zunächst lässt sich sagen, dass die
Skeptiker das Ziel haben, die Menschen durch ihre Philosophie von der inneren Unruhe
zu befreien. Der Skeptiker sieht sich als eine Art Arzt, der versucht, den Patienten (den
beunruhigten Menschen) von einer Krankheit (der inneren Unruhe) durch eine Therapie
(die Skepsis) zu befreien.
Die innere Unruhe, von der die Menschen betroffen sind, entsteht laut Sextus durch
die Wahrheitssuche. Da es nach skeptischem Denken allerdings nicht möglich ist, zu
urteilen, was »richtig« oder »falsch« bzw. »gut« oder »schlecht« ist, da jedem Argument
ein ihm gleichwertiges Argument entgegensteht, welches das erste Argument widerlegt,
kommt es zur isosthenia (Gleichwertigkeit der Urteile).
Die Skeptiker fällen also kein Urteil über den Wahrheitsgehalt einer Aussage. Auch
beim Philosophieren legen sie keine Dogmen fest, sondern beschreiben lediglich persönliche Erlebnisse und Empfindungen und zwar immer nur für den jeweiligen Moment
und niemals allgemein gültig. Dafür werden in der Skepsis auch spezifische Mittel
angewandt, die verhindern sollen, dass es zu dogmatischen Aussagen kommt. Charakteristisch für die Skeptiker sind Schlagworte wie »nicht eher«. Dieses Schlagwort bedeutet
130
6.7 Sextus Empiricus – Skepsis und Liebe im Konflikt
so viel wie »nicht eher jenes als dieses« oder, um es noch weiter auszuformulieren, »Ich
weiß nicht, welchem von diesen Dingen ich zustimmen soll und welchem nicht«. Durch
diese Formulierungen gelingt es dem Skeptiker, keine allgemeinen Aussagen zu treffen
und so seine Philosophie sprachlich angemessen zu formulieren.
Der skeptische Ansatz zur Überwindung der inneren Unruhe besteht darin, darauf
zu warten, dass man in der sich fortwährend einstellenden isosthenia plötzlich und
unerwartet innehält. Und genau dann, wenn man innehält, gelangt man, wie zufällig,
zur ataraxie (Seelenruhe). Diese Seelenruhe erscheint dem Skeptiker als der angenehmste
und erstrebenswerteste Zustand.
Wichtig ist es, zu erwähnen, dass es nach Sextus’ Auffassung auch sogenannte
»aufgezwungene Güter« (Affekte wie Lust und Schmerz) gibt, bei denen es nicht möglich
ist, die ataraxie zu erreichen, da der Mensch diese nicht beeinflussen kann. Bei solchen
Affekten soll darum nur eine metriopathie (ein Maßhalten) angestrebt werden.
Lassen sich Liebe und Skepsis kombinieren? Nachdem nun die Grundidee der Skepsis beschrieben wurde, soll diese philosophische Strömung nun auf die Frage hin
untersucht werden, ob sich auch die Liebe in dieses System einordnen lässt.
Ein Skeptiker erkennt zwar an, dass es Affekte gibt, allerdings versucht er diese, soweit
dies möglich ist, einzudämmen. Eine Frage, die sich hier zwangsläufig ergibt, ist, wie
es sich denn dann mit der Liebe bei Skeptikern verhält und inwieweit man diese zwei
Aspekte kombinieren kann. Das Hauptproblem hierbei besteht darin, dass zu der Liebe
auch Leidenschaft und starke Emotionen zählen. Da nun die Liebe zum Menschen gehört
und die Emotionen zur Liebe gehören, ergibt sich, dass auch diese starken Emotionen
menschlich sind. Wenn man diesen Gesichtspunkt nun wieder auf die Skepsis bezieht,
so wird deutlich, dass das Prinzip der pyrrhonischen Skepsis nach Sextus gar nicht
menschlich zu sein scheint. Somit lässt sich sagen, dass Sextus’ philosophischer Ansatz
es nicht bewerkstelligen konnte, den Menschen mit all seinen Eigenschaften zu erfassen.
131
6 Eine philosophische Analyse der Liebe
So kommt man zu dem Fazit, dass sich das Menschenbild und auch die Vorstellung von
Liebe innerhalb der verschiedenen Epochen immer wieder veränderte und es eine große
Problematik darstellt, den Menschen mit all seinen Gefühlen zu begreifen. Weiterhin
scheint die Liebe vielfältig zu sein und in verschiedensten Formen aufzutreten. Klar ist,
dass es keine eindeutige Definition für dieses Phänomen geben kann. Jeder muss für
sich allein versuchen, der Liebe auf die Spur zu kommen, sei es durch Erfahrungen,
durch die Lektüre großartiger Weltliteratur oder durch faszinierende Diskussionen mit
Gleichgesinnten.
6.8
Der paulinische Stil
Der paulnische Stil ist dadurch geprägt, dass Paulus viele ungenau definierte beziehungsweise vollkommen neue Begriffe einführt, um seine Lehre zu erklären. Weil diese
Begriffe noch nicht durch andere Autoren oder durch die bisherige Begriffsgeschichte
eindeutig festgelegt worden sind, ist der Stil durch häufiges Umschreiben von neuen
Begriffen stark beeinflusst und teilweise nicht leicht zugänglich.
Zumeist aber schreibt Paulus inhaltlich einer klaren Linie folgend. Hierbei wiederholt
er seine Aussagen und Begriffsdefinitionen unentwegt, um so den interessierten – sowohl
gebildeten als auch ungebildeten – Lesern das Evangelium nahezubringen. Hierbei
nähert sich Paulus Satz für Satz der von ihm auszudrücken gewünschten Weisheit und
Lehre. Seine Ausdauer zeigt, dass Paulus diese als den Grund seiner Sendung und
Aufgabe von Gott her anerkennt.
Allgemein sind von ihm verfasste Schriften auf recht hohem Niveau; das versucht
er trotz hoher Anzahl von Fachtermini nicht übermäßig zum Problem werden zu
lassen, meint er doch, Gott möchte allen Gläubigen, auch den weniger Weisen das
– unverdiente – Heil schenken. Dadurch erhalten von Paulus verfasste Schriftstücke
einen langatmigen Charakter, der dadurch ausgeglichen wird, dass Paulus’ Thematik
eine besonders ansprechende ist. So eröffnet Paulus einem allgemeinen Publikum den
Zugang zu christlichen Lehren.
In den paulinischen Briefen hat der Inhalt einen sehr persönlichen Bezug, weswegen
man sagen kann, dass diese sehr anschaulich und situationsbezogen verfasst sind. Letzteres hat den Nachteil, dass ein großer Teil der heutigen Leser durch die Notwendigkeit
der Kenntnis von historischen Fakten die Texte nur eingeschränkt verstehen können.
Philosophisch gesehen ist die Effektivität eines solchen Schreibstils im Vergleich zu
der bei Texten anderer philosophischer Autoren recht niedrig, dafür jedoch um ein
Wesentliches klarer.
Die Reden des Paulus scheinen das Problem der Langatmigkeit in besonderer Weise
gehabt zu haben. Ein Beispiel aus der Apostelgeschichte beschreibt diesen Redestil des
Paulus sehr aussagekräftig:
»Am ersten Tag der Woche aber [. . .] predigte ihnen Paulus, und da er am nächsten
Tag weiterreisen wollte, zog er die Rede hin bis Mitternacht. [. . .] Es saß aber ein junger
Mann mit Namen Eutychus in einem Fenster und sank in einen tiefen Schlaf, weil Paulus
132
6.9 Immanuel Kant – Epistemologische Motivation einer Vernunftskritik
so lang redete; und vom Schlaf überwältigt fiel er hinunter vom dritten Stock und wurde
tot aufgehoben. Paulus aber ging hinab und warf sich über ihn, umfing ihn und sprach:
Macht kein Getümmel; denn es ist Leben in ihm« (Apostelgeschichte 20, 7–10).
Es zeigt sich hier, dass Paulus durch mangelhafte rhetorische Fähigkeiten die Aufmerksamkeit des Zuhörers so fordert, dass diese angesichts des großen Umfangs seiner
Vorträge, was die Konzentrationsfähigkeit anbelangt, beinahe überfordert sind.
Aussagekräftiger sind tatsächlich seine Taten, seine Reden jedoch nicht weniger lehrreich. Auch hier wird der Leser durch die ansprechenden Taten, die im Text geschildert
werden, fasziniert und gefesselt, nicht durch seine langatmige Ausdrucksweise.
6.9
Immanuel Kant – Epistemologische Motivation einer Vernunftskritik
6.9.1 Das Problem der Metaphysik
Zu Kants Zeiten scheint die Metaphysik in eine ausweglose Situation geraten zu sein:
Die Vernunft kann gewisse Fragen einerseits nicht abweisen, denn sie werden von der
Vernunft unabweislich selbst gestellt. Andererseits übersteigen diese Fragen das menschliche Vernunftsvermögen. Da sie auch jegliche Erfahrung übersteigen (transzendieren),
können mögliche Antworten durch die Vernunft nicht hinreichend geprüft werden.
Die Vernunft muss also etwas können, was sie eigentlich nicht kann. Die beiden großen
philosophischen Richtungen Rationalismus und Empirismus stellen unvereinbare Lösungsansätze dar, die die Metaphysik zu einem »Kampfplatz« machen, auf dem keine Sicherheit gewonnen werden kann.
6.9.2 Kants erkenntnistheoretischer Ansatz
Kant steht also vor diesen drei Problemen: Die Unzulänglichkeit und die Bedürftigkeit
der menschlichen Vernunft und die Unversöhnlichkeit möglicher Lösungsansätze. Da
sämtliche metaphysische Überlegungen der Vernunft entspringen und sie dennoch zu
Widersprüchen führen, müssen Fehler im reinen Vernunftsgebrauch begangen worden
sein.
Kritik der Vernunft Daher sieht Kant die einzige Lösung, den »Kampfplatz« zu
befrieden, darin, einen Gerichtshof der Vernunft einzurichten, eine »Kritik der (reinen)
Vernunft«. Hierbei ist Kritik in Sinne »Unterscheidung« bzw. »Beurteilung« zu verstehen.
Der Genitiv kann einmal subjektiv (Kritik durch die Vernunft) als auch objektiv (Kritik
an der Vernunft) verstanden werden. Die Vernunft ist in Kants Konzept also zugleich
Richter als auch Angeklagter.
Kant hofft, dass, wenn eine genaue Kenntnis über die Prinzipien der Vernunft selbst
vorliegt, entweder die Unzulänglichkeit begründet oder die vermeintlichen Widersprüche
gelöst werden können.
Kopernikanische Wende und Transzendentalphilosophie Kant wagt ein Gedankenexperiment: Man nehme an, dass sich nicht die Erkenntnis nach dem zu erkennenden
133
6 Eine philosophische Analyse der Liebe
Gegenstande richtet, sondern der erkannte Gegenstand nach der Erkenntnis. Es wird
sich zeigen, dass sich diese Annahme durch Erfolg rechtfertigt. Nun muss man aber
unterscheiden zwischen dem Ding an sich und dem Ding als Erscheinung (erkannter
Gegenstand).
Kants Interesse gilt nun der Untersuchung, wie der Gegenstand erkannt wird, wie also
die Wirklichkeit als Erscheinung innerhalb unseres Erkenntnisvermögens konstruiert
wird. Diese Prinzipien der Wahrnehmung bedingen eine empirische Erkenntnis, sind
aber von ihr unabhängig. Eine Analyse der Bedingungen der Möglichkeit von Erfahrung
nennt Kant »Transzendentalphilosophie«.
6.9.3 Kants Terminologie
A priori und a posteriori Kant unterscheidet zwei grundlegende Erkenntnisarten:
Solche, die die Vernunft gänzlich aus sich selbst hervorbringt (»a priori«) und solche,
die auf Erfahrung fußen (»a posteriori«).
Apriorische Erkenntnisse zeichnen sich durch notwendige Allgemeinheit aus, während
empirische Erkenntnisse lediglich aussagen, dass ein bestimmter Sachverhalt gilt (es ist
nur komparative Allgemeinheit durch Induktion möglich).
Mathematische Sätze wie z. B. der Satz »Die kürzeste Entfernung zweier Punkte ist die
gerade Linie.« gelten notwendigerweise, da sie durch reine Verstandesarbeit verifizierbar
sind.
Analytische und synthetische Urteile Unter einem Urteil versteht Kant einen Satz, in
dem ein logisches Prädikat von einem Begriff ausgesagt wird. Hier kann man unterscheiden zwischen analytischen und synthetischen Urteilen.
Während analytische Urteile einen Begriff lediglich zergliedern, ordnen synthetische
Urteile einem Begriff ein völlig neues Prädikat zu. Die Verknüpfung (Synthesis) ist also
neu, mithin erkenntniserweiternd.
Analytische Urteile können nur apriorisch sein, da eine Begriffzergliederung reine
Verstandesarbeit ist. Synthetische Urteile müssen sich neben dem Begriff auf noch etwas
anderes X stützen. Für synthetische Urteile a posteriori ist X die Erfahrung. Kant zufolge
gibt es aber auch synthetische Urteile a priori. Hier muss das für das Urteil zusätzlich
erforderliche X einer anderen Quelle als der Erfahrung entspringen, nämlich aus der
Vernunft selbst.
Ziel ist es also, die Erkenntnis unabhängig von Erfahrung zu erweitern. Dies ist
entscheidend, wenn man die Metaphysik, nämlich als eine die Erfahrung übersteigende
Erkenntniserweiterung, als ernstzunehmende Wissenschaft ansehen möchte. Das für
diese Erkenntniserweiterung notwendige X (siehe oben) muss aus der Vernunft selbst
hervorgehen.
134
6.10 Literaturverzeichnis
6.10
Literaturverzeichnis
[1] Manuwal, Bernd: Oidipus und Adrastos. Bemerkungen zur neueren Diskussion um die
Schuldfrage in Sophokles’ »König Oidipus«. In: Rheinisches Museum für Philologie. Neue
Folge Nr. 135 1992, 1–43.
[2] Rumpf, Lorenz: Unvermeidbare Schuld. Zur Debatte um Sophokles’ König Ödipus. In:
Antike und Abendland Nr. 49 2003, 37–57.
135
7
Kursübergreifende Aktivitäten
7.1
Schloss Clemenswerth
Die Anlage Das barocke Schloss Clemenswerth wurde von Herzog Clemens August
in Auftrag gegeben, der im Laufe seines Lebens drei Mal dort war – jeweils einige
Tage bis wenige Wochen, in denen er im umliegenden Wald jagte. Die Anlage trägt
den Beinamen »Stern im Emsland«, da sie tatsächlich wie ein mehrstrahliger Stern
aufgebaut ist. Im Zentrum befindet sich das Wohnschloss Clemens August, von dem
in acht Richtungen gerade Alleen in den Wald führen. Weitere Häuser, in denen die
Begleiter des Herzogs untergebracht waren, stehen im Kreis darum angeordnet zwischen
den Alleen. Interessanterweise sind die Fenster des Haupthauses so angeordnet, dass
durch sie die Alleen, aber nicht die anderen Gebäude zu sehen sind.
Die Innenarchitektur, das typische Rocaille, umfasst Stuckverzierungen an Wand und
Decke, bei denen meist symmetrische Muster wiederholt werden. Oft sind darin die
Initialen des Herzogs, C.A., zu sehen. Auch bunt gemusterte Seidentapeten wurden
häufig verwendet.
Kunstworkshop: Rocaille Fauxpas Inspiriert vom Rocaille des Schlosses war in einem
der Nebenhäuser eine Ausstellung von einigen Künstlern zu sehen, die Elemente des
Rocaille in ihre Kunst aufgenommen haben. Wir teilten uns in fünf Gruppen auf, in
denen wir uns mit jeweils einem der Künstler auseinandersetzten. Danach stellte jede
Gruppe die Ergebnisse vor: die Art des Kunstwerks, die Technik, Zielsetzung des
Künstlers und Beschreibung seiner Kunst. Als Zusatzaufgabe war jeweils ein von dem
zugeteilten Künstler inspiriertes, eigenes Werk zu gestalten. Zur Verfügung standen
jedoch nur gelbes Papier, Schere, Stift und eine Postkarte mit dem Bild einer verzierten
Suppenschüssel, die aber mit großem Erfindungsgeist eingesetzt wurden.
Im Anschluss an den Kunstworkshop hatten wir noch eine Stunde Zeit, um an
kurzen Führungen durch die einzelnen Gebäude teilzunehmen oder uns einfach nur die
Exponate anzuschauen. Der Ausflug endete um halb fünf am Haupthaus der HÖB.
7.2
Gewaltverherrlichende Spiele auf der Akademie?
Alles begann in einem kleinen italienischen Bergdorf namens Papenburg; es war ein
friedlicher Freitag Nachmittag, an dem sich viele begeisterte junge Leute auf der Akademie trafen. Niemand ahnte, dass diese Begeisterung schon am Abend desselben Tages
die ersten Opfer blutig zerfleischen und die Köpfe anderer rollen lassen würde.
136
7.2 Gewaltverherrlichende Spiele auf der Akademie?
Werwolf ist ein Diskussions-Psychologie-Rate-Spiel (je nach Person in unterschiedlich
gewichteten Anteilen), bei dem jeder in der Spielrunde von bis zu 20 Leuten eine
Rolle zugeteilt bekommt. Während die Dorfbewohner allnächtlich schlafen, sind es die
Werwölfe, welche erstere blutrünstig ermorden. Am nächsten Morgen, nachdem auch die
Hexe und der Seher ihr Werk getan haben, müssen die Bürger nun stets einen der Ihren
anklagen; ob es ein unschuldiges Opfer ist oder sich doch eine überdurchschnittliche
Behaarung feststellen lässt, wird erst bei der Verbrennung auf dem Scheiterhaufen
deutlich. Dies wiederholt sich – wie erwartet man es auch anders in einem italienischen
Bergdorf – jede Nacht und jeden Tag, bis das Dorf ausgerottet oder die Werwölfe
ausgemerzt werden.
Viele fanden solches Gefallen an dem Spiel Werwolf, dass bis zum Ende der Akademie
stets mindestens eine Gruppe vorzufinden war, welche entweder im großen Seminarraum
oder im Wintergarten in den späten Abendstunden noch nach Werwölfen in ihren Reihen
suchte. Manchmal, so wurde überliefert, gingen dort übernatürliche Persönlichkeiten,
wohl besser bekannt als Lena und Dina, um, welche aus unerklärlichen Gründen die
Werwölfe nach einer gründlichen Musterung erkannten und entlarvten; so gab es auch
manch schnelle Runde. Zugegebenermaßen war es jedoch bei einigen der Dorfbewohner
nicht schwierig; so konnte man sich fast sicher sein, dass Sina in dieser, wie auch der
letzten sowie der nächsten Runde ein Werwolf ist, war und sein wird. Kurioserweise war
sie jedoch meist nicht das erste Opfer; diese Rolle nahmen Joscha und Thomas immer
gerne ein.
Manch anderes Mal gab es Hexen, welche trotz ihrer kursleitenden Funktion vergaßen
aufzuwachen, aber auch andere, welche sich durch Murmeln während des Tränkebrauens
verrieten oder sogar darüber einschliefen. Während einer anderen Nacht verbreitete das
rätselhafte Auftauchen eines Plastikhasens an der Fensterscheibe Unbehagen. . . Wer das
wohl war? Ein Philosoph vielleicht? Ein Musiker? Beide?
Diese Fragen beschäftigten manche noch, als nach einigen Tagen auf der Akademie
das Morden noch größere und allumfassendere Ausmaße annahm; das Mörderspiel
wurde gestartet. Nach einer »Proberunde« begann die Paranoia am Dienstag Abend;
Gegenstände wurden auf Tische gelegt anstatt direkt übergeben zu werden, Zeugen
wurden herbeigerufen, damit man nicht etwas nahm und sich mit einem leisen »Du
bist tot« in die ewigen Jagdgründe verabschieden musste. Auch wenn viele ihre einzeln
zugewiesenen Opfer nur wenig kannten, mussten gerade zum Ende der Akademie hin
noch einige Tote betrauert werden. Gerüchten zufolge sollen zwei Personen sogar jeweils
vier andere in den Tod mitgenommen haben.
Bei einer derartigen Blutrünstigkeit, wie sie auf der Akademie zu beobachten war,
kann man sich nicht sicher sein, ob sich diese Mentalität nicht dauerhaft in die Persönlichkeit der Mörder eingebrannt hat. Lasst uns also hoffen, dass diese abartige Gewalt
nicht in die nächsten Akademien Einzug findet, denn wie wir aus immer wieder auftretenden Diskussionen wissen: Gewaltverherrlichende Spiele schädigen die sozialen
Kompetenzen!
137
7 Kursübergreifende Aktivitäten
Abbildung 7.1: Der große Chor beim Akademiekonzert.
7.3
Theater
Die Schauspielerei gehörte zu den Leidenschaften von einigen unter uns. Deshalb trafen
wir uns an mehreren Abenden um dieser Leidenschaft gemeinsam nachzugehen. Doch
es war kein Theaterstück vorhanden, das wir in so kurzer Zeit hätten einstudieren
können, ohne das Einstudieren der Texte und längere Proben zu unserer Hauptfreizeitbeschäftigungen zu machen. Deshalb griffen wir besonders aus Zeitgründen auf die
Improvisation zurück. Mit viel Kreativität, Lust und Laune spielten wir Szenen aller Art.
Vom Zeitlupenkampf bis zum Rollenspiel schlüpften wir in die verschiedensten Rollen:
Vom Arzt bis zum Paranoiden. Es gab immer viel zu lachen und es gab auch immer
Personen, die nur zum Zuschauen an unseren Proben teilnahmen und selber viel lachten.
Für uns war es eine großartige Möglichkeit aus dem Kursalltag herauszukommen, uns
ein wenig zu entspannen und uns kennen zu lernen. Wir hatten alle viel Spaß. Für den
bunten Abend bereiteten wir kleine Impro-Szenen vor, um unser Publikum auch so viel
Gefallen an den Szenen finden zu lassen, wie wir es bei den Proben hatten.
7.4
Tanzen – Für Anfänger und Fortgeschrittene
Schon bevor die Akademie überhaupt begonnen hatte, wurde im Forum fleißig über
eine Tanzgruppe als Freizeitaktivität diskutiert. Viele Akademieteilnehmer freuten sich
ihre tänzerischen Fähigkeiten zu verbessern oder sich ihre ersten Tanzschritte zeigen zu
lassen. Und so trafen sich dann alle Tanzinteressierten am dritten Tag in unserem großen
138
7.4 Tanzen – Für Anfänger und Fortgeschrittene
Seminarraum. Zu dem Zeitpunkt sind wir noch von ungefähr 12 Leuten ausgegangen,
doch was uns dann erwartete war erstaunlich. Der große Saal füllte sich langsam und
kam uns dann ganz schön klein vor. Wir begannen also unsere erste Tanzstunde ca. mit
12 Paaren.
Zu Beginn widmeten wir uns dem Paso Doble, der noch allen Teilnehmern unbekannt
war. Dieser Tanz soll einen Stierkampf darstellen bei dem der Mann den Torero und
die Dame sein rotes Tuch darstellt. Mit dem Cha Cha kam der zweite Lateintanz hinzu,
der für ein kleines Chaos auf der Fläche sorgte, bei dem aber zum Glück keiner verletzt
wurde. Als letzten Tanz an diesem Tag versuchten sich alle an dem langsamen Walzer
um auf der nächsten Feier auch richtig vorbereitet zu sein. Wir wirbelten durch den
Raum und danach direkt in die Mensa zu Kaffee und Kuchen.
Weil es allen so gut gefallen hatte, trafen wir uns gleich am nächsten Tag noch einmal.
Dort erarbeiteten wir uns eine kleine Paso-Folge, den Tango und entdeckten die vielen
Drehungen, die man in einem Disco Fox so unterbringen kann.
Bei den nächsten Terminen schrumpfte unsere Gruppe ein wenig zusammen, da gegen
Ende der Akademie noch einmal viel Arbeit für alle angefallen war. Jedoch traf sich
der »harte Kern« immer noch und schaute mal bei anderen Tanzstilen vorbei. So zum
Beispiel beim Rock’n Roll, der uns alle doch mächtig aus der Puste brachte. Danach
widmeten wir uns einem sehr leidenschaftlichen Tanz, dem Salsa. Nachdem sich einige
weitere Teilnehmer bereit erklärt hatten etwas zum Kurs beizutragen, kam gegen Ende
noch eine kleine Hip Hop-Einheit, die allen großen Spaß bereitete.
Und da wir alle vom Tanzen nicht genug bekommen konnten, entwickelten wir ein
kleines Programm für den »Bunten Abend«, an dem wir unsere Arbeit präsentierten.
139
Herunterladen