JGW-SchülerAkademie Papenburg 2011 Jugendbildung in Gesellschaft und Wissenschaft e. V. Mit freundlicher Unterstützung von der Bildung & Begabung gemeinnützigen GmbH, Bonn. JGW e. V. bedankt sich herzlich bei den Förderern, von denen die Durchführung der JGW-SchülerAkademie Papenburg 2011 unterstützt wurde: Privatspenden: – Kai Beckhaus – Dr. Peter Breckle – Sylvia Dietrich – Michael Margraf – Anja Rittmann-Berneiser – Hans-Peter Tiele – Rüdiger und Barbara Schmolke – Christa Wahl – Stefan Wolf Firmenspenden: – Private Universität Witten/Herdecke gGmbH – Konradin Medien GmbH (Leinfelden-Echterdingen) – SFB 593 (Sprecher Prof. Dr. Roland Lill) der Deutschen Forschungsgemeinschaft Die in dieser Dokumentation enthaltenen Texte wurden von den Kursleitern und Teilnehmern der JGW-SchülerAkademie Papenburg 2011 erstellt. Die Autoren der einzelnen Texte sind JGW e. V. bekannt, wurden aber aus datenschutzrechtlichen Gründen entfernt. Bei allgemeinen Personen- oder Berufsbezeichnungen sind stets Personen männlichen und weiblichen Geschlechts gleichermaßen gemeint;aus Gründen der Vereinfachung wird teilweise nur die gemeinsame Form, die der männlichen gleicht, verwendet. Redaktion: JGW-Dokuteam Endredaktion: Stefan Fechter Dieses Dokument wurde mit Hilfe von LATEX gesetzt. Als Hauptschriften wurden die Linotype Palatino von Hermann Zapf und die Mathpazo von Diego Puga verwendet. Druck und Bindung: K&K Copy Druck Service, Heidelberg c 2012 JGW e. V., Berlin. Alle Rechte vorbehalten. Copyright ! »Bildung beginnt mit Neugierde.«1 Neue Ereignisse, bei denen man nicht genau weiß, was einen erwartet, werden oft begleitet von einem Gefühl der Unsicherheit und leichten Nervosität, gepaart mit großer Vorfreude, Begeisterung und Neugierde. Die JGW-SchülerAkademie Papenburg 2011 gehörte für die meisten von uns sicherlich zu dieser Art von Ereignissen. Wir als Akademieleitung haben uns gefragt, ob »Vorfreude« nicht vielleicht noch untertrieben war, wenn die Motivation sogar so weit reichte, dass sich einzelne Teilnehmende noch wenige Tage oder sogar Stunden vor der Akademie spontan für die Teilnahme entschieden, wenn noch ein Platz frei geworden war. Bei der Ankunft der 93 Teilnehmenden in der Historisch-Ökologischen Bildungsstätte Papenburg – kurz HÖB – konnten wir als Akademieleitung diese Mischung von Unsicherheit und gleichzeitiger Vorfreude in vielen Augen wiedererkennen. Doch nach einem Jahr Vorbereitungszeit waren auch wir mindestens genauso gespannt, was die folgenden zehn Tage mit sich bringen würden und wie aus 108 Personen, aus dem In- und teilweise auch Ausland, eine so verbundene Gruppe entsteht. Die Neugierde war bei allen Beteiligten groß und schnell wurde klar, wie sehr jeder der sechs sehr verschiedenen Kurse auf seine eigene Art und Weise die Gelegenheit bot, dieser Neugierde nach zu kommen. Während sich der Mathematik-Kurs mit systemtheoretischen Fragestellungen auseinandersetzte, darunter vor allem der Frage, was eigentlich dynamische Systeme charakterisiert und wie sie sich optimieren lassen, untersuchten die Biologen – unter anderem anhand vieler Experimente – verschiedene Mikroorganismen und deren Einsatz in der Biotechnologie. Um die neurobiologischen Grundlagen des Gedächtnisses zu erfassen widmete sich der neurobiologische Kurs zunächst den verschiedenen Arten des Gedächtnisses, bevor konkrete Fallbeispiele, Tiermodelle und Schlussfolgerungen für das eigene Lernen besprochen wurden. Nach Diskussion der molekularen Ursachen von Krebs und dem Erfassen von Tumoren verschiedener Organsysteme behandelte der Onkologie-Kurs die klassischen Therapien und ihre Wirkweisen. Ausgehend von den Fragestellungen, welche Bedeutung Erinnern und Vergessen für die Geschichtswissenschaft haben und ob es eine »objektive Geschichte« gibt, wurden im zweiten Teil des Geschichtskurses verschiedene Konzeptionen von Erinnern und Vergessen erörtert. Der Philosophie-Kurs erarbeitete mit einer breit gefächerten Auswahl antiker Texte eine »Philosophie der Liebe«, um diese abschließend anhand einiger Dramen auf ihre Tragfähigkeit hin zu überprüfen. Aber nicht nur innerhalb der Kurse zeigte sich, wie sehr die Kursinhalte alle Beteiligten beschäftigten. Sei es während der Mahlzeiten, in den Kurspausen oder in der Freizeit – immer wieder wurde kontrovers und kritisch hinterfragend diskutiert. Bei der Rotation gab es dann auch die Möglichkeit sich intensiver über die Inhalte der anderen Kurse auszutauschen. Sehr schön wurde dies in einem häufig gehörten Kommentar zusammengefasst: »Es war wirklich spannend, einen Einblick in die anderen Kurse zu erhalten, aber ich weiß trotzdem, dass ich für mich genau den richtigen Kurs gewählt habe«. 1 Peter Bieri, geb. 1944, Philosophieprofessor und Autor, in: ZEITmagazin Leben, 02. 08. 2007 Nr. 32 3 Die Akademie bestand jedoch nicht nur aus Kursarbeit: In der kursfreien Zeit gab es ein vielfältiges Angebot an kursübergreifenden Aktivitäten. Bei der Vielzahl der Aktivitäten fiel die Entscheidung nie leicht, ob man nun zur abendlichen WerwolfRunde, zum Tanzen, zum (Improvisations-)Theater oder zum Ballsport in die Turnhalle gehen sollte. Außerdem lud das Ruderboot zu Fahrten auf dem See und der Tischkicker zu zahlreichen Duellen ein. Alternativ traf man sich im Kaminzimmer oder in den Wintergärten um zu reden, Karten zu spielen oder am Literaturabend teilzunehmen. Beim Ausflugstag teilten wir uns in drei Gruppen auf. Während die Teilnehmenden der Moorführung im Rahmen einer Fahrradtour viele Informationen über die Beschaffenheit und Besiedlungsgeschichte des Papenburger Hochmoores erfuhren, galt es bei der Führung für moderne Kunst im Schloss Clemenswert selbst aktiv zu werden. So folgte nach einer intensiven Auseinandersetzung mit einem gruppenweisen ausgesuchten Künstler und ausgehend von dieser Inspiration die Gestaltung eines eigenen Werkes. Außerdem durfte natürlich auch die Meyer-Werft nicht fehlen, bei der es gewaltige Kreuzfahrtschiffe zu sehen gab. Abgerundet wurde das kursübergreifende Programm durch Kerrys vielfältige musikalische Angebote, bestehend unter anderem aus einem großen Chor, einem Kammerchor, einem Klosterchor und einem Orchester, die ihre Fertigkeiten abschließend in einem sehr beeindruckenden Konzert präsentierten. Voller neuer Begegnungen, Erfahrungen und intensiver gemeinsamer Eindrücke fiel es schwer, den Koffer zu packen und wieder Richtung Heimat zu fahren. Die Abschiedsszenen zeigten deutlich, wie sehr allen die SchülerAkademie gefallen hat, wie innerhalb der kurzen Zeit eine sehr verbundene Gruppe entstanden ist und dass die SchülerAkademie wohl noch lange in Erinnerung behalten wird. So überrascht es auch nicht, dass direkt die Planung für erste Nachtreffen begann. Liebe Teilnehmende, es hat uns viel Freude bereitet, diese Akademie mit euch interessierten und aufgeschlossenen Menschen zu verbringen. Gestaltet eure Zukunft, macht etwas aus eurem Talent und vor allem: Bewahrt euch eure Neugierde, es gibt noch so viel zu entdecken! 4 Dank Jede Veranstaltung kann nur durch das intensive Engagement aller Helfer und Mitstreiter gelingen. Daher möchten wir uns bei allen bedanken, ohne die die JGW-SchülerAkademie Papenburg 2011 in dieser Form nicht möglich gewesen wäre. Unser ganz besonderer Dank geht an das gesamte JGW-SchülerAkademie-Team: an Nina Dengg, Stefan Fechter, Philipp Möller, Maike Speck, Friederike Trimborn, Caroline Wacker, Ricarda Wagner, Johannes Waldschütz, Christiane Weiler und Jan Thorben Wilkens. Die Planung, die bereits ein Jahr zuvor begann, umfasste unter anderem das Anwerben und die Betreuung von Kursleitenden, den Kontakt zu den Teilnehmenden, die Abwicklung der Finanzierung, die Sponsorensuche, die Organisation der Homepage, die Ausflugsplanung, die Nachbereitung dieser Dokumentation und vieles mehr. Auch allen Kursleiterinnen und Kursleitern möchten wir einen großen Dank aussprechen: Vera und Mathias, Andrea und Philip, Isabell und Juliane, Johanna und Wiebke, Andreas und Johannes, Ricarda und Björn, ihr habt die Kurse sehr gewissenhaft, ansprechend und kreativ vorbereitet und durchgeführt, so dass die Teilnehmenden sich mit großer Begeisterung in den Kursen engagierten. Es war eine Freude das Akademieleitungsbüro in einer geschäftig-gemütlichen Atmosphäre mit euch zu teilen. Für das sehr vielseitige musikalische Programm möchten wir uns bei Kerry bedanken, der es geschafft hat, über die Hälfte aller Beteiligten zur Teilnahme in einem der Chöre oder Orchester zu motivieren. Ebenso möchten wir uns herzlich bei den Mitarbeiterinnen und Mitarbeitern der Historisch-Ökologischen Bildungsstätte Papenburg bedanken. Das Essen war stets köstlich, die Räumlichkeiten ließen nie Wünsche offen und wir hatten das Gefühl, dass uns jeder Wunsch von den Augen abgelesen wurde. Unser ganz besonderer Dank geht an unsere Ansprechpartnerin, an das immer hilfsbereite und sehr zuvorkommende Team aus Hausmeistern und Zivildienstleistenden sowie an die Hauswirtschaft für die tolle Rundum-Versorgung. Vor Ort wart vor allem ihr es, liebe Teilnehmende, die die Akademie gestaltet habt, die intensiv und motiviert in den Kursen mitgearbeitet und kursübergreifende Aktivitäten ins Leben gerufen habt. Für euren Einsatz und eure Motivation, durch die diese JGW-SchülerAkademie zu einem solch großartigen und unvergesslichen Erlebnis wurde, möchten wir euch herzlich danken! Andrea Müller Jan Brockhaus Akademieleitung 5 GESUNDHEIT WIRTSCHAFT KULTUR Perspektiven. Wechsel! www.uni-wh.de/schnuppertag um Jetzt z llen e u d i v i ind rtag e p p u n h Sc n! anmelde Die Teilnehmerinnen und Teilnehmer der JGW-SchülerAkademie Papenburg 2011. Inhaltsverzeichnis 1 Dynamische Systeme auf dem optimalen Weg · 11 2 Biotechnologie im Alltag · 31 3 Auf der Suche nach dem Gedächtnis · 51 4 Onkologie · 73 5 Gedenken oder Vergessen? · 97 6 Eine philosophische Analyse der Liebe · 121 7 Kursübergreifende Aktivitäten · 136 9 10 1 Dynamische Systeme auf dem optimalen Weg 1.1 Einleitung Mathias Linden und Vera Schemann Dynamische Systeme finden sich an vielen Stellen im alltäglichen Leben und der Versuch, sie auf einen optimalen Weg zu bringen, beschäftigt ständig mehr Menschen. Mathematisch gesehen bildet die Theorie der dynamischen Systeme die Grundlage für viele weitere Forschungsgebiete – unter anderem der optimalen Steuerung und der Modellreduktion. Im Kurs wurde – aufbauend auf einige Grundlagen – ein Bogen gespannt von einer Einführung in die Systemtheorie über die optimale Steuerung bis hin zur Modellreduktion. Diese behandelte Vielfalt soll auch durch die folgende Kursdokumentation widergespiegelt werden. 1.2 Komplexe Zahlen Die komplexen Zahlen C erweitern in der Mathematik den Zahlenbereich der reellen Zahlen R und ermöglichen, dass die folgende Gleichung lösbar wird: x2 + 1 = 0 |−1 √ x 2 = −1 | √ x1,2 = ± −1. Die Wurzel aus einer negativen Zahl konnte nur gezogen werden, weil eine neue Zahl √ eingeführt wurde. Diese Zahl heißt i und hat die Eigenschaft i := −1, sie wird als imaginäre Einheit bezeichnet. Im Allgemeinen haben sich zwei unterschiedliche Notationen für die komplexen Zahlen durchgesetzt, die kartesische Form z = a+i·b und die polare Form z = r · (cos(φ) + i sin(φ)), r ∈ R. Wobei a und b sowie r und φ reelle Zahlen sind und i die imaginäre Einheit ist. a wird als »Realteil« und b als »Imaginärteil« von a + b · i = z bezeichnet. Sollen zwei komplexe Zahlen a + b · i und c + d · i addiert werden, so gilt: ( a + ib) + (c + id) = ( a + c) + i (b + d). 11 1 Dynamische Systeme auf dem optimalen Weg Sollen zwei komplexe Zahlen multipliziert werden, so gilt: ( a + ib) · (c + id) = ( ac − bd) + i ( ad + bc). Der Betrag der komplexen Zahlen stimmt mit der Länge ihres Vektors überein: | z | = a2 + b2 . In Polarkoordinaten ist der der Betrag gleich der Zahl r. Matrizen 1.3 Matrizen werden als Rechteckschema von Zahlen dargestellt. Eine Matrix A hat die Form: a1,1 .. A= . am,1 · · · a1,n .. , .. . . · · · am,n A ∈ R m×n . Die Matrix benutzt man zum Beispiel als Koeffizientenmatrix, um ein lineares Gleichungssystem (Ax = y) darzustellen. Man kann zudem mit ihr verschiedene Abläufe in einem System darstellen. Die Zahlen oder Funktionen in den Zeilen und Spalten heißen Elemente. Matrizen bezeichnet man oft mit Großbuchstaben (A, B, C, . . . ). Wenn A und B zwei Matrizen mit der gleichen Anzahl an Spalten und Zeilen sind, kann man sie addieren und zu einer neuen Matrix C zusammenfassen, indem man die jeweils entsprechenden Elemente addiert. ' a1,1 a1,2 a2,1 a2,2 ( + ' b1,1 b1,2 b2,1 b2,2 ( = ' a1,1 + b1,1 a1,2 + b1,2 a2,1 + b2,1 a2,2 + b2,2 ( = ' c1,1 c1,2 c2,1 c2,2 ( Man kann auch das Produkt der Matrizen A und B berechnen. Wichtig ist hier, dass die Anzahl der Spalten von A gleich der Anzahl der Zeilen von B ist, da man bei der Multiplikation von Matrizen jeweils die Zeilen mit den Spalten multipliziert. ( b1,1 b1,2 · b2,1 b2,2 = b3,1 b3,2 ' a1,1 a1,2 a1,3 a2,1 a2,2 a2,3 ' a1,1 · b1,1 + a1,2 · b2,1 + a1,3 · b3,1 a1,1 · b1,2 + a1,2 · b2,2 + a1,3 · b3,2 a2,1 · b1,1 + a2,2 · b2,1 + a2,3 · b3,1 a2,1 · b1,2 + a2,2 · b2,2 + a2,3 · b3,2 ( In einer Einheitsmatrix I sind alle Elemente auf der Hauptdiagonalen 1. Die restlichen 12 1.3 Matrizen Elemente sind gleich 0. Somit ist I · b = b, 1 0 0 I = 0 1 0 . 0 0 1 Wenn A · B = B · A = I dann ist B die Inverse von A. Man schreibt: B = A −1 . Zudem gilt: A · A−1 = I = A−1 · A. Um die Inverse einer Matrix bestimmen zu können müssen verschiedene Voraussetzungen gelten. Zum Beispiel muss die Determinante der Matrix ungleich null sein. Dies ist eine spezielle Funktion, die einer quadratischen Matrix ein Skalar zuordnet. A= ' a b c d ( , det( A) = ad − bc. Bei der Transponierten werden Zeilen und Spalten einer Matrix vertauscht. So wird eine m × n Matrix zu einer n × m Matrix. So ist die Transponierte zu 1 4 AT = 2 5 3 6 A= ' 1 2 3 4 5 6 ( . Ferner gilt ( A T ) T = A und (r · A) T = A T · r , r ∈ R. Ein Skalarprodukt ist eine Abbildung zweier Vektoren auf die reellen Zahlen. Es entsteht durch die Multiplikation der entsprechenden Elemente der Vektoren x und y. Ein Skalarprodukt ist nur möglich, wenn die Anzahl der Zeilen beider Vektoren gleich ist. & x, y' = x1 · y1 + x2 · y2 + · · · + xn · yn Wenn man die Transponierte eines Vektors (Matrix mit einer Spalte) mit einem anderen Vektor multipliziert erhält man das Skalarprodukt beider. x T · y = & x, y' , x, y ∈ R n 13 1 Dynamische Systeme auf dem optimalen Weg 1.4 Eigenwerte und Eigenvektoren Komplexere mathematische Rechnungen mit verhältnismäßig großen Matrizen gestalten sich schwierig. Für das Modellieren und die Berechnung sowie die Steuerung dynamischer Systeme sind diese jedoch unabdingbar. Ein wichtiges Hilfsmittel bei der Berechnung von Matrizen stellen die Eigenwerte und Eigenvektoren von Matrizen dar. Durch die Matrizenmultiplikation einer beliebigen Matrix A ∈ R n×m mit einem Vektor !x ∈ R m entsteht ein Vektor !xneu ∈ R n . Es können zu einer Matrix A ∈ R n×n nun Skalare λi ∈ R, 1 ≤ i ≤ n gefunden werden, so dass für die Gleichung A · !xi = λi · !xi , außer !xi = !0 noch weitere Lösungen existieren. Die aus der Gleichung hervorgehenden Vektoren !xi ∈ R n werden als die Eigenvektoren der Matrix A bezeichnet, während die Menge der λi die Eigenwerte von A bilden. Zu jeder Matrix A existieren maximal n verschiedene Eigenwerte. Da der Vektor !xi auf beiden Seiten der Gleichung mit einem beliebigen Skalar multipliziert werden kann, ohne die Eigenwerte zu beeinflussen, existiert zu jedem Eigenwert eine unbegrenzte Anzahl an Eigenvektoren. Da jeder dieser Vektoren durch alle anderen Vektoren mit Hilfe der Multiplikation eines weiteren Skalars dargestellt werden kann, können maximal n linear unabhängige Eigenvektoren existieren. Lineare Unabhängigkeit einer Menge von n Vektoren ist gegeben, falls die Gleichung c1 · x!1 + c2 · x!2 + · · · + cn · x!n = !0 ausschließlich die Lösung ci = 0 ∀i hat. Keiner dieser Vektoren kann in diesem Fall durch die Summe einer beliebigen Anzahl aus Vielfachen der anderen Vektoren dargestellt werden. Um die Eigenwerte und im Folgenden mögliche Eigenvektoren zu berechnen, können alle λi durch Lösen der folgenden Gleichung berechnet werden: det ( A − λ · I ) = 0. Die so erhaltenen Eigenwerte setzen wir in eine Umformung der oben beschriebenen Gleichung ein: ( A − λ · I ) · !x = !0, wobei I hier die Einheitsmatrix beschreibt. Dieses lineare Gleichungssystem kann nun gelöst werden, so dass konkrete Werte für die Komponenten von !x ermittelt werden können. Um Berechnungen mit diesen spezifischen Matrizeneigenschaften durchzuführen, überführen wir die Eigenvektoren als Spalten in die Eigenvektormatrix S, während die jeweiligen Eigenwerte analog zu der Einheitsmatrix die Werte der Diagonalen der Eigenwertmatrix so bilden, dass Λii = λi . Durch die oben genannten Zusammenhänge gilt für eine beliebige Matrix A ∈ R n×n , solange die Gleichung A = SΛS−1 n linear unabhängige Eigenvektoren aufweist. Somit kann das entsprechende Produkt aus Eigenvektor- und Eigenwertmatrix für A eingesetzt werden. 14 1.5 Ableitungen von Funktionen im Raum Mit dieser Zerlegung wird das Berechnen einiger großer Gleichungen deutlich vereinfacht. Speziell bei dynamischen Systemen bieten sowohl Eigenvektormatrix als auch Eigenwertmatrix viele Vorteile, da die diagonale Struktur der Eigenwertmatrix verschiedene Rechnungen vereinfacht. Somit bilden Eigenwerte eine wichtige Technik in der Systemtheorie. 1.5 Ableitungen von Funktionen im Raum Der Gradient ist eine Rechenoperation, die auf eine Funktion von C n nach C angewendet werden kann und als Ergebnis ein Vektorfeld liefert. Dabei wird jedem Punkt ein Vektor zuordnet, welcher jeweils die Richtung und Stärke des steilsten Anstieges von diesem Punkt aus wiedergibt. Man kann eine Funktion, die von mehreren Variablen abhängt, nach jeder Variablen einzeln ableiten. Es gelten dabei die normalen Ableitungsregeln, wobei die Variablen, nach denen nicht abgeleitet wird, als konstant betrachtet werden. Dies nennt man partielle Ableitung. Es wird nun ein einfaches Beispiel angegeben: f ( x1 , x2 ) = sin x1 · sin x2 ∂ f ( x1 , x2 ) = cos x1 · sin x2 ∂x2 ∂2 f ( x1 , x2 ) = cos x1 · cos x2 ∂x1 ∂x2 Der Gradient ist nun die verkürzte Schreibweise aller partiellen Ableitungen einer Funktionen. Bei der Bildung des Gradienten eines Punktes in einem (Skalar-)Feld wird in jeder Richtung der Anstieg des Feldes in dieser Richtung im Ergebnisvektor wiedergegeben. 15 1 Dynamische Systeme auf dem optimalen Weg Das Formelzeichen, um den Gradienten zu bilden, wird Nabla-Operator genannt: ∇ f ( x ) = ∇ f ( x1 , x2 , · · · , x n ) = ∂ f (x) ∂x1 ∂ f (x) ∂x2 .. . ∂ f (x) ∂xn . Es wird also nach jeder einzelnen Achsenrichtung partiell abgeleitet und das Ergebnis wird in einem Vektor wiedergegeben. Man kann auch die zweite Ableitung einer Funktion bilden, indem man eine Matrix erstellt, in der man jede Richtung des Gradienten erneut nach jeder Variable ableitet. Die Summen-, Produkt- und Kettenregel kann man analog auf Funktionen im Raum anwenden. Mit Hilfe der Ableitung von Funktionen kann man z. B. Extremstellen in Feldern berechnen, da die Ableitungen nur bei Extremstellen !0 sind. Wenn man von einer Funktion zweimal ableitet, dann erhält man ein Maß für die Krümmung des Feldes in jedem Punkt. 1.6 Geschichte der Systemtheorie Da die Systemtheorie in vielen verschiedenen Bereichen wieder zu finden ist, kann man sie als ein interdisziplinäres Erkenntnismodell beschreiben, welches versucht verschiedene komplexe Phänomene zu beschreiben bzw. zu erklären. Allgemein gehen Systemtheorien von Systemen aus, die sich selber erhalten, wie zum Beispiel die Gesellschaft oder die Justiz. Handelt ein Individuum innerhalb eines dieser Systeme auf eine bestimmte Art und Weise, wird dies anhand seiner gesellschaftlichen Position und den daraus folgenden Zwängen erklärt. Weiterhin wird mit Hilfe von Struktur- und Funktionsanalyse versucht den weiteren Verlauf des Systems vorherzusagen. Systemtheorien lassen sich also in verschiedenen Fachbereichen wiederfinden. Zum einen natürlich in der Mathematik, aber auch in Bereichen wie Biologie, Chemie, Ethnologie, Informatik, Geographie etc. Der Begriff »Allgemeine Systemtheorie« wurde um 1950 von dem Biologen Ludwig von Bertalanffy (1901–1972) geprägt und steht im Zusammenhang mit der Kontrolltheorie, welche die Kommunikation, Steuerung und Regelung von lebenden, technischen und sozialen Systemen beschreibt. Um 1970 entstand der mathematische Zweig der Katastrophentheorie. Er befasst sich mit plötzlichen Veränderungen innerhalb eines Systems, die sich aus kleinen Impulsen ergeben. Ungefähr 10 Jahre später folgte die Chaostheorie: Eine Theorie von nichtlinearen, dynamischen Systemen, welche eine Reihe von Phänomen aufweisen, die man Chaos nennt. Ein bekanntes Beispiel dieser Theorie ist unter anderem der Schmetterlingseffekt. Der Grundgedanke hinter diesem Beispiel ist, dass allein eine marginale Veränderung innerhalb eines Systems (wie zum Beispiel das Auffliegen eines 16 1.7 Dynamische Systeme Schmetterlings) dramatische Folgen haben kann, beispielsweise das Entstehen eines Taifuns oder Tornados. Als letzter wichtiger chronologischer Eintrag im Bezug auf die Systemtheorie folgten die 1990 entstandenen »Komplexen adaptive Systeme«. Dabei handelt es sich um die Beschreibung von Emergenz, Anpassung und Selbstorganisation. Agenten und Computersimulationen werden hier genutzt, um soziale und komplexe Systeme zu erforschen. 1.7 Dynamische Systeme Dynamische Systeme sind mathematische Modelle, die zur Beschreibung von Prozessen dienen. Dabei wird die Veränderung des Zustands und des Ausgangs des Systems über die Zeit betrachtet. Solche Systeme werden in den unterschiedlichsten Gebieten zur Modellierung von Prozessen verwendet. Viele dieser Prozesse sind Beispiele aus der Mathematik, aber vor allem auch in der Physik und in der Biologie werden Vorgänge auf diese Art beschrieben. Beispiele sind die Bewegung eines Pendels, Klimamodelle oder die Entwicklung einer Population von Lebewesen. Dabei unterscheidet man zwischen offenen und geschlossenen Systemen. Geschlossene Systeme haben keinen Eingang, also keine Steuerung. Sie können von außen nicht beeinflusst werden und sind nur Relationen innerhalb des Systems unterworfen. Offene Systeme hingegen sind offen für Eingriffe von außen, die Einfluss auf das Fortschreiten des Prozesses nehmen. Im Folgenden werden solche Systeme mathematisch beschrieben. Wir behandeln dabei LTI-Systeme. LTI steht für »linear, time invariant«, was also bedeutet, dass diese Systeme linear sind und sich die Systemmatrizen über die Zeit nicht verändern. Des Weiteren beschränken wir uns auf Beschreibungen und Berechnungen von diskreten Systemen. Für solche Systeme lassen sich Zustand und Ausgang zu bestimmten Zeitpunkten im Abstand von gleichen Intervallen bestimmen. Es gibt auch kontinuierliche Systeme, bei denen die Berechnung dieser Werte kontinuierlich und eben nicht nur iterativ erfolgt. Mathematisch werden solche Systeme wie folgt dargestellt: Σ: ) x k +1 = A · x k + B · u k . yk = C · xk + D · uk Der Vektor xk ∈ R n beschreibt den Zustand des Systems zu einem Zeitpunkt k. In diesem Vektor sind alle Größen des Systems enthalten, die von Nöten sind um es vollständig zu beschreiben. Die Anzahl dieser Zustandsgrößen, in diesem Fall n, gibt die Dimension des Systems an. A ∈ R n×n ist die systemeigene Matrix, die die Relationen, die innerhalb des Systems auftreten, beschreibt. Sie wird auch als Dynamik des Systems bezeichnet. uk ∈ R m ist ein Vektor der den Eingang oder die Steuerung des Systems beschreibt, wobei die Matrix B ∈ R n×m die Relation wiedergibt. yk ∈ R p wird als Ausgang bezeichnet und mit 17 1 Dynamische Systeme auf dem optimalen Weg Hilfe der weiteren Systemmatrizen C ∈ R p×n und D ∈ R p×m berechnet. Eine übliche Bezeichnung lautet wie folgt: Σ= ' A B C D ( . Für die Berechnung eines beliebigen Zustandes Φ lässt sich auch eine analytische Lösung der Zustandsgleichung formulieren. Dabei wird der Ausgang des Systems außer Acht gelassen. Diese Gleichung lautet wie folgt: Φ(u; x0 ; t) := At−t0 · x0 + t −1 ∑ A t −1− j · B · u ( j ) , j = t0 t ≥ t0 . Das heißt Φ(u; x0 ; t) ist der Zustand, der mit der Steuerung bzw. den Eingängen u vom Startzustand x0 zur Startzeit t0 nach der Zeit t erreicht wurde. Solche Systeme können auf verschiedene Eigenschaften wie Beobachtbarkeit, Stabilität, Erreichbarkeit und Steuerbarkeit untersucht werden. 1.8 Beispiel eines linearen Systems Wir betrachten die zwei Städte Matheheim und Formelhausen, die in einer Region liegen. Im Folgenden untersuchen wir die Einwohnerzahl und das gesamte Steueraufkommen der beiden Städte in Zeitabschnitten von fünf Jahren. Die Stadträte der Städte kämpfen um Mehreinnahmen durch Steuergelder, die sie durch höhere Einwohnerzahlen erreichen wollen. Matheheim ist attraktiver als Formelhausen, weshalb 80% der Menschen aus Formelhausen innerhalb von fünf Jahren nach Matheheim ziehen. In Formelhausen allerdings sind die Steuern niedriger, weshalb 50% der Menschen im gleichen Zeitintervall von Matheheim nach Formelhausen ziehen. Der Rest der Anwohner zieht nicht um. Innerhalb von fünf Jahren ziehen aber auch neue Bürger in die Städte, die vorher in anderen Regionen gelebt haben. Durch Angebote wie freie Kindergartenplätze oder Startprämien für Studenten, schafft es Formelhausen, 700 der aus anderen Regionen zuziehenden Menschen für sich zu gewinnen, 300 ziehen nach Matheheim. Die Besteuerung pro Kopf ist in den beiden Städten stark verschieden. Die Bewohner von Formelhausen zahlen alle fünf Jahre 2000 Euro, die Menschen aus Matheheim zahlen in der gleichen Zeit 5000 Euro. Die Bevölkerungssituation und die dazugehörigen Steuereinnahmen der beiden Städte lassen sich mathematisch als LTI-System modellieren. Die Zustandsgleichung xk+1 = A · xk + B · uk setzt sich aus verschiedenen Elementen zusammen: Die Transfermatrix A= 18 ' 0.5 0.8 0.5 0.2 ( , A ∈ R 2×2 , 1.9 Beobachtbarkeit beschreibt die Dynamik des Systems, also wie die schon in den Städten wohnhaften Personen in einem Zeitintervall wandern. Die erste Spalte der Matrix gibt den Anteil der Menschen an, die in Matheheim bleiben, bzw. von Matheheim nach Formelhausen ziehen. In der zweiten Spalte stehen die Anteile der Anwohner, die von Formelhausen nach Matheheim ziehen, bzw. in Formelhausen bleiben. Der Zustandsvektor xk = ' xm xf ( , xk ∈ R2 gibt die Einwohnerzahl der Städte zu jedem Zeitpunkt k an, wobei das Intervall zwischen k und k + 1 fünf Jahre beträgt. Das System enthält auch einen Eingang, der durch die in die Region ziehenden Menschen gegeben ist. Dabei gibt der Eingang B · uk = b = ' ( 700 300 , die von außerhalb zuziehenden Menschen an, sich in Matheheim, bzw. Formelhausen niederlassen. Der Ausgang des Systems enthält die Steuereinnahmen der beiden Städte. Die Ausgangsgleichung lautet folgendermaßen: yk = C · xk + D · uk . C= ' 5000 0 0 2000 ( , C ∈ R 2×2 , beschreibt die Besteuerung pro Einwohner in Matheheim und Formelhausen. Der Summand D · uk fällt weg, da die Steuerung uk keinen Einfluss auf den Ausgang hat. In Abbildung 1.1 ist graphisch gezeigt, wie sich die Einwohnerzahlen und die Steuereinnahmen über 50 Jahre, also zehn Zeitabstände k verhält, wenn zu Anfang der Betrachtung jeweils 10000 Menschen sowohl in Matheheim als auch in Formelhausen leben und in jedem Zeitintervall 1000 Menschen in die Region ziehen. Der Startvektor lautet also x0 = 1.9 ' 10000 10000 ( . Beobachtbarkeit Damit es möglich ist ein dynamisches System zu verändern, muss bekannt sein, wie es zu der Ausgabe yk kommt. Dies ist bekannt, wenn es möglich ist x0 aus der Ausgabe yk zu rekonstruieren. Denn dann ist der Startwert x0 eindeutig. Wenn es nun bei einem dynamischen System möglich ist bei bekanntem uk von dem Ausgang yk in endlicher Zeit 19 1 Dynamische Systeme auf dem optimalen Weg (a) Entwicklung der Einwohnerzahlen. × × × × × (b) Entwicklung der Steuern. Abbildung 1.1: Entwicklung der Einwohnerzahlen und der Steuereinnahmen über 50 Jahre. 20 1.9 Beobachtbarkeit auf den Startwert x0 zu schließen, dann ist ein System in dem Zustand x0 beobachtbar. Wenn dies sogar für alle x ∈ R n möglich ist, dann ist das ganze System vollständig beobachtbar. Um festzustellen, ob ein System beobachtbar ist, müssen die einzelnen Rekursionsschritte betrachtet werden. Bei diesen sind die Summanden mit uk bekannt, weshalb diese nicht betrachtet werden müssen. So kann ohne Beschränkung der Allgemeinheit von uk = 0 ausgegangen werden. Also werden von dem System nur die Matrizen A und C betrachtet. Definition: Ein Wert x ∈ R n ist genau dann unbeobachtbar, falls yk = Φ(0; x; k ) = C · Ak · x = 0 für alle k. Die Menge der unbeobachtbaren x sei X unobs . Dann ist ein System genau dann vollständig beobachtbar falls X unobs = {0}. Für das System bedeutet dies, dass sich die Ausgabe yk bei jedem x unterscheidet. Dadurch lässt sich eindeutig sagen, vom welchem Startwert x0 ausgegangen wurde. Zu dem System existiert dann eine Beobachtbarkeitsmatrix: Q B ( A, C ) := C C·A C · A2 .. . C · A n −1 . Diese Matrix hat die Dimension p · n × n. Mit Hilfe der Matrix, kann leicht bestimmt werden, ob das System beobachtbar ist. Nämlich genau dann, wenn die Anzahl der linear unabhängigen Zeilen bzw. Spalten gleich n ist. Diese Anzahl gibt der Rang einer Matrix an. Also ist ein System genau dann beobachtbar, falls gilt: rang( Q B ) = n. Somit gibt es zwei äuqivalente Bedingungen unter denen das System vollständig beobachtbar ist: – rang( Q B ) = n, – yk = C · Ak · x = 0 für alle k. Ist ein System vollständig beobachtbar weiß man, dass man von jedem yk und k auf den Startwert x0 schließen kann. 21 1 Dynamische Systeme auf dem optimalen Weg 1.10 Steuerbarkeit bzw. Erreichbarkeit Die Steuerbarkeit eines Systems ist eine der grundlegenden Bedingungen für eine vernünftige Verarbeitung. Die Frage nach der Steuerbarkeit bedeutet, dass überprüft wird, ob in endlicher Zeit ein beliebiger Anfangszustand x0 durch eine geeignete Steuerung u in einen beliebigen Endzustand x1 überführt werden kann. Vollständig steuerbar bedeutet, dass jeder Zustand (t0 , x0 ) für alle x0 ∈ R n nach x1 ∈ R n gesteuert werden kann. Immer aus einem System erschließbar ist die Steuerbarkeitsmatrix Q, die wie folgt definiert wird: Q= * b Ab A2 b ... A n −1 b + . Ein System ist vollständig steuerbar, wenn eines der beiden folgenden Kriterien erfüllt ist: – Die Determinante der Steuerbarkeitsmatrix Q ungleich Null ist. det( Q) = det * b Ab A2 b . . . An−1 b + ,= 0 – Der Rang der Steuerbarkeitsmatrix Q gleich der Dimension des Systems ist. rang( Q) = rang * b Ab A2 b . . . An−1 b + =n Der Rang gibt an, wie viele linear unabhängige Spalten bzw. Zeilen die Steuerbarkeitsmatrix enthält. Für Systeme, die nicht vollständig steuerbar sind, können nicht alle Zustände angesteuert werden, was man sich einfach an einem Beispiel vorstellen kann: Wenn ein Heißluftballon fliegt, dann ist dieser nur in vertikaler Richtung steuerbar. In der Horizontalen wird die Richtung des Ballons vom Wind gesteuert, auf den man jedoch keinerlei Einfluss nehmen kann. Demnach sind Zustände entgegen der Windrichtung nicht erreichbar. 1.11 Stabilität In diesem Abschnitt befassen wir uns mit einer Eigenschaft der Stabilität dynamischer Systeme. Es geht darum zu überprüfen, ob Zustände in dynamischen Systemen für lange Zeit berechenbar bleiben oder ob sich bestimmte Werte so auf das System auswirken, dass es nicht mehr berechenbar ist. Dazu betrachten wir ein diskretes dynamisches System der Form xk+1 = Axk + bu mit einer Dynamikmatrix A ∈ R n×n , den Zuständen xk und dem Eingangsvektor b. Das System heißt stabil, falls für alle Eigenwerte λi von A 22 1.12 Optimierung gilt: |λi | ≤ 1 und für |λi | = |λ j | = 1 λi ,= λ j bei i ungleich j gilt. Der Einfachheit halber lassen wir den Eingang außer Betracht und erhalten xk+1 = Axk . Es sind nun drei Fälle zu unterscheiden: Wenn alle Beträge der Eigenwerte von A echt kleiner 1 sind geht xk gegen 0 für ein größer werdendes k und das System heißt asymptotisch stabil. Andererseits falls der Betrag eines Eigenwertes größer als 1 ist würde xk nicht gegen unendlich gehen, womit das System nicht stabil wäre. Falls kein Betrag von den Eigenwerten größer 1 ist, aber mindestens einer gleich 1 ist, läuft xk weder gegen 0 noch ins Unendliche und bleibt damit berechenbar. Dabei müssen alle Eigenwerte paarweise verschieden sein, sonst würde xk gegen Unendlich gehen und wäre damit nicht stabil. Im Folgenden befassen wir uns vor allen Dingen damit, ob ein System asymptotisch stabil ist oder überhaupt nicht stabil ist. Es ist nun x1 = Ax0 ; x2 = Ax1 = A2 x0 ; x3 = Ax2 = A3 x0 , also xk = Ak x0 . Um die Stabilität zu überprüfen müssen wir Zustände für große k ausrechnen, weshalb wir zunächst jedes A mit A = SΛS−1 diagonalisieren. Dazu müssen wir annehmen, dass A n linear unabhängige Eigenvektoren hat, die wir als Spalten der Eigenvektormatrix S schreiben. Nun haben wir Ak = (SΛS−1 )(SΛS−1 )...(SΛS−1 ). Da die Matrizenmultiplikation assoziativ ist, können wir jeweils S−1 S zur Einheitsmatrix zusammenfassen und erhalten Ak = SΛk S−1 . Danach können wir den Exponenten k von Λk in die Matrix hineinziehen, so dass jeder Eigenwert den Exponenten k erhält. Nun können wir zumindest schon das Verhalten der λik für k gegen Unendlich abschätzen. Sobald der Betrag eines Eigenwertes größer 1 ist, geht die k-te Potenz dieses Eigenwertes ebenfalls gegen unendlich. Wenn aber die Beträge aller Eigenwerte kleiner 1 sind, streben die k-ten Potenzen gegen 0. Jetzt drücken wir xk anders aus um auch das Verhalten für die xk abzuschätzen. Da wir n linear unabhängige Eigenvektoren vi haben, kann jeder Vektor (vor allen Dingen x0 ) als Linearkombination der vi geschrieben werden. Also x0 = c1 v1 + c2 v2 + ... + cn vn mit ci als Skalaren (reelle Zahlen). Dazu multiplizieren wir A und können wegen Avi = λi vi (was für die n linear unabhängigen Eigenvektoren gilt) x1 = c1 λ1 v1 + c2 λ2 v1 + ... + cn λn vn schreiben. Mehrmaliges multiplizieren mit A ergibt xk = c1 λ1k v1 + c2 λ2k v1 + ... + cn λkn vn . Solange also bei einem Eigenwert, dessen Betrag größer als 1 ist, der zugehörige konstante Faktor nicht 0 ist, strebt xk gegen Unendlich und ist damit instabil. Wenn alle Beträge der Eigenwerte kleiner als 1 sind, strebt xk gegen 0 und ist damit asymptotisch stabil. In der Literatur wird der Begriff stabil oft gleichbedeutend mit asymptotisch stabil verwendet. 1.12 Optimierung Die statische Optimierung einer Funktion f ( x ), f : R n −→ R zielt darauf ab das Minimum oder Maximum (den »optimalen Wert«) dieser zu ermitteln. Im Gegensatz zur optimalen Steuerung, die versucht ein dynamisches System bestmöglich zu steuern, 23 1 Dynamische Systeme auf dem optimalen Weg ist die Optimierung eine statische Analyse der so genannten Zielfunktion um den besten Wert eines gewissen Systemzustands zu ermitteln. Ein einfaches Beispiel hierfür aus der Wirtschaft wäre die Gewinnfunktion, für welche ein jedes Unternehmen jedes Jahr das Maximum anhand von verschiedenen Parametern wie Materialkosten, Produktion oder Lohnkosten sucht. Die gesuchten Extrema dieser Zielfunktion werden eindimensionalen Fall durch das zu Null setzten der ersten Ableitung ermittelt, und im n-dimensionalen Fall durch das Null setzten des Vektorgradienten ∇ f . Bei den meisten komplexen Zielfunktionen ist es aber kompliziert globale Extrema zu ermitteln, so dass man sich auf lokale Extremstellen, die durch weitere Nebenbedingungen eingegrenzt werden können, beschränkt. In der Mathematik lassen sich manche Nebenbedingungen durch setzten von Funktionen auf feste Werte ausdrücken g( x ) = 0, g : R m −→ R ausdrücken. Das Lagrange-Multiplikator Gesetz besagt hierbei, dass die Lösungen für solche Optimierungsprobleme sich durch eine neue Zielfunktion m L( x, λ) = f ( x ) + ∑ λi · gi ( x ) i =1 berechnen lassen. Solche sind nur an Stellen x zu finden, für welche es LagrangeMultiplikatoren λ gibt, die die Bedingungen ) ∇ x L( x, λ) = ∇ x · f ( x ) + ∑im=1 λi · ∇ x gi ( x ) = 0, ∇λ L( x, λ) gi ( x ) = 0 λ ∈ Rm erfüllen. Das sind die notwendigen Bedingungen für das Finden eines lokalen Minimums, wobei ∇λ L( x, λ) gi ( x ) = 0 nur die Nebenbedingungen des Anfangs wiederholt. Die Lösungen dafür nennt man kritische Punkte. Nun ist es aber im n-dimensionalen Raum wie im 1-dimensionalen so, dass die eine Nullstelle der ersten Ableitung auch einen Sattelpunkt statt eines Extremums bedeuten kann. Um hierbei zu unterscheiden, gibt 24 1.13 Optimale Steuerung es die hinreichenden Bedingungen, die die zweite Ableitungen der Lagrange-Funktion benötigen, die sich wie folgt ausdrücken: s T · ∇2xx L( x̂, λ̂) · s ≥ 0, ∀s ∈ R n mit ∇ x ( gi ( x̂ ))T · s = 0. Wobei x̂, λ̂ kritische Punkte aus den notwendigen Bedingungen sind. 1.13 Optimale Steuerung Das Ziel der optimalen Steuerung ist es, Eingriffe in das System möglichst effizient zu regulieren. Die meisten Optimierungsprobleme lassen sich auf linear-quadratische Regulatorprobleme zurückführen, die durch folgende Zielfunktion beschrieben werden: J ( x, u) = 1 2 N −1 1 ∑ (xkT Qk xk + ukT Rk uk ) + 2 xTN SN x N . k =0 Dabei werden die Matrizen Qk , Rk und Sk verwendet, um abhängig vom Ziel der Optimierung die Variablen des Systems ( xk , uk , x N ) verschieden zu gewichten. Soll zum Beispiel die Steuerung uk und deren Minimierung stärker gewichtet werden, als das Erreichen der Zustände xk , so werden Qk und RK so gewählt, dass . Rk . < . Qk .. Ziel ist es nun, J ( x, u) zu minimieren, wobei die Systemgleichung xk+1 = Axk + Buk als Nebenbedingung betrachtet wird. Diese Problemstellung lässt sich so auf die statische Optimierung zurückführen und man erhält die neue Zielfunktion: J̃ ( x, u, λ) = N −1 1 1 ∑ ( 2 (xkT Qk xk + ukT Rk uk ) + λkT+1 ( Ak xk + Bk uk − xk+1 )) + 2 xTN SN x N . k =0 Die auftretenden Lagrange-Multiplikatoren λi , wurden im Zusammenhang mit der Lagrange-Funktion (siehe Abschnitt 1.12) bereits erwähnt. Durch Bildung des Gradienten nach den Variablen x, u, λ und Umformung erhält man die folgenden Gleichungen: 1 −1 −1 T xk = A− k xk +1 + Ak Bk Rk Bk λk +1 , (1.1) λk = (1.2) uk = Qk xk + AkT λk+1 , 1 T − R− k Bk λk +1 . (1.3) Im folgenden Betrachten wir ein System mit einem fest vorgegebenen Endzustand xn := rn . Wir betrachten ein LTI-System, das heißt, die Systemmatrizen A, B und die Gewichtungsmatrix R sind zeitunabhängig. Wir setzen Qk = 0 und S N = 0, da sowohl der Anfangszustand x0 als auch der Endzustand r N vorgegeben sind und wir daher die Zustände xk (0 < k < N ) als nicht relevant für die Steuerung betrachten, was das System deutlich vereinfacht. Daher erhalten wir die neue Zielfunktion J0 : J0 (u) = 1 2 N −1 ∑ k =0 ukT Ruk . 25 1 Dynamische Systeme auf dem optimalen Weg Aus Gleichung (1.2) folgt durch Rückwärtsiteration: λ k = A T λ k +1 ⇒ λk = ( A T ) N −k λ N . Eingesetzt in Gleichung (1.1) ergibt: xk+1 = Axk − BR−1 B T ( A T ) N −k−1 λ N . Unter Verwendung der analytischen Lösung eines diskreten Systems (siehe Abschnitt 1.7) erhält man: x k = A k x0 − N −1 ∑ i =1 Ak−i−1 BR−1 B T R T ( A T ) N −i−1 λ N . , -. (1.4) / =:Gk Für k = N ergibt sich unter der Annahme, dass GN invertierbar ist, −1 λ N = GN ( A xN0 − r N ). Dieses Ergebnis setzt man in Gleichung (1.4) ein: −1 ( A N x0 − r N ). λk = ( A T ) N −k GN Das wiederum in Gleichung (1.3) eingesetzt, ergibt: −1 (r N − A N x0 ). u∗k = R−1 B T ( A T ) N −k−1 GN (1.5) Um die Herleitung zu vervollständigen, bleibt zu zeigen, wann unsere Annahme GN sei invertierbar zutrifft. Es gilt: GN = R R −1 0 .. 0 . R −1 T R , wobei R die Erreichbarkeitsmatrix (siehe Abschnitt 1.10) bezeichnet. GN ist invertierbar, wenn det( GN ) ,= 0 und somit wenn das System vollständig erreichbar ist und N > n ist. In Gleichung (1.5) lässt sich nun die Steuerung uk für jedes 0 ≤ k ≤ N allein anhand der Systemmatrizen und dem vorgegebenen Anfangs- und Endzustand berechnen. Es liegt keine Zustandsrückkoppelung vor, da die Steuerung nicht vom aktuellen Zustand xk abhängig ist. Dadurch können Abweichungen von der Steuerung oder der modellierten Realität teils drastische Auswirkungen haben. Ist lediglich der Startzustand x0 gegeben, nicht jedoch der Endzustand x N , so ist Qk = 0 sowie S N = 0 keine sinvolle Vereinfachung. Durch Bildung der partiellen Ableitung ∂x∂ J̃N und mit Hilfe des Konzepts der statischen Optimierung erhält man eine explizite Formel für die optimale Steuerung u∗k : 26 1.14 Modellreduktion u∗k = − ( Rk + BkT Sk+1 Bk )−1 BkT Sk+1 Ak xk , , -. / =:Kk = − Kk x k , dabei bezeichnet Kk die Kalman-Folge. In diesem Falle ist die Steuerung vom Zustand xk abhängig, es liegt also eine Zustandsrückkopplung vor. 1.14 Modellreduktion Bei der Modellierung komplexer Sachverhalte, wie zum Beispiel des Wetters, erhält man dynamische Systeme sehr hoher Dimension n (A ∈ R n×n , B ∈ R n×m , C ∈ R p×n , D ∈ R p×m ), die mit entsprechend großem Rechenaufwand verbunden sind. Ziel der Modellreduktion ist daher die Konstruktion eines reduzierten Systems Σ̂ mit  ∈ Rr×r , B̂ ∈ Rr×m , Ĉ ∈ R p×r , D̂ ∈ R p×m und r 1 n, wodurch der Rechenaufwand deutlich verringert wird. Dabei wird angestrebt, dass die Differenz der Ausgänge ||y − ŷ|| bei gleichem Eingang u möglichst klein ist. Dabei ist die Auswahl der Zustände, die bei der Erstellung von Σ̂ vernachlässigt werden, von entscheidender Bedeutung. Eine mögliche Methode um diese Auswahl zu treffen ist das Balanced Truncation (Balanciertes Abschneiden). Dazu benötigt man zunächst die »Unendliche Gramsche Matrix der Erreichbarkeit« ∞ P= ∑ ( Ak BBT ( AT )k ), k =0 und die »Unendliche Gramsche Matrix der Beobachtbarkeit« ∞ Q= ∑ (( AT )k CT CAk ). k =0 Mit Hilfe dieser Matrizen kann man folgende Berechnungen machen: – Die minimale Energie um von x0 = 0 zu einem Zustand x̄ zu steuern, ist ||u||2 = x̄ T P −1 x̄ ⇒ Die am schwierigsten zu erreichenden Zustände, liegen dann in den Eigenräumen zu den kleinsten Eigenwerten von P . – Die maximale Energie, die durch x̄ erzeugt werden kann, ist ||y||2 = x̄ T Q x̄ ⇒ Die am schwierigsten zu beobachtenden Zustände, liegen dann in den Eigenräumen zu den kleinsten Eigenwerten von Q. 27 1 Dynamische Systeme auf dem optimalen Weg Ziel ist es schwer erreichbare und schwer beobachtbare Zustände »abzuschneiden«. Allerdings stimmen schwer erreichbare und schwer beobachtbare Zustände im Allgemeinen nicht überein. Systeme in denen schwer beobachtbare und schwer erreichbare Zustände übereinstimmen, und die deshalb einfacher behandelt werden können, heißen balanciert. Für sie gilt dann P = Q. Noch einfacher ist die Behandlung der Systeme, wenn P und Q nur Werte auf ihrer Diagonalen haben. Dann spricht man von Hauptachsen-balancierten Systemen, P=Q= σ1 .. 0 . 0 σn . 0 Die σi = λi ( PQ) für i = 1, . . . , n heißen dabei Hankel-Singulärwerte. Für die Methode des Balancierten Abschneidens überführt man das zu reduzierende System Σ durch eine Transformation in eine Hauptachsen-balancierte Form – man balanciert das System. Hat man dann die folgende Darstellung mit A11 A21 C1 A12 B1 A22 B2 C2 D Λ1 = σ1 .. und 0 . 0 σr P=Q= und ' Λ1 0 0 Λ2 ( , A11 ∈ Rr×r , so lässt sich durch Abschneiden eine Reduzierung durchführen. Das reduzierte System setzt sich dann folgendermaßen zusammen: ' A11 B1 C1 D ( . So hat man eine Ordnungsreduktion von Σ durchgeführt. Die Anzahl der Variablen im Modell wurde reduziert und die Dimension des Systems somit verringert. 1.15 Literatur Als Literatur wurden Aufzeichnungen aus Vorlesungen an der Universität Bremen verwendet, sowie die folgenden Fachbücher: [1] Antoulas, Athanasios C.: Approximation of Large-Scale Dynamical Systems (Advances in Design and Control). Philadelphia, PA, USA 2005. [2] Strang, Gilbert: Lineare Algebra. Heidelberg 2003. 28 30 2 Biotechnologie im Alltag 2.1 Vorwort Andrea Freikamp und Philip Weyrauch In den vergangenen Jahren hat die Biotechnologie einen wahren Boom erlebt und sich zu einem wichtigen und weiterhin stark wachsenden Wirtschaftszweig entwickelt. Doch die Verwendung von Mikroorganismen zur Herstellung verschiedener Produkte ist keineswegs neu. Schon vor tausenden von Jahren machten sich Menschen unbewusst die Stoffwechselleistungen von einzelligen Lebewesen zu Nutze, wie zum Beispiel bei der Gärung von Traubensaft zu Wein. Inzwischen sind die dafür verantwortlichen Prozesse bekannt und zahlreiche molekularbiologische und gentechnische Methoden machen es möglich, Mikroorganismen, aber auch Tiere oder Pflanzen, gezielt zu verändern und für spezielle Zwecke zu entwickeln. Wird in der Öffentlichkeit über Biotechnologie diskutiert, stehen meist umstrittene Anwendungen wie genetisch veränderte Lebensmittel im Zentrum der Debatte. Darüber geraten andere, schon seit langem etablierte Anwendungen der Biotechnologie leicht in Vergessenheit. Beispiele sind die Zugabe von Enzymen zu Waschmitteln oder die Verwendung von Mikroorganismen zur Synthese chemischer Verbindungen, die unter anderem auch Lebensmitteln zugesetzt werden – als wichtige Vertreter wären hier Zitronensäure, Glutamat und Aromastoffe zu nennen. Diese modernen Anwendungsbeispiele standen ebenso wie molekularbiologische Methoden im Fokus unserer Kursarbeit. 2.2 Biotechnologie in der Lebensmittelindustrie Biotechnologie ist überall zu finden, auch da, wo wir es nicht erwarten. Allgemein wird sie als Anwendung von Naturwissenschaft und Technologie an lebenden Organismen, den Teilen und Produkten von ihnen verstanden (Definition gemäß der OECD). Zusätzlich wird sie in drei Teilbereiche unterteilt: die weiße, rote und grüne Biotechnologie, wobei weiß für industrielle, rot für medizinisch-pharmazeutische und grün für landwirtschaftliche Anwendungen der Biotechnologie stehen. Alltäglich begegnet uns diese Technologie in den Lebensmitteln, die wir zu uns nehmen. So sind es Mikroorganismen, die uns beispielsweise Wein, Bier und viele verschiedene Käsesorten schaffen. Früher unbewusst eingesetzt, um Lebensmittel haltbarer zu machen, werden sie heute gezielt verwendet – für Geschmacks- und Aromaveränderung sowie zur Erhöhung der gesundheitlichen Wertigkeit und zum Erzielen einer berauschenden Wirkung. Durch Gärungen, bei denen organisches Material von Mikroorganismen unter Anaerobie (Ausschluss von Sauerstoff) abgebaut wird, entstehen für die Lebensmittel interessante Stoffwechselprodukte. Während bei aeroben 31 2 Biotechnologie im Alltag Bedingungen (in Anwesenheit von Sauerstoff) nur Kohlenstoffdioxid und Wasser entstehen, sind es bei Gärungen z. B. Milchsäure (Lactat) und Ethanol. Damit die verschiedenen Mikroorganismen ihre Funktionen durchführen können, beginnt man mit einer Starterkultur. Diese übernimmt dabei die Pionierfunktion und besiedelt das Nahrungsmittel als erstes. Zudem ist durch diese Kultur die erste Säureoder Alkoholproduktion möglich, die zur Konservierung des Lebensmittels beiträgt. Des Weiteren gibt man Schutzkulturen zu der Fermentation (Gärung), um das Wachstum von Krankheitserregern zu verhindern. Zudem gibt es noch Reifungs- und probiotische Kulturen (auch: Probiotika), wobei die Reifungskulturen für die Entwicklung des Aromas und Geschmacks der Lebensmittel zuständig sind. Die Probiotika verändern die funktionellen Eigenschaften der Lebensmittel, d. h. sie können eine positive gesundheitliche Wirkung für uns haben, wenn genug von ihnen aktiv in den Darm gelangen. Beispielsweise können sie den Verlauf von Infektionen im Verdauungstrakt mildern und/oder verkürzen. Den Prozess der Fermentation können vor allem Bakteriophagen stören. Diese infizieren die Bakterien und zerstören sie durch ihre Vermehrung. Der Hauptgrund für Säuerungsstörungen in milchverarbeitenden Betrieben sind eben genannte Bakteriophagen. Ein weiteres Problem bei der Fermentation kann eine Fehlgärung sein. Das kann beispielsweise durch Propionsäurebakterien geschehen, die in Hartkäsen vorhanden und für die Löcher oder Augen im Käse verantwortlich sind. Diese Bakterien setzen unter bestimmten Bedingungen Lactat unter Bildung von Kohlenstoffdioxid und Wasserstoff zu Buttersäure um. Die Buttersäure macht den Käse dann ungenießbar. Trotz der Fehlgärungen, die auftreten können, haben wir durch die Mikroorganismen eine Vielzahl an Käsesorten gewonnen und es durch Aromen geschafft, viele Geschmackssorten zu entwickeln. 2.3 Bioverfahrenstechnik Die Bioverfahrenstechnik, welche die technologische Teildisziplin der Biotechnologie darstellt, hat das Ziel, Anlagen für die Biokatalyse von bestimmten Stoffumwandlungen zu entwickeln, die effizient arbeiten und den speziellen Anforderungen der verwendeten biologischen Systeme entsprechen. Des Weiteren müssen Verfahren zur ständigen Kontrolle des Prozesses und eine Aufarbeitung der entstehenden Produkte konzipiert werden. Optimierung und Erweiterung dieser Anlagen sind ein weiteres Teilgebiet der Bioverfahrenstechnik. Wichtigster Bestandteil dieser Anlagen sind Bioreaktoren, die optimale Bedingungen für die jeweiligen spezifischen Biokatalysatoren (Mikroorganismen bzw. isolierte Enzyme) bieten. Es gibt viele verschiedene Bioreaktoren, welche alle Vor- und Nachteile haben. Der traditionellste und am häufigsten verwendete Bioreaktor ist der Rührkesselbioreaktor, welcher z. B. bei der Bierherstellung verwendet wird. Das Gehäuse des Rührkesselbioreaktors besteht meistens aus austenitischem Stahl (max. Kohlenstoffanteil von 0.08 %); nur wenn das im Reaktor befindliche Medium hochkorrosiv ist, muss Titan verwendet 32 2.3 Bioverfahrenstechnik werden. Weitere wichtige Bestandteile dieses Reaktors sind der Rührer, welcher zur Dispersion/Durchmischung dient, und Strombrecher, welche eine Wirbelbildung bei hohen Drehzahlen verhindern. Die Temperatur im Reaktor wird durch einen von Wasser durchflossenen Doppelmantel reguliert. Bei aeroben Fermentationen ist ein Begaser zum Einbringen von Sauerstoff vorhanden. Im Gegensatz zum Rührkessel-Bioreaktor hat der Air-Lift-Schlaufenreaktor keinen Rührer, sondern der Begaser übernimmt die Aufgabe der Durchmischung des Mediums. Dabei wird durch den Begaser Luft in den Reaktor geschleust, sodass es in diesem Teil zum Aufsteigen des Mediums kommt (»Riser« genannt). An der Oberfläche angekommen verlässt der Großteil der Blasen das Medium, wodurch dieses dichter wird und wieder in den unteren Teil des Reaktors absinkt (»Downcomer«). Der »Riser« und der »Downcomer« werden dabei von Trennblechen isoliert, sodass es zu einer umlaufenden Strömung kommen kann. Es gibt eine abgewandelte Form dieses Bioreaktors, bei dem der »Downcomer« extern angeordnet ist. Dies hat den Vorteil, dass man den Durchmesser des »Downcomers« verringern kann und sich dadurch die Fließgeschwindigkeit erhöhen lässt. Das Erhöhen der Fließgeschwindigkeit ermöglicht eine bessere Durchmischung des Mediums. In einigen Bioreaktoren, wie z. B. im Festbettreaktor, benutzt man Trägermaterialien, um die Biokatalysatoren zu immobilisieren. Dabei wird das Medium extern mit Sauerstoff und Nährstoffen versorgt und dann durch ein Festbett mit den Trägermaterialien geleitet. Die Trägermaterialien müssen einige Bedingungen erfüllen, wie zum Beispiel eine hohe Porosität und einen kleinen Durchmesser zur Vergrößerung der Oberfläche, auf dem die Biokatalysatoren wachsen können. Allerdings sollte das Trägermaterial nicht zu klein sein, da es sonst zum Verwachsen der Poren kommen kann und somit zu einer Kanalbildung im Festbett, wodurch die Versorgung für einige Mikroorganismen abgeschnitten wird. Da in diesen Reaktoren die Mikroorganismen eine lange Lebenszeit haben, lassen sich große Suspensionsreaktoren (mehrere hundert Liter) bereits durch Festbettreaktoren mit einem Volumen von 5–10 l ersetzen; allerdings sind diese schwer zu reinigen und zudem ist das Scale-Up dieser Reaktoren ein weiterer kritischer Faktor. Der Anspruch, die Prozesse der Fermentation möglichst ökonomisch zu gestalten, führte zur Entwicklung verschiedener Verfahren. Das ursprünglichste und einfachste Verfahren, welches auch die weiteste Verbreitung in den verschiedenen Industriebranchen findet, ist das Batch-Verfahren. In einem Bioreaktor wird Substrat von Biokatalysatoren umgesetzt. Während der Reaktion bleibt das Volumen des Mediums weitgehend unverändert, es werden lediglich Stoffe hinzugegeben um wichtige Parameter wie beispielsweise den pH-Wert zu optimieren. Nach Ablauf des Prozesses wird das Medium aus dem Reaktor entnommen und die Produkte in verschiedenen Aufarbeitungsschritten isoliert. Schon erste, unbewusste Fermentationen von Lebensmitteln (zum Beispiel Bierbrauen) funktionierten nach diesem Prinzip. Höhere Effizienz, aber auch gesteigerte Ansprüche an die Technologie, bietet das Fed-Batch-Verfahren. Es läuft zunächst wie der Batch ab. Ist das Substrat jedoch weitgehend verbraucht, wird neues, konzentriertes Substrat (Feed) hinzugegeben. Frisches Substrat regt das Wachstum der Mikororganismen an, sodass diese keine stationäre Phase erreichen. 33 2 Biotechnologie im Alltag Während die erstgenannten Verfahren eine diskontinuierliche Fermentation beinhalten, ermöglicht der Chemostat einen kontinuierlichen Prozess. Dabei wird ständig ein Feed in den Reaktor eingebracht. Gleichzeitig fließt Medium ab, was aufgrund niedriger Produktkonzentrationen höhere Ansprüche an die Isolation von bestimmten Stoffen aus diesem stellt. Dieses Verfahren findet vor allem in der Umwelttechnik Verwendung. Befindet sich am Abfluss des Chemostat eine Einheit, die Biomasse (Zellen) abscheidet und in den Reaktor zurückführt, spricht man von Perfusion mit Zellzurückhaltung. Sollen Zellen den Reaktor nicht verlassen, ist dieses Verfahren eine Möglichkeit, die im Vergleich zur Dialyse weniger aufwändig ist. Bei der Dialyse fließt frisches Medium am Medium des Reaktors vorbei. Die Membran, welche beide Medien voneinander trennt, ist semipermeabel und ermöglicht die Diffusion von Substrat oder Produkten. Entweder ist das hochmolekulare Produkt nicht in der Lage durch die Membran zu diffundieren, oder die Membran dient lediglich dazu, die Biomasse im Reaktor anzureichern. Der erste Fall hat eine hohe Produktkonzentration zur Folge, welche weniger aufwändig aufbereitet werden muss. Jedes der einzelnen Verfahren stellt andere Ansprüche an die Prozesskontrolle und Prozesssteuerung. So müssen bei kontinuierlichen Verfahren ein Auswaschen der Biomasse durch eine zu hohe Verdünnungsrate verhindert werden. Außerdem muss der Prozess mit den Anforderungen der eingesetzten Biokatalysatoren kompatibel sein. Weiterhin ist auch abzuwägen, ob der technische Aufwand einer Dialyse ökonomischer ist als zusätzliche Aufbereitungsschritte in Verbindung mit einem wenig komplexen Batch-Verfahren. 34 2.4 Antibiotika 2.4 Antibiotika Antibiotika sind Substanzen mit geringer molekularer Masse, die schon bei niedrigen Konzentrationen das Wachstum von Mikroorganismen (Bakterien oder Pilze) hemmen. Sie wirken gegen diese wachstumsinhibierend (bakteriostatisch) oder irreversibel schädigend (bakterizid). Seit es Alexander Fleming im Jahre 1929 gelang, mit dem Pilz Penicillium notatum das Wachstum des Bakteriums Staphylococcus aureus auf einer Agarplatte zu hemmen, gelten Antibiotika als wichtigste Entdeckung in der Medizin. Mikroorganismen stellen bis heute die entscheidende Gruppe dar, aus denen Antibiotika isoliert werden. Obwohl bereits mehr als 12 000 Substanzen bekannt sind, geht die Suche nach neuen Wirkstoffen ständig weiter, da noch längst nicht alle Verbindungen mit antibiotischer Wirkung gefunden wurden. Von den fädigen Bakterien, den Streptomyces, wurden beispielsweise erst ca. 3–5 % erforscht. Nun stellt sich die Frage, wie ein Antibiotikum in einer Bakterienzelle wirkt. Es greift mit bestimmten Mechanismen in die Zellwandsynthese, die Proteinsynthese, die DNA-Replikation usw. ein. In der Zellwand hemmen z. B. ß-Laktam-Antibiotika wie Penicillin die Biosynthese bestimmter Makromoleküle (Peptidoglykane), die der Zellwand Stabilität verleihen. Die Übersetzung der mRNA in Aminosäureketten wird durch das Antibiotikum Chloramphenicol unterbrochen. Da Antibiotika leider oft falsch angewendet und zu schnell an den Patienten vergeben werden, nimmt die bakterielle Resistenzentwicklung immer weiter zu. Auch die Verwendung von Antibiotika in der Viehzucht stellt eine wichtige Ursache für die Verbreitung von Resistenzen und der daraus resultierenden Gefahr dar. Bakterien können auf verschiedene Weise zu ihrer Resistenz gegenüber einem Antibiotikum gelangen. Man unterscheidet primäre oder natürliche Resistenzen von sekundären, erworbenen Resistenzen. Bei den primären Resistenzen besitzt das Antibiotikum bei dem Bakterium eine Wirkungslücke und ist von vornherein unwirksam. Cephalosporine wirken beispielsweise nicht bei Enterokokken. Bei den sekundären Resistenzen wäre das Bakterium eigentlich empfindlich gegen das Antibiotikum, jedoch sind einzelne Stämme resistent geworden. Dies geschieht durch Mutation oder Übertragung von Resistenz vermittelten Genen durch Transformation, Transduktion oder Konjugation. Der Schutz der Bakterien vor Antibiotika kann folgendermaßen aussehen: Sie können Enzyme bilden, die die Antibiotika spalten oder ändern. So werden die Antibiotika unwirksam oder inaktiviert. Außerdem können die Bakterien sogenannte Efflux-Pumpen ausbilden, die die Antibiotikakonzentration im Bakterium so gering halten, dass das Antibiotikum ebenfalls nicht wirken kann. In Deutschland sterben jährlich 40 000 Menschen aufgrund multiresistenter Keime. Je häufiger Antibiotika eingesetzt werden, desto höher ist die Wahrscheinlichkeit, dass neue Resistenzen entstehen, also ist eine rationale Anwendung von Antibiotika unerlässlich, um die oft unterschätzte Gefahr der Resistenzen einzudämmen. 35 2 Biotechnologie im Alltag 2.5 Enzymscreening und rekombinante Proteinproduktion 2.5.1 Enzymscreening Enzyme als Alternative zu umweltschädlichen Chemikalien sind gerade für die Industrie interessant, z. B. als Fettfleckentferner in Waschmitteln, denn sie arbeiten meist sehr spezifisch und werden dafür nur in geringen Mengen benötigt. Außerdem sind sie biologisch abbaubar. Beim Enzymscreening sucht man nach Enzymen, die eine bestimmte Funktion erfüllen, um sie für industrielle Prozesse zu nutzen. Zunächst wird das Problem definiert und auf sein Geschäftspotenzial analysiert. Entscheidet man sich zur Umsetzung des Projekts, werden zuerst die Kriterien für die gewünschte Anwendung bestimmt, darunter die umzusetzende Substanz, der pH-Wert und die Temperatur. Danach wird daraus ein biochemischer Assay entwickelt, d. h. die Umgebung, in der das Enzym später seine spezifische Wirkung entfalten soll. Beim primären und sekundären Screening gibt man potentielle Enzyme hinzu und selektiert solche mit positivem Ergebnis, wobei der Assay beim sekundären Screening selektiver gestaltet wird. Um die Enzyme in größerem Maßstab herstellen und testen zu können, werden die Gene für die Enzyme aus dem Spenderorganismus isoliert und in Wirtsorganismen hergestellt (s. u.). Mit den daraus entstandenen Enzymen kann man bei Anwendungsversuchen eindeutige Rückschlüsse auf deren Wirkungsweise und Effizienz ziehen. 2.5.2 Alternative Screeningmethoden Kennt man für eine bestimmte Anwendung bereits ein geeignetes Enzym, so kann man beispielsweise über Homologie-basiertes Screening im reichen Fundus der Natur nach ähnlichen Enzymen mit möglicherweise noch besseren Eigenschaften suchen. Homologie-basiertes Screening beruht auf der Ähnlichkeit zwischen enzymkodierenden Genen. Die Sequenzinformationen werden benutzt, um Sequenzhomologien aufzufinden und die durch die Evolution besonders konservierten Regionen der DNA zu identifizieren, also die Bereiche, die sich im Laufe der Zeit kaum durch Mutationen verändern. Mittels dieser Abschnitte werden Primer hergestellt, die an den ähnlichen konservierten Bereich anderer enzymkodierender Gene binden. Dadurch ist es möglich, die von dem Primer gebundene DNA mittels PCR (Polymerase Chain Reaction, deutsch Polymerase-Kettenreaktion) zu vervielfältigen, um das Genfragment in Wirtsorganismen zu integrieren. Alternativ werden Hybridisierungsmethoden angewandt. Hierbei wird die zu untersuchende DNA mit einer radioaktiv markierten Probe, Fragment einer konservierten Region, inkubiert. Dabei bindet die Probe nur an Gensequenzen, die mit ihrer eigenen ganz oder nahezu identisch sind. Anhand der Markierung kann man nach der Inkubation feststellen, ob die Probe an die DNA gebunden hat. Ist dies der Fall, so weiß man, dass sich das Gen, aus dem die Probe stammt, auf der getesteten Sequenz befunden hat. Damit hat man ein dem Enzym, aus dessen konserviertem Bereich die Probe stammt, in der Funktion ähnliches Protein gefunden. 36 2.5 Enzymscreening und rekombinante Proteinproduktion Abbildung 2.1: Proteinaufreinigung durch Säulenchromatographie. 2.5.3 Rekombinante Proteinproduktion Zur Herstellung von bestimmten Zielproteinen in bakteriellen Wirtsorganismen bedient man sich natürlicher Chromosom-unabhängiger DNA-Elemente, den sogenannten Plasmiden. Diese werden unabhängig vom Bakterienchromosom repliziert und besitzen einen DNA-Abschnitt, in den mittels DNA-sequenzspezifischer Enzyme, den Restriktionsenzymen, leicht das Zielgen integriert werden kann. Letzteres ist einem sogenannten Promotor unterstellt, über den reguliert wird, ob und wann das Gen abgelesen werden kann und somit auch die Produktion des Zielproteins beeinflusst wird. In der Biotechnologie bedient man sich häufig eines Promotors, bei dem nur in Anwesenheit eines bestimmten Signalstoffs das Gen zum Ablesen freigegeben ist. Damit kann man von außen die Produktion des erstrebten Produkts steuern. Zur leichteren Aufreinigung des Zielproteins nach der Produktion setzt man oft einen tag ein, d. h. eine an das Protein fusionierte Peptidsequenz, die sehr spezifisch an einen bestimmten Stoff, den sogenannten Liganden, bindet. Über diese Bindungseigenschaft kann man das Zielprotein von den restlichen Wirtsproteinen trennen, wie man in Abbildung 2.1 sehen kann. Das hellgrau dargestellte Zielprotein mit dem tag (schwarz) kann an die Liganden (schwarze Pfeile an der weißen Säule) binden, die Wirtsproteine (dunkelgrau) nicht. Zum Schluss sind alle Wirtsproteine abgeflossen und nur das Zielprotein verbleibt am Liganden. Bei Zugabe eines weiteren Stoffs löst sich das Zielprotein wieder und kann in einem separaten Behälter aufgefangen werden. So erhält man eine relativ saubere und konzentrierte Lösung des erzielten Produkts als Ausgangspunkt für z. B. Struktur- und Funktionsanalysen. Soll ein für den Wirtsstamm toxisches Protein produziert werden, integriert man in das Zielprotein eine zusätzliche Aminosäuresequenz, wodurch es zunächst inaktiv bleibt. Diese wird nach dem Abtöten der Zellen herausgeschnitten und das funktionelle Protein entsteht, ohne aber vorher den Wirtsorganismus zu schädigen. Diese Methode nennt man Protein-Splicing. 37 2 Biotechnologie im Alltag 2.5.4 Produktionssysteme Biotechnologische Laborstämme sind meist gentechnisch verändert, um Produktionserfolg und -menge zu steigern, z. B. durch den Einsatz eines schnelleren Transkriptionsapparats, d. h. das Gen wird schneller abgelesen und somit mehr Zielprotein in kürzerer Zeit hergestellt. Meist sind Bakterien wie Escherichia coli das Produktionssystem der Wahl, denn sie produzieren viel und billig in relativ kurzer Zeit und sind leicht zu kultivieren. Einfache Eukaryoten wie z. B. die Bierhefe Saccharomyces cerevisiae teilen diese Vorteile; höhere Systeme wie z. B. Tierzellen sind ungleich schwieriger zu handhaben, wobei hier auch komplexere Proteine fehlerfrei hergestellt werden können. Dies liegt daran, dass bei Proteinen höherer Organismen häufig noch eine weitere Prozessierung für die spätere Funktionalität vonnöten ist, z. B. die Anbindung eines Zuckermoleküls. Bakterien können diese sogenannten posttranslationalen Modifikationen nicht durchführen und komplexe Proteine somit nicht fehlerfrei produzieren. 2.6 Pharmaproteine Pharmaproteine sind biotechnologisch hergestellte Proteine, die in der Medizin genutzt werden, zum Beispiel als Therapeutika. Dabei kann man zwischen verschiedenen Arten von Pharmaproteinen wie Enzymen, Botenstoffen und Impfstoffen unterscheiden. Ihnen allen ist gemein, dass sie als Ersatz für ein defektes oder in nicht ausreichendem Maße natürlich produziertes Protein eingesetzt werden. Pharmaproteine können aus menschlichem oder tierischem Gewebe isoliert werden. Meistens nutzt man jedoch gentechnisch veränderte Tiere und Pflanzen oder rekombinante Mikroorganismen zur Synthese. Bei der Wahl des Organismus gilt, dass je komplexer das zu synthetisierende Protein ist, desto komplexer müssen die Syntheseleistungen der produzierenden Organismen sein. So nutzt man für einfache Proteine Bakterien wie Escherichia coli oder einzellige Hefen, die im Gegensatz zu Bakterien eukaryotisch sind. Für komplexere Proteine werden transgene Tiere oder Pflanzen eingesetzt. Die Nutzung von biotechnologischen Produktionsverfahren zur Synthese von Pharmaproteinen hat zum einen den Vorteil, dass die Erträge im Vergleich zu deren Isolierung aus Geweben wesentlich höher sind. Zum anderen kann eine Verunreinigung durch Krankheitserreger nahezu ausgeschlossen werden. Trotzdem können allergische Reaktionen auftreten, da das gebildete Protein dem menschlichen meistens nicht vollkommen gleicht, wenn dieses in rekombinanten Organismen synthetisiert wurde. So werden zum Beispiel bei posttranslationalen Modifikationen oft falsche Zuckerreste an die Proteine angehängt. Das kann zur Folge haben, dass das Protein als fremd eingestuft wird und eine Immunreaktion hervorruft. Wie schon erwähnt werden oftmals Bakterien oder einzellige Hefen zur Synthese von Pharmaproteinen genutzt. In einigen Fällen werden die Proteine ins Medium sekretiert und können daraus direkt gereinigt werden. In anderen Fällen müssen zunächst die produzierenden Organismen aus dem Medium geerntet und anschließend die Proteine aus ihrem Inneren isoliert und mitunter aufwendig gereinigt werden. Oftmals ist, falls 38 2.7 Therapie von Diabetes mit biotechnologisch hergestelltem Insulin Bakterien zur Synthese genutzt werden, noch eine zusätzliche Renaturierung vonnöten. Ein Grund dafür ist, dass eukaryontische Proteine in Bakterien normalerweise nicht in ihrer korrekten dreidimensionalen Struktur vorliegen. Sie sammeln sich daher in Aggregaten, den sogenannten »inclusion bodies«, an. Eine weitere Ursache für die Entstehung dieser Aggregate ist, dass Gram-negative Bakterien wie E. coli die Proteine nicht ins Medium sekretieren können, sodass sich zu viele Proteine im Cytosol ansammeln. Am Schluss soll das Protein in möglichst reiner Form vorliegen und vor eventuellen Schädigungen wie zum Beispiel Denaturierung durch Oxidation geschützt sein. Da die Qualitätskontrollen sehr strikt sind, muss durch die Produktionsverfahren gewährleistet werden, dass die entsprechenden Proteine immer in gleichbleibend hoher Qualität hergestellt werden können. Die Möglichkeiten der Biotechnologie zur Synthese von Pharmaproteinen sind noch nicht ausgeschöpft. Stetig forscht man an effizienteren Produktionsverfahren. Forscher gehen sogar davon aus, dass man in Zukunft proteinkodierende Gene als Medikamente nutzen kann, sodass das entsprechende Protein direkt im Körper selbst produziert wird. Ein Beispiel für ein oft verwendetes Pharmaprotein ist das Insulin, das zur Therapie von Diabetes eingesetzt wird. 2.7 Therapie von Diabetes mit biotechnologisch hergestelltem Insulin Das kleine Peptidhormon Insulin ist das einzige Hormon, das den Blutzuckerspiegel senken kann. Durch die Einnahme von Nahrung und deren Abbau gelangt Glucose ins Blut und erhöht den Blutzuckerspiegel. Insulin ermöglicht die Aufnahme von Glucose in die Zellen und bewirkt gleichzeitig die Synthese von Proteinen, die dann die Glucose verarbeiten. Insulin besteht aus zwei Polypeptid-Ketten (α und β), die durch zwei Disulfidbrücken verbunden sind. Zudem gibt es noch eine dritte Disulfidbindung innerhalb der α-Kette. Jede Disulfidbindung bildet sich zwischen zwei Cysteinen (Aminosäuren). Das Insulin wird in den β-Zellen der Langerhans-Inseln (im Pankreas) synthetisiert. Im Zellkern wird das Insulingen zu mRNA transkribiert, die ihn danach verlässt. Im Cytoplasma wird die mRNA von den am endoplasmatische Retikulum (ER) lokalisierten Ribosomen zu Prä-Proinsulin translatiert, das zwar ein Protein ist, aber noch kein aktives Hormon. Beim Verlassen des ER wird eine Signalsequenz vom Prä-Proinsulin abgespalten, so dass Proinsulin entsteht. Letzteres wird vom Golgi-Apparat aufgenommen und dort gelagert. Bei Insulinbedarf verarbeiten Enzyme das Proinsulin weiter, so dass aktives Insulin entsteht. Dieses verlässt den Golgi-Apparat, wird ins Blut sekretiert und bindet an die Insulinrezeptoren der Zellen. Infolgedessen werden im Inneren der Zelle vorliegende Glukosetransporter in die Zellmembran eingebaut und die Glucose kann aus dem Blut in die Zelle gelangen. Außerdem werden zwei Phosphorylierungskaskaden aktiviert: Proteinkinase-B für die kurzzeitige Kontrolle der Stoffwechselenzyme durch Phosphorylierung, und die Signalübertragungsproteine Ras und MAPK (mitogen activated protein kinase), die die Synthese weiterer Proteine zur Verarbeitung von Glucose bewirken. 39 2 Biotechnologie im Alltag Diabetes mellitus ist eine Stoffwechselkrankheit, die mit einem erhöhten Blutzuckerspiegel einhergeht. Man unterscheidet zwei Typen der Erkrankung: Beim Typ I werden die Insulin produzierenden Zellen zerstört, zur Therapie gibt man lebenslang künstlich Insulin zu. Beim Typ II reagiert der Organismus weniger empfindlich gegen Insulin (Insulinresistenz), die Therapie drückt sich in Gewichtsabnahme und in schweren Fällen ebenfalls durch Insulinzugabe aus. Das Ziel ist das Überwinden der Insulinresistenz. Die ersten Behandlungsverfahren von Diabetes bestanden in der Gabe von Schweinebzw. Rinderinsulin, das direkt aus den Tieren isoliert wurde. Aufgrund der vielen Nachteile, die diese Methoden mit sich brachten, wird Insulin seit dem Jahr 1979 gentechnisch durch Bakterien hergestellt. Dafür werden die Gene für die α- bzw. β-Kette auf separaten Plasmiden jeweils hinter das Gen für das Enzym β-Galactosidase als Reportergen fusioniert. Zwischen die beiden Gene baut man noch die Nukleotidsequenz für die Aminosäure Methionin ein. Diese zwei Plasmide werden dann in zwei verschiedene E. coli-Kulturen eingebracht und die Zielgene darin exprimiert. Man isoliert anschließend die von den Bakterien gebildeten Proteine und unterzieht sie einer Bearbeitung mit Bromcyan (CNBr). Diese Säure spaltet Proteinketten dort, wo es Methionin gibt. So gewinnt man die α- und β-Ketten. Schließlich erstellt man eine Mischung beider Ketten und unterzieht diese einer sogenannten oxidativen Sulfitolyse, wobei die Disulfidbindungen zwischen den beiden Ketten entstehen. Nun hat man aktives Insulin gewonnen. 2.8 Immuntechnologie 2.8.1 Antikörper Antikörper sind Moleküle des Immunsystems, die körperfremde Moleküle (Antigene) erkennen und binden. Sie bestehen aus vier Proteinuntereinheiten: zwei leichten und zwei schweren Ketten. Jede dieser Ketten besteht aus einer konstanten und einer variablen Region. Die konstante Region ist innerhalb eines Organismus bei allen Antikörpern derselben Klasse gleich, wohingegen die variablen Regionen, welche an das Antigen binden, differieren. Durch die schweren Ketten lassen sich die Antikörper in verschiedene Oberklassen einteilen. So gehören die häufigsten Antikörper zur Oberklasse Immunglobulin G, welches vor allen Dingen gegen Bakterien wirkt. Durch weitere kleine Unterschiede in den Ketten werden die Antikörper dieser Oberklasse nochmals in verschiedene Unterklassen eingeteilt. Die Aufgabe von Antikörpern ist es, dem Körper durch das Binden der Antigene eine gewisse Immunität vor Krankheitserregern zu vermitteln. Sie werden jeweils spezifisch von einer B-Zell-Population synthetisiert. Entgegen der Auffassung, dass sie nur im Krankheitsfall produziert werden, sind Antikörper ständig in geringer Konzentration im Körper vorhanden. Sind Antigene im Körper, so werden die B-Zellen, welche Antikörper produzieren, die auf das Antigen reagieren, angeregt und beginnen damit sich verstärkt zu teilen. Somit werden auch die Antikörper häufiger produziert. Mittels Mutation und Selektion wird der am besten auf das Antigen passende Antikörper ausgewählt. Dar- 40 2.8 Immuntechnologie aufhin greifen weitere Mechanismen des Immunsystems, um das Antigen unschädlich zu machen. Weiterhin werden einige B-Zellen zu Gedächtniszellen und speichern so das Wissen um den Antikörper im Gedächtnis des Immunsystems, um ihn bei erneuter Infektion schneller in größerer Zahl produzieren zu können. 2.8.2 Impfen Das Immunsystem ist durch das immunologische Gedächtnis in der Lage, sich an Antigene, die es schon einmal bekämpft hat, zu »erinnern« und so sehr viel schneller und effizienter eine Immunreaktion einzuleiten – oft schon, bevor erste Krankheitssymptome auftreten. Diese Fähigkeit sich zu erinnern beruht auf einigen wenigen Gedächtniszellen. Viele Impfstoffe basieren auf unschädlich gemachten oder abgeschwächten Krankheitserregern, die immer noch als Antigen fungieren können und so das immunologische Gedächtnis mit neuen Informationen versorgen. Dieses Vorgehen ist jedoch nicht mit allen Krankheitserregern möglich. Daher bedient man sich beispielsweise Spaltimpfstoffen, die nur ein als Antigen wirksames Protein aus der Oberfläche des Krankheitserregers enthalten. Sollte auch diese Methode ihre Wirkung verfehlen, so kann auf Peptidimpfstoffe zurückgegriffen werden. Diese bestehen nur aus Bruchstücken von Proteinen des Krankheitserregers, welche mithilfe eines Carrier-Proteins verbunden werden. Ferner kann man sich auch sogenannter Vektorimpfstoffe bedienen. Hierbei wird die DNA eines Antigens vom Erreger in die eines nicht pathogenen Wirtes eingeschleust. Dies induziert eine Immunreaktion sowohl gegen das ursprüngliche Antigen, als auch gegen den Wirt. Für all diese Verfahren muss ein spezifisches Antigen des Erregers bekannt sein. Um neue Antigene zu identifizieren, bedient man sich der reversen Impfstoffentwicklung. Dabei beginnt die Suche nach einem neuen Antigen mit dem Anlegen einer Expressionsbibliothek und der Prüfung auf eine Immunantwort an Mäusen. Löst ein Protein eine starke Immunreaktion im Tierversuch aus, so ist es möglicherweise zur Herstellung eines Impfstoffes geeignet. Es muss jedoch noch geprüft werden, ob das exprimierte Protein auch ein Oberflächenprotein ist. 2.8.3 Enzymatische Testverfahren: Der ELISA bedeutet »enzyme-linked immunosorbent assay«, was übersetzt enzymgekoppelter Immunadsorptionstest heißt. Man benutzt ihn, um bestimmte Proteine, Viren oder Ähnliches in einer Probe nachzuweisen, oder um die Konzentration derer zu ermitteln. Das Antigen, welches für die Antikörper spezifisch ist, wird auf eine Mikrotiterplatte immobilisiert. Anfangs muss man also einen Antikörper synthetisieren, der für das nachzuweisende Protein spezifisch ist. An diesen Antikörper koppelt man ein Enzym, welches als Nachweissystem dient. Dieses setzt ein farbloses Edukt zu einem farbigen Produkt um, wie zum Beispiel die alkalische Phosphatase, die X-Phos in einen blauen Farbstoff umsetzt. Das Protein, welches man nachweisen will, wird an eine Mikrotiterplatte gebunden. Daraufhin wird der Antikörper mit dem gekoppelten Nachweissystem hinzugegeben, welcher an das Antigen bindet. Anschließend wird die Mikrotiterplatte gewaschen, damit keine Rückstände zurückbleiben und man nur den Antigen-Antikörperkomplex ELISA 41 2 Biotechnologie im Alltag mit dem daran gekoppelten Nachweissystem erhält. Gibt man nun das Edukt hinzu, wird dieses vom Nachweissystem umgesetzt. Die Intensität des Farbstoffs gibt nun die Konzentration der Antigene an. Es gibt auch ELISA-Assays, bei denen das Nachweissystem nicht an den primären Antikörper gekoppelt ist, sondern an einen sekundären. Der primäre Antikörper erkennt hierbei spezifisch das Antigen. Der sekundäre Antikörper erkennt jedoch nicht das Antigen, sondern den konstanten Teil des primären Antikörpers. Die Kombination aus zwei Antikörpern ist im Endeffekt meist wirtschaftlicher, weil die sekundären Antikörper alle primären Antikörper eines Organismus erkennen und somit nicht für jedes nachzuweisende Protein ein eigener enzymgekoppelter Antikörper hergestellt werden muss. Der ELISA wird für die klinische Diagnose von Erkrankungen des Menschen, wie zum Beispiel HIV-Infektion, Erkrankungen bei Milchkühen und Geflügel sowie für Pflanzenerkrankungen, zur Forschung und für Schwangerschaftstests eingesetzt. ELISAKits erkennen selbst winzige Mengen eines pathogenen Virus oder Bakteriums, bevor der Organismus Zeit gehabt hat darauf zu reagieren, da bei bestimmten Krankheiten charakteristische Proteine den Beginn dieser kennzeichnen, noch bevor der Patient Symptome entwickelt. Dieses hilft die Krankheit schon zu behandeln, bevor der Patient massiv geschädigt wird. Ein ELISA kann aber nicht nur ein Antigen, sondern auch das Vorhandensein eines Antikörpers nachweisen. So kann man zum Beispiel Antigene des HI-Virus auf der Mikrotiterplatte immobilisieren und Blutserum der Testperson hinzugeben. Ist die Person mit HIV infiziert, befinden sich in ihrem Serum Antikörper, die an das Antigen binden. Mit einem gegen den konstanten Teil von menschlichen Antikörpern gerichteten sekundären Antikörper können eventuell gebundene HIV-Antikörper des Probanden nachgewiesen werden. 42 2.9 Transgene Organismen 2.9 Transgene Organismen Ein transgener Organismus ist ein Organismus, der in der Natur natürlicherweise nicht vorkommt. Er wird hergestellt, indem ein Gen aus einem anderen Organismus (Tiere, Pflanzen, Bakterien, Archaen oder Viren) auf den zu modifizierenden übertragen wird. Dadurch erhält der modifizierte Organismus über die Expression des eingebauten Transgens spezifische neue Merkmale. Der Einbau eines Transgens erfolgt bei Pflanzen und Tieren auf jeweils unterschiedliche Weise. 2.9.1 Erzeugung transgener Pflanzen Die Verwendung des Ti-Plasmids (Tumor-induzierendes Plasmid) ist eine häufig angewandte Methode zur Herstellung transgener Pflanzen. Es stammt ursprünglich aus dem Gram-negativen Agrobacterium tumefaciens, welches von Wundsekreten der Pflanze angelockt wird und Teile des Plasmids in die Zelle einschleust, die anschließend fest in das Genom der Pflanzen integriert werden. Durch vorherige Modifikation des eingeschleusten Genabschnittes kann man Pflanzen gezielt genetisch verändern. Agrobacterium tumefaciens kann jedoch nur bestimmte Pflanzenarten infizieren. Eine weitere verbreitete Methode ist deshalb das Beschießen von Pflanzenzellen mit kleinen Goldkügelchen, die mit DNA beschichtet sind. 2.9.2 Erzeugung transgener Tiere Bei der genetischen Manipulation von Tieren wendet man je nach Tierklasse verschiedene Methoden an. Bei Säugetieren stellt die Mikroinjektion eine geeignete Methode dar. Hierbei wird das Transgen in den Vorkern des Spermiums injiziert, kurz bevor bei einer künstlichen Befruchtung die beiden Vorkerne verschmelzen. Dort wird das Transgen dann durch homologes Crossing-Over in das Genom des Spermiums eingebaut. Dafür müssen die das Transgen flankierenden DNA-Abschnitte identisch sein mit Abschnitten im Genom, gegen die sie dann ausgetauscht werden. Bei erfolgreichem Einbau entsteht ein transgenes Gründertier. Bei Insekten bedient man sich gerne der sogenannten Transposons, um ein Transgen einzubauen: Transposons sind »springende Gene«, die bei Anwesenheit einer Transposase (eine Unterklasse der DNA-Rekombinasen) spontan aus ihrer Position im Genom herausspringen und an einer anderen Stelle im Genom wieder eingebaut werden können. Die Transposons sind flankiert von invertierten Sequenzwiederholungen, die als Erkennungssequenzen für die Transposase dienen. Im Gegensatz zum gewöhnlichen Einbau werden bei dieser Methode zwei DNA-Konstrukte verwendet anstatt nur einem: Zum einen ein Helfer-DNA-Konstrukt, das auf Grund defekter invertierter Sequenzwiederholungen nicht in das Wirtsgenom eingebaut werden kann, sondern lediglich die Transposase exprimiert, und zum anderen das DNA-Konstrukt mit dem Transgen, das jedoch kein Gen für die Transposase enthält. Daraus folgt, dass das DNA-Konstrukt mit dem Transgen nach dem Einbau in das Wirtsgenom bei den Nachkommen nicht mehr im Genom »umherspringen« kann. Das Transgen wird also stabil an künftige Generationen weitervererbt. 43 2 Biotechnologie im Alltag 2.9.3 Anwendungsbereiche Ein häufiger Anwendungsbereich transgener Pflanzen ist die Erhöhung des Ernteertrags, beispielsweise durch Herbizid- und Insektenresistenzen. Des Weiteren hofft man, in Zukunft infolge aktueller Forschungen in der Lage zu sein, kontaminierte Böden mit Hilfe von transgenen Pflanzen zu reinigen, indem sie die schädlichen Stoffe dieser Böden zersetzen. Im tierischen Bereich erzeugt man zum Beispiel sogennante transgene KnockoutMäuse zur Erforschung spezifischer Genfunktionen. Dabei wird ein Gen, dessen Funktion man untersuchen möchte, kloniert und in vitro deaktiviert. Das geschieht, indem man das klonierte Zielgen durch den Einbau einer DNA-Kassette unterbricht. Mit dieser inaktiven Kopie wird dann eine heterozygote transgene Maus erzeugt, die jedoch immer noch eine funktionierende Kopie des Gens trägt. Kreuzt man nun diese transgene Maus mit einer weiteren transgenen Maus, so entstehen unter anderem Nachkommen, die zwei inaktive Kopien des Gens enthalten, also homozygot sind. An diesen Mäusen kann untersucht werden, welche phänotypische Veränderung eine Inaktivierung des Gens hervorruft. Zur Überprüfung, ob ein Transgen erfolgreich in einen Organismus eingebaut wurde, gibt es verschiedene Selektionsverfahren. Bei allen wird mit dem Transgen zusammen ein sogenanntes Markergen eingesetzt, das beispielsweise eine Antibiotikaresistenz bewirkt. Bei Hinzugabe des Antibiotikums überleben nur die Organismen, die das Transgen erfolgreich eingebaut haben. Es gibt aber auch nicht-letale Selektionsverfahren, die zum Beispiel mit Lumineszenzen arbeiten. Das sogenannte lux-Gen, welches aus Glühwürmchen stammt, wird in die DNA des Pflanzengewebes eingebaut. Dort wird es exprimiert, und das Enzym Luciferase wird gebildet. Bei Hinzugabe des Substrats Luciferin entsteht Lumineszenz, wodurch die Zellen erkennbar sind, die das gewünschte Transgen eingebaut haben. Die Verwendung von Antibiotikaresistenzgenen um den Einbau der DNA bei Pflanzen zu überprüfen, stößt auf viel Kritik. Mithilfe des Cre-Systems, das nach dem gleichen Prinzip arbeitet wie die oben beschriebenen Transposasen, können diese Gene nachträglich wieder entfernt werden. Die zu entfernende DNA-Sequenz wird auf beiden Seiten von der loxP-Sequenz aus 34 Basenpaaren flankiert. Das Cre-Protein ist ein RekombinaseEnzym, das die spezifischen Sequenzen erkennt und dort anbindet. Die zwischen den loxP-Sequenzen eingeschlossene Region wird durch Rekombination herausgeschnitten und anschließend in der Zelle abgebaut (weil es an keiner anderen Stelle im Genom loxP-Sequenzen gibt, kann das Transgen nirgendwo anders wieder eingebaut werden). Die Pflanzen-DNA enthält nun keine Antibiotikaresistenzgene mehr, sondern nur noch eine einzelne loxP-Sequenz. Um dies in der Praxis zu erreichen, werden Pflanzen mit durch loxP-Sequenzen flankiertem Antibiotikaresistenzgen mit Pflanzen, die das Cre-Gen besitzen, gekreuzt. Die F1-Generation besitzt nun das Transgen mit dem vorgeschalteten, von loxP-Sequenzen flankierten Antibiotikaresistenzgen und das cre-Gen. Dieses cre-Gen wird abgelesen und das Rekombinase-Enzym hergestellt. Durch das oben genannte System wird das Antibiotikaresistenzgen herausgeschnitten. Die Pflanzen besitzen nun das gewünschte Transgen und das Gen für die Cre-Rekombinase, jedoch kein Antibiotikaresistenzgen. 44 2.10 Versuch: Quantifizierung der Aktivität der Beta-Galactosidase Abbildung 2.2: Schematischer Aufbau des Lactose-Operons. 2.10 Versuch: Quantifizierung der Aktivität der Beta-Galactosidase 2.10.1 Einleitung: Das Lactoseoperon Das Enzym β-Galactosidase ermöglicht Bakterien wie Escherichia coli die Verwertung des Zucker-Dimers Lactose, da es diese in die Zucker-Monomere Glucose und Galactose spaltet, welche dann als Wachstumssubstrate genutzt werden können. Die Synthese der β-Galactosidase unterliegt einer Transkriptionskontrolle. Deshalb wird die Transkription nur dann zugelassen, wenn Lactose vorhanden und gleichzeitig keine Glucose in der Umgebung der Zelle ist, welche bevorzugt als Substrat genutzt wird. Durch das Fehlen der Glucose wird die vermehrte Bildung des Botenstoffs cAMP induziert, welcher an den Regulator cAMP-Response-Protein (CRP) bindet. Für die Transkription des Gens, das für die β-Galactosidase codiert, spielt auch die Anwesenheit von Lactose eine Rolle. Diese hebt, in Allolactose umgewandelt, die Blockierung der Aktivität der RNA-Polymerase auf, wodurch das Gen abgelesen werden kann. Dieser Prozess ist auf den Abbildungen 2.2 und 2.3 veranschaulicht. 2.10.2 Material und Methoden Mittels des durchgeführten Versuchs sollte die Abhängigkeit der Synthese der β-Galactosidase vom zugegebenen Zucker nachgewiesen werden. Des Weiteren sollte gezeigt werden, dass die β-Galactosidase nicht bereits in ausreichender Konzentration in der Zelle vorhanden ist, sondern erst bei Glucosemangel und Anwesenheit von Lactose synthetisiert wird. Die Enzymaktivität wird durch die Zugabe des Farbstoffs o-Nitrophenylβ-D-galactopyranosid (ONPG), welcher bei der Spaltung durch β-Galactosidase eine gelbe Färbung hervorruft, nachgewiesen. Im Versuch wurden drei E. coli K12-Kulturen in einem LB-Medium (5 g/l Hefeextrakt, 10 g/l Pepton, 10 g/l NaCl, pH 7,4) herangezüchtet. Je nach Versuchsansatz wurden 2 mM Lactose bzw. 2 mM Lactose und zusätzlich 8 mM Glucose bzw. im dritten Ansatz 2 mM Lactose und Chloramphenicol (2 µg/ml) zugegeben. Anschließend wurden zu den Zeitpunkten 0 min/15 min/30 min/60 min/120 min pro Kultur je zwei Proben mit dem Volumen 1 ml entnommen und jeweils die optische Dichte bei einer Wellenlänge von 600 nm (OD600) gemessen, da dieser Wert für die spätere Berechnung der Enzymaktivität benötigt wird. Danach wurden die Proben abzentrifugiert und in flüssigem Stickstoff 45 2 Biotechnologie im Alltag Abbildung 2.3: Regulation des Lactose-Operons. 46 2.10 Versuch: Quantifizierung der Aktivität der Beta-Galactosidase schockgefroren. Dieser Teil des Versuches wurde in einem Labor vorbereitet; die im Folgenden beschriebenen Schritte wurden im Kurs durchgeführt. Zuerst wurden die Zellpellets in 1 ml Z-Puffer (60 mM Na2 HPO4 , 40 mM NaH2 PO4 , 10 mM KCl, 1 mM MgSO4 , 50 mM β-Mercaptoethanol, pH 7,0) resuspendiert und pro Versuchsansatz (die Kulturen wurden in vier Teile aufgeteilt – ein Teil davon diente als Referenzwert für die spätere photometrische Messung) 100 µl Zellsuspension mit 700 µl Z-Puffer verdünnt. Um die Zellen aufzubrechen, wurden daraufhin jeweils 20 µl Chloroform und 20 µl 0,1 % (w/v) SDS zugegeben. Zum Starten der Nachweisreaktion wurde zu den Ansätzen 200 µl 4 mg/ml ONPG hinzugefügt. Sobald ein Farbumschlag ins Gelbe stattgefunden hatte, wurde die Reaktion durch Zugabe von 400 µl 1M Natriumcarbonat, das jegliche Enzymaktivität durch Verschiebung des pH-Werts ins Basische unterbindet, gestoppt und die Reaktionszeit gemessen. Für die Kontrollversuche wurde das Natriumcarbonat vor dem ONPG hinzugefügt, damit keine Reaktion stattfindet und man einen Vergleichswert für die photometrische Messung erhält. Um präzise Ergebnisse zu erhalten, wurden Dreifachbestimmungen für die verschiedenen Kulturen und Zeitpunkte durchgeführt. Dazu wurde jeweils mit 1 ml des abgestoppten Reaktionsansatzes bei 420 nm am Photometer die Absorption gemessen; die Kontrollversuche dienten dabei als Referenzwerte. Die β-Galactosidase-Aktivität (in Miller-Units) wurde dann mit folgender Formel ermittelt: MU = 1000A420 OD600 · V · t (V = Volumen des Reaktionsansatzes in mL, t = Reaktionszeit in min) 2.10.3 Ergebnisse Bei den Versuchsansätzen, die nur Lactose enthielten, zeigte sich die größte Enzymaktivität. Es war deutlich zu erkennen, dass die Enzymaktivität steigt, je länger die Kultur auf dem Nährmedium mit dem Zucker wachsen konnte. Dies ist darauf zurückzuführen, dass in einer längeren Zeitspanne eine größere Enzymmenge produziert werden kann. In den Versuchsansätzen, die sowohl Lactose als auch Glucose enthielten, zeigte sich eine deutlich geringere Enzymaktivität. Auch hier war eine Abhängigkeit der Enzymaktivität von der Wachstumszeit der Bakterienkultur zu erkennen. In den Proben mit Lactose und Chloramphenicol ließ sich keine Enzymaktivität feststellen. Ferner war auch bei den Kontrollversuchen, die die jeweiligen Referenzwerte lieferten, keine Enzymaktivität nachzuweisen, weil der pH-Wert durch die frühzeitige Zugabe des Natriumcarbonats so stark erhöht wurde, dass die Enzyme denaturiert wurden. 2.10.4 Diskussion Insgesamt zeigte der Versuch, dass die β-Galactosidase-Aktivität reguliert wird und ihre Aktivität sowohl vom vorhandenen Zucker als auch von der Wachstumszeit der Zellkultur auf dem Nährmedium abhängt. So ist wie erwartet bei den Ansätzen mit Glucose und Chloramphenicol wenig bis gar keine β-Galactosidase nachzuweisen, da 47 Abbildung 2.4: Galaktosidase-Aktivitäten bei unterschiedlichen Inkubationsbedingungen. Chloramphenicol die Proteinbiosynthese verhindert und die Glucose wie vermutet die Transkription des Lactoseoperons verhindert. Wie die grafische Darstellung des Versuchsergebnisses (siehe Abbildung 2.4) veranschaulicht, lieferten die Messungen keine eindeutigen Werte, sondern zeigten teilweise hohe Standardabweichungen. Dies ist auf Messfehler bei der Herstellung der verschiedenen Ansätze bzw. zu lange Reaktionszeiten mit dem ONPG zurückzuführen, wodurch die Färbung der Lösung zu stark wurde und deswegen in manchen Ansätzen verdünnt werden musste, was zu weiteren Ungenauigkeiten führte. 2.11 Literaturverzeichnis [1] Antranikian, Garabed: Angewandte Mikrobiologie. Berlin/Heidelberg 2005. [2] Clark, David; Pazdernik, Nanette: Molekulare Biotechnologie. Heidelberg 2009. [3] Süßbier, Siegfried; Renneberg, Reinhard: Biotechnologie für Einsteiger. Heidelberg 2009. 2.11 Literaturverzeichnis 49 50 3 Auf der Suche nach dem Gedächtnis 3.1 Einleitung Juliane Jäpel und Isabell Woest Ob Fahrrad fahren, Vokabeln lernen oder den Weg zur Schule finden – in allen Lebenslagen sind wir abhängig von unserem Gedächtnis. Mit eben diesem und den neurobiologischen Grundlagen des Lernens haben wir uns in unserem Kurs beschäftigt. Nach einer kurzen Einführung zu allgemeinen Mechanismen wie Ruhe- und Aktionspotential und zur Neuroanatomie haben wir uns diesem schrittweise genähert. Dabei haben wir uns anfangs mit der Arbeit des berühmten Neurowissenschaftlers und Nobelpreisträgers Eric Kandel beschäftigt, der einmal sagte: »Das Gedächtnis ist der Leim, der unser geistiges Leben zusammenhält.« Es gibt verschiedene Patienten, deren Fälle veranschaulichen, was bei einem gestörten Gedächtnis passiert. So haben wir uns beispielsweise intensiv mit dem Patienten H.M. beschäftigt. Zwar konnte er nach einer Operation neue motorische Fähigkeiten erlernen, sich jedoch nicht mehr daran erinnern, was er zum Frühstück gegessen hatte. Im Nachfolgenden haben wir Vorträge zu verschiedenen Gedächtnissystemen – dem räumlichen, episodischen, motorischen und emotionalen Gedächtnis – gehört, und uns dabei sowohl mit verschiedenen Tiermodellen als auch mit Ergebnissen beim Menschen auseinander gesetzt. Dabei sind wir auch näher auf die Mechanismen, die dem Lernen zugrunde liegen, eingegangen. Weiterhin haben wir näher beleuchtet, was die Krankheit Morbus Alzheimer ausmacht und wie es bei ihr zum Gedächtnisverlust kommt. Abschließend hatten die Teilnehmer die Möglichkeit sich in Gruppenarbeit zu erarbeiten, inwiefern das Gedächtnis abhängig ist von Faktoren wie Genetik, Schlaf und Alter. Nun können wir zwar nicht besser Fahrrad fahren oder uns besser räumlich orientieren, aber wir wissen jetzt, welche Gehirnbereiche maßgeblich daran beteiligt sind und wo sich diese befinden. Durch eine selbst durchgeführte Studie kennen wir nun auch verschiedene Lernmethoden und haben festgestellt, dass die Loci-Methode, welche auch von Gedächtnisweltmeistern verwendet wird, am besten zum Lernen geeignet ist. 3.2 Klassische Konditionierung Bei der klassischen Konditionierung erlernt der Körper, auf einen Reiz eine antrainierte Reaktion zu zeigen. Der Physiologe Ivan Pawlow entdeckte diese, als er den Speichelfluss bei Hunden untersuchte: Verstärkter Speichelfluss wird durch Futter ausgelöst. Pawlow trainierte die Hunde, indem er vor dem Füttern immer mit einer Glocke läutete. Nach dem Erlernen des Zusammenhangs zwischen Futter und Glocke, der so genannten 51 3 Auf der Suche nach dem Gedächtnis Konditionierung, produzierten die Hunde schon vermehrt Speichel, sobald die Glocke läutete, weil sie gelernt hatten, dass sie danach gefüttert werden. Vor der Konditionierung ist die Fütterung ein unkonditionierter Reiz, auf den der Hund mit Speichelfluss reagiert. Der Speichelfluss ist in diesem Fall angeboren und muss nicht erlernt werden. Glockenläuten ohne anschließende Fütterung ist ein neutraler Reiz, auf den der Hund nicht reagiert. Nach der Konditionierung ist das Glockenläuten ein konditionierter Reiz, auf den der Hund mit einer konditionierten, erlernten Reaktion reagiert, indem er Speichel produziert. Es gibt sowohl die Appetenzkonditionierung als auch die Aversionskonditionierung. Die Appetenzkonditionierung ist eine Konditionierung mittels eines positiven Reizes wie zum Beispiel die Fütterung der Hunde. Die Aversionskonditionierung dagegen erfolgt beispielsweise durch einen Stromschlag, der einen negativen Reiz darstellt. Konditionierungen können auch gelöscht werden, sodass der zuvor konditionierte Reiz abtrainiert wird. Bei einem so genannten Pawlowschen Hund müsste man also immer wieder mit der Glocke läuten, ohne dass die Hunde anschließend Futter bekommen. So würden sie nach einer gewissen Zeit nicht mehr konditioniert auf das Läuten reagieren, was bedeutet, dass sie keinen Speichel mehr produzieren. Die Konditionierung spielt sich unter anderem im Kleinhirn, dem Cerebellum, ab. Es gibt zwei Inputpfade, einen für den konditionierten Reiz und einen für die angeborene Reaktion. Beide Pfade laufen zu den Purkinjezellen in der Kleinhirnrinde und dem Nucleus interpositus. Hier findet die Verknüpfung zwischen konditioniertem und unkonditioniertem Reiz statt. Der Befehl für die konditionierte Reaktion auf den Reiz geht über einen Output-Pfad zurück, der vom Nucleus interpositus zu den entsprechenden motorischen Arealen führt. 3.3 Aplysia Die Meeresschnecke Aplysia Californica sorgte in den letzten Jahrzehnten für eine neurobiologische »Weltsensation«. Wie viele andere wirbellose Tiere besitzt sie ein kleines Nervensystem mit großen Neuronen. Gepaart mit dem günstigen Preis und der kurzen Lebenserwartung wurde Aplysia zum perfekten Studienobjekt für Eric Kandel. Untersucht wurde der Kiemenrückzugsreflex: Wird ein röhrenförmiges Organ (Sipho) mit einem Wasserstrahl gereizt, ziehen sich die Kiemen zurück. Man hat herausgefunden, dass die Reaktion auf den Reiz mit der Zeit schwächer wird; diese Art des Lernens nennt man Habituation. Habituation ist eine unbewusste Form des Lernens, bei der die Reaktion auf einen als ungefährlich erkannten Reiz geschwächt wird. Eric Kandel und sein Team konnten das Motoneuron identifizieren, das den Muskel für das Zurückziehen der Kiemen innerviert, und nannten es L7. Nicht an den Sinnesneuronen am Sipho, sondern an den Synapsen des sensorischen Neurons, welches den Reiz am Sipho aufnimmt, findet bei der Habituation eine Veränderung statt. Dabei wird die präsynaptische Endigung so verändert, dass sie weniger Neurotransmitter ausschüttet. Es ist noch nicht bekannt, wie dies passiert, vermutlich findet eine Abschwächung der Funktionalität von Ca2+ -Kanälen 52 3.4 Synaptische Plastizität Abbildung 3.1: Neben Referaten erarbeiteten wir uns Inhalte auch in Gruppenarbeit. statt. Wurde das Versuchstier habituiert, entsteht ein geringeres Aktionspotenzial bei L7 und letztendlich eine schwächere Reaktion auf den ursprünglichen Reiz. Diese Habituation hält unterschiedlich lange an. Ungefähr zehn Stimulationen führen zu einem Kurzzeitgedächtnis für einige Minuten, während vier Sitzungen, die auf mehrere Tage verteilt sind, zu einem Langzeitgedächtnis führen. Die Sensitivierung ist das Gegenteil von Habituation, hierbei wird die Reaktion auf einen Reiz immer stärker. Dabei wird die Synapsenaktivität von Neuronen gesteigert. Um Aplysia zu sensitivieren, gab Kandel der Schnecke einen leichten Elektroschock am Kopf, wodurch das Neuron L29 aktiviert wurde. L29 hat eine Synapse mit der Axonterminale des sensorischen Neurons, das auch eine Synapse mit L7 besitzt. Wird L29 gereizt, schüttet es den Neurotransmitter Serotonin aus. An der Axonterminale gibt es Rezeptoren für Serotonin, die an ein G-Protein gekoppelt sind. Dieses Protein aktiviert Adenylatcyclase, welche aus ATP den second messenger cAMP herstellt. Es findet eine Signalweiterleitung statt, bis schließlich Kaliumkanäle geöffnet werden. Dies bewirkt ein längeres postsynaptisches Potential und somit eine stärkere Reaktion. Weiterhin gibt es auch Unterschiede bei der Sensitivierung bezüglich Langzeit- und Kurzzeitgedächtnis: Beim Langzeitgedächtnis z. B. werden neue Proteine gebildet, wobei sich auch neue Synapsen ausbilden. Zusammenfassend lehrt die Forschung an Aplysia über grundlegende Formen des Lernens. 3.4 Synaptische Plastizität Die Synapse stellt die Verbindung der Nervenzellen im Gehirn dar. Das Axon bindet hier an Dendriten einer anderen Zelle; dazwischen befindet sich nur der synaptische Spalt. Die synaptische Plastizität beschreibt, wie sich die Synapse während eines Lernprozesses verändert. Dabei gibt es zwei generelle Formen von Ereignissen, die zur Veränderung 53 3 Auf der Suche nach dem Gedächtnis der Synapse beitragen: die Langzeitpotenzierung, auch LTP genannt, und die Langzeitdepression, auch als LTD bekannt. Dabei spielt die Häufigkeit, mit der eine Synapse zur Reizweiterleitung verwendet wird, eine große Rolle. Ist die Synapse über einen längeren Zeitraum aktiv, findet LTP statt. Hierfür müssen zeitgleich eine postsynaptische Depolarisation und eine präsynaptische Freisetzung von Neurotransmittern stattfinden. Zunächst findet die Depolarisation statt; dadurch gibt das Mg2+ NMDA-Kanäle frei, durch die nun Na+ in den postsynaptischen Teil gelangt. LTP wird von zwei Faktoren aufrecht erhalten: zum einen durch die Ergänzung von AMPA-Rezeptoren an der Postsynapse, die dadurch mehr Neurotransmitter aufnehmen kann, zum anderen durch die erhöhte Freisetzung von Glutamat, einem Neurotransmitter, der an eben jene Rezeptoren anbindet und dadurch Reize weiterleitet. Dieser Prozess tritt beim Lernen auf; wird die Synapse gestärkt, lassen sich Informationen leichter miteinander verknüpfen. Die LTD ist das Gegenteil der LTP. Hier sind die Synapsen über längere Zeit kaum oder gar nicht aktiv. LTD entsteht durch eine Aktivierung von Neuronen, die nicht ausreichend ist für die Entstehung von LTP. Meist passiert dies durch eine asynchrone Aktivierung des Neurons durch zwei andere Neurone. Als Folge werden AMPA-Rezeptoren in die Zelle eingezogen. Diesen Vorgang nennt man Internalisierung. Möglicherweise kann es sogar zu einer Eliminierung der kompletten Synapse kommen. Die Plastizität der Synapse beschreibt den Prozess des Lernens im Gehirn. Veränderung der Effizienz von Synapsen ist dabei ursächlich. Das Lernen lässt sich auch mit dem Muskeltraining vergleichen: Häufiges Wiederholen stärkt die Verbindungen. 3.5 Patient H.M. Im Jahr 1926 wurde ein Junge geboren, dessen Vergangenheit, Zukunft und Gegenwart sich mit 27 Jahren dramatisch verändern sollten. Schon mit neun Jahren war er nicht mehr der Junge Henry, sondern Patient H.M., der unter den Anfängen einer schwerer werdenden Epilepsie litt. 18 Jahre später, mit 27, stimmte er, in Absprache mit seinen Ärzten, einer schweren Gehirnoperation zu, da er nicht einmal mehr in der Lage war zu arbeiten. Zu diesem Zeitpunkt vermutete man unter Neurowissenschaftlern, dass ein bestimmter Bereich im Gehirn, nämlich Teile des Temporallappen u. a. der Hippocampus, der Ursprungsort für epileptische Anfälle ist. Nach vielen fehlgeschlagenen Therapieversuchen blieb H.M. als letzte Option die Entfernung von Hippocampus und Amygdala, um seine Krankheit zu heilen. Während einer Operation wurden im Jahr 1953 Teile des Hippocampus und die komplette Amygdala entfernt. Nach der Operation kamen alle Wissenschaftler zu einem erstaunlichen Ergebnis. Er war scheinbar von der Epilepsie geheilt. Kurze Zeit später hatte man jedoch eine zweite, tragischere, Erkenntnis. Man stellte fest, dass H.M. keine neuen Erinnerungen abspeichern konnte. Er erinnerte sich an nichts, was er tat, sobald er einmal von seiner aktuellen Tätigkeit abgelenkt war. Dies war ein Zeichen dafür, dass das sogenannte Arbeitsgedächtnis intakt war, während die Übertragung in das Langzeitgedächtnis 54 3.6 Deklaratives Gedächtnis anscheinend nicht mehr stattfinden konnte. Diese Form von Gedächtnisverlust nennt man anterograde Amnesie. Erinnerungen, die vor der Schädigung, also der Operation, abgespeichert worden waren, konnten teilweise noch abgerufen werden, während der Patient nicht mehr in der Lage war, ein Gedächtnis in der Zeit nach der Schädigung aufzubauen. Das Erstaunliche war, dass er trotz der fehlenden Gedächtnisfähigkeiten motorische Fertigkeiten erlernen konnte. So erlernte er z. B. das Golfspielen problemlos, war jedoch jedes Mal davon überzeugt, dass er ein Naturtalent war und eine gottgegebene Begabung besaß, da er sich ja nicht mehr an den Lernvorgang erinnern konnte. H.M. wurde also nicht nur vom kleinen Jungen zum Epilepsiepatienten, sondern auch vom Patienten zum wissenschaftlich hochinteressanten Versuchsobjekt. Er interagierte mit einer eigenen Psychologin, mehreren Ärzten und Betreuern, doch er konnte sich nicht einmal an sie erinnern. Einmal beschrieb er sein Leben wie ein ständiges Erwachen aus einem Traum, der seine eigene Vergangenheit verkörperte. Er konnte sich kein wirkliches Hier und Jetzt mehr aufbauen, lebte bis zu seinem Tod in einem sich ständig verändernden und alternden Körper, während er die Persönlichkeit seines 27-jährigen Ichs behielt. So starb er mit 82 Jahren. Die Wissenschaft jedoch behielt ihn als einen außergewöhnlichen Patienten in Erinnerung, der der Neurobiologie viele neue Erkenntnisse rund um das Gedächtnis brachte. 3.6 Deklaratives Gedächtnis Das so genannte deklarative oder explizite Gedächtnis speichert Fakten und Ereignisse im Gehirn. Es lässt sich untergliedern in die folgenden beiden Bereiche: Das episodische Gedächtnis für persönliche Erinnerungen und Erlebnisse, beispielsweise eine Geburtstagsfeier oder eine Unterhaltung, und das semantische Gedächtnis für allgemeine Fakten über die Welt, zum Beispiel den Namen eines Bekannten oder die Tatsache, dass Rio de Janeiro in Brasilien liegt. Die beiden sind nicht zwangsweise miteinander verknüpft. Es kommt ja vor, dass man sich nicht erinnern kann, woher man etwas weiß; die episodische Erinnerung fehlt also. Andererseits erinnert man sich auch häufig an eine Situation, in der man bestimmte Fakten erfahren hat, die Fakten an sich jedoch sind einem entfallen. Hier fehlt die semantische Erinnerung. Das deklarative Gedächtnis ist von dem sogenannten impliziten Gedächtnis abzugrenzen. Unter diesem Begriff wird Verschiedenes zusammengefasst: Einerseits motorisches oder prozedurales Lernen, also der Erwerb bestimmter Fertigkeiten (wie zum Beispiel Fahrradfahren), andererseits Vorgänge wie Priming oder Konditionierung. Beide, das deklarative und das implizite Gedächtnis, beruhen auf unterschiedlichen Vorgängen im Gehirn, die auch in anderen Bereichen stattfinden. Für deklaratives Lernen, das bedeutet das Hinzufügen von neuen Informationen zum deklarativen Gedächtnis, ist der Hippocampus im medialen, also mittig gelegenen, Temporallappen essentiell. Er ist in beiden Hirnhälften vorhanden. Hier werden die neu 55 3 Auf der Suche nach dem Gedächtnis aufgenommenen Informationen zwischengespeichert, bis sie schließlich ins Langzeitgedächtnis übergehen. Diesen Vorgang nennt man Konsolidierung. Der Hippocampus fungiert dabei als eine Art Knotenpunkt der Verschaltungen zwischen einzelnen Nervenzellen der Großhirnrinde, die für die Speicherung zuständig sind. Ob sich diese Nervenzellen mit der Zeit auch untereinander stärker vernetzen, sodass der Hippocampus zur Speicherung dieser Informationen nicht mehr benötigt wird (Konsolidierungstheorie), oder ob er seine Funktion als Schaltstelle weiter beibehält (Theorie multipler Gedächtnisspuren), ist noch umstritten. Jedenfalls führt eine Schädigung des Hippocampus zu erheblichen Gedächtnisproblemen, die vor allem den Übergang zwischen Kurzzeit- und Langzeitgedächtnis, sowie das Abrufen von Informationen aus diesem betreffen (siehe auch Patient H.M.). Eine weitere für das deklarative Langzeitgedächtnis sehr wichtige Hirnregion ist der frontale Cortex, also die Rinde des Stirnlappens, der die Funktion des Hippocampus hemmt, um zu verhindern, dass überflüssige Informationen gespeichert oder abgerufen werden. Des Weiteren spielen auch Teile des Zwischenhirns eine tragende Rolle beim deklarativen Lernen und Abrufen. Eine Schädigung des Zwischenhirns (zum Beispiel durch vermehrten Alkoholkonsum) kann zum Korsakow-Syndrom führen, welches gekennzeichnet ist durch Störungen des Gedächtnisses und Konfabulation, d. h. der Patient erfindet unbewusst Geschichten, um seine Gedächtnislücken zu füllen. 3.7 Amnesien Eine Amnesie beschreibt das Phänomen des Gedächtnisverlusts, welches am häufigsten aufgrund von Schädel-Hirn-Traumata eintritt. Weitere Möglichkeiten für den Eintritt dieser Störung bestehen bei übermäßigem Alkohol- und Drogenkonsum oder bei bestimmten Krankheiten, wie unter anderem Epilepsie, Meningitis oder Enzephalitis. Dabei tritt eine Amnesie grundsätzlich plötzlich ein und baut sich nicht über einen längeren Zeitraum auf. Nach Ausbildung besteht sie entweder für einen begrenzten Zeitraum oder sogar lebenslang. Je nach Art der Amnesie ist die Wahrscheinlichkeit, seine Erinnerungen wiederzuerlangen, unterschiedlich. In seltenen Fällen sind die Erinnerungen durch Gedächtnistraining oder Psychotherapie wieder aufzubauen. Mögliche emotionale Folgen für den Patienten sind Angststörungen und Depressionen. Prinzipiell sind verschiedene Arten von Amnesien zu unterscheiden. Die erste Form wird als retrograde Amnesie bezeichnet und beschreibt den Verlust der Erinnerungen an eine Zeitspanne vor einer Hirnschädigung. In diesem Fall herrscht eine Störung des autobiographischen Gedächtnisses vor. Es ist also nicht mehr möglich, sich an ein bestimmtes, selbst erlebtes Ereignis zu erinnern. So kann man sich beispielsweise nicht an seine eigene Lebensgeschichte oder an seine Angehörigen erinnern. Im Anschluss an diesen Ausfall ist es bei einer dauerhaften Schädigung der Neuronen meistens unmöglich, das Gedächtnis wiederzuerlangen. Dies ist auf ein Absterben von Nervenzellen zurückzuführen, welches unter anderem durch Hirnblutungen hervorgerufen werden kann. 56 3.8 Langzeitpotenzierung im Hippocampus Abbildung 3.2: Zwischendurch aktivierten wir uns mit verschiedenen kleinen Spielen. Eine andere Form der Amnesie ist die anterograde Amnesie, welche ebenfalls bei Gehirnerschütterungen auftritt. Sie entsteht durch eine Läsion des Hippocampus, sodass der Mechanismus der Informationsübertragung vom Kurzzeitgedächtnis ins Langzeitgedächtnis gestört ist. Neue Informationen können lediglich für ein bis zwei Minuten gespeichert werden und gehen verloren, sobald sich die betroffene Person einem anderen Thema widmet. Häufig ist eine anterograde Amnesie auch mit einer retrograden Amnesie verbunden. Weiterhin gibt es die transiente globale Amnesie. Am häufigsten tritt sie im hohen Alter auf, da sie Folge eines Schlaganfalls sein kann, für den die Wahrscheinlichkeit mit dem Alter zunimmt. Dabei stellt sie eine anterograde Amnesie dar, die jedoch für maximal 24 Stunden anhält. Andere Merkmale der transienten globalen Amnesie sind zudem Orientierungsstörungen in Bezug auf Zeit, Situation und Ort. Hieraus ergibt sich, dass die Patienten oft ratlos wirken und wiederholt die gleichen Fragen stellen, obwohl sie diese bereits mehrmals beantwortet bekommen haben. Nach solch einem Zeitraum von ca. 24 Stunden verhalten sie sich jedoch wieder normal und leiden lediglich noch an einer Gedächtnislücke für die entsprechende Zeit der Amnesie. Letztendlich ist bei allen Formen der Amnesie jedoch nicht das prozedurale Gedächtnis betroffen. Somit bleiben alle automatischen motorischen Fähigkeiten erhalten. 3.8 Langzeitpotenzierung im Hippocampus Der Hippocampus ist Teil des Temporallappens und besteht aus zwei Schichten von neuronalen Verschaltungen. Dabei handelt es sich um den Gyrus dentatus und das Ammonshorn, wobei letzteres in weitere vier Bereiche gegliedert ist, von denen die Bereiche CA1 und CA3 die größte Bedeutung in der Forschung haben. Der Hippocampus ist wichtig für die langfristige Speicherung von Informationen, bei der die Reizübertragung durch die Induktion von LTP beeinflusst werden kann. 57 3 Auf der Suche nach dem Gedächtnis Wenn LTP induziert werden soll, müssen gewisse Bedingungen erfüllt sein. Dabei handelt es sich um die Depolarisation der postsynaptischen Membran, welche durch das Eintreffen mehrerer Aktionspotentiale ausgelöst wird. Experimentell wird beispielsweise eine elektrische Reizabfolge gesendet, die der Frequenz der elektrochemischen Signalübertragung mehrerer Aktionspotenziale entspricht. Dies ermöglicht, dass mehrere Aktionspotentiale zeitgleich ausgelöst werden und so die Langzeitpotenzierung ausgelöst wird. Hierbei dient Glutamat als Transmitter der Synapsen, da er an AMPA-Rezeptoren bindet. Dies löst den Einstrom von Na+ in die Zelle aus und es kommt zur Depolarisation. Dadurch werden blockierende Mg2+ -Ionen von NMDA-Rezeptoren entfernt, was zudem dafür sorgt, dass Ca2+ -Ionen einströmen und von Glutamat aktiviert werden, indem Glutamat an diesen Rezeptor bindet. Aufgrund dieses Einstroms werden zwei Proteinkinasen aktiviert, Proteinkinase C und CaMK2, welche für den weiteren Verlauf von großer Bedeutung sind, da sie für den Einbau weiterer AMPA-Rezeptoren zuständig sind. Der weitere Verlauf wurde bisher aber noch nicht vollständig erforscht. Da eine Steigerung der Effizienz der Reizübertragung hervorgerufen werden soll, werden die AMPA-Rezeptoren von der Proteinkinase CaMK2 phosphoryliert, sodass ein erhöhter Na+ -Ioneneinstrom durch eine größere Ionenleitfähigkeit ermöglicht wird. Es können des Weiteren neue AMPA-Rezeptoren eingebaut werden, was zu einem erhöhten Ioneneinstrom führen würde, oder es besteht die Möglichkeit, weitere Synapsen auszubilden, sodass mehr Aktionspotentiale übertragen werden können. Aufgrund eines ständigen Austausches an AMPA-Rezeptoren gehen bereits phosphorylierte Rezeptoren verloren, dennoch ist eine dauerhafte Potenzierung, also Steigerung der Effizienz einer Reizübertragung, möglich. Dieser Prozess wird ermöglicht, da die Proteinkinase CaMK2 sich selbst phosphorylieren kann, indem sie durch den Ca2+ Einstrom aktiviert wird. Die neuen AMPA-Rezeptoren werden somit immer wieder neu phosphoryliert und können den Reizübertragungsprozess in Gang halten. Abschließend kann der Prozess der Langzeitpotenzierung als ein Zusammenspiel mehrerer Faktoren gekennzeichnet werden, bei dem die elektro-chemische Reizübertragung in ihrer Dauer und ihrer Intensität gesteigert wird. 3.9 Räumliches Lernen bei Tieren Beim räumlichen Lernen wird die Fertigkeit trainiert, sich in einem Raum zurechtzufinden. Von den im Gehirn dafür verantwortlichen Bereichen ist vor allem der Hippocampus wichtig. Der Hippocampus liegt zentral im Gehirn und ist verantwortlich für den Transfer von Informationen vom Kurzzeitgedächtnis ins Langzeitgedächtnis. Er ist sehr wichtig für das Speichern von Erinnerungen und die Koordinierung verschiedener Gedächtnisinhalte. Die Wichtigkeit des Hippocampus bewies unter anderem der Wissenschaftler Richard Morris mithilfe des nach ihm benannten Morris-Wasserlabyrinths. Dieses ist ein runder, mit dunkel gefärbtem Wasser gefüllter Behälter, sodass nicht zu sehen ist, was sich 58 3.10 Räumliches Lernen bei Menschen unter der Oberfläche befindet. In diesen Behälter werden nun Ratten gesetzt, die solange schwimmen müssen, bis sie ein nicht sichtbares Podest gefunden haben, beziehungsweise bis die Maximalzeit vorbei ist. Vor diese Aufgabe wurden sowohl gesunde Ratten als auch Ratten mit Schäden am Hippocampus gestellt. Während die gesunden Ratten schnell lernten und das Podest nach wenigen Übungen sehr schnell fanden, zeigte sich kein Lernfortschritt bei Ratten mit hippocampalen Schäden. Sie konnten auch nach mehreren Durchgängen das Podest im Wasser nicht finden. Daraus lässt sich schließen, dass aufgrund der hippocampalen Schäden kein Lernprozess zu verzeichnen war. Um Genaueres über das räumliche Lernen zu erfahren, maß man die Neuronenaktivität der Ratten im Hippocampus. Dabei fand man heraus, dass bestimmte Nervenzellen auf bestimmte Bereiche in einem Raum reagieren. Diese Neurone nennt man Ortszellen. Dabei nennt man die Orte, die in einem bestimmten Neuron die höchste Aktivität hervorrufen, Ortsfelder. Die Ratten lokalisieren ihren Standort mithilfe sensorischer, vorwiegend visueller Reize. Dabei senden bestimmte Neurone Signale an einer bestimmten Stelle im Raum. Dadurch können sich die Zellen an ihre Umgebung anpassen. Dafür ist der folgende Versuch ein gutes Beispiel. In einem Raum hat man die Neuronenaktivität einer Ratte an einem bestimmten Punkt gemessen. Anschließend drehte man den Raum und wiederholte den Versuch. Die Neuronen der Ratte feuerten wieder an derselben Stelle im Raum, obwohl sich diese nicht am gleichen Ort befand. Hier haben sich also die Neuronen an die Umgebung angepasst und mitgelernt. Man schloss daraus, dass der Hippocampus am sogenannten Ortsgedächtnis beteiligt ist und eine Art räumliche Karte der Umwelt erstellt. Verhaltenswissenschaftler fanden heraus, dass es zwei Möglichkeiten gibt, wie Erinnerungen im Ortsgedächtnis gespeichert wird. Zum einen die räumliche Karte und zum anderen das relationale Gedächtnis. Hier werden Verbindungen zwischen verschieden Assoziationen geknüpft, wobei ein verständliches Bild der räumlichen Umgebung entsteht. Zusammenfassend lässt sich sagen, dass das räumliche Gedächtnis von Verbindungen verschiedener Sinneseindrücke abhängig ist und dadurch ein räumliches Bild entsteht, welches eine Orientierung ermöglicht. Dabei spielt der Hippocampus eine entscheidende Rolle. 3.10 Räumliches Lernen bei Menschen Der Mensch prägt sich Dinge ein, indem das Gehirn Sinneseindrücke verarbeitet. Wir lernen, wenn es zu einer synaptischen Veränderung im Gehirn kommt. Wichtig für das räumliche Lernen ist der Hippocampus. Dieser ist in beiden Gehirnhälften lokalisiert. Der hintere Teil wird als posteriorer Hippocampus, der vordere als anteriorer Hippocampus bezeichnet. Er ist zum Beispiel verantwortlich für die Gedächtniskonsolidierung, der Überführung von Gedächtnisinhalten aus dem Kurzzeit- in das Langzeitgedächtnis. Im Jahre 2008 wurde in London die Studie »Navigation-related structural change in the hippocampi of taxi drivers« durchgeführt. Hierbei wurden die Hippocampi von 59 3 Auf der Suche nach dem Gedächtnis Taxifahrern und einer gleichen Anzahl anderer Testpersonen, die einen anderen Beruf ausübten, getestet. Die Taxifahrer hatten eine zweijährige Ausbildung absolviert und dadurch die Fähigkeit erworben zwischen tausenden von Plätzen in London zu navigieren. Die anderen Testpersonen hatten keine außergewöhnlichen Navigationsfähigkeiten. Die Untersuchung des Gehirns wurde mithilfe der voxel-basierten Morphometrie (VBM) durchgeführt. Dies ist eine tomographische Schichtbildaufnahme, welche zum Beispiel der Charakterisierung von Strukturen im Gehirn dient. So konnten die Formen und Größen der Hippocampi ermittelt und verglichen werden. Da die Taxifahrer in ihrer Ausbildung sehr präzise die Straßen Londons auswendig lernen mussten, kam es in ihrem posterioren Hippocampus zu einem Lernvorgang, zu einer synaptischen Veränderung. Der posteriore Hippocampus ist gewachsen, während der anteriore Hippocampus dagegen kleiner geworden ist. Die Studie bestätigt, dass es im Hippocampus zu einer strukturellen Plastizität kommt. Wenn wir lernen und bestimmte Bereiche des Gehirns trainieren, bilden sich weitere Synapsen aus und diese Bereiche können auch größer werden. Der posteriore Hippocampus ist hierbei der Bereich des Gehirns, der für das räumliche Lernen und den Orientierungssinn zuständig ist. Somit schnitten die Taxifahrer sehr gut in Orientierungsfragen ab. Sollten sie jedoch Wortpaare bilden, so schnitten sie eher schlechter ab, weil der posteriore Hippocampus mit dem Navigationslernen auf Kosten des anterioren Hippocampus wuchs, welcher zum Beispiel für Assoziationen wichtig ist. Um festzustellen, wie sich Schäden am Hippocampus auf die Fähigkeit räumlich zu lernen auswirken, testeten Forscher um 2005 den Patienten E.P., der durch einen Unfall Schäden am Hippocampus erlitt. E.P. konnte sich an seine Heimat vor dem Unfall erinnern und in dieser zurechtfinden, jedoch nicht mehr an die Orte, die er nach dem Unfall besucht hat, auch seine eigene Wohnung. Trotz der Schäden am Hippocampus war es für ihn möglich sich an Sachen zurückzuerinnern, jedoch nicht neue Sachen zu erlernen. Das räumliche Lernen wird demnach durch den Hippocampus bestimmt. Dieser verarbeitet und leitet aktuelle Informationen weiter. Dies kann zu einer nachhaltigen Speicherung führen, wenn der Hippocampus keine Schädigungen hat. Trainieren wir bestimmte Bereiche des Hippocampus sehr stark, so kann es zu einem sichtbaren Wachstum kommen 3.11 Was ist motorisches Lernen Motorisches Lernen beschreibt das Erlernen einer Fertigkeit und deren Abspeicherung im Fertigkeitengedächtnis – auch prozedurales Gedächtnis genannt. Die Fertigkeiten werden unterteilt in sensomotorische und kognitive Fertigkeiten. Sensomotorische Fertigkeiten beinhalten jegliche Art von Bewegung und lassen sich noch einmal differenzieren, in geschlossene (Bedingungen vorgeschrieben und immer gleich) und offene (veränderbare Bedingungen) Fertigkeiten. Als gutes Beispiel gilt das Tanzen – zum einen mit fester Choreographie beim Hip-Hop (geschlossen) und zum anderen mit mehr Freiheit beim 60 3.12 Verarbeitung von motorischem Lernen Standard-Tanz (offen). Kognitive Fertigkeiten beschreiben das Erlernen von gedanklichen Vorgängen, wie zum Beispiel das Kopfrechnen oder das Zahlenrätsel Sudoku. Alle Fertigkeiten lassen sich durch Übung verbessern, jedoch nur bis zu einem bestimmten Grad. Das Potenzgesetz der Übung legt fest, dass die Fortschritte im Verlauf eines Lernprozesses immer kleiner werden, beziehungsweise es länger dauert ähnlich große Fortschritte wie zu Beginn eines Lernprozesses zu erreichen. Das Potenzgesetz ist durch Rückmeldung oder ein so genanntes Feedback zu überwinden (Beispiel: Tanzen vor einem Spiegel). Um sich weiter zu verbessern und um kleinste Fehler einzustellen braucht der Mensch solch ein Feedback, da er sich selbst irgendwann nicht mehr genau reflektieren kann. Hierbei gilt, dass häufiges Feedback einen kurzfristigen Erfolg zur Folge hat und ein eher seltenes Feedback einen langfristigen Erfolg. Sensomotorische sowie kognitive Fertigkeiten können implizit erlernt werden. Implizites Lernen beschreibt unbewusstes Erlernen einer Fertigkeit. Ein geeignetes Beispiel hierfür ist das selbstständige und eben unbewusste Erlernen der effektivsten Methode ein Fenster zu putzen. Dies wird anschaulich dargestellt durch das »Drei-Phasen-Modell« des Fertigkeitenerwerbs. Zu Anfang eines Lernprozesses steht die kognitive Phase, in der aktives Denken erforderlich ist (Aufbau eines neuen Zeltes mit genauem Studieren der Anleitung). Darauf folgt die assoziative Phase, in der man sich an vormals ausgeführte Handlungen erinnert (erneutes Aufbauen des Zeltes mit genauem Erinnern an den ersten Aufbau). Zum Abschluss gelangt man in die automatische Phase, in der keine große Aufmerksamkeit mehr benötigt wird (erneutes Aufbauen, nun jedoch parallel dazu Gespräche oder anderes möglich). Sind diese drei Phasen durchlaufen, nennt man das ein motorisches Programm. Dies ist eine gelernte Handlungsabfolge und nicht zu vergleichen mit einem Reflex, der eine angeborene Reaktion darstellt. Den Vorgang des Verlernens und Vergessens einer Fertigkeit nennt man Fertigkeitenzerfall, wobei sensomotorische länger und besser behalten werden können als kognitive Fertigkeiten. Das erneute Erlernen der vergessenen Fertigkeit fällt den Menschen dann aber leichter. 3.12 Verarbeitung von motorischem Lernen Wie kann man motorische Fähigkeiten erlernen? Hierfür relevante Hirnstrukturen sind die Basalganglien unterhalb der Großhirnrinde, der Cortex und das Cerebellum in der hinteren Schädelgrube. Die Aufgabe der Basalganglien lässt sich mit Hilfe eines Experiments nachvollziehen: Zunächst wurde eine Ratte in ein mit Wasser gefülltes Becken gesetzt. Dieses Wasser war dunkel gefärbt und ein kleines Podest wurde an einem bestimmten Punkt kurz unter der Wasseroberfläche angebracht. Die Ratte sollte dieses nun finden. Das Experiment wurde oft wiederholt. Ratten ohne Schädigung im Gehirn lernten nach einiger Zeit, wo sich das Podest befindet, wohingegen Ratten mit hippocampaler Läsion sich diesen Ort nicht merken konnten. Die Ratten, die eine Schädigung der Basalganglien aufwiesen, hatten 61 3 Auf der Suche nach dem Gedächtnis Abbildung 3.3: Auch wir übten uns im motorischen Lernen. hingegen keine Schwierigkeiten damit. Nun wurde aber der sogenannte Lerntransfer eingesetzt, d. h. man hat die Plattform während die Ratte sich im Becken befand sichtbar verschoben. Die Ratte schwamm zunächst zum alten Standort des Podests und lokalisierte es erst anschließend neu. Sie hatte sich an die Stelle an der sich das Podest befand, den Ort der Rettung, erinnert. Dahingegen nahm die Ratte mit hippocampaler Schädigung das Podest, das Objekt der Rettung, wahr und steuerte deshalb den neuen Standort an. Hier wird deutlich, dass die Basalganglien wichtig für die Interaktion zwischen dem sensorischen und dem motorischen System sind. Sie initialisieren Bewegungen und steuern z. B. die Geschwindigkeit. Das motorische Fertigkeitsgedächtnis wird aufgebaut. Bei der Krankheit Morbus Parkinson treten Defizite motorischer Steuerung und Koordination auf. Die eigentlich aktivierende Wirkung der Basalganglien auf die Großhirnrinde ist aufgrund von Dopaminmangel in der Substantia Nigra gestört. Der cerebrale Cortex ist für die Steuerung und Koordinierung von Bewegungen zuständig und steuert somit komplexe Handlungen. Im Cortex sind die Neuronenverschaltungen in besonderem Maße auf die häufig ausgeführten Tätigkeiten ausgelegt: Bereiche können durch spezifisches Training an Volumen gewinnen, die Plastizität spielt also eine große Rolle. Das Cerebellum dient zur Koordination von zeitlichem Ablauf und Bewegungsabfolge sowie zur Feinabstimmung der Motorik. Die Purkinjezellen im Kleinhirn sorgen für dessen Verbindung zu Neuronen anderer Gehirnregionen, was zur Ausführung von sensomotorischen Fähigkeiten essentiell ist. Das Erlernen komplexer motorischer Fähigkeiten erfordert demnach die richtige Funktion aller drei Komponenten. Miteinander verknüpft sind diese größtenteils über das Rückenmark. Allgemein besteht die Verarbeitung motorischen Lernens in einem Prozess, der von der Initialisierung in den Basalganglien über die Steuerung im Cortex bis hin zur Koordinierung von Zeit und Ablauf im Cerebellum reicht. 62 3.13 LTD im Kleinhirn 3.13 LTD im Kleinhirn Im Gegenteil zur Langzeitpotenzierung (LTP), die eine dauerhafte Verstärkung der synaptischen Übertragung hervorruft, beschreibt das Modell der Langzeitdepression (LTD) eine beständige Abschwächung der Signalübertragung an den Synapsen von Nervenzellen. LTD ist unter anderem im Kleinhirn, auch Cerebellum genannt, messbar. Dieses befindet sich unterhalb der Okzipitallappen, den Hinterhauptslappen, in der hinteren Schädelgrube und ist für die koordinierte, zeitlich präzise Durchführung von Bewegungen zuständig. Das Cerebellum lässt sich in drei Schichten unterteilen: Die äußerste Schicht, die Molekularschicht, enthält diverse Zellkörper, die Dendriten der Purkinjezellen, Kletterund Parallelfasern. Die Parallelfasern sind Verzweigungen der Axone der Moosfasern, welche Informationen über die Stellung von Kopf und Körper und Zustand von Muskeln, Sehnen und Gelenken vermitteln. Kletterfasern kommen aus der unteren Olive und »klettern« an den Dendriten der Purkinjezellen hoch, wo sie erregende synaptische Verbindungen eingehen. Die mittlere Schicht, die Purkinjezellschicht, besteht aus den Zellkörpern der gleichnamigen Zellen. Zellkörper von Körner- und Golgizellen bilden die Körnerschicht. Ständig erregende Impulse aus dem motorischen System werden von den Zellkörpern der Molekularschicht an die Dendriten der Purkinjezelle weitergeleitet. Danach können diese Impulse nicht weitergeleitet werden, denn das Axon der Purkinjezelle hemmt durch den Neurotransmitter GABA die Übertragung auf die Kleinhirnkerne. Nur wenn die Purkinjezelle durch inhibitorischen Neurone, die Stern- und Korbzellen, gehemmt wird, fällt die inhibitorische Wirkung auf die Kleinhirnkerne weg. Nun kann ein Impuls weitergeleitet und an weitere motorische Zentren im Gehirn übergeben werden. LTD im Kleinhirn ist in der postsynaptischen Membran der Purkinjezelle zu lokalisieren. Dazu kommt ein Aktionspotenzial aus der Kletterfaser. Darauf aktivieren Neurotransmitter spannungsabhängige Natrium- und Calciumkanäle in der Membran der Purkinjezelle. Auch die Parallelfasern, die Axone der Körnerzellen, bilden Synapsen mit den Purkinjezellen. Sie setzen den Neurotransmitter Glutamat frei, welcher dann an die Glutamatrezeptoren der Purkinjezellen andockt. Dadurch kann Natrium durch Kanäle in die Dendriten einströmen. Ein weiterer Rezeptor in dieser Membran ist der metabotrope Glutamatrezeptor. Metabotropie bedeutet, dass einem Rezeptor eine weitere intrazelluläre Signalkaskade folgt. Durch Aktivierung des Rezeptors durch Glutamat werden sekundäre Botenstoffe produziert und die Proteinkinase C aktiviert. LTD beruht auf der Abnahme der postsynaptischen Reaktion auf Glutamat. Die sogenannten AMPA-Rezeptoren in der postsynaptischen Membran werden nach der Induktion von LTD internalisiert. Zusammenfassend festzuhalten ist, dass es im Kleinhirn nur zu einem Lernvorgang kommt, wenn eine synaptische Veränderung stattfindet. Dafür müssen die drei vorherig 63 3 Auf der Suche nach dem Gedächtnis aufgeführten Signale gleichzeitig auftreten. So braucht LTD einen Anstieg der internen Calcium- und Natriumkonzentration und die Aktivierung der Proteinkinase C. LTD ist die Voraussetzung, dass im Kleinhirn zum Beispiel geschickte, präzise Bewegungsabläufe erlernt werden können. 3.14 Menschliche Emotionen Eine menschliche Emotion ist ein Gesamt von drei unterschiedlichen, aber wechselseitig miteinander verbundenen Reaktionsarten: Einer physiologischen Reaktion, einer beobachtbaren Verhaltensweise und dem bewussten Empfinden der Emotion. Es gibt viele verschiedene Emotionen. Sie werden von allen Menschen empfunden: z. B. Freude, Wut und Trauer. Eine Emotion wird durch einen emotionalen Reiz ausgelöst, der zum Gehirn weitergeleitet wird. Dort wird der Reiz verarbeitet und es erfolgt eine physiologische Reaktion, wie zum Beispiel erhöhter Herzschlag, und man bemerkt eine charakteristische Verhaltensweise bei der Person, die eine bestimmte Emotion verspürt. Beispielsweise fangen traurige Menschen oft an zu weinen. Im Gehirn gibt es verschiedene Bereiche, die für die Verarbeitung der Emotionen zuständig sind. Der Cortex ist für die Interpretation des Kontextes und die Überwachung des Emotionsausdruckes verantwortlich, die Amygdala aktiviert die Stresshormonfreisetzung und ist wichtig bei der Emotionsverarbeitung. Der Hippocampus ist nötig, damit wir uns später an die emotionsgeladene Situation erinnern können. Manche Emotionen, etwa Ekel werden mit ansteigendem Alter erlernt, andere Emotionen sind jedoch von Geburt an bei den Menschen verankert, z. B. Freude und Angst. Diese nennt man universelle Emotionen. Menschen aller Nationalitäten können sie empfinden und auch die äußeren Merkmale der verschiedenen Emotionen bei anderen erkennen. Der Umgang mit Emotionen ist allerdings von Kultur zu Kultur unterschiedlich. So zeigen Japaner gegenüber einer Autoritätsperson ihre Emotionen nicht offen und verstecken sie. Jeder Mensch auf der Welt hat dieselben Emotionen, aber die Kultur, in der ein Mensch lebt, zeigt eigene Regeln im Umgang mit den Emotionen und ihrer Zurschaustellung. Eine Tatsache, die Menschen aller Kulturen betrifft, ist, dass emotionsgebundene Erinnerungen länger im Gedächtnis bleiben. Eines der bekanntesten Beispiele ist der 11. September 2001. Fast jeder erwachsene Mensch der westlichen Welt kann sich erinnern, wo er an diesem Tag war, als er die Nachricht des Terroranschlages gehört hat. Wenn man einen Menschen jedoch fragt, wo er am 14. September war, kann sich fast niemand daran erinnern. Der 11. September ist ein Ereignis, dass sehr tief in unserem Gedächtnis verankert ist, da dieser Tag einen hohen Emotionsgehalt hat. Emotionsgeladene Erinnerungen lassen wir sehr viel häufiger als gewöhnliche Tage vor unserem inneren Auge Revue passieren und wir unterhalten uns häufig über sie. Dies wird zudem durch die Medien verstärkt, die oft über emotionale Ereignisse berichten. Abschließend kann man sagen, dass Ereignisse, die für eine Person emotional bedeutsam sind, ihr länger in Erinnerung bleiben. 64 3.15 Wie erlernen Tiere emotionale Reaktionen? 3.15 Wie erlernen Tiere emotionale Reaktionen? Um eine möglichst sichtbare emotionale Reaktion bei Tieren hervorzurufen, wird meistens mit Angst gearbeitet. Es bestehen gewisse Verständnisprobleme zwischen Mensch und Tier, aber die biologische Angstreaktion ist oft ähnlich. Ein Beispiel dafür ist der schnellere Herzschlag in Angstsituationen. Diese Angstsituationen eignen sich deshalb gut, weil ihre Reaktion einfach hervorzurufen und zu beobachten ist. Im Folgenden soll auf drei verschiedene Arten der erlernten emotionalen Reaktionen eingegangen werden. Als erste wird die konditionierte Angstreaktion (LeDoux 1933), die auf der Klassischen Konditionierung beruht, vorgestellt. Hierbei wurde einer Ratte in einem geschlossen Raum ein 10 Sekunden andauernder Ton vorgespielt. Im Anschluss wurde der Ratte ein Elektroschock versetzt, was ihren Herzschlag erhöhte und sie in eine Schockstarre fallen ließ. Dies wurde einige Male wiederholt. Als die Forscher daraufhin allein den Ton abspielten, lernte die Ratte den Ton mit ihrer Angst vor einem Elektroschock zu verbinden und zeigte dieselbe Angstreaktion wie zuvor. Auf dieser Reaktion baut die konditionierte Vermeidung auf. Dabei wird zum Beispiel der Ratte versucht eine Abneigung gegenüber einem dunklen Raum beizubringen, indem man das Betreten dieses Raumes mit einem Elektroschock begleitet. So wurde der Ratte durch Angst eine Vermeidung dieses Raumes antrainiert. Der dritte Versuch kommt von den Forschern Seligman und Maier und wurde 1967 durchgeführt. In diesem Experiment befand sich ein Hund in einem geschlossenen Raum, in dem er, wie die Ratten im ersten Experiment, einen Ton hörte und einen darauf folgenden Stromstoß erhielt. Diesen Vorgang wiederholte man mehrmals. Dabei versuchte der Hund immer aus dem Raum zu entkommen, scheiterte aber jedes Mal. Da der Hund merkte, dass seine Bemühen aus dem Raum zu fliehen unnütz waren, fing er an zu jaulen und setzte sich in eine Ecke. Als der Hund konditioniert war, stellte man eine Trennmauer zwischen dem einen Raum mit den Stromstößen und einem anderen Zufluchtsraum. Obwohl der Hund den Stromstößen nun mühelos hätte entfliehen können, blieb er währenddessen nur jaulend in der Ecke sitzen. Selbst als die Trennwand weggenommen wurde und der Hund sogar mit Futter aus dem Raum gelockt wurde, blieb er an seiner Stelle. Als Ursache hierfür ist eine gesenkte Motivation des Hundes neue Techniken zu erlernen anzusehen, da er in der vorherigen Situation auch nichts machen konnte, um sich zu befreien. Durch dieses Experiment wurde seine Motivation ohne Stromstöße zu leben gesenkt und ihm eine Hilflosigkeit antrainiert, auch konditionierte Hilflosigkeit genannt. Im weiteren Verlauf des Experimentes ist der Hund erst eigenständig in den anderen Raum gegangen, nachdem die Forscher ihn dort wiederholt hingetragen hatten. Diese Experimente zeigen, dass emotionales Lernen sehr schnell stattfindet, da sich unser Gedächtnis dies besser merken kann als zum Beispiel nicht emotional gebundenes Faktenwissen. Außerdem ist am Beispiel des Hundes klar geworden, dass diese Form von Lernen lange anhält und schwer wieder weg zu trainieren ist. 65 3 Auf der Suche nach dem Gedächtnis 3.16 Was ist Alzheimer Die Krankheit Alzheimer wurde 1901 von Dr. Alois Alzheimer entdeckt. Seine Beschreibung bildet noch heute die Grundlage für die Charakterisierung von Alzheimer. Alzheimer ist die häufigste Form der Demenz, welche durch Nervenzellensterben charakterisiert wird. Zu den Symptomen der Demenz gehören Störungen von Gedächtnis, Orientierung, intellektuellen Fähigkeiten und Wortfindung. Bei der vaskulären Demenz kommt es auch zu Wahrnehmungsproblemen. Patienten mit Alzheimer können außerdem Persönlichkeitsänderungen erfahren und werden zunehmend pflegebedürftig. Die Krankheit Alzheimer entsteht aufgrund von Neuronenverlust, bedingt durch eine Ablagerung von Fibrillen und Plaques zwischen Neuronen. Dies hat einen Mangel von Acetylcholin zur Folge, welcher wiederum zu einer schlechteren Reizweiterleitung im Nervensystem führt. Eine autosomal-dominante Vererbung ist möglich, wobei es dann schon früher zu einem Ausbruch kommt. Von 1 200 000 Demenzerkrankten in Deutschland (weltweit sind es 24 Millionen) haben ca. 2/3 Alzheimer und die Anzahl der jährlichen Neuerkrankungen (280 000) wird vermutlich immer weiter steigen. Das Risiko zu erkranken liegt bei einem Alter von über 65 Jahren bei 6–9 %, bei Jüngeren bei unter 0,1 %. Um eine Diagnose stellen zu können, führt man bei potenziellen Alzheimerpatienten einfache Gedächtnistests und eine Elektroenzephalographie durch, welche die summierte elektrische Aktivität des Gehirns anzeigt. Außerdem untersucht man die Veränderungen des Großhirns mittels Computertomographie oder Magnetresonanztomographie. Durch Blutuntersuchungen kann man feststellen, ob es sich um vaskuläre Altersdemenz oder Alzheimer handelt, da sich bei der vaskulären Altersdemenz bestimmte Proteine verändern, die bei Alzheimer aber gleich bleiben. Es gibt mehrere mögliche Therapien, von denen aber keine eine Heilung ermöglicht, sondern nur den Lauf der Erkrankung verlangsamt. Neben dem Verabreichen bestimmter Medikamente werden Alzheimerpatienten dazu angehalten, sich Notizen zu machen und viel Kontakt zu anderen Menschen zu haben (da das Gehirn so »fit« bleibt). Auch körperliche Betätigung und Teilnahme an Selbsthilfegruppen, besonders da Depressionen bei Alzheimerpatienten häufig vorkommen, werden empfohlen. 3.17 Wie entsteht Alzheimer? Alzheimer ist eine Demenzerkrankung, die zum Verlust von Nervenzellen führt. Die Betroffenen sind meistens über 65 Jahre alt. In Deutschland leben 750 000 Erkrankte. Das Typische bei dieser Erkrankung ist, dass Nervenzellen durch Plaques und Neurofibrillen absterben. Die Plaques bestehen aus fehlerhaft gefalteten Proteinen. Das AmyloidPrecursor-Protein (APP) wird durch Alpha-, Beta- und Gammasekretase zu Aß-40 und Aß-42. Diese beiden sind neurotoxisch und bilden Plaques. Plaques führen zu einer 66 3.18 Glossar Störung der Synapsenfunktion, weil sie an diesen anlagern. Das bedeutet, dass die Reizweiterleitung gestört ist. Außerdem kommt es dabei zu einer Entzündungsreaktion. Dazu kommt, dass Aß die Phosphorylierung von Tauproteinen beschleunigt. Tau bindet normalerweise an sogenannte Mikrotubuli und stabilisiert sie. Mikrotubuli sind wichtig für die Stabilität der Zelle, indem sie das Zytoskelett, also das Skelett der Zelle, bilden. Phosphoryliertes Tau verschlechtert seine Bindungsaffinität zu den Mikrotubuli, wodurch weniger Tau an die Mikrotubuli bindet und nicht nur die Mikrotubli, sondern auch das Zytoskelett und Transportprozesse in der Zelle gestört werden. Dies führt zu einer schlechteren Weiterleitung von Informationen in den betroffenen Nervenzellen, weil die Axone geschädigt sind. Durch das Sterben der Nervenzellen und die gestörte chemische Weiterleitung von Reizinformationen kommt es zu einer Schrumpfung des Gehirns um bis zu 20 % und damit zur Degeneration der Hirnrinde. Alzheimer ist eine u. a. genetisch bedingte Krankheit. Zu den betroffenen Genen gehört das APP. Bei einer Mutation kommt es zu einer Veränderung der Aß-Prozessierung. Daneben gibt es weitere Risikogene, zu welchen auch das Apolipoprotein E (ApoE) gehört. Es bewirkt ein erhöhtes Auftreten von Aß. Die Faktoren, die diese Krankheit auslösen, werden bis jetzt nur vermutet. Dazu gehören Tuberkulose, Fieber, Parodontose, Stress, Bluthochdruck, Alkohol und der Konsum von Tabak. Die Ursache für diese Krankheit ist bis zum heutigen Tag noch nicht geklärt, weshalb sich die Wissenschaftler bemühen, diese Krankheit weiter zu erforschen, um so ein Medikament zu finden, welches den Zerfall der Neuronen verhindert. 3.18 Glossar – Acetylcholin: Neurotransmitter – Adenylatcyclase: ein Enzym, das die Umwandlung von Adenosintriphosphat in cAMP katalysiert – Aktionspotential: kurze Veränderung des Membranpotentials, verursacht durch das schnelle Öffnen und Schließen von spannungsabhängigen Ionenkanälen – AMPA-Rezeptor: ein Subtyp des Glutamatrezeptors; ein glutamatabhängiger Ionenkanal, der für Na+ und K+ durchlässig ist – Amygdala: ein mandelförmiger Kern im Temporallappen, von dem man annimmt, dass er an der Empfindung von Gefühlen, bestimmten Formen des Lernens und am Gedächtnis beteiligt ist – anterior: vorne – autosomal-dominante Vererbung: geschlechtsunabhängige Vererbung, bei der ein Merkmal auftritt, wenn ein Elternteil das dafür zugehörige Gen besitzt – Axon: langer, faserartiger Fortsatz einer Nervenzelle, der auf die Leitung von Nervenimpulsen spezialisiert ist 67 3 Auf der Suche nach dem Gedächtnis – Axonterminale: Ende des Axons, das den präsynaptischen Teil der Synapse bildet – Basalganglien: eine Reihe von assoziierten Zellgruppen im basalen Großhirn – cAMP: cyclisches Adenosinmonophosphat; ein Botenstoff, der für die Weiterleitung von Signalen in der Zelle verantwortlich ist – Cerebellum: Kleinhirn; mit dem Hirnstamm verbunden und wichtiges Zentrum für die Kontrolle von Bewegungen – Cortex: äußere Schicht des Großhirns, reich an Nervenzellen – Computertomographie: bildgebende Verfahren zur Darstellung von Weichteilstrukturen mit Hilfe von Röntgenstrahlung – Demenz: Erkrankung im Gehirn, bei der eine Gehirnatrophie auftritt, wodurch je nach Hinregion verschiedene Fähigkeiten bzw. Eigenschaften verändert werden – Dendrit: Nervenfortsatz, der auf die Aufnahme von synaptisch übertragenen Informationen durch andere Neuronen spezialisiert ist – Depolarisation: Änderung des Membranpotentials in Richtung positiverer Werte – Epilepsie: eine chronische Störung im Gehirn, die durch wiederholt auftretende Krämpfe gekennzeichnet ist – Enzephalitis: eine durch Viren oder Bakterien bedingte Entzündung des Gehirns – Fibrillen: feine Muskel- und Nervenfäserchen – Hippocampus: eine Region der Hirnrinde, die in Nachbarschaft zur Riechrinde liegt und vermutlich eine große Rolle beim Lernen und der Gedächtnisbildung spielt – G-Protein: ein membrangebundenes Protein, das durch einen Rezeptor aktiviert wird und andere Proteine stimulieren oder inhibieren kann – Ionenkanal: ein membrandurchspannendes Protein, das eine Pore bildet, die einen Durchtritt von Ionen durch die Membran erlaubt – Läsion: Schädigung oder Verletzung – Langzeitdepression: ein Prozess, in dem die synaptische Transmission aufgrund kurz vorangehender Aktivität weniger wirksam wird – Langzeitpotenzierung: ein Prozess, in dem die synaptische Transmission aufgrund kurz vorangehender Aktivität wirksamer wird – Magnetresonanztomographie: bildgebendes Verfahren zur Darstellung von Weichteilstrukturen mit Hilfe hochfrequenter Magnetfelder – Morbus Alzheimer: Demenzerkrankung, bei der eine Gehirnatrophie auftritt und die kognitiven Fertigkeiten eingeschränkt sind 68 3.18 Glossar – Morbus Parkinson: eine Bewegungsstörung, die durch Schädigung der Substantia nigra verursacht wird und die durch Bewegungsarmut, Probleme bei der Ausführung von willkürlichen Bewegungen und Ruhetremor gekennzeichnet ist – Neuron: die informationsverarbeitende Zelle des Nervensystems – Neurotransmitter: chemische Substanz, die durch ein präsynaptisches Element nach Stimulierung freigesetzt wird und postsynaptisch Rezeptoren aktiviert – NMDA-Rezeptor: ein Subtyp des Glutamatrezeptors; ein glutamatabhängiger Ionenkanal, der für Na+ , K+ und Ca2+ durchlässig ist und spannungsabhängig durch Magnesium geblockt wird – Nucleus interpositus: einer der Tiefenkerne des Cerebellums – Plaques: Ablagerungen – post: nach – posterior: hinten – prä: vor – Priming: Phänomen, bei dem eine vorherige Darbietung eines Reizes die Fähigkeit eines Organismus fördern kann, diesen Reiz später zu erkennen – prozedurales Gedächtnis: das Gedächtnis für Fertigkeiten, im Unterschied zu anderen Gedächtnisinhalten wie Ereignissen oder Sachwissen – Purkinje-Zelle: eine Zelle in der Kleinhirnrinde, deren Axon in die tiefen Kleinhirnkerne projiziert – Rezeptor: ein Protein, das chemische Signalsubstanzen wie Neurotransmitter wahrnimmt und eine zelluläre Reaktion einleitet – Substantia nigra: eine Zellgruppe im Mittelhirn, deren Neurotransmitter Dopamin ist – Synapse: der Kontaktbereich, in dem ein Neuron Information auf ein anderes Neuron überträgt – synaptischer Spalt: der Bereich, der bei Neuronen die präsynaptische von der postsynaptischen Membran trennt – Temporallappen: der Bereich des Großhirns, der sich unter dem Schläfenbein befindet 69 3 Auf der Suche nach dem Gedächtnis 3.19 Literaturverzeichnis [1] Ashe, Karen; Zahs, Kathlee: Probing the biology of Alzheimer’s disease in mice. In: Neuron Vol. 65 2010, 631-345. [2] Bear, Mark; Connors, Barry; Paradiso, Michael: Neurowissenschaften - Ein grundlegendes Lehrbuch für Biologie, Medizin und Psychologie. Heidelberg 2008. [3] Ballard, Clive et al.: Alzheimer’s disease. In: The Lancet Vol. 377 2011, 1019-1031. [4] Berlit, Peter: Klinische Neurologie. Heidelberg 2005. [5] Bertram, Lars; Lill, Christiane; Tanzi, Rudolph: The genetics of Alzheimer’s disease: Back to the future. In: Neuron Nr. 68 2010, 270-281. [6] Essig, Marco; Reith, Wolfgang: Morbus Alzheimer – Die Geschichte einer Erkrankung und die Rolle der modernen diagnostischen Radiologie. In: Radiologe Nr. 43 2003, 511-512. [7] Gazzaniga, Michael; Ivry, Richard; Mangun, Georg: Cognitive Neuroscience: The Biology of Mind. Norton 2008. [8] Gluck, Mark; Mercado, Eduardo; Myers, Catherine: Lernen und Gedächtnis: Vom Gehirn zum Verhalten. Heidelberg 2010. [9] Ittner, Lars; Götz, Jürgen: Amyloid-beta and tau – a toxic pas de deux in Alzheimer’s disease. In: Nature Reviews Neuroscience Vol. 12 2011, 65-72. [10] Kandel, Eric; Schwartz, James; Jesse, Thomas: Principles of Neural Science. McGrawHill Professional 2000. [11] Maguire, Eleanor et al.: Navigation-related structural change in the hippocampi of taxi drivers. In: PNAS Vol. 97 2000, 4398-4403. [12] Masuhr, Karl; Neumann, Marianne: Duale Reihe – Neurologie. Stuttgart 2007. [13] Sweatt, David: Mechanism of Memory. Academic Press 2008. [14] Teng, Edmond; Squire, Larry: Memory for places learned long ago is intact after hippocampal damage. In: Nature Vol. 400 1999, 675-677. [15] Thompson, Richard: Das Gehirn. Heidelberg 2010. [16] Woollett, Katherine; Maguire, Eleanore: Navigational expertise may compromise anterograde associative memory. In: Neuropsychologia Vol. 47 2009, 1088-1095. 70 Abbildung 3.4: Erarbeitung des Glossars im Kurs. 72 4 Onkologie 4.1 Einleitung Johanna Kuhnt und Wiebke Nadler Im Kurs »Onkologie« erarbeiteten wir gemeinsam die molekularen und medizinischen Grundlagen der Tumorbiologie. Nach einer kurzen Übersicht über Verbreitung und Risikofaktoren von Krebs bekam der Kurs Besuch von Solveig und Christian – zwei Ärzten, die uns so Einiges zu berichten hatten: vom Umgang mit Patienten, vom Alltag auf der Palliativstation und von sehr konkreten Fallbeispielen. Wie wichtig, aber auch wie schwierig die erste Konfrontation mit der Diagnose »Krebs« sein kann, wurde bei der Simulation eines Patientengesprächs schnell deutlich. Von der Patientenperspektive wechselten wir nun zurück zu den molekularbiologischen Aspekten. Was macht Tumorzellen so besonders? Wieso sind sie nur so schwer anzugreifen? Und welche Theorien erklären die Existenz von Krebs? Eine auch von der neusten Forschung noch nicht abschließend beantwortete Reihe von Fragen, mit denen wir uns beschäftigten, bevor wie einen Blick auf die Vielfalt möglicher Krebserkrankungen wagten. Für manche Tumorarten gibt es spezielle Vorsorgemöglichkeiten, etwa für Brustkrebs, Prostatakarzinome oder Darmkrebs. Zur Diagnosestellung benötigt man spezielle bildgebende Verfahren, wie Röntgen, Magnetresonanztomographie oder Positronenemissionstomographie, die es ermöglichen, Lokalisierung und Ausdehnung eines Tumors zu bestimmen. Wie aber therapiert man kranke Zellen sinnvoll, ohne die gesunden Zellen zu stark zu beeinträchtigen? Die Standardverfahren Chemotherapie, Strahlenbehandlung und chirurgische Eingriffe bilden zweifellos die drei Säulen der Krebstherapie. Aber besonders immuntherapeutische Ansätze und zielgerichtete Therapien beeinflussen mittlerweile die Forschung und zeigen großes Potenzial. Neben den klassischen schulmedizinischen Ansätzen vertrauen sich viele Patienten alternativen Heilverfahren an. Die Diskussion über die Problematik zwischen Selbstbestimmung des Patienten und der Fürsorgepflicht des Arztes bildete den Abschluss des Kurses. Für die motivierte Mitarbeit und die spannenden Diskussionen möchten wir uns herzlich bei den Teilnehmern bedanken. 4.2 Epidemiologie Obwohl oder vielmehr gerade weil die Medizin in den letzten Jahren große Fortschritte verzeichnen konnte, nehmen die Inzidenzen (Krebsneuerkrankungen) stetig zu. Diese auf den ersten Blick paradoxe Erscheinung ist auf die Entwicklung und den Gebrauch einer Vielzahl von diagnostischen Verfahren zurückzuführen sowie auf den Anstieg der durchschnittlichen Lebenserwartung der Menschen in den Industrienationen. 73 4 Onkologie Das Bundeskrebsregisterdatengesetz verpflichtete die Bundesländer 1995–1999 dazu, das Krebsgeschehen flächendeckend zu erfassen und an das »Zentrum für Krebsregisterdaten« des Robert-Koch-Instituts weiterzuleiten. Diese zentrale Krebsregisterstelle untersucht anhand der eingehenden Daten in epidemiologischen Studien die Häufigkeit, die Verteilung, den Verlauf und die Ursachen von Krebs in Deutschland, um ihre Ergebnisse zu publizieren und internationale Vergleiche zu ermöglichen. Hierbei betrachten alle Krebsregisterstellen die Inzidenz, die Mortalität (Krebssterblichkeit), sowie die 5Jahres-Prävalenz, also die Zahl der im Zeitraum von 5 Jahren an Krebs Erkrankten, der einzelnen Tumorarten und der Krankheit Krebs im Allgemeinen. Die Epidemiologie bedient sich der Altersstandardisierung als Methode, um vergleichbare Aussagen machen zu können. Altersstandardisierung bedeutet, dass die Zahlenangaben zu Inzidenz und Mortalität auf eine festgehaltene Altersstruktur der Bevölkerung bezogen werden, um die Effekte der steigenden Lebenserwartung auf die Krebshäufigkeit herauszurechnen. Im Jahr 2010 erkrankten den Studien zufolge 450 000 Menschen an Krebs. Das sind etwa 30 % mehr als im Jahr 1980. Schätzungen zufolge starben im Jahr 2010 ca. 210 000 Menschen an Krebs – ungefähr 20 % weniger als im Jahr 1980. Das Durchschnittsalter der Erkrankung liegt bei Männern momentan bei 68 Jahren und bei Frauen bei 69 Jahren. Somit handelt es sich bei Krebs um eine Krankheit, die vermehrt im Alter auftritt. Auf einen unter 15-jährigen Erkrankten kommen den epidemiologischen Analysen zufolge 200–300 Tumorpatienten, die das 80. Lebensjahr vollendet haben. Bei Männern führt Krebs im Durchschnitt im Alter von 72 Jahren und bei Frauen im Alter von 76 Jahren zum Tode. Indem die Krebsregister ihre Daten auf internationaler Ebene miteinander vergleichen, werden Regionen auffällig, in denen gewisse Krebsarten ungewöhnlich häufig auftreten, sogenannte Cluster. Beispielsweise ist die Häufigkeit des schwarzen Hautkrebs regional sehr unterschiedlich. Bei der hellhäutigen Bevölkerung Australiens ist das Lebenszeitrisiko im Vergleich zu Europäern etwa vierfach erhöht. Forscher erklären dies über den Einfluss der Sonneneinstrahlung. Da das zentrale Krebsregister in Deutschland erst seit einem Jahrzehnt existiert und mit teilweise fehlerhaft erfassten Daten aus den letzten Jahren arbeiten muss, sollten die veröffentlichten Ergebnisse stets genau betrachtet und eine Ungenauigkeit der Werte in Betracht gezogen werden. Hinsichtlich der immer besser vernetzten Datenerfassung hat die Bedeutung der epidemiologischen Auswertungen für die Qualitätskontrolle der Krebstherapie in Deutschland zugenommen. Auch zukünftig sollen die Krebsregister weiter vereinheitlicht und ausgebaut werden, um »langfristig die Qualität der onkologischen Versorgung besser zu dokumentieren« (KID). 4.3 Risikofaktoren Die verschiedenen bekannten Krebsformen können durch viele verschiedene Faktoren verursacht werden. Bei der Diagnosestellung sind die Ursachen der jeweiligen Erkrankung oft unklar. Zur Erforschung der häufigsten Krebsauslöser wurden bereits 74 4.3 Risikofaktoren viele wissenschaftliche Studien durchgeführt. Die Umsetzung der daraus resultierenden Ergebnisse konnte schon zahlreiche Krebsfälle verhindern. Rauchen bildet den ersten wichtigen Risikofaktor. Besonders bei Langzeitrauchern mit einem hohen täglichen Zigarettenkonsum steigt die Wahrscheinlichkeit einer (Lungen-) Krebserkrankung. So erkranken ungefähr 10 % der Raucher circa 30–40 Jahre nach Beginn des Rauchens an Lungenkrebs. Durch den Konsum einer Schachtel Zigaretten am Tag kann sich das Risiko einer Erkrankung 10–20-fach erhöhen. Die Ernährung stellt neben dem Rauchen ein Hauptgefährdungsgebiet dar. In 30– 35 % der Krebserkrankungen ist eine falsche Ernährung an der Entstehung des Tumors beteiligt. Beispielsweise können beim Grillen oder Räuchern fetthaltiger Fleischwaren krebsauslösende Stoffe (Kanzerogene) entstehen. Solche karzinogenen Stoffe sind etwa polyzyklische aromatische Kohlenwasserstoffe (PAK), die eine Tumorbildung begünstigen. Übergewicht kann ebenfalls das Erkrankungsrisiko vieler Krebsarten fördern. Ab einem Body Mass Index von 40 erhöht sich die Erkrankungswahrscheinlichkeit im Vergleich zu Normalgewichtigen bei Männern um über 50 %, bei Frauen um über 60 %. Die vermehrte Hormonproduktion oder Hormonveränderung des Fettgewebes kann das Krebswachstum fördern. Alkohol bedingt eine weitere Krebsgefahr, speziell für Erkrankungen des Verdauungstraktes sowie der Leber. Der Anteil der durch Alkoholkonsum verursachten malignen Tumoren an allen Krebserkrankungen beträgt circa 3 %. Schon durch geringe Mengen und besonders in Kombination mit Rauchen kann Alkoholkonsum das Risiko stark erhöhen. Virale und bakterielle Infektionen können ebenfalls an der Entstehung eines Tumors beteiligt sein. Die Anfälligkeit des Körpers für Tumoren kann durch eine Schwächung des Immunsystems oder DNA-Schäden zunehmen. Durch Infektionen bedingte maligne Tumoren sind oft in Mundhöhle, Kehlkopf, Rachen, Speiseröhre, etc. vorzufinden. Krebsfördernde Gene treten oft bei Personen mit einer hohen familiären Krebserkrankungsrate auf. Durch diese Gene werden besonders Darm- und Brustkrebserkrankungen begünstigt. Für 5–10 % der Darmkrebserkrankungen und 5–20 % der Brustkrebserkrankungen können die Erbanlagen die Ursache sein. Eine erhöhte Strahlenbelastung löst bis zu 2 % aller Krebserkrankungen aus. Maligne Tumoren bilden sich vorzugsweise in Knochenmark, Brust, Schilddrüse und Weichteilgewebe. 10 % der Krebserkrankungen sind durch eine starke natürliche oder künstliche (Solarien) Sonneneinstrahlung bedingt. Diese Art maligner Tumoren befallen oft die Haut und bilden Melanome. Zusammenfassend lässt sich sagen, dass sich das Risiko einer Erkrankung durch eine gesunde Lebensweise und das Umgehen vermeidbarer Risikofaktoren deutlich reduzieren lässt. 75 4 Onkologie Abbildung 4.1: Melanie erklärt anhand einer in Gruppenarbeit gestalteten Grafik den Zellzyklus. 4.4 Molekulare Grundlagen 4.4.1 Tumordefinition und Mutationstheorie Was ist eigentlich ein Tumor? – Als Tumor bezeichnet man eine Ansammlung von Zellen, die bestimmte Eigenschaften erlangt haben, wodurch sie sich von gesunden Körperzellen unterscheiden. Nach dem neuesten Stand der Forschung ergeben sich wenigstens acht wichtige Eigenschaften: das Vermeiden der Erkennung durch das Immunsystem, das fehlende Ansprechen auf negative Wachstumssignale, die Apoptoseresistenz, ein gesteigertes proliferatives Signaling, die potenzielle Unsterblichkeit, genomische Instabilität, ein verstärkter (und veränderter) Metabolismus, sowie die vermehrte Angiogenese. Im Einzelnen bedeutet dies, dass Tumorzellen das Immunsystem umgehen können, indem sie für die Immunantwort wichtige Signale nicht oder nicht mehr aussenden. Manche Tumorzellen können daher von Zellen der Immunabwehr nicht von gesundem Gewebe unterschieden werden. Zusätzlich können sie mit der Mobilisation regulatorischer T-Zellen (»T-regs«) der Immunreaktion entgegenwirken. Im Allgemeinen reagieren Tumorzellen nicht auf wachstumseinschränkende Signale umliegender Zellen und vermehren sich unkontrolliert. Sogenannte Tumorsuppressor-Proteine dienen als Kontrollmechanismen im Zellzyklus (siehe Abbildung 4.1) und bei der Proteinsynthese. Einige Mutationen bewirken eine defekte oder ausbleibende Synthese dieser Tumorsuppressor-Proteine, wodurch es zu unkontrolliertem Zellwachstum kommen kann. Eines der bekanntesten Tumorsuppressor-Proteine ist p53, das eine steuernde Funktion beim programmierten Zelltod (Apoptose) (siehe Abbildung 4.2) einnimmt. p53 ist in vielen Tumoren defekt oder in seiner Konzentration stark herabreguliert, sodass 76 4.4 Molekulare Grundlagen Abbildung 4.2: Alex veranschaulicht die Apoptose anhand einer in Gruppenarbeit gestalteten Grafik. Tumorzellen gegenüber den Apoptose auslösenden Faktoren (z. B. DNA-Schäden) resistenter sind als gesunde Zellen. Jede Zelle exprimiert Rezeptoren, die durch die Bindung der von umliegenden Zellen sezernierten Signalmoleküle Wachstumsprozesse einleiten. Durch die Überproduktion oder Mutation dieser Rezeptoren erhalten viele Tumorzellen permanent das Signal zur Proliferation und werden so zum unkontrollierten Wachstum angeregt. Eine weitere wichtige Eigenschaft von Tumorzellen ist die potenzielle Unsterblichkeit. Jedes Chromosom besitzt an seinen Enden sogenannte Telomere. Dies sind sich wiederholende DNA-Abschnitte, die nicht für Proteine kodieren und sich bei jeder DNA-Verdoppelung verkürzen. Ist eine gewisse Mindestlänge unterschritten, wird die Apoptose (siehe Abbildung 4.2) eingeleitet oder die Zelle geht in die Ruhephase über. So bleibt die Anzahl an Zellteilungen, die eine Zelle durchführen kann, begrenzt. Tumorzellen exprimieren häufig das Enzym Telomerase. Die Telomerase ist in der Lage, die verkürzten Telomere wieder zu verlängern und so die Krebszelle unsterblich zu machen. Zellen deren Genom bereits instabil ist, sind anfälliger für Mutationen. Da sowohl Kontrollmechanismen des Zellzyklus (siehe Abbildung 4.1) als auch die Möglichkeit der Apoptose bei Tumorzellen eingeschränkt sind, wird das Genom durch die Ansammlung weiterer DNA-Schäden zunehmend instabiler. Aus der unkontrollierten Zellvermehrung resultiert ein verstärkter Metabolismus, so dass Tumorgewebe einen höheren Energieverbrauch als gesundes Gewebe aufweist. Die achte Eigenschaft, die Angiogenese, bezeichnet die Fähigkeit von Tumorzellen, Signale zur Einsprossung neuer Blutgefäße auszusenden, wodurch sich Tumoren in gewisser Weise selbst die Infrastruk- 77 4 Onkologie Abbildung 4.3: Martim verdeutlicht Zellteilung und Mitose anhand einer in Gruppenarbeit gestalteten Grafik. tur für ein übermäßiges Wachstum schaffen. Bösartige Tumoren besitzen die Fähigkeit zur Metastasenbildung. Das heißt, dass Tumorzellen in der Lage sind, sich über die Blut- oder Lymphbahnen im Körper zu verteilen und Tochtergeschwülste in anderen Geweben auszubilden. Doch wie kommt es überhaupt zur Entartung von Zellen? – Vorweg soll erwähnt werden, dass es bislang keine exakte Erklärung für dieses Phänomen gibt. Die seit 25 Jahren gängigste Theorie ist die klassische Mutationstheorie. Sie besagt, dass durch Schäden in der DNA, die das Ergebnis zufälliger Mutationen sind, ganze Gene inaktiviert oder verändert werden. Die Proteinsynthese auf Basis veränderter DNA führt zu Veränderungen der Konzentrationen verschiedener Proteine. Besonders schädlich sind die Mutationen in Tumorsuppressorgenen, deren Proteine die Zellvermehrung regulieren, sowie ProtoOnkogenen, deren Proteine die in Abbildung 4.3 veranschaulichte Zellteilung fördern. Durch jede neue zufällige Mutation kann eine Tumorzelle eine weitere der oben genannten acht Eigenschaften erlangen. Zur Entartung einer Zelle sind ca. 4–10 Mutationen nötig. Allerdings lässt sich mit dieser Theorie nur die Entstehung von ca. 1/3 aller Krebserkrankungen erklären. Andere Hypothesen, wie die Theorie der Aneuploidie und die Tumorstammzelltheorie versuchen bestimmte Teilaspekte der Tumoreigenschaften noch differenzierter zu erfassen. Die Theorie der Aneuploidie besagt, dass es durch Chromosomen-Aberrationen (Verlust oder Verdopplung ganzer Chromosomen) oder fehlende, zusätzliche und möglicherweise auch vertauschte DNA-Fragmente auf Chromosomen zu Konzentrationsveränderungen verschiedener Proteine kommt. Demgegenüber geht die Tumorstammzelltheorie davon aus, dass nur eine sehr begrenzte Teilpopulation der Zellen eines Tumors in der Lage ist, einen Tumor neu entstehen zu lassen, also das Potenzial hat, Metastasen zu bilden. 78 4.5 Tumorentitäten 4.5 Tumorentitäten 4.5.1 Leukämien und Lymphome Die Leukämie ist eine Krankheit des blutbildenden Systems, bei der der Reifeprozess der weißen Blutkörperchen unterbrochen ist. Die unreifen Leukozyten breiten sich im Knochenmark und im Blut aus und infiltrieren auch weitere Organe. Eine Leukämie verläuft in 3 Phasen. In der aleukämischen Phase findet die Proliferation von entarteten Zellen nur im Knochenmark statt. Während der subleukämischen Phase sind schon erste unreife Vorstufen im Blut nachweisbar, deren Anzahl in der leukämischen Phase deutlich ansteigt. Man unterteilt Leukämien nach dem Verlauf in akute und chronische Leukämien. Akute Leukämien sind durch einen raschen Krankheitsverlauf gekennzeichnet, der mit schweren Symptomen einhergeht. Dagegen verlaufen chronische Leukämien schleppend und sind am Anfang oft asymptomatisch. Außerdem unterteilt man Leukämien noch nach der Art der betroffenen weißen Blutkörperchen in myeloische Leukämien (Granulozyten) und lymphatische Leukämien (Lymphozyten). Als Ursachen für die Entstehung einer Leukämie gelten ionisierende Strahlen, Chemikalien, Viren, Zytostatika und genetische Faktoren, wie etwa Chromosomenmutationen. Symptome einer Leukämie sind z. B. eine Anämie, Blutungen, Infektanfälligkeit und Beeinträchtigungen der Organfunktionen. Anhand einer Blut- und Knochenmarkuntersuchung werden Leukämien diagnostiziert und anschließend je nach Art und Stadium der Erkrankung behandelt. Dies erfolgt z. B. durch Chemotherapie oder Hochdosis-Chemotherapie mit anschließender Stammzelltransplantation. Lymphome sind Krebserkrankungen des lymphatischen Systems. Man unterteilt sie in zwei Gruppen. Zum einen gibt es das klar abgegrenzte Hodgkin-Lymphom, auch Morbus Hodgkin genannt, bei dem in den Lymphknoten Hodgkin- und SternbergReed-Zellen nachweisbar sind. Zum anderen unterscheidet man die große Gruppe der Non-Hodgkin-Lymphome (NHL), bei der diese Zellen nicht nachgewiesen werden können. Die Ursachen der Erkrankung sind noch weitgehend unbekannt. Umwelteinflüsse und Viren (z. B. Epstein-Barr-Virus) werden aber mit der Entstehung von Lymphomen in Verbindung gebracht. Symptomatisch sind Lymphome durch Lymphknotenschwellungen und eine sogenannte B-Symptomatik mit Fieber, Nachtschweiß und Gewichtsverlust gekennzeichnet. Bei Verdacht auf ein Lymphom wird ein Lymphknoten entnommen und untersucht. Ist die Diagnose abgesichert, erfolgen verschiedene Untersuchungen zur Einschätzung der Bösartigkeit der Tumorzellen. Therapiert wird die Krankheit durch Bestrahlung, Chemotherapie oder Hochdosis-Chemotherapie mit anschließender Stammzelltransplantation. 4.5.2 Mammakarzinom Das Mammakarzinom ist die häufigste Krebsart bei Frauen. Weltweit erkrankt jede 14. Frau an Brustkrebs und allein in Deutschland treten jährlich bis zu 40 000 Neuerkrankungen auf. 79 4 Onkologie Bei Mammakarzinomen handelt es sich um maligne Tumoren, die die Brustdrüsen befallen. Der Tumor ist eine Agglomeration von bösartig mutierten Zellen in den Brustdrüsen und weist ein unkontrolliertes Wachstum auf. Das Wachstum wird im Falle eines Brustkrebses maßgebend von Hormonen, wie Östrogenen und Progesteronen, beeinflusst. Hierbei handelt es sich um zwei Hormone, die während des Menstruationszyklus in den Eierstöcken vermehrt produziert werden. Zu den Risikofaktoren zählen zudem auch ein erhöhtes Alter, Übergewicht, Kinderlosigkeit, Einnahme von Hormonen (Pille, Tabletten während des Klimakteriums), mangelhafte Bewegung, Mastopathie (gutartige Strukturveränderung der Brustdrüsen), Rauchen und ionisierende Strahlung. 4–9 % aller Brustkrebse sind erblich. BCR1 und BCR2 (Breast Cancer) sind wichtige Beispiele für brustkrebsassoziierte Mutationen. Bei familiärer Disposition steigt das Risiko des Entstehens eines bösartigen Brusttumors. Deshalb werden Risikopatientinnen zeitige und häufigere Vorsorgeuntersuchungen empfohlen. Häufig auftretende Symptome sind Knoten bzw. Verhärtungen in der Brust, Austreten von Flüssigkeiten aus einer Brustwarze, unterschiedliche Brustbewegungen beim Anheben der Arme, Form- bzw. Größenveränderung, brennender Schmerz einer Brust und Einziehen der Brustwarze. Auch geschwollene Lymphknoten im Achselbereich können auf ein mögliches Mammakarzinom hindeuten. Dies kann zum einen Ausdruck der Immunantwort des Körpers sein und zum anderen Zeichen einer bereits einsetzenden Metastasierung. Häufigste Metastasierungsorte sind Lymphknoten, Knochen, Haut, Leber, Lunge und Gehirn. Trotz ihres langsamen Wachstums streuen Mammakarzinome in der Regel früh in andere Organe. Frauen ab dem 50. Lebensjahr werden Mammographien als Vorsorgeuntersuchung im Abstand von zwei Jahren empfohlen, um Diagnosen frühzeitig stellen zu können. Zeitig entdeckte Tumoren haben bessere Therapiemöglichkeiten und eine bessere Prognose. Die wichtigsten Therapieoptionen sind der chirurgische Eingriff, Chemotherapie und Strahlentherapie. Zusätzlich können in ausgewählten Fällen Hormon- und Antikörpertherapie eingesetzt werden. Allgemein gilt das Mammakarzinom als Krebs mit guten Heilungschancen. Die 5Jahres-Überlebensrate nach erfolgter Therapie beträgt 83–87 %. Ab diesem Zeitpunkt verringert sich das Risiko eines Rezidivs kontinuierlich. 4.5.3 Melanome und Glioblastome Das Melanom ist der häufigste Hautkrebs. Es entsteht durch Mutationen der pigmentbildenden Zellen, den Melanozyten. Diese Tumorerkrankung hat in den letzten 20 Jahren stark zugenommen. Die Inzidenzen (Neuerkrankungen) sind regional sehr verschieden, was auf ethnische und geografische Faktoren zurückgeführt werden kann. Die Spitzenreiter sind Australien und Neuseeland mit 50 Melanompatienten auf 100 000 Einwohner. Dagegen erkranken in Deutschland nur ca. 15 Menschen von 100 000 Einwohnern. Weltweit ist eine größere Anfälligkeit von hellhäutigen ethnischen Gruppen erkennbar. Insgesamt erkranken Frauen im Durchschnitt früher und doppelt so häufig wie Männer. 80 4.5 Tumorentitäten Ursachen für die Erkrankung sind eine hohe Dosis UV-Strahlung, Sonnenbrände, eine große Anzahl von Pigmentflecken und die familiäre Prädisposition (genetische Vorbelastung). Hinweise auf ein Melanom sind Farb- und Formveränderungen von Leberflecken und Blutungen dieser. Anhand der A(Asymmetrie) B(Begrenzung) C(Colour) D(Durchmesser) E(Erhabenheit)-Regel lässt sich abschätzen, ob ein Leberfleck krebsverdächtig ist. Eine Biopsie und histologische Untersuchungen erlauben eine genauere Diagnose. Positive Befunde haben weitere Untersuchungen (Röntgen-Thorax, MRT, Abdomen-Sonographie) zur Detektion und Lokalisierung möglicher Metastasen zur Folge. Da das Melanom früh zur Metastasierung neigt, muss es schnellstmöglich behandelt werden. Die vier häufigsten Arten des Melanoms sind das Superfiziell-spreitende Melanom (SSM; 60 %), das Noduläre M. (NM; 20 %), das Lentigo-maligna-M. (LMN; 15 %) und das Akrolentiginöse M. (ALM; 5 %). Nach erfolgreicher Typisierung wird die direkte Therapie (chirurgischer Eingriff, Radio-Therapie, Hyperthermie und Palliativtherapie) eingeleitet, die durch indirekte Therapieansätze (z. B. Stärkung des Immunsystems) unterstützt wird. Trotz einer hohen Erkennungsrate im nichtinvasiven Stadium (85 %) werden nur 45 % der Patienten rechtzeitig behandelt. Die Nachsorge umfasst psychosoziale Hilfestellung sowie eine ständige medizinische Überwachung, welche dem hohen Rückfallrisiko entgegenwirken soll. Das Glioblastom ist die häufigste Hirntumorerkrankung. Dennoch treten Tumoren des Zentralen Nervensystems mit ca. 6000 Neuerkrankungen jährlich in Deutschland relativ selten auf. Glioblastome finden sich vorwiegend im Frontal- und im Temporallappen. An dem sich aggressiv ausbreitenden und nur schwer prognostizierbaren Tumor erkranken vor allem Erwachsene zwischen 50 und 60 Jahren. Ursachen für die Entstehung eines Glioblastoms sind unter anderem ionisierende Strahlen und eine familiäre Prädisposition. Symptome des Tumors sind akute Beschwerden wie Kopfschmerzen, Erbrechen oder epileptische Anfälle. Später können neurologische Ausfälle und ein Anstieg des Hirninnendrucks auftreten. Bildgebende Verfahren wie MRT und CT ergeben eine erste Diagnose. Die vom Glioblastom gebildeten Metastasen sind in der Regel auf das Nervensystem beschränkt.Die Komplexität des Gehirns erschwert die Entfernung des Tumors erheblich, sodass Therapieversuche bislang keine Heilung versprechen. 4.5.4 Lungen- und Magenkarzinom Lungenkrebs (Lungenkarzinom) ist die dritthäufigste bösartige Tumorerkrankung, an der mehr Männer als Frauen erkranken. In der Todesursachenstatistik (von 2005) stellt diese bei Männern die häufigste und bei Frauen die dritthäufigste krebsbedingte Todesursache dar. Ein Lungenkarzinom ist eine bösartige Geschwulst in der Lunge, die sich im Verlauf auch auf andere Organe ausbreiten kann. Die wichtigsten Risikofaktoren sind Aktivsowie Passivrauchen. Auch der Kontakt mit Schadstoffen in der Luft und vorhandenes Narbengewebe können krebsauslösende Zellmutationen hervorrufen. Lungentumore werden oft erst im späten Stadium erkannt, da die Symptompe sehr unspezifisch sind. 81 4 Onkologie Symptomatiken, die auf einen Lungentumor deuten können, sind beispielsweise ungewollter Gewichtsverlust, Erkältungen, die über mehrere Wochen trotz Antibiotika nicht besser werden, Schmerzen in der Brust und Atemnot oder anhaltender Husten. Zur Diagnosestellung des Lungenkrebses werden Röntgen, Computertomographie, Bronchoskopie und histologische Gewebeuntersuchungen genutzt. Die wichtigsten Lungenkrebsformen sind das nichtkleinzellige (80 %) und das kleinzellige (20 %) Lungenkarzinom. Das kleinzellige Lungenkarzinom hat eine schlechtere Prognose, da es schnell wächst und bei Diagnosestellung in 80 % der Fälle bereits metastasiert hat. Zu den Therapiemöglichkeiten gehören Chemotherapie, Strahlentherapie sowie eine operative Entfernung des Tumors. Je nach Tumorstadium werden entweder nur das Tumorgewebe plus Sicherheitsabstand oder Lungenlappen bzw. ein Lungenflügel entnommen. Eine vollständige Heilung ist nur in wenigen Fällen möglich. Die Fünf-Jahres-Überlebensrate liegt zwischen 5–10 %. Etwa 8 % aller bösartigen Krebserkrankungen kommen im Magen vor. Glücklicherweise sinkt die Anzahl der Neuerkrankungen in den letzten Jahren. Die Tumorzellen haben ihren Ursprung meistens in der Magenschleimhaut und breiten sich von dort aus aus. Die wichtigsten Risikofaktoren zur Entstehung eines Magenkarzinoms sind schlechte Ernährung und Magenschleimhautentzündung, vor allem durch das Bakterium Helicobacter pylori. Auch die Symptome dieser Krebsart sind unspezifisch. Häufig berichtet werden Oberbauchbeschwerden, ungewollter Gewichtsverlust, Schluckbeschwerden, Appetitlosigkeit, ein »empfindlicher« Magen, Abneigung gegen Fleisch und Völlegefühl nach dem Essen. Zur Diagnosestellung werden speziell die Gastroskopie (Magenspiegelung) und die Endosonographie angewandt. Zu den Therapiemöglichkeiten gehören Chemotherapie, Strahlentherapie, endoskopische sowie operative Entfernung des Tumors. Bei der Operation können entweder nur Teile oder der ganze Magen entfernt werden. Nach einem solchen Eingriff ist es möglich, weitgehend normal zu leben. Die Essgewohnheiten müssen jedoch angepasst werden. Die Fünf-Jahres-Überlebensrate beträgt je nach Stadium der Erkrankung zwischen 80 und 5 %. 4.6 Therapie und Diagnostik 4.6.1 Anamnese und Untersuchung Jeder kennt diese Situation: Man ist krank, weiß aber nicht genau, was einem fehlt. Also geht man zum Arzt. Was erwartet man nun von ihm? Eine eindeutige Diagnose des Krankheitsbefundes und eine Heilung, denn das ist ja sein Beruf. In der Kurseinheit »Anamnese und Untersuchung« setzten wir uns damit auseinander, wie man als Arzt vorgeht, um diesen Erwartungen gerecht zu werden. Der Arzt erhebt eine Anamnese, in der er den jetzigen Zustand des Patienten, die medizinische Vorgeschichte bzw. Familiengeschichte und das soziale Umfeld erfasst. Eine sorgfältige Datenerhebung hilft, eine genaue Diagnose zu stellen und die richtige Therapie auszuwählen. Bei der Befragung des Patienten muss der Arzt auf bestimmte Dinge achten: 82 4.6 Therapie und Diagnostik Zu Beginn des Arztbesuches ist es erwünscht, dass der Patient eigenständig und frei von seinen Symptomen erzählt. Daher leitet der Arzt das Gespräch häufig mit Worten wie »Was führt Sie heute zu uns?« ein. Die offen formulierte Frage erleichtert es dem Patienten, von sich zu erzählen. Wichtig ist auch das »Heute«, da der Arzt wissen will, ob der Patient akute Beschwerden und Symptome hat. Dennoch wird ein Patient bei der Konsultation im Durchschnitt bereits nach 18 Sekunden wieder unterbrochen. Von großer Bedeutung ist auch das aktive Zuhören. Mit den berühmten W-Fragen kann der Arzt anfangen, die auftretenden Symptome spezifischer festzuhalten: »Wann«, »Wo«, »Wie« und »Was«. Dabei liegt die Schwierigkeit darin, die subjektive Beschreibung des Patienten richtig einzuschätzen. Auffälligkeiten wie Gewichts- und Appetitverlust, Brechreiz, Alkoholkonsum und Rauchen sind ebenfalls wichtige Aspekte zur Diagnosestellung. Es ist erforderlich zu wissen, welche Medikamente der Patient schon genommen hat und welche davon die Symptome lindern konnten. Mit diesen gesammelten Informationen hat der Arzt häufig bereits eine Vermutung, die er dann mit Hilfe verschiedener Tests und Untersuchungen zu bestätigen versucht. Dazu inspiziert der Arzt seinen Patienten erst einmal gründlich, hört Herzschlag und Atmung ab und kann bestimmte Regionen abtasten und abklopfen. Eine Bestimmung bestimmter Laborparameter in der Blutabnahme bringt zudem häufig wichtige Zusatzinformationen. Hat der Arzt eine Diagnose gestellt, so kann er einen Therapieplan erstellen. 4.6.2 Bildgebende Verfahren I (CT und MRT) Es gibt verschiedene bildgebende Verfahren in der Medizin, die uns einen Blick in das Innere unseres Körpers werfen lassen, ohne diesen aufschneiden zu müssen. Eines dieser Verfahren ist das Röntgen. Hierbei wird Röntgenstrahlung auf den zu untersuchenden Bereich des Körpers geschickt. Sie kann Materie durchdringen und wird 83 4 Onkologie von verschiedenem Gewebe unterschiedlich stark absorbiert. Mit einer Röntgenkamera wird die verbleibende Strahlung aufgefangen und als Röntgenbild wiedergegeben. Auf diesem ist nun Gewebe mit einer hohen Dichte hell und Gewebe mit einer niedrigen Dichte dunkel abgebildet. Eine Röntgenuntersuchung ist im Vergleich zu anderen bildgebenden Verfahren kostengünstig und liefert ein schnelles Ergebnis. Besondere Bedeutung hat das Verfahren in der Darstellung des Skelettapparates und der weiblichen Brust. Um suspekte Strukturen genauer zu untersuchen, sind häufig weitere Untersuchungen wie Computertomographie (CT) und Magnetresonanztomographie (MRT) indiziert: Die CT beruht auch auf Röntgenstrahlung. Hierbei drehen sich die Röntgenröhre, die die Strahlung emittiert, und der Detektor um den Patienten; es werden Aufnahmen aus verschiedenen Richtungen gemacht und ein Computer errechnet aus diesen ein Schnittbild durch den Körper. Ebenso ist mit dem Computer eine dreidimensionale Darstellung am Bildschirm möglich. Die CT wird aufgrund der kurzen Untersuchungszeit in Notfallsituationen und bei Patienten, die nicht lange still liegen können, genutzt. Außerdem bietet sie bei der Tumorerkennung durch eine höhere Auflösung genauere Ergebnisse als das Röntgen. Es können Tumore sowie Metastasen dargestellt werden. Mithilfe von Kontrastmitteln, die oral sowie intravenös verabreicht werden können, lassen sich Gewebe noch detaillierter darstellen. Ein Nachteil von Röntgen und CT ist die ionisierende Strahlung, die erbgutverändernd wirken kann und somit auch krebsauslösend ist. Dies ist beim folgenden bildgebenden Verfahren nicht der Fall: Die MRT arbeitet mit einem starken Magnetfeld und nutzt den Effekt des Kernspins. Durch den Effekt des Kernspins, die Eigenrotation des Atomkerns, entsteht bei bestimmten Atomen ein Magnetfeld. Dieses richtet sich nach dem starken Magnetfeld des MRT aus und kann durch einen elektromagnetischen Impuls ausgelenkt werden. Dabei gibt es eine Magnetfeldänderung und messbarer Strom wird induziert. Die MRT zeichnet sich durch einen sehr hohen Weichteilkontrast aus und eignet sich dadurch besonders zur Darstellung von Organen. Dies ermöglicht die Diagnosestellung verschiedenster Tumorentitäten. Durch die Möglichkeit von Echtzeitaufnahmen kann beispielsweise ein schlagendes Herz in Bewegung beobachtet werden. Die Untersuchungsdauer ist mit etwa 30 Minuten relativ lang und kann nicht von jedem Patienten toleriert werden. Die MRT ist das Schonendste der drei vorgestellten bildgebenden Verfahren, da sie keine Strahlenbelastung darstellt. 4.6.3 Bildgebende Verfahren II (Positronen-Emissions-Tomographie) Bei der Positronen-Emissions-Tomographie, kurz PET, handelt es sich um ein bildgebendes Verfahren der Medizin, das zur Diagnostik eingesetzt wird. Es findet größtenteils Verwendung in der Onkologie um Tumorgewebe zu lokalisieren. Es bestehen auch andere Einsatzmöglichkeiten wie beispielsweise eine Messung der Herzdurchblutung. Bei einer PET wird der Stoffwechsel des untersuchten Organismus gemessen und visualisiert. Dies geschieht, indem dem Patienten ein Radiopharmakon, auch Tracer 84 4.6 Therapie und Diagnostik genannt, injiziert wird. Dabei handelt es sich um ein Radionuklid, das einzeln oder mit einem Carrier-Molekül verabreicht werden kann. Verwendet wird meistens der Tracer FDG (Fluordesoxyglucose) mit dem Radionuklid Fluor-18. Da es sich bei FDG um ein Zuckermolekül handelt, wird dieses vermehrt von Gewebe mit hohem Metabolismus aufgenommen. Dazu zählen Tumore, aber auch das Gehirn und Entzündungsherde. Um eine optimale Wirkung zu erreichen, sollte vor der Behandlung einige Stunden kein Zucker eingenommen werden. Das verwendete Fluorisotop hat die Eigenschaft, beim Zerfall ein Positron und ein Neutrino zu emittieren; die entscheidende Rolle spielt hierbei Ersteres. Da es sich bei Positronen um das Antiteilchen der Elektronen handelt, reagieren emittierte Positronen mit Elektronen und setzen in einer Vernichtungsreaktion Gammastrahlung frei. Hier wird nach dem Prinzip der Energie-Masse-Äquivalenz, E = mc2 , die gesamte Masse der zwei Teilchen vernichtet und in Strahlung umgesetzt, die zwei entstehenden Photonen werden in einem Winkel von 180◦ emittiert. Die freigesetzte Strahlung wird von einem Detektorring aufgefangen und in ein elektrisches Signal umgesetzt; dazu wird ein Photomultiplier eingesetzt. Gemessen werden nur Photonen mit einer Energie von 511 keV. Das Ziel ist es, koinzident – also gleichzeitig – eintreffende Photonen zumessen, sogenannte »trues«, da so der Weg dieser Photonen bis zum Ursprung ermittelt werden kann. Da dieser Prozess sehr oft abläuft, kann gemessen werden, in welchen Gebieten viele dieser trues auftreten. Daraus resultiert, dass dort ein Gewebe mit hohem Stoffwechsel vorliegt, beispielsweise ein Tumor. Obwohl nicht alle Photonen gemessen werden können, da der Körper sie absorbieren oder streuen kann oder sie möglicherweise außerhalb des detektierten Bereichs austreten, zählt die PET zu den genausten Bildgebenden Verfahren. Noch bessere Ergebnisse werden erzielt, wenn PET-Geräte mit der Computertomographie oder der Magnetresonanztomographie kombiniert werden. Da bei der PET ein Radionuklid verwendet wird, ist der Patient einer Strahlenbelastung ausgesetzt. Dieses Risiko überwiegt der Nutzen jedoch bei weitem. Eine andere Problematik besteht in den hohen Kosten einer PET-Untersuchung und dem Aufwand bei der Herstellung des Radiopharmakons. Zugunsten der Patienten sollten diese Probleme jedoch keine Rolle spielen. 4.6.4 Chemotherapie Eine der wichtigsten Therapien gegen Krebs ist die Chemotherapie. Durch sogenannte Zytostatika werden dabei bösartige Tumorzellen abgetötet oder deren unkontrolliertes Wachstum gehemmt. Tumorzellen haben eine sehr hohe Teilungsrate, daher kommt es dort häufig zu Mitosen. Da Zytostatika eben diesen Teilungsprozess angreifen, wirken sie auf bösartiges Tumorgewebe stärker als auf gesundes Gewebe, wo es vergleichsweise selten zu Mitosen kommt. Es gibt jedoch auch verschiedene gesunde Gewebearten (z. B. Schleimhäute und Knochenmark), in denen die Teilungsrate sehr hoch ist. Diese Zellen werden dann ebenso stark angegriffen, wodurch es zu erheblichen Nebenwirkungen kommt. 85 4 Onkologie Zu den Zytostatika gehören u. a. die sogenannten Antimetabolite, wie 5-Fluoruracil. Aufgrund der Strukturähnlichkeit dieses Wirkstoffes mit den Basen Uracil, Cytosin und Thymin wird 5-Fluoruracil während der Replikation der DNA und auch während der Transkription fälschlicherweise anstelle der Basen eingebaut. Die auf diese Weise entstehende fehlerhafte RNA hemmt das Wachstum der Zelle. Eine weitere Wirkung der Antimetabolite ist die Hemmung eines Enzyms, das die Synthese von dTMP katalysiert. Das für die DNA-Reparatur und die DNA-Synthese wichtige dTMP kann dann nicht synthetisiert werden, so dass letztlich die Zellteilung inhibiert wird. Eine weitere Gruppe der Zytostatika sind die Taxane. Zu ihnen gehört der Arzneistoff Paclitaxel, der ursprünglich in der Rinde der Pazifischen Eibe gefunden wurde. Während der Metaphase der Mitose sind die Spindelfasern dafür zuständig, die beiden Schwesterchromosomen voneinander zu trennen und zu den Spindelpolen zu ziehen. Durch Paclitaxel wird dieser Mechanismus unterbunden. Die Mitose läuft nicht vollständig ab, was zum Tod der Tumorzelle führt. Zu den Zytostatika gehören außerdem die sogenannten Alkylanzien. Diese Wirkstoffe, wie zum Beispiel Nimustin, sind Zellzyklusunabhängig, wirken also weniger spezifisch auf Tumorzellen. Sie schädigen die DNA der Zellen durch eine Modifizierung der Basenpaare, die Alkylierung. Bei der Alkylierung werden zwei Basen durch eine Kohlenwasserstoffkette verknüpft. Diese Basen können im selben (Intrastrang-Quervernetzung) oder in gegenüberliegenden DNA-Einzelsträngen liegen (Interstrang-Quervernetzung). Aufgrund dieser Modifikation kann die DNA nicht mehr repliziert werden. Der Zellstoffwechsel kommt zum Erliegen und die Apoptose wird eingeleitet. Eine ähnliche Wirkung besitzen Platinverbindungen, zum Beispiel Cis-Platin. Auch hier kommt durch eine irreversible Bindung des Moleküls an die DNA zu Quervernetzungen. Bei der Chemotherapie werden meist verschiedene Wirkstoffe kombiniert und in einer geplanten zeitlichen Abfolge verabreicht. Die Behandlung folgt also einem individuellen Schema, in welchem Faktoren wie die Wirkdauer der Medikamente und die Regenerationszeit des Körpers berücksichtigt werden. Der Erfolg einer Chemotherapie hängt auch davon ab, wie gut die Wirkstoffe die Krebszellen im Körper erreichen können. Eine wichtige Rolle spielt weiterhin die Abbaugeschwindigkeit des Medikaments und die mögliche Resistenz von Tumorzellen gegen das Zytostatikum. 4.6.5 Strahlentherapie Die »Strahlentherapie« ist ein modernes Fachgebiet der Medizin, welches sich mit dem Einsatz von ionisierender und somit hochenergetischer Strahlung auf Menschen und Tiere beschäftigt. Hierbei ist das Ziel, verschiedene Krankheitstypen vollständig zu heilen (kurative Bestrahlung), deren weiteren Fortschritt zu verhindern oder bei nicht zu erwartender Heilung die Krankheitssymptome durch eine palliative Bestrahlung zu lindern. Der grundsätzliche Wirkungsmechanismus der Strahlentherapie beruht auf der Energieübertragung der eingesetzten Strahlung auf das bestrahlte Gewebe. Durch diese kommt es zu verschiedenen Folgereaktionen: Zum einen kann die Zell-DNA durch direkte Treffer 86 4.6 Therapie und Diagnostik Abbildung 4.4: Intensitätsvergleich zwischen Elektronen-/Röntgenbremsstrahlung und Protonen in Abhängigkeit von der Gewebetiefe. Quelle: Wikipedia [44]. der Strahlung stark geschädigt werden, was auf das Brechen von Einzelsträngen oder dem gesamten Doppelstrang zurückzuführen ist. Zum anderen können freie Radikale durch die Ionisierung von Wassermolekülen entstehen. Da freie Radikale ein oder mehrere ungepaarte Elektronen besitzen, sind diese Moleküle sehr reaktionsfreudig, sodass sie durch sofortige Reaktionen mit der Zell-DNA diese akut schädigen.Die verursachten Schäden übersteigen die ohnehin geringe Reparaturfähigkeit einer Tumorzelle, sodass die Mitose und somit die weitere Vermehrung der Zellen verhindert wird und bei übermäßigen Schäden an der DNA der Tumorzelle die Apoptose eingeleitet wird. Um nun noch die Intensität der verwendeten Strahlung quantitativ beschreiben zu können, wurde eine Einheit eingeführt, welche die »durch ionisierende Strahlung verursachte ( . . .) und ( . . .) [folglich] pro Masse absorbierte Energie« (Wikipedia [43]) angibt. Diese Energiemenge wird in J/kg angegeben. Betrachtet man nun die angewandten Therapieformen, so lassen sich drei Haupttherapien unterscheiden: Die Teletherapie, die Partikel-/Schwerionentherapie und die Brachytherapie. In der Teletherapie wird die benötigte Strahlung in Linearbeschleunigern erzeugt. Hierbei handelt es sich entweder um Elektronenstrahlung, Photonenstrahlung oder Röntgenbremsstrahlung. Charakteristisch für die Teletherapie ist das auftretende Spektrum der Strahlung wie es in Abbildung 4.4 zu erkennen ist. Das Dosismaximum der Strahlung liegt relativ am Anfang der Flugbahn, anschließend baut sich die Intensität nur langsam ab, sodass auf den Tumor folgendes Gewebe ebenfalls hohe Strahlungsdosen erfährt. 87 4 Onkologie Im Gegensatz hierzu werden in der Partikel-/Schwerionentherapie Schwerionen verwendet, die auf sehr hohe Geschwindigkeiten beschleunigt werden und den Tumor irreparabel schädigen. Dies liegt an der in der Abbildung 4.4 zu erkennenden Dosisverteilung, nach der das Dosismaximum kurz vor dem Ende der Flugbahn liegt. Hierduch kann der Tumor noch effektiver bestrahlt werden, während benachbartes Gewebe geschont wird. Die dritte Therapieform ist die Brachytherapie, bei der zum einen die Möglichkeit besteht, kleine Strahlungskörper (Seeds) zu implantieren, die dann im Patienten verbleiben und ihre Strahlung abgeben. Zum anderen können während einer Operation Hohlnadeln in einen Körperhohlraum eingebracht werden, in denen dann Strahlenquellen einzelne Positionen der Nadel abfahren und den Tumor bestrahlen. In beiden Fällen wird der Tumor direkt vom Körperinneren her bestrahlt. 4.6.6 Monoklonale Antikörper Monoklonale Antikörper stellen neben der Chemo- und Strahlentherapie eine zukunftsweisende Therapiemöglichkeit in der Onkologie dar. Bei der natürlichen Immunantwort produzieren die B-Zellen des Immunsystems Antikörper, welche jeweils definierte Bindungsstellen (Epitope) ihrer Antigene erkennen. Über das Hybridom-Verfahren lassen sich sogenannte monoklonale Antikörper künstlich herstellen. Monoklonale Antikörper gehen auf eine einzige Zelllinie von B-Lymphozyten (Zellklon) zurück. Bei der Hybridom-Technik werden B-Zellen mit sich schnell teilenden Myelomzellen fusioniert. Man erhält sogenannte Hybridomzellen, die Antikörper produzieren. Nach Auswahl der geeignetsten Zellen werden diese in Kultur gehalten und als Vorrat tiefgefroren. Da die B-Zellen der Milz einer Maus entommen wurden, müssen monoklonale Antikörper vor dem Einsatz in der Therapie humanisiert werden, sodass sie nicht als Fremdkörper vom Immunsystem aufgefasst werden. Monoklonale Antikörper werden in Bezug auf Tumorerkrankungen sowohl in der Diagnostik als auch in der Therapie eingesetzt. So ist es beispielsweise durch radioaktive Markierung eines monoklonalen Antikörpers möglich, ihn zu detektieren, nachdem er »sein« tumorspezifisches Protein erkannt hat. Somit kann man einen Tumor markieren und lokalisieren. In der Therapie können monoklonale Antikörper auch die Übertragung zellulärer Signale hemmen. Dazu binden sie an die entsprechenden, auf Tumorzellen vermehrt vorkommenden Rezeptoren und blockieren deren Weiterleitung spezifischer Signale. Diese Therapie wird häufig bei Brustkebs angewandt und führt schließlich zum Anhalten des Tumorwachstums. Ein ähnlicher Effekt wird erreicht, wenn monoklonale Antikörper eingesetzt werden, um die für die Angiogenese verantwortlichen Signalmoleküle zu blockieren. Dadurch erhält der Tumor keinen zusätzlichen Zugang zu Sauerstoff und Nährstoffen, die über die Blutgefäße verteilt werden. Um einen Tumor gezielt töten zu können, werden die Antikörper mit Giften oder radioaktiven Substanzen kombiniert. Der Giftstoff befindet sich dann – aufgrund der Antikörperbindung an ein Oberflächenprotein – in direkter Nähe zur Tumorzelle und kann diese selektiv töten. Ein weiterer Ansatz besteht darin, einen monoklonalen Antikörper mit einem Enzym zu kombinieren. Diese Therapie bezeichnet man als Antibody-directed-enzyme-prodrug- 88 4.6 Therapie und Diagnostik therapy oder kurz ADEPT. Hierbei werden dem Patienten mit dem Enzym Cytosindeaminase kombinierte Antikörper gespritzt, welche an Rezeptoren binden, die hauptsächlich an Tumoren zu finden sind. In einem zweiten Schritt wird dem Patienten die zunächst wirkungslose Prodrug 5-Fluorcytosin gegeben. Wenn diese den am Tumor befindlichen Antikörper-Enzym-Komplex erreicht, katalysiert die Cytosindeaminase die Umwandlung der Prodrug in das Zellgift 5-Fluoruracil. Im Gegensatz zu verschiedenen Chemotherapeutika, die gegen alle sich teilenden Zellen gerichtet sind, ermöglichen antikörperbasierte Ansätze eine zielgerichtetere Therapie mit weniger Nebenwirkungen. Insgesamt steckt in den unterschiedlichen Forschungsansätzen mit monoklonalen Antikörpern daher ein großes Potential für die Krebstherapie. 4.6.7 Alternative Therapien – Misteltherapie Ein kontrovers diskutiertes Thema in der modernen Krebsforschung stellen die alternativen Therapien dar. Eine der bekanntesten ist die Behandlung mit Mistelpräparaten, die hauptsächlich von Vertretern der anthroposophischen Medizin angewandt wird. Dabei handelt es sich um eine alternative Richtung, welche die Persönlichkeit des Patienten bei der Behandlung berücksichtigt. Ihr Begründer, der österreichische Philosoph und Esoteriker Rudolf Steiner (1861 – 1925), beschrieb Anfang des 20. Jahrhunderts das medizinische Potenzial der Mistel, eines Halbschmarotzers, der auf Bäumen und Sträuchern lebt. Misteln wurden schon zuvor als Hausmittel gegen hohen Blutdruck, Epilepsie und Asthma angewendet. Spätere Nachforschungen brachten zwei für Misteln spezifische Inhaltsstoffe ans Licht, denen Anthroposophen große Bedeutung für die Krebstherapie zuschreiben. Dabei handelt es sich einerseits um die Mistellektine, zuckerhaltige Eiweißstoffe, die das Immunsystem anregen, das Wachstum von Krebszellen stoppen und durch das Auslösen des »Zellselbstmordes« sogar Tumore zerstören können sollen. Andererseits beinhalten Misteln sogenannte Viscotoxine. Diese eiweißhaltigen Verbindungen ähneln in ihrer chemischen Struktur Schlangengiften und sollen ebenfalls das Immunsystem stimulieren und Krebszellen durch Auflösen der Zellwand zerstören können. Für die Therapie werden die Mistelpräparate zwei- bis dreimal pro Woche an Bauch oder Oberschenkel unter die Haut gespritzt. Der Preis für eine dieser Dosen variiert zwischen 6 und 10 Euro. In Ausnahmefällen kann das Präparat auch direkt in den Tumor gespritzt werden oder per Infusion verabreicht werden. Die Verfechter dieser komplementär zur konventionellen Behandlung ablaufenden Therapie räumen ihr das Potenzial ein, Tumore zu zerstören oder zumindest ihr Wachstum zu verlangsamen; das Immunsystem zu stimulieren und vor allem die Lebensqualität der Patienten zu erhöhen. Kritiker entgegnen, diese Wirkung habe in repräsentativen Studien nicht bestätigt werden können. Als gesichert gilt demgegenüber, dass die Misteltherapie verschiedene Nebenwirkungen auslösen kann. Eine allergische Reaktion auf die Präparate kann zudem lebensgefährlich sein. Letztlich ist es vor allem eine Grundsatzfrage für den Patienten, ob er der ausführlich erforschten, konventionellen Behandlung (Operation, Chemo-/Strahlentherapie) folgt oder sich auch auf die viel diskutierte, alternative Misteltherapie einlässt. 89 4 Onkologie 4.7 Palliativmedizin und Patientenumgang 4.7.1 Palliativmedizin Wenn bei Tumorpatienten die Möglichkeit einer Heilung ausgeschlossen wird, der Tumor also inkurabel ist, werden diese nicht mehr kurativ, sondern palliativ behandelt. Das Ziel der Palliativmedizin ist es dabei, nicht nur mehr Lebenszeit für den Patienten, sondern auch die bestmögliche Lebensqualität zu erreichen. Neben der Linderung von Leiden und Schmerzen gehört zur palliativen Behandlung auch das Stoppen des Tumorwachstums, die Wiederherstellung von wichtigen Körperfunktionen und die psychologische Betreuung. Das weitere Tumorwachstum wird z. B. durch eine abgeschwächte Chemo- oder Strahlentherapie bekämpft. Um die Leiden eines Patienten abzumildern, bekommt er vor allem Schmerzmittel verabreicht, es sind jedoch auch Operationen und leichte Chemotherapien möglich. Bei Operationen werden beispielsweise Umgehungsgefäße (Blutgefäße oder Verdauungsgänge) und Stents gelegt und Embolisationen durchgeführt, also Verödungen von Blutgefäßen, die zum Tumor hinführen. In Studien hat sich interessanterweise gezeigt, dass sich durch diese palliativmedizinischen Maßnahmen die Lebensdauer der behandelten Patienten gegenüber der prognostizierten Lebensdauer erhöht. Anders als auf den gewöhnlichen Stationen im Krankenhaus, wird auf den Palliativstationen großer Wert auf eine wohnliche Einrichtung gelegt. Neben der medizinischen Behandlung erhalten die Patienten auch Physio- und Ergotherapie zur Wiedererlangung ihrer Mobilität und psychologische Unterstützung; denn für den Erfolg der Behandlung ist auch die mentale Stärke und Akzeptanz entscheidend. Bei der Verarbeitung der Krankheit benötigen nicht nur die Patienten und deren Angehörige psychologische Betreuung, sondern auch alle Mitarbeiter der Palliativstation. Auch das Gemeinschaftsgefühl zwischen Mitarbeitern und Patienten wird auf der Palliativstation stärker gefördert, als auf anderen Stationen eines Krankenhauses. Dies geschieht beispielsweise durch die regelmäßige gemeinsame Nutzung der Küche. Ungewöhnlich ist auf der Palliativstation auch, die verhältnismäßig niedrige Patientenrate pro Arzt. Die unheilbar kranken Patienten werden wenn möglich auf der Palliativstation behandelt bis sich ihr Zustand soweit stabilisiert, dass sie die Zeit bis zu ihrem Tod entweder zu Hause, im Pflegeheim oder im Hospiz verbringen. Die Erkrankten werden außerdem auf die Zeit nach der Palliativstation vorbereitet. So beraten beispielsweise Mitarbeiter des Sozialdienstes der Palliativstation die Patienten und ihre Angehörigen über die praktischen Fragen der Betreuung und organisieren für später einen ambulanten palliativen Pflegedienst, falls der Wunsch danach besteht. Sowohl für die Patienten als auch für die mitarbeitenden Ärzte, Pfleger und Psychologen ist es während der gesamten Arbeit äußerst wichtig, niemals das große Ziel aller palliativen Maßnahmen und Betreuung aus den Augen zu verlieren: Nicht dem Leben mehr Tage hinzuzufügen, sondern dem Tag mehr Leben. 90 4.7 Palliativmedizin und Patientenumgang 4.7.2 Psychologische Aspekte Neben den starken körperlichen Schmerzen werden Krebspatienten auch von psychischen Belastungen gequält. Im einen Moment noch erfüllt von Angst, Verzweiflung und Hilflosigkeit, fühlen sie sich im nächsten Moment gestärkt von Mut, Zuversicht und Entschlossenheit. Elisabeth Kübler-Ross teilt die Verarbeitung einer Krankheit in fünf Stadien ein: »The Five Stages Of Grief«: Verleugnung, Wut, Verhandeln, Depression und schließlich Akzeptanz. Nicht nur für den Patienten selbst ist die Diagnose Krebs eine psychische Belastung, sondern auch für die Angehörigen. Christoph Schlingensief, ein berühmter deutscher Regisseur, beschreibt diese Situation in seinem Krebstagebuch wie folgt: »Nicht der Leidende ist der, der eine Prüfung macht, sondern der, der auf den Leidenden trifft. Deshalb ziehen sich auch manche Leute zurück, weil dieses Aufeinandertreffen bedeutet, dass man sich über manche Dinge Gedanken machen muss, die man im Normalfall lieber verschiebt. [ . . .] Es tut einem Leid, weil man mit existentiellen Problemen nichts anfangen kann oder will« (Schlingensief 2005). Das Zitat zeugt von der Hilflosigkeit und Unsicherheit der Angehörigen, wenn sie Zeit mit einem Todkranken verbringen. Im Alltag sieht man sich nur äußerst selten mit existenziellen Fragen konfrontiert. Oftmals möchte man sich nicht mit der Endlichkeit des Lebens beschäftigen. Tritt nun jedoch eine Krankheit innerhalb des sozialen Umfeldes auf, so wird man von der erschreckenden Realität des Todes eingeholt. Man wird sich der Tatsache bewusst, dass mit dem Tod eines geliebten Menschen ein gemeinsames Leben endet. Dieser Einschnitt in die Normalität kann beängstigend sein. Zudem kann Angst vor dem Schmerz der Trauer und vor der anstehenden Veränderung entstehen. Häufig reagieren Angehörige aus Unsicherheit mit einer abwehrenden Haltung. Diese Distanz kann in manchen Fällen dazu beitragen, dass Patienten keine Möglichkeit sehen, ihren tiefsten Ängsten und Wünschen Ausdruck zu verleihen, weil sie sich niemandem anvertrauen können. »Damit wir begreifen lernen, dass es im Kern um eine Beziehung zum Leben geht, die nicht nur von Schönheit und Erfolg ausgeht, sondern auch mit Hässlichkeit und Misserfolg rechnen lernt. Dass man sich dem Zöllner und der Hure näher fühlen sollte als dem Pharisäer« (Schlingensief 2005). Schlingensiefs Worte beschreiben die Mentalität unserer Gesellschaft. Es geht um Leistung, Erfolg, Makellosigkeit und Perfektionismus. Solch’ eine Gesellschaft besitzt keinen Platz für chronisch Kranke. Dies kann zu einer Ausgrenzung des Kranken aus der Masse führen. Um den Patienten auf körperlicher und seelischer Ebene zu unterstützen, sollten wir offener über Themen wie Krebs, Tod und Verlust sprechen. Dies würde eine Verbesserung bzw. Erleichterung der Situation auf beiden Seiten bedeuten. Zudem wäre es wünschenswert, wenn die Gesellschaft für die Bedürfnisse chronisch Kranker mehr Platz schaffen würde. 91 4 Onkologie 4.8 Literaturverzeichnis Epidemiologie [1] http://www.krebsinformationsdienst.de/themen/grundlagen/krebsregister.php Deutsches Krebsforschungszentrum (KID): Krebsregister: Warum zählen so wichtig ist. [2] Robert Koch Institut und Gesellschaft der epidemiologischen Krebsregister in Deutschland e. V: Krebs in Deutschland 2005/2006 - Häufigkeiten und Trends. Berlin 2010. Risikofaktoren [3] http://www.onkologie.hexal.de/krebs/lungenkrebs/gefaehrdet/ Hexal AG: Lungenkrebs - Ursachen und Risiko. [4] www.chirurgie-frankfurt.com/de/pdfs/Krebsvorsorge.pdf Klinik für Allgemein-, Viszeral-, und Minimal Invasive Chirurgie – Patienteninformation: Kann man sich vor Krebs schützen? [5] http://www.med.uni-goettingen.de/media/global/tag_der_medizin/ tdm_2006_krebs_unduebergewicht.pdf Raddatz, Dirk: Krebs und Übergewicht, Göttingen 2006. [6] Rechkemmer, Gerhard: Krebs - auch ein Ernährungsproblem. In: Spektrum der Wissenschaft, Spezial: Krebsmedizin II, Spezial 3/2003, 40–44. Molekulare Grundlagen [7] http://www.krebsinformationsdienst.de/themen/grundlagen/immunsystem.php# immunsystem-und-krebs Deutsches Krebsforschungszentrum (KID): Immunsystem und Krebs: Kompliziertes Wechselspiel. [8] Gibbs, W. Wayt: Chaos in der Erbsubstanz. In: Spektrum der Wissenschaft Spezial: Krebsmedizin II Spezial 3/2003, 12–22. [9] Hanahan, Douglas und Weinberg, Robert A.: Hallmarks of Cancer: The Next Generation. In: Cell Vol. 144 (5) 2011, 646. [10] http://uni-protokolle.de/nachrichten/id/44808/ Müller-Hermelink, Hans Konrad: Genomische Instabilität als Ursache der Krebsentstehung. Leukämien und Lymphome [11] http://www.dkv.com/gesundheit-krebs-leukaemie-beschreibung-12310.html Larisch, Katharina: Leukämie und Lymphome – Beschreibung. [12] Leischner, Hannes: Basics Onkologie. München 2010. 92 4.8 Literaturverzeichnis Mammakarzinom [13] http://www.frauenaerzte-im-netz.de/de_brustkrebs-risikofaktoren-vorbeugung_367. html#Alter Berufsverband der Frauenärzte e. V.: Brustkrebs: Risikofaktoren und Vorbeugung. [14] http://www.netdoktor.de/Krankheiten/Brustkrebs/Wissen/BrustkrebsMammakarzinom-92.html Buschek, Nina: Brustkrebs (Mammakarzinom). [15] http://www.krebsinformationsdienst.de/themen/risiken/gutartige-brustveraenderungen. php Deutsches Krebsforschungszentrum (KID): Gutartige Veränderungen in der Brust. [16] http://edoc.hu-berlin.de/dissertationen/richard-frank-1999-12-13/PDF/Richard.pdf Richard, Frank: Chromosomale Imbalancen invasiv duktaler und invasiv lobulärer Mammakarzinome detektiert mittels komparativer genomischer Hybridisierung (CGH), Berlin 1999. Melanome und Glioblastome [17] Altmeyer, P. und Reich, S.: Hautkrebs - Ein oft unterschätztes Risiko: Risikofaktoren, Diagnostik, Therapie & Prognose. Stuttgart 2006. [18] Leischner, H., siehe [12]. [19] Sauer, R: Strahlentherapie und Onkologie. München 2010. [20] http://www.glioblastom.org/ Weiberg, Horst: Glioblastom (Glioblastoma multiforme). Lungen- und Magenkarzinom [21] Deutsche Krebsgesellschaft e. V.: Der blaue Ratgeber, Magenkrebs. Berlin 2011. [22] Deutsche Krebsgesellschaft e. V.: Patientenratgeber Lungekrebs. Berlin 2009. [23] http://www.medicoconsult.de/wiki/Magenkarzinom Medicoconsult Facharztwissen: Magenkarzinom, Häufigkeit. [24] http://de.wikipedia.org/wiki/Bronchialkarzinom Anamnese und Untersuchung [25] http://www.patientenanwalt.com/fileadmin/dokumente/04_publikationen/ expertenletter/komunikation/upatzent0512_DrDegn.pdf Degn, Barbara: Das Arzt-Patienten Gespräch. Bildgebende Verfahren I (CT und MRT) [26] http://www.welt.de/gesundheit/article4895003/Roentgen-CT-MRT-wie-wir-in-unserInneres-sehen.html 93 4 Onkologie Bisculm, Martina: Bilgebende Verfahren: Röntgen, CT, MRT – wie wir in unser Inneres sehen. [27] http://www.krebsinformationsdienst.de/themen/untersuchung/roentgen.php Deutsches Krebsforschungszentrum (KID): Röntgen: Den Körper durchleuchten. [28] http://www.roe.med.tu-muenchen.de/download/vorlesung/Kurzscript\%20 zum\%20Radiologiekurs\%20MRT.pdf Kurzscript zum Radiologiekurs » MRT + Skelettdiagnostik«. [29] http://www.medical.siemens.com/siemens/de_DE/rg_marcom_FBAs/files/ Patienteninformationen/CT_Patienteninfo.pdf Siemens AG, Medicial Solutions: Computertomographie – Informationen für Patienten. [30] http://www.focus.de/gesundheit/ratgeber/krebs/diagnose/tid-6503/ krebsdiagnose_aid_62475.html Uhlmann, Berit: Kernspintomografie (MRT). Bildgebende Verfahren II (Positronen-Emissions-Tomographie) [31] www.medizin-netz.de [32] www.ogn.at [33] www.pet.at Chemotherapie [34] http://www.krebs-bei-kindern.de/info/fachinfo/chemotherapie/chemotherapie.php Artner, Juraj: Chemotherapie maligner Erkrankungen. [35] http://www.krebsinformation.de/themen/behandlung/chemotherapie-wirkungresistenz.php Deutsches Krebsforschungszentrum (KID): Chemotherapie: Resistenz und Wirkungsverlust. [36] http://www.medizinfo.de/arzneimittel/arzneimittelklassen/antimetabolite.shtml Wehner, Jürgen: Antimetabolite. [37] http://de.wikipedia.org/wiki/Taxane Strahlentherapie [38] http://www.meduniwien.ac.at/typo3/?id=739 [39] http://www.operation.de/brachytherapie Neubauer, Stephan und Derakhshani, Pedram: Brachytherapie / Seed-Implantation / Afterloading Therapie – die Operation. 94 4.8 Literaturverzeichnis [40] http://www.uni-heidelberg.de/presse/news03/2312ione.html Schwarz, Michael: Heidelberger Schwerionen-Therapieanlage schließt Versorgungslücke bei unheilbaren Tumoren. [41] van den Berg, Franz: Angewandte Physiologie 2: Organsysteme verstehen und beeinflussen: Band 2. Stuttgart 2005. [42] http://de.wikipedia.org/wiki/Gray [43] http://de.wikipedia.org/wiki/Strahlentherapie [44] http://de.wikipedia.org/w/index.php?title=Datei:Tiefendosiskurven.svg Monoklonale Antikörper [45] http://zlp.charite.de/forschung/pathobiochemiezellbiologie/ag_fuchs/projekte/adept/ Fuchs, Hendrik: ADEPT. [46] http://www.kliniken.de/lexikon/Medizin/Immunologie/Monoklonaler_ Antik\%C3\%B6rper.html [47] http://www.medizin-aspekte.de/2010/09/brustkrebs_trastuzumab_11941.html [48] http://www.nuvomanufacturing.de/wundheilung/informationen.html [49] Purves et al.: Biologie. Heidelberg 2010. [50] Stryer et al.: Biochemie. Heidelberg 2010. Alternative Therapien – Misteltherapie [51] http://www.mistel-therapie.de/mistel.html Kienle, Gunver S. und Bopp, Annette: Die Mistel in der Krebstherapie. [52] http://www.test.de/themen/gesundheit-kosmetik/meldung/Misteltherapiebei-Krebs-Mythen-und-Tatsachen-1294947-2294947/ Stiftung Warentest (Berlin): Misteltherapie bei Krebs - Mythen und Tatsachen. Psychologische Aspekte [53] http://bit.ly/pULTBG [54] Schlingensief, Christoph: So schön wie hier kanns im Himmel gar nicht sein! München 2009. 95 96 5 Gedenken oder Vergessen? 5.1 Einleitung Andreas Schlüter und Johannes Waldschütz »Die Geschichte ist kein Friedhof«, hat der französische Philosoph Paul Ricoeur einmal gesagt – »nur die lebendige Erinnerung« der Zeitzeugen gebe den Blick frei auf die »Träume, hochfliegende[n] Hoffnungen, Projekte« der historischen Akteure (Ricoeur 1998). Und nicht nur die Beliebtheit von Geschichtsdokumentationen im Fernsehen zeigt, dass die Beschäftigung mit Erinnern und Vergessen in den letzten beiden Jahrzehnten immer stärker zugenommen hat. Die meisten Historiker im Wissenschaftsbetrieb sind dagegen deutlich skeptischer, was die Verlässlichkeit und Aufrichtigkeit solcher Erinnerungen betrifft. In diesem Spannungsfeld zwischen lebendigem Eintauchen in das Vergangene und nüchterner Distanz bewegte sich unser Kurs. Das gab uns die Möglichkeit, Grundlagen und Methoden der Geschichtswissenschaft zu diskutieren und so zu verstehen, was Wissenschaftlichkeit ausmacht. Im ersten Teil erarbeiteten wir uns gemeinsam die interdisziplinären Grundlagen: Wir bekamen einen Überblick, was in den Naturwissenschaften und der Psychologie, in der Philosophie und unter Historikern über das Erinnern herausgefunden und gedacht worden ist. Zentral ist die Erweiterung des Erinnerungsbegriffs vom Gedächtnis Einzelner auf Gruppen und ganze Gesellschaften, die so an einem kollektiven Gedächtnis teilhaben können. Und durch Friedrich Nietzsche machten wir uns damit vertraut, dass auch das Vergessen seinen Nutzen haben kann. So gerüstet, nahmen wir im zweiten, genuin historischen Teil den Umgang mit Erinnern und Vergessen in verschiedenen Zeiten und Kulturen in den Blick: Die mittelalterliche Memorialkultur rückte angesichts der tief verankerten Frömmigkeit das Jenseits ständig ins Bewusstsein. Wie das Erinnern in den Dienst der Macht treten kann, zeigte uns z. B. der kreative Rückgriff von Adligen auf vermeintliche Ahnen zur eigenen Herrschaftssicherung. Die immer wieder verfeinerte damnatio memoriae bediente sich als Herrschaftstechnik auch des Vergessens. Es zeigte sich, dass im Lauf der Geschichte ganz unterschiedlich mit Gedenken und Vergessen umgegangen wurde, was auf uns heute fremd und unverständlich wirken kann. Mit diesem Wissen betrachteten wir im dritten Kursteil Erinnerungsformen und -konstruktionen der Gegenwart, u. a. die Inszenierung von Geschichte in Museen und Medien, den Stellenwert historischer Erinnerung beim Umgang mit historischem Unrecht oder die Bedeutung von Geschichtspolitik in demokratischen wie totalitären Gesellschaften. Als Klammer dienten dabei Fragen, die das Thema Erinnerung im Hinblick auf die wissenschaftliche Praxis zu verorten versuchten: Wie beeinfluss(t)en historische Prozesse die individuelle und kollektive Erinnerung? Wie kann die (historische) Wissenschaft mit 97 5 Gedenken oder Vergessen? sich wandelnder Erinnerung umgehen? Gibt es eine von der Erinnerung unabhängige »objektive Geschichte«? So unterschiedlich die Antworten der Teilnehmenden dabei auch ausgefallen sind, so deutlich wurde es, dass dabei ein Prozess des Nachdenkens und Hinterfragens eingesetzt hatte – die Grundlage jeder wissenschaftlichen Beschäftigung. 5.2 Neurologische und psychologische Grundlagen des Erinnerns Für das Erinnern spielt das menschliche Gedächtnis eine wichtige Rolle. Es gibt drei Unterteilungen des Gedächtnisses: das Ultrakurzzeitgedächtnis, das Arbeitsgedächtnis und das Langzeitgedächtnis. Das Langzeitgedächtnis nimmt allerdings als einziges die Rolle der wirklichen Speicherung ein, wohingegen die anderen sich mit der Verarbeitung von kurzfristigen Reizen beschäftigen. Auch das Langzeitgedächtnis lässt sich in zwei Bereiche unterteilen: das explizite und das implizite Gedächtnis. Zum expliziten Gedächtnis gehört das semantische Gedächtnis, das für Faktenwissen zuständig ist, und das episodische Gedächtnis, das speziell für Erinnerungen zuständig ist. Der zweite Bereich, das implizite Gedächtnis, setzt sich zusammen aus dem prozeduralen Gedächtnis, das für Bewegungsabläufe zuständig ist, und dem Priming-Gedächtnis, das für die Wiedererkennung von Reizen sorgt (Piefke, Markowitsch 2010: 11–13). Während der Speicherung von Daten im Langzeitgedächtnis findet auf neuronaler Ebene eine Genaktivierung statt, die die Bildung eines Proteins zur Folge hat, das wiederum die Strukturen der Synapsen ändert. Diese Genaktivierung kann z. B. durch häufige Wiederholung oder durch eine starke emotionale Bindung mit dem Erlebten zustande kommen. Sollte die Erinnerung jedoch erst einmal im Langzeitgedächtnis festgehalten worden sein, kann sie theoretisch zeitlich unbegrenzt dort fortbestehen. Da sich allerdings die Synapsen im Gehirn ständig verändern, kann die Erinnerung in Vergessenheit geraten, wenn sie nicht mehr durch Reize angeregt wird. Auch ähnliche Erinnerungen oder etwas, das mit der Erinnerung in einem Zusammenhang steht, kann einen Reiz auslösen. Bei der langfristigen Wiederholung von Erinnerungen kann es problematisch sein, dass die Erinnerungen sich in einem geringen Maß verändern. So kann es sein, dass der sich Erinnernde völlig vom Ablauf der Erinnerung und den Details überzeugt ist, obwohl der eigentliche Hergang möglicherweise anders gewesen ist. Des Weiteren spielt beim Erinnern auch immer der aktuelle persönliche Kontext eine wichtige Rolle (Piefke, Markowitsch 2010: 17). Durch diese Abänderung oder Verfälschung besteht die Gefahr, dass Vergangenes anders interpretiert oder gewertet werden kann. Dieser Effekt kann besonders beim kommunikativen Gedächtnis (Assmann 2006) auftreten, da neben der Verfälschung durch die Erinnerung auch eine mögliche Verfälschung durch die kommunikative Weitergabe entstehen kann. Geringer ist dieser Effekt beim kulturellen Gedächtnis (Assmann 2006), da sich dieses durch eine Speicherung des zu Erinnernden mittels der Kultur auszeichnet. Das kulturell Festgehaltene kann zwar aufgrund eines anderen zeitlichen und sozialen Kontextes »falsch« neuinterpretiert werden, jedoch entsteht dabei eine einmalige Verfälschung, während beim kommunikativen Gedächtnis die minimalen Abänderungen aufeinander aufbauen und sich somit selbst verstärken. 98 5.3 Glücklich ohne Erinnerung? 5.3 Glücklich ohne Erinnerung? Philosophische Betrachtungen Nietzsches über den »Nutzen der Historie« Nietzsche wurde 1844, im Zeitalter des Historismus, geboren. Im gesamten westlichen Kulturkreis suchte man in dieser Zeit nach seinen ethnischen Wurzeln; Geschichte wurde zur wichtigsten Wissenschaft. Diesem Gesellschaftsbild stellte Nietzsche im zweiten Teil seiner »Unzeitgemäßen Betrachtungen« (erschienen 1874) eine neue Theorie des Vergessens gegenüber. »Es ist möglich, fast ohne Erinnerung zu leben, ja glücklich zu leben, wie das Thier zeigt, es ist aber ganz und gar unmöglich ohne Vergessen überhaupt zu leben« (Nietzsche 1954: 213). Wenn wir nur erinnern, unterdrücken wir nach Nietzsche unsere Triebe des Vergessens, was heißt, dass die Historie uns zwingt, uns selbst zu verleugnen. Jenes Übermaß an Historie erzeuge einen inneren Konflikt und schwäche die Persönlichkeit. Des Weiteren lasse es uns in der Vergangenheit leben und die Gegenwart »vergessen« (Nietzsche 1954: 219–221). Doch auch Nietzsche sah in der Historie nicht nur etwas Negatives, sondern hielt sie in einem gewissen Maß für sinnvoll. Hierfür schlägt er eine Kombination aus drei verschiedenen Betrachtungsweisen vor: die monumentale, die antiquarische und die kritische Historie (Nietzsche 1954: 219–238). Der monumentale Mensch sehe Geschichte als einen sich wiederholenden Kreislauf, als etwas Besonderes, und nutze sie als Mittel gegen Resignation. Das berge die Gefahr, dass man nach der Vergangenheit lebe und handele; deshalb benötige man die antiquarische Betrachtungsweise. Der antiquarische Mensch sehe sich als Teil der Geschichte, ohne dass er Einfluss auf sie hätte. Gefährlich sei hier, dass man in seiner »kleinen Welt« lebe und die Übersicht verliere. Deswegen bestehe die Notwendigkeit der kritischen Historie, die über die Vergangenheit richte und selektiv entscheide, was vergessen werde und was nicht. Nur wenn man Historie so in den »Dienst des Lebens« stelle, sei sie sinnvoll. Man könnte Nietzsches Gedanken, dass das Vergessen der Vergangenheit wichtig sei, um die Gegenwart wahrzunehmen, mit der Theorie von Jan und Aleida Assmann vergleichen. Diese teilt unser »gesellschaftliches Gedächtnis« in zwei Gedächtnisse: in das kommunikative Gedächtnis und das kulturelle Gedächtnis. Das kommunikative Gedächtnis habe eine Dauer von etwa 80 Jahren und beruhe auf sozialer Interaktion. Das kulturelle Gedächtnis sei wiederum in zwei Gedächtnisse unterteilt: Funktions- und Speichergedächtnis. Im Funktionsgedächtnis befänden sich alle Informationen, die im Moment für unsere Kultur wichtig seien, während im Speichergedächtnis unser gesamtes historisches Wissen (Archive etc.) gespeichert seien (Assmann 2006: 5). Man könnte also sagen, dass das, was Nietzsche als »sinnvolles Vergessen« bezeichnet, eigentlich nur ein Verschieben von irrelevanten Informationen vom Funktions- ins Speichergedächtnis ist. Nietzsches Werke im Gesamtbild kann man kontrovers sehen, da sie im frühen Stadium historienkritisch und im mittleren und späten historienfreundlich sind (Ottmann 2000: 255). Daraus kann man schließen, dass Nietzsche selbst im Laufe seines Lebens seine historienkritische Theorie des Vergessens relativiert hat. Diese viel diskutierte Theorie eröffnete die Sicht auf die positiven Seiten des Vergessens, weshalb sich die Ansätze vieler heutiger Historiker auf Nietzsche zurückverfolgen lassen. 99 5 Gedenken oder Vergessen? 5.4 Das kollektive Gedächtnis nach Maurice Halbwachs Der französische Philosoph und Soziologe Maurice Halbwachs (1877–1945) stellte 1925 in Les Cadres sociaux de la mémoire die These auf, der Mensch könne sich nicht ohne Anbindung an die Gesellschaft an etwas erinnern. Jeder Mensch sei fest in gesellschaftlichen Rahmenbedingungen, den »cadres sociaux« verankert, die durch kommunikative Teilnahme an bestimmten Gruppen entstünden. Die wichtigsten Erinnerungsrahmen seien Sprache, Zeit, Raum und Erfahrung. Die Abhängigkeit von der Gesellschaft bezeichnet Halbwachs als kollektives Gedächtnis – kollektiv im Gegensatz zum individuellen Gedächtnis. Ein solches sei jedoch nur bei einem komplett isoliert aufgewachsenen Menschen zu finden oder im Traum (Halbwachs 1985: 366–367). Denn nur die unmittelbaren Wahrnehmungen und Empfindungen eines Menschen sind nach Halbwachs individuell. Sobald er beginne, zu verstehen, benennen oder auszudrücken, nehme er Bezug auf die ihn umgebenden Rahmen, wobei die Sprache der hauptsächlichste sei (Pethes 2008: 53). Diese durch Beeinflussung einer Gruppe gebildete Erinnerung werde beim Erinnerungsprozess leicht verformt, da der Mensch bei jedem Reproduktionsvorgang den Wert der einzelnen Aspekte anders gewichte (Halbwachs 1985: 381–382). Ein Beispiel hierfür gibt Halbwachs in seiner empirischen Studie La Topographie légendaire des Evangiles en Terre Sainte (1941), in der er die Verbreitung und die Wirkung kollektiver Glaubensvorstellungen im Wandel der Zeit erforscht. Gemäß Halbwachs sind »Erinnerungen an die Vergangenheit wesentlich [. . .] Rekonstruktionen im Lichte der Gegenwart« (Wetzel 2009: 61). Das Gedächtnis der religiösen Gruppe werde somit zum religiösen Gedächtnis, indem die gemeinsamen Traditionen und Riten, die eine symbolische Kraft besäßen, sich dauerhaft im kollektiven Gedächtnis verankerten (Wetzel 2009: 69–70; 74–75). Des Weiteren ergänzt Halbwachs in seinem posthum veröffentlichten Werk La mémoire collective seine Definition des kollektiven Gedächtnisses insofern, als er ihm eine soziale Funktion beimisst. Dadurch und durch anerkannte Werte und Standards würde das kollektive zum kulturellen Gedächtnis und somit zur Sammelstelle für Erinnerungen (Wetzel 2009: 76–77). Trotz dieser Funktion als eine Art Archiv unterscheide sich das kollektive Gedächtnis von der Geschichte: Es gebe mehrere zeitlich und räumlich begrenzte kollektive Gedächtnisse, die im Gegensatz zur Gesamtgeschichte nicht in künstliche Epochen eingeteilt seien (Wetzel 2009: 78–79). Halbwachs’ Theorie wurde von Jan und Aleida Assmann aufgegriffen und weiterentwickelt. Laut diesen unterteilt sich das kollektive Gedächtnis in das kommunikative und das kulturelle Gedächtnis. Das kommunikative Gedächtnis setze sich aus den Erzählungen und mündlichen Überlieferungen zusammen und umfasst nach Assmann ungefähr 80 Jahre (ca. drei Generationen). Im kulturellen Gedächtnis hingegen seien alle Erinnerungen einer Kultur gesammelt sowie alle für diese Kultur wichtigen Ereignisse, Symbole etc. Dieses Gedächtnis sei wiederum unterteilt in Funktions- und 100 5.5 Oral History Abbildung 5.1: Auf Plakaten dargestellt: Was Philosophen über Erinnerung sagen. Hier: Hegel. Speichergedächtnis: Im Funktionsgedächtnis seien alle Informationen vorhanden, die im Augenblick wichtig für die Gesellschaft seien. Wenn diese an Bedeutung verlören, würde sie ins Speichergedächtnis wandern, von wo sie bei Bedarf wieder hervorgeholt werden könnten. Somit entstünde ein permanenter Austausch von Erinnerungen zwischen Speicher- und Funktionsgedächtnis (Assmann 2006). 5.5 Oral History 5.5.1 Der Zeitzeuge als Feind des Historikers? Der Begriff »Oral History« bezeichnet eine geschichtswissenschaftliche Methode, Zeitzeugen zu befragen. Die Befragung findet immer in Form eines Interviews statt und zeichnet sich dadurch aus, dass man den Interviewten möglichst frei erzählen lässt. Auf diese Weise sollen die Erinnerungen des Zeitzeugen und seine persönliche Sichtweise möglichst unverfälscht erforscht werden. Beschäftigt man sich mit der Thematik des Erinnerns und Vergessens, spielt die »Oral History« schon allein deswegen eine Rolle, weil sie vollständig auf diese angewiesen ist. Gerade deswegen ist die »Oral History«-Methode unter Historikern sehr umstritten. Befürworter sehen sie als Chance, die Sicht der Individuen auf die Weltpolitik zu 101 5 Gedenken oder Vergessen? erforschen und sie zur Kontrolle und Korrektur von schriftlichen Quellen zu nutzen (von Plato 2000: 26). Als Argument wird angeführt, dass mündliche Quellen denselben Quellenwert besäßen wie schriftliche, da auch diese von subjektiven Autoren stammten, die unter dem Einfluss ihrer Umgebung, Zeit und Kultur stünden (von Plato 2000: 9). Obwohl versucht wird, Zeitzeugen möglichst wenig zu beeinflussen, sehen Kritiker der »Oral History« Zeitzeugen als für wissenschaftliche Quellenarbeit nicht geeignet an (Welzer 2000: 61). Hauptsächlich wird darauf verwiesen, dass Zeugen Situationen oft wesentlich anders beschreiben als sich diese objektiv betrachtet zugetragen haben. Dies habe jedoch nichts damit zu tun, dass die Zeugen das Erlebte »falsch« darstellen wollten, sondern vielmehr damit, dass ihre Erinnerung so vielen äußeren Einflüssen ausgesetzt sei, dass diese sich unbewusst verändere (Welzer 2000: 60). Um dieser Kritik zu begegnen, wurden spezielle Interviewtechniken entwickelt (von Plato 2000: 21–22), bei denen das Interview in vier Phasen eingeteilt wird: 1. die freilaufende Phase: Die interviewte Person erzählt weitgehend ununterbrochen von ihrem Leben. 2. die Nachfrage-Phase: Der Interviewer fragt gezielt nach nicht verstandenen Details. 3. die Fragelisten-Phase: Eine vorher erarbeitete Frageliste wird in einer Gesprächssituation abgearbeitet. 4. die Streit-Phase: Differenzen zwischen den Interviewpartnern werden angesprochen. Darüber hinaus existiert in der Fachwelt eine weitere Position, welche die »Oral History« als Möglichkeit wahrnimmt, die Erinnerungen und kollektiven Gedächtnisse von Minderheiten und Unterschichten zu berücksichtigen. Im Gegensatz zur Oberschicht würden diese seltener schriftliche Quellen hinterlassen, wodurch sie das kulturelle Gedächtnis (Erll 2005: 27–30) nicht so entscheidend prägen würden wie gesellschaftliche Mehrheiten (Dejung 2008: 114). Entsprechend würde die Zulassung mündlicher Quellen also auch eine Erweiterung des kulturellen Gedächtnisses ermöglichen bzw. vorantreiben. Doch auch unter den Befürwortern des »Oral History«-Konzepts wird keine blinde Glaubwürdigkeit gegenüber Zeitzeugenaussagen verlangt (Hockerts 2001: 20). Deshalb herrscht in der Fachwelt immerhin darin Einigkeit, dass Interviews mit (mindestens) derselben wissenschaftlich distanzierten Haltung betrachtet werden müssen wie jede andere Quelle auch. 5.6 Les lieux de mémoire Pierre Nora (geb. 7. 11. 1931), ein französischer Historiker, war der Erste, der sich der Frage angenommen hat, welche Veränderungen die Vergangenheits- und Zukunftsentwürfe der Nationen im Laufe der Zeit erfahren und worin der gemeinsame Besitz eines reichen Erbes an Erinnerungen (und Vergessenem) besteht. Dieses reiche Erbe, das die 102 5.7 »Die Gegenwart der Toten« – mittelalterliche Gedächtniskultur Identität der Nationen ausmacht, ist die Grundlage seines Werks »Les lieux de mémoire« (1984–1992). Unter einem Erinnerungsort versteht Nora etwas Materielles oder Immaterielles, das die Erinnerungsbilder der französischen Nation aufruft. Darin kondensiere, verkörpere, kristallisiere sich das Gedächtnis der Nation Frankreich (François & Schulze 2001: 15). Erinnerungsorte können Gedenkstätten sein, aber auch die »Marseillaise«, die »Trikolore«, der 14. Juli, der Code Civil, der Sonnenkönig, Descartes oder Gebäude wie Notre-Dame oder der Eiffelturm. Im Grunde kann alles, was dazu beigetragen hat, eine Identität zu entwickeln, als Erinnerungsort aufgefasst werden. Allerdings muss laut Nora ein Erinnerungsort über eine »materielle, funktionelle und symbolische Dimension« verfügen. Das bedeutet, dass der Erinnerungsort als Zeiteinheit oder reales Objekt existieren muss (Erll 2005: 24). Oft bleiben über Jahrhunderte nur die äußeren Merkmale eines »lieu de mémoire« erhalten, »während ihre symbolische Aufladung sich ändern kann« (François & Schulze 2001: 16). Auf Grund dieser Vielseitigkeit können sich an ihrer Erschließung Wissenschaftler aus zahlreichen Fachbereichen beteiligen, wodurch sich diese Theorie großer Beliebtheit erfreut hat und in vielen weiteren Ländern wie Italien, Kanada und auch Deutschland umgesetzt worden ist (Erll 2005: 25). Nichtsdestotrotz wurde Noras »zivilisationskritisches Timbre« (Niethammer) (Erll 2005: 25) kritisiert, ebenso die Lockerung seiner strengen Definition im Laufe des Werkes. Darüber hinaus habe Nora es versäumt, die Erinnerungsorte der französischen Kolonien und der zahlreichen Immigranten miteinzubeziehen (Erll 2005: 25). Die Verfasser der »Deutschen Erinnerungsorte«, Etienne François und Hagen Schulze, haben im Gegensatz zum französischen Vorbild einige Anpassungen für Deutschland vornehmen müssen: So wurde der Fokus eher auf das 19. und 20. Jahrhundert gelegt, ein Zeitalter mit besonders hohem Stellenwert für die deutsche Geschichte. Des Weiteren würde bei den deutschen Erinnerungsorten eine europäische Sichtweise angestrebt; so sind auch mit anderen Nationen geteilte Erinnerungsorte wie »Karl der Große« miteinbezogen worden sowie Betrachtungen von außen, also wie »Deutschland« aus dem europäischen Umfeld gesehen wurde, beispielsweise in der Germania von Tacitus (François & Schulze 2001: 21). Insgesamt soll zwischen den einzelnen Erinnerungsorten keine Hierarchie herrschen, womit jeder denselben Stellenwert innehat. So findet man Essays über die »Bundesliga« und »Schrebergarten« neben anderen, vermeintlich wichtigeren wie »Goethe« oder »Weimar«. Die zum Teil sehr positiven Rezensionen scheinen das Motto der Autoren »Belebung statt Belehrung« (François & Schulze 2001: 23) zu bekräftigen. 5.7 »Die Gegenwart der Toten« – mittelalterliche Gedächtniskultur Im mittelalterlichen Abendland war der Tod in der Gesellschaft besonders präsent. Der Tod wurde aber nicht als furchteinflößendes Ende, sondern als eine Erlösung von den irdischen Qualen (ergastulum) aufgefasst. Er ermöglichte das ewige Leben im Himmelreich Gottes, wenn man im Diesseits ein frommer, guter Christ war. 103 5 Gedenken oder Vergessen? Man muss die mittelalterliche Erinnerungskultur, von der Forschung auch Memoria genannt, in einem breiten historischen Kontext betrachten, welcher bis weit in die heidnische Antike zurückreicht. So dokumentierte bereits der römische Schriftsteller Tertullian (um 200 n. Chr.) in mehreren Werken Totenzeremonien. Aus diesen geht hervor, dass die Toten in der römischen Antike als Rechtssubjekte mit Rechts- und Handlungsfähigkeit angesehen wurden (Oexle 1983: 29). Dies zeigt sich u. a. auch an der Zeremonie des Totenmahls. Memoria meint folglich nicht nur das einfache Erinnern der Toten, sondern insbesondere soziales Handeln in einer Verbindung der Lebenden und Toten als Rechtspersonen (Oexle 1983: 29). Die frühen Christen übernahmen im 3./4. Jahrhundert die Vorstellung des »lebendigen« Toten in die Liturgie und christianisierten die ehemals heidnischen Todeskulte (Oexle 1983: 50–51). Das Bedürfnis, der Toten zu gedenken, lag im Seelenheil der Menschen begründet. Wer sich nicht an die Gebote Gottes hielt, also sündigte, kam nach dem Tod ins Fegefeuer. Es wurde als ein Ort der Qualen verstanden (Kuithan 2000: 78) und brachte die Menschen dazu, bereits im Diesseits für ihr Seelenheil vorzusorgen. Adlige wie Liutold von Achalm (11. Jahrhundert) stifteten Klöster oder traten umfangreiche Güter an die Kirche ab (Kuithan 2000: 93). Sie wollten sich ein unvergessliches Denkmal setzen und einen Platz im Himmel sichern. Das Leben solcher Stiftsgründer wurde von Mönchen in den sogenannten Vitae nacherzählt (Oexle 1983: 26). Die Fürbitte war darüber hinaus ein zentrales Element der katholischen Liturgie und dem Seelenheil bereits Verstorbener gewidmet. Sie sollte als eines der »guten Werke« (Kuithan 2000: 78) aufgefasst werden und den Toten aus dem Fegefeuer in den Himmel holen (Kuithan 2000: 78). Neben den Vitae fungierten auch Nekrologe und Verbrüderungsbücher als schriftliche Werke der Memoria. Die Nekrologe, die aus den Namen sowie den Todesdaten der Verstorbenen bestanden, ermöglichten ein jährliches Totengedenken. »In der Nennung seines Namens wird der Tote als Person evoziert« (Oexle 1983: 31). Den Verbrüderungsbüchern liegt das im Mittelalter an Bedeutung gewonnene Phänomen der sogenannten Einung zugrunde. Vermehrt schlossen sich geistliche oder weltliche Personen in Verbrüderungen zusammen. Falls ein Vertragspartner gestorben war, wurde ihm von den anderen Brüdern Gebetshilfe für das Seelenheil garantiert (Oexle 1994: 312). 5.8 Ursprungserzählungen als Legitimationsstrategie Gerade in der Frühen Neuzeit erwachte unter Adligen ein reges Interesse an ihrer Familiengeschichte. Sie hatten seit dem späten Mittelalter festgestellt, dass sie ihre Herrschaftsansprüche mit dem Verweis auf eine hohe Herkunft besser legitimieren konnten. Dies führte zu einer »deutlichen Intensivierung der Suche nach Ursprung und Vergangenheit des eigenen Geschlechts« (Hecht 2006: 10). So gaben immer mehr adlige Familien eine Chronik in Auftrag. Diese Aufträge häuften sich, wenn für eine Familie eine konkrete Bedrohung bestand (beispielsweise eine hohe Verschuldung oder das Aussterben eines Zweiges der Familie) und der Wunsch nach einer Verbesserung des Familienstandes größer wurde. 104 5.9 Invented traditions In diesen Chroniken fand man normalerweise eine Legende über den Ursprung des beschriebenen Geschlechtes. Im Vordergrund stand der Versuch, die Familie des Auftraggebers in einem guten Licht darzustellen und ihr eine möglichst lange und ehrenvolle Herkunft zu verleihen. So führten viele Stammbäume in den Bereich der Mythen und Sagen und des Alten Testamentes. Zudem wurde versucht, eine Verbindung zu den neun Guten Helden zu ziehen (Czech 2003: 41). Ein beliebter Ursprung war auch der aus einer römischen Adelsfamilie. So leiteten sich sowohl das Geschlecht der Henneberger als auch die der Stolberg, Zollern und Reuß zeitweise von der Adelsfamilie Colonna ab (Czech 2003: 53). Durch die Wiederentdeckung der »Germania« des Tacitus in der Zeit des Humanismus wurde der Ursprung einer Familie von den Germanen immer häufiger, da die »Deutschen« nun die Germanen zu ihrer Urgeschichte zählten. Viel Wert wurde darauf gelegt, Tapferkeit, Frömmigkeit und die frühe hohe Stellung der Ahnen zu betonen. Damit wollte man zeigen, dass die eigene Familie ihren Platz in der Gesellschaft verdient habe oder dass sie sogar einen höheren Platz verdient hätte. Hatte eine Familie wichtige »Vorfahren« gefunden, verwies sie auf diese mit Hilfe von Wappen, Münzen, Ahnenporträts, Gemälden oder Inschriften (Czech 2003: 118). Auch Zünfte hatten ihre Ursprungslegenden. Auffällig ist bei diesen allerdings, dass solche Legenden nur in Städten auftraten, in denen der gesellschaftliche Rang der Zünfte eher niedrig war. So hatten die Zünfte in Frankfurt und Nürnberg Geschichten über die Anfänge ihrer Handwerke, die Zünfte aus Köln und Straßburg hingegen nicht. Patrick Schmidt erklärt dies damit, dass die Ursprungslegenden als »positive Identifikationsmöglichkeiten« halfen, das Selbstbild einer Zunft und ihrer Mitglieder sowie ihr Gemeinschaftsgefühl zu stärken. In Köln und Straßburg sei dies nicht notwendig gewesen, da die Stellung der Zünfte in diesen Städten höher war und die Zünfte politisch mehr Mitspracherecht besaßen als die Zünfte in Frankfurt und Nürnberg und somit auch ohne Ursprungslegenden ein hohes Selbstbild besaßen (Schmidt 2007: 131). An der Thematik der Ursprungslegenden lässt sich erkennen, dass Menschen der Frühen Neuzeit Vergangenes als ein Mittel der Selbstdarstellung nutzten. So kann man sich auf die historische Wirklichkeit der Ursprungslegenden zwar nicht verlassen, aber sie bieten »hervorragende Zeugnisse bei der Suche nach vergangenen Vorstellungshorizonten und Denkweisen« (Hecht 2006: 2). 5.9 Invented traditions 5.9.1 Europa um 1871 Durch die Entstehung von Nationen änderte sich ab der Mitte des 19. Jahrhunderts die Lage in Europa grundsätzlich. Mit dem Prozess der Nationsbildung ging häufig eine Demokratisierung einher, die die Legitimierung der Staaten und ihrer Herrschaftsstrukturen herausforderte. 105 5 Gedenken oder Vergessen? 5.9.2 »Invented traditions« Nach Eric Hobsbawm sind all diejenigen Mythen, Riten und Denkmäler »invented traditions«, welche Institutionen legitimieren und einen Status von Autorität schaffen, indem die Vergangenheit so verwertet wird, dass sie die gegenwärtigen politischen Machtstrukturen absichert. Gerade in Zeiten sozialer Umbrüche sei eine Anpassung der gesellschaftsspezifischen Traditionen und Bräuche notwendig, weil »invented traditions« den Menschen helfen würden, sich mit ihrem Land zu identifizieren. Am Beispiel Frankreichs zeigt Hobsbawm drei Merkmale erfundener Traditionen auf und erläutert deren Bedeutung: 1. öffentliche Bildung als Äquivalent zur Kirche — man brauchte Bildung mit revolutionärem und liberalem Inhalt — , 2. öffentliche Zeremonien wie der französische Nationalfeiertag, da diese Glanz und Macht ausstrahlten, und 3. sichtbare Monumente, die Patriotismus ausstrahlen sollten (Hobsbawm 1999: 270–272). In Deutschland wollte (vor allem) Wilhelm II. erreichen, dass die Menschen durch »invented traditions« eine Verbindung zwischen dem 1. und dem 2. Deutschen Kaiserreich herstellen würden und die Erfahrungen Preußens und des restlichen »Deutschlands« miteinander verbinden konnten (Hobsbawm 1999: 276). 5.9.3 Ein besonderes Beispiel: das Hermannsdenkmal Eine besonders bekannte erfundene Tradition ist das Hermannsdenkmal im Teutoburger Wald, das an die Schlacht der Germanen gegen die Römer um 9 n. Chr. erinnern soll. Bei dieser besiegten die Germanen unter Arminius drei römische Legionen, die unter Varus losgezogen waren, um das römische Reich nach Osten hin auszudehnen. Arminius überfiel die Römer im Teutoburger Wald aus einem Hinterhalt und besiegte sie in einer dreitägigen Schlacht. Arminius, später Hermann genannt, wurde vor allem im 19. Jahrhundert für viele Menschen zum »ersten Deutschen« und zu einem Mythos, der dazu auffordern sollte, Freiheit zu gewinnen, Einigkeit und Geschlossenheit zu erreichen und ein stolzes Selbstbewusstsein zu bekunden (Münkler 2009: 166–167). Nach dem Erfolg bei der Völkerschlacht 1813 wurde der Hermann-Mythos sogar zu einem Nationalmythos stilisiert, doch fehlte dafür ein großes Denkmal, welches später im Teutoburger Wald errichtet und 1875 eingeweiht wurde (Münkler 2009: 173). Bei dessen Einweihung wurde Arminius mit Wilhelm I. verglichen, denn Arminius habe die Deutsche Einigung begonnen und Wilhelm diese vollendet (Münkler 2009: 175). Letztendlich halfen die »invented traditions« den Menschen bei der Verarbeitung aktueller Ereignisse, da sie, obwohl sie historische Fiktionen sind, suggerieren, dass etwas schon immer da gewesen sei. 5.10 Damnatio memoriae Viele Philosophen und Wissenschaftler, von Platon über Locke bis Assmann, beschäftigte die Frage, ob man eher gedenken oder vergessen sollte. Ausgehend von dieser Frage setzte sich in der Antike ein Verfahren durch, womit ein gezieltes und organisiertes Vergessen von bestimmten Personen im öffentlichen Raum gewährleistet werden sollte. 106 5.10 Damnatio memoriae Abbildung 5.2: Foto des Hermannsdenkmals im Teutoburger Wald von 2007. Quelle: Wikipedia [48]. Dieses Verfahren mit dem (Forschungs-)Namen damnatio memoriae wurde vor allem im alten Rom angewandt, um die Erinnerung an unbeliebte verstorbene Kaiser für alle Zeiten zu vernichten. Hierzu wurden auf radikale Weise die Zeugnisse seiner Existenz und seiner Macht (z. B. Bilder, Statuen oder Münzen) zerstört. Diese gründliche Beseitigung der Identität sollte die politische Unzufriedenheit des Volkes ausdrücken und wurde als eine der schlimmsten Strafen angesehen. Doch nicht nur im alten Rom fielen berühmte Persönlichkeiten wie Kaiser Caligula, Kaiser Maximian und Kaiser Nero (Flower 2006: 199 f.) einer damnatio memoriae zum Opfer. Auch in Ägypten wurden auf ähnlich radikale Weise Statuen von Pharaonen – wie Echnaton oder Hatschepsut – nach ihrem Tod zerstört und ihre Namen aus Inschriften getilgt. Ein ähnliches Verfahren wurde in der mittelalterlichen Kirche angewandt. Teilungen innerhalb der Kirche führten zu Spannungen und Konflikten zwischen den einzelnen Parteien, da beide Gruppen einen alleinigen Anspruch auf das Papstamt behaupteten. Dieses Ringen zwischen dem Papst und dem sogenannten Gegenpapst endete oft in einem »manipuliertem Vergessen« des sieglosen Anwärters. Klare Abweichungen zur antiken damnatio memoriae lassen sich jedoch in der Intention entdecken. Im Mittelalter sollte nicht die komplette Erinnerung an die betroffene Person vernichtet, sondern die Qualität der Erinnerung beeinflusst werden. Dies wurde erreicht, indem man gezielt nur bestimmte Erinnerungen ins Gedächtnis der Menschen zu rufen versuchte (Sprenger 2009: 40 f.). Des Weiteren konnte man im Mittelalter eine »manipulierte Erinnerung« nicht nur wie in der Antike nach dem Tod des Betroffenen, sondern auch vor dem Tod beobachten (Sprenger 2009: 37 f.). 107 5 Gedenken oder Vergessen? Auch fast 500 Jahre später, in der stalinistischen Sowjetunion der Neuzeit, wurde — beispielsweise durch das Retuschieren von Bildern — gezielt das Bild Stalins zu seinen Gunsten verfälscht, um so seine Herrschaft zu sichern. Der Machthaber ließ ihm unangenehme Personen aus Bildern entfernen, um sie auch aus den Köpfen der sowjetischen Bevölkerung verschwinden zu lassen (King 1997: 68). Anzeichen, dass Formen von damnatio memoriae auch in der Gegenwart angewandt werden, zeigt das Beispiel Mubarak. In Ägypten wurde nach dem Sturz des Präsidenten sein Name aus Büchern und Straßennamen entfernt, um die Erinnerung an Mubarak auszulöschen (Bond 2011). Resümierend lässt sich sagen, dass die damnatio memoriae der Antike, wenn auch in veränderter Form, die Epochen überdauert und die Geschichte geprägt hat und vermutlich auch weiterhin prägen wird. 5.11 Präsentation von Geschichte in Museen Museen und Ausstellungen sind eine Institution mit großer Macht und großem Einfluss! Sie können nicht nur das Interesse der Bevölkerung an einem Thema wecken – wie etwa die Stauferausstellung in Stuttgart 1977 verdeutlicht – , sondern auch ein kritisches Schlaglicht auf Ereignisse werfen und dadurch helfen, diese aufzuarbeiten, wie etwa in der sogenannte Wehrmachtsausstellung 1995 (Assmann 2004: 137–138, 141). Diese Macht beruht auf dem Vertrauen, das die Bevölkerung ihrem »Museumstempel« entgegenbringt und dessen Wahrheiten sie meist nicht anzweifelt (Heinemann 2011: 214). Die Glaubwürdigkeit von Museen entsteht nicht nur durch das Vertrauen der Besucher auf Expertenwissen und die »Aura« von Museumsgebäuden und Exponaten, sondern sie wird auch aktiv erzeugt, nämlich durch die Inszenierung der Geschichte auf visueller, auditiver, interaktiver und emotionaler Ebene (Heinemann 2011: 214–215). Auch die Auswahl der Exponate und wie diese angeordnet werden sollen, die sogenannte »Re-Kontextualisierung«, spielt eine wichtige Rolle (Assmann 2007: 152). Man vergisst leicht, dass das Museum neben der »exponierenden« auch eine »interpretierende Beziehung zur Vergangenheit« hat und deshalb nie alle Perspektiven wertfrei präsentiert werden können. Es wird also durch bewusste Inszenierung eine Geschichte konstruiert, die nie völlig allgemeingültige Wahrheit sein kann (Heinemann 2011: 213– 216, 236). Ein Beispiel für verschiedene Auslegungen von Geschichte bietet ein Vergleich von Museen in Großbritannien, Frankreich und Deutschland. Während in Deutschland der zweite Weltkrieg vor allem aus der Perspektive der Opfer präsentiert wird, zeigt man in Großbritannien die Perspektive der »Befreier«. Die Geschichte der Opfer, vom Holocaust abgesehen, wird fast völlig verschwiegen (Thiemeyer 2010: 463, 473 f.). Ein wichtiges Mittel der Inszenierung ist die Emotionalisierung, die durch die Nutzung kultureller Codes oder Wertungen den Besucher mittels der Gefühlsebene völlig für eine Sichtweise einnehmen kann (Heinemann 2011: 215 f., 234 ff.). Als Beispiel hierfür kann das Museum im Pawiak in Warschau gelten, das stark emotional eine »nationalmartyrologische« (Heinemann 2011: 236) Deutung der Besatzung Polens während des 108 5.12 Guido Knopp und Hollywood 2. Weltkrieges durch die Deutschen bietet, indem die Opfer zu Helden stilisiert werden, die stellvertretend für alle Polen stehen sollen. Hier wird durch die Beleuchtung für eine düstere Stimmung gesorgt und Opfer wie der 1982 heiliggesprochene Maximilian Kolbe auf überlebensgroßen Glaswänden als Vorbilder und Repräsentanten vorgestellt (Heinemann 2011: 218–226). Auch die Politik hat die Macht des Museums erkannt und nutzt diese für die Geschichtspolitik, wie das Beispiel der durchweg negativen Darstellung der DDR zeigen mag (Mittler 2007: 14–17). Aufgrund der starken Subjektivität des scheinbar so objektiven Museums ist es dem unwissenden Besucher kaum möglich, sich dieser subjektiven Darstellung zu entziehen (Heinemann 2011: 235 f.). 5.12 Guido Knopp und Hollywood – Geschichte im Spielfilm und der historischen Dokumentation Geschichte ist in Film und Fernsehen keine Seltenheit mehr. Mit dem Versprechen, Unterhaltung und Wissenschaft zu vereinen und Geschichte zum Leben zu erwecken, sprechen die Macher ein breites Publikum an. Viele Historiker dagegen kritisieren den Anspruch auf Authentizität, mit dem der Eindruck erweckt wird, es handele sich um wissenschaftliche Werke. Besonders viel Aufmerksamkeit erhielten in den letzten Jahren drei Beispiele, anhand derer der Konflikt verdeutlicht werden soll. 5.12.1 Guido Knopps »historische Dokumentationen« Guido Knopp machte sich seit Mitte der 90er Jahre mit Geschichtsdokumentationen im ZDF einen Namen. Ihm gelang es mit Hilfe von zahlreichen filmischen Neuerungen, die historische Dokumentation im Abendprogramm des deutschen Fernsehens zu etablieren und eine große Zuschauerschaft zu locken. Sein Stil, geprägt von häufigen Bildwechseln, dramatischer Musik und nachgespielten historischen Szenen, wird auch als »Infotainment« bezeichnet (Kansteiner 2003: 642). Von Historikern wurden insbesondere seine Dokumentationen über die Zeit des Nationalsozialismus kritisiert, da er die Zuschauer in die Position der Augenzeugen versetze. Dadurch sei eine Betrachtung mit Distanz unmöglich, es werde sogar ein »deutsches Wir-Gefühl« vermittelt (Kansteiner 2003: 634). 5.12.2 Der Untergang »Der Untergang« (2004) ist ein Spielfilm über die letzten Tage des 2. Weltkrieges im Berliner Führerbunker. Die Filmmacher wollten ein authentisches Bild der damaligen Zeit und der verantwortlichen Persönlichkeiten entwerfen, was jedoch viele Historiker kritisierten. Nach Michael Wildt handelt es sich um eine »bewusste Täuschung« des Zuschauers, da Authentizität in der Schauspielerei unmöglich sei (Wildt 2008: 77). 109 5 Gedenken oder Vergessen? 5.12.3 Das Leben der Anderen Der deutsche Spielfilm »Das Leben der Anderen« (2006) von Florian Henckel von Donnersmarck befasst sich mit der Überwachung durch die Staatssicherheit in der DDR. Es handelt sich um eine frei erfundene Geschichte, die jedoch in den historischen Hintergrund eingebettet wird. Auch dieser Film verspricht Authentizität, was — ebenso wie einige »historische Fehler« — von Historikern kritisiert wird. Noch dazu handele es sich um eine einseitige Darstellung der DDR, die neben dem Künstlerpaar nur Tristesse und Menschenleere zeige (Seegers 2008: 25). 5.12.4 Geschichte in Film und Fernsehen: Gefahr oder Gewinn Durch die Kritik an den genannten Beispielen wird deutlich, dass historische Filme und Dokumentationen häufig wegen »historischer Fehler« und einseitiger, subjektiver Darstellungen kritisiert werden. Dem Zuschauer wird ein Bild der Vergangenheit vermittelt, das stark von den Machern der Filme abhängt. Andererseits hinterlassen Filme einen deutlich stärkeren Eindruck als historische Fakten. Die Zuschauer werden emotional in ein Thema eingeführt, was auch zum Verständnis der dargestellten Zeit und der Handlungsweise der Personen beitragen kann. Insofern sind historische Dokumentationen und Filme zwar stets mit Vorsicht zu genießen, sie können aber Projektions- und Diskussionsfläche für Geschichte sein, was sie zu einem wertvollen Zeitdokument sowohl der dargestellten als auch der heutigen Zeit macht. Lu Seegers bezeichnet deshalb »Erinnerungsfilme« als »Medien des kollektiven Gedächtnisses, die Vorstellungen von der Vergangenheit zu einem bestimmten Zeitpunkt aufnehmen und zugleich prägen« (Seegers 2008: 22). 5.13 Geschichte und Architektur Architektur ist eine der relevantesten Verbindungen der Vergangenheit mit der Gegenwart. Hinsichtlich der Identität eines Landes rücken für dessen Geschichte häufig wichtige Bauten in den Blickwinkel: für Deutschland beispielsweise der Reichstag in Berlin, der gesellschaftlich wie politisch eine wichtige Position einnimmt. Dieses Verhältnis einer Gegenwart zur Vergangenheit ist in konstantem Wandel. Ein derartiger Wandel ist durch die Rekonstruktionswelle stark bemerkbar. Befürworter der Rekonstruktion sehen die symbolische Bedeutung als wichtigstes Motiv des Bauwerks an. Somit bestünde nur wenig Gefahr am Verlust eines materiellen Wertes. Weiterhin weisen sie auf die Möglichkeit der Reaktivierung bedeutender Kunst- und Kulturzeugnisse hin und betonen, dass Rekonstruktion architektonische Normalität sei (Nerdinger 2010: 17). Die Gegner hingegen verschreiben sich der Authentizität der Bausubstanz und verpflichten sich zur Erhaltung und Pflege nicht reproduzierbarer Geschichtszeugnisse. Der Zustand des Originals, zerstört oder intakt, stelle selbst eine geschichtliche Quelle dar. Kritiker der Rekonstruktion argumentieren, dass Geschichte nicht auf die Identifizierung bestimmter Epochen reduziert werden darf. Geschichte umfasse immer mehr als das, was gerade in, politisch opportun und touristisch vermarktbar sei (Assmann 2007: 98 ff.). 110 5.14 Der Umgang mit der kollektiven Schuld am Beispiel des Holocaust Abbildung 5.3: Dieser Anblick beherrscht bald wieder die Stadtmitte Berlins. Foto des Stadtschlosses aus den 1920er Jahren. Quelle: Wikipedia [49]. Berlin ist heute zum achten Mal die Hauptstadt eines sich wandelnden politischen Gemeinwesens. Jede Stadt, die sich auf konzentriertem Raum befindet, erlebt im Laufe der Zeit wiederholte Umformung, Überschreibung und Sedimentierung nicht nur der Bauwerke, sondern auch der Geschichte. Es ist diese Schichtung von Geschichte, welche die Frage aufkommen lässt, welcher Zeitgeschichte Vorzug gegeben werden soll. Das Stadtschloss in Berlin ist ein Beispiel eines solchen Phänomens, bei dem die ältere Geschichte die neue Geschichte regelrecht verschluckt. Das alte Staatsratgebäude der DDR musste Platz machen für den Wiederaufbau des ehemals größten Barockbaus nördlich der Alpen. Das stärkste Argument für den Abriss des Palastes der Republik 2008 war, dass dessen Standort ein Teil des historischen Stadtkerns Berlins sei und dass dieser durch Rekonstruktion des Stadtschlosses als »Humboldt-Forum« wieder seine alte Form einnehmen solle. »Auf historischem Grund ist jede Baumaßnahme ein Zerstörungsakt« (Assmann 2007: 127). Diese Aussage trifft der deutsche Philosoph Hermann Lübbe und greift damit das eigentliche Problem von Geschichte und Architektur auf, nämlich dass es unmöglich ist, jemals etwas Neues zu errichten, ohne in irgendeiner Weise in das frühere Erscheinungsbild einzugreifen und dieses damit permanent zu verändern. Die Frage ist nur, welche Geschichte wir als erhaltenswert sehen und ob dies die Perspektive der Zukunft beeinträchtigt. 5.14 Der Umgang mit der kollektiven Schuld am Beispiel des Holocaust Seit 70 Jahren prägen der Holocaust und der Umgang mit diesem die deutsche Identität. Besonders heute, da die Erfahrungsgemeinschaft der Zeitzeugen ausstirbt, führt das Erinnern an den Holocaust zu Kontroversen. Obwohl 1946 in Nürnberg die Hauptkriegsverbrecher verurteilt wurden, leugnete die Bevölkerung ebenso wie Parteien und Kirche jegliche Beteiligung an deren Taten. 111 5 Gedenken oder Vergessen? In dieser Phase des Eskapismus versuchten die Deutschen durch Geschichtslosigkeit und Verdrängung einen Neubeginn. Erst durch den Einsatzgruppenprozess und die antisemitische Welle um 1960 erhielt das Thema neue Brisanz. Das Schweigen der jungen BRD sowie die Kontinuität von Hitlers Eliten nach 1945 gerieten in die Kritik der westlichen Bündnispartner und wurden trotz allgemeiner Skepsis in Westdeutschland erstmals öffentlich thematisiert. Die Rekonstruktion der Vergangenheit setzte mit dem Auschwitz-Prozess (1962–1965) ein, der die Praktiken der Massenvernichtung freilegte. Trotzdem verlangte ein Großteil der Bevölkerung, einen Schlussstrich zu setzen. Indem die Regierung sich diesem Wunsch nach einer Generalamnestie nicht entgegenstellte, sondern Doppelmoral bei der Verfolgung der Verbrechen ihrer Mitglieder walten ließ, fürchtete der linke Flügel der Studentenbewegung die Wiederkehr eines tendenziell faschistischen Staates. Gerade durch diese generationelle Abgrenzung der 68er wurden erstmals auch individuelle Verbrechen beleuchtet (Siegfried 2000: 85–105; Görtemaker 1999: 199–206, 207). Die Geschichtswissenschaft, die den Holocaust mehrheitlich als zentral gesteuerte, eigenständig funktionierende Vernichtungspolitik sieht, regte die Diskussion durch Veröffentlichungen aus dem Ausland an. Die Intentionalisten, die an einen einmaligen Führerbefehl zur Judenvernichtung glaubten, und die Strukturalisten, die den Holocaust als einen auf mehrere Interessengruppen verteilten dynamischen Prozess sahen, radikalisierten die Debatte um die Schuldfrage. Auch neue Methoden und alternative Ideen weiteten die Tätergruppe aus: Die Wehrmachtsausstellung (1995–2001) legte erstmals die Verbindung des Holocaust zum Militär offen – der Gruppe, mit der sich die meisten deutschen Familien im Krieg identifiziert hatten (Herbert 2001: 5–12). Aus psychologischer Sicht wird der Holocaust aus Täter-, Opfer- und Unbeteiligtenperspektive betrachtet. Die (rein deutsche) Täterperspektive wirft ein Licht auf die akribische Bürokratie des Dritten Reiches, während die Opferperspektive den Holocaust als subjektive psychisch-physische Erfahrung sieht. Es gibt sowohl Täter als auch Opfer, die ihre Erinnerungen verdrängen müssen (individueller Eskapismus), um das Überleben psychisch ertragen zu können (Bar-On 2005: 38–42; Bartov 2003: 99–105). Insgesamt etablierte die angesprochene Debatte Deutschland zwar als Land der vielen Täter, doch war diese Konkretisierung der individuellen Schuld erst in der Folgegeneration möglich. Diese steht jedoch nicht mehr in unmittelbarer Beziehung zum Holocaust, weshalb ein gesellschaftliches Erinnern unerlässlich ist (Bartov 2003: 112 ff.). 5.15 Verordnete Erinnerungen und Verdrängen in totalitären Diktaturen am Beispiel der Stadt Kaliningrad Erinnerung ist sowohl für eine Gesellschaft als auch für deren Machthaber von großer Bedeutung. Nachdem der Kommandant der »Festung Königsberg«, Otto Lasch, am 07. 04. 1945 kapitulierte, nahmen die Machthaber der Sowjetunion die Stadt ein: Daraufhin erfolgte ein Bevölkerungsaustausch, der die Ausweisung der Deutschen sowie die Neubesiedlung durch die russische Bevölkerung zur Folge hatte (Hoppe 2000: 299). 112 5.16 Versöhnen durch Vergessen Durch die Darstellung des alten Königsbergs als Paradebeispiel für feindliche, privatkapitalistische Städte wurde die Umstrukturierung und Umbenennung in Kaliningrad legitimiert. Darüber hinaus sollte die »Tabuisierung der deutschen Vorkriegsgeschichte« dem Ziel der Eingliederung Kaliningrads in die Sowjetunion dienen (Matthes 2001: 1350). Dabei wurde versucht, diese aus dem kollektiven Gedächtnis der Einwohner zu verdrängen, und eine neue Vergangenheit, vor allem aber eine ruhmreiche Zukunft zu kreieren. Mit Hilfe der feststehenden Ideologie sollte die Weltanschauung der Heranwachsenden geformt werden. Die Durchsetzung dieser »verordneten Einstellung« erwies sich allerdings als problematisch, da beispielsweise noch verbliebene Bauten in der Stadt an eine bessere Zeit erinnerten (Hoppe 2000: 300–303). Die Bevölkerung reflektierte die durch die Regierung verordnete Bewertung und es begann ein Prozess der Neubeurteilung der deutschen Vergangenheit. Ein Spiegel dieser Entwicklung ist die Diskussion über den Erhalt oder die Sprengung des alten Königsberger Schlosses als zentraler Erinnerungsort der Stadt. Der sowjetische Parteiapparat hatte schon früh hervorgehoben, dass die Bewahrung des Schlosses im Widerspruch zur kommunistischen Ideologie stand. So erkannten die Kommunisten beispielsweise im Schloss einen Ausdruck reaktionärer Verhältnisse. In der Öffentlichkeit nahm allerdings langsam die Überzeugung zu, dass der Erhalt des Schlosses als Sehenswürdigkeit und Verbindungsstück der deutsch-russischen Vergangenheit erhalten bleiben sollte. Trotz schlagkräftiger Plädoyers für den Erhalt des Schlosses wurde dieses schließlich gesprengt, um den Führungsanspruch der Partei zu unterstreichen (Hoppe 2000: 305 f.). An der Stelle des Schlosses begann der Neubau eines »Haus der Sowjets«, das die Formensprache der sowjetischen Zentralregierung aufnahm und in die Provinz weitertragen sollte, allerdings nie abgeschlossen wurde (Sezneva 2003: 71). Dieser Ausgang der Diskussion erwies sich als äußerlicher Sieg der KPdSU, da sich entgegen der Zielsetzung bei den Kaliningradern eine regionale Identität entwickelte. Die Bevölkerung stellte vermehrt die Besonderheiten, die ihre Region aufgrund der deutschen Vergangenheit aufzuweisen hatte, heraus. Gerade im heutigen russischen Zentralstaat offenbart sich dieser Lokalpatriotismus in Schlagzeilen wie »Kaliningrad will mehr Königsberg« oder in den Plänen, das gesprengte Schloss zu rekonstruieren (Guratzsch: 2010). 5.16 Versöhnen durch Vergessen Nach einem (Bürger-)Krieg vergessen beide Seiten, was geschehen ist, um den Frieden und das gemeinsame Zusammenleben zu sichern. Eine Erinnerung an das Schlimme dagegen erzeugt Rache, diese wiederum Wiederrache (Meier 2010: 13). Das »Vergessen« als Lösung von Konflikten setzt sich von den Indianern bis heute fort: Winston Churchill wünschte 1946 den Frieden zwischen den ehemals verfeindeten Nationen durch einen »segensreichen Akt des Vergessens« zu vollziehen. In der Antike festigte sich dafür, ausgehend vom terminus technicus me mnesikakein (»Gedenke nicht das Schlimme«), der Begriff der »Amnestie« (»Nicht-Erinnern«) (Meier 2010: 18). Bin- 113 5 Gedenken oder Vergessen? Abbildung 5.4: Als das aus deutscher Zeit stammende Königstor 2005 renoviert wurde, kehrten die Statuen preußischer Herrscher nach Jahrzehnten wieder an ihren alten Platz zurück – ein Zeichen, dass sich die russische Stadtbevölkerung inzwischen der Erinnerungsspuren der fremden Vergangenheit annimmt (Foto von 2009). Quelle: Wikipedia [50]. dende Verträge, »nicht an Schlimmes zu erinnern«, wurden in Griechenland erstmals in den Jahren zwischen 424–422 v. Chr. aufgezeichnet. Um den Frieden zu wahren, ging man sogar so weit, Trauergesang zu verbieten, um übermäßige Emotionen auf zu engem Raum zu verhindern. Die »Amnestie« stellt einen Ausgleich zwischen Gerechtigkeit und Frieden her, indem lediglich die Hauptverantwortlichen bestraft wurden. Das Gesamtwohl (eines Gemeinwesens) stand dabei über der individuellen Rache (Meier 2010: 21). Zu Besiegelung sprachen beide Parteien einen Eid, der gegebenenfalls regelmäßig wiederholt wurde. Einige Verbote sicherten dessen (konsequente) Einhaltung. Ob es sich dabei tatsächlich um ein Vergessen handelt, ist umstritten, da die Methoden gegen Tyrannei und den Anlass des Vergessens weiterhin in Erinnerung gehalten wurden. Auch fand eine sogenannte »Dokimasie« (Prüfung von Personen auf Amtswürdigkeit) statt. Man kann also me mnesikakein als Tendenz bezeichnen; nötige Erinnerungen werden allerdings zugelassen und die Vergangenheit wird weiterhin kritisch betrachtet (Meier 2010: 26). Auch in der Nachkriegszeit (1945) wurden die Geschehnisse zunächst verdrängt, aber durch das Ausmaß begann die nächste Generation (mithilfe von zeitlicher Distanz), sie zu verarbeiten (Meier 2010: 50). Nach der Wiedervereinigung 1989 kam eine Amnestie nicht in Frage, denn zwischen der gestürzten Regierung und den Bürgerrechtlern bestand ein eindeutig überwiegendes Machtverhältnis seitens der (friedlichen) Bürgerrechtler, es bestand somit keine Gefahr weiteren Blutvergießens. Die DDR war außerdem kein »in sich geschlossenes Gemeinwesen«, das stärker als jedes andere kommunistische Land an die BRD gebunden war (McAdams 2003: 3) und unter ständiger Beobachtung stand; eine Selbstreflexion war kaum möglich. Hinzu kam, dass die Stasi-Akten den Bürgerrechtlern versprochen worden waren und diese sie sofort veröffentlichten; von einem »Vergessen« der soge- 114 5.17 Literaturverzeichnis nannten Mitläufer konnte also keine Rede mehr sein. Laut Christian Meier handelt es sich immer um Präzedenzfälle, wobei man häufig zur Amnestie tendierte. Nötig zur Verarbeitung schlimmer Ereignisse ist seiner Meinung nach vor allem das Verstehen und Reflektieren der Geschehnisse. Dafür sei eine klare Definition von Unrecht und Tugend erforderlich; meist benötige es mehrere Generationen, bis mithilfe der zeitlichen Distanz die Geschehnisse tatsächlich aufgearbeitet werden könnten. 5.17 Literaturverzeichnis [1] Assmann, Aleida: Geschichte im Gedächtnis. Von der individuellen Erfahrung zur öffentlichen Inszenierung. München 2007. [2] Assmann, Jan: Körper und Schrift als Gedächtnisspeicher. In: Kakanien Revisited Nr. 4 2006, 1–7. [3] Bar-On, Dan: Die Erinnerung an den Holocaust in Israel und Deutschland. In: Aus Politik und Zeitgeschichte Nr. 15 2005, 37–45. [4] Bartov, Omar: Der Holocaust. Von Geschehen und Erfahrung zu Erinnerung und Darstellung. In: Beier, Rosmarie: Geschichtskultur in der Zweiten Moderne. Frankfurt am Main 2000, 95–119. [5] Czech, Vinzenz: Legitimation und Repräsentation. Zum Selbstverständnis thüringischsächsischer Reichsgrafen in der Frühen Neuzeit. Berlin 2003. [6] Dejung, Christof: Oral History und das kollektive Gedächtnis. In: Geschichte und Gesellschaft Nr. 34 2008, 96–115. [7] Erll, Astrid: Kollektives Gedächtnis und Erinnerungskulturen. Eine Einführung. Stuttgart 2005. [8] Flower, Harriet I.: The Art of Forgetting. Disgrace and Oblivion in Roman Political Culture. Chapel Hill 2006. [9] François, Etienne; Schulze, Hagen: Einleitung. In: François, Etienne; Schulze, Hagen: Deutsche Erinnerungsorte Band 1. München 2001, 9–24. [10] Görtemaker, Manfred: Geschichte der Bundesrepublik Deutschland. Von der Gründung bis zur Gegenwart. Frankfurt am Main 1999, 199–217. [11] Halbwachs, Maurice: Das Gedächtnis und seine sozialen Bedingungen. Frankfurt am Main 1985. [12] Hecht, Michael: Die Erfindung der Askanier. Dynastische Erinnerungsstiftung der Fürsten von Anhalt an der Wende vom Mittelalter zur Neuzeit. In: Zeitschrift für Historische Forschung Nr. 33 2006, 1–31. 115 5 Gedenken oder Vergessen? [13] Heinemann, Monika: Emotionalisierungsstrategien in historischen Ausstellungen am Beispiel ausgewählter Warschauer Museen. In: Heinemann, Monika; Maischein, Hannah et al.: Medien zwischen Fiction-Making und Realitätsanspruch & Konstruktionen historischer Erinnerungen. München 2011, 213–236. [14] Hobsbawm, Eric: Mass Producing Traditions: Europe 1870-1914. In: Hobsbawm, Eric; Ranger, Terence: The invention of tradition. Cambridge 1999, 263–308. [15] Hockerts, Hans Günther: Zugänge zur Zeitgeschichte. Primärerfahrung, Erinnerungskultur, Geschichtswissenschaft. In: Aus Politik und Zeitgeschichte Nr. 28 2001, 15-30. [16] Hoppe, Bert: Die Last einer feindlichen Vergangenheit. Königsberg als Erinnerungsort im sowjetischen Kaliningrad. In: Weber, Matthias: Preußen in Ostmitteleuropa. Geschehensgeschichte und Verstehensgeschichte. München 2003, 299–311. [17] Kansteiner, Wulf: Radikalisierung des deutschen Gedächtnisses im Zeitalter seiner kommerziellen Reproduktion. Hitler und das »Dritte Reich« in den Fernsehdokumentationen von Guido Knopp. In: Zeitschrift für Geschichtswissenschaft Nr. 51 2003, 626–648. [18] King, David: Stalins Retuschen. Foto- und Kunstmanipulationen in der Sowjetunion. Hamburg 1997. [19] Kuithan, Rolf: Das Totengedenken für Liutold von Achalm. In: Gemeinhardt, HeinzAlfred; Lorenz, Sönke: Liutold von Achalm (†1098). Graf und Klostergründer. Reutlingen 2000, 75–111. [20] Matthes, Eckhard: Verbotene Erinnerung. Die Wiederentdeckung der ostpreußischen Geschichte und regionales Bewußtsein im Gebiet Kaliningrad. In: Osteuropa Nr. 11/12 2001, 1350–1390. [21] McAdams, A. James: Transitional justice after 1989: Is Germany so different?. In: German Historical Institute Bulletin Nr. 33 2003, 53–64. [22] Meier, Christian: Das Gebot zu vergessen und die Unabweisbarkeit des Erinnerns - Vom öffentlichen Umgang mit schlimmer Vergangenheit. Bonn 2010. [23] Meyer, Katrin: Art. Historie. In: Ottmann, Henning: Nietzsche Handbuch. Leben, Werk, Wirkung. Stuttgart 2000, 255–256. [24] Mittler, Günther R.: Neue Museen & neue Geschichte?. In: Aus Politik und Zeitgeschichte Nr. 49 2007, 13–20. [25] Münkler, Herfried: Die Deutschen und ihre Mythen. Berlin 2009. [26] Nerdinger, Winfried: Geschichte der Rekonstruktion. München 2010. [27] Nietzsche, Friedrich: Vom Nutzen und Nachteil der Historie für das Leben. In: Nietzsche, Friedrich: Werke in drei Bänden. München 1954, Band 1, 209–287. 116 5.17 Literaturverzeichnis [28] Oexle, Otto Gerhard: Die Gegenwart der Toten. In: Braet, Hermann; Verbeke, Werner: Death in the Middle Ages. Leuven 1983, 19–77. [29] Oexle, Otto Gerhard: Memoria in der Gesellschaft und in der Kultur des Mittelalters. In: Heinzle, Joachim: Modernes Mittelalter. Neue Bilder einer populären Epoche. Frankfurt am Main 1994, 297–323. [30] Pethes, Nicolas: Kulturwissenschaftliche Gedächtnistheorien. Hamburg 2008. [31] Piefke, Martina; Markowitsch, Hans J.: Neuroanatomische und neurofunktionelle Grundlagen von Gedächtnis. In: Gudehus, Christian: Geschichte und Erinnerung. Ein interdisziplinäres Handbuch. Weimar 2010, 11–21. [32] Schmidt, Patrick: Die symbolische Konstituierung sozialer Ordnung in den Erinnerungskulturen frühneuzeitlicher Zünfte. In: Carl, Horst; Schmidt, Patrick: Stadtgemeinde und Ständegesellschaft. Formen der Integration und Distinktion in der frühneuzeitlichen Stadt. Berlin/Münster 2007, 106–139. [33] Seegers, Lu: »Das Leben der anderen« und die »richtige« Erinnerung an die DDR. In: Erll, Astrid, Wodianka, Stephanie: Film und kulturelle Erinnerung. Plurimediale Konstellationen. Berlin/New York 2008, 21–52. [34] Sezneva, Olga: Dual History. The Politics of the Past in Kaliningrad, Former Königsberg. In: Czaplicka, John J.; Ruble, Blair A.: Composing Urban History and the Constitution of Civic Identities. Washington, DC 2003, 58–85. [35] Siegfried, Detlef: Zwischen Aufarbeitung und Schlußstrich. Der Umgang mit der NSVergangenheit in den beiden deutschen Staaten 1958 bis 1969. In: Schildt, Axel; Siegfried, Detlef et al.: Moderne Zeiten. Die sechziger Jahre in den beiden deutschen Gesellschaften. München 2000, 77–113. [36] Sprenger, Kai-Michael: Damnatio memoriae oder damnatio in memoria? Überlegungen zum Umgang mit so genannten Gegenpäpsten als methodisches Problem der Papstgeschichtsschreibung. In: Quellen und Forschungen aus italienischen Archiven und Bibliotheken Nr. 89 2009, 32–62. [37] Thiemeyer, Thomas: Zwischen Helden, Tätern und Opfern. Welchen Sinn deutsche, französische und englische Museen heute in den beiden Weltkriegen sehen. In: Geschichte und Gesellschaft Nr. 36 2010, 462–491. [38] von Plato, Alexander: Zeitzeugen und die historische Zunft. In: BIOS Nr. 13 2000, 5–29. [39] Welzer, Harald: Das Interview als Artefakt. In: BIOS Nr. 13 2000, 51–63. [40] Wetzel, Dietmar J.: Maurice Halbwachs (Klassiker der Wissenssoziologie 15). Konstanz 2009. 117 5 Gedenken oder Vergessen? [41] Wildt, Michael: “Der Untergang”. Ein Film inszeniert sich als Quelle. In: Fischer, Thomas; Wirtz, Rainer: Alles authentisch? Popularisierung der Geschichte im Fernsehen. Konstanz 2008, 73–86. [42] http://www.welt.de/kultur/history/article10422903/Wie-Kaliningrad-zum-neuenKoenigsberg-werden-koennte.html Dankwart Guratzsch, Wie Kaliningrad zum neuen Königsberg werden könnte. In: Die Welt vom 25. 10. 2010. [43] http://www.zeit.de/1998/42/Die_Geschichte_ist_kein_Friedhof Paul Ricoeur im Gespräch mit Jörg Lau, Die Geschichte ist kein Friedhof. In: Die Zeit vom 8. Oktober 1998. [44] http://www.zeit.de/2004/10/Steam_Punk/komplettansicht Peter Kümmel, Ein Volk in der Zeitmaschine, in: Die Zeit vom 26.02.2004. [45] http://www.nytimes.com/2011/05/15/opinion/15bond.html?_r=2 Sarah E. Bond, Erasing the Face of History. In: New York Times, 14. Mai 2011. [46] http://www.arte.tv/de/geschichte-gesellschaft/geschichte/Bild_20des_20Monats/ Damnatio_20memoriae/1015862.html Tarek Chafik, D wie “Damnatio memoriae”. Wie Stalin die Erinnerung auslöschte, 30. 6. 2009. [47] http://www.lfpr.lt/uploads/File/2001-8/Herbert.pdf Ulrich Herbert, Der Umgang mit dem »Holocaust« in der Bundesrepublik Deutschland. In: Lithuanian Foreign Policy Review 8 (2001). [48] https://commons.wikimedia.org/wiki/File:Hermannsdenkmal_statue.jpg Hermannsdenkmal. [49] https://commons.wikimedia.org/wiki/File:Berlin_Stadtschloss_1920er.jpg Berliner Stadtschloss. [50] https://commons.wikimedia.org/wiki/File:Royal_gate_of_Koenigsberg.jpg Königstor Kaliningrad. 118 5.17 Literaturverzeichnis 119 120 6 Eine philosophische Analyse der Liebe 6.1 Vorwort Björn Freter und Ricarda Gäbel Mit der Liebe hat sich das abendländische Denken seit jeher beschäftigt. So verstehen etwa Hesiod und Empedokles die Liebe als weltschöpfende Kraft. Platon begreift unter der sogar Liebe all das, was menschliches Tun überhaupt in Bewegung setzt, ein Begehren hin zum Schönen und Guten. Und die Theologie des Neuen Testamentes entsteht ganz aus der Annahme, in der Passion Christi habe sich die unbedingte Liebe Gottes gegen seine Geschöpfe erwiesen. Indes, es ist doch irritierend bei all diesen Ansätzen, sei es der eines Hesiod, eines Platon oder eines Paulus, dass die Liebe immer erst im Rahmen einer komplizierten Metaphysik bestimmt werden kann. Sollten wir die Liebe vielleicht erst verstehen können, sollten wir gar erst lieben können, nachdem wir vorsokratische Kosmologie oder platonische Dialoge oder das Neue Testament studiert haben? Müssen wir etwa das Denken über die Liebe und das Lieben voneinander trennen? Geht es um eine Liebe, wenn wir über sie nachdenken, und um eine ganz andere Liebe, wenn wir sie leben? Wie konnte es eigentlich zu dieser Spannung zwischen gedachter und gelebter Liebe gekommen? Der Eindruck dieser Spannung verstärkt sich noch, wirft man etwa einen Blick in die dramatische Literatur der Antike. Denn dort, in praxi, scheinen die existentiellen Probleme der Liebe viel unmittelbarer dargestellt – in einer Weise, wie sie mit Hilfe der antiken Philosophie und Theologie gar nicht beschrieben werden könnten. Der Kurs hat sich vor allem auf die Analyse der anthropologischen Fundamente konzentriert, also vor allem an den Präliminarien der philosophischen Analyse der Liebe gearbeitet. So wird in den folgenden Texten auch vor allem diese grundlegende, anthropologische Arbeit dokumentiert. 6.2 Ein literarischer Versuch über die griechische Tragödie . . . wen die Götter verderben wollen, den schlagen sie mit Blindheit, und bewirken so auf unheilvolle Weise, daß das, was geschieht, mit vollem Recht zu geschehen scheint, und so verwandelt sich tiefes Unglück in tiefste Schuld . . . — Velleius Paterculus Es kommt der schicksalhafte Tag, da werden die Größten unter den Sterblichen durch die Götter von ihrem Thron gestürzt, wie aus dem Nichts fällt das Unglück über sie herein. Mit Blindheit geschlagen treiben sie auf den Wellen der Hybris auf ihren Untergang zu, denn in den wirren Nebeln der Täuschung sind die Schiffbrüchigen unfähig, das 121 6 Eine philosophische Analyse der Liebe Ruder des Schicksals herumzureißen, sodass sie ihre Augen vor dem unausweichlichen Sturz verschließen, womit sie ihn besiegeln. Geformt aus den mythischen Sagen der Alten, überdauern die unsterblich Gewordenen die Jahrtausende, ihr Unglück macht sie zu Göttern der Seele des Abendlandes. Der stolze König Ödipus, der aus Furcht und Liebe den Orakelspruch flieht, nimmt sich das Licht der Welt mit einer Nadel der erhängten Gottlosen. Aus demselben Hause stammend, mit derselben Hybris geschlagen, wagt Antigone das Werk der Götter selbst anzufangen, als dieses schon vollbracht, aus Bruderliebe zieht sie sich und das Haus des Tyrannen ins Unglück, aus dem Leben gerissen durch die eigene Hand. Den beiden Herrschern, mit allem Leid der Welt beladen, widerfährt die sophokleische Gnade der Einsicht. Ach, wehe denen, die nicht besonnen sind, ihr Wissen zu teilen, abzuwägen – ihr Handeln, ihr Fallen, wozu? Der Mensch, das leidende Wesen. Die mächtige, lodernde Zauberin, die verschmähte Liebende, die stolze Kriegerin Medea. Sie, die unglücklichste aller Mütter, die ihre Kinder der Ehre zur Rache opfert, welch Kampf tobt in ihrer Brust. Doch selbst jener treueste Diener der Reinheit, sein Leben Artemis geweiht, zu Tode geschleift liegt Hippolytos danieder. Er vergibt dir, oh Theseus. Gedenke deiner Geliebten, die Aphrodite im Neid mit jener Krankheit vergiftete, die die Seele in Flammen setzt. Welch große Frau, die stolze Phaidra. Ihr großen Helden, was wollt ihr uns sagen? Dem Schicksal sich fügen? Die Götter, meint ihr, sie ehren im Leben? Das Herz vor den schwachen Gefühlen verschließen? Den Tod aus Scham der Schande vorziehen? Oh ihr Helden, wo ist eure gepriesene Weisheit geblieben? Konntet ihr nicht auf solcherlei Weisen eurem Schicksal entrinnen, als ihr noch unter der Sonne wandeltet? 6.3 Sophokles’ König Ödipus: Wie Ödipus lernt zu sehen, als er nicht mehr sieht In diesem Aufsatz soll sowohl die Frage nach der Schuld des Ödipus als auch die Relevanz dieser Frage analysiert werden. Des Weiteren wird ein Blick auf die Verfassung und Reaktion des Protagonisten nach Aufdeckung seines Schicksals geworfen und versucht, nachzuvollziehen, welches pädagogische Ziel Sophokles womöglich verfolgt haben könnte. König Ödipus gehört zweifellos zu den bedeutendsten griechischen Tragödien und hat aufgrund der moralisch-ethischen Thematik nie an Aktualität verloren. Das Uraufführungsdatum kann nicht eindeutig bestimmt werden, es beläuft sich auf die Jahre zwischen 429–425 v. Chr. Der Ödipusmythos ist fast jedem grob bekannt und wird bis heute heftig von Philosophen, Philologen und Psychoanalytikern diskutiert. Zunächst die Vorgeschichte: Die Ehe des Laios, Königs von Theben, und seiner Frau Iokaste bleibt sehr lange kinderlos, woraufhin Laios aufbricht, das delphische Orakel zu befragen. Aufgrund eines Vergehens an einem Jungen erhält er von den Göttern ein Verbot, Söhne zu zeugen. Handele er diesem zuwider, werde sein Sohn ihn töten und die Mutter heiraten. Das Ehepaar widersetzt sich dem Verbot und zeugt einen Sohn, den sie aus Angst vor dem Orakel mit durchbohrten Füßen im Gebirge aussetzen lassen, 122 6.3 Sophokles’ König Ödipus: Wie Ödipus lernt zu sehen, als er nicht mehr sieht damit er den Tieren zum Opfer fällt. Der Diener jedoch übergibt das Kind aus Mitleid einem korinthischen Hirten, der es zu dem Königspaar Polybos und Merope bringt, die es als Sohn annehmen. Ein Betrunkener äußert eines Tages vor dem erwachsenen Ödipus, er sei nicht das leibliche Kind der vermeintlichen Eltern, woraufhin er sich auf den Weg macht, das delphische Orakel nach seiner Herkunft zu befragen. Dort erfährt er, dass er seinen Vater töten und die Mutter heiraten werde und beschließt, nicht nach Korinth zurückzukehren. An einer Wegenge kommt ihm ein Wagen mit einem alten Mann entgegen. Der Wagenlenker will Ödipus beiseite drängen und wird daraufhin von dem jungen Mann geschlagen. Als Ödipus den Wagen passiert, gibt der Greis ihm einen Streich auf den Kopf, woraufhin Ödipus die gesamte Reisegesellschaft erschlägt; nur einer kann entfliehen. Dass es sich bei dem alten, erschlagenen Mann um seinen leiblichen Vater Laios handelte, war ihm natürlich nicht bewusst. Die Stadt Theben ist zu der Zeit bedroht von einer Sphinx, deren Rätsel niemand zu lösen vermag. Ödipus schafft es jedoch mit Leichtigkeit und erhält als Lohn die Witwe Iokaste zur Frau, womit sich der zweite Teil des Orakels erfüllt. Zu Beginn von Sophokles’ Drama wütet in Theben eine verheerende Seuche, von der Ödipus, als König, sein Volk befreien soll. Nach Befragung des Orakels durch Kreon erhält er die Botschaft, dass diese Befreiung nur gelinge, wenn Ödipus den Mörder des Laios finde. Der Seher Teiresias hält Ödipus vor, er sei der Gesuchte und wisse über seine eigene Herkunft nichts. Im Zorn wirft der König Kreon und dem Seher einen Komplott gegen ihn vor. In einem Dialog mit Iokaste erfährt er von dem Orakelspruch und der befohlenen Tötung des Sohnes und schildert seinerseits den begangenen Mord am Dreiweg. Was hier nur vage Zweifel sind, bewahrheitet sich durch den überlebenden Begleiter des Laios, der zugleich der Hirte war, der Ödipus nach Korinth gegeben hatte. Ödipus muss erkennen, dass er seinen Vater getötet und die Mutter geheiratet hat. Iokaste, die das Unheil bereits erkannt hat, findet er tot im Palast und blendet sich mit den Spangen von Iokastes Gewand. 123 6 Eine philosophische Analyse der Liebe Im Folgenden sollen nun drei Interpretationsansätze zur Schuldfrage des Ödipus aufgezeigt werden: Schuldig durch seinen Charakter – Ödipus ist eine charakterlich problematische und kritisierenswerte Figur. Er ist nicht im Vorsatz schuldig oder durch bösen Willen, sondern durch charakterliche Fehltendenzen, die eine verheerende Wirkung haben. – Unvorsichtigkeit: Ödipus missachtet den Kommentar des Betrunkenen über seine Herkunft vollkommen; er nimmt an, Merope und Polybos seien seine leiblichen Eltern. Aufgrund seiner unklaren Herkunft müsste er nicht nur Korinth meiden, sondern sich ebenso hüten, einen älteren Mann zu erschlagen und eine ältere Frau zu heiraten. – Zorn, Unbeherrschtheit: Am Dreiweg wird Ödipus zwar angegangen, seine Vergeltung ist aber viel massiver, sodass man nicht von reiner Notwehr reden kann. Bei dieser Interpretation wird von der numinosen Sphäre abgesehen und die Tragik des Ödipus als rein menschliches Problem gesehen. Das Schicksal wird allein durch charakterliche Eigenschaften bestimmt und nicht von den lenkenden Göttern. Unvermeidbare Schuld – Ödipus’ Schicksal ist von seiner Geburt an vorbestimmt, da Laios das Orakel ignorierte und daher die Erfüllung der angekündigten Taten des Sohnes ihren Lauf nimmt. So bilden Ödipus’ Taten eine Kette von unvermeidbaren Konsequenzen und es zeigt sich der »lebensgeschichtliche ‘Schuldzwang’« (Rumpf 2003, 49). Ödipus handelt nicht nach eigenen Entschlüssen, vielmehr sind alle seine Handlungen durch die Sprüche des delphischen Orakels vorbestimmt. Laut Bernd Manuwald ist aus dem Drama eindeutig herauszulesen, dass Orakel »unweigerlich eintreten und es nicht in der Macht der Menschen liegt, der Erfüllung der Weissagung zu entgehen« (Manuwald 1992, 12). Deshalb ist für Ödipus nach diesem Interpretationsansatz auch keine subjektive Schuld anzunehmen. Ödipus als Beispiel für metaphysische Wesensschuld – In Sophokles’ Tragödie wird die metaphysische Tragik des Menschen deutlich. Der Mensch ist zum Handeln berufen, doch ihm fehlt die Voraussetzung für verantwortliches Handeln: Allwissenheit. – Wegen der menschlichen Unwissenheit dürfte der Mensch eigentlich erst gar nicht handeln, da er unausweichlich schuldig wird. Die daraus resultierende menschliche Situation ist ausweglos und die Welt ist im Grunde höchst tragisch. Diese Interpretationsansätze haben deutlich aufgezeigt, dass die Schuldfrage auf verschiedene Weise beantwortet werden kann. Jede dieser Deutungen findet ihre Rechtfertigung und lässt sich am Text belegen. Es stellen sich nun die Fragen, welcher Ansatz 124 6.4 Sophokles’ Antigone: »Einsicht ist das aller Güter höchste!« die Intention Sophokles wiedergibt und ob Sophokles die Schuld überhaupt als zentralen Aspekt seiner Tragödie gesehen hat. Darauf wäre folgendermaßen zu antworten: Ein antiker Dramatiker verfolgte mit seinem Werk stets ein pädagogisches Ziel. Wenn Sophokles die Frage nach der Schuld als so wichtig empfunden hätte, hätte er sie dann nicht klarer und für uns verständlicher verarbeitet? Es scheint, dass man vielmehr den Aspekt der Einsicht, die am Ende der Tragödie durch Ödipus erfolgt, beleuchten sollte: Ödipus erleidet ein sehr schlimmes Schicksal. Er muss erkennen, dass sich sein Orakel, obwohl er versucht hat, diesem zu entgehen, erfüllt hat. Er nimmt sich daraufhin das Augenlicht. Man könnte sagen, dass er anfängt zu sehen, als er nichts mehr sieht. Dieses Sehen bedeutet vor allem das genaue Analysieren von Situationen, die nur durch Überlegung und Reflexion durchschaut werden können. Während der Tragödie geht Ödipus ganz nach der condition humaine (Bedingung der menschlichen Existenz) den Weg vom Schein zum Sein: Nach und nach deckt er das Unheil auf und beginnt zu erkennen. Die Befleckung aufdeckend vollzieht sich in Ödipus zum Schluss ein Prozess äußerster Reinigung, welche ihn bei sich selbst ankommen lässt. Weder versucht er seinem Schicksal zu entgehen, noch klagt er die Götterwelt an, sondern findet sich zum ersten Mal mit den Gegebenheiten ab. 6.4 Sophokles’ Antigone: »Einsicht ist das aller Güter höchste!« Sehet, ihr Edlen aus Thebens Volk, die letzte, die blieb vom Königsgeschlecht! Seht, was ich dulden muss, und von wem, weil ich Heiliges heilig gehalten! — Antigone 940–944 Dies sind die letzten Worte der Antigone aus der gleichnamigen Tragödie des Griechen Sophokles. Doch weshalb kommt es überhaupt mit ihr zu einem solchen Ende? Was ist es, das sie »heilig gehalten« und weswegen sieht sie sich klar im Recht? Wenn man diese Fragen zu beantworten versucht, dann muss man nicht nur an den Anfang des Geschehens blicken, sondern noch darüber hinaus. Antigones Brüder, Polyneikes und Eteokles, vereinbaren in alternierender Reihenfolge nach dem Tod des Vaters Ödipus die Regentschaft in Theben zu übernehmen. Als Eteokles sein erstes Jahr beendet, verweigert er Polyneikes den Thron; daraufhin greift Polyneikes die Stadt an. Beide Brüder bringen sich im Kampf gegenseitig um. Der Onkel der Geschwister, Kreon, ist nun rechtmäßiger Herrscher Thebens. Dieser verbietet es, den Leichnam des Verräters Polyneikes jemals zu begraben. Jeder, der sich dem widersetzen sollte, würde durch öffentliche Steinigung bestraft werden. Sophokles’ Tragödie beginnt mit einem Dialog zwischen Antigone und ihrer Schwester Ismene. Antigone plant, ihren Bruder trotz des Gesetzes zu begraben und fragt Ismene, ob sie willens sei, ihr dabei zu helfen. Als diese jedoch entschieden verneint, ist Antigone entschlossen, ihr Ziel auf eigene Faust zu erreichen. Obwohl sie sich der Konsequenz ihrer Tat bewusst ist, lässt sie nicht von ihr ab. Denn sie fühlt sich nach göttlichem Recht dazu verpflichtet. Sie wendet sich von diesem Punkt an von Ismene ab. 125 6 Eine philosophische Analyse der Liebe Vermutlich zeitgleich berichtet ein Wächter Kreon von einem wundersamen ersten Begräbnis des Polyneikes, verursacht durch einen »spurlosen Täter« (Antigone 252). Auf den Befehl Kreons, den Täter ausfindig zu machen, findet der Wächter Antigone, die nichts von diesem ersten Begräbnis mitbekommen hatte, unbekleidet und jammernd neben dem Leichnam. Antigone ist also im Begriff, Polyneikes ein zweites Mal zu begraben. Vom Wächter gefasst, gesteht sie sowohl das zweite wie auch das erste Begräbnis, welches sie rein zeitlich nicht begangen haben kann. Ismene behauptet ihrer Schwester dabei geholfen zu haben, wird aber von Antigone verächtlich zurückgewiesen. Wider den Einwand seines Sohnes Haimon, Antigones Verlobten, entschließt sich Kreon, Antigone töten zu lassen und verschärft die Bestrafung, indem er sie lebendig in ein Felsengrab bringen lässt. Die anfängliche Entschlossenheit der Antigone wandelt sich in Todesfurcht. Sie ist enttäuscht in ihrer Gottverlassenheit. In ihrer Orientierungslosigkeit klagt sie über das ihr, in ihren Augen, zu Unrecht zugestoßene Leid. Der Seher Teresias, der als Mittler zwischen Göttern und Menschen auftritt, weist Kreon darauf hin, dass alle Menschen einmal irre gingen und prophezeit ein unheilvolles Ende, wenn er Antigone nicht befreit. Nachdem Teresias Kreon noch immer nicht überzeugt zurück gelassen hat, fordert der Chor Kreon dazu auf, Antigone augenblicklich zu befreien und dem Polyneikes endlich ein Grab zu geben. Allerdings kommt Kreons Einsicht viel zu spät. Ein Bote berichtet ihm: Verzweifelt über ihr Schicksal hat sich Antigone längst für den Freitod entschieden. Ihr Verlobter Haimon, der sie tot im Verlies vorgefunden hat, nahm sich daraufhin ebenfalls das Leben. Den Verlust ihres Sohnes betrauernd, ermordet sich auch Kreons Frau Eurydike. Zurück bleibt ein einsamer und gebrochener König, der seine Fehler bereut und einsieht. Unglücklich muss er feststellen: »Ich bin nicht mehr – ich bin nicht mehr als ein Nichts« (Antigone 1325). Bei einer näheren Betrachtung der Hauptfiguren wird oft von Antigone als der tragischen Figur des Stückes ausgegangen. Sie scheint völlig unverschuldet in ihr Unglück zu geraten, denn ihr vermeintlich frommes Handeln wendet sich zuletzt gegen sie selbst. Doch entspricht Antigones Handeln dem Willen der Götter? Die griechische Mythologie in sophokleischer Deutung versteht die Beziehung zwischen Gott und Mensch als eine, in der die Menschen den Willen der Götter fromm annehmen sollten. Fordern die Götter eine gewisse Tat, dann wenden sie sich mit einer klaren Anweisung an die Menschen. Antigone aber dringt aktiv in den Aufgabenbereich der Götter ein und überschreitet ihre Grenzen. Eine Anweisung dazu oder auch nur eine Genehmigung hat sie von ihnen nie erhalten. Eine andere Frage, die sich ebenfalls stellt, ist: Wenn sie sich doch zu Beginn fest entschlossen für den Tod entscheidet, warum kann sie ihn dann nicht annehmen? Einerseits hat Antigone mit einem anderen Tod gerechnet. Sie hoffte öffentlich und ruhmvoll durch eine Steinigung zu sterben. Deshalb weist sie Ismene auch vor Kreon zurück, weil sie den Ruhm für die heroische Tat alleine genießen will. Nun sieht sie einen kläglichen und jämmerlichen Tod vor sich. Andererseits zeigt ihre Reaktion auf den bevorstehenden Tod nur, wie menschlich Antigone ist. Dadurch werden die Grenzen des Menschseins deutlich, welche der Mensch gemäß der delphischen Maxime »Erkenne dich selbst« im Blick haben sollte. Sie stürzt folglich aufgrund des Mangels an Maßhaltung. 126 6.5 Platons Phaidon und die Unsterblichkeit der Seele Hätte sie ihr Schicksal denn überhaupt verhindern können? Wie hätte sie zur Erkenntnis gelangen sollen? Auffällig ist, dass Antigone ihre Tat nie reflektiert. Im Stück findet sich kein Monolog, in welchem sie die Problematik ihres Vorhabens thematisiert. Auch der Dialog mit ihrer Schwester kann nicht als wirkliches Gespräch bezeichnet werden, denn sie unterrichtet Ismene lediglich von ihrem Plan. Ein Gespräch mit Kreon kommt ebenfalls nie zustande. Redete Antigone mit Kreon, würde sie erfahren, dass ihr Bruder längst begraben ist. Wie ist der Sturz Kreons in diesem Zusammenhang zu deuten? Bezüglich des Scheiterns in der Tragödie lässt sich eine Parallele zu Antigone feststellen. Denn auch Kreon verpasst es, ein aufschlussreiches Gespräch aufzusuchen und handelt nur im Sinne des Vaterlandes. Weder dem Volk, dessen Willen er als Herrscher berücksichtigen sollte, noch seinem eigenen Sohn, der sich um ihn sorgt, noch dem Teresias, der als hohe moralische Instanz gilt, schenkt er Gehör. Seine Sturheit wird ihm zum Verhängnis. Der Machtdemonstration wegen stellt Kreon sein Gesetz über die Gesetzte der Götter. Dadurch legt er gegenüber den Göttern Hybris und Anmaßung an den Tag. Gibt es überhaupt einen Unterschied zwischen den Protagonisten Kreon und Antigone? Aus dem ganzen Stück folgt, dass, hätten die Charaktere ein Gespräch miteinander gesucht, sei es mit sich oder mit anderen, dann wären sie zur Besinnung gekommen, sodass die Katastrophe nicht hätte entstehen können. Auch wenn beide Figuren aufgrund mangelnder Besinnung scheitern, wird am Ende des Stückes deutlich, dass Kreon dennoch zu einer Erkenntnis gelangt, welche der Antigone bis zum Tod fehlt. Denn während Kreon sich seine Fehler eingesteht und bereut, weiß Antigone bis zum Ende nicht, weshalb die Götter sie auf diese Weise enden ließen. Sie erkennt nicht ihr Fehlverhalten den Göttern gegenüber und akzeptiert ihr Schicksal nicht. Somit scheint Kreon Antigone einen Schritt voraus zu sein, denn nur er gelangt zu der Erkenntnis: »Einsicht ist das aller Güter höchste!« (Antigone 1348–1349). 6.5 Platons Phaidon und die Unsterblichkeit der Seele Platons Akademie war eine besondere Art von Bildungsstätte, mit welcher unsere womöglich altbackene Konzeption der Schüler-Lehrer-Situation inkommensurabel ist. Nicht umsonst wird die sokratische Lehrmethode als pädagogisch ausgeklügelte Vorgehensweise gepriesen, anhand derer Platon das strukturelle Grundgerüst seiner Werke konzipiert hat. In nuce: Es geht um die funktionelle Bedeutungspotenz der Dialogform, durch die der Lernprozess des Lesers überaus effektiv geprägt wird. Das simple Prinzip von »Rede – Gegenrede« zeichnet sich nicht nur durch seine den Rezipierenden ansprechende Form aus, sondern ermöglicht und rechtfertigt überdies den »fehlenden« Zwang zur systematischen Vollständigkeit. Es können Positionen revidiert, facettenreiche Attitüden referiert werden. Somit sind Platons Lehrstücke nicht als trockene, belehrende Schulbücher zu verstehen, sondern vielmehr als zum kritischen Denken motivierende Dialoge. Denn abgesehen von den werkimmanenten Gesprächen sind es Platons Texte in persona, mit welchen der Leser im Dialog zu stehen hat. Erst wenn diese Konfrontation zwischen 127 6 Eine philosophische Analyse der Liebe Leser und Text zustande kommt und das Zwiegespräch zwischen beiden eingeleitet wird, ist es möglich, Platons eigentliche »ungeschriebene« Lehre zu verstehen. Will heißen: Es ist das Hinterfragen mancher nicht selten ironisch dargestellter Beziehungen und Sachverhalte, das Weiterentwickeln einfach erscheinender Gedankenstränge, kurzum, die Urteilsbildung des Lesers, auf die Platon abzielt. Protagonist der meisten Dialoge ist Sokrates, der, sich seiner maieutischen Lehrweise bedienend, seine Gesprächspartner stets regelrecht dazu »zwingt«, Wissen, oder präziser formuliert, Einsicht in die Dinge selbst zu erwerben – und sei es »nur« jene in die Unbeantwortbarkeit diverser den Menschen betreffenden Grundkonstanten. Das Kernproblem der Dialoge stellt demnach die Frage nach der arete (Tugend) und der Seelsorge dar. Dies soll illustriert werden an einem Werk aus Platons mittlerer Schaffensperiode, nämlich am Phaidon. Phaidon In diesem Dialog Platons berichtet Phaidon, Freund des Sokrates, von den letzten Gesprächen am Todestag des großen Philosophen: Sokrates sitzt im Jahre 399 v. Chr. nach der Verurteilung zum Tod im Athener Staatsgefängnis, umgeben von seinen engsten Freunden, und philosophiert mit ihnen angesichts des nahen Todes über die Unsterblichkeit der Seele. Warum ist Sokrates unmittelbar vor seinem Lebensende vollkommen gelassen und zufrieden? Warum empfiehlt er sogar einem anderen Philosophen, ihm bald in den Tod zu folgen? Diese Fragen der Anwesenden geben Sokrates den Anstoß zu den folgenden Ausführungen. – Der Körper-Seele-Dualismus Der Tod bedeutet die Trennung der Seele vom Körper; tot-sein heißt, die Seele existiert allein für sich, losgelöst vom Körper. Dieser Zustand ist für jeden wahren Philosophen erstrebenswert; ihn zu erreichen ist oberstes Ziel. Denn: Kriege, Krankheit, Unvernunft, Maßlosigkeit – alles Übel hat seine Ursache im Körper und seinen Bedürfnissen. Er verlangt nach Pflege, Nahrung, Fürsorge jeglicher Art, er behindert den Menschen beim Denken, lenkt ihn vom Philosophieren ab. Die Sinneseindrücke, die der Körper liefert, sind trügerisch, wechselhaft und unvollkommen. Dies widerstrebt dem Philosophen jedoch zutiefst: Der philos (Freund) der sophia (Wissen, Erkenntnis) darf sich beim Streben nach to on (dem wirklich Seienden) weder auf seine Sinneseindrücke verlassen, noch den Verlockungen des Körpers nachgeben. Ein wahrhaftiger Philosoph strebt die Abwendung vom Körper und Hinwendung zur Seele an. Damit übt sich der Philosoph ein Leben lang in der Trennung von Körper und Seele, er befindet sich in ständiger melete thanatou, Einübung des Todes. Der Tod selbst erfüllt schließlich das lebenslange Streben; nach dem Tod kann die Seele, befreit aus dem soma (Körper) als ihrem sema (Grab), endgültig Erkenntnis erlangen. Daher ist der Tod nichts Böses, geschweige denn etwas Beängstigendes. – Die Ideenhypothese als Unsterblichkeitsargument Unter Sokrates’ Freunden besteht jedoch die Sorge, die Seele könne sich nach 128 6.6 Seneca – De providentia der Trennung vom Körper auflösen und zerstäuben. Sokrates reagiert auf diese Zweifel mit der Ideenlehre, die der Autor dem Protagonisten in den Mund legt. »Idee« bedeutet hier nicht »Einfall« im heutigen Sinne, sondern übersinnliches »Urbild«. Das Urbild nämlich, von dem alle sinnlich erfahrbaren Dinge nur ein Abbild sind. Es gibt beispielsweise die Idee des »Großen«, die Idee des »Geraden«, des »Schönen« und des »Guten«. Alle Sinnendinge, die daneben groß, gerade, schön oder gut sind, haben Anteil an der entsprechenden Idee. Die Idee der Größe kann niemals klein werden. Doch nicht nur gegensätzliche Ideen selbst schließen sich aus, sondern auch Dinge, die diese Gegensätze in sich tragen, ohne selbst Gegensatz zu sein: Die Zahl drei ist nicht Gegenteil vom Geraden, kann aber als ungerade Zahl (mit Teilhabe an der Idee des »Ungeraden«) niemals das Gerade in sich aufnehmen. Diese Feststellung überträgt Sokrates auf die Seele, welche Trägerin des Lebens ist. (Das griechische Wort für Seele, psyche, bedeutet auch ursprünglich »Leben«.) Wenn die Seele in einen leblosen Körper hineinfährt, dann bringt sie ihm immer das Leben. Damit kann sie als Teilhaberin an der Idee des Lebens allerdings nie den Gegensatz Tod in sich aufnehmen. Sie ist unsterblich. 6.6 Seneca – De providentia — Unglück als wahres Glück Die vorliegende Schrift De providentia, zu Deutsch Über die Vorsehung, ist eine Spätschrift von L. Annaeus Seneca (1 v./n. Chr. – 65 n. Chr.). Ausgehend von der Frage, warum, »wenn die Welt durch eine Vorsehung gelenkt werde, guten Menschen viel Unheil zustoße« (I, 1), entwickelt Seneca seine stoische Auffassung vom Schicksal. Der Autor geht zum einen davon aus, dass eine feste und gottgelenkte Weltordnung besteht, die auf aufeinanderfolgenden Ursachen fußt, und zum anderen davon, dass sich Gleichartiges in der Natur niemals gegenseitig negativ beeinflussen könne. Das heißt, dass die Götter niemals guten Menschen (boni viri) schaden könnten. Dementsprechend besteht zwischen den Göttern und den boni viri »Verwandtschaft und Ähnlichkeit« (I, 5). Diesem Verhältnis nach erzieht der Gott die guten Menschen so, »dass sie vor Härten und Schwierigkeiten nicht zurückschrecken, noch sich über das Schicksal beklagen, dass sie, was auch immer geschieht, für gut befinden und es zum Guten wenden« (II, 4). Dafür teilt der Gott ihnen harte Schicksale zu, damit sie sich an ihnen erproben und abhärten können, bis sie durch die Gewohnheit zum »Vergnügen« (IV, 15) werden. Durch die Erprobung und die Abhärtung gelangt der bonus vir zur Erkenntnis über sich selbst, da er erst jetzt erkennt, was er »zu leisten vermag [. . .]« (IV, 3). Seneca geht es darum, das existenzielle Problem der Unerklärbarkeit von Unglück in der Welt dadurch zu lösen, dass nicht das Ausgangsproblem, sondern der Zugang bzw. die Haltung des Menschen zu diesem grundlegend verändert wird. Das häufige Auftreten von Unglück im Leben eines bonus vir zeigt folglich die Gunst der Götter an, da sie den bonum vir als würdig genug erachten, um ihm ein hartes Schicksal aufzuerlegen. Das bedeutet, dass das Erhalten von Unglück in Wirklichkeit 129 6 Eine philosophische Analyse der Liebe Glück ist, das der gute Mensch mit freudiger Erwartung empfangen sollte. Durch diese mentale Einstellung zum Schicksal und die erlangte »stoische Gelassenheit« stellt sich der gute Mensch dann sogar über das Schicksal. Mit der Umkehrung von Glück und Unglück im Hinblick auf das Schicksal – hier muss man bedenken, dass der stoische Glücksbegriff nur das Nichtvorhandensein von Unglück meint – ergibt sich zwangsläufig, dass ein glückliches Schicksal nicht mit einem wahrhaft glücklichen Leben vereinbar ist. Dies erklärt Seneca damit, dass die »Materie« (V, 9), aus der die guten Menschen geschaffen sind, unzertrennlich mit einem harten Schicksal verbunden ist. Vielmehr führt »lähmendes Glück« (IV, 9) zu Erschlaffung und einem rauschhaften Zustand, der mit Realitätsverlust einhergeht. In einem solchen Zustand hat das Unglück bringende Schicksal dann eine umso verheerendere Wirkung. Seneca hat nicht zufriedenstellend erklären können, wie das Verhältnis zwischen dem freien menschlichen Streben und der Notwendigkeit des Schicksals zu bestimmen ist. Dunkel bleibt auch die irritierende Vorstellung, warum Unglück Glück ist. Ferner scheint es, dass Seneca von einem maximal entmenschlichten Menschenbild ausgeht und dadurch eine ethische Anwendbarkeit seiner Überlegungen nicht möglich ist. 6.7 Sextus Empiricus – Skepsis und Liebe im Konflikt Philosophiegeschichtliche Einordnung Bevor genauer auf die Skepsis nach Sextus eingegangen wird, wird diese grundlegend in einen philosophisch-geschichtlichen Kontext eingeordnet. Zur Zeit Sextus’ (ca. 2. Jahrhundert n. Chr.) konkurrierten nach Sextus’ Auffassung im Wesentlichen drei philosophische Strömungen: Die Dogmatiker, die glaubten, das »Wahre« bereits gefunden zu haben; die Akademiker, die dachten, das »Wahre« sei nicht zu finden, sowie die Skeptiker. Wesentliche Aspekte der Pyrrhonischen Skepsis Zunächst lässt sich sagen, dass die Skeptiker das Ziel haben, die Menschen durch ihre Philosophie von der inneren Unruhe zu befreien. Der Skeptiker sieht sich als eine Art Arzt, der versucht, den Patienten (den beunruhigten Menschen) von einer Krankheit (der inneren Unruhe) durch eine Therapie (die Skepsis) zu befreien. Die innere Unruhe, von der die Menschen betroffen sind, entsteht laut Sextus durch die Wahrheitssuche. Da es nach skeptischem Denken allerdings nicht möglich ist, zu urteilen, was »richtig« oder »falsch« bzw. »gut« oder »schlecht« ist, da jedem Argument ein ihm gleichwertiges Argument entgegensteht, welches das erste Argument widerlegt, kommt es zur isosthenia (Gleichwertigkeit der Urteile). Die Skeptiker fällen also kein Urteil über den Wahrheitsgehalt einer Aussage. Auch beim Philosophieren legen sie keine Dogmen fest, sondern beschreiben lediglich persönliche Erlebnisse und Empfindungen und zwar immer nur für den jeweiligen Moment und niemals allgemein gültig. Dafür werden in der Skepsis auch spezifische Mittel angewandt, die verhindern sollen, dass es zu dogmatischen Aussagen kommt. Charakteristisch für die Skeptiker sind Schlagworte wie »nicht eher«. Dieses Schlagwort bedeutet 130 6.7 Sextus Empiricus – Skepsis und Liebe im Konflikt so viel wie »nicht eher jenes als dieses« oder, um es noch weiter auszuformulieren, »Ich weiß nicht, welchem von diesen Dingen ich zustimmen soll und welchem nicht«. Durch diese Formulierungen gelingt es dem Skeptiker, keine allgemeinen Aussagen zu treffen und so seine Philosophie sprachlich angemessen zu formulieren. Der skeptische Ansatz zur Überwindung der inneren Unruhe besteht darin, darauf zu warten, dass man in der sich fortwährend einstellenden isosthenia plötzlich und unerwartet innehält. Und genau dann, wenn man innehält, gelangt man, wie zufällig, zur ataraxie (Seelenruhe). Diese Seelenruhe erscheint dem Skeptiker als der angenehmste und erstrebenswerteste Zustand. Wichtig ist es, zu erwähnen, dass es nach Sextus’ Auffassung auch sogenannte »aufgezwungene Güter« (Affekte wie Lust und Schmerz) gibt, bei denen es nicht möglich ist, die ataraxie zu erreichen, da der Mensch diese nicht beeinflussen kann. Bei solchen Affekten soll darum nur eine metriopathie (ein Maßhalten) angestrebt werden. Lassen sich Liebe und Skepsis kombinieren? Nachdem nun die Grundidee der Skepsis beschrieben wurde, soll diese philosophische Strömung nun auf die Frage hin untersucht werden, ob sich auch die Liebe in dieses System einordnen lässt. Ein Skeptiker erkennt zwar an, dass es Affekte gibt, allerdings versucht er diese, soweit dies möglich ist, einzudämmen. Eine Frage, die sich hier zwangsläufig ergibt, ist, wie es sich denn dann mit der Liebe bei Skeptikern verhält und inwieweit man diese zwei Aspekte kombinieren kann. Das Hauptproblem hierbei besteht darin, dass zu der Liebe auch Leidenschaft und starke Emotionen zählen. Da nun die Liebe zum Menschen gehört und die Emotionen zur Liebe gehören, ergibt sich, dass auch diese starken Emotionen menschlich sind. Wenn man diesen Gesichtspunkt nun wieder auf die Skepsis bezieht, so wird deutlich, dass das Prinzip der pyrrhonischen Skepsis nach Sextus gar nicht menschlich zu sein scheint. Somit lässt sich sagen, dass Sextus’ philosophischer Ansatz es nicht bewerkstelligen konnte, den Menschen mit all seinen Eigenschaften zu erfassen. 131 6 Eine philosophische Analyse der Liebe So kommt man zu dem Fazit, dass sich das Menschenbild und auch die Vorstellung von Liebe innerhalb der verschiedenen Epochen immer wieder veränderte und es eine große Problematik darstellt, den Menschen mit all seinen Gefühlen zu begreifen. Weiterhin scheint die Liebe vielfältig zu sein und in verschiedensten Formen aufzutreten. Klar ist, dass es keine eindeutige Definition für dieses Phänomen geben kann. Jeder muss für sich allein versuchen, der Liebe auf die Spur zu kommen, sei es durch Erfahrungen, durch die Lektüre großartiger Weltliteratur oder durch faszinierende Diskussionen mit Gleichgesinnten. 6.8 Der paulinische Stil Der paulnische Stil ist dadurch geprägt, dass Paulus viele ungenau definierte beziehungsweise vollkommen neue Begriffe einführt, um seine Lehre zu erklären. Weil diese Begriffe noch nicht durch andere Autoren oder durch die bisherige Begriffsgeschichte eindeutig festgelegt worden sind, ist der Stil durch häufiges Umschreiben von neuen Begriffen stark beeinflusst und teilweise nicht leicht zugänglich. Zumeist aber schreibt Paulus inhaltlich einer klaren Linie folgend. Hierbei wiederholt er seine Aussagen und Begriffsdefinitionen unentwegt, um so den interessierten – sowohl gebildeten als auch ungebildeten – Lesern das Evangelium nahezubringen. Hierbei nähert sich Paulus Satz für Satz der von ihm auszudrücken gewünschten Weisheit und Lehre. Seine Ausdauer zeigt, dass Paulus diese als den Grund seiner Sendung und Aufgabe von Gott her anerkennt. Allgemein sind von ihm verfasste Schriften auf recht hohem Niveau; das versucht er trotz hoher Anzahl von Fachtermini nicht übermäßig zum Problem werden zu lassen, meint er doch, Gott möchte allen Gläubigen, auch den weniger Weisen das – unverdiente – Heil schenken. Dadurch erhalten von Paulus verfasste Schriftstücke einen langatmigen Charakter, der dadurch ausgeglichen wird, dass Paulus’ Thematik eine besonders ansprechende ist. So eröffnet Paulus einem allgemeinen Publikum den Zugang zu christlichen Lehren. In den paulinischen Briefen hat der Inhalt einen sehr persönlichen Bezug, weswegen man sagen kann, dass diese sehr anschaulich und situationsbezogen verfasst sind. Letzteres hat den Nachteil, dass ein großer Teil der heutigen Leser durch die Notwendigkeit der Kenntnis von historischen Fakten die Texte nur eingeschränkt verstehen können. Philosophisch gesehen ist die Effektivität eines solchen Schreibstils im Vergleich zu der bei Texten anderer philosophischer Autoren recht niedrig, dafür jedoch um ein Wesentliches klarer. Die Reden des Paulus scheinen das Problem der Langatmigkeit in besonderer Weise gehabt zu haben. Ein Beispiel aus der Apostelgeschichte beschreibt diesen Redestil des Paulus sehr aussagekräftig: »Am ersten Tag der Woche aber [. . .] predigte ihnen Paulus, und da er am nächsten Tag weiterreisen wollte, zog er die Rede hin bis Mitternacht. [. . .] Es saß aber ein junger Mann mit Namen Eutychus in einem Fenster und sank in einen tiefen Schlaf, weil Paulus 132 6.9 Immanuel Kant – Epistemologische Motivation einer Vernunftskritik so lang redete; und vom Schlaf überwältigt fiel er hinunter vom dritten Stock und wurde tot aufgehoben. Paulus aber ging hinab und warf sich über ihn, umfing ihn und sprach: Macht kein Getümmel; denn es ist Leben in ihm« (Apostelgeschichte 20, 7–10). Es zeigt sich hier, dass Paulus durch mangelhafte rhetorische Fähigkeiten die Aufmerksamkeit des Zuhörers so fordert, dass diese angesichts des großen Umfangs seiner Vorträge, was die Konzentrationsfähigkeit anbelangt, beinahe überfordert sind. Aussagekräftiger sind tatsächlich seine Taten, seine Reden jedoch nicht weniger lehrreich. Auch hier wird der Leser durch die ansprechenden Taten, die im Text geschildert werden, fasziniert und gefesselt, nicht durch seine langatmige Ausdrucksweise. 6.9 Immanuel Kant – Epistemologische Motivation einer Vernunftskritik 6.9.1 Das Problem der Metaphysik Zu Kants Zeiten scheint die Metaphysik in eine ausweglose Situation geraten zu sein: Die Vernunft kann gewisse Fragen einerseits nicht abweisen, denn sie werden von der Vernunft unabweislich selbst gestellt. Andererseits übersteigen diese Fragen das menschliche Vernunftsvermögen. Da sie auch jegliche Erfahrung übersteigen (transzendieren), können mögliche Antworten durch die Vernunft nicht hinreichend geprüft werden. Die Vernunft muss also etwas können, was sie eigentlich nicht kann. Die beiden großen philosophischen Richtungen Rationalismus und Empirismus stellen unvereinbare Lösungsansätze dar, die die Metaphysik zu einem »Kampfplatz« machen, auf dem keine Sicherheit gewonnen werden kann. 6.9.2 Kants erkenntnistheoretischer Ansatz Kant steht also vor diesen drei Problemen: Die Unzulänglichkeit und die Bedürftigkeit der menschlichen Vernunft und die Unversöhnlichkeit möglicher Lösungsansätze. Da sämtliche metaphysische Überlegungen der Vernunft entspringen und sie dennoch zu Widersprüchen führen, müssen Fehler im reinen Vernunftsgebrauch begangen worden sein. Kritik der Vernunft Daher sieht Kant die einzige Lösung, den »Kampfplatz« zu befrieden, darin, einen Gerichtshof der Vernunft einzurichten, eine »Kritik der (reinen) Vernunft«. Hierbei ist Kritik in Sinne »Unterscheidung« bzw. »Beurteilung« zu verstehen. Der Genitiv kann einmal subjektiv (Kritik durch die Vernunft) als auch objektiv (Kritik an der Vernunft) verstanden werden. Die Vernunft ist in Kants Konzept also zugleich Richter als auch Angeklagter. Kant hofft, dass, wenn eine genaue Kenntnis über die Prinzipien der Vernunft selbst vorliegt, entweder die Unzulänglichkeit begründet oder die vermeintlichen Widersprüche gelöst werden können. Kopernikanische Wende und Transzendentalphilosophie Kant wagt ein Gedankenexperiment: Man nehme an, dass sich nicht die Erkenntnis nach dem zu erkennenden 133 6 Eine philosophische Analyse der Liebe Gegenstande richtet, sondern der erkannte Gegenstand nach der Erkenntnis. Es wird sich zeigen, dass sich diese Annahme durch Erfolg rechtfertigt. Nun muss man aber unterscheiden zwischen dem Ding an sich und dem Ding als Erscheinung (erkannter Gegenstand). Kants Interesse gilt nun der Untersuchung, wie der Gegenstand erkannt wird, wie also die Wirklichkeit als Erscheinung innerhalb unseres Erkenntnisvermögens konstruiert wird. Diese Prinzipien der Wahrnehmung bedingen eine empirische Erkenntnis, sind aber von ihr unabhängig. Eine Analyse der Bedingungen der Möglichkeit von Erfahrung nennt Kant »Transzendentalphilosophie«. 6.9.3 Kants Terminologie A priori und a posteriori Kant unterscheidet zwei grundlegende Erkenntnisarten: Solche, die die Vernunft gänzlich aus sich selbst hervorbringt (»a priori«) und solche, die auf Erfahrung fußen (»a posteriori«). Apriorische Erkenntnisse zeichnen sich durch notwendige Allgemeinheit aus, während empirische Erkenntnisse lediglich aussagen, dass ein bestimmter Sachverhalt gilt (es ist nur komparative Allgemeinheit durch Induktion möglich). Mathematische Sätze wie z. B. der Satz »Die kürzeste Entfernung zweier Punkte ist die gerade Linie.« gelten notwendigerweise, da sie durch reine Verstandesarbeit verifizierbar sind. Analytische und synthetische Urteile Unter einem Urteil versteht Kant einen Satz, in dem ein logisches Prädikat von einem Begriff ausgesagt wird. Hier kann man unterscheiden zwischen analytischen und synthetischen Urteilen. Während analytische Urteile einen Begriff lediglich zergliedern, ordnen synthetische Urteile einem Begriff ein völlig neues Prädikat zu. Die Verknüpfung (Synthesis) ist also neu, mithin erkenntniserweiternd. Analytische Urteile können nur apriorisch sein, da eine Begriffzergliederung reine Verstandesarbeit ist. Synthetische Urteile müssen sich neben dem Begriff auf noch etwas anderes X stützen. Für synthetische Urteile a posteriori ist X die Erfahrung. Kant zufolge gibt es aber auch synthetische Urteile a priori. Hier muss das für das Urteil zusätzlich erforderliche X einer anderen Quelle als der Erfahrung entspringen, nämlich aus der Vernunft selbst. Ziel ist es also, die Erkenntnis unabhängig von Erfahrung zu erweitern. Dies ist entscheidend, wenn man die Metaphysik, nämlich als eine die Erfahrung übersteigende Erkenntniserweiterung, als ernstzunehmende Wissenschaft ansehen möchte. Das für diese Erkenntniserweiterung notwendige X (siehe oben) muss aus der Vernunft selbst hervorgehen. 134 6.10 Literaturverzeichnis 6.10 Literaturverzeichnis [1] Manuwal, Bernd: Oidipus und Adrastos. Bemerkungen zur neueren Diskussion um die Schuldfrage in Sophokles’ »König Oidipus«. In: Rheinisches Museum für Philologie. Neue Folge Nr. 135 1992, 1–43. [2] Rumpf, Lorenz: Unvermeidbare Schuld. Zur Debatte um Sophokles’ König Ödipus. In: Antike und Abendland Nr. 49 2003, 37–57. 135 7 Kursübergreifende Aktivitäten 7.1 Schloss Clemenswerth Die Anlage Das barocke Schloss Clemenswerth wurde von Herzog Clemens August in Auftrag gegeben, der im Laufe seines Lebens drei Mal dort war – jeweils einige Tage bis wenige Wochen, in denen er im umliegenden Wald jagte. Die Anlage trägt den Beinamen »Stern im Emsland«, da sie tatsächlich wie ein mehrstrahliger Stern aufgebaut ist. Im Zentrum befindet sich das Wohnschloss Clemens August, von dem in acht Richtungen gerade Alleen in den Wald führen. Weitere Häuser, in denen die Begleiter des Herzogs untergebracht waren, stehen im Kreis darum angeordnet zwischen den Alleen. Interessanterweise sind die Fenster des Haupthauses so angeordnet, dass durch sie die Alleen, aber nicht die anderen Gebäude zu sehen sind. Die Innenarchitektur, das typische Rocaille, umfasst Stuckverzierungen an Wand und Decke, bei denen meist symmetrische Muster wiederholt werden. Oft sind darin die Initialen des Herzogs, C.A., zu sehen. Auch bunt gemusterte Seidentapeten wurden häufig verwendet. Kunstworkshop: Rocaille Fauxpas Inspiriert vom Rocaille des Schlosses war in einem der Nebenhäuser eine Ausstellung von einigen Künstlern zu sehen, die Elemente des Rocaille in ihre Kunst aufgenommen haben. Wir teilten uns in fünf Gruppen auf, in denen wir uns mit jeweils einem der Künstler auseinandersetzten. Danach stellte jede Gruppe die Ergebnisse vor: die Art des Kunstwerks, die Technik, Zielsetzung des Künstlers und Beschreibung seiner Kunst. Als Zusatzaufgabe war jeweils ein von dem zugeteilten Künstler inspiriertes, eigenes Werk zu gestalten. Zur Verfügung standen jedoch nur gelbes Papier, Schere, Stift und eine Postkarte mit dem Bild einer verzierten Suppenschüssel, die aber mit großem Erfindungsgeist eingesetzt wurden. Im Anschluss an den Kunstworkshop hatten wir noch eine Stunde Zeit, um an kurzen Führungen durch die einzelnen Gebäude teilzunehmen oder uns einfach nur die Exponate anzuschauen. Der Ausflug endete um halb fünf am Haupthaus der HÖB. 7.2 Gewaltverherrlichende Spiele auf der Akademie? Alles begann in einem kleinen italienischen Bergdorf namens Papenburg; es war ein friedlicher Freitag Nachmittag, an dem sich viele begeisterte junge Leute auf der Akademie trafen. Niemand ahnte, dass diese Begeisterung schon am Abend desselben Tages die ersten Opfer blutig zerfleischen und die Köpfe anderer rollen lassen würde. 136 7.2 Gewaltverherrlichende Spiele auf der Akademie? Werwolf ist ein Diskussions-Psychologie-Rate-Spiel (je nach Person in unterschiedlich gewichteten Anteilen), bei dem jeder in der Spielrunde von bis zu 20 Leuten eine Rolle zugeteilt bekommt. Während die Dorfbewohner allnächtlich schlafen, sind es die Werwölfe, welche erstere blutrünstig ermorden. Am nächsten Morgen, nachdem auch die Hexe und der Seher ihr Werk getan haben, müssen die Bürger nun stets einen der Ihren anklagen; ob es ein unschuldiges Opfer ist oder sich doch eine überdurchschnittliche Behaarung feststellen lässt, wird erst bei der Verbrennung auf dem Scheiterhaufen deutlich. Dies wiederholt sich – wie erwartet man es auch anders in einem italienischen Bergdorf – jede Nacht und jeden Tag, bis das Dorf ausgerottet oder die Werwölfe ausgemerzt werden. Viele fanden solches Gefallen an dem Spiel Werwolf, dass bis zum Ende der Akademie stets mindestens eine Gruppe vorzufinden war, welche entweder im großen Seminarraum oder im Wintergarten in den späten Abendstunden noch nach Werwölfen in ihren Reihen suchte. Manchmal, so wurde überliefert, gingen dort übernatürliche Persönlichkeiten, wohl besser bekannt als Lena und Dina, um, welche aus unerklärlichen Gründen die Werwölfe nach einer gründlichen Musterung erkannten und entlarvten; so gab es auch manch schnelle Runde. Zugegebenermaßen war es jedoch bei einigen der Dorfbewohner nicht schwierig; so konnte man sich fast sicher sein, dass Sina in dieser, wie auch der letzten sowie der nächsten Runde ein Werwolf ist, war und sein wird. Kurioserweise war sie jedoch meist nicht das erste Opfer; diese Rolle nahmen Joscha und Thomas immer gerne ein. Manch anderes Mal gab es Hexen, welche trotz ihrer kursleitenden Funktion vergaßen aufzuwachen, aber auch andere, welche sich durch Murmeln während des Tränkebrauens verrieten oder sogar darüber einschliefen. Während einer anderen Nacht verbreitete das rätselhafte Auftauchen eines Plastikhasens an der Fensterscheibe Unbehagen. . . Wer das wohl war? Ein Philosoph vielleicht? Ein Musiker? Beide? Diese Fragen beschäftigten manche noch, als nach einigen Tagen auf der Akademie das Morden noch größere und allumfassendere Ausmaße annahm; das Mörderspiel wurde gestartet. Nach einer »Proberunde« begann die Paranoia am Dienstag Abend; Gegenstände wurden auf Tische gelegt anstatt direkt übergeben zu werden, Zeugen wurden herbeigerufen, damit man nicht etwas nahm und sich mit einem leisen »Du bist tot« in die ewigen Jagdgründe verabschieden musste. Auch wenn viele ihre einzeln zugewiesenen Opfer nur wenig kannten, mussten gerade zum Ende der Akademie hin noch einige Tote betrauert werden. Gerüchten zufolge sollen zwei Personen sogar jeweils vier andere in den Tod mitgenommen haben. Bei einer derartigen Blutrünstigkeit, wie sie auf der Akademie zu beobachten war, kann man sich nicht sicher sein, ob sich diese Mentalität nicht dauerhaft in die Persönlichkeit der Mörder eingebrannt hat. Lasst uns also hoffen, dass diese abartige Gewalt nicht in die nächsten Akademien Einzug findet, denn wie wir aus immer wieder auftretenden Diskussionen wissen: Gewaltverherrlichende Spiele schädigen die sozialen Kompetenzen! 137 7 Kursübergreifende Aktivitäten Abbildung 7.1: Der große Chor beim Akademiekonzert. 7.3 Theater Die Schauspielerei gehörte zu den Leidenschaften von einigen unter uns. Deshalb trafen wir uns an mehreren Abenden um dieser Leidenschaft gemeinsam nachzugehen. Doch es war kein Theaterstück vorhanden, das wir in so kurzer Zeit hätten einstudieren können, ohne das Einstudieren der Texte und längere Proben zu unserer Hauptfreizeitbeschäftigungen zu machen. Deshalb griffen wir besonders aus Zeitgründen auf die Improvisation zurück. Mit viel Kreativität, Lust und Laune spielten wir Szenen aller Art. Vom Zeitlupenkampf bis zum Rollenspiel schlüpften wir in die verschiedensten Rollen: Vom Arzt bis zum Paranoiden. Es gab immer viel zu lachen und es gab auch immer Personen, die nur zum Zuschauen an unseren Proben teilnahmen und selber viel lachten. Für uns war es eine großartige Möglichkeit aus dem Kursalltag herauszukommen, uns ein wenig zu entspannen und uns kennen zu lernen. Wir hatten alle viel Spaß. Für den bunten Abend bereiteten wir kleine Impro-Szenen vor, um unser Publikum auch so viel Gefallen an den Szenen finden zu lassen, wie wir es bei den Proben hatten. 7.4 Tanzen – Für Anfänger und Fortgeschrittene Schon bevor die Akademie überhaupt begonnen hatte, wurde im Forum fleißig über eine Tanzgruppe als Freizeitaktivität diskutiert. Viele Akademieteilnehmer freuten sich ihre tänzerischen Fähigkeiten zu verbessern oder sich ihre ersten Tanzschritte zeigen zu lassen. Und so trafen sich dann alle Tanzinteressierten am dritten Tag in unserem großen 138 7.4 Tanzen – Für Anfänger und Fortgeschrittene Seminarraum. Zu dem Zeitpunkt sind wir noch von ungefähr 12 Leuten ausgegangen, doch was uns dann erwartete war erstaunlich. Der große Saal füllte sich langsam und kam uns dann ganz schön klein vor. Wir begannen also unsere erste Tanzstunde ca. mit 12 Paaren. Zu Beginn widmeten wir uns dem Paso Doble, der noch allen Teilnehmern unbekannt war. Dieser Tanz soll einen Stierkampf darstellen bei dem der Mann den Torero und die Dame sein rotes Tuch darstellt. Mit dem Cha Cha kam der zweite Lateintanz hinzu, der für ein kleines Chaos auf der Fläche sorgte, bei dem aber zum Glück keiner verletzt wurde. Als letzten Tanz an diesem Tag versuchten sich alle an dem langsamen Walzer um auf der nächsten Feier auch richtig vorbereitet zu sein. Wir wirbelten durch den Raum und danach direkt in die Mensa zu Kaffee und Kuchen. Weil es allen so gut gefallen hatte, trafen wir uns gleich am nächsten Tag noch einmal. Dort erarbeiteten wir uns eine kleine Paso-Folge, den Tango und entdeckten die vielen Drehungen, die man in einem Disco Fox so unterbringen kann. Bei den nächsten Terminen schrumpfte unsere Gruppe ein wenig zusammen, da gegen Ende der Akademie noch einmal viel Arbeit für alle angefallen war. Jedoch traf sich der »harte Kern« immer noch und schaute mal bei anderen Tanzstilen vorbei. So zum Beispiel beim Rock’n Roll, der uns alle doch mächtig aus der Puste brachte. Danach widmeten wir uns einem sehr leidenschaftlichen Tanz, dem Salsa. Nachdem sich einige weitere Teilnehmer bereit erklärt hatten etwas zum Kurs beizutragen, kam gegen Ende noch eine kleine Hip Hop-Einheit, die allen großen Spaß bereitete. Und da wir alle vom Tanzen nicht genug bekommen konnten, entwickelten wir ein kleines Programm für den »Bunten Abend«, an dem wir unsere Arbeit präsentierten. 139