Astronomie ist Kulturgut - Rubin - Ruhr

Werbung
Rubin 2009
Ein internationales Jahr
für die Astronomie
Astronomie
ist Kulturgut
Dass UNO und UNESCO ein ganzes Jahr einer
Wissenschaftssparte widmen, noch dazu einer
Naturwissenschaft, ist schon ein besonderes Ereignis. Anlass ist die erste Nutzung eines Teleskops zur wissenschaftlichen Erforschung des Himmels im Jahr 1609 durch Galileo Galilei. Um es gleich deutlich zu sagen: Bei dem Jahrestag geht es nicht um die Anerkennung einer allerersten
Himmelsbeobachtung mit einem Teleskop. Denn es gibt
viele historische Hinweise, dass bereits Andere vor Galilei Teleskope benutzten, um den „Himmel“ besser sehen
zu können. Doch Galilei hatte daraus als erster wissenschaftliche Erkenntnis gewonnen. Das Jahr 1609 ist für
uns aber auch mit der Veröffentlichung der Keplerschen
Gesetze verbunden, die für die Entwicklung der Astronomie und Physik von ebenso fundamentaler Bedeutung waren. Beides ist Grund genug, auf vierhundert Jahre naturwissenschaftliche Forschung zurück zu schauen.
Der Anspruch an das Internationale Astronomiejahr
2009 (International Year of Astronomy IYA 2009) ist hoch,
denn es soll mit seinen Aktivitäten den Menschen die Astronomie und deren Forschungsgegenstand als Kulturgut
nahe bringen. Dafür steht auch das Motto des Jahres „Das
Weltall, Du lebst darin – entdecke es“. Die Natur-Erfahrung des Sternenhimmels machen junge Menschen heute
eher seltener und kennen daher z.B. eindrucksvolle Phänomene wie die Milchstraße kaum aus eigener Anschauung. Dabei haben die „himmlischen Begebenheiten“ die
Menschen immer beschäftigt und deren Kulturen mit geprägt – von den ersten kalendarischen Beschreibungen
des Himmelsgeschehens in der Steinzeit bis zur Nutzung
der GPS-Satelliten heute, von der Erkenntnis der zentralen Bedeutung der Sonne für das Leben auf der Erde bis
zur Entdeckung des Urknalls.
So entrückt von unserem Alltag, wie man im ersten
Moment vielleicht denken mag, ist die Astronomie also
gar nicht. Indem wir den „Himmel“ erforschen, erkennen
wir die Stellung des Menschen im Universum – das entspricht dem Bedürfnis, auf Grundfragen der Menschheit
Antworten zu bekommen. Die wachsenden Einsichten in
Abb.: Auch vor Ort von den Dächern der Ruhr-Universität können
die Bochumer Astronomen zu Ausbildungszwecken mit zwei Teleskopen den Himmel beobachten.
4
Editorial
Rubin 2009
die Natur der Himmelskörper, der komplexen kosmischen Zusammenhänge,
der astronomischen Entfernungen und
Dimensionen haben über Jahrhunderte
das Selbstverständnis des Menschen beeinflusst. Lange dem Zentrum der Welt
entrückt, müssen wir heute erkennen,
dass wir tatsächlich nur „Sternenstaub“
sind. Aus diesen vielfältigen Bezügen und
Bochumer Stärke. Entsprechende Forschungsprojekte fördert die Deutsche
Forschungsgemeinschaft zurzeit durch
die Forschergruppe (FOR1048) „Instabilities, Turbulence and Transport in Cosmic Magnetic Fields“. In einem vierten
Beitrag wird schließlich dargestellt, dass
wir Menschen auf der Erde durchaus kosmischen Einflüssen unterliegen.
Astronomie ist umfassendes Verständis von Naturwissenschaften, bei dem Kultur sowie Naturwissenschaft und Technik
nicht als unüberbrückbare Gegensätze aufgefasst werden.
grundlegenden Einsichten ergeben sich
sehr viele Querverbindungen zu anderen
Wissenschaftszweigen. Für einen Astronomen ist es auch eine angenehme Überraschung, diese vielfältigen Beziehungen
des eigenen Forschungsgegenstandes zu
anderen Bereichen gerade auch an der
eigenen Universität zu sehen. Die RuhrUniversität bietet hier als Voll-Universität ein besonders gutes Umfeld für interdisziplinäre Beziehungen. Dabei spielen
die Wechselbeziehung der Astronomie
mit Physik und Technik – dem Schwerpunkt dieser RUBIN-Ausgabe – eine besondere Rolle. Zunächst wird daher auch
die Entwicklung der Teleskoptechnik und
deren Einfluss auf die Geschichte astronomischer Entdeckungen dargestellt. Zwei
Beiträge widmen sich dem heutigen Stand
der astronomischen Messtechnik und geben Einblick in das Bochumer Engagement auf diesem Gebiet. Ein weiterer
Beitrag zeigt die Wechselbeziehung zwischen physikalischen Phänomenen auf
der Sonnenoberfläche, der Labor-Plasmaphysik und speziellen Computersimulationen auf. Die Behandlung astrophysikalischer Fragestellungen in Zusammenarbeit mit der Plasmaphysik ist eine
Viele weitere Wechselbeziehungen lassen sich anführen, die einen breiten Fächerkanon unserer Universität umfassen.
So erschließt sich uns erst über die mathematische Darstellung physikalischer
Gesetze die moderne Kosmologie. In
der Chemie werden Messmethoden entwickelt, die den Nachweis komplizierter
Moleküle im interstellaren Raum erlauben. Biologen und Mediziner untersuchen Lebewesen unter Weltraumbedingungen. Ingenieure der Ruhr-Universität
entwickeln für Weltraumexperimente notwendige Techniken. Und der Einfluss von
naturwissenschaftlicher Erkenntnis und
technischem Fortschritt auf die kulturelle
Entwicklung ist Forschungsgegenstand
verschiedener gesellschaftswissenschaftlicher Disziplinen.
Die Beziehungen zu den Geisteswissenschaften beschrieb Galilei bereits 1623
in seinem Werk „Il Saggiatore“ treffend:
„Die Philosophie steht in diesem großen
Buch geschrieben, dem Universum, das
unserem Blick ständig offen liegt“. Damit
lässt uns Galilei verstehen, dass in seiner
Zeit ein umfassenderes Verständnis des
Seins und der Natur angestrebt wurde.
Vielleicht ist das heute zu beobachtende
große Interesse einer breiten Öffentlichkeit an der Astronomie noch ein letzter
Rest dieser eigentlich „ur“-menschlichen
Neugier auf den Ursprung unseres Seins.
In diesem umfassenderen Verständnis
von Naturwissenschaften sind Kultur einerseits und Naturwissenschaften und
Technik andererseits keine unüberbrückbaren Gegensätze. Dazu könnten vielleicht die Universitäten des Ruhrgebiets
beitragen, wenn im nächsten Jahr unsere Region der Welt ihren Kulturreichtum
vorstellen wird.
Der im täglichen Leben häufig vorhandenen Distanz zwischen Kultur und Naturwissenschaft kann gerade Bochum einige sehr positive Beispiele entgegensetzen: Dasselbe städtische Dezernat sorgt für
das Zeiss-Planetarium – ein Sprachrohr der
Naturwissenschaften – wie für alle anderen
Kulturstätten. Dies ist einen Glückwunsch
an die Stadt wert, die sich für eine Modernisierung des Planetariums entschieden hat,
so dass diesem damit für die nächsten Jahre
eine weitere Spitzenstellung erhalten bleibt.
Und gleich noch eine lokale Anlage verbindet uns „Menschen der Industriekultur“ mit einem elementaren Himmelserlebnis: das Horizont-Observatorium auf der
Halde Hoheward. Dieser „astronomische
Erlebnispark“ überragt die industriell geprägte Umgebung weithin und bietet uns
so Gelegenheit, die Natur-Erfahrung „Himmel“ ein bisschen zu erhalten.
Prof. Dr. Ralf-Jürgen Dettmar
Astronomisches Institut der
Ruhr-Universität
Information zu Veranstaltungen und Ausstellungen
zum IYA und dem Horizont-Observatorium:
http://www.astronomy2009.de,
http://www.astronomie-rhein-ruhr.de
bzw. unter http://www.horizontastronomie.de
5
Astronomie
Rubin 2009
Neue Techniken für immer bessere Teleskope
Tiefer blicken ins Weltall
Ralf-Jürgen Dettmar
Eine Billion mal lichtschwächer
als jene Sterne, die wir gerade
noch mit bloßem Auge am Sternenhimmel erkennen, sind die Objekte, die den
Astronomen mit heutiger Technik zugänglich sind. Die Zahl 1.000.000.000.000 spiegelt zugleich den enormen Fortschritt in
6
Die Wunder des Weltalls zeichnen sich vor unseren Augen immer
deutlicher ab. Moderne Teleskope, die auf völlig neuen Technologien und Konzepten beruhen, liefern eindrucksvolle Bilder und
lassen uns tief ins Weltall blicken. Weltweit kooperiert die internationale Gemeinschaft der Astronomen beim Aufbau von Hightech-Teleskopen. Bochumer Astronomen und Astrophysiker zieht
es auf Berge in der Atacama Wüste Chiles oder an den Rand der
Sonora Wüste Arizonas. Doch auch in Europa entsteht ein revolutionär neues Teleskop, das im Bereich von Radiowellenlängen
das Weltall vermisst.
der Messtechnik wider, seit Galilei 1609
erstmals mit einem Teleskop den Himmel erforschte. Die Entwicklung der Teleskop- und Messtechnik erlaubte uns
über die vergangenen vierhundert Jahre
immer neue Blicke in den Kosmos. Das
Galileische Teleskop (Abb. 2) trug mit der
Beobachtung der Venusphasen und dem
Umlauf der Jupitermonde wesentlich dazu
bei, die Bewegungsverhältnisse im Sonnensystem zu verstehen. Es verhalf dem
Kopernikanischen Weltbild zum Durchbruch und hat die Mechanik mitbegründet. Schon mit einem guten Feldstecher –
Astronomie
Rubin 2009
Astronomische Messtechnik über vier Jahrhunderte
108
107
1700
1800
1900
Neue Großteleskope (>6m)
Huygens
1
Galilei
10
Augen
102
Mount Palomar 5 m
103
Fotografisches Verfahren
104
Spiegelteleskop Ø 183 cm
105
Spiegelteleskop
Ø 120 cm
Empfindlichkeit
106
2000
Jahre
Abb. 2: Mit diesen Teleskopen (links) führte Galileo Galilei erste systematische Himmelsbeobachtungen
durch. Er erkannte die Krater und Mare des Mondes, die Phasen der Venus, den Aufbau der Milchstraße
und entdeckte die Monde des Jupiters. Weitere Meilensteine waren die Nutzung von Spiegeln anstelle
von Linsen und das „Lichtsammeln“ mit Hilfe fotografischer Emulsionen (Grafik rechts). Damit verbessern ab Mitte des 19. Jh. neben zunehmender Lichtsammelfläche (rechts: untere Kurve) auch
Detektoren (obere Kurve) die Empfindlichkeit der Teleskope.
der übrigens sehr viel besser ist als Galileis Teleskop – erkennen wir heute durch
die Verteilung der Sterne verschiedener
Helligkeit an der Himmelssphäre unsere Milchstraße als System aus zigtausenden von Sternen. Die Erforschung dieses
Sternsystems war ein Jahrhundertprojekt
der astronomischen Forschung. Zu dessen
Abschluss vor etwa einhundert Jahren erhielt die Sonne mit der Erde ihren Platz
am Rand eines Systems von hundert Milliarden Sternen. Zwei technische Errungenschaften trugen wesentlich zur Entwicklung der dafür notwendigen astronomischen Messtechnik bei. Durch die Nut-
Abb. 1: 60 Millionen Lichtjahre entfernt ist diese vom Hubble-Weltraum-Teleskop für das Bochumer Forschungsprojekt vermessene Galaxie NGC 4700. Dennoch macht Hubble dank seines hohen Winkelauflösungsvermögens noch
einzelne leuchtkräftige Sterne sichtbar (bläuliche Strahlung). Zu erkennen ist auch, wie sehr
energiereiche Explosionen junger, massereicher
Sterne das interstellare Gas (rötliche Strahlung)
aus der Scheibe der Galaxie herausschleudern.
zung von Spiegeln anstelle von Linsen, die
sich unter ihrem Eigengewicht zu verformen begannen, konnte man Teleskope mit
größerer Lichtsammelfläche bauen und
damit das Licht viel schwächerer Sterne
analysieren. Die Speicherfähigkeit der fotografischen Emulsion erlaubte es zudem,
das Licht der Sterne zu „sammeln“. Durch
die damit möglichen langen Belichtungs-
deren Objekte wegen der riesigen Entfernungen sehr leuchtschwach sind. Doch
auch Teleskope mit noch größerer Sammelfläche (Spiegeldurchmesser) stießen
auf Grund der mechanischen Genauigkeitsanforderungen zunächst an eine technische Grenze.
Eine neue Ära in der astronomischen
Messtechnik begann dann mit dem Ein-
Ihren Platz am Rande der Milchstraße erhielt unser Sonnensystem vor hundert Jahren Dank astronomischer Messtechnik
zeiten konnten die Astronomen nicht nur
zu noch schwächeren Signalen vordringen,
sondern die zuvor nur mit dem Auge des
Beobachters durchgeführten Messungen
konnten nun objektiviert werden.
In den folgenden Jahrzehnten erweiterte sich der Beobachtungshorizont der
Astronomen nochmals wesentlich durch
die großen Spiegelteleskope wie das bekannte Palomar-5m-Teleskop in Kalifornien. Sie ermöglichten auch die photographische Untersuchung anderer Galaxien,
zug verschiedener elektronischer Techniken in den siebziger und achtziger Jahren des 20. Jahrhunderts. Genau so wie
die Elektronik und insbesondere die Digitaltechnik unser „tägliches Leben“ verändert, so grundlegend beeinflusst sie auch
die Möglichkeiten in der Messtechnik. In
der Astronomie basieren darauf zwei für
die weitere Entwicklung wesentliche technische Durchbrüche. Da dicke Glasspiegel
über fünf Meter Durchmesser kaum mehr
in der für astronomische Teleskope not7
Astronomie
Rubin 2009
ein zweites „Fenster zum All“ öffnen. Mit
der Weltraumfahrt konnten weitere Wellenlängenbereiche des elektromagnetischen Spektrums erschlossen werden,
denn außerhalb der Atmosphäre lässt
sich auch die Strahlung kosmischer Objekte im sog. Fern-Infrarot (bei Wellenlängen von 20-400 µm), im Ultravioletten (bei
Wellenlängen von 100-300 nm) und vom
Röntgenstrahlungsbereich bei Photonenenergien ab 0.1 Kiloelektronenvolt (keV) bis
in den Gamma-Strahlungsbereich bei Gigaelektronenvolt (GeV)-Energien erfassen
(s. Abb. in Info 2). Diese komplette Wellenlängenabdeckung der Spektren kosmischer Objekte ist eine wichtige Grund-
Abb. 3: Teleskop der Superlative: Das Large Binocular Telescope (LBT) – hier kurz vor
Sonnenuntergang zu Beginn der nächtlichen Beobachtungen (Bild oben) – ist das
derzeit größte optische Spiegelteleskop der Welt. Es kombiniert zwei 8,4 m Spiegel.
(Größenvergleich: Person rechts unten vom linken Spiegel im Kuppelspalt)
wendigen idealen Form gehalten werden
können, kommt seit einigen Jahren die
Technik der „aktiven Optik“ zum Einsatz:
Dabei werden dünne Spiegel mit Hilfe von
Piezo-Elementen (elektrisch in der Dicke
regelbare Kristallplatten) mechanisch unterstützt und durch einen Prozessrechner
in die ideale Form gebracht und gehalten.
Eine spezielle Bauweise der „aktiven“ Optik liegt auch dem an der Ruhr-Universität
entwickelten Hexapod-Teleskop zugrunde,
mit dem Bochumer Astronomen auf dem
Cerro Armazones in der Atacama-Wüste
junge Sterne und Quasare beobachten.
Die „aktive“ Optik ermöglicht es, leichtere und deutlich größere Teleskope mit
Spiegeldurchmessern von über sechs Metern zu bauen.
Der zweite „digitale“ Durchbruch betrifft die Detektion des Lichts. HalbleiterDetektoren haben die fotografische Emulsion bei der Teleskop-Technologie bereits
zwei Jahrzehnte früher als im „täglichen
Leben“ verdrängt. Der physikalische Vor8
teil ist einfach erklärt: Die Fotoemulsion hält nur etwa zwei Prozent des einfallenden Lichts durch eine chemische Reaktion fest, ein in der astronomischen
Forschung eingesetzter CCD-Detektor
(Charge-Coupled-Device) verwandelt bis
zu 90 Prozent der einfallenden Lichtquanten in Elektronen, die dann gezählt werden können. Diese hohe „Quanteneffizienz“ macht solche Halbleiterdetektoren
zu fast idealen Messinstrumenten. Des-
lage für das Verständnis der unterschiedlichen Strahlungsprozesse und damit ihrer sehr verschiedenen physikalischen
Eigenschaften (s. Info 2). Weltraumagenturen wie ESA und NASA betreiben heute eine Vielzahl von Satelliten, um die verschiedenen Wellenlängenbereiche der astronomischen Forschung zugänglich zu
machen. Wissenschaftler können an diesen Satelliten, zu denen auch das HubbleWeltraum-Teleskop gehört, Messzeiten be-
Radiomesstechnik öffnete zweites „Fenster zum All“- neben
elektromagnetischer Strahlung im optischen Spektralbereich
halb sind auch moderne Digitalkameras
im täglichen Gebrauch so lichtempfindlich. Die Teleskop- und Detektorentwicklung der vergangenen Jahrzehnte hat letztlich zu der großen Empfindlichkeitssteigerung geführt (s. Info 1).
Neben der elektromagnetischen Strahlung im optischen Spektralbereich ließ
sich mit der Radiomesstechnik zunächst
antragen. Der Erfolg dieses Teleskops beruht auf dem Vorteil der Satelliten-Astronomie, den störenden Einfluss der Luftunruhe zu überwinden. Damit erreicht die
Bildschärfe den theoretischen Wert, der
sich aus dem Teleskopdurchmesser bestimmt. Für unsere Forschungen zu Galaxien konnten wir im vergangenen Jahr
das Hubble-Weltraum-Teleskop nutzen. Es
Astronomie
Rubin 2009
lieferte uns zum Beispiel hoch aufgelöste
Bilder der Galaxie NGC 4700 (s. Abb.1).
Mit dem technischen Fortschritt haben sich auch die Messtechniken ständig
verbessert und immer neue Erkenntnisse
geliefert. Doch der Betrieb der dafür notwendigen großen Teleskope hat auch die
Kosten deutlich erhöht. So sind nicht nur
die Weltraum-Teleskope teuer, auch große
optische Teleskope ab vier Meter Spiegeldurchmesser sind mit Investitionen von
mehr als 50 Millionen Euro verbunden.
Die Gründung verschiedener nationaler
und internationaler Observatorien regelt
deren Finanzierung und Betrieb und ermöglicht den Astronomen weltweit den
Zugang über ein wissenschaftliches Gutachterverfahren. Die deutschen Astronomen führen ihre Beobachtungen z. B.
an der Europäischen Südsternwarte in
Chile oder am Deutsch-Spanischen Astronomie-Zentrum auf dem Calar Alto in
Südspanien durch. Diese „Service-Observatorien“ können durch den großen Benutzerkreis nicht immer alle Wünsche an
Abb. 4: Der weltweit größte Multi-Objekt-Infrarot-Spektrograph LUCIFER. Ein Team deutscher Astronomen aus verschiedenen Einrichtungen, darunter die Ruhr-Universität, entwickelte und baute
LUCUFER für das LBT. Es wurde 2008 auf dem Mt. Graham in Betrieb genommen: von links Kai Polsterer
(RUB), Werner Laun, Michael Lehmitz, Volker Knierim (RUB), Walter Seifert, Nancy Ageorges, Marcus
Jütte (RUB), Peter Buschkamp.
info 1
Lichtsammler: Von Galilei bis zum Weltraum-Teleskop
VLTI
0.001
Die Lichtsammelleistung steigt proportional mit der Sammelfläche:
Bei einem Teleskops von sechs Meter Durchmesser hat die Sammelflä-
HST
che gegenüber dem Auge mit einem Pupillendurchmesser von etwa
von hunderten von Stunden nachgewiesen, gegenüber dem Auge
ein Gewinn von weiteren Millionen (s. Abb 2).
Der Durchmesser eines Teleskops bestimmt sein Auflösungsvermögen. Als Maß gilt der Winkel, unter dem zwei Punkte noch getrennt
messbar sind. Astronomische Messungen erfolgen in Bogensekunden (1/3600 eines Grads). Eine Bogensekunde entspricht dem Winkel, unter dem man eine Ein-Euro-Münze in ca. fünf Kilometer Entfernung sieht. Dies wäre bereits mit einem 20-Zentimeter-Teleskopspiegel möglich.
Seit Galileis Beobachtungen hat sich das Auflösungsvermögen as-
0.14
0.16
0.20
0.25
0.3
0.5
tronomischer Teleskope durch technischen Fortschritt immer mehr
verbessert (s. Abb. 2). Zudem lassen sich heute atmosphärische Tur-
1.0
bulenzen über einen kleinen Hilfsspiegel schnell korrigieren. Dank
2
4
dieser „adaptiven Optik“ erreichen neben den Weltraum-Teleskopen
auch große Boden-Teleskope das ihrem Durchmesser entsprechende
theoretische Winkelauflösungsvermögen.
Supermassive Schwarze Löcher
findlicher. Die schwächsten Objekte werden bei Belichtungszeiten
0.12
Sternenentfernungen messen
zeit des Auges sind heutige Teleskope fast 100 Millionen Mal emp-
0.11
1600
Saturnringe
ein Signal (Quantenausbeute) ab. Bezogen auf die kurze Belichtungs-
Erste Mondkarten (Galilei)
keit hängt aber auch von der Umsetzung des einfallenden Lichts in
Winkelauflösungsvermögen (Bogensekunden)
sechs Millimetern eine Million Mal zugenommen. Die Empfindlich-
0.1
Bessere Optik
1700
1800
1900
Interferometrie
Beste Strandorte
Weltraum
Bessere Strandorte
2000
Jahre
9
Astronomie
Rubin 2009
Abb. 5: Ferngesteuert öffnet sich die Kuppel des MONET-Teleskops am McDonald-Observatorium in
Texas. Schüler und Studierende bedienen es über einen Internetbrowser von der Ruhr-Universität aus.
die technischen Möglichkeiten erfüllen.
Zudem wünschen sich die Astronomen
für ihre Projekte viel mehr Beobachtungszeit als ihnen zur Verfügung steht. Daher
sind die Teleskope häufig drei-, fünf- oder
auch zehnmal „überbucht“.
Verschiedene Konsortien von astronomischen Instituten bauen und betreiben
daher weitere Observatorien mit neuartigen Teleskopen und verbesserten Analyse-Instrumenten. Ein solches Teleskop
der Superlative ist das Large Binocular Telescope (LBT), das als Gemeinschaftsprojekt von amerikanischen, italienischen
und deutschen Institutionen auf dem Mt.
Graham in Süd-Arizona gebaut und betrieben wird. Die Konstruktion hält zwei „aktive“ Spiegel von 8,4 Meter Durchmesser
verschiedenen Instituten den Multi-Objekt
Spektrograph LUCIFER (LBT NIR Utility
with Camera and Integral-Field Unit for
Extragalactic Research), der bei InfrarotWellenlängen zwischen 0,3 und 2,5 µm arbeitet (Abb. 4). LUCIFER soll schon bald
das Licht von Galaxien in der Frühphase
ihres Bildungsprozesses analysieren. Die
Strahlung der Sterne in diesem Wellenlängenbereich des Spektrums ist durch die
noch rätselhafte kosmische Expansion verschoben, deren Ursachen wir damit vielleicht auch auf die Spur kommen.
Ein Teleskop dieser Dimension besitzt
auch Analyseinstrumente der Superlative.
Damit die Wärmestrahlung des Spektrographen die Messungen nicht stört, werden alle optischen Teile in dem mit rund
drei Kubikmetern bisher größten astronomischen Instrumenten-Behälter (Dewar)
auf eine Temperatur von 80 K gekühlt. Die
am Astronomischen Institut der RuhrUniversität entwickelte Steuersoftware
kontrolliert mit 22 Motoren, 150 Schaltern und vier Positions-Encodern sieben
opto-mechanische Einheiten mit jeweils
verschiedenen Kameras, Filtern und dis-
LUCIFER analysiert bei Infrarot-Wellenlängen das Licht
von Galaxien in ihrem Entstehungsprozess
in einer Montierung (Abb. 3), deren Strahlengänge interferometrisch kombiniert
werden sollen. Damit entstünde dann bei
einem Zwischenraum zwischen den beiden Spiegeln von 5,5 Metern das Auflösungsvermögen eines 22 Meter-Teleskops
(s. Info 1). Für dieses Teleskop bauten wir
in einem Team deutscher Astronomen aus
pergierenden Elementen. Dazu ist ein Programm mit 280 000 Zeilen notwendig.
Neben den neuen Teleskoptechniken
und Detektoren hat das digitale Zeitalter
den Astronomen noch eine weitere Neuerung gebracht. So basieren viele Arbeitsabläufe mittlerweile auf verschiedenen Internet-Diensten. Teleskope werden über
mm-Wellen
1960
Radio-Wellen
straße im Radiowellen-Bereich des elektromagnetischen Spektrums. Da
1980
Jahre
tronomische Objekt strahlt wie die Sterne im optischen oder die Milch-
Infrarot-Wellen
wurde dann zunächst der Radiohimmel entdeckt. Doch nicht jedes as-
UV-Wellen
2000
Wellenlängenbereich beobachtbar. Mit der Entwicklung der Radiotechnik
Röntgenstrahlen
Bis zur Mitte des letzten Jahrhunderts war der Himmel nur im optischen
Gammastrahlen
Ungefilterter Blick: Satellitenerkundung außerhalb der Erdatmosphäre
Optischer Bereich
info 2
die Erdatmosphäre zum Beispiel für Fern-Infrarot und kurzwellige Strahlung undurchlässig ist, hat erst die Satellitenastronomie diese Bereiche
des elektromagnetischen Spektrums für astronomische Beobachtungen
zugänglich gemacht.
10
1900
1 GeV
1 MeV
Energie
1 nm
1 mm
Wellenlänge
1m
Astronomie
Rubin 2009
Radioteleskop LOFAR
das Internet ferngesteuert und die spezielle Software macht den Arbeitsplatz im
Heimatinstitut zum „Kontrollraum“. Mit
Hilfe von Webcams lässt sich die Funktionalität kontinuierlich überprüfen. Astronomen der Ruhr-Universität nutzen verschiedene solcher ferngesteuerten Teleskope. Schüler und Studierende arbeiten
über das durch die Krupp-Stiftung geförderte MONET-Projekt (MOnitoring NEtwork of Telescopes) an Sternwarten in Texas und Südafrika (Abb. 5).
Das Internet macht aber noch einen anderen Schritt möglich. Für Anwendungen
in der Radioastronomie bei Frequenzen
zwischen 30 und 240 MHz wird zurzeit
ein völlig neuartiges Radioteleskop gebaut. Das Low Frequency Array (LOFAR)
wird jeweils hunderte von kleinen Dipolantennen auf ca. zwei Dutzend Fußballfeld-großen Arealen verteilen. Das digitalisierte Signal dieser einzelnen Stationen
wird über Glasfaserleitungen mit einem
Supercomputer an der Universität Groningen in den Niederlanden verbunden,
der das Radiobild des Himmels aus den
Messungen aller Stationen errechnet.
Die Kombination der einfallenden Strahlung erfolgt also nicht durch die Fokussierung in einem Spiegel, sondern durch
die Kombination aller gemessenen Signale
in einem Rechner (Abb. 6). Neben einer
Kernregion von Stationen im Marsch-Gebiet südlich von Groningen sollen dazu
einige Stationen internationaler Partner
verteilt über Europa betrieben werden. In
Deutschland gibt es bereits eine Station
des Max-Planck-Instituts für Radioastronomie beim 100 m Radioteleskop Effelsberg
in der Eifel (Abb. 7). Gemeinsam mit anderen deutschen Universitäten ist das Astronomische Institut der Ruhr-Universität
derzeit am Aufbau einer weiteren LOFARStation beim Forschungszentrum Jülich
beteiligt. Dieses europaweite elektronische
Teleskop wird zum ersten Mal Beobachtungen des Himmels bei niedrigen Frequenzen oder langen Radio-Wellenlängen
mit hoher Winkelauflösung von wenigen
Bogensekunden ermöglichen. Neue Entdeckungen sind dann nahezu sicher…
Und natürlich träumen die Astronomen schon von der nächsten TeleskopGeneration. Denn technisch erscheint es
möglich, sowohl das größte Radiotele-
Empfänger
Blue Gene
Supercomputer
in Groningen
Zeitliche
Verzögerung
Empfänger „Array“
Parabolspiegel
Klassisches Radioteleskop
Kombinationsschaltung
Künstliche
Verzögerung
Signal
Abb. 6: Das LOFAR Teleskop Array (rechts) verstärkt und digitalisiert das elektromagnetische Wellen-feld
in jedem Dipol. Die Signale der einzelnen europäischen Stationen erreichen über das Internet
einen Supercomputer in den Niederlanden, der die digitalisierten Signale rechnerisch kombiniert. Im
Gegensatz dazu fokussiert ein klassisches Radioteleskop (links) die Wellen durch die Spiegeloberfläche
im Brennpunkt, wo sie durch Detektoren nachgewiesen werden.
skop wie auch das größte optische Teleskop aller Zeiten zu
bauen, um dem Weltall weitere
Rätsel zu entreißen. Dabei geht
es um Lichtsammelflächen von
etwa einem Quadratkilometer,
entsprechende Teleskope sollen
ihren Standort in Wüstengebieten Südafrikas oder Westaustraliens haben. Unter den Projektnamen Square Kilometer Array
(SKA) und European Extremely Large Telescope (E-ELT) wird
die Machbarkeit dieser internationalen Großprojekte gerade studiert. Doch nutzen wird
diese Instrumente wohl erst die
nächste Generation von Astronomen an der Ruhr-Universität
Bochum.
Abb. 7: Einfache Dipolantennen – wie hier am Radioteleskop Effelsberg in der Eifel – sind Teil einer LOFAR Station. Die
empfangenen Radiosignale werden zunächst in einem Elektronik-Container (Bild rechts hinten) zusammen gefügt und
dann über ein Glasfaserkabel zu einem Hochleistungsrechner in Groningen geleitet. Dort werden die Daten mit denen
mehrerer Dutzend anderer über Europa verteilter Stationen
kombiniert, um so den Himmel im Frequenzbereich von 30240 MHz mit hoher Winkelauflösung zu vermessen.
Dank:
Die Projekte werden durch die Alfried
Krupp von Bohlen und Halbach-Stiftung, die Verbundforschung „Bodengebundene Astronomie“ des BMBF
(DESY-PT), die Deutsche Forschungsgemeinschaft (DFG) und die Verbundforschung „Extraterrestrik“ des Deutschen
Zentrums für Luft- und Raumfahrt (DLR)
gefördert. Weitere Information:
http://www.astro.rub.de
Prof. Dr. Ralf-Jürgen Dettmar,
Astronomisches Institut, Fakultät für Physik und Astronomie
11
Naturwissenschaften
Rubin 2009
Beobachtungszeit ist kostbar – Bochumer Astronomen nutzen
sie im eigenen Observatorium in der chilenischen Atacamawüste
Sternenromantik via Internet
Rolf Chini
Längst vorbei sind die Zeiten,
in denen der Astronom durch
sein Fernrohr blickte. Moderne Teleskope
haben keine Möglichkeit mehr, mithilfe
eines Okulars in den Himmel zu schauen.
Alles funktioniert elektronisch und Bilder
erscheinen nur noch auf Monitoren. Mehr
noch, der Astronom wurde zunehmend
12
Ob die schwersten Sterne wirklich Zwillinge oder Drillinge sind,
warum es auf einigen ganz jungen Sternen zu extrem starken Ausbrüchen kommt oder wie groß die Schwarzen Löcher im Zentrum
von Galaxien sind, erforschen Astronomen der Ruhr-Universität
via Internet zur Beobachtungsstation in der chilenischen Atacamawüste. Für die meisten ihrer Projekte braucht man viel Beobachtungszeit. Während die in den großen internationalen
Sternwarten Mangelware ist, können sich die Bochumer Forscher
Zeit lassen – im eigenen Observatorium.
von seinem Teleskop getrennt – spätestens
seit Aufkommen der „Drei-Meter-Teleskope“ in den 80-er Jahren. Den entscheidenden Knopf, der das Teleskop bewegt,
drücken seither eigens dafür geschulte
technische Operateure. Gleichzeitig wurde auch die Fotoplatte durch empfindliche
CCD-Chips (charge-coupled device) abge-
löst, die in komplizierten Gerätschaften
das Licht von Sternen und Galaxien registrieren und analysieren. Auch diese Apparate werden immer häufiger von Spezialisten an den jeweiligen Observatorien
bedient. Inzwischen wird an den größten
Observatorien bereits 50 Prozent der Teleskopzeit im sog. „Service-Mode“ genutzt.
Astrophysik
Rubin 2009
Abb. 1: Vor Ort im eigenen Observatorium der Ruhr-Universität in der Atacamawüste sind die Bochumer Astronomen eher selten – viele Beobachtungsprogramme laufen inzwischen automatisiert.
Abb. 2: Blickpunkt des Observatoriums ist ein pyramidenförmiger Dom – die
schützende Hülle für das Hexapod-Teleskop. Wenn sie sich öffnet, nimmt
das Teleskop seine Arbeit auf, sucht den Himmel ab nach Doppelsternen
oder extra-solaren Planeten und liefert extrem scharfe Bilder.
Der Astronom ist nicht einmal mehr vor
Ort, sondern teilt der Sternwarte mit, welche Daten er haben möchte. Ist sein Antrag bewilligt, führen Spezialisten am Observatorium die Beobachtungen durch
und schicken ihm die Daten über das Internet zu. Soviel zur Romantik des heutigen astronomischen Berufslebens.
Wen dies erstaunt, sei daran erinnert,
dass das berühmte Weltraumteleskop
Hubble schon seit vielen Jahren seine Beobachtungen macht, ohne dass jemand
vor Ort ist. Dies gilt natürlich auch für andere Weltraumteleskope, die bei Wellenlängen im Röntgen-, UV- und Infrarot-Bereich arbeiten, die nur außerhalb der Erdatmosphäre zugänglich sind. Die Entfernungen zwischen Astronom und Teleskop
werden immer größer, dabei hat das Hubble-Teleskop nicht einmal die weiteste Distanz vom Beobachter. Während das Weltraumteleskop die Erde in einem Abstand
von weniger als 600 km umkreist, sind die
Bochumer Astronomen meist 12.000 km
von ihren Teleskopen entfernt.
Das Astronomische Institut der RuhrUniversität betreibt seit einiger Zeit in
der chilenischen Atacamawüste ein Observatorium (s. Abb.1). Die Forscher füh-
ren dort Beobachtungen – sog. Variabilitätsmessungen – durch, für die ihnen an
den großen internationalen Observatorien nicht genügend Zeit zur Verfügung
steht. Viele, wenn nicht gar die meisten astronomischen Objekte sind variabel, d.h.
sie verändern ihre Helligkeit. Dies gilt für
junge Sterne ebenso wie für alte und betrifft selbst die hochenergetischen Phänomene im Universum wie Supernova-Explosionen und massereiche Schwarze Lö-
chung von Variabilitätsphänomenen völlig
ausschließt – denn diese kann sich über
Tage, Wochen und Monate erstrecken.
Andererseits sollen die Forscher und
Studierenden auch nicht monatelang in
der Atacamawüste sitzen, um Nacht für
Nacht die gleiche – und dann irgendwann
auch langweilig werdende – Beobachtung
immer wieder zu machen. Daher haben
wir Routinebeobachtungen bei unserem
kleinsten Teleskop VYSOS 6 (s. Info) in-
Beobachtungszeit ist Mangelware – doch erst über Tage,
Wochen und Monate verändert sich die Helligkeit der Sterne
cher in den Kernen aktiver Galaxien. Die
Variationen sind teilweise periodisch,
was meist auf die Rotation oder Pulsation
eines Objekts zurück zu führen ist. Oft findet man aber auch irreguläre Variationen,
die z.B. auf eruptiven Phänomenen beruhen. Will man die Physik solcher Phänomene studieren, braucht man Zeit. Doch
gerade Zeit ist an den großen Observatorien ein knappes Gut, da etwa fünfmal
mehr beantragt wird, als übers Jahr verfügbar ist. So wird die kostbare Beobachtungszeit oftmals nur noch stundenweise
vergeben, was die systematische Untersu-
zwischen automatisiert: Seit Heiligabend
2008 arbeitet es jede Nacht ein Programm
ab mit dem Ziel, in Sternentstehungsregionen unserer Milchstraße junge variable Sterne zu finden. Extragalaktisch werden jede Nacht Quasare registriert, um
aus ihrer Variabilität etwas über die Größe des Schwarzen Lochs abzuleiten. Dem
sich jahreszeitlich verändernden Himmel
passen die Astronomen von Bochum aus
auch das Beobachtungsprogramm an. Die
Daten – pro Nacht etwa 20 GB – werden
tagsüber durch das Internet an die RUB
transferiert und hier analysiert. Zwei wei13
Astrophysik
Rubin 2009
Abb. 3: Pulsar im Zentrum des Krebsnebels, dem Überrest eines explodierten Sterns. Die Strahlen der
Pulsare bzw. Neutronensterne bilden einen Doppelkegel, ähnlich wie bei einem Leuchtturm. Pulsare
haben eine extreme Dichte, sie gleichen einem riesigen Atomkern aus Neutronen und sind entsprechend schwer.
tere Teleskope, ein optisches, das sich
bereits am Observatorium befindet und
ein Infrarot-Teleskop (s. Info), das in den
nächsten Monaten dort installiert werden
wird, sollen im Laufe dieses Jahres ebenfalls den robotischen Betrieb aufnehmen.
Die dann anfallenden riesigen Datenmengen können aber nicht mehr über die zurzeit vorhandene Internetverbindung geschickt werden. Daher werden über das
EU-Projekt EVALSO das Observatorium
der Ruhr-Universität und auch die Europäische Südsternwarte auf dem Paranal
14
(ESO) in Kürze mit einer 1 GB-Glasfaserleitung über das chilenische Glasfasernetz an das Internet angeschlossen. Das
heißt auch, 70 km Glasfaserkabel durch
Bochum weiter zu leiten. Denn Variabilitätsprojekte erfordern besonders dann
eine zeitnahe Datenanalyse, wenn wichtige Phänomene wie etwa Supernova-Explosionen schnell registriert werden müssen, um Nachfolge-Beobachtungen zu initiieren. Schon heute liefert das Observatorium die Daten für eine Vielzahl von
Projekten, die im Rahmen von Bache-
Infrastruktur für riesige Datenmengen:
Siebzig Kilometer Glasfaserkabel durch die Atacamawüste
die Atacamawüste zu verlegen. Das Projekt schafft die notwendige Infrastruktur,
um die während der Nacht in Chile aufgenommenen Daten umgehend nach Garching (ESO) und an die Ruhr-Universität
lor-, Master- und Doktorarbeiten bearbeitet werden.
Projekt „Multiplizität massereicher
Sterne“: Es hat den Anschein, als ob die
schwersten Sterne, die etwa 20 bis 50 Mal
Astrophysik
Rubin 2009
mehr Masse als unsere Sonne haben, gerne als Zwillinge und Drillinge auftreten,
während Sterne wie unsere Sonne eher
Einzelsterne sind (s. Abb. 2). Woher dies
kommt, weiß man noch nicht. Sehr wahrscheinlich hat dies etwas mit dem Entstehungsprozess der massereichsten Sterne
zu tun, der ohnehin noch unverstanden
ist. Es werden alle bekannten massereichen Sterne photometrisch und spektroskopisch beobachtet, um aus den Lichtkurven und den Radialgeschwindigkeiten
etwas über die Statistik der Multiplizität
aussagen zu können.
Projekt „Eta Carinae Event 2009“: Eta
Carinae ist ein Stern in einem jungen
Sternhaufen, der als der massereichste
Stern in unserer Galaxie angesehen wird
(Abb. 4). Allerdings wird vermutet, dass
es sich um einen Doppelstern handelt,
bei dem ein Begleiter Eta Carinae in 5,2
Jahren umkreist. Im Januar 2009 befand
sich der Begleiter auf seiner Bahn zwischen Eta Carinae und der Erde. Dieses
Ereignis haben wir über Wochen photometrisch und spektroskopisch verfolgt.
Die Auswertungen sind in vollem Gange, und es deutet sich schon jetzt ein etwas anderer Verlauf als bei dem letzten
Durchgang des vermuteten Begleiters
an: Die photometrische und spektroskopische Aktivität des Systems ist auch Mo-
Abb.5: Nicht alles geht via Internet, hin und wieder machen sich die Bochumer Astronomen „aus dem
Staub“ – auf in den Staub der Atacamawüste und legen auch schon mal selbst Hand an, wie hier
beim VYSOS 16 –Teleskop.
nate nach dem „Event“ noch nicht vollständig abgeklungen. Weshalb Eta Carinae seinen Normalzustand bisher nicht
wieder erreicht hat, lässt sich momentan
nicht erklären.
Projekt „Z Canis Majoris“: Bei der Entstehung junger Sterne gibt es das sehr seltene Phänomen, dass der Stern seine Helligkeit in wenigen Tagen um den Faktor
100 erhöht, um dann im Verlauf von Jahren wieder auf seine ursprüngliche Helligkeit abzuklingen.
Seit es astronomische
Beobachtungen gibt,
wurden erst bei drei
jungen Sternen solche Ausbrüche registriert. Von einigen wenigen Objekten wie
z.B. dem Z Canis Majoris nimmt man an,
dass sie ein solches,
unbeobachtet gebliebenes Ereignis hinter
sich haben. Wir haben festgestellt, dass
Abb. 4: Eta Carinae
(s. Pfeil) ist der
massereichste Stern in
unserer Galaxie. Die Forscher vermuten, dass es
sich um einen Doppelstern handelt.
sich bei Z Canis Majoris zurzeit wieder
ein Ausbruch vollzieht – mit welcher Stärke und über welchen Zeitraum, muss abgewartet werden. Anhand der photometrischen und spektroskopischen Variabilität, die seit Anfang dieses Jahres beobachtet wird, erforschen zwei Studierende im Rahmen ihrer Bachelor-Arbeiten,
worauf die angestiegene Helligkeit des
Sterns beruht. Vermutlich handelt es sich
um ein Akkretionsphänomen, d.h. der
junge Stern sammelt weiter Gas aus seiner Umgebung auf, gibt aber auch große
Teile davon wieder ab. Unsere Spektren
zeigen, dass sich Gas mit mehreren Hundert Kilometern pro Sekunde in der Nähe
des Sterns bewegt.
Projekt „Variabilität junger Sterne“:
Dies ist ein Langzeitprojekt, bei dem systematisch die Sternentstehungsgebiete
unserer Galaxie jede Nacht aufs Neue fotografiert werden. Mit speziellen SoftwarePaketen suchen wir nach variablen Objekten, plotten ihre Lichtkurven und analysieren die Natur der Variabilität. So lassen sich periodische Variationen finden,
die auf riesige Sonnenflecke (zehn Prozent der Sternoberfläche) zurückzuführen sind, aber auch stetige Helligkeitsanstiege und Abfälle, die vermutlich mit
dem Gaseinfall bzw. mit dem Ausstoßen
von Gasströmen in diesen jungen Stadien
zusammen hängen: Der Stern wächst, indem er Gas aus seiner Umgebung aufsam15
Astrophysik
Rubin 2009
info 1
Bochumer Observatorium: Für jeden Zweck das passende Teleskop
Mit dem Infrarot-Teleskop IRIS wird das Observatorium der Ruhr-Uni-
sität von Hawaii erstmals systematisch die Variabilität junger Sterne.
versität in der chilenischen Atacamawüste bald über fünf Teleskope
Dazu überwachen mehrere Teleskope am Nord- und Südhimmel (Ha-
verfügen. Vier davon kommen direkt aus Bochum, ein weiteres für
waii und Chile) alle bekannten Sternentstehungsgebiete und suchen
die Suche nach extra-solaren Planeten aus dem Deutschen Zentrum
nach variablen jungen Objekten. Die interessantesten Phänomene
für Luft- und Raumfahrt (DLR) in Berlin-Adlershof:
werden dann möglichst zeitnah mit dem HPT spektroskopisch nachuntersucht. VYSOS 16 verfügt in etwa über ein Gesichtsfeld von der
Hexapod-Teleskop (HPT): Das HPT
Größe des Vollmondes.
ist ein völlig neuartiges Teleskop
auf sechs Beinen mit einem ak-
VYSOS 6 – Teleskop: VY-
tiv gesteuerten Hauptspiegel von
SOS 6 ist mit einem Ob-
1,5 Metern Durchmesser. Abhän-
jektivdurchmesser von
gig von der Stellung des Teleskops
6 Zoll der kleine Bruder
wird der Hauptspiegel mittels 36
von VYSOS 16. Das Lin-
Unterstützungspunkten rechner-
senfernrohr kann aber
gesteuert in der optimalen op-
mit seinem Gesichtsfeld
tischen Form gehalten. Dadurch
und seiner großen CCD-
liefert das Teleskops extrem
Kamera eine Fläche von
scharfe Bilder. Das HPT hat au-
25 Vollmonden in einer Aufnahme abdecken. Damit ist es möglich,
ßerdem einen hochauflösenden
die gesamte während einer Nacht sichtbare Milchstraße zu fotogra-
Spektrographen. Das Licht eines
fieren und praktisch alle variablen Phänomene – insbesondere jun-
Sterns gelangt über eine Glasfaserleitung in einen temperaturstabi-
ge Sterne – zu registrieren. VYSOS 6 arbeitet bereits seit Monaten ro-
lisierten Raum (16 ± 0.1 °C). Dort wird der gesamte optische Bereich
botisch, d.h. automatisch vorgefertigte Beobachtungssequenzen ab.
von 3300 bis 8600 Å spektrographisch in winzige, 0,1 Å kleine Teilbereiche zerlegt, um so die physikalischen Eigenschaften von Ster-
IRIS – Teleskop: IRIS ist ein spe-
nen und interstellarem Gas sowie ihre Bewegung zu untersuchen.
zielles Teleskop mit einem 80 cm
Anhand der geschwindigkeitsabhängigen Verschiebung der Spek-
Spiegel für Infrarot-Aufnahmen,
trallinien (Doppler-Effekt) lassen sich z.B. die Rotation von Sternen
d.h. im Wellenlängenbereich
oder auch ihre Schlingerbewegung messen, die durch einen stella-
von 1,2 bis 2,2 µm (InfraRed Ima-
ren Begleiter (Doppelstern) oder sogar durch einen Planeten her-
ging Survey). Die dafür notwen-
vorgerufen werden. Ebenso zeigen die von ionisiertem Gas ausge-
dige Spezialkamera wurde am IfA,
sandten Spektrallinien, ob das Gas vom Stern aufgenommen oder
Universität Hawaii, gebaut. Ge-
ausgeschleudert wird.
meinsam mit den dortigen Kollegen sollen damit extrem junge
VYSOS 16 – Teleskop: Das
Sterne untersucht werden. Da sie
Akronym VYSOS 16 spiegelt
noch tief in Staubwolken einge-
zwei Dinge wider: VYSOS
bettet sind, können sie nicht bei
leitet sich aus Variable
optischen Wellenlängen (0,3 bis
Young Stellar Object Sur-
0,9 µm) beobachtet werden. Außerdem lassen sich im Infraroten
vey ab, 16 bedeutet, dass
besonders gut zirkumstellare Scheiben – Entstehungsorte von Pla-
der Hauptspiegel des Te-
neten – nachweisen. Teleskop und Kamera werden in den nächsten
leskops einen Durchmes-
Wochen von Deutschland und Hawaii auf den Weg nach Chile ge-
ser von 16 Zoll, also etwa
bracht, um unsere Milchstraße mit bisher unerreichter Empfindlich-
40 cm hat. Im VYSOS-Projekt untersuchen die Bochumer Forscher ge-
keit nach solchen Systemen aus jungen Sternen mit zirkumstellaren
meinsam mit Kollegen vom Institute for Astronomy (IfA) der Univer-
Scheiben abzusuchen.
melt. Noch weitgehend unverstanden ist,
dass ein Großteil des angesaugten Gases
nicht die Oberfläche des Sterns erreicht,
sondern vorher über Magnetfelder in bipolaren Jets wieder ausgestoßen wird.
16
Projekt „Pulsare“: Pulsare sind rotierende Neutronensterne, deren Rotationsachse nicht mit ihrer Magnetfeldachse übereinstimmt. Durch Elektronen, die sich
mit nahezu Lichtgeschwindigkeit bewe-
gen und durch das starke Magnetfeld gebündelt werden, entsteht ein Doppelkegel von Strahlung, ähnlich wie bei einem
Leuchtturm (Abb. 3). Die Rotationsperiode
dieses Strahlungskegels entspricht der des
Astrophysik
Rubin 2009
Neutronensterns und kann bis zu wenige
Millisekunden betragen. In besonderen
Fällen, in denen diese Strahlung die Erde
trifft, entsteht beim Beobachter der Eindruck von gepulster Strahlung. Neutronensterne sind exotische Endstadien von Sternen, die zwar nur wenige Kilometer groß
sind. Dafür hat ein Stück Neutronenmaterie von der Größe eines Würfelzuckers
aber ein Gewicht von 4 x 1011 Kilogramm
und wiegt damit etwa so viel, wie alle Menschen dieser Erde zusammen. Es liegt auf
der Hand, dass die Wissenschaft an den
physikalischen Eigenschaften der Neutronensterne interessiert ist. Ihre Masse lässt
sich immer dann bestimmen, wenn ein
zweiter, noch „lebender“ Stern – in dessen
Inneren noch Kernfusion stattfindet – um
den Pulsar kreist. Am Observatorium der
Ruhr-Universität werden solche Systeme
spektroskopisch untersucht, um aus der
Umlaufdauer des zweiten Sterns und dessen Geschwindigkeit die Masse des Pulsars zu ermitteln.
Projekt „Quasare“: Quasare sind massereiche Schwarze Löcher in den Kernen
von Galaxien. Sie ziehen aufgrund ihrer
starken Gravitation Materie aus ihrer Umgebung an. Bevor die Materie allerdings
auf nimmer Wiedersehen im Schwarzen
Loch verschwindet, „spiralt“ sie auf einer
sog. Akkretionsscheibe um das Schwarze Loch herum. Fällt nun Gas auf diese
Akkretionsscheibe, so wird es abgebremst
Abb.6: Das Öko-Observatorium: Die Ruhr-Universität hat das weltweit einzige ausschließlich mit regenerativen Energien betriebe Observatorium. Für seinen Betrieb sorgen Photovoltaik-Module, spezielle
Solar-Batterien und besonders auffallend die beiden Windräder, die sich Tag und Nacht drehen. Selbst
die Abwärme des Rechnerraumes bleibt nicht ungenutzt.
etwa bei der Sternentstehung oder bei der
Untersuchung Schwarzer Löcher, ist in
hohem Maße unangemessen und muss
in Zukunft durch die Dimension der Zeit
erweitert werden.
Zurück zum Observatorium – so ganz
ohne Menschen vor Ort geht es dennoch
nicht. Sehr zur Freude der Studierenden,
Bochumer Öko-Observatorium: Als einziges weltweit
ausschließlich mit regenerativen Energien betrieben
und erzeugt aufgrund der Reibung Strahlung. Die Variation dieser Strahlung ist
ein Maß für die Heftigkeit des Akkretionsvorgangs. Aus der Zeitskala der Variation
lässt sich auch auf die Größe des emittierenden Gebietes schließen und damit auf
die Größe des Schwarzen Lochs: Je schneller die Variabilität, desto kleiner das emittierende Gebiet.
Die meisten dieser Projekte benötigen
noch einige Wochen oder Monate an Beobachtungszeit, bevor definitive neue Erkenntnisse vorliegen. Doch schon jetzt
zeigt sich: Das für den Menschen so starr
und unveränderlich erscheinende Universum ist voller variabler Objekte. Der bisherige statische Blick auf viele Phänomene,
die gerne einmal die anstrengende Reise
ans andere Ende der Welt auf sich nehmen. Da sind z.B. noch Pump- und Kühlsysteme zu versorgen, die Kamera des Infrarot-Teleskops braucht täglich eine Ladung Stickstoff und manchmal muss ein
Teleskop bzw. dessen Spektrograph schon
mal vor Ort von Hand gesteuert werden
(Abb. 5). So kommt es, dass irgendjemand vom Astronomischen Institut immer im Observatorium ist – solange die
Reisegelder ausreichen und die Akademie
der Wissenschaften und der Künste von
NRW ihre großzügige Unterstützung für
die Projekte aufrecht erhält.
Die Ruhr-Universität Bochum bleibt
auch in Chile ihren umweltschonenden
Maximen als „Energiespar-Uni“ treu:
Das Observatorium wird weltweit als
erstes und einziges ausschließlich mit
regenerativen Energien betrieben. Photovoltaik-Module sorgen 365 Tage im
Jahr für elektrische Energie, die in speziellen Solar-Batterien gespeichert wird.
Zusätzliche Energie liefern zwei Windräder, die sich bei fast nie abflauendem
Wind Tag und Nacht drehen (Abb. 6).
Brauch- und Heizungswasser werden
durch zwei Solartherme erhitzt und die
Abwärme des Rechnerraumes heizt mittels Wärmetauscher und Lüftungsanlage
das Wohn- und Kontrollgebäude. Wollte
man die gleiche Energiemenge mithilfe
unseres Dieselgenerators (für Notfälle)
erzeugen, müsste man täglich etwa 200
Liter Treibstoff verbrennen. So können
70.000 Euro pro Jahr gespart werden –
ein gutes Gefühl, auch weil der Nachbar
– die zugegeben sehr viel größere Europäische Südsternwarte (ESO) – bei konventioneller Energieversorgung täglich
20.000 Liter Diesel verbraucht.
Prof. Dr. Rolf Chini, Astrophysik, Astronomisches Institut, Fakultät für Physik und
Astronomie
17
Plasmaphysik
Rubin 2009
Plasmaphysiker holen den Weltraum ins Labor
Die Sonne im Container
Henning Soltwisch
Jürgen Dreher
Prometheus – neben seinem
Bruder Epimetheus eine der
beiden Symbolfiguren unserer Universität
– brachte den Menschen einst das Feuer,
indem er einen Pflanzenstängel am Sonnenwagen des Helios entzündete und damit einen Holzstoß in Flammen setzte.
Ab diesem Zeitpunkt konnten die Menschen kochen, sich wärmen und hatten
Licht. Heute wissen wir es natürlich besser, aber dennoch bleibt die Sonne für das
Leben auf der Erde von fundamentaler Bedeutung. Immerhin liefert sie fast die gesamte Energie zum Erdklima, ist mit verantwortlich für die Gezeiten und verursacht eindrucksvolle Phänomene wie das
Polarlicht, Störungen des Funkverkehrs
oder sogar gelegentliche Ausfälle des gesamten Stromnetzes im Nordosten Kanadas. Aus astronomischer Sicht ist die Sonne ein Stern wie Millionen andere, der zu
den „gelben Zwergen“ gehört und sich
etwa in der Mitte seiner Entwicklung befindet. Dieser heiße, brodelnde Gasball besitzt keine feste Oberfläche, seine Atome
haben sich größtenteils in ihre Bestand18
Von der Sonne - die wir gemessen in astronomischen Größenordnungen direkt vor unserer Haustür haben - können wir viel über
das Weltall lernen. Plasmaphysiker holen sie daher ins Labor: In
einem Vakuumcontainer stellen sie Strukturen wie auf der Sonnenoberfläche her und lassen kleine Eruptionen entstehen. Im
Vergleich mit Computersimulationen können sie so Rückschlüsse
auf die wirklichen Vorgänge auf der Sonne ziehen.
teile zerlegt (Ionisation) und bilden somit
ein Plasma. Lediglich in der untersten
Schicht der Sonnenatmosphäre, der einige
100 km dicken Photosphäre, ist der Anteil
neutraler Teilchen dank „niedriger“ Tem-
versum besser verstehen als heute. Naturgemäß können wir trotz der recht kurzen
Entfernung von circa 150 Millionen Kilometern, für die das Licht nur etwas mehr
als acht Minuten benötigt, keine Messin-
„Gelber Zwerg“ sorgt für Energie, Polarlicht, Störungen
des Funkverkehrs und Stromausfälle
peraturen von knapp 5800 K noch recht
hoch, so dass bei fortwährender Ionisation und Rekombination sichtbares Licht erzeugt wird und wir die Sonne insgesamt
hell leuchten sehen. Außerhalb der Photosphäre steigt die Plasmatemperatur rasch
an, um in der für uns unsichtbaren Korona schließlich Maximalwerte von einigen Millionen Kelvin zu erreichen. Gleichzeitig fällt die Teilchendichte um mehrere
Größenordnungen ab.
Was die Sonne bei all ihrer Normalität
auch für Astrophysiker zu etwas Besonderem macht, ist ihre Nähe zur Erde: Verstehen wir die physikalischen Vorgänge in
der und um die Sonne vor unserer Haustür, dann werden wir auch vieles im Uni-
strumente auf der Sonne absetzen. Unsere Neugier können wir also nur durch
sorgfältige Beobachtung und Vermessung dessen befriedigen, was die Sonne
an Teilchen und Licht in den Weltraum
abstrahlt – und genau dies tun die Astronomen und Astrophysiker seit Jahrhunderten mit ständig wachsender Raffinesse und Präzision. Neben speziellen, auf
der Erde installierten Teleskopen befindet
sich heute eine ganze Flotte von Satelliten
im Weltraum, deren Namen ihre Mission
mehr oder weniger nüchtern widerspiegeln – wie z.B. HINODE (japanisch für
Sonnenaufgang), der die Erde seit 2006
in etwa 680 km Höhe umkreist, oder die
Beobachtungsplattform SOHO (Akro-
Naturwissenschaften
Rubin 2009
nym für Solar and Heliospheric Observatory), die bereits 1995 gestartet wurde
und seit dem etwa 1,5 Millionen km von
uns entfernt am so genannten LagrangePunkt quasi geparkt ist. Dieser Punkt ist
dadurch ausgezeichnet, dass sich die Anziehungskräfte von Erde und Sonne gerade aufheben, so dass SOHO ohne wesentlichen Energieaufwand zusammen
mit der Erde um die Sonne kreisen kann
und permanent ungestörte Sicht auf unseren Hausstern hat.
Ein wesentlicher Teil heutiger Untersuchungen gilt magnetischen Strukturen auf
der Sonne. Seit langem ist bekannt, dass
dunkle Sonnenflecken nichts anderes sind
als Bereiche starker Magnetfeldkonzentrationen, in denen Bündel magnetischer
Feldlinien – man spricht hier von magnetischen Flussröhren – die Photosphäre in
etwa vertikal durchdringen und sich oberhalb dieser stark auffächern. Dunkel erscheinen die Flecken deshalb, weil die
Wärmeströmung (Konvektionsbewegung)
des Plasmas durch das lokale Magnetfeld
gestört und mit ihr der Wärmetransport
Abb. 1: Ausschnitt der Sonnenoberfläche, fotografiert vom Satelliten TRACE, zeigt im Licht ultravioletter
Strahlung riesige bogenförmige Strukturen (die Erdkugel ist etwa maßstabsgerecht hinein montiert).
Die Analyse der Strahlung deutet darauf hin, dass es sich um Magnetfeld-Röhren handelt, die mit
heißer leuchtender Materie gefüllt sind. Das Bild ist ein Falschfarbenbild, weil das registrierte Licht
im extremen Ultraviolett-Bereich liegt (gleiches gilt für Abb. 2 und 6).
Abb. 2: Riesige Sonneneruption, die im Begriff ist, sich von der Sonne abzulösen und ungeheure Mengen heißer Materie mitzureißen. Solche Eruptionen beeinflussen das gesamte Planetensystem und
führen auf der Erde unter anderem zu starkem Nordlicht und Störungen des Funkverkehrs. Das Foto
wurde vom Satelliten SOHO aufgenommen.
aus dem Sonneninneren an
die Umgebung herabgesetzt
wird. Das Plasma ist folglich
etwas kühler als die Umgebung und strahlt aufgrund
verminderter Ionisation weniger Licht ab. Dass die Sonnenflecken nicht gleichmäßig auf der Photosphäre
verteilt sind, sondern sich
in aktiven Regionen häufen und diese wiederum
ein globales Bewegungsmuster aufweisen, spiegelt
die Struktur und Dynamik
des Magnetfeldes im Inneren der Sonne wider, denn
19
Plasmaphysik
Rubin 2009
Abb. 4: Das Flare-Lab-Experiment der AG Laser- und Plasmaphysik im Labor. Im
Vakuumcontainer wird das Weltall simuliert, die Stirnseite dient als Sonnenoberfläche. Eine Hochgeschwindigkeitskamera kann die „Sonneneruptionen“, die nur
wenige Millionstel Sekunden dauert, präzise aufzeichnen.
die Feldlinien müssen sich ja dorthin fortsetzen. Aber auch nach oben, zur Korona hin, setzten sich die Flussröhren fort,
wo sie im einfachsten Fall als schlichte bogenförmige Struktur unterschiedliche magnetische Polaritäten der Photosphäre verbinden (Abb. 1) oder in Sonneneruptionen
riesiger Ausmaße münden und bis hoch
hinaus in die Korona reichen (Abb. 2). Auf
wesentlich kleineren Skalen existiert der
so genannte „magnetische Teppich“, ein
Gewirr kleiner Flussröhren direkt oberhalb der Photosphäre (Abb. 3).
Nun sind Magnetfeldlinien per se nicht
sichtbar. Die Tatsache, dass wir ihre Struktur aus optischen Aufnahmen deuten können, zeigt bereits, dass sie eng an die Plasmaeigenschaften gekoppelt sind. So geht
man nach jahrzehntelangen Datenanalysen und Modellrechnungen heute davon
aus, dass sich die im Vergleich zur Photosphäre sehr hohe Temperatur der Korona dadurch erklärt, dass Energie der Plasmaströmung in der Photosphäre vom Magnetfeld in die Korona transportiert und
20
dort in Wärmeenergie umgewandelt wird. feld steckt, erfahren wir ganz praktisch,
Dies kann ganz unspektakulär in Form be- wenn wir einen Magneten von einem Eistimmter Plasmawellen erfolgen, die sich senblech abheben wollen). Dem gegenüentlang der Magnetfeldlinien fortpflanzen, ber stehen „nicht-ideale“ Instabilitäten, bei
alternativ aber auch durch plötzliche Um- denen sich die Topologie des Feldes lokal
strukturierungen komplexer Flussröhren, ändern kann, Feldlinien gewissermaßen
wie sie bei großen Sonneneruptionen zu aufreißen und sich neu verbinden können
beobachten ist. Im zweiten Szenario un- („Rekonnexion“) und dabei magnetische
terscheidet man wiederum grob zwei Klas- Kräfte freisetzen. Die in derartigen Instasen von Instabilitäten: In
einer „idealen“ Dynamik
ändern sich Plasma und
Magnetfeld gemeinsam,
das Gesamtsystem sucht
sich unter dem Einfluss
langsamer Photosphärenbewegung plötzlich einen neuen Zustand niedrigerer Energie, ähnlich einem Stab,
der nach langsamer,
fortwährender Biegung
oder Verdrehung plötzlich einknickt (dass Energie in einem Magnet- Abb. 3: Rekonstruktion von Magnetfeldlinien auf der Sonne.
Plasmaphysik
Rubin 2009
bilitäten frei werdende Energie treibt, neben der Plasmaheizung, auf großen Skalen Sonneneruptionen an, bei denen ungeheure Mengen an Teilchen und Strahlung
ausgestoßen werden, welche auch unsere Erde treffen und hier für das Polarlicht,
den gestörten Funkverkehr oder die Stromausfälle in Kanada sorgen können.
Welche der Theorien genau für welche
Phänomene verantwortlich sind, ist bis
heute nicht befriedigend geklärt, ebenso
lichkeit, Teilaspekte des dynamischen Verhaltens unter kontrollierten Bedingungen
und mit hoch auflösender Diagnostik
systematisch zu untersuchen.
Die ersten derartigen Experimente wurden vor etwa zehn Jahren von Paul Bellan
und Mitarbeitern am California Institute
of Technology entworfen und erprobt. Für
unser FlareLab-Experiment (solare flare =
engl. Sonneruption) in Bochum haben wir
ihr Konzept übernommen und eine ähn-
Spezielle Düse lässt kurz vor der Entladung ganz
wenig Gas ins künstliche Weltall strömen
wenig die exakten Kriterien für den Einsatz von Instabilitäten und deren genauer
Ablauf. Dies liegt mit daran, dass die Beobachtungslage noch immer schwach ist
– allein die dreidimensionale Struktur
und Stärke komplexer Magnetfelder aus
Messungen qualitativ zu rekonstruieren,
ist eine Herausforderung für sich – aber
auch an der Schwierigkeit, derartige Prozesse theoretisch zu berechnen. Zwar sind
Computersimulationen heute ein unersetzliches Hilfsmittel, aber auch sie beruhen auf bestimmten Modellannahmen zur
Beschreibung des Plasmas, die natürlich
kritisch überprüft werden müssen.
Hier nun kommt die Labor-Astrophysik ins Spiel. Der Grundgedanke ist dabei
derselbe wie zum Beispiel im Großschiffbau: Bevor ein Riesentanker auf Kiel gelegt
wird, überprüft man sein vorausberechnetes Verhalten in rauer See mit Hilfe eines
stark verkleinerten Modells in einem Wellentank. Wichtig ist dabei, nicht nur die
Abmessungen maßstabsgetreu zu übertragen, sondern auch die übrigen Parameter
des Modellversuchs (hier z.B. Wellenhöhe und Strömungsgeschwindigkeit) geeignet zu wählen. Zu diesem Zweck gibt es
Kennzahlen, die bestimmte Verhältnisse
relevanter Größen zueinander erfassen,
und die in Modell und Original so gut wie
möglich übereinstimmen sollten. Bezogen auf die Labor-Simulation der bogenförmigen Strukturen heißt dies, dass keineswegs dieselben Teilchendichten, Temperaturen oder Magnetfeldstärken wie auf
der Sonne erreicht werden müssen. Sie
müssen lediglich in der richtigen Relation zueinander stehen. Eine entsprechende
Versuchsanordnung bietet also die Mög-
liche Apparatur gebaut (s. Abb. 4 und 5).
Ihr Kernstück bildet eine zylindrische Vakuumkammer mit einem Volumen von
ca. ¼ Kubikmeter – unser Weltall. An einer Stirnfläche befinden sich zwei isolierte Kupferbleche, die einen Ausschnitt
der Sonnenoberfläche repräsentieren,
und hinter diesen Blechen ist ein Huf-
eisen-Magnet angebracht, dessen Feldlinien einen magnetischen Bogen darstellen wie die zwischen zwei Sonnenflecken.
Die Schenkel des Magneten sind durchbohrt, so dass eine kleine Menge Wasserstoff-Gas in den leeren Raum über den
Kupferblechen eingeblasen werden kann.
Um möglichst ähnliche Verhältnisse wie
auf der Sonne zu erzeugen, darf sich das
Gas nicht im gesamten Container verteilen, sondern soll sich in der Nähe der Magnetpole befinden, während der Rest der
Behälters als „Weltall“ leer sein soll. Daher haben wir eine spezielle Düse entwickelt, die sich unmittelbar vor der Entladung für einen sehr kurzen Moment öffnet, so dass nur wenig Gas einströmt, das
keine Zeit hat, sich vor der Entladung
weiträumig zu verteilen. Danach werden
zwei auf ±3000 Volt aufgeladene Kondensator-Batterien kurzgeschlossen, und
es bildet sich ein leitfähiger Stromkanal
(ähnlich einem Blitz bei einem Gewitter)
Schematischer Aufbau des FlareLab-Experiments
Vakuum-Kammer
Plasma-Bogen
Kupfer-Blech
Kupfer-Blech
Hufeisen-Magnet
schnell einströmendes
Wasserstoff-Gas
-3 kV
+3 kV
Kondensator-Batterie
H2
Abb. 5: Ein Hufeisen-Magnet liefert ein bogenförmiges Führungsfeld oberhalb von zwei Kupferblechen in einer Vakuumkammer. Einströmendes Wasserstoff-Gas wird durch die Entladung einer Kondensatorbatterie in einen leitfähigen Zustand versetzt, so dass sich ein heißer, leuchtender Gasschlauch ausbildet.
21
Plasmaphysik
Rubin 2009
Abb. 6: Die Fotos, die mit Belichtungszeiten von je 50 Nanosekunden aufgenommen wurden, zeigen
die zeitliche Entwicklung der Bogenstruktur in Abständen von jeweils einer Mikrosekunde. Man erkennt deutlich die Öffnungen in den Kupferblechen, durch die das Wasserstoff-Gas eingeblasen wird
und hinter denen sich die Pole des Hufeisenmagneten befinden.
entlang der Feldlinien des Hufeisen-Magneten. Der schnell ansteigende Entladungsstrom aus der Kondensator-Batterie heizt die Teilchen im Stromkanal auf
bis zu 40.000°C auf und produziert ein zusätzliches Magnetfeld, das die ursprünglichen Feldlinien zunehmend verdreht –
ganz ähnlich wie es auf der Sonne durch
die Bewegung der Fußpunkte geschieht.
Mit zunehmender Stromstärke dehnt sich
der heiße Gasschlauch räumlich aus, bis
er instabil wird und eine äußere Verwindung der gesamten Struktur einsetzt.
Der Ablauf im Experiment entspricht
damit zwar in wesentlichen Punkten dem
Geschehen auf der Sonne, aber die extreme Verkleinerung in den Labormaßstab – unsere Bögen werden nur acht bis
zehn Zentimeter hoch – führt zwangsläufig zu einer Verkürzung der Zeitskala in
den Mikrosekunden-Bereich (eine Mikrosekunde ist der millionste Teil einer Sekunde). Auf der Sonne halten sich solche
Bögen Tage bis Wochen lang, ihre Auflösung kann allerdings auch in zehn Minuten passieren. Um unsere leuchtenden
Bögen in den verschiedenen Phasen ihrer
Entwicklung scharf fotografieren zu können, bedarf es wegen der Kürze der Zeit
einer speziellen Kamera mit einer Bildwiederholrate von weniger als einer Mi22
krosekunde und einer Belichtungszeit von
einigen Nanosekunden für jedes Einzelbild (eine Nanosekunde ist der tausendste
Teil einer Mikrosekunde). Dank der Deutschen Forschungsgemeinschaft verfügen
wir über eine solche Kamera. Abb. 6 zeigt
eine Fotosequenz, die das Aufsteigen des
leuchtenden Bogens und die Entstehung
relativ komplexer räumlicher Strukturen
deutlich wiedergibt. Daraus lassen sich allerdings noch keine quantitativen Aussagen zum Verwindungsgrad und zur Stärke der magnetischen Felder ableiten, so
dass wir zusätzliche Feldmessungen mit
Hilfe spezieller Sonden durchführen, die
verschiebbar im Vakuumgefäß montiert
sind. Wir platzieren sie so, dass sich der
Stromkanal im Verlauf seiner Entstehung
recht genau bestimmen. Teilchendichten
und Temperaturen ermitteln wir mit ähnlichen optischen Verfahren, wie sie bei der
Sonnenbeobachtung eingesetzt werden,
und für die nähere Zukunft planen wir die
Entwicklung von Messeinrichtungen, die
mit Hilfe von Laserstrahlen nahezu punktgenaue Informationen aus dem Inneren
des Stromkanals liefern sollen.
Trotz aller angestrebten Präzision im
Experiment werden wir die Beobachtungen aber nur dann richtig interpretieren und zur Erklärung solarer Phänomene heranziehen können, wenn wir die
zu Grunde liegenden physikalischen Prozesse grundlegend verstehen und theoretisch beschreiben können. Ein zentrales
Anliegen unseres Bochumer FlareLab-Pro-
Mit Sonden kann man Durchmesser, Querschnittprofil
und Expansionsgeschwindigkeit des Stromkanals messen
und Auflösung über die Messelektroden
hinweg bewegt. Da im Inneren unseres
Vakuumcontainers kurzzeitig sehr starke
Ströme fließen, müssen wir die Messinstrumente, die mit den Sonden verbunden
sind, aufwändig schützen. Mit den Sonden können wir beispielsweise den Durchmesser, das Querschnittprofil und die Expansionsgeschwindigkeit des Stromkanals
jektes ist deshalb ein enges Wechselspiel
zwischen Laborversuch und theoretischnumerischer Analyse. Zu diesem Zweck
wird das Plasma – wie in der Sonnenphysik üblich – als leitfähiges Gas unter dem
Einfluss elektromagnetischer Felder betrachtet. Aus dem physikalischen Modell
ergibt sich ein System komplizierter partieller Differentialgleichungen, die unter
Plasmaphysik
Rubin 2009
Vorgabe bestimmter Anfangs- und Randbedingungen auf Hochleistungsrechnern
gelöst werden müssen. Als Ergebnis erhält
man die zeitliche Entwicklung der ModellKonfiguration, die z. B. als Computer-Animation dargestellt und mit dem Ablauf im
Experiment verglichen werden kann. Unstimmigkeiten können durch schrittweise
Veränderung einzelner Simulationsparameter abgeklärt und die Rolle bestimmter
Einflussgrößen, wie z.B. Magnetfeldstärke und -geometrie oder Plasmadichte, auf
diese Weise systematisch untersucht werden. Das hierbei verwendete Rechenprogramm wurde in Bochum entwickelt und
auf unser Experiment zugeschnitten.
Einen Vergleich zwischen Simulation
und Experiment zeigt beispielhaft Abb.
7, in der eine Fotografie des Plasmabogens und die dazu gehörige aus der Simulation entnommene Magnetfeldstruktur miteinander kombiniert sind. Ziel dieser Untersuchungen war es, die charakteristische Einbuchtung der aufsteigenden
und sich aufweitenden Flussröhre im zentralen oberen Bereich zu verstehen, wie sie
in unserem Experiment beobachtet wird
(Abb. 6). Durch systematisches Variieren
der Plasmadichteverteilung in der numerischen Simulation konnten wir zeigen,
dass diese Einbuchtung nur dann auftritt,
wenn die Dichte im oberen Bereich des
Bogens während der Expansion deutlich
ansteigt. Für das Laborexperiment liefert
dies tatsächlich eine plausible Erklärung,
da mit den hohen Stromdichten im Bogen ständig Wasserstoffgas ionisiert wird,
und wir wollen dies in Kürze durch spektroskopische Dichtebestimmungen über-
prüfen. Auf die Sonne allerdings trifft dies
nicht in gleicher Weise zu, dort sind die
Plasmadichten durchweg so niedrig, dass
Trägheitseffekte eine untergeordnete Rolle
spielen. Damit kann wiederum verstanden
werden, dass sich bei großen Sonnenausbrüchen die aufsteigende Flussröhre im
oberen Bereich eher nach oben hin verformt als nach unten.
Um nun das Laborexperiment noch
besser auf die Sonnenanwendung anzupassen, und um vor allem mehr Flexibilität bei der Untersuchung von Detailfragen
zu bekommen, planen wir derzeit, in unserem Versuchsaufbau zusätzliche Hilfsmagnete anzubringen und das bogenförmige Führungsfeld durch einen außerhalb des Gefäßes angebrachten Stromleiter elektromagnetisch zu erzeugen.
Hierdurch können neuere theoretische
Modelle aus der Sonnenphysik nachge-
stellt werden, die darauf hindeuten, dass
bestimmte geometrische Eigenschaften
des Anfangsfeldes darüber entscheiden
können, ob als Reaktion auf die Verschiebung von Fußpunkten der Flussröhren
nicht-ideale Instabilitäten auftreten. Die
Konstruktion dieses neuartigen Simulationsexperimentes ist bereits weit fortgeschritten, und wir sind gespannt, ob es unsere Erwartungen erfüllen und einige neue
Puzzle-Bausteine liefern wird, die sich irgendwann – in Verbindung mit Sonnenbeobachtungen und theoretischen Arbeiten
– zu einem hoffentlich geschlossenen Bild
zusammen setzen lassen
Prof. Dr. Henning Soltwisch, Experimentalphysik, insbesondere Laser- und Plasmaphysik, Dr. Jürgen Dreher, Theoretische
Physik, insbesondere Plasma-, Laser- und
Atomphysik
Abb. 7: Vergleich zwischen experimenteller Beobachtung und Computersimulation. Die fotografische Aufnahme des leuchtenden Bogens ist
in der rechten Hälfte mit dem gleichen Abbildungsmaßstab durch die aus der Simulation folgenden verdrillten Magnetfeldlinien ersetzt worden. Deutlich sichtbar ist die signifikante Übereinstimmung der der Struktur, insbesondere die
Einsenkung im Scheitelpunkt.
23
Weltraum- und Astrophysik
Rubin 2009
Heliosphäre kontrolliert Beziehungen zwischen Erde
und sternfernem Weltraum innerhalb der Milchstraße
Geschützte Welt
Horst Fichtner
24
Ein Polarlicht zu erleben fasziniert – auch weil es uns ahnen lässt,
wie stark das Leben auf der Erde mit der Sonne verbunden ist.
Der Sonnenwind bildet einen Schutzraum – die Heliosphäre – vor
dem lebensfeindlichen interstellaren Medium. Doch vermutlich ist
der Einfluss der kosmischen Strahlung aus dem fernen Weltraum
größer als gedacht. Die Heliosphärenforschung befasst sich mit
den Auswirkungen des „Weltraumwetters“ auf unser Klima und
gibt der Suche nach extraterrestrischem Leben neuen Schwung.
Weltraum- und Astrophysik
Rubin 2009
Die Dynamik der Erde, ihrer
Atmosphäre und ihrer näheren
Umgebung werden nicht nur durch Vorgänge auf der Erde selbst bestimmt. Zahlreiche astrophysikalische Prozesse beeinflussen die Lebensbedingungen auf unserem Planeten mit. In den letzten Jahren rückte neben der Sonne und ihrer Aktivität auch der Einfluss der interstellaren
Umgebung auf das Erdklima zunehmend
in den Blickwinkel der Wissenschaft. Will
man die Prozesse erforschen, die den Beziehungen zwischen Sonne, Erde (solarterrestrische Beziehungen) und Weltraum (interstellarer Raum) zugrunde liegen, muss man zunächst die Heliosphäre
– die Einflusszone unserer Sonne – verstehen. Die Heliosphären-Physik kann
unser Wissen über das irdische Klima erweitern und einen Beitrag zu der spannenden Frage leisten, ob Leben auf den
Planeten anderer Sterne möglich und
nachweisbar ist.
Seit Jahrtausenden sehen die Menschen
die Sonne als bedeutendes astronomisches
Objekt an und bereits frühzeitig erkannte man, dass sich nur Dank ihrer Strahlung Leben auf der Erde entwickeln und
langfristig Bestand haben kann. Doch erst
seit Mitte des letzten Jahrhunderts wissen
wir, die Sonne ist nicht nur als Energiequelle Garant für lebensfreundliche Bedingungen auf der Erde. Sie schützt das
terrestrische Leben auch mit ihrer expandierenden Atmosphäre, dem sog. Sonnen-
Abb. 1: Auch das Polarlicht entsteht infolge solar-terrestrischer Beziehungen: Wenn geladene
Teilchen des Sonnenwindes auf die Atmosphäre bzw. die Magnetosphäre der Erde treffen, regen sie vor allem an den Polen die Luftmoleküle
zum Leuchten an.
wind, vor der lebensfeindlichen interstellaren Umwelt. Infolge des Sonnenwindes
bildet sich eine riesige Plasmawolke um
die Sonne, die Heliosphäre. Sie verhindert den direkten Kontakt der Planeten
bzw. ihrer Atmosphären mit dem interstellaren Medium, von dem vor allem ionisiertes Gas, insbesondere Wasserstoff,
und hochenergetische Teilchen der kosmischen Strahlung bei einem ungehinderten Durchdringen der Erdatmosphäre fatale Folgen hätten.
Die Bedeutung astrophysikalischer Vorgänge für die Erde ist seit langem bekannt.
Man denke nur an den Tag- und Nachtwechsel als Konsequenz der Erdrotation
und die Jahreszeiten infolge der Neigung
der Rotationsachse sowie die, beide Phä-
sich dann ebenfalls periodisch die Sonnenatmosphäre, ihre elektromagnetische
Strahlung sowie der Sonnenwind verändern. Erst nach zwei Umpolungen ist die
ursprüngliche Konfiguration wieder hergestellt, was zu einer 22-jährigen Periode
des sog. Hale- bzw. Magnetischen Zyklus
der Sonne führt.
Die Auswirkungen solar-terrestrischer
Beziehungen werden unter dem Begriff
„Weltraumwetter“ zusammengefasst und
betreffen nicht nur die bemannte und
unbemannte Raumfahrt etwa durch Störungen im Funkverkehr oder Schädigungen von Satelliten. Sie beeinflussen
auch das Magnetfeld der Erde (s. Abb. 1)
und anderer Planeten und können die
Funktion technologischer Systeme auf der
„Weltraumwetter“ hinterlässt Spuren auf der Erde: Wolkenbedeckung, Baumringdicke oder Sedimentablagerungen
nomene beeinflussende, Gravitation benachbarter Himmelskörper: In deren Folge ändern sich Bahn und Rotationsachse
der Erde periodisch in sog. Milankovic-Zyklen von ca. 20 000 bis 100 000 Jahren. Mit
dem sich verändernden Abstands- bzw.
Einfallswinkel der Sonnenstrahlung in die
Erdatmosphäre variiert auch die Intensität
bzw. Absorption der Strahlung, was sich
auf das Klima auswirkt.
Neben diesen planetar-terrestrischen
gibt es auch solar-terrestrische Beziehungen aufgrund elektromagnetischer
Wechselwirkungen von Strahlung und
Magnetfeld der Sonne sowie des Sonnenwindes mit der Magnetosphäre und Atmosphäre der Erde. Sie folgen einer mittleren
Grundperiode von etwas mehr als elf Jahren, dem sog. Schwabe- oder AktivitätsZyklus. Er resultiert aus einer Umpolung
des Magnetfeldes der Sonne, durch die
Erde wie Stromleitungen und Pipelines
stören. In den letzten Jahren gilt das Interesse der Forscher besonders dem Einfluss
der elektromagnetischen Strahlung der
Sonne auf das Erdklima. So variieren bestimmte Klimaindikatoren wie Wolkenbedeckung, Baumringdicke oder Sedimentablagerungen im 11- bzw. 20 bis 24-jährigen Rhythmus und spiegeln damit die
Sonnenaktivität wider (Abb. 2).
Neben diesen „inneren“ Auswirkungen
auf die Erde und ihre Umgebung können
auch „äußere“ Ereignisse wie nahe Supernova-Explosionen oder Gammastrahlungsausbrüche lokale Folgen auf der Erde haben. Bei einer Frequenz von weniger als
einem solchen Ereignis in Sonnennähe
pro 100 Millionen Jahre ist aber ein Einfluss auf die Erdumgebung bzw. -atmosphäre kaum zu erwarten. Größere Relevanz als diese eher zufälligen Ereignisse
25
Weltraum- und Astrophysik
Rubin 2009
Wolkenbedeckung
Baumringdicke
10
29
0
28
-10
27
1.00
statistische Sicherheit
30
kosmische Strahlung (%)
El Niño
7.1 yr.
11 yr.
3.1 yr.
6.6 yr.
3.1
30.0
6.4
0.99
511
9.8 yr.
20.8
0.98
0.97
75.2
13.2
10.9
0.96
5.8 5.0
-20
1985
1990
1995
2000
0.95
0.00 0.05 0.10
2005
Jahr
0.15
0.20
0.25 0.30 0.35
0.40 0.45 0.50
Frequenz (Jahr)
Regenfälle
Sedimentablagerungen
1500
1000
500
0
0
101
Periodenstärke
8
16
32
64
1880
1900
1920
1940
1960
1980
2000
50
25
10
5
2.5
2-3 yr.
100
4.5-6.5 yr.
250
16.0 yr.
13.5 yr.
10.9 yr.
500
24.4 yr.
Niederschlag
(mm)
Periode [Jahr]
1000
4
Periode (Jahr)
22
46.5 yr.
Anzahl niedriger Wolken (%)
Solar Cycle
80
90%
100
10-1
10-3
Zeit (Jahr)
10-2
10-1
Frequenz [Jahr]
Abb. 2: Auf den in Zyklen von 11 oder auch 20 bis 24 Jahren variierenden Einfluss der Sonne weisen
spezielle Klimaindikatoren auf der Erde hin: Die globale Bedeckung der Erde mit Wolken unterhalb
von etwa 3,5 km, die Dicke von Baumringen (Bsp. Südamerika), Regenfälle im Großraum Peking,
oder Sedimentablagerungen, sog. Warven, in Seen.
hat das interstellare Medium für die Erde
und ihre Umgebung. Seine Hauptagenten
– die galaktische kosmische Strahlung
und der interstellare neutrale Wasserstoff
– können bis tief in die Heliosphäre und
damit zur Erde vordringen. Infolge eines
abschirmenden Effektes der Heliosphäre
geschieht das aber nicht ungehindert.
Die Heliosphäre dehnt sich mehrere
hundert Astronomische Einheiten (1 AE
= Entfernung Sonne-Erde) um die Sonne herum aus. Sie ist der Raumbereich,
in dem der von der Sonne ausgehende
Sonnenwind über das anströmende interstellare Medium dominiert (Abb. 3).
26
Der Sonnenwind ist eine kontinuierliche,
überschallschnelle, zunächst radiale Protonen-Elektronen-Plasmaströmung. Am
Erdorbit, also bei einer Astronomischen
Einheit (AE), erreicht er eine Geschwin-
laren Mediums (LISM) erfolgt in der heliosphärischen Randregion, welche sich aus
einer inneren und äußeren Helioschicht
zusammensetzt. Die innere Helioschicht
wird in 80 bis 100 AE vom sog. Termi-
Sonnenwind: Mit bis zu achthundert Stundenkilometern
in Richtung Lokales Interstellares Medium (LISM)
digkeit von 400 bis 800 Kilometern pro Sekunde, eine Teilchenzahldichte von 5 bis
10 pro Quadratzentimeter und eine Temperatur von 50 000 bis 100 000 Kelvin. Die
Anpassung dieser Sonnenwindströmung
an die Bedingungen des Lokalen InterStel-
nations-Schock – an dem die ungestörte
Überschallausbreitung des Sonnenwindes
endet – und bei 130 AE durch die Heliopause begrenzt. Die Heliopause trennt als
sog. Kontaktdiskontinuität das solare und
interstellare Plasma. In der inneren Helio-
Weltraum- und Astrophysik
Rubin 2009
Heliopause
Terminations-Schock
Bugstoßwelle
Voyager 1
Innere
Helioschicht
Strömung des
Sonnenwinds
Pioneer 10
Äußere
Helioschicht
Pioneer 11
Voyager 2
Galaktische
kosmische
Strahlung
Abb. 3: Die Heliosphäre wird vom lokalen interstellaren Medium (LISM) umströmt. Während der neutrale
Anteil des LISM fast ungehindert tief in die Heliosphäre vordringen kann, strömt die Plasmakomponente um die Heliopause herum. Durch die Wechselwirkung von Sonnenwind und LISM bilden sich Stoßwellen aus – der sog. Terminations-Schock und der Bugschock. Die energiereichen Teilchen der galaktischen kosmischen Strahlung dringen in die Heliosphäre ein, werden dort aber durch den Sonnenwind
in ihrer Intensität abgeschwächt. Die Raumsonden Voyager 1 und 2 haben den Terminations-Schock
durchflogen und befinden sich derzeit in unmittelbarer Nähe zum LISM.
schicht reagiert der Sonnenwind mit dem
umgebenden LISM. Das Sonnenwindplasma wird zunächst am Schock komprimiert
und aufgeheizt und dann aus seiner radialen Expansion nach und nach in den
heliosphärischen Schweif abgelenkt. Da
jenseits der Heliopause das teilweise ionisierte LISM als ein interstellares Plasma strömt, bildet sie die natürliche Grenze der Heliosphäre. Da sich die Sonne mitsamt der Heliosphäre mit Überschallgeschwindigkeit durch das LISM bewegt, bildet sich vor der Heliopause, in 300 bis 400
AE Entfernung zur Sonne, eine Bugstoßwelle, auch Bugschock genannt. In der äu-
ßeren Helioschicht, die vom Bugschock
und der Heliopause begrenzt wird, reagiert das LISM auf das “Hindernis” Heliosphäre (s. Abb. 3).
Aufgrund von Modellrechnungen, die
auch am Lehrstuhl für Theoretische Physik IV der Ruhr-Universität durchgeführt
wurden, ließen sich Lage, Eigenschaften
und zeitliche Veränderungen der verschiedenen heliosphärischen Grenzflächen und
Gebiete vorhersagen, wie TerminationsSchock oder innere Helioschicht. Die NASA-Missionen Voyager 1 und 2 haben diese Berechnungen in jüngster Zeit weitgehend bestätigt: Die beiden Raumsonden
durchflogen in den Jahren 2004 und 2007
in entsprechender Entfernung den Terminations-Schock und befinden sich seitdem
in der inneren Helioschicht.
Wie wirken nun aber interstellarer Wasserstoff und kosmische Strahlung in die
Heliosphäre hinein? Die ungeladenen
Atome des LISM können aufgrund der
sehr geringen Teilchendichten die Heliosphäre zunächst fast ungehindert durchdringen. Mit geringer werdendem Abstand zur Sonne verstärken Ladungsaustausch und solare Strahlung die Ionisation
dieses „neutralen interstellaren Windes“,
was seinen Fluss verringert. Das haupt27
Weltraum- und Astrophysik
Rubin 2009
Kosmische und solare Strahlung
A-
6.500.0
A+
A-
1.368.5
1.368.0
5.500.0
5.000.0
1.367.0
28
Leistung
1.367.5
1.366.5
1.366.0
1.365.5
1.365.0
1960.0
1970.0
1980.0
1990.0
2000.0
Jahre
Abb. 4: Der 22-jährige Magnetische Zyklus der Sonne manifestiert sich in der Intensität der kosmischen
Strahlung (Abb. oben). Der typische Wechsel von flachen und spitzen Maxima steht für die mit A+ und
A− bezeichneten beiden Polaritäten des solaren Magnetfeldes. Der Strahlungsfluss der Sonne (Solarkonstante) wird seit 1987 vom Weltraum aus an der Erdbahn außerhalb der Erdatmosphäre ununterbrochen
aufgezeichnet. Die Solarkonstante variiert mit der 11-jährigen Aktivitätsperiode der Sonne (Abb. unten).
ren Ionisation und Erwärmung sind. Verstärkte Emission ultravioletter Strahlung
erhöht außerdem das stratosphärische
Ozon um einige Prozent, und solche Veränderungen beeinflussen die Dynamik
der Atmosphäre. Allerdings variiert der gesamte elektromagnetische Energieinput in
die Erdatmosphäre nur um wenige Pro-
Was für das Erdklima relevanter ist: die solare elektromagnetische oder die galaktische kosmische Strahlung?
kosmogenen Isotopen (Nachweis in antarktischen Eisbohrkernen), trägt zur Ionisation der Erdatmosphäre bei und steht
darüber hinaus wie die solare Strahlung
unter Verdacht, das Klima der Erde zu beeinflussen.
Mit diesem Verdacht ist eine wissenschaftliche Debatte darüber entbrannt,
welcher astrophysikalische Einfluss von
höherer Relevanz für das Erdklima ist: die
solare elektromagnetische oder die galaktische kosmische Strahlung? Für keinen
von beiden ließ sich bisher eine quantitativ überzeugende Prozesskette identifizieren. So ist zwar klar, dass die physikalischen Konsequenzen der elektromagnetischen Strahlung für die Atmosphäre de-
1.369.0
A+
6.000.0
Zählrate
sächlich aus reaktionsfreudigen Wasserstoffatomen bestehende interstellare Medium kann prinzipiell planetare Atmosphären chemisch beeinflussen. Auch
wenn die Wasserstoffströmung je nach solarer Aktivität unterschiedlich stark abgeschwächt wird, bleibt der Wasserstofffluss
jedoch gegenwärtig für die Erdatmosphäre
ohne Konsequenzen. Nicht zu vernachlässigen ist sein Einfluss auf die Heliosphärenstruktur infolge der Plasma-Neutralgaswechselwirkung, die den Sonnenwind
abbremst und damit die Lage des Terminations-Schocks beeinflusst.
Die zweite schwerwiegendere Einwirkung des LISM auf die Erde erfolgt über
die kosmische Strahlung, insbesondere
über den Anteil geladener Teilchen im
Gigaelektronenvolt-(GeV)-Bereich. Sie haben ihren Ursprung in Supernovaexplosionen oder in den der Heliosphäre entsprechenden Astrosphären anderer Sterne
unserer Milchstraße. Der Fluss dieser galaktischen kosmischen Strahlungsteilchen
wird in der Heliosphäre in Abhängigkeit
vom solaren Aktivitätszyklus (s. Abb. 4)
durch deren Wechselwirkung mit den
fluktuierenden elektrischen und magnetischen Feldern des Sonnenwindes verringert. Er kann aber nicht, wie der neutrale Wasserstoff, für die Erde vernachlässigt werden. Im Gegenteil: Die galaktische
kosmische Strahlung reagiert mit atmosphärischen Teilchen zu radioaktiven, sog.
mille (Abb. 4) und kann daher nicht direkt,
d. h. ohne Verstärkungseffekte (z.B. durch
Beeinflussung der Atmosphärenchemie),
für die beobachteten Klimaschwankungen
verantwortlich sein. Ähnliches gilt für den
Einfluss der kosmischen Strahlung. Auch
sie führt zur Ionisation der Atmosphäre
und sogar zur Bildung von Aerosolen, in
deren Folge sich wiederum Wolken bilden
können. Zwar wäre so eine Prozesskette
gegeben, die eine Klimabeeinflussung erklären kann, aber der zweifelsfreie Nachweis einer induzierten Wolkenbildung
steht noch aus.
Durch unser heutiges Verständnis der
Physik der Heliosphäre und des Transportes der kosmischen Strahlung lässt
sich die Frage nach der Relevanz der astrophysikalischen Einflüsse auf das Erdklima nun möglicherweise beantworten.
Der Fluss der kosmischen Strahlung, gemessen durch Neutronenmonitore von
der Erde aus, zeigt eine dominante 11-jährige Periode infolge der Sonnenaktivität.
Dieser deutlich überlagert ist aber eine
22-jährige Periode (Abb. 4), die sich durch
die Drift der energiereichen, geladenen
Teilchen im heliosphärischen Magnetfeld
erklären lässt (Abb. 5). Unsere Untersuchungen haben gezeigt, dass die elektromagnetische Strahlung der Sonne lediglich die 11-jährige Periode, aber keine signifikante mit 22 Jahren zeigt. Eine Reihe
klimasensitiver Indikatoren, wie Baumringdicken, Niederschläge oder Sedimentablagerungen zeigen ebenfalls eine 20 bis
24jährige Variation (s. Abb. 2). Sollten
diese am besten mit dem Fluss der kosmischen Strahlung korrelieren, wäre das
ein weiterer Hinweis für einen Einfluss
des interstellaren Mediums auf die Erde.
Ein erstes ähnliches Indiz wurde ebenfalls
an der Ruhr-Universität durch den Geowissenschaftler Jan Veizer erkannt: Der
Temperaturverlauf auf der Erde über die
letzten 500 Millionen Jahre hinweg kor-
Weltraum- und Astrophysik
Rubin 2009
A+
Norden
Süden
A-
Norden
Süden
Abb. 5: In zwei aufeinander folgenden 11-jährige
Zyklen der Sonnenaktivität, die den 22-jährigen
Hale-Zyklus bilden, ist das solare Magnetfeld
entgegengesetzt orientiert (Abb. oben). Das führt
zu einer ebenfalls entgegengesetzt orientierten Drift der geladenen Teilchen der kosmischen Strahlung im Magnetfeld der Heliosphäre (Abb. unten). Dieses unterschiedliche
Transportverhalten erklärt den Einfluss der kosmischen Strahlung auf die Erde in 22-jähriger
Variation (vgl. Abb. 4).
reliert besser mit dem Fluss der galaktischen kosmischen Strahlung als alle Alternativen. In diesem Falle ist allerdings
nicht die solare Aktivität, sondern die Variation der kosmischen Strahlung entlang
des Sonnenorbits in der Milchstrasse ausschlaggebend, die wiederum mit der Spiralstruktur unserer Galaxis verknüpft ist.
Der Vorteil des von uns vorgeschlagenen
„22-Jahres-Kriteriums“ gegenüber dieser Langzeitkorrelation ist seine bessere
Nutzbarkeit. Die Genauigkeit einer Fülle
von klimarelevanten Daten ist natürlich
deutlich höher für eine Zeitspanne von
Jahrzehnten als für eine von 500 Millionen Jahren.
Wie die Debatte auch entschieden wird,
es sollte berücksichtigt werden: Auf Zeitskalen von Jahrzehnten bis Jahrhunderten
moduliert die solare Aktivität die Struktur
der Heliosphäre und damit auch den Einfluss der solaren und kosmischen Strahlung auf die Erde. Obwohl bei Weitem
noch nicht abschließend erforscht, ist anzunehmen, dass diese externen Einflüsse nicht dominant sind. Es ist demnach
wahrscheinlich, dass der größte Klimaeffekt der letzten 50 Jahre tatsächlich anthropogenen Ursprungs ist.
Über diese für die Erde interessanten
Klimafrage hinaus gibt es einen neuen,
spannenden Aspekt der Heliosphärenforschung: Die auf die Erde einwirkenden astrophysikalischen Prozesse sind auch relevant für Planeten anderer Sterne, von denen heute rund 350 bekannt sind. Mit deren Entdeckung stellt sich wieder verstärkt
die Frage nach möglichem Leben außerhalb der Erde und dessen Nachweisbarkeit. Gerade für die quantitative astrobiologische Forschung gewinnen Astrosphären zunehmend an Bedeutung.
Alle Sterne, die wie die Sonne einen
Wind treiben, sind von einer Astrosphäre umgeben. Unsere Heliosphäre ist prominentes Beispiel solcher Astrospären,
die planetare Atmosphären vom interstellaren Medium abschirmen. Man darf
Leben wie wir es kennen – wenn überhaupt – dann bevorzugt auf derart „geschützten“ Planeten erwarten. Es ist
kaum vorstellbar, dass sich an die Existenz von flüssigem Wasser gebundenes
Leben auf einem Planeten entwickeln
kann, dessen Atmosphäre dem interstellaren neutralen Wasserstoffs und der galaktischen kosmischen Strahlung ungeschützt ausgesetzt ist.
So wie Astrosphären eine mögliche
Existenz von Leben signalisieren, können sie auch dessen Nachweisbarkeit
durch Fernbeobachtungen beeinflussen.
Dabei kann sich die Forschung das Vorhandensein bestimmter Biomarker (z.B.
Ozon) in der Atmosphäre „geschützter“
Planeten zu nutze machen. Die Häufigkeit von Biomarkern hängt von der durch
die Astrosphäre bestimmtem Intensität
der kosmischen Strahlung ab, die etwa
einen Ozonabbau in einer Atmosphäre
bewirken kann.
Das notwendige Zusammenspiel von
Astrophysik, Planetologie, Atmosphärenphysik und auch Astrobiologie steht erst
am Anfang. Doch es ist absehbar, dass astrophysikalische Einwirkungen auf planetare Atmosphären, insbesondere bei interstellar-planetaren Beziehungen, auch
neue Impulse für die Suche nach extraterrestrischem Leben setzen werden. Somit steht die Heliosphärenphysik vor einer
neuen Herausforderung – ihrem Transfer
auf andere Sterne.
PD Dr. Horst Fichtner, Theoretische Physik,
insb. Weltraum- und Astrophysik, Fakultät für Physik und Astronomie
29
Ingenieurwissenschaften
Rubin 2009
Bochumer Untersuchungen für die Sicherheit
der neuen Forschungsstation Neumayer III
Sturmwinter in der Antarktis
Michael Kasperski
Um für die dritte Station eine
erheblich längere Nutzungsdauer von etwa 30 Jahren zu ermöglichen, wurde als neues Konzept eine oberirdische Station geplant, die – auf hydraulischen Stützen gelagert – den jährlichen
Schneefall kompensieren kann. Die gesamte Station wird einfach jedes Jahr
angehoben. Dazu „hebt die Station ihre
Füße“: Die hydraulischen Stützen werden
nacheinander „gelüftet“, es wird Schnee
darunter geblasen, sie werden wieder herabgelassen und stehen dann entsprechend höher.
Die oberirdische Station ist somit nicht
durch von oben drückende Eismassen gefährdet. Aber das Eis ist nicht nur Gefahr,
es bietet auch Schutz. Eine oberirdische
Station ist im Gegensatz zu den unterirdischen Röhrensystemen dem antarktischen Winter mit seinen extremen Stür30
Antarktis – eisige Kälte mit Wintertemperaturen unter -40° Celsius, monatelange Dunkelheit, heftige Stürme, unendliche Einsamkeit: Einen unwirtlicheren und lebensfeindlicheren Ort kann man
sich nur schwer vorstellen. Aber die Antarktis bietet einmalige Gelegenheiten für die Forschung, darunter so wichtige Themen wie
der Klimawandel und das Ozonloch. Daher betreibt das AlfredWegener-Institut (AWI) seit 1981 ganzjährig eine nach dem deutschen Polarforscher Georg von Neumayer benannte Forschungsstation auf dem Ekström-Schelfeis (Abb. 2). Die ersten beiden Forschungsstationen wurden als Röhrensysteme unter dem Eis errichtet. Aufgrund der jährlichen Schneefälle, die im langjährigen
Mittel etwa 80 Zentimeter betragen, versinkt ein Röhrensystem
aber allmählich immer tiefer im Eis. Die ständig anwachsenden
Druckkräfte des darüber liegenden Eises deformieren und zerquetschen die Röhren entsprechend auf Dauer. Deswegen musste die erste Station bereits 1992 nach nur elf Betriebsjahren aufgegeben werden. Die zweite Station lag nach 18 Nutzungsjahren
15 Meter tief unter dem Eis und war nicht länger sicher.
men ausgesetzt. Für dieses Problem hat
das AWI in Bochum Rat gesucht, denn
hier haben vor einigen Jahren Experten für
die Analyse des Sturmklimas die Windzonenkarte für Deutschland für die Norm im
Auftrag des Deutschen Instituts für Bautechnik erstellt.
Für die Analyse des Sturmklimas in
der Antarktis hat das AWI langjährige
Messreihen von 1982 bis 2004 zur Verfügung gestellt. Sie zeigen: Die Stürme
in der Antarktis haben es in sich. Während in Deutschland im statistischen Mittel pro Jahr zwei Stürme vorkommen, ist
die Anzahl der Stürme in der Antarktis
mehr als zehnmal so hoch. Dabei gelten
deutsche Windverhältnisse als Sturm,
wenn die mittlere Windgeschwindigkeit
mindestens 14 Meter pro Sekunde beträgt. Zum Vergleich: Der Orkan Kyrill,
der im Januar 2007 das öffentliche Le-
Abb. 2: Lage der Station im Ekström-Schelfeis
Ingenieurwissenschaften
Rubin 2009
ben in Deutschland und Europa stark beeinträchtigt hat, hatte in Düsseldorf eine
mittlere Windgeschwindigkeit von etwa
19 Metern pro Sekunde. Die Windgeschwindigkeiten der stärksten Stürme in
der Antarktis sind etwa doppelt so hoch
wie die der deutschen Stürme. Ein Sturm
finieren, herrscht in der Antarktis an 80
kompletten Tagen.
Die lange Dauer von Stürmen war für
den Entwurf der Forschungsstation besonders bedeutsam. Denn mit jeder weiteren
Stunde darf ein Sturm erneut testen, ob
er nicht eine Schwachstelle am Bauwerk
Bei 80 Zentimetern Neuschnee jährlich lag die zweite
Forschungsstation zum Schluss 15 Meter tief im Eis
wie Kyrill kommt hierzulande statistisch
etwa alle 20 Jahre vor – im antarktischen
Winter allerdings etwa 22mal pro Jahr.
Und während den Stürmen in Europa
nach wenigen Stunden die Puste ausgeht,
haben die antarktischen Stürme einen besonders langen Atem. Sie sind nicht nur
doppelt so stark, sie dauern auch mehr
als doppelt so lange wie unsere Stürme.
Sturm, wie wir ihn für Deutschland de-
entdeckt. Und genauso, wie beim Würfeln die Wahrscheinlichkeit wächst, mit
einem erneuten Versuch doch noch eine
Sechs zu werfen, wächst die Wahrscheinlichkeit einer Überlast und damit die Gefahr eines Schadens – etwa dem Abriss
eines Teils der Fassade der Polarstation
– bis hin zum kompletten Versagen der
Konstruktion – wie dem Abknicken der
Stützen – mit jeder weiteren Sturmstun-
Abb. 1: Die Neumayer-Station III am Tage der Eröffnung am 20. Februar 2009.
de an. Die entsprechenden Methoden zur
Berücksichtigung der Sturmdauer haben
wir in den vergangenen Jahren im Forschungsteam EKIB (Entwurfsgrundlagen
im Konstruktiven Ingenieurbau) entwickelt und verfeinert.
Grundlegende Vorgehensweise bei der
Auslegung eines Bauwerks gegen Sturm
ist heute, ein derart seltenes Ereignis für
den Entwurf zu unterstellen, dass das
Bauwerk ihm in seiner geplanten Nutzungsdauer mit großer Wahrscheinlichkeit nicht ausgesetzt wird. Und wenn es
dann doch auftritt, müssen hinreichend
große Tragreserven vorhanden sein. Die
Wahl der Seltenheit dieses so genannten Entwurfsereignisses, in unserem Fall
eines extrem starken Sturms, hängt von
31
Ingenieurwissenschaften
Rubin 2009
Abb. 3: Durch Anheben der einzelnen Füße in der „Kellergarage“, unter die dann Schnee geblasen
wird, hebt sich die Station immer weiter aufwärts auf den Schnee.
32
lich eine angemessene Balance zu finden
für die beiden entgegengesetzten Forderungen nach Sicherheit einerseits und
Wirtschaftlichkeit andererseits.
Neben der Anzahl der Stürme pro Jahr,
ihrer Dauer und ihrer Intensität ist für
die von einem Sturm ausgehende Gefahr für ein Bauwerk noch die Luftdichte
maßgebend, das heißt die Masse an Gasmolekülen, die sich in einem Kubikmeter Luft befinden. Sie bestimmt mit, welche Kräfte auf die Oberflächen des Bau-
Luftdichte und -Temperatur
10
0
Luftdichte [kg/m3]
Lufttemperatur [°C]
der Bedeutung des Bauwerks ab, d.h. welche wirtschaftlichen Schäden entstehen
können und ob Menschenleben gefährdet
sind. Die besonderen Gegebenheiten der
Station Neumayer III mit ihrer aufwändigen Forschungsausstattung und vielköpfigen Besatzung erfordern entsprechend die Zuordnung in die Bauwerksklasse mit den höchsten Sicherheitsanforderungen.
Als Zielwert der Wahrscheinlichkeit,
mit welcher ein stärkerer Sturm als das
Entwurfsereignis auftreten kann, ergibt
sich dann zu 2,5 Prozent für die geplante Nutzungsdauer von 30 Jahren.
Das heißt, dass die Station mit einer
Wahrscheinlichkeit von 97,5 Prozent in
ihrer Lebenszeit nur schwächere Stürme
als das von uns errechnete Entwurfsereignis erleben wird.
Die Charakteristika eines Sturms, auf
den diese Wahrscheinlichkeit zutrifft, auf
der Basis von Wetterdaten aus nur wenig
mehr als zwei Jahrzehnten zu errechnen,
ist nicht einfach. Geht man zu forsch mit
der Datenanalyse um, ergibt sich ein nicht
hinreichend sicheres Bauwerk, ist man dagegen zu vorsichtig, wird das Bauwerk unnötig teuer. Aber genau hier liegt die besondere Stärke unserer Methoden, näm-
werks wirken. Dabei gilt, dass kalte Luft
dichter, also schwerer ist als warme. Die
extrem kalte Luft im antarktischen Winter ist erheblich schwerer als die Luft in
Deutschland. Bei ca. -40° Celsius wurden
an der Forschungsstation schon Werte
größer 1,5 kg/m³ gemessen. Der empfohlene Wert der deutschen Norm liegt
bei 1,25 kg/m³. Für den Entwurf hatte
das AWI ursprünglich eine erhöhte Luftdichte von 1,65 kg/m³ angesetzt. Um die
Planung so wirtschaftlich wie möglich zu
machen, haben wir daher die Luftdichte in den antarktischen Sturmereignissen gesondert untersucht. Dabei haben
wir festgestellt, dass ähnlich wie bei uns
auch in der Antarktis starke Stürme mit
relativ wärmeren Temperaturen verbunden sind. Allerdings bedeutet „wärmer“
in diesem Fall immer noch, dass Temperaturen von bis zu ca. -25° Celsius herrschen. Die Dichte der Luft beträgt dann
für die besonders schweren Stürme maximal 1,4 kg/m³. Diesen Wert haben wir
für die weiteren Berechnungen dem AWI
empfohlen (Abb. 4).
Der grundlegende Bezugswert für die
Belastung durch Wind (Windlast), der ein
Gebäude ausgesetzt ist, ist der Entwurfswert des Geschwindigkeitsdrucks. Er ergibt sich als Produkt aus dem Quadrat der
Windgeschwindigkeit und der Luftdichte. Dieser Bezugswert ist für den Standort
der neuen Polar-Forschungsstation viermal größer als für den Standort Düsseldorf (s. Abb. 5). Die Errichtung eines oberirdischen Bauwerks in einem derart rauen
-10
-20
-30
-40
-50
0
5
10
15
20
25
30
35
mittlere Windgeschwindigkeit [m/s]
40
1.60
1.55
1.50
1.45
1.40
1.35
1.30
1.25
1.20
1.15
1.10
0
5
10
15
20
25
30
35
mittlere Windgeschwindigkeit [m/s]
Abb. 4: Verhältnis von Lufttemperatur bzw. -dichte und Windgeschwindigkeit
40
Ingenieurwissenschaften
Rubin 2009
0.99
10000
mittlere Anzahl der Stunden pro Jahr
mit v > vref
Nichtüberschreitenswahrscheinlichkeit
Vergleich des Windklimas in der Antarktis und in Düsseldorf
1000
0.9
0.5
0.1
0
10
20
30
40
100
50
10
1
0.1
0
5
10
15
Stundenmittelwert der Windgeschwindigkeit [m/s]
20
25
30
35
40
vref [m/s]
Abb. 5: Vergleich des Windklimas in der Antarktis (rot) und in Düsseldorf (blau). Stürme sind in
der Antarktis nicht nur doppelt so stark wie in Deutschland, sie dauern auch doppelt so lange.
Windklima ist also durchaus eine ingenieurtechnische Spitzenleistung.
Für die Beurteilung der auf die Bauwerksoberflächen einwirkenden Windkräfte hatte das AWI uns Windkanalver-
wertung der maximalen und minimalen
aerodynamischen Beiwerte. Denn selbst
wenn zwei Stürme die gleiche Intensität haben, werden sich die Extremwerte
der Kräfte, die auf die Oberfläche eines
Die neue Station muss einem Sturm standhalten können,
der wahrscheinlich nie toben wird
suchsergebnisse zur Verfügung gestellt.
Hierfür wurde ein maßstabsgetreues
Modell der Station in einer Strömung
untersucht, die den Eigenschaften des
natürlichen Windes entspricht. Grundsätzlich werden die Einwirkungen infolge von Wind mit dimensionslosen Beiwerten erfasst. Diese Beiwerte müssen
für jeden Punkt des Bauwerks separat bestimmt werden. An der dem Wind zugewandten Seite erhält man positive Werte, auf dem Dach jedoch negative, denn
dort erzeugt der Wind einen Sog. Für Autos kennen wir z.B. den dimensionslosen
cw-Wert, der den Gesamtwiderstand des
Fahrzeugs bei der Vorwärtsbewegung beschreibt. In der Bauwerksaerodynamik
gilt die Besonderheit, dass die aerodynamischen Beiwerte zeitveränderlich sind
– dies liegt insbesondere an der Unstetigkeit des Windes, die mit dem Fachbegriff Turbulenz erfasst wird. Die Festlegung der maximalen Windlasten, denen
das Bauwerk standhalten muss, erfordert
daher eine gesonderte statistische Aus-
Bauwerks wirken, in der Regel erheblich
unterscheiden. Dies ist ein besonderer
Effekt der Strömungsfelder in Stürmen
(Abb. 6): In einer Sturmstunde weht ein
zufälliges Gemisch von Wirbeln, so genannten Turbulenzballen, über das Bauwerk hinweg, so dass sich in bestimmten Grenzen
zufällig mal große und mal kleine aerodynamische Beiwerte ergeben. Für Forschungszwecke haben wir im Bochumer Windkanal
die zufälligen Beiwerte an mehreren Referenzbauwerken für mehr als 1.000 gleich
starke Stürme untersucht, um grundlegende Unterschiede in den Schwankungsbreiten der aerodynamischen Beiwerte an
verschiedenen Positionen der Bauwerksoberfläche zu erkennen (Abb. 7).
info 1
Die technischen Daten der Polarstation Neumayer III
Gesamtgewicht: 2.300 Tonnen
Stationscontainer: 100 Stück (Deck 1 und 2)
Breite: 26 Meter
Länge: 68 Meter
Gesamthöhe: 29 Meter (Garagenboden bis Dach der Ballonfüllhalle)
Höhe der Station: 21 Meter (ab Eisoberfläche)
Stützenfreiraum
unter der Plattform: 6 Meter
Nutzfläche: 4.473 m2, davon 1.850 m2 klimatisiert
Energieversorgung: 3 Dieselaggregate mit je 160 kW, 1 Notstromaggregat mit 160 kW,
1 Windkraftanlage mit 30 kW
Unterkünfte: 15 Räume, 40 Betten
Labore und Büros: 12 Räume
Winterpersonal: 9 Personen
33
Ingenieurwissenschaften
Rubin 2009
Windgeschwindigkeit [m/s]
Chaos im Sturm
30
25
20
15
10
5
0
0
20
40
60
80
100
Zeit [s]
Abb. 6: Chaos im Sturm: Es bilden sich zufällige Wirbel und Turbulenzen, die dafür sorgen, dass auch
bei weniger starken Stürmen sehr starke Winddrücke auf Gebäude einwirken können.
Wichtige Größe: Aerodynamische Beiwerte
extremer aerodynamischer Beiwert
4
3
2
Wind
Wind
1
-3
-4
-5
-6
-7
0
20
40
60
80
100
lfd. Nr. Sturm
Abb. 7: Beispiel für die zufälligen höchsten und niedrigsten aerodynamischen Beiwerte, die auf ein
Bauwerk einwirken.
Die zufälligen Streuungen der Extremwerte der aerodynamischen Beiwerte sind
von gleicher Bedeutung für die Festlegung der maximal erträglichen Windlasten wie die zufälligen Streuungen in
der Intensität von Stürmen. Tatsächlich
kann die maximal aufnehmbare Windlast bei praktisch jeder Sturmintensität
überschritten werden. Bei schwächeren
Stürmen wird hierzu allerdings ein sehr
großer aerodynamischer Beiwert benötigt, der nur sehr selten auftritt. In stärkeren Stürmen reichen bereits kleinere
und häufiger vorkommende aerodynamische Beiwerte aus, um den Entwurfs34
wert zu überschreiten und somit das Tragwerke oder seine Teile zu testen, ob es den
Windkräften standhält. Aus den umfangreichen Messreihen haben wir entsprechend die Entwurfswerte der aerodyna-
gangsparameter werden die besonderen
Eigenschaften der schwankenden Drücke an jedem Punkt der Bauwerksoberfläche benötigt, und natürlich die zu erwartenden Intensitäten von Stürmen und
deren Dauer.
Die ungewöhnliche Dauer der Stürme
in der Antarktis hat uns auch veranlasst,
über Ermüdungsfragen nachzudenken.
Die Windlasten in einem Sturm sind
nicht konstant, sondern ändern sich praktisch ständig. Und diese Lastwechsel können zu Schäden an Bauwerksteilen führen oder sogar zum Bruch von einzelnen
Bauteilen. Die zu erwartenden Anzahlen
der Lastwechsel zwischen starker und
schwächerer Windlast und das Ausmaß
des Unterschiedes zwischen starken und
schwachen Lasten (Lastamplituden) haben wir anhand der Windkanalversuche
und der simultan beobachteten Windgeschwindigkeiten und Luftdichten für den
Standort der Station Neumayer III ausgezählt und auf die geplante Nutzungsdauer
von 30 Jahren hochgerechnet.
Da wir die Entwurfswerte der Windgeschwindigkeiten und Windlasten für
die Station Neumayer III nach den modernsten Methoden festgelegt haben, gibt
es also für uns keinen Grund für schlaflose Nächte. Damit das allerdings auch
für die neun deutschen Forscher gilt, die
den antarktischen Winter in der Station
Neumayer III verbringen, haben wir uns
noch um einen weiteren Aspekt gekümmert: mögliche Schwingungen, die durch
den Wind hervorgerufen werden. Solche
Schwingungen können zum einen den
Betrieb von empfindlichen Geräten stören, sie können aber auch das Wohlbefinden des Menschen ganz erheblich beeinträchtigen. Kürzlich wurde hierzu die
Internationale Norm ISO 10137 „Bases
for design of structures - Serviceability
of buildings and walkways against vibra-
Der Wechsel zwischen starker und schwacher Belastung
sorgt für Ermüdungserscheinungen
mischen Beiwerte für die Oberflächendrücke und den Gesamtwiderstand ermittelt (s. Info). Die Methode zur Festlegung der rechnerischen Windlast ist in
Bochum in den letzten Jahren erheblich
erweitert und verfeinert worden. Als Ein-
tion“ (Entwurfsgrundlagen für Tragwerke
– Gebrauchstauglichkeit von Gebäuden
und Fußgängerbauwerken in Abhängigkeit von Schwingungen) veröffentlicht,
an der wir in Bochum maßgeblich mitgewirkt haben. Grundsätzlich werden in die-
Ingenieurwissenschaften
Rubin 2009
ser Norm hinsichtlich möglicher Beeinträchtigung und Störung von Arbeit und
Schlaf strenge Maßstäbe angelegt. Und
diese Maßstäbe haben wir dem AWI empfohlen, damit die extremen Lebensbedingungen auf der Station Neumayer III mit
Dunkelheit, Kälte und Isoliertheit nicht
noch um einen weiteren Stressfaktor verstärkt werden.
Die Schwingungsproblematik war seitens des AWI zunächst nicht untersucht
worden. Wir haben herausgefunden, dass
im ursprünglich geplanten Entwurf die
Station an mehr als 50 Tagen des antarktischen Winters permanent Tag und Nacht
deutlich wahrnehmbare Schwingungen
mit Beschleunigungsamplituden über
0,04 m/s² ausführen würde. Diese Stärke der Schwingungen liegt um das fünfbis zehnfache über der Wahrnehmungsschwelle. Besonders große Schwingungen
mit Beschleunigungen über 0,1 m/s² würden an 20 Tagen Arbeiten und Schlafen in
der Station erheblich stören – ein unzumutbarer Zustand für die Besatzung, fand
auch das AWI. Auf der Grundlage unserer
Angaben wurden daher Konstruktionsänderungen vorgenommen, die das Schwingungsproblem erheblich reduziert haben.
Unter anderem wurde die Unterkonstruktion verstärkt, um die Eigenfrequenz der
gesamten Station anzuheben. Dadurch
info 2
Windlasten
Die sog. statische Windlast auf das Bauwerk beträgt bei Ostwind 1,63 kN/m2 (163 kp/m2).
Das heißt bei einer Windgeschwindigkeit von z.B. 48,2 m/s (174 km/h), also bei starkem
Sturm, drücken zusammengerechnet etwa 260 Tonnen auf die Plattform (Luv+Lee). Durch
Böen und Wirbel können kurzfristig und örtlich begrenzt deutlich stärkere Kräfte auf die
Plattform wirken, nämlich ca. 345 Tonnen. Die maximal erträgliche Windlast ist in der
Planung der Station auf 517 Tonnen festgesetzt worden. Die Eigenfrequenz der Station für
Quer- u. Längsschwingungen beträgt ca. 1,6 Hertz.
„antwortet“ sie nicht mehr so leicht auf
die Angriffe des Windes. Trotzdem werden bei den extremen Stürmen in der
Antarktis, die zu den stärksten der Welt
gehören, wahrnehmbare Schwingungen
bei einem derartigen Bauwerk nicht gänzlich zu vermeiden sein.
Die Station Neumayer III wurde am 20.
Februar 2009 offiziell durch die Bundesforschungsministerin Dr. Annette Scha-
van eröffnet. Die Forscher des AWI sind
mittlerweile in ihre neue Forschungsstation eingezogen und bereiten sich auf die
erste oberirdische Überwinterung vor.
PD Dr.-Ing. Michael Kasperski, Forschungsteam EKIB (Entwurfsgrundlagen
im Konstruktiven Ingenieurbau), Fakultät für Bau- und Umweltingenieurwissenschaften
Abb. 8: Skelettierte Neumayer III
35
Facetten
Rubin 2009
Die Stärke schwacher Bindungen
Transnationale Migrantenorganisationen können neue Ansätze
zur Integration bieten
Rund 20 000 Aleviten aus ganz Europa protestierten am 30. Dezember
2007 in Köln gegen den ARD-Tatort
„Wem Ehre gebührt“. Sie sahen darin durch das deutsche Fernsehen
das jahrhundertealte Stigma des
Inzests der Aleviten in der Türkei
von neuem belebt. Innerhalb weniger Tage organisierte die Konföderation der Alevitischen Gemeinden in Deutschland
(AABK) diese Massenaktion ohne großes
Organisationsbüro oder andere Ressourcen. Wie konnte einer ethnisch-kulturellen Gruppe das gelingen, die eher
durch sehr schwache und dezentrale Organisationsstrukturen gekennzeichnet
ist? War es die Stärke schwacher Bindungen, durch die sich das grenzüberschreitende dezentrale, aber stark koordinierte Netzwerk der alevitischen Gemeinden als äußerst mobilisierungsfähig erwies?
Auf welche Art und Weise sich Migranten hierzulande selbst organisieren,
wurde erst viele Jahre nach der Einwanderung der ersten Gastarbeiter zum Forschungsthema. Die Integration der ArMigrantenorganisationen nicht
nur in Deutschland aktiv
beiter und ihrer nachziehenden Familien
war stets das drängendere Problem. Später dann stellten Soziologen in erster Linie die Frage, welche Rolle Migrantenorganisationen für die Integration von
Migranten in die neue, die deutsche
Ankunftsgesellschaft spielen. Dem
Abb. 1: Aleviten aus Frankreich, den
Niederlanden und anderen Ländern
Europas protestierten 2007 in Köln,
weil sie sich durch eine Krimi-Serie
um einen Mord- und Inzest-Fall in
einer türkisch-alevitischen Familie
in Deutschland stigmatisiert sahen.
36
Facetten
Rubin 2009
Bochumer Projekt „Verbreitung und Kontextbedingungen transnationaler Migrantenorganisationen in Europa (TRAMO, s.
Info)“ unter Leitung von Prof. Dr. Ludger
Pries (Organisationssoziologie und Mitbestimmungsforschung) geht das nicht
weit genug. Denn seit längerer Zeit gibt
es Hinweise, dass viele dieser Gruppen
nicht nur in Deutschland aktiv sind, sondern auch in den Heimatländern ihrer
Mitglieder. Sie arbeiten transnational. Ihre
Strukturen und ihr Vorkommen will das
Team der Ruhr-Universität untersuchen
– und kann dabei auch mit einem Vorurteil aufräumen. „In Deutschland wird es
zurzeit eher als integrationshemmend angesehen, wenn Migranten noch Verbindungen zu ihrem Herkunftsland haben“,
sagt Dr. Zeynep Sezgin, Koordinatorin
des Projekts.
Migranten sollen sich entscheiden –
für das Land, in das sie einwandern, und
damit gegen ihre türkischen, polnischen
oder griechischen Wurzeln. Die Denkweise klingt simpel, ist aber naiv und unrealisitisch. Viele Migranten fühlen sich als
Teil beider Kulturen, leben irgendwo dazwischen. Warum sollte das bei ihren Organisationen anders sein? Sie erhalten die
Kultur der Heimat am Leben, zum Beispiel in Kulturvereinen, in denen auch
noch hier geborene Nachfolgegenerationen Kultur und Traditionen ihres Herkunftslandes erlernen. Auf der anderen
Seite helfen sie zu integrieren, lehren die
neue Sprache, bauen Brücken über bürokratische Hürden hinweg oder motivieren
zur politischen Mitarbeit in Deutschland.
Integration und die Bewahrung der eigenen kulturellen Identität müssen kein Widerspruch zueinander sein.
Schritt 1:
Migrantenorganisationen finden
dener Vereinsregister, Nachfragen bei Ausländerbeiräten, Behörden und Integrationsbeauftragten erstellten die Mitarbeiter
der Fakultät für Sozialwissenschaften die
zurzeit umfangreichste Liste von Migrantenorganisationen in 75 kreisfreien Großstädten Deutschlands. Allein dort spürten
sie 3480 Gruppen auf, rund ein Drittel von
ihnen in Nordrhein-Westfalen, dem deutschen Bundesland für Migranten (s. Abb.
2). 4,1 von insgesamt rund 15 Millionen
Wie viele dieser Organisationen es hierzulande gibt, ist schwer zu sagen. Bisher hat niemand Buch geführt, ein nationales Register existiert nicht. Und wer
glaubt, eine solche Bestandsaufnahme sei in
Zeiten des Internets
wenig problematisch,
Migrantenorganisationen
der irrt. Die Recherche
war für das Bochumer
Team aufwändig, aber
auch nötig, um sich einen Überblick zu verschaffen und später
Gruppen mit transnationalem Charakter
herausfiltern zu können. Mit Hilfe verschie-
Abb. 2: Von 3480 Organisationen in Deutschland
registrierten die Forscher
ein Drittel allein in Nordrhein-Westfalen. In diesem Bundesland leben
rund 15 Millionen Menschen, darunter 4,1 Millionen, die ihre Wurzeln in
anderen Ländern haben.
1.000 bis 1.114
400 bis 999
150 bis 399
50 bis 149
30 bis 49
0 bis 29
37
Facetten
Rubin 2009
info
TRAMO im internationalen Vergleich: Warschau – Oxford – Granada – Bochum
Das Team vom Lehrstuhl für Soziologie/Organisation, Migration, Mitbestimmung an der
Ruhr-Universität gibt in dem Projekt „Verbreitung und Kontextbedingungen transnationaler Migrantenorganisationen in Europa (TRAMO, Laufzeit 2007-2010)“ Einblick in die
Struktur und Arbeitsweise von Migrantenorganisationen. Dafür hat es die zurzeit umfassendste Liste solcher Organisationen in Deutschland erstellt. Derzeit untersuchen die Forscher ausgewählte Gruppen auf transnationale Aktivitäten. Diese grenzüberschreitende
Perspektive soll neue Ansätze in der Integrationsdebatte ermöglichen. Unter Federführung des Bochumer Teams nehmen drei weitere Universitäten an dem Projekt teil, um
einen internationalen Vergleich zu ermöglichen: die Universitäten Warschau, Oxford und
Granada. Gefördert wird das Projekt von der VolkswagenStiftung.
Weitere Informationen: http://www.rub.de/tramo
Menschen, die Wurzeln in anderen Ländern haben, leben hier. Dementsprechend
groß ist das Angebot an Organisationen.
Die Zahlen auf den Rest des Landes
hochzuschätzen, wäre ebenso vermessen
wie die Zahl ihrer Mitglieder zu ermitteln,
erklärt Dr. Zeynep Sezgin. „Nicht jede Organisation gibt ihre genaue Mitgliederzahl
an. Und ist ein Familienmitglied Teil der
Organisation, so ist es in der Regel auch
der Rest der Familie, ohne offiziell erfasst
zu werden.“
Eindeutig und auch wenig überraschend
hingegen ist die Verteilung der Nationalitäten, die die Organisationen repräsentieren (s. Abb. 3): Mehr als ein Viertel (28%)
der Gruppen sind türkisch, gefolgt von anderen europäischen Ländern wie Spanien
oder Portugal (22%) und Afrika (11%).
Schritt 2:
Auf der Suche nach dem Idealtyp
Die Liste war für das Bochumer Team
nur der erste Schritt, denn nicht alle der
3480 Organisationen sind transnational aktiv, also im Ankunfts- und im Herkunftsland. Für eine genauere Analyse begrenzten die TRAMO-Forscher die Aus-
wahl auf polnische und türkische Migrantenorganisationen mit religiösen und/oder
politischen Motiven, insgesamt rund 700.
„Die Migrationsgeschichte der Polen nach
Deutschland reicht weit zurück, Türken
hingegen machen den größten Anteil der
Einwanderer und Organisationen aus“, erklärt Prof. Ludger Pries die Auswahl. „Viele
Organisationen sind politisch oder religiös
aktiv. Sie haben eine besondere Bedeutung
und vor allem auch mehr Brisanz für die
Gesamtgesellschaft als zum Beispiel ein
Sportverein.“ Am Ende fiel die Wahl auf
acht Organisationen: vier polnische und
vier türkische, wovon jeweils zwei Organisationen politische und zwei religiöse
Schwerpunkte haben.
Sie alle kommen theoretisch dem Idealbild einer transnationalen Struktur sehr
nahe (s. Tab.). Das haben sie anhand des
Kriterienkatalogs der TRAMO-Forscher
bewiesen, zu dem unter anderem solche
Fragen gehören: Hat die Organisation eigene Organe und/oder Kooperationspartner im Herkunfts- und im Ankunftsland?
Gibt sie Publikationen in beiden Ländern
heraus? Richtet sie sich nicht nur an die
Migranten in Deutschland, sondern auch
an die Menschen in der Heimat? Ein Beispiel dafür ist die Alevitische Gemeinde
Deutschland, meint Dr. Zeynep Sezgin.
„Die Aleviten in Deutschland sprechen mit
vielen Aktionen auch direkt die Menschen
in der Türkei an, um die Anerkennung ihrer Religion dort voranzutreiben.“
Die acht verbliebenen Organisationen
werden bis Herbst 2009 weiter analysiert.
„Wie transnational sie wirklich sind, lässt
sich jetzt noch nicht sagen“, sagt Sezgin.
Das Forscherteam untersucht dafür die
Schriften, Pressemitteilungen und Satzungen der Organisationen, interviewt
Experten auf diesem Forschungsfeld und
nimmt beobachtend an offiziellen Veranstaltungen und Aktionen teil.
Herkunftsländer
>0,1 %
1 %
8 %
Türkei
3 %
Ex-Jugoslawien, Balkan
3 %
28 %
4 %
Europa
Afrika
Mittlerer Osten, Zentral-Asien
6 %
Ost-Asien, Ozeanien
Ex-Sowjetunion
Lateinamerika, Karibik
8 %
6 %
Nordamerika
Keine Angabe
Abb. 3: Der Großteil der in Deutschland organisierten Migranten stammt aus der Türkei und aus
westeuropäischen Ländern (z.B. Spanien, Portugal Griechenland). Lediglich drei Prozent der Migrantenorganisationen sind multinational.
38
Multinational
11 %
22 %
Unspezifisch
Facetten
Rubin 2009
Aber wozu das Ganze? Wer das Vorurteil vom Anfang weiterführt, der müsste
Neue Ansätze können nicht
nur den Migranten helfen
logisch folgern, dass transnationale Migrantenorganisationen der Integration
nicht gut tun. „Ganz im Gegenteil“, wi-
derspricht Prof. Ludger Pries. „Sie können beiden Seiten Vorteile bringen. So
könnten deutsche Unternehmen mit Hilfe von Migrantenorganisationen gute Kontakte ins Ausland knüpfen.“ Und Projektkoordinatorin Sezgin ergänzt: „Wie das
Beispiel der Aleviten zeigt, können die Organisationen auch aus der Ferne etwas für
ihre Heimat tun, nicht nur wirtschaftlich,
sondern auch im Hinblick auf Demokratisierungsprozesse.“ Konkrete Ansätze für
die Integrationsdebatte will und kann das
TRAMO-Projekt nicht liefern. Es widmet
sich allein der Grundlagenforschung. „Integrationsstrategien daraus zu entwickeln,
ist dann Aufgabe der Politik.“
Sarah Ziegler
Tabelle
Idealtyp
Migrantenorganisationen
Merkmale
Ankunftsland Ankunftsland Herkunftsland Herkunftsland Multinational Transnational
-fokal
-global
-fokal
-global
Ressourcenmobilisierung
und
Ankunftsland-
Ankunftsland-
Herkunftsland-
Herkunftsland-
Herkunfts- und
Herkunfts- und
-verteilung
zentriert
zentriert
zentriert
zentriert
Ankunftsland-
Ankunftsland-
-Mitgliedschaft -Geld -Infrastruktur
orientiert
orientiert
Hauptthemen/-forderungen
Ankunftsland-
Ankunftsland-
Herkunftsland-
Herkunftsland-
Herkunfts- und
Herkunfts- und
-Themen - Zielgruppen - Verbündete
zentriert
zentriert
zentriert
zentriert
Ankunftsland-
Ankunftsland-
orientiert
orientiert
Ausrichtung der Außenaktivitäten
Ankunftsland-
Ankunftsland-
Herkunftsland-
Herkunftsland-
Herkunfts- und
Herkunfts- und
-Publikationsstrategie - Öffentl. Aktionen
zentriert
zentriert
zentriert
zentriert
Ankunftsland-
Ankunftsland-
orientiert
orientiert
- Gespräche/meetings
Ausrichtung der internen Aktivitäten
Schwache
Starke
Schwache
Starke
Schwache
Starke
- Kommunikationsflüsse - Versammlungen
Koordination
Koordination
Koordination
Koordination
Koordination
Koordination
- Interne Wahlen - Entscheidungsprozesse
Tab.: Sechs Idealtypen von grenzüberschreitenden Migrantenorganisationen
39
Naturwissenschaften
Rubin 2009
Wer führt im Terahertz-Tanz
Wasser und Proteine: Ein starkes Team
Proteine sind in unserem Körper für zahllose Funktionen verantwortlich, und
doch ist der genaue Mechanismus immer
noch teils unverstanden. Bisher wurden
die Proteine bei den meisten Untersuchungen isoliert betrachtet. Chemiker
nehmen jetzt mittels Terahertz-Strahlung ihre natürliche Umgebung, das
Wasser, mit in den Blick. Vorher wurde
Wasser als reine Bühne für den Tanz der
Proteine angesehen, dabei gibt es inzwischen immer mehr Hinweise darauf,
dass es ein aktiver Tanzpartner des Proteins ist.
Auch Prof. Dr. Martina Havenith hatte
es zuerst nur auf die Proteine abgesehen.
Endlich wollte sie sie einmal mit Strahlung
im Terahertz-Bereich (THz) beobachten –
eine Lücke in der Wellenlängenskala, weil
niemand eine ausreichend starke Quelle
für Terahertz-Laser bauen konnte (s. Info).
Der Zufall ließ sie Dr. Erik Bründermann
kennenlernen, der einen leistungsstarken
Laser beim Deutschen Zentrum für Luftund Raumfahrt (DLR) in Berlin für die
Astronomie entwickelt hatte. „Wenn ich
später einmal Geld habe, möchte ich damit Proteine untersuchen“, träumte sie
damals. Mit ihrer Berufung an die RuhrUniversität war es soweit – und wieder half
auch der Zufall ein wenig nach: Erik Bründermann suchte gerade eine Stelle, Martina Havenith hatte eine anzubieten. So kam
der Terahertz-Laser nach Bochum.
40
So viel Geld, dass man groß angelegte
Studien anfangen konnte, war allerdings
dann doch nicht da. Aber bei einem Besuch von Prof. Dr. Martin Gruebele (University of Illinois), einem international renommierten Forscher im Bereich der Proteinfaltung, in Bochum ergaben sich in
der Diskussion neue Perspektiven. Prof.
Dr. Martin Gruebele war von den Möglichkeiten der neuen Methode im BeGlücksfall für Forscher: Programm,
das gezielt Hochrisikoprojekte fördert
reich der Terahertz-Spektroskopie sofort
begeistert. Die beiden Forscher suchten
im Internet nach Fördermöglichkeiten
für ein gemeinsames Projekt und fanden
das Human Frontier Science Programme
(HFSP), bei dem sie sich kurzerhand bewarben – und glatt durchgewunken wurden. Eine Million US-Dollar standen zur
Verfügung, „und das in einem Hochrisikoprojekt, dessen Ertrag unabsehbar war“,
freut sich Prof. Havenith noch jetzt, „ohne
diesen enormen Vertrauensvorschuss, der
Forschern in diesem Förderprogramm gewährt wird, hätten wir das Problem nie angehen können.“
Der Versuchsaufbau sollte recht einfach sein: Da man wusste, wie Wasser die
Strahlung absorbiert, bräuchte man nach
der Untersuchung von Proteinen in Wasser bloß die bekannte Absorption des Wasser herauszurechnen und hätte danach
den „Fingerabdruck“ des
Proteins – d.h. seine charakteristische Absorption – im Terahertz-Bereich.
Nur um zu prüfen, ob die Geräte funktionieren, schickten die Forscher die Terahertz-Strahlung durch reines Wasser und
zum Vergleich durch Zuckerwasser. Nur
passten die Ergebnisse nicht ins Bild. Wasser plus Zucker ergab ganz andere Werte
als die separate Addition der Absorption
von Wasser und Zucker alleine. 400 Messungen ließen sie ablaufen, mit unverändertem Ergebnis.
„Da wurde uns klar, dass wir umdenken mussten“, so Martina Havenith. „Wir
waren darauf gestoßen, dass die Anwesenheit des Zuckers das Wasser an sich verändert.“ Es war aus Simulationen bekannt,
dass Wassermoleküle in unbeeinflusstem
Wasser etwa einmal in jeder Picosekunde
Naturwissenschaften
Rubin 2009
Abb. 1: Die Anwesenheit eines Proteins sorgt im umgebenden Wasser für Ordnung: Tanzen die Wassermoleküle allein noch wie in der Disko, führen sie um das Protein herum eher ein Menuett auf.
(eine Billionstelsekunde) die Wasserstoffbrückenbindung
zum nächsten Wassermolekül
öffnen und wieder schließen. Ist nun Zucker im Wasser, verlangsamt sich dieser
wilde Tanz. Die neuen Paarungen treten
nur noch durchschnittlich alle 1,3 Picosekunden auf. Die Reichweite verschiedener
Zuckerarten ist dabei unterschiedlich:
bei Wassermangel oder Frost länger am
Leben und wird auch in der Lebensmittelindustrie als Konservierungsstoff eingesetzt. Ein Grund dafür könnte der Einfluss
der Trehalose auf das Wasser sein.“
Die große Frage war natürlich nun: Wie
interagieren Proteine und Wasser? Auch
das leuchteten die Forscher mittels Terahertz-Strahlung genau aus. Wie sie inzwischen erwarteten, besteht ein enges Zusammenspiel zwischen Proteinen und
Wassermolekülen. Ein Protein bringt dabei rund 1.000 Wassermoleküle in seiner
Umgebung „auf Linie“ (Abb. 1). „Man
kann es sich so vorstellen, dass in unbeeinflusstem Wasser die Moleküle wie in der
Disko tanzen – mal mit dem und mal mit
jemand anderem, jedes für sich. Kommt
ein Protein ins Spiel, ist der Tanz der Wassermoleküle in der Umgebung verändert,
sie halten länger an ihrem Partner fest.“
Gefaltete Proteine – also Proteine in ihrer
Schützender Effekt: Zucker
beeinflusst Wassermoleküle
Während Glucose nur etwa 50 Wassermoleküle in ihrer Bewegung beeinflusst,
sind es bei Lactose etwa 150 und bei Trehalose sogar 190 Moleküle. „Das könnte ein
Grund für den schützenden Effekt des Zuckers sein“, mutmaßt Prof. Havenith. „Trehalose zum Beispiel hält Pflanzenzellen
Abb. 2: Ein gefaltetes Protein beeinflusst das Wasser in der Umgebung anders als ein ungefaltetes Protein. Nur im gefalteten Zustand können Proteine ihre Funktion ausüben.
41
Naturwissenschaften
info
Terahertz-Strahlung
Der Terahertz-Bereich liegt im elektromagnetischen Spektrum zwischen Mikrowellen und Infrarotstrahlung (Frequenzen von 0,3 THz bis 10 THz, ein THz
= 1000 Gigahertz). Das entspricht Wellenlängen von 1 Millimeter bis 0,03 Millimetern. Zum Vergleich: Ein menschliches Haar hat einen Durchmesser von
etwa 0,1 Millimetern.
Während die Infrarotstrahlung (Radar) nach dem zweiten Weltkrieg und
die Mikrowellen seit den 1960er Jahren gründlich erforscht und die Quellen perfektioniert wurden, blieb zwischen ihnen lange die Terahertz-Lücke
übrig. Erst um 1990 gab es ausreichend
starke Quellen für Forschung mit dieser
Wellenlänge – genau der, bei der man
die Aktivität der Proteine genau beobachten kann.
42
Rubin 2009
aktiven Form – haben dabei einen anderen Einfluss auf ihre Umgebung als ungefaltete (Abb. 2). Sämtliche künstlich veränderten Proteine (Mutanten), mit denen die
Forscher den Test machten, haben weniger Einfluss auf das umgebende Wasser
als authentische Proteine. Vielleicht ein
Hinweis darauf, dass die Fähigkeit, das
Wasser zu beeinflussen, eine biologische
Funktion hat, die im Laufe der Evolution
von Bedeutung war.
Aber warum? Wie genau beeinflussen
sich die beiden Tanzpartner, Protein und
Wasser? Um das herauszufinden, kam die
so genannte KITA-Spektroskopie (Kinetic
Terahertz Absorption Spectros-copy) zum
Einsatz (Abb. 3). Dabei werden kurze Terahertz-Pulse ausgesandt, die in Millisekundenauflösung Einzelbilder des beobachteten Prozesses liefern, praktisch also einen
bewegten Film. Außerdem setzten die Forscher andere biophysikalische Methoden
wie Röntgenstreuung, Fluoreszenzspektroskopie und CD-Spektroskopie (Circular
Dichroismus) zum Vergleich ein.
Die Chemiker starteten also den Proteinfaltungsprozess und zeichneten dann
die Geschehnisse in einem Film in einem
Abstand von jeweils einer Millisekunde
pro Bild auf. Schon binnen weniger als
zehn Millisekunden fanden sie die Bewegungen des Wassernetzwerks veränProteinfaltung im Film und das
„Henne-Ei-Problem“
dert, während der eigentliche Faltungsprozess 100mal länger dauert und sich
über einen Zeitraum von einer Sekunde
erstreckt. „Die Umänderung des Wassernetzwerkes erfolgte sofort, erst danach
starten die eigentlichen Faltungsprozesse,
die sich über einen Zeitraum von 0,9 Sekunden erstrecken“, sagt Prof. Havenith.
„Was wir natürlich unbedingt noch wissen
wollen, ist, wie genau der Beginn der Proteinfaltung von der Wasserveränderung
ausgelöst wird.“ Möglich wäre es auf jeden Fall, dass eine zufällige Bewegung
des Protein-Wassernetzwerkes dem Pro-
Rubin 2009
tein den entscheidenden Schubs gibt, der
die Faltung auslöst.
Den wichtigen Einfluss des Wassers
für die Funktion von Proteinen belegte
ein weiteres Experiment, bei dem nur
winzige Mengen Wasser einem kleinen
Protein (Peptid) zugegeben wurden. Erst
ab einer bestimmten Wassermenge, nämlich wenn das Peptid etwa zur Hälfte mit
Wasser bedeckt ist, setzen die typischen
Wasserbewegungen ein. Es ist ganz genau die Menge an Bedeckung mit Wasser, ab der bestimmte Reaktionen bei
Proteinen erst möglich sind. „Die Bewegung des Wassers ist offenbar unverzichtbar für die biologische Funktion“, folgert
Prof. Havenith.
Wenn die Zusammenhänge erst einmal
komplett verstanden sind, hoffen die Forscher auch auf medizinische Anwendbarkeit dieser Erkenntnisse. „Ich bin sicher,
dass man da eingreifen kann“, so Martina
Havenith-Newen, „man muss die Prozesse
nur verstehen – und dafür muss man sie
genau beobachten.“
Naturwissenschaften
Abb. 3: Der Terahertz-Laser am Lehrstuhl für Physikalische Chemie passt auf einen Tisch. Dr. Erik
Bründermann entwickelt ihn seit Ende der 1980er Jahre weiter.
43
Facetten
Rubin 2009
Der eigene Körper im Zerrspiegel
Neuropsychologische Grundlagen des gestörten Körperbildes bei Essstörungen
„Ich bin zu dick“ ist das Urteil von Patientinnen mit Essstörungen beim Blick
in den Spiegel, auch wenn sie oft objektiv untergewichtig sind. Eine verzerrte
Körperwahrnehmung ist Risiko- und
aufrechterhaltender Faktor von Essstörungen wie Magersucht (Anorexie) und
Ess-Brech-Sucht (Bulimie). Diese Verzerrung spiegelt sich in den Hirnfunktionen
wider und kann durch Körperbildtherapie nachweislich verändert werden.
Das Gefühl, zu dick zu sein, die Angst
zuzunehmen, ständiges Messen und Wiegen des eigenen Körpers und die VermeiDie große Bedeutung des Körperbilds
wurde lange vernachlässigt
dung, sich anderen zu zeigen, quälen essgestörte Patientinnen und Patienten, die
objektiv normal- oder untergewichtig sind.
Studien haben gezeigt, dass Betroffene ih-
Abb. 2: Im Kernspintomografen wurden den Probandinnen standardisierte Fotoserien mit je 16 Aufnahmen aus unterschiedlichen Perspektiven von ihnen selbst und von einer fremden Kontrollperson
gezeigt - hier von einer Puppe nachgestellt. Die Köpfe wurden aus den Fotos entfernt, um überschneidende Hirnreaktionen zu vermeiden.
44
ren eigenen Körper viel umfangreicher
wahrnehmen, als er tatsächlich ist, und
sich unattraktiver einschätzen als Andere.
Mit Bildern von sich selbst konfrontiert,
suchen sie geradezu die vermeintlichen
Schwachstellen, während sie positive Eigenschaften ausblenden. Bei der Betrachtung Anderer funktioniert das umgekehrt.
Die Betrachtung des eigenen Körpers ist
mit Gefühlen wie Traurigkeit und Ekel verbunden.
„Die große Bedeutung des gestörten
Körperbilds wurde in der Therapie von
Essstörungen lange vernachlässigt“, sagt
Dr. Silja Vocks. Sie ist dem Problem seit
Facetten
Rubin 2009
Jahren auf der Spur. Gemeinsam mit einer Kollegin hat sie eine Gruppentherapie
entwickelt, die hilft, das Verhältnis zum
eigenen Körper wieder zu normalisieren,
ihn immer weniger als Feind zu begreifen (s. Info). Die Konfrontation mit dem
Körperbildtherapie verbessert
nachhaltig das Selbstbild
eigenen Körper im Spiegel vor der Gruppe
und auf Video, der Abschied von Gedanken wie „Der Wert meiner Person hängt
von meinem Gewicht ab“ und das Erlernen von positiven körperbetonten Aktivi-
täten zeigen Wirkung: Studien zufolge verbessert sich das Verhältnis zu sich selbst,
werden die Einschätzungen des eigenen
Körpers realistischer. Die Verbesserungen
bleiben auch langfristig bestehen.
Worauf beruht aber das verfälschte
Selbstbild bei Essgestörten? Was ist der
neuropsychologische Hintergrund? Was
verändert die Therapie? Diese Grundlagen
haben Silja Vocks und der Neuropsychologe Dr. Boris Suchan nun in einer weiteren Studie ergründet. Sie untersuchten
Patientinnen (Männer fanden sich nicht
in ausreichender Zahl) mit verschiedenen
Essstörungen – 13 Magersüchtige, 15 Buli-
Abb. 1: Und mögen sie noch so schlank sein:
Patientinnen mit Essstörungen überschätzen
ihre Körpermaße. Ständiges Wiegen und
Vermessen von Körperteilen sind typisch.
mikerinnen und 27 gesunde Kontrollpersonen – im Kernspintomografen, den ihnen das auf dem RUB-Campus gelegene
Grönemeyer-Institut inklusive der Unterstützung des Physikers Dr. Martin Busch
zur Verfügung stellte.
Sämtliche Patientinnen wurden zweimal untersucht: einmal zu Beginn der Studie und einmal nach ca. zehn Wochen. Sie
45
Facetten
Rubin 2009
Das Gehirn im Kernspinbild
„Extrastriate Body Area“
Aktivierung bei Anorexia Nervosa
Aktivierung bei Kontrollpersonen
Reduktion der Grauen Substanz
bei Anorexia Nervosa
Abb. 3: Die graue Substanz der Extrastriate Body
Area war bei essgestörten Patientinnen vor der
Körperbildtherapie deutlich verringert. Nach der
Therapie glich sich das aus. Ebenso stieg nach
der Therapie die Aktivität in diesem Hirnbereich
bei Betrachtung des eigenen Körpers an.
Verstärkte Aktivierung bei Pat.
mit Anorexia Nervosa nach einer
Körperbildtherapie
wurden nach der ersten Untersuchung zufällig in zwei Gruppen eingeteilt, die dann
annähernd gleich viele Patientinnen mit
den jeweiligen Diagnosen umfassten.
Gehirnregion, die Körperbilder
verarbeitet, ist verkleinert
Die eine Gruppe erhielt sofort die zehnwöchige Gruppentherapie zur Verbesserung des Körperbildes, die andere musste noch warten. Für sie begann die Körperbildtherapie erst nach der zweiten Untersuchung. „So wollten wir im Vergleich
herausfinden, was sich durch die Therapie
verändert“, erklärt Silja Vocks.
Während der Untersuchung im Kernspintomografen wurden den Patientinnen
verschiedene Bilder gezeigt. Zum einen be-
46
trachteten sie Darstellungen von menschlichen Körpern im Wechsel mit Bildern
von Gegenständen. So konnten die Forscher gezielt die Hirnregionen identifizieren, die bei der Verarbeitung von Körperbildern besonders aktiv sind. Zum anderen wurden die Probandinnen mit Fotoserien konfrontiert, die ihren eigenen und
einen fremden Frauenkörper aus verschiedenen Standardperspektiven zeigten (Abb.
2). Die Serien von jeweils 16 Fotos wurden
bei Beginn der Studie aufgenommen. Alle
Probandinnen trugen dabei den gleichen
Bikini und wurden anhand von Markierungen auf dem Boden aus identischen
16 Perspektiven fotografiert. Die Köpfe
wurden auf den Bildern für die Untersuchung entfernt. „Die Betrachtung von
Gesichtern wird im Gehirn von einer
Region verarbeitet, die sich teils mit der
für die Körperbetrachtung zuständigen
überschneidet“, erläutert Boris Suchan.
„Daher haben wir die Köpfe entfernt, um
Irritationen zu vermeiden.“ Vor Erscheinen der Bilderserien wurde jeweils eingeblendet, ob darauf der eigene oder ein
fremder Körper zu sehen war.
Bei der Auswertung der kernspintomografischen Aufnahmen machten die Forscher eine überraschende Entdeckung:
„Die strukturellen Untersuchungen, die
noch nichts mit den eigentlichen Aktivierungsmustern zu tun haben, haben gezeigt, dass in der für die Verarbeitung von
Körperbildern zuständigen Hirnregion bei
Essgestörten die graue Substanz deutlich
vermindert war“, so Boris Suchan. Die betreffende Hirnregion (Extrastriate Body
Facetten
Rubin 2009
Area, EBA) wurde vor etwa fünf Jahren
erstmals beschrieben (s. Abb. 3).
„Unsere unerwartete Entdeckung stellte
uns natürlich vor neue Fragen“, so Suchan.
„Beruht die gestörte Körperwahrnehmung
bei Essstörungen auf einer Prädisposition, also einer Veranlagung, die schon von
vornherein da ist? Lässt sich die Hirnregion beeinflussen?“
Die zweite Kernspinuntersuchung der
Patientinnen nach der Körperbildtherapie
beantwortete zumindest die zweite Frage:
Tatsächlich hatte sich in der Gruppe der
Frauen mit Anorexia Nervosa die Aktivierung der Extrastriate Body Area sowohl
in der rechten als auch in der linken Hemisphäre durch die Therapie erhöht. (s.
Abb. 3). „Die Region ist also plastisch: Man
kann sie durch therapeutische Intervention verändern“, folgert Boris Suchan.
Die Beobachtung der Aktivierungsmuster im Gehirn bei der Betrachtung
des eigenen und eines fremden Körpers
mittels funktionaler Kernspintomografie
zeigten ebenfalls deutliche Unterschiede
zwischen gesunden und essgestörten Versuchspersonen. Die Forscher beobachteten auch eine deutlicher erhöhte Aktivität der Amygdala bei Betrachtung fremder
Körper bei den Patientinnen mit Essstörungen verglichen mit den gesunden Kontrollpersonen. Die Amygdala, der „Mandelkern“, ist Bestandteil des limbischen
Systems und wird bei Angst oder unangenehmen Gefühlen aktiviert. „Wir interpretieren das als Zeichen dafür, dass sich Patientinnen stärker mit anderen vergleichen
und bei diesem Vergleich in ihrem subjektiven Empfinden schlechter abschneiden“,
erklärt Silja Vocks.
Dass die Amygdala bei der Betrachtung des eigenen Körpers nicht die erIm Vergleich mit anderen schneiden
Patientinnen subjektiv schlecht ab
höhte Aktivität zeigte, erklären die Forscher mit einer verminderten Aufmerksamkeit gegenüber dem eigenen Körper,
die mit dem bekannten Vermeidungsverhalten zusammenpasst und sich auch in
einer verminderten Aktivität in Hirnregionen, die für Aufmerksamkeitsprozesse
zuständig sind, widerspiegelt. „Auch wenn
man mit offenen Augen ein Bild anschaut,
kann man ja innerlich auf Distanz gehen
und sich dagegen verschließen“, verdeutlicht Silja Vocks. „Wir nehmen an, dass das
bei Patientinnen mit Essstörungen der Fall
ist.“ Der Vergleich der Kernspinuntersuchungsergebnisse der essgestörten Studienteilnehmerinnen, die an der Therapie genommen hatten und derjenigen, die
stattdessen warten mussten, ergab Hinweise darauf, dass die Aktivität der Extrastriate Body Area nach der Körperbildtherapie zugenommen hatte, während sie bei
den Probandinnen, die warten mussten,
konstant geblieben war.
info
Körperbildtherapie
Am Beginn der Körperbildtherapie, die das Zentrum für Psychotherapie an der Fakultät für
Psychologie der Ruhr-Universität seit 2003 anbietet, steht eine Bestandsaufnahme: ein
Rückblick darauf, was vielleicht in der Kindheit und Jugend den Ausschlag in die falsche
Richtung gegeben hat. In den folgenden Sitzungen – zehn Einheiten finden wöchentlich
in Gruppen bis zu sechs Teilnehmerinnen statt – geht es darum, die negativen Wahrnehmungen, Gedanken, Gefühle und Verhaltensweisen zu erkennen und Schritt für Schritt
zu verändern. Zentrales Element im Therapieprogramm sind Konfrontationen mit dem eigenen Körper vor dem Spiegel und mittels Videoaufnahmen. Schließlich lernen die Patientinnen, wieder positive körperbezogene Aktivitäten aufzunehmen, zum Beispiel tanzen oder schwimmen.
Verschiedene Studien haben gezeigt, dass die Patientinnen von der eingehenden Beschäftigung mit sich selbst profitieren. So verbessert sich nicht nur die Einstellung zum eigenen Körper, sondern auch das gestörte Essverhalten wird reduziert und das allgemeine
Selbstwertgefühl gesteigert.
47
Facetten
Rubin 2009
Winzige Schluchten schlucken den Schall
Luftdurchlässig, aber dicht: Lärmmindernder Asphalt
Mit der neusten Kreation aus der Asphaltküche schlagen Bochumer Bauingenieure dem Straßenlärm ein Schnippchen. Sie schufen einen Flüsterasphalt,
der zwar dicht ist, aber doch luftdurchlässig, zwar griffig, aber doch eben genug um das Geräusch des Abrollens der
Autoreifen zu mindern – der optimale
Straßenbelag für Innenstädte.
Düsseldorf Innenstadt, Feierabendverkehr. Dass das Handy klingelt, bemerkt
man nur an der Vibration. Worum es geht,
bleibt ein Geheimnis – der Straßenlärm ist
ohrenbetäubend. Schlimm für Passanten,
aber noch schlimmer für die Anwohner,
die tagsüber keine ruhige Minute haben.
Der Lärm nagt an den Nerven und macht
auf Dauer krank.
Aber wie die Menschen vor dem Lärm
schützen? Schallschutzwände haben in
der Stadt keinen Platz, und auch die besten Schallschutzfenster müssen zum Lüften geöffnet werden. Die Städte müssen
sich also etwas anderes überlegen. Neben den Anwohnern dringt darauf auch
die EU. Das nötige Geld spült jetzt das
48
zweite Konjunkturpaket der Bundesregierung zur Dämpfung der Wirtschaftskrise in die städtischen Kassen. Es kann
also losgehen.
Erster Schritt im Kampf gegen den
Lärm: Seinen Gegner kennen. Forscher haben den Lärm fahrender Autos und Lkw
genau analysiert. Der Krach setzt sich aus
verschiedenen Komponenten zusammen.
Und – wer hätte das gedacht: Schon ab etwa
40 Stundenkilometern übertönt das Fahrbahngeräusch den Motor. Die wichtigsten
Bestandteile des Reifengeräuschs wiederum sind die Eigenschwingung der Reifen
Ab 40 Stundenkilometern übertönt
das Reifengeräusch den Motor
und – wieder eine Überraschung für Nichtfachleute: Luftgeräusche. Sie kommen dadurch zustande, dass beim Abrollen des
Reifens die Luft, die zwischen den Vertiefungen des Gummireifens und der Straßenoberfläche eingeschlossen ist, zusammengepresst wird und dann beim weiteren
Abrollen mit einem hörbaren Zischen entweicht (air-pumping). „Man muss sich das
ungefähr so vorstellen wie beim Aquaplaning“, erklärt Daniel Gogolin, Forscher am
Lehrstuhl für Verkehrswegebau der RuhrUniversität (Prof. Dr. Martin Radenberg).
„Nur lässt sich Wasser nicht komprimieren, dadurch bildet sich ein Film und der
Reifen schwimmt.“ Luft hingegen lässt
sich komprimieren und dehnt sich dann
wieder aus, wobei es zischt.
Die Waffen des Gegners sind also erkannt. So ließ sich eine erste Gegenstrategie entwerfen: OPA. Der offenporige Asphalt, der seit einiger Zeit eingesetzt wird,
„schluckt“ Luft und Lärm. Dank ihrer speziellen Zusammensetzung aus verhältnismäßig großen Körnern ist die ca. vier Zentimeter dicke Oberfläche sehr porös. Mehr
als 20 Prozent des Volumens besteht aus
Hohlräumen. Die Luft im Reifenprofil
wird daher nicht zusammengepresst, sondern in die Straßenoberfläche hineingedrückt, wo sie sich im Hohlraumgeflecht
verteilt – ohne Zischen. Zusätzlich nimmt
der offenporige Asphalt Schallwellen auf,
die der Motor erzeugt.
Leider hat OPA auch Nachteile. Eine
kleine Weile konfrontiert mit Reifenabrieb
Facetten
Rubin 2009
Abb. 1: Der Augenblick der Wahrheit: Der Messanhänger blendet alle außer den Reifenabrollgeräuschen aus und misst die tatsächliche Geräuschentwicklung des Reifens auf dem Asphalt.
und sonstigem Straßenschmutz hat er die
längste Zeit offene Poren gehabt. Bremsen
und Anfahren erzeugen darüberhinaus
Schub- und Scherkräfte, die leicht Körner aus der porösen Oberfläche herausreißen. Flickstellen durch Kanalarbeiten
oder nach einem Verkehrsunfall zerstören das Porengeflecht. OPA eignet sich
daher nur für Autobahnen. Hier wird wenig geflickt, gebremst und angefahren, dafür aber schnell gefahren, was wiederum
Konvexe Oberfläche
Fliehkräfte erzeugt, die Staub und Dreck
aus den Poren herausziehen. Eines ist
aber auch eine Autobahn nicht: trocken.
In die offenen Poren dringt leicht Wasser
ein, das sich beim Gefrieren im Winter
ausdehnt und die Struktur sprengt. Daher werden OPA-Fahrbahnen mit einem
aufwändigen Drainagesystem versehen,
über das Wasser möglichst schnell abfließen soll. Trotzdem ist die Nutzungsdauer
auf maximal zehn Jahre beschränkt.
„Aus all diesen Gründen müssen wir
im Innenstadtbereich zu anderen Methoden greifen“, fasst Daniel Gogolin
Für Innenstädte musste eine spezieller
Flüsterasphalt entwickelt werden
den Ausgangspunkt der Arbeit des Lehrstuhls der Ruhr-Universität zusammen.
Die Forscher machten sich, beauftragt von
der Stadt Düsseldorf, ans Werk, sammel-
Konkave Oberfläche
Abb. 2: Übliche Straßenbeläge haben eine eher konvexe Oberfläche wie ein Gebirge mit Bergen und
Tälern. Besser gegen Lärm schützt eine konkave Oberfläche: ein Plateau mit Schluchten.
49
Facetten
Rubin 2009
Abb. 3: Baustoffprüfer Tobias Papajewski lässt im Labor beschwerte Gummireifen bei 60° C
zigtausendmal über den neuen Fahrbahnbelag rollen. So zeigt sich, wie haltbar er ist. Je geringer
die Spurrinne am Ende ausfällt, desto langlebiger ist der Straßenbelag.
ten Daten und stellten die gewünschten
Eigenschaften einer perfekten Straßenoberfläche zusammen, testeten verschiedenste Zusammensetzungen experimentell auf die Verteilung der Hohlräume im
Gesamtgefüge und die Porengröße, ihre
Stabilität und Griffigkeit. Heraus kam eine
neue Art von Flüsterasphalt (Lärmoptimierte Asphaltdeckschicht, LOA 5 D), der
ähnliche Vorteile wie OPA, aber nicht seine Nachteile hat.
„Der erste Trick ist das Profil der Oberfläche“, erklärt Gogolin. Anders als bei
Eine Ebene mit Schluchten
nimmt Schallwellen auf
herkömmlichen Fahrbahndecken (abgestumpft) handelt es sich im Höhenprofil
betrachtet nicht um ein Gebirge mit Bergen und Tälern (konvexe Oberflächenstruktur), sondern um eine Ebene mit
Schluchten (konkave Oberflächenstruktur,
s. Abb. 2). Aufgrund der geringeren lokalen Kontaktdrücke und der niedrigeren,
den Reifen radial anregenden Schlagenergie werden die starken Eigenschwingungen des Reifens reduziert und damit
schon eine Menge Lärm verhindert. Da die
Kehrseite des leisen Rollens die schwindende Griffigkeit ist, optimierten die Forscher die Oberflächengestaltung in einem
aufwändigen experimentellen Prozedere.
„Auf der einen Seite steht der so genann50
te Gestaltfaktor, das Ergebnis der statistischen Auswertung der Häufigkeit der
Profiltiefen. Bei Werten größer 68 Prozent ist eine Oberfläche lärmgünstig“, erklärt Gogolin. „Unsere Oberfläche hat einen Wert von 80 bis 84 Prozent. Die Griffigkeit hängt unter anderem von der so
genannten Makrotexturtiefe ab, die mindestens 0,4 Millimeter betragen muss und
bis 0,8 Millimeter lärmgünstig ist. Unser
Wert: 0,66 Millimeter.“ Eine Punktlandung also.
Der zweite Trick ist ein feines Geflecht
von Hohlräumen, ähnlich wie bei OPA,
aber wesentlich filigraner. Luft kann weiterhin oberflächlich eindringen und sich
wie über eine Art „Luftdrainage“ verteilen,
Wasser und Streusalz dringen aber wesentlich schlechter ein. „Die Hohlräume
machen weniger als sieben Prozent des
Volumens aus“, erklärt Daniel Gogolin,
„daher kann man von einer dichten Fahrbahndecke sprechen.“ Ein aufwändiges
wasserableitendes Rinnensystem wie bei
OPA ist daher nicht nötig.
Der Schlüssel zum dichten, aber lärmreduzierenden Straßenbelag liegt in seiner speziellen Zusammensetzung, die
im Detail natürlich nicht verraten wird.
Wichtig ist auf alle Fälle die Auswahl einer feinen Körnung. Die Steinkörnchen
sind nur zwei bis fünf Millimeter klein,
zum Vergleich: OPA hat bis elf Millimeter dicke Körner. Hinzu kommt gewa-
schener Moränebrechsand ohne Staub,
der die gewünschten kleinen Poren verstopfen könnte. Bitumen und Füller, der
Klebstoff des Straßenbelags, der die Körner miteinander verbindet, werden durch
einen Kunststoff-Zusatz verstärkt. So ist
die gesamte Schicht nicht dicker als 2,5
Zentimeter. Tests im Labor (Abb. 3), unter anderem mit 20.000 Reifenüberrollungen, haben die Haltbarkeit bestätigt:
Es bildeten sich fast keine Spurrinnen und
die Textur blieb erhalten (Verformungsbeständigkeit).
Erstmals wurde der neue Straßenbelag
auf der Mecumstraße in Düsseldorf einge-
Abb. 4: Die Reifen des Messanhängers sind so
abgeschirmt, dass alle Geräusche außer das Abrollgeräusches der Reifen auf der Fahrbahn außen vor bleiben. Es können sowohl Pkw- als
auch Lkw-Reifen montiert werden. Schallsonden
nehmen die Geräusche um den Reifen herum bei
der Fahrt auf.
Facetten
Rubin 2009
Ergebnisse der Lärmemissionsmessungen
98
CPX L Pkw (BASt-Messung)
CPX H Lkw (BASt-Messung)
CPX L Pkw (DAV-Studie)
CPX H Lkw (DAV-Studie)
96
mittlerer CPX Wert in dBA
94
92
 = 8 dBA
90
88
 = 4 dBA
86
84
82
80
AB
0/
Be
8
to
nv
er
pfl bun
RE
d
-B aste et
r
on
pfl
as
te
r
Kl
ei
np
fl
Gr aste
an r
it
Gr
M oßp
ik fl
ro as
di te
or r
ik
AB
0/
11
78
LO
A
5D
al
te
M De
ec ck
um sc
st hich
ra t
ße
SM
A
0/
8
S
baut. Erst danach konnte der wichtigste
Praxistest stattfinden: die Lärmmessung.
Mit einem speziellen Anhänger, der nur
die Geräusche aufnimmt, die durch die
rollenden Reifen erzeugt werden, machten die Forscher die Probe aufs Exempel
(Abb. 4). Ergebnis: Die Lärmbelastung reduzierte sich um 8,5 dB(A) von 93,9 auf
85,4 dB(A) beim Pkw-Reifen und um 4,0
dB(A) von 92,0 auf 88,0 dB(A) beim LkwReifen (Abb. 5). Das hört sich für die Anwohner so an, als würden rund ein Viertel
weniger Autos die Straße befahren.
Da der Straßenbelag noch nicht lange
im Einsatz ist, gibt es über seine Langlebigkeit noch keine Erfahrungswerte. „Aufgrund der guten Ergebnisse unserer zweijährigen Beobachtungen in Düsseldorf
rechnen wir aber mit einer ähnlichen Haltbarkeit wie bei herkömmlich verwendeten dichten Asphaltdeckschichten“, meint
Daniel Gogolin. Die Investition lohnt sich
daher. Überhaupt halten sich die Kosten
in Grenzen. Zwar ist die Herstellung von
LOA 5 D durch den Kunststoffzusatz etwas teurer als herkömmliche Straßenbeläge, dafür ist er aber auch dünner.
Inzwischen hat sich die Stadt Düsseldorf entschieden, den Straßenbelag künftig vorranging einzubauen. Auch andere
Städte haben nachgezogen: Neben Düsseldorf planen zurzeit Mönchengladbach, Essen, Bochum, Gelsenkirchen, Dortmund,
Abb.5: Der neue Straßenbelag minderte die Geräuschbelastung gegenüber dem alten um 8,5 dB(A)
bei Autos und um 4 dB(A) bei Lkw. Das hört sich für die Anwohner so an, als würden rund ein Viertel
weniger Autos die Straße befahren.
Aachen, Saarbrücken und Nürnberg den
Einbau der neuen Straßenoberfläche. Die
Bochumer Forscher stehen ihnen bei den
Bauvorhaben beratend zur Seite. Denn die
Rezeptur für LOA 5 D lässt sich nicht eins
zu eins auf jede Stadt übertragen. Da jede
ihre eigenen Rohstofflieferanten hat, variieren die Zutaten, und es sind Anpas-
sungen notwendig, die die Bauingenieure
der Ruhr-Universität übernehmen. Und die
Forschung steht nicht still: Die Bochumer
Ingenieure arbeiten zurzeit an weiteren
Optimierungsmöglichkeiten der lärmoptimierten Asphaltdeckschicht. Darum
dreht sich unter anderem Daniel Gogolins
Doktorarbeit.
51
Facetten
Rubin 2009
Keine Ausreden für angestaubtes Amtsdeutsch
Verständlich schreiben muss die Rechtssicherheit nicht gefährden
Was Verwaltungsmitarbeiter an ihrer
unverständlichen Amtssprache festhalten lässt, ist oft die Angst, sich rechtlich
aufs Glatteis zu begeben. Kein Grund
zum Fürchten, meint Michaela Blaha.
Die Projektleiterin des Internet-Dienstes
für eine moderne Amtssprache IDEMA
hat festgestellt, dass Sprach-, Stil- und
Strukturverbesserungen die Rechtssicherheit nicht in Mitleidenschaft ziehen müssen.
Herrn Neumanns freier Tag fing nicht
gut an. Nicht nur, dass die Tageszeitung
mal wieder geklaut war; an ihrer Stelle
fand er einen Brief von der Stadt im Briefkasten, der ihm schon ungeöffnet die Runzeln auf die Stirn trieb. „Was kann das jetzt
wieder sein“, grummelte er missmutig,
während er den Umschlag aufriss, „versteht man ja sowieso alles wieder nicht“.
Es ging irgendwie ums Auto, stellte er
beim Überfliegen fest. „… Sollten Sie die-
ser Verfügung innerhalb der vorgenannten
Frist nicht nachkommen, so wird Ihnen
hiermit das Zwangsmittel der Ersatzvornahme angedroht“, schloss es. Mit einem
Schlag war Herr Neumann hellwach. Wer
drohte ihm da was für Zwang an? Welche
Frist? Er griff umgehend zum Telefon –
das konnten die mit ihm nicht machen!
Das folgende unerfreuliche Telefonat
mit dem so aufgebrachten wie verwirrten
Herrn Neumann hätte sich die Sachbearbeiterin des Ordnungsamts vielleicht ersparen können. Jahrelange Erfahrungen
des Bochumer IDEMA-Teams haben
gezeigt, dass Nachfragen und Proteste
Der richtige Stil erspart Bürgern und
Sachbearbeitern viel Ärger
Abb. 2: Das IDEMA-Team um Prof. Dr. Hans-Rüdiger Fluck (vorne links) und Michaela Blaha (vorne
rechts) hat sich 2008 unter dem Dach der Transfergesellschaft der Ruhr-Universität, der Novatec GmbH,
selbstständig gemacht. (hinten v.l. Nadine Elser, Alexandra Nießen, Nurşen Şahin, Ellen Becker).
52
deutlich abnehmen, je bürgerfreundlicher und verständlicher ein Brief vom
Amt daherkommt. Die Sprachprofis der
Ruhr-Universität – neben Sprachwissenschaftlern um Prof. Dr. Hans-Rüdiger
Fluck und Projektleiterin Michaela Blaha
auch eine Juristin (Abb. 2)– überarbeiten seit zehn Jahren Amtsschreiben von
Kommunen, Behörden und der Bundesverwaltung in Zusammenarbeit mit den
Autoren. Überarbeitete Passagen stellen
sie in ihre Internetdatenbank, so dass
auch andere Projektteilnehmer Zugriff
darauf haben und von der Arbeit der anderen profitieren (s. Info).
Die Arbeit der ersten zehn Jahre wertet
Michaela Blaha nun systematisch aus. Ihre
Facetten
Rubin 2009
ersten Ergebnisse können beruhigen. „Oft
ist es die Frage der Rechtssicherheit, die
Mitarbeiter von Verwaltungen davor zurückschrecken lässt, ihre Schreiben allgeEin Restmüllbehälter ist nicht
zwingend eine Mülltonne
dass Sie der Aufforderung bis zum 2. Juli
2009 nicht nachkommen, drohen wir Ihnen
an, das Fahrzeug auf
Ihre Kosten entfernen zu lassen
mein verständlich zu formulieren“, hat sie
festgestellt. „Die Befürchtung, die Rechtssicherheit zu gefährden, ist aber für die
meisten Sprach- und Stilveränderungen
unbegründet.“
Vorsicht ist zwar geboten bei Rechtsund anderen Fachbegriffen. Denn es
ist rechtlich nicht dasselbe, ob man
schreibt „Sie können Widerspruch
einlegen“ oder „Sie können widersprechen“. Ein Restmüllbehälter ist
nicht zwingend eine Mülltonne – es
kann auch ein Container oder Beutel sein. Elegant und unproblematisch hilft in solchen Fällen aber
eine Erläuterung oder Konkretisierung. Auch Beispiele entschärfen unverständliche Begriffe. Hätte Herr Neumann
etwa gelesen „Für den Fall,
Abb. 1: Ein Kreuz zu tragen haben
Mitarbeiter von Verwaltungen: Ihre
Schreiben sollen rechtlich eindeutig
und unanfechtbar sein, gleichzeitig
aber verständlich und höflich.
53
Facetten
Rubin 2009
Abb. 3: Der Ärger über die Verwaltungssprache
ist so alt wie die Verwaltungen. Leitfäden zum
„Guten Amtsdeutsch“ gibt es genau so lange.
(Ersatzvornahme)“, wäre er zwar sicherlich auch nicht erfreut gewesen, aber er
hätte gewusst, was zu tun ist. Und was
passieren würde, wenn er es nicht täte.
Davon abgesehen hängt die Verständlichkeit eines Schreibens aber nicht allein
von den verwendeten Begriffen ab. Auch
Sprachstil und Struktur lassen oft zu wünschen übrig. Ihre Veränderung berührt die
Rechtssicherheit nicht, erhöht aber die
Verständlichkeit ungemein. Die IDEMA-
Profis raten zum Beispiel, aktive statt passive Formulierungen zu verwenden. „Sie
brauchen hierzu nicht auszusagen“ klingt
für den Adressaten viel persönlicher als
Man begibt sich rechtlich nicht
so schnell aufs Glatteis
„Eine Aussagepflicht in der Sache besteht
nicht“. Aktuelle Begriffe erleichtern das
Verständnis ebenfalls. Warum „fernmünd-
lich“ wenn es auch „telefonisch“ geht? Abkürzungen auszuschreiben macht wenig
zusätzliche Arbeit, erleichtert aber oft das
Lesen. Auch überlange Sätze machen typische Amtsschreiben kompliziert und
sind für die Rechtssicherheit nicht nötig.
In der Datenbank von IDEMA findet sich
zum Beispiel dieses Ungetüm: „In Anwendung des § 2 des Straßenverkehrsgesetzes (StVG) – in der zurzeit gültigen
Fassung – ist die Erlaubnis zum Führen
info
IDEMA
Zahlreiche Kommunen sowie die Bundesverwaltung beteiligen sich
Behörden zahlen für die Projektteilnahme einen Jahresbeitrag, der
derzeit am IDEMA-Netzwerk. Das IDEMA-Team überarbeitet in Zu-
sich nach Anzahl der Mitarbeiter richtet.
sammenarbeit mit den Autoren deren Texte – Bescheide, Broschüren, Webseiten und andere – und stellt die überarbeiteten Texte und
2008 hat sich IDEMA unter dem Dach der Transfergesellschaft der
einzelne Formulierungen in die Internet-Datenbank ein. Teilneh-
Ruhr-Universität, der Novatec GmbH, selbstständig gemacht. Ur-
mende Behörden können dann in dem wachsenden Online-Wörter-
sprung von IDEMA war ein Pilotprojekt des Germanistischen Insti-
buch nachschauen, ob andere vor ihnen mit Hilfe des IDEMA-Teams
tuts der Ruhr-Universität mit der Stadt Bochum unter der Leitung
schon ein ähnliches Sprach-Problem gelöst haben. So profitiert je-
von Prof. Dr. Dr. h. c. Hans-Rüdiger Fluck im Jahr 2001, das bundes-
der auch von der Arbeit der anderen, denn viele Schreiben der Ver-
weit für Interesse gesorgt hat.
waltungen ähneln einander. Außerdem erarbeitet IDEMA Leitfäden
mit authentischen Text-Beispielen und bietet Schreibwerkstätten für
Verwaltungsmitarbeiter an.
54
http://www.ruhr-uni-bochum.de/idema
Facetten
Rubin 2009
von Kraftfahrzeugen zu erteilen, wenn
bei dem Bewerber nicht Tatsachen vorliegen, die die Annahme rechtfertigen, dass
er zum Führen von Kraftfahrzeugen ungeeignet ist.“ Das IDEMA-Team hat daraus gemacht „Eine Fahrerlaubnis erhält
nur, wer zum Führen eines Kraftfahrzeugs
geeignet ist (§ 2 Straßenverkehrsgesetz –
StVG). So kurz ist dasselbe gesagt. A propos: Gesetzesverweise in Klammern zu
setzen und Querverweise, zum Beispiel
auf das Datum, zu vermeiden, entstellt
ebenfalls nicht den Sinn und erspart dem
Leser einige Mühe.
Wer einen persönlichen Sprachstil
wählt, macht sich den Leser außerdem
gewogen: „Bedenken, die Sie innerhalb
dieses Zeitraums äußern, werde ich bei
meiner Entscheidung – soweit möglich –
berücksichtigen“, das klingt gleich ganz
anders als „Innerhalb dieses Zeitraums
vorgebrachte Bedenken werden bei meiner Entscheidung berücksichtigt“. Wer
dann noch seinen Text mit Zwischenüberschriften und Aufzählungszeichen strukturiert und Wichtiges durch Fettdruck hervorhebt, hat alles richtig gemacht, ohne die
Rechtssicherheit in Gefahr zu bringen.
„Man begibt sich rechtlich viel weniger
schnell aufs Glatteis als Viele vermuten“,
fasst Michaela Blaha ihre Erkenntnisse
zusammen, von denen sie hofft, dass sie
dazu beitragen können, der verständlichen
Sprache in den Verwaltungen noch mehr
Türen zu öffnen. Denn neben der Text-
Künftig will Michaela Blaha ihre Erfahrungen noch weiter mit empirischen
Forschungsergebnissen untermauern.
Ihre Grundfrage: Was ist es eigentlich,
das Verwaltungssprache so kompliziert
macht? Stimmt es zum Beispiel, dass sie
zu viele lange Sätze enthält? Oder zu viel
„Fachchinesisch“? Und machen kürzere
Sätze und weniger Substantive einen Text
wirklich verständlicher? Ein statistischer
Vergleich zwischen originalen und durch
IDEMA überarbeiteten Amtstexten soll
das zeigen. Material ist in Hülle und Fülle
vorhanden: Über 2.000 Verwaltungstexte
und mehr als 300 überarbeitete Versionen liegen inzwischen vor.
„Auch interessant wäre, ob es Unterschiede zwischen der Ausdrucksweise einzelner Fachbereiche innerhalb der Verwaltung gibt“, spinnt Michaela Blaha den Faden weiter. Würde sich etwa herausstellen,
dass die Mitarbeiter bestimmter Fachbereiche besonders häufig auf schwer verständliche Fachausdrücke zurückgreifen
(müssen), könnte man das bei ihrer Ausbildung berücksichtigen. Eines ist sicher:
Die Arbeit wird dem wachsenden Team
wohl so schnell nicht ausgehen.
Stimmt es, dass Amtssprache
zu viele lange Sätze enthält?
arbeit ist es vor allem die effiziente Umsetzung innerhalb von Verwaltungen, die
dem IDEMA-Team Arbeit macht. Besonders in großen Behörden kann es sehr aufwändig sein, alle Mitarbeiter vom Mitmachen zu überzeugen und ihre Bedenken
zu zerstreuen. Das Interesse an Unterstützung bei der Überarbeitung amtlicher
Schreiben ist aber durchweg groß. „Viele
Verwaltungsmitarbeiter sind selbst mit ihren Texten unzufrieden und sich nur unsicher, was sie verändern können“, hat
sie festgestellt. Leitfäden sind meistens
zu allgemein gehalten und daher wenig
hilfreich (Abb. 3). Da ist die IDEMA-Datenbank deutlich handfester.
55
Facetten
Rubin 2009
Wer über den Wert entscheidet
Wenn knappe Ressourcen im Gesundheitswesen Leistungseinschränkungen erzwingen
Die gute Nachricht zuerst: Wir werden
immer älter und die Medizin wird immer besser. Doch der Preis des medizinischen Fortschritts steigt zunehmend
ins Unerschwingliche. Die große Herausforderung der nächsten Jahre wird
sein, die vorhandenen Ressourcen sinnvoll und gerecht zu verteilen. Doch zunächst muss jeder für sich selbst entscheiden, was ihm die medizinische
Versorgung wert ist.
„Wer sagt, die umfassende Gesundheitsversorgung ist sicher, sagt schlicht
und einfach nicht die Wahrheit. Schon
jetzt ist eine heimliche Rationierung in der
56
medizinischen Versorgung zu spüren“, betonte unlängst der Präsident der Bundesärztekammer Jörg-Dietrich Hoppe. Mit
seiner Forderung nach einer offenen Debatte über die Priorisierung im GesundÄrztepräsident bricht Tabu:
fordert offene Priorisierung
heitswesen auf dem 112. Deutschen Ärztetag im Mai dieses Jahres in Mainz brach
er erstmals ein Tabu. In der gesellschaftlichen Diskussion ist die Notwendigkeit
einer offenen Beschränkung medizinisch
sinnvoller Leistungen aus Kostengründen
(explizite Rationierung) durchaus umstrit-
ten. Reicht es nicht, zunächst die vorhandenen Effizienzreserven zu heben, fragen
sich viele Menschen? Die Gesundheitspolitik scheute bislang die Diskussion, ist es
doch nicht populär, Leistungsansprüche
einschränken zu wollen.
Während Hoppe nach einem Gesundheitsrat á la Ethikrat ruft, in dem etwa
Ärzte, Ethiker und Juristen über Fragen
der Priorisierung von Leistungen debattieren, laufen an den Hochschulen bereits
zwei interdisziplinäre Forschungsvorhaben: 2006 startete ein durch das Bundesforschungsministerium (BMBF) gefördertes Projekt „Ethische, ökonomische
und rechtliche Aspekte der Allokation
Facetten
Rubin 2009
kostspieliger biomedizinischer Innovationen“ (s. Info). Dieses setzt sich quasi
fort in einem zweiten seit 2007 durch die
Deutsche Forschungsgemeinschaft (DFG)
geförderten weit umfassenderem Projekt,
an dem insgesamt dreizehn Hochschulen
über die Forschergruppe „Priorisierung in
der Medizin: Eine theoretische und empirische Analyse unter besonderer Berücksichtigung der Gesetzlichen Krankenversicherung“ beteiligt sind (s. Info).
„Zunächst ist eine Bestandsaufnahme
der gegenwärtigen Situation im Gesundheitswesen unerlässlich“, so Prof. Dr. Stefan Huster, Institut für Sozialrecht an der
Juristischen Fakultät der Ruhr-Universi-
tät, der an beiden Projektgruppen beteiligt
ist. Unter seiner Leitung untersucht Christian Held innerhalb des BMBF-Projekts
die „Explizite und implizite Rationierung
am Beispiel der interventionellen Kardiologie und der Intensivmedizin“, während
sich André Bohmeier einem Teilprojekt
der DFG-Forschergruppe „Priorisierung
in der Medizin“ widmet. „Über die Befragung von Krankenhausärzten (BMBF-Projekt) wollen wir klären, ob es schon jetzt
erhebliche Probleme mit der Mittelknappheit gibt. Wenn wir feststellen, dass bereits
in großem Umfang verdeckt (implizit) rationiert wird – und stark verkürzte Liegezeiten in den Kliniken sowie Terminvergabe ins nächste Quartal oder Einweisung
ins Krankenhaus bei erschöpftem Budget
niedergelassener Ärzte könnten Anzeichen dafür sein –, dann wären das starke
Argumente, über offene (explizite) Leistungsbeschränkungen nachzudenken“,
betont Prof. Huster (s. Abb. 1). Zumindest
stehen bereits dreiviertel der befragten
Krankenhausärzte Leistungseinschränkungen etwa über sog.
kostensensible Leitlinien nicht mehr ablehnend gegenüber,
wenngleich sie nur
begrenzt bereit sind,
Behandlungsvorgaben, die ihre Thera-
Abb. 1: Eine umfassende Gesundheitsversorgung ist nicht
mehr sicher – sagen die Ärzte.
piefreiheit einschränken, zu akzeptieren
(s. Abb. 2). Die Mediziner, deren Ethos
ganz auf die individuelle Arzt-PatientenBeziehung konzentriert ist, zeigten sich
in der Befragung unentschlossen, wie das
Versorgungssystem auf die Mittelknappheit reagieren soll (Abb. 3).
Anhand konkreter Beispiele aus der interventionellen Kardiologie und der Intensivmedizin haben die Bochumer Juristen
gemeinsam mit Kollegen aus der Medizinethik und der Gesundheitsökonomie
zwei Behandlungsleitlinien entwickelt, die
nun erstmals Kostenaspekte berücksichtigen. Diese sog. kostensensiblen Leitlinien
betreffen den Einsatz von Koronarstents,
die Medikamente freisetzen, die einer erneuten Verengung der Arterien entgegenwirken, sowie die Implantation von DefiKostensensible Leitlinien am Beispiel
von Kardiologie und Intensivmedizin
brillatoren zur Steuerung von Herzfrequenz und Herzrhythmus. Der Vergleich
von beschichteten mit herkömmlichen unbeschichteten Stents zeigt keine Vorteile
hinsichtlich der Erkrankung selbst, allerdings senken beschichtete Stents das Risiko einer erneuten Verengung und damit
eines wiederholten Eingriffs (Dilatation).
Dagegen verringern Defibrillatoren deutlich das Risiko der Sterblichkeit bei Herzrhythmusstörungen (plötzlicher Herztod). Entsprechend der Leitlinie kämen
beschichtete Stents bei Patienten mit speziellen Risikofaktoren (kleine Gefäße, lange Läsionen) zum Einsatz. Der Implantation eines Defibrillators wäre der Vorzug
vor einer medikamentösen Therapie nur
dann zu geben, wenn die Pumpfunktion
des Herzens unter 30 Prozent fällt. Nur in
diesem Fall würde der zusätzliche Nutzen
die Kosten rechtfertigen.
57
Facetten
Rubin 2009
Befragung von Krankenhausärztinnen und -ärzten
1. These: Weil die finanziellen Mittel im
Gesundheitswesen begrenzt sind,
können bereits heute nicht mehr alle
medizinisch nützlichen Leistungen bei
GKV-Versicherten erbracht werden.
1
9 %
20 %
23 %
Gut zwei Drittel der befragten Ärztinnen
und Ärzte sind der Meinung, dass aufgrund
der Mittelknappheit bereits heute keine
optimale medizinische Versorgung mehr
möglich ist.
48 %
2. These: Die Vorgaben der Krankenhausleitung sind für meine Behandlungsentscheidungen relevant.
3 %
2
23 %
18 %
Achtzig Prozent der Befragten orientieren
sich bei der Behandlung nicht mehr ausschließlich am medizinischen Nutzen, sondern beachten auch die Vorgaben der
Krankenhausleitung.
57 %
3. These: Gesetzlich verankerte kostensensible Leitlinien würden es erleichtern, Maßnahmen mit einer schlechten Kosteneffektivität vorzuenthalten.
2 %
3
19 %
23 %
Für dreiviertel der befragten Ärzte könnten
kostensensible Leitlinien, die neben dem
Nutzen auch die Kosten medizinischer Maßnahmen berücksichtigen, Behandlungen
mit einem sehr schlechten Kosten-NutzenVerhältnis ausschließen.
56 %
Stimme voll zu / Sehr relevant
Stimme eher zu / Etwas relevant
Stimme eher nicht zu / Eher nicht relevant
Stimme nicht zu / Überhaupt nicht relevant
4. Wer soll über Effektivität und Relevanz
einer medizinischen Maßnahme entscheiden
– die Ärzte oder die Gesundheitspolitk?
Ärzte betrachten die Entscheidungskompetenz der Gesundheitspolitiker eher skeptisch,
obwohl Kosten-Nutzen-Betrachtungen nicht
nur medizinischen Sachverstand erfordern
(1: überhaupt nicht wichtig, 6: sehr wichtig).
4
100
Ärzte
Gesundheitspolitiker
87 %
80
60
40
kussion. Die Entscheidungen den Gesetzlichen Krankenversicherungen, als demokratisch nur wenig legitimierten Organen
der Selbstverwaltung, auf Dauer zu überlassen, ist juristisch äußerst umstritten.
Die Gesellschaft insgesamt muss klären, was ihr eine soviel bessere Medizin
wert ist – jeder einzelne muss darüber
nachdenken. Die Bochumer Juristen vermuten sogar, dass sich die Bürgerinnen
und Bürger früher als die Politik diesen
Fragen stellen werden. „Unsere große repräsentative Umfrage breiter Bevölkerungsgruppen (DFG-Projekt) wird dies
zeigen, aber auch, wo die Bürger ihre Versorgungsprioritäten setzen. Sie könnte sogar Anstoß sein für die politische Debatte“, so Prof. Huster. In diesem Projekt geht
es um eine umfassendere Betrachtung von
Priorisierung. Leitlinien, die auf einer Kosten-Nutzen-Bewertung beruhen, sind dabei nur ein Mittel, man kann auch nach
anderen Kriterien priorisieren, z.B. nach
Lebensalter, Dringlichkeit oder Selbstverantwortung, und auch das Verhältnis der
Kriterien untereinander muss diskutiert
werden. Zum Beispiel bei der Verteilung
von Organen: Wenn nur ein Organ zur
Verfügung steht – bekommt es derjenige,
der es am dringendsten braucht, um viel-
21 %
17 %
12 %
2 %
58
Wo werden die Bürger
Versorgungsprioritäten setzen?
32 %
20
0
Beide Leitlinien sollen nun einer theoretischen interdisziplinären Diskussion
mit Vertretern der Gesundheitspolitik,
Ethik, Gesundheitsökonomie dienen und
werden von Kardiologen und Intensivmedizinern bewertet. Eine weitere Befragung
von Ärzten soll letztlich deren Akzeptanz
gegenüber solchen kostensensiblen Leitlinien klären.
Wenn Leistungsbeschränkungen nicht
zu vermeiden sind – wer soll nach welchen Kriterien darüber entscheiden? Die
Gesundheitspolitik scheut bisher die Dis-
9 % 11 %
1 %
1
2
8 %
1 %
0 %
3
4
5
6
Abb. 2: Ärztliche Entscheidungen bei begrenzten
finanziellen Ressourcen
Facetten
Rubin 2009
leicht damit noch ein Jahr zu leben, oder
derjenige, der aufgrund seines besseren
Gesundheitszustandes noch dreißig Jahre etwas davon hat? Nach der Gerechtigkeit bekäme es der dringlichste Fall. Was
aber sagt die Bevölkerung, was hier gerecht ist?
Prof. Huster ist gespannt auf die Reaktionen der Bürger zu den Überlegungen
der normativen Wissenschaften – der Medizinethik und Jurisprudenz – zu den inhaltlichen Kriterien: So werden in der
verfassungsrechtlichen Diskussion „medizinnahe“, etwa auf die Dringlichkeit einer Maßnahme gerichtete Parameter weithin akzeptiert, sie stimmen auch mit der
Verfassungsrechtsprechung überein, die
insbesondere der Lebenserhaltung einen
hohen Stellenwert zumisst. Als weiterer
Aspekt gilt die Erfolgsaussicht einer Behandlung, obwohl sie mit dem Kriterium
der Dringlichkeit kollidiert und zugleich
Gefahr laufen kann, alte und behinderte
Menschen systematisch zu benachteiligen. Sehr viel größere juristische Vorbehalte bestehen gegen die Behandlungskosten als Entscheidungskriterium – insbesondere gegen die Festlegung von Kosten-Nutzen-Grenzwerten. Im Gegensatz zu anderen Gesundheitssystemen ist
eine ökonomische Bewertung mensch-
Abb. 3: Das Ethos der Mediziner ist ganz auf das individuelle Arzt-Patienten-Verhältnis ausgerichtet.
Auch deshalb hat die Therapiefreiheit für sie einen hohen Wert.
info
Zwei interdisziplinäre Projekte sollen der gerechten Leistungsverteilung im Gesundheitswesen dienen: Bestandsaufnahme und Akzeptanzprüfung
Projekt I
Ethische, ökonomische und rechtliche Aspekte der Allokation kostspieliger biomedizi-
Juristische Vorbehalte:
gegen Kosten-Nutzen-Grenzwerte
nischer Innovationen: Exemplarische Untersuchungen zur expliziten und impliziten Rationierung in der interventionellen Kardiologie und der Intensivmedizin.
BMBF-Projekt
lichen Lebens nach dem deutschen Verfassungsrecht mit der Menschenwürde
und den Grundrechten nach verbreiteter
Auffassung nicht vereinbar. Dass für derartige Kosten-Nutzen-Rechnungen häufig
keine aussagekräftigen Daten zur Verfügung stehen, dürfte den juristischen Widerstand noch verstärken. Zudem ist eine
zunehmende intradisziplinäre Zusammenarbeit der verschiedenen Zweige der
Rechtswissenschaft geboten: Denn scheint
sich das Krankenversicherungsrecht vorsichtig dem Thema Leistungsbeschränkungen zu nähern, werden im Arzthaftungs- und Medizinstrafrecht die Anforderungen eher erhöht. Demzufolge könnte
der Arzt zivil- und strafrechtlich dazu verpflichtet werden, Leistungen zu erbringen,
die die Gesetzliche Krankenversicherung
nicht mehr bezahlt.
Förderung: 560.000 Euro
Laufzeit: 2006 bis 2009
Kooperation der Universitäten Tübingen, Duisburg-Essen und Bochum
Projekt II
Priorisierung in der Medizin: Eine theoretische und empirische Analyse unter besonderer
Berücksichtigung der Gesetzlichen Krankenversicherung
DFG- Forschergruppe (FOR 655)
Förderung: 1,58 Mio. Euro zunächst für drei Jahre
Laufzeit: 2007 - 2010, zweite Phase bis 2013 beantragt
Kooperation der Universitäten Augsburg, Bayreuth, Bochum, Bremen, Duisburg-Essen, Halle-Wittenberg, Heidelberg, Hannover, Jena, Köln, Leipzig, Lübeck, Münster sowie des Zentrums für Gesundheitsethik, Hannover, und der Frankfurt School of Finance & Management
Weitere Informationen
Institut für Sozialrecht: http://www.ruhr-uni-bochum.de/ifs/forschung_projekte.html
DFG-Projekt: http://www.priorisierung-in-der-medizin.de/
BMBF-Projekt: http://www.iegm.uni-tuebingen.de/allokation
59
Facetten
Science goes Public
Nachwuchswissenschaftler der Research
School der Ruhr-Universität üben sich im
Umgang mit den Medien
Sie sind die „Global Researcher“ von morgen, die hochqualifizierten Doktorandinnen und Doktoranden der
Bochumer Research School, mit deren Konzept die RuhrUniversität zu den Gewinnerinnen der ersten Runde der
Exzellenzinitiative des Bundes und der Länder gehörte.
Und sie wissen, dass es zunehmend darauf ankommen
wird, exzellente Forschungsergebnisse auch verständlich an den fachfernen Mann und die interessierte Frau
zu bringen. Die Research School (s. S. 67) unterstützt
auch die außerfachlichen Qualifikationen ihrer Graduierten und bot im März dieses Jahres erstmals das Medientraining „Science goes Public“ an. Neunzehn Nachwuchswissenschaftler aus den Natur- und Ingenieurwissenschaften, den Lebenswissenschaften bis hin
zu den Geistes- und Kulturwissenschaften schlüpften
unter professioneller Anleitung (s. Info) in die Rolle
von Journalisten, übten
sich im Medieninterview,
vor und hinter der Kamera oder im richtigen
Auftritt auf einer Pressekonferenz. Die besondere Hausforderung war
sicherlich, die wissenschaftlichen Projekte kurz
und knapp und vor allem
allgemeinverständlich
darzustellen – noch dazu
die eigenen. Am Ende war
es dann für alle ein Gewinn – für die Trainer
und die Nachwuchswissenschaftler-journalisten.
Abb. 1: Fragt „auf den Punkt“
und erwartet kein wissenschaftliches Referat –
Prof. Winfried Göpfert.
60
Rubin 2009
Facetten
Rubin 2009
Plasma im Pflaster
von Henrik Böttner und Nikolas Knake
Experimentalphysik, insb. anwendungsorientierte Plasmaphysik
Wer die Plasmatechnologie aus dem
Behälter holt, eröffnet völlig neue Anwendungsmöglichkeiten – zum Beispiel in
der Medizin. Bochumer Physiker erforschen Plasmen unter Atmosphärendruck
und Zimmertemperatur für den zukünftigen Einsatz etwa in der Wundsterilisation oder Kariesprophylaxe.
Wer bei Plasma an Blutspenden denkt,
liegt weit daneben, moderne Plasmabildschirme kommen dem Forschungsobjekt der Bochumer Plasmaphysiker
schon näher: Ihre Plasmen sind elektrisch angeregte Gase. In Energiesparlampen zeigen diese Plasmen bereits
eine ihrer nützlichen Seiten: Sie leuchten – je nach Art und Höhe der Energiezufuhr in verschiedenen Farben. Neben
dem sichtbaren Licht senden sie auch
Strahlung im energiereichen ultravioletten Bereich aus – eine weitere nützliche
Eigenschaft. Denn UV-Strahlen töten Mikroorganismen ab und wirken somit desinfizierend. Während Plasmen herkömmlich im Vakuum betrieben werden, was
meist an größere Apparaturen, sog. Plasmareaktoren gebunden ist, interessieren
sich die Wissenschaftler am Lehrstuhl für
anwendungsorientierte Plasmaphysik der
Ruhr-Universität für Plasmen unter Atmosphärendruck und Zimmertemperatur. Das heißt, sie werden außerhalb von
Behältern, quasi frei im Raum an- und
ausgeschaltet. Das eröffnet neue Anwendungsmöglichkeiten etwa in der Medizin.
Allerdings lassen sich Plasmen bei relativ hohen Drücken nur in äußerst kleinen Volumen anregen. Gelöst haben die
Forscher dieses Problem, indem sie viele
Abb. 2: Henrik Böttner und Nikolas Knake sind Fachkollegen und
stimmen ihren gemeinsamen Pressetext ab.
einzelne Plasmen im Mikrometerbereich
zu einem Verbund zusammenfassen.
Mit sog. Mikroplasma-Arrays lassen sich
Flächen variabler Größe mit UV-Strahlung
behandeln. Ein Pflaster mit einem solchen
Mikroplasma-Array und einer winzigen
Batterie versehen, könnte eine Wunde
schützen und zugleich desinfizieren.
Unter anderem auch für biomedizinische Anwendungen interessant ist
der sog. Plasma-Jet: In einem geringfügig mit Sauerstoffmolekülen versetzten
Helium-Gasstrahl werden reaktive Sauerstoffatome, sog. freie Radikale, erzeugt. Das Ballongas Helium fließt zwischen zwei an eine schnelle Wechselspannung angelegte Elektroden. Dabei
reißen die elektrischen Felder die Elektronen von Atomen und Molekülen fort
und beschleunigen sie. Die schweren
Atom- und Molekülrümpfe bleiben na-
hezu unbewegt, also kalt. Dagegen gewinnen die Elektronen im schnellen Feld
Plasma-Jet: Keime schmerzfrei
und berührungslos abtöten
genug Energie, um die Sauerstoffmoleküle in einzelne Atome zu spalten. Der
kalte Gasstrom mit den reaktiven Sauerstoffatomen eignet sich z.B. zur Kariesbehandlung. Der Plasma-Jet könnte einmal Keime auf Zähnen berührungslos
und schmerzfrei abtöten. Doch noch wissen die Bochumer Forscher nicht, welche
weiteren Komponenten sich im Plasma
bilden und warum und wieviel UV-Licht
und atomarer Sauerstoff entstehen. Erst
wenn diese Geheimnisse der Plasmen gelüftet sind können Mikroplasma-Array
und Plasmajet den Weg in klinische Studien finden.
61
Facetten
Rubin 2009
Köln und die Kreuzzüge
von Alexander Berner,
Geschichte des späteren Mittelalters
Das „hohe Mittelalter“ zwischen 1100
und 1300 wird häufig als die Zeit der Kreuzzüge bezeichnet. Religiös aufgeladene
Westeuropäer ziehen bewaffnet nach Jerusalem, um dort für Christus gegen die Muslime zu kämpfen und in den meisten Fällen
zu sterben – so das heute vorherrschende
Bild dieser Zeit. Wenn es auch in der Tendenz zutreffen mag, erfasst es doch die kulturelle, soziale und wirtschaftliche Tragweite dieses mittelalterlichen Massenphänomens nicht in Ansätzen. Aktuelle Untersuchungen machen deutlich, die Kreuzzüge dienten auch als Vermittler und Träger
von Kultur.
Kreuzritter waren trotz offensichtlicher
Lust am Kriegshandwerk keine kulturlosen
Blechkameraden. Sie nutzten ihre Pilgerreise auch nicht ausschließlich dazu, fremde Kulturen zu zerstören. Vielmehr nahmen sie ihre eigene Kultur mit auf die Reise. Das ist nicht selten Grund dafür, wenn
wir unserer Kultur heute an Orten begegnen, wo wir sie am wenigsten vermuten –
etwa den Kölner Ritter Heinrich von Bonn
auf einem Friedhof in Lissabon.
Während des zweiten Kreuzzuges segelten Kreuzfahrer aus Köln und Umgebung nach Jerusalem. Auf ihrem Weg
dorthin halfen sie dem portugiesischen
König Alfons I. bei der Eroberung Lissabons. Viele Kölner starben bei den Kämp-
Der Kampf um Lissabon blieb keine kulturelle Einbahnstraße. Die Beziehungen
zwischen der Rheinmetropole und dem Königreich im äußersten Westen Europas verdichteten sich. So fiel schon die Belohnung
für die militärische Hilfe durch Alfons I.
sehr großzügig aus: Die Kölner Kaufleute
bekamen die vollständige Zollfreiheit im
ganzen Königreich Portugal.
Auch das Heilige Land selbst hinterließ
Blechkameraden nehmen
eigene Kultur mit auf Reisen
fen um die Stadt und wurden auf einem eigenen Friedhof in Lissabon beerdigt. Heinrich von Bonn, so ist überliefert, soll nach
seinem Tod den Lebenden erschienen sein
und eindrucksvolle Wunder vollbracht haben: So gab er etwa Blinden das Augenlicht
zurück. Aus den Mirakelgeschichten entwickelte sich um den Kölner Ritter ein Heiligenkult. Durch den Kreuzzug wurde Heinrich von Bonn zu einem Heiligen in einem
Land, dessen Küste er sonst wohl nie betreten hätte.
62
Abb. 3:
Alexander Berner
recherchierte auch im
Kölner Stadtarchiv.
seine Spuren in Köln. Johanniter und Deutscher Orden, Kinder der Kreuzzugsbewegung und der lateinischen Kirche, ließen
sich in Köln nieder und erfuhren regen Zuspruch durch fromme Gönner. Wodurch
sich das Bild des geistlichen Lebens in Köln
auf Jahrhunderte veränderte. Das Trägermedium dieser Veränderungen waren die
vermeintlich eindimensionalen Kriegszüge im Zeichen des Kreuzes.
Facetten
Rubin 2009
Rauchen schadet Männern beim (Zu-)Hören
von Constanze Hahn, Institut für Kognitive Neurowissenschaften
Dass Rauchen wichtige Prozesse unseres Gehirns, wie Aufmerksamkeit, Lernund Gedächtnisleistungen beeinflusst, ist
bereits bekannt. Nun fanden Bochumer
Neurowissenschaftler um Prof. Dr. Onur
Güntürkün heraus, Rauchen verschlechtert auch das Hören von Sprache – aber
nur bei Männern. Sie führen dies auf die
Verarbeitung der Nervensignale unter Nikotineinfluss zurück, die sich bei Männern und Frauen unterscheidet.
In ihrer Studie untersuchten die Forscher das Hören von sprachlichen Lauten bei rauchenden und nichtrauchenden
Probanden. Männer und Frauen hörten
über Kopfhörer Silben, die sie dann entsprechend auf einem Antwortpad antippen sollten. Dabei bekam jedoch jedes Ohr
zeitgleich eine andere Silbe dargeboten,
etwa auf dem linken Ohr ein „ta“ und auf
dem rechten Ohr ein „ga“.
Möglicherweise könnten die neuen
Erkenntnisse auch der klinisch-psychiatrischen Forschung zugute kommen. So
geht etwa die Erkrankung Schizophrenie
mit ähnlich veränderten Hirnprozessen
einher, wie sie bei rauchenden Männern
festgestellt wurden. Da überdurchschnittlich viele an Schizophrenie erkrankte Patienten rauchen, stellt sich die Frage, ob Rauchen vielleicht das Entstehen der Erkrankung begünstigen oder den vorhandenen
Symptomen entgegenwirken könnte.
Abb. 4: Constanze Hahn ist gespannt auf die
Ergebnisse der klinisch-psychiatrischen Folgestudie.
Hörtest: „ta“ auf dem linken,
„ga“ auf dem rechten Ohr
Unsere linke Gehirnhälfte ist auf die
Verarbeitung von Sprache spezialisiert
und darin besser als die rechte. Zudem
verlaufen die Nervenfasern des linken
Ohres vorwiegend in die rechte Gehirnhälfte und umgekehrt. Daher dominiert
bei der beschriebenen Höraufgabe meistens das rechte Ohr, also das „ga“, das direkt mit der linken, sprachspezialisierten
Gehirnhälfte verbunden ist.
Bei den rauchenden Männern war dieser Effekt abgeschwächt, weil die eigentlich spezialisierte linke Gehirnhälfte unter
Nikotineinfluss schlechter funktionierte.
Bei Frauen war dieser Effekt nicht zu beobachten, da ihr Gehirn generell etwas anders funktioniert: Die Gehirnhälften bei
Frauen sind weniger spezialisiert und arbeiten enger zusammen. Weitere Studien
sollen nun Aufschluss darüber geben, wie
genau sich die Gehirnprozesse von Männern und Frauen in Bezug auf Nikotin unterscheiden.
63
Facetten
Einsturzgefahr!
Simulationsmodell soll
Tunnelvortrieb sicherer
machen
von Felix Nagel, Lehrstuhl für Statik
und Dynamik
Rubin 2009
Stabilisierungsmaßnahmen realistisch
und zuverlässig vorhersagen lassen. Für
diese komplexe Aufgabe entwerfen Bochumer Baustatiker um Prof. Dr. Günther
Meschke spezielle Computermodelle zur
Analyse des Tunnelvortriebs. Wichtigster
Bestandteil eines solchen Modells ist der
Abb. 6 : Volkhart Wildermuth vermittelt das
A und O eines Pressetextes und spricht die ersten
Entwürfe der jungen Forscher mit ihnen durch.
(s. S. 65, oben)
nern, dem Grundwasser und der Luft in
den Poren zwischen den festen Körnern.
Von dieser Mischung hängt das Verhalten
des Bodens ab: Luft und Wasser strömen
durch den Porenraum und verursachen
mit der Zeit Verformungen.
Tunnel, Tunnelbohrmaschine
und Baugrund in einem Modell
Abb. 5: Felix Nagels Forschungsthema ist so komplex, dass es sich nur durch Simulation
am Computer erfassen lässt.
Immer wieder ist von Katastrophen bei
Tunnelbauarbeiten zu hören, zuletzt vom
Einsturz des Kölner Stadtarchivs. Denn
ein sensibles Verhältnis bilden Tunnelvortrieb und der ihn umgebende Baugrund.
Bochumer Baustatiker analysieren deren Wechselwirkungen und entwickeln
ein Computermodell, mit dem sich mögliche Risiken beim Tunnelbau leichter und
zuverlässiger vorhersagen lassen.
Tunnelvortriebsmaschinen machen
es möglich, U-Bahn- und Straßentunnelbauwerke auch unter schwierigen Bedingungen in Angriff zu nehmen. Die Maschine baut den Boden unterirdisch ab
und in ihrem Schutz wird die Tunnelröhre
errichtet. Mit dem Tunnelbau verbundene
Risiken gehen vor allem vom Boden aus,
der ununterbrochen stabilisiert werden
muss, um größere Setzungen oder sogar
einen Einsturz der Tunnelbaustelle zu vermeiden. Daher greifen Ingenieure schon
beim Entwurf eines Tunnelbauwerks auf
Berechnungsmodelle zurück, mit denen
sich die Auswirkungen unterschiedlicher
64
den Tunnelbau umgebende Baugrund. Er
besteht aus einer Mischung von Bodenkör-
Der Tunnelvortrieb interagiert ständig
mit den Bodenbestandteilen und kann
zum Beispiel zum Ansteigen des Wasserdruckes oder der im Boden wirkenden
Kräfte führen. Die dabei auftretenden Prozesse sind so komplex, dass sie nur noch
durch Simulationsverfahren am Computer
beschrieben werden können. Die Bochumer Forscher bilden den Bauprozess in
einem Modell nach, das neben der Tunnelbohrmaschine und dem Tunnel auch den
umgebenden Baugrund, seine Schichtung
und die Grundwasserverhältnisse mit erfasst. Die Strömungen des Grundwassers
und der im Boden befindlichen Luft lassen
sich nun ebenso wie die Spannungen und
Verformungen des Bodens und deren zeitlicher Verlauf nachvollziehen.
info
Media Skills Training
„Science goes Puplic“
Das Medientraining „Science goes Public“ fand im Rahmen der Winterakademie der Research School im März 2009 an der Ruhr-Universität statt.
Die Trainer
Prof. Winfried Göpfert (em.), Wissenschaftskommunikation und Wissenschaftsjournalismus, FU Berlin; Wisskomm – Gesellschaft für Wissenschaftskommunikation
Jörg Göpfert, freier Wissenschaftsjournalist, spezialisiert auf Umwelt, Naturwissenschaft,
Medizin und Soziales, TV/Hörfunk
Volkhart Wildermuth, freier Wissenschaftsjournalist spezialisiert auf Lebenswissenschaften,
Hörfunk/WDR/Deutschlandfunk
Das Programm
Wissenschaft als Medienthema, Präsentation von
Arbeitsgebieten, Medieninterviews, Kameratraining,
Pressekonferenz und Pressemitteilung
Rubin 2009
Facetten
65
Herunterladen