Rubin 2009 Ein internationales Jahr für die Astronomie Astronomie ist Kulturgut Dass UNO und UNESCO ein ganzes Jahr einer Wissenschaftssparte widmen, noch dazu einer Naturwissenschaft, ist schon ein besonderes Ereignis. Anlass ist die erste Nutzung eines Teleskops zur wissenschaftlichen Erforschung des Himmels im Jahr 1609 durch Galileo Galilei. Um es gleich deutlich zu sagen: Bei dem Jahrestag geht es nicht um die Anerkennung einer allerersten Himmelsbeobachtung mit einem Teleskop. Denn es gibt viele historische Hinweise, dass bereits Andere vor Galilei Teleskope benutzten, um den „Himmel“ besser sehen zu können. Doch Galilei hatte daraus als erster wissenschaftliche Erkenntnis gewonnen. Das Jahr 1609 ist für uns aber auch mit der Veröffentlichung der Keplerschen Gesetze verbunden, die für die Entwicklung der Astronomie und Physik von ebenso fundamentaler Bedeutung waren. Beides ist Grund genug, auf vierhundert Jahre naturwissenschaftliche Forschung zurück zu schauen. Der Anspruch an das Internationale Astronomiejahr 2009 (International Year of Astronomy IYA 2009) ist hoch, denn es soll mit seinen Aktivitäten den Menschen die Astronomie und deren Forschungsgegenstand als Kulturgut nahe bringen. Dafür steht auch das Motto des Jahres „Das Weltall, Du lebst darin – entdecke es“. Die Natur-Erfahrung des Sternenhimmels machen junge Menschen heute eher seltener und kennen daher z.B. eindrucksvolle Phänomene wie die Milchstraße kaum aus eigener Anschauung. Dabei haben die „himmlischen Begebenheiten“ die Menschen immer beschäftigt und deren Kulturen mit geprägt – von den ersten kalendarischen Beschreibungen des Himmelsgeschehens in der Steinzeit bis zur Nutzung der GPS-Satelliten heute, von der Erkenntnis der zentralen Bedeutung der Sonne für das Leben auf der Erde bis zur Entdeckung des Urknalls. So entrückt von unserem Alltag, wie man im ersten Moment vielleicht denken mag, ist die Astronomie also gar nicht. Indem wir den „Himmel“ erforschen, erkennen wir die Stellung des Menschen im Universum – das entspricht dem Bedürfnis, auf Grundfragen der Menschheit Antworten zu bekommen. Die wachsenden Einsichten in Abb.: Auch vor Ort von den Dächern der Ruhr-Universität können die Bochumer Astronomen zu Ausbildungszwecken mit zwei Teleskopen den Himmel beobachten. 4 Editorial Rubin 2009 die Natur der Himmelskörper, der komplexen kosmischen Zusammenhänge, der astronomischen Entfernungen und Dimensionen haben über Jahrhunderte das Selbstverständnis des Menschen beeinflusst. Lange dem Zentrum der Welt entrückt, müssen wir heute erkennen, dass wir tatsächlich nur „Sternenstaub“ sind. Aus diesen vielfältigen Bezügen und Bochumer Stärke. Entsprechende Forschungsprojekte fördert die Deutsche Forschungsgemeinschaft zurzeit durch die Forschergruppe (FOR1048) „Instabilities, Turbulence and Transport in Cosmic Magnetic Fields“. In einem vierten Beitrag wird schließlich dargestellt, dass wir Menschen auf der Erde durchaus kosmischen Einflüssen unterliegen. Astronomie ist umfassendes Verständis von Naturwissenschaften, bei dem Kultur sowie Naturwissenschaft und Technik nicht als unüberbrückbare Gegensätze aufgefasst werden. grundlegenden Einsichten ergeben sich sehr viele Querverbindungen zu anderen Wissenschaftszweigen. Für einen Astronomen ist es auch eine angenehme Überraschung, diese vielfältigen Beziehungen des eigenen Forschungsgegenstandes zu anderen Bereichen gerade auch an der eigenen Universität zu sehen. Die RuhrUniversität bietet hier als Voll-Universität ein besonders gutes Umfeld für interdisziplinäre Beziehungen. Dabei spielen die Wechselbeziehung der Astronomie mit Physik und Technik – dem Schwerpunkt dieser RUBIN-Ausgabe – eine besondere Rolle. Zunächst wird daher auch die Entwicklung der Teleskoptechnik und deren Einfluss auf die Geschichte astronomischer Entdeckungen dargestellt. Zwei Beiträge widmen sich dem heutigen Stand der astronomischen Messtechnik und geben Einblick in das Bochumer Engagement auf diesem Gebiet. Ein weiterer Beitrag zeigt die Wechselbeziehung zwischen physikalischen Phänomenen auf der Sonnenoberfläche, der Labor-Plasmaphysik und speziellen Computersimulationen auf. Die Behandlung astrophysikalischer Fragestellungen in Zusammenarbeit mit der Plasmaphysik ist eine Viele weitere Wechselbeziehungen lassen sich anführen, die einen breiten Fächerkanon unserer Universität umfassen. So erschließt sich uns erst über die mathematische Darstellung physikalischer Gesetze die moderne Kosmologie. In der Chemie werden Messmethoden entwickelt, die den Nachweis komplizierter Moleküle im interstellaren Raum erlauben. Biologen und Mediziner untersuchen Lebewesen unter Weltraumbedingungen. Ingenieure der Ruhr-Universität entwickeln für Weltraumexperimente notwendige Techniken. Und der Einfluss von naturwissenschaftlicher Erkenntnis und technischem Fortschritt auf die kulturelle Entwicklung ist Forschungsgegenstand verschiedener gesellschaftswissenschaftlicher Disziplinen. Die Beziehungen zu den Geisteswissenschaften beschrieb Galilei bereits 1623 in seinem Werk „Il Saggiatore“ treffend: „Die Philosophie steht in diesem großen Buch geschrieben, dem Universum, das unserem Blick ständig offen liegt“. Damit lässt uns Galilei verstehen, dass in seiner Zeit ein umfassenderes Verständnis des Seins und der Natur angestrebt wurde. Vielleicht ist das heute zu beobachtende große Interesse einer breiten Öffentlichkeit an der Astronomie noch ein letzter Rest dieser eigentlich „ur“-menschlichen Neugier auf den Ursprung unseres Seins. In diesem umfassenderen Verständnis von Naturwissenschaften sind Kultur einerseits und Naturwissenschaften und Technik andererseits keine unüberbrückbaren Gegensätze. Dazu könnten vielleicht die Universitäten des Ruhrgebiets beitragen, wenn im nächsten Jahr unsere Region der Welt ihren Kulturreichtum vorstellen wird. Der im täglichen Leben häufig vorhandenen Distanz zwischen Kultur und Naturwissenschaft kann gerade Bochum einige sehr positive Beispiele entgegensetzen: Dasselbe städtische Dezernat sorgt für das Zeiss-Planetarium – ein Sprachrohr der Naturwissenschaften – wie für alle anderen Kulturstätten. Dies ist einen Glückwunsch an die Stadt wert, die sich für eine Modernisierung des Planetariums entschieden hat, so dass diesem damit für die nächsten Jahre eine weitere Spitzenstellung erhalten bleibt. Und gleich noch eine lokale Anlage verbindet uns „Menschen der Industriekultur“ mit einem elementaren Himmelserlebnis: das Horizont-Observatorium auf der Halde Hoheward. Dieser „astronomische Erlebnispark“ überragt die industriell geprägte Umgebung weithin und bietet uns so Gelegenheit, die Natur-Erfahrung „Himmel“ ein bisschen zu erhalten. Prof. Dr. Ralf-Jürgen Dettmar Astronomisches Institut der Ruhr-Universität Information zu Veranstaltungen und Ausstellungen zum IYA und dem Horizont-Observatorium: http://www.astronomy2009.de, http://www.astronomie-rhein-ruhr.de bzw. unter http://www.horizontastronomie.de 5 Astronomie Rubin 2009 Neue Techniken für immer bessere Teleskope Tiefer blicken ins Weltall Ralf-Jürgen Dettmar Eine Billion mal lichtschwächer als jene Sterne, die wir gerade noch mit bloßem Auge am Sternenhimmel erkennen, sind die Objekte, die den Astronomen mit heutiger Technik zugänglich sind. Die Zahl 1.000.000.000.000 spiegelt zugleich den enormen Fortschritt in 6 Die Wunder des Weltalls zeichnen sich vor unseren Augen immer deutlicher ab. Moderne Teleskope, die auf völlig neuen Technologien und Konzepten beruhen, liefern eindrucksvolle Bilder und lassen uns tief ins Weltall blicken. Weltweit kooperiert die internationale Gemeinschaft der Astronomen beim Aufbau von Hightech-Teleskopen. Bochumer Astronomen und Astrophysiker zieht es auf Berge in der Atacama Wüste Chiles oder an den Rand der Sonora Wüste Arizonas. Doch auch in Europa entsteht ein revolutionär neues Teleskop, das im Bereich von Radiowellenlängen das Weltall vermisst. der Messtechnik wider, seit Galilei 1609 erstmals mit einem Teleskop den Himmel erforschte. Die Entwicklung der Teleskop- und Messtechnik erlaubte uns über die vergangenen vierhundert Jahre immer neue Blicke in den Kosmos. Das Galileische Teleskop (Abb. 2) trug mit der Beobachtung der Venusphasen und dem Umlauf der Jupitermonde wesentlich dazu bei, die Bewegungsverhältnisse im Sonnensystem zu verstehen. Es verhalf dem Kopernikanischen Weltbild zum Durchbruch und hat die Mechanik mitbegründet. Schon mit einem guten Feldstecher – Astronomie Rubin 2009 Astronomische Messtechnik über vier Jahrhunderte 108 107 1700 1800 1900 Neue Großteleskope (>6m) Huygens 1 Galilei 10 Augen 102 Mount Palomar 5 m 103 Fotografisches Verfahren 104 Spiegelteleskop Ø 183 cm 105 Spiegelteleskop Ø 120 cm Empfindlichkeit 106 2000 Jahre Abb. 2: Mit diesen Teleskopen (links) führte Galileo Galilei erste systematische Himmelsbeobachtungen durch. Er erkannte die Krater und Mare des Mondes, die Phasen der Venus, den Aufbau der Milchstraße und entdeckte die Monde des Jupiters. Weitere Meilensteine waren die Nutzung von Spiegeln anstelle von Linsen und das „Lichtsammeln“ mit Hilfe fotografischer Emulsionen (Grafik rechts). Damit verbessern ab Mitte des 19. Jh. neben zunehmender Lichtsammelfläche (rechts: untere Kurve) auch Detektoren (obere Kurve) die Empfindlichkeit der Teleskope. der übrigens sehr viel besser ist als Galileis Teleskop – erkennen wir heute durch die Verteilung der Sterne verschiedener Helligkeit an der Himmelssphäre unsere Milchstraße als System aus zigtausenden von Sternen. Die Erforschung dieses Sternsystems war ein Jahrhundertprojekt der astronomischen Forschung. Zu dessen Abschluss vor etwa einhundert Jahren erhielt die Sonne mit der Erde ihren Platz am Rand eines Systems von hundert Milliarden Sternen. Zwei technische Errungenschaften trugen wesentlich zur Entwicklung der dafür notwendigen astronomischen Messtechnik bei. Durch die Nut- Abb. 1: 60 Millionen Lichtjahre entfernt ist diese vom Hubble-Weltraum-Teleskop für das Bochumer Forschungsprojekt vermessene Galaxie NGC 4700. Dennoch macht Hubble dank seines hohen Winkelauflösungsvermögens noch einzelne leuchtkräftige Sterne sichtbar (bläuliche Strahlung). Zu erkennen ist auch, wie sehr energiereiche Explosionen junger, massereicher Sterne das interstellare Gas (rötliche Strahlung) aus der Scheibe der Galaxie herausschleudern. zung von Spiegeln anstelle von Linsen, die sich unter ihrem Eigengewicht zu verformen begannen, konnte man Teleskope mit größerer Lichtsammelfläche bauen und damit das Licht viel schwächerer Sterne analysieren. Die Speicherfähigkeit der fotografischen Emulsion erlaubte es zudem, das Licht der Sterne zu „sammeln“. Durch die damit möglichen langen Belichtungs- deren Objekte wegen der riesigen Entfernungen sehr leuchtschwach sind. Doch auch Teleskope mit noch größerer Sammelfläche (Spiegeldurchmesser) stießen auf Grund der mechanischen Genauigkeitsanforderungen zunächst an eine technische Grenze. Eine neue Ära in der astronomischen Messtechnik begann dann mit dem Ein- Ihren Platz am Rande der Milchstraße erhielt unser Sonnensystem vor hundert Jahren Dank astronomischer Messtechnik zeiten konnten die Astronomen nicht nur zu noch schwächeren Signalen vordringen, sondern die zuvor nur mit dem Auge des Beobachters durchgeführten Messungen konnten nun objektiviert werden. In den folgenden Jahrzehnten erweiterte sich der Beobachtungshorizont der Astronomen nochmals wesentlich durch die großen Spiegelteleskope wie das bekannte Palomar-5m-Teleskop in Kalifornien. Sie ermöglichten auch die photographische Untersuchung anderer Galaxien, zug verschiedener elektronischer Techniken in den siebziger und achtziger Jahren des 20. Jahrhunderts. Genau so wie die Elektronik und insbesondere die Digitaltechnik unser „tägliches Leben“ verändert, so grundlegend beeinflusst sie auch die Möglichkeiten in der Messtechnik. In der Astronomie basieren darauf zwei für die weitere Entwicklung wesentliche technische Durchbrüche. Da dicke Glasspiegel über fünf Meter Durchmesser kaum mehr in der für astronomische Teleskope not7 Astronomie Rubin 2009 ein zweites „Fenster zum All“ öffnen. Mit der Weltraumfahrt konnten weitere Wellenlängenbereiche des elektromagnetischen Spektrums erschlossen werden, denn außerhalb der Atmosphäre lässt sich auch die Strahlung kosmischer Objekte im sog. Fern-Infrarot (bei Wellenlängen von 20-400 µm), im Ultravioletten (bei Wellenlängen von 100-300 nm) und vom Röntgenstrahlungsbereich bei Photonenenergien ab 0.1 Kiloelektronenvolt (keV) bis in den Gamma-Strahlungsbereich bei Gigaelektronenvolt (GeV)-Energien erfassen (s. Abb. in Info 2). Diese komplette Wellenlängenabdeckung der Spektren kosmischer Objekte ist eine wichtige Grund- Abb. 3: Teleskop der Superlative: Das Large Binocular Telescope (LBT) – hier kurz vor Sonnenuntergang zu Beginn der nächtlichen Beobachtungen (Bild oben) – ist das derzeit größte optische Spiegelteleskop der Welt. Es kombiniert zwei 8,4 m Spiegel. (Größenvergleich: Person rechts unten vom linken Spiegel im Kuppelspalt) wendigen idealen Form gehalten werden können, kommt seit einigen Jahren die Technik der „aktiven Optik“ zum Einsatz: Dabei werden dünne Spiegel mit Hilfe von Piezo-Elementen (elektrisch in der Dicke regelbare Kristallplatten) mechanisch unterstützt und durch einen Prozessrechner in die ideale Form gebracht und gehalten. Eine spezielle Bauweise der „aktiven“ Optik liegt auch dem an der Ruhr-Universität entwickelten Hexapod-Teleskop zugrunde, mit dem Bochumer Astronomen auf dem Cerro Armazones in der Atacama-Wüste junge Sterne und Quasare beobachten. Die „aktive“ Optik ermöglicht es, leichtere und deutlich größere Teleskope mit Spiegeldurchmessern von über sechs Metern zu bauen. Der zweite „digitale“ Durchbruch betrifft die Detektion des Lichts. HalbleiterDetektoren haben die fotografische Emulsion bei der Teleskop-Technologie bereits zwei Jahrzehnte früher als im „täglichen Leben“ verdrängt. Der physikalische Vor8 teil ist einfach erklärt: Die Fotoemulsion hält nur etwa zwei Prozent des einfallenden Lichts durch eine chemische Reaktion fest, ein in der astronomischen Forschung eingesetzter CCD-Detektor (Charge-Coupled-Device) verwandelt bis zu 90 Prozent der einfallenden Lichtquanten in Elektronen, die dann gezählt werden können. Diese hohe „Quanteneffizienz“ macht solche Halbleiterdetektoren zu fast idealen Messinstrumenten. Des- lage für das Verständnis der unterschiedlichen Strahlungsprozesse und damit ihrer sehr verschiedenen physikalischen Eigenschaften (s. Info 2). Weltraumagenturen wie ESA und NASA betreiben heute eine Vielzahl von Satelliten, um die verschiedenen Wellenlängenbereiche der astronomischen Forschung zugänglich zu machen. Wissenschaftler können an diesen Satelliten, zu denen auch das HubbleWeltraum-Teleskop gehört, Messzeiten be- Radiomesstechnik öffnete zweites „Fenster zum All“- neben elektromagnetischer Strahlung im optischen Spektralbereich halb sind auch moderne Digitalkameras im täglichen Gebrauch so lichtempfindlich. Die Teleskop- und Detektorentwicklung der vergangenen Jahrzehnte hat letztlich zu der großen Empfindlichkeitssteigerung geführt (s. Info 1). Neben der elektromagnetischen Strahlung im optischen Spektralbereich ließ sich mit der Radiomesstechnik zunächst antragen. Der Erfolg dieses Teleskops beruht auf dem Vorteil der Satelliten-Astronomie, den störenden Einfluss der Luftunruhe zu überwinden. Damit erreicht die Bildschärfe den theoretischen Wert, der sich aus dem Teleskopdurchmesser bestimmt. Für unsere Forschungen zu Galaxien konnten wir im vergangenen Jahr das Hubble-Weltraum-Teleskop nutzen. Es Astronomie Rubin 2009 lieferte uns zum Beispiel hoch aufgelöste Bilder der Galaxie NGC 4700 (s. Abb.1). Mit dem technischen Fortschritt haben sich auch die Messtechniken ständig verbessert und immer neue Erkenntnisse geliefert. Doch der Betrieb der dafür notwendigen großen Teleskope hat auch die Kosten deutlich erhöht. So sind nicht nur die Weltraum-Teleskope teuer, auch große optische Teleskope ab vier Meter Spiegeldurchmesser sind mit Investitionen von mehr als 50 Millionen Euro verbunden. Die Gründung verschiedener nationaler und internationaler Observatorien regelt deren Finanzierung und Betrieb und ermöglicht den Astronomen weltweit den Zugang über ein wissenschaftliches Gutachterverfahren. Die deutschen Astronomen führen ihre Beobachtungen z. B. an der Europäischen Südsternwarte in Chile oder am Deutsch-Spanischen Astronomie-Zentrum auf dem Calar Alto in Südspanien durch. Diese „Service-Observatorien“ können durch den großen Benutzerkreis nicht immer alle Wünsche an Abb. 4: Der weltweit größte Multi-Objekt-Infrarot-Spektrograph LUCIFER. Ein Team deutscher Astronomen aus verschiedenen Einrichtungen, darunter die Ruhr-Universität, entwickelte und baute LUCUFER für das LBT. Es wurde 2008 auf dem Mt. Graham in Betrieb genommen: von links Kai Polsterer (RUB), Werner Laun, Michael Lehmitz, Volker Knierim (RUB), Walter Seifert, Nancy Ageorges, Marcus Jütte (RUB), Peter Buschkamp. info 1 Lichtsammler: Von Galilei bis zum Weltraum-Teleskop VLTI 0.001 Die Lichtsammelleistung steigt proportional mit der Sammelfläche: Bei einem Teleskops von sechs Meter Durchmesser hat die Sammelflä- HST che gegenüber dem Auge mit einem Pupillendurchmesser von etwa von hunderten von Stunden nachgewiesen, gegenüber dem Auge ein Gewinn von weiteren Millionen (s. Abb 2). Der Durchmesser eines Teleskops bestimmt sein Auflösungsvermögen. Als Maß gilt der Winkel, unter dem zwei Punkte noch getrennt messbar sind. Astronomische Messungen erfolgen in Bogensekunden (1/3600 eines Grads). Eine Bogensekunde entspricht dem Winkel, unter dem man eine Ein-Euro-Münze in ca. fünf Kilometer Entfernung sieht. Dies wäre bereits mit einem 20-Zentimeter-Teleskopspiegel möglich. Seit Galileis Beobachtungen hat sich das Auflösungsvermögen as- 0.14 0.16 0.20 0.25 0.3 0.5 tronomischer Teleskope durch technischen Fortschritt immer mehr verbessert (s. Abb. 2). Zudem lassen sich heute atmosphärische Tur- 1.0 bulenzen über einen kleinen Hilfsspiegel schnell korrigieren. Dank 2 4 dieser „adaptiven Optik“ erreichen neben den Weltraum-Teleskopen auch große Boden-Teleskope das ihrem Durchmesser entsprechende theoretische Winkelauflösungsvermögen. Supermassive Schwarze Löcher findlicher. Die schwächsten Objekte werden bei Belichtungszeiten 0.12 Sternenentfernungen messen zeit des Auges sind heutige Teleskope fast 100 Millionen Mal emp- 0.11 1600 Saturnringe ein Signal (Quantenausbeute) ab. Bezogen auf die kurze Belichtungs- Erste Mondkarten (Galilei) keit hängt aber auch von der Umsetzung des einfallenden Lichts in Winkelauflösungsvermögen (Bogensekunden) sechs Millimetern eine Million Mal zugenommen. Die Empfindlich- 0.1 Bessere Optik 1700 1800 1900 Interferometrie Beste Strandorte Weltraum Bessere Strandorte 2000 Jahre 9 Astronomie Rubin 2009 Abb. 5: Ferngesteuert öffnet sich die Kuppel des MONET-Teleskops am McDonald-Observatorium in Texas. Schüler und Studierende bedienen es über einen Internetbrowser von der Ruhr-Universität aus. die technischen Möglichkeiten erfüllen. Zudem wünschen sich die Astronomen für ihre Projekte viel mehr Beobachtungszeit als ihnen zur Verfügung steht. Daher sind die Teleskope häufig drei-, fünf- oder auch zehnmal „überbucht“. Verschiedene Konsortien von astronomischen Instituten bauen und betreiben daher weitere Observatorien mit neuartigen Teleskopen und verbesserten Analyse-Instrumenten. Ein solches Teleskop der Superlative ist das Large Binocular Telescope (LBT), das als Gemeinschaftsprojekt von amerikanischen, italienischen und deutschen Institutionen auf dem Mt. Graham in Süd-Arizona gebaut und betrieben wird. Die Konstruktion hält zwei „aktive“ Spiegel von 8,4 Meter Durchmesser verschiedenen Instituten den Multi-Objekt Spektrograph LUCIFER (LBT NIR Utility with Camera and Integral-Field Unit for Extragalactic Research), der bei InfrarotWellenlängen zwischen 0,3 und 2,5 µm arbeitet (Abb. 4). LUCIFER soll schon bald das Licht von Galaxien in der Frühphase ihres Bildungsprozesses analysieren. Die Strahlung der Sterne in diesem Wellenlängenbereich des Spektrums ist durch die noch rätselhafte kosmische Expansion verschoben, deren Ursachen wir damit vielleicht auch auf die Spur kommen. Ein Teleskop dieser Dimension besitzt auch Analyseinstrumente der Superlative. Damit die Wärmestrahlung des Spektrographen die Messungen nicht stört, werden alle optischen Teile in dem mit rund drei Kubikmetern bisher größten astronomischen Instrumenten-Behälter (Dewar) auf eine Temperatur von 80 K gekühlt. Die am Astronomischen Institut der RuhrUniversität entwickelte Steuersoftware kontrolliert mit 22 Motoren, 150 Schaltern und vier Positions-Encodern sieben opto-mechanische Einheiten mit jeweils verschiedenen Kameras, Filtern und dis- LUCIFER analysiert bei Infrarot-Wellenlängen das Licht von Galaxien in ihrem Entstehungsprozess in einer Montierung (Abb. 3), deren Strahlengänge interferometrisch kombiniert werden sollen. Damit entstünde dann bei einem Zwischenraum zwischen den beiden Spiegeln von 5,5 Metern das Auflösungsvermögen eines 22 Meter-Teleskops (s. Info 1). Für dieses Teleskop bauten wir in einem Team deutscher Astronomen aus pergierenden Elementen. Dazu ist ein Programm mit 280 000 Zeilen notwendig. Neben den neuen Teleskoptechniken und Detektoren hat das digitale Zeitalter den Astronomen noch eine weitere Neuerung gebracht. So basieren viele Arbeitsabläufe mittlerweile auf verschiedenen Internet-Diensten. Teleskope werden über mm-Wellen 1960 Radio-Wellen straße im Radiowellen-Bereich des elektromagnetischen Spektrums. Da 1980 Jahre tronomische Objekt strahlt wie die Sterne im optischen oder die Milch- Infrarot-Wellen wurde dann zunächst der Radiohimmel entdeckt. Doch nicht jedes as- UV-Wellen 2000 Wellenlängenbereich beobachtbar. Mit der Entwicklung der Radiotechnik Röntgenstrahlen Bis zur Mitte des letzten Jahrhunderts war der Himmel nur im optischen Gammastrahlen Ungefilterter Blick: Satellitenerkundung außerhalb der Erdatmosphäre Optischer Bereich info 2 die Erdatmosphäre zum Beispiel für Fern-Infrarot und kurzwellige Strahlung undurchlässig ist, hat erst die Satellitenastronomie diese Bereiche des elektromagnetischen Spektrums für astronomische Beobachtungen zugänglich gemacht. 10 1900 1 GeV 1 MeV Energie 1 nm 1 mm Wellenlänge 1m Astronomie Rubin 2009 Radioteleskop LOFAR das Internet ferngesteuert und die spezielle Software macht den Arbeitsplatz im Heimatinstitut zum „Kontrollraum“. Mit Hilfe von Webcams lässt sich die Funktionalität kontinuierlich überprüfen. Astronomen der Ruhr-Universität nutzen verschiedene solcher ferngesteuerten Teleskope. Schüler und Studierende arbeiten über das durch die Krupp-Stiftung geförderte MONET-Projekt (MOnitoring NEtwork of Telescopes) an Sternwarten in Texas und Südafrika (Abb. 5). Das Internet macht aber noch einen anderen Schritt möglich. Für Anwendungen in der Radioastronomie bei Frequenzen zwischen 30 und 240 MHz wird zurzeit ein völlig neuartiges Radioteleskop gebaut. Das Low Frequency Array (LOFAR) wird jeweils hunderte von kleinen Dipolantennen auf ca. zwei Dutzend Fußballfeld-großen Arealen verteilen. Das digitalisierte Signal dieser einzelnen Stationen wird über Glasfaserleitungen mit einem Supercomputer an der Universität Groningen in den Niederlanden verbunden, der das Radiobild des Himmels aus den Messungen aller Stationen errechnet. Die Kombination der einfallenden Strahlung erfolgt also nicht durch die Fokussierung in einem Spiegel, sondern durch die Kombination aller gemessenen Signale in einem Rechner (Abb. 6). Neben einer Kernregion von Stationen im Marsch-Gebiet südlich von Groningen sollen dazu einige Stationen internationaler Partner verteilt über Europa betrieben werden. In Deutschland gibt es bereits eine Station des Max-Planck-Instituts für Radioastronomie beim 100 m Radioteleskop Effelsberg in der Eifel (Abb. 7). Gemeinsam mit anderen deutschen Universitäten ist das Astronomische Institut der Ruhr-Universität derzeit am Aufbau einer weiteren LOFARStation beim Forschungszentrum Jülich beteiligt. Dieses europaweite elektronische Teleskop wird zum ersten Mal Beobachtungen des Himmels bei niedrigen Frequenzen oder langen Radio-Wellenlängen mit hoher Winkelauflösung von wenigen Bogensekunden ermöglichen. Neue Entdeckungen sind dann nahezu sicher… Und natürlich träumen die Astronomen schon von der nächsten TeleskopGeneration. Denn technisch erscheint es möglich, sowohl das größte Radiotele- Empfänger Blue Gene Supercomputer in Groningen Zeitliche Verzögerung Empfänger „Array“ Parabolspiegel Klassisches Radioteleskop Kombinationsschaltung Künstliche Verzögerung Signal Abb. 6: Das LOFAR Teleskop Array (rechts) verstärkt und digitalisiert das elektromagnetische Wellen-feld in jedem Dipol. Die Signale der einzelnen europäischen Stationen erreichen über das Internet einen Supercomputer in den Niederlanden, der die digitalisierten Signale rechnerisch kombiniert. Im Gegensatz dazu fokussiert ein klassisches Radioteleskop (links) die Wellen durch die Spiegeloberfläche im Brennpunkt, wo sie durch Detektoren nachgewiesen werden. skop wie auch das größte optische Teleskop aller Zeiten zu bauen, um dem Weltall weitere Rätsel zu entreißen. Dabei geht es um Lichtsammelflächen von etwa einem Quadratkilometer, entsprechende Teleskope sollen ihren Standort in Wüstengebieten Südafrikas oder Westaustraliens haben. Unter den Projektnamen Square Kilometer Array (SKA) und European Extremely Large Telescope (E-ELT) wird die Machbarkeit dieser internationalen Großprojekte gerade studiert. Doch nutzen wird diese Instrumente wohl erst die nächste Generation von Astronomen an der Ruhr-Universität Bochum. Abb. 7: Einfache Dipolantennen – wie hier am Radioteleskop Effelsberg in der Eifel – sind Teil einer LOFAR Station. Die empfangenen Radiosignale werden zunächst in einem Elektronik-Container (Bild rechts hinten) zusammen gefügt und dann über ein Glasfaserkabel zu einem Hochleistungsrechner in Groningen geleitet. Dort werden die Daten mit denen mehrerer Dutzend anderer über Europa verteilter Stationen kombiniert, um so den Himmel im Frequenzbereich von 30240 MHz mit hoher Winkelauflösung zu vermessen. Dank: Die Projekte werden durch die Alfried Krupp von Bohlen und Halbach-Stiftung, die Verbundforschung „Bodengebundene Astronomie“ des BMBF (DESY-PT), die Deutsche Forschungsgemeinschaft (DFG) und die Verbundforschung „Extraterrestrik“ des Deutschen Zentrums für Luft- und Raumfahrt (DLR) gefördert. Weitere Information: http://www.astro.rub.de Prof. Dr. Ralf-Jürgen Dettmar, Astronomisches Institut, Fakultät für Physik und Astronomie 11 Naturwissenschaften Rubin 2009 Beobachtungszeit ist kostbar – Bochumer Astronomen nutzen sie im eigenen Observatorium in der chilenischen Atacamawüste Sternenromantik via Internet Rolf Chini Längst vorbei sind die Zeiten, in denen der Astronom durch sein Fernrohr blickte. Moderne Teleskope haben keine Möglichkeit mehr, mithilfe eines Okulars in den Himmel zu schauen. Alles funktioniert elektronisch und Bilder erscheinen nur noch auf Monitoren. Mehr noch, der Astronom wurde zunehmend 12 Ob die schwersten Sterne wirklich Zwillinge oder Drillinge sind, warum es auf einigen ganz jungen Sternen zu extrem starken Ausbrüchen kommt oder wie groß die Schwarzen Löcher im Zentrum von Galaxien sind, erforschen Astronomen der Ruhr-Universität via Internet zur Beobachtungsstation in der chilenischen Atacamawüste. Für die meisten ihrer Projekte braucht man viel Beobachtungszeit. Während die in den großen internationalen Sternwarten Mangelware ist, können sich die Bochumer Forscher Zeit lassen – im eigenen Observatorium. von seinem Teleskop getrennt – spätestens seit Aufkommen der „Drei-Meter-Teleskope“ in den 80-er Jahren. Den entscheidenden Knopf, der das Teleskop bewegt, drücken seither eigens dafür geschulte technische Operateure. Gleichzeitig wurde auch die Fotoplatte durch empfindliche CCD-Chips (charge-coupled device) abge- löst, die in komplizierten Gerätschaften das Licht von Sternen und Galaxien registrieren und analysieren. Auch diese Apparate werden immer häufiger von Spezialisten an den jeweiligen Observatorien bedient. Inzwischen wird an den größten Observatorien bereits 50 Prozent der Teleskopzeit im sog. „Service-Mode“ genutzt. Astrophysik Rubin 2009 Abb. 1: Vor Ort im eigenen Observatorium der Ruhr-Universität in der Atacamawüste sind die Bochumer Astronomen eher selten – viele Beobachtungsprogramme laufen inzwischen automatisiert. Abb. 2: Blickpunkt des Observatoriums ist ein pyramidenförmiger Dom – die schützende Hülle für das Hexapod-Teleskop. Wenn sie sich öffnet, nimmt das Teleskop seine Arbeit auf, sucht den Himmel ab nach Doppelsternen oder extra-solaren Planeten und liefert extrem scharfe Bilder. Der Astronom ist nicht einmal mehr vor Ort, sondern teilt der Sternwarte mit, welche Daten er haben möchte. Ist sein Antrag bewilligt, führen Spezialisten am Observatorium die Beobachtungen durch und schicken ihm die Daten über das Internet zu. Soviel zur Romantik des heutigen astronomischen Berufslebens. Wen dies erstaunt, sei daran erinnert, dass das berühmte Weltraumteleskop Hubble schon seit vielen Jahren seine Beobachtungen macht, ohne dass jemand vor Ort ist. Dies gilt natürlich auch für andere Weltraumteleskope, die bei Wellenlängen im Röntgen-, UV- und Infrarot-Bereich arbeiten, die nur außerhalb der Erdatmosphäre zugänglich sind. Die Entfernungen zwischen Astronom und Teleskop werden immer größer, dabei hat das Hubble-Teleskop nicht einmal die weiteste Distanz vom Beobachter. Während das Weltraumteleskop die Erde in einem Abstand von weniger als 600 km umkreist, sind die Bochumer Astronomen meist 12.000 km von ihren Teleskopen entfernt. Das Astronomische Institut der RuhrUniversität betreibt seit einiger Zeit in der chilenischen Atacamawüste ein Observatorium (s. Abb.1). Die Forscher füh- ren dort Beobachtungen – sog. Variabilitätsmessungen – durch, für die ihnen an den großen internationalen Observatorien nicht genügend Zeit zur Verfügung steht. Viele, wenn nicht gar die meisten astronomischen Objekte sind variabel, d.h. sie verändern ihre Helligkeit. Dies gilt für junge Sterne ebenso wie für alte und betrifft selbst die hochenergetischen Phänomene im Universum wie Supernova-Explosionen und massereiche Schwarze Lö- chung von Variabilitätsphänomenen völlig ausschließt – denn diese kann sich über Tage, Wochen und Monate erstrecken. Andererseits sollen die Forscher und Studierenden auch nicht monatelang in der Atacamawüste sitzen, um Nacht für Nacht die gleiche – und dann irgendwann auch langweilig werdende – Beobachtung immer wieder zu machen. Daher haben wir Routinebeobachtungen bei unserem kleinsten Teleskop VYSOS 6 (s. Info) in- Beobachtungszeit ist Mangelware – doch erst über Tage, Wochen und Monate verändert sich die Helligkeit der Sterne cher in den Kernen aktiver Galaxien. Die Variationen sind teilweise periodisch, was meist auf die Rotation oder Pulsation eines Objekts zurück zu führen ist. Oft findet man aber auch irreguläre Variationen, die z.B. auf eruptiven Phänomenen beruhen. Will man die Physik solcher Phänomene studieren, braucht man Zeit. Doch gerade Zeit ist an den großen Observatorien ein knappes Gut, da etwa fünfmal mehr beantragt wird, als übers Jahr verfügbar ist. So wird die kostbare Beobachtungszeit oftmals nur noch stundenweise vergeben, was die systematische Untersu- zwischen automatisiert: Seit Heiligabend 2008 arbeitet es jede Nacht ein Programm ab mit dem Ziel, in Sternentstehungsregionen unserer Milchstraße junge variable Sterne zu finden. Extragalaktisch werden jede Nacht Quasare registriert, um aus ihrer Variabilität etwas über die Größe des Schwarzen Lochs abzuleiten. Dem sich jahreszeitlich verändernden Himmel passen die Astronomen von Bochum aus auch das Beobachtungsprogramm an. Die Daten – pro Nacht etwa 20 GB – werden tagsüber durch das Internet an die RUB transferiert und hier analysiert. Zwei wei13 Astrophysik Rubin 2009 Abb. 3: Pulsar im Zentrum des Krebsnebels, dem Überrest eines explodierten Sterns. Die Strahlen der Pulsare bzw. Neutronensterne bilden einen Doppelkegel, ähnlich wie bei einem Leuchtturm. Pulsare haben eine extreme Dichte, sie gleichen einem riesigen Atomkern aus Neutronen und sind entsprechend schwer. tere Teleskope, ein optisches, das sich bereits am Observatorium befindet und ein Infrarot-Teleskop (s. Info), das in den nächsten Monaten dort installiert werden wird, sollen im Laufe dieses Jahres ebenfalls den robotischen Betrieb aufnehmen. Die dann anfallenden riesigen Datenmengen können aber nicht mehr über die zurzeit vorhandene Internetverbindung geschickt werden. Daher werden über das EU-Projekt EVALSO das Observatorium der Ruhr-Universität und auch die Europäische Südsternwarte auf dem Paranal 14 (ESO) in Kürze mit einer 1 GB-Glasfaserleitung über das chilenische Glasfasernetz an das Internet angeschlossen. Das heißt auch, 70 km Glasfaserkabel durch Bochum weiter zu leiten. Denn Variabilitätsprojekte erfordern besonders dann eine zeitnahe Datenanalyse, wenn wichtige Phänomene wie etwa Supernova-Explosionen schnell registriert werden müssen, um Nachfolge-Beobachtungen zu initiieren. Schon heute liefert das Observatorium die Daten für eine Vielzahl von Projekten, die im Rahmen von Bache- Infrastruktur für riesige Datenmengen: Siebzig Kilometer Glasfaserkabel durch die Atacamawüste die Atacamawüste zu verlegen. Das Projekt schafft die notwendige Infrastruktur, um die während der Nacht in Chile aufgenommenen Daten umgehend nach Garching (ESO) und an die Ruhr-Universität lor-, Master- und Doktorarbeiten bearbeitet werden. Projekt „Multiplizität massereicher Sterne“: Es hat den Anschein, als ob die schwersten Sterne, die etwa 20 bis 50 Mal Astrophysik Rubin 2009 mehr Masse als unsere Sonne haben, gerne als Zwillinge und Drillinge auftreten, während Sterne wie unsere Sonne eher Einzelsterne sind (s. Abb. 2). Woher dies kommt, weiß man noch nicht. Sehr wahrscheinlich hat dies etwas mit dem Entstehungsprozess der massereichsten Sterne zu tun, der ohnehin noch unverstanden ist. Es werden alle bekannten massereichen Sterne photometrisch und spektroskopisch beobachtet, um aus den Lichtkurven und den Radialgeschwindigkeiten etwas über die Statistik der Multiplizität aussagen zu können. Projekt „Eta Carinae Event 2009“: Eta Carinae ist ein Stern in einem jungen Sternhaufen, der als der massereichste Stern in unserer Galaxie angesehen wird (Abb. 4). Allerdings wird vermutet, dass es sich um einen Doppelstern handelt, bei dem ein Begleiter Eta Carinae in 5,2 Jahren umkreist. Im Januar 2009 befand sich der Begleiter auf seiner Bahn zwischen Eta Carinae und der Erde. Dieses Ereignis haben wir über Wochen photometrisch und spektroskopisch verfolgt. Die Auswertungen sind in vollem Gange, und es deutet sich schon jetzt ein etwas anderer Verlauf als bei dem letzten Durchgang des vermuteten Begleiters an: Die photometrische und spektroskopische Aktivität des Systems ist auch Mo- Abb.5: Nicht alles geht via Internet, hin und wieder machen sich die Bochumer Astronomen „aus dem Staub“ – auf in den Staub der Atacamawüste und legen auch schon mal selbst Hand an, wie hier beim VYSOS 16 –Teleskop. nate nach dem „Event“ noch nicht vollständig abgeklungen. Weshalb Eta Carinae seinen Normalzustand bisher nicht wieder erreicht hat, lässt sich momentan nicht erklären. Projekt „Z Canis Majoris“: Bei der Entstehung junger Sterne gibt es das sehr seltene Phänomen, dass der Stern seine Helligkeit in wenigen Tagen um den Faktor 100 erhöht, um dann im Verlauf von Jahren wieder auf seine ursprüngliche Helligkeit abzuklingen. Seit es astronomische Beobachtungen gibt, wurden erst bei drei jungen Sternen solche Ausbrüche registriert. Von einigen wenigen Objekten wie z.B. dem Z Canis Majoris nimmt man an, dass sie ein solches, unbeobachtet gebliebenes Ereignis hinter sich haben. Wir haben festgestellt, dass Abb. 4: Eta Carinae (s. Pfeil) ist der massereichste Stern in unserer Galaxie. Die Forscher vermuten, dass es sich um einen Doppelstern handelt. sich bei Z Canis Majoris zurzeit wieder ein Ausbruch vollzieht – mit welcher Stärke und über welchen Zeitraum, muss abgewartet werden. Anhand der photometrischen und spektroskopischen Variabilität, die seit Anfang dieses Jahres beobachtet wird, erforschen zwei Studierende im Rahmen ihrer Bachelor-Arbeiten, worauf die angestiegene Helligkeit des Sterns beruht. Vermutlich handelt es sich um ein Akkretionsphänomen, d.h. der junge Stern sammelt weiter Gas aus seiner Umgebung auf, gibt aber auch große Teile davon wieder ab. Unsere Spektren zeigen, dass sich Gas mit mehreren Hundert Kilometern pro Sekunde in der Nähe des Sterns bewegt. Projekt „Variabilität junger Sterne“: Dies ist ein Langzeitprojekt, bei dem systematisch die Sternentstehungsgebiete unserer Galaxie jede Nacht aufs Neue fotografiert werden. Mit speziellen SoftwarePaketen suchen wir nach variablen Objekten, plotten ihre Lichtkurven und analysieren die Natur der Variabilität. So lassen sich periodische Variationen finden, die auf riesige Sonnenflecke (zehn Prozent der Sternoberfläche) zurückzuführen sind, aber auch stetige Helligkeitsanstiege und Abfälle, die vermutlich mit dem Gaseinfall bzw. mit dem Ausstoßen von Gasströmen in diesen jungen Stadien zusammen hängen: Der Stern wächst, indem er Gas aus seiner Umgebung aufsam15 Astrophysik Rubin 2009 info 1 Bochumer Observatorium: Für jeden Zweck das passende Teleskop Mit dem Infrarot-Teleskop IRIS wird das Observatorium der Ruhr-Uni- sität von Hawaii erstmals systematisch die Variabilität junger Sterne. versität in der chilenischen Atacamawüste bald über fünf Teleskope Dazu überwachen mehrere Teleskope am Nord- und Südhimmel (Ha- verfügen. Vier davon kommen direkt aus Bochum, ein weiteres für waii und Chile) alle bekannten Sternentstehungsgebiete und suchen die Suche nach extra-solaren Planeten aus dem Deutschen Zentrum nach variablen jungen Objekten. Die interessantesten Phänomene für Luft- und Raumfahrt (DLR) in Berlin-Adlershof: werden dann möglichst zeitnah mit dem HPT spektroskopisch nachuntersucht. VYSOS 16 verfügt in etwa über ein Gesichtsfeld von der Hexapod-Teleskop (HPT): Das HPT Größe des Vollmondes. ist ein völlig neuartiges Teleskop auf sechs Beinen mit einem ak- VYSOS 6 – Teleskop: VY- tiv gesteuerten Hauptspiegel von SOS 6 ist mit einem Ob- 1,5 Metern Durchmesser. Abhän- jektivdurchmesser von gig von der Stellung des Teleskops 6 Zoll der kleine Bruder wird der Hauptspiegel mittels 36 von VYSOS 16. Das Lin- Unterstützungspunkten rechner- senfernrohr kann aber gesteuert in der optimalen op- mit seinem Gesichtsfeld tischen Form gehalten. Dadurch und seiner großen CCD- liefert das Teleskops extrem Kamera eine Fläche von scharfe Bilder. Das HPT hat au- 25 Vollmonden in einer Aufnahme abdecken. Damit ist es möglich, ßerdem einen hochauflösenden die gesamte während einer Nacht sichtbare Milchstraße zu fotogra- Spektrographen. Das Licht eines fieren und praktisch alle variablen Phänomene – insbesondere jun- Sterns gelangt über eine Glasfaserleitung in einen temperaturstabi- ge Sterne – zu registrieren. VYSOS 6 arbeitet bereits seit Monaten ro- lisierten Raum (16 ± 0.1 °C). Dort wird der gesamte optische Bereich botisch, d.h. automatisch vorgefertigte Beobachtungssequenzen ab. von 3300 bis 8600 Å spektrographisch in winzige, 0,1 Å kleine Teilbereiche zerlegt, um so die physikalischen Eigenschaften von Ster- IRIS – Teleskop: IRIS ist ein spe- nen und interstellarem Gas sowie ihre Bewegung zu untersuchen. zielles Teleskop mit einem 80 cm Anhand der geschwindigkeitsabhängigen Verschiebung der Spek- Spiegel für Infrarot-Aufnahmen, trallinien (Doppler-Effekt) lassen sich z.B. die Rotation von Sternen d.h. im Wellenlängenbereich oder auch ihre Schlingerbewegung messen, die durch einen stella- von 1,2 bis 2,2 µm (InfraRed Ima- ren Begleiter (Doppelstern) oder sogar durch einen Planeten her- ging Survey). Die dafür notwen- vorgerufen werden. Ebenso zeigen die von ionisiertem Gas ausge- dige Spezialkamera wurde am IfA, sandten Spektrallinien, ob das Gas vom Stern aufgenommen oder Universität Hawaii, gebaut. Ge- ausgeschleudert wird. meinsam mit den dortigen Kollegen sollen damit extrem junge VYSOS 16 – Teleskop: Das Sterne untersucht werden. Da sie Akronym VYSOS 16 spiegelt noch tief in Staubwolken einge- zwei Dinge wider: VYSOS bettet sind, können sie nicht bei leitet sich aus Variable optischen Wellenlängen (0,3 bis Young Stellar Object Sur- 0,9 µm) beobachtet werden. Außerdem lassen sich im Infraroten vey ab, 16 bedeutet, dass besonders gut zirkumstellare Scheiben – Entstehungsorte von Pla- der Hauptspiegel des Te- neten – nachweisen. Teleskop und Kamera werden in den nächsten leskops einen Durchmes- Wochen von Deutschland und Hawaii auf den Weg nach Chile ge- ser von 16 Zoll, also etwa bracht, um unsere Milchstraße mit bisher unerreichter Empfindlich- 40 cm hat. Im VYSOS-Projekt untersuchen die Bochumer Forscher ge- keit nach solchen Systemen aus jungen Sternen mit zirkumstellaren meinsam mit Kollegen vom Institute for Astronomy (IfA) der Univer- Scheiben abzusuchen. melt. Noch weitgehend unverstanden ist, dass ein Großteil des angesaugten Gases nicht die Oberfläche des Sterns erreicht, sondern vorher über Magnetfelder in bipolaren Jets wieder ausgestoßen wird. 16 Projekt „Pulsare“: Pulsare sind rotierende Neutronensterne, deren Rotationsachse nicht mit ihrer Magnetfeldachse übereinstimmt. Durch Elektronen, die sich mit nahezu Lichtgeschwindigkeit bewe- gen und durch das starke Magnetfeld gebündelt werden, entsteht ein Doppelkegel von Strahlung, ähnlich wie bei einem Leuchtturm (Abb. 3). Die Rotationsperiode dieses Strahlungskegels entspricht der des Astrophysik Rubin 2009 Neutronensterns und kann bis zu wenige Millisekunden betragen. In besonderen Fällen, in denen diese Strahlung die Erde trifft, entsteht beim Beobachter der Eindruck von gepulster Strahlung. Neutronensterne sind exotische Endstadien von Sternen, die zwar nur wenige Kilometer groß sind. Dafür hat ein Stück Neutronenmaterie von der Größe eines Würfelzuckers aber ein Gewicht von 4 x 1011 Kilogramm und wiegt damit etwa so viel, wie alle Menschen dieser Erde zusammen. Es liegt auf der Hand, dass die Wissenschaft an den physikalischen Eigenschaften der Neutronensterne interessiert ist. Ihre Masse lässt sich immer dann bestimmen, wenn ein zweiter, noch „lebender“ Stern – in dessen Inneren noch Kernfusion stattfindet – um den Pulsar kreist. Am Observatorium der Ruhr-Universität werden solche Systeme spektroskopisch untersucht, um aus der Umlaufdauer des zweiten Sterns und dessen Geschwindigkeit die Masse des Pulsars zu ermitteln. Projekt „Quasare“: Quasare sind massereiche Schwarze Löcher in den Kernen von Galaxien. Sie ziehen aufgrund ihrer starken Gravitation Materie aus ihrer Umgebung an. Bevor die Materie allerdings auf nimmer Wiedersehen im Schwarzen Loch verschwindet, „spiralt“ sie auf einer sog. Akkretionsscheibe um das Schwarze Loch herum. Fällt nun Gas auf diese Akkretionsscheibe, so wird es abgebremst Abb.6: Das Öko-Observatorium: Die Ruhr-Universität hat das weltweit einzige ausschließlich mit regenerativen Energien betriebe Observatorium. Für seinen Betrieb sorgen Photovoltaik-Module, spezielle Solar-Batterien und besonders auffallend die beiden Windräder, die sich Tag und Nacht drehen. Selbst die Abwärme des Rechnerraumes bleibt nicht ungenutzt. etwa bei der Sternentstehung oder bei der Untersuchung Schwarzer Löcher, ist in hohem Maße unangemessen und muss in Zukunft durch die Dimension der Zeit erweitert werden. Zurück zum Observatorium – so ganz ohne Menschen vor Ort geht es dennoch nicht. Sehr zur Freude der Studierenden, Bochumer Öko-Observatorium: Als einziges weltweit ausschließlich mit regenerativen Energien betrieben und erzeugt aufgrund der Reibung Strahlung. Die Variation dieser Strahlung ist ein Maß für die Heftigkeit des Akkretionsvorgangs. Aus der Zeitskala der Variation lässt sich auch auf die Größe des emittierenden Gebietes schließen und damit auf die Größe des Schwarzen Lochs: Je schneller die Variabilität, desto kleiner das emittierende Gebiet. Die meisten dieser Projekte benötigen noch einige Wochen oder Monate an Beobachtungszeit, bevor definitive neue Erkenntnisse vorliegen. Doch schon jetzt zeigt sich: Das für den Menschen so starr und unveränderlich erscheinende Universum ist voller variabler Objekte. Der bisherige statische Blick auf viele Phänomene, die gerne einmal die anstrengende Reise ans andere Ende der Welt auf sich nehmen. Da sind z.B. noch Pump- und Kühlsysteme zu versorgen, die Kamera des Infrarot-Teleskops braucht täglich eine Ladung Stickstoff und manchmal muss ein Teleskop bzw. dessen Spektrograph schon mal vor Ort von Hand gesteuert werden (Abb. 5). So kommt es, dass irgendjemand vom Astronomischen Institut immer im Observatorium ist – solange die Reisegelder ausreichen und die Akademie der Wissenschaften und der Künste von NRW ihre großzügige Unterstützung für die Projekte aufrecht erhält. Die Ruhr-Universität Bochum bleibt auch in Chile ihren umweltschonenden Maximen als „Energiespar-Uni“ treu: Das Observatorium wird weltweit als erstes und einziges ausschließlich mit regenerativen Energien betrieben. Photovoltaik-Module sorgen 365 Tage im Jahr für elektrische Energie, die in speziellen Solar-Batterien gespeichert wird. Zusätzliche Energie liefern zwei Windräder, die sich bei fast nie abflauendem Wind Tag und Nacht drehen (Abb. 6). Brauch- und Heizungswasser werden durch zwei Solartherme erhitzt und die Abwärme des Rechnerraumes heizt mittels Wärmetauscher und Lüftungsanlage das Wohn- und Kontrollgebäude. Wollte man die gleiche Energiemenge mithilfe unseres Dieselgenerators (für Notfälle) erzeugen, müsste man täglich etwa 200 Liter Treibstoff verbrennen. So können 70.000 Euro pro Jahr gespart werden – ein gutes Gefühl, auch weil der Nachbar – die zugegeben sehr viel größere Europäische Südsternwarte (ESO) – bei konventioneller Energieversorgung täglich 20.000 Liter Diesel verbraucht. Prof. Dr. Rolf Chini, Astrophysik, Astronomisches Institut, Fakultät für Physik und Astronomie 17 Plasmaphysik Rubin 2009 Plasmaphysiker holen den Weltraum ins Labor Die Sonne im Container Henning Soltwisch Jürgen Dreher Prometheus – neben seinem Bruder Epimetheus eine der beiden Symbolfiguren unserer Universität – brachte den Menschen einst das Feuer, indem er einen Pflanzenstängel am Sonnenwagen des Helios entzündete und damit einen Holzstoß in Flammen setzte. Ab diesem Zeitpunkt konnten die Menschen kochen, sich wärmen und hatten Licht. Heute wissen wir es natürlich besser, aber dennoch bleibt die Sonne für das Leben auf der Erde von fundamentaler Bedeutung. Immerhin liefert sie fast die gesamte Energie zum Erdklima, ist mit verantwortlich für die Gezeiten und verursacht eindrucksvolle Phänomene wie das Polarlicht, Störungen des Funkverkehrs oder sogar gelegentliche Ausfälle des gesamten Stromnetzes im Nordosten Kanadas. Aus astronomischer Sicht ist die Sonne ein Stern wie Millionen andere, der zu den „gelben Zwergen“ gehört und sich etwa in der Mitte seiner Entwicklung befindet. Dieser heiße, brodelnde Gasball besitzt keine feste Oberfläche, seine Atome haben sich größtenteils in ihre Bestand18 Von der Sonne - die wir gemessen in astronomischen Größenordnungen direkt vor unserer Haustür haben - können wir viel über das Weltall lernen. Plasmaphysiker holen sie daher ins Labor: In einem Vakuumcontainer stellen sie Strukturen wie auf der Sonnenoberfläche her und lassen kleine Eruptionen entstehen. Im Vergleich mit Computersimulationen können sie so Rückschlüsse auf die wirklichen Vorgänge auf der Sonne ziehen. teile zerlegt (Ionisation) und bilden somit ein Plasma. Lediglich in der untersten Schicht der Sonnenatmosphäre, der einige 100 km dicken Photosphäre, ist der Anteil neutraler Teilchen dank „niedriger“ Tem- versum besser verstehen als heute. Naturgemäß können wir trotz der recht kurzen Entfernung von circa 150 Millionen Kilometern, für die das Licht nur etwas mehr als acht Minuten benötigt, keine Messin- „Gelber Zwerg“ sorgt für Energie, Polarlicht, Störungen des Funkverkehrs und Stromausfälle peraturen von knapp 5800 K noch recht hoch, so dass bei fortwährender Ionisation und Rekombination sichtbares Licht erzeugt wird und wir die Sonne insgesamt hell leuchten sehen. Außerhalb der Photosphäre steigt die Plasmatemperatur rasch an, um in der für uns unsichtbaren Korona schließlich Maximalwerte von einigen Millionen Kelvin zu erreichen. Gleichzeitig fällt die Teilchendichte um mehrere Größenordnungen ab. Was die Sonne bei all ihrer Normalität auch für Astrophysiker zu etwas Besonderem macht, ist ihre Nähe zur Erde: Verstehen wir die physikalischen Vorgänge in der und um die Sonne vor unserer Haustür, dann werden wir auch vieles im Uni- strumente auf der Sonne absetzen. Unsere Neugier können wir also nur durch sorgfältige Beobachtung und Vermessung dessen befriedigen, was die Sonne an Teilchen und Licht in den Weltraum abstrahlt – und genau dies tun die Astronomen und Astrophysiker seit Jahrhunderten mit ständig wachsender Raffinesse und Präzision. Neben speziellen, auf der Erde installierten Teleskopen befindet sich heute eine ganze Flotte von Satelliten im Weltraum, deren Namen ihre Mission mehr oder weniger nüchtern widerspiegeln – wie z.B. HINODE (japanisch für Sonnenaufgang), der die Erde seit 2006 in etwa 680 km Höhe umkreist, oder die Beobachtungsplattform SOHO (Akro- Naturwissenschaften Rubin 2009 nym für Solar and Heliospheric Observatory), die bereits 1995 gestartet wurde und seit dem etwa 1,5 Millionen km von uns entfernt am so genannten LagrangePunkt quasi geparkt ist. Dieser Punkt ist dadurch ausgezeichnet, dass sich die Anziehungskräfte von Erde und Sonne gerade aufheben, so dass SOHO ohne wesentlichen Energieaufwand zusammen mit der Erde um die Sonne kreisen kann und permanent ungestörte Sicht auf unseren Hausstern hat. Ein wesentlicher Teil heutiger Untersuchungen gilt magnetischen Strukturen auf der Sonne. Seit langem ist bekannt, dass dunkle Sonnenflecken nichts anderes sind als Bereiche starker Magnetfeldkonzentrationen, in denen Bündel magnetischer Feldlinien – man spricht hier von magnetischen Flussröhren – die Photosphäre in etwa vertikal durchdringen und sich oberhalb dieser stark auffächern. Dunkel erscheinen die Flecken deshalb, weil die Wärmeströmung (Konvektionsbewegung) des Plasmas durch das lokale Magnetfeld gestört und mit ihr der Wärmetransport Abb. 1: Ausschnitt der Sonnenoberfläche, fotografiert vom Satelliten TRACE, zeigt im Licht ultravioletter Strahlung riesige bogenförmige Strukturen (die Erdkugel ist etwa maßstabsgerecht hinein montiert). Die Analyse der Strahlung deutet darauf hin, dass es sich um Magnetfeld-Röhren handelt, die mit heißer leuchtender Materie gefüllt sind. Das Bild ist ein Falschfarbenbild, weil das registrierte Licht im extremen Ultraviolett-Bereich liegt (gleiches gilt für Abb. 2 und 6). Abb. 2: Riesige Sonneneruption, die im Begriff ist, sich von der Sonne abzulösen und ungeheure Mengen heißer Materie mitzureißen. Solche Eruptionen beeinflussen das gesamte Planetensystem und führen auf der Erde unter anderem zu starkem Nordlicht und Störungen des Funkverkehrs. Das Foto wurde vom Satelliten SOHO aufgenommen. aus dem Sonneninneren an die Umgebung herabgesetzt wird. Das Plasma ist folglich etwas kühler als die Umgebung und strahlt aufgrund verminderter Ionisation weniger Licht ab. Dass die Sonnenflecken nicht gleichmäßig auf der Photosphäre verteilt sind, sondern sich in aktiven Regionen häufen und diese wiederum ein globales Bewegungsmuster aufweisen, spiegelt die Struktur und Dynamik des Magnetfeldes im Inneren der Sonne wider, denn 19 Plasmaphysik Rubin 2009 Abb. 4: Das Flare-Lab-Experiment der AG Laser- und Plasmaphysik im Labor. Im Vakuumcontainer wird das Weltall simuliert, die Stirnseite dient als Sonnenoberfläche. Eine Hochgeschwindigkeitskamera kann die „Sonneneruptionen“, die nur wenige Millionstel Sekunden dauert, präzise aufzeichnen. die Feldlinien müssen sich ja dorthin fortsetzen. Aber auch nach oben, zur Korona hin, setzten sich die Flussröhren fort, wo sie im einfachsten Fall als schlichte bogenförmige Struktur unterschiedliche magnetische Polaritäten der Photosphäre verbinden (Abb. 1) oder in Sonneneruptionen riesiger Ausmaße münden und bis hoch hinaus in die Korona reichen (Abb. 2). Auf wesentlich kleineren Skalen existiert der so genannte „magnetische Teppich“, ein Gewirr kleiner Flussröhren direkt oberhalb der Photosphäre (Abb. 3). Nun sind Magnetfeldlinien per se nicht sichtbar. Die Tatsache, dass wir ihre Struktur aus optischen Aufnahmen deuten können, zeigt bereits, dass sie eng an die Plasmaeigenschaften gekoppelt sind. So geht man nach jahrzehntelangen Datenanalysen und Modellrechnungen heute davon aus, dass sich die im Vergleich zur Photosphäre sehr hohe Temperatur der Korona dadurch erklärt, dass Energie der Plasmaströmung in der Photosphäre vom Magnetfeld in die Korona transportiert und 20 dort in Wärmeenergie umgewandelt wird. feld steckt, erfahren wir ganz praktisch, Dies kann ganz unspektakulär in Form be- wenn wir einen Magneten von einem Eistimmter Plasmawellen erfolgen, die sich senblech abheben wollen). Dem gegenüentlang der Magnetfeldlinien fortpflanzen, ber stehen „nicht-ideale“ Instabilitäten, bei alternativ aber auch durch plötzliche Um- denen sich die Topologie des Feldes lokal strukturierungen komplexer Flussröhren, ändern kann, Feldlinien gewissermaßen wie sie bei großen Sonneneruptionen zu aufreißen und sich neu verbinden können beobachten ist. Im zweiten Szenario un- („Rekonnexion“) und dabei magnetische terscheidet man wiederum grob zwei Klas- Kräfte freisetzen. Die in derartigen Instasen von Instabilitäten: In einer „idealen“ Dynamik ändern sich Plasma und Magnetfeld gemeinsam, das Gesamtsystem sucht sich unter dem Einfluss langsamer Photosphärenbewegung plötzlich einen neuen Zustand niedrigerer Energie, ähnlich einem Stab, der nach langsamer, fortwährender Biegung oder Verdrehung plötzlich einknickt (dass Energie in einem Magnet- Abb. 3: Rekonstruktion von Magnetfeldlinien auf der Sonne. Plasmaphysik Rubin 2009 bilitäten frei werdende Energie treibt, neben der Plasmaheizung, auf großen Skalen Sonneneruptionen an, bei denen ungeheure Mengen an Teilchen und Strahlung ausgestoßen werden, welche auch unsere Erde treffen und hier für das Polarlicht, den gestörten Funkverkehr oder die Stromausfälle in Kanada sorgen können. Welche der Theorien genau für welche Phänomene verantwortlich sind, ist bis heute nicht befriedigend geklärt, ebenso lichkeit, Teilaspekte des dynamischen Verhaltens unter kontrollierten Bedingungen und mit hoch auflösender Diagnostik systematisch zu untersuchen. Die ersten derartigen Experimente wurden vor etwa zehn Jahren von Paul Bellan und Mitarbeitern am California Institute of Technology entworfen und erprobt. Für unser FlareLab-Experiment (solare flare = engl. Sonneruption) in Bochum haben wir ihr Konzept übernommen und eine ähn- Spezielle Düse lässt kurz vor der Entladung ganz wenig Gas ins künstliche Weltall strömen wenig die exakten Kriterien für den Einsatz von Instabilitäten und deren genauer Ablauf. Dies liegt mit daran, dass die Beobachtungslage noch immer schwach ist – allein die dreidimensionale Struktur und Stärke komplexer Magnetfelder aus Messungen qualitativ zu rekonstruieren, ist eine Herausforderung für sich – aber auch an der Schwierigkeit, derartige Prozesse theoretisch zu berechnen. Zwar sind Computersimulationen heute ein unersetzliches Hilfsmittel, aber auch sie beruhen auf bestimmten Modellannahmen zur Beschreibung des Plasmas, die natürlich kritisch überprüft werden müssen. Hier nun kommt die Labor-Astrophysik ins Spiel. Der Grundgedanke ist dabei derselbe wie zum Beispiel im Großschiffbau: Bevor ein Riesentanker auf Kiel gelegt wird, überprüft man sein vorausberechnetes Verhalten in rauer See mit Hilfe eines stark verkleinerten Modells in einem Wellentank. Wichtig ist dabei, nicht nur die Abmessungen maßstabsgetreu zu übertragen, sondern auch die übrigen Parameter des Modellversuchs (hier z.B. Wellenhöhe und Strömungsgeschwindigkeit) geeignet zu wählen. Zu diesem Zweck gibt es Kennzahlen, die bestimmte Verhältnisse relevanter Größen zueinander erfassen, und die in Modell und Original so gut wie möglich übereinstimmen sollten. Bezogen auf die Labor-Simulation der bogenförmigen Strukturen heißt dies, dass keineswegs dieselben Teilchendichten, Temperaturen oder Magnetfeldstärken wie auf der Sonne erreicht werden müssen. Sie müssen lediglich in der richtigen Relation zueinander stehen. Eine entsprechende Versuchsanordnung bietet also die Mög- liche Apparatur gebaut (s. Abb. 4 und 5). Ihr Kernstück bildet eine zylindrische Vakuumkammer mit einem Volumen von ca. ¼ Kubikmeter – unser Weltall. An einer Stirnfläche befinden sich zwei isolierte Kupferbleche, die einen Ausschnitt der Sonnenoberfläche repräsentieren, und hinter diesen Blechen ist ein Huf- eisen-Magnet angebracht, dessen Feldlinien einen magnetischen Bogen darstellen wie die zwischen zwei Sonnenflecken. Die Schenkel des Magneten sind durchbohrt, so dass eine kleine Menge Wasserstoff-Gas in den leeren Raum über den Kupferblechen eingeblasen werden kann. Um möglichst ähnliche Verhältnisse wie auf der Sonne zu erzeugen, darf sich das Gas nicht im gesamten Container verteilen, sondern soll sich in der Nähe der Magnetpole befinden, während der Rest der Behälters als „Weltall“ leer sein soll. Daher haben wir eine spezielle Düse entwickelt, die sich unmittelbar vor der Entladung für einen sehr kurzen Moment öffnet, so dass nur wenig Gas einströmt, das keine Zeit hat, sich vor der Entladung weiträumig zu verteilen. Danach werden zwei auf ±3000 Volt aufgeladene Kondensator-Batterien kurzgeschlossen, und es bildet sich ein leitfähiger Stromkanal (ähnlich einem Blitz bei einem Gewitter) Schematischer Aufbau des FlareLab-Experiments Vakuum-Kammer Plasma-Bogen Kupfer-Blech Kupfer-Blech Hufeisen-Magnet schnell einströmendes Wasserstoff-Gas -3 kV +3 kV Kondensator-Batterie H2 Abb. 5: Ein Hufeisen-Magnet liefert ein bogenförmiges Führungsfeld oberhalb von zwei Kupferblechen in einer Vakuumkammer. Einströmendes Wasserstoff-Gas wird durch die Entladung einer Kondensatorbatterie in einen leitfähigen Zustand versetzt, so dass sich ein heißer, leuchtender Gasschlauch ausbildet. 21 Plasmaphysik Rubin 2009 Abb. 6: Die Fotos, die mit Belichtungszeiten von je 50 Nanosekunden aufgenommen wurden, zeigen die zeitliche Entwicklung der Bogenstruktur in Abständen von jeweils einer Mikrosekunde. Man erkennt deutlich die Öffnungen in den Kupferblechen, durch die das Wasserstoff-Gas eingeblasen wird und hinter denen sich die Pole des Hufeisenmagneten befinden. entlang der Feldlinien des Hufeisen-Magneten. Der schnell ansteigende Entladungsstrom aus der Kondensator-Batterie heizt die Teilchen im Stromkanal auf bis zu 40.000°C auf und produziert ein zusätzliches Magnetfeld, das die ursprünglichen Feldlinien zunehmend verdreht – ganz ähnlich wie es auf der Sonne durch die Bewegung der Fußpunkte geschieht. Mit zunehmender Stromstärke dehnt sich der heiße Gasschlauch räumlich aus, bis er instabil wird und eine äußere Verwindung der gesamten Struktur einsetzt. Der Ablauf im Experiment entspricht damit zwar in wesentlichen Punkten dem Geschehen auf der Sonne, aber die extreme Verkleinerung in den Labormaßstab – unsere Bögen werden nur acht bis zehn Zentimeter hoch – führt zwangsläufig zu einer Verkürzung der Zeitskala in den Mikrosekunden-Bereich (eine Mikrosekunde ist der millionste Teil einer Sekunde). Auf der Sonne halten sich solche Bögen Tage bis Wochen lang, ihre Auflösung kann allerdings auch in zehn Minuten passieren. Um unsere leuchtenden Bögen in den verschiedenen Phasen ihrer Entwicklung scharf fotografieren zu können, bedarf es wegen der Kürze der Zeit einer speziellen Kamera mit einer Bildwiederholrate von weniger als einer Mi22 krosekunde und einer Belichtungszeit von einigen Nanosekunden für jedes Einzelbild (eine Nanosekunde ist der tausendste Teil einer Mikrosekunde). Dank der Deutschen Forschungsgemeinschaft verfügen wir über eine solche Kamera. Abb. 6 zeigt eine Fotosequenz, die das Aufsteigen des leuchtenden Bogens und die Entstehung relativ komplexer räumlicher Strukturen deutlich wiedergibt. Daraus lassen sich allerdings noch keine quantitativen Aussagen zum Verwindungsgrad und zur Stärke der magnetischen Felder ableiten, so dass wir zusätzliche Feldmessungen mit Hilfe spezieller Sonden durchführen, die verschiebbar im Vakuumgefäß montiert sind. Wir platzieren sie so, dass sich der Stromkanal im Verlauf seiner Entstehung recht genau bestimmen. Teilchendichten und Temperaturen ermitteln wir mit ähnlichen optischen Verfahren, wie sie bei der Sonnenbeobachtung eingesetzt werden, und für die nähere Zukunft planen wir die Entwicklung von Messeinrichtungen, die mit Hilfe von Laserstrahlen nahezu punktgenaue Informationen aus dem Inneren des Stromkanals liefern sollen. Trotz aller angestrebten Präzision im Experiment werden wir die Beobachtungen aber nur dann richtig interpretieren und zur Erklärung solarer Phänomene heranziehen können, wenn wir die zu Grunde liegenden physikalischen Prozesse grundlegend verstehen und theoretisch beschreiben können. Ein zentrales Anliegen unseres Bochumer FlareLab-Pro- Mit Sonden kann man Durchmesser, Querschnittprofil und Expansionsgeschwindigkeit des Stromkanals messen und Auflösung über die Messelektroden hinweg bewegt. Da im Inneren unseres Vakuumcontainers kurzzeitig sehr starke Ströme fließen, müssen wir die Messinstrumente, die mit den Sonden verbunden sind, aufwändig schützen. Mit den Sonden können wir beispielsweise den Durchmesser, das Querschnittprofil und die Expansionsgeschwindigkeit des Stromkanals jektes ist deshalb ein enges Wechselspiel zwischen Laborversuch und theoretischnumerischer Analyse. Zu diesem Zweck wird das Plasma – wie in der Sonnenphysik üblich – als leitfähiges Gas unter dem Einfluss elektromagnetischer Felder betrachtet. Aus dem physikalischen Modell ergibt sich ein System komplizierter partieller Differentialgleichungen, die unter Plasmaphysik Rubin 2009 Vorgabe bestimmter Anfangs- und Randbedingungen auf Hochleistungsrechnern gelöst werden müssen. Als Ergebnis erhält man die zeitliche Entwicklung der ModellKonfiguration, die z. B. als Computer-Animation dargestellt und mit dem Ablauf im Experiment verglichen werden kann. Unstimmigkeiten können durch schrittweise Veränderung einzelner Simulationsparameter abgeklärt und die Rolle bestimmter Einflussgrößen, wie z.B. Magnetfeldstärke und -geometrie oder Plasmadichte, auf diese Weise systematisch untersucht werden. Das hierbei verwendete Rechenprogramm wurde in Bochum entwickelt und auf unser Experiment zugeschnitten. Einen Vergleich zwischen Simulation und Experiment zeigt beispielhaft Abb. 7, in der eine Fotografie des Plasmabogens und die dazu gehörige aus der Simulation entnommene Magnetfeldstruktur miteinander kombiniert sind. Ziel dieser Untersuchungen war es, die charakteristische Einbuchtung der aufsteigenden und sich aufweitenden Flussröhre im zentralen oberen Bereich zu verstehen, wie sie in unserem Experiment beobachtet wird (Abb. 6). Durch systematisches Variieren der Plasmadichteverteilung in der numerischen Simulation konnten wir zeigen, dass diese Einbuchtung nur dann auftritt, wenn die Dichte im oberen Bereich des Bogens während der Expansion deutlich ansteigt. Für das Laborexperiment liefert dies tatsächlich eine plausible Erklärung, da mit den hohen Stromdichten im Bogen ständig Wasserstoffgas ionisiert wird, und wir wollen dies in Kürze durch spektroskopische Dichtebestimmungen über- prüfen. Auf die Sonne allerdings trifft dies nicht in gleicher Weise zu, dort sind die Plasmadichten durchweg so niedrig, dass Trägheitseffekte eine untergeordnete Rolle spielen. Damit kann wiederum verstanden werden, dass sich bei großen Sonnenausbrüchen die aufsteigende Flussröhre im oberen Bereich eher nach oben hin verformt als nach unten. Um nun das Laborexperiment noch besser auf die Sonnenanwendung anzupassen, und um vor allem mehr Flexibilität bei der Untersuchung von Detailfragen zu bekommen, planen wir derzeit, in unserem Versuchsaufbau zusätzliche Hilfsmagnete anzubringen und das bogenförmige Führungsfeld durch einen außerhalb des Gefäßes angebrachten Stromleiter elektromagnetisch zu erzeugen. Hierdurch können neuere theoretische Modelle aus der Sonnenphysik nachge- stellt werden, die darauf hindeuten, dass bestimmte geometrische Eigenschaften des Anfangsfeldes darüber entscheiden können, ob als Reaktion auf die Verschiebung von Fußpunkten der Flussröhren nicht-ideale Instabilitäten auftreten. Die Konstruktion dieses neuartigen Simulationsexperimentes ist bereits weit fortgeschritten, und wir sind gespannt, ob es unsere Erwartungen erfüllen und einige neue Puzzle-Bausteine liefern wird, die sich irgendwann – in Verbindung mit Sonnenbeobachtungen und theoretischen Arbeiten – zu einem hoffentlich geschlossenen Bild zusammen setzen lassen Prof. Dr. Henning Soltwisch, Experimentalphysik, insbesondere Laser- und Plasmaphysik, Dr. Jürgen Dreher, Theoretische Physik, insbesondere Plasma-, Laser- und Atomphysik Abb. 7: Vergleich zwischen experimenteller Beobachtung und Computersimulation. Die fotografische Aufnahme des leuchtenden Bogens ist in der rechten Hälfte mit dem gleichen Abbildungsmaßstab durch die aus der Simulation folgenden verdrillten Magnetfeldlinien ersetzt worden. Deutlich sichtbar ist die signifikante Übereinstimmung der der Struktur, insbesondere die Einsenkung im Scheitelpunkt. 23 Weltraum- und Astrophysik Rubin 2009 Heliosphäre kontrolliert Beziehungen zwischen Erde und sternfernem Weltraum innerhalb der Milchstraße Geschützte Welt Horst Fichtner 24 Ein Polarlicht zu erleben fasziniert – auch weil es uns ahnen lässt, wie stark das Leben auf der Erde mit der Sonne verbunden ist. Der Sonnenwind bildet einen Schutzraum – die Heliosphäre – vor dem lebensfeindlichen interstellaren Medium. Doch vermutlich ist der Einfluss der kosmischen Strahlung aus dem fernen Weltraum größer als gedacht. Die Heliosphärenforschung befasst sich mit den Auswirkungen des „Weltraumwetters“ auf unser Klima und gibt der Suche nach extraterrestrischem Leben neuen Schwung. Weltraum- und Astrophysik Rubin 2009 Die Dynamik der Erde, ihrer Atmosphäre und ihrer näheren Umgebung werden nicht nur durch Vorgänge auf der Erde selbst bestimmt. Zahlreiche astrophysikalische Prozesse beeinflussen die Lebensbedingungen auf unserem Planeten mit. In den letzten Jahren rückte neben der Sonne und ihrer Aktivität auch der Einfluss der interstellaren Umgebung auf das Erdklima zunehmend in den Blickwinkel der Wissenschaft. Will man die Prozesse erforschen, die den Beziehungen zwischen Sonne, Erde (solarterrestrische Beziehungen) und Weltraum (interstellarer Raum) zugrunde liegen, muss man zunächst die Heliosphäre – die Einflusszone unserer Sonne – verstehen. Die Heliosphären-Physik kann unser Wissen über das irdische Klima erweitern und einen Beitrag zu der spannenden Frage leisten, ob Leben auf den Planeten anderer Sterne möglich und nachweisbar ist. Seit Jahrtausenden sehen die Menschen die Sonne als bedeutendes astronomisches Objekt an und bereits frühzeitig erkannte man, dass sich nur Dank ihrer Strahlung Leben auf der Erde entwickeln und langfristig Bestand haben kann. Doch erst seit Mitte des letzten Jahrhunderts wissen wir, die Sonne ist nicht nur als Energiequelle Garant für lebensfreundliche Bedingungen auf der Erde. Sie schützt das terrestrische Leben auch mit ihrer expandierenden Atmosphäre, dem sog. Sonnen- Abb. 1: Auch das Polarlicht entsteht infolge solar-terrestrischer Beziehungen: Wenn geladene Teilchen des Sonnenwindes auf die Atmosphäre bzw. die Magnetosphäre der Erde treffen, regen sie vor allem an den Polen die Luftmoleküle zum Leuchten an. wind, vor der lebensfeindlichen interstellaren Umwelt. Infolge des Sonnenwindes bildet sich eine riesige Plasmawolke um die Sonne, die Heliosphäre. Sie verhindert den direkten Kontakt der Planeten bzw. ihrer Atmosphären mit dem interstellaren Medium, von dem vor allem ionisiertes Gas, insbesondere Wasserstoff, und hochenergetische Teilchen der kosmischen Strahlung bei einem ungehinderten Durchdringen der Erdatmosphäre fatale Folgen hätten. Die Bedeutung astrophysikalischer Vorgänge für die Erde ist seit langem bekannt. Man denke nur an den Tag- und Nachtwechsel als Konsequenz der Erdrotation und die Jahreszeiten infolge der Neigung der Rotationsachse sowie die, beide Phä- sich dann ebenfalls periodisch die Sonnenatmosphäre, ihre elektromagnetische Strahlung sowie der Sonnenwind verändern. Erst nach zwei Umpolungen ist die ursprüngliche Konfiguration wieder hergestellt, was zu einer 22-jährigen Periode des sog. Hale- bzw. Magnetischen Zyklus der Sonne führt. Die Auswirkungen solar-terrestrischer Beziehungen werden unter dem Begriff „Weltraumwetter“ zusammengefasst und betreffen nicht nur die bemannte und unbemannte Raumfahrt etwa durch Störungen im Funkverkehr oder Schädigungen von Satelliten. Sie beeinflussen auch das Magnetfeld der Erde (s. Abb. 1) und anderer Planeten und können die Funktion technologischer Systeme auf der „Weltraumwetter“ hinterlässt Spuren auf der Erde: Wolkenbedeckung, Baumringdicke oder Sedimentablagerungen nomene beeinflussende, Gravitation benachbarter Himmelskörper: In deren Folge ändern sich Bahn und Rotationsachse der Erde periodisch in sog. Milankovic-Zyklen von ca. 20 000 bis 100 000 Jahren. Mit dem sich verändernden Abstands- bzw. Einfallswinkel der Sonnenstrahlung in die Erdatmosphäre variiert auch die Intensität bzw. Absorption der Strahlung, was sich auf das Klima auswirkt. Neben diesen planetar-terrestrischen gibt es auch solar-terrestrische Beziehungen aufgrund elektromagnetischer Wechselwirkungen von Strahlung und Magnetfeld der Sonne sowie des Sonnenwindes mit der Magnetosphäre und Atmosphäre der Erde. Sie folgen einer mittleren Grundperiode von etwas mehr als elf Jahren, dem sog. Schwabe- oder AktivitätsZyklus. Er resultiert aus einer Umpolung des Magnetfeldes der Sonne, durch die Erde wie Stromleitungen und Pipelines stören. In den letzten Jahren gilt das Interesse der Forscher besonders dem Einfluss der elektromagnetischen Strahlung der Sonne auf das Erdklima. So variieren bestimmte Klimaindikatoren wie Wolkenbedeckung, Baumringdicke oder Sedimentablagerungen im 11- bzw. 20 bis 24-jährigen Rhythmus und spiegeln damit die Sonnenaktivität wider (Abb. 2). Neben diesen „inneren“ Auswirkungen auf die Erde und ihre Umgebung können auch „äußere“ Ereignisse wie nahe Supernova-Explosionen oder Gammastrahlungsausbrüche lokale Folgen auf der Erde haben. Bei einer Frequenz von weniger als einem solchen Ereignis in Sonnennähe pro 100 Millionen Jahre ist aber ein Einfluss auf die Erdumgebung bzw. -atmosphäre kaum zu erwarten. Größere Relevanz als diese eher zufälligen Ereignisse 25 Weltraum- und Astrophysik Rubin 2009 Wolkenbedeckung Baumringdicke 10 29 0 28 -10 27 1.00 statistische Sicherheit 30 kosmische Strahlung (%) El Niño 7.1 yr. 11 yr. 3.1 yr. 6.6 yr. 3.1 30.0 6.4 0.99 511 9.8 yr. 20.8 0.98 0.97 75.2 13.2 10.9 0.96 5.8 5.0 -20 1985 1990 1995 2000 0.95 0.00 0.05 0.10 2005 Jahr 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 Frequenz (Jahr) Regenfälle Sedimentablagerungen 1500 1000 500 0 0 101 Periodenstärke 8 16 32 64 1880 1900 1920 1940 1960 1980 2000 50 25 10 5 2.5 2-3 yr. 100 4.5-6.5 yr. 250 16.0 yr. 13.5 yr. 10.9 yr. 500 24.4 yr. Niederschlag (mm) Periode [Jahr] 1000 4 Periode (Jahr) 22 46.5 yr. Anzahl niedriger Wolken (%) Solar Cycle 80 90% 100 10-1 10-3 Zeit (Jahr) 10-2 10-1 Frequenz [Jahr] Abb. 2: Auf den in Zyklen von 11 oder auch 20 bis 24 Jahren variierenden Einfluss der Sonne weisen spezielle Klimaindikatoren auf der Erde hin: Die globale Bedeckung der Erde mit Wolken unterhalb von etwa 3,5 km, die Dicke von Baumringen (Bsp. Südamerika), Regenfälle im Großraum Peking, oder Sedimentablagerungen, sog. Warven, in Seen. hat das interstellare Medium für die Erde und ihre Umgebung. Seine Hauptagenten – die galaktische kosmische Strahlung und der interstellare neutrale Wasserstoff – können bis tief in die Heliosphäre und damit zur Erde vordringen. Infolge eines abschirmenden Effektes der Heliosphäre geschieht das aber nicht ungehindert. Die Heliosphäre dehnt sich mehrere hundert Astronomische Einheiten (1 AE = Entfernung Sonne-Erde) um die Sonne herum aus. Sie ist der Raumbereich, in dem der von der Sonne ausgehende Sonnenwind über das anströmende interstellare Medium dominiert (Abb. 3). 26 Der Sonnenwind ist eine kontinuierliche, überschallschnelle, zunächst radiale Protonen-Elektronen-Plasmaströmung. Am Erdorbit, also bei einer Astronomischen Einheit (AE), erreicht er eine Geschwin- laren Mediums (LISM) erfolgt in der heliosphärischen Randregion, welche sich aus einer inneren und äußeren Helioschicht zusammensetzt. Die innere Helioschicht wird in 80 bis 100 AE vom sog. Termi- Sonnenwind: Mit bis zu achthundert Stundenkilometern in Richtung Lokales Interstellares Medium (LISM) digkeit von 400 bis 800 Kilometern pro Sekunde, eine Teilchenzahldichte von 5 bis 10 pro Quadratzentimeter und eine Temperatur von 50 000 bis 100 000 Kelvin. Die Anpassung dieser Sonnenwindströmung an die Bedingungen des Lokalen InterStel- nations-Schock – an dem die ungestörte Überschallausbreitung des Sonnenwindes endet – und bei 130 AE durch die Heliopause begrenzt. Die Heliopause trennt als sog. Kontaktdiskontinuität das solare und interstellare Plasma. In der inneren Helio- Weltraum- und Astrophysik Rubin 2009 Heliopause Terminations-Schock Bugstoßwelle Voyager 1 Innere Helioschicht Strömung des Sonnenwinds Pioneer 10 Äußere Helioschicht Pioneer 11 Voyager 2 Galaktische kosmische Strahlung Abb. 3: Die Heliosphäre wird vom lokalen interstellaren Medium (LISM) umströmt. Während der neutrale Anteil des LISM fast ungehindert tief in die Heliosphäre vordringen kann, strömt die Plasmakomponente um die Heliopause herum. Durch die Wechselwirkung von Sonnenwind und LISM bilden sich Stoßwellen aus – der sog. Terminations-Schock und der Bugschock. Die energiereichen Teilchen der galaktischen kosmischen Strahlung dringen in die Heliosphäre ein, werden dort aber durch den Sonnenwind in ihrer Intensität abgeschwächt. Die Raumsonden Voyager 1 und 2 haben den Terminations-Schock durchflogen und befinden sich derzeit in unmittelbarer Nähe zum LISM. schicht reagiert der Sonnenwind mit dem umgebenden LISM. Das Sonnenwindplasma wird zunächst am Schock komprimiert und aufgeheizt und dann aus seiner radialen Expansion nach und nach in den heliosphärischen Schweif abgelenkt. Da jenseits der Heliopause das teilweise ionisierte LISM als ein interstellares Plasma strömt, bildet sie die natürliche Grenze der Heliosphäre. Da sich die Sonne mitsamt der Heliosphäre mit Überschallgeschwindigkeit durch das LISM bewegt, bildet sich vor der Heliopause, in 300 bis 400 AE Entfernung zur Sonne, eine Bugstoßwelle, auch Bugschock genannt. In der äu- ßeren Helioschicht, die vom Bugschock und der Heliopause begrenzt wird, reagiert das LISM auf das “Hindernis” Heliosphäre (s. Abb. 3). Aufgrund von Modellrechnungen, die auch am Lehrstuhl für Theoretische Physik IV der Ruhr-Universität durchgeführt wurden, ließen sich Lage, Eigenschaften und zeitliche Veränderungen der verschiedenen heliosphärischen Grenzflächen und Gebiete vorhersagen, wie TerminationsSchock oder innere Helioschicht. Die NASA-Missionen Voyager 1 und 2 haben diese Berechnungen in jüngster Zeit weitgehend bestätigt: Die beiden Raumsonden durchflogen in den Jahren 2004 und 2007 in entsprechender Entfernung den Terminations-Schock und befinden sich seitdem in der inneren Helioschicht. Wie wirken nun aber interstellarer Wasserstoff und kosmische Strahlung in die Heliosphäre hinein? Die ungeladenen Atome des LISM können aufgrund der sehr geringen Teilchendichten die Heliosphäre zunächst fast ungehindert durchdringen. Mit geringer werdendem Abstand zur Sonne verstärken Ladungsaustausch und solare Strahlung die Ionisation dieses „neutralen interstellaren Windes“, was seinen Fluss verringert. Das haupt27 Weltraum- und Astrophysik Rubin 2009 Kosmische und solare Strahlung A- 6.500.0 A+ A- 1.368.5 1.368.0 5.500.0 5.000.0 1.367.0 28 Leistung 1.367.5 1.366.5 1.366.0 1.365.5 1.365.0 1960.0 1970.0 1980.0 1990.0 2000.0 Jahre Abb. 4: Der 22-jährige Magnetische Zyklus der Sonne manifestiert sich in der Intensität der kosmischen Strahlung (Abb. oben). Der typische Wechsel von flachen und spitzen Maxima steht für die mit A+ und A− bezeichneten beiden Polaritäten des solaren Magnetfeldes. Der Strahlungsfluss der Sonne (Solarkonstante) wird seit 1987 vom Weltraum aus an der Erdbahn außerhalb der Erdatmosphäre ununterbrochen aufgezeichnet. Die Solarkonstante variiert mit der 11-jährigen Aktivitätsperiode der Sonne (Abb. unten). ren Ionisation und Erwärmung sind. Verstärkte Emission ultravioletter Strahlung erhöht außerdem das stratosphärische Ozon um einige Prozent, und solche Veränderungen beeinflussen die Dynamik der Atmosphäre. Allerdings variiert der gesamte elektromagnetische Energieinput in die Erdatmosphäre nur um wenige Pro- Was für das Erdklima relevanter ist: die solare elektromagnetische oder die galaktische kosmische Strahlung? kosmogenen Isotopen (Nachweis in antarktischen Eisbohrkernen), trägt zur Ionisation der Erdatmosphäre bei und steht darüber hinaus wie die solare Strahlung unter Verdacht, das Klima der Erde zu beeinflussen. Mit diesem Verdacht ist eine wissenschaftliche Debatte darüber entbrannt, welcher astrophysikalische Einfluss von höherer Relevanz für das Erdklima ist: die solare elektromagnetische oder die galaktische kosmische Strahlung? Für keinen von beiden ließ sich bisher eine quantitativ überzeugende Prozesskette identifizieren. So ist zwar klar, dass die physikalischen Konsequenzen der elektromagnetischen Strahlung für die Atmosphäre de- 1.369.0 A+ 6.000.0 Zählrate sächlich aus reaktionsfreudigen Wasserstoffatomen bestehende interstellare Medium kann prinzipiell planetare Atmosphären chemisch beeinflussen. Auch wenn die Wasserstoffströmung je nach solarer Aktivität unterschiedlich stark abgeschwächt wird, bleibt der Wasserstofffluss jedoch gegenwärtig für die Erdatmosphäre ohne Konsequenzen. Nicht zu vernachlässigen ist sein Einfluss auf die Heliosphärenstruktur infolge der Plasma-Neutralgaswechselwirkung, die den Sonnenwind abbremst und damit die Lage des Terminations-Schocks beeinflusst. Die zweite schwerwiegendere Einwirkung des LISM auf die Erde erfolgt über die kosmische Strahlung, insbesondere über den Anteil geladener Teilchen im Gigaelektronenvolt-(GeV)-Bereich. Sie haben ihren Ursprung in Supernovaexplosionen oder in den der Heliosphäre entsprechenden Astrosphären anderer Sterne unserer Milchstraße. Der Fluss dieser galaktischen kosmischen Strahlungsteilchen wird in der Heliosphäre in Abhängigkeit vom solaren Aktivitätszyklus (s. Abb. 4) durch deren Wechselwirkung mit den fluktuierenden elektrischen und magnetischen Feldern des Sonnenwindes verringert. Er kann aber nicht, wie der neutrale Wasserstoff, für die Erde vernachlässigt werden. Im Gegenteil: Die galaktische kosmische Strahlung reagiert mit atmosphärischen Teilchen zu radioaktiven, sog. mille (Abb. 4) und kann daher nicht direkt, d. h. ohne Verstärkungseffekte (z.B. durch Beeinflussung der Atmosphärenchemie), für die beobachteten Klimaschwankungen verantwortlich sein. Ähnliches gilt für den Einfluss der kosmischen Strahlung. Auch sie führt zur Ionisation der Atmosphäre und sogar zur Bildung von Aerosolen, in deren Folge sich wiederum Wolken bilden können. Zwar wäre so eine Prozesskette gegeben, die eine Klimabeeinflussung erklären kann, aber der zweifelsfreie Nachweis einer induzierten Wolkenbildung steht noch aus. Durch unser heutiges Verständnis der Physik der Heliosphäre und des Transportes der kosmischen Strahlung lässt sich die Frage nach der Relevanz der astrophysikalischen Einflüsse auf das Erdklima nun möglicherweise beantworten. Der Fluss der kosmischen Strahlung, gemessen durch Neutronenmonitore von der Erde aus, zeigt eine dominante 11-jährige Periode infolge der Sonnenaktivität. Dieser deutlich überlagert ist aber eine 22-jährige Periode (Abb. 4), die sich durch die Drift der energiereichen, geladenen Teilchen im heliosphärischen Magnetfeld erklären lässt (Abb. 5). Unsere Untersuchungen haben gezeigt, dass die elektromagnetische Strahlung der Sonne lediglich die 11-jährige Periode, aber keine signifikante mit 22 Jahren zeigt. Eine Reihe klimasensitiver Indikatoren, wie Baumringdicken, Niederschläge oder Sedimentablagerungen zeigen ebenfalls eine 20 bis 24jährige Variation (s. Abb. 2). Sollten diese am besten mit dem Fluss der kosmischen Strahlung korrelieren, wäre das ein weiterer Hinweis für einen Einfluss des interstellaren Mediums auf die Erde. Ein erstes ähnliches Indiz wurde ebenfalls an der Ruhr-Universität durch den Geowissenschaftler Jan Veizer erkannt: Der Temperaturverlauf auf der Erde über die letzten 500 Millionen Jahre hinweg kor- Weltraum- und Astrophysik Rubin 2009 A+ Norden Süden A- Norden Süden Abb. 5: In zwei aufeinander folgenden 11-jährige Zyklen der Sonnenaktivität, die den 22-jährigen Hale-Zyklus bilden, ist das solare Magnetfeld entgegengesetzt orientiert (Abb. oben). Das führt zu einer ebenfalls entgegengesetzt orientierten Drift der geladenen Teilchen der kosmischen Strahlung im Magnetfeld der Heliosphäre (Abb. unten). Dieses unterschiedliche Transportverhalten erklärt den Einfluss der kosmischen Strahlung auf die Erde in 22-jähriger Variation (vgl. Abb. 4). reliert besser mit dem Fluss der galaktischen kosmischen Strahlung als alle Alternativen. In diesem Falle ist allerdings nicht die solare Aktivität, sondern die Variation der kosmischen Strahlung entlang des Sonnenorbits in der Milchstrasse ausschlaggebend, die wiederum mit der Spiralstruktur unserer Galaxis verknüpft ist. Der Vorteil des von uns vorgeschlagenen „22-Jahres-Kriteriums“ gegenüber dieser Langzeitkorrelation ist seine bessere Nutzbarkeit. Die Genauigkeit einer Fülle von klimarelevanten Daten ist natürlich deutlich höher für eine Zeitspanne von Jahrzehnten als für eine von 500 Millionen Jahren. Wie die Debatte auch entschieden wird, es sollte berücksichtigt werden: Auf Zeitskalen von Jahrzehnten bis Jahrhunderten moduliert die solare Aktivität die Struktur der Heliosphäre und damit auch den Einfluss der solaren und kosmischen Strahlung auf die Erde. Obwohl bei Weitem noch nicht abschließend erforscht, ist anzunehmen, dass diese externen Einflüsse nicht dominant sind. Es ist demnach wahrscheinlich, dass der größte Klimaeffekt der letzten 50 Jahre tatsächlich anthropogenen Ursprungs ist. Über diese für die Erde interessanten Klimafrage hinaus gibt es einen neuen, spannenden Aspekt der Heliosphärenforschung: Die auf die Erde einwirkenden astrophysikalischen Prozesse sind auch relevant für Planeten anderer Sterne, von denen heute rund 350 bekannt sind. Mit deren Entdeckung stellt sich wieder verstärkt die Frage nach möglichem Leben außerhalb der Erde und dessen Nachweisbarkeit. Gerade für die quantitative astrobiologische Forschung gewinnen Astrosphären zunehmend an Bedeutung. Alle Sterne, die wie die Sonne einen Wind treiben, sind von einer Astrosphäre umgeben. Unsere Heliosphäre ist prominentes Beispiel solcher Astrospären, die planetare Atmosphären vom interstellaren Medium abschirmen. Man darf Leben wie wir es kennen – wenn überhaupt – dann bevorzugt auf derart „geschützten“ Planeten erwarten. Es ist kaum vorstellbar, dass sich an die Existenz von flüssigem Wasser gebundenes Leben auf einem Planeten entwickeln kann, dessen Atmosphäre dem interstellaren neutralen Wasserstoffs und der galaktischen kosmischen Strahlung ungeschützt ausgesetzt ist. So wie Astrosphären eine mögliche Existenz von Leben signalisieren, können sie auch dessen Nachweisbarkeit durch Fernbeobachtungen beeinflussen. Dabei kann sich die Forschung das Vorhandensein bestimmter Biomarker (z.B. Ozon) in der Atmosphäre „geschützter“ Planeten zu nutze machen. Die Häufigkeit von Biomarkern hängt von der durch die Astrosphäre bestimmtem Intensität der kosmischen Strahlung ab, die etwa einen Ozonabbau in einer Atmosphäre bewirken kann. Das notwendige Zusammenspiel von Astrophysik, Planetologie, Atmosphärenphysik und auch Astrobiologie steht erst am Anfang. Doch es ist absehbar, dass astrophysikalische Einwirkungen auf planetare Atmosphären, insbesondere bei interstellar-planetaren Beziehungen, auch neue Impulse für die Suche nach extraterrestrischem Leben setzen werden. Somit steht die Heliosphärenphysik vor einer neuen Herausforderung – ihrem Transfer auf andere Sterne. PD Dr. Horst Fichtner, Theoretische Physik, insb. Weltraum- und Astrophysik, Fakultät für Physik und Astronomie 29 Ingenieurwissenschaften Rubin 2009 Bochumer Untersuchungen für die Sicherheit der neuen Forschungsstation Neumayer III Sturmwinter in der Antarktis Michael Kasperski Um für die dritte Station eine erheblich längere Nutzungsdauer von etwa 30 Jahren zu ermöglichen, wurde als neues Konzept eine oberirdische Station geplant, die – auf hydraulischen Stützen gelagert – den jährlichen Schneefall kompensieren kann. Die gesamte Station wird einfach jedes Jahr angehoben. Dazu „hebt die Station ihre Füße“: Die hydraulischen Stützen werden nacheinander „gelüftet“, es wird Schnee darunter geblasen, sie werden wieder herabgelassen und stehen dann entsprechend höher. Die oberirdische Station ist somit nicht durch von oben drückende Eismassen gefährdet. Aber das Eis ist nicht nur Gefahr, es bietet auch Schutz. Eine oberirdische Station ist im Gegensatz zu den unterirdischen Röhrensystemen dem antarktischen Winter mit seinen extremen Stür30 Antarktis – eisige Kälte mit Wintertemperaturen unter -40° Celsius, monatelange Dunkelheit, heftige Stürme, unendliche Einsamkeit: Einen unwirtlicheren und lebensfeindlicheren Ort kann man sich nur schwer vorstellen. Aber die Antarktis bietet einmalige Gelegenheiten für die Forschung, darunter so wichtige Themen wie der Klimawandel und das Ozonloch. Daher betreibt das AlfredWegener-Institut (AWI) seit 1981 ganzjährig eine nach dem deutschen Polarforscher Georg von Neumayer benannte Forschungsstation auf dem Ekström-Schelfeis (Abb. 2). Die ersten beiden Forschungsstationen wurden als Röhrensysteme unter dem Eis errichtet. Aufgrund der jährlichen Schneefälle, die im langjährigen Mittel etwa 80 Zentimeter betragen, versinkt ein Röhrensystem aber allmählich immer tiefer im Eis. Die ständig anwachsenden Druckkräfte des darüber liegenden Eises deformieren und zerquetschen die Röhren entsprechend auf Dauer. Deswegen musste die erste Station bereits 1992 nach nur elf Betriebsjahren aufgegeben werden. Die zweite Station lag nach 18 Nutzungsjahren 15 Meter tief unter dem Eis und war nicht länger sicher. men ausgesetzt. Für dieses Problem hat das AWI in Bochum Rat gesucht, denn hier haben vor einigen Jahren Experten für die Analyse des Sturmklimas die Windzonenkarte für Deutschland für die Norm im Auftrag des Deutschen Instituts für Bautechnik erstellt. Für die Analyse des Sturmklimas in der Antarktis hat das AWI langjährige Messreihen von 1982 bis 2004 zur Verfügung gestellt. Sie zeigen: Die Stürme in der Antarktis haben es in sich. Während in Deutschland im statistischen Mittel pro Jahr zwei Stürme vorkommen, ist die Anzahl der Stürme in der Antarktis mehr als zehnmal so hoch. Dabei gelten deutsche Windverhältnisse als Sturm, wenn die mittlere Windgeschwindigkeit mindestens 14 Meter pro Sekunde beträgt. Zum Vergleich: Der Orkan Kyrill, der im Januar 2007 das öffentliche Le- Abb. 2: Lage der Station im Ekström-Schelfeis Ingenieurwissenschaften Rubin 2009 ben in Deutschland und Europa stark beeinträchtigt hat, hatte in Düsseldorf eine mittlere Windgeschwindigkeit von etwa 19 Metern pro Sekunde. Die Windgeschwindigkeiten der stärksten Stürme in der Antarktis sind etwa doppelt so hoch wie die der deutschen Stürme. Ein Sturm finieren, herrscht in der Antarktis an 80 kompletten Tagen. Die lange Dauer von Stürmen war für den Entwurf der Forschungsstation besonders bedeutsam. Denn mit jeder weiteren Stunde darf ein Sturm erneut testen, ob er nicht eine Schwachstelle am Bauwerk Bei 80 Zentimetern Neuschnee jährlich lag die zweite Forschungsstation zum Schluss 15 Meter tief im Eis wie Kyrill kommt hierzulande statistisch etwa alle 20 Jahre vor – im antarktischen Winter allerdings etwa 22mal pro Jahr. Und während den Stürmen in Europa nach wenigen Stunden die Puste ausgeht, haben die antarktischen Stürme einen besonders langen Atem. Sie sind nicht nur doppelt so stark, sie dauern auch mehr als doppelt so lange wie unsere Stürme. Sturm, wie wir ihn für Deutschland de- entdeckt. Und genauso, wie beim Würfeln die Wahrscheinlichkeit wächst, mit einem erneuten Versuch doch noch eine Sechs zu werfen, wächst die Wahrscheinlichkeit einer Überlast und damit die Gefahr eines Schadens – etwa dem Abriss eines Teils der Fassade der Polarstation – bis hin zum kompletten Versagen der Konstruktion – wie dem Abknicken der Stützen – mit jeder weiteren Sturmstun- Abb. 1: Die Neumayer-Station III am Tage der Eröffnung am 20. Februar 2009. de an. Die entsprechenden Methoden zur Berücksichtigung der Sturmdauer haben wir in den vergangenen Jahren im Forschungsteam EKIB (Entwurfsgrundlagen im Konstruktiven Ingenieurbau) entwickelt und verfeinert. Grundlegende Vorgehensweise bei der Auslegung eines Bauwerks gegen Sturm ist heute, ein derart seltenes Ereignis für den Entwurf zu unterstellen, dass das Bauwerk ihm in seiner geplanten Nutzungsdauer mit großer Wahrscheinlichkeit nicht ausgesetzt wird. Und wenn es dann doch auftritt, müssen hinreichend große Tragreserven vorhanden sein. Die Wahl der Seltenheit dieses so genannten Entwurfsereignisses, in unserem Fall eines extrem starken Sturms, hängt von 31 Ingenieurwissenschaften Rubin 2009 Abb. 3: Durch Anheben der einzelnen Füße in der „Kellergarage“, unter die dann Schnee geblasen wird, hebt sich die Station immer weiter aufwärts auf den Schnee. 32 lich eine angemessene Balance zu finden für die beiden entgegengesetzten Forderungen nach Sicherheit einerseits und Wirtschaftlichkeit andererseits. Neben der Anzahl der Stürme pro Jahr, ihrer Dauer und ihrer Intensität ist für die von einem Sturm ausgehende Gefahr für ein Bauwerk noch die Luftdichte maßgebend, das heißt die Masse an Gasmolekülen, die sich in einem Kubikmeter Luft befinden. Sie bestimmt mit, welche Kräfte auf die Oberflächen des Bau- Luftdichte und -Temperatur 10 0 Luftdichte [kg/m3] Lufttemperatur [°C] der Bedeutung des Bauwerks ab, d.h. welche wirtschaftlichen Schäden entstehen können und ob Menschenleben gefährdet sind. Die besonderen Gegebenheiten der Station Neumayer III mit ihrer aufwändigen Forschungsausstattung und vielköpfigen Besatzung erfordern entsprechend die Zuordnung in die Bauwerksklasse mit den höchsten Sicherheitsanforderungen. Als Zielwert der Wahrscheinlichkeit, mit welcher ein stärkerer Sturm als das Entwurfsereignis auftreten kann, ergibt sich dann zu 2,5 Prozent für die geplante Nutzungsdauer von 30 Jahren. Das heißt, dass die Station mit einer Wahrscheinlichkeit von 97,5 Prozent in ihrer Lebenszeit nur schwächere Stürme als das von uns errechnete Entwurfsereignis erleben wird. Die Charakteristika eines Sturms, auf den diese Wahrscheinlichkeit zutrifft, auf der Basis von Wetterdaten aus nur wenig mehr als zwei Jahrzehnten zu errechnen, ist nicht einfach. Geht man zu forsch mit der Datenanalyse um, ergibt sich ein nicht hinreichend sicheres Bauwerk, ist man dagegen zu vorsichtig, wird das Bauwerk unnötig teuer. Aber genau hier liegt die besondere Stärke unserer Methoden, näm- werks wirken. Dabei gilt, dass kalte Luft dichter, also schwerer ist als warme. Die extrem kalte Luft im antarktischen Winter ist erheblich schwerer als die Luft in Deutschland. Bei ca. -40° Celsius wurden an der Forschungsstation schon Werte größer 1,5 kg/m³ gemessen. Der empfohlene Wert der deutschen Norm liegt bei 1,25 kg/m³. Für den Entwurf hatte das AWI ursprünglich eine erhöhte Luftdichte von 1,65 kg/m³ angesetzt. Um die Planung so wirtschaftlich wie möglich zu machen, haben wir daher die Luftdichte in den antarktischen Sturmereignissen gesondert untersucht. Dabei haben wir festgestellt, dass ähnlich wie bei uns auch in der Antarktis starke Stürme mit relativ wärmeren Temperaturen verbunden sind. Allerdings bedeutet „wärmer“ in diesem Fall immer noch, dass Temperaturen von bis zu ca. -25° Celsius herrschen. Die Dichte der Luft beträgt dann für die besonders schweren Stürme maximal 1,4 kg/m³. Diesen Wert haben wir für die weiteren Berechnungen dem AWI empfohlen (Abb. 4). Der grundlegende Bezugswert für die Belastung durch Wind (Windlast), der ein Gebäude ausgesetzt ist, ist der Entwurfswert des Geschwindigkeitsdrucks. Er ergibt sich als Produkt aus dem Quadrat der Windgeschwindigkeit und der Luftdichte. Dieser Bezugswert ist für den Standort der neuen Polar-Forschungsstation viermal größer als für den Standort Düsseldorf (s. Abb. 5). Die Errichtung eines oberirdischen Bauwerks in einem derart rauen -10 -20 -30 -40 -50 0 5 10 15 20 25 30 35 mittlere Windgeschwindigkeit [m/s] 40 1.60 1.55 1.50 1.45 1.40 1.35 1.30 1.25 1.20 1.15 1.10 0 5 10 15 20 25 30 35 mittlere Windgeschwindigkeit [m/s] Abb. 4: Verhältnis von Lufttemperatur bzw. -dichte und Windgeschwindigkeit 40 Ingenieurwissenschaften Rubin 2009 0.99 10000 mittlere Anzahl der Stunden pro Jahr mit v > vref Nichtüberschreitenswahrscheinlichkeit Vergleich des Windklimas in der Antarktis und in Düsseldorf 1000 0.9 0.5 0.1 0 10 20 30 40 100 50 10 1 0.1 0 5 10 15 Stundenmittelwert der Windgeschwindigkeit [m/s] 20 25 30 35 40 vref [m/s] Abb. 5: Vergleich des Windklimas in der Antarktis (rot) und in Düsseldorf (blau). Stürme sind in der Antarktis nicht nur doppelt so stark wie in Deutschland, sie dauern auch doppelt so lange. Windklima ist also durchaus eine ingenieurtechnische Spitzenleistung. Für die Beurteilung der auf die Bauwerksoberflächen einwirkenden Windkräfte hatte das AWI uns Windkanalver- wertung der maximalen und minimalen aerodynamischen Beiwerte. Denn selbst wenn zwei Stürme die gleiche Intensität haben, werden sich die Extremwerte der Kräfte, die auf die Oberfläche eines Die neue Station muss einem Sturm standhalten können, der wahrscheinlich nie toben wird suchsergebnisse zur Verfügung gestellt. Hierfür wurde ein maßstabsgetreues Modell der Station in einer Strömung untersucht, die den Eigenschaften des natürlichen Windes entspricht. Grundsätzlich werden die Einwirkungen infolge von Wind mit dimensionslosen Beiwerten erfasst. Diese Beiwerte müssen für jeden Punkt des Bauwerks separat bestimmt werden. An der dem Wind zugewandten Seite erhält man positive Werte, auf dem Dach jedoch negative, denn dort erzeugt der Wind einen Sog. Für Autos kennen wir z.B. den dimensionslosen cw-Wert, der den Gesamtwiderstand des Fahrzeugs bei der Vorwärtsbewegung beschreibt. In der Bauwerksaerodynamik gilt die Besonderheit, dass die aerodynamischen Beiwerte zeitveränderlich sind – dies liegt insbesondere an der Unstetigkeit des Windes, die mit dem Fachbegriff Turbulenz erfasst wird. Die Festlegung der maximalen Windlasten, denen das Bauwerk standhalten muss, erfordert daher eine gesonderte statistische Aus- Bauwerks wirken, in der Regel erheblich unterscheiden. Dies ist ein besonderer Effekt der Strömungsfelder in Stürmen (Abb. 6): In einer Sturmstunde weht ein zufälliges Gemisch von Wirbeln, so genannten Turbulenzballen, über das Bauwerk hinweg, so dass sich in bestimmten Grenzen zufällig mal große und mal kleine aerodynamische Beiwerte ergeben. Für Forschungszwecke haben wir im Bochumer Windkanal die zufälligen Beiwerte an mehreren Referenzbauwerken für mehr als 1.000 gleich starke Stürme untersucht, um grundlegende Unterschiede in den Schwankungsbreiten der aerodynamischen Beiwerte an verschiedenen Positionen der Bauwerksoberfläche zu erkennen (Abb. 7). info 1 Die technischen Daten der Polarstation Neumayer III Gesamtgewicht: 2.300 Tonnen Stationscontainer: 100 Stück (Deck 1 und 2) Breite: 26 Meter Länge: 68 Meter Gesamthöhe: 29 Meter (Garagenboden bis Dach der Ballonfüllhalle) Höhe der Station: 21 Meter (ab Eisoberfläche) Stützenfreiraum unter der Plattform: 6 Meter Nutzfläche: 4.473 m2, davon 1.850 m2 klimatisiert Energieversorgung: 3 Dieselaggregate mit je 160 kW, 1 Notstromaggregat mit 160 kW, 1 Windkraftanlage mit 30 kW Unterkünfte: 15 Räume, 40 Betten Labore und Büros: 12 Räume Winterpersonal: 9 Personen 33 Ingenieurwissenschaften Rubin 2009 Windgeschwindigkeit [m/s] Chaos im Sturm 30 25 20 15 10 5 0 0 20 40 60 80 100 Zeit [s] Abb. 6: Chaos im Sturm: Es bilden sich zufällige Wirbel und Turbulenzen, die dafür sorgen, dass auch bei weniger starken Stürmen sehr starke Winddrücke auf Gebäude einwirken können. Wichtige Größe: Aerodynamische Beiwerte extremer aerodynamischer Beiwert 4 3 2 Wind Wind 1 -3 -4 -5 -6 -7 0 20 40 60 80 100 lfd. Nr. Sturm Abb. 7: Beispiel für die zufälligen höchsten und niedrigsten aerodynamischen Beiwerte, die auf ein Bauwerk einwirken. Die zufälligen Streuungen der Extremwerte der aerodynamischen Beiwerte sind von gleicher Bedeutung für die Festlegung der maximal erträglichen Windlasten wie die zufälligen Streuungen in der Intensität von Stürmen. Tatsächlich kann die maximal aufnehmbare Windlast bei praktisch jeder Sturmintensität überschritten werden. Bei schwächeren Stürmen wird hierzu allerdings ein sehr großer aerodynamischer Beiwert benötigt, der nur sehr selten auftritt. In stärkeren Stürmen reichen bereits kleinere und häufiger vorkommende aerodynamische Beiwerte aus, um den Entwurfs34 wert zu überschreiten und somit das Tragwerke oder seine Teile zu testen, ob es den Windkräften standhält. Aus den umfangreichen Messreihen haben wir entsprechend die Entwurfswerte der aerodyna- gangsparameter werden die besonderen Eigenschaften der schwankenden Drücke an jedem Punkt der Bauwerksoberfläche benötigt, und natürlich die zu erwartenden Intensitäten von Stürmen und deren Dauer. Die ungewöhnliche Dauer der Stürme in der Antarktis hat uns auch veranlasst, über Ermüdungsfragen nachzudenken. Die Windlasten in einem Sturm sind nicht konstant, sondern ändern sich praktisch ständig. Und diese Lastwechsel können zu Schäden an Bauwerksteilen führen oder sogar zum Bruch von einzelnen Bauteilen. Die zu erwartenden Anzahlen der Lastwechsel zwischen starker und schwächerer Windlast und das Ausmaß des Unterschiedes zwischen starken und schwachen Lasten (Lastamplituden) haben wir anhand der Windkanalversuche und der simultan beobachteten Windgeschwindigkeiten und Luftdichten für den Standort der Station Neumayer III ausgezählt und auf die geplante Nutzungsdauer von 30 Jahren hochgerechnet. Da wir die Entwurfswerte der Windgeschwindigkeiten und Windlasten für die Station Neumayer III nach den modernsten Methoden festgelegt haben, gibt es also für uns keinen Grund für schlaflose Nächte. Damit das allerdings auch für die neun deutschen Forscher gilt, die den antarktischen Winter in der Station Neumayer III verbringen, haben wir uns noch um einen weiteren Aspekt gekümmert: mögliche Schwingungen, die durch den Wind hervorgerufen werden. Solche Schwingungen können zum einen den Betrieb von empfindlichen Geräten stören, sie können aber auch das Wohlbefinden des Menschen ganz erheblich beeinträchtigen. Kürzlich wurde hierzu die Internationale Norm ISO 10137 „Bases for design of structures - Serviceability of buildings and walkways against vibra- Der Wechsel zwischen starker und schwacher Belastung sorgt für Ermüdungserscheinungen mischen Beiwerte für die Oberflächendrücke und den Gesamtwiderstand ermittelt (s. Info). Die Methode zur Festlegung der rechnerischen Windlast ist in Bochum in den letzten Jahren erheblich erweitert und verfeinert worden. Als Ein- tion“ (Entwurfsgrundlagen für Tragwerke – Gebrauchstauglichkeit von Gebäuden und Fußgängerbauwerken in Abhängigkeit von Schwingungen) veröffentlicht, an der wir in Bochum maßgeblich mitgewirkt haben. Grundsätzlich werden in die- Ingenieurwissenschaften Rubin 2009 ser Norm hinsichtlich möglicher Beeinträchtigung und Störung von Arbeit und Schlaf strenge Maßstäbe angelegt. Und diese Maßstäbe haben wir dem AWI empfohlen, damit die extremen Lebensbedingungen auf der Station Neumayer III mit Dunkelheit, Kälte und Isoliertheit nicht noch um einen weiteren Stressfaktor verstärkt werden. Die Schwingungsproblematik war seitens des AWI zunächst nicht untersucht worden. Wir haben herausgefunden, dass im ursprünglich geplanten Entwurf die Station an mehr als 50 Tagen des antarktischen Winters permanent Tag und Nacht deutlich wahrnehmbare Schwingungen mit Beschleunigungsamplituden über 0,04 m/s² ausführen würde. Diese Stärke der Schwingungen liegt um das fünfbis zehnfache über der Wahrnehmungsschwelle. Besonders große Schwingungen mit Beschleunigungen über 0,1 m/s² würden an 20 Tagen Arbeiten und Schlafen in der Station erheblich stören – ein unzumutbarer Zustand für die Besatzung, fand auch das AWI. Auf der Grundlage unserer Angaben wurden daher Konstruktionsänderungen vorgenommen, die das Schwingungsproblem erheblich reduziert haben. Unter anderem wurde die Unterkonstruktion verstärkt, um die Eigenfrequenz der gesamten Station anzuheben. Dadurch info 2 Windlasten Die sog. statische Windlast auf das Bauwerk beträgt bei Ostwind 1,63 kN/m2 (163 kp/m2). Das heißt bei einer Windgeschwindigkeit von z.B. 48,2 m/s (174 km/h), also bei starkem Sturm, drücken zusammengerechnet etwa 260 Tonnen auf die Plattform (Luv+Lee). Durch Böen und Wirbel können kurzfristig und örtlich begrenzt deutlich stärkere Kräfte auf die Plattform wirken, nämlich ca. 345 Tonnen. Die maximal erträgliche Windlast ist in der Planung der Station auf 517 Tonnen festgesetzt worden. Die Eigenfrequenz der Station für Quer- u. Längsschwingungen beträgt ca. 1,6 Hertz. „antwortet“ sie nicht mehr so leicht auf die Angriffe des Windes. Trotzdem werden bei den extremen Stürmen in der Antarktis, die zu den stärksten der Welt gehören, wahrnehmbare Schwingungen bei einem derartigen Bauwerk nicht gänzlich zu vermeiden sein. Die Station Neumayer III wurde am 20. Februar 2009 offiziell durch die Bundesforschungsministerin Dr. Annette Scha- van eröffnet. Die Forscher des AWI sind mittlerweile in ihre neue Forschungsstation eingezogen und bereiten sich auf die erste oberirdische Überwinterung vor. PD Dr.-Ing. Michael Kasperski, Forschungsteam EKIB (Entwurfsgrundlagen im Konstruktiven Ingenieurbau), Fakultät für Bau- und Umweltingenieurwissenschaften Abb. 8: Skelettierte Neumayer III 35 Facetten Rubin 2009 Die Stärke schwacher Bindungen Transnationale Migrantenorganisationen können neue Ansätze zur Integration bieten Rund 20 000 Aleviten aus ganz Europa protestierten am 30. Dezember 2007 in Köln gegen den ARD-Tatort „Wem Ehre gebührt“. Sie sahen darin durch das deutsche Fernsehen das jahrhundertealte Stigma des Inzests der Aleviten in der Türkei von neuem belebt. Innerhalb weniger Tage organisierte die Konföderation der Alevitischen Gemeinden in Deutschland (AABK) diese Massenaktion ohne großes Organisationsbüro oder andere Ressourcen. Wie konnte einer ethnisch-kulturellen Gruppe das gelingen, die eher durch sehr schwache und dezentrale Organisationsstrukturen gekennzeichnet ist? War es die Stärke schwacher Bindungen, durch die sich das grenzüberschreitende dezentrale, aber stark koordinierte Netzwerk der alevitischen Gemeinden als äußerst mobilisierungsfähig erwies? Auf welche Art und Weise sich Migranten hierzulande selbst organisieren, wurde erst viele Jahre nach der Einwanderung der ersten Gastarbeiter zum Forschungsthema. Die Integration der ArMigrantenorganisationen nicht nur in Deutschland aktiv beiter und ihrer nachziehenden Familien war stets das drängendere Problem. Später dann stellten Soziologen in erster Linie die Frage, welche Rolle Migrantenorganisationen für die Integration von Migranten in die neue, die deutsche Ankunftsgesellschaft spielen. Dem Abb. 1: Aleviten aus Frankreich, den Niederlanden und anderen Ländern Europas protestierten 2007 in Köln, weil sie sich durch eine Krimi-Serie um einen Mord- und Inzest-Fall in einer türkisch-alevitischen Familie in Deutschland stigmatisiert sahen. 36 Facetten Rubin 2009 Bochumer Projekt „Verbreitung und Kontextbedingungen transnationaler Migrantenorganisationen in Europa (TRAMO, s. Info)“ unter Leitung von Prof. Dr. Ludger Pries (Organisationssoziologie und Mitbestimmungsforschung) geht das nicht weit genug. Denn seit längerer Zeit gibt es Hinweise, dass viele dieser Gruppen nicht nur in Deutschland aktiv sind, sondern auch in den Heimatländern ihrer Mitglieder. Sie arbeiten transnational. Ihre Strukturen und ihr Vorkommen will das Team der Ruhr-Universität untersuchen – und kann dabei auch mit einem Vorurteil aufräumen. „In Deutschland wird es zurzeit eher als integrationshemmend angesehen, wenn Migranten noch Verbindungen zu ihrem Herkunftsland haben“, sagt Dr. Zeynep Sezgin, Koordinatorin des Projekts. Migranten sollen sich entscheiden – für das Land, in das sie einwandern, und damit gegen ihre türkischen, polnischen oder griechischen Wurzeln. Die Denkweise klingt simpel, ist aber naiv und unrealisitisch. Viele Migranten fühlen sich als Teil beider Kulturen, leben irgendwo dazwischen. Warum sollte das bei ihren Organisationen anders sein? Sie erhalten die Kultur der Heimat am Leben, zum Beispiel in Kulturvereinen, in denen auch noch hier geborene Nachfolgegenerationen Kultur und Traditionen ihres Herkunftslandes erlernen. Auf der anderen Seite helfen sie zu integrieren, lehren die neue Sprache, bauen Brücken über bürokratische Hürden hinweg oder motivieren zur politischen Mitarbeit in Deutschland. Integration und die Bewahrung der eigenen kulturellen Identität müssen kein Widerspruch zueinander sein. Schritt 1: Migrantenorganisationen finden dener Vereinsregister, Nachfragen bei Ausländerbeiräten, Behörden und Integrationsbeauftragten erstellten die Mitarbeiter der Fakultät für Sozialwissenschaften die zurzeit umfangreichste Liste von Migrantenorganisationen in 75 kreisfreien Großstädten Deutschlands. Allein dort spürten sie 3480 Gruppen auf, rund ein Drittel von ihnen in Nordrhein-Westfalen, dem deutschen Bundesland für Migranten (s. Abb. 2). 4,1 von insgesamt rund 15 Millionen Wie viele dieser Organisationen es hierzulande gibt, ist schwer zu sagen. Bisher hat niemand Buch geführt, ein nationales Register existiert nicht. Und wer glaubt, eine solche Bestandsaufnahme sei in Zeiten des Internets wenig problematisch, Migrantenorganisationen der irrt. Die Recherche war für das Bochumer Team aufwändig, aber auch nötig, um sich einen Überblick zu verschaffen und später Gruppen mit transnationalem Charakter herausfiltern zu können. Mit Hilfe verschie- Abb. 2: Von 3480 Organisationen in Deutschland registrierten die Forscher ein Drittel allein in Nordrhein-Westfalen. In diesem Bundesland leben rund 15 Millionen Menschen, darunter 4,1 Millionen, die ihre Wurzeln in anderen Ländern haben. 1.000 bis 1.114 400 bis 999 150 bis 399 50 bis 149 30 bis 49 0 bis 29 37 Facetten Rubin 2009 info TRAMO im internationalen Vergleich: Warschau – Oxford – Granada – Bochum Das Team vom Lehrstuhl für Soziologie/Organisation, Migration, Mitbestimmung an der Ruhr-Universität gibt in dem Projekt „Verbreitung und Kontextbedingungen transnationaler Migrantenorganisationen in Europa (TRAMO, Laufzeit 2007-2010)“ Einblick in die Struktur und Arbeitsweise von Migrantenorganisationen. Dafür hat es die zurzeit umfassendste Liste solcher Organisationen in Deutschland erstellt. Derzeit untersuchen die Forscher ausgewählte Gruppen auf transnationale Aktivitäten. Diese grenzüberschreitende Perspektive soll neue Ansätze in der Integrationsdebatte ermöglichen. Unter Federführung des Bochumer Teams nehmen drei weitere Universitäten an dem Projekt teil, um einen internationalen Vergleich zu ermöglichen: die Universitäten Warschau, Oxford und Granada. Gefördert wird das Projekt von der VolkswagenStiftung. Weitere Informationen: http://www.rub.de/tramo Menschen, die Wurzeln in anderen Ländern haben, leben hier. Dementsprechend groß ist das Angebot an Organisationen. Die Zahlen auf den Rest des Landes hochzuschätzen, wäre ebenso vermessen wie die Zahl ihrer Mitglieder zu ermitteln, erklärt Dr. Zeynep Sezgin. „Nicht jede Organisation gibt ihre genaue Mitgliederzahl an. Und ist ein Familienmitglied Teil der Organisation, so ist es in der Regel auch der Rest der Familie, ohne offiziell erfasst zu werden.“ Eindeutig und auch wenig überraschend hingegen ist die Verteilung der Nationalitäten, die die Organisationen repräsentieren (s. Abb. 3): Mehr als ein Viertel (28%) der Gruppen sind türkisch, gefolgt von anderen europäischen Ländern wie Spanien oder Portugal (22%) und Afrika (11%). Schritt 2: Auf der Suche nach dem Idealtyp Die Liste war für das Bochumer Team nur der erste Schritt, denn nicht alle der 3480 Organisationen sind transnational aktiv, also im Ankunfts- und im Herkunftsland. Für eine genauere Analyse begrenzten die TRAMO-Forscher die Aus- wahl auf polnische und türkische Migrantenorganisationen mit religiösen und/oder politischen Motiven, insgesamt rund 700. „Die Migrationsgeschichte der Polen nach Deutschland reicht weit zurück, Türken hingegen machen den größten Anteil der Einwanderer und Organisationen aus“, erklärt Prof. Ludger Pries die Auswahl. „Viele Organisationen sind politisch oder religiös aktiv. Sie haben eine besondere Bedeutung und vor allem auch mehr Brisanz für die Gesamtgesellschaft als zum Beispiel ein Sportverein.“ Am Ende fiel die Wahl auf acht Organisationen: vier polnische und vier türkische, wovon jeweils zwei Organisationen politische und zwei religiöse Schwerpunkte haben. Sie alle kommen theoretisch dem Idealbild einer transnationalen Struktur sehr nahe (s. Tab.). Das haben sie anhand des Kriterienkatalogs der TRAMO-Forscher bewiesen, zu dem unter anderem solche Fragen gehören: Hat die Organisation eigene Organe und/oder Kooperationspartner im Herkunfts- und im Ankunftsland? Gibt sie Publikationen in beiden Ländern heraus? Richtet sie sich nicht nur an die Migranten in Deutschland, sondern auch an die Menschen in der Heimat? Ein Beispiel dafür ist die Alevitische Gemeinde Deutschland, meint Dr. Zeynep Sezgin. „Die Aleviten in Deutschland sprechen mit vielen Aktionen auch direkt die Menschen in der Türkei an, um die Anerkennung ihrer Religion dort voranzutreiben.“ Die acht verbliebenen Organisationen werden bis Herbst 2009 weiter analysiert. „Wie transnational sie wirklich sind, lässt sich jetzt noch nicht sagen“, sagt Sezgin. Das Forscherteam untersucht dafür die Schriften, Pressemitteilungen und Satzungen der Organisationen, interviewt Experten auf diesem Forschungsfeld und nimmt beobachtend an offiziellen Veranstaltungen und Aktionen teil. Herkunftsländer >0,1 % 1 % 8 % Türkei 3 % Ex-Jugoslawien, Balkan 3 % 28 % 4 % Europa Afrika Mittlerer Osten, Zentral-Asien 6 % Ost-Asien, Ozeanien Ex-Sowjetunion Lateinamerika, Karibik 8 % 6 % Nordamerika Keine Angabe Abb. 3: Der Großteil der in Deutschland organisierten Migranten stammt aus der Türkei und aus westeuropäischen Ländern (z.B. Spanien, Portugal Griechenland). Lediglich drei Prozent der Migrantenorganisationen sind multinational. 38 Multinational 11 % 22 % Unspezifisch Facetten Rubin 2009 Aber wozu das Ganze? Wer das Vorurteil vom Anfang weiterführt, der müsste Neue Ansätze können nicht nur den Migranten helfen logisch folgern, dass transnationale Migrantenorganisationen der Integration nicht gut tun. „Ganz im Gegenteil“, wi- derspricht Prof. Ludger Pries. „Sie können beiden Seiten Vorteile bringen. So könnten deutsche Unternehmen mit Hilfe von Migrantenorganisationen gute Kontakte ins Ausland knüpfen.“ Und Projektkoordinatorin Sezgin ergänzt: „Wie das Beispiel der Aleviten zeigt, können die Organisationen auch aus der Ferne etwas für ihre Heimat tun, nicht nur wirtschaftlich, sondern auch im Hinblick auf Demokratisierungsprozesse.“ Konkrete Ansätze für die Integrationsdebatte will und kann das TRAMO-Projekt nicht liefern. Es widmet sich allein der Grundlagenforschung. „Integrationsstrategien daraus zu entwickeln, ist dann Aufgabe der Politik.“ Sarah Ziegler Tabelle Idealtyp Migrantenorganisationen Merkmale Ankunftsland Ankunftsland Herkunftsland Herkunftsland Multinational Transnational -fokal -global -fokal -global Ressourcenmobilisierung und Ankunftsland- Ankunftsland- Herkunftsland- Herkunftsland- Herkunfts- und Herkunfts- und -verteilung zentriert zentriert zentriert zentriert Ankunftsland- Ankunftsland- -Mitgliedschaft -Geld -Infrastruktur orientiert orientiert Hauptthemen/-forderungen Ankunftsland- Ankunftsland- Herkunftsland- Herkunftsland- Herkunfts- und Herkunfts- und -Themen - Zielgruppen - Verbündete zentriert zentriert zentriert zentriert Ankunftsland- Ankunftsland- orientiert orientiert Ausrichtung der Außenaktivitäten Ankunftsland- Ankunftsland- Herkunftsland- Herkunftsland- Herkunfts- und Herkunfts- und -Publikationsstrategie - Öffentl. Aktionen zentriert zentriert zentriert zentriert Ankunftsland- Ankunftsland- orientiert orientiert - Gespräche/meetings Ausrichtung der internen Aktivitäten Schwache Starke Schwache Starke Schwache Starke - Kommunikationsflüsse - Versammlungen Koordination Koordination Koordination Koordination Koordination Koordination - Interne Wahlen - Entscheidungsprozesse Tab.: Sechs Idealtypen von grenzüberschreitenden Migrantenorganisationen 39 Naturwissenschaften Rubin 2009 Wer führt im Terahertz-Tanz Wasser und Proteine: Ein starkes Team Proteine sind in unserem Körper für zahllose Funktionen verantwortlich, und doch ist der genaue Mechanismus immer noch teils unverstanden. Bisher wurden die Proteine bei den meisten Untersuchungen isoliert betrachtet. Chemiker nehmen jetzt mittels Terahertz-Strahlung ihre natürliche Umgebung, das Wasser, mit in den Blick. Vorher wurde Wasser als reine Bühne für den Tanz der Proteine angesehen, dabei gibt es inzwischen immer mehr Hinweise darauf, dass es ein aktiver Tanzpartner des Proteins ist. Auch Prof. Dr. Martina Havenith hatte es zuerst nur auf die Proteine abgesehen. Endlich wollte sie sie einmal mit Strahlung im Terahertz-Bereich (THz) beobachten – eine Lücke in der Wellenlängenskala, weil niemand eine ausreichend starke Quelle für Terahertz-Laser bauen konnte (s. Info). Der Zufall ließ sie Dr. Erik Bründermann kennenlernen, der einen leistungsstarken Laser beim Deutschen Zentrum für Luftund Raumfahrt (DLR) in Berlin für die Astronomie entwickelt hatte. „Wenn ich später einmal Geld habe, möchte ich damit Proteine untersuchen“, träumte sie damals. Mit ihrer Berufung an die RuhrUniversität war es soweit – und wieder half auch der Zufall ein wenig nach: Erik Bründermann suchte gerade eine Stelle, Martina Havenith hatte eine anzubieten. So kam der Terahertz-Laser nach Bochum. 40 So viel Geld, dass man groß angelegte Studien anfangen konnte, war allerdings dann doch nicht da. Aber bei einem Besuch von Prof. Dr. Martin Gruebele (University of Illinois), einem international renommierten Forscher im Bereich der Proteinfaltung, in Bochum ergaben sich in der Diskussion neue Perspektiven. Prof. Dr. Martin Gruebele war von den Möglichkeiten der neuen Methode im BeGlücksfall für Forscher: Programm, das gezielt Hochrisikoprojekte fördert reich der Terahertz-Spektroskopie sofort begeistert. Die beiden Forscher suchten im Internet nach Fördermöglichkeiten für ein gemeinsames Projekt und fanden das Human Frontier Science Programme (HFSP), bei dem sie sich kurzerhand bewarben – und glatt durchgewunken wurden. Eine Million US-Dollar standen zur Verfügung, „und das in einem Hochrisikoprojekt, dessen Ertrag unabsehbar war“, freut sich Prof. Havenith noch jetzt, „ohne diesen enormen Vertrauensvorschuss, der Forschern in diesem Förderprogramm gewährt wird, hätten wir das Problem nie angehen können.“ Der Versuchsaufbau sollte recht einfach sein: Da man wusste, wie Wasser die Strahlung absorbiert, bräuchte man nach der Untersuchung von Proteinen in Wasser bloß die bekannte Absorption des Wasser herauszurechnen und hätte danach den „Fingerabdruck“ des Proteins – d.h. seine charakteristische Absorption – im Terahertz-Bereich. Nur um zu prüfen, ob die Geräte funktionieren, schickten die Forscher die Terahertz-Strahlung durch reines Wasser und zum Vergleich durch Zuckerwasser. Nur passten die Ergebnisse nicht ins Bild. Wasser plus Zucker ergab ganz andere Werte als die separate Addition der Absorption von Wasser und Zucker alleine. 400 Messungen ließen sie ablaufen, mit unverändertem Ergebnis. „Da wurde uns klar, dass wir umdenken mussten“, so Martina Havenith. „Wir waren darauf gestoßen, dass die Anwesenheit des Zuckers das Wasser an sich verändert.“ Es war aus Simulationen bekannt, dass Wassermoleküle in unbeeinflusstem Wasser etwa einmal in jeder Picosekunde Naturwissenschaften Rubin 2009 Abb. 1: Die Anwesenheit eines Proteins sorgt im umgebenden Wasser für Ordnung: Tanzen die Wassermoleküle allein noch wie in der Disko, führen sie um das Protein herum eher ein Menuett auf. (eine Billionstelsekunde) die Wasserstoffbrückenbindung zum nächsten Wassermolekül öffnen und wieder schließen. Ist nun Zucker im Wasser, verlangsamt sich dieser wilde Tanz. Die neuen Paarungen treten nur noch durchschnittlich alle 1,3 Picosekunden auf. Die Reichweite verschiedener Zuckerarten ist dabei unterschiedlich: bei Wassermangel oder Frost länger am Leben und wird auch in der Lebensmittelindustrie als Konservierungsstoff eingesetzt. Ein Grund dafür könnte der Einfluss der Trehalose auf das Wasser sein.“ Die große Frage war natürlich nun: Wie interagieren Proteine und Wasser? Auch das leuchteten die Forscher mittels Terahertz-Strahlung genau aus. Wie sie inzwischen erwarteten, besteht ein enges Zusammenspiel zwischen Proteinen und Wassermolekülen. Ein Protein bringt dabei rund 1.000 Wassermoleküle in seiner Umgebung „auf Linie“ (Abb. 1). „Man kann es sich so vorstellen, dass in unbeeinflusstem Wasser die Moleküle wie in der Disko tanzen – mal mit dem und mal mit jemand anderem, jedes für sich. Kommt ein Protein ins Spiel, ist der Tanz der Wassermoleküle in der Umgebung verändert, sie halten länger an ihrem Partner fest.“ Gefaltete Proteine – also Proteine in ihrer Schützender Effekt: Zucker beeinflusst Wassermoleküle Während Glucose nur etwa 50 Wassermoleküle in ihrer Bewegung beeinflusst, sind es bei Lactose etwa 150 und bei Trehalose sogar 190 Moleküle. „Das könnte ein Grund für den schützenden Effekt des Zuckers sein“, mutmaßt Prof. Havenith. „Trehalose zum Beispiel hält Pflanzenzellen Abb. 2: Ein gefaltetes Protein beeinflusst das Wasser in der Umgebung anders als ein ungefaltetes Protein. Nur im gefalteten Zustand können Proteine ihre Funktion ausüben. 41 Naturwissenschaften info Terahertz-Strahlung Der Terahertz-Bereich liegt im elektromagnetischen Spektrum zwischen Mikrowellen und Infrarotstrahlung (Frequenzen von 0,3 THz bis 10 THz, ein THz = 1000 Gigahertz). Das entspricht Wellenlängen von 1 Millimeter bis 0,03 Millimetern. Zum Vergleich: Ein menschliches Haar hat einen Durchmesser von etwa 0,1 Millimetern. Während die Infrarotstrahlung (Radar) nach dem zweiten Weltkrieg und die Mikrowellen seit den 1960er Jahren gründlich erforscht und die Quellen perfektioniert wurden, blieb zwischen ihnen lange die Terahertz-Lücke übrig. Erst um 1990 gab es ausreichend starke Quellen für Forschung mit dieser Wellenlänge – genau der, bei der man die Aktivität der Proteine genau beobachten kann. 42 Rubin 2009 aktiven Form – haben dabei einen anderen Einfluss auf ihre Umgebung als ungefaltete (Abb. 2). Sämtliche künstlich veränderten Proteine (Mutanten), mit denen die Forscher den Test machten, haben weniger Einfluss auf das umgebende Wasser als authentische Proteine. Vielleicht ein Hinweis darauf, dass die Fähigkeit, das Wasser zu beeinflussen, eine biologische Funktion hat, die im Laufe der Evolution von Bedeutung war. Aber warum? Wie genau beeinflussen sich die beiden Tanzpartner, Protein und Wasser? Um das herauszufinden, kam die so genannte KITA-Spektroskopie (Kinetic Terahertz Absorption Spectros-copy) zum Einsatz (Abb. 3). Dabei werden kurze Terahertz-Pulse ausgesandt, die in Millisekundenauflösung Einzelbilder des beobachteten Prozesses liefern, praktisch also einen bewegten Film. Außerdem setzten die Forscher andere biophysikalische Methoden wie Röntgenstreuung, Fluoreszenzspektroskopie und CD-Spektroskopie (Circular Dichroismus) zum Vergleich ein. Die Chemiker starteten also den Proteinfaltungsprozess und zeichneten dann die Geschehnisse in einem Film in einem Abstand von jeweils einer Millisekunde pro Bild auf. Schon binnen weniger als zehn Millisekunden fanden sie die Bewegungen des Wassernetzwerks veränProteinfaltung im Film und das „Henne-Ei-Problem“ dert, während der eigentliche Faltungsprozess 100mal länger dauert und sich über einen Zeitraum von einer Sekunde erstreckt. „Die Umänderung des Wassernetzwerkes erfolgte sofort, erst danach starten die eigentlichen Faltungsprozesse, die sich über einen Zeitraum von 0,9 Sekunden erstrecken“, sagt Prof. Havenith. „Was wir natürlich unbedingt noch wissen wollen, ist, wie genau der Beginn der Proteinfaltung von der Wasserveränderung ausgelöst wird.“ Möglich wäre es auf jeden Fall, dass eine zufällige Bewegung des Protein-Wassernetzwerkes dem Pro- Rubin 2009 tein den entscheidenden Schubs gibt, der die Faltung auslöst. Den wichtigen Einfluss des Wassers für die Funktion von Proteinen belegte ein weiteres Experiment, bei dem nur winzige Mengen Wasser einem kleinen Protein (Peptid) zugegeben wurden. Erst ab einer bestimmten Wassermenge, nämlich wenn das Peptid etwa zur Hälfte mit Wasser bedeckt ist, setzen die typischen Wasserbewegungen ein. Es ist ganz genau die Menge an Bedeckung mit Wasser, ab der bestimmte Reaktionen bei Proteinen erst möglich sind. „Die Bewegung des Wassers ist offenbar unverzichtbar für die biologische Funktion“, folgert Prof. Havenith. Wenn die Zusammenhänge erst einmal komplett verstanden sind, hoffen die Forscher auch auf medizinische Anwendbarkeit dieser Erkenntnisse. „Ich bin sicher, dass man da eingreifen kann“, so Martina Havenith-Newen, „man muss die Prozesse nur verstehen – und dafür muss man sie genau beobachten.“ Naturwissenschaften Abb. 3: Der Terahertz-Laser am Lehrstuhl für Physikalische Chemie passt auf einen Tisch. Dr. Erik Bründermann entwickelt ihn seit Ende der 1980er Jahre weiter. 43 Facetten Rubin 2009 Der eigene Körper im Zerrspiegel Neuropsychologische Grundlagen des gestörten Körperbildes bei Essstörungen „Ich bin zu dick“ ist das Urteil von Patientinnen mit Essstörungen beim Blick in den Spiegel, auch wenn sie oft objektiv untergewichtig sind. Eine verzerrte Körperwahrnehmung ist Risiko- und aufrechterhaltender Faktor von Essstörungen wie Magersucht (Anorexie) und Ess-Brech-Sucht (Bulimie). Diese Verzerrung spiegelt sich in den Hirnfunktionen wider und kann durch Körperbildtherapie nachweislich verändert werden. Das Gefühl, zu dick zu sein, die Angst zuzunehmen, ständiges Messen und Wiegen des eigenen Körpers und die VermeiDie große Bedeutung des Körperbilds wurde lange vernachlässigt dung, sich anderen zu zeigen, quälen essgestörte Patientinnen und Patienten, die objektiv normal- oder untergewichtig sind. Studien haben gezeigt, dass Betroffene ih- Abb. 2: Im Kernspintomografen wurden den Probandinnen standardisierte Fotoserien mit je 16 Aufnahmen aus unterschiedlichen Perspektiven von ihnen selbst und von einer fremden Kontrollperson gezeigt - hier von einer Puppe nachgestellt. Die Köpfe wurden aus den Fotos entfernt, um überschneidende Hirnreaktionen zu vermeiden. 44 ren eigenen Körper viel umfangreicher wahrnehmen, als er tatsächlich ist, und sich unattraktiver einschätzen als Andere. Mit Bildern von sich selbst konfrontiert, suchen sie geradezu die vermeintlichen Schwachstellen, während sie positive Eigenschaften ausblenden. Bei der Betrachtung Anderer funktioniert das umgekehrt. Die Betrachtung des eigenen Körpers ist mit Gefühlen wie Traurigkeit und Ekel verbunden. „Die große Bedeutung des gestörten Körperbilds wurde in der Therapie von Essstörungen lange vernachlässigt“, sagt Dr. Silja Vocks. Sie ist dem Problem seit Facetten Rubin 2009 Jahren auf der Spur. Gemeinsam mit einer Kollegin hat sie eine Gruppentherapie entwickelt, die hilft, das Verhältnis zum eigenen Körper wieder zu normalisieren, ihn immer weniger als Feind zu begreifen (s. Info). Die Konfrontation mit dem Körperbildtherapie verbessert nachhaltig das Selbstbild eigenen Körper im Spiegel vor der Gruppe und auf Video, der Abschied von Gedanken wie „Der Wert meiner Person hängt von meinem Gewicht ab“ und das Erlernen von positiven körperbetonten Aktivi- täten zeigen Wirkung: Studien zufolge verbessert sich das Verhältnis zu sich selbst, werden die Einschätzungen des eigenen Körpers realistischer. Die Verbesserungen bleiben auch langfristig bestehen. Worauf beruht aber das verfälschte Selbstbild bei Essgestörten? Was ist der neuropsychologische Hintergrund? Was verändert die Therapie? Diese Grundlagen haben Silja Vocks und der Neuropsychologe Dr. Boris Suchan nun in einer weiteren Studie ergründet. Sie untersuchten Patientinnen (Männer fanden sich nicht in ausreichender Zahl) mit verschiedenen Essstörungen – 13 Magersüchtige, 15 Buli- Abb. 1: Und mögen sie noch so schlank sein: Patientinnen mit Essstörungen überschätzen ihre Körpermaße. Ständiges Wiegen und Vermessen von Körperteilen sind typisch. mikerinnen und 27 gesunde Kontrollpersonen – im Kernspintomografen, den ihnen das auf dem RUB-Campus gelegene Grönemeyer-Institut inklusive der Unterstützung des Physikers Dr. Martin Busch zur Verfügung stellte. Sämtliche Patientinnen wurden zweimal untersucht: einmal zu Beginn der Studie und einmal nach ca. zehn Wochen. Sie 45 Facetten Rubin 2009 Das Gehirn im Kernspinbild „Extrastriate Body Area“ Aktivierung bei Anorexia Nervosa Aktivierung bei Kontrollpersonen Reduktion der Grauen Substanz bei Anorexia Nervosa Abb. 3: Die graue Substanz der Extrastriate Body Area war bei essgestörten Patientinnen vor der Körperbildtherapie deutlich verringert. Nach der Therapie glich sich das aus. Ebenso stieg nach der Therapie die Aktivität in diesem Hirnbereich bei Betrachtung des eigenen Körpers an. Verstärkte Aktivierung bei Pat. mit Anorexia Nervosa nach einer Körperbildtherapie wurden nach der ersten Untersuchung zufällig in zwei Gruppen eingeteilt, die dann annähernd gleich viele Patientinnen mit den jeweiligen Diagnosen umfassten. Gehirnregion, die Körperbilder verarbeitet, ist verkleinert Die eine Gruppe erhielt sofort die zehnwöchige Gruppentherapie zur Verbesserung des Körperbildes, die andere musste noch warten. Für sie begann die Körperbildtherapie erst nach der zweiten Untersuchung. „So wollten wir im Vergleich herausfinden, was sich durch die Therapie verändert“, erklärt Silja Vocks. Während der Untersuchung im Kernspintomografen wurden den Patientinnen verschiedene Bilder gezeigt. Zum einen be- 46 trachteten sie Darstellungen von menschlichen Körpern im Wechsel mit Bildern von Gegenständen. So konnten die Forscher gezielt die Hirnregionen identifizieren, die bei der Verarbeitung von Körperbildern besonders aktiv sind. Zum anderen wurden die Probandinnen mit Fotoserien konfrontiert, die ihren eigenen und einen fremden Frauenkörper aus verschiedenen Standardperspektiven zeigten (Abb. 2). Die Serien von jeweils 16 Fotos wurden bei Beginn der Studie aufgenommen. Alle Probandinnen trugen dabei den gleichen Bikini und wurden anhand von Markierungen auf dem Boden aus identischen 16 Perspektiven fotografiert. Die Köpfe wurden auf den Bildern für die Untersuchung entfernt. „Die Betrachtung von Gesichtern wird im Gehirn von einer Region verarbeitet, die sich teils mit der für die Körperbetrachtung zuständigen überschneidet“, erläutert Boris Suchan. „Daher haben wir die Köpfe entfernt, um Irritationen zu vermeiden.“ Vor Erscheinen der Bilderserien wurde jeweils eingeblendet, ob darauf der eigene oder ein fremder Körper zu sehen war. Bei der Auswertung der kernspintomografischen Aufnahmen machten die Forscher eine überraschende Entdeckung: „Die strukturellen Untersuchungen, die noch nichts mit den eigentlichen Aktivierungsmustern zu tun haben, haben gezeigt, dass in der für die Verarbeitung von Körperbildern zuständigen Hirnregion bei Essgestörten die graue Substanz deutlich vermindert war“, so Boris Suchan. Die betreffende Hirnregion (Extrastriate Body Facetten Rubin 2009 Area, EBA) wurde vor etwa fünf Jahren erstmals beschrieben (s. Abb. 3). „Unsere unerwartete Entdeckung stellte uns natürlich vor neue Fragen“, so Suchan. „Beruht die gestörte Körperwahrnehmung bei Essstörungen auf einer Prädisposition, also einer Veranlagung, die schon von vornherein da ist? Lässt sich die Hirnregion beeinflussen?“ Die zweite Kernspinuntersuchung der Patientinnen nach der Körperbildtherapie beantwortete zumindest die zweite Frage: Tatsächlich hatte sich in der Gruppe der Frauen mit Anorexia Nervosa die Aktivierung der Extrastriate Body Area sowohl in der rechten als auch in der linken Hemisphäre durch die Therapie erhöht. (s. Abb. 3). „Die Region ist also plastisch: Man kann sie durch therapeutische Intervention verändern“, folgert Boris Suchan. Die Beobachtung der Aktivierungsmuster im Gehirn bei der Betrachtung des eigenen und eines fremden Körpers mittels funktionaler Kernspintomografie zeigten ebenfalls deutliche Unterschiede zwischen gesunden und essgestörten Versuchspersonen. Die Forscher beobachteten auch eine deutlicher erhöhte Aktivität der Amygdala bei Betrachtung fremder Körper bei den Patientinnen mit Essstörungen verglichen mit den gesunden Kontrollpersonen. Die Amygdala, der „Mandelkern“, ist Bestandteil des limbischen Systems und wird bei Angst oder unangenehmen Gefühlen aktiviert. „Wir interpretieren das als Zeichen dafür, dass sich Patientinnen stärker mit anderen vergleichen und bei diesem Vergleich in ihrem subjektiven Empfinden schlechter abschneiden“, erklärt Silja Vocks. Dass die Amygdala bei der Betrachtung des eigenen Körpers nicht die erIm Vergleich mit anderen schneiden Patientinnen subjektiv schlecht ab höhte Aktivität zeigte, erklären die Forscher mit einer verminderten Aufmerksamkeit gegenüber dem eigenen Körper, die mit dem bekannten Vermeidungsverhalten zusammenpasst und sich auch in einer verminderten Aktivität in Hirnregionen, die für Aufmerksamkeitsprozesse zuständig sind, widerspiegelt. „Auch wenn man mit offenen Augen ein Bild anschaut, kann man ja innerlich auf Distanz gehen und sich dagegen verschließen“, verdeutlicht Silja Vocks. „Wir nehmen an, dass das bei Patientinnen mit Essstörungen der Fall ist.“ Der Vergleich der Kernspinuntersuchungsergebnisse der essgestörten Studienteilnehmerinnen, die an der Therapie genommen hatten und derjenigen, die stattdessen warten mussten, ergab Hinweise darauf, dass die Aktivität der Extrastriate Body Area nach der Körperbildtherapie zugenommen hatte, während sie bei den Probandinnen, die warten mussten, konstant geblieben war. info Körperbildtherapie Am Beginn der Körperbildtherapie, die das Zentrum für Psychotherapie an der Fakultät für Psychologie der Ruhr-Universität seit 2003 anbietet, steht eine Bestandsaufnahme: ein Rückblick darauf, was vielleicht in der Kindheit und Jugend den Ausschlag in die falsche Richtung gegeben hat. In den folgenden Sitzungen – zehn Einheiten finden wöchentlich in Gruppen bis zu sechs Teilnehmerinnen statt – geht es darum, die negativen Wahrnehmungen, Gedanken, Gefühle und Verhaltensweisen zu erkennen und Schritt für Schritt zu verändern. Zentrales Element im Therapieprogramm sind Konfrontationen mit dem eigenen Körper vor dem Spiegel und mittels Videoaufnahmen. Schließlich lernen die Patientinnen, wieder positive körperbezogene Aktivitäten aufzunehmen, zum Beispiel tanzen oder schwimmen. Verschiedene Studien haben gezeigt, dass die Patientinnen von der eingehenden Beschäftigung mit sich selbst profitieren. So verbessert sich nicht nur die Einstellung zum eigenen Körper, sondern auch das gestörte Essverhalten wird reduziert und das allgemeine Selbstwertgefühl gesteigert. 47 Facetten Rubin 2009 Winzige Schluchten schlucken den Schall Luftdurchlässig, aber dicht: Lärmmindernder Asphalt Mit der neusten Kreation aus der Asphaltküche schlagen Bochumer Bauingenieure dem Straßenlärm ein Schnippchen. Sie schufen einen Flüsterasphalt, der zwar dicht ist, aber doch luftdurchlässig, zwar griffig, aber doch eben genug um das Geräusch des Abrollens der Autoreifen zu mindern – der optimale Straßenbelag für Innenstädte. Düsseldorf Innenstadt, Feierabendverkehr. Dass das Handy klingelt, bemerkt man nur an der Vibration. Worum es geht, bleibt ein Geheimnis – der Straßenlärm ist ohrenbetäubend. Schlimm für Passanten, aber noch schlimmer für die Anwohner, die tagsüber keine ruhige Minute haben. Der Lärm nagt an den Nerven und macht auf Dauer krank. Aber wie die Menschen vor dem Lärm schützen? Schallschutzwände haben in der Stadt keinen Platz, und auch die besten Schallschutzfenster müssen zum Lüften geöffnet werden. Die Städte müssen sich also etwas anderes überlegen. Neben den Anwohnern dringt darauf auch die EU. Das nötige Geld spült jetzt das 48 zweite Konjunkturpaket der Bundesregierung zur Dämpfung der Wirtschaftskrise in die städtischen Kassen. Es kann also losgehen. Erster Schritt im Kampf gegen den Lärm: Seinen Gegner kennen. Forscher haben den Lärm fahrender Autos und Lkw genau analysiert. Der Krach setzt sich aus verschiedenen Komponenten zusammen. Und – wer hätte das gedacht: Schon ab etwa 40 Stundenkilometern übertönt das Fahrbahngeräusch den Motor. Die wichtigsten Bestandteile des Reifengeräuschs wiederum sind die Eigenschwingung der Reifen Ab 40 Stundenkilometern übertönt das Reifengeräusch den Motor und – wieder eine Überraschung für Nichtfachleute: Luftgeräusche. Sie kommen dadurch zustande, dass beim Abrollen des Reifens die Luft, die zwischen den Vertiefungen des Gummireifens und der Straßenoberfläche eingeschlossen ist, zusammengepresst wird und dann beim weiteren Abrollen mit einem hörbaren Zischen entweicht (air-pumping). „Man muss sich das ungefähr so vorstellen wie beim Aquaplaning“, erklärt Daniel Gogolin, Forscher am Lehrstuhl für Verkehrswegebau der RuhrUniversität (Prof. Dr. Martin Radenberg). „Nur lässt sich Wasser nicht komprimieren, dadurch bildet sich ein Film und der Reifen schwimmt.“ Luft hingegen lässt sich komprimieren und dehnt sich dann wieder aus, wobei es zischt. Die Waffen des Gegners sind also erkannt. So ließ sich eine erste Gegenstrategie entwerfen: OPA. Der offenporige Asphalt, der seit einiger Zeit eingesetzt wird, „schluckt“ Luft und Lärm. Dank ihrer speziellen Zusammensetzung aus verhältnismäßig großen Körnern ist die ca. vier Zentimeter dicke Oberfläche sehr porös. Mehr als 20 Prozent des Volumens besteht aus Hohlräumen. Die Luft im Reifenprofil wird daher nicht zusammengepresst, sondern in die Straßenoberfläche hineingedrückt, wo sie sich im Hohlraumgeflecht verteilt – ohne Zischen. Zusätzlich nimmt der offenporige Asphalt Schallwellen auf, die der Motor erzeugt. Leider hat OPA auch Nachteile. Eine kleine Weile konfrontiert mit Reifenabrieb Facetten Rubin 2009 Abb. 1: Der Augenblick der Wahrheit: Der Messanhänger blendet alle außer den Reifenabrollgeräuschen aus und misst die tatsächliche Geräuschentwicklung des Reifens auf dem Asphalt. und sonstigem Straßenschmutz hat er die längste Zeit offene Poren gehabt. Bremsen und Anfahren erzeugen darüberhinaus Schub- und Scherkräfte, die leicht Körner aus der porösen Oberfläche herausreißen. Flickstellen durch Kanalarbeiten oder nach einem Verkehrsunfall zerstören das Porengeflecht. OPA eignet sich daher nur für Autobahnen. Hier wird wenig geflickt, gebremst und angefahren, dafür aber schnell gefahren, was wiederum Konvexe Oberfläche Fliehkräfte erzeugt, die Staub und Dreck aus den Poren herausziehen. Eines ist aber auch eine Autobahn nicht: trocken. In die offenen Poren dringt leicht Wasser ein, das sich beim Gefrieren im Winter ausdehnt und die Struktur sprengt. Daher werden OPA-Fahrbahnen mit einem aufwändigen Drainagesystem versehen, über das Wasser möglichst schnell abfließen soll. Trotzdem ist die Nutzungsdauer auf maximal zehn Jahre beschränkt. „Aus all diesen Gründen müssen wir im Innenstadtbereich zu anderen Methoden greifen“, fasst Daniel Gogolin Für Innenstädte musste eine spezieller Flüsterasphalt entwickelt werden den Ausgangspunkt der Arbeit des Lehrstuhls der Ruhr-Universität zusammen. Die Forscher machten sich, beauftragt von der Stadt Düsseldorf, ans Werk, sammel- Konkave Oberfläche Abb. 2: Übliche Straßenbeläge haben eine eher konvexe Oberfläche wie ein Gebirge mit Bergen und Tälern. Besser gegen Lärm schützt eine konkave Oberfläche: ein Plateau mit Schluchten. 49 Facetten Rubin 2009 Abb. 3: Baustoffprüfer Tobias Papajewski lässt im Labor beschwerte Gummireifen bei 60° C zigtausendmal über den neuen Fahrbahnbelag rollen. So zeigt sich, wie haltbar er ist. Je geringer die Spurrinne am Ende ausfällt, desto langlebiger ist der Straßenbelag. ten Daten und stellten die gewünschten Eigenschaften einer perfekten Straßenoberfläche zusammen, testeten verschiedenste Zusammensetzungen experimentell auf die Verteilung der Hohlräume im Gesamtgefüge und die Porengröße, ihre Stabilität und Griffigkeit. Heraus kam eine neue Art von Flüsterasphalt (Lärmoptimierte Asphaltdeckschicht, LOA 5 D), der ähnliche Vorteile wie OPA, aber nicht seine Nachteile hat. „Der erste Trick ist das Profil der Oberfläche“, erklärt Gogolin. Anders als bei Eine Ebene mit Schluchten nimmt Schallwellen auf herkömmlichen Fahrbahndecken (abgestumpft) handelt es sich im Höhenprofil betrachtet nicht um ein Gebirge mit Bergen und Tälern (konvexe Oberflächenstruktur), sondern um eine Ebene mit Schluchten (konkave Oberflächenstruktur, s. Abb. 2). Aufgrund der geringeren lokalen Kontaktdrücke und der niedrigeren, den Reifen radial anregenden Schlagenergie werden die starken Eigenschwingungen des Reifens reduziert und damit schon eine Menge Lärm verhindert. Da die Kehrseite des leisen Rollens die schwindende Griffigkeit ist, optimierten die Forscher die Oberflächengestaltung in einem aufwändigen experimentellen Prozedere. „Auf der einen Seite steht der so genann50 te Gestaltfaktor, das Ergebnis der statistischen Auswertung der Häufigkeit der Profiltiefen. Bei Werten größer 68 Prozent ist eine Oberfläche lärmgünstig“, erklärt Gogolin. „Unsere Oberfläche hat einen Wert von 80 bis 84 Prozent. Die Griffigkeit hängt unter anderem von der so genannten Makrotexturtiefe ab, die mindestens 0,4 Millimeter betragen muss und bis 0,8 Millimeter lärmgünstig ist. Unser Wert: 0,66 Millimeter.“ Eine Punktlandung also. Der zweite Trick ist ein feines Geflecht von Hohlräumen, ähnlich wie bei OPA, aber wesentlich filigraner. Luft kann weiterhin oberflächlich eindringen und sich wie über eine Art „Luftdrainage“ verteilen, Wasser und Streusalz dringen aber wesentlich schlechter ein. „Die Hohlräume machen weniger als sieben Prozent des Volumens aus“, erklärt Daniel Gogolin, „daher kann man von einer dichten Fahrbahndecke sprechen.“ Ein aufwändiges wasserableitendes Rinnensystem wie bei OPA ist daher nicht nötig. Der Schlüssel zum dichten, aber lärmreduzierenden Straßenbelag liegt in seiner speziellen Zusammensetzung, die im Detail natürlich nicht verraten wird. Wichtig ist auf alle Fälle die Auswahl einer feinen Körnung. Die Steinkörnchen sind nur zwei bis fünf Millimeter klein, zum Vergleich: OPA hat bis elf Millimeter dicke Körner. Hinzu kommt gewa- schener Moränebrechsand ohne Staub, der die gewünschten kleinen Poren verstopfen könnte. Bitumen und Füller, der Klebstoff des Straßenbelags, der die Körner miteinander verbindet, werden durch einen Kunststoff-Zusatz verstärkt. So ist die gesamte Schicht nicht dicker als 2,5 Zentimeter. Tests im Labor (Abb. 3), unter anderem mit 20.000 Reifenüberrollungen, haben die Haltbarkeit bestätigt: Es bildeten sich fast keine Spurrinnen und die Textur blieb erhalten (Verformungsbeständigkeit). Erstmals wurde der neue Straßenbelag auf der Mecumstraße in Düsseldorf einge- Abb. 4: Die Reifen des Messanhängers sind so abgeschirmt, dass alle Geräusche außer das Abrollgeräusches der Reifen auf der Fahrbahn außen vor bleiben. Es können sowohl Pkw- als auch Lkw-Reifen montiert werden. Schallsonden nehmen die Geräusche um den Reifen herum bei der Fahrt auf. Facetten Rubin 2009 Ergebnisse der Lärmemissionsmessungen 98 CPX L Pkw (BASt-Messung) CPX H Lkw (BASt-Messung) CPX L Pkw (DAV-Studie) CPX H Lkw (DAV-Studie) 96 mittlerer CPX Wert in dBA 94 92 = 8 dBA 90 88 = 4 dBA 86 84 82 80 AB 0/ Be 8 to nv er pfl bun RE d -B aste et r on pfl as te r Kl ei np fl Gr aste an r it Gr M oßp ik fl ro as di te or r ik AB 0/ 11 78 LO A 5D al te M De ec ck um sc st hich ra t ße SM A 0/ 8 S baut. Erst danach konnte der wichtigste Praxistest stattfinden: die Lärmmessung. Mit einem speziellen Anhänger, der nur die Geräusche aufnimmt, die durch die rollenden Reifen erzeugt werden, machten die Forscher die Probe aufs Exempel (Abb. 4). Ergebnis: Die Lärmbelastung reduzierte sich um 8,5 dB(A) von 93,9 auf 85,4 dB(A) beim Pkw-Reifen und um 4,0 dB(A) von 92,0 auf 88,0 dB(A) beim LkwReifen (Abb. 5). Das hört sich für die Anwohner so an, als würden rund ein Viertel weniger Autos die Straße befahren. Da der Straßenbelag noch nicht lange im Einsatz ist, gibt es über seine Langlebigkeit noch keine Erfahrungswerte. „Aufgrund der guten Ergebnisse unserer zweijährigen Beobachtungen in Düsseldorf rechnen wir aber mit einer ähnlichen Haltbarkeit wie bei herkömmlich verwendeten dichten Asphaltdeckschichten“, meint Daniel Gogolin. Die Investition lohnt sich daher. Überhaupt halten sich die Kosten in Grenzen. Zwar ist die Herstellung von LOA 5 D durch den Kunststoffzusatz etwas teurer als herkömmliche Straßenbeläge, dafür ist er aber auch dünner. Inzwischen hat sich die Stadt Düsseldorf entschieden, den Straßenbelag künftig vorranging einzubauen. Auch andere Städte haben nachgezogen: Neben Düsseldorf planen zurzeit Mönchengladbach, Essen, Bochum, Gelsenkirchen, Dortmund, Abb.5: Der neue Straßenbelag minderte die Geräuschbelastung gegenüber dem alten um 8,5 dB(A) bei Autos und um 4 dB(A) bei Lkw. Das hört sich für die Anwohner so an, als würden rund ein Viertel weniger Autos die Straße befahren. Aachen, Saarbrücken und Nürnberg den Einbau der neuen Straßenoberfläche. Die Bochumer Forscher stehen ihnen bei den Bauvorhaben beratend zur Seite. Denn die Rezeptur für LOA 5 D lässt sich nicht eins zu eins auf jede Stadt übertragen. Da jede ihre eigenen Rohstofflieferanten hat, variieren die Zutaten, und es sind Anpas- sungen notwendig, die die Bauingenieure der Ruhr-Universität übernehmen. Und die Forschung steht nicht still: Die Bochumer Ingenieure arbeiten zurzeit an weiteren Optimierungsmöglichkeiten der lärmoptimierten Asphaltdeckschicht. Darum dreht sich unter anderem Daniel Gogolins Doktorarbeit. 51 Facetten Rubin 2009 Keine Ausreden für angestaubtes Amtsdeutsch Verständlich schreiben muss die Rechtssicherheit nicht gefährden Was Verwaltungsmitarbeiter an ihrer unverständlichen Amtssprache festhalten lässt, ist oft die Angst, sich rechtlich aufs Glatteis zu begeben. Kein Grund zum Fürchten, meint Michaela Blaha. Die Projektleiterin des Internet-Dienstes für eine moderne Amtssprache IDEMA hat festgestellt, dass Sprach-, Stil- und Strukturverbesserungen die Rechtssicherheit nicht in Mitleidenschaft ziehen müssen. Herrn Neumanns freier Tag fing nicht gut an. Nicht nur, dass die Tageszeitung mal wieder geklaut war; an ihrer Stelle fand er einen Brief von der Stadt im Briefkasten, der ihm schon ungeöffnet die Runzeln auf die Stirn trieb. „Was kann das jetzt wieder sein“, grummelte er missmutig, während er den Umschlag aufriss, „versteht man ja sowieso alles wieder nicht“. Es ging irgendwie ums Auto, stellte er beim Überfliegen fest. „… Sollten Sie die- ser Verfügung innerhalb der vorgenannten Frist nicht nachkommen, so wird Ihnen hiermit das Zwangsmittel der Ersatzvornahme angedroht“, schloss es. Mit einem Schlag war Herr Neumann hellwach. Wer drohte ihm da was für Zwang an? Welche Frist? Er griff umgehend zum Telefon – das konnten die mit ihm nicht machen! Das folgende unerfreuliche Telefonat mit dem so aufgebrachten wie verwirrten Herrn Neumann hätte sich die Sachbearbeiterin des Ordnungsamts vielleicht ersparen können. Jahrelange Erfahrungen des Bochumer IDEMA-Teams haben gezeigt, dass Nachfragen und Proteste Der richtige Stil erspart Bürgern und Sachbearbeitern viel Ärger Abb. 2: Das IDEMA-Team um Prof. Dr. Hans-Rüdiger Fluck (vorne links) und Michaela Blaha (vorne rechts) hat sich 2008 unter dem Dach der Transfergesellschaft der Ruhr-Universität, der Novatec GmbH, selbstständig gemacht. (hinten v.l. Nadine Elser, Alexandra Nießen, Nurşen Şahin, Ellen Becker). 52 deutlich abnehmen, je bürgerfreundlicher und verständlicher ein Brief vom Amt daherkommt. Die Sprachprofis der Ruhr-Universität – neben Sprachwissenschaftlern um Prof. Dr. Hans-Rüdiger Fluck und Projektleiterin Michaela Blaha auch eine Juristin (Abb. 2)– überarbeiten seit zehn Jahren Amtsschreiben von Kommunen, Behörden und der Bundesverwaltung in Zusammenarbeit mit den Autoren. Überarbeitete Passagen stellen sie in ihre Internetdatenbank, so dass auch andere Projektteilnehmer Zugriff darauf haben und von der Arbeit der anderen profitieren (s. Info). Die Arbeit der ersten zehn Jahre wertet Michaela Blaha nun systematisch aus. Ihre Facetten Rubin 2009 ersten Ergebnisse können beruhigen. „Oft ist es die Frage der Rechtssicherheit, die Mitarbeiter von Verwaltungen davor zurückschrecken lässt, ihre Schreiben allgeEin Restmüllbehälter ist nicht zwingend eine Mülltonne dass Sie der Aufforderung bis zum 2. Juli 2009 nicht nachkommen, drohen wir Ihnen an, das Fahrzeug auf Ihre Kosten entfernen zu lassen mein verständlich zu formulieren“, hat sie festgestellt. „Die Befürchtung, die Rechtssicherheit zu gefährden, ist aber für die meisten Sprach- und Stilveränderungen unbegründet.“ Vorsicht ist zwar geboten bei Rechtsund anderen Fachbegriffen. Denn es ist rechtlich nicht dasselbe, ob man schreibt „Sie können Widerspruch einlegen“ oder „Sie können widersprechen“. Ein Restmüllbehälter ist nicht zwingend eine Mülltonne – es kann auch ein Container oder Beutel sein. Elegant und unproblematisch hilft in solchen Fällen aber eine Erläuterung oder Konkretisierung. Auch Beispiele entschärfen unverständliche Begriffe. Hätte Herr Neumann etwa gelesen „Für den Fall, Abb. 1: Ein Kreuz zu tragen haben Mitarbeiter von Verwaltungen: Ihre Schreiben sollen rechtlich eindeutig und unanfechtbar sein, gleichzeitig aber verständlich und höflich. 53 Facetten Rubin 2009 Abb. 3: Der Ärger über die Verwaltungssprache ist so alt wie die Verwaltungen. Leitfäden zum „Guten Amtsdeutsch“ gibt es genau so lange. (Ersatzvornahme)“, wäre er zwar sicherlich auch nicht erfreut gewesen, aber er hätte gewusst, was zu tun ist. Und was passieren würde, wenn er es nicht täte. Davon abgesehen hängt die Verständlichkeit eines Schreibens aber nicht allein von den verwendeten Begriffen ab. Auch Sprachstil und Struktur lassen oft zu wünschen übrig. Ihre Veränderung berührt die Rechtssicherheit nicht, erhöht aber die Verständlichkeit ungemein. Die IDEMA- Profis raten zum Beispiel, aktive statt passive Formulierungen zu verwenden. „Sie brauchen hierzu nicht auszusagen“ klingt für den Adressaten viel persönlicher als Man begibt sich rechtlich nicht so schnell aufs Glatteis „Eine Aussagepflicht in der Sache besteht nicht“. Aktuelle Begriffe erleichtern das Verständnis ebenfalls. Warum „fernmünd- lich“ wenn es auch „telefonisch“ geht? Abkürzungen auszuschreiben macht wenig zusätzliche Arbeit, erleichtert aber oft das Lesen. Auch überlange Sätze machen typische Amtsschreiben kompliziert und sind für die Rechtssicherheit nicht nötig. In der Datenbank von IDEMA findet sich zum Beispiel dieses Ungetüm: „In Anwendung des § 2 des Straßenverkehrsgesetzes (StVG) – in der zurzeit gültigen Fassung – ist die Erlaubnis zum Führen info IDEMA Zahlreiche Kommunen sowie die Bundesverwaltung beteiligen sich Behörden zahlen für die Projektteilnahme einen Jahresbeitrag, der derzeit am IDEMA-Netzwerk. Das IDEMA-Team überarbeitet in Zu- sich nach Anzahl der Mitarbeiter richtet. sammenarbeit mit den Autoren deren Texte – Bescheide, Broschüren, Webseiten und andere – und stellt die überarbeiteten Texte und 2008 hat sich IDEMA unter dem Dach der Transfergesellschaft der einzelne Formulierungen in die Internet-Datenbank ein. Teilneh- Ruhr-Universität, der Novatec GmbH, selbstständig gemacht. Ur- mende Behörden können dann in dem wachsenden Online-Wörter- sprung von IDEMA war ein Pilotprojekt des Germanistischen Insti- buch nachschauen, ob andere vor ihnen mit Hilfe des IDEMA-Teams tuts der Ruhr-Universität mit der Stadt Bochum unter der Leitung schon ein ähnliches Sprach-Problem gelöst haben. So profitiert je- von Prof. Dr. Dr. h. c. Hans-Rüdiger Fluck im Jahr 2001, das bundes- der auch von der Arbeit der anderen, denn viele Schreiben der Ver- weit für Interesse gesorgt hat. waltungen ähneln einander. Außerdem erarbeitet IDEMA Leitfäden mit authentischen Text-Beispielen und bietet Schreibwerkstätten für Verwaltungsmitarbeiter an. 54 http://www.ruhr-uni-bochum.de/idema Facetten Rubin 2009 von Kraftfahrzeugen zu erteilen, wenn bei dem Bewerber nicht Tatsachen vorliegen, die die Annahme rechtfertigen, dass er zum Führen von Kraftfahrzeugen ungeeignet ist.“ Das IDEMA-Team hat daraus gemacht „Eine Fahrerlaubnis erhält nur, wer zum Führen eines Kraftfahrzeugs geeignet ist (§ 2 Straßenverkehrsgesetz – StVG). So kurz ist dasselbe gesagt. A propos: Gesetzesverweise in Klammern zu setzen und Querverweise, zum Beispiel auf das Datum, zu vermeiden, entstellt ebenfalls nicht den Sinn und erspart dem Leser einige Mühe. Wer einen persönlichen Sprachstil wählt, macht sich den Leser außerdem gewogen: „Bedenken, die Sie innerhalb dieses Zeitraums äußern, werde ich bei meiner Entscheidung – soweit möglich – berücksichtigen“, das klingt gleich ganz anders als „Innerhalb dieses Zeitraums vorgebrachte Bedenken werden bei meiner Entscheidung berücksichtigt“. Wer dann noch seinen Text mit Zwischenüberschriften und Aufzählungszeichen strukturiert und Wichtiges durch Fettdruck hervorhebt, hat alles richtig gemacht, ohne die Rechtssicherheit in Gefahr zu bringen. „Man begibt sich rechtlich viel weniger schnell aufs Glatteis als Viele vermuten“, fasst Michaela Blaha ihre Erkenntnisse zusammen, von denen sie hofft, dass sie dazu beitragen können, der verständlichen Sprache in den Verwaltungen noch mehr Türen zu öffnen. Denn neben der Text- Künftig will Michaela Blaha ihre Erfahrungen noch weiter mit empirischen Forschungsergebnissen untermauern. Ihre Grundfrage: Was ist es eigentlich, das Verwaltungssprache so kompliziert macht? Stimmt es zum Beispiel, dass sie zu viele lange Sätze enthält? Oder zu viel „Fachchinesisch“? Und machen kürzere Sätze und weniger Substantive einen Text wirklich verständlicher? Ein statistischer Vergleich zwischen originalen und durch IDEMA überarbeiteten Amtstexten soll das zeigen. Material ist in Hülle und Fülle vorhanden: Über 2.000 Verwaltungstexte und mehr als 300 überarbeitete Versionen liegen inzwischen vor. „Auch interessant wäre, ob es Unterschiede zwischen der Ausdrucksweise einzelner Fachbereiche innerhalb der Verwaltung gibt“, spinnt Michaela Blaha den Faden weiter. Würde sich etwa herausstellen, dass die Mitarbeiter bestimmter Fachbereiche besonders häufig auf schwer verständliche Fachausdrücke zurückgreifen (müssen), könnte man das bei ihrer Ausbildung berücksichtigen. Eines ist sicher: Die Arbeit wird dem wachsenden Team wohl so schnell nicht ausgehen. Stimmt es, dass Amtssprache zu viele lange Sätze enthält? arbeit ist es vor allem die effiziente Umsetzung innerhalb von Verwaltungen, die dem IDEMA-Team Arbeit macht. Besonders in großen Behörden kann es sehr aufwändig sein, alle Mitarbeiter vom Mitmachen zu überzeugen und ihre Bedenken zu zerstreuen. Das Interesse an Unterstützung bei der Überarbeitung amtlicher Schreiben ist aber durchweg groß. „Viele Verwaltungsmitarbeiter sind selbst mit ihren Texten unzufrieden und sich nur unsicher, was sie verändern können“, hat sie festgestellt. Leitfäden sind meistens zu allgemein gehalten und daher wenig hilfreich (Abb. 3). Da ist die IDEMA-Datenbank deutlich handfester. 55 Facetten Rubin 2009 Wer über den Wert entscheidet Wenn knappe Ressourcen im Gesundheitswesen Leistungseinschränkungen erzwingen Die gute Nachricht zuerst: Wir werden immer älter und die Medizin wird immer besser. Doch der Preis des medizinischen Fortschritts steigt zunehmend ins Unerschwingliche. Die große Herausforderung der nächsten Jahre wird sein, die vorhandenen Ressourcen sinnvoll und gerecht zu verteilen. Doch zunächst muss jeder für sich selbst entscheiden, was ihm die medizinische Versorgung wert ist. „Wer sagt, die umfassende Gesundheitsversorgung ist sicher, sagt schlicht und einfach nicht die Wahrheit. Schon jetzt ist eine heimliche Rationierung in der 56 medizinischen Versorgung zu spüren“, betonte unlängst der Präsident der Bundesärztekammer Jörg-Dietrich Hoppe. Mit seiner Forderung nach einer offenen Debatte über die Priorisierung im GesundÄrztepräsident bricht Tabu: fordert offene Priorisierung heitswesen auf dem 112. Deutschen Ärztetag im Mai dieses Jahres in Mainz brach er erstmals ein Tabu. In der gesellschaftlichen Diskussion ist die Notwendigkeit einer offenen Beschränkung medizinisch sinnvoller Leistungen aus Kostengründen (explizite Rationierung) durchaus umstrit- ten. Reicht es nicht, zunächst die vorhandenen Effizienzreserven zu heben, fragen sich viele Menschen? Die Gesundheitspolitik scheute bislang die Diskussion, ist es doch nicht populär, Leistungsansprüche einschränken zu wollen. Während Hoppe nach einem Gesundheitsrat á la Ethikrat ruft, in dem etwa Ärzte, Ethiker und Juristen über Fragen der Priorisierung von Leistungen debattieren, laufen an den Hochschulen bereits zwei interdisziplinäre Forschungsvorhaben: 2006 startete ein durch das Bundesforschungsministerium (BMBF) gefördertes Projekt „Ethische, ökonomische und rechtliche Aspekte der Allokation Facetten Rubin 2009 kostspieliger biomedizinischer Innovationen“ (s. Info). Dieses setzt sich quasi fort in einem zweiten seit 2007 durch die Deutsche Forschungsgemeinschaft (DFG) geförderten weit umfassenderem Projekt, an dem insgesamt dreizehn Hochschulen über die Forschergruppe „Priorisierung in der Medizin: Eine theoretische und empirische Analyse unter besonderer Berücksichtigung der Gesetzlichen Krankenversicherung“ beteiligt sind (s. Info). „Zunächst ist eine Bestandsaufnahme der gegenwärtigen Situation im Gesundheitswesen unerlässlich“, so Prof. Dr. Stefan Huster, Institut für Sozialrecht an der Juristischen Fakultät der Ruhr-Universi- tät, der an beiden Projektgruppen beteiligt ist. Unter seiner Leitung untersucht Christian Held innerhalb des BMBF-Projekts die „Explizite und implizite Rationierung am Beispiel der interventionellen Kardiologie und der Intensivmedizin“, während sich André Bohmeier einem Teilprojekt der DFG-Forschergruppe „Priorisierung in der Medizin“ widmet. „Über die Befragung von Krankenhausärzten (BMBF-Projekt) wollen wir klären, ob es schon jetzt erhebliche Probleme mit der Mittelknappheit gibt. Wenn wir feststellen, dass bereits in großem Umfang verdeckt (implizit) rationiert wird – und stark verkürzte Liegezeiten in den Kliniken sowie Terminvergabe ins nächste Quartal oder Einweisung ins Krankenhaus bei erschöpftem Budget niedergelassener Ärzte könnten Anzeichen dafür sein –, dann wären das starke Argumente, über offene (explizite) Leistungsbeschränkungen nachzudenken“, betont Prof. Huster (s. Abb. 1). Zumindest stehen bereits dreiviertel der befragten Krankenhausärzte Leistungseinschränkungen etwa über sog. kostensensible Leitlinien nicht mehr ablehnend gegenüber, wenngleich sie nur begrenzt bereit sind, Behandlungsvorgaben, die ihre Thera- Abb. 1: Eine umfassende Gesundheitsversorgung ist nicht mehr sicher – sagen die Ärzte. piefreiheit einschränken, zu akzeptieren (s. Abb. 2). Die Mediziner, deren Ethos ganz auf die individuelle Arzt-PatientenBeziehung konzentriert ist, zeigten sich in der Befragung unentschlossen, wie das Versorgungssystem auf die Mittelknappheit reagieren soll (Abb. 3). Anhand konkreter Beispiele aus der interventionellen Kardiologie und der Intensivmedizin haben die Bochumer Juristen gemeinsam mit Kollegen aus der Medizinethik und der Gesundheitsökonomie zwei Behandlungsleitlinien entwickelt, die nun erstmals Kostenaspekte berücksichtigen. Diese sog. kostensensiblen Leitlinien betreffen den Einsatz von Koronarstents, die Medikamente freisetzen, die einer erneuten Verengung der Arterien entgegenwirken, sowie die Implantation von DefiKostensensible Leitlinien am Beispiel von Kardiologie und Intensivmedizin brillatoren zur Steuerung von Herzfrequenz und Herzrhythmus. Der Vergleich von beschichteten mit herkömmlichen unbeschichteten Stents zeigt keine Vorteile hinsichtlich der Erkrankung selbst, allerdings senken beschichtete Stents das Risiko einer erneuten Verengung und damit eines wiederholten Eingriffs (Dilatation). Dagegen verringern Defibrillatoren deutlich das Risiko der Sterblichkeit bei Herzrhythmusstörungen (plötzlicher Herztod). Entsprechend der Leitlinie kämen beschichtete Stents bei Patienten mit speziellen Risikofaktoren (kleine Gefäße, lange Läsionen) zum Einsatz. Der Implantation eines Defibrillators wäre der Vorzug vor einer medikamentösen Therapie nur dann zu geben, wenn die Pumpfunktion des Herzens unter 30 Prozent fällt. Nur in diesem Fall würde der zusätzliche Nutzen die Kosten rechtfertigen. 57 Facetten Rubin 2009 Befragung von Krankenhausärztinnen und -ärzten 1. These: Weil die finanziellen Mittel im Gesundheitswesen begrenzt sind, können bereits heute nicht mehr alle medizinisch nützlichen Leistungen bei GKV-Versicherten erbracht werden. 1 9 % 20 % 23 % Gut zwei Drittel der befragten Ärztinnen und Ärzte sind der Meinung, dass aufgrund der Mittelknappheit bereits heute keine optimale medizinische Versorgung mehr möglich ist. 48 % 2. These: Die Vorgaben der Krankenhausleitung sind für meine Behandlungsentscheidungen relevant. 3 % 2 23 % 18 % Achtzig Prozent der Befragten orientieren sich bei der Behandlung nicht mehr ausschließlich am medizinischen Nutzen, sondern beachten auch die Vorgaben der Krankenhausleitung. 57 % 3. These: Gesetzlich verankerte kostensensible Leitlinien würden es erleichtern, Maßnahmen mit einer schlechten Kosteneffektivität vorzuenthalten. 2 % 3 19 % 23 % Für dreiviertel der befragten Ärzte könnten kostensensible Leitlinien, die neben dem Nutzen auch die Kosten medizinischer Maßnahmen berücksichtigen, Behandlungen mit einem sehr schlechten Kosten-NutzenVerhältnis ausschließen. 56 % Stimme voll zu / Sehr relevant Stimme eher zu / Etwas relevant Stimme eher nicht zu / Eher nicht relevant Stimme nicht zu / Überhaupt nicht relevant 4. Wer soll über Effektivität und Relevanz einer medizinischen Maßnahme entscheiden – die Ärzte oder die Gesundheitspolitk? Ärzte betrachten die Entscheidungskompetenz der Gesundheitspolitiker eher skeptisch, obwohl Kosten-Nutzen-Betrachtungen nicht nur medizinischen Sachverstand erfordern (1: überhaupt nicht wichtig, 6: sehr wichtig). 4 100 Ärzte Gesundheitspolitiker 87 % 80 60 40 kussion. Die Entscheidungen den Gesetzlichen Krankenversicherungen, als demokratisch nur wenig legitimierten Organen der Selbstverwaltung, auf Dauer zu überlassen, ist juristisch äußerst umstritten. Die Gesellschaft insgesamt muss klären, was ihr eine soviel bessere Medizin wert ist – jeder einzelne muss darüber nachdenken. Die Bochumer Juristen vermuten sogar, dass sich die Bürgerinnen und Bürger früher als die Politik diesen Fragen stellen werden. „Unsere große repräsentative Umfrage breiter Bevölkerungsgruppen (DFG-Projekt) wird dies zeigen, aber auch, wo die Bürger ihre Versorgungsprioritäten setzen. Sie könnte sogar Anstoß sein für die politische Debatte“, so Prof. Huster. In diesem Projekt geht es um eine umfassendere Betrachtung von Priorisierung. Leitlinien, die auf einer Kosten-Nutzen-Bewertung beruhen, sind dabei nur ein Mittel, man kann auch nach anderen Kriterien priorisieren, z.B. nach Lebensalter, Dringlichkeit oder Selbstverantwortung, und auch das Verhältnis der Kriterien untereinander muss diskutiert werden. Zum Beispiel bei der Verteilung von Organen: Wenn nur ein Organ zur Verfügung steht – bekommt es derjenige, der es am dringendsten braucht, um viel- 21 % 17 % 12 % 2 % 58 Wo werden die Bürger Versorgungsprioritäten setzen? 32 % 20 0 Beide Leitlinien sollen nun einer theoretischen interdisziplinären Diskussion mit Vertretern der Gesundheitspolitik, Ethik, Gesundheitsökonomie dienen und werden von Kardiologen und Intensivmedizinern bewertet. Eine weitere Befragung von Ärzten soll letztlich deren Akzeptanz gegenüber solchen kostensensiblen Leitlinien klären. Wenn Leistungsbeschränkungen nicht zu vermeiden sind – wer soll nach welchen Kriterien darüber entscheiden? Die Gesundheitspolitik scheut bisher die Dis- 9 % 11 % 1 % 1 2 8 % 1 % 0 % 3 4 5 6 Abb. 2: Ärztliche Entscheidungen bei begrenzten finanziellen Ressourcen Facetten Rubin 2009 leicht damit noch ein Jahr zu leben, oder derjenige, der aufgrund seines besseren Gesundheitszustandes noch dreißig Jahre etwas davon hat? Nach der Gerechtigkeit bekäme es der dringlichste Fall. Was aber sagt die Bevölkerung, was hier gerecht ist? Prof. Huster ist gespannt auf die Reaktionen der Bürger zu den Überlegungen der normativen Wissenschaften – der Medizinethik und Jurisprudenz – zu den inhaltlichen Kriterien: So werden in der verfassungsrechtlichen Diskussion „medizinnahe“, etwa auf die Dringlichkeit einer Maßnahme gerichtete Parameter weithin akzeptiert, sie stimmen auch mit der Verfassungsrechtsprechung überein, die insbesondere der Lebenserhaltung einen hohen Stellenwert zumisst. Als weiterer Aspekt gilt die Erfolgsaussicht einer Behandlung, obwohl sie mit dem Kriterium der Dringlichkeit kollidiert und zugleich Gefahr laufen kann, alte und behinderte Menschen systematisch zu benachteiligen. Sehr viel größere juristische Vorbehalte bestehen gegen die Behandlungskosten als Entscheidungskriterium – insbesondere gegen die Festlegung von Kosten-Nutzen-Grenzwerten. Im Gegensatz zu anderen Gesundheitssystemen ist eine ökonomische Bewertung mensch- Abb. 3: Das Ethos der Mediziner ist ganz auf das individuelle Arzt-Patienten-Verhältnis ausgerichtet. Auch deshalb hat die Therapiefreiheit für sie einen hohen Wert. info Zwei interdisziplinäre Projekte sollen der gerechten Leistungsverteilung im Gesundheitswesen dienen: Bestandsaufnahme und Akzeptanzprüfung Projekt I Ethische, ökonomische und rechtliche Aspekte der Allokation kostspieliger biomedizi- Juristische Vorbehalte: gegen Kosten-Nutzen-Grenzwerte nischer Innovationen: Exemplarische Untersuchungen zur expliziten und impliziten Rationierung in der interventionellen Kardiologie und der Intensivmedizin. BMBF-Projekt lichen Lebens nach dem deutschen Verfassungsrecht mit der Menschenwürde und den Grundrechten nach verbreiteter Auffassung nicht vereinbar. Dass für derartige Kosten-Nutzen-Rechnungen häufig keine aussagekräftigen Daten zur Verfügung stehen, dürfte den juristischen Widerstand noch verstärken. Zudem ist eine zunehmende intradisziplinäre Zusammenarbeit der verschiedenen Zweige der Rechtswissenschaft geboten: Denn scheint sich das Krankenversicherungsrecht vorsichtig dem Thema Leistungsbeschränkungen zu nähern, werden im Arzthaftungs- und Medizinstrafrecht die Anforderungen eher erhöht. Demzufolge könnte der Arzt zivil- und strafrechtlich dazu verpflichtet werden, Leistungen zu erbringen, die die Gesetzliche Krankenversicherung nicht mehr bezahlt. Förderung: 560.000 Euro Laufzeit: 2006 bis 2009 Kooperation der Universitäten Tübingen, Duisburg-Essen und Bochum Projekt II Priorisierung in der Medizin: Eine theoretische und empirische Analyse unter besonderer Berücksichtigung der Gesetzlichen Krankenversicherung DFG- Forschergruppe (FOR 655) Förderung: 1,58 Mio. Euro zunächst für drei Jahre Laufzeit: 2007 - 2010, zweite Phase bis 2013 beantragt Kooperation der Universitäten Augsburg, Bayreuth, Bochum, Bremen, Duisburg-Essen, Halle-Wittenberg, Heidelberg, Hannover, Jena, Köln, Leipzig, Lübeck, Münster sowie des Zentrums für Gesundheitsethik, Hannover, und der Frankfurt School of Finance & Management Weitere Informationen Institut für Sozialrecht: http://www.ruhr-uni-bochum.de/ifs/forschung_projekte.html DFG-Projekt: http://www.priorisierung-in-der-medizin.de/ BMBF-Projekt: http://www.iegm.uni-tuebingen.de/allokation 59 Facetten Science goes Public Nachwuchswissenschaftler der Research School der Ruhr-Universität üben sich im Umgang mit den Medien Sie sind die „Global Researcher“ von morgen, die hochqualifizierten Doktorandinnen und Doktoranden der Bochumer Research School, mit deren Konzept die RuhrUniversität zu den Gewinnerinnen der ersten Runde der Exzellenzinitiative des Bundes und der Länder gehörte. Und sie wissen, dass es zunehmend darauf ankommen wird, exzellente Forschungsergebnisse auch verständlich an den fachfernen Mann und die interessierte Frau zu bringen. Die Research School (s. S. 67) unterstützt auch die außerfachlichen Qualifikationen ihrer Graduierten und bot im März dieses Jahres erstmals das Medientraining „Science goes Public“ an. Neunzehn Nachwuchswissenschaftler aus den Natur- und Ingenieurwissenschaften, den Lebenswissenschaften bis hin zu den Geistes- und Kulturwissenschaften schlüpften unter professioneller Anleitung (s. Info) in die Rolle von Journalisten, übten sich im Medieninterview, vor und hinter der Kamera oder im richtigen Auftritt auf einer Pressekonferenz. Die besondere Hausforderung war sicherlich, die wissenschaftlichen Projekte kurz und knapp und vor allem allgemeinverständlich darzustellen – noch dazu die eigenen. Am Ende war es dann für alle ein Gewinn – für die Trainer und die Nachwuchswissenschaftler-journalisten. Abb. 1: Fragt „auf den Punkt“ und erwartet kein wissenschaftliches Referat – Prof. Winfried Göpfert. 60 Rubin 2009 Facetten Rubin 2009 Plasma im Pflaster von Henrik Böttner und Nikolas Knake Experimentalphysik, insb. anwendungsorientierte Plasmaphysik Wer die Plasmatechnologie aus dem Behälter holt, eröffnet völlig neue Anwendungsmöglichkeiten – zum Beispiel in der Medizin. Bochumer Physiker erforschen Plasmen unter Atmosphärendruck und Zimmertemperatur für den zukünftigen Einsatz etwa in der Wundsterilisation oder Kariesprophylaxe. Wer bei Plasma an Blutspenden denkt, liegt weit daneben, moderne Plasmabildschirme kommen dem Forschungsobjekt der Bochumer Plasmaphysiker schon näher: Ihre Plasmen sind elektrisch angeregte Gase. In Energiesparlampen zeigen diese Plasmen bereits eine ihrer nützlichen Seiten: Sie leuchten – je nach Art und Höhe der Energiezufuhr in verschiedenen Farben. Neben dem sichtbaren Licht senden sie auch Strahlung im energiereichen ultravioletten Bereich aus – eine weitere nützliche Eigenschaft. Denn UV-Strahlen töten Mikroorganismen ab und wirken somit desinfizierend. Während Plasmen herkömmlich im Vakuum betrieben werden, was meist an größere Apparaturen, sog. Plasmareaktoren gebunden ist, interessieren sich die Wissenschaftler am Lehrstuhl für anwendungsorientierte Plasmaphysik der Ruhr-Universität für Plasmen unter Atmosphärendruck und Zimmertemperatur. Das heißt, sie werden außerhalb von Behältern, quasi frei im Raum an- und ausgeschaltet. Das eröffnet neue Anwendungsmöglichkeiten etwa in der Medizin. Allerdings lassen sich Plasmen bei relativ hohen Drücken nur in äußerst kleinen Volumen anregen. Gelöst haben die Forscher dieses Problem, indem sie viele Abb. 2: Henrik Böttner und Nikolas Knake sind Fachkollegen und stimmen ihren gemeinsamen Pressetext ab. einzelne Plasmen im Mikrometerbereich zu einem Verbund zusammenfassen. Mit sog. Mikroplasma-Arrays lassen sich Flächen variabler Größe mit UV-Strahlung behandeln. Ein Pflaster mit einem solchen Mikroplasma-Array und einer winzigen Batterie versehen, könnte eine Wunde schützen und zugleich desinfizieren. Unter anderem auch für biomedizinische Anwendungen interessant ist der sog. Plasma-Jet: In einem geringfügig mit Sauerstoffmolekülen versetzten Helium-Gasstrahl werden reaktive Sauerstoffatome, sog. freie Radikale, erzeugt. Das Ballongas Helium fließt zwischen zwei an eine schnelle Wechselspannung angelegte Elektroden. Dabei reißen die elektrischen Felder die Elektronen von Atomen und Molekülen fort und beschleunigen sie. Die schweren Atom- und Molekülrümpfe bleiben na- hezu unbewegt, also kalt. Dagegen gewinnen die Elektronen im schnellen Feld Plasma-Jet: Keime schmerzfrei und berührungslos abtöten genug Energie, um die Sauerstoffmoleküle in einzelne Atome zu spalten. Der kalte Gasstrom mit den reaktiven Sauerstoffatomen eignet sich z.B. zur Kariesbehandlung. Der Plasma-Jet könnte einmal Keime auf Zähnen berührungslos und schmerzfrei abtöten. Doch noch wissen die Bochumer Forscher nicht, welche weiteren Komponenten sich im Plasma bilden und warum und wieviel UV-Licht und atomarer Sauerstoff entstehen. Erst wenn diese Geheimnisse der Plasmen gelüftet sind können Mikroplasma-Array und Plasmajet den Weg in klinische Studien finden. 61 Facetten Rubin 2009 Köln und die Kreuzzüge von Alexander Berner, Geschichte des späteren Mittelalters Das „hohe Mittelalter“ zwischen 1100 und 1300 wird häufig als die Zeit der Kreuzzüge bezeichnet. Religiös aufgeladene Westeuropäer ziehen bewaffnet nach Jerusalem, um dort für Christus gegen die Muslime zu kämpfen und in den meisten Fällen zu sterben – so das heute vorherrschende Bild dieser Zeit. Wenn es auch in der Tendenz zutreffen mag, erfasst es doch die kulturelle, soziale und wirtschaftliche Tragweite dieses mittelalterlichen Massenphänomens nicht in Ansätzen. Aktuelle Untersuchungen machen deutlich, die Kreuzzüge dienten auch als Vermittler und Träger von Kultur. Kreuzritter waren trotz offensichtlicher Lust am Kriegshandwerk keine kulturlosen Blechkameraden. Sie nutzten ihre Pilgerreise auch nicht ausschließlich dazu, fremde Kulturen zu zerstören. Vielmehr nahmen sie ihre eigene Kultur mit auf die Reise. Das ist nicht selten Grund dafür, wenn wir unserer Kultur heute an Orten begegnen, wo wir sie am wenigsten vermuten – etwa den Kölner Ritter Heinrich von Bonn auf einem Friedhof in Lissabon. Während des zweiten Kreuzzuges segelten Kreuzfahrer aus Köln und Umgebung nach Jerusalem. Auf ihrem Weg dorthin halfen sie dem portugiesischen König Alfons I. bei der Eroberung Lissabons. Viele Kölner starben bei den Kämp- Der Kampf um Lissabon blieb keine kulturelle Einbahnstraße. Die Beziehungen zwischen der Rheinmetropole und dem Königreich im äußersten Westen Europas verdichteten sich. So fiel schon die Belohnung für die militärische Hilfe durch Alfons I. sehr großzügig aus: Die Kölner Kaufleute bekamen die vollständige Zollfreiheit im ganzen Königreich Portugal. Auch das Heilige Land selbst hinterließ Blechkameraden nehmen eigene Kultur mit auf Reisen fen um die Stadt und wurden auf einem eigenen Friedhof in Lissabon beerdigt. Heinrich von Bonn, so ist überliefert, soll nach seinem Tod den Lebenden erschienen sein und eindrucksvolle Wunder vollbracht haben: So gab er etwa Blinden das Augenlicht zurück. Aus den Mirakelgeschichten entwickelte sich um den Kölner Ritter ein Heiligenkult. Durch den Kreuzzug wurde Heinrich von Bonn zu einem Heiligen in einem Land, dessen Küste er sonst wohl nie betreten hätte. 62 Abb. 3: Alexander Berner recherchierte auch im Kölner Stadtarchiv. seine Spuren in Köln. Johanniter und Deutscher Orden, Kinder der Kreuzzugsbewegung und der lateinischen Kirche, ließen sich in Köln nieder und erfuhren regen Zuspruch durch fromme Gönner. Wodurch sich das Bild des geistlichen Lebens in Köln auf Jahrhunderte veränderte. Das Trägermedium dieser Veränderungen waren die vermeintlich eindimensionalen Kriegszüge im Zeichen des Kreuzes. Facetten Rubin 2009 Rauchen schadet Männern beim (Zu-)Hören von Constanze Hahn, Institut für Kognitive Neurowissenschaften Dass Rauchen wichtige Prozesse unseres Gehirns, wie Aufmerksamkeit, Lernund Gedächtnisleistungen beeinflusst, ist bereits bekannt. Nun fanden Bochumer Neurowissenschaftler um Prof. Dr. Onur Güntürkün heraus, Rauchen verschlechtert auch das Hören von Sprache – aber nur bei Männern. Sie führen dies auf die Verarbeitung der Nervensignale unter Nikotineinfluss zurück, die sich bei Männern und Frauen unterscheidet. In ihrer Studie untersuchten die Forscher das Hören von sprachlichen Lauten bei rauchenden und nichtrauchenden Probanden. Männer und Frauen hörten über Kopfhörer Silben, die sie dann entsprechend auf einem Antwortpad antippen sollten. Dabei bekam jedoch jedes Ohr zeitgleich eine andere Silbe dargeboten, etwa auf dem linken Ohr ein „ta“ und auf dem rechten Ohr ein „ga“. Möglicherweise könnten die neuen Erkenntnisse auch der klinisch-psychiatrischen Forschung zugute kommen. So geht etwa die Erkrankung Schizophrenie mit ähnlich veränderten Hirnprozessen einher, wie sie bei rauchenden Männern festgestellt wurden. Da überdurchschnittlich viele an Schizophrenie erkrankte Patienten rauchen, stellt sich die Frage, ob Rauchen vielleicht das Entstehen der Erkrankung begünstigen oder den vorhandenen Symptomen entgegenwirken könnte. Abb. 4: Constanze Hahn ist gespannt auf die Ergebnisse der klinisch-psychiatrischen Folgestudie. Hörtest: „ta“ auf dem linken, „ga“ auf dem rechten Ohr Unsere linke Gehirnhälfte ist auf die Verarbeitung von Sprache spezialisiert und darin besser als die rechte. Zudem verlaufen die Nervenfasern des linken Ohres vorwiegend in die rechte Gehirnhälfte und umgekehrt. Daher dominiert bei der beschriebenen Höraufgabe meistens das rechte Ohr, also das „ga“, das direkt mit der linken, sprachspezialisierten Gehirnhälfte verbunden ist. Bei den rauchenden Männern war dieser Effekt abgeschwächt, weil die eigentlich spezialisierte linke Gehirnhälfte unter Nikotineinfluss schlechter funktionierte. Bei Frauen war dieser Effekt nicht zu beobachten, da ihr Gehirn generell etwas anders funktioniert: Die Gehirnhälften bei Frauen sind weniger spezialisiert und arbeiten enger zusammen. Weitere Studien sollen nun Aufschluss darüber geben, wie genau sich die Gehirnprozesse von Männern und Frauen in Bezug auf Nikotin unterscheiden. 63 Facetten Einsturzgefahr! Simulationsmodell soll Tunnelvortrieb sicherer machen von Felix Nagel, Lehrstuhl für Statik und Dynamik Rubin 2009 Stabilisierungsmaßnahmen realistisch und zuverlässig vorhersagen lassen. Für diese komplexe Aufgabe entwerfen Bochumer Baustatiker um Prof. Dr. Günther Meschke spezielle Computermodelle zur Analyse des Tunnelvortriebs. Wichtigster Bestandteil eines solchen Modells ist der Abb. 6 : Volkhart Wildermuth vermittelt das A und O eines Pressetextes und spricht die ersten Entwürfe der jungen Forscher mit ihnen durch. (s. S. 65, oben) nern, dem Grundwasser und der Luft in den Poren zwischen den festen Körnern. Von dieser Mischung hängt das Verhalten des Bodens ab: Luft und Wasser strömen durch den Porenraum und verursachen mit der Zeit Verformungen. Tunnel, Tunnelbohrmaschine und Baugrund in einem Modell Abb. 5: Felix Nagels Forschungsthema ist so komplex, dass es sich nur durch Simulation am Computer erfassen lässt. Immer wieder ist von Katastrophen bei Tunnelbauarbeiten zu hören, zuletzt vom Einsturz des Kölner Stadtarchivs. Denn ein sensibles Verhältnis bilden Tunnelvortrieb und der ihn umgebende Baugrund. Bochumer Baustatiker analysieren deren Wechselwirkungen und entwickeln ein Computermodell, mit dem sich mögliche Risiken beim Tunnelbau leichter und zuverlässiger vorhersagen lassen. Tunnelvortriebsmaschinen machen es möglich, U-Bahn- und Straßentunnelbauwerke auch unter schwierigen Bedingungen in Angriff zu nehmen. Die Maschine baut den Boden unterirdisch ab und in ihrem Schutz wird die Tunnelröhre errichtet. Mit dem Tunnelbau verbundene Risiken gehen vor allem vom Boden aus, der ununterbrochen stabilisiert werden muss, um größere Setzungen oder sogar einen Einsturz der Tunnelbaustelle zu vermeiden. Daher greifen Ingenieure schon beim Entwurf eines Tunnelbauwerks auf Berechnungsmodelle zurück, mit denen sich die Auswirkungen unterschiedlicher 64 den Tunnelbau umgebende Baugrund. Er besteht aus einer Mischung von Bodenkör- Der Tunnelvortrieb interagiert ständig mit den Bodenbestandteilen und kann zum Beispiel zum Ansteigen des Wasserdruckes oder der im Boden wirkenden Kräfte führen. Die dabei auftretenden Prozesse sind so komplex, dass sie nur noch durch Simulationsverfahren am Computer beschrieben werden können. Die Bochumer Forscher bilden den Bauprozess in einem Modell nach, das neben der Tunnelbohrmaschine und dem Tunnel auch den umgebenden Baugrund, seine Schichtung und die Grundwasserverhältnisse mit erfasst. Die Strömungen des Grundwassers und der im Boden befindlichen Luft lassen sich nun ebenso wie die Spannungen und Verformungen des Bodens und deren zeitlicher Verlauf nachvollziehen. info Media Skills Training „Science goes Puplic“ Das Medientraining „Science goes Public“ fand im Rahmen der Winterakademie der Research School im März 2009 an der Ruhr-Universität statt. Die Trainer Prof. Winfried Göpfert (em.), Wissenschaftskommunikation und Wissenschaftsjournalismus, FU Berlin; Wisskomm – Gesellschaft für Wissenschaftskommunikation Jörg Göpfert, freier Wissenschaftsjournalist, spezialisiert auf Umwelt, Naturwissenschaft, Medizin und Soziales, TV/Hörfunk Volkhart Wildermuth, freier Wissenschaftsjournalist spezialisiert auf Lebenswissenschaften, Hörfunk/WDR/Deutschlandfunk Das Programm Wissenschaft als Medienthema, Präsentation von Arbeitsgebieten, Medieninterviews, Kameratraining, Pressekonferenz und Pressemitteilung Rubin 2009 Facetten 65