Spektrum der Wissenschaft 2010 03

Werbung
ESSAY
Die Würde
des Menschen
ist antastbar!
MÄRZ 2010
MOR PHO GENE SE
ME TROLO GIE
A RCH ÄOLO GIE
Wie entwickeln
Lebewesen ihre Form?
Die Zukunft der
physikalischen Einheiten
7000 Jahre alte
Basttaschen und Schnüre
Geschwister
der Sonne
Unser Heimatstern
entstand inmitten
explodierender
Himmelskörper
7 ,40 € (D/A) · 8,– € (L) · 14,– sFr.
D6179E
03/10
DEUTSCHE AUSGABE DES
EDITORIAL
Reinhard Breuer
Chefredakteur
Rettung aus der Retorte ?
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010
als Haut- und Knorpelstücke haben die
Bioingenieure auch nach Jahrzehnten
intensiver Laborforschung nicht auf den
Markt gebracht. Das ist enttäuschend, vor
allem für jene, die dringend auf ein
Ersatzorgan warten. Eines der Probleme
ist offenbar die Zucht künstlicher Blutge­
fäße für Gewebe, die mehr Energie ver­
brauchen als die Haut und deshalb über
Adern versorgt werden müssen. Drei
Pioniere des Tissue Engineering schildern
in dieser Ausgabe den Stand der Dinge
und eine Perspektive, die immerhin
zu vorsichtiger Hoffnung Anlass gibt
(S. 88).
Bioethische Debatten haben das Land in
den letzten Jahren immer wieder erschüt­
tert, zumal bei neuen Gesetzgebungs­
verfahren – ob zu Genetik, Embryonen­
schutz, Stammzellen oder Sterbehilfe.
Häufig wird dabei die »Würde des Men­
schen« ins Feld geführt, was auf den
ersten Blick einleuchtet und oft die Debat­
te beendet. Doch ist dieses Argument
immer ehrlich und stichhaltig? Oder
handelt es sich manchmal um eine vorge­
schobene Leerformel, die als Totschlag­
argument genutzt wird? Der Bioethiker
Edgar Dahl geht dieser Frage in unserem
Essay nach. Nach seiner provokanten
Meinung hat der Begriff der Menschenwür­
de in der bioethischen Diskussion einfach
»nichts verloren« (S. 70).
mit frdl. Gen. von Edgar Dahl
Seit geraumer Zeit trage ich einen Organspendeausweis bei mir. Das ist eine Not­
hilfe im Dienst am Nächsten. Und ich wäre
glücklich, wenn dadurch vielleicht einmal
einem Unbekannten in lebensbedrohlicher
Situation geholfen werden könnte. Damit
zähle ich laut Statistik zu den 14,6 Men­
schen pro eine Million Bundesbürger, die
für den Fall ihres Todes einer Organspende
zugestimmt haben.
Das ist viel zu wenig, und daher läuft
hier auch permanent ein stilles Drama ab.
Jährlich werden in Deutschland knapp
4700 Organe (Stand 2008) transplantiert,
nach ihrer Häufigkeit hauptsächlich Niere
und Leber, gefolgt von Herz, Bauchspei­
cheldrüse und Lunge. Dazu kommen
allerlei Gewebe, von der Augenhornhaut
über Knorpel bis zu Darmteilen. Doch dem
stehen aktuell 12 000 Patienten gegen­
über, die dringend auf ein Spenderorgan
warten. Da ist es kein Wunder, dass nicht
wenige von ihnen sterben, bevor ihnen
Hilfe zuteilwerden kann.
Die zögerliche Haltung vieler Menschen
zu Organspenden kann man nachvollzie­
hen, auch wenn mir manche Befürchtungen
irrational und unangebracht erscheinen.
Aber trotz Aufklärung wird sich an diesem
Missstand, schätze ich, so rasch nichts
ändern. Umso bedeutender sind alterna­
tive Wege, die das Übel zumindest tenden­
ziell lindern können. Ich spreche vom
Organ­ersatz »aus der Retorte«. Mensch­
liche Gewebe künstlich zu erzeugen, ist
ein Traum der Biotechnologen. Doch mehr
Der Bioethiker Edgar Dahl fordert
ehrliche Debatten ohne Totschlagargumente.
Herzlich Ihr
3
Inhalt
44
medizin & biologie
Neues vom Ursprung des Lebens
mensch & geist
Bast und Schnüre aus der Jungsteinzeit
62
34
astronomie & physik
Nur noch mit Naturkonstanten: die
physikalischen Einheiten der Zukunft
aktuell
12Spektrogramm
astronomie & physik
medizin & biologie
Schlichting!
44Wie das Leben entstand
25Wie aus dem Nichts geschöpft
Dank einer menschlichen »Leinwand«
wird ein Puzzle aus Spiegelungen
durchschaubar
Wächter der Weiblichkeit · Exoplanet
mit kochendem Ozean · Vogelsaurier
mit Giftzähnen · Bruchfestes Sandwich ·
Gut organisierte Frühmenschen u. a.
15Bild des Monats
Feuerwerk der Gene
16Vierzig Tage in der Wasserwüste
26 r Die Suche nach den
Geschwistern der Sonne
Suche nach Leben unter Extrem­
bedingungen im Meeresboden
18Gelähmte Abwehr Ein Protein des Aidserregers macht
Immunzellen bewegungsunfähig
TITEL
Geburtsort unseres Zentralgestirns
war ein Sternhaufen. Seine ehema­
ligen Mitglieder vermuten Forscher
nun ganz in der Nähe
Für immer mehr der noch ungeklärten
Schritte auf dem Weg zu den ersten
Lebewesen finden sich plausible bioche­
mische Mechanismen
52r Embryonalentwicklung –
mathematisch modelliert
Die Eigenschaften der Stoffe, welche die
Entwicklung vom Ei zum vollständigen
Organismus steuern, lassen sich durch
Computersimulationen bestimmen, bevor
die Stoffe selbst bekannt sind
20Heilende Textilien
Wie Kleidungsstücke als Depot für
Medikamente dienen können
22Kopenhagen – quo vadis?
Kommentar zum Scheitern des
Klimagipfels
24Springers Einwürfe
Schluss mit der Klimakatastrophe!
34r Die Zukunft von
Kilogramm und Co.
Immer höhere Anforderungen an die
Präzision der Messtechnik verlangen neue
Standards. Das internationale System
physikalischer Einheiten der Zukunft
wird deshalb nur noch anhand von
Naturkonstanten definiert sein
Titelmotiv: Ron Miller
Die auf der Titelseite angekündigten Themen sind
markierten Artikel
mit r gekennzeichnet; die mit
finden Sie auch in einer Audioausgabe dieses
Magazins, zu beziehen unter: www.spektrum.de/audio
70
mensch & geist
Menschenwürde in der Bioethik
88
Titel
Geschwister der Sonne
26
technik & computer
Organersatz aus der Retorte
mensch & geist
erde & umwelt
technik & computer
62r Steinzeit jenseits der Steine
Porträt
Wissenschaft im Alltag
78Spurenleser im Klimalabyrinth
86Auf den Punkt gehört
Hölzer, Bast und Rindenpech aus der
Jungsteinzeit, in Brunnen entdeckt,
beleuchten den Alltag vor 7000 Jahren
Essay
70r Die Würde des
Menschen ist antastbar!
Der Klimaforscher Gerald Haug gewinnt
aus dem Studium einstiger Klimaände­
rungen Erkenntnisse von hoher Brisanz
für die Zukunft der Menschheit
88Tissue Engineering –
Gewebezucht im Labor
Einfachere biologische Strukturen aus
der Retorte sind schon klinisch im
Einsatz. Ein nächster großer Schritt wird
sein, größere Züchtungen mit Blutge­
fäßen zu versehen
Edgar Dahl begründet, warum der
Begriff der Menschenwürde in bioethi­
schen Debatten nichts zu suchen hat
Mathematische Unterhaltungen
Wissenschaft & KArriere
74Das optimale Straßennetz
Der Punkt, von dem aus die Summe der
Entfernungen zu den Ecken eines Drei­
ecks minimal ist, hat interessante Eigen­
schaften – physikalisch wie geometrisch
Richtlautsprecher können Informationen
gezielt übertragen
Seite 104
102Damit der Fan seine
Schokolade wiedererkennt
Interview mit dem Lebensmitteltechno­
logen Günther Fischer über die Kunst,
neue Schokoladensorten zu entwickeln
Weitere Rubriken
3Editorial: Rettung aus der Retorte?
6Onlineangebote
8Leserbriefe/Impressum
85Im Rückblick
106Vorschau
98Rezensionen: J . Elphick (Hg.) Atlas des Vogelzugs – Die Wanderung der Vögel auf unserer Erde
C. Drösser Hast Du Töne? – Warum wir alle musikalisch sind
H. Dambeck Numerator – Mathematik für jeden
Wiley-VHC Orbit Molekülbaukasten Chemie
Online
fotolia / Laurence Gough
Ronald C. James, aus: Ronald G. Garraher und Jacqueline B. Thurston,
Optical illusions and the visual Arts, 1966
Dies alles und vieles mehr
finden Sie in diesem Monat
auf www.spektrum.de.
Lesen Sie zusätzliche Artikel,
diskutieren Sie mit und
­stöbern Sie im Heftarchiv!
spektrumdirekt Was kommt nach dem Öl?
www.spektrumdirekt.de/energie
tipps Formen sehen, wo keine sind
www.spektrum.de/artikel/1020817
Tipps
Interaktiv
Was kommt nach dem Öl?
Formen sehen, wo keine sind
Die Frage nach der Energie der Zukunft
oder dem richtigen Energiemix ist noch
längst nicht beantwortet. spektrumdirekt
berichtet unter anderem über Designerbakterien, die Biodiesel herstellen, Chancen
der geothermischen »Energie aus dem
Untergrund« sowie eine Solarzelle aus
Glas­fasern und Nanoröhrchen
Experimentatoren ist es ein Leichtes, ihre Versuchspersonen dem Gefühl eines teilweisen
Kontrollverlustes auszusetzen. Diese beginnen
dann, Bedeutungsvolles auch dort wahrzunehmen, wo nur der Zufall herrscht. »Scientific
American«-Kolumnist Michael Shermer über
eine »Science«-Studie, die zeigt, wie Aberglaube
und Verschwörungstheorien gedeihen können
Wunschartikel – 14. Runde:
»Der Glücksfall als Programm«
Nur einen Klick entfernt
Machen Sie mit!
Die Wissenschaftszeitung im Internet
www.spektrumdirekt.de/energie
www.spektrum.de/artikel/1020817
Aufstieg und Niedergang
Tod auf dem Dach der Welt
Derzeit läuft wohl die sechste große
­Aussterbewelle der Erdgeschichte über den
Planeten. Was bedroht die Tier- und
­Pflanzenarten? Und wie können sie gerettet
werden?
Fünf neue Bücher, vorgestellt vom SpektrumSchwestermagazin epoc, berichten unter
an­derem über das rätselhafte Ende des Bergsteigers George Mallory auf dem Mount Everest,
zeichnen die Entstehungsgeschichte der Bibel
nach und stellen Pioniere der Archäologie vor
www.spektrumdirekt.de/artenvielfalt
Weit über 800 Leserinnen und Leser haben
sich an unserer 14. Wunschartikelrunde
beteiligt und überraschend einige unserer
eigenen Favoriten auf die Plätze verwiesen.
Hier stellt Spektrum-Chefredakteur Reinhard
Breuer die Ergebnisse vor; Ihren Wunschartikel veröffentlichen wir in der Aprilausgabe
www.spektrum.de/artikel/1015414
www.epoc.de/artikel/1019641
Alle Publikationen unseres
Verlags sind im Handel,
im Internet oder direkt über
den Verlag erhältlich
FReigeschaltet
»Geheimgang zum Gehirn«
www.gehirn-und-geist.de/artikel/1018714
Hamburger Sternwarte
Spektrum in den sozialen Netzwerken
Für Abonnenten »Ein Hamburger Auge in Mexiko«
Für Abonnenten
Ihr monatlicher Plus-Artikel
zum Download
»Ein Hamburger Auge in Mexiko«
Jahrelang ist das »Hamburg Robotic Telescope« getestet worden, nun reist das
1,2-­Meter-Instrument zur Sternwarte der
mexikanischen Universidad de Guanajuato.
Hier sollen spektroskopische Langzeitüber­
wachungen unter günstigen astronomischen
Bedingungen neue Einblicke in die magnetische Aktivität von Sternen erlauben
Dieser Artikel ist für Abonnenten
frei zugänglich unter
www.spektrum-plus.de
www.spektrum-plus.de
www.spektrum.de/studivz
www.spektrum.de/facebook
www.spektrum.de/twitter
Freigeschaltet
Ausgewählte Artikel aus epoc und
Gehirn&Geist kostenlos online lesen
»Die Rettung des
Königreichs der Himmel«
Kaum etwas hat die Beziehungen zwischen
Christen und Muslimen so nachhaltig belastet
wie die Kreuzzüge ins Heilige Land. Den
zahlreichen Motiven für die kriegerischen
Unternehmungen geht der britische Religionswissenschaftler John Bowker auf den Grund
Diesen Artikel finden Sie als KOSTENLOSE
Leseprobe von epoc unter
www.epoc.de/artikel/1019621
»Geheimgang zum Gehirn«
www.spektrum.com
[email protected]
Telefon 06221 9126-743
Eine Behandlung mit Stammzellen verheißt
Heilung für viele neurologische Krankheiten.
Doch wie befördert man sie durch die BlutHirn-Schranke? Vielleicht ist das gar nicht
nötig, sagen die Mediziner Lusine Danielyan,
Christoph Gleiter und Felix Bernhard. Sie
erforschen eine Alternativroute ins Gehirn, die
von der Nase über den Riechnerv führt
Diesen Artikel finden Sie als kostenlose
Leseprobe von gehirn&geist unter
www.gehirn-und-geist.de/artikel/1018714
Die Wissenschaftsblogs
Mit Verstand und Hammer
Nein, es war kein Nanothermit-Sprengstoff,
der 2001 die Türme des World Trade
Center zum Einsturz brachte. Eine 2009
veröffentlichte Studie, die genau dies
andeutet, wird von Gunnar Ries nun
regelrecht seziert. »Mente et malleo«, mit
Verstand und Hammer, so hat der neue
WissensLogger vom Geologisch-Paläontologischen Institut und Museum der Universität Hamburg angekündigt, will er die
Erde erkunden, und nimmt künftig auch
seine Leser mit in die Welt der Mineralogie
und Geologie. Derweil sinniert ein Mathematiker (»Mathematik im Alltag«) über die
Frage, wie dicht sich Tetraeder packen
lassen, eine Physikerin (»Zündspannung«)
hält uns über ein Plasmakristall-Experiment
auf der ISS auf dem Laufenden, und ein
Chemiker (»Fischblog«) berichtet über den
Vormarsch neuartiger Pilzinfektionen
www.wissenslogs.de
leserbriefe
Liberal in die Krise?
Organisationsformen jenseits des
Marktes – Nobelpreis für Wirtschaftswissenschaften, Forschung
aktuell, Dezember 2009
Mit der Vergabe des Nobelpreises für
Wirtschaftswissenschaften an Elinor Ostrom hielt das Nobelkomitee respektvollen Abstand zur Thematik der Bankenkrise. Die Laureatin befasste sich schließlich mit dem Agrarbereich. Ich denke
jedoch, dass die Finanzmisere bei der
Nobelpreisentscheidung sehr wohl eine
Rolle spielte.
Es war liberales Gedankengut – der
Verzicht auf staatliche Einmischung –,
das zu der Krise führte. Noch ist sie nicht
völlig überwunden, da geht die Finanz­
welt schon wieder zur Tagesordnung
über. Es wird weiter spekuliert, die Boni
sind immer noch unverschämt hoch.
Offensichtlich soll alles beim Alten bleiben. Dazu passt der diesjährige Wirtschaftsnobelpreis an Elinor Ostrom, die
wie ihr Mann Vincent klassischem liberalem Gedankengut zugeneigt ist.
Zentrales Ergebnis ihrer Arbeiten ist,
dass Kollektive Gemeingüter oft besser
ohne staatliches Eingreifen verwalten.
Nachgewiesen hat Ostrom dies jedoch
nur für kleine, überschaubare Gruppen,
deren Mitglieder sich in der Regel persönlich gekannt haben dürften. Das geht
auch aus den von Ostrom aufgestellten
Bedingungen für die erfolgreiche Selbstverwaltung hervor. So ist eine Mitwirkung aller Betroffenen nur bei kleinen
Gruppen möglich (Bedingung 3). Um
ihren Ansatz auf größere Gruppen auszudehnen, führt Ostrom die Unterteilung
Chefredakteur: Dr. habil. Reinhard Breuer (v.i.S.d.P.)
Stellvertretende Chefredakteure: Dr. Inge Hoefer (Sonderhefte),
Dr. Gerhard Trageser
Redaktion: Thilo Körkel (Online Coordinator), Dr. Klaus-Dieter
Linsmeier, Dr. Christoph Pöppe, Dr. Adelheid Stahnke;
E-Mail: [email protected]
Ständiger Mitarbeiter: Dr. Michael Springer
Schlussredaktion: Christina Meyberg (Ltg.), Sigrid Spies,
Katharina Werle
Bildredaktion: Alice Krüßmann (Ltg.), Anke Lingg, Gabriela Rabe
Art Direction: Karsten Kramarczik
Layout: Sibylle Franz, Oliver Gabriel, Marc Grove,
Anke Heinzelmann, Claus Schäfer, Natalie Schäfer
Redaktionsassistenz: Britta Feuerstein, Petra Mers
Redaktionsanschrift: Postfach 10 48 40, 69038 Heidelberg,
Tel. 06221 9126-711, Fax 06221 9126-729
Verlag: Spektrum der Wissenschaft Verlagsgesellschaft mbH,
Postfach 10 48 40, 69038 Heidelberg;
Hausanschrift: Slevogtstraße 3–5, 69126 Heidelberg,
Tel. 06221 9126-600, Fax 06221 9126-751;
Amtsgericht Mannheim, HRB 338114
Verlagsleiter: Dr. Carsten Könneker, Richard Zinken (Online)
Geschäftsleitung: Markus Bossle, Thomas Bleck
Herstellung: Natalie Schäfer, Tel. 06221 9126-733
Marketing: Annette Baumbusch (Ltg.), Tel. 06221 9126-741,
E-Mail: [email protected]
Einzelverkauf: Anke Walter (Ltg.), Tel. 06221 9126-744
Übersetzer: An diesem Heft wirkten mit: Dr. Markus Fischer,
Dr. Rainer Kayser.
und Bestellservice: Helga Emmerich, Sabine Häusser,
LeserUte Park, Tel. 06221 9126-743, E-Mail: [email protected]
8
www.spektrum.de/leserbriefe
in Verbände ein. Die hierarchische Erweiterung eines Kollektivs ist aber nicht
trivial. Die Aufteilung muss organisiert
werden. Oft spielen Interessen dabei eine
Rolle. Falls eine solche Erweiterung trotzdem gelingt, kommt man bei etwa 30
Mitgliedern für ein überschaubares Kollektiv und 30 Verbänden aber auch nur
auf 900 Individuen. Das ist nicht viel.
Bei noch größeren Organisationen liefert Ostroms Arbeit keinen Grund, warum die Selbstverwaltung besser funktionieren sollte als die staatliche Lenkung.
So ist nicht zu erwarten, dass die weltweite Ausbeutung von Umweltgütern
durch eine freiwillige Übereinkunft zwischen denen, die sich daran bereichern,
beendet wird.
Roland Maier, Riemerling
Darwins Zuchtwahl
Haben schöne Eltern mehr Töchter?
Februar 2010
Clevere Thermoskanne
Vorsicht, heiß!, Wissenschaft
im Alltag, Dezember 2009
Für den Temperaturbereich 0 °C bis
100 °C liegt die thermische Strahlung
im Wellenlängenbereich 2 µm bis 100
µm (mittleres Infrarot). Praktisch alle
Flüssigkeiten und Feststoffe sind dafür
undurchsichtig, so dass Wärmestrahlung innerhalb des Gefäßes keine Rolle
spielt. In der Flüssigkeit selbst wird
Wärme durch Leitung und (freie) Konvektion transportiert, in der Wandung
ausschließlich durch Wärmeleitung.
Interessant wird es erst im gasgefüllten Hohlraum: Dort gibt es alle
drei Phänomene. Soll der Hohlraum
thermisch isolieren, verhindert ein ausreichend gutes Vakuum Leitung und
Konvektion. Es bleibt der Strahlungsaustausch der einander gegenüber­
liegenden Hohlraumoberflächen. Um
diesen zu verhindern, verspiegelt man
sie beispielsweise mit Silber. Ganz
ähnlich, wenn auch nicht evakuiert,
funktionieren Isolierglasscheiben. Hier
scheint die »Verspiegelung« auch noch
durchsichtig! Doch nur für unsere
Augen, der Wärmetransport findet,
wie gesagt, im mittleren Infrarot statt.
Die Frage, ob bestimmte Eigenschaften
der Eltern das Geschlecht der Nachkommen beeinflussen, ist so dumm nicht,
und schon Darwin hat sich hiermit in
seinem Buch »Die Abstammung oder der
Ursprung des Menschen« (8. Kapitel) im
Zusammenhang mit der sexuellen Zuchtwahl beschäftigt. Er referiert ausführlich
die ihm zugänglichen Geburtsregister
von Menschen und Pferden, weiterhin
Beobachtungen bei Hunden, Schafen,
Rindern, Vögel, Fischen und Insekten.
Rein statistisch müsste sich bei großen
Zahlenreihen etwa ein Verhältnis von 1 : 1
ergeben, was aber offensichtlich nicht
immer der Fall ist. Darwin selbst berichtet über die Beobachtung, dass uneheliche Kinder häufiger Mädchen sind, und
führt dies zurück auf die größere Robustheit der Mädchen, welche die Risiken
einer Stressschwangerschaft besser über­
Die
des »multiplen
Universums«
Vertrieb Idee
und Abonnementverwaltung:
Spektrum
der Wissenschaft
Verlagsgesellschaft mbH, c/o ZENIT Pressevertrieb GmbH,
verspricht
viel
und
hält
wenig.
Die EinPostfach 81 06 80, 70523 Stuttgart, Tel. 0711 7252-192, Fax 0711
7252-366, E-Mail: [email protected],
Vertretungsberechbeziehung
des
Messapparats
in
die
quantigter: Uwe Bronn
Bezugspreise: Einzelheft �€Beschreibung
� 7,40/sFr. 14,00; im Abonnement
�
tentheoretische
ist nahelie€� 79,20 für 12 Hefte; für Studenten (gegen Studiennachweis)
gend
und
wurde
von J. von
Neu€�� 66,60. Die
Preise
beinhaltenschon
�€� 7,20 Versandkosten.
Bei Versand
ins Ausland fallen €� 7,20 Portomehrkosten an. Zahlung sofort
mann
(1932)Konto:
verfolgt.
nach Rechungserhalt.
Postbank Stuttgart 22 706 708 (BLZ
600 100 70). Die Mitglieder des Verbands Biologie, BiowissenDas
resultierende
Messproblem
der
schaften
und Biomedizin
in Deutschland
(VBio) und von Mensa e.
V.
erhalten SdW zum Vorzugspreis.
Quantentheorie
besteht
im
Kern
darin,
Anzeigen: iq media marketing gmbh, Verlagsgruppe Handelsblatt
GmbH; Bereichsleitung
Marianne
Anzeigenleitung:
dass
die lineareAnzeigen:
Struktur
desDölz;
Hilbertraums
Jürgen Ochs, Tel. 0211 6188-358, Fax 0211 6188-400; verantwortlich für Anzeigen: Ute Wellmann,Möglichkeiten)
Postfach 102663, 40017 mit
(quantenmechanische
Düsseldorf, Tel. 0211 887-2481, Fax 0211 887-2686
den
eindeutigen
jeder MesAnzeigenvertretung:
Berlin: Ergebnissen
Michael Seidel, Friedrichstraße
150,
10117 Berlin, Tel. 030 61686-144, Fax 030 61696-145; Hamburg:
sung
(klassische
Fakten)
nicht
übereinMatthias Meißner,
Brandstwiete
1 / 6. OG, 20457
Hamburg,
Tel. 040 30183-210, Fax 040 30183-283; Düsseldorf: Hans-Joachim
stimmt.
Beier, Kasernenstraße 67, 40213 Düsseldorf, Tel. 0211 887-2053,
Fax 0211
887-2099;
Frankfurt: Thomas
Eschersheimer
Dieses
Problem
wirdWolter,
man
gerade Landbei
straße 50, 60322 Frankfurt am Main, Tel. 069 2424-4507,
Fax 069 2424-4555;Anwendung
Stuttgart: Andreas Vester,
Werastraße
23,
universeller
der
Quantenthe70182 Stuttgart, Tel. 0711 22475-21, Fax 0711 22475-49;
München:
Jörg Bönsch,
Straße 14,
80335
München,
orie
nicht
los. Nymphenburger
Zudem lassen
sich
alle
AusTel. 089 545907-18, Fax 089 545907-24
sagen
von an:
»kopenhagenerisch«
in »mulDruckunterlagen
iq media marketing gmbh, Vermerk:
tiversisch« übersetzen. Wer statt »Eine
Möglichkeit wurde realisiert, und die anderen sind weggefallen« sagt: »Unser Universum hat sich geteilt, und wir sehen nur
einen Zweig«, der liefert nicht mehr
als ein fantasieanregendes Erklärungs­
placebo. Denn Universenteilung ist nicht
leichter zu verstehen als Faktenentstehung. Schon gar nicht kann sie »aus den
Gleichungen selbst« abgelesen werden.
Letztlich werden hier einfach nicht realisierte Möglichkeiten mit fernen WirklichISSN 0170-2971
keiten verwechselt.
SCIENTIFIC AMERICAN
Mein hartes Fazit: Everetts Ansatz wur75 Varick Street, New York, NY 10013-1917
Editor nicht
in Chief: Mariette
DiChristina,
Stevenignoriert,
Inchcoombe,
de
damals
zu President:
Unrecht
Vice President, Operations and Administration: Frances Newburg,
Vice President,er
Finance,
Businesszu
Development:
Michael
Florek,
sondern
wirdandheute
Unrecht
hofiert.
Managing Director, Consumer Marketing: Christian Dorbandt, Vice
and Publisher: Bruce Brandfon
Helmut Fink, Nürnberg
President
Spektrum der Wissenschaft, Kasernenstraße 67, 40213 Düsseldorf,
Tel. 0211 887-2387, Fax 0211 887-2686
Anzeigenpreise: Gültig ist die Preisliste Nr. 31 vom 01. 01. 2010.
Gesamtherstellung: L.N. Schaffrath Druckmedien GmbH & Co. KG
Marktweg 42 – 50, 47608 Geldern
Franz Feldmeier, Rosenheim
Sämtliche Nutzungsrechte an dem vorliegenden Werk liegen bei
der Spektrum der Wissenschaft Verlagsgesellschaft mbH. Jegliche
Nutzung des Werks, insbesondere die Vervielfältigung, Verbreitung,
öffentliche Wiedergabe oder öffentliche Zugänglichmachung, ist
ohne die vorherige schriftliche Einwilligung des Verlags unzulässig.
Jegliche unautorisierte Nutzung des Werks berechtigt den Verlag
zum Schadensersatz gegen den oder die jeweiligen Nutzer.
Bei jeder autorisierten (oder gesetzlich gestatteten) Nutzung
des Werks ist die folgende Quellenangabe an branchenüblicher
Stelle vorzunehmen: © 2010 (Autor), Spektrum der Wissenschaft
Verlagsgesellschaft mbH, Heidelberg.
Jegliche Nutzung ohne die Quellenangabe in der vorstehenden
Form berechtigt die Spektrum der Wissenschaft Verlagsgesellschaft
mbH zum Schadensersatz gegen den oder die jeweiligen Nutzer.
Wir haben uns bemüht, sämtliche Rechteinhaber von Ab­bildungen
zu ermitteln. Sollte dem Verlag gegenüber der Nachweis der
Rechtsinhaberschaft geführt werden, wird das branchenübliche
Honorar nachträglich gezahlt. Für unaufgefordert eingesandte
Manuskripte und Bücher übernimmt die Redaktion keine Haftung;
sie behält sich vor, Leserbriefe zu kürzen.
Erhältlich im Zeitschriften- und Bahnhofs­
SPEKTRUM
DER
· März 2010
buchhandel
undWISSENSCHAFT
beim Pressefachhändler
mit diesem Zeichen.
Spektrum der Wissenschaft / Meganim
Thermoskanne mit Silberbeschichtung
Trinkbehälter
Außengefäßwand
(z. B. Kunststoff)
Wärmetransport
durch Konvektion
Wärmeleitung
Wärmestrahlung
Wärmeleitung
Glasgefäß mit Silberbeschichtung
Wärmestrahlung
Vakuum
heißes Getränk
heißes Getränk
Eine Thermoskanne hält Flüssigkeiten lange heiß beziehungsweise kalt.
stehen als Jungen. Und er schreibt: »Wir
haben Grund zu vermuten, dass der
Mensch in manchen Fällen durch Zuchtwahl indirekt sein eigenes, Geschlecht erzeugendes Vermögen beeinflusst hat.«
Dr. Georg Stürmer, Stuttgart
Englisch vs. deutsch
Schwarze Sterne an Stelle Schwarzer
Löcher?, Februar 2010
Der Artikel verwendet offenbar nicht die
im deutschen Sprach­gebrauch üblichen
Fachbegriffe. Aus dem stress energy tensor
wurde so ein »Spannungs-Energie-Tensor«, der aber meines Wissens im Deutschen »Energie-Impuls-Tensor« heißt.
Dr. Jürgen Clade, Würzburg
Antwort der Redaktion:
Der Leser hat Recht. Jedoch sprach Einstein 1913 selbst vom »Spannungs-Energietensor der materiellen Strömung«.
SPEKTRUM DER WISSENSCHAFT · März 2010 Vorsicht Selbstzensur
Lebensborn statt Todesbote
Forschung aktuell, November 2009
Selbstverständlich gehe ich mit Ihnen absolut d’accord, wenn es darum geht, Sprache mit Anstand und unter Wahrung der
guten Sitten zu verwenden. Gerade der
Begriff »Lebensborn« ist geeignet, Betroffene empfindlich zu verletzen.
Andererseits ist nicht akzeptabel, dass
irgendwelche Politideologen wert- und
bedeutungsvolle Begriffe aus unserem
Wortschatz zweckentfremden, geradezu
entweihen und für alle Zeiten für sich
allein beanspruchen. Wir dürfen unsere
mühsam errungene Presse- und Meinungsfreiheit nicht durch unterschwellige
und beliebige Selbstzensur unter­graben.
Vielmehr haben wir die Pflicht und Verantwortung, derart unschuldig befleckte
Vokabeln mit der Zeit behutsam im Sinn
ihrer ursprünglichen Bedeutung zu rehabilitieren und in den alltäglichen Sprachgebrauch zurückzuführen. Der Artikel
von Stefanie Reinberger steht in keinerlei politischem Kontext. Schon deshalb
spricht nichts dagegen, seinen Inhalt mit
den in der Überschrift gewählten Worten
treffend zu titulieren. Ganz im Gegenteil:
Um sich der tatsächlichen Bedeutung des
Begriffs wieder bewusst zu werden, kann
der anfängliche kleine Schock dem Leser
durchaus hilfreich sein.
Martin Janicijevic, Diepenau
Briefe an die Redaktion …
… sind willkommen! Schreiben Sie uns auf
www.spektrum.de/leserbriefe oder direkt beim
Artikel: Klicken Sie bei www.spektrum.de auf
das aktuelle Heft oder auf »Magazin«, »Magazinarchiv«, das Heft und dann auf den Artikel.
Oder schreiben Sie mit kompletter Adresse an:
Spektrum der Wissenschaft
Redaktion Leserbriefe
Postfach 104840
69038 Heidelberg
E-Mail: [email protected]
9
Spektrogramm
Paläanthropologie
Gut organisierte Frühmenschen
q Dass der Homo erectus, unser unmittelbarer Vorfahr, bereits mit Feuer umgehen
konnte und ausgefeilte Steinwerkzeuge
herstellte, ist bekannt. Doch sein Lebensstil
galt als eher primitiv. Zu Unrecht, wie sich
nun zeigt. Jüngste Ausgrabungen in Israel
belegen, dass bei Frühmenschen schon vor
790 000 Jahren unerwartet geordnete
Verhältnisse herrschten. Den Lebensmittelpunkt bildete die Feuerstelle. In deren
Umkreis gab es für verschiedene Aktivitäten
wie die Herstellung von Werkzeugen oder die
Zubereitung von Nahrung eigene Bereiche.
Diese moderne Aufteilung erfordert eine
soziale Organisation unter den Gruppenmit-
Leore Grosman, The Hebrew University of Jerusalem
Faustkeile (oben) und Steinbeile (unten)
fanden sich in der Ausgrabungsstätte Gesher
Benot Ya’aqov in Israel vorwiegend rund um
die Feuerstelle, die den Lebensmittelpunkt
der dort lebenden Frühmenschen bildete.
gliedern, die Anthropologen eigentlich erst
dem Homo sapiens zugetraut hatten, der
mehr als 600 000 Jahre später auftauchte.
Archäologen um Nira Alperson-Afil von
der Hebräischen Universität in Jerusalem
analysierten die Verteilung der Artefakte in
der Ausgrabungsstätte Gesher Benot
Ya’aqov im Norden Israels, in der vor
790 000 Jahren eine Horde Frühmenschen
hauste. Rund um die Feuerstelle im Süd­
osten des Lagers am Ufer eines ehemaligen
Sees befand sich demnach offenbar das
Zentrum der Aktivitäten. Hier fanden sich
neben Holzfragmenten und Rindenstücken
Überreste von Samen und Früchten sowie
Karpfen und Krabben. Zudem wurden im
Lager mehr als 80 000 Werkzeuge entdeckt. Deren Verteilung war jedoch keineswegs homogen, sondern legt nahe, dass
sie je nach Material an unterschiedlichen
Stellen hergestellt und verwendet wurden.
Science, Bd. 426, S. 1677
Biologie
Wächter der Weiblichkeit
Folgen waren viel dramatischer«, berichtet
Treier. Die für die Reifung der Oozyten
zuständigen Zellen nahmen binnen drei
Wochen Merkmale ihrer männlichen
Gegenstücke an, die an der Bildung von
Spermien und Testosteron in den Hoden
mitwirken. Die weiblichen Tiere hatten
danach ebenso hohe Testosteronwerte wie
ihre männlichen Artgenossen.
Gemeinsam mit einem Team des National
Institute for Medical Research in London
konnten die Forscher auch den zu Grunde
liegenden Mechanismus aufklären. Demnach findet der Kampf um das Geschlecht
zwischen Foxl2 und einem anderen Gen
namens Sox9 statt. Letzteres sorgt dafür,
dass sich aus Keimdrüsen Hoden statt
Eierstöcke entwickeln. Foxl2 unterdrückt
dieses Gen jedoch lebenslang. Sein Gegenspieler ist übrigens das eingangs erwähnte
Sry, das die Ausprägung von Sox9 fördert.
Cell, Bd. 139, S. 1130
Mathias Treier, EMBL Heidelberg
q X und X ergibt ein Mädchen, X und Y
dagegen einen Jungen – das lernen schon
Schüler im Biologieunterricht. Standardmäßig entwickelt ein Embryo weibliche
Geschlechtsmerkmale, wenn nicht ein Gen
namens Sry auf dem Y-Chromosom den
Schalter in Richtung Männchen umlegt.
Doch das ist offenbar nicht die ganze
Wahrheit. Wie nun Mathias Treier vom
European Molecular Biology Laboratory in
Heidelberg und Kollegen herausfanden,
haben die Eierstöcke weiblicher Wirbeltiere
eine natürliche Tendenz, sich nachträglich
in Hoden zu verwandeln. Nur das Gen Foxl2
hält sie davon ab und sorgt so dafür, dass
die Mäusedame eine solche bleibt.
Als die Forscher dieses Gen in den
Eierstöcken erwachsener Mäuseweibchen
ausschalteten, erwarteten sie, dass keine
Eizellen mehr produziert würden. »Aber die
Die Granulosa-Zellen in den Eierstöcken von
Mäuseweibchen (links) tragen zur Reifung der
Eizellen bei. Beim Ausschalten des Gens Foxl2
entwickeln sie jedoch Merkmale von SertoliZellen, die in den Hoden von Männchen an der
Bildung von Spermien mitwirken (rechts).
12 SPEKTRUM DER WISSENSCHAFT · märz 2010
PALÄONTOLOGIE
q Vor etwa 128 Millionen Jahren lebten in
China truthahngroße, gefiederte Raptoren,
die als Sinornithosaurier (chinesische Vogelechsen) bezeichnet werden. Diese frühen
Verwandten der heutigen Vögel besaßen
lange Reißzähne, mit denen sie vermutlich
Gift in ihre Beute injizieren konnten. Das
haben Forscher um David Burnham von der
University of Kansas in Lawrence nun
festgestellt, als sie das Gebiss von fossilen
Exemplaren unter die Lupe nahmen.
An den Seiten des Sinornithosaurier-Schädels entdeckten die Wissenschaftler zwei Ver­tiefungen, die über eine Rille mit den langen,
eingekerbten Reißzähnen im Oberkiefer
verbunden sind. Das erinnert an die Anatomie heutiger Giftschlangen mit weit hinten
im Maul sitzenden Giftzähnen. Die Forscher
vermuten deshalb, dass die Vertiefungen
einst Giftdrüsen beherbergten. Von diesen
wurde das Toxin durch die Kraft des Bisses
ausgepresst und gelangte über die Rille und
die Kerben in den Reißzähnen in das Opfer.
Burnham zufolge jagten die Saurier, indem
sie sich von einem Baum aus von hinten auf
ihre Opfer stürzten, ihre Zähne durch die Haut
stießen und das Toxin injizierten. Anschließend fraßen sie das bewegungsunfähige Tier
bei lebendigem Leib. Aus dem relativ schmalen Kiefer schließen die Forscher, dass Sinorni-
David A. Burnham, University of Kansas Biodiversity Institute
Vogelsaurier mit Giftzähnen
thosaurus außer kleinen Sauriern vor allem
andere primitive Vögel erlegte. Darauf
deuten auch die ungewöhnlich langen Giftzähne hin, die es ihm vermutlich erleichter­
ten, selbst dichtes Gefieder zu durchdringen.
Das Fossil eines Sinornithosaurus-Kiefers
lässt die langen Reißzähne gut erkennen,
mit denen der gefiederte Raptor vermutlich
Gift in seine Opfer injizierte.
PNAS, Bd. 107, S. 766
ASTRONOMIE
q Nur 42 Lichtjahre von der Erde entfernt
kreist ein Planet, der vermutlich mehr als
zur Hälfte aus Wasser besteht. Astronomen
um David Charbonneau von der Harvard
University in Cambridge (Massachusetts)
entdeckten den Himmelskörper, weil er alle
38 Stunden in sehr geringem Abstand vor
seinem Mutterstern vorbeizieht und dessen
Licht teilweise abblockt. Aus dem Anteil
der geschluckten Strahlung und der bekannten Größe der fernen Sonne schätzten
die Forscher, dass GJ 1214b etwa den dreifachen Erddurchmesser hat. Seine Masse –
sie beträgt knapp das Siebenfache der
Erdmasse – ergab sich aus der Schlinger­
bewegung des Sterns, die der Planet durch
seine Schwerkraft verursacht. Wie Charbonneau und seine Kollegen aus beiden
Werten ableiten konnten, besitzt GJ 1214b
etwa die doppelte Dichte von Wasser.
SPEKTRUM DER WISSENSCHAFT · märz 2010
Laut den Forschern kann es sich bei
einem Himmelskörper mit dieser Größe
und Umlaufbahn nicht um einen Gasplane­
ten handeln. Demnach lässt sich die
geringe Dichte nur dadurch erklären, dass
GJ 1214b größtenteils aus Wasser besteht
und lediglich einen kleinen festen Kern
besitzt. Während die meisten Exoplaneten
mit enger Umlaufbahn viele hunderte Grad
heiß sind, bleibt GJ 1214b mit geschätzten
200 Grad relativ kühl, weil er einen nicht
sehr aktiven roten Zwergstern umkreist.
Ob es sich tatsächlich um eine kochende
Ozeanwelt – und damit den ersten Beleg
für Wasser außerhalb des Sonnen­systems –
handelt, soll nun das Weltraum­teleskop
Hubble klären, indem es den Planeten
direkt ins Visier nimmt und nach Zeichen
einer Wasserdampfatmosphäre sucht.
Nature, Bd. 462, S. 891
David A. Aguilar, Center for Astrophysics (CfA)
Exoplanet mit kochendem Ozean
Der Planet GJ 1214b, hier eine künstlerische Darstellung, umkreist einen erdnahen
roten Zwergstern. Wegen seiner geringen
Dichte dürfte er großenteils aus Wasser bestehen.
13
werkstoffe
Pons
Fremde Hirnzellen
voll integriert
Bruchfestes Sandwich
James M. Weimann et al., Stanford Medical School
q Abgestorbene Hirnzellen zu ersetzen ist
der große Traum vieler Stammzellforscher;
denn so ließen sich zahlreiche Leiden wie
Parkinson, ALS-Lähmung oder Schlag­
anfälle behandeln. Bisher konnte man zwar
schon embryonale Stammzellen in Neurone
verwandeln und im Gehirn ansiedeln. Doch
sie verbanden sich dort nicht korrekt mit
anderen Hirnteilen. Genau dies haben
Neurologen unter Leitung von James
Weimann von der Stanford Medical School
(Kalifornien) nun erstmals erreicht.
Die Forscher kultivierten embryonale
Mäusestammzellen auf speziell gezüchtetem Bindegewebe, wo sie sich zu unreifen
Neuronen entwickelten. Als diese etwa
denen eines zwölf Tage alten Embryos
entsprachen, injizierten Weimann und seine
Kollegen Proben der Kultur in die Gehirne
neugeborener Mäuse. Nach mehreren
Wochen untersuchten sie die Verbindungen
der implantierten Neurone, die zur Unterscheidung ein Gen trugen, das sie gelb
Ins Bewegungszentrum einer Maus implantiert, bilden einstige Stammzellen (gelb) gezielt Fortsätze in die Mittelhirnbrücke (Pons)
und von dort weiter ins Rückenmark.
leuchten ließ. Es zeigte sich, dass die Zellen
sich stets genauso verschaltet hatten wie
das umliegende Hirngewebe: Im Bewegungszentrum waren ihre Axone (langen Fortsätze) zum Rückenmark gerichtet, im Sehzentrum zogen sie dagegen zum Mittelhirndach.
Während die Stammzellen reiften,
verfolgten die Forscher zudem die Aktivität
verschiedener Entwicklungsgene. Bei fünf
davon zeigten sich Unterschiede zwischen
Zellen, die sich erfolgreich verschalteten,
und solchen aus anderen Kulturen. Durch
gezielte Manipulation dieser Gene sollten
sich zukünftig womöglich Ersatzneurone in
größeren Mengen erzeugen lassen, so die
Hoffnung der Neurologen.
q Die innerste Schicht von Muschelschalen
ist nicht nur hübsch anzusehen, sondern
auch besonders bruchfest. Das liegt daran,
dass es sich um ein Verbundmaterial
handelt, in dem sich das harte Kalkmineral
Aragonit und weiche, klebrige Proteinschichten im richtigen Verhältnis zueinander abwechseln. Diesen Aufbau hat nun ein
Forscherteam um Zaklina Burghard vom
Max-Planck-Institut für Metallforschung in
Stuttgart nachgeahmt. Dabei ersetzte es den
Aragonit und die Proteine allerdings durch
Titandioxid beziehungsweise synthetische
Polymere, weil diese Materialien für technische Anwendungen interessanter sind.
Um das optimale Verhältnis der beiden
Komponenten zu finden, variierten die
Forscher die Dicke der weichen Polymerlage
zwischen fünf und 20 Nanometern. Die
harte Keramikschicht maß dagegen durchweg 100 Nanometer. Grundsätzlich brach
MPI für Metallforschung
Spektrogramm
STAMMZELLen
The Journal of Neuroscience, Bd. 30, S. 894
Alligatoren atmen wie Vögel
q Vögel haben unter allen Tieren das am
höchsten entwickelte Atmungssystem. Darin strömt die Luft nicht vor und zurück,
sondern durch eine komplizierte Anordnung von Säcken und Einbahnstraßen im
Kreis. So kann sie deutlich mehr Sauerstoff
an den Körper abgeben. Bisher hatten
In den ventralen Bronchien (grün) der Alligatoren strömt Luft beim Aus- wie Einatmen
von Kopf- in Schwanzrichtung, in den dor­
salen Bronchien (blau) genau andersherum.
So genannte Parabronchien verbinden diese
beiden Hauptäste des Atmungssystems.
C. G. Farmer, University of Utah
Mitarbeit: J. Eder, R. Strobel, D. Lingenhöhl, J. von Sengbusch
EVOLUTION
Forscher dieses Hochleistungsorgan für
eine Spezialentwicklung der Vögel gehalten, die deren hohe Stoffwechselraten
beim energiezehrenden Fliegen ermöglicht.
Collen Farmer and Kent Sanders von der
University of Utah in Salt Lake City zeigten
nun jedoch, dass auch in den Lungen von
Alligatoren die Luft nur in eine Richtung
fließt. Das Prinzip könnte somit bereits auf
den gemeinsamen Vorfahren von Krokodilen, Dinosauriern und Vögeln zurückgehen,
der vor rund 250 Millionen Jahren lebte.
Die zwei Forscher setzten Strömungs­
sensoren in das Bronchiensystem lebender
Tiere ein. Die Messungen ergaben beim Einund Ausatmen stets den gleichen Luftstrom:
Er war bauchseits zum Schwanz und rückenseits zum Kopf hin gerichtet. Computerto­mo­
grafischen Aufnahmen der Lungen zufolge
verfügen die Echsen wie die Vögel über ein
System klappenloser Ventile: Stark abknickende Verzweigungen führen den Luftstrom im Kreis durch die diversen Lungenteile und wieder zur Luftröhre zurück.
14 Science, Bd. 327, S. 338
Eine Wechselfolge aus Titandioxid (TiO2)
und Polyethylen (PE) im Dickenverhältnis
10 : 1 gleicht dem Aufbau von Perlmutt und
ist deshalb besonders bruchfest.
das Verbundmaterial weniger leicht als reines Titandioxid. Die größte Stabilität
erreichte es bei einer Dicke der Polymerschicht von zehn Nanometern. Dann war
die Bruchfestigkeit vierfach erhöht. Auch
im Perlmutt beträgt das Dickenverhältnis
zwischen Aragonit- und Proteinschichten
zehn zu eins.
In beiden Fällen erklärt sich die größere
Festigkeit des Verbundmaterials dadurch,
dass die Keramikkomponente zwar sehr
hart, aber auch spröde ist. Deshalb pflanzt
sich ein einmal entstandener Riss durch
das gesamte Material fort. Die Polymerschicht fängt solche Risse dagegen ab und
hindert sie an der Ausbreitung.
Nanoletters, Bd. 9, S. 4103
SPEKTRUM DER WISSENSCHAFT · märz 2010
bild des monats
Die meisten Gene erfüllen ihre Funktion erst im Zusammenwirken mit anderen. Kommt zu einer Mutation eine zweite hinzu,
kann diese den Effekt der ersten deshalb verstärken oder abschwächen. Solche Wechselwirkungen haben Michael Costanzo
von der University of Toronto (Kanada) und Kollegen nun am
Beispiel der Backhefe Saccharomyces cerevisiae mit ihren etwa
6000 Genen erstmals detailliert untersucht. Für 5,4 Millionen
Genpaare erstellten sie ein Interaktionsprofil. Die Ergebnisse der
Analyse verarbeiteten sie per Computer zu der hier gezeigten
Karte. Darin erscheinen die Gene als weiße Punkte, die mit ihren
Wechselwirkungspartnern durch eine Linie verbunden sind.
Sie liegen umso näher beieinander, je mehr sich ihr Interaktionsmuster gleicht. An einer Funktion beteiligte Gene bilden dabei
Knäuel, die farbig hervorgehoben wurden. Mit solchen Netzen
sollten sich die Wirkungen von Medikamenten sehr viel differenzierter beurteilen lassen, als das bisher möglich war.
Michael Costanzo et al., University of Toronto / Science - AAAS
Feuerwerk der Gene
FORSCHUNG AKTUELL
Meeresforschung
Vierzig Tage in der Wasserwüste
Eine Expedition in eine extrem nährstoffarme Zone im Südpazifik galt der Suche nach Leben
unter Extrembedingungen. Tief im Sediment unter dem Meeresboden fanden sich überraschend große
Mengen an Mikroben, die möglicherweise natürliche Radioaktivität als Energiequelle nutzen.
Von Jan P. Fischer
und Timothy G. Ferdelman
von einzelligen, fotosynthetischen Algen,
welche die Basis des Nahrungsnet­zes in
den Meeren bilden. Deshalb ist das Was­
ser so klar und blau wie nirgendwo sonst
auf der Erde.
Da hier so wenige Organismen leben,
setzt sich auch kaum organisches Mate­
rial am Meeresgrund in 4000 bis 5000
Meter Wassertiefe ab. Zudem tragen die
Winde nur geringe Mengen an Staub in
diese entlegene Region. Die Folge sind
extrem geringe Sedimentationsraten: In
einer Million Jahren lagert sich nur eine
maximal einen Meter dicke Schicht ab.
Als Wissenschaftler am Max-PlanckInstitut für Marine Mikrobiologie in
Bremen brachen wir jüngst zusammen
mit Kollegen von der University of
Rhode Island in Kingston mit dem ame­
rikanischen Forschungsschiff Roger Re­
velle zu einer 40-tägigen Expedition in
diese kaum erforschte Region auf. Ziel
war es, neue Erkenntnisse über das Le­
ben tief in den Ablagerungen am Mee­
resboden zu gewinnen. Aber warum
suchten wir zu diesem Zweck ausgerech­
net den vermutlich lebensfeindlichsten
Ort im Ozean auf? Die Antwort auf die­
se Frage erfordert etwas Hintergrundwis­
D
0
0
Sauerstoffgehalt in Mikromol pro Liter
100
0
100 200 300
0
– 10
– 2
– 15
– 3
– 20
– 4
– 25
– 5
– 30
– 35
– 6
– 40
– 7
–45
– 8
– 50
16
Tiefe im Sediment in Millimetern
– 5
– 1
Tiefe im Sediment in Metern
200
Jan P. Fischer und Timothy G. Ferdelman
reht man den Pazifischen Ozean
auf einem Globus ins Zentrum, so
sieht man fast ausschließlich Wasser mit
einigen versprengten kleinen Inseln. Nur
am Rand dieses Ausschnitts der Erdku­
gel sind noch die Kontinente zu erah­
nen. Der Anblick macht deutlich, dass
der Pazifik die mit Abstand größte zu­
sammenhängende Formation der Erde
ist. Mehr als die Hälfte der riesi­gen Was­
serfläche liegt auf der Südhalbkugel. Dort
befindet sich ein giganti­scher Wirbel, be­
grenzt durch den Südäquatorialstrom im
Norden, den Ostaustralstrom im Wes­
ten, den Antarktischen Zirkumpolar­
strom im Süden und den Humboldt­
strom im Osten.
Nur wenige Fische und Vögel durch­
queren diesen Südpazifischen Wirbel, eine ozeanische Wüste, in der es nur äu­
ßerst wenig Nahrung gibt. In seinem In­
neren findet nämlich fast kein vertikaler
Wasseraustausch statt. Dadurch unter­
schreitet die Nährstoffkonzentration an
der Oberfläche teilweise die Nachweis­
grenze. Das beschränkt das Wachstum
Das Sauerstoffprofil im Sediment des Südpazifischen Wirbels (links; rechts eine Ausschnittsvergrößerung) zeigt, dass die Konzentration des gelösten Gases schon nach
wenigen Zentimetern mit der Tiefe kaum
noch weiter abnimmt. Das ist höchst ungewöhnlich. In Sedimenten an Küsten (schwarz)
kommt schon nach wenigen Millimetern und
in nährstoffarmen Tiefseeregionen (blau)
spätestens nach einigen Dezimetern Tiefe
kein Sauerstoff mehr vor.
sen über mikrobielle Prozesse in marinen
Sedimenten.
Alle Lebewesen beziehen ihre Energie
aus so genannten Redoxreaktionen: Eine
Substanz wird oxidiert (gibt Elektronen
ab) und eine andere dafür reduziert
(nimmt Elektronen auf ). Höhere Orga­
nismen oxidieren organisches Material –
die Nahrung – zu Kohlendioxid und re­
duzieren dabei Sauerstoff. Bei Bakterien
und Archaeen existiert daneben eine ver­
blüffende Vielfalt an Stoffwechselwegen.
Thermodynamisch ist zwar Sauerstoff das
optimale Oxidationsmittel; viele Mikro­
ben können jedoch stattdessen zum Bei­
spiel Nitrat oder Sulfat oder sogar Fest­
stoffe wie Mangan- und Eisenoxide redu­
zieren.
Hungerkünstler im Tiefseeboden
In den obersten Schichten der marinen
Sedimente lebt eine hochaktive mikro­
bielle Gemeinschaft, die das herabreg­
nende organische Material oxidiert. Tief
im Sediment, in viele Millionen Jahre al­
ten Schichten, ist der größte Teil der or­
ganischen Ablagerungen jedoch abge­
baut. Dort herrscht deshalb Nahrungs­
mangel, und es wurde lange vermutet,
dass in dieser »oligotrophen Zone« kaum
Leben zu finden sei.
Im Verlauf des letzten Jahrzehnts ha­
ben sich jedoch die Anzeichen dafür ver­
dichtet, dass auch in Sediment, das sich
mehrere hundert Meter bis Kilometer
unter dem Meeresboden befindet, noch
zwischen 100 000 und zehn Millionen
Mikroben pro Kubikzentimeter hausen.
Mehr noch: Ein erheblicher Prozentsatz
der gesamten lebenden Biomasse auf der
Erde kommt, wie man inzwischen weiß,
in Form von Bakterien und Archaeen in
den tiefen Ozeansedimenten vor.
Wie und wovon leben sie? Das ist
noch weit gehend ungeklärt. Unsere Un­
wissenheit rührt vor allem daher, dass die
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010
Aktuell
Jan P. Fischer und Timothy G. Ferdelman
0,1
0,3
1
3
Chlorophyll a in Milligramm pro Kubikmeter
10
30
60
Wie diese Darstellung des langjährigen Mittelwerts der Chlorophyllkonzentrationen im
Oberflächenwasser der Ozeane zeigt, findet in den nährstoffarmen subtropi­schen Wirbeln
besonders wenig Fotosynthese statt. Die weißen Punkte markieren die Probenahmeorte
während der jüngsten Expedition der Autoren in den Südpazifik.
etablierten biologischen Labormethoden
nicht zur Untersuchung dieser Frage tau­
gen. Während sich die klassi­sche Mikro­
biologie hauptsächlich mit schnell wach­
senden, leicht in Kultur­medien zu züch­
tenden Organismen beschäftigt, domi­
nieren in den tiefen Meeressedimenten
die Hungerkünstler. Diese nutzen die ge­
ringe verfügbare Energie in höchst effizi­
enter Weise, um sich gerade noch am Le­
ben zu erhalten. Wachstum findet kaum
mehr statt: Schätzun­gen zufolge gibt es
in hunderten bis tausenden Jahren nur
eine Zellteilung. Bei solchen Zeitspan­
nen sind Laborversuche offensichtlich
ein Problem.
Zwar lässt sich die Aktivität mikrobi­
eller Gemeinschaften im Prinzip messen,
indem man die Organismen mit radio­
aktiv markierten Substraten füttert und
so ihren Umsatz bestimmt. Diese Me­
thode ist bei den sehr geringen Stoff­
wechselraten in tiefen Sedimenten aber
nicht genau genug. Dort lassen sich mi­
krobielle Umsätze besser auf eine andere,
indirekte Art bestimmen: Man ermittelt
die Konzentrationsänderungen der ver­
schiedenen von den Lebewesen veratme­
ten Stoffe (allen voran Sauerstoff) im Po­
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010 renwasser und zieht daraus Rückschlüsse
auf die Atmungsraten.
Im oberen Meeresboden findet sich,
wie erwähnt, meist eine aktive Gemein­
schaft von Lebewesen mit hohem Bedarf
an Sauerstoff. Da dieser praktisch nur
durch langsame Diffusion im Sediment
transportiert und ausgetauscht wird, ist
er schnell aufgebraucht. Wie tief er in
den Boden eindringt, hängt zum großen
Teil davon ab, wie viel oxidierbares orga­
nisches Material vorhanden ist: Je weni­
Jan P. Fischer und Timothy G. Ferdelman
0,03
10 – 3
10 – 2
Marine Ablagerungen enthalten große Mengen an Mikroben. Selbst in einem Kilometer
Tiefe finden sich in normalem Meeresboden
noch mehr als eine Million lebende Zellen
pro Kubikzentimeter Sediment (schwarze
Punkte). Im Südpazifischen Wirbel ließen
sich in zehn Meter Tiefe, bis zu der Proben
genommen wurden, auch noch etwa 10 000
Mikroben pro Kubikzentimeter nachweisen
(offene Kreise und Dreiecke), obwohl dort
kaum noch Nährstoffe vorhanden sind.
Tiefe im Sediment in Metern
0,01
ger davon den Meeresboden erreicht,
­desto weniger Sauerstoff wird für die
­Atmung verbraucht und umso tiefer ge­
langt das gelöste Gas. Typische Sauer­
stoffeindringtiefen liegen in der Größen­
ordnung von wenigen Millimetern in
Küstensedimenten bis zu mehreren Dezi­
metern in nährstoffarmen Tiefseeregio­
nen. Unterhalb dieser oxischen Zone
kommen jene Organismen zum Zuge,
die alternative Oxidationsmittel verwen­
den können.
Unser Ziel war es, nach dem absolu­
ten energetischen Limit für Leben zu su­
chen. Dazu mussten wir dem »Hinter­
grundrauschen« der fotosynthetischen
Welt entkommen, wo es leicht verfüg­
bare Kohlenstoffverbindungen in Hülle
und Fülle gibt. Der Südpazifischen Wir­
bel war daher ein ideales Untersuchungs­
gebiet für uns.
Wegen der geringen Sedimentations­
raten ist das Sediment hier schon in we­
10 – 1
10 0
10 1
10 2
10 3 2
10 10 4
10 6
10 8
10 10
Zellen pro Kubikzentimeter
17
10 12
Jan P. Fischer und Timothy G. Ferdelman
FORSCHUNG AKTUELL
Hier wird ein Gerät ausgesetzt, das selbstständig Sauerstoffprofile in der oberen Sedimentschicht mit einer Auflösung von 0,1 Millimetern messen kann.
nigen Metern Tiefe viele Millionen Jahre
alt. In den meisten anderen Gebieten
müsste man dafür hunderte oder gar tau­
sende Meter tief bohren.
Wir erwarteten in dieser extremen
marinen Wüste sehr geringe Atmungsra­
ten und somit große Sauerstoffeindring­
tiefen. Doch die Ergebnisse unserer Mes­
sungen waren selbst für uns eine Überra­
schung: Nur in den obersten ein bis zwei
Zentimetern nahm die Sauerstoffkonzen­
tration überhaupt nennenswert ab. Hier
wird praktisch der gesamte bioverfügbare
Kohlenstoff aufgebraucht. Darunter fehlt
den Zellen dann die Nahrung, und die
Atmungsrate pro Kubikzentimeter Sedi­
ment fällt so stark ab, dass der Sauerstoff
ungehindert weiter in die Tiefe diffun­
dieren kann. Wie eine Extrapolation un­
serer Profile ergibt, liegt das gelöste Gas
im gesamten Sediment bis hinunter zur
Aids
basaltischen Erdkruste in hohen Kon­
zentrationen vor. Möglicherweise ist das
nicht einmal ungewöhnlich; schließlich
sind die tiefen Sedimente in den anderen
wüstenartigen Meeresgebieten ebenfalls
noch kaum erforscht.
Unser Kollege Jens Kallmeyer von der
Universität Potsdam fand im extrem
nährstoffarmen Sediment des Südpazifi­
schen Wirbels in zehn Meter Tiefe noch
etwa 1000 bis 10 000 lebende Zellen pro
Kubikzentimeter. Wie und wovon diese
Organismen in mehrere zehn Millionen
Jahre alten Ablagerungen ohne die Zu­
fuhr von frischem organischem Material
leben, bleibt rätselhaft.
Unsere Kollegen Steven D’Hondt und
Arthur Spivack aus Rhode Island haben
zusammen mit Bo Barker Jørgensen vom
Bremer Max-Planck-Institut eine inte­
ressante Erklärung vorgeschlagen. Ihrer
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Gelähmte Abwehr
Ein bislang rätselhaftes Virusprotein macht Immunzellen bewegungsunfähig und trägt so entscheidend zum Ausbruch und Fortschreiten der
Immunschwächekrankheit Aids bei.
Von Stefanie Reinberger
S
eit seiner Entdeckung im Jahr 1983
hat der Aidserreger HIV (HumanImmunschwäche-Virus) Forschern viele
Rätsel aufgegeben. Zu den schwierigsten
zählt die Rolle eines seiner Eiweißstoffe
namens Nef (negative factor). Es handelt
sich um ein regulatorisches Protein, von
18
dem bislang nicht viel mehr bekannt
war, als dass es der Erreger zu seiner mas­
senhaften Vermehrung braucht. Nur
wenn das HI-Virus über ein funktions­
fähiges Nef verfügt, bricht die Immun­
schwäche mit ihren typischen Sympto­
men aus.
»Es gibt in der Fachliteratur seit Lan­
gem Berichte über Patienten, die sich
Meinung nach nutzen die Organismen
auch Radioaktivität als Energiequelle.
Al­phastrahlung aus natürlichen radio­
aktiven Zerfällen in Sedimentkörnern
spaltet Wasser in seine Bestandteile. Den
frei werdenden Wasserstoff können man­
che Mikroorganismen enzymatisch mit
Sauerstoff umsetzen. Die so gewonnene
Energie nutzen sie dazu, gelöstes Kohlen­
dioxid zu reduzieren und in Biomasse
um­zuwandeln. Wie unsere Kollegen be­
rechnet haben, sollte die radioaktive
Was­serstoffproduktion ausreichen, um
etwa die Hälfte der Zellen im Sediment
des Südpazifischen Wirbels mit Energie
zu versorgen.
Zur genaueren Untersuchung dieser
und anderer Hypothesen ist in den kom­
menden Jahren eine Bohrexpedition des
Integrated Ocean Drilling Program
(IODP) in diese Region geplant. Dabei
wollen wir in bis zu 100 Millionen Jahre
alte Sedimentschichten vorstoßen und
mehrere 100 Meter Basalt erbohren. Bis­
her ist das ultimative energetische Limit
für mikrobielles Leben im Meeresboden
jedenfalls noch nicht gefunden.
Jan P. Fischer ist wissenschaftlicher Mitarbeiter
am Max-Planck-Institut für Marine Mikrobiologie
in Bremen, wo Timothy G. Ferdelman die Arbeitsgruppe Biogeochemie leitet.
mit einem HI-Virus infiziert haben, dem
auf Grund eines genetischen Defekts das
Nef-Protein fehlt«, erklärt Oliver Fackler,
Professor für Virologie an der Universi­
tät Heidelberg. »Die Betroffenen entwi­
ckeln erst lange nach der Infektion
Krankheitssymptome – oder sogar über­
haupt nicht.«
Ähnliches ergaben Versuche an Rhe­
susaffen, die mit SIV, der Affenvariante des Aidserregers, infiziert wurden.
Hatten Forscher das Nef-Gen ausge­
schaltet, vermehrte sich das Virus nur
sehr langsam; die typischen Merkmale
der Immunschwächekrankheit traten
stark verzögert oder gar nicht auf. Um­
gekehrt ließen sich bei Mäusen Aids­
symptome hervorrufen, wenn sie gene­
tisch derart manipuliert wurden, dass sie
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010
Aktuell
das Nef-Protein in ihren Immunzellen
bildeten. Ein Virus war dafür gar nicht
erforderlich.
»Wie Nef dies bewerkstelligt, war bis­
lang völlig unklar«, berichtet Fackler, der
sich schon seit seiner Diplomarbeit vor
rund 15 Jahren mit dem geheimnis­
vollen Protein beschäftigt. Jetzt hat der
Virologe gemeinsam mit seinem Team
und Kooperationspartnern an der Uni­
versität Münster zumindest einen Teil
der Antwort gefunden. Demnach hin­
dert Nef befallene Immunzellen daran,
gegen das Virus zu Felde zu ziehen, in­
dem es sie regelrecht lähmt (Cell Host &
Microbe, Bd. 6, S. 174).
Um Krankheitserreger zu bekämpfen,
muss die Körperpolizei beweglich sein:
Die Immunzellen wandern – angelockt
durch Botenstoffe, fachlich Chemokine
genannt – etwa zu Entzündungsherden
oder in die Lymphknoten und interagie­
ren dort mit weiteren Komponenten der
Körperabwehr. Nur so kann sich die Im­
munantwort entfalten und beispielsweise
die Produktion von Antikörpern oder
die Vermehrung von spezifischen Killer­
zellen angekurbelt werden.
Schon länger war den Heidelberger
Wissenschaftlern aufgefallen, dass sich
bestimmte Lymphozyten – die so ge­
nannten T-Helferzellen – nach der In­
fektion mit dem HI-Virus äußerlich von
ihren gesunden Mitstreitern unterschei­
den. Allem Anschein nach ist das Zyto­
skelett, der Stütz- und Bewegungsap­
parat der Zelle, bei ihnen verändert.
­Zugleich gab es Indizien dafür, dass
Nef eine zentrale Rolle bei diesen Verän­
derungen spielt. »Doch so richtig konn­
ten wir uns in den letzten zehn Jahren
keinen Reim darauf machen«, erzählt
Fackler.
Dass sich die Puzzleteile nun zu
einem stimmigen Bild zusammenfügen,
ist vor allem der Beharrlichkeit von
Fack­lers Mitarbeiterin Bettina Stolp zu
verdanken. Der jungen Biologin kam im
Rahmen ihrer Doktorarbeit ein Ver­
dacht: Wenn Nef das Zellskelett verän­
dert, könnten T-Helferzellen dadurch ihre Beweglichkeit und damit ihre Schlag­
kraft einbüßen. Immerhin sind andere
Fälle bekannt, in denen Viren die Stütz­
proteine einer befallenen Zelle manipu­
lieren, um sich unbehelligt vermehren zu
können.
Nachweis
mit gläsernen Fischen
Stolp überzeugte ihren Doktorvater von
der Idee, und die Heidelberger Wissen­
schaftler prüften zunächst in Zellkultur,
ob Nef die Beweglichkeit von Lympho­
zyten blockieren kann. Dazu schleusten
sie das betreffende Gen in T-Helferzellen
ein. Tatsächlich verloren diese daraufhin
die Fähigkeit, über den Boden der Kul­
turschalen zu kriechen.
»Entscheidend war jedoch, zu bewei­
sen, dass Nef auch im lebenden Organis­
mus diese Wirkung hat«, sagt Fackler.
Als Versuchsobjekt wählten die Wissen­
schaftler Zebrafische. Das klingt zu­
nächst einmal weit hergeholt; denn die
bei Entwicklungsbiologen beliebten Ver­
suchstiere lassen sich nicht mit dem HIVirus infizieren. Doch darauf kam es den
Forschern auch gar nicht an. »Während
der Embryonalentwicklung der Fische
wandern so genannte primordiale Keim­
zellen vom Ort ihrer Entstehung zu den
Gonaden, den Vorläufern der Geschlechts­
organe«, erklärt der Virologe. »Diese
Wanderung vollzieht sich auf genau die
gleiche Art wie die Fortbewegung der THelferzellen.« Sollte Nef also in der Lage
sein, die Helfer zu lähmen, dürften sich
unter dem Einfluss des Proteins auch die
primordialen Keimzellen beim Zebra­
fisch nicht mehr bewegen können. »Der
Clou dabei ist, dass Zebra­fisch­embry­o­
nen durchsichtig sind, wir den Effekt
von Nef also einfach unter dem Mikro­
skop beobachten konnten«, begeistert
sich Fackler.
Gemeinsam mit den Zellbiologen
Michal Reichman-Fried und Erez Raz
aus Münster, die Zebrafische und das
nötige Knowhow mitbrachten, manipu­
lierten die Forscher die Embryonen also
derart, dass die primordialen Keimzellen
das Nef-Protein produzierten. Diesen
verging daraufhin prompt jedwede Wan­
derlust. War das eingeschleuste Nef-Gen
dagegen defekt, bewegten sie sich ganz
normal zu den Gonaden.
Damit war der Beweis erbracht, dass
Nef Zellen, in denen es vorkommt, zur
Unbeweglichkeit verdammt. Auch den
Mechanismus der Lähmung konnten die
Forscher aufklären. Im Mittelpunkt steht
das Protein Aktin, das bekannt dafür ist,
zusammen mit Myosin die Muskelkon­
Ideen für einen smarten Planeten
Städte, die uns das Leben
leichter machen.
Bis 2050 werden 70 % der Weltbevölkerung in Städten leben. Wenn
die urbanen Infrastrukturen mit diesem Ansturm Schritt halten sollen,
müssen wir sie intelligenter gestalten. Zum Beispiel, indem wir Städte
als komplexe Ökosysteme begreifen und die Infrastrukturen für Verkehr,
Wasser, Abfall, Verwaltung, Sicherheit, Energie miteinander vernetzen. Davon profitieren alle Aspekte der Lebensqualität – von sauberer
Luft über staufreie Straßen bis zur Schulbildung unserer Kinder. Es
ist, mit einem Wort, smart. Welchen Beitrag IBM dazu leistet, erfahren
Sie unter ibm.com/think/de/city
19
IBM, das IBM Logo
und ibm.com sind Marken
eingetr. Marken der International ·Business
Machines
Corp. in den Vereinigten Staaten und/oder anderen Ländern. Andere Namen von Firmen, Produkten und Dienstleistungen können Marken oder eingetr. Marken ihrer jeweiligen Inhaber sein. © 2009 IBM Corp. Alle Rechte vorbehalten.
SPEKTRUM
DERoderWISSENSCHAFT
MÄRZ
2010
O&M IBM L 48/09
Nach Überzeugung von Fackler lässt
sich aber nicht nur der Funktionsverlust
der T-Helferzellen auf diese Weise erklä­
ren. Auch B-Lymphozyten, die Antikör­
perlieferanten unseres Immunsystems,
arbeiten bei HIV-Infizierten nicht ord­
nungsgemäß. Sie sind unfähig, wirklich
wirksame Abwehrmoleküle zu produzie­
ren und gegen das Virus ins Gefecht zu
werfen. Zwar verfügen Aidspatienten
über große Mengen an Antikörpern,
doch die heften sich nur sehr schwach an
den Erreger und können ihn deshalb
nicht ausmerzen.
Ansatzpunkt für
neue Therapiemethode
Wie Fackler vermutet, ist daran ebenfalls
die Lähmung der T-Helferzellen schuld.
Diese müssen nämlich mit den B-Lym­
phozyten interagieren, damit hochspezi­
Bettina Stolp, Universität Heidelberg
FORSCHUNG AKTUELL
traktion zu bewirken. Es ermöglicht aber
auch die Wanderung von Zellen. Dabei
verändert es periodisch seine Gestalt: Es
entspannt sich gewissermaßen und muss
dann wieder gespannt werden. »Genau
das wird in den Nef-Zellen blockiert,
und zwar auf völlig überraschende Wei­
se«, erläutert Fackler.
Wie das Team von Fackler heraus­
fand, interagiert Nef mit einem Enzym,
das im Normalfall gar nichts mit dem
Zytoskelett zu tun hat, und bringt es
dazu, einen Regulator für das Aktin-Re­
cycling auszuschalten. Das HIV-Protein
verursacht also quasi einen Kurzschluss
zwischen zwei Signalwegen in der Zelle –
mit dem Ergebnis, dass Aktin nicht
mehr in seine aktive Form versetzt wird
und die infizierten Zellen dadurch ihre
Beweglichkeit und Funktionsfähigkeit
einbüßen.
T-Lymphozyten des Immunsystems können,
angelockt von einem Botenstoff, amöben­
artig auf einer Unterlage entlangkriechen.
Dabei wird ihr inneres Fasergerüst kontinuierlich umstrukturiert. Aktin als Hauptbestandteil dieses so genannten Zytoskeletts
wurde hier mit einem roten Fluoreszenzfarbstoff markiert. Ist eine Zelle mit HIV infiziert, was sich an viruseigenen Eiweißstof­
fen – hier grün angefärbt – erkennen lässt,
blockiert das Protein Nef die Reorganisation
der Aktinfasern und damit die Wanderung.
Die Zelle bleibt kugelig und unbeweglich.
Stefanie Reinberger ist freie Wissenschaftsjournalistin in Köln.
Pharmakologie
Heilende Textilien
Erstmals haben Forscher im Tierversuch bestimmt, wie schnell Wirkstoffe je
nach der Art, wie sie an Textilien gebunden sind, an die Haut abgegeben werden. Als optimal erwies sich eine chemische Verknüpfung mit dem Gewebe.
Von Fritz Höffeler
B
eschichtete oder chemisch modifi­
zierte Textilien erleben derzeit einen
Boom. Sie bilden einen der am schnell­s­
ten wachsenden und am härtesten um­
kämpften Sektoren innerhalb der Beklei­
dungsindustrie. Von besonderem Inter­
20
fische Antikörper entstehen, die den Er­
reger wirksam bekämpfen. Sind die Hel­
fer gelähmt, können sie nicht mehr in
die Lymphknoten einwandern und sich
dort mit den B-Zellen in Verbindung
setzen. Tatsächlich haben andere Wissen­
schaftler in den letzten Jahren beobach­
tet, dass bei HIV-Patienten die Architek­
tur der Lymphknoten gestört ist: Es
mangelt an T-Helferzellen – und zwar
genau in den Bereichen, in denen sie
normalerweise die Antikörper produzie­
renden B-Lymphozyten stimulieren.
»Das sind Ergebnisse ganz nach dem
Geschmack von uns Virologen«, resü­
miert Fackler. »Wir haben einen klar
nachweisbaren Effekt, mit dem ein Virus
die befallene Zelle für seine Zwecke ma­
nipuliert.« Indem die Erkenntnisse des
Heidelberger Teams neue Einblicke in
das Krankheitsgeschehen nach der HIVInfektion eröffnen, decken sie auch neue
Ansatzspunkte für die Therapie auf.
Noch ist Nef kein Ziel antiviraler Medi­
kamente. »Aber es ist ein äußerst interes­
santer Kandidat«, meint Fackler. Der Vi­
rologe hält es für lohnend, nach Mitteln
und Wegen zu suchen, dieses regulatori­
sche Protein außer Gefecht zu setzen.
»Die Hoffnung wäre, das Virus damit
zusätzlich in Schach zu halten – vor
allem direkt nach der Infektion, wenn es
in seinem neuen Wirt erst noch Fuß fas­
sen muss«, sagt er mit optimistischem
Blick in die Zukunft.
es­se bei der neuen Stoffgeneration sind
für therapeutische Zwecke eingesetzte
textile Biomaterialien. Beim Kontakt mit
dem Körpergewebe des Trägers treten sie
auf vielfältige Weise mit ihm in Wechsel­
wirkung.
Chemiker und Textilingenieure haben
verschiedene Verfahren entwickelt, thera­
peu­tische Substanzen so auf dem Klei­
derstoff anzubringen, dass er sie beim Be­
rühren der Haut wieder abgibt. Grund­
sätzlich bestehen drei Möglichkeiten der
Beschichtung. Man kann den Wirkstoff
über eine chemische Bindung direkt an
die Textilfaser koppeln oder ihn einem
Gel beimischen, das dann auf den Stoff
appliziert und getrocknet wird. Bei der
raffiniertesten Methode knüpft man so
genannte Käfigmoleküle an die Fasern
und befüllt diese mit dem Medikament.
Von allen drei Verfahren existieren
Varianten, die in den letzten Jahren zum
Patent angemeldet wurden. Aber wie
verhält es sich mit der Wirksamkeit der
textilen Biomaterialien bei den verschie­
denen Beschichtungsmethoden? Das hat
eine Forschergruppe um Marieta Nichi­
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010 Freisetzung von Troxerutin in die Haut
freies Troxerutin
(Salbe)
physikalisch gebundenes
Troxerutin
chemisch gebundenes
Troxerutin
Troxerutin
Cyclodextrin Polyamid
schnelle Diffusion
schnelle Diffusion
langsame Hydrolyse
kein Wirkstoff
kein Wirkstoff
hohe Konzentration
nach rund 10 Stunden
Acryloyl-Brücke
nach rund 50 Stunden
for am Petru-Poni-Institut in Iasi (Rumä­
nien) nun untersucht (Journal of Materials Science: Materials in Medicine, Bd. 20,
S. 975).
Das Team verglich erstmals die Wirk­
samkeit zweier Textiltypen, die mit dem­
selben Arzneimittel beladen waren –
nur eben auf unterschiedliche Weise.
Als Testsubstanz diente Troxerutin, ein
bekanntes Medikament, das häufig bei
Krampfadern oder Wassereinlagerung in
den Beinen verabreicht wird. Es wirkt,
indem es kleine und kleinste Gefäße ver­
engt. Die Substanz ist außerdem fluores­
zierend, wodurch sich an Gewebeschnit­
ten leicht erkennen lässt, wo und in wel­
cher Menge sie sich angesammelt hat.
In einem Fall koppelten die Forscher
die Troxerutin-Moleküle über eine Acry­
loyl-Gruppe direkt chemisch an die Poly­
amidfasern des Gewebes. Bei dem ande­
ren Stofftyp verbanden sie – ebenfalls
mit einer Acryloyl-Gruppe als Zwischen­
stück – das Käfigmolekül Cyclodextrin
mit den Textilfasern. Dann beluden sie die
Käfige mit Troxerutin. Das Arzneimittel
war hier also nur physikalisch gebunden.
Zunächst badeten die rumänischen
Forscher Proben der beiden Textilsorten
in warmem Wasser, dessen Zusammen­
setzung dem menschlichen Schweiß
nachempfunden war, und prüften die
Abgabe des Troxerutins in die Lösung.
Der in den Käfigmolekülen unterge­
brachte Wirkstoff löste sich schon inner­
halb einer Stunde zu 90 Prozent vom
Gewebe. Von dem chemisch gebun­
denen Troxerutin waren dagegen auch
Art for Science
Aktuell
Wurde das Arzneimittel Troxerutin physikalisch an einen Kunststoff gebunden, ging es ebenso
schnell auf die Haut über wie beim Auftragen in Salbenform. Nach zwei Tagen war nichts mehr
davon im Körpergewebe nachweisbar. Bei chemischer Kopplung des Troxerutins an den Kunststoff erfolgte die Freisetzung viel langsamer durch allmähliche Hydrolyse der Bindung. Die
Haut wurde dadurch wesentlich länger mit dem Präparat versorgt; zudem war dessen Konzentration im Körpergewebe zu jeder Zeit höher als bei physikalischer Kopplung.
21
FORSCHUNG AKTUELL
nach einem Tag nur 15 Prozent in das
Wasserbad übergegangen.
Für das nächste Experiment rasierten
die Forscher Ratten ein kleines Areal am
Rücken. Dann teilten sie die Nager in
vier Gruppen. Eine blieb unbehandelt.
Bei der zweiten wurde Troxerutin-Salbe
auf die nackte Stelle aufgetragen. In der
dritten und vierten Gruppe befestigten
die Forscher ein Stück Stoff mit physika­
lisch beziehungsweise chemisch gebunde­
nem Troxerutin auf dem Rücken.
Mittels histologischer Untersuchun­gen
ermittelten die Forscher anschließend
wiederum den Zeitverlauf der Wirkstoff­
abgabe. Dabei zeigte sich kein Unter­
schied zwischen der Behandlung mit Sal­
be und mit einem Gewebestück, an das
Troxerutin physikalisch gebunden war.
In beiden Fällen wurde der Wirkstoff
sehr schnell freigesetzt und fand sich in
allen Bereichen unterhalb der Haut –
auch in den Gefäßwänden, wo er seine
Wirkung entfalten soll. Die Konzentra­
tion erreich­te nach zwölf Stunden Ein­
wirkdauer ihr Maximum und fiel dann
Kommentar
sehr schnell wieder auf das Niveau der
unbehandelten Referenzgruppe ab.
Das chemisch gebundene Troxerutin
wurde auch in diesem Fall sehr viel lang­
samer abgegeben. Seine Konzentration
erreichte erst nach ein bis zwei Tagen ihr
Maximum. Trotzdem war sie in allen
Hautschichten und in den Gefäßwänden
die ganze Zeit hindurch deutlich höher
als bei der Behandlung mit Salbe oder
physikalisch gebundenem Wirkstoff. Der
Grund für diesen günstigen Effekt ist
unklar. Vielleicht dringen die Troxeru­
tinmoleklüle nur langsam in die Zellen
ein, und eine schnell freigesetzte hohe
Dosis wird abtransportiert, bevor sie das
Zielgewebe erreicht.
Unabhängig vom konkreten Ergebnis
belegt diese Untersuchung erstmals im
Tierversuch, dass sich darüber, wie ein
Arzneimittel an ein Kleidungsstück ge­
koppelt ist, seine Abgabegeschwindigkeit
regulieren lässt. Vielleicht noch wichtiger
ist eine zweite Erkenntnis: Nicht nur die
Wirkstoffkonzentration im Präparat ist
ausschlaggebend für die Konzentration
im Zielgewebe; die Geschwindigkeit der
Freisetzung hat einen mindestens ebenso
großen Einfluss darauf, wie viel von dem
Medikament sich in dem Gewebe anrei­
chert, in dem es wirken soll.
Aus den Laborversuchen lässt sich aber
auch die praktische Empfehlung ableiten,
Kompressionsstrümpfe mittels chemi­
scher Bindung mit Troxerutin zu beladen.
Das würde gewissermaßen zwei Fliegen
mit einer Klappe schlagen: Zur Kompres­
sion der Wade, die kurzfristig Wasserein­
lagerungen verhindert, käme die konti­
nuierliche Freisetzung eines Therapeuti­
kums, welches das Problem langfristig
löst und den Strumpf überflüssig macht.
Bislang müssen sich veneninsuffiziente
Patienten mehrmals am Tag mit einer
Troxerutin-Salbe einreiben. Bioaktive
Kompressionsstrümpfe wären da nicht
nur eine wesentlich komfortablere, son­
dern auch effektivere Alternative.
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Die Größenverhältnisse werden deut­
lich, wenn man sieht, dass die Bemühun­
gen der Unterzeichner des Kioto-Abkom­
mens, den Ausstoß von Treib­haus­gasen
zu reduzieren, allein durch China zunich­
tegemacht werden, das seine Emissio­nen
zwischen dem Jahr 2000 und 2010 um
600 Millionen Tonnen gesteigert hat –
das Fünffache der Reduktion um 118
Millionen Tonnen durch die Unterzeich­
ner des Kioto-Protokolls. Über die Ent­
wicklung des Weltklimas entscheiden
also die drei Großmächte China, USA
und Indien, und die handeln nach ihren
Interessen. Da sie glauben, dass der Kli­
mawandel sie in den nächsten 20 Jahren
nicht wesentlich treffen wird – womit sie
Recht haben könnten –, fühlen sie sich
nicht genötigt, ihre innen- und außen­
politischen Ziele zu Gunsten einer auf
starke Emissionsminderung gerichteten,
kostspieligen Umsteuerung ihrer Wirt­
schaftspolitik zurückzustellen.
Deutschland trägt lediglich drei Pro­
zent zu den globalen Kohlendi­oxid­emis­
sionen bei. Selbst drastische Reduktio­
nen hier zu Lande hätten also wenig Ein­
fluss auf das Weltklima. Sie könnten nur
als Signal und Beispiel wirken. Doch die
Großen haben sich durch gute Beispiele
bisher nicht beeindrucken lassen.
Kopenhagen – quo vadis?
Globale Klimapolitik wird nur Erfolg haben, wenn die größten Kohlendioxid­
emittenten – China, USA und Indien – mitwirken. Deshalb müssen die Europäer wohl oder übel auf deren Vorstellungen eingehen.
Von Konrad Kleinknecht
D
as Scheitern der Klimakonferenz in
Kopenhagen vergangenen Dezem­
ber spiegelt die realen Machtverhältnisse
auf der Welt besser wider als die voll­
mundigen Erklärungen der Regierungs­
chefs. Die teilnehmenden Länder hatten
versucht, eine Nachfolgeregelung für das
Kioto-Protokoll zu finden. Dabei geht
es um die Begrenzung der Emissionen
der Treibhausgase Kohlendioxid, Methan
und Distickstoffmonoxid. Der Misserfolg
war abzusehen, seit die Mitglieder der
Asiatisch-Pazifischen Wirtschaftsgemein­
schaft (APEC) bei ihrem Treffen Mitte
November in Singapur beschlossen hat­
ten, keine bindenden Verpflichtungen
zur Reduktion der künftigen Emissionen
einzugehen. Die APEC-Länder verursa­
chen mehr als die Hälfte der weltweiten
22
Emissionen, allen voran China, die USA
und Indien.
Der chinesische Regierungschef Wen
Jiabao nahm zwar an der Kopenhagener
Konferenz teil, machte aber keinerlei
Konzessionen: China ist nicht bereit, sei­
ne wirtschaftliche Entwicklung zu Guns­
ten des Klimaschutzes zu bremsen. Es
wird keine absoluten Begrenzungen für
die Emissionen akzeptieren, sondern nur
eine Reduktion im Verhältnis zur wirt­
schaftlichen Leistung. Auch in den USA,
die pro Kopf der Bevölkerung am meis­
ten Kohlendioxid emittieren, gibt es im
Senat und im Repräsentantenhaus mas­
sive Widerstände gegen staatliche Ein­
griffe zum Klimaschutz. Ähnliches gilt
für Indien. Alle drei Länder haben das
Kioto-Protokoll nicht unterschrieben
und lehnen den Handel mit CO2-Emis­
sionszertifikaten ab.
Fritz Höffeler ist Diplombiologe und arbeitet
als wissenschaftlicher Illustrator sowie Autor in
Hamburg.
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010
Aktuell
Reuters / Ints Kalnins
Alle Proteste und Appelle an die verantwortlichen Politiker wie den US-Präsidenten
Obama konnten das Scheitern der Klimakonferenz in Kopenhagen nicht verhindern.
Der Wissenschaftliche Beirat für glo­
bale Umweltveränderungen (WBGU) der
Bundesregierung hat einen Katalog von
Forderungen zur Reduktion der Kohlen­
dioxidemissionen aufgestellt, der in die
deutsche Verhandlungsposition für Ko­
penhagen eingegangen ist. Dazu gehört
die völkerrechtliche Verankerung des
Ziels, den von Klimamodellen prognos­
tizierten Temperaturanstieg bis zum Jahr
2100 auf zwei Grad zu begrenzen. Da­
raus berechnen die WBGU-Mitglieder
eine Gesamtmenge von 750 Milliarden
Tonnen Kohlendioxid, die weltweit noch
emittiert werden dürfen – eine Zahl, die
naturgemäß mit großen Unsicherheiten
behaftet ist. Diese Kohlendioxidmenge
soll auf »Pro-Kopf-Basis« auf die Länder
verteilt werden.
Wenn man die Deutschland zugeteilte
Ration durch die gegenwärtige jährliche
CO2-Emission teilt, bleiben uns noch
zehn Jahre normaler industrieller Pro­
duktion, bis das vom Komitee dekretierte
Budget aufgebraucht ist; für die USA wä­
ren es sechs, für China 24 Jahre. Spätes­
tens ab 2020 müssten deutsche Unter­
nehmen also CO2-Emissionsrechte bei
Entwicklungsländern kaufen, die diese
nicht benötigen. Für die hiesige Industrie
würde das – bei einem geschätzten Preis
von 20 Euro pro Tonne CO2 – eine
kaum zu verkraftende Belastung von
rund zehn Milliarden Euro im Jahr be­
deuten. Dabei wäre mit diesem Opfer
weder dem Weltklima noch der Welt­
wirtschaft geholfen. Wir würden unsere
Sozialsysteme destabilisieren, den bis
2100 prognostizierten Temperaturanstieg
aber nur um zwei Jahre hinauszögern.
Nach dem Scheitern von Kopenhagen
dürfte China seine jährlichen Emissionen
in den nächsten zehn Jahren um 80 Pro­
zent steigern – so die Einschätzung der
Internationalen Energieagentur IEA. Bei
ungebremstem Wachstum von sechs bis
zehn Prozent wird sich in diesem Zeit­
raum die Wirtschaftsleistung verdoppeln.
Immerhin will die chinesische Regierung
die Kohlen­dioxid­emis­sio­nen »pro erwirt­
schafteten Yuan« um etwa 40 Prozent
senken, indem sie in den kommenden
zehn Jahren 30 neue Kernkraftwerke in
Betrieb nimmt, die Wasserkraft ausbaut
und Kohlekraftwerke modernisiert.
Trotzdem werden die jährlichen CO2Emissionen von sechs auf zehn Milliar­
den Tonnen steigen und damit ein Drit­
tel der globalen Emissionen ausmachen.
Nimmt man die etwas reduzier­­ten ameri­
kanischen und die steigen­den indischen
Emissionen hinzu, ergibt eine grobe Ab­
schätzung, dass schon bis zum Jahr 2020
etwa 320 Milliarden Tonnen CO2 in die
Atmosphäre gelangen. Das ist fast die
Hälfte der vom WBGU als globale Ober­
grenze definierten Menge.
Angesichts dieser Aussichten muss
man sich fragen: Leisten die Forderun­
gen des WBGU einen positiven Beitrag
auf dem Weg zu einem weltweiten Ab­
kommen, wie es für Kopenhagen vorge­
sehen war, oder sind sie wenig hilfreich?
Ist die Festlegung einer Verteilung auf
Pro-Kopf-Basis wirklich »fair«, wie es im
Text der WBGU heißt? Ist es angemes­
sen, dass einem Staat wie Deutschland,
der die Welt mit hochwertigen Maschinen
beliefert, pro Einwohner dieselbe Emis­
sion zugeteilt wird wie irgendeinem Ent­
Ideen für einen smarten Planeten
Supercomputer arbeiten
für jedermann.
Muss wirklich jeder, der Rechenleistung benötigt, den Aufwand für
ein eigenes Rechenzentrum betreiben: für Stromversorgung, Kühlung,
Sicherheit – und für Reservekapazitäten, die dann doch die meiste Zeit
brachliegen? Es ist an der Zeit, den Umgang mit dieser Ressource
einfacher und intelligenter zu gestalten. Mit innovativen Technologien
wie Cloud Computing kann man Rechenleistung heute zuverlässig
und nach Bedarf punktgenau zur Verfügung stellen, wo, wann und wie
sie gebraucht wird. Mit einem Wort, smart. Welchen Beitrag IBM dazu
leistet, erfahren Sie unter ibm.com/think/de/cloud
23
IBM, das IBM Logo
und ibm.com sind Marken
eingetr. Marken der International Business
Machines
Corp. in den Vereinigten Staaten und/oder anderen Ländern. Andere Namen von Firmen, Produkten und Dienstleistungen können Marken oder eingetr. Marken ihrer jeweiligen Inhaber sein. © 2009 IBM Corp. Alle Rechte vorbehalten.
SPEKTRUM
DERoderWISSENSCHAFT
· MÄRZ
2010
O&M IBM L 48/09
FORSCHUNG AKTUELL
Springers Einwürfe
Schluss mit der Klimakatastrophe!
Ein Skeptiker sieht sich bestätigt.
Einer meiner Freunde ist radikaler Klimaskeptiker. In seinem Blog spottet er tagtäglich über die Meinung, der Mensch erwärme durch den Ausstoß industrieller Treibhausgase die Erde. Er wittert eine Verschwörung der etablierten Klimaforscher und
regt sich darüber ungeheuer auf. Das geht so weit, dass seine Frau und seine Kinder
uns schon in der Tür hinter seinem Rücken anflehen, bloß nicht auf das heiße Thema
einzusteigen, sonst sei der ganze Abend im Eimer.
Das nützt aber nichts. Trotz lautstarker Proteste der Übrigen konfrontiert er mich
mit einem Schwall von Argumenten gegen den anthropogenen Klimawandel und will
hören, was ein doch immerhin naturwissenschaftlich Gebildeter darauf zu sagen
weiß. Vorsichtig erwidere ich: Klimaexperte sei ich zwar nicht, aber dass die Mehrheit der Forscher irrt, fände ich schon sehr unwahrscheinlich. Darauf kommt mein
Freund mit dem Fall Galilei als schlagendes Beispiel dafür, dass die herrschende Meinung durchaus im Unrecht sein kann.
Da mag ich ihm ungern widersprechen. Wer will schon als einer dastehen, der
­kritiklos alles nachbetet? Nur gebe ich zu bedenken, der vermehrte Ausstoß des
Treib­haus­gases Kohlendoxid seit Beginn der industriellen Revolution sei eine unbestreitbare Tatsache. »Ha!«, schreit mein Freund, »aber wieso kommt dann in der Klimageschichte oft zuerst die Erwärmung und erst danach der CO2-Anstieg?« Darauf
kenne ich zwar eine Antwort der etablierten Klimaforscher, aber damit stecken wir
schon mitten im Gestrüpp der Argumente für und wider.
Schließlich spielt mein Klimaskeptiker seine stärksten Trümpfe aus: Kürzlich sind
interne E-Mails von britischen Forschern an die Öffentlichkeit gelangt, in denen an
einer Stelle ein »Trick« bei der Datenpräsentation erwähnt wurde, um den Klimawandel zu untermauern. Noch peinlicher: In den offiziellen Bericht des Weltklimarats
IPPC für 2007 hat sich die groteske Behauptung eingeschlichen, bei anhaltendem
CO2-Ausstoß würden die Gletscher des Himalaja bis zum Jahr 2035 komplett abschmelzen.
Da hilft es mir wenig, den »Trick« als letztlich harmlosen Kunstgriff zu deuten und
den demnächst vermeintlich eisfreien Himalaja als Schlamperei im leider zu wenig
kontrollierten Teil II des IPCC-Reports zu bedauern. Offenbar haben sich in der
Klima­debatte reine Forschung und politische Interessen so heillos vermengt, dass
der Streit eine nur noch psychologisch erklärbare Härte angenommen hat. Wie Dan
Kahan, Professor an der Yale Law School in den USA, zu diesem Thema anmerkt, ist
jeder Mensch normalerweise bestrebt, in einer unübersichtlichen Problemlage seine
vorgefasste Meinung emotional zu schützen, indem er sich die ihm passenden Argumente zu eigen macht und die übrigen ausblendet (Nature, Bd. 463, S. 296).
Darum sind der E-Mail-»Trick« und die Himalaja-Gletscher-Katastrophe für meinen
Freund ein gefundenes Fressen, für mich nur zwei Anekdoten aus einem weltumspan­
nenden Forschungsprozess. Um meinen Skeptiker wenn nicht umzustimmen, so doch
wenigstens argumentativ zu erreichen, nehme ich mir vor, beim
nächsten Schlagabtausch seiner Skepsis weit entgegenzukommen und zu sagen: »Ja, der anthropogene Klimawandel ist keine
a priori feststehende Tatsache, sondern ein Forschungsgegenstand mit – wie in der Wissenschaft immer üblich – offenem Ergebnis. Nur: Bitte prüfe möglichst unvoreingenommen die vorläufigen Resultate. Und: Frage dich, wie plausibel die Gründe
für eine weltweite Verschwörung der Klimaforscher sind.«
Michael Springer
Ich bin gespannt, wie mein Versuch ausgehen wird.
24
wicklungsland? Die deutschen Export­
güter gehen auch in diese Länder; deshalb
sollten die mit der Fertigung notwen­dig
verbundenen CO2-Emissionen dem Pro­
duzenten gutgeschrieben werden.
Plädoyer für Pragmatismus
Die Pro-Kopf-Regelung kommt den un­
terentwickelten Staaten zwar entgegen.
Für die Hauptemittenten USA, China
und Indien ist sie aber inakzeptabel. Die
WBGU-Forderung hat die Verhand­lun­
gen in Kopenhagen deshalb eher er­
schwert als erleichtert. Will man das
wichtigste Ziel der Klimapolitik errei­
chen, nämlich die großen CO2-Emit­
tenten für eine globale Regelung zu
gewinnen, muss man auf deren Vor­
stellun­gen eingehen. Das hat die Bundes­
kanzlerin in Kopenhagen erfahren, wo sie
auf »sehr selbstbewusste« Chinesen traf.
Deren Vorstellung, die Emissionen
in Bezug zur Wirtschaftsleistung setzen,
sollte also ernsthafter in Betracht gezo­
gen werden. Zwar wollen die Chinesen
derzeit ihre Emissionen nur um 40 Pro­
zent pro zusätzlicher Wirtschaftsleistung
reduzieren. Doch vielleicht ließen sie mit
sich darüber reden, den Reduktionssatz
im Lauf der Zeit zu erhöhen und schließ­
lich auf die gesamte Wirtschafts­leis­tung
auszudehnen.
Es ist eine Illusion, zu glauben, ein
kleines Land könne seine idealistischen
Vorstellungen global durchsetzen. Ein
pragmatischer Vorschlag wie der, die zu­
gelassenen CO2-Emissionen nach einem
auszuhandelnden Schlüssel an der Wirt­
schaftsleistung auszurichten, könnte eher
die Zustimmung der Großmächte fin­
den und zu einer globalen Reduzierung
der Emissionen führen. Diese fiele zwar
geringer aus als der zum Erreichen des
Zwei-Grad-Ziels postulierte Wert. Aber
wie so oft im Leben gilt auch hier: Bes­
ser das Machbare realisieren, als auf den
eigenen Maximalforderungen zu behar­
ren und gar nichts zu erreichen. Im Al­
leingang kann weder Deutschland noch
die Europäische Union die Welt retten!
Konrad Kleinknecht ist Professor für Physik an
der Universität Mainz und beschäftigt sich mit
Hochenergiephysik sowie mit der Energieversorgung und dem Klimawandel. Er gehört dem Arbeitskreis Energie der Deutschen Physikalischen
Gesellschaft an, deren Klimabeauftragter er zehn
Jahre lang war. Sein Buch »Wer im Treibhaus
sitzt – wie wir der Klima- und Energiefalle entkommen« ist 2007 erschienen.
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2010
Schlichting!
Astronomie & Physik
Bilder wie aus dem Nichts geschöpft
In einem komplexen Puzzle aus Spiegelungen
sorgt erst eine menschliche »Leinwand« für Durchblick.
Noch viel wunderbarer als der einfache Spiegel
ist der durchsichtige Spiegel, z. B. ein Fenster, das
auf eine Landschaft hinausgeht und in dem sich
zugleich die Gegenstände unseres Zimmers spiegeln.
Christian Morgenstern (1871 – 1914)
Foto: H. Joachim Schlichting; Schemazeichnung: Spektrum der Wissenschaft, nach: H. Joachim Schlchting
Von H. Joachim Schlichting
Z
uweilen überrascht die Wirklichkeit mit
Szenerien, die man sich selbst kaum hätte ausdenken können. Vor ein regelrechtes
Rätselraten stellen uns nun die in nebenstehendem Schnappschuss sichtbaren optischen
Überlagerungen realer Ansichten sowie spiegelnder und diffuser Reflexionen. Wie lässt
sich dieses Puzzle – das eigentlich eine ganz
alltägliche Situation zeigt, fotografiert in
einem Restaurant – wieder in seine Bestandteile zerlegen?
Eine schematische Darstellung (Skizze
rechts außen) hilft dabei. Sie zeigt die Gesamtsituation, von der das Foto nur in etwa
den rot umrandeten Ausschnitt zeigt. Eine
Frau (F) sitzt in einem Restaurant mit dem
Rücken zu einem Fenster (Fenster 2), ihr gegenüber der Fotograf. Ein Raumteiler, nämlich eine spiegelnde Glasscheibe, ragt senkrecht zur Fensterfront in den Raum. Sie
trennt den nebenan vor Fenster 1 stehenden
Tisch, an dem ein Mann sitzt, von jenem des
Fotografen.
Der Fotograf hat eigentlich nichts anderes
getan, als diesen Mann durch die Spiegelscheibe hindurch zu fotografieren. Alles andere ergibt sich von selbst, man könnte auch
sagen: ist Physik. Denn die Frau spiegelt sich
in der Scheibe, so dass sich ihr Spiegelbild
(F*) mit dem Bild des Manns teilweise überlagert.
Mit der Frau wird auch der durch Fenster 2 wahrnehmbare Hintergrund gespiegelt,
ein von der Abendsonne hell erleuchtetes und
von blauem Himmel überragtes Haus. Aber
nur jene Teile der Spiegelung lassen sich überhaupt erkennen, für die insbesondere der
Kopf des Manns als Leinwand dient. Denn er
blendet das Tageslicht aus, das durch Fenster 1 in den Raum gelangt. Um seinen Kopf
herum hingegen löscht die große Intensität
des Tageslichts die Spiegelung am Raumteiler aus.
Über dem Kopf des Manns ist schließlich
ein dreieckiger Ausschnitt des blauen HimSPEKTRUM DER WISSENSCHAFT · MÄRZ 2010 Optisches Rätsel – wie lässt es sich lösen?
mels zu sehen. Hier setzt sich die Spiegelung
an der Raumteilerscheibe fort, wie der obere
Teil des gespiegelten Dachs erkennen lässt.
Dieser wiederum wird nur deshalb sichtbar,
weil außerhalb der Fenster auch eine heruntergelassene Markise das durch Fenster 1
dringende Tageslicht abblendet.
Wie es dem Mann »gelingt«, Teile des gespiegelten Hauses und des Gesichts der Frau
gleichsam aus dem Nichts heraus zu schöpfen und mit ihnen zu einem hybriden Gebilde aus Virtualität und Realität zu verschmelzen, lässt sich nicht ganz leicht reproduzieren. Optische Ansichten wie diese werden
uns zwar auch in den interaktiven Stationen
mancher Science Center geboten. Dort setzt
man sich an einen Tisch und blickt durch
eine Glasscheibe auf sein Gegenüber. Durch
Variation der Beleuchtung lassen sich dann
gezielt eindrucksvolle Verschmelzungen der
Gesichter herbeiführen. Die Komplexität und
Ästhetik solcher Installationen bleibt jedoch
weit hinter dem zurück, was uns der Alltag
häufig genug ganz absichtslos vor Augen
führt. Man muss nur lernen, dies auch so zu
sehen – und dafür genügen bereits geringe
Kenntnisse in geometri­scher Optik.
Fenster 1
Fenster 2
Männerkopf
Frauen
kopf*
(F*)
H*
Frauen
kopf
(F)
lscheibe
Spiege
Alles nur vorgespiegelt?
Schema der Topologie des Fotos
H. Joachim Schlichting ist Professor
und Direktor des Instituts für
Didaktik der Physik an der Univer­sität Münster.
25
H
Ron Miller
Titelthema:
Titelthema: stellare
stellare Dynamik
dynamik
26 Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Bis zu 3500 Sterne könnten einst in unmittelbarer Nähe des gerade entstehenden Sonnen­
sys­tems geleuchtet haben, einer von ihnen explodierte sogar in direkter kosmischer
Nachbarschaft. Sie alle sind oder waren Geschwister der Sonne: Entstanden aus ein und
derselben interstellaren Wolke, drängten sie sich ursprünglich in einer Region mit
einem Durchmesser von wenigen Lichtjahren. Obwohl sie mittlerweile rund um die Milch­
SPEKTRUM
DER WISSENSCHAFT
· März 2010
straße verteilt sind, könnten Astronomen einige
von ihnen
schon bald aufspüren.
Astronomie & Physik
Auf der Suche
nach den
Geschwistern
der
Sonne
Heute ist die Sonne eine Einzelgängerin. Entstanden ist sie jedoch
gemeinsam mit Tausenden anderer Sterne. Nach ihren stellaren Geschwis­
tern fahnden Forscher nun in direkter kosmischer Nachbarschaft.
Von Simon F. Portegies Zwart
S
o manchen ergreift unter dem
dunklen Himmel einer sternklaren
Nacht das Gefühl der Einsamkeit.
Kein Wunder: Der Nachthimmel
ist genau deshalb so dunkel, weil auch
unser Sonnensystem recht abgelegen ist.
Selbst unsere nächsten stellaren Nach­
barn erscheinen gerade einmal als win­
zige Lichtpunkte, und unsere schnellsten
Raumsonden wären Zehntausende von
Jahren zu ihnen unterwegs. Wir leben
also auf einer kleinen Insel in einem rie­
sigen kosmischen Meer. Doch nicht jeder
Stern ist so abgelegen. Etwa jeder zehnte
gehört zu einem Sternhaufen, einem we­
nige Lichtjahre durchmessenden Schwarm
aus Hunderten oder auch Zehntausenden
von Sternen. Tatsächlich entstehen sogar
die meisten Sterne in solchen Haufen.
Gewöhnlich lösen sich diese Ansamm­
lungen aber im Verlauf von Jahrmilliar­
den wieder auf, und ihre Mitglieder ver­
teilen sich in der Milchstraße.
Immer mehr Indizien sprechen dafür,
dass auch die Sonne erst allmählich in ihre
SPEKTRUM DER WISSENSCHAFT · März 2010
abgeschiedene Lage geriet. Während die
Astronomen unser Zentralgestirn lange
Zeit für ein »Einzelkind« hielten, gehen
mittlerweile viele von ihnen davon aus,
dass es vielleicht 1000 oder mehr Ge­
schwister besitzt, die alle etwa zur selben
Zeit geboren wurden. Anders gesagt: Als
das Sonnensystem im Entstehen begriffen
war, erschien der umgebende Weltraum
möglicherweise bei Weitem nicht so leer.
Hätten wir schon damals die Gelegenheit
gehabt, ihn zu betrachten, wären unsere
Augen vom Licht geblendet worden. Unser
Blick wäre auf einen mit hellen Sternen
übersäten Nachthimmel gefallen, von de­
nen einige heller leuchteten als der heutige
Vollmond. Manche von ihnen hätten wir
sogar am Taghimmel entdecken können.
Doch der Sternhaufen, zu dem unsere
Sonne vermutlich gehörte, existiert schon
lange nicht mehr. Wie er ausgesehen ha­
ben könnte, darüber lassen sich allerdings
eine ganze Reihe von Überlegungen an­
stellen. Aus vielen Beobachtungsdaten
habe ich einige Eigenschaften dieses Hau­
fens ermittelt und daraus auf die Bahnen
geschlossen, auf denen die früheren Hau­
In Kürze
r Lange vermuteten Astro­
nomen, die Sonne sei schon
immer ein einsamer Stern
gewesen. Doch die meisten
Sterne entstehen in Stern­
haufen. Untersuchungen an
Meteoriten und Kometen­
bahnen deuten nun darauf
hin, dass auch die Sonne
keine Ausnahme machte.
r Der Geburtshaufen der
Sonne könnte aus bis zu
3500 Sternen bestanden
haben, die sich in einer Region mit nur zehn Licht­
jahren Durchmesser drängten. Dann fiel dieser Haufen
allerdings auseinander.
r Längst haben sich die
Geschwister der Sonne, die
dort etwa zeitgleich mit ihr
entstanden waren, rund um
die halbe Galaxis verteilt.
Doch die Chancen stehen
gut, dass der Astrometrie­
satellit Gaia einige von
ihnen identifizieren wird.
So ließen sich zahlreiche
Lücken unseres Wissens
über die Frühzeit des
Sonnensystems schließen.
27
Titelthema: stellare dynamik
Als unsere Sonne
gerade einmal 1,8
Millionen Jahre alt
war, explodierte in
nächster Nähe ein
riesiger Stern
fenmitglieder durch die Galaxis unterwegs
sein könnten, und auf ihre jetzigen Aufent­
haltsorte. Obwohl sie sich mit Millionen an­
derer Sterne vermischt haben, können wir sie
so vielleicht doch identifizieren. Hierzu bietet
das Satellitenobservatorium Gaia, das die eu­
ropäische Raumfahrtorganisation Esa 2012
starten will, die nächste große Chance. Dem
»Global Astrometric Interferometer for Astro­
physics« würden sich die stellaren Geschwister
der Sonne durch entsprechende Bahnen eben­
so wie durch ihre sonnenähnliche Zusammen­
setzung verraten. Und im Erfolgsfall böte sich
endlich die Gelegenheit, die Bedingungen zu
rekonstruieren, unter denen unser Sonnen­
system einst aus einer formlosen Wolke aus
Gas und Staub entstanden ist.
Den bislang überzeugendsten Beleg dafür,
dass unsere Sonne tatsächlich Geschwister be­
sitzt, fanden Shogo Tachibana, der jetzt an der
Universität Tokio lehrt, und Gary R. Huss,
jetzt an der University of Hawaii in Manoa, im
Jahr 2003. Als die beiden Forscher zwei Mete­
oriten aus der Frühzeit des Sonnensys­tems un­
tersuchten, welche die Jahrmilliarden wohl na­
hezu unverändert überstanden haben, stießen
sie in chemischen Verbindungen, in denen sie
mit Eisen gerechnet hatten, auf Nickel-60.
Dieses Isotop entsteht, wenn Eisen-60 radio­
aktiv zerfällt – die bewussten Verbindun­gen
aber bilden sich nur, wenn tatsächlich Eisen
vorliegt. Folglich muss das Eisen-60 – in einem
seiner Halbwertszeit entsprechenden Zeit­raum – sowohl synthetisiert worden als auch
ins Sonnensystem gelangt und schließlich in
die Meteoriten eingelagert worden sein, denn
sonst hätten sich diese chemischen Verbin­
dungen nicht bilden können. Nach neuesten
Schätzungen beträgt die radioaktive Halbwerts­
zeit von Eisen-60 rund 2,6 Millionen Jahre.
Kosmisch gesehen ist dies nur ein Augenblick:
Das Eisen muss also aus unmittelbarer Nach­
barschaft stammen, und als wahrscheinlichste
Quelle gilt die Explosion eines Sterns.
Eine Supernova in weniger als
fünf Lichtjahren Entfernung
Aus den Ergebnissen von Tachibana und Huss
sowie aus weiteren Isotopenmessungen zog das
Team um Leslie Looney von der University of
Illinois im Jahr 2006 den Schluss: Als unsere
Sonne gerade einmal 1,8 Millionen Jahre alt
war, muss es in weniger als fünf, vielleicht so­
gar in gerade einmal 0,07 Lichtjahren Entfer­
nung zu einer Supernova gekommen sein.
(Die­se Abschätzungen müssen nun unwesent­
lich korrigiert werden, da die genannte, erst im
August 2009 veröffentlichte Halbwertszeit von
Eisen-60 um 1,1 Millionen Jahre höher liegt
als ursprünglich vermutet.)
Die Geburt des Urhaufens
Welche Ereignisse haben zur Geburt der Sonne geführt? Und was geschah danach? J. Jeff Hester
und Steven J. Desch von der Arizona State University und ihre Kollegen haben diesen Pro-
Ionisationsfront
zusammenge­
balltes Gas
massereicher
Stern
Zunächst bildet sich eine riesige
Wolke aus molekularem Gas
und beginnt, unter ihrem eigenen
Gewicht zu kollabieren.
28 In den dichtesten Regionen der
Wolke entstehen ein oder
mehrere massereiche Sterne.
Schockfront
Jeder dieser massereichen Sterne emittiert ultraviolette Strahlung
und ionisiert so das Gas in seiner Umgebung. In der Folge breitet sich eine Schockfront oder Dichtewelle mit einer Geschwindig­
keit von einigen Kilometern pro Sekunde nach außen aus.
SPEKTRUM DER WISSENSCHAFT · März 2010
Wäre die Sonne damals genauso einsam
gewesen wie heute, müsste der Zufall bei die­
sem Ereignis eine große Rolle gespielt haben.
Schließlich wären die Supernova und die Ent­
stehung der Sonne räumlich wie zeitlich fast
zusammengefallen. Geriet also ein masse­
reicher Stern zufällig in die Umgebung der
jungen Sonne, um just dort zu explodieren?
Doch keine andere Supernova fand je so nahe
bei der Sonne statt; ein solches Ereignis hätte
wahrscheinlich alles Leben auf der Erde aus­
gelöscht. Weitaus plausibler ist die Annahme,
dass die junge Sonne und der explodierte Stern
ein und demselben dicht gepackten Sternhau­
fen angehörten. Dann ist eine nahe Supernova
längst nicht mehr so unwahrscheinlich.
Die Vorstellung, dass die Sonne Teil eines
Sternhaufens war, steht im Widerspruch zu
dem, was noch immer in vielen Lehrbüchern
zu lesen ist. Traditionell fassten Astronomen
Sternhaufen in zwei Kategorien: galaktische
oder offene Haufen sowie Kugelsternhaufen.
Offene Sternhaufen sind jung, ihre Sterndichte
ist nicht sehr hoch, und sie finden sich haupt­
sächlich in oder nahe der Milchstraßen­ebene.
Das protoypische Beispiel für sie ist M44, die
Krippe oder Praesepe. Diesen Sternhaufen kann
man unter bestimmten Bedingungen selbst mit
unbewehrtem Auge als Nebelfleck am Nacht­
himmel entdecken, tatsächlich aber ist er eine
Nolan Walborn (NASA, STScI), Jesús Maíz-Apellániz (NASA, STScI)
und Rodolfo Barbá (La Plata Observatorium, Argentinien)
Astronomie & Physik
Ansammlung von bis zu 350 Sternen, die alle
vor rund 700 Millionen Jahren entstanden.
Im Gegensatz zu offenen Sternhaufen sind
Kugelsternhaufen sehr alt, dicht bevölkert
und rund um die Galaxis zu finden. Den ers­
ten seiner Art hatte der italienische Astronom
Giovanni Maraldi im Jahr 1746 entdeckt:
M15 enthält etwa eine Million Sterne und ist
rund zwölf Milliarden Jahre alt.
Doch unsere Sonne passt weder in die eine
noch in die andere Kategorie von Sternhaufen.
Ihr relativ hohes Alter von 4,6 Milliarden Jah­
ren deutet auf einen Ursprung in einem Kugel­
Der Sternhaufen R136 im
Tarantelnebel ähnelt dem Geburtshaufen der Sonne,
weist allerdings eine erheblich
höhere Sterndichte auf.
zess rekonstruiert. Dabei stützten sie sich auf Beobachtungen zahlreicher Sternhaufen ebenso
wie auf die möglichen Eigenschaften jenes Haufens, zu dem einst auch unsere Sonne gehörte.
Don Dixon
neugeborene
Sonne
Binnen weniger Millionen Jahre erreicht die Schockfront
Regionen bereits verdichteten Gases und komprimiert
diese weiter. Sie kollabieren, so dass Sterne entstehen –
darunter auch unsere Sonne.
SPEKTRUM DER WISSENSCHAFT · März 2010
Einige 100 000 Jahre später erreicht auch die Ionisationsfront die
neu­geborene Sonne. Das sie umgebende dünne Gas wird nun von dem
eintreffenden heißen, ionisierten Gas erhitzt.
29
Titelthema: stellare dynamik
Den Geschwistern
Auf der Spur
Mehrere Indizien deuten
darauf hin, dass die Sonne
in einem Sternhaufen
entstanden ist:
➤ Meteoriten aus der
Frühzeit des Sonnensystems
enthalten die Zerfallspro­
dukte kurzlebiger Radio­
nuklide wie Eisen-60 und
Aluminium-26. Quelle der
Isotope ist wahrscheinlich
ein in der Nähe explodierter
Stern. Die räumliche Nähe
und das ungefähre zeitliche
Zusammentreffen dieser
Supernova mit der Entste­
hung der Sonne ist höchst
unwahrscheinlich – es sei …
>>> Fortsetzung auf gegenüberliegender Seite
sternhaufen hin, ihre Position in der Milchstra­
ßenebene eher auf einen galaktischen Haufen.
In den vergangenen zwei Jahrzehnten wurde
allerdings klar, dass sich nicht alle Sternhaufen
eindeutig einem der beiden klassischen Typen
zuordnen lassen (siehe SdW 1/2004, S. 24).
Zu verdanken ist dies ursprünglich dem
Sternhaufen R136 in der Großen Magellan­
schen Wolke. Als ihn die Astronomen im Jahr
1960 entdeckt hatten, hielten sie R136 zu­
nächst für einen einzelnen, riesenhaften Stern
mit 2000-facher Sonnenmasse, der 100 Milli­
onen Mal stärker als die Sonne leuchtet. Im
Jahr 1985 zeigten jedoch Gerd Weigelt und
Gerhard Baier, beide damals an der Universi­
tät Erlangen-Nürnberg, mit Hilfe eines hoch­
auflösenden Abbildungsverfahrens, dass R136
ein nur wenige Millionen Jahre alter Haufen
ist, der aus rund 10 000 Sternen besteht. Sei­
ne Sterndichte ist so groß wie die eines Kugel­
sternhaufens, doch sein Alter ist das eines ga­
laktischen Sternhaufens. R136 ist also das feh­
lende Glied, das beide Typen von Sternhaufen
miteinander verbindet.
Seither haben Beobachter viele weitere ähn­
liche Haufen aufgespürt, doch damals herrsch­
te großes Erstaunen unter den Theoretikern.
Wir hatten nicht damit gerechnet, dass Sterne
auch heute noch in derart dichten Haufen
entstehen. Gleichzeitig waren wir erleichtert,
denn wir konnten die Daten auch nicht durch
die Existenz eines einzelnen Riesensterns er­
klären. So oder so waren wir aber gezwungen,
all unser Wissen über Sternhaufen zu über­
denken. Mittlerweile gehen wir davon aus,
dass alle Sterne einschließlich der Sonne in
dichten Haufen wie R136 entstehen. Ein
Sternhaufen wie dieser bildet sich aus einer
interstellaren Gaswolke, um sich dann je nach
seiner Masse und physikalischen Umgebung
entweder zu einem galaktischen oder zu einem
Kugelsternhaufen weiterzuentwickeln.
In solchen Haufen werden einige wenige
sehr massereiche Sterne von vielen Leichtge­
wichten begleitet. Die Exemplare mit der ge­
ringsten Masse, etwa einem Zehntel der Son­
nenmasse, stellen die Mehrzahl der Haufen­
mitglieder. Darüber hinaus gilt auf der
gesamten Massenskala die Faustregel: Betrach­
tet man Sterne einer bestimmten Masse, so ist
ihre Anzahl 20-mal höher als jene von Ster­
nen der zehnfachen Masse.
Wenn wir davon ausgehen, dass einst ein
Stern von 15- bis 25-facher Sonnenmasse in
der Nähe der Sonne zur Supernova wurde,
können wir also schließen, dass der Geburts­
haufen der Sonne rund 1500 kleinere Sterne als
diesen enthielt, und kennen so auch seine Min­
Das langsame Sterben des Urhaufens
Bevor der Geburtshaufen der Sonne sich auflöst, drückt er dem Sonnensystem noch seinen
Stempel auf. Die Strahlung anderer Sterne »stanzt« seine Form aus, eine nahe Supernova
protoplanetare
Scheibe
durch Radioaktivität
aufgeheizter Asteroid
Binnen 10 000 Jahren hat die durchziehende
Ionisationsfront das zirkumsolare Gas weit
im Weltraum verteilt. Die protoplanetare
Scheibe um die Sonne ist der ultravioletten
Strahlung nun direkt ausgesetzt.
30 In den nachfolgenden 10 000 Jahren werden
außen liegende Bereiche der Scheibe durch
die Strahlung verdampft, bis sie einen Radius
von nur noch rund 50 Astronomischen
Einheiten besitzt.
Etwa zwei Millionen Jahre später explodiert ein masse­
reicher Stern. Seine Trümmer, darunter gerade erst
erbrütete Radioisotope, erreichen das Sonnensystem.
Sie reichern die Vorläufer unserer Planeten an und
liefern die Energie für deren frühe geologische Aktivität.
SPEKTRUM DER WISSENSCHAFT · März 2010
Astronomie & Physik
destmasse. Die maximale Masse ergibt sich aus
einer weiteren Überlegung. Damit massereiche
Sterne, die als Supernova explodieren, ihre
kleineren Geschwister nennenswert mit Mate­
rie anreichern können, müssen sie sich eher
nahe dem Haufenzentrum befinden. In einem
größeren Haufen aber benötigen massereiche
Sterne längere Zeit, um sich dort anzusam­
meln. Auf Basis dieser Rahmenbedingungen
zeigen meine Simulationen, dass der Haufen
vermutlich weniger als 3500 Sterne enthielt.
Sterne mit 15- bis 25-facher Sonnenmasse
explodieren nach einer Lebensdauer von etwa
sechs bis zwölf Millionen Jahren, das Exem­
plar im Geburtshaufen muss also entspre­
chend lange Zeit vor der Sonne entstanden
sein. Dass sich besonders massereiche Sterne
eines künftigen Haufens gewöhnlich als erste
bilden – mehrere Millionen Jahre vor sonnen­
ähnlichen Sternen –, konnten Astronomen an
anderen Himmelsobjekten wie etwa dem be­
rühmten Trapez-Haufen im Orionnebel be­
reits nachweisen. Ein Haufen der vermuteten
Größe ist allerdings gravitativ zu schwach, um
sich zu einem Kugelsternhaufen zu entwi­
ckeln. Stattdessen geschah wohl Folgendes:
Vor ihrem Ende als Supernovae schleuderten
die massereichen Sterne im Haufenzentrum
riesige Mengen Gas in den Raum und explo­
dierten schließlich. Dadurch verringerte sich
die Materiedichte im Haufen und auch sein
Gravitationsfeld, so dass er expandierte und
nach einer Lebensdauer von 100 bis 200 Mil­
lionen Jahren langsam auseinanderfiel.
Doch zurück zu der Zeit, bevor das geschah
und die Sterne im Haufen noch dicht gepackt
waren: Es ist leicht vorstellbar, dass es einen
von ihnen damals auf eine Bahn verschlug, die
quer durch das Sonnensystem führte. Durch
einen solchen engen Vorübergang wären Pla­
neten, Asteroiden und Kometen aus ihren ur­
sprünglichen kreisförmigen Bahnen, die alle in
ein und derselben Ebene lagen, herausgerissen
und in stark elliptische und geneigte Bahnen
geworfen worden. Derartige Umlaufbahnen
besitzen tatsächlich viele Kometen, die mehr
als 50 Astronomische Einheiten (AE, etwa die
mittlere Entfernung Erde – Sonne) von der
Sonne entfernt sind (und sie damit auch jen­
seits der Bahn von Pluto umrunden).
Die innere Dynamik des Sonnensystems,
nicht einmal der gravitative Einfluss des Pla­
neten Jupiter, scheint dafür eine Erklärung zu
liefern. Am wahrscheinlichsten ist daher, dass
die Kometenbahnen einst durch einen Stern
durcheinandergebracht wurden, der in einem
Abstand von etwa 1000 AE an der Sonne
vorüber­zog. Daraus lässt sich auch schließen,
>>> Fortsetzung von S. 30
… denn, unser Zentralgestirn
besaß einst noch viele
Begleiter.
➤ Schwere Elemente sind
in der Sonne häufiger, als es
ihre Position in der Galaxis
erwarten lässt. Möglicher­
weise stammen auch diese
Elemente teilweise von dem
explodierten Stern.
➤ Dass Uranus und Neptun
wesentlich kleiner als Jupiter
und Saturn sind, könnte sich
durch die starke Strahlung
eines nahen Sterns erklä­
ren lassen, der einst ihre
Außenschichten verdampft
hat. Näher bei der Sonne
gelegene Planeten entgingen
diesem Schicksal, weil interplanetarisches Gas sie von
der Strahlung abschirmte.
reichert die wachsenden Planeten mit radioaktiven Isotopen an, und die Schwerkraft eines
vorbeiziehenden Sterns wirbelt die Umlaufbahnen der Kometen durcheinander.
Don Dixon
Zu einem unbekannten Zeitpunkt während der folgenden etwa 100 Millionen Jahre
zieht ein anderer Stern des Haufens in wenigen tausend Astronomischen Einheiten Entfernung an der Sonne vorüber. Seine Anziehungskraft wirft Kometen in den Außen­
bereichen des Sonnensystems aus der Bahn. Ihre neuen Umlaufbahnen sind nun stark
gegen die Ebene des Systems geneigt, in der sich die Planeten bewegen.
SPEKTRUM DER WISSENSCHAFT · März 2010
Die Anziehungskraft des Sternhaufens nimmt durch
die Selbstzerstörung seiner massereichsten Mit­
glieder ab, so dass er binnen 100 bis 200 Millionen
Jahren zerfällt. Die Haufenmitglieder, darunter die
Sonne, treiben nun langsam auseinander.
31
Titelthema: stellare dynamik
dass kein stellarer Eindringling je näher als
100 AE an die Sonne herangekommen ist,
denn die Planeten selbst besitzen außeror­
dentlich reguläre Umlaufbahnen.
Diese Überlegungen erlaubten mir nun,
die Ausdehnung des Haufens abzuschätzen.
Eine hinreichend große Wahrscheinlichkeit
dafür, dass ein Stern während der Lebensdau­
er des Haufens in einem Abstand von 1000
AE an der Sonne vorüberzieht, ergibt sich erst
bei einem Haufendurchmesser von weniger
als zehn Lichtjahren. Andererseits muss er
größer als drei Lichtjahre gewesen sein, damit
im gleichen Zeitraum und wiederum mit hin­
reichender Wahrscheinlichkeit kein Stern nä­
her als 100 AE an die Sonne herankam. Kurz
gesagt: Der Geburtshaufen der Sonne ähnelte
R136, wies aber eine deutlich geringere Stern­
dichte auf. So standen die Sterne auch weit
genug auseinander, um die Entstehung von
Planeten nicht zu behindern.
Doch wo in der Galaxis befand sich dieser
Geburtshaufen einst? Das Sonnensystem be­
wegt sich mehr oder weniger innerhalb der
ga­laktischen Scheibe auf einer nahezu kreis­
förmigen Bahn um das galaktische Zentrum.
Derzeit ist es rund 30 000 Lichtjahre vom
Zentrum entfernt, befindet sich etwa 15 Licht­
jahre oberhalb der galaktischen Ebene und be­
wegt sich mit einer Geschwindigkeit von rund
234 Kilometer pro Sekunde. Die Sonne hat
das galaktische Zentrum seit ihrer Entstehung
also schon 27-mal umrundet. Allerdings ist
ihre Bahn nicht geschlossen. Vielmehr wurde
ihr vom Gravitationsfeld der Milchstraße – das
Astronomen aus der Bewegung von Sternen
und interstellaren Gaswolken ermitteln kön­
nen – eine komplexere Bahn aufgezwungen.
Unerklärliches Ergebnis
Unter der bislang vorläufigen Annahme, dass
dieses Gravitationsfeld in den vergangenen 4,6
Milliarden Jahren unverändert blieb, habe ich
die Bahn des Sonnensystems zeitlich zurück­
verfolgt. Das Ergebnis meiner Berechnungen:
Die Sonne entstand 33 000 Lichtjahre vom
galaktischen Zentrum entfernt und etwa 200
Lichtjahre oberhalb der galaktischen Ebene.
Dieses Resultat ist allerdings verwirrend. Denn
die Region um den berechneten Geburtsort
der Sonne ist ärmer an schweren Elementen –
deren Häufigkeit zu den Außenbezirken der
Milchstraße hin abnimmt –, als es ihr Vor­
kommen in der Sonne erwarten ließe. Mach­
ten die Forscher allein die solaren Werte zur
Basis ihrer Überlegungen, würden sie vielmehr
erwarten, dass die Sonne 9000 Lichtjahre nä­
her am galakti­schen Zentrum entstanden ist.
Eine Erklärung für diese Diskrepanz steht
indessen noch aus. Vielleicht hat ja dieselbe
Supernova, die einst die Meteoriten mit Ei­
sen-60 anreicherte, auch die Sonne mit zu­
Do
n
Di
xo
n
Die Kometenbahnen
wurden einst durch
einen Stern durch­
einander­gebracht, der
nahe an der Sonne
vorüberzog
Die nächsten Nachbarn
Die Sonne ist gegenwärtig rund 30 000
Lichtjahre vom Zentrum der Milchstraße
entfernt. In einem Umkreis von zehn Licht­
jahren um unser Zentralgestirn kennen die
Astro­nomen nur elf weitere stellare Nach­
barn. Im einstigen Geburtshaufen der Son­
ne hingegen befanden sich im selben Vo­
lumen über 1000 Sterne.
Barnards Stern
Alpha Centauri
Sonne
Trifidnebel
Adlernebel
Sirius
Lagunennebel
Plejaden
hre
tja
Sonne
ich
0L
2
32 Orion-Arm
Orionnebel
SPEKTRUM DER WISSENSCHAFT · März 2010
Eine Familie zerfällt
Astronomie & Physik
unterstützen. Bereits die Entdeckung eines einzigen solchen
Sterns würde den Forschern helfen, den Ursprung des Son­
nensystems zu rekonstruieren.
Don Dixon
Indem sie die wahrscheinlichen Bahnen der Geschwister der
Sonne berechnen, können Theoretiker abschätzen, wo sich
diese heute befinden, und die Beobachter so bei ihrer Suche
10 000 Lichtjahre
Sonne
posi­
ursprünglicher original
Sternhaufen
tion
of the sun
200 Millionen Jahre nach Entstehung der Sonne
Während sie mit mehr als 200 Kilometer pro
Sekunde um das Zentrum der Galaxis kreisen,
entfernen sich die Sonne und ihre Geschwister
mit einer Geschwindigkeit von nur einigen
Kilometern pro Sekunde voneinander.
250 Millionen Jahre nach Entstehung der Sonne
Nachdem sie das galaktische Zentrum zu einem
Nach 27 Umläufen bilden die Sterne einen
Viertel umrundet haben, sind die Sterne erst über Zehntausende von Lichtjahren langen Strom.
eine Strecke von etwa 100 Lichtjahren verstreut. Etwa 50 von ihnen dürften noch immer maximal
300 Lichtjahre von der Sonne entfernt sein.
sätzlichen schweren Elementen versorgt? Oder
meine Bahnberechnungen sind falsch, weil
sich das Gravitationsfeld der Milchstraße im
Lauf der Zeit doch verändert hat. Oder aber
die Bahn des Sonnensystems unterlag zeitwei­
se dem Einfluss naher Sterne oder Gaswolken.
Widmen wir uns indessen den Geschwis­
tern der Sonne. Auch sie dürften das Milch­
straßenzentrum mit Geschwindigkeiten von
über 200 Kilometer pro Sekunde umkreisen.
Ihre Relativgeschwindigkeiten, also die Ge­
schwindigkeitsunterschiede zwischen den ehe­
maligen Haufenmitgliedern, hängen aber vor
allem von den gegenseitigen Anziehungskräf­
ten im ursprünglichen Haufen ab und betra­
gen lediglich wenige Kilometer pro Sekunde.
Der ursprüngliche Sternschwarm hat sich wäh­
rend der 27 Umläufe um das galaktische Zen­
trum darum langsam zu einem gestreckten Bo­
gen ausgebreitet, der sich mittlerweile über die
Hälfte einer Umlaufbahn erstrecken dürfte.
Meinen Berechnungen zufolge heißt das
aber, dass sich innerhalb eines Radius von 300
Lichtjahren um unsere gegenwärtige Position
noch immer etwa 50 Geschwister der Sonne
aufhalten. Sucht man in bis zu 3000 Lichtjah­
ren Entfernung, könnte man sogar auf 400
solcher Sterne stoßen! Diese würden der Bahn
der Sonne entweder folgen oder ihr voraus­
eilen, je nachdem, welche Relativgeschwindig­
keiten sie ursprünglich besaßen und wann sie
sich von dem Sternhaufen ablösten.
Am besten sucht man nach ihnen in der
Milchstraßenebene, und zwar entweder in Be­
wegungsrichtung des Sonnensystems oder ge­
SPEKTRUM DER WISSENSCHAFT · März 2010
nach 4,6 Milliarden Jahren (heute)
nau in entgegengesetzter Richtung. Einer mei­
ner Studenten fahndet bereits in einem Kata­
log von Sternen, die der europäische Satellit
Hipparcos in den frühen 1990er Jahren aus­
findig gemacht hat. Doch die Messungen wa­
ren wahrscheinlich nicht genau genug, um die
gesuchten Exemplare sicher zu identifizieren.
Anders Gaia: Der Satellit soll binnen fünf
Jahren mit höchster Genauigkeit die dreidi­
mensionalen Raumpositionen und Geschwin­
digkeiten von etwa einer Milliarde Sterne
messen. Diese Volkszählung wird nahezu alle
Sterne erfassen, die sich in einem Radius von
mehreren tausend Lichtjahren um die Sonne
aufhalten. In diesen Daten können wir dann
nach viel versprechenden Kandidaten Aus­
schau halten und auch ihre Zusammenset­
zung überprüfen. Sie sollte jener der Sonne
ähneln, da die einstige Supernova natürlich
nicht nur das junge Sonnensystem, sondern
auch andere Sternsysteme im Haufen mit
schweren Elementen angereichert hat.
Identifizieren wir auch nur einen einzigen
Geschwisterstern der Sonne, würde uns dies
wertvolle Informationen über die Frühzeit des
Sonnensystems verschaffen – eine Epoche,
über die wir bislang kaum etwas wissen. Zu­
dem bieten die Geschwister der Sonne auch
exzellente Voraussetzungen für die Suche nach
lebensfreundlichen Planeten. Die Sonne treibt
heute zwar relativ isoliert durchs Weltall, doch
viele ihrer Besonderheiten – nicht zuletzt die
Tatsache, dass ihr Licht auch auf einen be­
wohnten Planeten fällt – lassen sich nur im
Kontext ihrer Familiengeschichte begreifen.
Simon F. Portegies Zwart ist Pro­fessor für Computer-Astrophysik an
der Sternwarte der niederländischen
Universität Leiden. Seine Spezial­
gebiete sind Anwendungen für
Hochleistungsrechner und gravitative stellare Dynamik insbeson­dere
in Systemen hoher Sterndichte.
Elmegreen, B. et al.: The Formation
of Star Clusters. In: American Scientist 86(3), S. 264 – 273, Mai-Juni
1998.
Hester, J. J. et al.: The Cradle of
the Solar System. In: Science 304,
S. 1116 – 1117, 21. Mai 2004.
Looney, L. W. et al.: Radioactive
Probes of the Supernova-Contaminated Solar Nebula: Evidence That
the Sun Was Born in a Cluster.
In: Astrophysical Journal 652(2),
S. 1755 – 1762, 1. Dezember 2006.
Portegies Zwart, S. F.: The Lost Siblings of the Sun. In: Astro­physical
Journal Letters 696(1),
S. L13 – L16, 1. Mai 2009.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019950.
33
Metrologie
Die Zukunft von
Kilogramm und Co.
Im internationalen Einheitensystem der Zukunft werden auch Maßeinheiten
wie Kilogramm oder Ampere anhand von Naturkonstanten definiert sein.
Das aktuelle
Einheitensystem
➤ Die Sekunde ist das
9 192 631 770-Fache der ­
Periodendauer der Strahlung, die dem Übergang
zwischen den beiden
Hyperfeinstrukturniveaus
des Grundzustands von
Atomen des Nuklids 133 Cs
entspricht.
➤ Der Meter ist die Länge
der Strecke, die Licht
im Vakuum während der
Dauer von 1/299 792 458
Se­kunden durchläuft.
➤ Das Kilogramm ist die
Einheit der Masse; es ist
gleich der Masse des internationalen Kilogramm­
prototyps.
➤ Das Ampere ist die Stärke eines konstanten elektrischen Stroms, der, durch
zwei parallele, geradlinige,
unendlich lange und im
Vakuum im Abstand von einem Meter angeordnete
Leiter von vernachlässigbar
kleinem, kreisförmigem
Querschnitt fließend,
zwischen je einem Meter
Leiterlänge die Kraft 2 · 10 –7
Newton hervorrufen würde.
>>> Fortsetzung auf S. 37
34 Von Robert Wynands und Ernst O. Göbel
M
ögen Juristen und Politiker noch
darüber debattieren, wie Euro­
pas Staaten enger miteinander
zu verknüpfen seien, beim Mes­
sen und Wiegen ist die Einheit Eu­ropas
längst erreicht. Schon 1875 vereinbarten näm­
lich 17 Staaten aus aller Welt, darunter auch
das Deutsche Reich, in der »Inter­natio­nalen
Konvention für Maße und Gewichte« (kurz:
»Meterkonvention«) einen gemeinsamen Satz
von Maßeinheiten. Sie verwirklichten damit
den Traum der französischen Revolu­tionäre,
die gut 80 Jahre zuvor ein von lokalen Gege­
benheiten unabhängiges System anstrebten –
an Stelle der üblichen Maßeinheiten wie Elle
und Zoll, die oft von den Unterarmlängen
oder Daumenbreiten der jeweiligen Herrscher
abgeleitet waren. Allein in den deutschen
Territorien gab es Dutzende von Ellen, die
von 40,38 Zentimeter (cm) Länge in Erfurt
bis 79,90 cm in München reichten. Eine Ver­
einheitlichung hatte nicht nur ideologische
Gründe: Die Vielzahl an Standards er­
schwerte den freien Handel und bremste da­
mit die wirtschaftliche Entwicklung.
Heute erscheinen uns Einheiten wie Meter,
Kilogramm und Grad Celsius als selbstver­
ständlich, gelten sie doch fast überall auf der
Welt. Eine Ausnahme machen beispielsweise
die USA, wo noch heute Meile, Unze und
Grad Fahrenheit das Alltagsleben durchdrin­
gen. Das ist umso bemerkenswerter, als die
Vereinigten Staaten seit Anbeginn Mitglied
der Meterkonvention waren. Dass auch hier
zu Lande Zollangaben bei Computerfestplat­
ten und Fernsehschirmen üblich sind, darf
nicht irritieren, denn sie werden eher als Typ­
bezeichnung denn als Maßeinheit verstanden.
Wie es der Name sagt: Maßeinheiten die­
nen dem Messen und damit dem Vergleichen
von Objekten. Ob die Breite dieser Heftseite
210 Millimeter beträgt, lässt sich beispielswei­
se anhand der Zahl von Millimeterstrichen auf
einem Lineal als Vergleichsmaßstab bestim­
men. Die Sekundenbruchteile, die im Hoch­
leistungssport über Siegen oder Verlieren ent­
scheiden, ergeben sich anhand der Zeitmar­
ken eines Taktgebers. Was immer es zu messen
gilt: Stets zählt man ab, wie oft der Standard
einer Messgröße in das fragliche Intervall
passt. Dabei kann das Ergebnis nur so präzise
sein wie der Vergleichsstandard. Um für den
Alltagsgebrauch festzustellen, ob ein Blatt Pa­
pier der DIN-Norm genügt, reicht besagtes
Lineal. Zur Prüfung der Gewindesteigung ei­
ner Schraube sind schon feinere Standards er­
forderlich, von der Halbleiterindustrie mit ih­
ren tausendstel oder gar millionstel Millime­
ter breiten Transistoren ganz zu schweigen.
Vielleicht der bekannteste Standard ist der
internationale Kilogrammprototyp, das »Ur­
kilogramm« (siehe Bild S. 36), ein Zylinder
aus einer Platin-Iridium-Legierung von defini­
tionsgemäß einem Kilogramm Masse; er liegt
seit 1889 in einem Safe beim Internationalen
Büro für Maße und Gewichte (BIPM) in
­Sèv­res bei Paris. Damals ersetzte er die ältere
Definition über die Masse von einem Liter
Wasser bei maximaler Dichte. Ein Fortschritt,
denn diese verlangte, Temperatur und Druck
SPEKTRUM DER WISSENSCHAFT · März 2010
Astronomie & Physik
zu ermitteln, in deren Festlegung aber die
Masse mit einging – ein Zirkelschluss. Mit
dem Urkilogramm und seinen an die Mit­
glieder der Meterkonvention verteilten Kopien
war somit ein von anderen Größen sowie Ort
und Zeit unabhängiger Standard gegeben.
Einmal im Jahr wird in einer feierlichen
Zeremonie überprüft, ob der Zylinder noch
vorhanden und unversehrt ist. 1950 und
1990 erfolgte zudem ein Vergleich der Kopien
mit dem Original. Das Ergebnis: Die meisten
Kopien sind nun etwa 50 Mikrogramm
schwerer als das Urkilogramm. Vermutlich
aber ist der Prototyp auf Grund von Alte­
rungsprozessen oder durch Masseverluste
beim Reinigen leichter geworden – und somit
streng genommen auch das Kilogramm!
Die geringe Differenz hat für das Alltags­
leben wenig Bedeutung, ein Bäcker könnte sie
kaum auswiegen. Für die Wissenschaft ergibt
sich ein anderes Bild, denn das Kilogramm
geht in die Definition weiterer Einheiten ein,
etwa in die der elektrischen Spannung oder
der Magnetfeldstärke. Streng genommen
müss­ten nun also die Zahlenwerte in physika­
lischen Formeln dem Masseverlust des Urki­
logramms gemäß angepasst werden – ein wi­
dersinniges Vorhaben.
Solche Probleme von Verlust, Beschädi­
gung oder Alterung sind ein grundsätzliches
Problem bei Standards, die auf den Eigen­
schaften von Artefakten beruhen, seien sie na­
türlich – etwa die erwähnte Definition des Ki­
logramms über die Masse von einem Liter
Wasser – oder künstlich. Schon vor über 100
Jahren schlug der schottische Physiker James
Clerk Maxwell (1831 – 1879) daher vor, Maß­
einheiten an unveränderlichen Eigenschaften
von Molekülen beziehungsweise Atomen fest­
zumachen.
Ein nahezu perfekt kugelförmig
polierter Einkristall aus fast
isotopenreinem Silizium soll helfen, das Kilogramm neu zu
definieren: Dank seiner hochgenauen Geometrie lässt sich
die Zahl der in einem Mol des
Stoffs enthaltenen Atome, die so
genannte Avogadro-Konstante,
präziser als bislang ermitteln.
Diese Naturkonstante könnte
also die Grundlage einer neuen
Definition des Kilogramms
abgeben.
alle Fotos des Artikels (sofern nicht anders angegeben): Physikalisch-Technische Bundesanstalt, Braunschweig
SPEKTRUM DER WISSENSCHAFT · März 2010
35
Metrologie
Ohne exakte Zeit­
angaben wären
beispielsweise die
Datenströme in
Kommunikations­
netzen nicht zu
synchronisieren
Der Kilogrammprototyp aus
einer Platin-Iri­dium-Legierung
wird in einem Safe in Sèvres bei
Paris auf­bewahrt. Seine Masse
ist angelehnt an die Masse eines
Liters Wasser unter bestimmten
Umgebungsbedingungen.
36 Für die Einheit der Zeit, die Sekunde, ist
dies inzwischen geschehen. Bis Mitte des 20.
Jahrhunderts war sie noch über die Tageslänge,
also die Drehung der Erde um ihre eigene
Achse, festgelegt, später dann über die Länge
des Jahres, also die Bewegung der Erde um die
Sonne. Doch auch unser Planet eignet sich nur
bedingt als Standard, denn die Erdrota­tion ist
unvorhersehbaren Schwankungen unterworfen – etwa infolge von Erdbeben – und wird
überdies durch die Gezeitenreibung allmählich
abgebremst, was etwa alle zwei Jahre das Ein­
fügen einer Schaltsekunde erforderlich macht.
Als die Technik dazu verfügbar war, be­
schloss die Generalkonferenz für Maße und
Gewichte (CGPM) der Meterkonvention
1967, die Dauer der Zeiteinheit anhand einer
bestimmten Schwingung in einem Zäsium­
atom festzulegen: Eine Sekunde entspricht der
Dauer von 9 192 631 770 ihrer Perioden. Zu­
nächst auf etwa neun Stellen hinter dem
Komma genau, erreichen die besten Uhren der
Welt, so genannte Zäsium-Fontänenuhren,
heute eine Präzision von mehr als 15 Stellen
(siehe Bild S. 39). Davon profitieren nicht al­
lein Wissenschaftler: Ohne derart exakte Zeit­
angaben wären beispielsweise die Datenströ­
me in Kommunikationsnetzwerken nicht zu
synchronisieren, Positionsbestimmun­gen an­
hand von Satellitennavigation nicht möglich.
In einigen Jahren wird wahrscheinlich ein an­
deres chemisches Element dem Zäsium den
Rang ablaufen, das dann nicht mit einer Mi­
krowelle, sondern mit Laserlicht zum Schwin­
gen angeregt wird. Wegen der viel höheren
Frequenz des Lichts kann eine »optische Atom­
uhr« noch einmal 100-fach genauer sein.
Gleich mehrmals wurde die Einheit der
Länge, der Meter, der technologischen Ent­
wicklung angepasst. Als »Urmeter« fungierte
eine Platin-Iridium-Stange mit speziellem
Querschnitt und einer Länge, die sich vom
Erdumfang ableitete. 1960 wurde er durch
eine bestimmte Anzahl von Wellenlängen des
Lichts ersetzt, das Kryptonatome zum Beispiel
in einer Gasentladungsröhre aussenden. Da­
mit war immerhin ein atomarer Standard ein­
geführt, der aber schon bald nicht mehr den
gestiegenen Anforderungen von Technik und
Wissenschaft gerecht werden konnte. Dies
zeigte sich besonders deutlich, als in den
1970er Jahren bei der Messung der Lichtge­
schwindigkeit im Vakuum die Präzision des
Endergebnisses praktisch allein davon be­
stimmt und begrenzt wurde, wie gut sich die
Referenzstrecke auf die Definition der Länge
des Meters zurückführen ließ.
Daher wurde der Spieß 1983 gewisserma­
ßen umgedreht: Die gemessene Geschwindig­
keit des Lichts im Vakuum, 299 792 458 Me­
ter pro Sekunde, wurde nun als exakter Wert
dieser Naturkonstanten festgelegt und ein
Meter damit als diejenige Strecke definiert,
die Licht in einer 299 792 458stel Sekunde im
Vakuum zurücklegt.
Dringender Handlungsbedarf
Das heutige Einheitensystem SI, nach »Sys­
tème International des Unités«, nahm auf Sit­
zungen der CGPM ab 1954 Gestalt an (siehe
Kasten S. 34 und rechts). 1960 unter dieser
Bezeichnung offiziell eingeführt, wurde es
zwischenzeitlich mehrfach angepasst, zum
Beispiel 1967 durch die Neudefinition der Se­
kunde anhand atomarer Eigenschaften. Seit­
her hat sich die Technik aber rasant weiterent­
wickelt, und heute begrenzen Unsicherheiten
der Darstellung von Maßeinheiten weiterer
Größen die Messgenauigkeit. Deshalb steht
eine grundlegende Erneuerung des SI an. Ins­
besondere sollen das Kilogramm, das Mol (die
Einheit der Stoffmenge), das Kelvin (die Ein­
SPEKTRUM DER WISSENSCHAFT · März 2010
Astronomie & Physik
heit der thermodynamischen Temperatur)
und das Ampere (die Einheit der elektrischen
Stromstärke) in naher Zukunft auf Naturkon­
stanten bezogen werden, vielleicht auch die
Candela (die Einheit der Lichtstärke). Wie
beim Meter wird man versuchen, diese Kon­
stanten jeweils so genau zu bestimmen, wie es
das aktuelle SI ermöglicht, diese Werte dann
als verbindlich festlegen und daraus schließ­
lich die Neudefinitionen ableiten.
Der größte Handlungsbedarf aber besteht
wohl beim Kilogramm (kg). Hier haben sich
die Metrologen auf zwei aussichtsreiche Wege
verständigt: die Neubestimmung und an­
schließende Festlegung entweder der Avoga­
dro-Konstanten NA oder des planckschen
Wirkungsquantums h (siehe Spektrum der
Wissenschaft 6/2007, S. 76).
Der erste Ansatz definiert das Kilogramm
als Masse einer genau bestimmten Anzahl von
Atomen der gleichen Sorte. Der Gedanke
liegt nahe, ein »Urkilogramm 2.0« gezielt auf­
zubauen. Eine anspruchsvolle Aufgabe, denn
die Masse eines Atoms ist 10 25-mal kleiner als
ein Kilogramm, so dass entsprechend viele da­
von abgezählt werden müssten. Tatsächlich ist
genau das versucht worden, nämlich eine
wägbare Menge von Atomen (in diesem Fall
Wismut) aus einem Ionenstrahl auf einem
Substrat abzuscheiden. Diese Arbeiten sind
inzwischen eingestellt worden, denn es hätte
noch Jahre intensiver Forschungsarbeiten be­
durft, um zu entscheiden, ob die geforderte
niedrige Ungenauigkeit von 10 – 8 (1 zu 100
Millionen) auf diesem Weg erreichbar wäre.
Stattdessen wird ein anderes Verfahren an­
gewandt, das sich durch einen Vergleich an­
schaulich erklären lässt: Sollen die Flaschen
eines bestimmten Getränks in einem bela­
denen Laster gezählt werden, könnte man ihn
ausräumen und jede einzelne Flasche in jeder
Kiste notieren. Die periodische Anordnung
der Getränkekisten bietet eine weniger auf­
wändige Möglichkeit: Man bestimme das Vo­
lumen des Laderaums und teile es durch das
einer einzelnen Kiste; die so ermittelte Zahl
muss nur noch mit der Anzahl von Flaschen
pro Kiste multipliziert werden. Diese Rech­
nung stimmt freilich nur dann, wenn das Las­
tervolumen ganz mit regelmäßig angeord­
neten Kisten gefüllt ist und in keiner Kiste
Flaschen fehlen oder solche einer anderen Sor­
te stecken.
Diesen Weg beschreitet ein internationales
Konsortium unter der Projektleitung der Phy­
sikalisch-Technischen Bundesanstalt (PTB).
Die Rolle des Laderaums übernimmt dabei
ein Silizium-Einkristall aus nahezu isotopen­
reinem 28Si. Silizium wurde deshalb gewählt,
weil die Halbleiterindustrie jahrzehntelange
SPEKTRUM DER WISSENSCHAFT · März 2010
Die »Braunschweiger Elle« wurde
in die Mauer des historischen
Rathauses eingelassen, damit sich
Händler danach richten konnten.
Wer es nicht tat, musste mit empfindlichen Strafen rechnen.
Erfahrung damit hat, einen möglichst per­
fekten Kristall, weit gehend frei von Fremd­
atomen und Stapelfehlern, herzustellen. Aus
dem Kristall wird eine Kugel von etwa 9,4 cm
Durchmesser geschnitten und auf möglichst
exakte Rundheit poliert (siehe Foto S. 35).
Diese Größe wurde gewählt, weil dann die
Kugel eine Masse möglichst nahe an 1 kg be­
sitzt, so dass ein Massevergleich mit dem Ur­
kilogramm mit höchster Präzision möglich ist.
Das Kugelvolumen wird mit einem eigens
entwickelten optischen Interferometer gemes­
sen – das entspricht der Bestimmung des La­
deraumvolumens in der Lkw-Analogie.
Im Kristallgitter sind die Atome regelmä­
ßig angeordnet. Röntgenstrahlbeugung verrät
den Abstand der Atome im Kristallgitter, ana­
log zur Größe einer Getränkekiste. Als Konsis­
tenzcheck wird auch die Dichte des Materials
bestimmt, um zu überprüfen, ob es beispiels­
weise Hohlräume gibt. Mit einem Massen­
spektrometer lässt sich außerdem die relative
Atommasse eines Siliziumatoms (gemäß bis­
heriger Kilogrammdefinition) sehr genau er­
mitteln. Und schließlich muss man noch wis­
sen, wie dick die unvermeidliche Oxidschicht
auf der Oberfläche der Kugel ist, um ihren
Einfluss herauskorrigieren zu können, denn
das Oxid hat eine andere Dichte als der Silizi­
umkristall.
Dann sind alle Zutaten beisammen, um
eine Masse von 1 kg, also eine makroskopi­
>>> Fortsetzung von S. 34
➤ Das Kelvin, die Einheit
der thermodynamischen
Temperatur, ist der 273,16te
Teil der thermodynamischen
Temperatur des Tripelpunktes von Wasser.
➤ Das Mol ist die Stoff­
menge eines Systems, das
aus ebenso viel Einzelteilchen besteht, wie Atome
in 0,012 Kilogramm des
Kohlenstoffnuklids 12C
enthalten sind. Bei Benutzung des Mols müssen die
Einzelteilchen spezifiziert
sein. Sie können Atome,
Moleküle, Ionen, Elektronen sowie andere Teilchen
oder Gruppen solcher
Teilchen genau angegebener
Zusammensetzung sein.
➤ Die Candela ist die
Lichtstärke in einer bestimmten Richtung einer
Strahlungsquelle, die
monochromatische Strahlung der Frequenz 540 · 1012
Hertz aussendet und deren Strahlstärke in dieser
Richtung 1/683 Watt je
Raumwinkeleinheit beträgt.
37
Metrologie
Das Kilogramm könnte
künftig die Masse von
5,0184515XX · 10 25
12
C-Atomen im Grundzustand sein
sche Größe, mit der mikroskopischen Masse­
skala, der Atommasse relativ zu Atomen des
Isotops 12C, zu verknüpfen:
V 1
MKugel = Kugel
a3 mSin NA
Hier ist n die Zahl der Atome in einer
kubischen Elementarzelle mit Kantenlänge a
(analog der Zahl der Flaschen in einer Ge­
tränkekiste) und m Si die molare Masse von
28
Si, also etwa 28 Gramm. Dabei taucht als
Skalierungsfaktor die nach dem italienischen
Physiker und Chemiker Amedeo Avogadro
(1776 – 1856) benannte Avogadro-Konstante
NA auf. Diese gibt die Anzahl von Einzelteil­
chen in der Stoffmenge 1 Mol der jeweiligen
Teilchensorte an. Durch Auflösen der Glei­
chung nach NA und Festlegung des so gewon­
nenen Zahlenwerts als verbindlich ergäbe sich
dann ein Kilogramm als die Masse einer ge­
nau bestimmten Anzahl von Atomen.
Grundsätzlich könnte sich die neue Defi­
nition auf 28Si stützen. Allerdings ist die tradi­
tionelle, auf dem Kohlenstoffisotop 12C auf­
bauende atomare Masseskala so sehr in Wis­
senschaft und Technik etabliert, dass eine
Umstellung sehr aufwändig wäre, ohne ir­
gendeinen Vorteil zu bringen. Deshalb lautet
eine mögliche Neudefinition: Das Kilogramm
Vorschlag für ein modernisiertes Einheitensystem
Die Gremien der internationalen Meterkonvention streben die folgenden, auf Naturkonstanten bezogenen und stets gleich formulierten Definitionen an. Ein »X« bedeutet, dass
die Ziffer noch genau bestimmt werden muss.
Zudem wird die Festlegung der Sekunde statt
auf Zäsium in naher Zukunft auf ein anderes
Atom oder Ion bezogen werden.
Name
Die Einheit der ...
wird so definiert, dass ...
Sekunde
Zeit
die Grundzustandshyperfeinaufspaltung
des Zäsium-133-Atoms exakt 9 192 631 770
Hertz beträgt.
Meter
Länge
die Lichtgeschwindigkeit im Vakuum
exakt 299 792 458 Meter pro Sekunde beträgt.
Kilogramm
Masse
das plancksche Wirkungsquantum exakt
6, 626 068 96XX · 10 – 34 Joule-Sekunden beträgt.
Ampere
elektrischen Stromstärke
die Elementarladung exakt 1,602 176 487XX · 10 –19 Coulomb beträgt.
Kelvin
thermodynamischen Temperatur
die Boltzmann-Konstante exakt
1,380 650 4XX · 10 –23 Joule pro Kelvin
beträgt.
Mol
Stoffmenge
einer gegebenen Teilchensorte
die Avogadro-Konstante exakt
6,022 141 79XX · 10 23 pro Mol beträgt.
Candela
Lichtstärke
die spektrale Strahlstärke mono­chromatischer
Strahlung der Frequenz 540 · 10 12 Hertz exakt
683 Lumen pro Watt beträgt.
38 ist die Masse von 5,0184515XX · 10 25 12CAtomen in Ruhe und im Grundzustand. An­
gegeben haben wir hier den besten bisher be­
kannten Zahlenwert für die Avogadro-Kon­
stante geteilt durch die Masse eines Mols von
12
C-Teilchen (12 Gramm), gefolgt von »XX«
als Hinweis darauf, dass die letzten Ziffern
erst noch endgültig bestimmt werden müssen.
Die Siliziumkugel soll allerdings nicht das
Urkilogramm ersetzen. Sie wurde zunächst
nur für die Bestimmung der Avogadro-Kon­
stante angefertigt. Um Inkonsistenzen zu ver­
meiden, müsste die aktuelle Definition des
Mols etwas angepasst werden: Das Mol, die
Einheit der Stoffmenge einer gegebenen Teil­
chensorte, ist so festgelegt, dass die AvogadroKonstante exakt 6,022 141 79XX · 10 23 pro
Mol beträgt.
Massenbestimmung mit
Magnetfeld und Quanteneffekt
Der alternative Weg nutzt eine so genannte
Watt-Waage, die eine Beziehung zwischen
dem Kilogramm und einer anderen Natur­
konstante, dem planckschen Wirkungsquan­
tum h, herstellt. Dazu wird die Gewichtskraft
eines Objekts auf einer Waagschale durch eine
magnetische Kraft kompensiert. Diese ent­
steht auf Grund der Wechselwirkung zwi­
schen einem statischen, räumlich inhomogen
gestalteten Magnetfeld und dem Feld einer
stromdurchflossenen Spule, die mit der Waag­
schale verbunden ist. Aus der zur Kompensa­
tion erforderlichen Stromstärke I1 lässt sich
auf die Masse des Objekts schließen, sofern
die lokale Fallbeschleunigung und die genaue
Inhomogenität des Magnetfelds bekannt sind.
Um Letztere mit der erforderlichen Genauig­
keit zu ermitteln, wird die Spule im zweiten
Teil des Experiments mit konstanter Ge­
schwindigkeit durch dieses Feld bewegt. Da­
bei verändert sich zwangsläufig der magne­
tische Fluss durch ihre Spulenwicklung, und
eine elektrische Spannung U2 wird induziert.
Diese ist ein Maß für die Inhomogenität des
Feldes, deren Einfluss somit genau charakteri­
siert werden kann.
Dem ohmschen Gesetz zufolge entspricht
I1 dem Quotienten einer Spannung und eines
elektrischen Widerstands U1/R1. Auf höchs­
tem Niveau werden Spannungen (wie U1 und
U2) heute unter Ausnutzung eines Quanten­
effekts über so genannte Josephson-Kontakte
dargestellt (Spektrum der Wissenschaft 7/1980,
S. 90). Dabei handelt es sich um Bauteile aus
zwei Supraleitern, die durch eine dünne nor­
malleitende Schicht voneinander getrennt
sind. Bei Einstrahlung einer Mikrowelle der
Frequenz fJ fließt ein Gleichstrom, der zu ei­
ner Spannung von genau Un = n (h/2e) fJ zwi­
SPEKTRUM DER WISSENSCHAFT · März 2010
Astronomie & Physik
schen den Enden des Josephson-Kontakts
führt (wobei n eine ganze Zahl ist). Die Kon­
stante KJ = 2e/h (e ist die Elementarladung)
ist nach dem britischen Physiker Brian
Josephson benannt, der wichtige Aspekte sol­
cher Kontakte als 23-jähriger Doktorand vo­
rausgesagt hatte und 1973 dafür den Nobel­
preis erhielt.
Um den elektrischen Widerstand hochprä­
zise zu messen, bedient man sich des Quan­
ten-Hall-Effekts, dessen Entdeckung dem
deutschen Physiker Klaus von Klitzing 1985
den Nobelpreis einbrachte. Er tritt bei Strom­
fluss in dünnen Halbleiterschichten auf, wenn
ein starkes Magnetfeld angelegt wird (Spek­
trum der Wissenschaft 3/1986, S. 46). Dann
wird nämlich senkrecht zur Stromrichtung
eine Spannung induziert, deren Verhältnis zur
Stromstärke als Hall-Widerstand RH bezeich­
net wird. Dieser ist auf feste, quantisierte
Werte beschränkt: RH = h/(p e2), wobei p eine
ganze Zahl ist. Hier treten die Naturkon­
stanten h und e in der Kombination h/e 2 = RK
auf, der Von-Klitzing-Konstante.
Zurück zur Watt-Waage. Werden die Grö­
ßen U1, U2 und R1 über obige Quanteneffekte
gemessen, so erhält man nach einigen mathe­
matischen Umformungen der verschiedenen
Formeln eine Gleichung, die bei bekannter
Testmasse und genauer Kenntnis der Erdbe­
schleunigung am Ort der Messung die Be­
stimmung des planckschen Wirkungsquan­
tums erlaubt. Von nun an ließe sich im Um­
kehrschluss die gesuchte SI-Einheit auf die
folgende, etwas ungewöhnlich klingende
­Weise definieren: Eine Masse von einem
­Kilogramm ist künftig so festgelegt, dass
die Naturkonstante h = 6,626 068 96XX · 10 – 34
Joule-Sekunden groß ist.
Die große Schwierigkeit beider Ansätze be­
steht darin, Störeffekte so weit zu reduzieren,
dass die geforderte Ungenauigkeit im Bereich
von 10 – 8 erreicht wird (so genau nämlich kann
man bisher Massen auf das Urkilogramm be­
ziehen). Weder mit dem Avogadro-Experiment
noch mit einer der fünf in Aufbau beziehungs­
weise Betrieb befindlichen Watt-Waagen ist
dies bisher zufrieden stellend gelungen. Schlim­
mer noch: Die beiden Verfahren kommen der­
zeit nicht zu konsistenten Ergebnissen. Hier
wird aktuell weiter nach den Ursachen ge­
forscht, zum Beispiel durch genaue Analyse der
Apparaturen auf mögliche, bisher unentdeckte
Fehlerquellen hin. Zwischenzeitlich haben Gre­
mien der Meterkonvention beschlossen, für die
Neudefinition des Kilogramms den Weg über
das plancksche Wirkungsquantum zu wählen,
sobald hinreichende Übereinstimmung zwi­
schen den Ergebnissen der Watt-Waagen und
des Avogadro-Experiments erreicht ist.
SPEKTRUM DER WISSENSCHAFT · März 2010
Eine weitere problematische Definition im
Reigen der SI-Basiseinheiten ist die des Kel­
vins (K) als der Einheit der thermodyna­
mischen Temperatur. Dabei kommt reinstes
Wasser zum Einsatz: Bei 273,16 Kelvin er­
reicht H2O seinen Tripelpunkt, jenen thermo­
dynamischen Zustand, in dem Dampf, Flüs­
sigkeit und Eis im Gleichgewicht miteinander
vorliegen. Da die Isotopenzusammensetzung
des Wassers sowie kleinste Verunreinigungen
die Lage dieses Punkts beeinflussen, gibt es
eine präzise Vorschrift, wie eine zur Beobach­
tung des Tripelpunkts gedachte Wasserprobe
aus Entnahmen der Ozeane der Welt zu mi­
schen ist, denn in jedem Ozean ist die Isoto­
penzusammensetzung der H2O-Moleküle in
charakteristischer Weise verschieden. De facto
hat man es also erneut mit einem künstlichen
Objekt, einem Artefakt, als Standard zu tun.
Abhilfe soll wieder eine Naturkonstante
schaffen, diesmal die Boltzmann-Konstante kB,
die den Zusammenhang zwischen der Tempe­
ratur T und der thermischen Energie herstellt:
Eine der modernsten Atomuhren
der Welt ist die Fontänenuhr
CSF2 der Physikalisch-Technischen Bundesanstalt. In ihrem
Inneren werden Zäsiumatome
mit Laserlicht bestrahlt und
nahe an den absoluten Temperaturnullpunkt gekühlt. Durch
Einstrahlen von Mikrowellen
genau angepasster Frequenz
wird eine Schwingung in den
Atomen angeregt, die zur
Bestimmung der Dauer der
Sekunde herangezogen wird.
Etwa ein Dutzend solcher Uhren
weltweit sichert die Genauigkeit
der internationalen Zeitskalen.
39
Metrologie
Die Candela soll auch
heute so groß sein
wie zu jener Zeit,
als sie durch Flammen­
normale oder
glühende­Metalle bestimmt wurde
40 Eth = kBT, mit T = 0 am absoluten Nullpunkt.
Sofern sich diese Konstante auf sechs Stellen
genau bestimmen ließe, könnte das Kelvin
ohne Genauigkeitsverlust folgendermaßen de­
finiert werden: Eine Temperaturänderung von
1 K entspricht einer Änderung der thermi­
schen Energie kBT von 1,380 650 4XX · 10 – 23
Joule. Damit wäre die Temperatur- zu einer
Energiemessung in Beziehung gesetzt.
Man hat sich allerdings dafür entschieden,
die Definition bei äquivalentem physikali­schem
Inhalt in der folgenden Weise zu formulieren:
Das Kelvin ist so definiert, dass die BoltzmannKonstante exakt kB = 1,380 650 4XX · 10 – 23
Joule pro Kelvin beträgt. Dadurch wird die
Definition des Kelvins unabhängig von einer
bestimmten experimentellen Realisierungsart.
Weltweit sind auch hier wieder Experi­
mente im Gang, diese Neubestimmung auf
verschiedenen Wegen zu erreichen. An der
PTB zum Beispiel wird dazu die Dielektrizi­
tätskonstanten-Gasthermometrie eingesetzt.
Diese Konstante, auch Permittivität genannt,
beschreibt die Durchlässigkeit von Materia­
lien für elektrische Felder. Bringt man Mate­
rie in das elektrische Feld zwischen den Plat­
ten eines Kondensators, beeinflusst ihr Wert
dessen Kapazität, also sein Speichervermögen
für elektrische Ladungen. Misst man diese
Kapazität, lässt sich bei bekannter Geometrie
der Kondensatorplatten die Permittivität be­
rechnen.
Für ein Gas hängt die Dielektrizitätskon­
stante von der Temperatur ab. Wird also, wie
im PTB-Experiment, Helium in einen Präzi­
sionskondensator gefüllt, so ändert sich des­
sen Kapazität mit der Temperatur, ebenso mit
der Menge des Gases, also dessen Druck im
nominell festen Volumen des Behälters. Eine
genaue Analyse der Verhältnisse erlaubt es,
durch Messungen bei verschiedenen Tempera­
turen und Drücken die Größe der Boltz­
mann-Konstante zu ermitteln.
Auch die Definition des Amperes, der Ein­
heit der elektrischen Stromstärke, genügt heut­
zutage den Ansprüchen nicht mehr. Getreu
dem Wortlaut lässt sich ein »Ampere-Lineal«
im Labor gar nicht darstellen, denn man be­
nötigt dafür zwei unendliche lange, gerade
Drähte. Stattdessen werden beispielsweise spe­
zielle Anordnungen aus aufgewickelten Dräh­
ten genutzt und die Messungen rechnerisch
korrigiert. Eine Größenordnung genauer sind
Apparaturen, die das Ampere über das ohm­
sche Gesetz festlegen, also durch das Verhält­
nis von einem Volt Spannung und einem
Ohm Widerstand, die wiederum mit Hilfe
von Josephson- und Quanten-Hall-Effekt ab­
geleitet werden.
Elektronen zählen,
100 Millionen Takte lang
Für eine Neudefinition bietet es sich an, den
Wert der Elementarladung (gemessen in Cou­
lomb) zu Grunde zu legen, da der elektrische
Strom der pro Zeiteinheit transportier­ten La­
dungsmenge entspricht: Das Ampere ist dann
so definiert, dass die Elementarladung exakt
e = 1,602 176 487XX · 10 – 19 Coulomb beträgt.
Zur direkten Realisierung, also ohne den
Umweg über das ohmsche Gesetz, benötigt
man elektronische Bauteile, die nur jeweils
ein Elektron nach dem nächsten passieren
lassen – wie eine Drehtür, die nur einzelne
Personen durchlässt. Wird solch ein Bauteil
mit einer periodischen Steuerspannung ge­
taktet, so tritt bei jedem Puls genau ein Elek­
tron hindurch. Die Taktfrequenz kann aus ei­
ner Atomuhr präzise abgeleitet werden. Der
durch das Bauteil fließende Strom ergibt sich
dann in geradezu wörtlicher Übersetzung der
neuen Definition, indem der Betrag der La­
dung eines Elektrons, 1,602 176 487XX · 10 – 19
Coulomb, durch die Dauer eines einzelnen
Takts geteilt wird.
Das hört sich einfacher an, als es ist. Denn
die Methode funktioniert nur, wenn nicht ge­
legentlich zwei Elektronen durchschlüpfen –
oder gar keines. Die Anforderungen sind
­enorm: Auf 100 Millionen Takte darf nicht
mehr als ein Verzähler auftreten! Dabei kämp­
fen die Forscher noch damit, solche Einzel­
elektronenbauteile überhaupt zuverlässig her­
zustellen. Dazu erschaffen sie auf einem Halb­
leiterchip oder in einer supraleitenden
Leiterbahn eine winzige, weniger als einen
tausendstel Millimeter große »Insel«, auf die
immer nur ein zusätzliches Elektron aufge­
bracht und dann auf der anderen Seite wieder
abgezogen werden kann. Derartige kleine
Strukturen sind nicht nur schwer reproduzier­
SPEKTRUM DER WISSENSCHAFT · März 2010
bar herzustellen, es genügen auch bereits
schwache elektrische Störpulse, um sie zu zer­
stören. Zudem sind die abzählbaren Strom­
stärken derzeit noch zu klein für eine prakti­
kable Messtechnik, sie liegen im Bereich von
milliardstel Ampere und darunter. Über die
Erhöhung der Taktfrequenz, Parallelschaltung
mehrerer solcher Stromquellen oder mit so
genannten Kryostromkomparatoren – Spe­
zialtransformatoren zur Stromverstärkung –
versuchen die Forscher dem Problem beizu­
kommen.
Noch ganz am Anfang stehen jene Kolle­
gen, die sich um eine Neudefinition der Can­
dela bemühen. Im heutigen Einheitensystem
ist diese Einheit der Lichtstärke immerhin
schon durch eine monochromatische Strah­
lung festgelegt: 540 · 10 12 Hertz (das ent­
spricht einer Wellenlänge von 0,555 tausends­
tel Millimetern, also grünem Licht), Strahl­
stärke 1/683 Watt in einem Raumwinkel von
einem Steradiant. Die krummen Zahlen er­
klären sich durch die Geschichte dieser Ein­
heit: Die Candela soll auch heute so groß
sein wie zu jener Zeit, als sie durch Flammen­
normale oder glühende Metalle bestimmt
wurde.
Letztlich handelt es sich um eine Einheit,
die sich aus Sekunde, Meter und Kilogramm
herleiten lässt. Dass dennoch nach einer un­
abhängigen Definition geforscht wird, ist
nicht zuletzt in der großen wirtschaftlichen
Bedeutung begründet: Die Candela dient als
Bezugseinheit für die Beleuchtungsindustrie.
Um sie auf Größen aus der Quantenwelt be­
ziehen zu können, nutzen Wissenschaftler
neuartige Lichtquellen, die definiert einzelne
Photonen mit sehr präzise zu messender Ener­
gie aussenden. Diese werden von genau cha­
rakterisierten Detektoren mit Einzelphoto­
nen-Empfindlichkeit aufgefangen, um so den
Zusammenhang zwischen mikroskopischer
und makroskopischer Strahlungsleistung her­
zustellen. Angesichts der extrem kleinen Ener­
gie eines Photons ist es auch hier, ähnlich wie
beim Ampere, allerdings sehr problematisch,
eine makroskopisch bestimmbare Strahlungs­
leistung zu erhalten.
Gemäß der Struktur der Meterkonvention
kann nur die Generalkonferenz für Maße und
Gewichte, die zurzeit alle vier Jahre tagt, eine
Veränderung des SI beschließen. Das ist frü­
hestens 2011 der Fall, die beschriebenen For­
schungsarbeiten haben dieses Zieldatum vor
Augen. Nach einer Neudefinition, ob schon
2011 oder erst später, werden die Zahlen­
werte der Konstanten h, NA, kB und e festlie­
gen. Der Versuch, sie dann ein weiteres Mal
experimentell neu zu bestimmen, würde, wie
bereits jetzt bei der Lichtgeschwindigkeit im
SPEKTRUM DER WISSENSCHAFT · März 2010
VISUM / Marc Steinmetz
Astronomie & Physik
Vakuum der Fall, zu einem Zirkelschluss füh­
ren. Wichtiger als eine schnelle Neudefinition
ist jedoch die fortdauernde Konsistenz des
Einheitensystems, sowohl was die interne Wi­
derspruchsfreiheit angeht als auch zur Ver­
meidung von Skalensprüngen. So soll das
neue Ampere genauso groß sein wie das alte,
ein Kilogramm Platin nicht plötzlich mehr
Masse beinhalten als zuvor. Weder im Alltag
noch in der Wissenschaft dürfen sich die
Neubezüge in geänderten Zahlenwerten be­
merkbar machen.
Natürlich soll die gefundene Lösung von
Dauer sein und nicht nach wenigen Jahren er­
neut geändert werden müssen. Das ist auch
der Grund, warum es bis zur Neudefinition
der Sekunde noch dauern wird: Es gibt noch
keinen Konsens darüber, welcher atomare
Übergang langfristig die beste Wahl als Ersatz
für den des Zäsiums ist.
Angesichts der fundamentalen wissen­
schaftlichen und gesellschaftlichen Bedeutung,
die das korrekte Messen hat, werden bei der
Neudefinition von Einheiten keine Schnell­
schüsse gemacht. Die beteiligten Institutionen
sind sich ihrer Verantwortung bewusst. Sollten
die laufenden metrologischen Forschungs­
arbeiten bis 2011 zu keinem befriedigenden
Abschluss kommen, werden die Gremien der
Meterkonvention der Forschergemeinde eben
bis zum nächsten Treffen 2015 Zeit geben.
Was ist schon diese kleine Verzögerung gegen­
über der Aussicht, ein dauerhaftes Maßsystem
zu errichten, das sich ausschließlich auf Na­
turkonstanten stützt?
Messen mit dem Laserstrahl:
In einer 299 792 458stel Se­kunde legt Licht im Vakuum
exakt einen Meter zurück, so
die Definition von 1983.
Robert Wynands (rechts) und Ernst
O. Göbel arbeiten an der Physi­
kalisch-Technischen Bundesanstalt
in Braunschweig. Wynands war
dort zunächst für die Atomuhren
zuständig und leitet nun den
präsidialen Stab. Göbel ist Präsident der Bundesanstalt; zurzeit
ist er außerdem Präsident der
internationalen Meterkonvention.
Das Internationale Einheitensystem
(SI). PTB-Mitteilungen 2/2007, auf
www.ptb.de.
Göbel, E. O.: Quantennormale im
SI-Einheitensystem. In: Physikalische Blätter 53, S. 217 – 223, 1997.
Weitere Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019952.
41
Metrologie
42 SPEKTRUM DER WISSENSCHAFT · März 2010
Astronomie & Physik
SPEKTRUM DER WISSENSCHAFT · März 2010
43
Lebensentstehung
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Der Ursprung
irdischen Lebens
Allmählich lichtet sich der Nebel um eines der größten Geheimnisse der
Natur. Im Labor wiederholen Forscher die tastenden Schritte, mit
denen einst aus unbelebter Materie die ersten Organismen entstanden.
Von Alonso Ricardo und Jack W. Szostak
In Kürze
r Forscher haben vor­ eführt, wie das Erb­
g
molekül RNA aus Chemikalien entstehen
konnte, die auf der
unbelebten Früherde
vorhanden waren.
r Andere Experimente
stützen die Hypothese,
dass am Ursprung
allen irdischen Lebens
primitive Zellen standen, die RNA-ähnliche
Moleküle ent­hielten.
Diese Zellen konnten
sich spontan bilden, reproduzieren und weiter­
entwickeln.
r Wissenschaftler
versuchen jetzt künst­
liche Organismen zu
kreieren, die sich komplett selbst zu repli­
zieren vermögen. Wenn
im Labor praktisch ein
zweites Mal Leben entsteht, lässt sich besser
verstehen, wie es
ursprünglich entstand.
44 J
ede lebende Zelle, selbst das einfachste Bakterium, wimmelt nur so
von molekularen Maschinen, die einen Nanotechniker vor Neid erblassen
lassen. Sie zappeln, krabbeln und
schrauben sich rastlos durch die Zelle, sie
zerschneiden, kleben und kopieren Erbmoleküle, sie transportieren Nährstoffe hin
und her oder verwandeln sie in Energie, sie
bauen und reparieren Zellmembranen, sie
übertragen mechanische, chemische oder
elektrische Signale – die Aufzählung scheint
gar kein Ende zu nehmen, und mit jeder
neuen Entdeckung wird sie länger.
Wie um alles in der Welt soll sich diese
Zellmaschinerie, die vorwiegend aus Katalysatoren auf Eiweißbasis – so genannten
Enzymen – besteht, vor rund 3,7 Milliarden Jahren ganz von selbst zusammengebaut haben? Gewiss, unter geeigneten Bedingungen entstehen einige Proteinbausteine, die Aminosäuren, ohne Weiteres aus
einfacheren Chemikalien; das haben Stanley L. Miller und Harold C. Urey in den
1950er Jahren an der University of Chicago
mit ihren legendären Experimenten nachgewiesen. Doch von dort zu Proteinen und
Enzymen ist es noch ein gewaltiger Schritt.
Wenn eine Zelle Proteine synthetisiert,
trennen komplizierte Enzyme die beiden
Stränge der DNA-Doppelhelix voneinander,
andere Enzyme lesen die darauf in Genen
kodierten Protein-Bauanleitungen ab und
übersetzen sie in die fertigen Produkte. So-
mit tritt bei dem Versuch, den Anfang allen
Lebens zu erklären, ein paradoxes Problem
auf: Anscheinend sind – abgesehen von der
in der DNA gespeicherten Information –
Proteine nötig, um Proteine zu fabrizieren.
Das Paradoxon verschwände allerdings,
wenn die ersten Organismen ganz ohne
Proteine ausgekommen wären. Neue Experimente zeigen, dass Erbmoleküle, die der
DNA oder der strukturell nahe verwandten
RNA ähneln, spontan hätten entstehen
können. Und da solche Moleküle sich unterschiedlich zusammenzufalten und einfache Reaktionen zu katalysieren vermögen,
wurden sie vielleicht fähig, sich ohne die
Hilfe von Proteinen selbst zu kopieren.
Schwieriger Beginn
Wie konnte in der Frühzeit der Erde aus
einfachen Molekülen genetisches Material
entstehen? Betrachtet man die Funktion
der RNA in heute lebenden Organismen,
so liegt es nahe, dass die RNA vor der
DNA auftrat. Wenn heutige Zellen ein
Protein fabrizieren, kopieren sie zunächst
das entsprechende Gen von der DNA in
RNA und benutzen die RNA dann als Bau­
anleitung für das Protein. Dieser zweite
Schritt könnte anfangs unabhängig exis­
tiert haben; erst später wäre die DNA dank
ihrer besseren chemischen Stabilität als
dauerhaftere Speicherform aufgetreten.
Es gibt noch einen weiteren Grund,
weshalb Forscher annehmen, die RNA sei
zuerst entstanden. Ribozyme – Enzyme aus
RNA statt Protein – spielen auch in heu-
SPEKTRUM DER WISSENSCHAFT · März 2010
Holly Lindem und Gene Burkhardt
medizin & biologie
tigen Organismen noch eine zentrale Rolle.
Die Gebilde, welche die als RNA angelieferten Baupläne in Proteine umsetzen, sind
selbst Komplexe aus RNA und Protein,
wobei die RNA den eigentlichen Katalysator darstellt. Anscheinend enthält jede unserer Zellen in ihren Ribosomen »fossile«
Relikte einer urtümlichen RNA-Welt.
Darum konzentrieren sich viele Forscher
auf den Ursprung der RNA. Erbmoleküle
wie DNA und RNA sind Polymere, das
heißt Stränge aus kleineren Molekülen, in
diesem Fall aus Nukleotiden. Die wiederum bestehen aus drei Komponenten:
einem Zucker, einer Phosphatgruppe und
einer Nukleinbase. Es gibt vier verschiede­
SPEKTRUM DER WISSENSCHAFT · März 2010
ne Nukleinbasen; sie bilden das Alphabet,
mit dem das Polymer seine Information
kodiert. DNA-Nukleotide enthalten jeweils eine der Nukleinbasen A, G, C oder
T (Adenin, Guanin, Cytosin oder Thymin). Im Alphabet der RNA steht U (Uracil) an Stelle von T (siehe Kasten S. 46/47).
Die Nukleinbasen sind stickstoffreiche
Verbindungen, die sich nach einer einfa­
chen Regel paaren: A bindet immer an U –
beziehungsweise an T –, und G bindet
stets an C. Diese Basenpaare bilden die
Sprossen der spiralförmigen DNA-Leiter,
der bekannten Doppelhelix. Die korrekte
Paarung ist entscheidend dafür, dass bei
der Reproduktion der Zelle exakte DNA-
Basenpaare ordnen das
Alphabet der Vererbung in
der RNA-Welt: Adenin mit
Uracil, Guanin mit Cytosin.
45
Lebensentstehung
Was ist Leben?
Wissenschaftler bemühen
sich seit Langem, den Begriff
»Leben« so weit zu fassen,
dass er auch noch unentdeckte Lebensformen einschließt. Hier sind nur einige der vielen vorgeschlagenen Definitionen aufgeführt:
1. Der Physiker Erwin
Schrödinger­postulierte als
grundlegende Eigenschaft
lebender Systeme, dass sie
sich entgegen der natürli­
chen Tendenz zu wachsender
Entropie – oder Unordnung –
selbst organisieren.
2. Nach der von der NASA
übernommenen Arbeits­
definition des Chemikers
Gerald Joyce ist Leben »ein
chemisches System mit
der Fähigkeit zur Selbster­
haltung und zur darwinschen Evolution«.
3. Gemäß der »kyber­
netischen Definition« von
Bernard Korzeniewski
ist Leben ein Netzwerk
von Rückkopplungs­
mechanismen.
Kopien entstehen. Zucker und Phospatgruppen bilden das Rückgrat jedes Strangs.
Nukleinbasen können in wenigen Schritten spontan aus Zyanid, Azetylen und Wasser
entstehen – aus einfachen Molekülen, die auf
der präbiotischen Erde sicherlich vorhanden
waren. Auch Zuckermoleküle lassen sich
leicht aus einfachen Ausgangssubstanzen synthetisieren. Schon seit gut 100 Jahren ist bekannt, dass beim Erhitzen einer alkalischen
Lösung von Formaldehyd – auf der jungen
Erde sicher verfügbar – Mischungen vieler
verschiedener Zuckermoleküle entstehen. Das
Problem ist nur: Wie gewinnt man den speziell zum Bau von Nukleotiden geeigneten Zucker? Im Fall der RNA ist das die Ribose. Sie
ist chemisch labil und zerfällt schon in
schwach alkalischen Lösungen rasch. Daraus
schlossen viele Forscher bis vor Kurzem, das
erste Erbmolekül habe keine Ribose enthalten
können. Doch einer von uns (Ricardo) und
andere Forscher haben herausgefunden, wie
die Ribose stabilisiert werden kann.
Auch der Phosphatanteil der Nukleotide
bereitet Kopfzerbrechen. Phosphor, das Zentralatom der Phosphatgruppe, ist in der Erdkruste zwar reichlich vorhanden, jedoch meist
in Form von Mineralien, die sich in Wasser
Tricks beim Zusammenbau
Im Jahr 2005 entdeckten Matthew Pasek und
Dante Lauretta von der University of Arizona,
dass die Korrosion von Schreibersit in Wasser
den Phosphoranteil freisetzt. Dieser Mechanismus erscheint viel versprechend: Der freigesetzte Phosphor ist nicht nur viel besser
wasserlöslich als Phosphat, sondern reagiert
auch viel bereitwilliger mit organischen – auf
Kohlenstoff basierenden – Verbindungen.
Damit hätten wir also eine grobe Vorstellung der möglichen Abläufe, die zur Entstehung von Nukleinbasen, Zuckern und löslichem Phosphat führen. Der nächste Schritt
wäre logischerweise, diese Komponenten in
korrekter Weise zu verbinden. Doch gerade das
Die ersten genetischen Moleküle
Die ersten irdischen Lebewesen,
die fähig waren, sich zu reproduzieren und weiterzuentwickeln,
speicherten ihre Erbinformationen
wahrscheinlich in Form von Molekülen, die der RNA ähnelten, einer
der DNA strukturell verwandten
Nukleinsäure. DNA und RNA sind
Ketten aus so genannten Nukleotiden (links hervorgehoben). Aber
wie konnten Nukleotide einst aus
einfacheren Chemikalien entstehen? Die drei Bestandteile eines
Nukleotids – Nukleinbase, Phosphatgruppe und Zucker – bilden
sich zwar mitunter spontan, fügen
sich jedoch nicht von selbst richtig
zusammen (Mitte). Wie neue Experimente zeigen, können zumindest
zwei Typen von RNA-Nukleotiden,
welche die Nukleinbasen C und U
enthalten, auf anderem Weg entstehen (ganz rechts). In heutigen
Organismen gibt es vier Typen von
RNA-Nukleinbasen: A, C, G und U.
46 kaum lösen. Darum ist nicht offensichtlich,
wie Phosphate in die präbiotische Mixtur gelangt sein sollen. Die hohen Temperaturen
von Vulkanschloten können phosphathaltige
Mineralien in lösliche Formen überführen,
doch die so freigesetzten Mengen sind, zumindest in der Nähe heutiger Vulkane, gering.
Eine völlig andere Quelle für lösliche Phosphatverbindungen ist Schreibersit oder Glanzeisen – ein seltenes Mineral, das vor allem in
bestimmten Meteoriten auftritt.
doppelsträngige RNA
A
U
A
U
G
C
Zucker
Nukleinbase
C
Phosphatgruppe
G
ZuckerPhosphatRückgrat
komplementäre
Nukleinbasenpaare
SPEKTRUM DER WISSENSCHAFT · März 2010
bildete in den vergangenen Jahrzehnten die
hartnäckigste Hürde in der präbiotischen Chemie. Einfaches Mischen der drei Komponenten in Wasser löst noch lange nicht die spontane Bildung eines Nukleotids aus – hauptsächlich deshalb, weil jede der erforderlichen
Bindungsreaktionen auch ein Wassermolekül
freisetzt, und so etwas kommt in wässrigen Lösungen von selbst kaum vor. Damit sich die
chemischen Bindungen bilden können, muss
darum Energie zugeführt werden, zum Beispiel
in Form energiereicher Substanzen, an denen
in der präbiotischen Welt vermutlich kein
Mangel herrschte. Im Labor erwiesen sich Reaktionen, die von solchen Molekülen angetrieben werden, allerdings als völlig ineffizient.
Doch das Frühjahr 2009 brachte eine
große Überraschung: John Sutherland und
seine Mitarbeiter von der University of Manchester (England) verkündeten, sie hätten einen viel plausibleren Mechanismus der Nukleotidsynthese gefunden, der auch das Problem der Instabilität von Ribose umgeht.
Diese raffinierten Chemiker brachen mit der
Tradition, Nukleotide aus Nukleinbase, Zucker und Phosphat herstellen zu wollen. Ihr
Ansatz beruht zwar auf denselben einfachen
Substanzen wie früher, die aus Zyanid, Azety-
Laurent Villeret
Medizin & Biologie
len und Formaldehyd entstehen. Doch statt
Nukleinbase und Ribose getrennt herzustellen
und erst danach zu versuchen, sie zu verbinden, mischten sie gleich alle Ausgangsstoffe
zusammen, und obendrein Phosphat. Im Verlauf einer komplizierten Reaktionsfolge, bei
der das Phosphat mehrmals als unersetzlicher
Katalysator wirkte, entstand ein kleines Molekül namens 2-Aminooxazol; es lässt sich als
Fragment eines Zuckers auffassen, das an ein
Stück einer Nukleinbase gebunden ist (siehe
Kasten unten).
Vermutlich entstanden einst in einem früh­
irdischen Tümpel nebst einem Mischmasch
anderer Substanzen auch geringe Mengen von
2-Aminooxazol. Dieses kleine, stabile Molekül
Gescheiterte Nukleotidsynthese
Ein neuer Weg
Lange Zeit gelang es den Chemikern nicht,
einen Weg zu entdecken, auf dem Nukleinbasen, Phosphat und Ribose – die Zuckerkomponente der RNA – sich spontan zu
RNA-Nukleotiden verbinden konnten.
In Gegenwart von Phosphat bilden die Ausgangsstoffe für
Nukleinbasen und Ribose zunächst 2-Aminooxazol. Dieses Molekül enthält Teile eines Zuckers sowie Teile der Nukleinbasen C oder U. Weitere Reaktionen ergeben zunächst
einen kompletten Baustein aus Ribose und Base und
anschließend ein komplettes Nukleotid. Daneben entstehen
zwar auch »falsche« Verbindungen, doch diese werden
durch Bestrahlung mit ultraviolettem Licht ausgemerzt.
Chemikalien, die vor den
ersten lebenden Zellen vorhanden waren
Im Mai 2009 lösten John Su­ther­
land und seine Kollegen von der
University of Manchester (England) ein hartnäckiges Problem
der präbiotischen Chemie. Sie
zeigten, dass Nukleotide sich
durch eine spontan ablaufende
Folge chemischer Reaktionen
bilden können. Das Foto zeigt
Sutherland (zweiter von links)
mit seiner Labormannschaft.
Zucker
Nukleinbase
C
Phosphat
2-Aminooxazol
x
Phosphat
Arabinooxazolin
C
Zucker
Sauerstoff
Kohlenstoff
Stickstoff
Phosphor
Phosphat
RNA-Nukleotid
SPEKTRUM DER WISSENSCHAFT · März 2010
Andrew Swift, nach: Matthew W. Powner, Beatrice Gerland & John D. Sutherland, »Synthesis of activated
pyrimidine ribonucleotides in prebiotically plausible conditions«, in: nature, Bd. 459, 14. Mai 2009
Chemikalien, die vor den
ersten lebenden Zellen vorhanden waren
47
Auf dem langen Weg zum Leben
Lebensentstehung
Alternativen
zu »RNA zuerst«
PNA zuerst
Peptid-Nukleinsäure ist ein
Molekül, bei dem die Nukleinbasen auf einem proteinähnlichen Rückgrat sitzen.
PNA ist einfacher aufgebaut
als RNA und auch chemisch
stabiler. Daher glauben
einige Forscher, dass dieses
Polymer in den ersten
Lebensformen die Erbinformationen trug.
Stoffwechsel zuerst
Da es schwierig ist, die Entstehung von RNA aus unbelebter Materie zu erklären,
bevorzugen manche Forscher
die Annahme, das Leben sei
in Form von vernetzten
Katalysatoren entstanden,
die gemeinsam Energie
verarbeiteten.
Panspermie
Weil zwischen der Entstehung der Erde und dem
Auftreten erster Lebensformen »nur« ein paar
hundert Millionen Jahre
liegen, meinen einige
Wissenschaftler, die aller­
ersten Organismen seien
aus dem Weltall auf die Erde
gelangt.
48 ist sehr flüchtig. Sobald das Wasser verdunstete, verdampfte darum auch das 2-Aminooxazol, um andernorts in reiner Form wieder zu
kondensieren. Dort bildete es das Ausgangsmaterial für weitere chemische Reaktionen, die
zu einer Verbindung aus einem vollständigen
Zucker und einer Nukleinbase führten.
So elegant dieser Weg auch erscheint, er
liefert leider nicht ausschließlich die
»richtigen« Nukleotide; manchmal sind
Zucker und Nukleinbase nicht korrekt angeordnet. Doch erstaunlicherweise zerstört
Bestrahlung mit ultraviolettem Licht – wie
in seichten Gewässern auf der frühen Erde,
die starker UV-Strahlung ausgesetzt waren –
die »falschen« Nukleotide und lässt nur die
»richtigen« übrig. Alles in allem ergibt sich ein
blitzsauberer Reaktionsverlauf zu den C- und
U-Nukleotiden. Freilich fehlt noch ein ebenso schöner Reaktionspfad zu G und A, aber
Sutherlands Team hat jedenfalls einen wesentlichen Beitrag zur Antwort auf die Frage ge­
leis­tet, wie ein so komplexes Molekül wie die
RNA einst überhaupt entstehen konnte.
Künstliches Leben im Labor
Wenn wir einmal Nukleotide haben, fehlt als
letzter Schritt zur Synthese eines RNA-Moleküls noch die Polymerisation: Der Zucker des
einen Nukleotids bildet eine chemische Brücke zur Phosphatgruppe des nächsten, so dass
sich die Nukleotide kettenförmig aneinanderreihen. Da sich die Ketten in wässriger Lösung nicht spontan bilden, benötigt auch dieser Schritt Energiezufuhr. Forschern gelang es,
kurze Ketten von 2 bis 40 Nukleotiden Länge
zu produzieren, indem sie einer Lösung chemisch reaktiver Nukleotidderivate verschiede­
ne Chemikalien beifügten. Gene heute lebender Organismen sind allerdings Tausende bis
Millionen Nukleotide lang. Ende der 1990er
Jahre konnten Jim Ferris und seine Mitarbei-
Nachdem durch chemische Reaktionen die ersten
genetischen Bausteine und andere organische Moleküle entstanden waren, brachten geophysikalische
Prozesse sie in neue Umgebungen und reicherten sie
dort an. Die Chemikalien fügten sich zu größeren Molekülen und schließlich zu primitiven Zellen zusammen. Vor rund 3,7 Milliarden Jahren brachten güns­
tige Umweltbedingungen diese Protozellen dazu, sich
zu reproduzieren.
mikroskopische
Tonschichten
Polymerisation
von Nukleotiden
Brutstätten der RNA
In den wässrigen Lösungen, in denen die Nukleotide entstanden, konnten sie sich kaum zu langen Strängen zusammenlagern und Erbinformationen speichern. Dafür
waren spezielle Bedingungen nötig – zum Beispiel molekulare Adhäsionskräfte, welche die Nukleotide zwischen
mikroskopisch dünnen Tonschichten eng zusammenbrachten (oben).
ter vom Rensselaer Polytechnic Institute zeigen, dass Tonmineralien den Prozess begüns­
tigen, wodurch Ketten mit bis zu 50 Nukleotiden entstehen. Da mineralische Oberflächen
die Eigenschaft haben, Nukleotide zu binden,
bringen sie die reaktiven Moleküle nahe zusammen und erleichtern so die Brückenbildung (siehe Kasten oben).
Diese Entdeckung bestärkte einige Forscher in ihrer Annahme, das Leben sei auf mineralischen Oberflächen entstanden – möglicherweise im lehmreichen Schlamm auf dem
Grund von Tümpeln, die aus heißen Quellen
gespeist wurden (siehe »Der steinige Weg zum
Leben« von Robert M. Hazen, Spektrum der
Wissenschaft 6/2001, S. 34).
Selbst wenn man genau wüsste, wie genetisch nutzbare Polymere erstmals entstanden
sind, wäre das Problem der Lebensentstehung
damit noch nicht gelöst. Um als »lebendig« zu
gelten, muss sich ein Organismus vermehren,
das heißt seine genetische Information kopieren. In modernen Zellen erfüllen Enzyme auf
Proteinbasis diese Aufgabe.
Doch wenn genetische Polymere aus geeigneten Nukleotidsequenzen bestehen, können
sie durch Faltung komplexe Formen annehmen und chemische Reaktionen katalysieren –
genau wie die heutigen Enzymproteine. Daher
ist denkbar, dass die RNA in den allerersten
SPEKTRUM DER WISSENSCHAFT · März 2010
warme Seite des Tümpels
kalte Seite des Tümpels
4 D ie Membran nimmt
●
neue Fettsäuremoleküle auf und wächst.
5 D ie Protozelle teilt
●
sich, die Tochter-
zellen wiederholen
den Zyklus.
Kon
ve
Unterstützte Reproduktion
un
ht
ic
g
Tochterzellen
Fettsäure­
moleküle
Protozelle und
bilden einen
komplementä­
ren Strang.
●
●
●
●
●
Nukleotide
ärme
3 W
●
spaltet
den
Doppelstrang in
Einzelstränge.
RNADoppelstrang
mutationen auch die Evolution zu wirken,
bis die Protozellen irgendwann fähig
wurden, sich eigenständig zu vermehren.
Das Leben war geboren.
Organismen ihre eigene Replikation steuerte.
Das hat uns sowie David Bartel am Massa­
chusetts Institute of Technology auf die Idee
gebraucht, durch Evolution im Labor neue
Ribozyme zu züchten.
Wir begannen mit Billionen zufälliger
RNA-Sequenzen. Dann wählten wir diejenigen mit katalytischen Eigenschaften aus und
kopierten sie. Bei jedem Kopiervorgang traten
in einigen RNA-Strängen Mutationen auf, die
deren katalytische Eigenschaften verbesserten.
Wieder selektierten wir diese Moleküle für
den nächsten Kopierschritt. Mit derart gerichteter Evolution vermochten wir Ribozyme zu
schaffen, die das Kopieren anderer, relativ
kurzer RNA-Stränge katalysieren. Allerdings
sind sie nicht fähig, RNAs mit ihren eigenen
Sequenzen zu kopieren; das heißt, sie produzieren keine direkten Nachkommen.
Vor Kurzem erhielt die Idee der RNASelbstreplikation neuen Auftrieb durch Tracey
Lincoln und Gerald Joyce vom Scripps Research Institute in La Jolla (Kalifornien). Sie
entwickelten zwei Ribozyme, die Kopien des
jeweils anderen Moleküls erzeugen können,
indem sie zwei kürzere RNA-Stränge verbinden. Leider gelang das Experiment nur, wenn
bereits lange und komplexe RNA-Stücke vorhanden waren, die nicht spontan hätten entstehen können. Dennoch legen die Resultate
SPEKTRUM DER WISSENSCHAFT · März 2010
nahe, dass die katalytischen Fähigkeiten der
RNA im Prinzip für die Selbstreplikation ausreichen.
Gibt es vielleicht eine einfachere Alterna­
tive? Wir und andere Forscher versuchen derzeit, genetische Moleküle ohne Hilfe von Katalysatoren zu kopieren. Wir benutzen DNAEinzelstränge als Kopiervorlage, da DNA
einfacher und billiger zu handhaben ist als
RNA; wir hätten die gleichen Experimente
aber auch mit RNA durchführen können.
Wir fügten zuerst den Mustersträngen eine
Nukleotidlösung zu und hofften, dass sich die
Nukleotide gemäß den Regeln komplementärer Basenpaarung – A zu T und C zu G – an
die Musterstränge binden und dann polymerisieren würden, so dass schließlich eine komplette Doppelhelix entstünde. Dies wäre der
erste Schritt zur vollständigen Replikation:
Nach Bildung der Doppelhelix müsste man
die beiden Stränge trennen, damit der komplementäre Strang als Vorlage zur Synthese einer Kopie des Originalstrangs dient.
Mit normaler DNA oder RNA verläuft
dieser Vorgang extrem langsam. Doch durch
kleine Änderungen an der chemischen Struktur der Zuckerkomponente – Austausch einer
Hydroxylgruppe aus Sauerstoff und Wasserstoff gegen eine Aminogruppe aus Stickstoff
und Wasserstoff – geht die Polymerisation
2 a usgereifte
●
Protozelle
In Wasser gelöste Fettsäure­
moleküle setzen sich spontan zu
Lipidmembranen zusammen.
Anfangs sind die Membranen
kugelförmig, doch bald wachsen
aus ihnen durch Absorption
weiterer Fettsäuren dünne Filamente (Mikroskopaufnahme
unten). So entstehen lange, dünne Röhrchen, die bald in viele
kleine Kügelchen zerfallen. Auf
diese Weise haben sich vielleicht die ersten Protozellen
geteilt.
wachsendes
Filament
Membran
49
aus: Jack W. Szostak & Ting F. Zhu: »Coupled growth and
division of model protocell membranes«. in: journal of the
american chemical society 131(15), 22. April 2009
1 N ukleotide
●
dringen in die
Andrew Swift
Manche der neu gebildeten Polymere wurden
in wassergefüllte Bläschen eingeschlossen,
die entstanden, indem Fettsäuren sich
spontan zu Membranen zusammenlagerten.
Wahrscheinlich war ein äußerer Anstoß
nötig, damit diese Protozellen durch Duplizierung des Erbmaterials mit ihrer Reproduktion begannen. In einem Szenario (rechts)
zirkulierten die Protozellen zwischen den
kalten und warmen Zonen eines Tümpels, der
auf einer Seite zugefroren war, während die
andere Seite vulkanisch erwärmt wurde.
Auf der kalten Seite dienten RNA-Einzelstränge 1 als Vorlagen, an denen neue
Nukleotide durch Basenpaarung – A paart
sich mit U, C mit G – einen Doppelstrang
2 bildeten. Auf der warmen Seite brach
die Hitze die Doppelstränge in komplementäre Einzelstränge auf 3 . Dort konnten die
Membranen auch langsam wachsen 4
und sich in »Tochterprotozellen« teilen 5 ,
die den Zyklus von Neuem begannen.
Nachdem der Reproduktionsprozess in
Gang gekommen war, begann durch Zufalls-
kti
on
sr
Lebensentstehung
Unterwegs zur heutigen Zelle
Lipidmembran
ie Evolution beginnt
1 D
●
hunderte Male schneller vor sich,
so dass die Gegenstränge in Stunden
statt Wochen entstehen. Das neue Polymer
verhält sich wie normale RNA, obwohl es
Stickstoff-Phosphor-Bindungen statt der normalen Sauerstoff-Phosphor-Bindungen trägt.
Wie entstand die erste Zelle?
Leben
neu erschaffen
Um den Ursprung des Lebens
zu enträtseln, versuchen
einige Wissenschaftler, aus
künstlichen Materialien
einen selbstreplizierenden
Organismus zu fabrizieren.
Am schwierigsten ist es, ein
genetisches Molekül zu finden, das sich selbst autonom zu replizieren vermag.
Die Autoren entwerfen und
synthetisieren zu diesem
Zweck chemisch modifizierte
Versionen von RNA und
DNA. Die RNA selbst löst das
Problem wahrscheinlich
nicht, denn ihre Doppelstränge trennen sich nur
schwer in Einzelstränge für
die Re­plikation.
50 Ribozym
RNA
wird dupliziert
Die erste Protozelle ist bloß ein wasser­
gefülltes Bläschen, das RNA enthält.
Sie benötigt zur Reproduktion einen externen Anstoß, etwa zyklische Tempera­
turschwankungen. Doch bald erwirbt sie
neue Eigenschaften.
Andrew Swift
Energie
A b fal
RNADoppelstrang
Ribozyme entstehen; diese gefalte­
ten RNA-Moleküle haben ähnliche
Fähigkeiten wie Enzyme auf Proteinbasis. Sie beschleunigen die Re­
produktion und verstärken die Membran der Protozellen. Nun beginnen die Protozellen sich selbstständig zu reproduzieren.
toffe
hrs
Nä
Nachdem das Leben auf die Welt ge­
kommen war, trieb der Konkurrenzkampf unter den Lebensformen die
Entwicklung zu immer komplexeren
Organismen voran. In allen Einzelheiten werden wir die frühe Evolution
wohl nie rekonstruieren können, doch
hier ist ein plausibles Modell der wichtigsten Prozesse, die von der ersten
Protozelle bis zu Bakterien und anderen DNA-haltigen Zellen führten.
l
NA-Katalysatoren
2 R
●
Nehmen wir einmal an, dass wir unsere Wissenslücken hinsichtlich der Chemie der Lebensentstehung bald ganz schließen werden.
Dann können wir schon überlegen, wie einst
aus der Interaktion von Molekülen die ersten
zellenähnlichen Gebilde hervorgingen.
Die Außenmembranen moderner Zellen
bestehen in erster Linie aus Lipid-Doppelschichten, die sich ihrerseits aus fettigen Molekülen wie Phospholipiden und Cholesterin
aufbauen. Membranen halten die einzelnen
Zellkomponenten physikalisch zusammen und
bilden eine Barriere gegen das unkontrollierte
Ein- und Austreten großer Moleküle. In die
Hülle eingebettete Proteine agieren quasi als
Türhüter: Sie befördern Moleküle in die Zelle
hinein oder aus ihr heraus. Andere Proteine
wirken bei der Konstruktion und Reparatur
der Membran mit. Wie konnte eine kümmerliche Protozelle, ganz ohne raffinierte Proteinmaschinerie, all diese Aufgaben bewältigen?
An einem einfachen Modell demonstrierten wir die Fähigkeit einer Protozelle, ihre genetische Information mit Hilfe von Nährstoffen aus der Umgebung zu kopieren. Wir
präparierten Vesikel – kleine Bläschen – aus
Fettsäuremembranen mit einem kurzen Stück
einzelsträngiger DNA im Inneren, die als
Schablone zur Herstellung eines Gegenstrangs
gedacht war. Dann setzten wir den Vesikeln
neuer
Strang
Ribozym
er Stoffwechsel setzt ein
3 D
●
Andere Ribozyme katalysieren den
Stoffwechsel: Sie setzen Ketten
chemischer Reaktionen in Gang, mit
denen Protozellen Nährstoffe aus der
Umwelt zu nutzen vermögen.
chemisch reaktive Versionen von
Nukleotiden zu. Diese durchdrangen
spontan die Membranbarriere, lagerten sich
an den DNA-Strang in der Modellprotozelle
an und erzeugten einen Komplementärstrang.
Das Experiment stützt die Idee, dass die ers­
ten Protozellen nicht viel mehr als RNA –
oder etwas Ähnliches – enthielten und ihr
Erbmaterial ohne Hilfe von Enzymen zu replizieren vermochten.
Um sich zu reproduzieren, mussten die
Protozellen fähig sein, zu wachsen, ihr Erbgut
zu duplizieren und sich in gleichwertige Tochterzellen zu teilen. Wie Versuche gezeigt haben, können primitive Vesikel auf mindestens
zwei Arten wachsen. In einer Pionierarbeit aus
den 1990er Jahren fügte Pier Luigi Luisi von
der Eidgenössischen Technischen Hochschule
Zürich der Lösung, in der die Vesikel schwammen, frische Fettsäuren hinzu. Die Membranen bauten die Fettsäuren ein und vergrößer­
ten ihre Oberfläche. Indem Wasser und darin
gelöste Substanzen nachströmten, vergrößerte
sich auch das Zellvolumen.
Einen zweiten Ansatz, der auf der Konkurrenz zwischen Protozellen beruht, untersuchte
Irene Chen, damals Doktorandin in unserem
Labor. Modellprotozellen, die RNA oder ähnliche Moleküle enthielten, schwollen an, weil
durch Osmose Wasser in die Zelle strömte.
Die dadurch gedehnten Membranen wuchsen,
indem sie den entspannten Membranen der
Nachbarvesikel Fettsäuren stahlen – wodurch
diese schrumpften.
Im Jahr 2008 beobachtete Ting Zhu, ebenfalls Doktorand in unserem Labor, das Wachstum der Modellprotozellen, nachdem er sie
mit frischen Fettsäuren gefüttert hatte. Zu unSPEKTRUM DER WISSENSCHAFT · März 2010
Medizin & Biologie
Aminosäurekette
Ribozyme
roteine dominieren
5 P
●
Katalysatoren auf Proteinbasis –
das heißt Enzyme – ersetzen Zug
um Zug die meisten Ribozyme der
Protozellen.
DNA
Ribosom
Enzyme
gefaltetes
Protein
A bfa
ll
gefaltetes
Protein
Energie
roteine treten auf
4 P
●
serem Erstaunen streckten die anfangs kugelförmigen Bläschen zunächst ein dünnes Filament aus, das im Lauf einer halben Stunde
länger und dicker wurde, wodurch sich das
ganze Vesikel allmählich in eine lange, dünne
Röhre verwandelte. Diese Struktur war sehr
zerbrechlich. Schon durch leichtes Schütteln –
wie durch die Wellen, die der Wind auf einem
Tümpel erzeugt – zerfiel sie in kleinere, kugelförmige Tochterprotozellen, die dann selbst
wuchsen und den Zyklus wiederholten (siehe
Mikroskopaufnahme S. 49 unten).
Teile dich und herrsche
Wenn die richtigen Bausteine vorhanden sind,
erscheint demnach die Bildung von Protozellen nicht allzu schwierig: Membranen fügen
sich selbst zusammen, genetische Polymere
ebenfalls, und die beiden Komponenten können auf vielfältige Weise zusammenfinden –
beispielsweise, indem die Membranen um bereits existierende Polymere herum entstehen.
Diese mit Wasser und RNA gefüllten Säckchen wachsen, absorbieren neue Moleküle,
konkurrieren um Nährstoffe und teilen sich.
Um wirklich zu leben, müssen sie sich jedoch
reproduzieren und weiterentwickeln. Insbesondere müssen sie ihre RNA-Doppelstränge
trennen, damit jeder Einzelstrang als Vorlage
für einen neuen Doppelstrang dienen kann,
der an eine Tochterzelle weitergegeben wird.
Dieser Vorgang kam nicht ganz von selbst
in Gang, sondern brauchte ein wenig Hilfe.
Stellen wir uns zum Beispiel eine Vulkangegend auf der ansonsten kalten Früherde vor;
damals schien die Sonne mit nur 70 Prozent
ihrer heutigen Kraft. Vermutlich gab es Kaltwassertümpel, die teilweise von Eis bedeckt,
SPEKTRUM DER WISSENSCHAFT · März 2010
Enzym
toffe
hrs
Nä
Komplexe Systeme von RNA-Kata­
lysatoren beginnen RNA-Nukleotidsequenzen (Gene) in Ketten von
Aminosäuren (Proteine) zu überset­
zen. Später erweisen sich Proteine
als die besseren Katalysatoren, die
vielfältige Aufgaben übernehmen Membranprotein
können.
eburt der DNA
6 G
●
Andere Enzyme beginnen DNA herzustellen. Dank ihrer überlegenen Stabilität übernimmt die DNA die Rolle des primären Erbmoleküls. Die RNA
hat nun vor allem die Aufgabe, als
Brücke­zwischen der DNA und den Proteinen zu wirken.
aber von heißem Gestein flüssig gehalten wurden. Die Temperaturunterschiede riefen Konvektionsströme hervor, und dadurch wurden
die Protozellen im Wasser höheren Temperaturen ausgesetzt, wenn sie die heißen Steine
passierten, aber fast augenblicklich vom kalten Wasser wieder abgekühlt. Die plötzliche
Erwärmung spaltete die Doppelhelix in Einzelstränge, und bei der Rückkehr in die Kälte
konnten sich nach diesen Vorlagen neue Doppelstränge bilden – getreue Kopien des Originals (siehe Kasten S. 49 oben).
Sobald die Umwelt die Protozellen zur Reproduktion anregte, setzte auch die Evolution
ein. Insbesondere mutierten einige RNA-Sequenzen irgendwann zu Ribozymen, die das
Kopieren der RNA beschleunigten – ein klarer Wettbewerbsvorteil. Schließlich begannen
Ribozyme die RNA ohne Hilfe von außen zu
kopieren.
Es ist leicht vorstellbar, wie RNA-Protozellen sich dann weiterentwickelt haben (siehe
Kasten oben). Der Stoffwechsel entstand allmählich, indem neuartige Ribozyme den Zellen ermöglichten, in ihrem Inneren Nährstoffe
aus einfacheren und häufiger vorkommenden
Ausgangsmaterialien selbst herzustellen. Als
Nächstes erweiterten die Organismen ihre
chemische Trickkiste um die Proteinsynthese.
Mit ihrer erstaunlichen Vielseitigkeit haben die Proteine dann die Rolle der RNA
beim Kopieren der Erbinformation und im
Stoffwechsel übernommen. Später lernten die
Organismen, DNA herzustellen, und kamen
dadurch in den Besitz eines robusteren Trägers
der Erbinformation. Erst an diesem Punkt
wurde die RNA-Welt zur DNA-Welt – und
das Leben, wie wir es kennen, begann.
ie Welt der Bakterien
7 D
●
Organismen, die modernen Bakterien
ähneln, passen sich an unterschiedlichste Umweltbedingungen überall auf
der Erde an. Sie herrschen unangefochten Milliarden Jahre lang. Einige
entwickeln sich allmählich zu komplexeren Organismen weiter.
Alonso Ricardo, geboren in Cali
(Kolumbien), ist wissenschaftlicher
Mitarbeiter am Howard Hughes Medical Institute der Harvard Univer­
sity. Derzeit forscht er über selbst­
replizierende chemische Systeme.
Jack W. Szostak ist Professor für
Genetik an der Harvard Medical
School und am Massachusetts
General Hospital. Er konstruiert biologische Strukturen im Labor, um
auf diese Weise Lebensvorgänge
besser zu verstehen. 2009 erhielt
Szostak den Medizin-Nobelpreis.
Gesteland, R. F. et al. (Hg.): The
RNA World. Cold Spring Harbor
Laboratory Press, 3. Auflage 2006.
Hazen, R. M.: Genesis: The Scientific Quest for Life’s Origins. Joseph
Henry Press, Washington 2005.
Nielsen, P. E.: Ein neues Molekül
des Lebens? In: Spektrum der
Wissenschaft 10/2009, S. 42 – 49.
Shapiro, R.: Ein einfacher Ursprung
des Lebens. In: Spektrum der
Wissenschaft 11/2007, S. 64 – 72.
Szostak, J. et al.: Synthesizing Life.
In: Nature 409, S. 387 – 390, 2001.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019953.
51
Entwicklungsbiologie
Die Simulation
der
Embryonalentwicklung
Die Bildung eines komplexen Organismus aus einer einzigen Zelle – der
befruchteten Eizelle – ist ein faszinierender Prozess. Mathematisch
fundierte Modellbildung hat zum Verständnis der zu Grunde liegenden
komplexen Mechanismen wesentlich beigetragen.
Von Hans Meinhardt
In Kürze
r Die Entstehung von
lokalen Signalzentren in
einem ursprünglich strukturlosen Gewebe, wie sie
für die Embryonalentwicklung erforderlich ist, kann
durch das Wechselspiel
zweier chemischer Substanzen namens Aktivator
und Inhibitor mathematisch modelliert werden.
r In den letzten fast 40
Jahren ist dieses Modell in
verschiedene Richtungen
weiterentwickelt worden;
es erfasst mittlerweile
viele Details der Embryonalentwicklung wie die
Ausbildung der Körper­
achsen, die Entstehung
bilateral symmetrischer
Strukturen und das Wachstum von Adern und Nerven.
r Viele zunächst nur hypo­thetische Wechselwirkungen sind inzwischen
in der Realität nachgewie­
sen worden.
52 A
lle Zellen eines höheren Organis­
mus einschließlich des Menschen
tragen in ihrem Kern dieselbe ge­
netische Information; denn diese
wird bei jeder Zellteilung an beide Tochter­
zellen weitergegeben. Trotzdem bilden die
Zellen während der Entwicklung sehr ver­
schiedene Strukturen wie Kopf, Arme, Blut­
gefäße oder Nerven, und zwar mit großer
Zuverlässigkeit zur richtigen Zeit an der rich­
tigen Stelle. Die Ähnlichkeit eineiiger Zwil­
linge zeigt, bis in welche Details die gene­
tische Festlegung geht. Was veranlasst die
Zellen, in verschiedenen Regionen verschie­
dene Strukturen zu bilden, wo doch ihre ge­
netische Ausstattung stets dieselbe ist?
Lange bevor man auch nur daran denken
konnte, irgendwelche dafür verantwortlichen
Substanzen ausfindig zu machen, haben Bio­
logen Teilantworten auf diese Frage gefunden.
In mittlerweile klassischen Experimenten stör­
ten sie die normale Entwicklung und beob­
achteten die Folgen. Vor mehr als 250 Jahren
hat der Schweizer Zoologe Abraham Trembley
(1710 – 1784) entdeckt, dass man den kleinen
Süßwasserpolypen Hydra in mehrere Stücke
zerscheiden kann und jedes von ihnen wieder
einen vollständigen Polypen bildet. Offenbar
findet zwischen den Zellen eine Kommunika­
tion statt, wodurch das Fehlen von Strukturen
erkannt wird und Signale zur Regeneration
gebildet werden. Selbst nach einer Zerlegung
in Einzelzellen und anschließender Reaggre­
gation können sich wieder lebensfähige Poly­
pen bilden (Kas­ten S. 54). Offenbar ist die
bio­logische Strukturbildung ein sehr robuster
und sich selbst organisierender Prozess, der
auch von einem mehr oder weniger struktur­
losen Anfangszustand ausgehen kann.
Viele höhere Organismen sind zumindest
in frühen Stadien zu einer ähnlichen Um­
strukturierung fähig. So besteht der Embryo
eines Huhns anfänglich aus einer scheiben­
artigen Anordnung von Zellen (kleines Bild
rechts), die auf dem großen Dotter liegt. Zer­
teilt man die­se Scheibe in zwei oder drei Teile,
so kann jedes der Fragmente einen vollstän­
digen Embryo bilden. Die fertige Struktur
kann also nicht schon in der Scheibe festge­
legt sein; sonst würde jedes Fragment nur ei­
nen Teil des Embryos bilden.
Bestimmte Regionen im Organismus spie­
len bei der Entwicklung eine besondere Rol­
le. Diese so genannten Organisatorregionen
üben einen maßgeblichen Einfluss auf das
Schicksal ihrer Umgebung aus. Eine klas­
sische Vorstellung ist, dass dort Moleküle
produziert werden, die sich in die Umgebung
ausbreiten. Je weiter eine Zelle von einem
solchen Zentrum entfernt ist, desto geringer
ist die Konzentration dieses Signalstoffs (des
»Morphogens«). Jede Zelle misst die in ihr
vorliegende Konzentration, erkennt daran
ihre Entfernung von der Organisatorregion
SPEKTRUM DER WISSENSCHAFT · März 2010
mit frdl. Gen. von Nicolas Denans, IGBMC
Medizin & Biologie
mit frdl. Gen. von Lydia Lemaire
und schaltet daraufhin auf das positionsge­
rechte Verhalten um.
Die Mundöffnung der Hydra ist eine sol­
che Organisatorregion. Transplantiert man
wenige Zellen von der Mundöffnung in eine
seitliche Region dieses schlauchartigen Tieres,
so bildet sich dort ein neuer und vollständiger
Kopf. Mit verschieden gefärbten Transplan­
tats- und Wirtszellen zeigte 1909 die amerika­
nische Zoologin Ethel Browne (1885 – 1965),
dass die implantierten Zellen das umgebende
Wirtsgewebe umprogrammieren: Nicht die
im­plantierten Zellen, sondern das Wirtsgewe­
be bildet die Tentakeln an jener ungewöhn­
lichen Stelle. Berühmt wurde der Organisator
im frühen Amphibienembryo, den 1924 die
Freiburger Biologen Hans Spemann (1869 – 1941, Nobelpreis 1935) und Hilde Mangold
(1898 – 1924) entdeckten. Transplantiert man
dieses spezielle Gewebestück auf die gegen­
überliegende Seite des kugelförmigen Em­
bryos, so kann ein zweiter Embryo entstehen;
beide sind entlang der Bauchseite miteinander
verwachsen.
Mittlerweile kennen wir auch eine Vielzahl
von Genen, die in solchen organisierenden
Regionen aktiviert werden. Aber weder aus
dieser Kenntnis noch aus den Transplantati­
onsexperimenten kann man direkt auf die
molekularen Wechselwirkungen schließen, die
der Bildung von Signalzentren zu Grunde lie­
gen. Aber man kann die Frage stellen: Welche
Art von Wechselwirkung wäre im Prinzip in
SPEKTRUM DER WISSENSCHAFT · März 2010
der Lage, eine Erklärung für die Beobachtun­
gen zu liefern?
In den Naturwissenschaften sind Theorien
eine unverzichtbare Brücke zwischen experi­
mentellen Beobachtungen auf der einen Seite
und dem Auffinden von Naturgesetzen und
Grundprinzipien auf der anderen. Damit eine
Theorie hinreichend bestimmt ist, um durch
Beobachtungen überprüfbar zu sein, muss sie
in aller Regel durch mathematische Gleichun­
gen ausgedrückt werden.
Der Versuch, die ungeheuer komplexe
Embryonalentwicklung in ein paar Gleichun­
gen zu fassen, mag zunächst hoffnungslos er­
scheinen. Man kann jedoch den Prozess in
klar getrennte elementare Schritte zerlegen,
die dann einer Theoriebildung zugänglich
sind. Zusammen mit Alfred Gierer habe ich
ab 1972 mathematische Modelle für einzelne
Teilschritte entwickelt. Diese Modelle mach­
ten konkrete Voraussagen über den Charak­
ter der beteiligten molekularen Wechselwir­
kungen. Insbesondere müssen gewisse Bedin­
gungen mindestens erfüllt sein, damit lokale
Signalzentren gebildet werden. Durch Com­
putersimulationen haben wir gezeigt, dass die
von uns postulierten Wechselwirkungen die
beobachteten Vorgänge und ihre Eigen­
schaften sehr gut wiedergeben können. Viele
der Voraussagen haben in der Zwischenzeit
eine experimentelle Bestätigung erfahren. Ei­
nige dieser Modelle sollen hier beschrieben
werden.
Der frühe Hühnerembryo besteht
aus einer Scheibe, die auf dem
großen Dotter liegt. An einem
Rand bildet sich ein Organisationszentrum mit zunächst sichel­artiger Form aus (kleines Bild
oben, blau eingefärbt). Durch
Kommunikation zwischen den
Zellen und intensive Bewegung
der Zellen entsteht der lang
gestreckte Embryo mit einer
anteroposterioren (KopfSchwanz-)Achse und, senkrecht
dazu, einer mediolateralen
Achse, die an den paarweise
angelegten Somiten (Vorläufern
für Muskeln und Wirbel) links
und rechts von der Mittellinie
erkennbar ist. Es bildet sich ein
weit verzweigtes Adersystem,
das den Embryo mit Nährstoffen
aus dem Dotter versorgt. Als
erstes sichtbares Zeichen des
Lebens macht sich früh das Herz
bemerkbar. Aristoteles nannte
es den »springenden Punkt« und
prägte damit die Redensart.
53
Entwicklungsbiologie
a
a und b: Bert Hobmayer und Thomas Holstein, aus: Bert Hobmayer et al., Nature Bd. 407, S. 186 – 189, 14. Sept. 2000,
fig. 2 a und 4 a–c; mit frdl. Gen. der Nature Publishing Group
Musterbildung aus dem Nichts
Der Süßwasserpolyp Hydra (a) hat an einem Ende seines schlauchförmigen
Körpers eine von Tentakeln umgebene Öffnung, das Hypostom, mit dem er Nahrung aufnimmt. Diese Stelle ist eine Organisatorregion. Mehrere Gene sind dort
aktiviert, darunter b-Catenin und Tcf (blau eingefärbt), zentrale Komponenten
des so genannten WNT-Signalwegs.
Hohe b-Catenin- und Tcf-Konzentrationen gehen auch der Knospenbildung voraus. Zerlegt man ein Tier in Einzelzellen und fügt diese wieder zu einem Zellklumpen zusammen, so entstehen dort neue Organisatorregionen, hier
sichtbar gemacht durch die Aktivität von Tcf (b). Nach einer zunächst mehr wolkigen Aktivierung bilden sich lokale Maxima heraus. Dort werden später neue
Hypostome gebildet.
Diese spontane Musterbildung kann durch die Annahme eines Aktivator-Inhibitor-Systems (Kasten rechts) erklärt werden. In dieser Computersimulation
(c) erscheinen mehrere Maxima gleichzeitig, da die Reichweite der Inhibition
kleiner ist als die Ausdehnung des Zellhaufens.
b
Hans Meinhardt
c
54 Strukturbildung ist kein Privileg der Biolo­
gie. Auch in der unbelebten Natur entstehen
strukturierte Gebilde aus mehr oder weniger
strukturlosen Anfangsbedingungen. Aus einer
diffusen Wolke schlägt ein Blitz mit allen sei­
nen Verästelungen. Gleichmäßig über das Land
verteiltes Regenwasser formt im Lauf der Zeit
durch Erosion scharf begrenzte Flüsse. Den
strukturerzeugenden Prozessen ist gemeinsam,
dass kleine Abweichungen von einer Gleich­
verteilung durch eine starke Rückwirkung auf
sich selbst weiter anwachsen. Eine Sanddüne
hat vielleicht mit einem einzelnen Stein ange­
fangen, in dessen Windschatten sich Sand ab­
lagerte. Dadurch vergrößerte sich der Wind­
schatten, woraufhin noch mehr Sand abgelagert
wurde … ein sich selbst verstärkender Prozess.
Lokale Selbstverstärkung
und langreichweitige Inhibition
Selbstverstärkung allein ist aber nicht ausrei­
chend. Damit der sich selbst verstärkende
Prozess räumlich begrenzt bleibt, so dass sta­
bile Muster entstehen können, muss es einen
weiteren Prozess geben, der dem ersten entge­
genwirkt und auf größere Entfernungen sogar
die Oberhand gewinnt. Die lokale Selbstver­
stärkung erfolgt also auf Kosten der Umge­
bung. Dieser Typ von Wechselwirkung liegt
auch vielen Strukturbildungen im sozialen
Bereich zu Grunde. Bei einem Kampf um
eine Führungsposition kann ein ursprünglich
kleiner Vorsprung entscheidend für dessen
weiteren Ausbau sein. Am Ende gibt es einen
Gewinner und neben ihm mehrere Verlierer.
Molekular kann dieses Prinzip durch die
Wechselwirkung von zwei Substanzen reali­
siert werden. Im einfachsten Fall stimuliert
ein »Aktivator« seine eigene Produktion, zu­
gleich aber auch die Produktion eines »Inhibi­
tors«, welcher der Selbstaktivierung entgegen­
wirkt (Kas­ten rechts). Wenn sich, zum Bei­
spiel durch eine statistische Schwankung, die
Konzentration des Aktivators ein wenig er­
höht, steigt sie daher rasch weiter an. Gleich­
zeitig steigt jedoch die Konzentration des In­
hibitors und zwingt den Aktivator in die nied­
rige Gleichgewichtskonzentration zurück.
Nun findet dieses Wechselspiel in einem
Verbund mehrerer Zellen statt. Durch einen
diffusionsähnlichen Prozess können beide
Stoffe von Zelle zu Zelle wandern, und zwar –
das ist die entscheidende Annahme – der Inhi­
bitor viel schneller als der Aktivator. Steigt die
Konzentration des Aktivators in einer Zelle
an, fließt der Inhibitor so rasch in die Nach­
barzellen ab, dass er den Anstieg des Aktivators
nicht vollständig unterdrücken kann. Dessen
Konzentration steigt also weiter, bis sich ein
neues Gleichgewicht eingestellt hat. Es entste­
SPEKTRUM DER WISSENSCHAFT · März 2010
Medizin & Biologie
Ein Gleichungssystem für eine Muster bildende Reaktion
ρa 2
h
µa a
Da
∂2a
∂x2
ρa
∂h
∂t
ρa 2
µh h
Dh
∂2h
∂x2
ρh
Diese Gleichungen beschreiben die Konzentrationsände­
rungen zweier Substanzen, eines Aktivators a und eines Inhibitors h, in Abhängigkeit von der Zeit t und von der Ortskoordinate x. Das Modell ist also eindimensional, kann aber ohne Weiteres
auf realistischere zwei oder drei Dimensionen erweitert werden.
Die rechts und im Kasten links gezeigten Simulationen wurden
mit einer zweidimensionalen Version durchgeführt.
Die erste Gleichung besagt, dass die zeitliche Änderung
∂a/∂t der Aktivatorkonzentration durch folgende Terme bestimmt wird:
➤ Die Produktionsrate ra2/h des Aktivators a ist umso größer,
je größer a schon ist, und zwar nicht nur proportional zu a, sondern zu a2. Diese nichtlineare Selbstverstärkung wird von der
Theorie vorausgesagt. Sie ist in der Natur dann realisiert, wenn
zwei Aktivatormoleküle zunächst einen Komplex bilden müssen, um die Synthese weiterer Moleküle auszulösen. Die Produktion wird umso stärker gehemmt, je mehr Inhibitor vorhanden ist (h steht im Nenner). Der Proportionalitätsfaktor r
beschreibt die Fähigkeit der Zellen, diese autokatalytische Reaktion durchzuführen.
➤ Abbau –a a: Die Anzahl der Moleküle, die pro Zeiteinheit
verschwinden, ist proportional zur Zahl der zum jeweiligen Zeitpunkt vorhandenen Moleküle, ähnlich wie die Zahl der Menschen, die im Mittel in einer Stadt sterben, proportional zur Zahl
der Einwohner ist.
➤ Diffusion Da (∂2a/∂x2): Musterbildung kann nur stattfinden,
wenn die Zellen untereinander Signale austauschen können.
Eine Möglichkeit dazu ist die Diffusion des Aktivators. Sie ist
proportional zur zweiten Ableitung der Konzentration.
➤ Eine geringe Grundproduktion ra stellt sicher, dass bei sehr
niedrigen anfänglichen Aktivatorkonzentrationen überhaupt etwas passiert; dieser Fall kann bei einer Regeneration vorliegen.
In der zweiten Gleichung besagt der erste Term, dass der
­Aktivator proportional zu seiner eigenen Produktion auch die
des Inhibitors anregt. Dieser unterliegt im Übrigen im Prinzip
denselben Abbau-, Diffusions- und Grundproduktionsprozessen,
nur mit anderen Proportionalitätskonstanten.
hen zeitlich stabile, inhomogene Verteilungen
beider Substanzen (Kästen links und oben).
Selbst unvermeidliche Fluktuationen sind aus­
reichend, um die Strukturbildung auszulösen.
Damit ist eine Erklärung für einen zentra­
len Vorgang in der Entwicklung von Organis­
men gefunden. Auch wenn alle Zellen die
gleiche genetische Information haben und in
ihnen ursprünglich die gleichen Bedingungen
herrschen: Nachdem die stabile Aktivator-In­
hibitor-Struktur sich eingestellt hat, sind die
SPEKTRUM DER WISSENSCHAFT · März 2010
Für Computersimulationen diskretisiert man diese Differenzialgleichungen; das bedeutet im einfachsten Fall, dass man die
räumlichen und zeitlichen Ableitungen durch Differenzenquotienten annähert. Damit wird die x-Achse ersetzt durch einzelne,
getrennte (»diskrete«) Punkte, die man sich als Zellen vorstellen
darf. Man gibt dann einen gewissen Anfangszustand für das Sys­
tem vor, zum Beispiel in jeder Zelle die Gleichgewichtskonzentrationen, und berechnet daraus mit Hilfe der diskretisierten
Gleichungen den Zustand einen kleinen Zeitabschnitt später, daraus dessen Folgezustand und so weiter. Durch eine vielfache
Wiederholung solcher Rechenschritte kann man den gesamten
Zeitverlauf einer solchen Reaktion bestimmen.
Hans Meinhardt
∂a
∂t
In dieser Computersimulation genügen kleine Fluktuationen,
um die Musterbildung auszulösen. Wenn die Reichweite des Inhibitors (die durch seine Diffusionsrate und seine Lebensdauer
bestimmt ist) genügend groß ist, entsteht ein einziges Maximum
in einer Randposition. Damit erhält das ursprünglich strukturlose Gewebe eine Polarität.
Thierry Lepage, aus: V. Duboc, T. Lepage et al., Developmental Cell, 2004, Bd. 6, S.397 – 410, fig. 2 B; mit frdl. Gen. von Elsevier
Dieselbe Dynamik findet man in der Natur zum Beispiel bei der
Bildung des Oralfelds im Seeigel. Die Rolle des Aktivators übernimmt hier das Gen Nodal, die des Inhibitors das Gen Lefty2.
Chemisch wirksam sind nicht die beiden Gene, sondern deren
Produkte, die jeweils denselben Namen tragen. Die Bilder zeigen verschiedene Stadien der Embryonalentwicklung; das Produkt von Nodal ist angefärbt.
Einige Programme, die auf jedem PC laufen sollten, sind von
der Webseite www.eb.tuebingen.mpg.de/meinhardt abrufbar.
Zellen in verschiedenen Positionen verschie­
denen Signalen ausgesetzt. Abhängig davon
werden verschiedene Gene aktiviert, und die
Zellen übernehmen die entsprechenden Funk­
tionen im sich entwickelnden Organismus.
Eine wichtige Eigenschaft solcher Systeme
ist die Fähigkeit zur Regulation. Entfernt man
die aktivierten Zellen, so zerfällt der im Ge­
webe verbliebene Inhibitor, bis sich durch
die Selbstverstärkung ein neues Aktivatorma­
ximum bildet.
55
mit frdl. Gen. von Rohan Penthiyagoda
Entwicklungsbiologie
Streifenmuster wie auf diesem
Zebrafisch (oben) entstehen
durch Muster bildende Systeme,
bei denen die Selbstaktivierung
nach oben begrenzt ist. In der
Computersimulation (unten)
wurden kleine statistische
Schwankungen in der Fähigkeit
zur Selbstverstärkung angenommen. Die entstehenden Streifen
haben daher keine feste Orientierung und können sich verzweigen.
Als wir die Theorie entwickelten, war die­
ser Typ von Reaktion noch hypothetisch.
Heute kennen wir mehrere solche Systeme.
Zum Beispiel verhalten sich die Produkte der
Gene Nodal and Lefty2 wie von der Theorie
vorausgesagt (Kasten S. 55).
Die räumliche Begrenzung der selbstakti­
vierenden Reaktion kann statt durch einen
Inhibitor auch durch eine Verarmung von
Ressourcen in der Umgebung erfolgen. Da­
rauf beruht das oben erwähnte Beispiel der
Sanddüne: Je mehr Sand in einer Düne ge­
bunden ist, desto weniger kann durch den
Wind noch umverteilt werden, da die Ge­
samtmenge des Sands konstant bleibt. Die­sen
Reaktionstyp beobachtet man vor allem bei
Musterbildun­gen innerhalb einer Zelle.
Durch Aggregation gleichartiger Moleküle an
der Zellmembran entstehen lokale Konzen­
trationsmaxima. Das geschieht auf Kosten der
Vorläufermoleküle, die sich in Zytoplasma
der Zelle noch frei bewegen können, mit der
Folge, dass ein weiteres Maximum sich nicht
bilden kann.
Die Selbstverstärkung kann auch auf einer
indirekten Reaktion beruhen. Wenn zwei Mo­
lekülarten A und B sich gegenseitig in ihrer
Produktion hemmen, dann führt eine Erhö­
hung der A-Konzentration zu einer Vermin­
derung der B-Produktion, was zu einer wei­
teren Erhöhung der A-Produktion führt. Eine
solche indirekte Selbstverstärkung durch ge­
genseitige Inhibition spielt in der Bildung des
oben erwähnten Spemann-Organisators eine
entscheidende Rolle; involviert dabei sind die
Produkte der Gene Chordin und BMP.
Wie viele Maxima entstehen, hängt von
der Größe des Gewebes und der Reichweite
der Signalmoleküle ab. Als »Reichweite« be­
zeichnet man die Distanz, die ein Molekül
zwischen seiner Entstehung und seinem Ver­
schwinden zurücklegen kann.
Zebra- und andere Streifen
Durch welche Wechselwirkung kann erreicht
werden, dass eine Region, in der ein be­
stimmter Stoff produziert wird, in einer Rich­
tung eine sehr große, senkrecht dazu aber nur
eine kleine Ausdehnung hat (Bild links oben)?
Bei der Modell­bildung hat sich gezeigt, dass
Streifen entstehen können, wenn der Selbst­
verstärkungsmechanismus eine Obergrenze hat,
so dass die Produktionsrate des Ak­tivators –
und damit des Inhibitors – nicht über eine ge­
wisse Grenze hinaus ansteigt. Da die Konzen­
tration des Aktivators nicht mehr so in die
Höhe steigen kann, wächst sie in die Breite,
das heißt, die aktivierten Regionen dehnen
sich weiter aus, bis die dadurch ansteigende
Achsenbildung bei Amphibien
56 entsteht im mesodermalen Ring durch die
lokale Aktivierung spezifischer Gene. Mesodermale Zellen mit der Aktivität des Spemann-Organisators wandern unter das Ektoderm (nach oben in b). Sie bilden die
Mittellinie im Gehirn und bestimmen die
a
Ektoderm
Position des zentralen Nervensystems
(orange). Der Abstand von der Mittellinie
(Pfeile) bestimmt die mediolaterale Posi­
tion der Zellen, mit der zum Beispiel die
paarweise Anordnung der Augen gesteuert
wird. Beide Signalsysteme zusammen defi-
b
c
V
M
1
2
3
V
M
Mesoderm SpemannOrganisator
Entoderm
4
4
4
4
SpemannOrganisator
SPEKTRUM DER WISSENSCHAFT · März 2010
Hans Meinhardt
Aus der befruchteten Eizelle bildet sich
zunächst ein kugelförmiger Zellhaufen, der
sich später einstülpt. Noch während der
kugelförmigen Phase wird der Zellhaufen
in Bereiche unterteilt, die nach der Einstülpung an verschiedene Stellen zu liegen
kommen (a): das äußere Ektoderm (aus
dem später unter anderem Haut und Nerven entstehen, blau), das innere Entoderm
(innere Organe, braun) und das dazwischenliegende Mesoderm (Muskeln, Knochen und Blut, rot). Die Einstülpung findet
entlang des mesodermalen Rings statt.
Dieser wird zur Organisatorregion für die
anteroposteriore Achse. Der dort produzierte Signalstoff (Wnt; blau bis grau) bestimmt den Ort von Vorder- (V) und Mittelhirn (M). Der Spemann-Organisator (gelb)
Medizin & Biologie
Siegfried Roth, aus: G. Chen, K. Handel und S. Roth, Development Bd. 127, 2000,
S. 5145 – 5156, fig. 3 E – H; mit frdl. Gen. der Company of Biologists Ltd.
c
Hans Meinhardt
a
Hans Meinhardt
b
Menge an Inhibitor dem ein Ende setzt. Um
stabil zu bleiben, brauchen aktivierte Regio­
nen in ihrer unmittelbaren Nachbarschaft
nicht­aktivierte Regionen, in die der Inhibitor
abfließen kann. Beide Bedingungen, große
zusammenhängende aktivierte Areale und die
direkte Nachbarschaft aktivierter und nicht­
aktivierter Bereiche, sind bei streifenartigen
Mus­tern erfüllt und für sie charakteristisch.
Evolution der Körperachsen
Höhere Organismen haben sich im Lauf der
Evolution aus einfachen Organismen gebildet.
Es hat sich gezeigt, dass die für die Entwick­
lung verwendeten Signalsysteme in der Evolu­
tion sehr früh erfunden wurden und sich spä­
ter kaum verändert haben. Höhere Organis­
men haben ihre große Komplexität nicht in
erster Linie durch neue Signalsysteme, son­
dern durch neue Antworten der Zellen auf die
früh erfundenen Signale sowie durch die Bil­
dung neuer Zelltypen erreicht.
nieren ein kartesisches Koordinatensystem
und machen für die Zellen eine Positionsinformation verfügbar. Bei der späteren Rumpfbildung (c) wandern Zellen von beiden Seiten in
Richtung Spemann-Organisator und Mittellinie. Der Umfang schrumpft; dafür wird die
Kopf-Rumpf-Achse immer länger. Zellen in der
Nähe des Rings erhalten im Lauf der Zeit Merkmale, die sie als immer mehr zum posterioren
Ende gehörig kennzeichnen (1, 2, 3, …), was
nach Einordnen nahe der Mittellinie zur Bildung der endgültigen anteroposterioren Achse führt.
Beide Mittellinien, die im evolutionär frühen Gehirn (orange) und die im evolutionär
späteren Rumpf (rot), werden durch den Spemann-Organisator initiiert. Allerdings unterscheiden sich die Mechanismen im Detail.
SPEKTRUM DER WISSENSCHAFT · März 2010
Damit stellte sich insbesondere die spannen­
de Frage: Gibt es in der Bildung der Körper­
achsen bei höheren Organismen Prozesse, die
ihren Ursprung bei unseren primitiven Vorfah­
ren haben? Welche unserer Körperachsen ent­
spricht der einzigen Achse, die man in primi­
tiven Organismen findet? Früh in der Evolu­
tion gab es offenbar kleine schlauchartige Tiere,
die nur eine Öffnung hatten; die Hydra kann
als einer ihrer Nachfahren betrachtet werden.
Es ist aufschlussreich zu vergleichen, wo ei­
nander entsprechende Gene in primitiveren
und höheren Organismen aktiviert sind. Im
Polypen Hydra wird das Gen Otx fast überall
aktiviert, mit Ausnahme der beiden Enden.
Ebendieses Gen ist bei höheren Organismen
für den Bereich des Vorder- und Mittelhirns
charakteristisch. Das legt den überraschenden
Schluss nahe, dass aus dem Otx-aktivierten
Bereich, also der Körpermitte polypenähn­
licher Vorfahren, im Lauf der Evolution sich
das Gehirn gebildet hat, das raffinierteste Or­
gan höherer Organismen. Am offenen Ende
der Hydra, im so genannten Kopf, sind Gene
aktiviert, die charakteristisch sind für das hin­
tere Körperende höherer Organismen. Die
Schlauchöffnung mit dem Tentakelkranz, oft
als Kopf der Hydra bezeichnet, entspricht also
nicht dem Mund, sondern dem Anus. Der
Rumpf höherer Organismen samt seiner
Struktur und alle Extremitäten sind evolutio­
när später entstanden. Mit dieser Annahme
stimmt überein, dass Gene, die für den Rumpf
höherer Organismen charakteristisch sind, die
so genannten HOX-Gene, in der Hydra nicht
anzutreffen sind. In der individuellen Ent­
wicklung wird auch zuerst die Kopfregion und
erst später der Rumpf angelegt. In dieser Hin­
sicht wiederholt bei den meisten höheren Or­
ganismen »die Ontogenese die Phylogenese«.
Für einen im Wesentlichen schlauchartigen
Organismus wie Hydra genügt es, wenn die
Strukturen entlang der Längsachse definiert
werden. Das leisten lokal begrenzte Organisa­
torregionen an einem oder beiden Enden.
Im Modell für die Mittellinien­
bildung in einem Insekten­
embryo bilden sich zunächst
eine vordere und eine hintere
Organisatorregion (a, rot und
blau), dann in größtmöglichem
Abstand von ihnen eine weitere
(grün); sie definiert die Dorsal(Rücken-)seite des Insekts.
Die vom dorsalen Organisator
ausgehende Inhibition erzwingt
die Entstehung einer Mittellinie
(b, braun) auf der gegenüber­
liegenden (Ventral-)Seite, die
sich dort zunehmend verschärft.
Genau dieses Verhalten beob­
achtet man am Embryo des Käfers Tribolium (c). Die Bilder
zeigen aufeinander folgende
Stadien in der Aktivität des
entsprechenden Gens im Blick
auf die Ventralseite.
57
Entwicklungsbiologie
Höhere Organismen
haben von ihren
hydraartigen Vorfahren den Körperbauplan
übernommen – allerdings unter Vertauschung von vorn und
hinten
Höhere Organismen benötigen darüber hi­
naus noch eine zweite Koordinate: Der mehr
oder weniger zylinderförmige Embryo muss
gewissermaßen nicht nur wissen, wo bei ihm
vorn und hinten ist, sondern auch noch ver­
schiedene Stellen entlang des Umfangs unter­
scheiden können.
Das Mittellinienproblem
Konkreter gesprochen, muss es eine Organisa­
torregion in Form einer Mittellinie geben, die
von vorn nach hinten auf dem Zylinderman­
tel (oder auf den Zellschichten, die sich später
zu einem Zylinder schließen werden) verläuft.
Zellen auf dem Umfang des Zylinders bestim­
men auf die oben ausgeführte Art ihren Ab­
stand von der Mittellinie und verhalten sich
entsprechend. Auf diese Weise kommt die
durchgängig zu beobachtende bilaterale Sym­
metrie zu Stande.
Das zentrale Nervensystem und die Wir­
belsäule werden dicht an der Mittellinie ange­
legt. Strukturen wie Augen, Arme und Beine
erfordern zwei Positionswerte für ihre Anlage:
für den Abstand von der Mittellinie und für
den vom Kopf- oder Hinterende.
Eine Mittellinie ist ein Streifenmuster mit
nur einem schmalen Streifen (der Mittellinie)
und einer sehr breiten Lücke (dem Rest des
Zylinders). Die Bildung eines solchen Musters
ist ein sehr diffiziler Prozess, der nicht mit ei­
ner einzigen Reaktion zu realisieren ist. In
dem oben beschriebenen Modell zur Streifen­
bildung durch molekulare Wechselwirkungen
(Bild S. 56 oben) werden Streifen und Lücken
charakteristischerweise stets annähernd gleich
breit – wie beim Zebra. Man könnte die Pro­
duktion des Inhibitors so stark erhöhen, dass
der eine Streifen jeden anderen entlang des
Umfangs unterdrückt. Dann würde jedoch
die Streifenbildung instabil, und der Streifen
würde in fleckenartige Regionen zerfallen. Die
Natur hat für dieses Problem verschiedene Lö­
sungen gefunden, die auf der Kopplung meh­
rerer strukturbildender Reaktionen beruhen.
Am Beispiel von Insekten und Wirbeltieren
seien zwei solche Strategien erläutert.
Bei den Insekten ist es hilfreich, sich den
Embryo entgegen den Tatsachen kugelförmig
vorzustellen, wie einen Globus. Nehmen wir
an, dass Nord- und Südpol gebildet worden
sind, das heißt, dass sich Organisatorregionen
Modell zur Bildung einer Armanlage
58 anteriore Position (e), so kann eine symmetrische Hand mit zwei
kleinen Fingern entstehen. Nach dem Modell ist dann die A-­
Region an beiden Seiten durch eine P-Region begrenzt, und die
Konzentration des Morphogens nimmt eine U-Form an. Transplantiert man umgekehrt Gewebe aus der Armregion in eine
mehr posteriore Position (f), so bilden sich zwei Arme, die spiegelbildlich zueinander angeordnet sind. Nach dem Modell entstehen durch die Anordnung A–P–A zwei getrennte A-Regionen,
die jeweils von einer P-Region begrenzt sind. Die beiden Morphogengradienten sind spiegelsymmetrisch zueinander. Die ARegion, die entgegen der natürlichen Anordnung anterior durch
die P-Region begrenzt wird, bildet einen Arm mit umgekehrter
Polarität.
Aus derartigen Experimenten und dem Modell ist zu erschließen, dass bei Wirbeltieren im Gegensatz zu Insekten für die Anlage der Extremitäten nur die Morphogenkonzentration auf der
A-Seite, nicht aber auf der P-Seite verwendet wird.
d
e
f
alle Abbildungen: Hans Meinhardt
Wenn zwei verschieden determinierte Re­
gionen A und P zusammenarbeiten müssen,
um eine neue Signalsubstanz (ein »Mor­
phogen«) zu produzieren, kann diese Produktion nur nahe der gemeinsamen Grenze stattfinden (a, gelbe Region). Die lokale Konzentration des
Morphogens ist ein Maß für die Entfernung von der Grenze und
damit geeignet, die Regionen A und P weiter zu unterteilen.
Betrachten wir
b
c
vereinfachend einen
Embryo als einen Zylinder. Die Organisatorregionen für die
Armbildung werden
durch den Schnittpunkt zweier Grenzen festgelegt: zwischen anterior und posterior (A/P; rot/blau) einerseits und zwischen dorsal und ventral (D/V; weiß/punktiert) andererseits. Diese Schnittpunkte entstehen in natürlicher Weise immer in Paaren, eines
auf der linken, das andere auf der rechten Seite (b).
Die Finger entstehen entlang einer D/V-Grenze (c); die Innenund Außenseite der Hand werden von verschiedenen Regionen
gemacht und sind deshalb verschieden. In diesem Fall hat mein
Modell von 1982 eine klare Bestätigung erfahren; die Substanzen, die zusammen die Grenze definieren, sind die Produkte der
Gene Wnt-7a auf der dorsalen und En-1 auf der ventralen Seite.
Der Fingertyp ist von der Entfernung zur A/P-Grenze abhängig.
Der kleine Finger benötigt die höchste Signalkonzentration (d).
Mit diesem Modell erklärt sich ein klassisches Experiment.
Transplantiert man Gewebe von der posterioren Seite in eine
a
SPEKTRUM DER WISSENSCHAFT · März 2010
an zwei gegenüberliegenden Punkten der Ku­
gel etabliert haben. Ein weiteres Zentrum ent­
steht dazwischen in einer äquatorialen Posi­
tion, zum Beispiel nahe Australien. Es sendet
ein Signal aus: »keine Mittellinie in meiner
Nähe«. Es kann nur eine Mittellinie in größt­
möglicher Distanz gebildet werden. Das er­
zwingt einen einzigen Streifen ungefähr ent­
lang des Gebirges auf dem amerikanischen
Kontinent von Alaska bis nach Feuerland.
Durch jüngere Experimente hat die Arbeits­
gruppe von Siegfried Roth an der Universität
zu Köln diesen schon 1989 vorhergesagten
Mechanismus bei dem Käfer Tribolium nach­
gewiesen (Bild S. 57 oben).
Bei Wirbeltieren wurde offenbar die kleine
Öffnung der schlauchartigen Tiere zu einem
großen Ring erweitert, bei Amphibien nennt
man ihn »marginale Zone«. Er definiert das
hintere (posteriore) Ende des werdenden Tiers.
In der Frühphase der Entwicklung bestimmt
der Abstand einer Region von diesem Ring,
ob zum Beispiel das Vorder- oder das Mittel­
hirn gebildet wird (Kasten S. 56/57). Ein klei­
ner Teil des Rings bildet den Spemann-Orga­
nisator, der für die Bildung der Mittellinie
entscheidend ist. Bei der Rumpfbildung wan­
dern Zellen nahe dem Ring in Richtung Spe­
mann-Organisator, verlassen ihn dort in Rich­
tung nach vorn (anterior) und bilden einen
Streifen senkrecht dazu – die zukünftige Mit­
tellinie. Die sich relativ zum anderen Gewebe
bewegende Organisatorregion hinterlässt die
streifenartige Mittellinie, vergleichbar dem
Kondensstreifen eines Flugzeugs.
Während also bei Insekten die Mittellinie
gleich die volle Kopf-Schwanz-Ausdehnung
hat, aber im Lauf der Zeit immer schmaler
wird, hat bei Wirbeltieren die Mittellinie von
Anfang an eine geringe Breite, wird jedoch
durch Bewegung des Spemann-Organisators
immer länger. In beiden Fällen bewirkt eine
mehr oder weniger eng lokalisierte Organisa­
torregion, dass in der Folge nur ein streifen­
förmiger Organisator gebildet wird.
Arme, Beine, Ohren und Augen
Von der Festlegung der Achsen bis zum ferti­
gen Organismus mit all seiner Komplexität ist
es noch ein weiter Weg. Einige Modelle für
die entsprechenden Mechanismen können
hier nur stichwortartig aufgeführt werden.
Damit das durch lokale Produktion und
Diffusion erzeugte Signal wirksam wird, muss
es auch »zur Kenntnis genommen« werden.
Das geschieht dadurch, dass die empfangende
Zelle bestimmte Gene aktiviert. Die Aktivie­
rung muss in der Regel auch dann erhalten
bleiben, wenn das auslösende Signal nicht
mehr vorhanden ist. Denn durch das Wachs­
SPEKTRUM DER WISSENSCHAFT · März 2010
D
D
D
C
B
C
B
C
B
A
A
A
tum des Gesamtorganismus entfernt sich die
Zelle immer weiter von dem signalisierenden
Zentrum, darf aber deswegen ihr Programm
nicht ändern. Das Gen muss also wie ein
Kippschalter arbeiten, der auf ein kurzes Si­
gnal hin vom »Aus«- in den »Ein«-Zustand
übergeht und dort verbleibt. Schon lange vor
allen molekulargenetischen Untersuchungen
haben wir 1978 in einem Modell gezeigt, dass
dieser Effekt durch eine positive Rückwirkung
eines Genprodukts auf die Aktivität des Gens
selbst erreicht werden kann.
Eine Erweiterung des Modells erklärt auch,
wie verschiedene Gene unter dem Einfluss ei­
ner gradierten, das heißt entlang einer räum­
lichen Koordinate ansteigenden oder abfal­
lenden Signalkonzentration aktiviert werden
können (Bild oben). Anfänglich ist in allen
Zellen ein bestimmtes Gen aktiv. Wenn die
Signalkonzentration einen bestimmten Wert
übersteigt, wird ein zweites Gen aktiviert (und
häufig das erste Gen abgeschaltet). Zellen, die
einer noch höheren Konzentration ausgesetzt
sind, aktivieren noch ein drittes Gen, und so
weiter. Die Zellen werden sozusagen »beför­
dert«. Jeder dieser Schritte ist unumkehrbar.
Es entstehen scharf begrenzte Regionen, in
denen jeweils ein bestimmtes Gen aktiv ist.
Während der Entwicklung werden an be­
stimmten Stellen neue Strukturen wie Augen,
Ohren, Arme und Beine angelegt. Die klas­
sische Vorstellung war, dass als Erstes eine
Gruppe von Zellen ein Signal zum Beispiel zur
Beinbildung bekommt und dann in dem da­
durch entstehenden »Beinfeld«, ähnlich wie im
Kasten S. 55 dargestellt, neue Gradienten auf­
gebaut werden, welche die Strukturbildung im
Detail steuern. Bei der Modellbildung hat sich
aber gezeigt, dass mit dieser Vorstellung viele
klassische Experimente nicht zu erklären sind.
Stattdessen ergab sich, dass der entschei­
dende erste Schritt die Ausbildung von Gren­
zen zwischen Bereichen verschiedener Gen­
aktivierung ist, wie sie als Antwort der Zellen
auf gradierte Signale entstehen können (Bild
oben). Wenn Zellen, in denen verschiedene
Gene aktiviert sind, zusammenwirken müs­
sen, um ein neues Signal zu produzieren,
kann dieses Signal nur an der gemeinsamen
Grenze gebildet werden (Kasten links). Das ist
ein sehr zuverlässiger Mechanismus zur fei­ne­
Hans Meinhardt
Medizin & Biologie
Feinunterteilung einer Region:
Anfänglich ist in allen Zellen das
Gen A aktiviert. Wo die Konzentration des Signalmoleküls
(grüne Kurve) einen gewissen
Wert übersteigt, wird das Gen B
aktiv und das Gen A abgeschaltet. Bei noch höheren Konzentrationen erfolgt eine Umschaltung
auf Gen C und schließlich D. Auf
diese Weise etabliert ein einziger Konzentrationsgradient
mehrere scharf voneinander
abgegrenzte Bereiche.
Manche Gene arbeiten
wie Kippschalter:
Einmal aktiviert, bleiben sie aktiv, auch
wenn das auslösende
Signal längst verschwunden ist
59
Hans Meinhardt hat Physik in Köln
und Heidelberg studiert. Nach der
Promotion 1966 und zweijährigem
Aufenthalt am CERN arbeitete er
von 1969 bis zu seiner Emeritierung
2003 am Max-Planck-Institut für
Entwicklungsbiologie in Tübingen.
Dort erarbeitete er gemeinsam mit
seinem Kollegen Alfred Gierer die
im Artikel beschriebenen Modelle
für die Strukturbildung während der
Entwicklung höherer Organismen.
Er dankt Alfred Gierer für die sehr
schöne Zusammenarbeit.
Gierer, A., Meinhardt, H.: A Theory
of Biological Pattern Formation. In:
Kybernetik 12, S. 30 – 39, 1972.
Meinhardt, H.: The Algorithmic
Beauty of Sea Shells. Mit Simula­
tionsprogrammen und animierten
Simulationen auf CD-Rom. Springer,
Heidelberg, 4. Auflage 2009.
Meinhardt, H.: Models of Biological Pattern Formation: From
Elementary Steps to the Organization of Embryonic Axes. In: Current
Topics in Developmental Biology 81,
S. 1 – 63, 2008.
Meinhardt, H., Klingler, M.:
Schnecken- und Muschelschalen:
Modellfall der Musterbildung. In:
Spektrum der Wissenschaft 8/1991,
S. 60 – 69.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019955.
60 alle Abbildungen: Hans Meinhardt
Adern in der Realität (oben) und
im Modell (unten). Überall im
Gewebe wird eine Substanz X
produziert (grün), die durch die
Adern (blau) abtransportiert
wird. Lokale Wachstumszentren
(rot) an der Spitze verlängern
die Adern in Richtung hoher
X-Konzentrationen. Neue Zentren entstehen entlang existierender Adern, wo die Konzentration von X hoch genug ist; diese
initiieren Verzweigungen dort,
wo weitere Adern gebraucht
werden. Am Ende durchzieht das
Adergeflecht das ganze Gewebe.
ren räumlichen Unterteilung. Ein primäres Si­
gnalsystem erzeugt eine Unterteilung in Regio­
nen mit scharf abgegrenzten Genaktivierun­
gen. Diese Unterteilung kann relativ grob sein.
An den Grenzen dieser Regionen werden neue
Signalsysteme generiert, durch welche die fei­
nere Unterteilung erreicht wird. Dieses Mo­
dell erklärt viele klassische Beobachtungen und
hat durch neuere molekulargenetische Unter­
suchungen volle Unterstützung erfahren.
Adern und Nerven
In allen höheren Organismen dienen verzweigte
Strukturen wie Blutgefäße, Nerven, Lymph­
gefäße, Tracheen, Nierentubuli oder Blattadern
zur Versorgung des Gewebes mit Nährstoffen,
Wasser, Informationen und Sauerstoff oder
zum Abtransport von Abfall. Für die Bildung
solcher Strukturen haben wir folgendes Modell
vorgeschlagen (Bild oben): Eine Substanz X
wird überall im Gewebe produziert. Wo bereits
Adern vorhanden sind, transportieren sie die
Substanz weg oder bauen sie ab. Das Wachs­
tum einer Ader wird durch – zum Beispiel – ein
Aktivator-Inhibitor-System ausgelöst, das sei­
nerseits von der Konzentration von X abhängig
ist. Im Effekt verlängert sich eine Ader stets
dorthin, wo ihre Dienste am dringendsten be­
nötigt werden. Verzweigungen entstehen durch
Neuzündungen von Signalen entlang existie­
render Adern, wenn an dieser Stelle die Inhibi­
tion von anderen Spitzen gering genug und die
Konzentration von X hoch genug ist.
Dieses vor über 30 Jahren vorgeschlagene
Modell hat ebenfalls Unterstützung durch
jüngere molekulargenetische Untersuchungen
erhalten. So produziert das Gewebe bei Sauer­
stoffmangel einen Faktor namens VEGF (Vascular Endothelial Growth Factor) – die Sub­
stanz X im obigen Modell. Sauerstoffmangel
wird durch einwandernde Adern verringert.
Das Signal zum Auswachsen an den Spitzen
von Blutgefäßen wird durch das so genannte
Delta-Notch-System realisiert. Wie vom Mo­
dell erwartet, ist dessen Aktivierung vom
VEGF abhängig.
Nach diesem Modell sind nur die Substan­
zen und ihre Wechselwirkung in den Genen
kodiert, nicht aber die Details der entstehen­
den Muster. In der Simulation bleibt es zum
Beispiel dem Zufall überlassen, ob die erste
Abzweigung nach links oder rechts erfolgt.
Jede einmal getroffene Entscheidung hat aber
einen großen Einfluss auf die Bildung weiterer
Äste. Minimale Unterschiede in den Zellen
führen dann zu Verschiedenheiten im Detail.
Darum hat jedes Blatt eines Baums eine im
Detail verschiedene Äderung, obwohl die ge­
netische Information in allen Zellen dieselbe
ist. Auch bei eineiigen Zwillingen ist das im
Augenhintergrund sichtbare Muster der Blut­
gefäße trotz gleicher Erbinformation nicht
identisch. Wichtig sind nicht die Details, son­
dern dass alle Zellen versorgt sind.
Mit Hilfe von Modellbildungen war es
möglich, den Grundcharakter der Strukturbil­
dung und die dafür erforderlichen Minimal­
bedingungen zu bestimmen. Reaktionen mit
starker positiver Rückwirkung auf sich selbst,
die mit antagonistischen Reaktionen gekoppelt
sind, spielen sowohl in der Musterbildung als
auch in der lokalen Genaktivierung eine ent­
scheidende Rolle. Die Hydra mit ihrer einen
Körperachse, ursprünglich gewählt, um die pri­
märe Musterbildung zu studieren, hat sich als
ein Schlüssel herausgestellt, um die Evolution
der Körperachsen auch bei höheren Organis­
men zu verstehen. Mit der Modellbildung
wurden für die Entwicklungsbiologie Werk­
zeuge erschlossen, die sonst mehr der Physik
und der Chemie vorbehalten waren. Theore­
tische Voraussagen wurden möglich. Mathe­
matisch fundierte Modellbildungen kombi­
niert mit Computersimulationen werden auch
weiterhin dazu beitragen, diese so komplexen
Vorgänge besser zu verstehen. SPEKTRUM DER WISSENSCHAFT · März 2010
Archäologie
steinzeit
jenseits der Steine
Noch sind Brunnen aus der Jungsteinzeit eine Rarität, doch die bereits entdeckten
­Exemplare verändern drastisch unseren Blick auf die bandkeramische Kultur. Denn in
diesen Wasserstellen überdauerten Hölzer, selbst Schnüre und Bast die Jahrtausende.
Von Harald Stäuble
V
or zwölf Jahrtausenden begann
eine so radikale Veränderung
menschlicher Kultur, dass sich da­
für in der Fachwelt die Bezeich­
nung neolithische Revolution eingebürgert
hat: Unsere Vorfahren gaben ihre nomadisie­
rende Lebensweise auf und gründeten feste
Dörfer; aus Jägern und Sammlern wurden
Ackerbauern und Viehzüchter. Sie lernten
neue Techniken, etwa Häuser zu bauen und
Ton zu Keramik zu brennen. Ihren Ursprung
nahm die Jungsteinzeit, so der deutsche Epo­
Insgesamt 18 neolithische Brunnen wurden bis heute in Mit­
teleuropa entdeckt, davon allein
sechs im Bundesland Sachsen.
Brodau
AltscherbitzAltscherbitzSchkeuditz
Schkeuditz
Leipzig-Plaußig
Leipzig
Nords
Dresden-Cotta
MeuselwitzZipsendorf
Rehmsdorf-Rumsdorf
Dresden
ee
S
C H
D E U T S
Altscherbitz
Rehmsdorf
Arnoldsweiler
C
S
E
Most
Brodau
Plaußig
Niederröblingen
Erkelenz-Kückhoven
A
H
N
Zipsendorf
Eythra (zwei Brunnen)
Brunnen der
Linienbandkeramik
Cotta
Most
Fundstellen Bandkeramik
L
Mohelnice
Straßenheim
A
Bohunice
D
N
Fußgönheim
linienbandkeramische
Brunnen
Schletz
Füzesabony-Gubak
62 Spektrum der Wissenschaft / Emde-Grafik, nach: Landesamt für Archäologie Sachsen
Eythra-Zwenkau
Eythra-Zwenkau
(ZweiBrunnen)
Brunnen)
(zwei
chenbegriff, im Gebiet des fruchtbaren Halb­
monds am Oberlauf von Euphrat und Tigris.
Von dort verbreiteten sich frühe Getreide­
sorten wie Emmer und Einkorn in der Alten
Welt und gelangten im Verlauf von drei Jahr­
tausenden bis nach Mitteleuropa. Auch Schaf
und Ziege wurden im nördlichen Zweistrom­
land domestiziert. Jüngste Vergleiche der Erb­
substanz von Hausrind und Schwein legen
den Schluss nahe, dass selbst diese nicht, wie
früher vermutet, vom europäischen Aueroch­
sen beziehungsweise Wildschwein abstam­
men, sondern ebenfalls im Ursprungsgebiet
des Neolithikums aus dort vorkommenden
anderen Wildformen gezüchtet wurden.
Was unsere Vorfahren motivierte, ihre seit
Hunderttausenden von Jahren bewährte Wirt­
schaftsweise aufzugeben, darüber wird kontro­
vers diskutiert. Erzwangen wachsende Bevöl­
kerung und sesshafte Lebensweise die Abkehr
von der Wildbeuterei, oder waren sie das Re­
sultat einer auf Zucht und Anbau basierenden
Lebensweise, die eventuell sogar klimatisch
bedingt war? Ebenso strittig ist, ob kleine oder
große Gruppen von Vorderasien aus im Lauf
der Jahrtausende in alle Welt zogen, das neue
Wissen im Gepäck; möglich wäre genauso ein
Technologietransfer über Handelskontakte.
Wahrscheinlich wird auch diese Frage in na­
her Zukunft geklärt werden können, einer­
seits durch molekulargenetische Vergleiche
(sozusagen eine Art Vaterschaftstest), anderer­
seits anhand von Spurenelementen und be­
stimmten Isotopen in den Knochenresten, aus
denen Rückschlüsse auf die Lebensbedingun­
gen der Menschen und Tiere gezogen werden
können. Vermutlich liegt die Wahrheit jeweils
in der Mitte.
Sicher ist, dass die neolithische Revolution
im pannonischen Raum, etwa im Gebiet des
heutigen Ungarn, Anfang des 6. Jahrtausends
v. Chr. angekommen war und einige Jahrhun­
SPEKTRUM DER WISSENSCHAFT · März 2010
Mensch & geist
MEnsch
& Geist
Spektrum der Wissenschaft / Meganim
derte später von dort aus Mitteleuropa er­
reichte. Ein gemeinsames Merkmal der in Pan­
nonien entstandenen Kulturausprägungen sind
charakteristische Linien, später Stichbandmus­
ter der gebrannten Keramik, die dem Prähisto­
riker heute zur Unterscheidung dieser Kultur –
der »Bandkeramik« (5500 – 4500 v. Chr.) –
von früheren und späteren Epochen dient.
Rohstoff Holz – eine Spurensuche
Mit dem Neolithikum hielten auch neue
Steinbearbeitungstechniken Einzug in unseren
geografischen Raum. Hatte man zuvor vor
allem Feuerstein gespalten und behauen, um
Werkzeuge und Waffen herzustellen, so lernte
man nun, andere Steinsorten durch Schleifen
zu bearbeiten. So konnte man zusätzlich zu
den zwar mal messerscharfen, mal spitzen,
aber auch leicht splitternden Feuersteingeräten
stabilere Werkzeuge wie Beile und Äxte her­
stellen. Und die wurden benötigt, um Bäume
zu fällen und um beispielsweise daraus Pfosten
für die großen Häuser zu fertigen. Bislang
wussten wir von solchen Techniken nur auf
Grund indirekter Hinweise, denn organische
Materialien vergehen innerhalb von Jahrhun­
SPEKTRUM DER WISSENSCHAFT · März 2010
derten. Doch Archäologen lernten, jene mit
Erde wieder aufgefüllten Löcher zu erkennen,
in denen einstmals tragende Hölzer steckten.
Offenbar lebten unsere Vorfahren in fünf bis
sieben Meter breiten, meist um die 30, mitun­
ter mehr als 50 Meter langen Gebäuden. Da­
rin gab es funktional und wahrscheinlich sogar
auch physisch durch Wände getrennte Wohnund Wirtschaftsbereiche. Auch Gruben kom­
men bei Ausgrabungen zum Vorschein, aus
denen vielleicht der Lehm gewonnen wurde,
den man für die Füllung und Abdichtung der
aus Flechtwerk bestehenden Wände verwendet
hat; andere wiederum dienten als Speicher für
Getreide und sonstige Vorräte.
Steingeräte, gebrannte und verzierte Kera­
mik, Knochenreste und in Glücksfällen auch
verkohlte und so vor dem Verfall bewahrte
Getreidekörner und Holzfragmente, die sich
in den Gruben finden – nichts anderes stand
Prähistorikern bislang zur Verfügung, um den
Alltag in der Jungsteinzeit zu rekonstruieren.
Erst vor wenigen Jahren sollte sich dies än­
dern. Eine neue Kategorie von archäologi­
schen Befunden wurde entdeckt: Brunnen, in
denen Reste von hölzernen Einbauten und
Als die jungsteinzeitliche Kultur
in Mitteleuropa Fuß fasste,
verstanden es die Menschen
nicht nur, Getreide anzubauen
und Vieh zu züchten, Stein zu
schleifen und Keramik zu
brennen. Sie verfügten nach
jüngsten Grabungsfunden auch
schon über gute Kenntnisse in
der Holz­bearbeitung, bauten
Langhäuser und Brunnen, Letztere dienten aber wohl nicht allein
zur Wasserversorgung, sondern
auch als kultische Orte.
63
Archäologie
Die vier Bohlen der
untersten Lage waren
sogar miteinander
verzapft worden. Dies
war der erste Nachweis einer Holzverzapfung in Europa überhaupt!
alle Fotos dieser Doppelseite: Landesamt für Archäologie Sachsen
Als der Braunkohletagebau in
Zwenkau erweitert werden
sollte, untersuchten Archäologen zuvor das Gelände. Im
Bereich des aufgegebenen Dorfs
Eythra entdeckten sie 1993
eine große Siedlung der frühen
Jungsteinzeit. An deren Rand –
und direkt an der damaligen
Tagebaukante – entdeckten sie
1997 einen Brunnenkasten, von
dem noch einige Bohlenlagen
erhalten waren.
64 vielerlei andere organische Überreste die Jahr­
tausende überdauert haben. So viel ist nun si­
cher: Unsere Vorfahren verfügten über Kennt­
nisse und Fertigkeiten, die wir ihnen nicht zu­
getraut haben.
Ohne Ausgrabung in die Tiefe erscheinen
solche Brunnen lediglich wie eine weitere
Grube der Siedlung. Wohl aus diesem Grund
hat man sie lange übersehen beziehungsweise
falsch verstanden. So wurden etwa Hölzer, die
1907 im thüringischen Zipsendorf entdeckt
wurden, als Grabeinbauten gedeutet – heute
wissen wir es besser. Erstmals erkannten For­
scher 1970 bei einer Notgrabung im tsche­
chischen Mohelnice, dass sie es mit einem li­
nienbandkeramischen Brunnen zu tun hatten.
Doch erst ab 1990, mit der Entdeckung und
Ausgrabung einer aufwändigen Brunnenkon­
struktion bei Erkelenz-Kückhoven im Rhein­
land, trat diese neue Befundkategorie ins
Rampenlicht der Forschung.
Heute – und die Zahl kann morgen schon
nicht mehr aktuell sein – kennen wir 18 jung­
steinzeitliche Brunnen in Mitteleuropa (siehe
Karte S. 62), allein sechs davon in Sachsen. Die
Bedingungen, die Siedler in der Dresdner Elb­
talweitung, dem Lössgefilde westlich von Mei­
ßen sowie in der Region um Leipzig vorfan­
den, unterschieden sich nicht von denen in
­anderen Regionen. Die vergleichsweise große
Häufigkeit an Brunnenfunden beruht wohl vor
allem auch auf der Arbeitsweise der archäolo­
gischen Denkmalpflege in unserem Bundes­
land. Seit einer Gesetzesänderung 1993 werden
hier insbesondere Großbaustellen intensiv be­
treut und das Gelände im Vorfeld untersucht.
Seitdem hat nicht nur die Zahl der Fundstellen
um 500 Prozent zugenommen; die entdeckten
Siedlungen werden auch so vollständig und so
gründlich wie möglich untersucht – und un­
scheinbare Gruben in der Peripherie der Dör­
fer entpuppten sich als Brunnen.
Mal war es ein umfangreiches Vorhaben im
Rahmen des Braunkohletagebaus, der Bau
eines BMW-Werks, die Erweiterung des Flug­
hafens Leipzig/Halle oder der Bau einer Trasse
für einen Wasserableiter, dann aber auch »nur«
der Bau eines Einfamilienhauses, der uns Ar­
chäologen einen solchen Fund bescherte. Zu­
sammen mit der hohen neolithischen Sied­
lungsdichte und bedingt durch die Konzentra­
tion von großen archäologischen Projekten im
dortigen Braunkohle- und Industriegebiet hat
sich das Gebiet der Leipziger Tieflandbucht zu
einem Schwerpunkt der »Brunnenlandschaft«
entwickelt. Es begann 1997, als im Bereich
der damals schon abgerissenen Ortschaft
Eythra im Braunkohletagebau Zwenkau, etwa
13 Kilometer südlich der Leipziger Innen­
stadt, der erste linienbandkeramische Brun­
nen Sachsens entdeckt wurde. Eythra – es ist
Usus, die heutigen geografischen Bezeichnun­
gen als Namen der jungsteinzeitlichen Orte zu
verwenden – war vor 7500 Jahren eine recht
große Siedlung. Gut 15 bis 30 Häuser stan­
den auf der 28 Hektar großen Ausgrabungs­
fläche; wie weit sich das Dorf noch erstreckte,
ließ sich auf Grund der Ausdehnung der Tage­
bauflächen nicht ausmachen.
Bohlen verkämmt und verschränkt
Der Brunnen reichte 4,5 Meter unter die
heutige Oberfläche, davon war etwas über ein
Meter von der Holzkonstruktion erhalten.
Unser Team legte einen aus Brettern aufge­
bauten quadratischen Kasten frei mit 80 bis
90 Zentimeter langen Innenseiten – genauer
gesagt die unteren vier bis fünf Bohlenlagen
(Bild links). Diese zeigten sehr schön die ty­
pische Machart: Die Brunnenbauer hatten
wahrscheinlich einen Baumstamm mit Stein­
beilen auf 1,5 bis 1,8 Meter Länge gebracht,
dann mit Meißeln aus Stein, Knochen oder
Holz der Länge nach gespalten und die Hälf­
ten auf die gleiche Weise immer weiter geteilt.
So ließen sich aus einem Stammabschnitt
sechs bis acht Spaltbohlen fertigen.
Anschließend wurden diese zugehauen, um
sie miteinander zu verbinden (siehe Grafik S.
66): meist durch Verkämmen – ein Brett griff
mit einer Kerbe in das darüber- beziehungs­
weise darunterliegende – oder durch Ver­
schränken – Kerben wurden sowohl auf der
Ober- wie auf der Unterseite der Eckverbin­
dung eingelassen. Die vier Bohlen der un­
tersten Lage waren sogar miteinander verzapft
worden. Dies war der erste Nachweis einer
Holzverzapfung in Europa überhaupt! Dank
des guten Zustands der Hölzer konnten die
Dendrochronologen nachweisen, dass alle aus
der gleichen, 120 Jahre alten Eiche stammten,
die im Winterhalbjahr 5098/97 v. Chr. gefällt
worden war.
SPEKTRUM DER WISSENSCHAFT · März 2010
Mensch & geist
Nur etwa 170 Meter von diesem ersten
sächsischen Brunnen entfernt kam im Jahr da­
rauf ein zweiter zum Vorschein, der sich in
einem Punkt unterschied: Unter einem Bret­
terbau befanden sich Reste eines ausgehöhlten,
einst etwa 80 Zentimeter starken Baum­
stamms. Zwar ließ er sich botanisch als Ahorn
identifizieren, doch auf Grund fehlender Jah­
resringe nicht datieren. Man hatte ihn aber auf
vier Eichenbretter gesetzt, deren Alter nun
dendrochronologisch auf 5230 v. Chr. be­
stimmt wurde. Weil die jüngsten Jahresringe,
die so genannte Waldkante, nicht erkennbar
waren, ist diese Angabe nur auf 10 bis 15 Jah­
re genau – eine dennoch sehr präzise Angabe
angesichts der für diese Zeit bekannten C-14Daten, die größere Fehlerbreiten aufweisen,
oder der noch ungenaueren »Typochronolo­
gie«, die archäologische Schichten anhand von
Keramikstilvergleichen zeitlich einordnet. Die
Toleranz von maximal 15 Jahren gilt auch für
die Eichenhölzer des aufsetzenden Kasten­
brunnens, von dem bloß die unterste Lage er­
halten ist. Auf rund 5200 v. Chr. bestimmt,
war er offenbar nur ein bis zwei Jahrzehnte
jünger. Die ursprüngliche Konstruktion – den
ausgehöhlten Stamm – hatte man beim Ein­
bau vermutlich teilweise entfernt und den Kas­
ten leicht versetzt aufgesetzt. Offensichtlich
befand er sich immer noch im Bereich des
Grundwassers, obwohl er etwa einen Meter
höher lag als der ältere Schacht.
Damit vereint dieser Brunnen von Eythra
die beiden Grundtypen von Einbauten, die
auch andernorts in Europa entdeckt wurden:
Zylinder- und Kastenbrunnen. Einzelne Fugen
waren mit Moos oder Holzstücken abgedich­
tet worden – offensichtlich sollte das Wasser
nicht von der Seite, sondern nur von unten
her eindringen.
Mitunter machten die Gegebenheiten vor
Ort auch Varianten erforderlich. So etwa im
Dresdner Stadtteil Cotta, wo 2004 ein von
SPEKTRUM DER WISSENSCHAFT · März 2010
der Grabungsoberfläche nur 1,8 Meter tief hi­
nabreichender Brunnenschacht ans Licht kam.
In allen vier Ecken entdeckte man Abdrücke
von senkrecht eingetieften Rundhölzern, die
wohl die Eckkonstruktion zusätzlich abstützen
sollten – dergleichen hatte man seinerzeit auch
in Mohelnice angetroffen. In Brodau bei De­
litzsch hatte eine Konstruktion aus Spalthöl­
zern einen hohlen Stamm in einem vier Meter
tiefen Schacht umgeben. Weil die Bohlen aber
nicht blockartig aufeinandergestapelt worden
waren, handelte es sich offenbar um ein Ge­
rüst: Unterhalb des kompakten Geschiebe­
lehms lagen feinsandige Schichten, die immer
wieder nachgerutscht wären, hätte man nicht
solch eine Sicherheitsvorkehrung getroffen.
Beide Brunnen ließen sich zeitlich nur grob
einordnen: Keramikfunden in der Füllung des
Schachts zufolge wurde der von Dresden-Cot­
ta zwischen 5300 und 5100 v. Chr. aufgege­
ben, bei Brodau ergab die Dendrochronologie
ein Baudatum um 5200 v. Chr., jedoch mit
einer Ungenauigkeit von 20 Jahren.
Eine Überraschung bot ein 2001 in Plau­
ßig bei Leipzig entdeckter Brunnen, der mit
zwei bis drei Bau- oder Reparaturphasen auf­
wartet. Die ältesten Spaltbohlen stammen
aus der Mitte des 53. Jahrhunderts v. Chr.,
die jüngsten von gut 150 Jahre später ge­
fällten Bäumen. Zunächst war ein quadratischer Kasten aus rund zwei Meter langen
und bis zu 30 Zentimeter hohen Spaltbohlen
ins Grundwasser gesetzt worden. Er erwies
sich bei der Rekonstruktion als etwas größer
als andere – mit durchschnittlich 1,4 Meter
Seitenlänge – und besaß außen wie innen
Pfähle in den Ecken. Etwa 100 Jahre später
wurde ein kleinerer Kasten aus kürzeren Spalt­
bohlen in den älteren, nun aufgefüllten
Schacht gesetzt, der die üblichen Innenmaße
von 80 bis 90 Zentimetern besaß. Noch jün­
geres Holz im oberen Bereich könnte auf spä­
tere Reparaturphasen hindeuten – oder der
Zu den Glücksfällen der prähis­
torischen Forschung zählt sicher
auch die Entdeckung eines neolithischen Brunnens auf dem
Gebiet der Erweiterung des Flughafens Leipzig­/Halle. Weil die
Zeit für eine Ausgrabung vor Ort
zu knapp war, wurde er 2005
samt umgeben­dem Erdreich als
Block geborgen (links) und
in einen Hangar transportiert
(Mitte). Seit 2008 arbeiten sich
Archäologen Zentimeter für Zentimeter zum Grund vor (rechts).
Brunnen der Jungsteinzeit
in Sachsen – eine Ausstellung zum
Thema in Leipzig
Brunnen der Jungsteinzeit
in Sachsen
Eine
des Lan Sonderausst
ellu
desamte
s für Arch ng
äologie
Funde,
die es nicht
geben dürfte
24.02.
— 11.0 2010
4.2010
im Stad
tgeschic
htlichen
Museum
Leipzig
Eine Sonderausstellung des
Landesamtes für Archäologie im Stadt­
geschichtlichen Museum Leipzig
24. 2. 2010 bis 11. 4. 2010
Böttchergäßchen 3, 04109 Leipzig
www.stadtgeschichtliches-museum-leipzig.de
65
Archäologie
Zu den schönsten Funden
im Altscherbitzer Brunnen
gehören diese beiden reich
dekorierten Tongefäße.
Sie waren einst zerbrochen
und wieder geflickt, anschließend mit Birkenpech
ummantelt und mit Holz­
auflagen verziert worden.
Ihre Fundlage im mittleren
Teil des Brunnenkastens
deuten die Archäologen
als Indiz für eine gezielte
Deponierung im Rahmen
einer Kulthandlung.
Schon vor 8000 Jahren kannte
man die grundlegenden Techniken der Holzverbindung
Verkämmen, Verschränken und
Verzapfen, wie die Einbauten
der Brunnen zeigen (a: verzapfte
Bohlen aus Eythra; b: Fehlfarben­
bild zu Altscherbitz, c: Verbin­
dungstechniken).
a
gesamte Kasten ist jünger, und es wurden für
manche Teile Althölzer wiederverwendet.
Auf ein solches Recycling deutet nämlich
das jüngste Mitglied der sächsischen Brun­
nenfamilie hin. Es wurde im Vorfeld einer ge­
planten Erweiterung des Flughafens Leipzig/
Halle bei Altscherbitz im Frühjahr 2005 ent­
deckt. Weil die Zeit drängte, wurde es als bis­
lang größter Block geborgen – und als ein­
ziges, das auch die Brunnengrube einfasste.
Die Oberkante lag etwa 3,5 Meter unter der
Erdoberfläche, dort nämlich, wo die ersten
Holzspuren zu erkennen waren, und setzte
sich noch weitere vier Meter in die Tiefe fort,
bis man sich Bohrungen zufolge mit Sicher­
heit unterhalb der eigentlichen Konstruktion
befand. Inklusive Sicherungshölzern und
-stahlkonstruktionen mussten rund 90 Ton­
nen per Tieflader etwa 120 Kilometer weit in
eine eigens dafür umgebaute Bauhalle des
Landesamts für Archäologie nach Dresden
transportiert werden. Zwei Jahre gingen ins
Land, in denen der Block konserviert und
»frischgehalten« wurde. Erst Anfang 2008
konnten wir beginnen, das Material Zentime­
ter für Zentimeter unter Laborbedingungen
von oben nach unten abzutragen; dabei wird
die »Grabungsstätte« immer wieder mit mo­
dernsten Techniken präzise vermessen, auch
mittels 3-D-Laserscan abgetastet.
Auch bei diesem Brunnen waren wie fast
stets Spaltbohlen aus Eiche verwendet worden,
die Dendrochronologie ergab als Fälldatum
das Winterhalbjahr 5102/01 v. Chr. Dieser
Brunnen entstand also möglicherweise vier
Jahre vor dem ersten von Eythra. Allerdings la­
gen außerhalb der eigentlichen Konstruktion
noch weitere Bretter im Schacht, die 100 bis
150 Jahre älter waren. Vielleicht dienten sie
zur seitlichen Stabilisierung, vielleicht als Auf­
lage beim Aufbau des Brunnenkastens. Offen­
bar aber – so ein vorläufiges Ergebnis der noch
Jahre andauernden Auswertung aller Daten –
hatte man Bretter aus einer anderen, aufgege­
benen Anlage wiederverwendet. Wahrschein­
lich stammten sie von einem verlassenen Haus
b
c
rechts: Spektrum der Wissenschaft / Meganim, nach: Dietrich hakelberg;
alle übrigen Abbildungen dieser Doppelseite: Landesamt für Archäologie Sachsen
verkämmt
66 verschränkt
verzapft
SPEKTRUM DER WISSENSCHAFT · März 2010
Mensch & geist
der Siedlung, denn sie waren schmaler als die
üblichen Bohlen der Brunnenkästen.
Dank dieser Funde mit den zahlreichen
Bearbeitungsspuren kennen wir nun endlich
mehr als die Abdrücke der Pfosten jener Häu­
ser. Wir wissen auch, welche Holzverbindungen möglich waren. Unsere Vorfahren lebten
nicht in Verschlägen aus grob bearbeiteten
Brettern, nicht in zugigen Räumen. Ihre Zim­
merleute verfügten bereits über eine ausge­
feilte Technik, wussten mit ihrem Werkstoff
so geschickt umzugehen, dass sie heutigen
Handwerkern nur wenig nachstanden. Lange
galt das geschliffene Steinbeil als Sinnbild die­
ser Kultur, nun endlich kennen wir auch Pro­
dukte, die damit gefertigt wurden.
Bast, Pech und Rinde
All diese Brunnen waren irgendwann aufgege­
ben und verfüllt worden. Von Luft weit ge­
hend abgeschlossen und vor allem stets im
feuchten Milieu haben sich auch organische
Materialien erhalten, mit denen niemand ge­
rechnet hat. Und die vermitteln völlig neue
Einblicke in den neolithischen Alltag.
Beispielsweise aus Rindenbast hergestellte
Taschen oder Beutel, zu denen es noch nicht
einmal eine Terminologie gibt, weil diese Fund­
kategorie neu ist. Vermutlich dienten solche
Behältnisse zum Wasserschöpfen (siehe S. 69).
Bislang wurden neun mehr oder weniger voll­
ständige Taschen geborgen; acht davon in
Eythra und unlängst eine in Altscherbitz. Sie
bestehen aus dem Rindenbast von Ulme, Birke,
Linde oder Eiche. Mal wurde der Rindenstrei­
fen quer zur Faser in der Mitte zusammenge­
schlagen, so dass der Falz den Gefäßgrund bil­
dete; die sich überlappenden Seiten hatte man
mit Bastschnüren vernäht. Dann wiederum
SPEKTRUM DER WISSENSCHAFT · März 2010
waren andere seitlich oder auch unten mit ge­
spalteten Haselstrauchstäben zusammenge­
klemmt. Ein Spreizholz oder ein Ring am obe­
ren Ende hielt die Tasche offen, so dass sie beim
Schöpfen nicht zusammenfallen konnte. Als
Henkel dienten ein Ast oder Schnüre. Ebenso
wie Gefäße aus Keramik wurden sie mitunter
wohl über Umlenkrollen hinabgelassen, da­
rauf deuten Schleifspuren an einem Rinder­
halswirbel aus Brodau (Bild unten rechts) und
an einem Holzbalken aus dem Brunnen vom
Fundort Erkelenz-Kückhoven im Rheinland.
Es war auch eine Sensation, als 1997 im
ersten Eythraer Brunnen drei nur wenige Zen­
timeter große, aber sehr gut erhaltene Scher­
ben geborgen wurden – mit einem Überzug
aus Birkenpech. Darin eingedrückt war ein
Dekor aus zwei bis drei Millimeter großen
Dreiecken, angeordnet zu dünnen Bändern.
Zunächst dachte man, diese »Intarsien« be­
stünden aus Knochenplättchen, doch Unter­
suchungen zeigten, dass es sich um Birkenbast
handelt. Zudem kam darunter das für die Li­
nienbandkeramik typische Verzierungsmuster
einer eingekerbten Linie zum Vorschein.
Auch Altscherbitz hielt solche Überra­
schungen bereit. Nicht nur legten wir zwei
komplette Gefäße frei, von deren Art in ganz
Europa bisher erst wenige Scherben sowie nur
drei weit gehend vollständige Exemplare be­
kannt waren. Sie werden einem als Šarká be­
zeichneten Keramiktyp zugeordnet, benannt
nach dem gleichnamigen, seit 100 Jahren be­
kannten Fundort im Prager Stadtgebiet. Beide
waren zudem irgendwann wohl zerbrochen,
dann aber mit Birkenpech und Schnüren wie­
der geflickt und anschließend mit einer Pech­
schicht überzogen worden (Bilder linke Seite
oben). Dabei verpasste man ihnen gleich eine
In Brodau entdeckten die Forscher das Skelett eines Ferkels,
vermutlich eine Opfergabe für
ergiebiges Wasser.
Auf dem Grund eines Brunnens
von Eythra kam diese mit Pech
und Rinde geflickte Tonflasche
(links) zum Vorschein. Vielleicht
war das Gefäß zum Wasserschöpfen an einem Seil hinabgelassen worden, wie die erhaltene Schnürung vermuten lässt.
Aus dem gleichen Brunnen, allerdings aus einer tieferen Schicht,
stammt ein Rinderhalswirbel mit
Schleifspuren (Pfeile) – er
könnte als Umlenkrolle für ein
Seil gedient haben.
67
Archäologie
Literaturhinweise
Elburg, R.: Luftige Zukunft. Siebzig
Tonnen Steinzeit. Die Ausgrabungen
des Bandkeramischen Brunnens von
Altscherbitz hat vielversprechend
begonnen. In: Archaeo – Archäologie in Sachsen 5/2008, S. 12 – 17.
Stäuble, H.: Vom Wasser- zum
Wissensspeicher. In: Damals
4/2008, S. 47 – 48.
Stäuble, H., Fröhlich, M.: Zwei Ferkel im Bandkeramischen Brunnen.
Sachsen entwickelt sich zu einer
wahren Fundgrube für steinzeitliche
Brunnen. In: Archaeo – Archäologie
in Sachsen 3/2006, S. 16 – 21.
neue Verzierung im aktuel­leren, jüngeren Stil
und nutzte sie weiter! Bei einem der Töpfe
war der Pechüberzug schlechter erhalten, so
dass man darunter die »klassische«, in den
Ton eingeritzte Bandverzierung mit bloßem
Auge erkennen kann, beim anderen brachte
eine Computertomografie diesen Untergrund
zum Vorschein. Im ersten Fall hatte man bei
der Verzierung allerdings erheblich größeren
Aufwand getrieben. Mühevoll waren aus Bir­
kenrinde Spiralen und Dreiecksbänder he­
rausgeschnitten und auf die gesamte Ober­
fläche geklebt worden. Die Vermutung liegt
nahe, dass man dieses ältere Gefäß nach der
Mode der jüngsten Bandkeramik modernisie­
ren wollte.
Fast 40 weitere Tongefäße, davon knapp
die Hälfte vollständig, sind im Altscherbitzer
Brunnen bislang »ausgegraben« worden, viele
mit Pech und Rindenstreifen repariert. Damit
nicht genug, fanden sich hier wie auch in an­
deren Brunnen Reste von Bastschnüren an
Henkeln und Ösen. Bislang hatten Prähistori­
ker eine solche Aufhängung etwa zum Wasser­
schöpfen nur annehmen können – nun sind
sie nachgewiesen.
All diese Gefäße lagen in Paketen im mittle­
ren bis unteren Bereich des Brunnenschachts.
Hineingefallen sind sie also nicht, so wie man­
che anderen Objekte aus der untersten Partie.
Wurden sie nach der Aufgabe des Brunnens,
als altmodisch angesehen, dort entsorgt? Da­
gegen spricht allein schon der Aufwand, mit
dem manche repariert und modernisiert wor­
den waren. Sollte man also besser von einer
Gefäßdeponierung sprechen?
Einkorn
68 Im Unterschied zu herkömmlichen Siedlungsgruben erhielten sich in den unteren, stets
feuchten und somit von Luft abgeschlossenen
Brunnensedimenten auch unverkohlte Reste
von Pflanzen: Äste, Blätter und Rindenfragmente, Früchte und Samen sowie mikroskopisch kleine Pollen, die einst hineingeweht worden waren. Das erlaubt nunmehr, den Bewuchs
im Siedlungsumfeld zu rekonstruieren. Demnach standen die Dörfer nicht inselartig auf
kleinen Lichtungen in ansonsten dichten Wäldern, sondern bereits in einer weit gehend offenen Landschaft, die zumindest teilweise kulturell geprägt war.
Als einzigartig erweist sich der Fund der ersten unverkohlten Emmergetreideähre aus der
frühen Jungsteinzeit. Aber auch Pflanzen, die
wir in verkohltem Zustand aus den Siedlungsfunden kennen, haben sich im Brunnen hervorragend erhalten. Zahlreiche Funde von Moos,
mit dem offensichtlich die Spaltbohlen abgedichtet worden waren, waren bei der Bergung
für einige Minuten sogar noch in ihrer ursprünglichen Farbe Grün zu sehen. Im Altscherbitzer
Brunnen kamen ganze Blütenstände von Klette
zu Tage, orangefarbene Beeren der Judenkirsche und eine leicht zerquetschte, aber noch
rote Hagebutte, so frisch wie am Tag vor 7100
Jahren, als sie gesammelt wurde.
Vermutlich zu medizinischen oder gar kultischen Zwecken wurden Mohn und Bilsenkrautsamen verwendet. Beide rufen rauschartige Zustände hervor, und beide sind in Mitteleuropa
ursprünglich nicht heimisch. Da sie in fast allen
Brunnen gefunden wurden, hat man die Pflanzen offenbar gezielt gesammelt, wenn nicht sogar angebaut.
Auch Kleintiere und Insekten verirrten sich
in die Brunnen. Weil sich die häufig vertretenen
Dungkäferarten oft den domestizierten Tierarten zuweisen lassen, erhalten wir somit indirekt
Informationen zur Tierhaltung. Besonders wichtig sind vor allem Funde des Kornkäfers und des
Schwarzen Getreidenagers insoweit, als die
noch heute gefürchteten Getreideschädlinge in
Mitteleuropa ebenfalls nicht heimisch sind. Da
sie flugunfähig sind und nur in den Vorräten
überleben können, müssen sie mit Getreide­
importen eingeführt worden sein. Selbst der
Nachweis einer Skarabäenart ist gelungen, die
heute im Mittelmeerraum heimisch ist. Auch
wenn die mittlere Jahrestemperatur im 6. Jahrtausend v. Chr. vermutlich etwa zwei Grad Celsius über der heutigen lag, hätte das nicht genügt,
damit diese Tiere einwandern konnten.
In den Brunnenschächten fanden wir auch
Reste von Igel und Maulwurf, von Frosch und
Krötenarten, von Echsen und Mäusen. Sogar der
Unterkiefer einer Hausmaus konnte bestimmt
werden, deren Art in Mitteleuropa bislang erst
aus dem 1. Jahrtausend v. Chr. bekannt war. Angesichts der Larven von Stubenfliegen und noch
einer Fülle anderer Repräsentanten diversen
Hausungeziefers scheint sich ein bandkeramisches Bauernhaus diesbezüglich nicht wesentlich von einem aus dem letzten Jahrhundert unterschieden zu haben.
Samen der Judenkirsche
wikimedia / USDA – ARS,
José R. Hernández
Emmer oder Zweikorn
Schwarzer Getreidenager
wikimedia / Thomas Springer
USDA – ARS, GMPRC
wikimedia / Sten Porse
Vom Winde verweht – Pflanzen und Tiere aus vergangener Zeit
SPEKTRUM DER WISSENSCHAFT · März 2010
Mensch & geist
beide Fotos: Landesamt für Archäologie Sachsen
Aus Rindenbast fertigten die Einwohner der Siedlung von Alt­
scherbitz eine Tasche, die mittels
gespaltener Hölzer in Form gebracht und dann mit einem Seil
in den Brunnen zum Schöpfen hinabgelassen wurde.
Gänzlich neu wäre solch eine Erkenntnis
nicht, wir kennen beispielsweise Steinbeil­
depots aus der Jungsteinzeit oder Niederlegun­
gen von Bronzeobjekten aus jüngeren Epo­
chen der Menschheitsgeschichte. Stets bieten
sich zwei Deutungen an: Lagerung bezie­
hungsweise Versteck auf der einen Seite, Op­
fergabe auf der anderen. Erstere Option lässt
sich hier wohl ausschließen, zu groß wäre der
Aufwand gewesen, das verborgene Gut wieder
auszugraben. Handelt es sich aber um eine
­religiös motivierte Darbringung, erhält der
Brun­nen über seine Funktion als Wasserspen­
der hinaus eine Bedeutung als kultischer Ort,
an dem man sich auch nach der Außerbetrieb­
nahme noch traf und einem oder mehreren
übernatürlichen Wesen opferte.
Waren die Brunnen »heilig«?
Ein starkes Indiz für eine Art religiöse Be­
handlung zumindest mancher Brunnen er­
brachte die Ausgrabung in Brodau. Dort wur­
den am äußeren Rand der Grube die Über­
reste eines aufrecht gesetzten Ferkels entdeckt
(siehe Bild S. 67 oben), auf der gegenüberlie­
genden Seite die Hälfte eines zweiten. Wahr­
scheinlich wurden sie vor der Inbetriebnahme
als Opfer dargebracht.
Es ist nur ein kleiner Schritt zu der Hypo­
these, dass bandkeramische Brunnen lediglich
zum Teil für den alltäglichen Wasserbedarf ge­
dacht waren. Denn angesichts der großen An­
zahl an Siedlungen ist die der Brunnen klein,
und das liegt nicht nur an den Problemen, sie
zu finden – auch in gut untersuchten Ort­
schaften wie Altscherbitz oder Eythra würden
ein oder maximal drei Brunnen nicht ausrei­
chen, um alle Haushalte, geschweige denn das
Vieh mit Frischwasser zu versorgen, und das
über Jahrhunderte hinweg. Zudem befanden
sich fast alle nicht weiter als ein paar hundert
SPEKTRUM DER WISSENSCHAFT · März 2010
Meter vom nächsten fließenden Gewässer ent­
fernt. Nein, solche Anlagen waren nicht für
den Alltag gedacht, sondern wahrscheinlich
besonderen Gelegenheiten oder bestimmten
Menschen vorbehalten. Dazu passt auch die
geringe Größe der erwähnten Schöpftaschen
aus Bast: Sie fassten gerade mal einen halben
bis knapp über einen Liter, sollten also wohl
eher heiliges Wasser denn Brauchwasser he­
raufholen.
Die neue Befundkategorie der Brunnen
mit den darin enthaltenen Funden, die von
Menschenhand hergestellt (Artefakte) wur­
den, wie auch jene zufällig in den Brunnen
geratenen sonstigen Objekte (siehe Kasten
links) werfen ein vollständig neues Licht auf
bisher unbekannte Fertigkeiten, Techniken
und Materialien der frühen Jungsteinzeit.
Wahrscheinlich teilten die Dorfbewohner
die anfallenden Arbeiten untereinander auf,
vermutlich spezialisierten sich manche zumin­
dest zeitweilig auf ein bestimmtes Handwerk.
Ihre »Zimmerleute« wussten sehr genau, wel­
ches Holz für welchen Zweck in Frage kam.
Die Epochenbezeichnung Steinzeit jedenfalls
vermittelt ebenso wie die Deklarierung als
bandkeramische Kultur ein viel zu einseitiges
Bild. Die noch heute durch ihre Ästhetik be­
eindruckenden Gefäße führen uns vor Augen,
dass unsere Vorfahren einen ausgeprägten
Sinn für Schönes hatten und ihre Welt alles
andere als trist war, auch wenn der Überle­
benskampf dieser frühen landwirtschaftlich
geprägten Gesellschaft sicherlich zentral war.
Wo sich dieser Sinn sonst noch gezeigt haben
mag – bei der Wohnungseinrichtung, im
Schmuck, bei der Kleidung oder vielleicht so­
gar in einer Form von Körperbemalung –,
bleibt uns aber noch verborgen. Wir sind Ge­
fangene der Erhaltungsbedingungen während
der Jahrtausende.
Der Prähistoriker Harald Stäuble
betreut am Landesamt für Archäologie Sachsen archäologische Großprojekte, die sich etwa im Rahmen
des Braunkohleabbaus oder von
Trassenprojekten (wie Autobahnen
oder Pipelines) ergeben. An den
Ausgrabungen und der Auswertung
der zahlreichen Brunnen sind neben
dem Autor noch zahlreiche weitere
Archäologen des LfA, Grabungsmitarbeiter, Restauratoren und Naturwissenschaftler beteiligt gewesen.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019956.
69
ESSAY: Menschenwürde
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Die Würde
des Menschen
ist antastbar
!
In fast allen bioethischen Debatten wird auf die Unantastbarkeit der Menschenwürde verwiesen. Ein genauerer Blick zeigt, dass der Begriff viel zu
beliebig verwendet werden kann, als dass man sich auf ihn berufen sollte.
Von Edgar Dahl
O
Der Mensch als
Hybrid
r Durch Darwins Evolu­
tionstheorie geriet das
christliche Menschenbild
mehr und mehr in die Kritik,
wonach der Mensch nach
dem Ebenbild Gottes geschaffen wude, das Tier aber
nicht. Den Biologen gilt seitdem der Mensch lediglich
als ein Tier unter Tieren,
wenn auch ein besonderes.
Forschungen in den USA
deuten darauf hin, dass sich
die Vorfahren von Mensch
und Schimpanse vor über
sechs Millionen Jahren
mehrmals kreuzten. Danach
wäre also der Mensch selbst
ein Hybrid.
70 b das Klonen von Lebewesen, die
Erzeugung genetischer Chimä­
ren oder neuerdings gar das so
genannte Neurodoping (die Ver­
stärkung von Hirnleistungen per Pille) – na­
hezu alle neuen biomedizinischen Technolo­
gien werden zumeist mit dem Hinweis auf
die »Menschenwürde« abgelehnt. Der Appell
an die vermeintlich unantastbare Würde des
Menschen ist inzwischen so inflationär ge­
worden, dass es höchste Zeit wird, ihn etwas
genauer zu betrachten.
Wohl nirgends sieht man die Notwendig­
keit einer solchen Analyse deutlicher als in
der Debatte um die Sterbehilfe. Denn hier
berufen sich bekanntlich sowohl Verächter als
auch Verfechter gern auf die Menschenwür­
de. Für die einen verbietet es die Würde des
Menschen, dass man das Leben eines unter
schrecklichen Qualen leidenden Patienten auf
dessen Wunsch hin einfach beendet. Für die
anderen dagegen gebietet sie es, dass man den
selbstbestimmten Wunsch eines Sterbenden
gefälligst zu respektieren habe.
Angesichts der Beliebigkeit, mit der man
die Idee der Menschenwürde also verwenden
kann, wird er denn auch immer häufiger als
eine bloße Leerformel abgetan. So hat etwa
Wolfgang Wickler kürzlich die Frage »Was ist
Würde?« bissig beantwortet: »Würde ist ein
Konjunktiv!«
Möglicherweise hilft ja ein kurzer Blick in
die Geschichte, um zu entscheiden, ob die
Verwendung des Begriffs Menschenwürde in
der heutigen Zeit noch sinnvoll ist. Obgleich
das Konzept bereits den Griechen und Rö­
mern bekannt war, war es in erster Linie das
Christentum, das der Menschenwürde eine so
zentrale Bedeutung einräumte. Nach christ­
licher Vorstellung beruht die Würde des Men­
schen auf seiner Rolle als »Ebenbild Gottes«:
Im Unterschied zu allen anderen Wesen habe
der Schöpfer nur ihn nach seinem Bild ge­
formt.
Spätestens seit der Veröffentlichung von
Charles Darwins »Die Entstehung der Arten«
hat diese Begründung der Menschenwürde er­
heblich an Glaubwürdigkeit eingebüßt. Doch
auch ohne religionskritische Argumente zu
bemühen, dürfte es offenkundig sein, dass
eine explizit christliche Begründung der Men­
schenwürde für eine säkulare und pluralis­
tische Gesellschaft wie der unseren denkbar
ungeeignet ist.
Bereits der deutsche Idealismus hatte daher
versucht, die Menschenwürde ohne Rückgriff
auf eine Religion zu begründen. Statt der
christlichen Gottesebenbildlichkeit rückte er
die so genannte Vernunftnatur des Menschen
in den Blick. So heißt es beispielsweise bei
Georg Wilhelm Friedrich Hegel (1770 – 1831):
»Der Mensch, da er Geist ist, darf und soll
sich selbst des Höchsten würdig achten; von
der Größe und Macht seines Geistes kann er
nicht groß genug denken.«
Hegels Zeitgenosse Johann Gottlieb Fichte
(1762 – 1814) zeigte sich ähnlich betört vom
Mirakel der menschlichen Vernunft und stell­
te die rhetorische Frage: »Sollte der Mensch
nicht eine heilige Ehrfurcht vor sich selbst tra­
gen, und schaudern und erbeben vor seiner
eigenen Majestät?« Wir müssen den Menschen
SPEKTRUM DER WISSENSCHAFT · März 2010
Mensch & Geist
sondern höchstens graduell unterscheiden.
Statt der Unvergleichlichkeit der Vernunft ist
es heute eher die Fehlbarkeit der Vernunft, die
ins Auge sticht. Sicher ist es eine bemerkens­
werte Fähigkeit, zu wissen, dass wir nichts
wissen. Doch ließe sich daraus kaum die ver­
meintlich unantastbare Würde aller Menschen
ableiten.
Der bedeutendste und einflussreichste Ad­
vokat der Menschenwürde war zweifellos Im­
manuel Kant (1724 – 1804). Nach Ansicht des
Königsberger Philosophen beruht die Würde
des Menschen auf dessen »sittlicher Autono­
mie«. Anders als alle anderen Lebewesen ver­
mag sich der Mensch nämlich über seine natür­
lichen Triebe zu erheben und von morali­schen
Normen leiten zu lassen. Diese Fähigkeit zum
Auf sittlicher Autonomie beruht
nach Immanuel Kant die Würde
des Menschen. Gegen die Todesstrafe war er nicht.
Stich von Johann L. Raab, nach einem Original von G. T. Döbler, 1791
mit Michel de Montaigne (1533 – 1592) nicht
unbedingt als »das unglückseligste und ge­
brechlichste aller Geschöpfe« betrachten, um
ihm darin Recht zu geben, dass »die Anma­
ßung unsere natürliche Erbkrankheit« ist. Es
sei, wie der Politiker und Philosoph in seinen
»Essais« notiert, offenbar wohl in der Tat ein
Ausdruck »des Hochmuts des Menschen, dass
er sich dem Schöpfer gleichstellt, sich gött­
liche Eigenschaften beimisst und sich vom
großen Haufen der übrigen Kreatur auserle­
sen dünkt«.
Anders als der deutsche Idealismus be­
trachtet der moderne Naturalismus den Men­
schen denn auch als ein bloßes Tier unter
Tieren, dessen geistige Fähigkeiten sich von
denen anderer Lebewesen nicht prinzipiell,
Der Artikel 1 im Grundgesetz war zur Zeit seiner Entstehung durchaus umstritten. Ursprünglich
hieß es: »Der Staat ist um des Menschens willen da, nicht der Mensch um des Staates willen.«
fotolia / Karl-Heinz Spremberg
SPEKTRUM DER WISSENSCHAFT · März 2010
71
ESSAY: Menschenwürde
Gemälde von Daniel Dumonstier, 1578
»Gehorsam gegenüber dem Sittengesetz« ma­
che den Menschen zum »Gegenstand höchster
Bewunderung, die ihn gleichsam einen heili­
gen Schauer über die Größe und Erhabenheit
seiner wahren Bestimmung fühlen« lasse.
Da Adel bekanntermaßen verpflichtet, nö­
tigt uns die Menschenwürde nicht nur Respekt
vor anderen, sondern auch vor uns selbst ab.
Sie erlegt dem Menschen laut Kant die Pflicht
auf, die Würde, »die ihn vor allen Geschöpfen
auszeichnet, auch in seiner eigenen Person
niemals zu beleidigen«. Hierzu gehöre, dass
wir niemals vor unseren Mitmenschen krie­
chen sollen. »Wer sich zum Wurme mache,
darf nicht darüber klagen, mit Füßen getreten
zu werden.«
Leerheit des Klangs
Gemälde von Jakob Schlesinger, 1831
»Die Anmaßung ist unsere
natürliche Erbkrankheit.«
Michel de Montaigne
»Der Mensch, da er Geist ist,
soll sich des Höchsten würdig achten.« Friedrich Hegel
72 Wer sich von Kants Begriff der Menschen­
würde ein auch heute noch gültiges Kriterium
für Moral und Recht erhofft, wird sich aber
bald enttäuscht sehen. Denn nach seiner Auf­
fassung ist beispielsweise die Todesstrafe
durchaus mit der Menschenwürde vereinbar;
die Selbsttötung dagegen sei der Menschen­
würde zuwider. Insbesondere die Homosexua­
lität ist nach Kant ein verabscheuungswürdi­
ges Verbrechen, »da sie die Menschheit unter
die Tierheit« erniedrige und »den Menschen
der Menschheit unwürdig« mache.
Aber bereits Kants Schüler Arthur Scho­
penhauer (1788 – 1860) ist sauer aufgestoßen,
dass man mit diesem Begriff der Menschen­
würde allerlei Schindluder treiben und nahe­
zu jedes beliebige Verhalten ächten kann.
Nicht zu Unrecht beklagte der Danziger sich
über die Leerheit des Ausdrucks »Würde des
Menschen«, der durch seinen »erhabenen
Klang« dermaßen imponiere, dass »nicht
leicht einer sich untersteht, heranzutreten, um
ihn in der Nähe zu untersuchen, wo er dann
finden würde, dass er nur eine bloße Hyper­
bel« sei.
Entsprechend Kants zweiter Formulierung
des kategorischen Imperativs versucht man
die Menschenwürde denn auch konkreter zu
fassen. Danach legt uns die Würde des Men­
schen folgendes Gebot auf: »Handle so, dass
du die Menschheit sowohl in deiner Person
als in der Person eines jeden anderen jederzeit
zugleich als Zweck, niemals bloß als Mittel
brauchst.« Mit anderen Worten: Wir dürfen
einen Menschen niemals als bloßes Mittel zu
unserem Zweck gebrauchen.
Um diese umständliche Formulierung zu
umgehen, spricht man heute lieber einfach
von dem Verbot der Instrumentalisierung.
Wenn ich einen Taxifahrer als Mittel zum
Zweck meiner Beförderung gebrauche, instru­
mentalisiere ich ihn nicht, sofern er in die
Fahrt einwilligt und ich ihn entsprechend ent­
lohne. Wenn ich ihn dagegen unter Andro­
hung von Gewalt und ohne jede Bezahlung
zu einer Fahrt zwinge, habe ich ihn instru­
mentalisiert.
So einleuchtend der Gedanke auch erschei­
nen mag, eine Verletzung der menschlichen
Würde mit der Instrumentalisierung eines
Menschen gleichzusetzen, so führt er jedoch
nicht weit. Nach allgemeiner Auffassung hat
das Prinzip der Unantastbarkeit der Men­
schenwürde absolute Geltung. Das heißt, eine
Verletzung der Menschenwürde darf niemals
und unter keinen Umständen geduldet wer­
den. Wie der Mainzer Rechtsphilosoph Nor­
bert Hoerster gezeigt hat, gibt es nun aber In­
strumentalisierungen und Instrumentalisie­
rungen. Neben dem Mann, der eine Frau
vergewaltigt, um seine Lust zu befriedigen,
gibt es beispielsweise auch die Frau, die mit
einem Mann flirtet, um ihren Partner eifer­
süchtig zu machen. Müssen wir beide Hand­
lungen nun gleichermaßen verurteilen, nur
weil beide Handlungen gleichermaßen einen
Menschen instrumentalisieren? Sicher nicht!
Dass durch einen solchen Hinweis wenig
gewonnen ist, wird spätestens dann klar, wenn
wir Handlungen wie Mord oder Totschlag mit
Handlungen wie Folter oder Geiselnahme
vergleichen. Letztere enthalten offensichtlich
eine Instrumentalisierung ihrer Opfer, erstere
dagegen nicht. Für die Beurteilung ist dies je­
doch ohne jeden Belang. Alle vier Hand­
lungen stellen Verbrechen dar, für die unser
Gesetzbuch einen eigenen Straftatbestand ent­
hält. Und die Strafwürdigkeit aller vier Hand­
lungen besteht einzig und allein darin, dass sie
alle eine Verletzung unserer moralisch und ju­
ristisch geschützten Rechte darstellen.
SPEKTRUM DER WISSENSCHAFT · März 2010
Mensch & Geist
Dies bringt mich zu meinem Hauptargu­
ment. Offenbar können wir jede Verletzung
der Menschenwürde genauso gut, ja sogar
noch weit besser, als eine Verletzung eines
Menschenrechts beschreiben. Wenn dem so
ist, dann wird aber der Verweis auf die Würde
des Menschen nicht nur inhaltsleer, sondern
geradezu überflüssig. Wozu sollen wir bei­
spielsweise eine Geiselnahme als Würdeverlet­
zung bezeichnen, wenn wir sie viel präziser als
eine Beeinträchtigung des Rechts auf persön­
liche Freiheit fassen können? Und warum sol­
len wir eine Vergewaltigung als Würdeverlet­
zung bezeichnen, wenn wir sie viel konkreter
als eine Beschädigung des Rechts auf körper­
liche Unversehrtheit brandmarken können?
Kurzum: Solange sich keine Verletzung der
Menschenwürde findet, die nicht zugleich
auch einen Verstoß gegen ein Menschenrecht
darstellt, ist der Begriff der Menschenwürde
schlicht und einfach redundant.
Gegner mundtot machen
Natürlich will ich mit alldem nicht sagen, dass
wir den Begriff der Würde ein für alle Mal aus
unserem Vokabular streichen sollten. Noch
viel weniger will ich behaupten, dass wir ihn
aus unserer Verfassung eliminieren müssen.
Wie wir alle wissen, ist der Satz »Die Würde
des Menschen ist unantastbar« als Reaktion
auf die unvergleichlichen Gräueltaten des Na­
tionalsozialismus in unser Grundgesetz aufge­
nommen worden, um damit zum Ausdruck
zu bringen, dass Menschen mit ihresgleichen
nicht nach Belieben umgehen dürfen. Und
hier erweist sich der Appell an die Würde des
Menschen auch als das, was er in Wirklichkeit
ist, nämlich eine bloße Deklaration.
In der bioethischen Diskussion, und da­
rum geht es mir hier, hat der Begriff der Men­
schenwürde jedoch nichts verloren. Hier dient
er fast ausnahmslos als ideologische Waffe,
mit der man seine Gegner mundtot machen
will. In Ermangelung eines Arguments zieht
man das Schlagwort der Menschenwürde aus
dem Ärmel, um die Diskussion zu beenden.
Wer will schließlich auch weiterdiskutieren,
sobald eine biomedizinische Technologie ein­
mal als eine grobe Verletzung der Menschen­
würde entlarvt worden ist?
Um zu verdeutlichen, dass uns der Rekurs
auf die Menschenwürde keinen Schritt weiter­
bringt, möchte ich auf die eingangs erwähnten
Technologien des Neurodopings sowie der
Chimärenbildung zurückkommen. Unter En­
hancement versteht man generell die Verbes­
serung menschlicher Fähigkeiten. Mit Hilfe
des so genannten Neuro-Enhancements mö­
gen wir vielleicht eines Tages unsere kogni­
tiven und emotionalen Fähigkeiten verbes­
SPEKTRUM DER WISSENSCHAFT · März 2010
sern. So genannte Smart Pills könnten unsere
Konzentrationsfähigkeit und unser Erinne­
rungsvermögen erhöhen; Happy Pills könnten
Befinden und Antrieb steigern.
Sofern solche Präparate sicher, zuverlässig
und nebenwirkungsarm wären, spräche ei­
gentlich nichts gegen ihre Einnahme. Den­
noch sehen Bedenkenträger auch hier wieder
die Würde des Menschen in Gefahr. Doch in­
wieweit verletzt jemand, der seine Stimmung
mit einer Glückspille aufhellt, seine Würde?
Nicht einmal Kant würde etwas dagegen ein­
zuwenden haben. Seiner Meinung nach ist es
gerade die Menschenwürde, die es uns verbie­
tet, ihm vorzuschreiben, wie er sein Leben zu
leben hat: »Niemand kann mich zwingen auf
seine Art glücklich zu sein, sondern ein jeder
darf seine Glückseligkeit auf dem Wege su­
chen, welcher ihm selbst gut dünkt, wenn er
nur der Freiheit anderer nicht Abbruch tut.«
Unter Chimären versteht man Lebewesen,
die Zellen verschiedener Spezies enthalten.
Wenn wir einem menschlichen Embryo tieri­
sche Zellen hinzufügen, würde er also zu einer
Chimäre heranwachsen. Wie nicht anders zu
erwarten, ist selbstverständlich auch die Bil­
dung von Chimären als ein Angriff auf die
Würde des Menschen diffamiert worden. Doch
wer so spricht, weiß in aller Regel gar nicht,
wozu diese Art von Forschung überhaupt be­
trieben wird. Es geht nicht darum, irgendwel­
che Monster zu schaffen, sondern uns von ei­
nigen Geißeln der Menschheit zu befreien.
Ein Beispiel: Wie weithin bekannt, gibt es
eine Vielzahl von Tieren, die gegenüber dem
HI-Virus resistent sind. Sollte diese Immunität
auf einem speziellen Gen beruhen, ist es denk­
bar, dieses Gen zu isolieren und in das Genom
der Menschen einzuschleusen. Auf diese Wei­
se würden unsere Kinder und Kindeskinder
schon bald vor Aids gefeit sein. Ähnliches ver­
sucht man mit Genen, die uns vor bestimm­
ten Arten von Krebs bewahren sollen.
Was also könnte dagegen sprechen, künf­
tige Generationen vor Aids und Krebs zu
schützen? Wie beim Enhancement, so kommt
es auch bei der Bildung von Chimären auf das
Risiko an, das mit diesem Eingriff verbunden
ist. Sofern die Eingriffe sicher sind, spricht
nichts, aber auch gar nichts dagegen. Wer sich
dennoch vor Chimären ekelt, sei daran erin­
nert, dass wir streng genommen alle Chimä­
ren sind. Denn jeder von uns enthält tierische
Zellen in seinen Gedärmen, nämlich Bakte­
rien. Hat sich deswegen jemals einer in seiner
Würde verletzt gefühlt?
Lasst uns also die Konsequenzen ziehen
und den Einwand der Verletzung der Men­
schenwürde ein für alle Mal aus der bioethischen Diskussion verbannen.
Edgar Dahl ist wissenschaftlicher
Mitarbeiter am Max-Planck-Institut
für molekulare Biomedizin und
Dozent am Institut für Geschichte,
Theorie und Ethik der Medizin an
der Westfälischen Wilhelms-Universität Münster. Neben Problemen der
Bioethik beschäftigen ihn Fragen
der Moral-, Rechts- und Religionsphilosphie.
Beck, M.: Mensch-Tier-Wesen. Zur
ethischen Problematik von Hy­
briden, Chimären und Parthenoten.
Schöningh, Paderborn 2009.
Bommarius, C.: Das Grundgesetz –
eine Biographie. Rowohlt, Reinbek
2009.
Hoerster, N.: Ethik der Embryo­
nenforschung. Ein rechtsphilosophischer Essay. Reclam, Stuttgart
2002.
Schöne-Seifert, B., Talbot, D.
(Hg.): Enhancement. Die ethische
Debatte. Mentis, Paderborn 2008.
Wetz, F. J.: Illusion Menschen­würde.
Aufstieg und Fall eines Grundwerts.
Klett-Cotta, Stuttgart 2005.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019958.
73
MATHEMATISCHE UNTERHALTUNGEN
Dreiecksgeometrie
Torricelli und der
fünfte Mittelpunkt des Dreiecks
Mit physikalischen oder elementargeometrischen Methoden kann man einen
der vielen »merkwürdigen Punkte« des Dreiecks finden, den die Antike nicht kannte.
C
rei – sozusagen punktförmige – Städte wollen sich miteinander durch ein
Straßen- oder Kabelnetz verbinden, das
aus Kostengründen eine möglichst geringe
Gesamtlänge haben soll. Wie finden wir
dieses Netz?
Wenn die Städte – nennen wir sie A,
B und C – nahezu auf einer Linie liegen,
das Dreieck ABC also sehr stumpfwinklig ist, besteht das Netz aus den Dreiecksseiten AB und BC. In allen anderen
Fällen verbindet es alle drei Ecken mit
einem Punkt, der irgendwie »in der Mitte« des Dreiecks liegt und von allen drei
Punkten in gleicher Weise abhängt.
Seit der Antike (und aus dem Schulunterricht) kennt man vier »Mittelpunkte« des Dreiecks mit dieser Eigenschaft: den Mittelpunkt des Umkreises,
der durch die Ecken geht, den des Inkreises, der die drei Seiten berührt, den
Höhenschnittpunkt und den Schwerpunkt der Fläche, der zugleich auch der
gemeinsame Schwerpunkt von drei gleichen Gewichten in den Ecken ist. Aber
keiner von ihnen ist das Zentrum unse­
res minimalen Netzes. Das sieht man an
den sehr stumpfen Dreiecken: Umkreismittelpunkt und Höhenschnittpunkt
wandern aus dem Dreieck heraus, Inkreismittelpunkt und Schwerpunkt blei74
B
Für jeden Punkt der Ebene ist die Summe der Entfernungen zu den drei Eckpunkten eines
Dreiecks aufgetragen: Jede Grenze zwischen hellblau und gelb beziehungsweise weiß ist
eine Linie konstanter Entfernungssumme. Für ein sehr stumpfes Dreieck (links) fällt der optimale Punkt in die entsprechende Ecke.
ben im Inneren, aber keiner gerät auf die
Ecke mit dem stumpfen Winkel.
Die Lösung des Problems heißt »Fermat-Punkt«. Pierre de Fermat (1607 oder
1608 bis 1665, das falsche Geburtsjahr
1601 beruht auf einer Verwechslung mit
seinem früh verstorbenen gleichnamigen
Bruder) hatte ein Faible für Extremwerte
und für Probleme, die dann von anderen
gelöst wurden; das berühmteste Beispiel
ist »Fermats letzter Satz«, den erst Andrew Wiles 1994 endgültig bewiesen hat.
So stellte er die Frage nach unserem
Punkt mit der minimalen Summe der
Entfernungen von den Ecken eines allgemeinen Dreiecks (Bild oben). Den geometrischen Lösungsweg fand Fermats
Zeitgenosse Evangelista Torricelli (1608 – 1647), der neben Viviani einer der bekanntesten Schüler Gali­leis war und uns
vor allem wegen seiner Forschungen zum
Luftdruck und durch die alte Druckeinheit Torr bekannt ist. Den Mathematikern ist derselbe Punkt unter der irre­
führenden Bezeichnung »Steiner-Punkt«
­geläufig, weil viel später Jakob Steiner
(1796 – 1863) auch über das Problem ge-
arbeitet hat; er soll im Folgenden »Fermat-Torricelli-Punkt« heißen.
Wir schauen erst einmal nach physikalischen Lösungen, sozusagen mit Analogrechnern. Wir knoten drei (fast masselose) Fäden zusammen, stecken sie
durch drei Löcher (die Eckpunkte des
Dreiecks) in einem flachen Brett und
hängen an jedes der freien Enden ein
gleich schweres Gewicht. Wenn wir dann
vorsichtig rütteln, wird die Haftreibung
ant / Robbins
D
A
enschaft, nach: Cour
Von Norbert Treitz
B
Spektrum der Wiss
A
alle Abbildungen (sofern nicht anders angegeben):
Christoph Pöppe, nach Norbert treitz
C
Minimum finden mit Seifenwasser: Der
»Stei­ner-Baum«, das heißt die kürzeste Verbindung zwischen den drei gegebenen Punkten, stellt sich als Minimalfläche ein.
SPEKTRUM DER WISSENSCHAFT · März 2010
C
mensch & geist
T
A
B
Wandert der Zentralpunkt T von seiner optimalen Lage weg, wobei die Summe der Längen AT + BT konstant bleibt (hellblau), das
heißt auf einer Ellipse mit den Brennpunkten
A und B (rot), so kann CT nur länger werden.
Im optimalen Fall trifft CT rechtwinklig auf
die Ellipse.
ausgetrickst, und der Knoten findet sich
in dem gesuchten optimalen Punkt des
Dreiecks aus den drei Löchern ein. Der
Grund ist einfach: Der Schwerpunkt der
Gewichte und damit die Gesamtenergie
des Systems liegt umso niedriger, je länger die senkrechten Teile der Fäden in
summa sind. Die anderen Teile der Fäden (praktisch in der Ebene des Bretts,
die waagerecht sein kann, aber nicht
muss) liegen dann in dem Dreieck; sie
haben die verbleibende und darum minimale Summe ihrer Längen.
Im Knoten treffen sich drei Fäden mit
gleichen Zugkraftbeträgen und im
Gleichgewicht mit der Kraftvektorsumme 0. Das Kräftedreieck ist also gleichseitig und daher auch gleichwinklig.
Aus diesen physikalischen Betrachtungen folgt, dass man die Seiten des
Dreiecks von dem gesuchten Punkt aus
unter jeweils 120 Grad sehen kann.
Wenn allerdings ein Innenwinkel größer
als 120 Grad ist, dann ist diese »sehr
stumpfe« Ecke selbst der optimale Punkt.
Im Folgenden soll »sehr stumpf« die präzise Bedeutung »größer als 120 Grad«
haben.
Außer der Energie des Schwerefelds
gibt es noch eine andere Energie, deren
Minimierung man elegant für geometrische Probleme einsetzen kann, nämlich
die Oberflächenenergie (siehe meinen
Beitrag in Spektrum der Wissenschaft
9/2007, S. 98), die auf der Bindung zwischen Molekülen beruht und die man
auch weniger klar mit einer »Oberflächenspannung« beschreibt. Wir nehmen
zwei Acrylglasscheiben und bohren in
jede drei Löcher an den Ecken zweier deckungsgleicher Dreiecke. Die Scheiben
werden genau parallel zueinander im Abstand weniger Zentimeter montiert, und
SPEKTRUM DER WISSENSCHAFT · März 2010 durch die Löcher werden drei gerade
Drahtstücke passender Dicke gesteckt,
rechtwinklig zu beiden Scheiben. Nun
tunkt man das Ganze in verdünntes
Spülmittel und zieht es wieder heraus.
Die Flüssigkeit bildet zwischen den
Scheiben, den drei Drähten und einer
sich selbst einstellenden Kante drei rechteckige Lamellen mit minimaler Gesamtfläche. Zwischen je zwei dieser Lamellen
besteht dabei ein Winkel von 120 Grad.
Denn wenn das noch nicht zutrifft, verlagern sich die Lamellen so, dass zwei mit
einem spitzeren Winkel kleiner werden
und die verbleibende zugleich größer
wird. Die Summe der Lamellenflächen
wird dabei kleiner (Bild links unten). Bei
einem sehr stumpfen Dreieck entartet
die Anordnung zu zwei Lamellen, die
sich in der sehr stumpfen Ecke treffen.
Torricellis Ellipsen
Kann man diesen Befund auch rein geometrisch beweisen? Nach Torricelli kann
man folgendermaßen mit Ellipsen argumentieren (Bild oben): Es seien A, B und
C die Ecken eines nicht sehr stumpfen
Dreiecks, T sei (Torricelli zu Ehren) der
gesuchte Punkt mit der kleinsten Entfernungssumme AT + BT + CT. Wir verschieben nun in Gedanken T infinitesimal, wobei AT + BT konstant bleiben
soll. Dazu muss T auf einer Ellipse mit
den Brennpunkten A und B wandern.
Die kürzestmögliche Strecke CT muss
den Ellipsenbogen rechtwinklig treffen;
sonst könnte man sie durch Bewegen
von T entlang der Ellipse verkürzen.
Nach einem Satz aus der ebenen Geometrie halbiert das Lot zur Tangente
durch einen Punkt T auf einer Ellipse
mit den Brennpunkten A und B den
Winkel ATB. Damit haben wir die
Gleichheit der Winkel CTA und CTB.
Die Argumentation, die wir hier für die
Punkte A und B durchgeführt haben,
gilt ebenso für B und C sowie für C und
A. Also sind alle drei Winkel CTA, ATB
und BTC gleich und daher wegen ihrer
Summe je 120 Grad.
Um T mit Zirkel und Lineal zu konstruieren, nutzen wir einen Satz über
Vierecke, die einen Umkreis haben, so
genannte Sehnenvierecke. In einem solchen Viereck sind die Gegenwinkel paarweise zusammen gleich 180 Grad.
Wir tun zunächst so, als hätten wir zu
unserem Dreieck ABC bereits den optimalen Punkt T. Dann wählen wir ir-
gendwo auf dem außerhalb von ABC liegenden Bogen des Umkreises von ABT
einen neuen Punkt D (Bild unten). Das
Viereck BTCD hat dann auch diesen
Umkreis, und wegen BTC = 120° muss
BDC = 60° sein.
Wählen wir umgekehrt einen Punkt
D mit der Eigenschaft, dass BDC = 60°
ist, dann geht der Umkreis des Dreiecks
BDC durch unseren gesuchten Punkt T.
Dasselbe gilt für die analog zu konstruierenden Dreiecke ABF und CAE. Die
Umkreise dieser drei angefügten Dreiecke schneiden sich in einem einzigen
gemeinsamen Punkt, nämlich dem gesuchten T, und wir sind fertig.
Es gehört zu den Merkwürdigkeiten
der Dreiecksmittelpunkte wie T oder
auch der klassischen Mittelpunkte, dass
sie überbestimmt sind: In einem solchen
Punkt schneiden sich nicht nur zwei,
sondern drei zueinander analoge Linien.
Bei der Konstruktion hat man dadurch
immer eine gewisse Kontrolle der Zeichengenauigkeit.
Wir haben bisher die angefügten Dreiecke gleichseitig gewählt, ohne dass es für
die Umkreise nötig wäre. Nun setzen wir
diese spezielle Wahl aber ausdrücklich
voraus und verbinden die Ecken A, B
und C einzeln mit den gegenüberliegenden Spitzen D, E und F der angefügten (gleichseitigen) Dreiecke. Tatsächlich tref­fen sich diese drei Verbindungsgeraden in einem gemeinsamen Punkt,
und o Wunder, dieser ist T. Aber warum?
Nach dem Mathematikhistoriker
Joseph Ehrenfried Hofmann (1900 –
E
C
D
T
B
A
F
Der Fermat-Torricelli-Punkt T ist der Schnittpunkt der Umkreise von gleichseitigen Dreiecken, die über den Seiten des Dreiecks ABC
konstruiert werden, und zugleich Schnittpunkt der Verbindungsgeraden zwischen gegenüberliegenden neuen und alten Ecken.
75
KiepertHyperbel
Umkreismittelpunkt
MATHEMATISCHE
UNTERHALTUNGEN
C
1973) nehmen wir einen Punkt U im
Inneren eines nicht sehr stumpfen Dreiecks und drehen ihn mitsamt der Seite
CA um 60 Grad um den Eckpunkt C
(Bild unten). Aus A entsteht dabei der
Eckpunkt E des gleichseitigen Dreiecks
über CA und aus U der Punkt U´. Nun
ist der Streckenzug EU´UB genauso lang
wie die Summe der Verbindungen von
den Ecken zu U. Offensichtlich ist dieser
Streckenzug von minimaler Länge, wenn
er zur geraden Linie entartet. Deshalb
liegt der optimale Punkt T auf der Geraden EB und, da man diese Konstruktion
mit jeder anderen Dreiecksseite ebenfalls
durchführen kann, auch auf AD und CF.
Obendrein sind die drei Strecken AD,
BE und CF gleich lang. Beispielsweise
bilden AD und CF mit B zwei deckungsgleiche Dreiecke, die man durch Drehung um 60 Grad ineinander überführen kann.
Falls unser Dreieck ABC sehr stumpf
ist, kann man gleichwohl diesen Schnittpunkt T konstruieren. Er hat zwar seine
Minimumseigenschaft verloren, ist aber
immer noch isogonal (»gleichwinklig«)
in einem verallgemeinerten Sinn.
Dreiecksgeometrie:
Kurzfassung für Marsmenschen
Ist mit den klassischen vier Punkten und
dem Torricelli-Punkt das Sortiment der
be­sonderen Punkte im Dreieck erschöpft? Mitnichten! Clark Kimberling
von der University of Evansville (Indiana) führt eine Liste solcher Punkte und
ist inzwischen bei der Nummer 3587 angelangt. Die »Encyclopedia of Triangle
Centers« (ETC) beginnt mit dem Inkreismittelpunkt und dem Schwerpunkt; der
Fermat-Torricelli-Punkt ist die Nummer
13, unmittelbar gefolgt von dem Punkt,
der bei der analogen Konstruk­tion mit
einwärts geklappten gleichseitigen Dreiecken entsteht. Alle diese Punkte haben
gemeinsam, dass man sie aus den Lagen
der Ecken ohne Rücksicht auf VertauE
C
U'
U
T
B
A
Konstruktion des Fermat-Torricelli-Punkts T
nach Joseph Hofmann
76
Umkreis
Fermat-Torricelli-Punkt T1
NapoleonPunkt N2
Neunpunktekreis
(Feuerbach-Kreis)
Mittelpunkt der Kiepert-Hyperbel
Schwerpunkt
Napoleon-Punkt N1
Spieker-Punkt
A
FermatTorricelliPunkt T2
KiepertHyperbel
B
Die Kiepert-Hyperbel geht durch zahlreiche der über 3500 besonderen Punkte im Dreieck.
schung der Nummern der Ecken bestimmen kann.
Wie kann man in dieser unglaublichen Masse an Punkten den Überblick
behalten? Manche von ihnen liegen auf
der so genannten Euler-Geraden, manche auf dem Neunpunktekreis, der im
Deutschen meistens Feuerbach-Kreis
heißt. Es gibt zum Dreieck noch viel
mehr Geraden, Kreise und allgemeiner
Kegelschnitte mit besonderen Eigenschaften.
Aber nehmen wir an, die Besucher
vom Mars kommen, wollen etwas über
Dreiecksgeometrie lernen, halten es aber
nur eine Stunde lang auf der Erde aus:
Was erzählt man ihnen dann? Die emeritierten Professoren Roland Eddy von der
Memorial University of Newfoundland
(Kanada) und Rudolf Fritsch von der
Universität München empfehlen die Kiepert-Kegelschnitte, allen voran die Kiepert-Hyperbel.
Ludwig Kiepert (1846 – 1934) verallgemeinerte die Dreiecke, die an die Seiten des Dreiecks ABC angefügt werden:
Sie müssen nicht mehr gleichseitig, sondern nur noch gleichschenklig sein. Ihr
Basiswinkel ist variabel, muss aber für
alle drei angefügten Dreiecke stets der­
selbe sein. Negative Basiswinkel ergeben
einwärts geklappte Dreiecke. Wieder
treffen sich die Verbindungslinien AD,
BE und CF zwischen den neu geschaffenen Eckpunkten und den gegenüberliegenden Ecken von ABC in einem
Punkt. Die Menge dieser Punkte für alle
Basiswinkel ist die Kiepert-Hyperbel. Sie
geht nicht nur durch die drei Eckpunkte
A, B und C, sondern durch eine erstaunlich hohe Anzahl an besonderen Punkten
aus Kimberlings Liste. So gehört der
Schwerpunkt zum Basiswinkel 0°, der
Höhenschnittpunkt zu 90°, die beiden
Fermat-Torricelli-Punkte zu ±60°. Selbst
der aus anderem Zusammenhang besser
bekannte Napoleon Bonaparte hat sich
mit zwei besonderen Punkten (zu ±30°)
in der Dreiecksgeometrie verewigt.
Wenn das Dreieck ABC gleichschenklig ist, liegen alle 3587 Punkte auf seiner
Symmetrieachse, und wenn es sogar
gleichseitig ist, fallen sie alle in einen einzigen Punkt zusammen – wenn sie nicht
ins Unendliche auswandern.
Norbert Treitz ist pensionierter
Pro­fessor für Didaktik der Physik an der Universität DuisburgEssen.
Courant, R., Robbins, H.: Was
ist Mathematik? Springer, Berlin, 5. Auflage 2000.
Eddy, R. H., Fritsch, R.: The Conics of Ludwig
Kiepert: A Comprehensive Lesson in the Geometry of the Triangle. In: Mathematics Magazine 67,
S. 188 – 205, 1994. Online unter epub.ub.unimuenchen.de/4550/1/Fritsch_Rudolf_4550.pdf.
Nahin, P. J.: When Least is Best: How Mathematicians Discovered Many Clever Ways to Make Things
as Small (or as Large) as Possible. Princeton University Press, Princeton 2007.
Stewart, I.: Steiners Verhältnis. Mathematische
Unterhaltungen, Spektrum der Wissenschaft
4/1995, S. 10 – 15.
Weitere Weblinks zu diesem Thema finden Sie unter www.spektrum.de/artikel/1019959.
SPEKTRUM DER WISSENSCHAFT · März 2010
Porträt: Gerald Haug
Spurenleser
im Klimalabyrinth
Der Klimaforscher Gerald Haug sucht in der Vergangenheit den Schlüssel
zum Verständnis der Gegenwart. Indem er einstige Klimaänderungen
rekonstruiert­und interpretiert, gewinnt er Erkenntnisse von hoher Brisanz
für die Zukunft der Menschheit.
Von Sven Titz
alle Fotos des Artikels: Spektrum der Wissenschaft / Esther Michel
S
78 ein adrett aufgeräumter Arbeitsplatz befindet sich in einem modernen Gebäude der Eidgenössischen Technischen Hochschule
Zürich. In dem geräumigen, lichtdurchfluteten Zimmer fühlt sich
Gerald Haug sichtlich wohl. Durch eine großzügige Fensterfront
hat er immer einen ungehinderten Blick auf das Hauptgebäude der ETH.
Der Entwurf für den 145 Jahre alten Bau im Stil der Neorenaissance – errichtet als Polytechnikum Zürich – stamme von Gottfried Semper, dem
Architekten der Oper in Dresden, erzählt mir mein Interviewpartner.
Der studierte Geowissenschaftler ist mit Untersuchungen zur Klimaund Menschheitsgeschichte bekannt geworden, in denen er mehrere
Disziplinen virtuos kombiniert hat: Da ging die Geologie Hand in Hand
mit der Ozeanografie, der Meteorologie, der Biogeochemie und der Geschichtsforschung. Der Niedergang der Maya-Hochkultur und der TangDynastie, so glaubt Haug, hänge womöglich mit einer Wanderungsbewegung des tropischen Regengürtels zusammen.
Wenn er im Interview seine großen Bögen von den Sedimentfunden
über die Simulationen der ozeanischen und atmosphärischen Zirkula­
tion bis hin zu historischen Entwicklungen spannt, ist deutlich zu spüren, wie ihn die komplexen Zusammenhänge auf der Erde faszinieren.
Seine Begeisterung wirkt geradezu jungenhaft – der Leibniz-Preisträger von 2007 zählt in der Tat erst 41 Lenze, und man könnte ihn sogar
noch jünger schätzen. An der Wand hängen Abbildungen mit den gezackten und gepunkteten Linien seiner paläoklimatologischen Befunde. Er streicht mit dem Finger darüber wie ein Musikkritiker über
die Partitur einer neuen Oper.
SPEKTRUM DER WISSENSCHAFT · März 2010
& UMWELT
ERDE &ERDE
UMWELT
ZUR PERSON
Gerald Haug wurde am 14.
April 1968 in Karlsruhe
geboren, wo er später auch
Geologie studierte. Seine
Doktorarbeit schloss er 1995
an der Universität Kiel ab. Dort
blieb er bis 1996 als Postdoc.
Danach zog es ihn für ein Jahr
an die University of British
Columbia im kanadischen
Vancouver; ein weiteres Jahr
verbrachte Haug im US-Bundesstaat Massachusetts an der
Woods Hole Oceanographic
Institution. 1998 wechselte er
an die University of Southern
California in Los Angeles, wo
er zwei Jahre lang als Research
Assistant Professor arbeitete.
Im Jahr 2000 kehrte Haug
nach Europa zurück und wurde
Oberassistent an der Eidgenössischen Technischen Hochschule Zürich. 2001 verlieh
ihm die Deutsche Forschungsgemeinschaft (DFG) den Albert
Maucher-Preis für Geowissenschaften. 2002 habilitierte
sich Haug in Zürich. Ein Jahr
darauf ging er ans Geoforschungszentrum in Potsdam.
Die Universität der Stadt
berief ihn sogleich zum
Professor.
Spektrum der Wissenschaft: Herr Professor
Haug, Sie sind heute Klimaforscher, haben
aber Geologie studiert. Bedauern Sie diesen
Umweg?
Prof. Dr. Gerald Haug: Überhaupt nicht.
Schauen Sie, die Geologie ist ja eine systemi­
sche Wissenschaft. Wer das Fach studiert, er­
hält eine Grundausbildung in Physik, Che­
mie und Biologie. Aber am Ende steht ein viel
umfassenderes Bild. Mein Vater ist analytischer
Chemiker. Ich selbst konnte mich nie für eine
einzelne Grundlagenwissenschaft entscheiden.
Das Systemverständnis, auf das die Geologie
zielt, empfand ich schon beim Studium als ex­
trem reizvoll, und es fasziniert mich bis heute.
Spektrum: Was war denn Ihr ursprüngliches
Berufsziel?
Haug: Ich wollte Umweltgeologe werden, um
etwas Nützliches zu leisten. Aber dann entwi­
ckelte ich schon im Grundstudium durch sehr
gute Lehrer großes Interesse an der Grund­
lagen­forschung. Ich habe in Karlsruhe studiert
und arbeitete in einem Sonderforschungs­
bereich zur Riftentwicklung in Ostafrika. In
Manfred Strecker, der heute Professor an der
Universität Potsdam ist, hatte ich damals einen
hervorragenden Lehrer.
SPEKTRUM DER WISSENSCHAFT · März 2010
Spektrum: Was brachte Sie unter diesen Um­
ständen denn dazu, nach dem Diplom fah­
nenflüchtig zu werden und in die Klimafor­
schung zu wechseln?
Haug: In Karlsruhe hielt ich einmal einen
Vortrag zum Kohlenstoffkreislauf, in dem es
um eine Untersuchung des Meeresgeologen
und Klimaforschers Michael Sarnthein an der
Universität Kiel ging. Bei ihm hatte ein
Freund von mir gerade eine Doktoranden­
stelle an­genommen. Eines Tages erzählte er
mir, sein Betreuer plane ein Projekt für eine
paläoklimatische Rekonstruktion im Nord­
pazifik. Das erschien mir reizvoll. Also be­
kundete ich Sarnthein in einem Brief mein
Interesse. Bei dem Vorstellungsgespräch, zu
dem er mich daraufhin einlud, bombardierte
er mich eine halbe Stunde lang mit seinen
Ideen zu dem Vorhaben. Ich verstand so we­
nig, dass ich schon kapitulieren wollte. Doch
Sarnthein störte sich nicht im Geringsten an
meiner Unbedarftheit, sondern ermunterte
mich: Es habe noch keinem geschadet, mal
etwas anderes zu tun. Ich solle morgen früh
um neun Uhr kommen, um einen Doktoran­
denvertrag abzuschließen.
Spektrum: Haben Sie den Schritt je bereut?
Im Jahr 2007 wurde Haug mit
dem Gottfried Wilhelm
Leibniz-Preis der DFG ausgezeichnet und wechselte wieder
nach Zürich. Dort arbeitet er
heute als Professor für
Klimageologie im Departement
Erdwissenschaften. Seine
Hauptforschungsgebiete sind
der Einfluss des Klimas auf die
Zivilisation, die Abkühlung der
Erde im späten Neogen, das
vor 23 Millionen Jahren
begann, und die Biogeochemie
in Ozeanen und Seen.
79
Porträt: Gerald Haug
Mit wissenschaftlichen
Instrumenten wird das
Erdklima erst seit ungefähr
150 Jahren vermessen. Für
die Zeit davor bedarf es
indirekter Methoden. Sie
beruhen vor allem auf Proxys
(nach lateinisch proximus,
»das Nächste«). Das sind
natürliche Indikatoren
früherer Klimabedingungen
wie etwa Baumringe, Eisbohrkerne, Stalagmiten oder
Sedimente in Meeren und
Seen. Zu ihrer Nutzung
benötigt man eine Eichmethode. Bei den Baumringen
muss es zum Beispiel einen
Zeitraum geben, für den
sowohl exakte Messdaten als
auch Proxywerte vorliegen.
Dann wird die Ringdicke mit
der Temperatur in Beziehung
gesetzt. Diese Relation nutzt
man, um frühere Temperaturen aus Baumringen zu
erschließen.
Die von Gerald Haug und
Kollegen gemessene Titankonzentration in den Sedimentschichten des Cariacobeckens
vor Venezuela spiegelt die
Regenhäufigkeit in Mittelamerika wider. Minima weisen auf
drei Dürre­perioden hin, die mit
den drei Phasen zusammenfallen, in denen sich nach archäologischen Befunden der Untergang der Maya vollzog.
~ 810 n. Chr.
~ 860 n. Chr. ~ 910 n. Chr.
0,30
Klima
nass
Haug: Nein. In Kiel habe ich nicht nur ausge­
feilte Methoden der Meeresgeologie kennen
gelernt, sondern durfte auch gleich beim inter­
nationalen Ocean Drilling Program mitarbei­
ten. Das gehörte zum Besten, was mir damals
passieren konnte. An den Projekten waren
Forscher aus 17 Nationen beteiligt. Als Dok­
torand da von Anfang an mitzumachen, gab
meiner Karriere einen entscheidenden Impuls.
Die Meeresgeologie ist völlig international aus­
gerichtet. Gleich zu Beginn mit dieser Welt­
offenheit konfrontiert zu werden, hatte eine
befreiende Wirkung.
Spektrum: Welches waren Ihre wissenschaft­
lichen Vorbilder?
Haug: Da ist natürlich vor allem Manfred
Strecker zu nennen. Er faszinierte mich als Pro­
totyp des jungen, dynamischen Hochschulleh­
rers. In ihm habe ich nach wie vor einen sehr
guten Freund. Und Michael Sarnthein ist ja
ein berühmter Meeresgeologe. Neulich durfte
ich eine Laudatio auf ihn halten, als er die
höchste Auszeichnung der Geologischen Verei­
nigung, die Gustav-Steinmann-Medaille, über­
reicht bekam. Sarnthein hat 70 Stunden die
Woche gearbeitet und unglaublich viel bewegt.
Allerdings war er ein sehr anspruchsvoller
Mentor. Die es bei ihm geschafft haben, sind
alle Professoren geworden. Ein weiteres Vor­
bild für mich war und ist sicherlich der Ozea­
nograf Wallace Broecker – er hat mit seinen
pointiert formulierten Thesen zum Klimawan­
del großen Einfluss auf mich ausgeübt.
Spektrum: Sie waren als Doktorand auch
schon bei Bohrprojekten auf Schiffen dabei?
Haug: Das stimmt. Damals war ich auf dem
Forschungsschiff Sonne im Indischen Ozean
unterwegs. Als Postdoc bin ich dann auf dem
internationalen Tiefseebohrschiff Joides Reso­
lution in die Karibik gefahren. Später war ich
auch noch auf anderen Forschungsschiffen.
Neuerdings schicke ich aber lieber Doktoran­
den auf die See. Man ist acht Wochen unter­
wegs – eine lange Zeit für jemanden, der Ver­
pflichtungen an der Universität hat. Außer­
0,15
trocken
80
Stephanie Freese
80 8
60
42 Jahre 3
47 Jahre 40
Tiefe in der Bohrkernprobe in Millimetern
20
6
0
0
Titan in Prozent
Proxys
dem werde ich seekrank (lacht). Ich reiße
mich also nicht darum, mitzufahren.
Spektrum: Auf Ihre Expeditionen mit Bohr­
schiffen und auf Bohrungen in Seen gehen
Entdeckungen zurück, die auch in einer
breiteren Öffentlichkeit Aufsehen erregten.
Demnach beruhte der Niedergang der Maya
auf einer lang anhaltenden Trockenphase. Des­
gleichen haben Sie politische Umstürze in Chi­
na auf Klimaänderungen zurückgeführt. Was
sind die wissenschaftlichen Hintergründe?
Haug: Über den Untergang der Mayakultur
wurde viel gerätselt. Ähnlich mysteriös sind
die Gründe für Umsturzphasen in verschie­
denen Epochen der chinesischen Geschichte.
Eine Hypothese lautete, dass das Klima eine
entscheidende Rolle gespielt haben könnte.
Die Maya und die chinesische Tang-Dynastie
hatten sich im 8. Jahrhundert in eine prekäre
Situation gebracht. Es herrschte Überbevöl­
kerung. Hinzu kamen Probleme mit der Ent­
waldung und der Bodenerosion. Äußere Um­
welteinflüsse wie die Klimaänderung haben
die Situation verschärft und den Niedergang
so beschleunigt. Über die Geschichte Chinas
weiß man, dass sie von Bauernaufständen, Re­
bellionen, Hungersnöten und Kriegen geprägt
war. Oft wechselten die Dynastien genau
dann, wenn die Monsunregenfälle nicht aus­
reichten. Es ist klar, dass eine Dynastie nicht
zusammenbricht, wenn die Lebensbedingungen optimal sind. Ich gehöre aber nicht zu de­
nen, die sagen: Der Untergang lag nur am
Klimawandel.
Spektrum: Historiker und Archäologen sehen
eher innere Gründe dafür.
Haug: In der Tat gibt es eine Fraktion, die
einen Klimawandel auch als Katalysator des
Untergangs vehement ablehnt. Sie umfasst
etwa ein Drittel der auf dem Gebiet tätigen
Forscher. Es sind vor allem Kollegen, die sich
als geisteswissenschaftlich verstehen oder sich
ganz auf ihre Ausgrabungen stützen. Ein wei­
teres Drittel ist indifferent. Das letzte Drittel
schließlich hält es für bewiesen, dass Umwelt
und Klima eine entscheidende Rolle gespielt
haben. Zu ihm zählen vor allem Vertreter von
Disziplinen, die sich wie etwa die Umwelt­
archäologie mehr als naturwissenschaftlich
orientiert verstehen.
Spektrum: Wie sieht denn die Rollenvertei­
lung unter den Fachgebieten aus?
Haug: Wir rekonstruieren nur das Klima. Mit
Auskünften zu diesem Teilaspekt klinken wir
uns in die Diskussion ein. Die Kollegen aus
der Archäologie und Anthropologie stellen in­
terpretierende Hypothesen auf. Ich denke,
unsere Erklärungsansätze ergänzen sich.
Spektrum: Welche Indizien für Klimaände­
rungen haben Sie gefunden?
SPEKTRUM DER WISSENSCHAFT · März 2010
ERDE & UMWELT
Haug: Anhand von Sedimenten, die wir im
Cariacobecken vor Venezuela und in chinesi­
schen Seen erbohrten, konnten wir die tropi­
schen Regenfälle rekonstruieren. Im Cariaco­
becken sind die Ablagerungen jahreszeitlich
geschichtet. Ein Jahr entspricht einer Helldunkel-Abfolge, wissenschaftlich auch Warve
genannt. In der Regenzeit werden vom Land
her dunkle Sedimente angeschwemmt. Wenn
dann im Jahresverlauf der tropische Regengür­
tel weiter nach Süden gewandert ist, tritt im
Cariacobecken eine Algenblüte auf. Die ab­
sterbenden Mikroorganismen bilden nun eine
helle Sedimentschicht. Aus der chemischen
Zusammensetzung der Warven lässt sich die
jährliche Niederschlagsmenge ablesen. Aller­
dings treten jahreszeitlich geschichtete Sedi­
mente nur dort auf, wo am Meeresgrund weit
gehend anoxische, also sauerstofffreie Bedin­
gungen herrschen wie im Cariacobecken.
Deshalb haben wir uns zusätzlich ein spezielles
Element ausgesucht, das ebenfalls nieder­
schlagsabhängig vom Festland eingeschwemmt
wird, nämlich Titan. Es hat den Vorteil, dass
es sich mit geochemischen Messinstrumenten
wie dem Röntgenfluoreszenz-Scanner nicht
nur besonders einfach, sondern auch noch be­
sonders präzise messen lässt.
Spektrum: Und was verraten die Sediment­
funde?
Haug: Im 8. und 9. Jahrhundert war es 150
Jahre lang allgemein trockener. Das lässt sich
gut im Rahmen der El-Niño-Schwankungen
verstehen …
Spektrum: … also der Erwärmung des tro­
pischen Pazifiks alle paar Jahre …
Haug: Die Maya lebten ja auf der YukatanHalbinsel im heutigen Mexiko. Dort gab es
wegen der jahreszeitlichen Wanderung des
tropischen Regengürtels eine Regen- und eine
Trockenzeit. El-Niño-Jahre waren durch die
Fernwirkung aus dem Pazifik trockener. Das
ist auch heute noch so. Die Maya hatten zwar
Wasserspeicher, die der Bevölkerung ein oder
zwei Jahre durch die Dürre halfen, wenn eine
El-Niño-Schwankung besonders stark und
lang­ anhaltend war. Blieb aber das dritte Jahr
ebenfalls trocken, war das eine Katastrophe.
Verheerend wirkte sich dann auch aus, dass
sich die Regenzeit um zwei bis drei Monate
verspätete. Mitten in der tropischen Hitze
säten die Bauern ihren Mais aus – in der Hoff­
nung auf Regen, der nicht rechtzeitig kam.
Spektrum: Es gibt ja unzählige Indikatoren für
einstige Klimaänderungen, die so genannten
Proxys – neben Metallen auch fossile Algen,
Fettstoffe und dergleichen mehr. Wie behalten
Sie da als Paläoklimatologe die Übersicht?
Haug: Na ja, so viele Proxys sind es auch wie­
der nicht. Aber es hat in jüngster Zeit einen
SPEKTRUM DER WISSENSCHAFT · März 2010
fantastischen Fortschritt in der analytischen
Chemie gegeben, so dass immer mehr mach­
bar wurde. Die Kunst besteht darin, jeweils
den richtigen Proxy zu wählen – je nachdem,
wo man sich befindet, ob in den Tropen oder
den hohen Breiten. Wo muss ich nachschau­
en, um mehr über die Prozesse, die ich verste­
hen möchte, herauszufinden? Auf welcher
Zeitskala? Das ist die Kunst.
Spektrum: Kann man das lernen?
Haug: Ich bin ja, wie gesagt, Geologe, und
Geo­logen sind dafür hervorragend ausgebil­
det. Wir haben immer eine Zeitachse, die von
Dekaden bis Jahrmillionen reicht, und eine
y-Achse, die den Niederschlag, die Tempera­
tur oder die Treibhausgaskonzentration wie­
dergibt. Dieser klassische geologische Ansatz
lässt sich sehr gut mit modernen chemischen
Methoden verbinden. Dabei wurden in den
letzten 10 bis 15 Jahren enorme Fortschritte
gemacht. Hätte man mir als Doktorand vo­
rausgesagt, dass irgendwann im Sediment eine
Mikrometerauflösung möglich sein würde,
hätte ich das als Fantasterei abgetan.
Spektrum: Sie meinen, Sie können heute
Schichten im Abstand von tausendstel Milli­
metern getrennt messen!?
Haug: Ja, im Cariacobecken sind wir bei Ska­
lierungen von 100 bis 200 Mikrometern.
Wenn Warven, also Jahresschichten, einen
Millimeter dick sind, kann man somit alle
100 Mikrometer eine Messung machen und
bekommt zehn Messpunkte pro Jahr.
Spektrum: Welche Rolle spielen beim Zu­
sammenführen dieser Proxydaten die Klima­
modelle?
Haug: Die Klimamodelle sind ganz entschei­
dend – sonst würden wir Unsinn in die Daten
hineininterpretieren. Es gibt da eine erfreu­
liche Entwicklung. Die Paläoklimatologen
und die Modellierer bewegen sich stark aufei­
»Klimamodelle
sind ganz entscheidend – sonst
würden wir Unsinn
in die Daten hineininterpretieren«
Klima­sensitivität
Sie gibt an, wie das Klima
auf die Anreicherung von
Treibhausgasen in der Luft
reagiert. In der Regel bezieht sie sich auf die Verdopplung des Kohlendioxidgehalts der Atmosphäre. Die
mittlere Lufttemperatur an
der Erdoberfläche steigt
dabei nach Simulationen mit
Klimamodellen langfristig
um 2 bis 4,5 Grad Celsius.
Kleinere und größere Werte
lassen sich nicht ganz
ausschließen. Bezugspunkt
ist das Temperaturniveau
vor der Industrialisierung,
also am Beginn des 19.
Jahrhunderts. Der größte
Unsicherheitsfaktor bei der
Berechnung der Klimasensitivität ist das Verhalten der
niedrigen Wolken, wenn sich
die Erde erwärmt.
81
Porträt: Gerald Haug
»Die deutsche
Forschung ist –
mit wenigen Ausnahmen – zu
deutsch geblieben«
Der Leibniz-Preis
Der nach dem Universalgelehrten Gottfried Wilhelm
Leibniz benannte Preis wird
seit 1986 jährlich von der
Deutschen Forschungsgemeinschaft (DFG) an in
Deutschland arbeitende
Wissenschaftler aller Fachrichtungen verliehen. Mit
einem Preisgeld von jeweils
2,5 Millionen Euro ist er der
höchstdotierte wissenschaftliche Förderpreis weltweit.
Die bewilligten Mittel
müssen innerhalb von
sieben Jahren projektbezogen verwendet werden. Sie
sollen herausragenden
Nachwuchswissenschaftlern
bessere Arbeitsbedingungen
ermöglichen, sie von Verwaltungstätigkeiten entlasten
und es ihnen erleichtern,
besonders qualifizierte
junge wissenschaftliche
Mitarbeiter zu beschäftigen.
Die Entscheidung über die
Preisträger trifft der Hauptausschuss der DFG auf der
Grundlage einer Empfehlung
des Nominierungsausschusses für das Leibniz-Programm.
82 nander zu. Ein Beispiel: Der Modellierer Mi­
chael Schulz, der Eisbohrkernforscher Huber­
tus Fischer und ich haben bei der Deutschen
Forschungsgemeinschaft ein Schwerpunktpro­
gramm initiiert. Schon im Antrag lautete die
Vorgabe, dass es eine Datenseite und eine Mo­
dellseite geben musste. Das läuft jetzt seit zwei
Jahren und funktioniert wirklich sehr schön.
Spektrum: Betreiben Sie hier in Zürich beides – die Analyse von Sedimenten und das
Modellieren?
Haug: Wir analysieren Sedimente, aber wir
modellieren hier nicht selbst. Bei der heutigen
Spezialisierung wäre das nicht sinnvoll. Ich
habe jedoch früh gute Erfahrungen mit Mo­
dellierern gemacht, vor allem als Postdoc an
der Woods Hole Oceanographic Institution
und mit den Kollegen am Lamont-Doherty
Earth Observatory sowie in Princeton. Bei
den Ozeanphysikern Mark Cane und George
Philander standen für uns Paläoklimatologen
die Türen weit offen. In den USA hatte sich
diese Zusammenarbeit früher als in Deutsch­
land etabliert.
Spektrum: Bedenkt man das Zusammenfüh­
ren von Indizien und Hypothesen in der
Paläo­klimatologie, so hat Ihre Arbeit ja im
Grunde etwas Detektivisches. Lesen Sie ei­
gentlich Krimis?
Haug: Das habe ich immer gerne gemacht.
Als Kind waren das so Sachen wie »Die drei
Fragezeichen« und später Agatha Christie.
Was gibt es Größeres als Miss Marple, nicht?
(lacht laut) Hinter diesem Interesse steckt
wahrscheinlich so etwas wie die kindliche
Neugier des Forschers. In der Paläoklimatolo­
gie gehört aber sehr viel Hartnäckigkeit, Ge­
duld und Mühe dazu, bis man gelernt hat, die
Sedimente richtig zu lesen. Oft lassen sich die
Ergebnisse auch nicht so gut verkaufen und
gleich mit der Entwicklung von Hochkultu­
ren in Verbindung bringen.
Spektrum: Von 2003 bis 2007 haben Sie am
Geoforschungszentrum in Potsdam geforscht,
unter anderem über die Schließung der Pana­
ma-Landenge vor 2,7 Millionen Jahren. Eine
fruchtbare Zeit?
Haug: Die Arbeiten zur Panama-Schließung
und der Rolle speziell des subarktischen Pazi­
fischen Ozeans auf das Nordhemisphärenklima
sind eigentlich schon älter und stammen aus
meiner Zeit als Doktorand und Postdoc. In
Potsdam profitierte ich dann von einer ausge­
zeichneten Zusammenarbeit mit Andrej Gano­
polski am Potsdam-Institut für Klimafolgen­
forschung, einem weiteren tollen Modellierer.
Das war sicher eines meiner Highlights damals.
Da haben wir Modelle mit Daten kombiniert
und eine spannende Publikation über die Ver­
eisung der Nordhalbkugel geschrieben.
Spektrum: Die Schließung der PanamaLandenge hängt damit zusammen?
Haug: Schauen Sie, für die Vereisung der
Nordhalbkugel muss es so kalt sein, dass der
Regen im Winter als Schnee fällt. Im Sommer
darf nicht so viel Schnee schmelzen, wie im
Winter niedergeht. Und es muss feucht sein.
Als Erklärung für die Herkunft der Feuchtig­
keit, die für die Schneefälle benötigt wurde,
galt damals die Schließung der Panama-Land­
enge. Dadurch ist die Ozeanzirkulation im
Atlantik angesprungen, die Wärme nach Nor­
den bringt. Die Hypothese war 100 Jahre alt,
konnte aber nicht völlig überzeugen. Die Zir­
kulation scheint nämlich vor der endgültigen
Schließung bereits in Gang gekommen zu
sein. Mein Kollege Ralf Tiedemann vom Al­
fred-Wegener-Institut und ich konnten nun
zeigen, dass schon vor 4 bis 4,5 Millionen
Jahren nur noch eine sehr eingeschränkte
Wasserverbindung zwischen Karibik und Pa­
zifik bestand. Deshalb wurde damals bereits
die Atlantikzirkulation angekurbelt.
Spektrum: In Potsdam haben Sie sich auch
mit einem Kälterückfall auf der Nordhalbku­
gel zu Beginn des Holozäns beschäftigt – der
Jüngeren Dryas.
Haug: Ja, das war ein weiteres Highlight. Zu­
sammen mit Achim Brauer und anderen habe
ich Sedimente von Seen in der Eifel mit Fun­
den aus dem Nordatlantik kombiniert. So
konnten wir sehr schön zeigen, wie schnell
dieser Klimawechsel ablief. Innerhalb weniger
Jahre drehten die Winde und sanken die Tem­
peraturen!
Spektrum: Vor drei Jahren erhielten Sie dann
den Leibniz-Preis, den wichtigsten deutschen
Forschungspreis. Welche Möglichkeiten hat er
Ihnen eröffnet?
Haug: Mir war immer klar: Wenn ich den
Leibniz-Preis im Sinn der Erfinder nutzen
will, dann soll das in Deutschland geschehen.
Manfred Strecker und ich hatten vorgeschla­
gen, in Potsdam ein DFG-Leibniz-Zentrum
zu gründen, um Untersuchungen der Erd­
oberfläche und des Klimas zu verknüpfen.
Dort betreuen wir heute gemeinsam Dokto­
randen; es springt also ein echter Mehrwert
für die Universität Potsdam heraus.
Spektrum: Bei der Preisverleihung zitierten
Sie Dieter Imboden, den Forschungsrat des
Schweizerischen Nationalfonds, mit der Aus­
sage, ein Forscher sei ein »Anarchist des Geistes«. Was bedeutet das für Sie?
Haug: Sie kennen doch sicher das Schlagwort
von der Freiheit der Forschung. Politiker spre­
chen inzwischen allerdings lieber von »pro­
grammorientierter« Forschung. Nur habe ich
noch keinen Kollegen gefunden, der damit et­
was anfangen konnte. Als Grundlagenforscher
SPEKTRUM DER WISSENSCHAFT · März 2010
ERDE & UMWELT
will man keinem wissenschaftlichen Vorstand
weisungsgebunden sein, wie es in der Helm­
holtz-Gemeinschaft üblich war. Erhält man
dann die Chance, wie ich 2007, an die Co­
lumbia University oder ETH Zürich zu ge­
hen, wo einem niemand Vorschriften macht,
fällt die Entscheidung sehr leicht. Ich habe
aber immer betont, dass ich eine sehr gute
Zeit in Potsdam hatte.
Spektrum: Beim Wechsel zur ETH Zürich
im Jahr 2007 bezeichneten Sie Ihre neue
Stelle­ als »besten Job der Welt«. Sehen Sie das
heute noch genauso?
Haug: Ja. Der Beruf des Hochschullehrers
hier erscheint mir als einer der besten Jobs,
die man haben kann. Er ist unglaublich viel­
seitig. Der Umgang mit den Studierenden
und Doktoranden hält dynamisch. Man hat
natürlich seine Unterrichtspflicht, aber auch
alle wissenschaftlichen Freiheiten. Ich bin ja
als begeisterter Humboldtianer der Überzeu­
gung, dass Forschung und Lehre verknüpft
werden müssen, die Forscher ansonsten aber
die größtmögliche Freiheit genießen sollten.
An der ETH Zürich zu arbeiten, empfinde
ich in dieser Beziehung als ein echtes Privileg.
Die Unterrichtsbelastung ist geringer als an
deutschen Universitäten. Wenn man an einer
deutschen Exzellenz-Universität arbeitet, muss
man absurderweise neun bis elf Stunden Leh­
re absolvieren. Ein Harvard-Professor hat zwei
Stunden Lehre. Wir liegen hier mit vier bis
fünf Stunden so in der Mitte.
Spektrum: Sie haben sich in der Vergangen­
heit nicht immer positiv über die Forschungs­
förderung in Deutschland geäußert. Einmal
andersherum gefragt: Welche Aspekte der For­
schungsförderung in der Schweiz fallen Ihnen
denn als positiv und nachahmenswert auf?
Haug: Die ETH Zürich ist eine bundesfinan­
zierte Forschungsuniversität. Deutschland hat
mit seinen länderfinanzierten Hochschulen
ein etwas anderes, differenzierteres System.
Hier in Zürich ist jede Professur wie die Lei­
tung einer kleinen Max-Planck-Gruppe – aber
an einer Universität mit einem Ausbildungs­
auftrag. Da hat Deutschland mit der Exzellenz­
initiative einen richtigen Schritt gemacht,
wenn auch einen bescheidenen. Die ETH Zü­
rich ist finanziell immer noch deutlich besser
ausgestattet als jede deutsche Universität. Die
Kritik, die ich nach dem Erhalt des LeibnizPreises 2007 geäußert habe, richtete sich ge­
gen die pro­grammorientierte Forschung der
Helmholtz-Gemeinschaft, die von einer Mehr­
heit der Helmholtz-Forscher nach wie vor als
Behinderung empfunden wird. Es war aber
auch eine Art Hilferuf für die unterfinanzierten deutschen Universitäten. Ich denke, dass
bei ihnen das größte intellektuelle Potenzial
SPEKTRUM DER WISSENSCHAFT · März 2010
liegt. Durch eine entsprechende Finanzierung
müsste man diese Plattform anheben.
Spektrum: Könnten Sie das präzisieren?
Haug: Wenn ich einen Vorschlag machen
darf: Man verdopple das Budget der Deut­
schen Forschungsgemeinschaft aus Bundes­
mitteln! Diese Institution funktioniert ja nach
einem Bottom-up-Prinzip, bei dem die For­
scher selbst den Zweck der Projekte vorgeben.
Ich sehe da in letzter Zeit erfreuliche Entwick­
lungen. Dazu gehört, dass bei erfolgreichen
Projekten nach der Bilanzierung Geldmittel
von der DFG als so genannter positiver Over­
head an die Universität fließen – das heißt zu­
sätzlich zur Forschungsförderung gehen 20
Prozent an die Hochschule. So kann sich für
die Universitäten profilierte Forschung richtig
auszahlen.
Spektrum: Sie haben mehr als drei Jahre in
den USA und Kanada gearbeitet und können
vergleichen: Ist die Schweiz in der Forschung
besonders stark, weil amerikanischer?
Haug: Nun, 63 Prozent der Professoren an
der ETH Zürich sind Ausländer, ähnlich wie
an den Universitäten der Ivy League in den
USA. Einzige Wertmaßstäbe sind die Exper­
tise und ein hohes wissenschaftliches Niveau.
In den Erdwissenschaften sprechen wir bei
den Kaffeerunden nur Englisch; denn das ist
die einzige für alle verständliche Sprache. So
lassen sich unterschiedliche Kulturen und wis­
senschaftliche Ansätze sehr gut integrieren.
Die deutsche Forschung ist – mit wenigen be­
merkenswerten Ausnahmen – häufig zu
deutsch geblieben.
Spektrum: Kommen wir zum Schluss zu den
aktuellen Veränderungen des Klimas. Manche
Geologen und Paläoklimatologen, die lange
Zeiträume von teils mehreren Millionen Jahren
überblicken, sehen die momentane Erderwär­
mung relativ gelassen. Wie ist es bei Ihnen?
Haug: Mir scheint die Gefahr eher noch grö­
ßer, als die doch recht konservativen IPCCSzenarien nahelegen. Dort sind einige KlimaSchwellenwerte nicht berücksichtigt worden,
bei deren Überschreiten es zu plötzlichen
dras­tischen Änderungen kommen kann. Ich
denke, dass die Achillesferse des Klimas die
Polarregionen sind, etwa wegen der empfind­
lichen Meereisbedeckung in der Arktis.
Spektrum: Gibt es weitere Aspekte, die Ihnen
als Paläoklimatologen in der Diskussion fehlen?
Haug: Was praktisch alle Klimamodelle in
den Szenarien der Erderwärmung falsch ma­
chen, ist der Gasaustausch zwischen Ozean
und Atmosphäre. In den Zirkulationsmodel­
len verstärkt sich in einer wärmeren Welt die
Temperaturschichtung des Ozeans. Das hie­
ße, dass aus dem Meer weniger Kohlendioxid
in die Atmosphäre entweichen würde. Nach
DAs IPCC
Das 1988 gegründete
Intergovernmental Panel on
Climate Change (Zwischenstaatlicher Ausschuss für
Klimaänderungen) hat als
Organ der Klimarahmenkonvention die Aufgabe, Ausmaß, Ursachen und Risiken
der globalen Erwärmung zu
beurteilen und mögliche
Gegenmaßnahmen sowie
Anpassungsstrategien
vorzuschlagen. Der Ausschuss betreibt selbst keine
Wissenschaft, sondern fasst
nur die Forschungsergebnisse aus relevanten Fach­
gebieten zusammen und
bewertet sie. Das geschieht
in regelmäßig erscheinenden
Sachstandsberichten. Der
vierte und jüngste solche
Report kam 2007 heraus.
»Was praktisch
alle Klimamodelle
falsch machen, ist
der Gasaustausch
zwischen Ozean
und Atmosphäre«
83
Porträt: Gerald Haug
Sven Titz ist promovierter Meteo­
rologe und arbeitet als freier
Wissenschaftsjournalist in Berlin.
Haug, G. H. et al.: Climate and the
Collapse of Maya Civilization. In:
Science 299, S. 1731 – 1735, 2003.
Haug, G. H., Tiedemann, R.: Effect
of the Formation of the Isthmus of
Panama on Atlantic Ocean Thermohaline Circulation. In: Nature 393,
S. 673 – 676, 1998.
Haug, G. H. et al.: Role of
Panama Uplift on Oceanic Fresh­
water Balance. In: Geology 29,
S. 207 – 210, 2001.
Yancheva, G. et al.: Influence of the
Intertropical Convergence Zone on
the East Asian Monsoon. In: Nature
445, S. 74 – 77, 2007.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019957.
84 den Paläodaten trifft aber das Gegenteil zu.
Bei warmem Klima hat sich in den polaren
Gebieten stets die Schichtung des Ozeans ab­
geschwächt, da sie dort hauptsächlich auf
einem sehr dünnen Süsswasserdeckel beruht,
der in einer wärmeren Welt verschwindet. Da­
durch konnte CO2 leichter an die Oberfläche
gelangen und in die Atmosphäre übertreten –
eine positive Rückkopplung also. Die IPCCModelle enthalten stattdessen eine negative
Rückkopplung.
Spektrum: Wie beurteilen Sie also die Erd­
erwärmung?
Haug: Der Zusammenhang zwischen Treib­
hausgasen und Klima ist eindeutig. Fest steht
auch, dass sich die atmosphärischen Bedin­
gungen in der Erdgeschichte noch nie derart
schnell verändert haben. Die Menschheit hat
es geschafft, unseren Planeten in einem Jahr­
hundert um fast ein Grad aufzuheizen. Das ist
viel schneller als die Erwärmung am Ende der
letzten Eiszeit, als es innerhalb von 3000 Jah­
ren global um etwa vier Grad wärmer wurde.
Überhaupt ist nach neuesten Paläoklimadaten
die Klimasensitivität gegenüber Treibhausgasen
höher als früher gedacht.
Spektrum: Können Sie das genauer erläutern?
Haug: Im Pliozän, das heißt vor 5,3 bis 2,6
Millionen Jahren, gab es eine eisfreie Nord­
halbkugel. Alles andere war wie heute. Den
besten CO2-Rekonstruktionen zufolge ent­
hielt die Atmosphäre damals 420 ppm, also
millionstel Anteile Kohlendioxid. Zum Ver­
gleich: In den letzten Eiszeiten lag der Wert
bei 200, in den Warmzeiten zwischen 280
und 300 ppm, aber nie darüber. Menschenge­
macht haben wir aktuell 380 ppm – das liegt
also ganz nah an den 420 ppm im Pliozän.
Damals gab es kein Eis auf der Nordhalbku­
gel, auch nicht auf Grönland. Die Welt war
drei Grad wärmer. Ohne CO2 geht das nicht.
Spektrum: Woher wissen Sie das?
Haug: Die Erdgeschichte zeigt einfach: Nie
waren beide Pole vereist, wenn der CO2-Ge­
halt der Luft 360 ppm überstieg. Im warmen
Eozän vor 50 Millionen Jahren betrug der
CO2-Anteil mehr als 2000 ppm. Das war eine
ganz eisfreie Welt. Der Zusammenhang zwi­
schen Kohlendioxid und der Temperatur ist
in den geologischen Daten eindeutig.
Spektrum: Welche Rolle spielt denn die
Paläo­klimatologie im Konzert der verschiede­
nen Teildisziplinen der Klimaforschung?
Haug: Wir Paläoklimatologen erkennen ganz
andere Geschwindigkeiten und Größenord­
nungen von Klimaänderungen, als sie in den
letzten 50 Jahren beobachtbar waren. Außer­
dem offenbart der historische Blickwinkel
Faktoren, welche die heutigen Computermo­
delle noch nicht abbilden können. Wir Paläo­
klimatologen weisen etwa auf zusätzliche
Schwellenwerte hin, die bisher wohl unter­
schätzt wurden, speziell im Bereich der po­
laren Ozeane und der Eiskappen. Zum Bei­
spiel kann CO2 aus dem tiefen Ozean aus­
gasen, und in der Arktis gibt es den
Eis-Albedo-Effekt, der das Abschmelzen des
Eises beschleunigt. Dadurch dürfte vor allem
der Anstieg des Meeresspiegels sehr viel stär­
ker ausfallen als vom IPCC extrapoliert.
Spektrum: Welche Bedeutung haben Hypo­
thesen in der Paläoklimatologie?
Haug: Wir machen Messungen und publizie­
ren zunächst nur diese Messergebnisse. Zu­
gleich versuchen wir sie aber – idealerweise
anhand eines physikalischen Modells – zu ve­
rifizieren und eine passende Interpretation zu
finden. Ich stimme die gemessenen Daten im­
mer mit Kollegen ab, die sich mit den physi­
kalischen Modellen auskennen. Eventuell sa­
gen die: »Das ist ja totaler Blödsinn, das kann
gar nicht sein – messt noch einmal nach!« So
etwas kommt vor allem bei der Entwicklung
neuer Proxys vor.
Spektrum: Aber eigentlich verwendet man
Proxydaten ja umgekehrt, um Modellvorstel­
lungen zu testen.
Haug: Richtig, und da kenne ich auch ein
nettes Beispiel. Zwei modellierende US-Kolle­
gen hatten die Hypothese aufgestellt, dass die
indonesische Meerenge entscheidend für den
Wasseraustausch zwischen dem Pazifik und
dem Indischen Ozean ist. Als sich durch die
Nordverlagerung einer indonesischen Insel die
Meerenge öffnete, könnte kälteres pazifisches
Wasser in den Indischen Ozean vorgedrungen
sein. Das sollte die Zunahme der Trockenheit
in Afrika vor 2,7 Millionen Jahren erklären.
Anfangs faszinierte mich die Idee. Später fiel
mir aber ein, dass es eine Paläo-Zeitreihe von
Nick Shackleton gibt, die die Hypothese wi­
derlegt: eine planktische Isotopenkurve. Sie
zeigt eine Erwärmung in der Region, keine
Abkühlung. Das habe ich einem der ameri­
kanischen Kollegen geschickt. Der meinte:
Wenn Shackleton richtig gemessen hat, dann
war es das wohl mit unserer Hypothese. So et­
was passiert eben.
Spektrum: Woran arbeiten Sie ganz aktuell?
Haug: Nun, nächste Woche muss dieser Arti­
kel hier heraus zur Begutachtung. Da geht es
wieder um die Bedeutung der Polarmeere für
den Kohlendioxidgehalt der Atmosphäre. Und
dann ist hier der Artikel eines Postdocs zur
Klimadynamik vor 3,5 Millionen Jahren. Die
dritte Untersuchung dreht sich um die Verbin­
dung von Eisbohrkerndaten mit Monsundaten
und Sedimentdaten aus dem Cariacobecken.
Da beschreiben wir die Klimaentwicklung in
den letzten 100000 Jahren.
SPEKTRUM DER WISSENSCHAFT · März 2010
Wissenschaft im Rückblick
»Am 5. Februar wurde in Mey­
rin bei Genf von Niels Bohr
das 25 GeV-Protonensynchrotron der Europäischen Organisation für Kernforschung
(CERN) offiziell eingeweiht.
Damit steht nun der gegenwärtig stärkste Beschleuniger
den Physikern der westeuropäischen Mitgliedstaaten und
Gästen aus aller Welt zur Verfügung. Im September gelang
es, in dem ringförmigen Edelstahl-Vakuumrohr (Länge 628
m; Querschnitt 7x14 cm) einen Umlauf der Protonen zu
erzielen; im Oktober wurden
die 16 Hochfrequenzbeschleu-
»Diese batteriegespeiste, drahtlose Kleinst-Fernsehreportageanlage besteht aus einer Fernsehkamera und einem Kleinsender (Bild), welcher das von
der Kamera aufgenommene
Bild auf drahtlosem Wege zu
einem in der Nähe befindlichen Übertragungswagen sendet. Von da gelangt es, wiederum auf drahtlosem Wege,
zum Studio und wird schließlich über die Fernsehsender
ausgestrahlt. Der Kamerakopf
wiegt 2,9 kg, das Tornister­
gerät mit Sendeantenne und
Traggestell 8,4 kg. Ein erster
Einsatz der beschriebenen Anlage ist bei den Olympischen
Sommerspielen in Rom ge­
plant.« Die Umschau in Wissenschaft
Zeitschrift, 16. Jg, Heft 3, März 1960,
S. 132
und Technik, 60. Jg., Heft 6, 15. März
1960, S. 186
Steinzeitliche Schönheit
Erdöl ohne Ende?
»Regierungsrat Joseph Szombathy und Dr. Joseph Bayer
haben in einem Lößhange
nahe bei Willendorf neun
Schichten aufeinander folgender Kulturstätten des diluvialen Menschen gefunden. Neben Werkzeugen, Schmuck
und Graphit zur Körperbe­
malung wurde ein plastisches
Kunstwerk zutage gefördert.
Dr. Bayer berichtet über diesen Fund wie folgt: ›Wir hatten eine 11 cm hohe Statuette
aus feinporösem Kalkstein in
Händen, eine fettleibige,
überreife Frau darstellend; die
Milchdrüsen und der Spitzbauch sind ganz hervorragend
ausgebildet. Die Schamlippen
sind sorgfältig dargestellt, die
Unterschenkel schon stark verkürzt, die Vorderfüße weggelassen. Von Details, wie Nase,
Augen, Mund, Kinn oder Ohren findet sich keine Spur. Das
kleine Kunstwerk gibt Zeugnis
von einer ganz hervorragenden
künstlerischen Beherrschung
des menschlichen Körpers seitens seines Verfertigers, der offenbar in der Absicht, ein Idol
der Fruchtbarkeit zu schaffen,
die darauf bezüglichen Teile
auffallend betonte, das übrige
dagegen nach Manier eines
Karikaturenzeichners unterdrückte.‹« Die Umschau, 14. Jg.,
»In der letzten Versammlung
der Buffalo Society of Natural
Sciences hielt Dr. David T.
Day vom Washingtoner Bergamt einen Vortrag über Erdöl
und seinen Ursprung, in welchem er für die Carbidtheorie
eintrat, im Gegensatz zu der
heute verbreitetsten Annahme,
daß Petroleum aus tierischen
und pflanzlichen Überresten
entstanden ist. Die in Niagara
Falls bei der Darstellung von
Carborundum und Calcium
gemachten Beobachtungen inbezug auf chemische Vorgänge
bei hohen Temperaturen be-
Nr. 13, 26. März 1910, S. 257
Jg., Nr. 11, 12. März 1910, S. 220
Die Venus von Willendorf –
heute schätzen Forscher ihr Alter
auf mehr als 24 000 Jahre.
Der Umstieg von Röhren
auf Transistoren macht
auch Kameras erstmals
handlich.
weisen, daß die nach genügender Abkühlung der Erde zuerst
gebildeten Stoffe aus Carbiden
bestanden haben. Die Bildung
von Öl geht in ununterbrochener Weise vor sich, so daß
nicht zu befürchten ist, daß
ein Mangel an Vorräten eintreten werde, solange der Verbrauch diese Neubildung nicht
übersteigt.« Chemiker-Zeitung, 34.
Jg., Nr. 31, 15. März 1910, S. 270
Reichsdampfer auf Eisfahrt
»Der Kaiser hat bestimmt, daß der Reichsdampfer ›Poseidon‹
als Aufklärungs- und Begleitschiff der Zeppelin-Nordpolexpedition für die nächsten beiden Jahre in Dienst gestellt wird. Der
›Poseidon‹ fährt am 25. Juni nach dem hohen Norden ab und
wird sich am 7. Juli in Narwick mit seinem Begleitschiff, einem
schwedischen Holzdampfer, vereinigen. Beide Fahrzeuge erhalten funkentelegraphische Apparateinrichtung.« Die Umschau, 14.
85
Kürzungen werden nicht eigens kenntlich gemacht.
Schnelle Teilchen
in Genf
Kleinst-Kamera
macht Reporter
mobil
niger eingeschaltet und der
erste beschleunigte Protonenstrahl beobachtet. Nach ei­
nigen Änderungen während
der ersten Novemberwochen
konnte am Monatsende der
Protonenstrahl bei 12 000
Gauß auf 24,3 GeV beschleunigt werden; Anfang Dezember wurde die Energie von
28,3 GeV nachgewiesen. Wäh­
rend einer internen Feier erhob der Leiter der Abteilung,
John B. Adams (früher Harwell), eine Flasche Wodka, die
ihm während der CERNKonferenz im September 1959
von russischen Physikern geschenkt worden war. ›Die Flasche ist jetzt leer, ich werde in
sie das Oszillogramm hineinstecken, das die Erreichung
von 24 GeV beweist und die
Flasche nach Moskau zurückschicken‹, sagte John B. Adams
am Ende der Feier.« Physikalische
WISSENSCHAFT IM ALLTAG
richtlautsprecher
Auf den Punkt gehört
Eng gebündelte Schallsignale könnten Informationen gezielt übertragen.
Richtlautsprecher strahlen gebündelte Ultraschallwellen ab und erzeugen in diesem schmalen Kegel hörbare Töne. Ein konventioneller
Lautsprecher strahlt in weitem Bereich ab.
Von Mark Fischetti und Bernhard Gerl
S
86 Verstärker
Spannung
vom
Verstärker
nicht modulierter
Ultraschall
hintere
Abdeckung
dünne Folie
Netzgitter
Kunststoffauflage
Gewebeabdeckung
Ein nur einen Zentimeter dicker Lautsprecher
wird von einem Verstärker gespeist, der eine
Spannung an eine leitfähige Kunststofffolie
schickt. Die Folie schwingt mit 60 000 Hertz
oder mehr und erzeugt dabei Ultraschallwellen.
überlagerte Welle mit normalem Schalldruck
Spektrum der Wissenschaft / Meganim
Mark Fischetti ist Redakteur bei »Scientific American«, Bernhard Gerl ist freier
Technikpublizist in Mainz.
Ultraschalllautsprecher
Musik aus
einem konventionellen
Lautsprecher
70 dB
Lautstärke
tellen Sie sich vor, Sie kommen im Supermarkt am Getränkeregal vorbei und
plötzlich flüstert eine Stimme: »Pst, haben Sie Durst? Ich erfrische ganz herr­
lich!« Niemand sonst scheint diese Werbebotschaft gehört zu haben – Sie sind in
den schmalen Schallkegel eines Richtlautsprechers geraten.
Besitzer einer Heimkinoanlage wissen aus eigener Erfahrung: Schall breitet
sich von seiner Quelle in einem Winkel aus, der mit der abgestrahlten Wellenlän­
ge wächst beziehungsweise umgekehrt proportional zur Frequenz ist. Deshalb
vernimmt man den Bass des Subwoofers (Wellenlänge etwa 3,4 Meter bezie­
hungsweise Frequenz rund 100 Hertz) im ganzen Wohnzimmer, während ein
Hochtonlautsprecher (Wellenlänge etwa 3,4 Zentimeter, Frequenz etwa 10 000
Hertz) eher nach vorn sendet. Auch die Größe der Schallquelle spielt eine Rolle:
je kleiner die abstrahlende Fläche, desto weiter der Schallkegel.
Soll der Kegel zu einem gerichteten Strahl verengt werden, benötigt man also
entweder einen riesigen Lautsprecher oder viele kleine, die synchron schwin­gen –
oder Ultraschall. Denn bei dessen Frequenzen von 20 bis 100 Kilohertz weitet sich
Schall selbst auf mehrere Meter Distanz kaum auf. Das nutzt man beispielsweise in
der medizinischen Diagnostik; Fledermäuse erkennen anhand von Ultraschall­
reflexionen des Nachts Hindernisse und Beute. Für das menschliche Gehör sind
­diese Signale jedoch zu hochfrequent, Luftdruckschwingungen von mehr als 20
Kilohertz vermögen die Knöchelchen unseres Mittelohrs nicht mehr zu folgen.
Doch es gibt einen Trick: das Phänomen der Differenztöne. Überlagern sich
Schallwellen geringfügig verschiedener Frequenzen, entsteht ein Gesamtsignal,
dessen Amplitude schwingt (Amplitudenmodulation). Das entspricht einem Ton,
dessen Frequenz sich aus der Differenz der beiden Ausgangstöne ergibt. Auch der
ist aber noch nicht hörbar. Ein weiteres Phänomen hilft: Ab einer Lautstärke von
etwa 125 Dezibel (zum Vergleich: Das entspräche im hörbaren Frequenzbereich
einem in drei Meter Entfernung startenden Düsenflugzeug) verhält sich Luft nicht­
linear. Der Überdruck im Bauch einer Schallwelle ist dann viel größer als der Un­
terdruck im Wellental. Diese Luftdruckdifferenzen sind nun endlich hörbar.
Erst Joseph Pompei gelang es 1998 am Massachusetts Institute of Technology,
geeignete Computeralgorithmen zu entwickeln, um Ultraschalllautsprecher ent­
sprechend anzusteuern. Er gründete das Unternehmen Holosonic und bringt seit­
dem die Richtlautsprecher »Audio Spotlight« auf den Markt. Ein Jahr später stell­
te die Firma Sennheiser ein ganz ähnliches Produkt vor, den »Audiobeam«; sie
erhielt dafür im gleichen Jahr den Innovationspreis der deutschen Wirtschaft.
Die akustische Qualität entspricht ungefähr der konventioneller Lautsprecher,
mit Schwächen im Bassbereich. Das wird in Kauf genommen, denn nicht Hörge­
nuss ist das Ziel, sondern das gezielte Versorgen von Einzelpersonen mit Musik
oder Informationen. Mit solchen Systemen lässt sich beispielsweise ein Muse­
umsbesucher über ein Exponat unterrichten. Kritiker wenden ein, dass Kopfhörer
oft den gleichen Dienst tun, aber viel billiger sind als die mehrere tausend Euro
teuren Richtlautsprecher. Zudem gibt es lästige Nebeneffekt: Tritt jemand in den
Strahlengang, unterbricht er die Signalübertragung; fällt der Strahl auf ein Objekt
mit fester Oberfläche, erzeugt er Geräusche, wo Ruhe herrschen sollte. Allen Un­
kenrufen zum Trotz werden aber weltweit bereits Zehntausende dieser Lautspre­
chersysteme eingesetzt, primär bei Ausstellungen und für Werbezwecke.
0 dB
t
SPEKTRUM DER WISSENSCHAFT · märz 2010
& Computer
Technik TECHNIK
& Computer
Wussten Sie schon?
das sich in Phase, Frequenz und Verzögerung unterscheidet, was
den abgestrahlten Schallkegel auf 1 bis 20 Grad Öffnungswinkel
bündelt. Der extrem laute und schrille Ton löst auf kurze Distanz
Schmerzen aus. Das System eignet sich aber auch, um in lauter
Umgebung Alarmsignale zu senden.
r Menschen hören im Bereich von 20 bis 20 000 Hertz.
Hunde nehmen noch 40 000 Hertz wahr, Mäuse bis zu 90 000
Hertz und Fledermäuse, Tümmler sowie Belugawale bis zu
100 000 Hertz und mehr. Ultraschalllautsprecher strahlen Fre­
quenzen zwischen 20 und 100 Kilohertz ab.
r Forscher haben Freiwillige Ultraschall bis zu 200 Kilohertz
ausgesetzt; einige Probanden gaben an, Geräusche gehört zu ha­
ben. Vermutlich hatten ihre Schädelknochen die Schwingungen
verzerrt, so dass sie die Nervenzellen in der Innenohrschnecke
erregen konnten.
Illustrationen: 5 W Infographics; Foto: Holosonics Inc.
r Lagert man einen Richtlautsprecher drehbar und lässt den
Schallstrahl über die Decke wandern, wird er reflektiert und der
Zuhörer gewinnt den Eindruck eines beweglichen Objekts. So
ließe sich beispielsweise in einem Naturkundemuseum der Ein­
druck eines vorbeifliegenden, zwitschernden Vogels erzeugen.
r Als Long Range Acoustic Device (LRAD) oder Schallkano­ne
bezeichnet man Richtlautsprecher, die ursprünglich vom ame­
rikanischen Militär als Waffe gegen Aufständische und Piraten konzipiert wurden. Das Braunschweiger Unternehmen Pan
Acoustics will in diesem Jahr mit »Jericho-64« auf dem Markt
sein. LRAD basiert nicht auf Differenztönen, sondern verwendet
ein Raster aus vielen – hier 64 – kleinen, hocheffizienten Schall­
wandlern, die bei hörbaren Frequenzen, aber mit einem Schall­
druck von gut 150 Dezibel (dB) in einem Meter Abstand arbeiten.
Jeder Wandler wird mit einem etwas anderen Signal angesteuert,
modulierter
Ultraschall
In der öffentlichen Bibliothek von New York können
einzelne Besucher die Audiosignale eines Lautsprechers
hören, sofern sie sich in seinem engen Abstrahlbereich
befinden.
hörbarer
Schall
Spektrum der Wissenschaft / Meganim
überlagerte Welle mit sehr hohem
Schalldruck und nichtlinearem E ekt
Lautstärke
140 dB
70 dB
0 dB
t
mittlerer Luftdruck
hoch
tief
hoch
SPEKTRUM DER WISSENSCHAFT · märz 2010
Wenn sich zwei Ultraschallwellen ähnlicher Frequenz
überlagern, entsteht eine amplitudenmodulierte Differenzschwingung (links). Ab Lautstärken von 125 Dezibel (dB)
kommen nichtlineare Effekte zum Tragen, der mittlere Luftdruck variiert – es entsteht ein hörbarer Ton (rechts).
87
Biotechnologie
Organersatz
aus der Retorte
Von Ali Khademhosseini,
Joseph P. Vacanti und Robert Langer
H
In Kürze
r Das letzte Jahrzehnt
brachte die Forschung zur
Zucht von lebendem Ge­
webeersatz ein großes Stück
voran. Mit einigen eher
einfach strukturierten
Konstrukten werden schon
Menschen behandelt.
r Die Fortschritte beruhen
wesentlich einerseits auf
einem tieferen Verständnis
der Zellbiologie, andererseits auf immer besser
geeigneten, ausgeklügelten
Gerüstmaterialien für die
Gewebezucht.
r Eine Anzahl weiterer
Produkte steht vor der
Marktreife. Doch auch die
Prüfverfahren für die
Zulassung erfordern Zeit.
88 irngespinste!, dachten viele, als
zwei von uns (Langer und Vacanti) vor zehn Jahren an dieser Stelle
über die Zukunft der Gewebezucht, englisch tissue engineering, schrieben.
Wir diskutierten Möglichkeiten, lebende Gewebe mittels Zellen und nichtlebenden Materialien nach technischen Prinzipien für Transplantationen zu konstruieren (siehe SdW-Spezial 4/1999, S. 26). Nach wie vor besteht in
der Medizin dringender Bedarf, Organe zu ersetzen, zu reparieren oder ihre Leistung zu
verbessern. Allein in den USA verdanken fast
50 Millionen Menschen ihr Leben einer Organersatztherapie im weitesten Sinn. In den
Industrienationen dürfte etwa jedem fünften
über 65-Jährigen irgendwann solch eine Behandlung zugutekommen.
Die heutigen Methoden von Organersatz,
ob eine Transplantation oder die Blutwäsche
für Nierenkranke, retten zwar Leben. Aber
solche Maßnahmen sind keineswegs eine ide­
ale Lösung und belasten die Patienten stark.
Viel besser, weil nebenwirkungsärmer, würden
sich auf Betroffene zugeschnittene, auch immunologisch individuell angepasste Bioge­
webe eignen. Ein weiterer Vorteil von Tissue
Engineering: Künstlich hergestellte lebende
»Organe auf Mikrochips« wären geeignet, um
etwa die Giftigkeit neuer medikamentöser
Wirkstoffe auszutesten.
Mancherlei Zuchtgewebe stehen schon zur
Verfügung. Sehr vielen Menschen wurde mit
Haut- oder Knorpelersatz geholfen. In klini­
schen Tests werden Gewebe unter anderem
für die Harnblase, Bronchien, Blutgefäße und
Augenhornhaut erprobt. Die größte Herausforderung ist jedoch, funktionstüchtige kom-
plette Organe herzustellen. Immerhin bringt
die Forschung zur Konstruk­tion komplexerer
Gewebe bereits viel versprechende Ergebnisse.
Obwohl noch manche Hürden bleiben:
Der Ansatz ist inzwischen den Kinderschuhen
entwachsen. Künstlich erzeugte Gewebe für
medizinische Zwecke gehören nicht mehr ins
Reich der Fantasie. Die Fortschritte in den
letzten Jahren verdanken wir insbesondere Erkenntnissen darüber, wie Gewebe natürlicherweise entstehen, etwa beim Embryo oder bei
einer Wundheilung. Schon wegen der verbesserten chemischen, biologischen und mechanischen Eigenschaften der eingesetzten Materialien wurden die Methoden des Gewebeaufbaus immer raffinierter.
Hürde inneres Adersystem
Zu den ersten verfügbaren solchen Kunstprodukten, die am Menschen ausgetestet wurden,
gehörten Haut und Knorpel. Der Grund: Sie
erfordern relativ wenig Blutgefäße im Inneren.
Die meisten anderen Gewebe sind dagegen
auf ein dichtes inneres Adernetz angewiesen,
damit jede einzelne Zelle nah genug an einer
Blutkapillare liegt, um mit Sauerstoff und
Nährstoffen versorgt zu werden. Bis heute begrenzt dieser Faktor die Größe der gezüchteten Strukturen. Darum arbeiten viele Forscher
an der Konstruktion von Blutgefäßen, die sie
in die Zuchtgewebe integrieren können.
Jedes Gewebe von mehr als ein paar hundert Mikrometern Dicke benötigt ein inneres
Adersystem. In den letzten Jahren entstanden
etliche neue Verfahren, um Blutgefäße außerund innerhalb von Geweben zu züchten.
Hilfreich war in vielen Fällen, dass die Forscher die Bedürfnisse und Umweltansprüche
der so genannten Endothelzellen heute besser
verstehen. Aus solchen Zellen bestehen zum
SPEKTRUM DER WISSENSCHAFT · März 2010
aus: Borenstein, Weinberg, Orrick, Sundback, Kaazempur-Mofrad und Vacanti, »Microfabrication of three-diMensional engineered scaffolds«, in: TISSUE ENGINEERING, Bd. 13, Nr. 8, 2007
Im Labor konstruierte lebende Strukturen bewähren sich als Implantat umso
besser, je genauer die Bioingenieure Details der Natur nachahmen.
Pioniere­des Gewebedesigns erörtern wichtige Fortschritte der letzten Jahre.
Technik & Computer
Eine Membran mit winzigen Poren trennt eine
Schicht Leberzellen von künstlich hergestellten,
sehr feinen »Blutgefäßen«. Neue Materialien
und Technologien machen solche Vorrichtungen
möglich.
SPEKTRUM DER WISSENSCHAFT · März 2010
89
Biotechnologie
Vom natürlichen Vorbild lernen
Die Funktionsweise von Organen hängt eng mit ihrem
inneren Aufbau zusammen. Oft arbeiten in ihren Geweben verschiedene Zellsorten streng aufeinander abgestimmt. Um die komplexen Strukturen und Funktionen
nachbilden zu können, benötigen Bioingenieure möglichst genaue Kenntnisse – bis hin zur molekularen
Ebene – darüber, wie die Organe ausgebildet werden
und leistungsfähig bleiben.
Leber
Zu den wichtigsten Aufgaben der Leber, dem
Zentralorgan des Stoffwechsels, gehören Filter­
funktionen. Dabei verwerten die Leberzellen
Nährstoffe und bauen Gifte ab.
Die Leber besteht aus stark durchblutetem,
schwammartigem Gewebe. Dieses setzt sich
aus unzähligen gut millimetergroßen Läppchen
(Lobuli) zusammen, die von einem sehr feinen
Gefäßnetz durchzogen sind. Im Querschnitt
sind sie wabenförmig angeordnet.
Zwischen den Lobuli liegen Triaden aus jeweils einem feinen Gallengang (für in der Leber
produzierte Verdauungssekrete), einer Sauerstoff zuführenden Arterie und einer Pfortadervene, die Nährstoffe aus dem Darm mitbringt.
In der Mitte jedes Läppchens liegt ein abführendes Gefäß, eine so genannte Lebervene –
für Produkte, die mit dem Blut in den übrigen
Körper gelangen. Das Blut aus Leberarterie und
Pfortader durchströmt die Zellreihen der Leberläppchen in erweiterten Kapillaren aus Endothelzellen (so genannten Sinusoiden) von
außen nach innen. Dieses kompakte System
aus vielen gleichen Einheiten vermag die gro­
ßen Blutmengen zu bewältigen, welche die Leber immerfort umsetzen muss.
Lebervene
Leberläppchen
(Lobulus)
Leber
Gefäßtriade
Sinusoid
Arterie
Pfortaderast
Gallengang
Leberzellen
Jen Christiansen
Photo Researchers / Innerspace Imaging
Herzmuskel
Das Herz fungiert vor allem als hochleistungsfähige Muskelpumpe, die das Blut über
die Arterien zu den Organen und Geweben treibt.
Der Herzmuskel besteht aus langen, faserartigen Muskelzellen, die in Kollagenhüllen eingebettet und von Blutgefäßen umsponnen sind (links). Das Kollagen verbindet
zudem die Enden der Faserbündel und leitet kontraktionsauslösende elektrische
Reize. Form und Anordnung der Muskelzellen bestimmen ganz entscheidend die elektrischen und mechanischen Eigenschaften des Herzgewebes.
einen die feinen Blutkapillaren; zum anderen
sind größere Adern mit Endothelzellen ausgekleidet. Des Weiteren gelingt es immer besser, aus Kunstmaterialien winzigste Struktu­
ren zu formen.
Zum Beispiel kann man Endothelzellen
auf ein Kultursubstrat mit ultrafeinen Furchen aufbringen, die tausendmal dünner sind
als ein Menschenhaar. Die Zellen erzeugen
dann ein Netzwerk kapillarähnlicher Röhrchen (Kasten S. 93, oben). Die Furchen imitieren die Textur natürlicher Gewebe – ein
90 wichtiger Umgebungsreiz –, woran sich neu
wachsende Blutgefäße anlagern.
Um Adernetze zu gewinnen, nutzen Ge­
webeingenieure auch Techniken der Mikrochip­
fabrikation. Ein Beispiel: Vacanti und Jeffrey T.
Borenstein vom Draper Laboratory in Cambridge (Massachusetts) erzeugten in biologisch
abbaubaren Polymeren winzigste Kanälchen,
die das Kapillarnetz von Geweben nachahmen.
In diesen feinen Röhrchen lassen sich dann Endothelzellen kultivieren und dazu anregen, darin Blutgefäße auszubilden. Gleichzeitig schirSPEKTRUM DER WISSENSCHAFT · März 2010
Technik & Computer
SPEKTRUM DER WISSENSCHAFT · März 2010
Zellen sterben an Unterversorgung, denn es
dauert einige Zeit, bis neue körpereigene
Blutgefäße in die Struktur einwachsen. Wahrscheinlich müssen große Gewebeimplantate
deswegen von vornherein ein Gefäßsystem
enthalten. Das ließe sich mit Faktoren für ein
zusätzliches Adernwachstum kombinieren, die
kontrolliert freigegeben werden.
Zudem kommt es natürlich darauf an, dass
die gezüchteten Gefäße im Implantat mit denen des Empfängers Verbindung aufnehmen.
Wenn die Forscher genauer verstünden, welche Signalmuster von beiden Seiten hierbei
mitwirken müssen, so könnten sie das Zusammenwachsen unterstützen. Mehr Kenntnisse
über die Kommunikation von Zellen untereinander und mit ihrer sonstigen Umwelt wären ohnehin für Gewebekonstrukteure wünschenswert – etwa, um die geeignetsten biologischen Materialien auszuwählen.
Was die Medizin
heute schon kann
Genzyme Corporation
Eine Reihe von Produkten
von nicht so komplexer Machart sind bereits im Einsatz
oder stehen vor der Marktreife. Hier einige Beispiele:
Haut
Epicel, als dauerhafter Er­satz der Oberhaut, wird aus
Hautzellen von Patien­ten
gezüchtet. Es soll bei Verbrennungen eingesetzt
werden.
Ideal sind Zellen des Patienten
Knorpel
Carticel, einer der ersten
Behandlungsansätze auf
Zellbasis auf dem Markt zur
Reparatur von
Knorpeldefek­
ten. Mit Wachstumsfaktoren
kultivierte
Knorpelzellen
des Patienten
werden als
Suspension ins
Gelenk injiziert.
Genzyme Corporation
In den meisten Fällen würde man das Implantat idealerweise mit Zellen des Patienten herstellen, weil es sich dann am besten mit seinem Immunsystem vertrüge. Zudem wäre so
sicherlich eine Genehmigung der Maßnahme
leichter zu erhalten. Allerdings lassen sich normale – ausdifferenzierte – Körperzellen nur
sehr begrenzt im Labor vermehren. Bereitwilli­
ger teilen sich so genann­te adulte (nicht mehr
embryonale) Stammzellen. Sie finden sich in
vielen Geweben und können je nach Herkunft zu verschiedenen für das Herkunfts­
gewebe typischen Zellsorten ausreifen. Man
kann sie etwa aus Blut, Knochen, Muskulatur,
Blut­gefäßen, Haut, Haarwurzeln, Darm, Gehirn oder Leber isolieren.
Solche adulten Stammzellen sind allerdings
schwer von den normalen Gewebezellen zu
unterscheiden. Die Forscher orientieren sich
an bestimmten Oberflächenproteinen, also an
molekularen Markierungen. Für das Gewebedesign wäre es hilfreich, noch mehr solche
Oberflächenmarker zu finden. Glücklicherweise gab es auf dem Feld in den letzten Jahren ein paar gute Fortschritte. Insbesondere
entstanden neue Methoden, um adulte
Stammzellen zu isolieren, sie zur Vermehrung
anzuregen und sie dazu zu bringen, sich im
Labor in verschiedene Zell- und Gewebetypen
auszudifferenzieren.
So genannte mesenchymale Stammzellen
reagieren auf mechanische Umgebungsreize,
wie Christopher Chen und Dennis Discher
von der University of Pennsylvania in Philadelphia zeigten. Gewöhnlich gewinnt man
solche Stammzellen aus Muskel-, Knochenoder Fettgewebe. Das gezüchtete Gewebe
wird zu der Sorte Zellen, die in ihrer Festig-
Blutgefäße
Mit frdl. Gen. von Jack Harvey, Pervasis Therapeutics, Inc.
men diese Zellen das Gerüstmaterial gegen das
Blut ab, das die Polymere sonst zu schnell zerstören würde. In einem anderen Ansatz trennt
eine Filtermembran die Blutkanälchen von den
Zellen für die Organfunktion, die im Kunstgewebe eingebettet sind (Bilder S. 89 und S. 93).
Dem gleichen Zweck können Hydrogele
die­nen. Sie trennen Blut und Funktionszellen
voneinander, erlauben aber den Austausch
wichtiger Stoffe. Die gelatineartigen Materia­
lien bestehen aus wasserhaltigen Polymernetzen. In ihren chemischen Eigenschaften ähneln Hydrogele der natürlichen Stützsubstanz
(Matrix) um die Zellen in Geweben. Die
funktionstragenden Zellen lassen sich darin
einbetten, und Kanälchen in der Matrix werden mit Endothelzellen ausgekleidet – eine primitive Gefäßversorgung (Bild S. 93 unten).
Die Zucht von größeren Blutgefäßen gelang
in den Labors von Laura Niklason von der Yale
University in New Haven (Connecticut) und
von Langer in folgender Weise: Die Forscher
versetzten Gerüststrukturen mit glatten Muskel- und mit Endothelzellen und hielten sie in
einem Bioreaktor in einem pulsierenden Flüssigkeitsstrom. Das sollte den Blutfluss im Körper nachahmen. Die entstandenen Ersatzarterien erweisen sich nach der Transplantation auf
Tiere als mechanisch robust und funktionstauglich. Solche Adern ließen sich in größere Gewebekonstrukte einbauen oder womöglich sogar
als Bypässe bei Gefäßverengung verwenden.
Zwar bedeutet die erfolgreiche Zucht feiner
Kapillaren und größerer Gefäße im Labor einen Durchbruch. Allerdings überlebt ein außerhalb des Körpers konstruiertes Gewebeimplantat nur dann, wenn es schnell Kontakt zu
Blutgefäßen des Empfängers findet. Den Körper des Patienten seinerseits zur raschen Gefäßneubildung anzuregen ist daher essenziell.
Einen Weg zeigte David Mooney von der
Harvard University in Cambridge auf: Polymerkügelchen oder das Matrixmaterial setzen
kontrolliert Wachstumsfaktoren frei; diese
treiben die Bildung von Blutgefäßen an, die in
das implantierte Gewebe einwachsen.
Eine Variante dieses Prinzips erprobt die
Biotechnologiefirma Pervasis Therapeutics (an
der Langer und Vacanti beteiligt sind) bereits
in fortgeschrittenen klinischen Studien bei
Gefäßverletzungen. Am betroffenen Ort wird
ein dreidimensionales Gerüst mit glatten
Muskelzellen und Endothelzellen implantiert.
Das Gerüst gibt wachstumsstimulierende Sig­
nale ab, die eine natürliche Reparatur fördern
(siehe Bild rechts unten).
Die Bioingenieure haben aber immer noch
Schwierigkeiten, taugliche Gefäßtransplantate und durchblutete Gewebe von einiger
Größe zu konstruieren. Viele der übertragenen
Vascugel wird aus Endothelzellen erzeugt. Mit den Flicken werden verletzte Blutgefäße abgedeckt. Die gesunden Zellen des Präparats
liefern den
Zellen im
geschädig­
ten Gefäß
Signale, die
zur Regeneration anregen und Entzündungs­
reaktionen
sowie Narbenbildung
hemmen.
91
aus: Engelmayr Jr, Cheng, Bettinger, BorEnstein, Langer und
Freed, »Accordion-like honeycombs for tissue engineering of
cardiac anisotropy”, in: NATURE MATERIALS, Bd. 7, 2008;
Nachdruck genehmigt von Macmillan Publishers Ltd.
Biotechnologie
Ein Menschenherz muss rund
300 Millionen Mal schlagen und
darf nie ermüden. Forscher am
MIT ersannen ein Gerüst (blau)
zur Anzucht von Herzmuskelzellen (grün, hier von Ratten), das
deren Kontraktionsfähigkeit
steigern hilft. Es besteht aus
einem speziellen Gummi, in das
mit einem Laser Waben geschnitten wurden, und lässt sich
wie ein Akkordeon dehnen und
stauchen.
92 keit der des Kultursubstrats am ehesten ähneln. Andere Forscher erkannten einen Einfluss chemischer Signale von Substrat und
Umgebung darauf, zu welchem Gewebetyp
adulte Stammzellen sich ausdifferenzieren.
Uneins sind die Experten aber noch darin, ob
sie Zelltypen außerhalb von deren eigener
Gewebe­familie hervorbringen können, ob also
etwa eine mesenchymale Stammzelle Leberzellen zu produzieren vermag.
Anders als die adulten lassen sich so genannte embryonale Stammzellen nicht nur
leicht vermehren, sie können auch sämtliche
Zellsorten hervorbringen. Langer und der Arbeitsgruppe von Shulamit Levenberg vom
Technion-Israel Institute of Technology in
Haifa gelang die Differenzierung von gewünschten Gewebetypen sogar auf einem synthetischen Trägergerüst. Demnach müsste es
möglich sein, mit embryonalen Stammzellen
auf einer Vorlage direkt ein dreidimensionales
Gewebe zu erzeugen.
Allerdings lässt die Handhabung embryonaler Stammzellen noch zu wünschen übrig.
Bisher ist es schwierig, ihnen eine einheitliche
Richtung vorzugeben, in die sie sich ausdifferenzieren sollen. In der Natur geschieht das
durch recht komplexe Einflüsse. Um diese
mög­lichst nachzuahmen, erproben die Forscher
jetzt verschiedenste Kombinationen von Matrixmaterialien und Signalsubstanzen. Gleichzeitig suchen sie unter zahlreichen kleinen
Molekülen und diversen Signalproteinen nach
Kontrollfaktoren für die Stammzelleigen­schaf­
ten: Die Zellen sollen zwar differenzierte
Nach­kommen hervorbringen, selbst aber undifferenziert bleiben, damit sie später neuen
Bedarf decken können. Vielleicht lassen sich
mit solchem Wissen auch Zellen produzieren,
die nur die günstigen, nicht aber die uner-
wünschten Eigenschaften von embryonalen
Stammzellen aufweisen.
Leider können die Wissenschaftler immer
noch nicht genau voraussagen, wie sich transplantierte Stammzellen im Patienten verhalten
werden. Beispielweise besteht die Gefahr, dass
undifferenzierte embryonale Stammzellen Tumoren bilden. Falls nicht sämtliche übertragenen Zellen vor der Implantation ein Stück
weit ausdifferenziert sind, stellt das somit ein
Krebsrisiko dar.
Überdies müssen die Forscher ethischen
Bedenken Rechnung tragen, aus menschli­
chen Embryonen Stammzellen zu gewinnen.
Sie verfolgen mittlerweile Ansätze, ähnlich geartete Zellen aus nichtembryonalen Geweben
zu erzeugen. Damit kamen sie in den letzten
Jahren ein gutes Stück weiter. Es gelingt bereits, zum Beispiel Hautzellen in einen
früheren, weniger differenzierten Zustand zurückzuprogrammieren. Für das Gewebedesign
wären solche so genannten induzierten pluripotenten Stammzellen eine begrüßenswerte,
hochinteressante Alternative.
Rückwege zu Stammzellen
Im Jahr 2007 konnten Shinya Yamanaka, damals an der Kyoto University, und James A.
Thomson von der University of Wisconsin in
Madison erstmals reife Zellen in den Zustand
pluripotener Stammzellen zurückverwandeln,
indem sie einige genetische Signalwege reaktivierten, die für solche Stammzellen offenbar
vonnöten sind. Damals gelang das mit nur vier
eingebrachten Regulatorgenen. Später vermochten Forscher die Anzahl der aktivierten
Erbfaktoren sogar immer weiter zu reduzieren.
Zum Einschleusen der Gene in die Zellen
dienten zunächst Viren. So erzeugte Implantate für Menschen bergen aber Risiken. Umso
besser, dass die Rückprogrammierung des
Zellgenoms inzwischen auch auf andere Weise gelingt, selbst ohne Genübertragung und
durch Ansprache eines einzigen Gens. Angesichts der raschen Entwicklungen auf diesem
Forschungsfeld sind die Bioingenieure zuversichtlich, schon bald Ersatzgewebe aus umprogrammierten patienteneigenen Zellen herstellen zu können. Das wäre dafür das ideale
Ausgangsmaterial.
Wenn man nun die passenden Zellen gewonnen hat – wie entsteht daraus im Labor
ein funktionsfähiges Gewebe? Noch vor zehn
Jahren glaubten die Wissenschaftler, die verschiedenen reifen Zellen wüssten praktisch
von allein, wie sie miteinander zum korrekten
Gewebetyp – dem ihrer Herkunft – zusammenfinden. Bis zu einem gewissen Grad funktioniert das tatsächlich. Doch wird mittlerweile immer klarer, welch komplexe SignalSPEKTRUM DER WISSENSCHAFT · März 2010
Technik & Computer
muster zwischen ihnen sowie im Austausch
mit der Umgebung auftreten, wenn sich Organe und Gewebe ausbilden beziehungsweise
später, wenn die reifen Strukturen arbeiten.
Wichtig sind zudem offenbar klare räumliche
Vorgaben, sozusagen ein Maßrahmen.
Ein Ersatzgewebe sollte die gleichen spe­
zifischen Aufgaben erfüllen können wie sein
natürliches Vorbild. Nach aller Erfahrung
­gelingt das am besten durch möglichst genaues Nachahmen der betreffenden biologischen Eigenschaften. In komplexeren Organen arbeiten verschiedene Zelltypen zusammen. So gehören zu den Funktionen der
Leber unter anderem Entgiftung und Nährstoffverwertung. Soll ein Kunstprodukt die
gewünschten Leistungen etwa eines Organs
erbringen, kommt es folglich darauf an, auch
die Mikroarchitektur des natürlichen Gewe-
bes und die Lage der Zellen zueinander nachzubilden.
Damit die Zellanordnung einer dreidimensionalen Struktur grob den natürlichen Verhältnissen entsprach, verwendeten Gewebe­
designer früher Gerüste aus unterschiedlichen
Materialien. Mittlerweile gelingen zunehmend
komplexere Zuchtgewebe. Selbst die Umgebungsbedingungen lassen sich immer genauer
nachempfinden. Als Matrix kann beispielsweise ein »Gewebeskelett« dienen: Aus einem
natürlichen Gewebe werden alle Zellen entfernt, so dass nur die Bindegewebsfasern übrig
bleiben. In dieser Struktur wird mit frischen
Zellen ein neues Gewebe herangezüchtet, das
wieder einen Großteil der ursprünglichen
Funktionen erbringt. Ein eindrucksvolles Beispiel: Zellfreie Gerüste von Nagetierherzen
wurden mit Herzmuskel- und Endothelzellen
Organersatz
Rund 55 000 Menschen
in Deutschland sind Dialysepatienten. Jährlich werden
über 2000 Nieren transplantiert. Im letzten Jahr erhiel­
ten fast 400 Menschen ein
fremdes Herz. Gut 1100 Patienten bekamen im Jahr
2008 ein Lebertransplantat.
Blutgefäße konstruieren
Außer auf chemische Signale reagieren Endothelzellen auf mechanische und strukturelle
Reize. Hier dient eine gefurchte Oberfläche als
Unterlage. Die Furchen sind 600 Nanometer
tief und 1200 Nanometer breit. Das regt die
Zellen an, sich umzuformen, zu wandern und
sich zu teilen (➊). Nach sechs Tagen vermehren sie sich und richten sich entlang der Furchen aus (➋). So entsteht schließlich eine Art
Kapillarnetz (➌).
2
1 und 4: Draper Laboratory
1
3
aus: Bettinger, Weinberg, Kulig, Vacanti, Wang, Borenstein und Langer,
»Three-Dimensional Microfluidic Tissue-Engineering Scaffolds Using a
Flexible Biodegradable Polymer«, in: Advanced Materials, Bd. 18, 2006
SPEKTRUM DER WISSENSCHAFT · März 2010
4
2
1
3
Draper Laboratory
aus: Khademhosseini, Langer, Borenstein und
VacantI, »Microscale technologies for tissue
engineering and biology«, in: PNAS, 21.02.2006,
Bd. 103, Nr. 8
Oberflächenreize im Nanomaßstab
sie mit Endothelzellen nachzubilden, orientieren sich
Bioingenieure auch an fachfremden Technologien der
Mikrofabrikation, wie etwa der Halbleiterindustrie.
beide aus: Bettinger, Zhang, Gerecht, Borenstein und Langer,
»Enhancement of In Vitro Capillary Tube Formation by Substrate Nanotopography«, in: ADVANCED MATERIALS, Bd. 20, 2008
Ohne stete Zufuhr von Sauerstoff und Nährstoffen
sterben­Gewebe rasch ab. Jedes Konstrukt aus mehr als
ein paar Zellschichten benötigt darum Blutgefäße. Um
Eine künstliche Leber
Die Schablone für ein Blutgefäßsystem
wird in Silikon gefertigt (➊). Das dient als
Vorlage für ein bioverträgliches Polymergerüst (➋). Dieses wird mit Endothelzellen bepflanzt, welche die Hohlräume auskleiden. In ähnlichen Gerüsten werden
Leberzellen kultiviert (➌). Die Kunstleber
enthält abwechselnd Lagen beider Konstrukte (➍), jeweils durch eine feinporige
Membran getrennt – also abwechselnd
eine Leberzell- und eine Blutkapillarschicht. Das Konstrukt soll die Wartezeit
bis zu einer Lebertransplanta­tion überbrücken helfen.
93
Biotechnologie
bepflanzt. Daraufhin entstanden tatsächlich
Herzmuskelfasern sowie Gefäßstrukturen und
schließlich wieder ein schlagendes Herz.
Auch mit Druckverfahren lassen sich Zellen präzise anordnen. Modifizierte Tintenstrahldrucker verteilen Zellen oder Matrixmaterial so, dass Gewebe beziehungsweise Strukturen entstehen, auf denen Zellen wachsen.
Ist die Schablone den natürlichen Verhältnissen nachempfunden, können sich die Zellen
daran wunschgemäß orientieren.
Eine andere Technologie aus dem Ingenieur­
wesen, das Elektrospinnen, eignet sich, um
Gerüste mit einer Textur wie natürliche Gewebematrix zu produzieren. Hierbei werden sehr
dünne Polymerfasern netzartig versponnen
und ergeben räumliche Gebilde nach dem
Organbedarf
Mit schwer, irreparabel geschädigter Leber oder Lunge
überleben viele Patienten
höchstens einige Monate.
Die für Tansplantationen
verfügbaren Organe decken
jedoch lange nicht den
Bedarf.
Vorbildgewebe. Die mechanischen und chemischen Eigenschaften des Materials lassen
sich zudem bedarfsgerecht anpassen. Ähnliche
Gerüste hat David Kaplan von der Tufts University in Bos­ton aus Seide hergestellt – »Spinnennetze« als Grundlage für Bänder und Knochengewebe.
Hydrogele eignen sich ebenfalls gut, weil sie
so angepasst werden können, dass sie die Zellen umhüllen, stützen und zugleich die Gewebefunktion verbessern. Denn ihre biologischen,
chemischen und mechanischen Eigenschaften
lassen sich recht einfach beeinflussen. Auch ein
Hydrogel kann man mitsamt darin enthaltenen
lebenden Zellen mit Druckverfahren ausbringen oder auf andere Weise nach Erfordernis
verteilen und schichten. Einem von uns (Kha-
Die Kunst der Gewebeingenieure
Wenn Zellen Gewebe ausbilden, achten sie auf verschie­
denartige Signale und Reize. Auch funktionstüchtige
Gewebe sind auf solche Umweltbedingungen angewie-
sen. Mit raffinierten Verfahren und neuen Materialien
gelingt es immer besser, wesentliche Komponenten
der natürlichen Verhältnisse nachzuahmen.
Fasergerüste durch Elektrospinnen
1
2
mit frdl. Gen. von Suwan Jayasinghe
Aus ultradünnen Fasern von einigen Mikrooder Nanometern Durchmesser lassen sich –
etwa aus Seide oder synthetischen Polymeren – netzartige Zellgerüste spinnen, die in
manchem einer natürlichen extrazellulären
Matrix ähneln. Eingebrachten Zellen bietet
das viel Raum. Auch können sie damit Kontakte herstellen, und das Gerüst kann wachstumsfördernde Stoffe enthalten. Es lassen sich
sogar Zellen (grüne Punkte) in die Fasern einbetten, um sie gleichmäßig zu verteilen.
3
4
alle aus: Du, Lo, Ali und Khademhosseini, »Directed assembly of cell-laden microgels for fabrication of 3D tissue constructs«,
in: pnas, 15.07.2008, Bd. 105, Nr. 28
94 Bausteine aus Hydrogel
Polymerhydrogele eignen sich, um Zellen einzubetten und in Blöcken weiterzuverarbeiten.
Fest wird das Material durch UV-Bestrahlung.
So lassen sich auch die Blöcke zur gewünschten Form zusammenschweißen. Im Beispiel
links werden die Zellen in »Wasser liebendes«
(hydrophiles) Material eingelassen und zu
Blöcken verfestigt (➊). Diese werden in Öl
aufgeschwemmt und geschüttelt, wodurch sie
zueinander finden (➋). Die Aggregate werden
ebenfalls durch UV-Licht verfes­tigt. Die Zellen
(➌, grün) überleben die Behandlung. Die unteren Bilder (➍) zeigen, wie sich verschieden
geformte Gelblöckchen, die unterschiedliche
Zelltypen enthalten, von allein zu größeren
Konstrukten zusammenlagern ließen. Das
könn­te natürliche Gewebe­strukturen etwa von
Sinusoiden in der Leber nachahmen.
SPEKTRUM DER WISSENSCHAFT · März 2010
Technik & Computer
demhosseini) gelang es, zellhaltige Hydrogelbausteine – auch mit jeweils andersartigen Zellen – in verschiedensten zueinander passenden
Formen herzustellen, die sich dann selbst zu
größeren, komplexen Aggregaten zusammenlagern (Kasten links unten).
In der Art ließe sich die natürliche Anordnung von Zellen etwa in der Leber nachbilden. Manche speziellen Hydrogele vernetzen
sich unter UV-Licht und lassen sich damit in
der gewünschten Form verfestigen. Kristi Anseth von der University of Colorado in Boulder und Jennifer Elisseeff von der Johns Hopkins University in Baltimore (Maryland) bauten auf die Weise Knorpel- und Knochengewebe nach.
Auf die Signale kommt es an
Zudem lässt sich das Material mit Stoffen versetzen, die das Wachstum des Gewebes oder
die Zelldifferenzierung fördern. Nach Samuel
Stupp von der Northwestern University (Illinois) werden neuronale Stammzellen in einem
Gel zu Nervenzellen, sofern dieses bestimmte
kleine Signalproteine für ihre Ausreifung enthält. Helen M. Blau von der Stanford University (Kalifornien) hat untersucht, wie sich individuelle Stammzellen mittels Hydrogelen
erforschen und beeinflussen lassen, wenn
dieses Medium Komponenten der natürlichen
extrazellulären Matrix aufweist.
Nicht zuletzt hilft Nanotechnologie, transplantierbare Zellschichten herzustellen. Teruo
Okano von der Tokyo Women’s Medical University hat dafür spezielle Oberflächen entwickelt, die mit einem temperaturempfindlichen
Polymer beschichtet sind. Dieses schwillt an,
wenn die Temperatur von 37 auf 20 Grad sinkt.
Darauf werden Zellen einschichtig kultiviert.
Später wird die Temperatur abgesenkt, das Substrat verdickt sich und die gewachsene Zellschicht hebt sich ab. Die Zellen selbst haben
zuvor genug Matrixmoleküle produziert, um
zusammenzuhalten. Solche Schichten lassen
sich nun stapeln oder rollen, so dass man daraus größere Gewebekonstrukte erzeugen kann.
So groß die Fortschritte beim Tissue Engineering im Ganzen sind – es gibt immer noch
manche Hindernisse. Zum Beispiel kennen
wir bisher die natürlichen Konzentrationen
und Kombinationen von Wachstumsfaktoren
und extrazellulären Molekülen in den einzelnen Entwicklungsstadien der verschiedenen
Gewebe oder auch bei deren Wundheilung
nicht gut genug. Die Bioingenieure müssten
die­se Prozesse im Detail noch besser verstehen, damit die Konstrukte sich mehr wie natürliche Organe und Gewebe verhalten.
Mitunter suchen die Designer gern in anderen Forschungsgebieten neue Ideen. So interesSPEKTRUM DER WISSENSCHAFT · März 2010
sieren sie sich für Studien über Gen- und Proteininteraktionen in reifendem und regenerierendem Gewebe. Deren Ergebnisse, angewandt
bei fortschrittlichen Zellkultursystemen, lassen
uns das Zellverhalten unter künstlichen Bedingungen immer besser beherrschen.
Zwar bleibt noch manches zu wünschen.
Trotzdem ist die Gewebezucht im Labor kein
reines Hirngespinst mehr. Einfachere Produkte
sind schon im klinischen Einsatz. Bald dürften
von den Technologien Millionen Patienten profitieren. Schon im Jahr 2008 lag der Umsatz
mit gezüchteten Geweben nah an 1,5 Milliarden US-Dollar. Solche Zahlen sind angesichts
der zunächst erlebten harten Rückschläge umso
bemerkenswerter. Während zur Jahrtausendwende noch Optimismus herrschte und viel in
das Feld investiert wurde, gingen nach der Internetkrise die Investitionen in neue Biotechnologiefirmen zurück. In den USA waren
selbst Unternehmen, die für Gewebekonstrukte
Zulassungen besaßen, gehalten, ihr Geschäftsmodell zu überdenken, und so manches Produkt kam verzögert auf den Markt. Naturgemäß sind die Zulassungs- und Prüfverfahren
für solche Erzeugnisse zeitaufwändig und teuer.
Sie enthalten lebende Zellen, biologisch aktive
Wirkstoffe und nichtbiologische Materialien.
Damals erschwerten fehlende finanzielle Zuschüsse die Durchführung umfangreicher klinischer Studien. Doch die Verzögerungen hatten eine positive Seite: Die Technologien konnten weiter reifen und die Geschäftsmodelle
besser angepasst werden.
Zulassungsverfahren werden schon dadurch
erschwert, dass sich gleiche Zellen von verschiedenen Personen nicht immer gleich verhalten. Ebenso reagieren Empfänger manchmal auf das gleiche Produkt unterschiedlich.
Solche Unwägbarkeiten erfordern weitere Forschung zur individuellen Variabilität, auch
klinische Testreihen mit Gewebeimplantaten.
Die hohen Kosten dafür müssen Geschäftsmodelle künftig einkalkulieren.
Ungehindert all der Einschränkungen haben die Gewebekonstrukteure schon eine
zweite Produktgeneration im Blick. Dabei
wollen sie auf neue Einsichten zugreifen, die
über die Ausbildung und Regeneration von
natürlichen Strukturen vorliegen. Die angestrebten Konstrukte sollen sich mechanisch,
chemisch und funktional enger als bisher
möglich an das Vorbild anlehnen. Trotz der
angespannten ökonomischen Lage erwarten
wir, dass Ansätze aus der Nanotechnologie,
Stammzellforschung, Systembiologie und dem
Gewebedesign in naher Zukunft zusammenwachsen. Das sollte neue Ideen für hochentwickelte Ersatzorgane bringen, die so viele
Menschen dringend benötigen.
Ali Khademhosseini (oben) ist
Assistenzprofessor an der HarvardMIT’s Division of Health Sciences
and Technology und an der Harvard
Medical School in Cambridge
(Massachusetts). Er hat bei Langer
promoviert. Joseph P. Vacanti
(Mitte) ist Professor an der Harvard
Medical School. Er hat unter
anderem am Massachusetts General
Hospital mehrere leitende Positio­
nen in der Chirurgie, Kinderchirurgie und Transplantationsmedizin
inne. Robert Langer ist am MIT
(Massachusetts Institute of Technology) Instituts­professor. Er gilt als
meistzitierter Ingenieur. Zusammen
mit Vacanti hat er das Tissue Engineering auf den Weg gebracht.
Khademhosseini, A. et al.: Microscale Technologies for Tissue
Engineering and Biology. In:
Proceedings of the National
Academy of Sciences USA 103(8),
S. 2480 – 2487, 21. Februar 2006.
Lysaght, M. J. et al.: Great Expectations: Private Sector Activity in
Tissue Engineering, Regenerative
Medicine, and Stem Cell Therapeutics. In: Tissue Engineering A 14(2),
S. 305 – 315, Februar 2008.
Mikos, A. G. et al.: Engineering
Complex Tissues. In: Tissue Engineering 12(12), S. 3307 – 3339,
Dezember 2006.
Preti, R. A.: Bringing Safe and
­Effective Cell Therapies to the
Bedside. In: Nature Biotechnology
23(7), S. 801 – 804, Juli 2005.
Weitere Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/1019954.
95
REZENSIONEN
Ornithologie
In ihrem Reich
geht die Sonne nicht unter
Jedes Jahr fliegt die nordeuropäische Küstenseeschwalbe
vom Nord- zum Südpol und zurück – der spektakulärste
unter vielen Rekorden zum Thema Vogelzug.
A
uch Schmetterlinge, Heuschrecken,
Lachse, Meeresschildkröten, Fledermäuse, Lemminge und Antilopen legen in
ihrem Leben große Entfernungen zurück.
Doch das spektakuläre Naturschauspiel, das
viele Milliarden ziehender Vögel rund um
den Globus alljährlich aufführen, vermag
auf besondere Weise zu faszinieren. Denn
es liefert einige der aufwändigsten, spannendsten und gefährlichsten Szenarien zum
Thema Tierwanderung. Ein internationales
Expertenteam unter Federführung des britischen Ornithologen Jonathan Elphick hat
die wichtigsten Erkenntnisse, die faszinierendsten Fallbeispiele und die größten Rätsel des Vogelzugs in einem Bildatlas zusammengefasst.
Der Wanderalbatros Diomedea exulans – hier
ein balzendes Paar – nutzt seine großen
Flügel (mehr als 3,5 Meter Spannweite) fast
ausschließlich zum Segelflug.
98
Viele Jahrhunderte lang erklärten sich
die Menschen das herbstliche Verschwinden mancher Vogelarten und ihre Wiederkehr im Frühjahr mit den abenteuerlichsten
Vorstellungen. So glaubten sie allen Ernstes,
unsere Störche würden gemeinsam mit den
Fröschen zum Winterschlaf im Moor versinken. Nach und nach konnte die Wissenschaft mit solchen Legenden aufräumen; revolutionäre Fortschritte gelangen ihr jedoch
erst vor rund 100 Jahren durch die Beringung der Vögel. Inzwischen verfolgt man
den Weg einzelner Tiere mit Hilfe von Minisendern und Satelliten. Und manchmal genügt bereits die chemische Analyse einer
einzigen Feder, um Genaueres über die Winterquartiere und Durchzugsgebiete der zugehörigen Art zu erfahren. Heute wissen
wir: Die Hälfte aller Vogelarten sind Zugvögel – und jede Wanderung ist einzigartig.
Dieser Bildatlas listet in seinem Anhang
die Zugrouten von über 500 Arten auf. Ausführlich besprochen werden allerdings im
Hauptteil nur etwas mehr als 100 von ihnen – insofern nämlich ihr Zugverhalten
exemplarischen Charakter hat oder be­
merkenswerte Einzelheiten aufweist. Die
Darstellung stützt sich auf eine Vielzahl
größerer und kleinerer Textblöcke, ergänzt
durch rund 300 farbige Bilder, Karten und
Diagramme.
Beinahe ein Viertel des Bands dient der
einführenden Klärung grundlegender Fragen: Wie haben sich die komplexen Zugmus­
ter, die wir heute beobachten, überhaupt
entwickelt? Wie gelingt es Vögeln, Jahr für
Jahr solch gewaltige Entfernungen zurückzulegen, ohne dass sie sich verirren oder an
Erschöpfung zu Grunde gehen? Woher kennen sie die Richtung ihres Flugs, und wie
können sie dessen Dauer einschätzen?
Die heutigen Zugmuster sind maßgeblich vom Vordringen und Zurückweichen
eiszeitlicher Gletscher, aber auch von der
Kontinentalverschiebung beeinflusst worden. Wie viel Zeit solche Anpassungsprozesse in Anspruch nehmen, zeigt etwa der
Steinschmätzer (Oenanthe oenanthe), dessen Zugroute sich pro Jahr um rund einen
Kilometer verschiebt – und dies seit fast
10 000 Jahren.
Die enormen Strecken bewältigen die
Vögel durch ein fein abgestimmtes Gefüge
morphologischer und physiologischer Anpassungen einschließlich des Verhaltens.
Dies betrifft vor allem Flugtechniken und
Energiebilanzen, aber auch die Fähigkeit,
sich auf tages- und jahreszeitliche Rhythmen einzustellen, ohne zugleich die Flexibilität gegenüber der aktuellen Situation zu
verlieren.
Das zentrale Thema des Vogelzugs lautet
jedoch Orientierung und Navigation. Und so
bietet die Erläuterung der Frage, woher denn
nun Vögel eigentlich ihre Zugrichtung und
Zugdauer kennen, besonders spannende
Einblicke in den aktuellen Stand der Forschung. Allein schon die Vorstellung, dass
Vögel den magnetischen Nordpol höchstwahrscheinlich mit Hilfe von Magnetitkris­
tallen im Schnabel wahrnehmen können,
vermag Laien wie Experten zum »Abheben«
zu verführen. Auch wenn nun Magnet-, Sonnen- und Sternenkompass vor allem auf
Grund genetischer Vorgaben funktionieren,
so haben Vögel doch nicht einfach einen
»Autopiloten« eingebaut. Ganz ohne »Handsteuerung« erreicht kein Vogel sein Ziel. Irgendetwas gibt es immer über Zugrouten,
Zugbarrieren oder Rastplätze zu lernen.
Die eigentlichen Highlights dieses Buchs
bilden indes die überall eingestreuten Beschreibungen herausragender Zugleistun­
SPEKTRUM DER WISSENSCHAFT · März 2010
gen. Hierzu gehören etwa die 3000 Kilo­
meter langen Nonstop-Flüge des Schilfrohrsängers (Acrocephalus schoenobaenus) und
die Höhenflüge der Streifengans (Anser indicus), die den Himalaja in bis zu 9000 Meter
Höhe überquert. Unerreichte Rekordhalterin aller Langstreckenzieher ist die nord­
europäische Küstenseeschwalbe (Sterna
­paradisea): Sie legt, zwischen arktischem
Brutgebiet und antarktischem Winterquartier pendelnd, pro Jahr rund 40 000 Kilometer zurück. So werden manche der im
Mai von skandinavischen Ornithologen beringten Vögel bereits im nachfolgenden Februar auf dem antarktischen Festland gesichtet. Kein anderes Lebewesen auf Erden
erlebt mehr Tageslicht; denn an beiden
Standquartieren geht während des Aufenthalts der Küstenseeschwalbe die Sonne
nicht unter.
Man erkennt unschwer, dass Großbritannien die Heimat der Autoren und die Vorgeschichte der Arktis ihr Lieblingsforschungsthema ist. Aber sie nehmen durchaus auch
einen globalen Standpunkt ein und widmen
sowohl den nordamerikanischen Zugvögeln
als auch denen der Südhalbkugel eigenständige Kapitel.
Der Wüstensteinschmätzer Oenante deserti
bricht zu seinem Zug fast immer in der
Abenddämmerung auf; er orientiert sich an
der sinkenden Sonne westwärts und navigiert in der Nacht nach den Sternen.
Wer nun nach allem, was er über Zugvögel erfahren hat, den Zug gern aus eigener
Wahrnehmung erleben möchte, dem verrät
das Buch die weltweit wichtigsten Orte
(»Hotspots«), an denen sich Zugvögel in
größerer Zahl beobachten lassen.
Für Verdruss beim Lesen sorgt einzig die
extrem kleine Schrift mancher ergänzender
Textblöcke. Nicht jeder, der sich für Ornithologie interessiert, hat Augen wie ein Adler. Der übersichtliche thematische Aufbau,
die elegant formulierten Texte, die verständlichen Grafiken und die betörend schönen Bilder machen diese so umfassende
und zugleich so kompakte Darstellung zu einer der besten, die in den letzten Jahren
zum überaus komplexen Thema »Vogelzug«
erschienen sind.
Reinhard Lassek
Der Rezensent ist promovierter Biologe und arbeitet als freier Journalist in Celle.
Musik und Hirnforschung
Jeder hat Töne
Christoph Drösser reißt die Sing- und Spielmuffel
vom Konsumentensofa.
S
pielen Sie ein Instrument? Singen Sie im
Chor? Nein? Macht nichts, Sie können
morgen damit anfangen! Dass das unein­
geschränkt für uns alle gilt, unabhängig
davon, ob wir uns bisher für ganz und gar
unmusikalisch hielten, ist die zentrale
Aussage des vorliegenden Buchs. Es will
zum Dilettieren auf dem Instrument und
mit der Stimme ermutigen und tritt die
(vorwiegend hirnphysiologisch gestützte)
Beweisführung an, dass (fast) jeder von
uns die notwendigen Voraussetzungen dafür mitbringt – nicht anders als zum Sprechen auch.
Dementsprechend wendet sich der Autor
vorrangig an bislang passive Musikkonsumenten, die zum aktiven Musizieren ermuntert und mit passenden Argumenten gerüs­
tet werden sollen; Kenntnis der Notenschrift
ist zur Lektüre nicht erforderlich. Aber auch
für längst Überzeugte hält das Buch genug
Neues und Interessantes bereit.
SPEKTRUM DER WISSENSCHAFT · März 2010 Christoph Drösser, Jahrgang 1958, studierte Mathematik und Philosophie in Bonn.
Er ist Wissenschaftsredakteur bei der Wochenzeitung »Die Zeit«, wo er vor allem
durch die Kolumne »Stimmt’s?« und als
Entwickler des Magazins »ZEIT Wissen« auf
sich aufmerksam machte. Im Jahr 2008
wurde ihm der Medienpreis der Deutschen
Mathematiker-Vereinigung verliehen.
Musikalität ist nur eine Gabe der wenigen; eine späte Liebe zum Instrument ist
von vornherein zum Scheitern verurteilt –
so oder ähnlich lauten weit verbreitete Vorurteile. Sie zu entkräften hat der Autor sich
zum Ziel gesetzt und argumentiert dabei
auf allen Ebenen. Er referiert nicht nur neueste Ergebnisse der Hirnforschung, sondern
führt auch aktuelle Theorien zum Verhältnis
von Sprach- und Musikentwicklung sowohl
in der Frühgeschichte der Menschheit als
auch bei Babys und Kleinkindern an. Zudem
gibt er dem Leser eine gut verständliche
Jonathan Elphick (Hg.)
Atlas des Vogelzugs
Die Wanderung der Vögel auf unserer Erde
Aus dem Englischen von
Coralie Wink und Monika Niehaus.
Haupt, Bern 2008. 176 Seiten, € 39,90
Einführung in grundlegende Phänomene
der Akustik sowie in die erstaunlichen Fähigkeiten des menschlichen Gehörsinns, die
es uns ermöglichen, aus einer einzigen
Druckschwankung eine Vielzahl von Einzelklängen herauszufiltern.
Ausgehend von der Beschreibung der
einzelnen musikalischen Parameter wie
Tonhöhe, Harmonie, Rhythmus, Takt und
Klangfarbe gibt Drösser Beispiele für das,
was sich als Grammatik der Musik beschreiben lässt: Warum erscheint uns eine musikalische Phrase logisch, eine andere aber
nicht? Anders gefragt: Welche Musik »verstehen« wir? Entsprechende Studien zeigen, dass fast alle Befragten grobe grammatische Verstöße hören, auch wenn nur die
wenigsten entsprechende Regeln formulieren können. Wir haben also ein umfangreiches musikalisches Wissen, welches das
Zurechtfinden in der eigenen Lieblingsmusik weit übersteigt und trotzdem von den
meisten nicht bewusst angewandt wird. Musikalisch ist bereits, wer zur differenzierten
Klangverarbeitung und Interpretation fähig
ist – und das sind nach dem hirnphysio­
logischen Befund wirklich fast alle Menschen – oder über die weit schwerer zu definierende ability to make sense of music,
99
REZENSIONEN
vergleichbar dem akustischen und inhaltlichen Verständnis von Sprache, verfügt.
Der Interpret eines Klavierkonzerts hat dem
Hörer nicht unbedingt das Talent, wohl aber
viele tausend Stunden Übung voraus.
Die gut funktionierende Website www.
hast-du-toene.net ergänzt das Buch mit
Klangbeispielen und diversen Links (Amusie-Test, singende Gibbons …); hier können
Interessenten einen ersten Eindruck gewinnen.
Problematisch ist die Beschränkung des
Autors auf die Jazz-, Rock- und Popmusik.
Zwar lassen sich viele Phänomene daran
genauso gut beschreiben; oft lässt sich
Drösser aber zu vorschnellen Verallgemeinerungen und allzu pauschalen Aussagen
über »die« abendländische Musik hinreißen.
Etikettierungen wie »schräge Experimente
der Zwölftöner« (die sich entgegen den Vorstellungen des Autors sehr viele Gedanken
über die Fasslichkeit ihrer Musik gemacht
haben) können mich genauso wenig begeistern wie sorglose Feststellungen (»das, was
Musik ausmacht, [ist] das Gefühl«) oder
mitunter geradezu banale Schlussfolgerun­
gen (»die Ergebnisse legen nahe, dass uns
Musiker tatsächlich etwas sagen, wenn sie
spielen«). Auch wenn Drösser kein musikwissenschaftliches Buch schreiben wollte –
es wäre durchaus bereichernd gewesen,
wenn unter den von ihm befragten »Musikforschern« nicht nur Neurophysiologen,
Psychologen und Musikermediziner, sondern auch ein Musikwissenschaftler gewesen wäre. So hätten sich nicht zuletzt ein
paar sachliche Fehler vermeiden lassen:
Das einzige Notenbeispiel ist eine Kadenz,
die jedem Tonsatzschüler rot angestrichen
würde.
Im Ganzen ist das Buch aber sehr überzeugend und kann mit vielen Vorurteilen
aufräumen, die selbstkritische Gemüter
möglicherweise bisher vom Musizieren abhielten. Dem im Klappentext formulierten
Anspruch, zu erklären, »was Musik ist, woher sie kommt und wie sie funktioniert« und
sogar »die Geheimnisse von Musik und Musikalität« zu lüften, kann es zwar nicht genügen – welches Buch könnte das schon?
Mathematik
Mathematische
Appetithäppchen
Holger Dambeck versäumt nicht, seine kleinen Leckereien
mit etwas Realitätsbezug zu würzen.
»S
teigt Ihre Lebenserwartung, wenn Sie
älter werden?« Dies ist nur eine der
zahlreichen, auf den ersten Blick harmlos
anmutenden Knobelaufgaben, die der Wissenschaftsjournalist Holger Dambeck dem
Der energetisch günstigste Weg zum Gipfel
eines kegelförmigen Bergs ist gerade für einen flachen und spiralförmig für einen steilen Berg. Beim Abstieg ist ein Zickzackweg
zweckmäßig, da es schwierig ist, mit einem
ungebrochenen Spiralweg einen vorgegebenen Punkt am Bergfuß zu treffen.
100
Leser zum kognitiven Verzehr vorlegt. Die
Mischung dieser Grüße aus der Logikküche
ist bunt: Einige sind leicht zu vernaschen,
an anderen beißt man sich die Zähne aus.
Zusammen mit Anekdoten und Zitaten aus
der Geschichte der Mathematik hat Dambeck die Aufgaben zu appetitlichen Häppchen angerührt, die er teils neu verfasst,
teils schon als »Numerator«-Kolumnen auf
»Spiegel Online« veröffent­licht hat.
Ob Geometrie, Graphentheorie, Logik,
Wahrscheinlichkeits- oder Zahlentheorie –
zu jedem Thema stellt der Autor einen handfesten Bezug zur Realität her. Dambeck
bringt Licht in die Unterwelt der Zahlen, indem er zum Beispiel konzis darlegt, warum
Primzahlen nicht nur für Mathe-Nerds, sondern auch für alle Bankkonto­inhaber von
größter Bedeutung sind. Flugs kommt er
von den allbekannten Sudokus zur Optimierung von U-Bahn-Fahrplänen – über die
beiden gemeinsame Graphentheorie. Logarithmen sind für viele böhmische Dörfer;
Aber Drösser belegt glaubhaft seine These
von der Musikalität aller Menschen und
preist darüber hinaus leidenschaftlich den
sinnlichen Genuss des Musizierens, der den
des passiven Hörens um ein Vielfaches
übersteigt. Dank dem lockeren Stil, der
übersichtlichen Gliederung und der Anreicherung mit persönlichen Anekdoten und
einigen Kuriositäten liest sich das Buch
leicht und vergnüglich; die einzelnen Abschnitte sind auch für sich verständlich. Obwohl professionelle »Klassikforscher« vielleicht über manches hinwegsehen müssen,
ist »Hast du Töne?« sehr zu empfehlen.
Almut Gatz
Die Rezensentin hat in Freiburg Schulmusik, Mathematik und Musiktheorie studiert und unterrichtet seit 2009 Musiktheorie an den Hochschulen Freiburg und Karlsruhe.
Christoph Drösser
Hast Du Töne?
Warum wir alle musikalisch sind
Rowohlt, Reinbek 2009. 315 Seiten, € 19,90
dass aber sogar die mathematisch unbeleckten Munduruku aus dem Amazonaswald instinktiv logarithmisch denken, illustriert der Autor unter Heranziehung einer
faszinierenden Studie. Überaus erhellend
ist auch die anschauliche Erklärung des
von Google verwandten Page-Rank-Verfahrens anhand eines Miniatur-Internets. Abgerundet wird das Ganze schließlich durch
allerlei Rätselhaftes aus dem Kosmos der
Kabbalistik.
Dieses kleine Taschenbuch ist ein äußerst
bekömmliches Stückchen Mathematik. Es
lüftet so manchen Vorhang, hinter dem das
Abstrakte an alltäglichen Problemen zum
Vorschein kommt. Nur das etwas lieblose
papierne Grau in Grau könnte das Lesevergnügen etwas trüben.
Nach der Lektüre dieses Buchs werden
die Laune merklich und die Lebenserwartung unmerklich gestiegen sein.
Arim Shukri
Der Rezensent ist Diplommathematiker und Lehrbuchautor. Er arbeitet als Dozent für Statistik an
der Macromedia Hochschule für Medien und
Kommunikation und als Datenanalytiker in Köln.
Holger Dambeck
Numerator
Mathematik für jeden
Goldmann, München 2009. 223 Seiten, € 7,95
SPEKTRUM DER WISSENSCHAFT · März 2010
Chemie
Spielzeug für Chemiker
Der neue Molekülbaukasten »Orbit« bietet Vielfalt und Exaktheit.
A
uf den ersten Blick sehen die zahlreichen bunten Plastikkleinteile aus
wie aus dem Überraschungsei gepellt. Und
schon fühlt man sich zur Konstruktion kleiner Molekülbauwerke angeregt. Das Basis­
set des Molekülbaukastens von Wiley-VCH
bietet 160 Teile und wurde für den Schul­
unterricht und die Chemiegrundausbildung
an den Hochschulen entwickelt, während
das Profiset aus 460 Teilen besteht und Unterrichts- und Demonstrationszwecken dienen soll.
Auf den zweiten Blick fällt auf, dass der
Herausgeber mit viel Liebe zum Detail ge­
arbeitet hat. So gibt es drei verschiedene
Varianten zur Darstellung von Doppelbindungen zwischen zwei Atomen und von
vielen Atomsorten je nach Anzahl der möglichen Bindungspartner vier bis sechs verschiedene Modellbausteine mit den richtigen Bindungswinkeln. Damit man die
verschiedenen Bindungslängen korrekt wiedergeben kann, liegen dem Basisset Verbindungsstäbchen in zwei, im Profiset in drei
verschiedenen Längen bei. Dadurch – möglicherweise mit Zuschneiden – sind bereits
mit dem Basisset Modelle der gängigsten
Moleküle, wie einfache und zyklische Kohlenwasserstoffe, Aromaten, einfache anorganische Verbindungen und organische Verbindungen mit funktionellen Gruppen, im
exakten Maßstab von 1 : 300 Millionen darzustellen. Das beigefügte, farbig gestaltete
Booklet geht ausführlich auf die BerechAlle rezensierten Bücher können Sie in
unserem Science-Shop bestellen
direkt bei: www.science-shop.de
per E-Mail: [email protected]
telefonisch: 06221 9126-841
per Fax: 06221 9126-869
SPEKTRUM DER WISSENSCHAFT · März 2010 nung und die Verwendung der verschiedenen Bauteile ein und zeigt übersichtliche
und aussagekräftige Fotos verschiedener
Molekülmodelle. Komplexverbindungen sowie größere biochemische Moleküle sind
nur mit dem Profiset zu bauen.
Nun gibt es ja Molekülmodelle zum Anschauen in Hülle und Fülle kostenfrei im Internet. Auch mit einfachen Rechnern kann
man mit diesen Programmen Moleküle nach
Belieben »bauen«, drehen und vermessen
und gewinnt dadurch einen guten Überblick
über die Bindungsverhältnisse. Aber sie
können ein dreidimensionales Modell, das
man wirklich – und nicht nur virtuell – bauen, anfassen, verändern und im Wortsinn
»begreifen« kann, nicht ersetzen. Schon wegen des motivierenden Moments: Nicht nur
Schülerinnen und Schüler lieben es, einfach
mal draufloszubauen und dadurch die
wildesten Modelle entstehen zu lassen.
Für wen eignen sich diese speziellen Molekülbaukästen? Studierenden können sie
eine nützliche Hilfestellung sein, da ihre
Stärke in der großen Vielfalt und der Exaktheit liegt. Das Kohlenstoffatom liegt in fünf
verschiedenen Versionen vor, für zwei bis
sechs Bindungspartner; Stickstoffatome
stehen zwei-, drei, vier- und fünfbindig zur
Verfügung. Damit sind stereochemische
Fragestellungen und Probleme detailgetreu
zu veranschaulichen. Das Basisset stößt allerdings bald an seine Grenzen, weil auf
Grund der großen Vielfalt von jedem einzelnen Teil nur relativ wenige Exemplare zur
Verfügung stehen.
Der Einsatz der Orbit-Baukästen in den
Schule stellt sich deutlich problematischer
dar. Die große Vielfalt und Flexibilität ist
hier eher von Nachteil. Schülerinnen und
Schülern fällt es schwer, die fünf Varianten
des Kohlenstoffatoms, die alle durch schwarze Kugeln dargestellt sind, auseinanderzuhalten. Warum muss ein Wasserstoffatom
ein Loch haben, andere Atome jedoch nicht?
Solche Verwirrungen lenken von der eigentlichen Fragestellung ab. Didaktische Reduktion ist hier vonnöten.
Konkurrenzprodukte bieten Kohlenstoffatommodelle mit ausschließlich vier Bindungsmöglichkeiten an, entsprechend der
Anzahl seiner Außenelektronen. Mehrfachbindungen werden dann durch gekrümmte
Einfachbindungen dargestellt. Das ist für
Schülerinnen und Schüler viel leichter zu
begreifen. Auch das System »Orbit« bietet
flexible Bindungen für den beschriebenen
Zweck an, aber relativ wenige, die auch
noch der hohen Beanspruchung durch Schülerhände nicht lange standhalten. Auf dieses
Manko hat der Hersteller reagiert und den
Baukästen einige dickwandige Verbindungsstücke beigelegt. Diese gibt es dann aber
nur in einer Einheitslänge, und sie sind
schwer zu benutzen.
Aber das größte Problem für den Einsatz
im Schulunterricht: Die Molekülbauteile sind
einfach zu klein. Als Demonstrationsobjekte
im Frontalunterricht sind sie kaum sichtbar,
in Gruppenarbeit drohen schnellster Materialschwund und schlechte Handhabbarkeit.
Lediglich sehr große Moleküle wie ATP oder
Phenolphthalein lassen sich durch die kleinen Bausteine übersichtlicher und auch stabiler darstellen als durch größere Molekülbaukästen der Konkurrenz. Hingegen eignen
sich die Orbit-Baukästen im Rahmen von
Zusatzaufgaben für besonders interessierte
oder motivierte Schülerinnen und Schüler, in
Arbeitsgemeinschaften oder im binnendif­
ferenzierten Unterricht. Hier ist die Vielfalt
wieder mehr Stärke als Hindernis.
In Zeiten chronisch knapper Kassen kommunaler Schulträger ist dieses relativ preiswerte Produkt zweifellos besser als gar kein
Molekülbaukasten. Aber die etablierten
»Minnit«-Baukästen sind den Orbit-Modellen sehr ähnlich und noch billiger. Auf lange
Sicht wird sich für Schulen die Anschaffung
eines etwas teureren Baukastensystems
wie »Molymod« lohnen, das nicht nur didaktische Vorteile bringt, sondern auch
weitaus haltbarer ist. Im Hochschulbereich
und für den privaten Gebrauch kann der Orbit-Molekülbaukasten aber durchaus seinen
festen Platz finden.
Elke Bieler
Die Rezensentin ist Fachleiterin für Chemie, Naturwissenschaft und Technik und Naturphänomene an der Elisabeth-von-Thadden-Schule in
Heidelberg.
Orbit Molekülbaukasten Chemie
Basis Set mit 160 Teilen,
Profi Set mit 460 Teilen
Wiley-VCH, Weinheim 2009.
20,– € (Basis Set), 40,– € (Profi Set)
101
Wissenschaft & Karriere
»Damit der Fan
seine Schokolade wieder­
erkennt «
Kraft Foods Deutschland
Günther Fischer, geboren 1958, hat von
1978 bis 1983 Lebensmitteltechnologie an
der Universität in Weihenstephan in der
Nähe von München studiert. Nach einem
halben Jahr als wissenschaftlicher Assis­
tent an der Universität sammelte er erste
Berufserfahrungen in einem Chemieunter­
nehmen, das Zusatzstoffe für die Milch­
industrie herstellt. Dabei war er für Produktentwicklung und anwendungstech­
nische Beratung in verschiedenen Ländern
zuständig. 1988 fing Fischer in dem neuen
Forschungszentrum von Kraft Foods in München-Perlach als Spezialist für Schmelzund Frischkäse an. Seit 2002 ist Fischer
dort Bereichsleiter Neuproduktentwicklung
für die weltweite Schokoladenproduktion.
102 Für Schokoladenfans hat er wohl einen Traumjob: Der Lebensmitteltechnologe Günther Fischer leitet einen Teilbereich der
Neupro­duktentwicklung Schokolade im Münchner Forschungszentrum von Kraft Foods. Einen Schwerpunkt seiner Arbeit
bilden­Strategien für die Weiterentwicklung von umsatzstarken
Marken wie Milka und Côte d’Or.
Spektrum der Wissenschaft: Hier in
Ihrem Labor entstehen die Schokoladensorten, die der Verbraucher demnächst
als Neuheit im Regal findet. Gehen neue
Geschmacksrichtungen auf Ihre Einfälle
zurück?
Günther Fischer: Nein, sie entstehen aus
dem Zusammenspiel vieler Abteilungen
innerhalb des Konzerns. Nehmen Sie die
Idee, Chili zu verwenden. Sie kam unter
anderem aus der Spitzengastronomie und
wurde so weiterentwickelt, dass sie zur
Marke passte. Wir haben dazu in unserem Testlabor eine komplette Schokoladenfabrik im Kleinformat und eine eigene Konfiserie, in der meine Mitarbeiter
alle Schokoladen- und Pralinensorten
herstellen können, die vorstellbar sind.
Die Prototypen werden in der Abteilung
Sensorik von ausgebildeten Testpersonen
probiert und bewertet. Die Ergebnisse
bestimmen, welche neuen Produkte
schließlich in den Regalen des Einzelhandels zu finden sein werden.
Spektrum: Sie haben Lebensmitteltechnologie studiert. Waren Sie von Anfang
an auf Schokolade spezialisiert?
Fischer: Nein, aber auf die Milchindustrie, denn auf diesem Gebiet genießt die
Universität Weihenstephan, wo ich studiert habe, Weltruf. Mit der Lebensmit-
teltechnologie kam ich erstmals in einer
Wurstfabrik in Kontakt. Ein Freund meiner Eltern arbeitete dort in der Produktentwicklung und verhalf mir zu einem
Praktikum. Das hat Spaß gemacht, und
außerdem wollte ich einen zukunftsträchtigen Beruf. Gegessen wird ja schließlich
immer!
Spektrum: Vor allem Schokolade. Die
Deutschen liegen im internationalen Vergleich regelmäßig an der Spitze. Wie ging
es weiter?
Fischer: In meiner ersten Anstellung entwickelte ich Nahrungszusatzstoffe, wie
zum Beispiel Schmelzsalze oder Stabilisatoren für die Milchverarbeitung. Der Job
war mit vielen Reisen in die ganze Welt
verbunden, und ich konnte Erfahrungen
sammeln. Nach ein paar Jahren wechselte
ich zu Kraft Foods, zunächst wieder als
Spezialist für Schmelz- und Frischkäse,
dann als Mitglied der Bereichsleitung für
die Schokoladenentwicklung.
Spektrum: Das war doch bestimmt viel
spannender als Schmelzkäse?
Fischer: Beides sind komplexe Gemische
unterschiedlicher Rohstoffe, deren Zusammenspiel alles andere als trivial ist.
Natürlich bietet Schokolade allein durch
die Vielfalt der möglichen Produkte eine
breite Palette an interessanten Aufgaben.
SPEKTRUM DER WISSENSCHAFT · März 2010
Kraft Foods ist eines der weltweit führenden Markenartikelunternehmen
in der Lebensmittelindustrie. Rund 98 000 Mitarbeiter stellen in über
180 Fabriken Produkte her, die in über 155 Ländern verkauft werden.
Allein mit den neun wichtigsten Marken, darunter Milka, erzielt Kraft
Foods über eine Milliarde Dollar Umsatz im Jahr. Das Unternehmen be­
treibt weltweit elf Forschungszentren mit über 2000 Mitarbeitern, ver­
gangenes Jahr investierte es 500 Millionen Dollar in Forschung und Ent­
wicklung. Das Münchner Zentrum wurde 1985 gegründet und ist mit 270
Mitarbeitern das größte in Europa. In acht Labors und sechs Pilot­anlagen
testen die Lebensmittelforscher dort neue Produkte und Geschmacks­
richtungen, entwickeln Verfahren für die Lebensmittelsicherheit sowie neue Produktionsprozesse. Schokolade ist das wichtigste For­schungs­gebiet in München, aber auch Frisch- und Schmelzkäse, Milch­
mixgetränke oder Majonäse werden dort unter die Lupe genommen.
Kraft Foods Deutschland
Spektrum: Was sind Ihre Aufgaben?
Fischer: Ich erarbeite in erster Linie langfristige Projekte und Strategien. Das Spannende daran ist, dass ich an sehr vielen
Prozessen beteiligt bin: von der Rohstoffbeschaffung über die Produktentwicklung
und Produktionsoptimierung bis hin zu
Verbraucheranalysen und Marketing. Natürlich muss ich mich hierzu ständig auf
dem neuesten Stand halten und mich mit
involvierten Abteilungen und Produktionsstätten in der ganzen Welt abstimmen.
Spektrum: Was muss man sich denn unter einer Strategie im Schokoladenbereich
vorstellen?
Fischer: Zum Beispiel die Positionierung
auf dem Markt. Nehmen Sie Milka, unsere größte Marke. Das ist ein Produkt
für den breiten Geschmack, und deshalb
passen keine ausgefallenen Extravaganzen.
Veränderungen müssen genau geplant
werden, damit der Fan seine Schokolade
wiedererkennt und Stammkunde bleibt.
Gleichzeitig wollen wir neue Verbraucher
gewinnen, und dazu müssen wir die Marke weiterentwickeln. Vor einigen Jahren
haben wir eine »Zartheitsoffensive« gestartet. Das war kein bloßer Marketinggag: Milka bekam tatsächlich eine andere
Textur. Damit verbesserte sich das Mundgefühl, der Schmelz wurde zarter. Zudem
SPEKTRUM DER WISSENSCHAFT · März 2010
In der Konfiserie des Kraft-Food-Forschungszentrums
entstehen Prototypen neuer Schokoladensorten. Hier
wird eine Tafelform mit flüssiger Schokolade ausgeschwenkt und der Überschuss herausgeschüttelt. Nach
dem Erstarren werden die einzelnen Felder beispielsweise mit einer Himbeer-Jogurt-Masse gefüllt und mit
einer Schicht Schokolade bedeckt.
wurde die Schokoladenmasse lediglich
anders konchiert, also in einer speziellen
Rührmaschine mit Walzen bearbeitet und
erwärmt. Derzeit platzieren wir eine neue
Premiummarke namens Milka Amavel
Duo, denn es gibt einen Trend zu ausgefallenen Schokoladensorten im oberen
Preissegment. Die Sorten dieser neuen
Marke sind doppelt gefüllt, und fragen
Sie nicht, wie lange wir tüfteln mussten,
um die Tafel trotzdem sehr flach zu halten. Der Trick war, sie statt in kleine in
größere Stücke und dadurch flachere
Kammern aufzuteilen, außerdem das Gewicht auf 130 Gramm pro Tafel zu er­
höhen. Übrigens modellierten unsere De­
signer die neuen Tafeln am Computer
und erstellten dann 3-D-Modelle mittels
Stereolithografie, so eine Art räumliches
Drucken in Kunstharz. Die gesamte Produktentwicklung erforderte eine gute Zusammenarbeit als Team und viel Abstimmung zwischen Marketing, Verbrauchertestern und Produktentwicklern.
Spektrum: Ist Milka Ihr Hauptarbeitsgebiet?
Fischer: Nein, zurzeit bin ich mit Kol­
legen aus anderen Ländern auch dabei,
neue Produkte unserer belgischen Marke
Côte d’Or einzuführen. Das Besondere
dieser Schokoladensorten wird sein, dass
der eingesetzte Kakao zu mindestens 30
Prozent von Plantagen stammt, die von
der Umweltschutzorganisation Rainforest Alliance zertifiziert wurden. Dazu
haben wir unter anderem einige Kakaoplantagen in Ecuador besucht, um die
Produktionsbedingungen vor Ort beurteilen zu können. Weil sich dieser Kakao
von dem bisher verwendeten geschmacklich unterscheidet, versucht unser Team
nun, die Rezeptur anzupassen, damit das
schon bekannte Geschmacksprofil erreicht wird und auch konstant bleibt.
Spektrum: An sich stehen Verbraucher
der Lebensmittelindustrie oft kritisch gegenüber. Wie gehen Sie damit um?
Fischer: Kraft Foods hat eine ganze Reihe
von Initiativen für Bewegung und Ernährung begründet. Die Kontrolle der Rohstoffe und der Produkte ist beispielhaft.
Außerdem bin ich kaum betroffen: Schokolade ist immer ein Naturprodukt aus
Kakaobohnen, Milchpulver, Zucker und
Lezithin. Natürlich soll man nicht gleich
eine ganze Tafel essen. Ein paar Stückchen
am Tag sind ein netter und erschwinglicher Luxus, der bei ausgewogener Ernährung durchaus seinen Platz hat.
Das Interview führte die Münchner Wissenschafts­
journalistin Katrin Nikolaus.
103
stellenanzeigen
Laboratory Manager
(Reference No. 8)
Molecular Biology, Chemistry Laboratory (f/m)
Lexogen is a biotechnology start-up based in
Vienna, Austria, focusing on the development of
innovative tools for transcriptome research.
Our proprietary highly automatable gene
expression analysis platform can detect known
and unknown sequences equally well.
We are operating a state-of-the-art R&D facility
and are determined to successfully launch our
first products to a growing market.
Position
We are looking for a Laboratory Manager with strong organizing
skills and a hands-on mentality to run our laboratory.
This position is available from April 2010.
Responsibilities
• Organise and control all aspects of laboratory environment
• Coordinate distribution and training of SOPs / MSDS / lab security
• Requirements planning
• Prepare GLP/ GMP qualification
• Supervision of lab assistants
Requirements
Application
This is an exceptional opportunity to join a fast
growing biotech company at an early stage and to
help shaping a future leader in the gene expression
analysis market.
To apply to this position, please send your detailed CV
and covering letter to [email protected].
Lexogen GmbH | Brunnerstrasse 69/Obj. 3
1230 Vienna | Austria, Europe
• Excellent communication skills
• Excellent organization skills
• Sound knowledge of GLP / GMP regulations
• 3 to 5 years in laboratory management
• Good scientific background in molecular biology or biochemistry
• Advanced computer user skills
• Excellent command of the English language
Wir suchen 15 Wissenschaftler und Doktoranden
KIT-ZenTrum KlIma und umwelT
Das Karlsruher Institut für Technologie (KIT) ist aus der Fusion von
Universität Karlsruhe und Forschungszentrum Karlsruhe hervorgegangen. Damit entstand deutschlandweit eine einmalige Institution,
mit der die Missionen einer Universität und eines Großforschungszentrums in der Helmholtz-Gemeinschaft vereint sind. Als eines
von vier neuen Zentren wurde das KIT-Zentrum Klima und Umwelt
gegründet.
Am KIT werden an verschiedenen Standorten für neue Forschungsvorhaben im Bereich der Atmosphären- und Klimaforschung
insgesamt
15 Wissenschaftler und Doktoranden
104
gesucht. In einer anspruchsvollen Forschungslandschaft und in qualifizierten Teams im Institut für Meteorologie und Klimaforschung
(IMK) arbeiten Sie an zukunftsweisenden Projekten mit. Sie sind
dabei in das Helmholtz-Programm Atmosphäre und Klima und das
KIT-Zentrum Klima und Umwelt eingebunden.
Wir suchen Wissenschaftler und Doktoranden, die mit Motivation
und Engagement Ihren persönlichen Beitrag zur Spitzenforschung
leisten möchten. Hierzu ist ein überdurchschnittlicher Diplom- oder
Masterabschluss in Meteorologie, Physik oder verwandten Studiengängen vorzuweisen.
dungszentren. Insbesondere für Doktoranden und Nachwuchswissenschaftler bietet das Karlsruhe House of Young Scientists (KHYS)
ein breites Qualifizierungsangebot und unterstützt Sie bei Ihren
vielfältigen Aufgaben in Forschung, Lehre und Management.
Detaillierte Stellenausschreibungen finden Sie unter:
www.imk.kit.edu.
Bitte geben Sie bei Ihrer Bewerbung die Kennziffer IMK-I an.
Sie werden in Ihrer international ausgerichteten Arbeit unterstützt
durch eine individuelle Personalentwicklung und eigene Fortbil-
SPEKTRUM DER WISSENSCHAFT · märz 2010
www.spektrum.com/naturejobs
Sie sind interessiert zum Erfolg unseres Unternehmens beizutragen?
Sie suchen nach einer spannenden beruflichen Herausforderung?
Wir bei Bausch & Lomb sind derzeit in der
erfreulichen Situation folgende Stellen in unserer
Pharmaorganisation zu besetzen:
Competitive Intelligence / Portfolio Management Specialist
Ein marktgerechtes und zukunftsgerichtetes Produktportfolio macht
den entscheidenden Unterschied am Markt – helfen Sie uns, dieses
zu gestalten!
Sehen ist ein Geschenk ...
BAUSCH & LOMB ist weltweit einer der größten EyeCare-Spezialisten und Komplettanbieter von innovativen
Lösungen, die den Menschen ein gesundes Augenlicht
ermöglichen.
Sales Force Effectiveness Analyst
Nur wenn wir wissen, wie der Markt agiert, indem wir relevante
Kennzahlen entwickeln und zur Steuerung unseres Geschäftes einsetzen, können wir erfolgreich sein! Wollen Sie Teil davon sein?
Aus dieser Vision heraus entsteht unsere Motivation:
Besseres Sehen für bessere Lebensqualität. Unsere
Produktpalette umfasst Augenarzneimittel, Kontaktlinsen
und -pflegemittel, intraokulare Linsen und Operationsgeräte.
Bitte senden Sie Ihre aussagekräftigen Bewerbungsunterlagen unter
Angabe Ihrer Gehaltsvorstellung und Ihres möglichen Eintrittstermin
direkt per Mail an Stefan Kohr (eMail: [email protected]).
Für mögliche Rückfragen steht Ihnen Herr Kohr vorab telefonisch unter
0228 - 33656584 gerne zur Verfügung.
Sales & Marketing Trainer
Die kontinuierliche Ausrichtung von Produktmanagement und Vertrieb an zukünftige Markterfordernisse ist nur mit unseren bestens
ausgebildeten Mitarbeitern/innen möglich! Machen Sie hier den
Unterschied!
Regional Sales Manager East sowie
Pharmaberater und Bezirksleiter im Apothekenaußendienst
für diverse Vertriebsregionen in Deutschland
Unser Vertrieb ist jeden Tag der Schlüssel unseres Erfolges –
seien Sie mit dabei – als Regionalleiter, Pharmaberater oder
Bezirksleiter!
Wollen Sie mehr darüber erfahren? Dann besuchen Sie unsere Homepage, auf der Sie detaillierte Informationen erhalten.
www.bausch-lomb.de (Stellenangebote)
Pharma-Sales_173x117.indd 1
29.01.2010 11:18:27 Uhr
Spektrum der Wissenschaft and Naturejobs have joined forces. Now, with
Naturejobs, you can place your jobs, courses, announcements and events
in Spektrum as well as Nature, extending your reach among scientists,
academics and students in Germany, Austria and Switzerland.
For more information, please contact Naturejobs:
Hildi Rowland
T: +44 (0)20 7014 4084
E: [email protected]
Kerstin Vincze
T: +44 (0)20 7843 4970
E: [email protected]
www.naturejobs.com
21925-01 Half page ad for Naturejobs in Spektrum.indd 1
SPEKTRUM DER WISSENSCHAFT · märz 2010 3/11/09 13:55:45
105
Heft April 2010
ab 30. März im Handel
Im April-Heft 2010
Vorschau
MandelbrotMenge in 3-D
Je näher man hinschaut, desto mehr
überraschende Details zeigen sich:
Diese faszinierende Eigenschaft des
»Apfelmännchens« ließ sich nun
auch auf dreidimensionale Gebilde
übertragen
Weitere Themen im April
Antrieb für Nanoroboter
Sich autonom bewegende Nanoroboter können keinen Treibstofftank
mitschleppen und müssen deshalb
von außen Energie beziehen
Kenn Brown, Mondolithic Studios
Daniel White (www.skytopia.com/project/fractal/mandelbulb.html)
Ackerbau in der Vertikalen
Stadtplaner wollen mit Wolkenkratzern, in denen auf verglasten
Etagen Nahrungsmittel angebaut
werden, die Landwirtschaft in die
Metropolen holen. Davon würden
Verbraucher und Umwelt profitieren
Tod dem »Superkeim«!
Multiresistente Erreger stellen eine
wachsende Bedrohung dar. Der
Kampf gegen sie erfordert neue Strategien der Antibiotika-Entwicklung
Möchten Sie stets über
die Themen und Autoren
eines neuen Hefts
auf dem Laufenden sein?
Woher die Hauskatze stammt
Nicht in Ägypten, sondern im Nahen
Osten lebten die ersten Hauskatzen.
Sie wurden viel früher domestiziert als
bisher angenommen. Alle heutigen Stubentiger haben Vorfahren aus
dieser Region
Wir informieren Sie
gern per E-Mail –
damit Sie nichts verpassen!
Kostenfreie Registrierung unter:
www.spektrum.com/newsletter
106
Getty
images
/ Jane
Burton
Herunterladen