Vorlesungsskript Naturwissenschaftliche Grundlagen des modernen

Werbung
1
1
Einführung
1.1
Weltbilder
Arten von Weltbildern:
I. Mythologisch
II. Philosophisch
III. Naturwissenschaftlich
zu I. Beispiele: Ursprung der Welt
• Griechische Mythologie [Polytheismus]
Wahrlich, zuerst entstand das Chaos und später die Erde,
Breitgebrüstet, ein Sitz von ewiger Dauer für alle
Götter, die des Olymps beschneite Gipfel bewohnen
...
Aus dem Chaos entstanden die Nacht und des Erebos Dunkel;
Aber der Nacht entstammten der leuchtende Tag und der Äther.
Schwanger gebar sie die beiden, von Erebos’ Liebe befruchtet.
Gaia, die Erde, erzeugte zuerst den sternigen Himmel . . .
(Hesiod, Theogonie, 116 – 118, 123 – 126)
• Altes Testament [Monotheismus]
Am Anfang schuf Gott Himmel und Erde. Und die Erde war wüst und
leer, und es war finster auf der Tiefe; und der Geist Gottes schwebte auf
dem Wasser.
Und Gott sprach: Es werde Licht! Und es ward Licht! Und Gott sah,
daß das Licht gut war. Da schied Gott das Licht von der Finsternis und
nannte das Licht Tag und die Finsternis Nacht. Da ward aus Abend und
Morgen der erste Tag.
(1. Mose, 1,1-5)
zu II.
Feld der Philosophie nach Kant:
1) Was kann ich wissen? – Metaphysik
2) Was soll ich tun?
– Moral
3) Was darf ich hoffen?
– Religion
4) Was ist der Mensch?
– Anthropologie
2
1
EINFÜHRUNG
zu III.
A) mechanistisch
B) relativistisch
Bei gleichwertigen Theorien ist die vorzuziehen, die einfacher ist.
(”Ockhams Rasiermesser”)
Ockham (um 1319):
”non sunt multiplicanda enter praeter necessitatem”.
1.2
Historischer Abriß
I. Makrokosmos
Bibel (frühe Bücher 900 – 700): Erde – Scheibe in Weltmitte
Aristoteles (um 340 v.u.Z.): Erde – Kugel, um die Sonne, Mond, Planeten und Sterne kreisen
Ptolomäus (140): auf dieser Grundlage vollständiges geozentrisches
kosmologisches Modell
Kopernikus (1514): Erde und Planeten umkreisen Sonne
Bruno (1584): Unendliches Weltall
Galilei (1609): Entdeckung der Jupitermonde mit Fernrohr
Kepler (1609/1619): Annahme elliptischer Umlaufbahnen; Ursache: magnetische Anziehung
Newton: (1687) Philosophiae naturalis principia mathematica – allgemeine Bewegungsgleichungen und Gravitationsgesetz
Laplace (1796): Entstehung des Planetensystems
Einstein (1905/1916): Spezielle und Allgemeine Relativitätstheorie
Hubble (1924/1929): Entdeckung anderer Galaxien; ferne Galaxien bewegen sich von uns fort
Lemaitre (1927): Urknall-Hypothese
Penzias, Wilson (1964): Entdeckung der kosmischen Hintergrundstrahlung
II. Mikrokosmos
Demokrit (um 430 v.u.Z.): ”Atome” – kleinste, unteilbare Teilchen
Aristoteles (um 340 v.u.Z.): 4 Grundelemente (Erde, Luft, Feuer,
Wasser), 2 Kräfte (Schwerkraft, Auftrieb)
Huygens (1678): Wellentheorie des Lichts
Newton (1704): Optik – Korpuskulartheorie des Lichts
Dalton (1803): atomische Struktur der Materie, chemische Verbindun-
1.2
Historischer Abriß
3
gen aus Molekülen
Maxwell (1873): Theorie der elektromagnetischen Wellen
Thompson (1897): Elektron (Atom teilbar)
Planck (1900): Quantenphysik
Rutherford (1911): Atomkern
Schrödinger, Heisenberg, Bohr (1926/27): Quantenmechanik
(Wellen-Gleichung; Unschärferelation, Komplementarität)
Dirac (1928): Voraussage von Antiteilchen (1932: Positron entdeckt)
Chadwick (1932): Neutron
Hahn/Meitner (1938): Kernspaltung
Gell-Mann, Zweig (1964): Quarks
Bells (1966): Theorem der Nonlokalität (1982 experimentell bestätigt)
um 1970: Standardmodell der Teilchenphysik
III. Mathematik, Informatik
Euklid (295 v.u.Z): Elemente – klassische Geometrie
Archimedes (240 v.u.Z.): klassische Mechanik und Mathematik Gauss
(1824): nicht-euklidische Geometrie
Babbage (1835): Idee einer digitalen Rechenmaschine
Cantor (1883): Unendliche Mengen verschiedener Mächtigkeit
Gödel (1931): Unvollständigkeitstheorem
Turing (1937): Berechenbare Funktionen (Turing-Maschine)
ab 1946: Entwicklung elektronischer digitaler Computer
Lorenz (1963): Chaostheorie
Mandelbrot (1979): Fraktale
IV. Leben, Bewußtsein, Gesellschaft
Thales von Milet (600 v.u.Z): Begründung der Philosophie
312: Christentum wird römische Staatsreligion
R. Bacon (1247): Beginn der experimentellen Forschung
Kolumbus (1492): Entdeckung Amerikas
Simon (1678): Critical History of the Old Testament (erste Textkritik
der Bibel)
Lamettrie (1747): Der Mensch – eine Maschine
Watt (1769): Dampfmaschine (Grundlage für industrielle Revolution)
Kant (1781): Kritik der reinen Vernunft
1789: Beginn der Französischen Revolution
Darwin (1859): Der Ursprung der Arten – Evolutionstheorie
Mendel (1865): Theorie des genetischen Erbes
4
1
EINFÜHRUNG
Freud (ab 1900): Psychoanalyse
Ford (1913): Beginn der Massenfabrikation von Autos (Grundlage der
Konsumgesellschaft)
1945 Atombombenabwurf auf Hiroshima und Nagasaki
Watson, Crick (1953): Entdeckung der Struktur der DNS
1957/1961: erste Satelliten (Sputnik) und erste bemannte Raumflüge
1969: erste Mondlandung durch Astronauten
Lovelock (1969): Gaia-Hypothese
Meadows (1972): Die Grenzen des Wachstums
ab 1980: Entwicklung der Biotechnologie; Ausbreitung von Personalcomputern
ab 2000: Entschlüsselung des menschlichen Genoms
5
2
Makrokosmos
2.1
Spezielle Relativitätstheorie
2.1.1
Relativitätsprinzip
1. Konflikt: Läßt sich Lichtstrahl einholen?
Newton: ja ⇔ Maxwell: nein
Lösung:
Einstein (1905) – Spezielle Relativitätstheorie (SRT)
Minkowski (1908)– zugehöriges mathematisches Kalkül
(Metrik, Raumzeitdiagramm, Lorentz-Transformation)
Physikalische Grundlagen
Beschreibung physikalischer Vorgänge erfordert Bezugssystem.
Bahn eines Teilchens in kartesischen Koordinaten:
x = x(t), y = y(t), z = z(t),
t ∈ [t0 , t1 ]
In bestimmten Bezugssystemen, sogenannten Inertialsystemen (IS), erscheinen physikalische Vorgänge einfacher. IS bewegen sich relativ zum
Fixsternhimmel mit konstanter Geschwindigkeit.
Relativitätsprinzip (Galilei): Alle IS sind gleichwertig, das heißt,
physikalische Gesetze sind invariant gegenüber Transformationen, die
ein Inertialsystem IS in ein anderes IS’ überführen.
Lichtgeschwindigkeit
Im Vakuum: c = 2, 99792458 · 108 m/s ≈ 3 · 108 m/s
Die Lorentz-Transformation
Betrachten die Koordinatensysteme S (ruhend) und S 0 (bewegt in Richtung der positiven x-Achse mit konstanter System-Geschwindigkeit vS ).
Voraussetzungen: Es gilt das Einsteinsche Relativitätsprinzip.
I) Gleichwertigkeit aller Koordinatensysteme
II) Konstanz der Lichtgeschwindigkeit c in allen Systemen
x = a11 x0
t = a21 x0
+ a12 t0
+ a22 t0
Bestimmung von a11 , a12 , a21 , a22 :
6
2
MAKROKOSMOS
1. Nullpunkt des Koordinatensystems S bewegt sich im Koordinatensystems S 0 mit Geschwindigkeit −vS (nach links).
a11 x0 + a12 t0 = 0
x0 = −
→
a12 0
t
a11
→
vS =
a12
a11
Folglich
x = a11 (x0 + vS t0 )
(+)
2. Austausch der Systeme S und S 0 (d.h. x ↔ x0 ; t ↔ t0 ) darf nach I)
zu keiner Änderung der Transformation führen. Aus (+) folgt daher:
t=
a211 − 1 0
x + a11 t0
a11 vS
(Nachrechnen!)
3. Somit
0
a11 xt0 + vS
x
= a2 −1 0
x
t
11
0 + a11
a11 vS t
mit aufgrund II)
x0
x
= 0 =c
t
t
→
1
a11 = q
1−
(Nachrechnen!)
vS 2
c
Lorentz-Transformation
1
0
0
x= q
(x + vS t ),
vS 2
1− c
1
t= q
1−
v
vS 2
c
S 0
x
c2
+ t0
(1)
(2)
bzw.
1
x0 = q
1−
(x − vS t),
vS 2
c
1
t0 = q
1−
v
S
x
+
t
−
c2
vS 2
c
2.1
Spezielle Relativitätstheorie
7
sowie
y = y0 ,
z = z0
Addition der Geschwindigkeiten
v=
v 0 + vS
0
1 + vSc2v
(3)
Minkowski-Raum mit Metrik (Wegelement = Abstand zwischen 2
Punkten):
ds2 = c2 dt2 − d~r 2
mit d~r 2 = dx2 + dy 2 + dz 2 .
(4)
Für ds2 > 0 zeitartige Ereignisse: kausaler Zusammenhang möglich
Für ds2 = 0 lichtartige Ereignisse: Zusammenhang nur durch Lichtstrahl
möglich
Für ds2 < 0 raumartige Ereignisse: akausaler Zusammenhang
2.1.2
Relativistische Effekte
I. Zeitdilatation (relativistische Zeitdehnung)
s
2
Zt1
v(t)
0
dt
1−
t =
c
(5)
t0
(Eigenzeit)
II. Relativität der Gleichzeitigkeit
Gedankenexperiment: Lichtquelle in der Mitte M zwischen Punkten A
und B in Zug mit v = const; Zug erreicht Punkte A0 , B 0
– Beobachter im Zug: Licht trifft gleichzeitig in A und B ein
– Beobachter außerhalb: Licht trifft eher in A als in B ein (|M A0 | <
|M B 0 |)
Beide Beobachter haben recht!
III. Längenkontraktion
r
0
l =
1−
v 2
c
l.
(6)
8
2
MAKROKOSMOS
Beispiel: Elektrischer Leiter (Draht)
Ruhender Beobachter (Ion)
Draht elektrisch neutral
(Anzahl Elektronen = Ionen):
kein elektrisches Feld
bewegte Elektronen erzeugen
magnetisches Feld
Bewegter Beobachter (Elektron)
Wegen Längenkontraktion Ionen
dichter – mehr positive Ladungen:
elektrisches Feld
Beobachter ruht gegenüber
Elektronen: kein magnetisches Feld
Ergebnis abhängig vom Beobachter!
IV. Doppler-Effekt
Entfernen sich Quelle (Sender) und Beobachter (Empfänger) voneinander mit der Relativgeschwindigkeit v, dann gilt für die Frequenz der
Quelle fQ und die Frequenz beim Beobachter fB [s−1 ] die Beziehung
s
1 + v/c
fB = fQ /k mit k =
> 1.
(7)
1 − v/c
Bei der Annäherung gilt
fB = kfQ .
V. Äquivalenz von Masse und Energie
Eine in S 0 anfänglich ruhende Masse (v 0 = 0) wird durch kurzzeitiges
Einwirken einer Kraft F beschleunigt (vS = v):
S0 :
0 → dv 0
S:
v → v + dv
Aus dem Additionstheorem der Geschwindigkeiten folgt:
dv 0 =
dv
1−
,
v 2
c
woraus sich mit dem Newtonschen Grundgesetz sowie der Zeitdilatation
ergibt:
m0
dv
F =
v 2 3/2 dt
1−
c
2.2
Allgemeine Relativitätstheorie
9
mit der Ruhmasse m0 .
Daraus folgt die relativistische Masse
m0
v 2 .
1−
c
m= r
Energie:
Energiezuwachs durch die Leistung, die zum Beschleunigen notwendig:
Z
E = P dt
mit P = F · v
Daher
m0 c2
v 2
1−
c
E=r
2.2
2.2.1
(8)
Allgemeine Relativitätstheorie
Bezugssysteme
Newtonsches Gravitationsgesetz (”wie”):
Für N Massepunkte ergibt sich Anziehung durch Gravitation
mi
N
X
mi mj (~
ri − r~j )
d2 r~i
=
−G
,
2
dt
|~
ri − r~j |3
j=1
(9)
wobei
r~i (t) – Ort des i-ten Körpers zur Zeit t, mi – dessen Masse,
G – Gravitationskonstante: G = (6, 67259 ± 0, 00085) · 10−11 m3 kg−1 s−2 .
2. Konflikt: Breitet sich die Gravitation augenblicklich aus?
Newton: ja ⇐⇒ Einstein (SRT): nein
Einstein: Einbeziehung von Bezugssystemen (KS) mit Gravitation =
beschleunigte KS
. Allgemeine Relativitätstheorie (ART) 1916
10
2
MAKROKOSMOS
Für Verallgemeinerung ist andere Schreibweise von (9) vorteilhaft. Man
führt ein das Gravitationspotential
Z
X mj
ρ(r~0 )
dV,
Φ(~r) = −G
= −G
|~r − r~j |
|~r − r~0 |
j
(V )
wobei im letzten Ausdruck über die Beiträge dm = ρ(r~0 ) dV der Massendichte ρ summiert wurde. Für den Bahnvektor des i-ten Massepunkts
~r = ~r(t) := ~ri (t) ergibt sich dann
m
d2~r
= −m∇Φ(~r).
dt2
(10)
Die Bewegungsgleichung (10) in Newtons Theorie beschreibt die Bewegung eines Teilchens.
Weiterhin gilt
∆Φ(~r) = 4πGρ(~r).
(11)
Die Feldgleichung (11) in Newtons Theorie beschreibt Gravitationsfeld
Φ(~r), das durch Masse aller Teilchen mit der Massendichte ρ(~r) auf der
rechten Seite bestimmt wird.
2.2.2
Äquivalenzprinzip
Äquivalenz von Gravitationskräften und Trägheitskräften =⇒ Gravitationskräfte lassen sich durch Übergang in ein geeignetes Koordinatensystem eliminieren (ortsabhängige ”krummlinige” Koordinaten).
Einsteinsches Äquivalenzprinzip: In einem Graviationsfeld kann in
jedem Weltpunkt ein lokales Koordinatensystem (KS) gewählt werden,
in dem die physikalischen Gesetze der SRT gelten.
Ein derartiges KS heißt Lokales IS (6= IS). Insbesondere ist ein die Erde
umkreisendes Satellitenlabor ein solches Lokales IS (Gravitations- und
Trägheitskräfte heben sich auf).
Allgemeines Schema
SRT-Gesetz
ohne Gravitati- Koordinatentransformation
on
Relativistisches Gesetz
mit Gravitation
2.2
Allgemeine Relativitätstheorie
11
Transformation hinterläßt ”Spuren” in dem betrachteten Gesetz
=
b mathematische Beschreibung des Gravitationsfeldes
Für kompliziertere Beziehungen ist dieses Vorgehen unpraktikabel. Einstein wählte eine andere Methode. Die bekannten Gesetze der SRT
sollten auf den Fall der Gravitation so übertragen werden, daß sie ihre
Form dabei nicht veränderten (Kovarianzprinzip). Im nichtrelativistischen Grenzfall mußten sich zudem die Newtonschen Gleichungen ergeben.
Dazu mußten ein neuer Raum (Riemannscher Raum), neue physikalische
Größen (Riemann-Tensoren – eine Art verallgemeinerte Vektoren) und
sogenannte kovariante Ableitungen eingeführt werden.
Riemannscher Raum: Raum mit dem Wegelement (Metrik)
ds2 =
N
X
gik (x1 , . . . , xN ) dxi dxk = gik (x) dxi dxk .
i,k=1
Dabei sind xi beliebige (krummlinige) Koordinaten. Die metrischen Koeffizienten gik (x) seien differenzierbar. Außerdem gelte gik = gki und
det(gik ) 6= 0.
Nachfolgend gelte die Einsteinsche Summenkonvention, d.h. über gleiche
Indizes, von denen einer hoch und einer tief gestellt ist, wird summiert.
Es werden nur Transformationen betrachtet, die das Wegelement invariant lassen (”Längentreue”).
Wir betrachten ein globales KS mit Koordinaten xµ und der Metrik
gµν (x) (µ, ν = 0, 1, 2, 3). Im Punkt P existiert eine Transformation ξPα (x) =:
ξ α = ξ α (x0 , x1 , x2 , x3 ) zwischen den Koordinaten des Minkowski-Raums
(Satellitenlabor) ξ α und xµ .
Wegen der Invarianz des Wegelements ds2 gilt
∂ξ α ∂ξ β µ ν
dx dx = gµν dxµ dxν .
∂xµ ∂xν
Hieraus erhält man die metrischen Koeffizienten
ds2 = ηαβ dξ α dξ β = ηαβ
∂ξ α ∂ξ β
.
∂xµ ∂xν
gµν bilden den sogenannten metrischen Tensor. Tensoren sind indizierte
Größen, die sich koordinatenweise wie Koordinatendifferentiale transformieren.
gµν = ηαβ
12
2
MAKROKOSMOS
Der Raum ist eben (Euklidischer bzw. Minkowski-Raum) ⇐⇒
Krümmungstensor Rm ikp = 0
(unabhängig von gewählter Koordinatentransformation)
Andernfalls ist der Raum gekrümmt.
Der Krümmungstensor berechnet sich folgendermaßen
Rm ikp =
∂Γm
∂Γm
ip
r m
ik
−
+ Γrik Γm
rp − Γip Γrk
p
∂x
∂xk
mit den sogenannten Christoffelsymbolen
g κν ∂gµν
∂gλν
∂gµλ
Γκλµ =
+
−
,
2
∂xλ
∂xµ
∂xν
wobei (g µν ) inverse Matrix zu (gµν ). Der Krümmungstensor ist der einzige Tensor, der aus dem metrischen Tensor und seinen ersten und zweiten
Ableitungen gebildet werden kann.
Allgemeines Prinzip zur Aufstellung physikalischer Gesetze
• Das Gesetz ist forminvariant (kovariant) unter bestimmten Transformationen. Dieser Forderung liegt eine physikalische Symmetrieannahme
zugrunde.
• Die Gleichung ist richtig in einem bekannten Grenzfall, der durch die
zugehörige Transformationen mit dem allgemeinen Fall verbunden ist.
Symmetrieprinzip Transformation
Grenzfall
Isotropie des
Orthogonale
KS mit spezieller
Raums
Transformationen
Achsen-Orientierung
Relativität
LorentzMomentanes
der Raum-Zeit
Transformationen
Ruhsystem
ÄquivalenzAllgemeine Koordina- Lokales
prinzip
tentransformationen
Inertialsystem
Die Gesetze der SRT sind invariant unter der Lorentz-Transformation,
sie behalten ihre Form und Aussage in allen IS (unabhängig von ~v ). In
der ART trifft das nur für die Form zu, da beschleunigte KS physikalisch
nicht gleichwertig zu Lokalen IS sind. Die Forminvarianz folgt aus dem
Kovarianzprinzip:
Gesetze im Gravitationsfeld gµν (x) sind kovariante Gleichungen, die sich
ohne Gravitationsfeld (für gµν = ηµν ) auf die Gesetze der SRT reduzieren.
2.2
Allgemeine Relativitätstheorie
2.2.3
13
Einsteinsche Feldgleichungen
Zur Bestimmung des Gravitationsfeldes werden die Feldgleichungen der
ART benötigt. Diese können nicht mit Hilfe des Kovarianzprinzips hergeleitet werden, da es in Lokalen IS wegen der fehlenden Gravitation
keine Feldgleichung gibt. Einstein ging bei der Herleitung von folgenden Forderungen aus:
• Newtonsche Feldgleichungen (11), die durch Beobachtungen im Sonnensystem gut bestätigt wurden, müssen sich als Grenzfall ergeben, d.h.
für schwache, stationäre Felder
• Gleichungen sollen dieselbe Form für beliebige Koordinatensysteme
besitzen =⇒ Riemann-Tensor
• Gleichungen sollen möglichst einfach sein: In Analogie zu bekannten
Gleichungen der Elektrodynamik soll der gesuchte Riemann-Tensor nur
aus den ersten und zweiten Ableitungen des metrischen Tensors gµν gebildet werden und quadratisch bzw. linear in diesen Ableitungen sein.
Aus diesen Forderungen leitete Einstein die Feldgleichungen her:
Gµν =
8πG
Tµν
c4
(12)
Dabei
Gµν = −(Rµν −
Rµν = Rλ µλν ,
R
gµν ),
2
R = g µν Rµν ,
Tµν = gµλ gνκ T λκ ,
P
λκ
T = ρ + 2 uλ uκ − g λκ P
c
Energie-Impuls-Tensor,
wobei P – Eigendruck, ρ – Massendichte, um (Vierer)-Geschwindigkeit.
Interpretation: Körper wie die Erde werden nicht durch eine Kraft (”Gravitation”) auf gekrümmten Bahnen bewegt, sondern alle Körper bewegen
sich auf geodätischen Linien (kürzeste Verbindung). Die Masse der Sonne
krümmt die Raumzeit so, daß die Erde im dreidimensionalen Raum einer
kreisförmigen Umlaufbahn folgt.
14
2
MAKROKOSMOS
Verallgemeinerung von (12) mit linearem Zusatzterm in gµν
R
8πG
gµν + Λgµν = − 4 Tµν
2
c
mit Λ – kosmologische Konstante.
Für den Newtonschen Grenzfall ergibt (13)
Rµν −
∆Φ = 4πGρ +
c2
Λ.
2
(13)
(14)
Die rechte Seite von (14) läßt sich schreiben 4πG(ρ + ρvak ) mit
ρvak c2 =
c4
Λ
8πG
Energiedichte des Vakuums.
Der Zusatzterm in (14) muß so klein sein, daß er nicht im Widerspruch
zur empirischen Verifikation der Newtonschen Feldgleichungen im Sonnenssytem steht.
2.2.4
Schwarzschildmetrik
Möglichkeiten zur Lösung der Feldgleichungen:
1) Exakte Lösung unter vereinfachenden Annahmen (z.B. Isotropie und
Zeitunabhängigkeit)
2) Lösung der linearisierten Feldgleichungen für schwache Felder
3) Post-Newtonsche Näherung der Feld- und Bewegungsgleichungen für
schwache Felder und langsam bewegte Teilchen (d.h. nächste Näherung
nach der Newtonschen Näherung)
Betrachten nur Fall 1):
Annahme: Es besteht eine statische, sphärische (=
b isotrope) und begrenzte Masseverteilung mit
6= 0,
r ≤ r0
ρ=
(15)
0,
r > r0
Der Druck P (r) innerhalb der Massenverteilung soll ebenfalls die Form
(15) haben.
Daraus ergibt sich als Wegelement die Schwarzschildmetrik (SM):
rS 2 2
dr2
ds2 = 1 −
c dt −
− r2 (dϑ2 + sin2 ϑ dϕ2 )
(16)
r
1 − rS /r
2.2
Allgemeine Relativitätstheorie
15
Dabei
rS =
2GM
c2
Schwarzschildradius
(17)
Eigenzeit
Für die Eigenzeit τ in einem statischen Gravitationsfeld gilt
dsU hr
1 p
dτ =
gµν dxµ dxν
=
c
c
U hr
2.2.5
Tests der ART
1. Gravitationsrotverschiebung
Eine bei ~rQ ruhende Quelle sende eine monochromatische elektromagnetische Welle mit der Frequenz fQ und der Wellenlänge λQ aus, die in ~rB
von einem Beobachter mit fB bzw. λB empfangen wird. In Folge der
Gravitation kommt es zu einer relativen Frequenzänderung z
s
fQ − fB
g00 (~rB )
λB
z :=
=
−1=
− 1.
(18)
fB
λQ
g00 (~rQ )
Wegen z > 0, ist λB > λQ , d.h. im sichtbaren Spektrum gibt es eine
Verschiebung zum roten Ende.
Für schwache, statische Felder ergibt sich daraus
z=
Φ(~rB ) − Φ(~rQ )
,
c2
|Φ| c2 .
Bei kugelsymmetrischer Masseverteilung gilt
Φ(r) = −
GM
r
(r > R),
wobei M die Gesamtmasse innerhalb des Kugelradius R, r Abstand zum
Zentrum.
16
2
MAKROKOSMOS
Potential an der Oberfläche einiger Sterntypen
(absolute Stärke des Gravitationsfelds)
Sterntyp
|Φ|/c2
Erde
7 · 10−10
Sonne
2 · 10−6
Weißer Zwerg
∼ 1, 5 · 10−4
Neutronenstern (Pulsar) ∼ 1, 5 · 10−1
2. Lichtablenkung
Im Gravitationsfeld der Sonne wird Licht abgelenkt um den Winkel
∆φ =
rS,
(1 + γ) ≈ 1, 7500 ,
r0
wobei r0 ≈ R minimaler Abstand von der Sonne und γ = 1 (laut ART).
3. Periheldrehung
Die Bahnkurve eines Planeten um die Sonne ist nach der Newtonschen
Theorie eine Ellipse. Eine Störung des 1/r-Potentials (Einfluß anderer
Planeten, relativistische Effekte) führt in der Regel zu einer Abweichung
von der geschlossenen Ellipsenbahn. Wenn die Abweichung klein ist, kann
sie als Drehung der Ellipse beschrieben werden. Experimentell wird sie
als Winkeländerung des sonnennächsten Bahnpunkts, des Perihels, beobachtet.
4. Gravitationswellen
Beschleunigte Massen strahlen Gravitationswellen ab. Die auf der Erde
eintreffenden Gravitationswellen konnten bisher nicht direkt nachgewiesen werden. Indirekt konnte die Gravitationsstrahlung über die Abbremsung des Doppelsternsystems PSR 1913+16 bestätigt werden.
Fazit
Alle experimentellen Ergebnisse bestätigen im Rahmen der Meßgenauigkeit die Voraussetzungen und Vorhersagen der ART. Das Einsteinsche
Äquivalenzprinzip ist zumindest zu 99, 999 999 999%, die Einsteinsche
Feldtheorie zu 99, 9% richtig.
2.3
Sterne
2.3
2.3.1
17
Sterne
Sternmodelle
>
Sterne im engeren Sinne haben mindestens Sonnenmasse: M ∼ M .
Ein Stern entsteht aus einer Gaswolke Wasserstoff, die sich durch Gravitation zusammenzieht. Die Gravitationsenergie heizt den Stern auf.
Wenn die Masse hinreichend groß ist, steigen Druck und Temperatur
derart, daß Kernfusion einsetzt: durch Materiedruck des heißen Plasmas
Sterngleichgewicht.
Je schwerer ein Stern, desto schneller verbraucht er seinen Brennstoff.
I. Nichtrelativistische Sterne (Masse M ≈ M )
Aus dem Sterngleichgewicht kann man eine Differentialgleichung mit
dem Druck P und dem Abstand r vom Zentrum herleiten.
Speziell für ρ(r) = ρ0 = const, r ≤ R (R – Sternradius) erhält man
dP
4π
= − Gρ20 r.
dr
3
(19)
Die Randbedingungen lauten P (0) = P0 (Druck im Zentrum des Sterns)
und P (R) = 0 (keine Materie für r > R).
Integration der Differentialgleichung (19) ergibt
2π 2 2
Gρ0 r + P0 .
3
Aus der 2. Randbedingung erhält man schließlich
P (r) = −
2π 2 2
rS
Gρ0 R = ρ0 c2
.
(20)
3
4R
Zur Abschätzung der Größenordnung verwendet man dieses Ergebnis
auch für nichtkonstante Dichte
P
rS
(21)
∼ 2
4R
ρc
P0 =
mit der mittleren Dichte ρ und dem mittleren Druck P .
Beispiel Sonne: ”normaler” Stern
Der Gasdruck läßt sich durch das ideale Gasgesetz beschreiben:
rS
P
PV
kB T
≈ 2 =
=
∼ 10−6
4R
ρc
mc2
mc2
(22)
18
2
MAKROKOSMOS
II. Relativistische Sterne
Relativistischer Stern: Gravitationsfeld so stark, daß relativistische
Effekte wichtig sind.
Wir betrachten sphärischen Stern mit homogener Massendichte ρ0
ρ0 ,
r≤R
ρ(r) =
0,
r>R
Das bedeutet, die Dichte ist unabhängig vom Druck, die Materie also
inkompressibel.
Daraus ergibt sich die innere Schwarzschildmetrik:
ds2 = B(r)c2 dt2 − A(r)dr2 − r2 (dϑ2 + sin2 ϑ dϕ2 )
(23)
mit
−1
rS r 2
,
(r ≤ R)
A(r) = 1 − 3
R
" r
#2
r
1
rS
rS r 2
,
B(r) =
3 1−
− 1− 3
4
R
R
(r ≤ R).
Dann erhält man für den Druck P (r) innerhalb des Sterns
r
r
rS r 2
rS
1− 3 − 1−
R
R
r
P (r) = ρ0 c2 r
,
(r ≤ R).
rS
rS r 2
3 1−
− 1− 3
R
R
(24)
Stabilität
Aus (24) folgt, daß der Gravitationsdruck P0 im Zentrum des Sterns
maximal wird und zwar
r
rS
1− 1−
R
P0 = P (0) = ρ0 c2 r
.
(25)
rS
3 1−
−1
R
Für einen hinreichend kompakten Stern folgt
P0 → ∞ für R → (9/8)rS ,
2.3
Sterne
19
d.h. es ist kein Gleichgewicht möglich und jede reale Materie kollabiert.
Ein Gleichgewicht ist nur möglich für
R>
2.3.2
9
rS
8
Stabilitätsbedingung
(26)
Weiße Zwerge und Neutronensterne
A) Weißer Zwerg
Nach Beendigung der Kernfusion(en) kühlt Stern durch Abstrahlung ab:
T → 0.
Aber: Atomhüllen halten Gravitation nicht stand und werden zerstört,
es entsteht ein sogenanntes Fermigas aus Elektronen.
Grenzmasse eines Weißen Zwerges
Wir betrachten Stern mit Volumen V und N Elektronen.
Wegen Unschärferelation gilt für den Elektronenimpuls p
p∼
h̄
(V /N )1/3
(27)
mit h̄ – Plancksches Wirkungsquantum.
Druckgleichgewicht ist äquivalent minimaler Energie:
Ein stabiles Sterngleichgewicht tritt ein, wenn
E(R) = Egrav (R) + Emat (R) = min!,
wobei R – Sternradius. Dabei gilt für die potentielle Energie der Gravitation
Egrav ≈ −
GM 2
R
mit der Gesamtmasse M . Da auf jedes Elektron etwa 2 Nukleonen mit
der Masse mn kommen, folgt M ≈ 2N mn .
Für die kinetische Energie aller Elektronen ergibt sich, falls p me c,
(me – Masse eines Elektrons) [relativistischer Fall]
Emat = Ekin ≈ N cp ≈
N 4/3 h̄c
.
R
Anmerkung: Es läßt sich zeigen, daß im nichtrelativistischen Fall aus
wachsendem M folgt, daß auch p wächst, d.h. der nichtrelativistische
20
2
MAKROKOSMOS
geht in den relativistischen Fall über.
Folglich
E(R) = −
GM 2
N 4/3 h̄c
+
.
R
R
(28)
Damit kein Kollaps eintritt, muß gelten
M < mn
h̄c
Gm2n
3/2
.
Die Masse
MC = mn
h̄c
Gm2n
3/2
≈ 1, 8M
(29)
heißt Chandrasekhar-Grenzmasse.
h̄c
Dabei ist
∼ 1040 das Verhältnis zwischen starker Wechselwirkung
Gm2n
und Gravitationswechselwirkung.
Massendichte eines Weißen Zwerges:
ρC ≈ 2mn
N
mn
mn
kg
∼
∼
= 3 · 1010 3
V
(h̄/p)3
(h̄/(me c))3
m
kg
Exakter Wert: 2 · 109 m3 .
B) Neutronenstern
Falls kinetische Energie
>
(m2e c4 + c2 p2 )1/2 − me c2 ∼ 1, 5me c2 ,
kommt es zur Reaktion
p + e− −→ n + νe ,
wobei
p
e−
n
νe
Proton
Elektron
Neutron
Neutrino.
(30)
2.3
Sterne
21
Da Anzahl der Elektronen = Anzahl der Protonen, entsteht ein Stern
aus Neutronen (Fermigas).
Analog oben
ρC ∼
kg
mn
= 3 · 1020 3
(h̄/(mn c))3
m
kg
Exakter Wert: 6 · 1018 m3 .
Aus denselben Gründen wie beim Weißen Zwerg ergibt sich wieder eine
Grenzmasse MC (Oppenheimer-Volkoff- Grenzmasse) von der gleichen
Größenordnung wie die Chandrasekhar-Grenzmasse, weil diese nicht von
der Elektronenmasse abhängt.
Der Zusammenbruch des Fermidruck durch (30) führt zu einem Gravitationskollaps, bei dem schließlich große Massenanteile explosionsartig
abgestoßen werden. Dabei bleibt im Zentrum des Kollapses ein Neutronenstern mit M < MC zurück.
2.3.3
Schwarze Löcher
Kritische Dichte ρkr für Entstehung eines Schwarzen Lochs:
2
M
19 kg
ρkr ≈ 2 · 10
m3 M
Anmerkung: Auch gewöhnliche Dichten können zu Schwarzem Loch führen, wenn die Massenansammlung hinreichend groß ist.
Annäherung eines Teilchens an Schwarzes Loch: r → rS
Dauer
Grenze
r = rS
außenstehender Beobachter
unendlich
physikalisch ausgezeichnet:
asymptotische Annäherung
(unendliche Rotverschiebung!)
keine Information aus r ≤ rS ,
d.h. r = rS Horizont
mitbewegter Beobachter
endlich
keine Besonderheit
(Raum nicht singulär)
Beobachter erlebt
Ereignisse r ≤ rS
Weiterhin sind theoretisch möglich Weiße Löcher – inverse Eigenschaften
zu Schwarzen Löchern (”kosmische Geysire”).
In Nähe der Singularität möglich: Wurmlöcher – Verbindung in andere
Regionen der Raumzeit.
22
2
MAKROKOSMOS
No-Hair-Theorem: Schwarze Löcher werden nur durch Masse M , Drehimpuls L und Ladung Q bestimmt [Wheeler (1965)].
Folgerung: Informationsverlust über ursprüngliche Materie
Für M 6= 0, L = 0 gilt die innere Schwarzschildmetrik (SM), für L 6= 0
die Kerr-Metrik. Für nicht zu großes L liefert sie wie die SM eine geschlossene Fläche als Ereignishorizont, d.h. die Singularität wird abgeschirmt. Theoretisch möglich erscheinen auch nichtabgeschirmte (nackte)
Singularitäten, die problematisch sind: Verbot durch ”kosmischen Zensor” postuliert [Penrose (1969)].
Hawking-Effekt (1974): Masseverlust durch Strahlung mit Temperatur:
TS ≈
M −6
10 K.
M
Wegen TS > 0 haben Schwarze Löcher Entropie = Fläche des Ereignishorizontes [Bekenstein].
2.3.4
Sternentwicklung
Interstellare Wolke aus Gas (vorwiegend Wasserstoff) und Staub –
Durchmesser ca. 30 Lichtjahre – wird nach gravitativem Kollaps zum
Protostern.
Aufheizung auf 106 K führt zu thermonuklearer Reaktion – Stern:
Massendefekt bei Heliumsynthese wird als nahezu reine Energie in Form
von Gammastrahlen, Positronen und Neutrinos umgesetzt. Energie diffundiert langsam nach außen, wobei sie sich zu harmlosem gelben Licht
abschwächt.
In massereichen Sternen erfolgt die Nukleosynthese bis zum Eisen.
Sterbende Sterne
In Abhängigkeit von Masse enden Sterne als Weißer Zwerg, Neutronenstern oder Schwarzes Loch. Dabei können sich unter Umständen Supernovas ereignen.
Supernova-Typ-II: Bildung von Neutronensternen (mit Freisetzung von
Neutrinos); äußere Hülle des Sterns explodiert als Supernova. Aus Energieüberschuß Synthese von Elementen schwerer als Eisen; Sternhülle aus
C, O, Fe usw. wird in Raum mit mächtiger Druckwelle ausgestoßen –
Rohstoff für neue Sterne.
2.4
Kosmologische Modelle
23
Supernova-Typ-I: Weißer Zwerg sammelt Materie von nahem Begleitstern und wird instabil: Implosion führt zu explosionsartigen Kernreaktionen.
2.4
Kosmologische Modelle
2.4.1
Kosmologisches Prinzip
Aus dem kosmologischen Prinzip ergibt sich die Robertson-WalkerMetrik (RWM):
2
2
2
2
ds = c dt − R(t)
dr2
2
2
2
2
+ r (dϑ + sin ϑ dϕ ) ,
1 − kr2
(31)
wobei
k – Krümmung des Raums
R(t) – kosmischer Skalenfaktor.
Dabei 3 Möglichkeiten

3-Sphäre – geschlossener Kosmos
 1
0
Euklidischer Raum – offen
k=

−1
3-Pseudosphäre– offen
Für k = ±1: R(t) – Krümmungsradius des Kosmos.
Effekte der Krümmung (n = 2)
Kreis: Geometrischer Ort aller Punkte, die den gleichen Abstand D von
einem gegebenen Punkt M0 in vorliegender Metrik haben.
Dann gilt für den Umfang U

Ebene
 = 2π für k = 0
U
< 2π für k = 1
Kugeloberfläche
=
D 
> 2π für k = −1 Pseudosphäre.
Die Krümmung ist eine innere Eigenschaft einer Fläche, d.h. sie ist durch
Messung auf der Fläche berechenbar.
Analoges gilt auch für den Fall n = 3. Die direkte Bestimmung der
Krümmung des Universums konnte wegen vieler konträrer Effekte bisher
nicht realisiert werden.
24
2
MAKROKOSMOS
Anmerkung: Für k = 1 ist der Rauminhalt V endlich, der Raum aber
unbegrenzt:
V = 2π 2 R(t)3 .
Mit Hilfe der Substitution

(k = 1)
 sin χ
χ
(k = 0)
r = f (χ) =

sinh χ (k = −1)
läßt sich die RWM-Metrik (31) transformieren zu
ds2 = c2 dt2 − R(t)2 dχ2 + f (χ)2 (dϑ2 + sin2 ϑ dϕ2 ) .
(32)
Dabei
0≤χ≤π
für k = 1,
0 ≤ χ ≤ ∞ für k = 0; −1
Für den Abstand zwischen 2 Punkten (mit den Koordinaten χ = 0 und
χ = χ) gilt dann
D = R(t)χ.
2.4.2
Das Friedmann-Modell
Mit der RWM ist der metrische Tensor (und damit die linke Seite) in
den Einsteinschen Feldgleichungen festgelegt. Man betrachtet nun das
Universum im Mittel als kontinuierliche, ideale Flüssigkeit. Dadurch
läßt sich der Energie-Impuls-Tensor (rechte Seite in Feldgleichungen) in
Abhängigkeit von der Massendichte ρ und dem Druck P aufschreiben.
Für den Druck werden zwei Grenzfälle betrachtet
1) P = 0
inkohärente Materie,
d.h. Universum als inkohärente Ansammlung von Teilchen bei nichtrelativistischen Geschwindigkeiten mit der massedominierten Massendichte
ρmat oder
2) P =
ρc2
3
Strahlungsdominanz,
2.4
Kosmologische Modelle
25
gültig bei elektromagnetischer Strahlung und (näherungsweise) hochrelativistischen Teilchen mit strahlungsdominierter Massendichte ρstr –
typisch für den frühen Kosmos.
Falls Strahlung und Materie nicht wechselwirken oder eine der Dichten ρmat , ρstr (ρ = ρmat + ρstr ) vernachlässigt werden kann, erhält
man schließlich aus den Feldgleichungen das sogenannte FriedmannModell:
Ṙ2 −
Km
1
Ks
−
− ΛR2 = −k
R2
R
3
(33)
Dabei
Ṙ =
dR
d(ct)
Km =
Ks =
8πG
ρmat R3 = const
3c2
8πG
ρstr R4 = const
3c2
sowie Λ – kosmologische Konstante.
(33) läßt sich auch schreiben:
Ṙ2 + V (R) = −k
mit dem effektiven Potential
V (R) = −
Km
1
Ks
−
− ΛR2
R2
R
3
(34)
Für materiedominiertes Universum (Ks = 0) und Λ = 0 folgt aus (33):
2
M dR
GM 2
−
= −kM c2 /2 = const,
(35)
2
dt
R
wobei M = (4π/3)ρmat R3 = const (Masseerhaltung).
Diskussion des Friedmann-Modells (Weltmodell)
R(t) legt Dynamik der Massenverteilung und des Gravitationsfelds (also
auch die Metrik) des Kosmos fest. Verschiedene konkrete Modelle aus
26
2
MAKROKOSMOS
(33) sind möglich in Abhängigkeit von k, Λ, Km , Ks sowie den Anfangsbedingungen R(0), Ṙ(0).
Lösungsverhalten für R → 0
lim Ṙ = ∞
lim R = 0,
t→0
R→0
Realistisch: Ks 6= 0, d.h. R(t) ∼ t1/2 für R → 0. Falls Ks /R2 > Km /R,
d.h. ρstr > ρmat : Strahlungsdominanz – nur kurze Zeit: etwa von t = 0
bis t = 10−6 t0 , wobei t0 heutiges Weltalter.
Lösungsverhalten für t 0
k
−1
0
1
Λ
<0
Kontraktion
Kontraktion
Kontraktion
0
konstante Expansion Expansion → 0
Kontraktion
Λkr
Expansion1)
Expansion1)
statisch2)
1)
1)
0<Λ
Expansion
Expansion
Expansion oder
< Λkr
Kontraktion
> Λkr
Expansion1)
Expansion1)
Expansion1)
1)
2)
abgebremst in der Nähe des Maximums von V (R)
instabil
Anmerkung: Wegen der möglichen statischen Lösung wurde von Einstein die
kosmologische Konstante Λ eingeführt. Der entsprechende kritische Wert ergibt sich aus dV /dR = 0 und V = −k = −1 (unter Annahme von Ks ≈ 0 –
heutiges Universum) mit
R = Rstat = 3
2.4.3
Km
2
und
Λ = Λkr =
4
.
2
9Km
Expansion des Universums
Das Licht weit entfernter Galaxien (Quelle), das zum Zeitpunkt t = t ausgesandt wurde, wird heute (t = t0 ) aufgrund der Expansion des Universums von
einem Beobachter empfangen mit einer relativen Frequenzänderung
zkosm =
R(t0 )
fQ − fB
λB
λ0
=
− 1 =:
−1=
− 1.
fB
λQ
λ
R(t)
(36)
Der Wert zkosm wird kosmologische Rotverschiebung genannt.
Zur Auswertung von (36) entwickelt man R(t) in eine Taylorreihe um t = t0 :
h
R(t) = R(t0 ) 1 + H0 (t − t0 ) −
1
q0 H02 (t − t0 )2 + . . . ,
2
i
2.4
Kosmologische Modelle
27
wobei
H0 =
cṘ(t0 )
R(t0 )
q0 = −
Hubble-Konstante,
R̈(t0 )R(t0 )
Ṙ(t0 )2
(37)
Verzögerungsparameter.
Es wurden ermittelt
<
H0 = (87 ± 7) km s−1 Mpc−1 ,
<
0 ∼ q0 ∼ 1.
Wenn D = D(t0 ) den heutigen Abstand zwischen Quelle und Beobachter bezeichnet, erhält man die Rotverschiebungs-Abstands-Relation
zkosm ≈
(2 + q0 )H02 2
H0
D+
D ,
c
2c2
falls
H0 D/c < 1.
Für die Fluchtgeschwindigkeit vkosm zweier Galaxien mit dem (heutigen) Abstand D gilt die empirische Formel
vkosm = H0 D.
Für das heutige Universum mit t = t0 , R0 = R(t0 ) sowie Ks ≈ 0 erhält man
aus dem Friedmann-Modell (33) die Beziehung
−2q0 +
8πG
2 c2 Λ
ρ −
= 0.
2 0
3 H02
3H0
(38)
Da alle Terme in (38) dimensionslos sind, hat der Faktor bei ρ0 die Dimension
einer inversen Dichte. Man bezeichnet diese Dichte als kritische Massendichte:
ρkr,0
kg
3H02
≈ 4, 5 · 10−27 3
=
8πG
m
H0
50km s−1 Mpc−1
2
(39)
Dann folgt sofort aus (38) und (39)
Λ=
3H02
2c2
ρ0
ρkr,0
− 2q0
.
(40)
Weiterhin erhält man
k
H2
= 20
2
c
R0
3 ρ0
− q0 − 1 .
2 ρkr,0
(41)
28
2
MAKROKOSMOS
Fazit: Aus (gegenwärtigen) Daten ist keine eindeutige Bestimmung der Krümmung
k/R02 und der kosmologischen Konstante Λ möglich. Es gilt jedoch
k < H02
∼
,
R02 c2
<
|Λ| ∼
H02
,
c2
d.h. die Krümmung und die kosmologische Konstante sind klein.
Die kosmologische Konstante kann als Energiedichte des Vakuums interpretiert werden (vgl. 2.2.3). Dann erhält man mit der obigen Abschätzung die
experimentelle Schranke
|ρvac | =
2
1
kg
c2
< H0
|Λ| ∼
= ρkr,0 ≈ 10−27 3 .
8πG
8πG
3
m
Aus der Quantenfeldtheorie ergibt sich als ”natürliche” Skala für die Vakuumdichte
ρvac,nat =
mP
kg
≈ 5 · 1093 3 ,
3
m
lP
wobei mP – Planckmasse, lP – Plancklänge.
2.4.4
Weltzustand
Wir betrachten den Fall Ω0 = 1 und q0 = 1/2 bzw. wegen (40) und (41):
Λ = 0, k = 0 (Einstein-de-Sitter-Universum).
Aus dem Friedmann-Modell (33) erhält man daraus für t 0
R(t)
≈
R0
2/3
t
t0
.
(42)
Mit der Abschätzung (43) ergibt sich für das Weltalter t0
t0 =
2
.
3H0
(43)
Für den Welthorizont ergibt sich
D0 = 3ct0 ≈ 4 · 1010 Lj.
(44)
Daraus folgt für die Geschwindigkeit einer Galaxis im Abstand D0 (aufgrund
der Ausdehnung des Raumes):
v(D0 ) = 2c.
Wegen z → ∞ für D → D0 ist eine solche Galaxis nicht mehr sichtbar.
2.4
Kosmologische Modelle
29
Grundlegende Probleme
I. Flachheitsproblem
Zu früheren Zeiten ergibt sich für die Abweichung |Ω−1| ein sehr kleiner Wert.
Beispielsweise
|Ω − 1| ≤ 10−15
für t ∼ 1 s.
Für die Krümmung folgt daraus
2
k −15 H
2 ≤ 10
2
R
c
fr t ∼ 1 s
mit der Hubble-Konstanten H zum Zeitpunkt t, d.h.
H = H(t) =
cṘ(t)
.
R(t)
Kleine Krümmungen in der Frühzeit müßten heute zu großen Krümmungen
<
geführt haben. Deshalb ist die heutige (relative) Flachheit (|k/R02 | ∼ H02 /c2 )
des Universums ein Rätsel.
II. Horizontproblem
30
3
3
MIKROKOSMOS
Mikrokosmos
3.1
3.1.1
Einführung in die Quantenmechanik
Welle-Teilchen-Dualismus
A) Licht als Welle
Doppelspaltexperiment:
Wir nehmen (der Einfachheit halber) zwei kleine kreisförmige Öffnungen an.
Dann geht von jeder Öffnung eine Kugelwelle aus:
Aj (~r, t) = b exp(−iωt)
exp(ikrj )
rj
j = 1, 2,
wobei
ω
Kreisfrequenz: ω = 2πν = 2πc/λ
(ν Frequenz, λ Wellenlänge)
k
Wellenzahl: k = 2π/λ
rj Abstände vom betrachteten Punkt ~r
zu den Öffnungen j = 1 bzw. j = 2.
Die auf den Schirm S zulaufende Welle ist
A(~r, t) = A1 (~r, t) + A2 (~r, t)
mit der Intensität auf dem Schirm
I = |A1 + A2 |2 .
(45)
Man beobachtet für Wellen typische Interferenz.
Wird ein Spalt geschlossen, so ergibt sich
I = |A1 |2
oder
I = |A2 |2 .
Werden beide Spalte hintereinander gleichlang geöffnet, so mißt man
I = |A1 |2 + |A2 |2 ,
(46)
d.h. es tritt keine Interferenz auf.
B) Licht als Teilchen
1) Schwarzkörperstrahlung [Planck (1900)]:
Frequenzverteilung der Energie u(ω, T ) eines (heißen) Körpers mit Temperatur
T.
Aus der Annahme, daß die Energie gequantelt vorliegt, d.h.
∆E = hν = h̄ω,
3.1
Einführung in die Quantenmechanik
31
wobei
h̄ =
h
= 1, 054 · 10−34 Nms = 0, 658 · 10−15 eVs
2π
(Plancksches Wirkungsquantum)
ergibt sich Plancksche Strahlungsverteilung
u(ω, T ) =
d(E/V )
h̄
ω3
= 2 3
dω
π c exp(h̄ω/kB T ) − 1
(47)
mit E/V Energiedichte und kB Boltzmann-Konstante.
Anmerkung:
Mit der klassischen Theorie ließ sich die Strahlung nicht befriedigend erklären:
Nach Rayleigh/ Jeans wächst die abgestrahlte Energie mit der Frequenz.
Demnach hätte ein heißer Stern fast unendlich viel Energie abstrahlen müssen,
was natürlich nicht der Fall ist (sogenannte Ultraviolettkatastrophe).
2) Photoeffekt [Einstein (1905)]:
Herauslösen von Elektronen aus Metall durch Licht.
Emission erfolgt nur, wenn Frequenz f ≥ fmin . Bei klassischen Wellen wäre die
Energie des Lichts nur von der Amplitude, aber nicht von deren der Frequenz
abhängig.
Elektronen als Teilchen und Welle
Der Teilchencharakter von Elektronen ist wegen konstanter Masse und Ladung
offensichtlich (Punktteilchen). Überraschenderweise zeigen Elektronenstrahlen
auch Welleneigenschaften ähnlich Licht (Nachweis 1927).
De Broglie (1923) ordnete jedem materiellen Teilchen eine Wellenlänge zu:
λ=
2πh̄
p
Für Elektronen mit der Energie E = p2 /2me bedeutet das
r
λe ≈ 12, 2Å
eV
.
E
Die Teilchen- und Welleneigenschaften von Photonen, Elektronen usw. sind
durch die Beziehung
p
~ = h̄~k
verknüpft.
32
3
3.1.2
MIKROKOSMOS
Schrödinger-Gleichung
In der einfachsten Form für ein Punktteilchen in einem Potential V (~r) lautet
die Schrödinger-Gleichung (SG):
ih̄
∂ψ(~r, t)
h̄
=−
∆ψ(~r, t) + V (~r, t) ψ(~r, t) =: Hψ(~r, t)
∂t
2m
(48)
Speziell für V (~r) = 0 (kräftefreies Feld) ergibt sich die freie SG.
Die Gleichung (4) kann auf ein allgemeines System mit n Freiheitsgraden verallgemeinert werden:
ih̄
∂ψ(q, t)
= H(q, pop , t) ψ(q, t) =: Hψ(q, t)
∂t
(49)
mit der Zeit t, den (verallgemeinerten) Koordinaten q = (q1 , . . . , qn ) und dem
Impuls-Operator pop = (p1,op , . . . , pn,op ), wobei
pk,op = −ih̄
∂
,
∂qk
k = 1, . . . , n.
Dabei stellt H = H(q, pop , t) den Hamilton-Operator dar.
H legt die Freiheitsgrade eines Systems und dessen Dynamik fest.
Der (System-)Zustand wird durch die Wellenfunktion ψ(q, t) dargestellt. (Im
klassischen Fall dagegen durch q(t) und p(t).)
Normierung
Nach 3.1.1. ist die Wahrscheinlichkeit, ein Teilchen bei ~r zu finden, gleich dem
Betragsquadrat |ψ(~r, t)|2 einer Wellenfunktion ψ.
Das Betragsquadrat |ψ(q, t)|2 der Wellenfunktion ψ stellt die Wahrscheinlichkeitsdichte des Aufenthaltsortes q zur Zeit t dar, d.h. es muß gelten
Z
|ψ(q, t)|2 dq1 . . . dqn = 1.
(50)
Speziell: Die Wahrscheinlichkeit, ein Teilchen (Elektron) in einem Volumenelement
dq1 . . . dqn anzutreffen, ist demnach |ψ(~r, t)|2 dq1 . . . dqn .
Wir betrachten im weiteren die eindimensionale Wellenfunktion ψ(x, t).
Die Verallgemeinerung auf beliebige Fälle ergibt sich hieraus, wenn man
x = (q1 , . . . qn )
und
dx = dq1 . . . dqn
setzt und die Integrationsgrenzen entsprechend spezifiziert.
Anmerkungen:
3.1
Einführung in die Quantenmechanik
33
1) Nichtvertauschbarkeit
In der klassischen Hamiltonfunktion sind x und p Zahlen. Bei der Multiplikation kommt es auf die Reihenfolge nicht an.
Dies gilt jedoch nicht für die entsprechenden Operatoren x und pop
[x, pop ] := (xpop − pop x) = ih̄
Die Verknüpfung [·, ·] heißt Kommutator.
Die Orts- und Impuls-Operatoren kommutieren also nicht.
2) Der Erwartungswert hf i := Ef einer Funktion f ist der Mittelwert der
Messung der zugehörigen physikalischen Größe:
Z∞
hf i =
f (x)|ψ(x, t)|2 dx
−∞
3.1.3
Unschärferelation
Die Wellenfunktionen in der Orts- und Impulsdarstellung sind durch FourierTransformationen verknüpft:
Z∞
1
ψ(x, t) = √
2πh̄
φ(p, t) exp
ipx
h̄
dp
−∞
Z∞
1
φ(p, t) = √
2πh̄
ψ(x, t) exp −
ipx
h̄
dx
−∞
Dabei bestimmt |ψ(x, t)|2 die Häufigkeit des Auftretens der Meßwerte für den
Ort und |φ(p, t)|2 die Häufigkeit der Impulswerte.
Generell wird die Fourier-Transformation wie folgt definiert:
1
f (x) = √
2π
Z∞
g(k) exp(ikx) dk
−∞
1
g(k) = √
2π
Z∞
f (x) exp(−ikx) dx
−∞
34
3
MIKROKOSMOS
Zwischen f und g besteht folgende Relation:
Ist f (x) in einem engen Bereich lokalisiert, so ist die Verteilung von g(k) breit;
dies gilt umgekehrt entsprechend.
Die Varianz
(∆x)2 := Var(X) = E(X − EX)2 = E(X 2 ) − (EX)2
heißt in der Physik Unschärfe.
Für zwei Hermitesche Operatoren F und K (diesen entsprechen nur reelle
Meßgrößen) gilt folgende Abschätzung, die Unschärferelation
(∆F )2 (∆K)2 ≥
hi[F, K]i2
.
4
Daraus folgt der Spezialfall
∆x ∆p ≥
h̄
2
(51)
Weiterhin gilt die Unschärferelation für die Energie E und die Zeit t:
∆E ∆t ≥
3.1.4
h̄
2
(52)
Einige quantenmechanische Phänomene
I. Quantenmechanische Dispersion
Die Wahrscheinlichkeitsverteilung |ψ(x, t)|2 für den Nachweis eines Teilchens
an einem Ort wird mit wachsender Zeit immer breiter (”Dispersion”).
Speziell ergibt sich für eine Gaußverteilung |ψ(x, t)|2 (wobei ψ(x, t) Lösung
der freien SG) mit einer anfänglichen Unschärfe ∆(0) = α die Beziehung
r
∆x =
α 2 + β 2 t2
α
sowie
h̄
∆p = √ .
2 α
Insbesondere gilt für Elektronen
β=
h̄
.
2m
Das Wellenpaket wird somit immer breiter. Das trifft auch für ein einzelnes
Teilchen zu!
Lediglich für Photonen im Vakuum ist β = 0, so daß die Form von elektromagnetischen Wellen auch im Ortsraum erhalten bleibt (keine Dispersion).
3.1
Einführung in die Quantenmechanik
35
II. Nichtlokalität
Gedankenexperiment von Einstein, Podolsky, Rosen (1935)
(EPR-Paradoxon):
Wir betrachten 2 Teilchen, die miteinander wechselwirken und dann auseinanderfliegen, ohne mit irgendetwas sonst zu wechselwirken, bis ein Beobachter ein Teilchen (S1 ) untersucht.
Zunächst kann der Gesamtimpuls und die Differenz der Abstandskoordinaten
der beiden Teilchen S1 und S2 , wenn sie dicht beieinander sind exakt gemessen
werden (auch nach Gesetzen der Quantenmechanik).
Der Beobachter bestimmt später den Impuls von S1 und dann den exakten
Ort von S1 . Dabei wird der Impuls von S1 , aber (vermutlich) nicht der Impuls
des (weit entfernten) S2 verändert.
Somit läßt sich der Ort und der Impuls von S2 exakt berechnen, was im Widerspruch zur Unschärferelation steht.
Folgerung: Entweder ist die Quantentheorie (zumindest) unvollständig oder
der Impuls von S2 ändert sich doch bei der Messung von S1 .
Ähnliches Experiment (eher verifizierbar):
Es werden 2 Photonen gleichzeitig von definiertem Quantenobjekt ausgesandt
(sogenannte verschränkte Photonen). Durch die Messung der Polarisation eines Photons wird momentan die Polarisation des anderen (weit entfernten)
Photons bestimmt.
Dieses Phänomen ist nichtlokal, da nach der Messung an einer Stelle, das
Ergebnis an einer anderen Stelle vorhergesagt werden kann.
Nach Einstein und Bohm stellt die Unschärferelation nur eine instrumentelle
Begrenzung dar. Jenseits der Unschärfe gibt es eine verborgene Realität, die
nur wegen der Unschärferelation nicht beobachtbar ist, mit sogenannten verborgenen Variablen.
Bellssches Theorem : Wenn die Quantenmechanik stimmt, gibt es keine verborgenen Variablen, es sei denn sie sind nichtlokal.
Verschiedene Experimente, insbesondere durch Aspect (1982), bestätigten die
Quantenmechanik.
Auf dieser Grundlage auch möglich Teleportation (Zeilinger, 1997):
Durch ein Paar verschränkter Photonen wird der Quantenzustand eines dritten
Teilchens übertragen – kein Klonen, da der Quantenzustand des Photons dabei
zerstört wird.
3.1.5
Deutung der Quantenmechanik
In klassischer Mechanik – Determiniertheit: Aus den Bewegungsgleichungen
können bei bekannten Anfangsbedingungen Ort und Impuls eines Systems zu
36
3
MIKROKOSMOS
allen späteren (und auch allen früheren) Zeiten festgelegt werden:
Eine Intelligenz, welche für einen gegebenen Augenblick alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage der sie zusammensetzenden Elemente kennte und überdies umfassend genug wäre, um diese gegebenen Größen
der Analysis zu unterwerfen, würde in derselben Formel die Bewegungen der
größten Weltkörper wie des leichtesten Atoms umschließen; nichts würde ihr
ungewiß sein und Zukunft und Vergangenheit würde ihr offen vor Augen liegen.
(Laplace)
Quantenmechanik: Information über ein System zur Zeit t0 ist in ψ(x, t0 ) enthalten. Daraus läßt sich die Wellenfunktion ψ(x, t) zu jedem späteren Zeitpunkt bestimmen, d.h. die zeitliche Entwicklung von ψ(x, t) ist determiniert.
Nicht determiniert ist die zeitliche Entwicklung aller Meßgrößen (wie Ort und
Impuls). Diese Größen können zu einem bestimmten Zeitpunkt (also etwa als
Anfangsbedingungen) nicht alle zugleich festgelegt werden.
Problem: Warum keine deterministischen Aussagen im Sinne der klassischen
Mechanik?
3.2
3.2.1
Aufbau der Materie
Elementarteilchen
Quantitäten: 1 g Wasserstoff: ca. 1024 Atome
Mensch: ca. 1028 Atome
Sonne: ca. 1057 Atome
Milchstraße: ca. 1068 Atome
sichtbares Universum: ca. 1078 Atome
Die derzeitigen Vorstellungen über den Aufbau der Materie sind im sogenannten Standardmodell zusammengefaßt.
Man teilt Elementarteilchen in 3 Familien ein:
siehe Tab. 1
Erläuterungen
1) Die Teilchen der 3 Familien unterscheiden sich nur in der Masse, d.h. Myon
und Tau sind sozusagen schwere bzw. superschwere Elektronen. Für die Masse
soll das (hypothetische) Higgs-Teilchen verantwortlich sein.
2) In der irdischen Welt kommen faktisch nur Teilchen aus der 1. Familie vor.
Die Teilchen aus den anderen beiden Familien wurden in Teilchenbeschleunigern synthetisiert bzw. in der kosmischen Strahlung nachgeweisen. Die meisten
sind sehr kurzlebig.
3.2
Aufbau der Materie
37
3) Zu jedem Teilchen gibt es ein Antiteilchen (mit entgegengesetzten Ladungen), z.B. e+ – Positron, ū –Anti-up-Quark. Wenn ein Teilchen mit seinem
Antiteilchen zusammenstößt, vernichten sich beide gegenseitig und lassen nur
Energie zurück.
Die Materie, die aus Antiteilchen besteht, wird Antimaterie genannt. Für sie
gelten im wesentlichen dieselben Gesetze wie für Materie.
Tab. 1. Elementarteilchen
Teilchen
Symbol
Masse∗)
elektrische
Ladung
Familie 1
Elektron
e−
0,00054
−1
ElektronNeutrino
νe
< 10−8
0
up-Quark
u
0,0047
2/3
down-Quark
d
0,0074
−1/3
Familie 2
Myon
µ−
0,11
−1
MyonNeutrino
νµ
< 0, 0003
0
charm-Quark
c
1,6
2/3
strangeQuark
s
0,16
−1/3
Familie 3
Tau
τ−
1,9
−1
TauNeutrino
ντ
< 0, 033
0
top-Quark
t
189
2/3
bottomQuark
b
5,2
−1/3
∗)
Ruhmasse in Vielfachen der Protonenmasse
schwache
Ladung
starke
Ladung
−1/2
0
1/2
1/2
−1/2
0
rot, grün, blau
rot, grün, blau
−1/2
0
1/2
1/2
0
rot, grün, blau
−1/2
rot, grün, blau
−1/2
0
1/2
1/2
0
rot, grün, blau
−1/2
rot, grün, blau
Quarks
Quarks kommen in der Natur nicht als freie Teilchen vor. Die Massen sind nur
indirekt (und modellabhängig) definiert. Die starke bzw. schwache Ladung
stellen spezielle nukleare bzw. atomare Eigenschaften dar. Die Farben sind
nur symbolisch zu verstehen.
Aus Quarks bilden sich Protonen p bzw. Neutronen n folgendermaßen:
p = u + u + d,
n = u + d + d.
38
3
MIKROKOSMOS
Oder auch π-Mesonen
π + = u + d̄,
π − = ū + d
und
π 0 = u + ū
oder
π 0 = d + d̄
mit der Wahrscheinlichkeit von je 1/2.
Spin: Eigendrehimpuls der Teilchen, bedingt durch deren Drehung um die
eigene Achse. Der Spin kann nur halb- und ganzzahlige Vielfache von h̄ annehmen und wird durch den entsprechenden Faktor definiert.
Insbesondere haben Elektronen sowie Protonen und Neutronen den Spin 1/2.
Der Spin ist eine Quantenzahl. Für das Elektron gibt es 4 Quantenzahlen:
– Hauptquantenzahl n = 1, 2, . . . (Energieniveau)
– Bahndrehimpulsquantenzahl l = 0, 1, 2, . . . , n − 1
– magnetische Quantenzahl ml = 0, ±1, ±2, . . . , ±l
– Spin ms = ±1/2.
Für Materieteilchen mit Spin 1/2 gilt Paulisches Ausschließungsprinzip:
Zwei Teilchen eines Atoms müssen sich in mindestens einer Quantenzahl unterscheiden.
3.2.2
Wechselwirkungen
Die Kräfte der Wechselwirkungen zwischen Teilchen werden von Botenteilchen mit Spin 0, 1, 2 übertragen (virtuelle Teilchen). Um jedes (reale) Teilchen
befindet sich eine ”Wolke” virtueller Teilchenpaare, die auch die Energieniveaus der Atome beeinflussen.
(Zum Beispiel: Leichte Verschiebung des niedrigsten Energieniveaus des HAtoms – Lambsche Verschiebung.)
Kräftetragende Teilchen sind nicht dem Ausschließungsprinzip unterworfen,
sie können in unbegrenzter Zahl ausgetauscht werden. Unter bestimmten Umständen kommen Teilchen mit ganzzahligem Spin auch real vor, sie treten als
Wellen (Licht- oder Gravitationswellen) auf.
Beispiel: Abstoßung von Elektronen durch virtuelle Photonen
Beim Wechsel des Elektrons von einer erlaubten Bahn auf andere erfolgt die
Emission eines realen Photons (Licht).
3.2
Aufbau der Materie
39
Tab. 2. Fundamentale Wechselwirkungen (WW)
Gravitation
Austauschteilchen
Graviton G
elektromagnetische WW
Photon γ
starke WW
schwache
WW
Vektorbosonen
W+ , W − , Z0
Spin
Masse
2
0
1
0
Mesonen
π+ , π− , π0
Gluonen g
1
0,14 GeV/c2
Reichweite [m]
Stärke
(relativ)
betroffene
Teilchen
∞
∞
10−15 . . . 10−16
82 bzw.
93 GeV/c2
10−16
10−41
10−2
1
10−14
alle
geladene
Teilchen
Hadronen
Hadronen,
Leptonen
Erläuterungen
1) Hadron: Ein Teilchen, das an der starken Wechselwirkung teilnimmt. Alle
Hadronen sind entweder Baryonen (Spin halbzahlig) oder Mesonen (Spin
ganzzahlig). Zu den Baryonen gehören insbesondere Protonen und Neutronen.
Die Baryonenzahl B eines Systems ist die Gesamtzahl der Baryonen abzüglich
der Gesamtzahl der Antibaryonen.
Leptonen: (Leichte) Teilchen wie Elektronen und Neutrinos mit Spin 1/2, die
nicht an der starken Wechselwirkung teilnehmen.
Die Leptonenzahl L eines Systems ist die Gesamtzahl der Leptonen abzüglich
der Gesamtzahl der Antileptonen.
Es kann zu vielfältigen Teilchenumwandlungen kommen. Dabei gelten für die
Baryonen- und die Leptonenzahl und andere Größen wie die elektrische Ladung
Q Erhaltungssätze.
Beispiel: Neutronenzerfall (für freie Neutronen) (β-Zerfall)
n → p + e− + ν̄e
Die Halbwertzeit des Neutrons beträgt lediglich 11 Minuten.
Die exakte Theorie der starken Wechselwirkung ist die Quantenchromodynamik (QCD).
2) Die Atomkerne werden durch (kurzlebige) Mesonen zusammengehalten. Ohne die starke Wechselwirkung würden die Kerne wegen der elektromagnetischen Abstoßung der Protonen auseinanderfliegen.
3) Die Quarks sind durch Gluonen verbunden. Dabei verbinden sich stets 3
Quarks verschiedener Farbe (rot, grün, blau) so, daß die Zusammensetzun-
40
3
MIKROKOSMOS
gen keine Farbe (weiß) haben (”Confinement”). Bei Aussendung der Gluonen
verändern sich die Farben der Quarks – 8 Arten Gluonen.
Bis 10−16 m ist die starke Wechselwirkung nicht übermäßig groß und die
Quarks können sich relativ frei bewegen; falls Abstand vergrößert wird, wachsen die Kräfte gigantisch (”Infrarotsklaverei”).
Wenn man Quarks (z.B. in Mesonen) trennen will, muß man große Energie
aufwenden, dadurch entstehen aber neue Quarks-Antiquarks-Paare.
Vereinheitlichungen
I) Bei hohen Temperaturen fallen die elektromagnetische und schwache Wechselwirkung zusammen (bei 100 GeV – 1983 Nachweis im Cern).
Bei Abkühlung kommt es zu ”spontaner Symmetriebrechung”.
Für höhere Energien muß das Standardmodell durch die (hypothetische) Große
Vereinheitlichte Theorie (GUT) ersetzt werden.
II) Bei sehr hohen Energien (1015 GeV) tritt die große Vereinheitlichung
der Wechselwirkungen (auáer Gravitation) ein: Alle Teilchen mit Spin 1/2
(Quarks, Leptonen) sind dann im wesentlichen identisch – Lepton-QuarkUrteilchen.
Elektrische Ladung und Farbe verschmelzen zu einer Eigenschaft, der X-Wechselwirkung mit entsprechenden X-Teilchen:
Wenn Quark X-Teilchen aussendet, verwandelt es sich in anderes Mitglied der
Lepton-Quark-Familie, z.B. Neutrino. Hierbei überträgt X-Teilchen Farbe und
Ladung.
III) Bei extrem hohen Energien (> 1019 GeV) wird die Vereinigung der 3
(vereinigten) Wechselwirkungen mit der Gravitation erwartet.
Protonenzerfall (Lebenszeit > 1031 Jahre):
Wenn zwei Quarks im Proton (statt normalerweise 10−16 m) nur 10−31 m entfernt sind, zerfällt das Proton wegen der dann auftretenden X-Wechselwirkung
z.B. in 1 Positron und 1 π 0 -Meson, letzteres wiederum in 2 Photonen.
Der Protonenzerfall kann beschleunigt werden durch Monopole : sehr schwere
hypothetische Teilchen (m = 1016 GeV/c2 ) – Zusammenstoß mit Proton muß
unweigerlich zu dessen Zerfall führen.
3.2.3
Naturkonstanten
Die fundamentalen Naturkonstanten sind die Lichtgeschwindigkeit (SRT)
c = 2, 99792458 · 108 m s−1 ,
die Gravitationskonstante (ART)
G = (6, 67259 ± 0, 00085) · 10−11 m3 kg−1 s−2
3.2
Aufbau der Materie
41
und das Plancksche Wirkungsquantum (Quantenmechanik)
h̄ =
h
= 1, 054 · 10−34 kg m2 s−1 = 0, 658 · 10−15 eVs.
2π
Diese Konstanten sind fundamental in den entsprechenden Theorien.
Die einzige Masse mP , Länge lP und Zeit tP , die sich aus diesen Konstanten
bilden lassen, werden Planckmasse, Plancklänge bzw. Planckzeit genannt.
Es gilt:
r
mP =
r
h̄G
= 1, 6 · 10−35 m ≈ 10−35 m
c3
r
h̄G
= 5, 4 · 10−44 s ≈ 5 · 10−44 s
c5
lP =
tP =
h̄c
= 1, 2 · 1019 GeV/c2 ≈ 1019 GeV/c2
G
Dabei handelt es sich um diejenige Skala für minimale (Quanten-)Objekte, die
gerade noch nicht zu Schwarzen Löchern kollabieren würden. Als entsprechende maximale Dichte ergibt sich:
ρP =
mP
97
kg/m3 = 1094 g/cm3
π 3 ≈ 10
l
6 P
Anmerkung: Falls ein Gleichgewichtszustand vorliegt, kann man Energie und
Temperatur umrechnen:
1 eV = 1, 16 · 104 K
Für die Plancktemperatur erhält man daher
TP ≈ 1032 K.
Eine weitere grundlegende Konstante stellt die Elementarladung e dar
e = 4, 803 · 10−10 g1/2 cm3/2 s−1 ,
Durch die Konstanten e, h̄, c wird die sogenannte Feinstrukturkonstante α definiert, die eine reine Zahl ist
α=
e2
1
=
.
h̄c
137.0
42
3
MIKROKOSMOS
Außerdem kann man noch die Grobstrukturkonstante αG definieren
αG =
Gm2P
= 5, 9041183 . . . · 10−39 .
h̄c
Diese beiden Konstanten bestimmen wesentlich den Aufbau der Materie.
Grundlegend für viele Teilchenprozesse sind auch die Massen von Elektron me ,
Proton mp und Neutron mn , die meist in den entsprechenden Energieäquivalenten angegeben werden
me c2 = 0, 51 MeV = 5, 9 · 109 K
mp c2 = 938, 3 MeV = 1, 09 · 1013 K
mn c2 = 939, 6 MeV = 1, 09 · 1013 K
3.2.4
Der Zeitpfeil
Grundlegende Symmetrien
• Konjugation C: physikalische Gesetze für Teilchen und Antiteilchen identisch
• Parität P: gleiche Gesetze für Spiegelbilder, d.h. für Wellenfunktion muß
gelten
ψ(−x, −y, −z) = ψ(x, y, z)
• Zeit T: gleiche Gesetze für beide Zeitrichtungen, d.h.
ψ(−t) = ψ(t)
CPT-Theorem: Jede Theorie, die ART und Quantenmechanik gehorcht, hat
CPT-Symmetrie.
Einzelne Symmetrien können gestört sein. Beispielsweise ist die schwache Wechselwirkung nicht P und C, doch CP; der Zerfall von K-Mesonen nicht CP.
Wenn CPT- und CP-Symmetrie verwirklicht ist, muß auch T-Symmetrie gelten.
Nach Hawking könnte die Zeit imaginär sein und das Universum endlich, aber
unbegrenzt in der imaginären Zeit (”Keine-Grenzen-Bedingung”).
3.3
Stringtheorie
3. Konflikt (vgl. Kapitel 2): Krümmung des Raumes
ART : glatt ⇐⇒ Quantenmechanik: ”fraktal” (Quantenfluktuationen)
3.3
Stringtheorie
43
Zur Lösung der Widersprüche zwischen ART und Quantenmechanik und als
Alternative zum Standardmodell wurde die Stringtheorie entwickelt (noch
nicht abgeschlossen).
Vorläufer: Kaluza-Klein-Theorie
Kaluza (1919): Wenn Raum mehr als 3 Dimensionen hat, kann man ART
und Maxwells elektromagnetische Theorie in einer Theorie vereinigen.
Klein (1926): Die Raumstruktur des Universums besitzt nicht nur ausgedehnte, sondern auch aufgewickelte Dimensionen (in Plancklänge).
Dabei soll die Gravitation durch die Raumkrümmung und elektromagnetische
Wellen durch Krümmungen in der aufgewickelten Dimension übertragen werden.
Die Kaluza-Klein-Theorie erwies sich zunächst als vielversprechend, wurde jedoch mit der erfolgreichen Entwicklung der Quantenmechanik ab den 30er
Jahren als unnützer Formalismus angesehen, zumal die Physiker nicht glaubten, daß die fünfte Dimension tatsächlich existierte. Zudem war die schwache
und starke Wechselwirkung damit nicht beschreibbar.
Entwicklung der Stringtheorie
1968/1970 Veneziano u.a.: erste Grundideen der Stringtheorie
1984 – 1986 erste Superstring-Revolution (5 Abarten der Theorie)
1995 zweite Superstring-Revolution (Witten): Vereinigung der verschiedenen
Theorien in M-Theorie.
Die Mathematik der (Super-)Stringtheorie ist so kompliziert, daß die exakten
Gleichungen noch unbekannt sind: nur Näherungsgleichungen können teilweise
gelöst werden.
Grundideen der Stringtheorie
• Die Elementarteilchen sind in Wirklichkeit eindimensionale Schleifen (Strings),
die ständig schwingen. Verschiedene Schwingungsmuster ergeben verschiedene
Teilchen (einschließlich aller Botenteilchen) mit den entsprechenden Massen.
• Die Strings sind sehr straff gespannt (Planck-Spannung). Da sie nicht ”eingespannt” sind, ziehen sie sich auf Plancklänge zusammen. Die Strings sind
die definitiv kleinsten Fundamentalteilchen.
Quanteneffekte führen zur Auslöschung der entsprechenden Planckenergien
und es ergeben sich für die bekannten Teilchen die Werte des Standardmodells.
(Darüber hinaus sagt Stringtheorie die Existenz weiterer Teilchen voraus.)
• Wechselwirkungen erfolgen – im Gegensatz zum Standardmodell – nicht
punktuell, sondern sind in Abhängigkeit vom Beobachter ”verschmiert” in
Raum und Zeit. Es können daher keine unendlichen Energien auftreten.
• Das Universum hat 10 Raumdimensionen, wovon 6 aufgewickelt sind (in
44
3
MIKROKOSMOS
Plancklänge). Die entsprechende Geometrie sind Calabi-Yau-Mannigfaltigkeiten
– wobei es einige 10.000 Calabi-Yau-Räume gibt und noch nicht feststeht, welches der zutreffende ist.
Die Geometrie der aufgewickelten Dimensionen bestimmt maßgeblich physikalische Eigenschaften wie Teilchenmassen und -ladungen.
• Aufgrund der Geometrie der Calabi-Yau-Räume haben die Strings bei großem
Radius R des Universums große Windungsenergie und geringe Schwingungsenergie; bei kleinem Radius ist es gerade umgekehrt. Die Beschaffenheit der
Welt hängt aber nur von der Gesamtenergie ab. Daher haben Calabi-YauRäume mit den Radien R und 1/R identische physikalische Eigenschaften
(Dualität). Realisiert wird jedoch nur das Universum mit R∗ = max(R, 1/R).
• Die Raumzeit kann reißen (nach ART nicht zulässig), aber anschließend sich
selbst reparieren.
Verschiedene Calabi-Yau-Räume können ineinander übergehen.
Die Raumzeit besteht aus einer gewaltigen Zahl von Strings, die alle das gleiche
Graviton-Schwingungsmuster durchführen.
Unterhalb der Plancklänge gibt es keinen Raum.
Offen:
– Warum sind nicht alle Dimensionen ausgedehnt oder aufgewickelt?
– Gibt es zusätzliche Zeitdimensionen?
45
4
Entwicklung des Universums
4.1
Das Urknall-Modell
Beginn des Universums – prinzipiell 3 Möglichkeiten:
1) Der Anfang war ein singulärer Zustand, der von der Naturwissenschaft nicht
beschrieben werden kann.
2) Der Anfang war der denkbar einfachste und dauerhafteste Zustand, der die
Keime für die zukünftige Entwicklung in sich barg.
3) Es gab keinen Anfang; das Universum ist unveränderlich und unendlich alt.
Die Variante 2) wird von der heutigen Wissenschaft favorisiert.
Die Rückverfolgung der jetzigen Expansion führt auf eine Singularität (R = 0).
Die Vorstellung, daß die Welt aus einer solchen Singularität entstand, wird
als Big-Bang- oder Urknall-Modell bezeichnet (soweit auf Grundlage der
ART sowie des Standardmodells der Teilchenphysik auch als kosmologisches
Standardmodell).
4.1.1
Kosmische Hintergrundstrahlung
Da Ks /R2 > Km /R (vgl. (33), 2.4.2) für kleine R > 0, war das frühe Universum strahlungsdominiert bei einer Planckschen Strahlungsverteilung mit der
Temperatur T . Nach dem Stefan-Boltzmann-Gesetz gilt:
ρstr c2 = aT 4 ,
a=
4
π 2 kB
3 3
15h̄ c
mit der Boltzmann-Konstante kB = 1, 3806 · 10−23 J/K.
Wegen
ρstr =
3c2 Ks
const
=
8πG R4
R4
ergibt sich
T ∼
1
.
R
(53)
Entkopplung von Strahlung und Materie
Für geladene Teilchen führt die elektromagnetische Wechselwirkung zu einem thermodynamischen Gleichgewicht der Teilchen und Photonen. Falls T <
3000 K bilden sich bevorzugt neutrale Atome. Die Dichte der geladenen Teilchen wird so klein, daß sich Strahlung und Materie praktisch entkoppeln.
46
4
ENTWICKLUNG DES UNIVERSUMS
Wir bezeichnen mit te den Zeitpunkt der Entkopplung mit der entsprechenden
Temperatur Te = T (te ) ≈ 3000 K.
Die Plancksche Strahlungsverteilung aus dieser Frühzeit des Universums sollte
mit entsprechend niedrigerer Temperatur T (t0 ) immer noch vorhanden sein.
Erster Nachweis: 1964 [Penzias/Wilson]
Durch Satellitenexperimente (COBE) gelang es die Temperatur exakt festzustellen:
T0 = T (t0 ) = (2, 726 ± 0, 005) K.
Nach Abzug eines Doppler-Effekts aufgrund der Eigenbewegnug unserer Galaxis zeigt die Hintergrundstrahlung fast völlige Isotropie.
Aus dem Stefan-Boltzmann-Gesetz läßt sich nun die heutige Massendichte
ρstr (t0 ) der Hintergrundstrahlung bestimmen:
ρstr (t0 ) =
2
π 2 kB
kg
T 4 |T =T0 = 4, 8 · 10−31 3
3 5
m
15h̄ c
Das spätere Universum war materiedominiert, da Km /R > Ks /R2 für größere
R. Der Zeitpunkt t1 des Übergangs von Strahlungs- in Materiedominanz ergibt
sich aus Ks /R2 = Km /R. Mit den heutigen Werten von ρ und R erhält man
für die Konstanten Ks und Km
Ks =
8πG
ρstr (t0 )R04 ,
3c2
Km =
8πG
ρmat (t0 )R03 .
3c2
(54)
Daraus folgt
R(t1 ) = 10−4 R0
und mittels (33), 2.4.2. schließlich
t1 ≈ 104 a.
Die Expansion des Universum läßt sich nun durch die folgenden Beziehungen
beschreiben
 1/2

 t
,
R(t) ≈ R0 ·
ts 2/3
t


,
t0
0 ≤ t < t1
(55)
t1 ≤ t ≤ t0
mit dem Weltalter t0 ≈ 1, 3 · 1010 a (vgl. 2.4.4.) sowie ts ≈ 1012 a.
4.1
Das Urknall-Modell
47
Für den Zeitpunkt te der Entkopplung ergibt sich wegen
R(te ) ≈ 10−3 R0
demnach
te ≈ 4 · 105 a.
Nach der Entkopplung (t > te ) gibt es keine weltweit wohldefinierte Temperatur mehr. Dann ist Tmat ∼ 1/R2 , während für Strahlung weiterhin die
Beziehung (1) gilt.
4.1.2
Urknall und Inflation
Die derzeitigen Theorien können Aussagen erst für R ≥ lP (Plancklänge) (bzw.
die zugehörigen anderen Planckgrößen) machen.
Insbesondere geht die Stringtheorie davon aus, daß es keine Singularität gegeben hat und R ≥ lP immer galt.
Das Urknall-Modell beginnt somit zur Planckzeit mit Planckenergie.
Man kann die Entwicklung des Universums in folgende Epochen einteilen:
1. Epoche: t ∈ (0, 10−43 s]
T > 1032 K
Details unbekannt
Unklar sind vor allem die Anfangsbedingungen:
– es gibt keine Anfangsbedingungen [Hawking]
– ihr Einfluß ist unwesentlich [Guth]
– sie haben eine bestimmte Form (welche?)
Nach der Stringtheorie kommt es zur 1. Symmetriebrechung: 3+1 Dimensionen
werden zur Expansion ausgewählt, die restlichen 6 Dimensionen verbleiben in
Plancklänge aufgewickelt.
2. Epoche: t ∈ (10−43 s, 10−33 s]
T fällt von 1032 K auf 1028 K
Ausgehend von der Großen Vereinheitlichung schuf 1981 Guth die Theorie
des inflationären Universums.
In Folge der großen Vereinheitlichung war die elektromagnetische Kraft nicht
von der starken Kernkraft unterscheidbar (”Symmetrie”). Mit wachsendem R
fiel T unter die kritische Temperatur für die Vereinheitlichung und die Symmetrie wurde gebrochen. Die starke Kernkraft dominierte danach über die
anderen Kräfte. Die Symmetriebrechung geschah abrupt und es wurde viel
Energie freigesetzt.
48
4
ENTWICKLUNG DES UNIVERSUMS
Die Freisetzung der Energie entsprach einer Veränderung des Quantenvakuums: Das Quantenvakuum des symmetrischen Zustands war das sogenannte
falsche Vakuum – Vakuum mit negativer Energie bzw. negativem Druck (wie
bei Casimir-Effekt). Zum Zeitpunkt der Symmetriebrechung (t = 10−35 s) verwandelte sich das falsche Vakuum in das echte Vakuum der gegenwärtigen
Epoche.
Die Energiefreisetzung beschleunigte die Expansion des Universums. Es blähte
sich mit einer konstanten Expansionsrate (Ṙ/R) auf bis der Übergang zum
echten Vakuum abgeschlossen war. Normalerweise wird die Expansionsrate des
Universums durch die Gravitation gebremst. Während der Symmetriebrechung
hielt jedoch die Energiezufuhr durch das falsche Vakuum die Expansionsrate
des Universums vorübergehend konstant. Daher mußte der Abstand zwischen
zwei beliebigen Teilchen mit exponentieller Geschwindigkeit anwachsen. Das
exponentielle Wachstum der Längenskala wird Inflation genannt. Dabei kam
es zu einer ca. 1043 -fachen Vergrößerung.
Erste Materieformen: ”Ursuppe” aus allen möglichen Teilchensorten (Elektronen, Neutrinos, Photonen, Gluonen, X-Teilchen).
Mit weiterem Temperaturabfall zerfallen X-Teilchen in Quarks und Antiquarks.
4.1.3
Der frühe Kosmos
Für die folgenden Epochen gibt es experimentelle Belege (Teilchenbeschleuni<
ger) bei mittleren Energien E ∼ 103 GeV.
3. Epoche: t ∈ (10−33 s, 10−6 s]
T fällt auf 1013 K =
b 1 GeV.
Das Plasma aus Quarks, Antiquarks usw. kühlt sich ab.
4. Epoche: t ∈ (10−6 s, 10−3 s]
E sinkt auf 30 MeV.
Falls E < 1 GeV, kommt es zur massenhaften Vernichtung der Quarks und
Antiquarks sowie Gluonen. Es bleibt ein geringer Überschuß Materie (wegen
CP-Symmetrieverletzung).
Die verbleibenden Quarks bilden jeweils zu dritt Protonen oder Neutronen
(1027 /cm3 ). Die Energiedichte wird dominiert durch Elektronen, Photonen
usw. (1036 /cm3 ).
5. Epoche: t ∈ (10−3 s, 102 s]
T fällt auf 109 K.
a) Obwohl Neutrinos nur schwach wechselwirken, standen sie wegen der großen
Dichte in ständiger Wechselwirkung mit der restlichen Materie. Mit sinkender
Dichte gibt es keine regelmäßigen Zusammenstöße von Neutrinos mit Elektro-
4.1
Das Urknall-Modell
49
nen usw. mehr: Entkopplung der Neutrinos.
b) Zunächst Anzahl der Protonen = Anzahl der Neutronen.
Da die Masse eines Neutrons > Masse eines Protons, wandeln sich sobald
mittlere Energie des Universums ≈ Neutron-Proton-Massedifferenz viele Neutronen in Protonen um: 75% Protonen, 25% Neutronen.
c) Wenn für Elektronen und Positronen E < me : Positronen-Elektronen- PaarVernichtung, wobei vornehmlich Photonen erzeugt werden; nur wenige Elektronen ”überleben”. Dabei bleibt Gesamtladung des Universums = 0.
6. Epoche: t ∈ (102 s, 30 min]
Nach 3 Minuten T ≈ 900.000.000 K.
Protonen und Neutronen, die zusammenstoßen, bilden Deuterium (relativ instabil), die überschüssige Energie wird als Photonen abgestrahlt; bei Zusammenstößen von Deuteriumkernen bilden sich Heliumkerne – praktisch alle Neutronen gebunden: Materie besteht aus 77% Wasserstoff und 23% Helium.
7. Epoche: t ∈ (10 min, 106 a] Bildung von Atomen
Weitere Abkühlung bis nach etwa 300.000 Jahren. Dann sind Kerne in der Lage
mit Hilfe der elektrischen Anziehungskraft Elektronen einzufangen – Bildung
von Wasserstoff- oder Heliumatomen.
Schließlich kommt es zur Entkopplung der Strahlung (Photonen).
8. Epoche: t ≥ 106 Jahre
siehe später!
4.1.4
Steady-State-Modell
Alternativ zum ”Big-Bang”-Modell entwickelten 1948 Bondi, Gold, Hoyle
das Steady-State-Modell für ein Universum ohne zeitlichen Anfang.
Das Modell fordert die Erschaffung von Materie aus dem Vakuum: Atome tauchen aus dem leeren Raum auf, um die zu ersetzen, die sich im ausdehnenden
Raum davonbewegt haben; aus neu entstehender Materie bilden sich neue Galaxien, die die Lücken zwischen den auseinanderdriftenden Galaxien schließen.
Das erforderte eine Abwandlung der ART (Masse- und Energieerhaltung verletzt): ≈ 1 Wasserstoffatom pro m3 pro 10 Milliarden Jahre sollten neugebildet
werden.
Das Modell konnte falsifiziert werden durch folgende Beobachtungen:
• 1959 Radioquellen im Kosmos sind nicht gleichmäßig verteilt, ferne Regionen
dominieren:
Entweder befinden sich in unserer Raumregion weniger Quellen oder Radioquellen waren früher, als die Strahlung ausgeschickt wurde, häufiger – beides
führt zu Widerspruch!
• 1965 Entdeckung der Mikrowellenstrahlung – Universum muß früher viel
50
4
ENTWICKLUNG DES UNIVERSUMS
dichter gewesen sein.
In der Folge versuchten die Autoren durch eine Reihe künstlicher Annahmen
das Modell zu retten, was aber nicht überzeugen konnte.
4.1.5
Das Multiversum
Warum ist das Universum gerade so beschaffen (Konstanten etc.), daß sich
Sterne, Leben und Bewußtsein entwickeln konnten?
Starkes anthropisches Prinzip: Konstanten und Gesetze wurden bewußt
so gewählt, daß Leben/Intelligenz möglich ist.
Ein Blick in das Universum zeigt uns, wie viele physikalische und
astronomische Zufälle zu unserem Vorteil zusammengewirkt haben, so daß fast
der Eindruck entsteht, das Universum müsse irgendwie von unserem Kommen
gewußt haben. [Dyson]
Schwaches anthropisches Prinzip: Wir sehen das Universum so, wie es ist,
weil wir nicht da wären, um es zu beobachten, wenn es anders wäre.
Die Welt ist zumindest teilweise so, wie sie ist, weil es sonst niemand gäbe,
der fragen könnte, warum sie so ist, wie sie ist. [Weinberg]
Das Universum ist per Definition alles, was beobachtbar ist oder je sein wird.
Nach neueren Konzepten ist unser Universum nur eines von (unendlich) vielen in einer größeren Gesamtheit, dem Multiversum. Jedes Universum beginnt mit seinem eigenen Urknall, hat seine Naturgesetze und Konstanten und
durchluft einen charakteristischen Zyklus.
Möglicherweise können sich dabei in einem vorhandenen Universum neue ”Baby-Universen” bilden.
Nach Guth ist aus Wurmlöchern ein Baby-Universum sogar (prinzipiell) im
Labor herstellbar.
Die meisten der natürlich entstandenen Universen wären ”Totgeburten” (rascher Kollaps; zu schnelle Expansion; keine Chemie möglich etc.).
Aber vielleicht ist unser Universum nicht einmal besonders kompliziert: Andere Universen könnten eine reichere Struktur haben, reicher als alles, was wir
uns vorstellen können. [Rees]
Weitere verwandte Konzepte:
Hawking: Wellenfunktion des Universums – unendliche Anzahl von Paralleluniversen, die vielfach andere physikalische Konstanten haben (und durch
Wurmlöcher verbunden sind), wobei unser Universum das einzige ist, wo Leben
möglich ist.
Linde: Chaotische Inflation – unendliches und ewiges Multiversum, erzeugt
4.2
Das heutige Universum
51
fortwährend Bereiche, die sich aufblähen und zu eigenen Universen entwickeln.
Stringtheorie (Veneziano / Gasparini): Anfangs war ein kalter, unendlicher
Raum. Aus Gleichungen der Stringtheorie folgt Instabilität, die zu Expansion
des Raums mit Verstärkung der Krümmung führt, was wiederum ein spektakuläres Wachstum der Energiedichte nach sich zieht. In einer millimetergroßen
dreidimensionalen Region beginnt die Inflation.
Smolin (”Kosmischer Darwinismus”): Schwarze Löcher sind Keime neuer Universen. Neue Universen bilden sich durch ”Mutation”, wobei die Naturkonstanten jeweils etwas verändert werden; begünstigt werden Universen, die viele
Schwarze Löcher hervorbringen.
4.2
4.2.1
Das heutige Universum
Großräumige Strukturen
Maßeinheiten: 1 Lichtjahr [Lj] = 9, 46 · 1012 km
Parsec [pc]: Entfernung eines Himmelkörpers, der eine jährliche Parallaxe von
1 Bogensekunde hätte:
1 pc = 3, 0857 · 1013 km = 206.265 AE = 3,2616 Lj
1 AE (astronomische Einheit) = mittlerer Abstand Sonne – Erde:
1 AE = 149.597.870 km
Bewegung der Erde im Weltraum
Erde um Sonne: 30 km/s
Sonne um Milchstraßenzentrum: 220 km/s
Milchstraße um Lokale Gruppe: 50 km/s
Lokale Gruppe in Virgo-Supergalaxienhaufen: 200 km/s
Virgo-Superhaufen auf ”Großen Attraktor”: 400 km/s
Nettobewegung der Erde relativ zur Hintergrundstrahlung: 400 km/s
Kosmische Hierarchie
Galaxie: Familie von Sternen, die durch Gravitation zusammengehalten wird,
mit eigenständiger Identität, die sie von anderen Galaxien unterscheidet.
Anmerkung: Unsere Galaxie, d.h. die Milchstraße, wird auch Galaxis genannt.
(Im Englischen durch Großschreibung von galaxie hervorgehoben.)
Die Galaxis enthält ca. 1011 Sterne und hat einen Durchmesser von 80.000
Lj, wobei sich die Sonne 28.000 Lj vom Zentrum entfernt befindet und 220
Millionen Jahre für einen Umlauf um das Zentrum braucht.
Galaxien sind Inseln im leeren Raum. Es gibt am Himmel etwa 200.000 pro
Quadratgrad, insgesamt 10 Milliarden Galaxien im sichtbaren Universum.
52
4
ENTWICKLUNG DES UNIVERSUMS
Galaxienhaufen sind die größten gravitativ gebundenen Materieansammlungen im Universum. Es gibt auch Superhaufen: Haufen von Galaxienhaufen.
Die meiste (sichtbare) Materie in einem Haufen besteht aus heißem intergalaktischem Gas, das Röntgenstrahlung aussendet. Damit ein Galaxienhaufen
gebunden bleibt und die Galaxien nicht auseinanderfliegen, müssen ca. 80%
der Masse als dunkle Materie vorliegen.
Auf Skalen von ∼ 10 Mpc scheint das Universum eine fast schwammähnliche
Struktur zu besitzen: Große Leerräume mit Ø > 1 Mpc, dazwischen Superhaufen, dünne ”Wände” und gelegentlich lange Filamente (Ketten) aus Galaxien
(> 10 Mpc).
Erst oberhalb 100 Mpc wird die Galaxienverteilung gleichförmig.
4.2.2
Galaxienentstehung
Voraussetzung zur Bildung von Strukturen sind kleine Inhomogenitäten oder
Fluktuationen. Ist das Universum völlig homogen, bilden sich keine Strukturen, bei großen Inhomogenitäten verklumpt alles zu stark.
Die Dichteinhomogenitäten, die für die kosmische Struktur verantwortlich sind,
waren vor der Entkopplung von Strahlung und Materie vorhanden. Erste Fluktuationen auf einer sehr kleinen Skala enthielt das Quantenvakuum. Durch die
Inflation werden die winzigen Inhomogenitäten auf dem sehr kleinen Ausgangsgebiet auf allen Skalen aufgebläht.
Damit sich gravitative Strukturen bilden können, muß schließlich für die Inhomogenitäten Q ≈ 10−5 gelten – was den Meßergebnissen für die Hintergrundstrahlung entspricht.
Die weitere Entwicklung der Inhomogenitäten hängt von der vorherrschenden
Materieform ab.
2 Szenarien der Galaxienbildung
I) top-down-Szenario
Als vorherrschende Materieform werden Baryonen angenommen.
Bis zur Entkopplung von Strahlung und Materie werden die bestehenden Inhomogenitäten eher geglättet, weil Strahlung dazu neigt, aus Materie ”auszulaufen”. Nur die großräumigsten Inhomogenitäten überstehen den Homogenisierungsprozeß, da die Zeit nicht ausreicht, sie zu glätten.
Nach der Entkopplung von Materie und Strahlung können Fluktuationen wachsen, sie haben dann mindestens 1015 M , die Größe eines Galaxienhaufens. Die
Verdichtungen ziehen weiter Materie an sich, bis sie schließlich kollabieren und
in Galaxien zerfallen. Größere Strukturen entwickeln sich also vor den kleineren, d.h. ”von oben nach unten” (top-down).
Da die Verteilung der Materie in den 3 Raumrichtungen im Allgemeinen nicht
4.2
Das heutige Universum
53
symmetrisch ist, fällt die große Materiewolke zu einer Art ”Pfannkuchen” zusammen, in dem die Galaxien hauptsächlich in dünnen Schichten vorliegen.
Wo sich die Schichten schneiden, bilden sich riesige Galaxienhaufen. Zwischen
den Schichten befinden sich große materiefreie Räume. Damit die notwendige
Dichte erreicht wird, muß dunkle Materie in Form von Neutrinos (Masse von
ca. 10 bis 30 eV) vorliegen.
Beobachtungen deuten allerdings darauf hin, daß sich zuerst Galaxien und
danach Galaxienhaufen gebildet haben.
II) bottom-up-Szenario
Als vorherrschende Materieform wird dunkle kalte Materie (schwach wechselwirkende Teilchen) angenommen. Die Inhomogenitäten beginnen daher bereits
nach dem Übergang zur Materiedominanz zu wachsen. Weil die dunkle Materie nicht mit der Strahlung wechselwirkt und als kalte Materie mit keinem
thermischen Druck gegen die Gravitation wirkt, kommt es zu Verklumpungen.
Da die Zusammenziehung eher beginnt, ist die Skala entsprechend kleiner. Die
ersten Objekte, die sich in einem solchen Universum bilden, sind Zwerggalaxien (bei R ≈ 10−3 R0 ). Dabei muß eine gewisse Mindestmasse (Jeansmasse)
mit ca. 106 M vorhanden sein.
Gewöhnliche Galaxien entstehen erst bei R ≈ 10−2 R0 , wobei sich die Baryonen stärker zusammenballen als die dunkle Materie. Schließlich bilden sich
Galaxienhaufen (R ≈ 10−1 R0 ).
Bildung von Galaxienhaufen
Die Galaxien eines lokalen Gebietes üben eine Anziehungskraft aus, die stark
genug ist, die Expansion des Universums in dem Gebiet zu stoppen. Das Gebiet erreicht seinen größten Radius, wenn die mittlere Dichte etwa fünfmal
größer ist als die Dichte der Umgebung, die natürlich ständig abnimmt.
Dann besitzt die Galaxienwolke nur (negative) potentielle Energie Epot . Beim
Zusammenziehen wandelt sich Epot in kinetische Energie Ekin in Form der
bewegten Galaxien um. Falls Epot = Ekin gilt, stellt sich ein dynamisches
Gleichgewicht her und ein stabiler Galaxienhaufen hat sich gebildet. Die Galaxienwolke ist dann auf ihren halben Radius geschrumpft.
Ein ähnliches Gleichgewicht stellt sich auch für Galaxien her (z.B. Milchstraße). Die Galaxis expandiert weder wie das Universum, noch zieht sie sich zusammen wie eine kollabierende interstellare Gaswolke. Die Stabilität resultiert
insbesondere aus
• Mittlere Dichte der Milchstraße mittlere Dichte des Universums, d.h. die
verstärkte Anziehung verhindert die Expansion.
• Milchstraße besteht hauptsächlich aus Sternen, die sich wie stoßfreie Teilchen
verhalten, so daß ihre Bahnenergie erhalten bleibt.
54
4
ENTWICKLUNG DES UNIVERSUMS
Anmerkungen:
1) Anfangs bilden sich eher elliptische Galaxien, später mehr Spiralgalaxien
(wie die Milchstraße). Letztere rotieren und erhalten ihre Form als Gleichgewicht zwischen Zentrifugalkraft und Gravitation.
2) Galaxien können miteinander verschmelzen, dadurch erhält die Sternentstehung oft einen mächtigen Anschub. Bei größeren Begegnungsgeschwindigkeiten durchqueren sich Galaxien ”wie Geister, die durch Wände gehen” (Silk).
4.2
Das heutige Universum
4.2.3
55
Die Zukunft des Universums
Entwicklungsstufen des Universums (nach Adams / Laughlin)
Das Zeitalter der Urmaterie
Urknall
Quantengravitation beherrscht das Universum (Planck-Zeit)
Große Vereinheitlichung von 3 Grundkräften
Quarks werden in Hadronen eingesperrt
Erste Elementerzeugung (Kernsynthese)
Materie dominiert über Strahlung
Elektronen und Protonen bilden Atome (Rekombination)
Das Zeitalter der leuchtende Sterne
Bildung der ersten Sterne
Bildung des Milchstraßensystems
Bildung des Sonnensystems
Heute
Unsere Sonne stirbt
Nahe Begegnung der Galaxie mit Andromedasystem
Tod der kleinsten Sterne
Ende der herkömmlichen Sternbildung
Das Zeitalter der entarteten Sterne
Planeten trennen sich von Sternen
Braune Zwerge stoßen zusammen und bilden Sterne
Sterne verdampfen aus Galaxis
Teilchen der dunklen Materie vernichten einander im galaktischen Halo
Gravitationsstrahlung stört die Bahn von Sternen
Weiße Zwerge saugen dunkle Materie des galaktischen Halos auf
Schwarze Löcher verschlingen Sterne
Protonen zerfallen
Neutronensterne verlieren Masse, heftige Ausbrüche
Planeten und weiße Zwerge werden durch Protonenzerfall vernichtet
Das Zeitalter der Schwarzen Löcher
Axionen (insbesondere Neutrinos) zerfallen zu Photonen
Schwarze Löcher mit einer Million Sonnenmassen verdampfen
In einem flachen Universum bildet sich Positronium
Die größten und massereichsten Schwarzen Löcher verschwinden
Das Zeitalter der Dunkelheit
Schwarze Löcher mit der Masse des jetzigen Horizonts verdampfen
In einem flachen Universum zerfällt Positronium
Dekade
−∞
−50, 5
−44, 5
−12, 5
−6
4
5,5
6
9
9,5
10
10,2
10,2
13
14
15
16
19
22,5
24
25
30
37
38
38 – 39
42
83
85
98
131
141
56
5
5.1
5.1.1
5
LEBEN
Leben
Entstehung des Lebens
Wesen und Voraussetzungen
Bisher keine allgemein akzeptierte Definition von ”Leben”
Charakteristische Merkmale:
• Autonomie: Selbstbestimmung und -erhaltung
• Reproduktion (einschließlich des Kopiermechanismus)
• ständige Energieaufnahme: Stoffwechsel
• Wachstum und Entwicklung
• organisierte Komplexität
• Hardware-Software-Verknüpfung
• Kontinuität und Wandel: Bewahrung der Identität / Anpassungszwang, um
zu überleben
Physikalische Definition (Tipler/Barrow): Leben ist durch natürliche Auslese bewahrte Information.
Voraussetzungen für die Entstehung von Leben
– hinreichende Abkühlung des Universums
– aktive Sterne als Energiequelle
– Ω0 ∼ 1
–Λ≈0
Zufall oder Notwendigkeit?
A) Entstehung des Lebens reiner Zufall (Monod)
B) Leben – Ergebnis deterministischer Kräfte:
. . . Es mußte unter den herrschenden Bedingungen zwangsläufig entstehen und
wird sich immer wieder entwickeln, wenn sich irgendwann und irgendwo erneut diese Bedingungen einstellen . . . Leben und Geist entstehen nicht als exotische Unfälle, sondern als natürliche Erscheinungsformen der Materie, die
der Struktur des Universums innewohnen. (Duve)
Bevorzugen atomare Kräfte Konfigurationen (z.B. von Aminosäuren), die von
biologischen Nutzen sind (”Prädestinierung”)?
Leben vollbringt seine Wunder nicht, indem es sich chemischen Gesetzmäßigkeiten beugt, sondern indem es umgeht, was chemisch und thermodynamisch
als natürlich erscheint. (Davies)
5.1.2
Selbstorganisation
Organisation: Prozeß, durch den in einem System Ordnung (mit bestimmten
5.1
Entstehung des Lebens
57
Strukturen und Gesetzen) erzeugt wird.
Selbstorganisation: Dynamische Entwicklung eines Systems, in deren Verlauf
es sich selbst ordnet. Insbesondere ist das für jeden Evolutionsprozeß charakteristisch.
Notwendige Bedingungen für Selbstorgansiation:
• System ist weit vom Gleichgewicht entfernt
• System wirkt nichtlinear
• System exportiert Entropie
Beispiel: Bénard-Zellen
Erhitzung von Flüssigkeiten (Wassertopf auf Herd):
Konvektion – Wasser sprudelt ungeordnet, erhitzte Flüssigkeit drängt nach
oben. Bei fortgesetzter Erhitzung gerät System aus Gleichgewicht:
Es bilden sich Strömungsmuster – sechseckige Zellen (hochgradig geordnet und
stabil).
Bei weiterer Erhitzung verschwinden die Zellen, das System wird chaotisch.
Leben ist ein offenes System mit ständigem Austausch von Energie und Entropie mit der Umwelt.
Hat die Evolution als Ziel eine höhere Komplexität?
Komplexitätsgewinn kann statistisch beschrieben werden.
Wir sind das prächtige Zufallsprodukt eines unberechenbaren Prozesses ohne
jeden Drang zur Komplexität, nicht das erwartete Ergebnis von Evolutionsprinzipien, die ein Geschöpf hervorbringen wollen, das in der Lage ist, seinen
eigenen Bauplan zu verstehen. (Gould)
5.1.3
Bausteine des irdischen Lebens
Lebende Organismen bestehen bekanntlich aus Zellen. Die Bausteine der Zelle
sind die Proteine (Mensch: 200.000 Typen).
Protein: Kette von Aminosäuren (20 Sorten) – wichtig ist die richtige räumliche Faltung.
Genetischer Code:
Die Reihenfolge der Aminosäuren wird definiert durch die Desoxyribonukleinsäure (DNS) [engl. Desoxyribonuclein-Acid – DNA], deren einzelne
Moleküle nennt man Nukleotide.
(Mensch: 2, 8 · 109 , Bakterien: ∼ 107 Nukleotide)
4 Nukleotide (”Buchstaben”): Adenin, Guanin, Cytosin, Thymin
Je 3 Nukleotide (Codon) für Verschlüsselung einer Aminosäure:
64 Möglichkeiten.
Der DNS-Abschnitt, der ein bestimmtes Merkmal eines Individuums charak-
58
5
LEBEN
terisiert, heißt Gen (kann verstreut in verschiedenen Teilen der DNS verschlüsselt sein). Die DNS-Kette befindet sich im Zellkern jeder einzelnen Zelle
des Organismus in doppelter Ausfertigung (mit A-T bzw. C-G-Bindung): Doppelhelix (Durchmesser < 0,02 nm).
Bei der Zellteilung spaltet sich die Doppelhelix der Länge nach in die beiden
DNS-Stränge und jeder DNS-Strang bildet um sich eine neue Zelle mit je einer
Doppelhelix.
Aus einer befruchteten Eizelle bildet sich durch fortwährende Zellteilung ein
neues Individuum. Mit der einsetzenden Spezialisierung der Zellen werden gewisse Gene an- oder ausgeschaltet.
Die DNS ist sehr langlebig (insgesamt ca. 3,5 Milliarden Jahre alt), aber auf
Proteine angewiesen, um ihren Plan zu realisieren.
Protein-Synthese
Die Zelle macht den entsprechenden Teilstring der DNS ausfindig und kopiert
ihn; Kopie des Teilstrings (wobei Thymin durch Uracil ersetzt wird) = Ribonukleinsäure (RNS). Sie wird in den Teil der Zelle transportiert (dem Ribosom),
der die RNS in eine Kette von Aminosäuren entsprechend der Verschlüsselung
umsetzen kann.
Die Verschlüsselung der Aminosäuren in der RNS
Jede Verschlüsselung beginnt mit AUG und endet mit UGA, UAA oder UAG.
1/2
U
C
A
G
U
Phenylalanin
Phenylalanin
Leucin
Leucin
Leucin
Leucin
Leucin
Leucin
Isoleucin
Isoleucin
Isoleucin
–
Valin
Valin
Valin
Valin
C
Serin
Serin
Serin
Serin
Prolin
Prolin
Prolin
Prolin
Threonin
Threonin
Threonin
Threonin
Alanin
Alanin
Alanin
Alanin
A
Tyrosin
Tyrosin
–
–
Histidin
Histidin
Glutamin
Glutamin
Asparagin
Asparagin
Lysin
Lysin
Aspartic Acid
Aspartic Acid
Glutamid Acid
Glutamid Acid
G
Cystein
Cystein
–
Thryptophan
Arginin
Arginin
Arginin
Arginin
Serin
Serin
Arginin
Arginin
Glycin
Glycin
Glycin
Glycin
3
U
C
A
G
U
C
A
G
U
C
A
G
U
C
A
G
5.1
Entstehung des Lebens
59
Warum ausgerechnet 20 Aminosäuren und 4 Nukleotidbasen?
Weniger Aminosäuren – weniger Variationsmöglichkeiten,
mehr Aminosäuren – wachsende Wahrscheinlichkeit von Kopierfehlern.
Komplexität des Codes:
Jede Folge, die nicht algorithmisch komprimiert werden kann, ist zufällig (Chaitin) =
b maximale Information: kürzeste Darstellung der Folge ist die Folge
selbst.
Beispiele:
1) 11001001000011111101101010100010001000010110100011 . . .
Keine Zufallszahl, aber besteht alle statistischen Tests auf Zufälligkeit.
2) . . . 01000111011101001001110011010110101110111010100001 . . .
Abschnitt des Genoms des Virus MB2 mit A = 00, U = 11, G = 01, C = 10
Generell läßt sich Zufälligkeit einer Folge nicht beweisen.
Eine Folge muß (wenigstens annähernd) zufällig sein, wenn sie eine große Menge genetischer Information enthalten soll. Die meisten Genome sind in ihrer
Basenanordnung nicht vollkommen zufallsbedingt, schon wegen der Regeln der
”Zeichensetzung”. Zudem können DNS-Abschnitte dupliziert oder umgekehrt
werden. Wenn man diese einfachen Regelmäßigkeiten ausfiltert, wurde innerhalb der einzelnen Proteincodes bisher kein systematisches Muster gefunden
(kein Code im Code). Andererseits ergeben die meisten zufallsbedingten Folgen kein potentielles Genom.
5.1.4
Ursprung des Lebens
Oparin, Haldane (30er J.): Aus der Ur-Atmossphäre (Wasserstoff, Methan,
Ammoniak, Wasserdampf) bildeten sich unter äußeren Bedingungen (Sonneneinstrahlung, Blitze) organische Moleküle.
Experiment Miller (1953): In Glaskolben obige Stoffe, Erhitzung (”Sonne”)
+ elektrische Entladungen (60.000 V), danach Abkühlung und Kondensation
(”Regen”) – es entstanden Aminosäuren (vorbiologische Evolution).
Nach neueren Erkenntnissen bestand Uratmossphäre eher aus CO2 und N2
(ungünstig).
Komplexitätsunterschied Zelle – Aminosäuren ist wahrscheinlich größer als
Mensch – Zelle.
”Einwand gegen die Schutthalden-Mentalität” (Hoyle):
Eine Schutthalde enthalte alle Einzelteile einer Boeing 747, aber völlig zerstückelt und ungeordnet. Ein Wirbelsturm fegt über die Halle dahin. Wie groß ist
die Wahrscheinlichkeit, daß man anschließend eine völlig montierte, flugbereite
Boeing 747 dort vorfindet? So gering, daß man sie nicht zu berücksichtigen
braucht, selbst wenn ein Tornado über genügend Schutthalden hinwegwirbelte,
60
5
LEBEN
um damit das Universum auszufüllen.
Folgerung: Aus bloßem Zufall können (in endlicher Zeit) praktisch keine komplexen Strukturen entstehen, geschweige denn Leben.
Außerdem besteht Huhn-oder-Ei-Problematik: Ohne DNS keine Proteine, ohne
Proteine keine DNS.
Konzepte zum Ursprung des Lebens:
I) Chemische Selbstmontage
Irgendwo auf Erdoberfläche in ”warmen kleinen Teich” (Darwin)
1) Zuerst RNS: chemisch vielseitiger als DNS, kann auch als Informationsspeicher fungieren, aber zerbrechlicher. Sogar Selbstmontage aus ausgewogener Chemikalienmischung möglich. (Eigen)
Durch zufällige Wechselwirkung mit Aminosäuren bestehen bessere Voraussetzungen für die RNS-Replikation – allmähliche Herausbildung der Proteine
und DNS .
Kritik:
– sehr künstliche und komplexe Chemikalienmischung erforderlich
– Problem der Chiralität
– RNS-Replikation in verschiedenen Lebensbereichen nicht einheitlich
– kein Stoffwechsel: Energiezufuhr?
– Fehlerkatastrophe: kleine Moleküle nur geringe Replikationsgenauigkeit
2) Zuerst Proteine: bestimmte kurze Peptidketten können sich selbständig vermehren.
A) Hardware und Software getrennt entstanden (Dyson): 2 Arten von Urorganismen – eine mit Proteinstoffwechsel, aber ohne Fähigkeit sich fortzuplanzen; andere replikationsfähig, aber ohne Stoffwechsel – Leben durch Symbiose
beider Arten.
B) Am Meeresboden in Nähe von Vulkanen (Russel): Eisen-Schwefel-Verbindungen mit halbdurchlässiger Membran wie Zelle, auch Zellteilung möglich;
Energie aus Elektrizität.
3) Weder Proteine noch DNS zuerst (Cairns-Smith): zunächst Datenspeicher in Form von Tonkristallen (alle für Evolution notwendige Eigenschaften: Replikation, Variation, Selektion vorhanden). Die Kristalle produzierten
zunächst organische Moleküle zu eigennützigen Zwecken (bessere Replikation).
Später kam es zur genetischen Übernahme durch Nukleinsäuren. Tonkristalle
als ”Gerüst”, um das ”Bauwerk” Nukleinsäure zu errichten
II) Leben aus Weltall (Panspermie-Hypothese)
Nach Oort (1950) gibt es große Kometenwolke jenseits des Pluto (Durchmesser: mehrere Lichtjahre) mit vielen organischen Stoffen (bisher nicht nach-
5.2
Entwicklung des Lebens
61
gewiesen).
Tatsächlich enthalten Kometen meist Wasser und viele organische Substanzen.
Bei kosmischen Einschlägen wird viel Material in den Weltraum katapultiert,
beispielsweise vom Mars.
Falls Universum unendlich alt ist, kann auch Leben unendlich alt sein (kein
Ursprung).
III) Leben aus der Tiefe (Corliss / Gold)
Durch DNS-Analyse fand man heraus, daß hitzeliebende Bakterien dem universalen Ahnen am ähnlichsten sind.
Die erste Zelle bildete sich möglicherweise bei 100 – 150◦ C mindestens 1 km
unter der Meeresoberfläche, wahrscheinlich in porösem Felsgestein (”Steinfresser”). Die Zellen verarbeiteten Schwefel, Eisen, Wasserstoff aus dem Gestein
mit in Wasser gelöstem Kohlendioxid.
Da es nach unten zu heiß war, konnten sie sich nur nach oben ausbreiten, mußten allerdings dabei ihre Reproduktion ändern – Entstehen einfacher Formen
der Photosynthese.
5.2
5.2.1
Entwicklung des Lebens
Evolution
Zeitraum [Jahre]
(vor Gegenwart)
4, 55 · 109
3, 85 · 109
3, 5 · 109
1, 8 · 109
1, 1 · 109
109
8, 5 · 108
5, 45 · 108
5 · 108
2 · 108
6, 5 · 107
3, 5 · 106
6 · 104
Ereignis
Entstehung der Erde
Entstehung des Lebens
älteste Fossilien (Cyanobakterien)
eukaryotischer Plankton
Eukaryoten mit Sexualität und Tod
Vielzeller; Landpflanzen
früheste Urtierchen (Protozoen)
Arten-”Explosion”
erste Landtiere (Amphibien)
Entwicklung der Dinosaurier
Aussterben der Dinosaurier;
Aufstieg der Säugetiere
Entwicklung der Hominiden
(Biologische) Entwicklung des
Homo sapiens sapiens abgeschlossen
Das Leben auf der Erde stammt von einem gemeinsamen Vorfahren ab (6=
62
5
LEBEN
erste Lebensform). Von allen jemals existierenden Arten sind inzwischen 99%
ausgestorben.
Es existieren 3 grundlegende Bereiche des Lebens (Teilung vor ca. 3 Milliarden
Jahren):
– Bakterien: Einzeller ohne Zellkern
– Archaebakterien: oberflächlich ähnlich, aber genetisch anders
– Eukaryoten: komplexere Einzeller und vielzellige Organismen
Die dominierenden Lebensform sind Bakterien. Zum Beispiel enthält ein
Löffel Erde 1013 Bakterien von 10.000 Arten. Die Gesamtmasse der Mikroorganismen auf der Erde beträgt ca. 1014 t. [Davies]
Das grundlegende Prinzip der Evolution stellt die natürliche Auslese dar.
Dabei sind alle Organismen faktisch ”Überlebensmaschinen” ihrer Gene.
Die Auslese basiert auf Mutation und Rekombination (Kreuzung der DNS
zweier Individuen). Optimal ist viel Rekombination und etwas Mutation.
5.2.2
Die Gaia-Hypothese
Gaia: selbstregulierendes, evolvierendes System, bestehend aus allem Lebendigen und seiner Oberflächenumwelt (Meere, Atmossphäre, Erdkruste), das
sich ähnlich wie jeder biologischer Organismus verhält.
Klima, Zusammensetzung von Gestein, Meer und Atmossphäre sind nicht nur
geologisch, sondern auch biologisch bedingt.
Beispiel: Temperatur
Einerseits wäre ohne natürliche Treibhausgase die Oberflächentemperatur 33◦ C
kälter. Andererseits ist der Energieausstoß der Sonne in 3,6 Milliarden Jahren um 25% gewachsen, dennoch blieb die Temperatur im lebensfreundlichen
Rahmen.
Erdzeitalter
I) Hadäum (4,6 – 3,7 Mrd. J.)
Die Erde war anfangs sehr heiß und ohne Atmosphäre; durch Gasemission
des Gesteins Bildung einer Atmossphäre (ohne Sauerstoff). Die relativ hohe
Radioaktivität führte zu Vulkanismus mit hohem CO2 -Ausstoß. Wegen Treibhauseffekt stabilisierte sich die Temperatur der Atmossphäre.
II) Archaikum (3,7 – 2,5 Mrd. J.)
In Atmosphäre wahrscheinlich 30% CO2 , außerdem N2 und CH4 ; Durchschnittstemperatur T A = 28◦ C.
Erste chemische Reaktionen durch Lebensformen.
Das sich herausbildende Gleichgewicht zwischen Bakterien, die auf Photosyn-
5.3
Natürliche und künstliche Intelligenz
63
these und Verwesung beruhen, schafft stabile Stoffbilanzen – Geburt von Gaia.
Die Bedingungen für die Entstehung des Lebens waren nur begrenzte Zeit
günstig; durch Gaia wurden lebensgünstige Bedingungen bewahrt.
III) Proterozoikum (2,5 - 0,7 Mrd. J.)
O2 beginnt zu dominieren; in leicht oxydierenden Oberflächen können sich
komplexere Organismen als Bakterien entwickeln.
IV) Phanerozoikum (0,7 Mrd. – Gegenwart)
O2 -Gehalt 21% – nahezu konstant; CO2 wurde zum Ausgleich für steigende
Strahlungsintensität der Sonne auf 0, 03% reduziert.
Pflanzen und Tiere bilden globales System und die heutige Landschaft entsteht.
Das Leben ist an Kreislaufprozessen aktiv beteiligt, insbesondere betrifft das
die Stoffe CO2 , O2 , N2 , CH4 und S.
Beispiel: CO2
Zwischen Produzenten und Konsumenten besteht ein Gleichgewicht.
CO2 aus externen Quellen (Vulkane) wird schließlich in Kalkstein und Kieselerde gebunden. Diese Prozesse werden durch Mikroorganismen wesentlich
beschleunigt.
Leben kann sich der Entwicklung zum chemischen Gleichgewicht nur entgegenstellen, wenn es global wirkt.
Wenn es Leben auf einem Planeten gibt, dann kann es kein spärliches Leben
sein. Das System muß groß und vital sein, um mit globalen Problemen fertig
zu werden. (Lovelock)
Krankheitssymptome:
– Landwirtschaft und Entwaldung
– Saurer Regen
– Zerstörung der Ozonschicht
– globale Erwärmung (Treibhauseffekt)
5.3
5.3.1
Natürliche und künstliche Intelligenz
Bewußtsein
Bewußtsein (im engeren Sinne): Wissen eines Systems, daß es selbst existiert.
In der Informatik stellt Bewußtsein ein emergentes Phänomen dar, das sich
ergibt, wenn ein System komplex genug ist.
Grundlegende Voraussetzungen für die Entstehung von Bewußtsein
• Linearität: ähnliche Ursachen haben ähnliche Wirkungen
64
5
LEBEN
• Lokalität: Dinge, die passieren, werden durch Ereignisse in räumlicher und
zeitlicher Nachbarschaft beeinflußt
• Unschärferelation: Identität der Erscheinungen der atomaren Welt und strukturelle Wiederholbarkeit der physikalischen Welt
Die höchste bekannte Form des Bewußtseins wird verkörpert durch das menschliche Gehirn: Speicherfähigkeit: ca. 1011 Neuronen mit jeweils 105 Verbindungen (Synapsen) zu anderen Neuronen =
b 1016 Bits
Operationsgeschwindigkeit: ca. 10 Tera-Flops
5.3.2
Neuronen
Die Neuronen (Nervenzellen) sind die Bausteine des Geistes, d.h. die Grundlage für Prozesse, die dem Bewußtsein, Denken und Seelenleben zugrunde liegen.
Neuronen bestehen aus dem Soma (”Kopf”), von dem Dendriten (Empfänger)
vielfältig verzweigen und dem Axon (Sender).
Das Soma empfängt Signale in Form chemisch ausgelöster lokaler Hyper- oder
Depolarisierungen der Zellmembran (Aufbau oder Abbau elektrischer Spannungen). Die Signale stammen meist von den Endigungen anderer Neuronen,
den synaptischen Endknoten. Bei sensorischen Neuronen können die Signale
auch aus der Außenwelt stammen.
Die Signalverarbeitumg führt zu einem bestimmten Output, der – als Sequenz
elektrischer Impulse – über das Axon weitergegeben wird. Über das Axon gelangen elektrische Impulse zu anderen Neuronen oder – bei motorischen Neuronen – zu Muskelfasern. Das Axon kann sich verzweigen und derart viele andere
Nervenzellen erreichen. Über die synaptischen Endknoten kommunizieren die
Neuronen miteinander. Dabei wird eine Transmittersubstanz freigesetzt, die
die Zellmembran des Empfängerneurons entweder de- oder hyperpolarisiert.
Eine Depolarisierung erhöht die Frequenz der Impulse (Aktivationen). Eine
Hyperpolarisierung senkt die Frequenz der Impulse (Inhibitionen).
Ein Neuron kann sich selbst inhibieren oder aktivieren.
Die Endknoten speichern verschiedene Mengen Transmittersubstanzen (Gewichte), die mit den eintreffenden Signalen verrechnet werden.
Formalisierte Neuronen können die bekannten logischen Verknüpfungen (insbesondere Konjunktion, Disjunktion und Negation), aber auch gewisse Verallgemeinerungen aus der Fuzzy-Logik ausführen. Damit stellen Neuronen Universalelemente dar und man kann mit ihnen alles machen, was mit Informationsverarbeitung zu tun hat (zum Beispiel Mustererkennung).
5.3
Natürliche und künstliche Intelligenz
5.3.3
65
Künstliche Intelligenz
Können Maschinen eines Tages denken?
KI: Es gibt bereits denkende Maschinen, sie heißen Menschen.
Im Gegensatz zu physikalischen Gesetzen ist Intelligenz nicht auf wenige Regeln reduzierbar.
Intelligenz besteht aus zehn Millionen Regeln. (Lenat)
Allgemeine Probleme
• Energieverbrauch / Kühlung
• Speicherung der Information (Hardware)
Speichermedium
Keilschrift in Tontafeln
Pergament
Silberhalogenid-Film
auf Polyestermaterial
alterungsbeständiges Papier
saures Papier
Farbfilme
CD, DVD
Zeitungspapier
Ton- und Videobänder
Lebensdauer (Jahre)
4000
> 1000
> 1000
> 500
20 – 200
30 – 100
30 – 100
10 – 30
10 – 20
Perspektiven
Kurzweil (1999):
2019 – Berichte über Computer, die den Turing-Test bestanden haben, häufen
sich.
um 2099 – Das menschliche Denken verschmilzt mit der ursprünglich von der
menschlichen Spezies erschaffenen Maschinenintelligenz. . . .
Der Begriff ”Lebenserwartung” hat im Zusammenhang mit intelligenten Wesen
keine Bedeutung mehr.
In fünfziger Jahren machten Simon/Newell folgende Voraussagen:
1. Bis 1966 wird ein Computer Schachweltmeister.
2. Bis 1966 wird ein Computer einen wichtigen mathematischen Satz entdecken
und beweisen.
3. Bis 1966 werden Computer qualitativ hochwertige Musik komponieren.
Prinzipielle Bedenken
– Gehirn ist vor allem eine neuro-chemische ”Maschine”; auf Siliziumbasis oder
ähnlichem kaum reproduzierbar
– Gehirn ist weitgehend optimiert, Manipulationen führen eher zur Verschlech-
66
5
LEBEN
terung
– Wenngleich sich die Rechnerleistung in den letzten Jahrzehnten nach dem
Mooreschen Gesetz entwickelt hat, gilt das nicht für KI-Forschung
67
6
6.1
6.1.1
Zukunft der Menschheit
Risiken und Chancen
Zivilisationstypen
Quantifizierung:
Effektive isotrope Strahlungsleistung (EISL) eines Radiowellen-Senders
= abgestrahlte Leistung / Bruchteil des überdeckten Himmels
Zivilisations0 (Erde)
minimale
EISL [W]
< 1014
I
1016
II
III
1027
1038
6.1.2
Bemerkungen
Arecibo-Radioteleskop
in Puerto-Rico
Strahlungsleistung des gesamten
auf Erde fallenden Sonnenlichts
Leuchtkraft der Sonne
Strahlungsleistung aller Sterne
der Galaxis
Planetare Katastrophen
• Meteoriten: Körper aus Weltall, die auf Erde einschlagen
Speziell:
Asteroiden – kleine felsige Objekte im Sonnensystem – 1000 . . . 4000 kreuzen
Erdbahn mit Durchmesser > 0, 8km (nur 150 Bahnen bekannt)
Kometen: Eiskörper mit einigen Kilometer Durchmesser, die Sonne umkreisen
und zum Teil verdunsten, wenn sie sich Sonne nähern
1694 Halley: Möglichkeit eines Kometeneinschlags
1873 Proctor: Mondkrater durch Meteoriteneinschläge
(Nachweis: Apollo-Landungen)
1990: größter Krater auf Erde in Mexiko entdeckt – Chicxulub:
Durchmesser 180 km (Geschoßdurchmesser 20 km; 108 Mt TNT),
Alter 64, 98 ± 0, 05 Mio. Jahre
Fast-Zusammenstöße
Tag
Name
23.3.1989
3.1.1993
14.8.2126
Toutatis
Swift-Tuttle-Komet
Durchmesser
d [km]
0,8
>3
Minimale Entfernung [Mio. km]
1,1
3,5
0 (?)
Ab d ≥ 2 km – globale Katastrophe; wahrscheinlich alle 100 Mio Jahre Treffer
durch Geschoß mit d = 10 km.
68
6.1.3
6
ZUKUNFT DER MENSCHHEIT
Neue Technologien
Joy (2000) forderte Moratorium für Forschungen auf 3 Gebieten, die eine
Bedrohung für die Existenz der Menschheit darstellen:
Gentechnik, Nanotechnik und Robotik.
A) Gentechnik
1997 Schaf ”Dolly” als erstes erwachsenes Säugetier geklont (organismisches
Klonen): Zellkern einer kultivierten Schaf-Euterzelle wurde auf ”entkernte”
Eizelle eines anderen Schafes übertragen.
Weitere (umstrittene) Gentechniken:
• therapeutisches Klonen: nach Dolly-Verfahren gezeugte Embryonen werden
im Labor zu gewünschten Zell- oder Gewebearten kultiviert, um die entstandenen Organe in Patienten zu transplantieren.
• embryonale Stammzellen: 1998 züchtete Thompson menschliche embryonale
Stammzellen in Dauerkultur (aus ”überzähligen” Embryonen von ReagenzglasBefruchtungen)
Ziel: Reparatur von defektem Gewebe
• gewebespezifische Stammzellen (bei Erwachsenen): z.B. im Blut auf 10.000
Zellen eine Stammzelle – kann prinzipiell intaktes Immunsystem aufbauen.
• Präimplantationsdiagnostik (PID): nach künstlicher Befruchtung Test der
Embryonen auf Erbkrankheiten vor Einpflanzung in Gebärmutter der (Leih)Mutter
B) Nanotechnik
Drexler (1985) prognostizierte Maschinen aufgebaut aus Atomen und Molekülen. Wegen ihrer Winzigkeit müssen sie sich selbst reproduzieren können.
Allesfressende Nanoboter könnten gesamte Biosphäre in ”grauen Schleim” (gray
goo) zerlegen.
”Optimistische” Prognosen: ab 2020 erste Nanoboter
C) Robotik
Moravec (1999): In Zukunft vier Generationen von Universalrobotern
2010 – Raumsinn auf Niveau von Eidechsen
2020 – Anpassungsfähigkeit von Mäusen
2030 – Vorstellungsgabe von Affen
2040 – Denkvermögen von Menschen
Die drei Gesetze der Robotik (Asimow)
1) Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit
zulassen, daß einem Menschen Schaden zugefügt wird.
2) Ein Roboter muß Befehlen, die ihm Menschen geben, gehorchen, wenn sie
6.2
Interplanetare Raumfahrt
69
nicht im Widerspruch zum ersten Gesetz stehen.
3) Ein Roboter muß seine eigene Existenz schützen, solange ein solcher Schutz
nicht im Widerspruch zum ersten oder zweiten Gesetz steht.
6.2
6.2.1
Interplanetare Raumfahrt
Außerirdische Zivilisationen
In unserem Sonnensystem gibt es keine anderen Zivilisationen:
Venus: Atmosphäre aus CO2 , Treibhauseffekt, > 400◦ C, Niederschläge aus
Schwefelsäure
Mars: Wüste, kein Oberflächenwasser, Spuren verschwundener Meere und Flüsse; bis −140◦ C, Atmosphäre aus CO2 mit Spuren N2 und O2 , nur 7,5 mbar;
UV-Strahlung, da keine Ozonschicht; Sandstürme bis 650 km/h; höchster Berg
Olympus Mons 27 km hoch
Wahrscheinlich ist intelligentes Leben selten.
• Alle Projekte zur Suche nach künstlichen Radiosignalen, die auf extraterrestrische Intelligenzen hinweisen, blieben bisher erfolglos.
• Es gibt keinen Beleg dafür, daß jemals Außerirdische die Erde besucht hätten;
zumindest haben sie niemals versucht die Erde zu kolonisieren.
Jede fortgeschrittene Zivilisation muß nach 2. Hauptsatz der Thermodynamik
große Mengen Abwärme produzieren.
Drake (1960) Projekt Seti (Search for Extra-Terrestrial Intelligence):
Radioteleskop auf Epsilon Eridani und Tau ceti gerichtet.
Horowitz (1978) untersuchte alle sonnenähnlichen Sternensysteme bis 80 Lj
Entfernung von der Erde.
Neuerdings wird auch nach Laserblitzen gesucht (1000mal heller als Sonne,
nur eine Frequenz) (”Optical Seti”).
Vielleicht kommunizieren die Auáerirdischen mit Zetawellen und das Problem
ist, daß wir Zetawellen noch nicht entdeckt haben. (Horowitz)
Wahrscheinlich gibt es in der Galaxis keine weiteren Zivilisationen.
Jede Zivilisation mit Fähigkeit und Willen zur Kolonisierung der Galaxis könnte das getan haben, bevor mögliche Konkurrenten auch nur eine Chance gehabt
haben.
70
6.2.2
6
ZUKUNFT DER MENSCHHEIT
Perspektiven der Raumfahrt
Die Erde ist die Wiege der Menschheit, aber man kann nicht zeitlebens in der
Wiege bleiben. (Ziolkowski)
Bemannte Marslandung laut NASA nicht vor 2020
Kolonisierung des Marses nicht vor 2070 – einziger Planet im Sonnensystem,
wo eine entfernte Aussicht besteht, erdähnliche Bedingungen herzustellen
Kolonisierung des Sonnensystems nicht vor 2200
Fernziel: Entdeckung anderer Planeten außerhalb des Sonnensystems, auf denen Leben möglich ist
Raumfahrt: (Über-)Lebensversicherung der Menschheit
Visionäre Projekte
• Ionenantrieb: durch dünnen Ionenstrahl, der sehr lange ausgestoßen wird,
kontinuierlicher Schub; insbesondere für Transport von Lasten, wo Zeitfaktor
weniger wichtig
• Nuklearpulsrakete (Ulam)
Projekt Orion (1958 – 1965) und Daedalus (1973 - 1978): Antrieb durch Wasserstoffbombenexplosionen – v = 0, 12 c realisierbar
• Staustrahltriebwerk (Bussard, 1960; 500 m lang, 1000 t): Wasserstoff wird
mit Riesenschaufel aus interstellarem Raum angesaugt und für Kernfusion
genutzt.
Rakete kann beliebig lange mit g beschleunigt werden – nach etwa einem Jahr
wird Lichtgeschwindigkeit erreicht.
• Sonnensegel: Sonnenenergie mit Laser gebündelt
Spezifischer Impuls = Schub · Zeit / (Treibstoffmasse · G) [s]
(Um Lichtgeschwindigkeit zu erreichen – spezifischer Impuls 3 · 107 s)
Raketenart
chemischer Antrieb
Ionenantrieb
Fusionsantrieb
Nuklearpuls
Staustrahlantrieb
spezifischer Impuls [s]
500
104 – 4 · 105
2, 5 · 103 – 4 · 105
106
106
Unbemannte Visionen:
Dyson: Astrochicken – etwa 1 kg schwere, sich selbstreproduzierende Synthese
aus Gentechnologie, künstlicher Intelligenz und solarelektrischem Antriebssystem; Energieaufnahme aus Eis und Kohlenwasserstoffen; ”hüpfen” von Planet
zu Planet
71
7
7.1
7.1.1
Welt und Erkenntnis
Grenzen der Erkenntnis
Naturwissenschaftliche Grenzen
Hilbert: ”Grundlagen der Geometrie” (1899) – Beweis der Widerspruchsfreiheit der Axiome der Geometrie
Forderung: Axiomatisierung aller Bereiche der Mathematik
Gödel (1931): Ein mathematische System aus Axiomen und Ableitungsregeln,
das umfangreich genug ist, daß es die Arithmetik (+, ·) enthält, kann nicht
widerspruchsfrei und vollständig sein. Das heißt, bei Widerspruchsfreiheit gibt
es Aussagen, die weder beweisbar noch widerlegbar sind (nicht entscheidbar).
7.1.2
Wissenschaft und Religion
Gottesbeweise
1) Kosmologischer Beweis
2) Teleologischer Beweis
3) Ontologischer Beweis
Mehr Gottesbeweise kann es nach Kant nicht geben, der auch alle widerlegte.
zu 1) (Thomas von Aquin): Alle Dinge haben Ursache, also muß es eine erste
Ursache geben, d.h. die Welt muß eine Ursache haben.
Wittgenstein: Die Welt ist die Gesamtheit der Tatsachen, nicht der Dinge.
zu 2) (Thomas von Aquin): Den Dingen liegt ein Plan zugrunde, also dienen
sie einem Zweck.
zu 3) (Anselm von Canterbury): Gott ist per Definition das vollkommenste
und mächtigste Wesen. Entweder er existiert oder er existiert nicht. Wenn er
nicht existiert, ist er weniger vollkommen, als wenn er existiert. Also muß er
existieren.
Nach Kant ist Existenz kein Prädikat, d.h. sie macht beispielsweise ein Ding
nicht vollkommener.
Herkunft der Religion
Wilson: Religion gibt es in jeder menschlicher Kultur.
Alle primitiven Völker haben ”Ursprungsmythos”– Sinnfrage.
Dabei kommt es zu einer scharfen Trennung zwischen ”uns” und ”sie” :
– Zusammenhalt des Stammes
– Unterdrückung aller Kritik am Führer, die Gruppe entzweien könnte.
Letztlich stellte die Religion einen Evolutionsvorteil dar.
72
7
7.2
WELT UND ERKENNTNIS
Naturwissenschaft und Mathematik
7.2.1
Rolle der Mathematik
Mathematik beschäftigt sich mit gedachten Gegenständen.
Welche Beziehung gibt es zur realen Welt?
Platon: Mathematik – wahre, tiefe Wirklichkeit (Welt der Ideen), deren unvollkommene Widerspiegelung – sichtbare (physikalische) Welt .
Aristoteles: Mathematik nur oberflächliche Darstellung eines Teils der physikalischen Wirklichkeit.
7.2.2
Berechenbare Funktionen
Funktion f : Abbildung von Menge M auf N .
Dabei bezeichne D(f ) – Definitionsbereich von f .
Algorithmus: Endliche Folge von Operationen mit Zeichen aus einer endlichen
Menge (Alphabet).
Folglich gibt es nur abzählbar viele Algorithmen.
Berechenbare Funktion: Funktion, für die es einen Algorithmus gibt, der
für jeden Eingabewert m ∈ M, M ⊂ D(f ) nach endlich vielen Schritten anhält
und als Ergebnis f (m) liefert.
In allen Fällen in denen f (m) nicht definiert ist, bricht der Algorithmus nicht
ab.
Da es überabzählbar viele Funktionen f : M 7→ N (M, N unendliche Mengen)
gibt, können nicht alle Funktionen berechenbar sein.
Nicht berechenbare Funktionen können über kein Verfahren auf Computern
nachvollzogen werden.
Churchsche These: Die Klasse der berechenbaren Funktionen = Klasse der
Funktionen, die durch Turing-Maschine berechnet werden können.
Halteproblem: Gibt es einen Algorithmus, der definiert, ob ein bestimmtes
Programm, das ein bestimmtes Problem bearbeitet, schließlich anhält?
Sei P – Menge aller Programme (einer Programmiersprache)
f1 : P 7→ {w, f}
mit
(
w
f1 =
f
Programm P stoppt für alle definierten Eingaben
nach endlich vielen Schritten
sonst
7.2
Naturwissenschaft und Mathematik
73
Weiterhin kann ein Programm, welches nicht selbst das Betriebssystem eines
Computers aktiv verändert, niemals alle Programme erkennen, die dies tun –
d.h. sämtliche Viren.
Außerdem gibt es mathematische Operationen, die sich zwar berechnen lassen,
wo die Rechenzeit jedoch divergiert.
7.2.3
Unendlichkeit
Bruno postulierte als erster unendlichen Kosmos.
Pascal erweiterte diese Vorstellung auf den Mikrokosmos. (”Jedes Atom enthält unendlich viele Universen.”)
Cantor: unendliche Menge – abgeschlossene Ganzheit, welcher im Sinne von
Platon etwas Existentielles anhaftet.
Kronecker: natürliche Zahlen sind nicht unendliche Menge, sondern offener
Bereich, der durch Zählschritte beliebig erweiterbar ist.
Falls Weltraum nicht unendlich ist, kommt ”unendlich” in der Natur nicht
vor: lediglich Kunstbegriff (facon de parler), Begriffsbildung für etwas nicht
Meßbares.
Dann sind auch transzendente Zahlen Fiktionen.
Herunterladen