1 1 Einführung 1.1 Weltbilder Arten von Weltbildern: I. Mythologisch II. Philosophisch III. Naturwissenschaftlich zu I. Beispiele: Ursprung der Welt • Griechische Mythologie [Polytheismus] Wahrlich, zuerst entstand das Chaos und später die Erde, Breitgebrüstet, ein Sitz von ewiger Dauer für alle Götter, die des Olymps beschneite Gipfel bewohnen ... Aus dem Chaos entstanden die Nacht und des Erebos Dunkel; Aber der Nacht entstammten der leuchtende Tag und der Äther. Schwanger gebar sie die beiden, von Erebos’ Liebe befruchtet. Gaia, die Erde, erzeugte zuerst den sternigen Himmel . . . (Hesiod, Theogonie, 116 – 118, 123 – 126) • Altes Testament [Monotheismus] Am Anfang schuf Gott Himmel und Erde. Und die Erde war wüst und leer, und es war finster auf der Tiefe; und der Geist Gottes schwebte auf dem Wasser. Und Gott sprach: Es werde Licht! Und es ward Licht! Und Gott sah, daß das Licht gut war. Da schied Gott das Licht von der Finsternis und nannte das Licht Tag und die Finsternis Nacht. Da ward aus Abend und Morgen der erste Tag. (1. Mose, 1,1-5) zu II. Feld der Philosophie nach Kant: 1) Was kann ich wissen? – Metaphysik 2) Was soll ich tun? – Moral 3) Was darf ich hoffen? – Religion 4) Was ist der Mensch? – Anthropologie 2 1 EINFÜHRUNG zu III. A) mechanistisch B) relativistisch Bei gleichwertigen Theorien ist die vorzuziehen, die einfacher ist. (”Ockhams Rasiermesser”) Ockham (um 1319): ”non sunt multiplicanda enter praeter necessitatem”. 1.2 Historischer Abriß I. Makrokosmos Bibel (frühe Bücher 900 – 700): Erde – Scheibe in Weltmitte Aristoteles (um 340 v.u.Z.): Erde – Kugel, um die Sonne, Mond, Planeten und Sterne kreisen Ptolomäus (140): auf dieser Grundlage vollständiges geozentrisches kosmologisches Modell Kopernikus (1514): Erde und Planeten umkreisen Sonne Bruno (1584): Unendliches Weltall Galilei (1609): Entdeckung der Jupitermonde mit Fernrohr Kepler (1609/1619): Annahme elliptischer Umlaufbahnen; Ursache: magnetische Anziehung Newton: (1687) Philosophiae naturalis principia mathematica – allgemeine Bewegungsgleichungen und Gravitationsgesetz Laplace (1796): Entstehung des Planetensystems Einstein (1905/1916): Spezielle und Allgemeine Relativitätstheorie Hubble (1924/1929): Entdeckung anderer Galaxien; ferne Galaxien bewegen sich von uns fort Lemaitre (1927): Urknall-Hypothese Penzias, Wilson (1964): Entdeckung der kosmischen Hintergrundstrahlung II. Mikrokosmos Demokrit (um 430 v.u.Z.): ”Atome” – kleinste, unteilbare Teilchen Aristoteles (um 340 v.u.Z.): 4 Grundelemente (Erde, Luft, Feuer, Wasser), 2 Kräfte (Schwerkraft, Auftrieb) Huygens (1678): Wellentheorie des Lichts Newton (1704): Optik – Korpuskulartheorie des Lichts Dalton (1803): atomische Struktur der Materie, chemische Verbindun- 1.2 Historischer Abriß 3 gen aus Molekülen Maxwell (1873): Theorie der elektromagnetischen Wellen Thompson (1897): Elektron (Atom teilbar) Planck (1900): Quantenphysik Rutherford (1911): Atomkern Schrödinger, Heisenberg, Bohr (1926/27): Quantenmechanik (Wellen-Gleichung; Unschärferelation, Komplementarität) Dirac (1928): Voraussage von Antiteilchen (1932: Positron entdeckt) Chadwick (1932): Neutron Hahn/Meitner (1938): Kernspaltung Gell-Mann, Zweig (1964): Quarks Bells (1966): Theorem der Nonlokalität (1982 experimentell bestätigt) um 1970: Standardmodell der Teilchenphysik III. Mathematik, Informatik Euklid (295 v.u.Z): Elemente – klassische Geometrie Archimedes (240 v.u.Z.): klassische Mechanik und Mathematik Gauss (1824): nicht-euklidische Geometrie Babbage (1835): Idee einer digitalen Rechenmaschine Cantor (1883): Unendliche Mengen verschiedener Mächtigkeit Gödel (1931): Unvollständigkeitstheorem Turing (1937): Berechenbare Funktionen (Turing-Maschine) ab 1946: Entwicklung elektronischer digitaler Computer Lorenz (1963): Chaostheorie Mandelbrot (1979): Fraktale IV. Leben, Bewußtsein, Gesellschaft Thales von Milet (600 v.u.Z): Begründung der Philosophie 312: Christentum wird römische Staatsreligion R. Bacon (1247): Beginn der experimentellen Forschung Kolumbus (1492): Entdeckung Amerikas Simon (1678): Critical History of the Old Testament (erste Textkritik der Bibel) Lamettrie (1747): Der Mensch – eine Maschine Watt (1769): Dampfmaschine (Grundlage für industrielle Revolution) Kant (1781): Kritik der reinen Vernunft 1789: Beginn der Französischen Revolution Darwin (1859): Der Ursprung der Arten – Evolutionstheorie Mendel (1865): Theorie des genetischen Erbes 4 1 EINFÜHRUNG Freud (ab 1900): Psychoanalyse Ford (1913): Beginn der Massenfabrikation von Autos (Grundlage der Konsumgesellschaft) 1945 Atombombenabwurf auf Hiroshima und Nagasaki Watson, Crick (1953): Entdeckung der Struktur der DNS 1957/1961: erste Satelliten (Sputnik) und erste bemannte Raumflüge 1969: erste Mondlandung durch Astronauten Lovelock (1969): Gaia-Hypothese Meadows (1972): Die Grenzen des Wachstums ab 1980: Entwicklung der Biotechnologie; Ausbreitung von Personalcomputern ab 2000: Entschlüsselung des menschlichen Genoms 5 2 Makrokosmos 2.1 Spezielle Relativitätstheorie 2.1.1 Relativitätsprinzip 1. Konflikt: Läßt sich Lichtstrahl einholen? Newton: ja ⇔ Maxwell: nein Lösung: Einstein (1905) – Spezielle Relativitätstheorie (SRT) Minkowski (1908)– zugehöriges mathematisches Kalkül (Metrik, Raumzeitdiagramm, Lorentz-Transformation) Physikalische Grundlagen Beschreibung physikalischer Vorgänge erfordert Bezugssystem. Bahn eines Teilchens in kartesischen Koordinaten: x = x(t), y = y(t), z = z(t), t ∈ [t0 , t1 ] In bestimmten Bezugssystemen, sogenannten Inertialsystemen (IS), erscheinen physikalische Vorgänge einfacher. IS bewegen sich relativ zum Fixsternhimmel mit konstanter Geschwindigkeit. Relativitätsprinzip (Galilei): Alle IS sind gleichwertig, das heißt, physikalische Gesetze sind invariant gegenüber Transformationen, die ein Inertialsystem IS in ein anderes IS’ überführen. Lichtgeschwindigkeit Im Vakuum: c = 2, 99792458 · 108 m/s ≈ 3 · 108 m/s Die Lorentz-Transformation Betrachten die Koordinatensysteme S (ruhend) und S 0 (bewegt in Richtung der positiven x-Achse mit konstanter System-Geschwindigkeit vS ). Voraussetzungen: Es gilt das Einsteinsche Relativitätsprinzip. I) Gleichwertigkeit aller Koordinatensysteme II) Konstanz der Lichtgeschwindigkeit c in allen Systemen x = a11 x0 t = a21 x0 + a12 t0 + a22 t0 Bestimmung von a11 , a12 , a21 , a22 : 6 2 MAKROKOSMOS 1. Nullpunkt des Koordinatensystems S bewegt sich im Koordinatensystems S 0 mit Geschwindigkeit −vS (nach links). a11 x0 + a12 t0 = 0 x0 = − → a12 0 t a11 → vS = a12 a11 Folglich x = a11 (x0 + vS t0 ) (+) 2. Austausch der Systeme S und S 0 (d.h. x ↔ x0 ; t ↔ t0 ) darf nach I) zu keiner Änderung der Transformation führen. Aus (+) folgt daher: t= a211 − 1 0 x + a11 t0 a11 vS (Nachrechnen!) 3. Somit 0 a11 xt0 + vS x = a2 −1 0 x t 11 0 + a11 a11 vS t mit aufgrund II) x0 x = 0 =c t t → 1 a11 = q 1− (Nachrechnen!) vS 2 c Lorentz-Transformation 1 0 0 x= q (x + vS t ), vS 2 1− c 1 t= q 1− v vS 2 c S 0 x c2 + t0 (1) (2) bzw. 1 x0 = q 1− (x − vS t), vS 2 c 1 t0 = q 1− v S x + t − c2 vS 2 c 2.1 Spezielle Relativitätstheorie 7 sowie y = y0 , z = z0 Addition der Geschwindigkeiten v= v 0 + vS 0 1 + vSc2v (3) Minkowski-Raum mit Metrik (Wegelement = Abstand zwischen 2 Punkten): ds2 = c2 dt2 − d~r 2 mit d~r 2 = dx2 + dy 2 + dz 2 . (4) Für ds2 > 0 zeitartige Ereignisse: kausaler Zusammenhang möglich Für ds2 = 0 lichtartige Ereignisse: Zusammenhang nur durch Lichtstrahl möglich Für ds2 < 0 raumartige Ereignisse: akausaler Zusammenhang 2.1.2 Relativistische Effekte I. Zeitdilatation (relativistische Zeitdehnung) s 2 Zt1 v(t) 0 dt 1− t = c (5) t0 (Eigenzeit) II. Relativität der Gleichzeitigkeit Gedankenexperiment: Lichtquelle in der Mitte M zwischen Punkten A und B in Zug mit v = const; Zug erreicht Punkte A0 , B 0 – Beobachter im Zug: Licht trifft gleichzeitig in A und B ein – Beobachter außerhalb: Licht trifft eher in A als in B ein (|M A0 | < |M B 0 |) Beide Beobachter haben recht! III. Längenkontraktion r 0 l = 1− v 2 c l. (6) 8 2 MAKROKOSMOS Beispiel: Elektrischer Leiter (Draht) Ruhender Beobachter (Ion) Draht elektrisch neutral (Anzahl Elektronen = Ionen): kein elektrisches Feld bewegte Elektronen erzeugen magnetisches Feld Bewegter Beobachter (Elektron) Wegen Längenkontraktion Ionen dichter – mehr positive Ladungen: elektrisches Feld Beobachter ruht gegenüber Elektronen: kein magnetisches Feld Ergebnis abhängig vom Beobachter! IV. Doppler-Effekt Entfernen sich Quelle (Sender) und Beobachter (Empfänger) voneinander mit der Relativgeschwindigkeit v, dann gilt für die Frequenz der Quelle fQ und die Frequenz beim Beobachter fB [s−1 ] die Beziehung s 1 + v/c fB = fQ /k mit k = > 1. (7) 1 − v/c Bei der Annäherung gilt fB = kfQ . V. Äquivalenz von Masse und Energie Eine in S 0 anfänglich ruhende Masse (v 0 = 0) wird durch kurzzeitiges Einwirken einer Kraft F beschleunigt (vS = v): S0 : 0 → dv 0 S: v → v + dv Aus dem Additionstheorem der Geschwindigkeiten folgt: dv 0 = dv 1− , v 2 c woraus sich mit dem Newtonschen Grundgesetz sowie der Zeitdilatation ergibt: m0 dv F = v 2 3/2 dt 1− c 2.2 Allgemeine Relativitätstheorie 9 mit der Ruhmasse m0 . Daraus folgt die relativistische Masse m0 v 2 . 1− c m= r Energie: Energiezuwachs durch die Leistung, die zum Beschleunigen notwendig: Z E = P dt mit P = F · v Daher m0 c2 v 2 1− c E=r 2.2 2.2.1 (8) Allgemeine Relativitätstheorie Bezugssysteme Newtonsches Gravitationsgesetz (”wie”): Für N Massepunkte ergibt sich Anziehung durch Gravitation mi N X mi mj (~ ri − r~j ) d2 r~i = −G , 2 dt |~ ri − r~j |3 j=1 (9) wobei r~i (t) – Ort des i-ten Körpers zur Zeit t, mi – dessen Masse, G – Gravitationskonstante: G = (6, 67259 ± 0, 00085) · 10−11 m3 kg−1 s−2 . 2. Konflikt: Breitet sich die Gravitation augenblicklich aus? Newton: ja ⇐⇒ Einstein (SRT): nein Einstein: Einbeziehung von Bezugssystemen (KS) mit Gravitation = beschleunigte KS . Allgemeine Relativitätstheorie (ART) 1916 10 2 MAKROKOSMOS Für Verallgemeinerung ist andere Schreibweise von (9) vorteilhaft. Man führt ein das Gravitationspotential Z X mj ρ(r~0 ) dV, Φ(~r) = −G = −G |~r − r~j | |~r − r~0 | j (V ) wobei im letzten Ausdruck über die Beiträge dm = ρ(r~0 ) dV der Massendichte ρ summiert wurde. Für den Bahnvektor des i-ten Massepunkts ~r = ~r(t) := ~ri (t) ergibt sich dann m d2~r = −m∇Φ(~r). dt2 (10) Die Bewegungsgleichung (10) in Newtons Theorie beschreibt die Bewegung eines Teilchens. Weiterhin gilt ∆Φ(~r) = 4πGρ(~r). (11) Die Feldgleichung (11) in Newtons Theorie beschreibt Gravitationsfeld Φ(~r), das durch Masse aller Teilchen mit der Massendichte ρ(~r) auf der rechten Seite bestimmt wird. 2.2.2 Äquivalenzprinzip Äquivalenz von Gravitationskräften und Trägheitskräften =⇒ Gravitationskräfte lassen sich durch Übergang in ein geeignetes Koordinatensystem eliminieren (ortsabhängige ”krummlinige” Koordinaten). Einsteinsches Äquivalenzprinzip: In einem Graviationsfeld kann in jedem Weltpunkt ein lokales Koordinatensystem (KS) gewählt werden, in dem die physikalischen Gesetze der SRT gelten. Ein derartiges KS heißt Lokales IS (6= IS). Insbesondere ist ein die Erde umkreisendes Satellitenlabor ein solches Lokales IS (Gravitations- und Trägheitskräfte heben sich auf). Allgemeines Schema SRT-Gesetz ohne Gravitati- Koordinatentransformation on Relativistisches Gesetz mit Gravitation 2.2 Allgemeine Relativitätstheorie 11 Transformation hinterläßt ”Spuren” in dem betrachteten Gesetz = b mathematische Beschreibung des Gravitationsfeldes Für kompliziertere Beziehungen ist dieses Vorgehen unpraktikabel. Einstein wählte eine andere Methode. Die bekannten Gesetze der SRT sollten auf den Fall der Gravitation so übertragen werden, daß sie ihre Form dabei nicht veränderten (Kovarianzprinzip). Im nichtrelativistischen Grenzfall mußten sich zudem die Newtonschen Gleichungen ergeben. Dazu mußten ein neuer Raum (Riemannscher Raum), neue physikalische Größen (Riemann-Tensoren – eine Art verallgemeinerte Vektoren) und sogenannte kovariante Ableitungen eingeführt werden. Riemannscher Raum: Raum mit dem Wegelement (Metrik) ds2 = N X gik (x1 , . . . , xN ) dxi dxk = gik (x) dxi dxk . i,k=1 Dabei sind xi beliebige (krummlinige) Koordinaten. Die metrischen Koeffizienten gik (x) seien differenzierbar. Außerdem gelte gik = gki und det(gik ) 6= 0. Nachfolgend gelte die Einsteinsche Summenkonvention, d.h. über gleiche Indizes, von denen einer hoch und einer tief gestellt ist, wird summiert. Es werden nur Transformationen betrachtet, die das Wegelement invariant lassen (”Längentreue”). Wir betrachten ein globales KS mit Koordinaten xµ und der Metrik gµν (x) (µ, ν = 0, 1, 2, 3). Im Punkt P existiert eine Transformation ξPα (x) =: ξ α = ξ α (x0 , x1 , x2 , x3 ) zwischen den Koordinaten des Minkowski-Raums (Satellitenlabor) ξ α und xµ . Wegen der Invarianz des Wegelements ds2 gilt ∂ξ α ∂ξ β µ ν dx dx = gµν dxµ dxν . ∂xµ ∂xν Hieraus erhält man die metrischen Koeffizienten ds2 = ηαβ dξ α dξ β = ηαβ ∂ξ α ∂ξ β . ∂xµ ∂xν gµν bilden den sogenannten metrischen Tensor. Tensoren sind indizierte Größen, die sich koordinatenweise wie Koordinatendifferentiale transformieren. gµν = ηαβ 12 2 MAKROKOSMOS Der Raum ist eben (Euklidischer bzw. Minkowski-Raum) ⇐⇒ Krümmungstensor Rm ikp = 0 (unabhängig von gewählter Koordinatentransformation) Andernfalls ist der Raum gekrümmt. Der Krümmungstensor berechnet sich folgendermaßen Rm ikp = ∂Γm ∂Γm ip r m ik − + Γrik Γm rp − Γip Γrk p ∂x ∂xk mit den sogenannten Christoffelsymbolen g κν ∂gµν ∂gλν ∂gµλ Γκλµ = + − , 2 ∂xλ ∂xµ ∂xν wobei (g µν ) inverse Matrix zu (gµν ). Der Krümmungstensor ist der einzige Tensor, der aus dem metrischen Tensor und seinen ersten und zweiten Ableitungen gebildet werden kann. Allgemeines Prinzip zur Aufstellung physikalischer Gesetze • Das Gesetz ist forminvariant (kovariant) unter bestimmten Transformationen. Dieser Forderung liegt eine physikalische Symmetrieannahme zugrunde. • Die Gleichung ist richtig in einem bekannten Grenzfall, der durch die zugehörige Transformationen mit dem allgemeinen Fall verbunden ist. Symmetrieprinzip Transformation Grenzfall Isotropie des Orthogonale KS mit spezieller Raums Transformationen Achsen-Orientierung Relativität LorentzMomentanes der Raum-Zeit Transformationen Ruhsystem ÄquivalenzAllgemeine Koordina- Lokales prinzip tentransformationen Inertialsystem Die Gesetze der SRT sind invariant unter der Lorentz-Transformation, sie behalten ihre Form und Aussage in allen IS (unabhängig von ~v ). In der ART trifft das nur für die Form zu, da beschleunigte KS physikalisch nicht gleichwertig zu Lokalen IS sind. Die Forminvarianz folgt aus dem Kovarianzprinzip: Gesetze im Gravitationsfeld gµν (x) sind kovariante Gleichungen, die sich ohne Gravitationsfeld (für gµν = ηµν ) auf die Gesetze der SRT reduzieren. 2.2 Allgemeine Relativitätstheorie 2.2.3 13 Einsteinsche Feldgleichungen Zur Bestimmung des Gravitationsfeldes werden die Feldgleichungen der ART benötigt. Diese können nicht mit Hilfe des Kovarianzprinzips hergeleitet werden, da es in Lokalen IS wegen der fehlenden Gravitation keine Feldgleichung gibt. Einstein ging bei der Herleitung von folgenden Forderungen aus: • Newtonsche Feldgleichungen (11), die durch Beobachtungen im Sonnensystem gut bestätigt wurden, müssen sich als Grenzfall ergeben, d.h. für schwache, stationäre Felder • Gleichungen sollen dieselbe Form für beliebige Koordinatensysteme besitzen =⇒ Riemann-Tensor • Gleichungen sollen möglichst einfach sein: In Analogie zu bekannten Gleichungen der Elektrodynamik soll der gesuchte Riemann-Tensor nur aus den ersten und zweiten Ableitungen des metrischen Tensors gµν gebildet werden und quadratisch bzw. linear in diesen Ableitungen sein. Aus diesen Forderungen leitete Einstein die Feldgleichungen her: Gµν = 8πG Tµν c4 (12) Dabei Gµν = −(Rµν − Rµν = Rλ µλν , R gµν ), 2 R = g µν Rµν , Tµν = gµλ gνκ T λκ , P λκ T = ρ + 2 uλ uκ − g λκ P c Energie-Impuls-Tensor, wobei P – Eigendruck, ρ – Massendichte, um (Vierer)-Geschwindigkeit. Interpretation: Körper wie die Erde werden nicht durch eine Kraft (”Gravitation”) auf gekrümmten Bahnen bewegt, sondern alle Körper bewegen sich auf geodätischen Linien (kürzeste Verbindung). Die Masse der Sonne krümmt die Raumzeit so, daß die Erde im dreidimensionalen Raum einer kreisförmigen Umlaufbahn folgt. 14 2 MAKROKOSMOS Verallgemeinerung von (12) mit linearem Zusatzterm in gµν R 8πG gµν + Λgµν = − 4 Tµν 2 c mit Λ – kosmologische Konstante. Für den Newtonschen Grenzfall ergibt (13) Rµν − ∆Φ = 4πGρ + c2 Λ. 2 (13) (14) Die rechte Seite von (14) läßt sich schreiben 4πG(ρ + ρvak ) mit ρvak c2 = c4 Λ 8πG Energiedichte des Vakuums. Der Zusatzterm in (14) muß so klein sein, daß er nicht im Widerspruch zur empirischen Verifikation der Newtonschen Feldgleichungen im Sonnenssytem steht. 2.2.4 Schwarzschildmetrik Möglichkeiten zur Lösung der Feldgleichungen: 1) Exakte Lösung unter vereinfachenden Annahmen (z.B. Isotropie und Zeitunabhängigkeit) 2) Lösung der linearisierten Feldgleichungen für schwache Felder 3) Post-Newtonsche Näherung der Feld- und Bewegungsgleichungen für schwache Felder und langsam bewegte Teilchen (d.h. nächste Näherung nach der Newtonschen Näherung) Betrachten nur Fall 1): Annahme: Es besteht eine statische, sphärische (= b isotrope) und begrenzte Masseverteilung mit 6= 0, r ≤ r0 ρ= (15) 0, r > r0 Der Druck P (r) innerhalb der Massenverteilung soll ebenfalls die Form (15) haben. Daraus ergibt sich als Wegelement die Schwarzschildmetrik (SM): rS 2 2 dr2 ds2 = 1 − c dt − − r2 (dϑ2 + sin2 ϑ dϕ2 ) (16) r 1 − rS /r 2.2 Allgemeine Relativitätstheorie 15 Dabei rS = 2GM c2 Schwarzschildradius (17) Eigenzeit Für die Eigenzeit τ in einem statischen Gravitationsfeld gilt dsU hr 1 p dτ = gµν dxµ dxν = c c U hr 2.2.5 Tests der ART 1. Gravitationsrotverschiebung Eine bei ~rQ ruhende Quelle sende eine monochromatische elektromagnetische Welle mit der Frequenz fQ und der Wellenlänge λQ aus, die in ~rB von einem Beobachter mit fB bzw. λB empfangen wird. In Folge der Gravitation kommt es zu einer relativen Frequenzänderung z s fQ − fB g00 (~rB ) λB z := = −1= − 1. (18) fB λQ g00 (~rQ ) Wegen z > 0, ist λB > λQ , d.h. im sichtbaren Spektrum gibt es eine Verschiebung zum roten Ende. Für schwache, statische Felder ergibt sich daraus z= Φ(~rB ) − Φ(~rQ ) , c2 |Φ| c2 . Bei kugelsymmetrischer Masseverteilung gilt Φ(r) = − GM r (r > R), wobei M die Gesamtmasse innerhalb des Kugelradius R, r Abstand zum Zentrum. 16 2 MAKROKOSMOS Potential an der Oberfläche einiger Sterntypen (absolute Stärke des Gravitationsfelds) Sterntyp |Φ|/c2 Erde 7 · 10−10 Sonne 2 · 10−6 Weißer Zwerg ∼ 1, 5 · 10−4 Neutronenstern (Pulsar) ∼ 1, 5 · 10−1 2. Lichtablenkung Im Gravitationsfeld der Sonne wird Licht abgelenkt um den Winkel ∆φ = rS, (1 + γ) ≈ 1, 7500 , r0 wobei r0 ≈ R minimaler Abstand von der Sonne und γ = 1 (laut ART). 3. Periheldrehung Die Bahnkurve eines Planeten um die Sonne ist nach der Newtonschen Theorie eine Ellipse. Eine Störung des 1/r-Potentials (Einfluß anderer Planeten, relativistische Effekte) führt in der Regel zu einer Abweichung von der geschlossenen Ellipsenbahn. Wenn die Abweichung klein ist, kann sie als Drehung der Ellipse beschrieben werden. Experimentell wird sie als Winkeländerung des sonnennächsten Bahnpunkts, des Perihels, beobachtet. 4. Gravitationswellen Beschleunigte Massen strahlen Gravitationswellen ab. Die auf der Erde eintreffenden Gravitationswellen konnten bisher nicht direkt nachgewiesen werden. Indirekt konnte die Gravitationsstrahlung über die Abbremsung des Doppelsternsystems PSR 1913+16 bestätigt werden. Fazit Alle experimentellen Ergebnisse bestätigen im Rahmen der Meßgenauigkeit die Voraussetzungen und Vorhersagen der ART. Das Einsteinsche Äquivalenzprinzip ist zumindest zu 99, 999 999 999%, die Einsteinsche Feldtheorie zu 99, 9% richtig. 2.3 Sterne 2.3 2.3.1 17 Sterne Sternmodelle > Sterne im engeren Sinne haben mindestens Sonnenmasse: M ∼ M . Ein Stern entsteht aus einer Gaswolke Wasserstoff, die sich durch Gravitation zusammenzieht. Die Gravitationsenergie heizt den Stern auf. Wenn die Masse hinreichend groß ist, steigen Druck und Temperatur derart, daß Kernfusion einsetzt: durch Materiedruck des heißen Plasmas Sterngleichgewicht. Je schwerer ein Stern, desto schneller verbraucht er seinen Brennstoff. I. Nichtrelativistische Sterne (Masse M ≈ M ) Aus dem Sterngleichgewicht kann man eine Differentialgleichung mit dem Druck P und dem Abstand r vom Zentrum herleiten. Speziell für ρ(r) = ρ0 = const, r ≤ R (R – Sternradius) erhält man dP 4π = − Gρ20 r. dr 3 (19) Die Randbedingungen lauten P (0) = P0 (Druck im Zentrum des Sterns) und P (R) = 0 (keine Materie für r > R). Integration der Differentialgleichung (19) ergibt 2π 2 2 Gρ0 r + P0 . 3 Aus der 2. Randbedingung erhält man schließlich P (r) = − 2π 2 2 rS Gρ0 R = ρ0 c2 . (20) 3 4R Zur Abschätzung der Größenordnung verwendet man dieses Ergebnis auch für nichtkonstante Dichte P rS (21) ∼ 2 4R ρc P0 = mit der mittleren Dichte ρ und dem mittleren Druck P . Beispiel Sonne: ”normaler” Stern Der Gasdruck läßt sich durch das ideale Gasgesetz beschreiben: rS P PV kB T ≈ 2 = = ∼ 10−6 4R ρc mc2 mc2 (22) 18 2 MAKROKOSMOS II. Relativistische Sterne Relativistischer Stern: Gravitationsfeld so stark, daß relativistische Effekte wichtig sind. Wir betrachten sphärischen Stern mit homogener Massendichte ρ0 ρ0 , r≤R ρ(r) = 0, r>R Das bedeutet, die Dichte ist unabhängig vom Druck, die Materie also inkompressibel. Daraus ergibt sich die innere Schwarzschildmetrik: ds2 = B(r)c2 dt2 − A(r)dr2 − r2 (dϑ2 + sin2 ϑ dϕ2 ) (23) mit −1 rS r 2 , (r ≤ R) A(r) = 1 − 3 R " r #2 r 1 rS rS r 2 , B(r) = 3 1− − 1− 3 4 R R (r ≤ R). Dann erhält man für den Druck P (r) innerhalb des Sterns r r rS r 2 rS 1− 3 − 1− R R r P (r) = ρ0 c2 r , (r ≤ R). rS rS r 2 3 1− − 1− 3 R R (24) Stabilität Aus (24) folgt, daß der Gravitationsdruck P0 im Zentrum des Sterns maximal wird und zwar r rS 1− 1− R P0 = P (0) = ρ0 c2 r . (25) rS 3 1− −1 R Für einen hinreichend kompakten Stern folgt P0 → ∞ für R → (9/8)rS , 2.3 Sterne 19 d.h. es ist kein Gleichgewicht möglich und jede reale Materie kollabiert. Ein Gleichgewicht ist nur möglich für R> 2.3.2 9 rS 8 Stabilitätsbedingung (26) Weiße Zwerge und Neutronensterne A) Weißer Zwerg Nach Beendigung der Kernfusion(en) kühlt Stern durch Abstrahlung ab: T → 0. Aber: Atomhüllen halten Gravitation nicht stand und werden zerstört, es entsteht ein sogenanntes Fermigas aus Elektronen. Grenzmasse eines Weißen Zwerges Wir betrachten Stern mit Volumen V und N Elektronen. Wegen Unschärferelation gilt für den Elektronenimpuls p p∼ h̄ (V /N )1/3 (27) mit h̄ – Plancksches Wirkungsquantum. Druckgleichgewicht ist äquivalent minimaler Energie: Ein stabiles Sterngleichgewicht tritt ein, wenn E(R) = Egrav (R) + Emat (R) = min!, wobei R – Sternradius. Dabei gilt für die potentielle Energie der Gravitation Egrav ≈ − GM 2 R mit der Gesamtmasse M . Da auf jedes Elektron etwa 2 Nukleonen mit der Masse mn kommen, folgt M ≈ 2N mn . Für die kinetische Energie aller Elektronen ergibt sich, falls p me c, (me – Masse eines Elektrons) [relativistischer Fall] Emat = Ekin ≈ N cp ≈ N 4/3 h̄c . R Anmerkung: Es läßt sich zeigen, daß im nichtrelativistischen Fall aus wachsendem M folgt, daß auch p wächst, d.h. der nichtrelativistische 20 2 MAKROKOSMOS geht in den relativistischen Fall über. Folglich E(R) = − GM 2 N 4/3 h̄c + . R R (28) Damit kein Kollaps eintritt, muß gelten M < mn h̄c Gm2n 3/2 . Die Masse MC = mn h̄c Gm2n 3/2 ≈ 1, 8M (29) heißt Chandrasekhar-Grenzmasse. h̄c Dabei ist ∼ 1040 das Verhältnis zwischen starker Wechselwirkung Gm2n und Gravitationswechselwirkung. Massendichte eines Weißen Zwerges: ρC ≈ 2mn N mn mn kg ∼ ∼ = 3 · 1010 3 V (h̄/p)3 (h̄/(me c))3 m kg Exakter Wert: 2 · 109 m3 . B) Neutronenstern Falls kinetische Energie > (m2e c4 + c2 p2 )1/2 − me c2 ∼ 1, 5me c2 , kommt es zur Reaktion p + e− −→ n + νe , wobei p e− n νe Proton Elektron Neutron Neutrino. (30) 2.3 Sterne 21 Da Anzahl der Elektronen = Anzahl der Protonen, entsteht ein Stern aus Neutronen (Fermigas). Analog oben ρC ∼ kg mn = 3 · 1020 3 (h̄/(mn c))3 m kg Exakter Wert: 6 · 1018 m3 . Aus denselben Gründen wie beim Weißen Zwerg ergibt sich wieder eine Grenzmasse MC (Oppenheimer-Volkoff- Grenzmasse) von der gleichen Größenordnung wie die Chandrasekhar-Grenzmasse, weil diese nicht von der Elektronenmasse abhängt. Der Zusammenbruch des Fermidruck durch (30) führt zu einem Gravitationskollaps, bei dem schließlich große Massenanteile explosionsartig abgestoßen werden. Dabei bleibt im Zentrum des Kollapses ein Neutronenstern mit M < MC zurück. 2.3.3 Schwarze Löcher Kritische Dichte ρkr für Entstehung eines Schwarzen Lochs: 2 M 19 kg ρkr ≈ 2 · 10 m3 M Anmerkung: Auch gewöhnliche Dichten können zu Schwarzem Loch führen, wenn die Massenansammlung hinreichend groß ist. Annäherung eines Teilchens an Schwarzes Loch: r → rS Dauer Grenze r = rS außenstehender Beobachter unendlich physikalisch ausgezeichnet: asymptotische Annäherung (unendliche Rotverschiebung!) keine Information aus r ≤ rS , d.h. r = rS Horizont mitbewegter Beobachter endlich keine Besonderheit (Raum nicht singulär) Beobachter erlebt Ereignisse r ≤ rS Weiterhin sind theoretisch möglich Weiße Löcher – inverse Eigenschaften zu Schwarzen Löchern (”kosmische Geysire”). In Nähe der Singularität möglich: Wurmlöcher – Verbindung in andere Regionen der Raumzeit. 22 2 MAKROKOSMOS No-Hair-Theorem: Schwarze Löcher werden nur durch Masse M , Drehimpuls L und Ladung Q bestimmt [Wheeler (1965)]. Folgerung: Informationsverlust über ursprüngliche Materie Für M 6= 0, L = 0 gilt die innere Schwarzschildmetrik (SM), für L 6= 0 die Kerr-Metrik. Für nicht zu großes L liefert sie wie die SM eine geschlossene Fläche als Ereignishorizont, d.h. die Singularität wird abgeschirmt. Theoretisch möglich erscheinen auch nichtabgeschirmte (nackte) Singularitäten, die problematisch sind: Verbot durch ”kosmischen Zensor” postuliert [Penrose (1969)]. Hawking-Effekt (1974): Masseverlust durch Strahlung mit Temperatur: TS ≈ M −6 10 K. M Wegen TS > 0 haben Schwarze Löcher Entropie = Fläche des Ereignishorizontes [Bekenstein]. 2.3.4 Sternentwicklung Interstellare Wolke aus Gas (vorwiegend Wasserstoff) und Staub – Durchmesser ca. 30 Lichtjahre – wird nach gravitativem Kollaps zum Protostern. Aufheizung auf 106 K führt zu thermonuklearer Reaktion – Stern: Massendefekt bei Heliumsynthese wird als nahezu reine Energie in Form von Gammastrahlen, Positronen und Neutrinos umgesetzt. Energie diffundiert langsam nach außen, wobei sie sich zu harmlosem gelben Licht abschwächt. In massereichen Sternen erfolgt die Nukleosynthese bis zum Eisen. Sterbende Sterne In Abhängigkeit von Masse enden Sterne als Weißer Zwerg, Neutronenstern oder Schwarzes Loch. Dabei können sich unter Umständen Supernovas ereignen. Supernova-Typ-II: Bildung von Neutronensternen (mit Freisetzung von Neutrinos); äußere Hülle des Sterns explodiert als Supernova. Aus Energieüberschuß Synthese von Elementen schwerer als Eisen; Sternhülle aus C, O, Fe usw. wird in Raum mit mächtiger Druckwelle ausgestoßen – Rohstoff für neue Sterne. 2.4 Kosmologische Modelle 23 Supernova-Typ-I: Weißer Zwerg sammelt Materie von nahem Begleitstern und wird instabil: Implosion führt zu explosionsartigen Kernreaktionen. 2.4 Kosmologische Modelle 2.4.1 Kosmologisches Prinzip Aus dem kosmologischen Prinzip ergibt sich die Robertson-WalkerMetrik (RWM): 2 2 2 2 ds = c dt − R(t) dr2 2 2 2 2 + r (dϑ + sin ϑ dϕ ) , 1 − kr2 (31) wobei k – Krümmung des Raums R(t) – kosmischer Skalenfaktor. Dabei 3 Möglichkeiten 3-Sphäre – geschlossener Kosmos 1 0 Euklidischer Raum – offen k= −1 3-Pseudosphäre– offen Für k = ±1: R(t) – Krümmungsradius des Kosmos. Effekte der Krümmung (n = 2) Kreis: Geometrischer Ort aller Punkte, die den gleichen Abstand D von einem gegebenen Punkt M0 in vorliegender Metrik haben. Dann gilt für den Umfang U Ebene = 2π für k = 0 U < 2π für k = 1 Kugeloberfläche = D > 2π für k = −1 Pseudosphäre. Die Krümmung ist eine innere Eigenschaft einer Fläche, d.h. sie ist durch Messung auf der Fläche berechenbar. Analoges gilt auch für den Fall n = 3. Die direkte Bestimmung der Krümmung des Universums konnte wegen vieler konträrer Effekte bisher nicht realisiert werden. 24 2 MAKROKOSMOS Anmerkung: Für k = 1 ist der Rauminhalt V endlich, der Raum aber unbegrenzt: V = 2π 2 R(t)3 . Mit Hilfe der Substitution (k = 1) sin χ χ (k = 0) r = f (χ) = sinh χ (k = −1) läßt sich die RWM-Metrik (31) transformieren zu ds2 = c2 dt2 − R(t)2 dχ2 + f (χ)2 (dϑ2 + sin2 ϑ dϕ2 ) . (32) Dabei 0≤χ≤π für k = 1, 0 ≤ χ ≤ ∞ für k = 0; −1 Für den Abstand zwischen 2 Punkten (mit den Koordinaten χ = 0 und χ = χ) gilt dann D = R(t)χ. 2.4.2 Das Friedmann-Modell Mit der RWM ist der metrische Tensor (und damit die linke Seite) in den Einsteinschen Feldgleichungen festgelegt. Man betrachtet nun das Universum im Mittel als kontinuierliche, ideale Flüssigkeit. Dadurch läßt sich der Energie-Impuls-Tensor (rechte Seite in Feldgleichungen) in Abhängigkeit von der Massendichte ρ und dem Druck P aufschreiben. Für den Druck werden zwei Grenzfälle betrachtet 1) P = 0 inkohärente Materie, d.h. Universum als inkohärente Ansammlung von Teilchen bei nichtrelativistischen Geschwindigkeiten mit der massedominierten Massendichte ρmat oder 2) P = ρc2 3 Strahlungsdominanz, 2.4 Kosmologische Modelle 25 gültig bei elektromagnetischer Strahlung und (näherungsweise) hochrelativistischen Teilchen mit strahlungsdominierter Massendichte ρstr – typisch für den frühen Kosmos. Falls Strahlung und Materie nicht wechselwirken oder eine der Dichten ρmat , ρstr (ρ = ρmat + ρstr ) vernachlässigt werden kann, erhält man schließlich aus den Feldgleichungen das sogenannte FriedmannModell: Ṙ2 − Km 1 Ks − − ΛR2 = −k R2 R 3 (33) Dabei Ṙ = dR d(ct) Km = Ks = 8πG ρmat R3 = const 3c2 8πG ρstr R4 = const 3c2 sowie Λ – kosmologische Konstante. (33) läßt sich auch schreiben: Ṙ2 + V (R) = −k mit dem effektiven Potential V (R) = − Km 1 Ks − − ΛR2 R2 R 3 (34) Für materiedominiertes Universum (Ks = 0) und Λ = 0 folgt aus (33): 2 M dR GM 2 − = −kM c2 /2 = const, (35) 2 dt R wobei M = (4π/3)ρmat R3 = const (Masseerhaltung). Diskussion des Friedmann-Modells (Weltmodell) R(t) legt Dynamik der Massenverteilung und des Gravitationsfelds (also auch die Metrik) des Kosmos fest. Verschiedene konkrete Modelle aus 26 2 MAKROKOSMOS (33) sind möglich in Abhängigkeit von k, Λ, Km , Ks sowie den Anfangsbedingungen R(0), Ṙ(0). Lösungsverhalten für R → 0 lim Ṙ = ∞ lim R = 0, t→0 R→0 Realistisch: Ks 6= 0, d.h. R(t) ∼ t1/2 für R → 0. Falls Ks /R2 > Km /R, d.h. ρstr > ρmat : Strahlungsdominanz – nur kurze Zeit: etwa von t = 0 bis t = 10−6 t0 , wobei t0 heutiges Weltalter. Lösungsverhalten für t 0 k −1 0 1 Λ <0 Kontraktion Kontraktion Kontraktion 0 konstante Expansion Expansion → 0 Kontraktion Λkr Expansion1) Expansion1) statisch2) 1) 1) 0<Λ Expansion Expansion Expansion oder < Λkr Kontraktion > Λkr Expansion1) Expansion1) Expansion1) 1) 2) abgebremst in der Nähe des Maximums von V (R) instabil Anmerkung: Wegen der möglichen statischen Lösung wurde von Einstein die kosmologische Konstante Λ eingeführt. Der entsprechende kritische Wert ergibt sich aus dV /dR = 0 und V = −k = −1 (unter Annahme von Ks ≈ 0 – heutiges Universum) mit R = Rstat = 3 2.4.3 Km 2 und Λ = Λkr = 4 . 2 9Km Expansion des Universums Das Licht weit entfernter Galaxien (Quelle), das zum Zeitpunkt t = t ausgesandt wurde, wird heute (t = t0 ) aufgrund der Expansion des Universums von einem Beobachter empfangen mit einer relativen Frequenzänderung zkosm = R(t0 ) fQ − fB λB λ0 = − 1 =: −1= − 1. fB λQ λ R(t) (36) Der Wert zkosm wird kosmologische Rotverschiebung genannt. Zur Auswertung von (36) entwickelt man R(t) in eine Taylorreihe um t = t0 : h R(t) = R(t0 ) 1 + H0 (t − t0 ) − 1 q0 H02 (t − t0 )2 + . . . , 2 i 2.4 Kosmologische Modelle 27 wobei H0 = cṘ(t0 ) R(t0 ) q0 = − Hubble-Konstante, R̈(t0 )R(t0 ) Ṙ(t0 )2 (37) Verzögerungsparameter. Es wurden ermittelt < H0 = (87 ± 7) km s−1 Mpc−1 , < 0 ∼ q0 ∼ 1. Wenn D = D(t0 ) den heutigen Abstand zwischen Quelle und Beobachter bezeichnet, erhält man die Rotverschiebungs-Abstands-Relation zkosm ≈ (2 + q0 )H02 2 H0 D+ D , c 2c2 falls H0 D/c < 1. Für die Fluchtgeschwindigkeit vkosm zweier Galaxien mit dem (heutigen) Abstand D gilt die empirische Formel vkosm = H0 D. Für das heutige Universum mit t = t0 , R0 = R(t0 ) sowie Ks ≈ 0 erhält man aus dem Friedmann-Modell (33) die Beziehung −2q0 + 8πG 2 c2 Λ ρ − = 0. 2 0 3 H02 3H0 (38) Da alle Terme in (38) dimensionslos sind, hat der Faktor bei ρ0 die Dimension einer inversen Dichte. Man bezeichnet diese Dichte als kritische Massendichte: ρkr,0 kg 3H02 ≈ 4, 5 · 10−27 3 = 8πG m H0 50km s−1 Mpc−1 2 (39) Dann folgt sofort aus (38) und (39) Λ= 3H02 2c2 ρ0 ρkr,0 − 2q0 . (40) Weiterhin erhält man k H2 = 20 2 c R0 3 ρ0 − q0 − 1 . 2 ρkr,0 (41) 28 2 MAKROKOSMOS Fazit: Aus (gegenwärtigen) Daten ist keine eindeutige Bestimmung der Krümmung k/R02 und der kosmologischen Konstante Λ möglich. Es gilt jedoch k < H02 ∼ , R02 c2 < |Λ| ∼ H02 , c2 d.h. die Krümmung und die kosmologische Konstante sind klein. Die kosmologische Konstante kann als Energiedichte des Vakuums interpretiert werden (vgl. 2.2.3). Dann erhält man mit der obigen Abschätzung die experimentelle Schranke |ρvac | = 2 1 kg c2 < H0 |Λ| ∼ = ρkr,0 ≈ 10−27 3 . 8πG 8πG 3 m Aus der Quantenfeldtheorie ergibt sich als ”natürliche” Skala für die Vakuumdichte ρvac,nat = mP kg ≈ 5 · 1093 3 , 3 m lP wobei mP – Planckmasse, lP – Plancklänge. 2.4.4 Weltzustand Wir betrachten den Fall Ω0 = 1 und q0 = 1/2 bzw. wegen (40) und (41): Λ = 0, k = 0 (Einstein-de-Sitter-Universum). Aus dem Friedmann-Modell (33) erhält man daraus für t 0 R(t) ≈ R0 2/3 t t0 . (42) Mit der Abschätzung (43) ergibt sich für das Weltalter t0 t0 = 2 . 3H0 (43) Für den Welthorizont ergibt sich D0 = 3ct0 ≈ 4 · 1010 Lj. (44) Daraus folgt für die Geschwindigkeit einer Galaxis im Abstand D0 (aufgrund der Ausdehnung des Raumes): v(D0 ) = 2c. Wegen z → ∞ für D → D0 ist eine solche Galaxis nicht mehr sichtbar. 2.4 Kosmologische Modelle 29 Grundlegende Probleme I. Flachheitsproblem Zu früheren Zeiten ergibt sich für die Abweichung |Ω−1| ein sehr kleiner Wert. Beispielsweise |Ω − 1| ≤ 10−15 für t ∼ 1 s. Für die Krümmung folgt daraus 2 k −15 H 2 ≤ 10 2 R c fr t ∼ 1 s mit der Hubble-Konstanten H zum Zeitpunkt t, d.h. H = H(t) = cṘ(t) . R(t) Kleine Krümmungen in der Frühzeit müßten heute zu großen Krümmungen < geführt haben. Deshalb ist die heutige (relative) Flachheit (|k/R02 | ∼ H02 /c2 ) des Universums ein Rätsel. II. Horizontproblem 30 3 3 MIKROKOSMOS Mikrokosmos 3.1 3.1.1 Einführung in die Quantenmechanik Welle-Teilchen-Dualismus A) Licht als Welle Doppelspaltexperiment: Wir nehmen (der Einfachheit halber) zwei kleine kreisförmige Öffnungen an. Dann geht von jeder Öffnung eine Kugelwelle aus: Aj (~r, t) = b exp(−iωt) exp(ikrj ) rj j = 1, 2, wobei ω Kreisfrequenz: ω = 2πν = 2πc/λ (ν Frequenz, λ Wellenlänge) k Wellenzahl: k = 2π/λ rj Abstände vom betrachteten Punkt ~r zu den Öffnungen j = 1 bzw. j = 2. Die auf den Schirm S zulaufende Welle ist A(~r, t) = A1 (~r, t) + A2 (~r, t) mit der Intensität auf dem Schirm I = |A1 + A2 |2 . (45) Man beobachtet für Wellen typische Interferenz. Wird ein Spalt geschlossen, so ergibt sich I = |A1 |2 oder I = |A2 |2 . Werden beide Spalte hintereinander gleichlang geöffnet, so mißt man I = |A1 |2 + |A2 |2 , (46) d.h. es tritt keine Interferenz auf. B) Licht als Teilchen 1) Schwarzkörperstrahlung [Planck (1900)]: Frequenzverteilung der Energie u(ω, T ) eines (heißen) Körpers mit Temperatur T. Aus der Annahme, daß die Energie gequantelt vorliegt, d.h. ∆E = hν = h̄ω, 3.1 Einführung in die Quantenmechanik 31 wobei h̄ = h = 1, 054 · 10−34 Nms = 0, 658 · 10−15 eVs 2π (Plancksches Wirkungsquantum) ergibt sich Plancksche Strahlungsverteilung u(ω, T ) = d(E/V ) h̄ ω3 = 2 3 dω π c exp(h̄ω/kB T ) − 1 (47) mit E/V Energiedichte und kB Boltzmann-Konstante. Anmerkung: Mit der klassischen Theorie ließ sich die Strahlung nicht befriedigend erklären: Nach Rayleigh/ Jeans wächst die abgestrahlte Energie mit der Frequenz. Demnach hätte ein heißer Stern fast unendlich viel Energie abstrahlen müssen, was natürlich nicht der Fall ist (sogenannte Ultraviolettkatastrophe). 2) Photoeffekt [Einstein (1905)]: Herauslösen von Elektronen aus Metall durch Licht. Emission erfolgt nur, wenn Frequenz f ≥ fmin . Bei klassischen Wellen wäre die Energie des Lichts nur von der Amplitude, aber nicht von deren der Frequenz abhängig. Elektronen als Teilchen und Welle Der Teilchencharakter von Elektronen ist wegen konstanter Masse und Ladung offensichtlich (Punktteilchen). Überraschenderweise zeigen Elektronenstrahlen auch Welleneigenschaften ähnlich Licht (Nachweis 1927). De Broglie (1923) ordnete jedem materiellen Teilchen eine Wellenlänge zu: λ= 2πh̄ p Für Elektronen mit der Energie E = p2 /2me bedeutet das r λe ≈ 12, 2Å eV . E Die Teilchen- und Welleneigenschaften von Photonen, Elektronen usw. sind durch die Beziehung p ~ = h̄~k verknüpft. 32 3 3.1.2 MIKROKOSMOS Schrödinger-Gleichung In der einfachsten Form für ein Punktteilchen in einem Potential V (~r) lautet die Schrödinger-Gleichung (SG): ih̄ ∂ψ(~r, t) h̄ =− ∆ψ(~r, t) + V (~r, t) ψ(~r, t) =: Hψ(~r, t) ∂t 2m (48) Speziell für V (~r) = 0 (kräftefreies Feld) ergibt sich die freie SG. Die Gleichung (4) kann auf ein allgemeines System mit n Freiheitsgraden verallgemeinert werden: ih̄ ∂ψ(q, t) = H(q, pop , t) ψ(q, t) =: Hψ(q, t) ∂t (49) mit der Zeit t, den (verallgemeinerten) Koordinaten q = (q1 , . . . , qn ) und dem Impuls-Operator pop = (p1,op , . . . , pn,op ), wobei pk,op = −ih̄ ∂ , ∂qk k = 1, . . . , n. Dabei stellt H = H(q, pop , t) den Hamilton-Operator dar. H legt die Freiheitsgrade eines Systems und dessen Dynamik fest. Der (System-)Zustand wird durch die Wellenfunktion ψ(q, t) dargestellt. (Im klassischen Fall dagegen durch q(t) und p(t).) Normierung Nach 3.1.1. ist die Wahrscheinlichkeit, ein Teilchen bei ~r zu finden, gleich dem Betragsquadrat |ψ(~r, t)|2 einer Wellenfunktion ψ. Das Betragsquadrat |ψ(q, t)|2 der Wellenfunktion ψ stellt die Wahrscheinlichkeitsdichte des Aufenthaltsortes q zur Zeit t dar, d.h. es muß gelten Z |ψ(q, t)|2 dq1 . . . dqn = 1. (50) Speziell: Die Wahrscheinlichkeit, ein Teilchen (Elektron) in einem Volumenelement dq1 . . . dqn anzutreffen, ist demnach |ψ(~r, t)|2 dq1 . . . dqn . Wir betrachten im weiteren die eindimensionale Wellenfunktion ψ(x, t). Die Verallgemeinerung auf beliebige Fälle ergibt sich hieraus, wenn man x = (q1 , . . . qn ) und dx = dq1 . . . dqn setzt und die Integrationsgrenzen entsprechend spezifiziert. Anmerkungen: 3.1 Einführung in die Quantenmechanik 33 1) Nichtvertauschbarkeit In der klassischen Hamiltonfunktion sind x und p Zahlen. Bei der Multiplikation kommt es auf die Reihenfolge nicht an. Dies gilt jedoch nicht für die entsprechenden Operatoren x und pop [x, pop ] := (xpop − pop x) = ih̄ Die Verknüpfung [·, ·] heißt Kommutator. Die Orts- und Impuls-Operatoren kommutieren also nicht. 2) Der Erwartungswert hf i := Ef einer Funktion f ist der Mittelwert der Messung der zugehörigen physikalischen Größe: Z∞ hf i = f (x)|ψ(x, t)|2 dx −∞ 3.1.3 Unschärferelation Die Wellenfunktionen in der Orts- und Impulsdarstellung sind durch FourierTransformationen verknüpft: Z∞ 1 ψ(x, t) = √ 2πh̄ φ(p, t) exp ipx h̄ dp −∞ Z∞ 1 φ(p, t) = √ 2πh̄ ψ(x, t) exp − ipx h̄ dx −∞ Dabei bestimmt |ψ(x, t)|2 die Häufigkeit des Auftretens der Meßwerte für den Ort und |φ(p, t)|2 die Häufigkeit der Impulswerte. Generell wird die Fourier-Transformation wie folgt definiert: 1 f (x) = √ 2π Z∞ g(k) exp(ikx) dk −∞ 1 g(k) = √ 2π Z∞ f (x) exp(−ikx) dx −∞ 34 3 MIKROKOSMOS Zwischen f und g besteht folgende Relation: Ist f (x) in einem engen Bereich lokalisiert, so ist die Verteilung von g(k) breit; dies gilt umgekehrt entsprechend. Die Varianz (∆x)2 := Var(X) = E(X − EX)2 = E(X 2 ) − (EX)2 heißt in der Physik Unschärfe. Für zwei Hermitesche Operatoren F und K (diesen entsprechen nur reelle Meßgrößen) gilt folgende Abschätzung, die Unschärferelation (∆F )2 (∆K)2 ≥ hi[F, K]i2 . 4 Daraus folgt der Spezialfall ∆x ∆p ≥ h̄ 2 (51) Weiterhin gilt die Unschärferelation für die Energie E und die Zeit t: ∆E ∆t ≥ 3.1.4 h̄ 2 (52) Einige quantenmechanische Phänomene I. Quantenmechanische Dispersion Die Wahrscheinlichkeitsverteilung |ψ(x, t)|2 für den Nachweis eines Teilchens an einem Ort wird mit wachsender Zeit immer breiter (”Dispersion”). Speziell ergibt sich für eine Gaußverteilung |ψ(x, t)|2 (wobei ψ(x, t) Lösung der freien SG) mit einer anfänglichen Unschärfe ∆(0) = α die Beziehung r ∆x = α 2 + β 2 t2 α sowie h̄ ∆p = √ . 2 α Insbesondere gilt für Elektronen β= h̄ . 2m Das Wellenpaket wird somit immer breiter. Das trifft auch für ein einzelnes Teilchen zu! Lediglich für Photonen im Vakuum ist β = 0, so daß die Form von elektromagnetischen Wellen auch im Ortsraum erhalten bleibt (keine Dispersion). 3.1 Einführung in die Quantenmechanik 35 II. Nichtlokalität Gedankenexperiment von Einstein, Podolsky, Rosen (1935) (EPR-Paradoxon): Wir betrachten 2 Teilchen, die miteinander wechselwirken und dann auseinanderfliegen, ohne mit irgendetwas sonst zu wechselwirken, bis ein Beobachter ein Teilchen (S1 ) untersucht. Zunächst kann der Gesamtimpuls und die Differenz der Abstandskoordinaten der beiden Teilchen S1 und S2 , wenn sie dicht beieinander sind exakt gemessen werden (auch nach Gesetzen der Quantenmechanik). Der Beobachter bestimmt später den Impuls von S1 und dann den exakten Ort von S1 . Dabei wird der Impuls von S1 , aber (vermutlich) nicht der Impuls des (weit entfernten) S2 verändert. Somit läßt sich der Ort und der Impuls von S2 exakt berechnen, was im Widerspruch zur Unschärferelation steht. Folgerung: Entweder ist die Quantentheorie (zumindest) unvollständig oder der Impuls von S2 ändert sich doch bei der Messung von S1 . Ähnliches Experiment (eher verifizierbar): Es werden 2 Photonen gleichzeitig von definiertem Quantenobjekt ausgesandt (sogenannte verschränkte Photonen). Durch die Messung der Polarisation eines Photons wird momentan die Polarisation des anderen (weit entfernten) Photons bestimmt. Dieses Phänomen ist nichtlokal, da nach der Messung an einer Stelle, das Ergebnis an einer anderen Stelle vorhergesagt werden kann. Nach Einstein und Bohm stellt die Unschärferelation nur eine instrumentelle Begrenzung dar. Jenseits der Unschärfe gibt es eine verborgene Realität, die nur wegen der Unschärferelation nicht beobachtbar ist, mit sogenannten verborgenen Variablen. Bellssches Theorem : Wenn die Quantenmechanik stimmt, gibt es keine verborgenen Variablen, es sei denn sie sind nichtlokal. Verschiedene Experimente, insbesondere durch Aspect (1982), bestätigten die Quantenmechanik. Auf dieser Grundlage auch möglich Teleportation (Zeilinger, 1997): Durch ein Paar verschränkter Photonen wird der Quantenzustand eines dritten Teilchens übertragen – kein Klonen, da der Quantenzustand des Photons dabei zerstört wird. 3.1.5 Deutung der Quantenmechanik In klassischer Mechanik – Determiniertheit: Aus den Bewegungsgleichungen können bei bekannten Anfangsbedingungen Ort und Impuls eines Systems zu 36 3 MIKROKOSMOS allen späteren (und auch allen früheren) Zeiten festgelegt werden: Eine Intelligenz, welche für einen gegebenen Augenblick alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage der sie zusammensetzenden Elemente kennte und überdies umfassend genug wäre, um diese gegebenen Größen der Analysis zu unterwerfen, würde in derselben Formel die Bewegungen der größten Weltkörper wie des leichtesten Atoms umschließen; nichts würde ihr ungewiß sein und Zukunft und Vergangenheit würde ihr offen vor Augen liegen. (Laplace) Quantenmechanik: Information über ein System zur Zeit t0 ist in ψ(x, t0 ) enthalten. Daraus läßt sich die Wellenfunktion ψ(x, t) zu jedem späteren Zeitpunkt bestimmen, d.h. die zeitliche Entwicklung von ψ(x, t) ist determiniert. Nicht determiniert ist die zeitliche Entwicklung aller Meßgrößen (wie Ort und Impuls). Diese Größen können zu einem bestimmten Zeitpunkt (also etwa als Anfangsbedingungen) nicht alle zugleich festgelegt werden. Problem: Warum keine deterministischen Aussagen im Sinne der klassischen Mechanik? 3.2 3.2.1 Aufbau der Materie Elementarteilchen Quantitäten: 1 g Wasserstoff: ca. 1024 Atome Mensch: ca. 1028 Atome Sonne: ca. 1057 Atome Milchstraße: ca. 1068 Atome sichtbares Universum: ca. 1078 Atome Die derzeitigen Vorstellungen über den Aufbau der Materie sind im sogenannten Standardmodell zusammengefaßt. Man teilt Elementarteilchen in 3 Familien ein: siehe Tab. 1 Erläuterungen 1) Die Teilchen der 3 Familien unterscheiden sich nur in der Masse, d.h. Myon und Tau sind sozusagen schwere bzw. superschwere Elektronen. Für die Masse soll das (hypothetische) Higgs-Teilchen verantwortlich sein. 2) In der irdischen Welt kommen faktisch nur Teilchen aus der 1. Familie vor. Die Teilchen aus den anderen beiden Familien wurden in Teilchenbeschleunigern synthetisiert bzw. in der kosmischen Strahlung nachgeweisen. Die meisten sind sehr kurzlebig. 3.2 Aufbau der Materie 37 3) Zu jedem Teilchen gibt es ein Antiteilchen (mit entgegengesetzten Ladungen), z.B. e+ – Positron, ū –Anti-up-Quark. Wenn ein Teilchen mit seinem Antiteilchen zusammenstößt, vernichten sich beide gegenseitig und lassen nur Energie zurück. Die Materie, die aus Antiteilchen besteht, wird Antimaterie genannt. Für sie gelten im wesentlichen dieselben Gesetze wie für Materie. Tab. 1. Elementarteilchen Teilchen Symbol Masse∗) elektrische Ladung Familie 1 Elektron e− 0,00054 −1 ElektronNeutrino νe < 10−8 0 up-Quark u 0,0047 2/3 down-Quark d 0,0074 −1/3 Familie 2 Myon µ− 0,11 −1 MyonNeutrino νµ < 0, 0003 0 charm-Quark c 1,6 2/3 strangeQuark s 0,16 −1/3 Familie 3 Tau τ− 1,9 −1 TauNeutrino ντ < 0, 033 0 top-Quark t 189 2/3 bottomQuark b 5,2 −1/3 ∗) Ruhmasse in Vielfachen der Protonenmasse schwache Ladung starke Ladung −1/2 0 1/2 1/2 −1/2 0 rot, grün, blau rot, grün, blau −1/2 0 1/2 1/2 0 rot, grün, blau −1/2 rot, grün, blau −1/2 0 1/2 1/2 0 rot, grün, blau −1/2 rot, grün, blau Quarks Quarks kommen in der Natur nicht als freie Teilchen vor. Die Massen sind nur indirekt (und modellabhängig) definiert. Die starke bzw. schwache Ladung stellen spezielle nukleare bzw. atomare Eigenschaften dar. Die Farben sind nur symbolisch zu verstehen. Aus Quarks bilden sich Protonen p bzw. Neutronen n folgendermaßen: p = u + u + d, n = u + d + d. 38 3 MIKROKOSMOS Oder auch π-Mesonen π + = u + d̄, π − = ū + d und π 0 = u + ū oder π 0 = d + d̄ mit der Wahrscheinlichkeit von je 1/2. Spin: Eigendrehimpuls der Teilchen, bedingt durch deren Drehung um die eigene Achse. Der Spin kann nur halb- und ganzzahlige Vielfache von h̄ annehmen und wird durch den entsprechenden Faktor definiert. Insbesondere haben Elektronen sowie Protonen und Neutronen den Spin 1/2. Der Spin ist eine Quantenzahl. Für das Elektron gibt es 4 Quantenzahlen: – Hauptquantenzahl n = 1, 2, . . . (Energieniveau) – Bahndrehimpulsquantenzahl l = 0, 1, 2, . . . , n − 1 – magnetische Quantenzahl ml = 0, ±1, ±2, . . . , ±l – Spin ms = ±1/2. Für Materieteilchen mit Spin 1/2 gilt Paulisches Ausschließungsprinzip: Zwei Teilchen eines Atoms müssen sich in mindestens einer Quantenzahl unterscheiden. 3.2.2 Wechselwirkungen Die Kräfte der Wechselwirkungen zwischen Teilchen werden von Botenteilchen mit Spin 0, 1, 2 übertragen (virtuelle Teilchen). Um jedes (reale) Teilchen befindet sich eine ”Wolke” virtueller Teilchenpaare, die auch die Energieniveaus der Atome beeinflussen. (Zum Beispiel: Leichte Verschiebung des niedrigsten Energieniveaus des HAtoms – Lambsche Verschiebung.) Kräftetragende Teilchen sind nicht dem Ausschließungsprinzip unterworfen, sie können in unbegrenzter Zahl ausgetauscht werden. Unter bestimmten Umständen kommen Teilchen mit ganzzahligem Spin auch real vor, sie treten als Wellen (Licht- oder Gravitationswellen) auf. Beispiel: Abstoßung von Elektronen durch virtuelle Photonen Beim Wechsel des Elektrons von einer erlaubten Bahn auf andere erfolgt die Emission eines realen Photons (Licht). 3.2 Aufbau der Materie 39 Tab. 2. Fundamentale Wechselwirkungen (WW) Gravitation Austauschteilchen Graviton G elektromagnetische WW Photon γ starke WW schwache WW Vektorbosonen W+ , W − , Z0 Spin Masse 2 0 1 0 Mesonen π+ , π− , π0 Gluonen g 1 0,14 GeV/c2 Reichweite [m] Stärke (relativ) betroffene Teilchen ∞ ∞ 10−15 . . . 10−16 82 bzw. 93 GeV/c2 10−16 10−41 10−2 1 10−14 alle geladene Teilchen Hadronen Hadronen, Leptonen Erläuterungen 1) Hadron: Ein Teilchen, das an der starken Wechselwirkung teilnimmt. Alle Hadronen sind entweder Baryonen (Spin halbzahlig) oder Mesonen (Spin ganzzahlig). Zu den Baryonen gehören insbesondere Protonen und Neutronen. Die Baryonenzahl B eines Systems ist die Gesamtzahl der Baryonen abzüglich der Gesamtzahl der Antibaryonen. Leptonen: (Leichte) Teilchen wie Elektronen und Neutrinos mit Spin 1/2, die nicht an der starken Wechselwirkung teilnehmen. Die Leptonenzahl L eines Systems ist die Gesamtzahl der Leptonen abzüglich der Gesamtzahl der Antileptonen. Es kann zu vielfältigen Teilchenumwandlungen kommen. Dabei gelten für die Baryonen- und die Leptonenzahl und andere Größen wie die elektrische Ladung Q Erhaltungssätze. Beispiel: Neutronenzerfall (für freie Neutronen) (β-Zerfall) n → p + e− + ν̄e Die Halbwertzeit des Neutrons beträgt lediglich 11 Minuten. Die exakte Theorie der starken Wechselwirkung ist die Quantenchromodynamik (QCD). 2) Die Atomkerne werden durch (kurzlebige) Mesonen zusammengehalten. Ohne die starke Wechselwirkung würden die Kerne wegen der elektromagnetischen Abstoßung der Protonen auseinanderfliegen. 3) Die Quarks sind durch Gluonen verbunden. Dabei verbinden sich stets 3 Quarks verschiedener Farbe (rot, grün, blau) so, daß die Zusammensetzun- 40 3 MIKROKOSMOS gen keine Farbe (weiß) haben (”Confinement”). Bei Aussendung der Gluonen verändern sich die Farben der Quarks – 8 Arten Gluonen. Bis 10−16 m ist die starke Wechselwirkung nicht übermäßig groß und die Quarks können sich relativ frei bewegen; falls Abstand vergrößert wird, wachsen die Kräfte gigantisch (”Infrarotsklaverei”). Wenn man Quarks (z.B. in Mesonen) trennen will, muß man große Energie aufwenden, dadurch entstehen aber neue Quarks-Antiquarks-Paare. Vereinheitlichungen I) Bei hohen Temperaturen fallen die elektromagnetische und schwache Wechselwirkung zusammen (bei 100 GeV – 1983 Nachweis im Cern). Bei Abkühlung kommt es zu ”spontaner Symmetriebrechung”. Für höhere Energien muß das Standardmodell durch die (hypothetische) Große Vereinheitlichte Theorie (GUT) ersetzt werden. II) Bei sehr hohen Energien (1015 GeV) tritt die große Vereinheitlichung der Wechselwirkungen (auáer Gravitation) ein: Alle Teilchen mit Spin 1/2 (Quarks, Leptonen) sind dann im wesentlichen identisch – Lepton-QuarkUrteilchen. Elektrische Ladung und Farbe verschmelzen zu einer Eigenschaft, der X-Wechselwirkung mit entsprechenden X-Teilchen: Wenn Quark X-Teilchen aussendet, verwandelt es sich in anderes Mitglied der Lepton-Quark-Familie, z.B. Neutrino. Hierbei überträgt X-Teilchen Farbe und Ladung. III) Bei extrem hohen Energien (> 1019 GeV) wird die Vereinigung der 3 (vereinigten) Wechselwirkungen mit der Gravitation erwartet. Protonenzerfall (Lebenszeit > 1031 Jahre): Wenn zwei Quarks im Proton (statt normalerweise 10−16 m) nur 10−31 m entfernt sind, zerfällt das Proton wegen der dann auftretenden X-Wechselwirkung z.B. in 1 Positron und 1 π 0 -Meson, letzteres wiederum in 2 Photonen. Der Protonenzerfall kann beschleunigt werden durch Monopole : sehr schwere hypothetische Teilchen (m = 1016 GeV/c2 ) – Zusammenstoß mit Proton muß unweigerlich zu dessen Zerfall führen. 3.2.3 Naturkonstanten Die fundamentalen Naturkonstanten sind die Lichtgeschwindigkeit (SRT) c = 2, 99792458 · 108 m s−1 , die Gravitationskonstante (ART) G = (6, 67259 ± 0, 00085) · 10−11 m3 kg−1 s−2 3.2 Aufbau der Materie 41 und das Plancksche Wirkungsquantum (Quantenmechanik) h̄ = h = 1, 054 · 10−34 kg m2 s−1 = 0, 658 · 10−15 eVs. 2π Diese Konstanten sind fundamental in den entsprechenden Theorien. Die einzige Masse mP , Länge lP und Zeit tP , die sich aus diesen Konstanten bilden lassen, werden Planckmasse, Plancklänge bzw. Planckzeit genannt. Es gilt: r mP = r h̄G = 1, 6 · 10−35 m ≈ 10−35 m c3 r h̄G = 5, 4 · 10−44 s ≈ 5 · 10−44 s c5 lP = tP = h̄c = 1, 2 · 1019 GeV/c2 ≈ 1019 GeV/c2 G Dabei handelt es sich um diejenige Skala für minimale (Quanten-)Objekte, die gerade noch nicht zu Schwarzen Löchern kollabieren würden. Als entsprechende maximale Dichte ergibt sich: ρP = mP 97 kg/m3 = 1094 g/cm3 π 3 ≈ 10 l 6 P Anmerkung: Falls ein Gleichgewichtszustand vorliegt, kann man Energie und Temperatur umrechnen: 1 eV = 1, 16 · 104 K Für die Plancktemperatur erhält man daher TP ≈ 1032 K. Eine weitere grundlegende Konstante stellt die Elementarladung e dar e = 4, 803 · 10−10 g1/2 cm3/2 s−1 , Durch die Konstanten e, h̄, c wird die sogenannte Feinstrukturkonstante α definiert, die eine reine Zahl ist α= e2 1 = . h̄c 137.0 42 3 MIKROKOSMOS Außerdem kann man noch die Grobstrukturkonstante αG definieren αG = Gm2P = 5, 9041183 . . . · 10−39 . h̄c Diese beiden Konstanten bestimmen wesentlich den Aufbau der Materie. Grundlegend für viele Teilchenprozesse sind auch die Massen von Elektron me , Proton mp und Neutron mn , die meist in den entsprechenden Energieäquivalenten angegeben werden me c2 = 0, 51 MeV = 5, 9 · 109 K mp c2 = 938, 3 MeV = 1, 09 · 1013 K mn c2 = 939, 6 MeV = 1, 09 · 1013 K 3.2.4 Der Zeitpfeil Grundlegende Symmetrien • Konjugation C: physikalische Gesetze für Teilchen und Antiteilchen identisch • Parität P: gleiche Gesetze für Spiegelbilder, d.h. für Wellenfunktion muß gelten ψ(−x, −y, −z) = ψ(x, y, z) • Zeit T: gleiche Gesetze für beide Zeitrichtungen, d.h. ψ(−t) = ψ(t) CPT-Theorem: Jede Theorie, die ART und Quantenmechanik gehorcht, hat CPT-Symmetrie. Einzelne Symmetrien können gestört sein. Beispielsweise ist die schwache Wechselwirkung nicht P und C, doch CP; der Zerfall von K-Mesonen nicht CP. Wenn CPT- und CP-Symmetrie verwirklicht ist, muß auch T-Symmetrie gelten. Nach Hawking könnte die Zeit imaginär sein und das Universum endlich, aber unbegrenzt in der imaginären Zeit (”Keine-Grenzen-Bedingung”). 3.3 Stringtheorie 3. Konflikt (vgl. Kapitel 2): Krümmung des Raumes ART : glatt ⇐⇒ Quantenmechanik: ”fraktal” (Quantenfluktuationen) 3.3 Stringtheorie 43 Zur Lösung der Widersprüche zwischen ART und Quantenmechanik und als Alternative zum Standardmodell wurde die Stringtheorie entwickelt (noch nicht abgeschlossen). Vorläufer: Kaluza-Klein-Theorie Kaluza (1919): Wenn Raum mehr als 3 Dimensionen hat, kann man ART und Maxwells elektromagnetische Theorie in einer Theorie vereinigen. Klein (1926): Die Raumstruktur des Universums besitzt nicht nur ausgedehnte, sondern auch aufgewickelte Dimensionen (in Plancklänge). Dabei soll die Gravitation durch die Raumkrümmung und elektromagnetische Wellen durch Krümmungen in der aufgewickelten Dimension übertragen werden. Die Kaluza-Klein-Theorie erwies sich zunächst als vielversprechend, wurde jedoch mit der erfolgreichen Entwicklung der Quantenmechanik ab den 30er Jahren als unnützer Formalismus angesehen, zumal die Physiker nicht glaubten, daß die fünfte Dimension tatsächlich existierte. Zudem war die schwache und starke Wechselwirkung damit nicht beschreibbar. Entwicklung der Stringtheorie 1968/1970 Veneziano u.a.: erste Grundideen der Stringtheorie 1984 – 1986 erste Superstring-Revolution (5 Abarten der Theorie) 1995 zweite Superstring-Revolution (Witten): Vereinigung der verschiedenen Theorien in M-Theorie. Die Mathematik der (Super-)Stringtheorie ist so kompliziert, daß die exakten Gleichungen noch unbekannt sind: nur Näherungsgleichungen können teilweise gelöst werden. Grundideen der Stringtheorie • Die Elementarteilchen sind in Wirklichkeit eindimensionale Schleifen (Strings), die ständig schwingen. Verschiedene Schwingungsmuster ergeben verschiedene Teilchen (einschließlich aller Botenteilchen) mit den entsprechenden Massen. • Die Strings sind sehr straff gespannt (Planck-Spannung). Da sie nicht ”eingespannt” sind, ziehen sie sich auf Plancklänge zusammen. Die Strings sind die definitiv kleinsten Fundamentalteilchen. Quanteneffekte führen zur Auslöschung der entsprechenden Planckenergien und es ergeben sich für die bekannten Teilchen die Werte des Standardmodells. (Darüber hinaus sagt Stringtheorie die Existenz weiterer Teilchen voraus.) • Wechselwirkungen erfolgen – im Gegensatz zum Standardmodell – nicht punktuell, sondern sind in Abhängigkeit vom Beobachter ”verschmiert” in Raum und Zeit. Es können daher keine unendlichen Energien auftreten. • Das Universum hat 10 Raumdimensionen, wovon 6 aufgewickelt sind (in 44 3 MIKROKOSMOS Plancklänge). Die entsprechende Geometrie sind Calabi-Yau-Mannigfaltigkeiten – wobei es einige 10.000 Calabi-Yau-Räume gibt und noch nicht feststeht, welches der zutreffende ist. Die Geometrie der aufgewickelten Dimensionen bestimmt maßgeblich physikalische Eigenschaften wie Teilchenmassen und -ladungen. • Aufgrund der Geometrie der Calabi-Yau-Räume haben die Strings bei großem Radius R des Universums große Windungsenergie und geringe Schwingungsenergie; bei kleinem Radius ist es gerade umgekehrt. Die Beschaffenheit der Welt hängt aber nur von der Gesamtenergie ab. Daher haben Calabi-YauRäume mit den Radien R und 1/R identische physikalische Eigenschaften (Dualität). Realisiert wird jedoch nur das Universum mit R∗ = max(R, 1/R). • Die Raumzeit kann reißen (nach ART nicht zulässig), aber anschließend sich selbst reparieren. Verschiedene Calabi-Yau-Räume können ineinander übergehen. Die Raumzeit besteht aus einer gewaltigen Zahl von Strings, die alle das gleiche Graviton-Schwingungsmuster durchführen. Unterhalb der Plancklänge gibt es keinen Raum. Offen: – Warum sind nicht alle Dimensionen ausgedehnt oder aufgewickelt? – Gibt es zusätzliche Zeitdimensionen? 45 4 Entwicklung des Universums 4.1 Das Urknall-Modell Beginn des Universums – prinzipiell 3 Möglichkeiten: 1) Der Anfang war ein singulärer Zustand, der von der Naturwissenschaft nicht beschrieben werden kann. 2) Der Anfang war der denkbar einfachste und dauerhafteste Zustand, der die Keime für die zukünftige Entwicklung in sich barg. 3) Es gab keinen Anfang; das Universum ist unveränderlich und unendlich alt. Die Variante 2) wird von der heutigen Wissenschaft favorisiert. Die Rückverfolgung der jetzigen Expansion führt auf eine Singularität (R = 0). Die Vorstellung, daß die Welt aus einer solchen Singularität entstand, wird als Big-Bang- oder Urknall-Modell bezeichnet (soweit auf Grundlage der ART sowie des Standardmodells der Teilchenphysik auch als kosmologisches Standardmodell). 4.1.1 Kosmische Hintergrundstrahlung Da Ks /R2 > Km /R (vgl. (33), 2.4.2) für kleine R > 0, war das frühe Universum strahlungsdominiert bei einer Planckschen Strahlungsverteilung mit der Temperatur T . Nach dem Stefan-Boltzmann-Gesetz gilt: ρstr c2 = aT 4 , a= 4 π 2 kB 3 3 15h̄ c mit der Boltzmann-Konstante kB = 1, 3806 · 10−23 J/K. Wegen ρstr = 3c2 Ks const = 8πG R4 R4 ergibt sich T ∼ 1 . R (53) Entkopplung von Strahlung und Materie Für geladene Teilchen führt die elektromagnetische Wechselwirkung zu einem thermodynamischen Gleichgewicht der Teilchen und Photonen. Falls T < 3000 K bilden sich bevorzugt neutrale Atome. Die Dichte der geladenen Teilchen wird so klein, daß sich Strahlung und Materie praktisch entkoppeln. 46 4 ENTWICKLUNG DES UNIVERSUMS Wir bezeichnen mit te den Zeitpunkt der Entkopplung mit der entsprechenden Temperatur Te = T (te ) ≈ 3000 K. Die Plancksche Strahlungsverteilung aus dieser Frühzeit des Universums sollte mit entsprechend niedrigerer Temperatur T (t0 ) immer noch vorhanden sein. Erster Nachweis: 1964 [Penzias/Wilson] Durch Satellitenexperimente (COBE) gelang es die Temperatur exakt festzustellen: T0 = T (t0 ) = (2, 726 ± 0, 005) K. Nach Abzug eines Doppler-Effekts aufgrund der Eigenbewegnug unserer Galaxis zeigt die Hintergrundstrahlung fast völlige Isotropie. Aus dem Stefan-Boltzmann-Gesetz läßt sich nun die heutige Massendichte ρstr (t0 ) der Hintergrundstrahlung bestimmen: ρstr (t0 ) = 2 π 2 kB kg T 4 |T =T0 = 4, 8 · 10−31 3 3 5 m 15h̄ c Das spätere Universum war materiedominiert, da Km /R > Ks /R2 für größere R. Der Zeitpunkt t1 des Übergangs von Strahlungs- in Materiedominanz ergibt sich aus Ks /R2 = Km /R. Mit den heutigen Werten von ρ und R erhält man für die Konstanten Ks und Km Ks = 8πG ρstr (t0 )R04 , 3c2 Km = 8πG ρmat (t0 )R03 . 3c2 (54) Daraus folgt R(t1 ) = 10−4 R0 und mittels (33), 2.4.2. schließlich t1 ≈ 104 a. Die Expansion des Universum läßt sich nun durch die folgenden Beziehungen beschreiben 1/2 t , R(t) ≈ R0 · ts 2/3 t , t0 0 ≤ t < t1 (55) t1 ≤ t ≤ t0 mit dem Weltalter t0 ≈ 1, 3 · 1010 a (vgl. 2.4.4.) sowie ts ≈ 1012 a. 4.1 Das Urknall-Modell 47 Für den Zeitpunkt te der Entkopplung ergibt sich wegen R(te ) ≈ 10−3 R0 demnach te ≈ 4 · 105 a. Nach der Entkopplung (t > te ) gibt es keine weltweit wohldefinierte Temperatur mehr. Dann ist Tmat ∼ 1/R2 , während für Strahlung weiterhin die Beziehung (1) gilt. 4.1.2 Urknall und Inflation Die derzeitigen Theorien können Aussagen erst für R ≥ lP (Plancklänge) (bzw. die zugehörigen anderen Planckgrößen) machen. Insbesondere geht die Stringtheorie davon aus, daß es keine Singularität gegeben hat und R ≥ lP immer galt. Das Urknall-Modell beginnt somit zur Planckzeit mit Planckenergie. Man kann die Entwicklung des Universums in folgende Epochen einteilen: 1. Epoche: t ∈ (0, 10−43 s] T > 1032 K Details unbekannt Unklar sind vor allem die Anfangsbedingungen: – es gibt keine Anfangsbedingungen [Hawking] – ihr Einfluß ist unwesentlich [Guth] – sie haben eine bestimmte Form (welche?) Nach der Stringtheorie kommt es zur 1. Symmetriebrechung: 3+1 Dimensionen werden zur Expansion ausgewählt, die restlichen 6 Dimensionen verbleiben in Plancklänge aufgewickelt. 2. Epoche: t ∈ (10−43 s, 10−33 s] T fällt von 1032 K auf 1028 K Ausgehend von der Großen Vereinheitlichung schuf 1981 Guth die Theorie des inflationären Universums. In Folge der großen Vereinheitlichung war die elektromagnetische Kraft nicht von der starken Kernkraft unterscheidbar (”Symmetrie”). Mit wachsendem R fiel T unter die kritische Temperatur für die Vereinheitlichung und die Symmetrie wurde gebrochen. Die starke Kernkraft dominierte danach über die anderen Kräfte. Die Symmetriebrechung geschah abrupt und es wurde viel Energie freigesetzt. 48 4 ENTWICKLUNG DES UNIVERSUMS Die Freisetzung der Energie entsprach einer Veränderung des Quantenvakuums: Das Quantenvakuum des symmetrischen Zustands war das sogenannte falsche Vakuum – Vakuum mit negativer Energie bzw. negativem Druck (wie bei Casimir-Effekt). Zum Zeitpunkt der Symmetriebrechung (t = 10−35 s) verwandelte sich das falsche Vakuum in das echte Vakuum der gegenwärtigen Epoche. Die Energiefreisetzung beschleunigte die Expansion des Universums. Es blähte sich mit einer konstanten Expansionsrate (Ṙ/R) auf bis der Übergang zum echten Vakuum abgeschlossen war. Normalerweise wird die Expansionsrate des Universums durch die Gravitation gebremst. Während der Symmetriebrechung hielt jedoch die Energiezufuhr durch das falsche Vakuum die Expansionsrate des Universums vorübergehend konstant. Daher mußte der Abstand zwischen zwei beliebigen Teilchen mit exponentieller Geschwindigkeit anwachsen. Das exponentielle Wachstum der Längenskala wird Inflation genannt. Dabei kam es zu einer ca. 1043 -fachen Vergrößerung. Erste Materieformen: ”Ursuppe” aus allen möglichen Teilchensorten (Elektronen, Neutrinos, Photonen, Gluonen, X-Teilchen). Mit weiterem Temperaturabfall zerfallen X-Teilchen in Quarks und Antiquarks. 4.1.3 Der frühe Kosmos Für die folgenden Epochen gibt es experimentelle Belege (Teilchenbeschleuni< ger) bei mittleren Energien E ∼ 103 GeV. 3. Epoche: t ∈ (10−33 s, 10−6 s] T fällt auf 1013 K = b 1 GeV. Das Plasma aus Quarks, Antiquarks usw. kühlt sich ab. 4. Epoche: t ∈ (10−6 s, 10−3 s] E sinkt auf 30 MeV. Falls E < 1 GeV, kommt es zur massenhaften Vernichtung der Quarks und Antiquarks sowie Gluonen. Es bleibt ein geringer Überschuß Materie (wegen CP-Symmetrieverletzung). Die verbleibenden Quarks bilden jeweils zu dritt Protonen oder Neutronen (1027 /cm3 ). Die Energiedichte wird dominiert durch Elektronen, Photonen usw. (1036 /cm3 ). 5. Epoche: t ∈ (10−3 s, 102 s] T fällt auf 109 K. a) Obwohl Neutrinos nur schwach wechselwirken, standen sie wegen der großen Dichte in ständiger Wechselwirkung mit der restlichen Materie. Mit sinkender Dichte gibt es keine regelmäßigen Zusammenstöße von Neutrinos mit Elektro- 4.1 Das Urknall-Modell 49 nen usw. mehr: Entkopplung der Neutrinos. b) Zunächst Anzahl der Protonen = Anzahl der Neutronen. Da die Masse eines Neutrons > Masse eines Protons, wandeln sich sobald mittlere Energie des Universums ≈ Neutron-Proton-Massedifferenz viele Neutronen in Protonen um: 75% Protonen, 25% Neutronen. c) Wenn für Elektronen und Positronen E < me : Positronen-Elektronen- PaarVernichtung, wobei vornehmlich Photonen erzeugt werden; nur wenige Elektronen ”überleben”. Dabei bleibt Gesamtladung des Universums = 0. 6. Epoche: t ∈ (102 s, 30 min] Nach 3 Minuten T ≈ 900.000.000 K. Protonen und Neutronen, die zusammenstoßen, bilden Deuterium (relativ instabil), die überschüssige Energie wird als Photonen abgestrahlt; bei Zusammenstößen von Deuteriumkernen bilden sich Heliumkerne – praktisch alle Neutronen gebunden: Materie besteht aus 77% Wasserstoff und 23% Helium. 7. Epoche: t ∈ (10 min, 106 a] Bildung von Atomen Weitere Abkühlung bis nach etwa 300.000 Jahren. Dann sind Kerne in der Lage mit Hilfe der elektrischen Anziehungskraft Elektronen einzufangen – Bildung von Wasserstoff- oder Heliumatomen. Schließlich kommt es zur Entkopplung der Strahlung (Photonen). 8. Epoche: t ≥ 106 Jahre siehe später! 4.1.4 Steady-State-Modell Alternativ zum ”Big-Bang”-Modell entwickelten 1948 Bondi, Gold, Hoyle das Steady-State-Modell für ein Universum ohne zeitlichen Anfang. Das Modell fordert die Erschaffung von Materie aus dem Vakuum: Atome tauchen aus dem leeren Raum auf, um die zu ersetzen, die sich im ausdehnenden Raum davonbewegt haben; aus neu entstehender Materie bilden sich neue Galaxien, die die Lücken zwischen den auseinanderdriftenden Galaxien schließen. Das erforderte eine Abwandlung der ART (Masse- und Energieerhaltung verletzt): ≈ 1 Wasserstoffatom pro m3 pro 10 Milliarden Jahre sollten neugebildet werden. Das Modell konnte falsifiziert werden durch folgende Beobachtungen: • 1959 Radioquellen im Kosmos sind nicht gleichmäßig verteilt, ferne Regionen dominieren: Entweder befinden sich in unserer Raumregion weniger Quellen oder Radioquellen waren früher, als die Strahlung ausgeschickt wurde, häufiger – beides führt zu Widerspruch! • 1965 Entdeckung der Mikrowellenstrahlung – Universum muß früher viel 50 4 ENTWICKLUNG DES UNIVERSUMS dichter gewesen sein. In der Folge versuchten die Autoren durch eine Reihe künstlicher Annahmen das Modell zu retten, was aber nicht überzeugen konnte. 4.1.5 Das Multiversum Warum ist das Universum gerade so beschaffen (Konstanten etc.), daß sich Sterne, Leben und Bewußtsein entwickeln konnten? Starkes anthropisches Prinzip: Konstanten und Gesetze wurden bewußt so gewählt, daß Leben/Intelligenz möglich ist. Ein Blick in das Universum zeigt uns, wie viele physikalische und astronomische Zufälle zu unserem Vorteil zusammengewirkt haben, so daß fast der Eindruck entsteht, das Universum müsse irgendwie von unserem Kommen gewußt haben. [Dyson] Schwaches anthropisches Prinzip: Wir sehen das Universum so, wie es ist, weil wir nicht da wären, um es zu beobachten, wenn es anders wäre. Die Welt ist zumindest teilweise so, wie sie ist, weil es sonst niemand gäbe, der fragen könnte, warum sie so ist, wie sie ist. [Weinberg] Das Universum ist per Definition alles, was beobachtbar ist oder je sein wird. Nach neueren Konzepten ist unser Universum nur eines von (unendlich) vielen in einer größeren Gesamtheit, dem Multiversum. Jedes Universum beginnt mit seinem eigenen Urknall, hat seine Naturgesetze und Konstanten und durchluft einen charakteristischen Zyklus. Möglicherweise können sich dabei in einem vorhandenen Universum neue ”Baby-Universen” bilden. Nach Guth ist aus Wurmlöchern ein Baby-Universum sogar (prinzipiell) im Labor herstellbar. Die meisten der natürlich entstandenen Universen wären ”Totgeburten” (rascher Kollaps; zu schnelle Expansion; keine Chemie möglich etc.). Aber vielleicht ist unser Universum nicht einmal besonders kompliziert: Andere Universen könnten eine reichere Struktur haben, reicher als alles, was wir uns vorstellen können. [Rees] Weitere verwandte Konzepte: Hawking: Wellenfunktion des Universums – unendliche Anzahl von Paralleluniversen, die vielfach andere physikalische Konstanten haben (und durch Wurmlöcher verbunden sind), wobei unser Universum das einzige ist, wo Leben möglich ist. Linde: Chaotische Inflation – unendliches und ewiges Multiversum, erzeugt 4.2 Das heutige Universum 51 fortwährend Bereiche, die sich aufblähen und zu eigenen Universen entwickeln. Stringtheorie (Veneziano / Gasparini): Anfangs war ein kalter, unendlicher Raum. Aus Gleichungen der Stringtheorie folgt Instabilität, die zu Expansion des Raums mit Verstärkung der Krümmung führt, was wiederum ein spektakuläres Wachstum der Energiedichte nach sich zieht. In einer millimetergroßen dreidimensionalen Region beginnt die Inflation. Smolin (”Kosmischer Darwinismus”): Schwarze Löcher sind Keime neuer Universen. Neue Universen bilden sich durch ”Mutation”, wobei die Naturkonstanten jeweils etwas verändert werden; begünstigt werden Universen, die viele Schwarze Löcher hervorbringen. 4.2 4.2.1 Das heutige Universum Großräumige Strukturen Maßeinheiten: 1 Lichtjahr [Lj] = 9, 46 · 1012 km Parsec [pc]: Entfernung eines Himmelkörpers, der eine jährliche Parallaxe von 1 Bogensekunde hätte: 1 pc = 3, 0857 · 1013 km = 206.265 AE = 3,2616 Lj 1 AE (astronomische Einheit) = mittlerer Abstand Sonne – Erde: 1 AE = 149.597.870 km Bewegung der Erde im Weltraum Erde um Sonne: 30 km/s Sonne um Milchstraßenzentrum: 220 km/s Milchstraße um Lokale Gruppe: 50 km/s Lokale Gruppe in Virgo-Supergalaxienhaufen: 200 km/s Virgo-Superhaufen auf ”Großen Attraktor”: 400 km/s Nettobewegung der Erde relativ zur Hintergrundstrahlung: 400 km/s Kosmische Hierarchie Galaxie: Familie von Sternen, die durch Gravitation zusammengehalten wird, mit eigenständiger Identität, die sie von anderen Galaxien unterscheidet. Anmerkung: Unsere Galaxie, d.h. die Milchstraße, wird auch Galaxis genannt. (Im Englischen durch Großschreibung von galaxie hervorgehoben.) Die Galaxis enthält ca. 1011 Sterne und hat einen Durchmesser von 80.000 Lj, wobei sich die Sonne 28.000 Lj vom Zentrum entfernt befindet und 220 Millionen Jahre für einen Umlauf um das Zentrum braucht. Galaxien sind Inseln im leeren Raum. Es gibt am Himmel etwa 200.000 pro Quadratgrad, insgesamt 10 Milliarden Galaxien im sichtbaren Universum. 52 4 ENTWICKLUNG DES UNIVERSUMS Galaxienhaufen sind die größten gravitativ gebundenen Materieansammlungen im Universum. Es gibt auch Superhaufen: Haufen von Galaxienhaufen. Die meiste (sichtbare) Materie in einem Haufen besteht aus heißem intergalaktischem Gas, das Röntgenstrahlung aussendet. Damit ein Galaxienhaufen gebunden bleibt und die Galaxien nicht auseinanderfliegen, müssen ca. 80% der Masse als dunkle Materie vorliegen. Auf Skalen von ∼ 10 Mpc scheint das Universum eine fast schwammähnliche Struktur zu besitzen: Große Leerräume mit Ø > 1 Mpc, dazwischen Superhaufen, dünne ”Wände” und gelegentlich lange Filamente (Ketten) aus Galaxien (> 10 Mpc). Erst oberhalb 100 Mpc wird die Galaxienverteilung gleichförmig. 4.2.2 Galaxienentstehung Voraussetzung zur Bildung von Strukturen sind kleine Inhomogenitäten oder Fluktuationen. Ist das Universum völlig homogen, bilden sich keine Strukturen, bei großen Inhomogenitäten verklumpt alles zu stark. Die Dichteinhomogenitäten, die für die kosmische Struktur verantwortlich sind, waren vor der Entkopplung von Strahlung und Materie vorhanden. Erste Fluktuationen auf einer sehr kleinen Skala enthielt das Quantenvakuum. Durch die Inflation werden die winzigen Inhomogenitäten auf dem sehr kleinen Ausgangsgebiet auf allen Skalen aufgebläht. Damit sich gravitative Strukturen bilden können, muß schließlich für die Inhomogenitäten Q ≈ 10−5 gelten – was den Meßergebnissen für die Hintergrundstrahlung entspricht. Die weitere Entwicklung der Inhomogenitäten hängt von der vorherrschenden Materieform ab. 2 Szenarien der Galaxienbildung I) top-down-Szenario Als vorherrschende Materieform werden Baryonen angenommen. Bis zur Entkopplung von Strahlung und Materie werden die bestehenden Inhomogenitäten eher geglättet, weil Strahlung dazu neigt, aus Materie ”auszulaufen”. Nur die großräumigsten Inhomogenitäten überstehen den Homogenisierungsprozeß, da die Zeit nicht ausreicht, sie zu glätten. Nach der Entkopplung von Materie und Strahlung können Fluktuationen wachsen, sie haben dann mindestens 1015 M , die Größe eines Galaxienhaufens. Die Verdichtungen ziehen weiter Materie an sich, bis sie schließlich kollabieren und in Galaxien zerfallen. Größere Strukturen entwickeln sich also vor den kleineren, d.h. ”von oben nach unten” (top-down). Da die Verteilung der Materie in den 3 Raumrichtungen im Allgemeinen nicht 4.2 Das heutige Universum 53 symmetrisch ist, fällt die große Materiewolke zu einer Art ”Pfannkuchen” zusammen, in dem die Galaxien hauptsächlich in dünnen Schichten vorliegen. Wo sich die Schichten schneiden, bilden sich riesige Galaxienhaufen. Zwischen den Schichten befinden sich große materiefreie Räume. Damit die notwendige Dichte erreicht wird, muß dunkle Materie in Form von Neutrinos (Masse von ca. 10 bis 30 eV) vorliegen. Beobachtungen deuten allerdings darauf hin, daß sich zuerst Galaxien und danach Galaxienhaufen gebildet haben. II) bottom-up-Szenario Als vorherrschende Materieform wird dunkle kalte Materie (schwach wechselwirkende Teilchen) angenommen. Die Inhomogenitäten beginnen daher bereits nach dem Übergang zur Materiedominanz zu wachsen. Weil die dunkle Materie nicht mit der Strahlung wechselwirkt und als kalte Materie mit keinem thermischen Druck gegen die Gravitation wirkt, kommt es zu Verklumpungen. Da die Zusammenziehung eher beginnt, ist die Skala entsprechend kleiner. Die ersten Objekte, die sich in einem solchen Universum bilden, sind Zwerggalaxien (bei R ≈ 10−3 R0 ). Dabei muß eine gewisse Mindestmasse (Jeansmasse) mit ca. 106 M vorhanden sein. Gewöhnliche Galaxien entstehen erst bei R ≈ 10−2 R0 , wobei sich die Baryonen stärker zusammenballen als die dunkle Materie. Schließlich bilden sich Galaxienhaufen (R ≈ 10−1 R0 ). Bildung von Galaxienhaufen Die Galaxien eines lokalen Gebietes üben eine Anziehungskraft aus, die stark genug ist, die Expansion des Universums in dem Gebiet zu stoppen. Das Gebiet erreicht seinen größten Radius, wenn die mittlere Dichte etwa fünfmal größer ist als die Dichte der Umgebung, die natürlich ständig abnimmt. Dann besitzt die Galaxienwolke nur (negative) potentielle Energie Epot . Beim Zusammenziehen wandelt sich Epot in kinetische Energie Ekin in Form der bewegten Galaxien um. Falls Epot = Ekin gilt, stellt sich ein dynamisches Gleichgewicht her und ein stabiler Galaxienhaufen hat sich gebildet. Die Galaxienwolke ist dann auf ihren halben Radius geschrumpft. Ein ähnliches Gleichgewicht stellt sich auch für Galaxien her (z.B. Milchstraße). Die Galaxis expandiert weder wie das Universum, noch zieht sie sich zusammen wie eine kollabierende interstellare Gaswolke. Die Stabilität resultiert insbesondere aus • Mittlere Dichte der Milchstraße mittlere Dichte des Universums, d.h. die verstärkte Anziehung verhindert die Expansion. • Milchstraße besteht hauptsächlich aus Sternen, die sich wie stoßfreie Teilchen verhalten, so daß ihre Bahnenergie erhalten bleibt. 54 4 ENTWICKLUNG DES UNIVERSUMS Anmerkungen: 1) Anfangs bilden sich eher elliptische Galaxien, später mehr Spiralgalaxien (wie die Milchstraße). Letztere rotieren und erhalten ihre Form als Gleichgewicht zwischen Zentrifugalkraft und Gravitation. 2) Galaxien können miteinander verschmelzen, dadurch erhält die Sternentstehung oft einen mächtigen Anschub. Bei größeren Begegnungsgeschwindigkeiten durchqueren sich Galaxien ”wie Geister, die durch Wände gehen” (Silk). 4.2 Das heutige Universum 4.2.3 55 Die Zukunft des Universums Entwicklungsstufen des Universums (nach Adams / Laughlin) Das Zeitalter der Urmaterie Urknall Quantengravitation beherrscht das Universum (Planck-Zeit) Große Vereinheitlichung von 3 Grundkräften Quarks werden in Hadronen eingesperrt Erste Elementerzeugung (Kernsynthese) Materie dominiert über Strahlung Elektronen und Protonen bilden Atome (Rekombination) Das Zeitalter der leuchtende Sterne Bildung der ersten Sterne Bildung des Milchstraßensystems Bildung des Sonnensystems Heute Unsere Sonne stirbt Nahe Begegnung der Galaxie mit Andromedasystem Tod der kleinsten Sterne Ende der herkömmlichen Sternbildung Das Zeitalter der entarteten Sterne Planeten trennen sich von Sternen Braune Zwerge stoßen zusammen und bilden Sterne Sterne verdampfen aus Galaxis Teilchen der dunklen Materie vernichten einander im galaktischen Halo Gravitationsstrahlung stört die Bahn von Sternen Weiße Zwerge saugen dunkle Materie des galaktischen Halos auf Schwarze Löcher verschlingen Sterne Protonen zerfallen Neutronensterne verlieren Masse, heftige Ausbrüche Planeten und weiße Zwerge werden durch Protonenzerfall vernichtet Das Zeitalter der Schwarzen Löcher Axionen (insbesondere Neutrinos) zerfallen zu Photonen Schwarze Löcher mit einer Million Sonnenmassen verdampfen In einem flachen Universum bildet sich Positronium Die größten und massereichsten Schwarzen Löcher verschwinden Das Zeitalter der Dunkelheit Schwarze Löcher mit der Masse des jetzigen Horizonts verdampfen In einem flachen Universum zerfällt Positronium Dekade −∞ −50, 5 −44, 5 −12, 5 −6 4 5,5 6 9 9,5 10 10,2 10,2 13 14 15 16 19 22,5 24 25 30 37 38 38 – 39 42 83 85 98 131 141 56 5 5.1 5.1.1 5 LEBEN Leben Entstehung des Lebens Wesen und Voraussetzungen Bisher keine allgemein akzeptierte Definition von ”Leben” Charakteristische Merkmale: • Autonomie: Selbstbestimmung und -erhaltung • Reproduktion (einschließlich des Kopiermechanismus) • ständige Energieaufnahme: Stoffwechsel • Wachstum und Entwicklung • organisierte Komplexität • Hardware-Software-Verknüpfung • Kontinuität und Wandel: Bewahrung der Identität / Anpassungszwang, um zu überleben Physikalische Definition (Tipler/Barrow): Leben ist durch natürliche Auslese bewahrte Information. Voraussetzungen für die Entstehung von Leben – hinreichende Abkühlung des Universums – aktive Sterne als Energiequelle – Ω0 ∼ 1 –Λ≈0 Zufall oder Notwendigkeit? A) Entstehung des Lebens reiner Zufall (Monod) B) Leben – Ergebnis deterministischer Kräfte: . . . Es mußte unter den herrschenden Bedingungen zwangsläufig entstehen und wird sich immer wieder entwickeln, wenn sich irgendwann und irgendwo erneut diese Bedingungen einstellen . . . Leben und Geist entstehen nicht als exotische Unfälle, sondern als natürliche Erscheinungsformen der Materie, die der Struktur des Universums innewohnen. (Duve) Bevorzugen atomare Kräfte Konfigurationen (z.B. von Aminosäuren), die von biologischen Nutzen sind (”Prädestinierung”)? Leben vollbringt seine Wunder nicht, indem es sich chemischen Gesetzmäßigkeiten beugt, sondern indem es umgeht, was chemisch und thermodynamisch als natürlich erscheint. (Davies) 5.1.2 Selbstorganisation Organisation: Prozeß, durch den in einem System Ordnung (mit bestimmten 5.1 Entstehung des Lebens 57 Strukturen und Gesetzen) erzeugt wird. Selbstorganisation: Dynamische Entwicklung eines Systems, in deren Verlauf es sich selbst ordnet. Insbesondere ist das für jeden Evolutionsprozeß charakteristisch. Notwendige Bedingungen für Selbstorgansiation: • System ist weit vom Gleichgewicht entfernt • System wirkt nichtlinear • System exportiert Entropie Beispiel: Bénard-Zellen Erhitzung von Flüssigkeiten (Wassertopf auf Herd): Konvektion – Wasser sprudelt ungeordnet, erhitzte Flüssigkeit drängt nach oben. Bei fortgesetzter Erhitzung gerät System aus Gleichgewicht: Es bilden sich Strömungsmuster – sechseckige Zellen (hochgradig geordnet und stabil). Bei weiterer Erhitzung verschwinden die Zellen, das System wird chaotisch. Leben ist ein offenes System mit ständigem Austausch von Energie und Entropie mit der Umwelt. Hat die Evolution als Ziel eine höhere Komplexität? Komplexitätsgewinn kann statistisch beschrieben werden. Wir sind das prächtige Zufallsprodukt eines unberechenbaren Prozesses ohne jeden Drang zur Komplexität, nicht das erwartete Ergebnis von Evolutionsprinzipien, die ein Geschöpf hervorbringen wollen, das in der Lage ist, seinen eigenen Bauplan zu verstehen. (Gould) 5.1.3 Bausteine des irdischen Lebens Lebende Organismen bestehen bekanntlich aus Zellen. Die Bausteine der Zelle sind die Proteine (Mensch: 200.000 Typen). Protein: Kette von Aminosäuren (20 Sorten) – wichtig ist die richtige räumliche Faltung. Genetischer Code: Die Reihenfolge der Aminosäuren wird definiert durch die Desoxyribonukleinsäure (DNS) [engl. Desoxyribonuclein-Acid – DNA], deren einzelne Moleküle nennt man Nukleotide. (Mensch: 2, 8 · 109 , Bakterien: ∼ 107 Nukleotide) 4 Nukleotide (”Buchstaben”): Adenin, Guanin, Cytosin, Thymin Je 3 Nukleotide (Codon) für Verschlüsselung einer Aminosäure: 64 Möglichkeiten. Der DNS-Abschnitt, der ein bestimmtes Merkmal eines Individuums charak- 58 5 LEBEN terisiert, heißt Gen (kann verstreut in verschiedenen Teilen der DNS verschlüsselt sein). Die DNS-Kette befindet sich im Zellkern jeder einzelnen Zelle des Organismus in doppelter Ausfertigung (mit A-T bzw. C-G-Bindung): Doppelhelix (Durchmesser < 0,02 nm). Bei der Zellteilung spaltet sich die Doppelhelix der Länge nach in die beiden DNS-Stränge und jeder DNS-Strang bildet um sich eine neue Zelle mit je einer Doppelhelix. Aus einer befruchteten Eizelle bildet sich durch fortwährende Zellteilung ein neues Individuum. Mit der einsetzenden Spezialisierung der Zellen werden gewisse Gene an- oder ausgeschaltet. Die DNS ist sehr langlebig (insgesamt ca. 3,5 Milliarden Jahre alt), aber auf Proteine angewiesen, um ihren Plan zu realisieren. Protein-Synthese Die Zelle macht den entsprechenden Teilstring der DNS ausfindig und kopiert ihn; Kopie des Teilstrings (wobei Thymin durch Uracil ersetzt wird) = Ribonukleinsäure (RNS). Sie wird in den Teil der Zelle transportiert (dem Ribosom), der die RNS in eine Kette von Aminosäuren entsprechend der Verschlüsselung umsetzen kann. Die Verschlüsselung der Aminosäuren in der RNS Jede Verschlüsselung beginnt mit AUG und endet mit UGA, UAA oder UAG. 1/2 U C A G U Phenylalanin Phenylalanin Leucin Leucin Leucin Leucin Leucin Leucin Isoleucin Isoleucin Isoleucin – Valin Valin Valin Valin C Serin Serin Serin Serin Prolin Prolin Prolin Prolin Threonin Threonin Threonin Threonin Alanin Alanin Alanin Alanin A Tyrosin Tyrosin – – Histidin Histidin Glutamin Glutamin Asparagin Asparagin Lysin Lysin Aspartic Acid Aspartic Acid Glutamid Acid Glutamid Acid G Cystein Cystein – Thryptophan Arginin Arginin Arginin Arginin Serin Serin Arginin Arginin Glycin Glycin Glycin Glycin 3 U C A G U C A G U C A G U C A G 5.1 Entstehung des Lebens 59 Warum ausgerechnet 20 Aminosäuren und 4 Nukleotidbasen? Weniger Aminosäuren – weniger Variationsmöglichkeiten, mehr Aminosäuren – wachsende Wahrscheinlichkeit von Kopierfehlern. Komplexität des Codes: Jede Folge, die nicht algorithmisch komprimiert werden kann, ist zufällig (Chaitin) = b maximale Information: kürzeste Darstellung der Folge ist die Folge selbst. Beispiele: 1) 11001001000011111101101010100010001000010110100011 . . . Keine Zufallszahl, aber besteht alle statistischen Tests auf Zufälligkeit. 2) . . . 01000111011101001001110011010110101110111010100001 . . . Abschnitt des Genoms des Virus MB2 mit A = 00, U = 11, G = 01, C = 10 Generell läßt sich Zufälligkeit einer Folge nicht beweisen. Eine Folge muß (wenigstens annähernd) zufällig sein, wenn sie eine große Menge genetischer Information enthalten soll. Die meisten Genome sind in ihrer Basenanordnung nicht vollkommen zufallsbedingt, schon wegen der Regeln der ”Zeichensetzung”. Zudem können DNS-Abschnitte dupliziert oder umgekehrt werden. Wenn man diese einfachen Regelmäßigkeiten ausfiltert, wurde innerhalb der einzelnen Proteincodes bisher kein systematisches Muster gefunden (kein Code im Code). Andererseits ergeben die meisten zufallsbedingten Folgen kein potentielles Genom. 5.1.4 Ursprung des Lebens Oparin, Haldane (30er J.): Aus der Ur-Atmossphäre (Wasserstoff, Methan, Ammoniak, Wasserdampf) bildeten sich unter äußeren Bedingungen (Sonneneinstrahlung, Blitze) organische Moleküle. Experiment Miller (1953): In Glaskolben obige Stoffe, Erhitzung (”Sonne”) + elektrische Entladungen (60.000 V), danach Abkühlung und Kondensation (”Regen”) – es entstanden Aminosäuren (vorbiologische Evolution). Nach neueren Erkenntnissen bestand Uratmossphäre eher aus CO2 und N2 (ungünstig). Komplexitätsunterschied Zelle – Aminosäuren ist wahrscheinlich größer als Mensch – Zelle. ”Einwand gegen die Schutthalden-Mentalität” (Hoyle): Eine Schutthalde enthalte alle Einzelteile einer Boeing 747, aber völlig zerstückelt und ungeordnet. Ein Wirbelsturm fegt über die Halle dahin. Wie groß ist die Wahrscheinlichkeit, daß man anschließend eine völlig montierte, flugbereite Boeing 747 dort vorfindet? So gering, daß man sie nicht zu berücksichtigen braucht, selbst wenn ein Tornado über genügend Schutthalden hinwegwirbelte, 60 5 LEBEN um damit das Universum auszufüllen. Folgerung: Aus bloßem Zufall können (in endlicher Zeit) praktisch keine komplexen Strukturen entstehen, geschweige denn Leben. Außerdem besteht Huhn-oder-Ei-Problematik: Ohne DNS keine Proteine, ohne Proteine keine DNS. Konzepte zum Ursprung des Lebens: I) Chemische Selbstmontage Irgendwo auf Erdoberfläche in ”warmen kleinen Teich” (Darwin) 1) Zuerst RNS: chemisch vielseitiger als DNS, kann auch als Informationsspeicher fungieren, aber zerbrechlicher. Sogar Selbstmontage aus ausgewogener Chemikalienmischung möglich. (Eigen) Durch zufällige Wechselwirkung mit Aminosäuren bestehen bessere Voraussetzungen für die RNS-Replikation – allmähliche Herausbildung der Proteine und DNS . Kritik: – sehr künstliche und komplexe Chemikalienmischung erforderlich – Problem der Chiralität – RNS-Replikation in verschiedenen Lebensbereichen nicht einheitlich – kein Stoffwechsel: Energiezufuhr? – Fehlerkatastrophe: kleine Moleküle nur geringe Replikationsgenauigkeit 2) Zuerst Proteine: bestimmte kurze Peptidketten können sich selbständig vermehren. A) Hardware und Software getrennt entstanden (Dyson): 2 Arten von Urorganismen – eine mit Proteinstoffwechsel, aber ohne Fähigkeit sich fortzuplanzen; andere replikationsfähig, aber ohne Stoffwechsel – Leben durch Symbiose beider Arten. B) Am Meeresboden in Nähe von Vulkanen (Russel): Eisen-Schwefel-Verbindungen mit halbdurchlässiger Membran wie Zelle, auch Zellteilung möglich; Energie aus Elektrizität. 3) Weder Proteine noch DNS zuerst (Cairns-Smith): zunächst Datenspeicher in Form von Tonkristallen (alle für Evolution notwendige Eigenschaften: Replikation, Variation, Selektion vorhanden). Die Kristalle produzierten zunächst organische Moleküle zu eigennützigen Zwecken (bessere Replikation). Später kam es zur genetischen Übernahme durch Nukleinsäuren. Tonkristalle als ”Gerüst”, um das ”Bauwerk” Nukleinsäure zu errichten II) Leben aus Weltall (Panspermie-Hypothese) Nach Oort (1950) gibt es große Kometenwolke jenseits des Pluto (Durchmesser: mehrere Lichtjahre) mit vielen organischen Stoffen (bisher nicht nach- 5.2 Entwicklung des Lebens 61 gewiesen). Tatsächlich enthalten Kometen meist Wasser und viele organische Substanzen. Bei kosmischen Einschlägen wird viel Material in den Weltraum katapultiert, beispielsweise vom Mars. Falls Universum unendlich alt ist, kann auch Leben unendlich alt sein (kein Ursprung). III) Leben aus der Tiefe (Corliss / Gold) Durch DNS-Analyse fand man heraus, daß hitzeliebende Bakterien dem universalen Ahnen am ähnlichsten sind. Die erste Zelle bildete sich möglicherweise bei 100 – 150◦ C mindestens 1 km unter der Meeresoberfläche, wahrscheinlich in porösem Felsgestein (”Steinfresser”). Die Zellen verarbeiteten Schwefel, Eisen, Wasserstoff aus dem Gestein mit in Wasser gelöstem Kohlendioxid. Da es nach unten zu heiß war, konnten sie sich nur nach oben ausbreiten, mußten allerdings dabei ihre Reproduktion ändern – Entstehen einfacher Formen der Photosynthese. 5.2 5.2.1 Entwicklung des Lebens Evolution Zeitraum [Jahre] (vor Gegenwart) 4, 55 · 109 3, 85 · 109 3, 5 · 109 1, 8 · 109 1, 1 · 109 109 8, 5 · 108 5, 45 · 108 5 · 108 2 · 108 6, 5 · 107 3, 5 · 106 6 · 104 Ereignis Entstehung der Erde Entstehung des Lebens älteste Fossilien (Cyanobakterien) eukaryotischer Plankton Eukaryoten mit Sexualität und Tod Vielzeller; Landpflanzen früheste Urtierchen (Protozoen) Arten-”Explosion” erste Landtiere (Amphibien) Entwicklung der Dinosaurier Aussterben der Dinosaurier; Aufstieg der Säugetiere Entwicklung der Hominiden (Biologische) Entwicklung des Homo sapiens sapiens abgeschlossen Das Leben auf der Erde stammt von einem gemeinsamen Vorfahren ab (6= 62 5 LEBEN erste Lebensform). Von allen jemals existierenden Arten sind inzwischen 99% ausgestorben. Es existieren 3 grundlegende Bereiche des Lebens (Teilung vor ca. 3 Milliarden Jahren): – Bakterien: Einzeller ohne Zellkern – Archaebakterien: oberflächlich ähnlich, aber genetisch anders – Eukaryoten: komplexere Einzeller und vielzellige Organismen Die dominierenden Lebensform sind Bakterien. Zum Beispiel enthält ein Löffel Erde 1013 Bakterien von 10.000 Arten. Die Gesamtmasse der Mikroorganismen auf der Erde beträgt ca. 1014 t. [Davies] Das grundlegende Prinzip der Evolution stellt die natürliche Auslese dar. Dabei sind alle Organismen faktisch ”Überlebensmaschinen” ihrer Gene. Die Auslese basiert auf Mutation und Rekombination (Kreuzung der DNS zweier Individuen). Optimal ist viel Rekombination und etwas Mutation. 5.2.2 Die Gaia-Hypothese Gaia: selbstregulierendes, evolvierendes System, bestehend aus allem Lebendigen und seiner Oberflächenumwelt (Meere, Atmossphäre, Erdkruste), das sich ähnlich wie jeder biologischer Organismus verhält. Klima, Zusammensetzung von Gestein, Meer und Atmossphäre sind nicht nur geologisch, sondern auch biologisch bedingt. Beispiel: Temperatur Einerseits wäre ohne natürliche Treibhausgase die Oberflächentemperatur 33◦ C kälter. Andererseits ist der Energieausstoß der Sonne in 3,6 Milliarden Jahren um 25% gewachsen, dennoch blieb die Temperatur im lebensfreundlichen Rahmen. Erdzeitalter I) Hadäum (4,6 – 3,7 Mrd. J.) Die Erde war anfangs sehr heiß und ohne Atmosphäre; durch Gasemission des Gesteins Bildung einer Atmossphäre (ohne Sauerstoff). Die relativ hohe Radioaktivität führte zu Vulkanismus mit hohem CO2 -Ausstoß. Wegen Treibhauseffekt stabilisierte sich die Temperatur der Atmossphäre. II) Archaikum (3,7 – 2,5 Mrd. J.) In Atmosphäre wahrscheinlich 30% CO2 , außerdem N2 und CH4 ; Durchschnittstemperatur T A = 28◦ C. Erste chemische Reaktionen durch Lebensformen. Das sich herausbildende Gleichgewicht zwischen Bakterien, die auf Photosyn- 5.3 Natürliche und künstliche Intelligenz 63 these und Verwesung beruhen, schafft stabile Stoffbilanzen – Geburt von Gaia. Die Bedingungen für die Entstehung des Lebens waren nur begrenzte Zeit günstig; durch Gaia wurden lebensgünstige Bedingungen bewahrt. III) Proterozoikum (2,5 - 0,7 Mrd. J.) O2 beginnt zu dominieren; in leicht oxydierenden Oberflächen können sich komplexere Organismen als Bakterien entwickeln. IV) Phanerozoikum (0,7 Mrd. – Gegenwart) O2 -Gehalt 21% – nahezu konstant; CO2 wurde zum Ausgleich für steigende Strahlungsintensität der Sonne auf 0, 03% reduziert. Pflanzen und Tiere bilden globales System und die heutige Landschaft entsteht. Das Leben ist an Kreislaufprozessen aktiv beteiligt, insbesondere betrifft das die Stoffe CO2 , O2 , N2 , CH4 und S. Beispiel: CO2 Zwischen Produzenten und Konsumenten besteht ein Gleichgewicht. CO2 aus externen Quellen (Vulkane) wird schließlich in Kalkstein und Kieselerde gebunden. Diese Prozesse werden durch Mikroorganismen wesentlich beschleunigt. Leben kann sich der Entwicklung zum chemischen Gleichgewicht nur entgegenstellen, wenn es global wirkt. Wenn es Leben auf einem Planeten gibt, dann kann es kein spärliches Leben sein. Das System muß groß und vital sein, um mit globalen Problemen fertig zu werden. (Lovelock) Krankheitssymptome: – Landwirtschaft und Entwaldung – Saurer Regen – Zerstörung der Ozonschicht – globale Erwärmung (Treibhauseffekt) 5.3 5.3.1 Natürliche und künstliche Intelligenz Bewußtsein Bewußtsein (im engeren Sinne): Wissen eines Systems, daß es selbst existiert. In der Informatik stellt Bewußtsein ein emergentes Phänomen dar, das sich ergibt, wenn ein System komplex genug ist. Grundlegende Voraussetzungen für die Entstehung von Bewußtsein • Linearität: ähnliche Ursachen haben ähnliche Wirkungen 64 5 LEBEN • Lokalität: Dinge, die passieren, werden durch Ereignisse in räumlicher und zeitlicher Nachbarschaft beeinflußt • Unschärferelation: Identität der Erscheinungen der atomaren Welt und strukturelle Wiederholbarkeit der physikalischen Welt Die höchste bekannte Form des Bewußtseins wird verkörpert durch das menschliche Gehirn: Speicherfähigkeit: ca. 1011 Neuronen mit jeweils 105 Verbindungen (Synapsen) zu anderen Neuronen = b 1016 Bits Operationsgeschwindigkeit: ca. 10 Tera-Flops 5.3.2 Neuronen Die Neuronen (Nervenzellen) sind die Bausteine des Geistes, d.h. die Grundlage für Prozesse, die dem Bewußtsein, Denken und Seelenleben zugrunde liegen. Neuronen bestehen aus dem Soma (”Kopf”), von dem Dendriten (Empfänger) vielfältig verzweigen und dem Axon (Sender). Das Soma empfängt Signale in Form chemisch ausgelöster lokaler Hyper- oder Depolarisierungen der Zellmembran (Aufbau oder Abbau elektrischer Spannungen). Die Signale stammen meist von den Endigungen anderer Neuronen, den synaptischen Endknoten. Bei sensorischen Neuronen können die Signale auch aus der Außenwelt stammen. Die Signalverarbeitumg führt zu einem bestimmten Output, der – als Sequenz elektrischer Impulse – über das Axon weitergegeben wird. Über das Axon gelangen elektrische Impulse zu anderen Neuronen oder – bei motorischen Neuronen – zu Muskelfasern. Das Axon kann sich verzweigen und derart viele andere Nervenzellen erreichen. Über die synaptischen Endknoten kommunizieren die Neuronen miteinander. Dabei wird eine Transmittersubstanz freigesetzt, die die Zellmembran des Empfängerneurons entweder de- oder hyperpolarisiert. Eine Depolarisierung erhöht die Frequenz der Impulse (Aktivationen). Eine Hyperpolarisierung senkt die Frequenz der Impulse (Inhibitionen). Ein Neuron kann sich selbst inhibieren oder aktivieren. Die Endknoten speichern verschiedene Mengen Transmittersubstanzen (Gewichte), die mit den eintreffenden Signalen verrechnet werden. Formalisierte Neuronen können die bekannten logischen Verknüpfungen (insbesondere Konjunktion, Disjunktion und Negation), aber auch gewisse Verallgemeinerungen aus der Fuzzy-Logik ausführen. Damit stellen Neuronen Universalelemente dar und man kann mit ihnen alles machen, was mit Informationsverarbeitung zu tun hat (zum Beispiel Mustererkennung). 5.3 Natürliche und künstliche Intelligenz 5.3.3 65 Künstliche Intelligenz Können Maschinen eines Tages denken? KI: Es gibt bereits denkende Maschinen, sie heißen Menschen. Im Gegensatz zu physikalischen Gesetzen ist Intelligenz nicht auf wenige Regeln reduzierbar. Intelligenz besteht aus zehn Millionen Regeln. (Lenat) Allgemeine Probleme • Energieverbrauch / Kühlung • Speicherung der Information (Hardware) Speichermedium Keilschrift in Tontafeln Pergament Silberhalogenid-Film auf Polyestermaterial alterungsbeständiges Papier saures Papier Farbfilme CD, DVD Zeitungspapier Ton- und Videobänder Lebensdauer (Jahre) 4000 > 1000 > 1000 > 500 20 – 200 30 – 100 30 – 100 10 – 30 10 – 20 Perspektiven Kurzweil (1999): 2019 – Berichte über Computer, die den Turing-Test bestanden haben, häufen sich. um 2099 – Das menschliche Denken verschmilzt mit der ursprünglich von der menschlichen Spezies erschaffenen Maschinenintelligenz. . . . Der Begriff ”Lebenserwartung” hat im Zusammenhang mit intelligenten Wesen keine Bedeutung mehr. In fünfziger Jahren machten Simon/Newell folgende Voraussagen: 1. Bis 1966 wird ein Computer Schachweltmeister. 2. Bis 1966 wird ein Computer einen wichtigen mathematischen Satz entdecken und beweisen. 3. Bis 1966 werden Computer qualitativ hochwertige Musik komponieren. Prinzipielle Bedenken – Gehirn ist vor allem eine neuro-chemische ”Maschine”; auf Siliziumbasis oder ähnlichem kaum reproduzierbar – Gehirn ist weitgehend optimiert, Manipulationen führen eher zur Verschlech- 66 5 LEBEN terung – Wenngleich sich die Rechnerleistung in den letzten Jahrzehnten nach dem Mooreschen Gesetz entwickelt hat, gilt das nicht für KI-Forschung 67 6 6.1 6.1.1 Zukunft der Menschheit Risiken und Chancen Zivilisationstypen Quantifizierung: Effektive isotrope Strahlungsleistung (EISL) eines Radiowellen-Senders = abgestrahlte Leistung / Bruchteil des überdeckten Himmels Zivilisations0 (Erde) minimale EISL [W] < 1014 I 1016 II III 1027 1038 6.1.2 Bemerkungen Arecibo-Radioteleskop in Puerto-Rico Strahlungsleistung des gesamten auf Erde fallenden Sonnenlichts Leuchtkraft der Sonne Strahlungsleistung aller Sterne der Galaxis Planetare Katastrophen • Meteoriten: Körper aus Weltall, die auf Erde einschlagen Speziell: Asteroiden – kleine felsige Objekte im Sonnensystem – 1000 . . . 4000 kreuzen Erdbahn mit Durchmesser > 0, 8km (nur 150 Bahnen bekannt) Kometen: Eiskörper mit einigen Kilometer Durchmesser, die Sonne umkreisen und zum Teil verdunsten, wenn sie sich Sonne nähern 1694 Halley: Möglichkeit eines Kometeneinschlags 1873 Proctor: Mondkrater durch Meteoriteneinschläge (Nachweis: Apollo-Landungen) 1990: größter Krater auf Erde in Mexiko entdeckt – Chicxulub: Durchmesser 180 km (Geschoßdurchmesser 20 km; 108 Mt TNT), Alter 64, 98 ± 0, 05 Mio. Jahre Fast-Zusammenstöße Tag Name 23.3.1989 3.1.1993 14.8.2126 Toutatis Swift-Tuttle-Komet Durchmesser d [km] 0,8 >3 Minimale Entfernung [Mio. km] 1,1 3,5 0 (?) Ab d ≥ 2 km – globale Katastrophe; wahrscheinlich alle 100 Mio Jahre Treffer durch Geschoß mit d = 10 km. 68 6.1.3 6 ZUKUNFT DER MENSCHHEIT Neue Technologien Joy (2000) forderte Moratorium für Forschungen auf 3 Gebieten, die eine Bedrohung für die Existenz der Menschheit darstellen: Gentechnik, Nanotechnik und Robotik. A) Gentechnik 1997 Schaf ”Dolly” als erstes erwachsenes Säugetier geklont (organismisches Klonen): Zellkern einer kultivierten Schaf-Euterzelle wurde auf ”entkernte” Eizelle eines anderen Schafes übertragen. Weitere (umstrittene) Gentechniken: • therapeutisches Klonen: nach Dolly-Verfahren gezeugte Embryonen werden im Labor zu gewünschten Zell- oder Gewebearten kultiviert, um die entstandenen Organe in Patienten zu transplantieren. • embryonale Stammzellen: 1998 züchtete Thompson menschliche embryonale Stammzellen in Dauerkultur (aus ”überzähligen” Embryonen von ReagenzglasBefruchtungen) Ziel: Reparatur von defektem Gewebe • gewebespezifische Stammzellen (bei Erwachsenen): z.B. im Blut auf 10.000 Zellen eine Stammzelle – kann prinzipiell intaktes Immunsystem aufbauen. • Präimplantationsdiagnostik (PID): nach künstlicher Befruchtung Test der Embryonen auf Erbkrankheiten vor Einpflanzung in Gebärmutter der (Leih)Mutter B) Nanotechnik Drexler (1985) prognostizierte Maschinen aufgebaut aus Atomen und Molekülen. Wegen ihrer Winzigkeit müssen sie sich selbst reproduzieren können. Allesfressende Nanoboter könnten gesamte Biosphäre in ”grauen Schleim” (gray goo) zerlegen. ”Optimistische” Prognosen: ab 2020 erste Nanoboter C) Robotik Moravec (1999): In Zukunft vier Generationen von Universalrobotern 2010 – Raumsinn auf Niveau von Eidechsen 2020 – Anpassungsfähigkeit von Mäusen 2030 – Vorstellungsgabe von Affen 2040 – Denkvermögen von Menschen Die drei Gesetze der Robotik (Asimow) 1) Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, daß einem Menschen Schaden zugefügt wird. 2) Ein Roboter muß Befehlen, die ihm Menschen geben, gehorchen, wenn sie 6.2 Interplanetare Raumfahrt 69 nicht im Widerspruch zum ersten Gesetz stehen. 3) Ein Roboter muß seine eigene Existenz schützen, solange ein solcher Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht. 6.2 6.2.1 Interplanetare Raumfahrt Außerirdische Zivilisationen In unserem Sonnensystem gibt es keine anderen Zivilisationen: Venus: Atmosphäre aus CO2 , Treibhauseffekt, > 400◦ C, Niederschläge aus Schwefelsäure Mars: Wüste, kein Oberflächenwasser, Spuren verschwundener Meere und Flüsse; bis −140◦ C, Atmosphäre aus CO2 mit Spuren N2 und O2 , nur 7,5 mbar; UV-Strahlung, da keine Ozonschicht; Sandstürme bis 650 km/h; höchster Berg Olympus Mons 27 km hoch Wahrscheinlich ist intelligentes Leben selten. • Alle Projekte zur Suche nach künstlichen Radiosignalen, die auf extraterrestrische Intelligenzen hinweisen, blieben bisher erfolglos. • Es gibt keinen Beleg dafür, daß jemals Außerirdische die Erde besucht hätten; zumindest haben sie niemals versucht die Erde zu kolonisieren. Jede fortgeschrittene Zivilisation muß nach 2. Hauptsatz der Thermodynamik große Mengen Abwärme produzieren. Drake (1960) Projekt Seti (Search for Extra-Terrestrial Intelligence): Radioteleskop auf Epsilon Eridani und Tau ceti gerichtet. Horowitz (1978) untersuchte alle sonnenähnlichen Sternensysteme bis 80 Lj Entfernung von der Erde. Neuerdings wird auch nach Laserblitzen gesucht (1000mal heller als Sonne, nur eine Frequenz) (”Optical Seti”). Vielleicht kommunizieren die Auáerirdischen mit Zetawellen und das Problem ist, daß wir Zetawellen noch nicht entdeckt haben. (Horowitz) Wahrscheinlich gibt es in der Galaxis keine weiteren Zivilisationen. Jede Zivilisation mit Fähigkeit und Willen zur Kolonisierung der Galaxis könnte das getan haben, bevor mögliche Konkurrenten auch nur eine Chance gehabt haben. 70 6.2.2 6 ZUKUNFT DER MENSCHHEIT Perspektiven der Raumfahrt Die Erde ist die Wiege der Menschheit, aber man kann nicht zeitlebens in der Wiege bleiben. (Ziolkowski) Bemannte Marslandung laut NASA nicht vor 2020 Kolonisierung des Marses nicht vor 2070 – einziger Planet im Sonnensystem, wo eine entfernte Aussicht besteht, erdähnliche Bedingungen herzustellen Kolonisierung des Sonnensystems nicht vor 2200 Fernziel: Entdeckung anderer Planeten außerhalb des Sonnensystems, auf denen Leben möglich ist Raumfahrt: (Über-)Lebensversicherung der Menschheit Visionäre Projekte • Ionenantrieb: durch dünnen Ionenstrahl, der sehr lange ausgestoßen wird, kontinuierlicher Schub; insbesondere für Transport von Lasten, wo Zeitfaktor weniger wichtig • Nuklearpulsrakete (Ulam) Projekt Orion (1958 – 1965) und Daedalus (1973 - 1978): Antrieb durch Wasserstoffbombenexplosionen – v = 0, 12 c realisierbar • Staustrahltriebwerk (Bussard, 1960; 500 m lang, 1000 t): Wasserstoff wird mit Riesenschaufel aus interstellarem Raum angesaugt und für Kernfusion genutzt. Rakete kann beliebig lange mit g beschleunigt werden – nach etwa einem Jahr wird Lichtgeschwindigkeit erreicht. • Sonnensegel: Sonnenenergie mit Laser gebündelt Spezifischer Impuls = Schub · Zeit / (Treibstoffmasse · G) [s] (Um Lichtgeschwindigkeit zu erreichen – spezifischer Impuls 3 · 107 s) Raketenart chemischer Antrieb Ionenantrieb Fusionsantrieb Nuklearpuls Staustrahlantrieb spezifischer Impuls [s] 500 104 – 4 · 105 2, 5 · 103 – 4 · 105 106 106 Unbemannte Visionen: Dyson: Astrochicken – etwa 1 kg schwere, sich selbstreproduzierende Synthese aus Gentechnologie, künstlicher Intelligenz und solarelektrischem Antriebssystem; Energieaufnahme aus Eis und Kohlenwasserstoffen; ”hüpfen” von Planet zu Planet 71 7 7.1 7.1.1 Welt und Erkenntnis Grenzen der Erkenntnis Naturwissenschaftliche Grenzen Hilbert: ”Grundlagen der Geometrie” (1899) – Beweis der Widerspruchsfreiheit der Axiome der Geometrie Forderung: Axiomatisierung aller Bereiche der Mathematik Gödel (1931): Ein mathematische System aus Axiomen und Ableitungsregeln, das umfangreich genug ist, daß es die Arithmetik (+, ·) enthält, kann nicht widerspruchsfrei und vollständig sein. Das heißt, bei Widerspruchsfreiheit gibt es Aussagen, die weder beweisbar noch widerlegbar sind (nicht entscheidbar). 7.1.2 Wissenschaft und Religion Gottesbeweise 1) Kosmologischer Beweis 2) Teleologischer Beweis 3) Ontologischer Beweis Mehr Gottesbeweise kann es nach Kant nicht geben, der auch alle widerlegte. zu 1) (Thomas von Aquin): Alle Dinge haben Ursache, also muß es eine erste Ursache geben, d.h. die Welt muß eine Ursache haben. Wittgenstein: Die Welt ist die Gesamtheit der Tatsachen, nicht der Dinge. zu 2) (Thomas von Aquin): Den Dingen liegt ein Plan zugrunde, also dienen sie einem Zweck. zu 3) (Anselm von Canterbury): Gott ist per Definition das vollkommenste und mächtigste Wesen. Entweder er existiert oder er existiert nicht. Wenn er nicht existiert, ist er weniger vollkommen, als wenn er existiert. Also muß er existieren. Nach Kant ist Existenz kein Prädikat, d.h. sie macht beispielsweise ein Ding nicht vollkommener. Herkunft der Religion Wilson: Religion gibt es in jeder menschlicher Kultur. Alle primitiven Völker haben ”Ursprungsmythos”– Sinnfrage. Dabei kommt es zu einer scharfen Trennung zwischen ”uns” und ”sie” : – Zusammenhalt des Stammes – Unterdrückung aller Kritik am Führer, die Gruppe entzweien könnte. Letztlich stellte die Religion einen Evolutionsvorteil dar. 72 7 7.2 WELT UND ERKENNTNIS Naturwissenschaft und Mathematik 7.2.1 Rolle der Mathematik Mathematik beschäftigt sich mit gedachten Gegenständen. Welche Beziehung gibt es zur realen Welt? Platon: Mathematik – wahre, tiefe Wirklichkeit (Welt der Ideen), deren unvollkommene Widerspiegelung – sichtbare (physikalische) Welt . Aristoteles: Mathematik nur oberflächliche Darstellung eines Teils der physikalischen Wirklichkeit. 7.2.2 Berechenbare Funktionen Funktion f : Abbildung von Menge M auf N . Dabei bezeichne D(f ) – Definitionsbereich von f . Algorithmus: Endliche Folge von Operationen mit Zeichen aus einer endlichen Menge (Alphabet). Folglich gibt es nur abzählbar viele Algorithmen. Berechenbare Funktion: Funktion, für die es einen Algorithmus gibt, der für jeden Eingabewert m ∈ M, M ⊂ D(f ) nach endlich vielen Schritten anhält und als Ergebnis f (m) liefert. In allen Fällen in denen f (m) nicht definiert ist, bricht der Algorithmus nicht ab. Da es überabzählbar viele Funktionen f : M 7→ N (M, N unendliche Mengen) gibt, können nicht alle Funktionen berechenbar sein. Nicht berechenbare Funktionen können über kein Verfahren auf Computern nachvollzogen werden. Churchsche These: Die Klasse der berechenbaren Funktionen = Klasse der Funktionen, die durch Turing-Maschine berechnet werden können. Halteproblem: Gibt es einen Algorithmus, der definiert, ob ein bestimmtes Programm, das ein bestimmtes Problem bearbeitet, schließlich anhält? Sei P – Menge aller Programme (einer Programmiersprache) f1 : P 7→ {w, f} mit ( w f1 = f Programm P stoppt für alle definierten Eingaben nach endlich vielen Schritten sonst 7.2 Naturwissenschaft und Mathematik 73 Weiterhin kann ein Programm, welches nicht selbst das Betriebssystem eines Computers aktiv verändert, niemals alle Programme erkennen, die dies tun – d.h. sämtliche Viren. Außerdem gibt es mathematische Operationen, die sich zwar berechnen lassen, wo die Rechenzeit jedoch divergiert. 7.2.3 Unendlichkeit Bruno postulierte als erster unendlichen Kosmos. Pascal erweiterte diese Vorstellung auf den Mikrokosmos. (”Jedes Atom enthält unendlich viele Universen.”) Cantor: unendliche Menge – abgeschlossene Ganzheit, welcher im Sinne von Platon etwas Existentielles anhaftet. Kronecker: natürliche Zahlen sind nicht unendliche Menge, sondern offener Bereich, der durch Zählschritte beliebig erweiterbar ist. Falls Weltraum nicht unendlich ist, kommt ”unendlich” in der Natur nicht vor: lediglich Kunstbegriff (facon de parler), Begriffsbildung für etwas nicht Meßbares. Dann sind auch transzendente Zahlen Fiktionen.