J. Herlet/2017 Atomstruktur und Quantenmechanik 1. Grenzen der

Werbung
J. Herlet/2017
Atomstruktur und Quantenmechanik
1. Grenzen der klassischen Physik – frühe Quantentheorien
2. Komplementarität, Unbestimmtheit und Wellenfunktion
3. Verschränkung, Nichtlokalität der Quantentheorie, Dekohärenz
4. Der „Energiesatz“ in der Quantenphysik
5. Fundamentalkräfte der Natur
6. Die atomare Struktur der Materie
7. Das Standard-Modell der Elementarteilchenphysik
8. Das Pauli-Prinzip
9. Philosophische Aspekte der Quantentheorie
10. Anwendungsbereiche, Grenzen und offene Fragen
Zusammenfassung:
Die Quantenphysik umfasst die physikalischen Theorien, welche das Verhalten von Materie
und Kraftfeldern im atomaren und subatomaren Bereich beschreiben. Während sich die
Quantenmechanik (wie die klassischen Mechanik) i.W. auf materielle Objekte (Teilchen)
bezieht, werden bei den darauf aufbauenden sogenannten Quantenfeldtheorien vor allem
auch wechselwirkende Felder mit einbezogen.
Die grundlegenden Konzepte der Quantenmechanik wurden im Zeitraum von 1925 bis 1935
von Werner Heisenberg, Erwin Schrödinger, Max Born, Pascual Jordan, Wolfgang Pauli,
Niels Bohr, Paul Dirac und weiteren Physikern erarbeitet. Sie ist eine der Hauptsäulen der
modernen Physik und bildet die Grundlage für viele ihrer Teilgebiete, so z.B. für die
Atomphysik, die Festkörperphysik und die Kern- und Elementarteilchenphysik.
1928 schuf Paul Dirac eine vereinheitlichte Theorie für Quantenmechanik und Spezielle
Relativitätstheorie (SRT). Diese Theorie sagte die die Existenz von Anti-Materie voraus;
(genauer: das Anti-Elektron, das Dirac “Positron“ nannte, und das dann 1932 experimentell
nachgewiesen werden konnte). Von grundlegender Bedeutung war auch die Entdeckung des
Pauli’schen Ausschlussprinzips durch Wolfgang Pauli im Jahr 1925.
Kernaussage der Quantenphysik ist, dass Vorgänge in der Natur nicht kontinuierlich
sondern sprunghaft erfolgen. Ferner sind diese Vorgänge nicht beliebig genau vorhersagbar,
sondern es sind nur Aussagen über die Wahrscheinlichkeit des Eintretens gewisser Ereignisse
möglich. Diese Quanten-Effekte treten jedoch erst bei der Beobachtung molekularer, atomarer
oder subatomarer Systeme in Erscheinung.
Bereits im Rahmen der frühen Quantenmechanik wurde erkannt, dass Energie immer in
kleinsten Paketen, sozusagen „gequantelt“ übertragen wird. Daher kann man Licht nicht nur
als elektromagnetische Welle (bzw. als schwingendes elektromagnetisches Feld) auffassen,
sondern auch als Strahl von Lichtteilchen (Photonen). Umgekehrt kann man jedes materielle
Teilchen auch mit einer Schwingung (einer Welle) assoziieren, wobei dessen Masse-Energie
(gemäß E= mc2) proportional zur Schwingungsfrequenz ist, und der Ort des Teilchens in
gewisser Weise unbestimmt oder unscharf ist, so wie auch die Schwingung räumlich
ausgedehnt ist und als Wahrscheinlichkeitsfunktion für den Aufenthaltsort des Teilchens
interpretiert werden kann.
Teilchen und Welle beschreiben also unterschiedliche Aspekte derselben Dinge, je nach
Experiment kommt mehr der Teilchen- oder mehr der Wellen- Charakter von Masse-Energie
zum Ausdruck. Man spricht vom Welle-Teilchen-Dualismus.
Eine der großen Entdeckungen der Physik ist das auf Basis der Quantenmechanik vor allem in
der 2. Hälfte des 20. Jahrhunderts entwickelte Standardmodell der Elementarteilchenphysik.
Es besagt, dass sich alles Geschehen in der Welt, alle Formen der Masse-Energie, durch das
Wirken sehr weniger Arten von Teilchen (bzw. Wellen oder schwingender Felder) erklären
lässt. Danach existieren zwei Typen von Elementarteilchen, nämlich Materieteilchen, aus
denen die Materie (oder auch die Anti-Materie) besteht und sogenannte „Botenteilchen“,
welche die fundamentalen Naturkräfte übertragen. Alle diese Teilchen lassen sich demnach
auch als Anregungen schwingender Felder auffassen, welche (unterschiedliche Formen) von
Masse-Energie durch die Raumzeit tragen.
Inhalt:
Einzelne Phänomene der Quantenphysik wurden bereits in den ersten beiden Jahrzehnten des
20. Jahrhunderts entdeckt; diese „frühen Quantentheorien“ umfassen das Plancksche
Strahlungsgesetz, Einsteins Photonenhypothese für das Licht, das Bohrsche Atommodell und
de Broglie's Materiewellen. (Kapitel 1)
Eine erste mathematisch ausformulierte Theorie der Quantenmechanik schufen 1925 dann die
Physiker Werner Heisenberg, Max Born und Pascual Jordan. Erwin Schrödinger formulierte
1926 eine äquivalente, aber mathematisch einfacher zu handhabende Form. Wesensmerkmale
der neuen Quantenmechanik sind das Komplementaritätsprinzip und die Unbestimmtheit von
Naturvorgängen außerhalb von konkreten Messungen, die sich auch in der 1926 von Werner
Heisenberg veröffentlichte Unbestimmtheitsrelation zeigen. (Kapitel 2)
Eine wesentliche Erkenntnis der Quantenphysik ist, dass sie nicht-lokal ist, also auch
Fernwirkungen im Rahmen sogenannter Verschränkungen erlaubt (Kapitel 3).
Die Quantenmechanik erfordert eine Neubewertung des Energieerhaltungssatzes; sie erlaubt
kurzzeitige Verletzungen dieses Satzes. Dies liefert eine Erklärung für den Tunneleffekt und
führt zu Konzepten wie „virtuelle Teilchen“ und „Energie des Vakuums“. (Kapitel 4)
Bis Mitte des 20. Jahrhunderts waren die Struktur der Materie bis auf die Ebene des
Atomkerns entschlüsselt. Mit der starken Kraft und der schwachen Kraft waren zwei neue im
Atomkern wirkende Naturkräfte entdeckt und ihre Rolle bezüglich der Stabilität von Atomen,
von Kernfusionen und radioaktiven Zerfällen beschrieben. (Kapitel 5 und 6).
Vor allem in zweiten Hälfte des 20. Jahrhunderts wurden die Quantenfeldtheorien der
elektromagnetischen, der elektroschwachen und der starken Wechselwirkung entwickelt und
darauf aufbauend das Standardmodell der Elementarteilchenphysik. (Kapitel 7)
Das von Wolfgang Pauli bereits 1925 entdeckte Pauli Prinzip ist von grundlegender
Bedeutung für die Stabilität der Materie (Kapitel 8).
Die Quantenphysik ist von zentraler Bedeutung für unser physikalisches Weltbild. Sie stellt
erkenntnistheoretische Begriffe wie Anschaulichkeit und Objektivierbarkeit, Determiniertheit
und Kausalität auf den Prüfstand. Die Interpretation der Quantenphysik, insbesondere die
grundlegende Frage ob diese Theorie Aussagen über die Wirklichkeit oder nur Aussagen über
unsere prinzipielle Erkenntnisfähigkeit der Wirklichkeit trifft, sind Gegenstand anhaltender
Diskussion. Die diskutierten Interpretationen reichen von der Kopenhagener Deutung über die
Bohmsche Mechanik bis zur Viele-Welten-Theorie. (Kapitel 9)
Die Quantenphysik gilt in ihren wesentlichen Aussagen für ihren Anwendungsbereich durch
eine Vielzahl von experimentell bestätigten Vorhersagen als verifiziert. Einer bei G. Hasinger
zitierten Studie zufolge beruhen etwa 40% des amerikanischen Bruttosozialproduktes auf
technischen Anwendungen der Quantenphysik.
Die Grenzen der Anwendbarkeit der Quantenphysik betreffen einmal ihre Abgrenzung und
eingeschränkte Anwendbarkeit auf Phänomene der Makrophysik, wie sie z.B. durch die
klassische Mechanik beschrieben werden. Von grundsätzlicher Bedeutung ist, dass sie bei
sehr hohen Energiedichten, bei denen die Gravitation zur alles beherrschenden Kraft wird, mit
der Allgemeinen Relativitätstheorie in Konflikt gerät. (Kapitel 10)
1. Grenzen der klassischen Physik – frühe Quantentheorien
Nach Vorstellung der klassischen Physik besteht Licht (allgemeiner „elektromagnetische
Strahlung“) aus sich im Raum fortpflanzenden senkrecht zur Ausbreitungsrichtung
schwingenden elektrischen und magnetischen Feldern. Elektromagnetische Wellen benötigen
kein Medium, um sich auszubreiten, wie z.B. Schall oder Wasserwellen. Sie pflanzen sich im
leeren Raum (Vakuum) mit Lichtgeschwindigkeit c fort. Die Lichtgeschwindigkeit c ist eine
Naturkonstante. Die Frequenz von Licht (Schwingungen pro Sekunde) wird in Hertz (Hz)
gemessen; für die Wellenlänge λ einer bestimmten Frequenz f gilt: c = λ x f
Der Wellencharakter des Lichtes lässt sich experimentell bestätigen, z.B. durch Interferenz.
Interferenz beschreibt die Überlagerung von zwei oder mehr Wellen beliebiger Art durch
Addition ihrer Amplituden. Je nachdem, ob sich die Wellen dabei gegenseitig auslöschen
(also genau um eine halbe Wellenlänge versetzt schwingen) oder sich ihre Amplituden
verstärken spricht man von destruktiver oder von konstruktiver Interferenz. Das Muster aus
Stellen konstruktiver und destruktiver Interferenz wird als Interferenzmuster bezeichnet. Ein
bekanntes Beispiel ist etwa das Streifenmuster hinter einer Doppelspalt-Anordnung.
Bei diesem Experiment werden Lichtstrahlen einer bestimmten Wellenlänge an 2 Spalten
einer Lichtblende gestreut und treffen dann mit unterschiedlichen Ablenkungswinkeln auf
einen Sichtschirm hinter der Blende. Auf jeden Punkt des Schirms treffen Wellen aus beiden
Spalten. Doch wegen der vom Streuwinkel abhängigen unterschiedlichen Entfernungen
zwischen Spalten und Schirm entstehen auf dem Schirm helle und dunkle Streifen, in denen
sich die Lichtwellen aus beiden Spalten gerade addieren oder gegenseitig auslöschen.
Der Charakter von Licht als elektromagnetische Strahlung wurde 1865 von James Clerk
Maxwell erkannt und 1888 von Heinrich Hertz experimentell nachgewiesen.
Licht (elektromagnetische Strahlung) transportiert Energie. Die Strahlungsleistung P ist
definiert als die pro Zeitspanne transportierte (differentielle) Energiemenge (P= dW/dt).
Die Leuchtkraft L einer Lichtquelle ist die über das gesamte Spektrum der Lichtquelle
aufsummierte Strahlungsleistung. Die Strahlungsintensität I ist die Strahlungsleistung pro
Flächenelement, sie ist proportional zum Quadrat der Schwingungsamplitude (I= P/A ~ E2)
Wärmestrahlung:
Jeder Körper, dessen Temperatur über dem absoluten Nullpunkt liegt sendet aufgrund seiner
Temperatur elektromagnetische Strahlung aus, die sogenannte Wärmestrahlung.
Diese hat ihren Ursprung in der Schwingung der angeregten Atome des Körpers um ihre
Gleichgewichtslagen. Je wärmer der Körper, desto energiereicher ist die Wärmestrahlung.
Ein erhitzter Körper emittiert dabei ein ganzes Spektrum von Wellenlängen (Frequenzen).
Aus Experimenten gewann man die Erkenntnis, dass mit zunehmender Temperatur T eines
Körpers die Intensität (Energiefluss pro Zeit und Fläche) von dessen Wärmeabstrahlung
proportional zu T4 wächst (Stefan-Boltzmann-Gesetz), und dass sich die Wellenlänge λmax
mit maximaler Strahlungsleistung zu kürzeren Wellenlängen verschiebt (λmax.T = konstant;
Wiensches Verschiebungsgesetz).
Bei Festkörpern und Flüssigkeiten ist das Spektrum der emittierten Strahlung kontinuierlich
und im Wesentlichen nur von der Temperatur abhängig. Gase emittieren ein für das Material
charakteristisches Linienspektrum. Für Körpertemperaturen bis ca. 3000 o K schließt sich das
Spektrum direkt an das rote Ende des sichtbaren Lichts an und wird daher auch oft InfrarotStrahlung genannt, für sehr heiße Körper kann das thermische Strahlungsmaximum aber sogar
im Röntgenbereich liegen.
Ein Körper kann aber auch Wärmestrahlung absorbieren und in Wärmenergie umwandeln..
Ein Schwarzer Körper ist ein idealisierter Körper, der alle auf ihn treffende Strahlung
vollständig absorbiert (also nichts davon reflektiert oder streut) und der daher, nach dem
Kirchhoffschen Strahlungsgesetz, für jede Wellenlänge auch die einer gegebenen
Temperatur entsprechende maximal mögliche thermische Strahlungsleistung aussenden kann.
Bei der Suche nach einer Energiefunktion E (T, f), welche die Intensitätsverteilung der
Wärmestrahlung eines Schwarzen Körpers abhängig von dessen Temperatur T und der
Frequenz f der Strahlung beschreiben sollte, hatte man Ende des 19-ten Jahrhunderts zwei
Näherungsfunktionen gefunden, die aber jeweils nur für bestimmte Wellenbereiche mit den
experimentellen Resultaten übereinstimmten. Um zu einer allgemein gültigen Formel zu
gelangen, führte Max Planck eine neue Naturkonstante h ein und postulierte, dass die Energie
eines mit einer Frequenz f schwingenden Atoms nur diskrete Werte En = n x f x h,
(n= 1,2,3...), annehmen kann (Quantenhypothese). Aus diesem Postulat leitete er im Jahre
1900 sein berühmtes Strahlungsgesetz ab (das hier aber nicht wiedergegeben werden soll).
Das Plancksche Wirkungsquantum h ist eine fundamentale Naturkonstante. Es tritt bei der
Beschreibung von Quantenphänomenen auf, bei denen physikalische Eigenschaften nicht
jeden beliebigen kontinuierlichen Wert, sondern nur bestimmte diskrete Werte annehmen
können. Sein Wert kann nicht aus anderen Naturkonstanten hergeleitet werden, sondern nur
experimentell bestimmt werden. Er beträgt h = 6,6260689633.. × 10-34 Js (Joulesekunden) und
hat demnach die Dimension von Energie mal Zeit, also die einer physikalischen Wirkung
(bzw. Ortsvektor mal Impulsvektor, also die eines Drehimpulses). In der Physik oft benutzt
wird auch die reduzierte Konstante ħ = h / 2π
Planck ging bei der Interpretation seiner Formel von der Annahme aus, dass der schwarze
Körper aus Oszillatoren mit diskreten Energieniveaus besteht, d.h. betrachtete diese
Quantelung der Energie als Eigenschaft der Materie und nicht des Lichtes selbst. Das Licht
war nur insofern betroffen, als Licht in seinem Modell immer nur in bestimmten Portionen
Energie mit Materie austauschen konnte, weil in der Materie nur bestimmte Energieniveaus
möglich seien.
Albert Einstein erweiterte dieses Konzept und schlug im Jahr 1905 eine Quantisierung der
Energie des Lichtes selbst vor, um den photoelektrischen Effekt zu erklären.
Der photoelektrische Effekt bezeichnet die Beobachtung, dass Licht bestimmter Frequenzen
Elektronen aus Metall herauslösen kann. Im Widerspruch zur klassischen Vorstellung der
Wellennatur des Lichtes zeigte sich, dass die kinetische Energie der frei werdenden
Elektronen allein von der Frequenz und nicht von der Intensität des Lichtes abhängt, der
Effekt tritt erst ab einer bestimmten material- abhängigen Mindestfrequenz auf, wirkt dann
aber sofort bei Einfall des Lichtes. (Die Lichtintensität bestimmt nur die Anzahl der frei
werdenden Elektronen.)
Daraus schloss Einstein, dass die Energieniveaus nicht nur innerhalb der Materie gequantelt
sind, sondern dass das Licht generell nur aus bestimmten Energieportionen besteht.
Daher postulierte Einstein, dass Licht auch als ein Strom von masselosen Licht-Teilchen
(Lichtquanten oder Photonen) beschrieben werden kann, die sich mit Lichtgeschwindigkeit c
fortbewegen und deren Energie gemäß der Formel E = h x f von der jeweiligen Frequenz
abhängt. Hierbei ist h das Plancksche Wirkungsquantum.
Für diesen Beitrag zur Quantentheorie erhielt Einstein 1922 den Nobelpreis für Physik.
Seither gilt: Licht ist Welle und Teilchenstrahl zugleich, es verhält sich in manchen
Experimenten wie eine Welle, in anderen wie ein Teilchenstrahl. Wellenfunktion und
Teilchenmodell sind komplementäre Beschreibungsmodelle der gleichen physikalischen
Realität. Der Teilchen-Charakter des Lichts konnte 1922 auch mittels des Compton-Effekts
endgültig experimentell nachgewiesen werden. (Bei der Streuung von hoch-energetischen
Röntgen-Licht an Graphit erfährt das gestreute Licht Richtungs- und Frequenzänderungen, die
sich nur als Stoßprozesse zwischen Lichtteilchen und den Hüllenelektronen der GraphitMoleküle erklären lassen.)
Frühe Atommodelle:
1911 hatte Rutherford durch seine Streuexperimente von Heliumkernen an Metallfolien sein
Atommodell entwickelt. Danach sollte das Atom aus einem kleinen Kern bestehen, der die
gesamte positive Ladung in Form von Protonen enthält und einer Hülle aus Elektronen, die
den Kern auf Kreisbahnen umlaufen. Die Ausdehnung des Kernes wurde mit 10-14 m
abgeschätzt, die von Atomen mit 10-10. m. Man stellte sich das Atom also wie ein
Sonnensystem im Kleinen vor, bei dem die elektrische Anziehungskraft zwischen Kern
(Sonne) und Elektronen (Planeten) mit der Fliehkraft der kreisenden Elektronen im
Gleichgewicht ist. Man erkannte jedoch schnell, dass dieses Modell im Widerspruch zur
klassischen Physik steht, nach der die elektrisch geladenen kreisenden Elektronen Energie in
Form von Licht abstrahlen müssten, und dieser Energieverlust die Elektronen in den Kern
stürzen lassen würde. Das Rutherford’sche Atommodell konnte also nicht stabil sein.
Eine erste quantentheoretischen Betrachtung des Atoms gelang 1913 Nils Bohr, der das
charakteristische Wärme-Spektrum von erhitztem Wasserstoff-Gas untersuchte. Während bei
der Wärmestrahlung fester oder flüssiger Körper ein kontinuierliches Spektrum ausgestrahlt
wird, entstehen bei Erhitzung von Gasatomen Serien diskreter Strahlungsfrequenzen, die für
das jeweilig beobachtete Element (z.B. Wasserstoff, Sauerstoff, Helium) charakteristisch sind.
Angeregt durch Rutherfords Atommodell und Einsteins Lichtquanten-Hypothese ging Bohr
davon aus, dass die Elektronen nur auf bestimmten diskreten Bahnen kreisen können, denen
stationäre Energiezustände En (n=0,1,2,3...) zugeordnet sind, die von innen nach außen
aufsteigende Energiewerte haben. Elektronen sollten keine Energie abstrahlen, solange sie
eine bestimmte stationäre Bahn nicht verlassen. Beim Übergang von einer äußeren auf eine
innere Bahn, wird ein Lichtquant abgestrahlt, dessen Frequenz f sich aus der Energiedifferenz
Em-En (m>n) der Elektronenbahnen ergibt: Em-En= h x f x (m-n), wobei h das Plancksche
Wirkumsquantum bezeichnet. Umgekehrt kann ein Elektron ein Photon einfangen und durch
dieses auf ein höheres Energie-Niveau angehoben werden. Die charakteristischen Linien im
Wärme-Spektrum der Atome entsprechen dabei den zulässigen Zustandsübergängen in der
Elektronenhülle des Elementes. Das Elektron wird hierbei noch als klassisches Teilchen
betrachtet, mit der Einschränkung, dass es nur bestimmte diskrete Energien haben kann. Für
die stabile Elektronenbahnen sollte der Drehimpuls L=mevr des Elektrons der Masse me bei
seiner Bewegung auf einem Kreis mit Radius r mit der Geschwindigkeit v ein ganzzahliges
Vielfaches von h/2π sein (1): 2π r = n x h/ mev
Im Jahr 1924 veröffentlichte Louis de Broglie seine Theorie der Materiewellen, wonach
jedes (bewegte) Materie-Teilchen auch einen Wellencharakter aufweisen kann. Er gab für ein
Teilchen mit dem Impuls p (p= m.v) eine Wellenlänge λ von λ = h/p an, d.h. die Wellenlänge
eines Teilchens ist umso kleiner, je größer sein Impuls (Masse x Geschwindigkeit) ist.
Herleitung (aus Wilfried Kuhn, Ideengeschichte der Physik):
De Broglie ging davon aus, dass auch die Ruheenergie eines Teilchens auf Bewegungsenergie
zurückführbar ist, die aus einer inneren Eigenschwingung, einer „periodischen Vibration“ des
Teilchens resultiert. Für diese Schwingungsfrequenz f0 des Teilchens ergibt sich aus der
Planckschen Energiebeziehung E = h x f und der Einsteinschen Masse-Energie-Äquivalenz
E = mc2 für die Vibrationsfrequenz des ruhenden Teilchens (1): f0 = m0 c2 / h. Für einen
ruhenden Beobachter, an dem das Teilchen mit einer Geschwindigkeit v vorbei zieht ergibt
sich eine Frequenz (2): f2 = mc2 / h und daraus mit (3): m = m0 / W[1 – (v/c)2] der Beziehung
von m zur Ruhemasse m0 des Teilchens mit (1) eine Frequenz (4): f2 = f0 / W[1 – (v/c)2].
Auf Grund von v verschiebt sich für den ruhenden Beobachter die Phase der periodischen
Vibration, sie erscheint ihm als fortlaufende Welle, wobei sich aus der relativistischen
Zeittransformation eine scheinbare Ausbreitungsgeschwindigkeit der Phasenwelle von u=c2/v
(größer c!) ergibt. Für den ruhenden Beobachter gilt daher u = c2/v = f2 x λ. Für ein Teilchen
der Masse m das sich mit Geschwindigkeit v bewegt folgt mit (4), (1) und (3): λ = h/ mv
Die de Broglie Phasengeschwindigkeit ist also immer größer als die Lichtgeschwindigkeit.
Dies widerspricht nicht der Relativitätstheorie, da die Signalgeschwindigkeit v ist.
Die de Broglie Wellenlänge gilt auch für Photonen, die nach der Maxwellschen Theorie des
Elektromagnetismus als Wellenpakete aufgefasst werden können. Diese haben zwar keine
Ruhemasse, aber eine Energie E = h x f und einen Impuls mit dem Betrag = h/ λ .
Mithilfe der Theorie der Materiewellen konnte das Bohrsche Atommodell erweitert werden.
Die zulässigen Umlaufbahnen des Elektrons um den Atomkern sind genau die, bei denen die
Bahnlänge einem Vielfachen der Wellenlänge des Elektrons entspricht, denn nur dann fallen
Wellenberge und Täler bei jedem Umlauf zusammen, in allen anderen Fällen verschieben sich
Wellenberge und Täler bei jedem Umlauf so gegeneinander, dass sich die Welle bei mehreren
Umläufen durch Überlagerung auslöscht. D.h. die Umlaufbahnen des Elektrons um den Kern
werden als stehende Materiewellen aufgefasst. Diese Interpretation folgt unmittelbar aus der
Gleichung der de Broglie Wellenlänge: 2π r = n x h/ mev = n x λ
De Broglies Theorie wurde drei Jahre später durch Experimente bestätigt.
Das Doppelspaltexperiment für Elektronen liefert das gleiche Interferenzmuster heller und
dunkler Streifen wie Licht. Das ist mit der Teilchenvorstellung für Elektronen nicht vereinbar.
Danach würde man eine Gleichverteilung der Elektronen auf dem Sichtschirm hinter den
Spalten erwarten. Insbesondere würde man beim Übergang von einem Spalt zu zwei Spalten
erwarten, dass sich die Zahl der Auftreffpunkte hinter der Blende nur erhöhen kann, aber
nicht dass sich Teilchen gegenseitig auslöschen können. Auch wenn man die Emission der
Elektronen so weit verlangsamt, dass jede Sekunde nur 1 Elektron die Strahlungsquelle
verlässt, also jedes die Blende passierende Elektron nach der Teilchenvorstellung entweder
den einen oder den anderen Spalt passieren muss, und sich deshalb das gleiche Bild ergeben
müsste, das man erhält, wenn man über die halbe Dauer des Experiments zunächst nur den
linken Spalt öffnet und für die andere Hälfte nur den rechten Spalt, so erscheint nach gewisser
Zeit doch das charakteristische Interferenzmuster. Jedes passierende Elektron hat seinen Weg
anscheinend durch beide Spalten genommen.
2. Komplementarität, Unbestimmtheit und Wellenfunktion
Bei Doppelspalt-Experimenten mit Quantenteilchen, seien es Atome, Elektronen oder
Photonen, baut sich ein Interferenzmuster am Auffangschirm auf, auch wenn die
Quantenobjekte einzeln und in zeitlichen Abständen abgestrahlt werden. Jedes Teilchen
interferiert anscheinend mit sich selbst.
Die Fähigkeit zur Interferenz und damit der Wellencharakter von Quantenobjekten zeigt
sich bei allen Experimenten, bei denen es erstens mehr als einen klassischen Weg für das
Teilchen zu dem Ort gibt, wo es nachgewiesen wird, und zweitens aus der Messapparatur
keine „Welcher-Weg-Information“ (WWI) abgeleitet werden kann, also keine Information,
welchen der klassisch möglichen Wege das Teilchen genommen hat.
Bringt man im Doppelspalt-Experiment Detektoren an den Spalten an, welche den Durchgang
eines Teilchens registrieren können, so erhält man immer die Information, dass das Teilchen
nur einen Weg durch einen Spalt genommen hat und zweitens auch kein Interferenzmuster
sondern die Überlagerung von 2 Einspaltmustern, wie man es auch erhält, wenn für die halbe
Experimentdauer nur der linken Spalt und danach nur der rechten Spalt geöffnet ist.
Dies gilt auch, wenn die WWI nicht ausgelesen wird; dies muss nur prinzipiell möglich sein,
bevor das Quantenteilchen auf dem Schirm auftrifft. Wird die WWI aber noch innerhalb der
Messapparatur und vor dem Auftreffen der Teilchen auf dem Schirm wieder gelöscht oder
anderweitig entwertet, so erscheint wieder das Interferenzmuster.
Dafür ob ein Interferenzmuster erscheint, ist die gesamte Messapparatur entscheidend (Prinzip
der ganzheitlichen Messung). (siehe Beispiele unten).
Beispiel-1: Beim Doppelspaltversuch mit Atomen lässt sich ein Detektor durch Streuung von
Photonen an den Atomen beim Spaltendurchgang realisieren. Die Streuphotonen werden an
den beiden Spalten unterschiedlich abgelenkt, so dass man mit in die jeweilige Streurichtung
platzierten Photonenzähler, die WWI erhalten kann. Es kann nun gezeigt werden:
Es baut sich kein Interferenzmuster auf, sondern die Überlagerung von 2 Einspaltmustern,
wie man es erhält, wenn die halbe Experimentdauer nur den linken Spalt und danach nur den
rechten Spalt geöffnet hat. Dieses Ergebnis erhält man auch, wenn man nur an einem Spalt
einen Detektor anbringt. Es ist auch unabhängig davon, ob man die Photonzähler tatsächlich
platziert, also die WWI abliest. Es reicht, dass man dies tun könnte bevor die Atome auf dem
Schirm auftreffen. Werden die Streuphotonen allerdings innerhalb der Messapparatur z.B.
durch Spiegel wieder zusammengeführt oder entstehen dort weitere nicht unterscheidbare,
z.B. thermische Photonen, welche die WWI entwerten, so erscheint ein Interferenzmuster.
Beispiel-2: Eine Variante des Doppelspalt-Versuches besteht darin, eine Lichtstrahl durch
einen Strahlteiler in 2 auseinander laufende Teilstrahlen zu zerlegen, und diese dann mittels
herkömmlicher Spiegel wieder auf einem Auffangschirm zusammenzuführen. Als Strahlteiler
kann z.B. eine halb-durchlässige Glasscheibe dienen, die die Hälfte der Photonen durchlässt
und die andere Hälfte reflektiert. Der Auffangschirm zeigt ein Interferenzmuster. Dieses baut
sich auch dann auf, wenn man den Lichtstahl so drosselt, dass nur einzelne Photonen in
zeitlichen Abständen die Lichtquelle verlassen. In jedem Photonenstrahl kann ein Detektor
platziert werden, z.B. durch einen „Downconverter“, der jedes Photon in eines mit halber
Energie wandelt und gleichzeitig ein sogenanntes Idler-Photon aussendet. Alternativ kann
man die Photonen durch Polarisatoren in den beiden Teilstrahlen unterschiedlich markieren.
Es kann gezeigt werden: 1.) Lässt sich aus der Messapparatur WWI ablesen (z.B. durch die
Idler-Photonen oder die Orientierung der Photonen nach Durchlauf des Polarisators, so baut
sich kein Interferenzmuster auf. 2.) Dabei verschwindet das Interferenzmuster auch dann,
wenn der Detektor oder Polarisator jeweils erst dann eingeschaltet wird, nachdem das Photon
den Strahlteiler verlassen hat (delayed choice); die Festlegung des Photons auf die 1- oder 2-
Wege Variante erfolgt also in diesem Fall nach dem Passieren des Strahlteilers.
3.) Wenn man die WWI durch Markierung der Photonen (z.B. mittels Polarisator) erzeugt,
diese Markierungen aber durch einen nachgeschalteten sogenannten „Quantenradierer“ (z.B.
weiteren Polarisator) wieder löscht, unmittelbar bevor die Photonen auf dem Schirm
auftreffen, so bleibt das Interferenzmuster erhalten.
Komplementarität: Die Idee, dass sich ein unteilbares Objekt - Photon, Elektron oder Atomgleichzeitig auf mehr als einer Bahn bewegt und dadurch ein Interferenzmuster erzeugt, ist
mit unseren klassischen Vorstellungen absolut unvereinbar. Jede anschauliche Vorstellung
von diesem Vorgang ist falsch. Man kann aber sagen: Alle Quantenobjekte, Materie-Teilchen
wie Lichtphotonen, sind dualistisch in dem Sinn, dass sie bei verschiedenen Experimenten
Wellen- oder Teilchen-Eigenschaften zeigen. Das heißt, dass sie diese beiden, anschaulich
konträren Eigenschaften zugleich haben. Es gibt Experimente die eher mit dem Wellenbild
und andere die zweckmäßig mit dem Teilchenbild erklärt werden. Jedes Bild erfasst nicht die
ganze Wirklichkeit. Die Bilder sind zueinander komplementär (Komplementaritätsprinzip).
In Doppelspalt-Experimenten „erzwingt“ die Messung von „Welcher Weg Information“ das
Teilchen dazu, sich wie ein solches zu verhalten. Nur wenn auf WWI verzichtet wird oder
diese noch innerhalb des Systems – bevor sie zu einem externen Beobachter gelangen kann –
wieder spurlos gelöscht wird, zeigt sich Wellencharakter der Quantenobjekte in Form des
Interferenzmusters. WWI und Interferenz sind komplementär zueinander.
Anmerkung:
Die oft gelesene Formulierung, zueinander komplementäre Bilder oder Messergebnisse
„schließen einander aus“ ist nicht richtig. Vielmehr muss es heißen: je schärfer das eine Bild
sichtbar bzw. bestimmt wird, desto schwächer das dazu Komplementäre. (siehe auch unten,
Heisenbergsche Unbestimmtheitsrelation). Das Interferenzmuster eines Atomstrahls beim
Doppelspaltversuch kann am besten mit dem Wellencharakter der Atome erklärt werden, in
der Körnigkeit des Aufschlagmusters wird aber auch deren Teilcheneigenschaft sichtbar.
Wird nur ein Spalt geöffnet, ist die WWI gut bestimmt. Dennoch zeigt auch das zugehörige
Einspaltmuster außerhalb des zentralen Aufschlagbereichs schwache Interferenzstreifen.
Diese treten umso stärker in Erscheinung, je breiter der Spalt ist und haben ihre Ursache
darin, dass es auch durch einen Spalt i.A. mehrere Wege gibt (in der Mitte, links, rechts).
Ein weiteres Beispiel für das Komplementaritätsprinzip ist die
Heisenbergsche Unschärferelation (auch Unbestimmtheitsrelation, HUR). Sie wurde
1927 von Werner Heisenberg im Rahmen der Quantenmechanik formuliert. Sie besagt,
dass je zwei komplementäre Messgrößen eines Quantensystems nicht gleichzeitig beliebig
genau bestimmbar sind (1). Das bekannteste Beispiel für ein Paar solcher komplementärer
Messgrößen sind Ort und Impuls eines Teilchens. Je genauer man eine der beiden Größen
misst, desto unschärfer werden die Messergebnisse für die andere Größe. Erzwingt die
Versuchsanordnung eine genaue Ortsbestimmung, so bleibt der Impuls völlig unbestimmt, die
Versuchsanordnung weist auf ein Teilchen hin, dass sich mit unbekannter Geschwindigkeit
im Raum bewegt. Erzwingt man dagegen eine genaue Impulsbestimmung, so ist der Ort völlig
unbestimmt. Durch die Unschärferelation wird also Raum gelassen für das Teilchenbild und
das Wellenbild von Quantenobjekten.
Die HUR besagt, dass das Produkt der Ortsunschärfe mal der Impulsunschärfe nicht kleiner
als die Hälfte des Planckschen Wirkungsquantums sein kann: ∆x ∆p > = ħ/2 mit ħ = h/2π,
wobei h das Plancksche Wirkungsquantum und π die Kreiszahl ist.
Die HUR gilt in gleicher Weise auch für eine Teilchengesamtheit; die Unschärfe des Ortes x
und des Impulses p werden dann durch deren statistische Streuung σx und σp gemessen.
Die Unbestimmtheitsrelation besagt in diesem Fall σx σp > = ħ/2 mit ħ = h/2π. Dabei sind
∆x, ∆p bzw. σx, σp unbestimmt im Sinn einer statistischen Streuung vieler Messwerte. Die
Aussage der Unbestimmtheitsrelation ist nun, dass es nicht möglich ist, Quantenobjekte in
einen Zustand zu bringen, in dem ∆x und ∆p gleichzeitig beliebig klein sind (2).
Neben dieser Relation existiert auch eine Unschärferelation zwischen Energie und Zeit.
Sie begrenzt die mögliche Genauigkeit ∆E bei einer Messung durch die sogenannte
Energie-Zeit-Unschärferelation ∆E ∆t > = ħ. In dem hier betrachteten Zusammenhang
versteht man unter ∆t beispielsweise die Beobachtungsdauer (Messdauer), die bei einer
Energiemessung an einem Quantenobjekt vorgegeben wird. (Vereinfachte, heuristische
Herleitung: ∆x ∆p = ∆x (m0 ∆v) = ∆x (m0 ∆x/∆t ) = m0 (∆x/∆t)2 ∆t = 2∆E ∆t )
Man kann anhand eines Gedankenexperiments verdeutlichen, dass sich Ort und Impuls eines
mikroskopischen Teilchens (z.B. eines Atoms) nicht gleichzeitig scharf bestimmen lassen.
Jede Ortsbestimmung erfordert eine Interaktion mit dem Teilchen, mindestens die, dass ein
Lichtquant an dem Teilchen gestreut oder reflektiert wird, und man daraus den Ort berechnet.
Das auftreffende Lichtquant wird aber dem Teilchen einen Stoß geben und damit seinen
Impuls ändern. Nun ist diese Ortsbestimmung aber höchstens so genau, wie die Wellenlänge
des Lichtquants, d.h. je genauer man den Ort bestimmen will, umso kurzwelliger, also
energiereicher muss das Lichtquant sein, und umso größer und damit unbestimmter ist dann
auch die Impulsänderung, die das Teilchen durch den Stoß des Lichtquants erfährt.
(Die Wellenlänge harter UV-Strahlung entspricht etwa einem Atomdurchmesser). Allgemein
gilt : Die Messung des Impulses eines Teilchens ist zwangsläufig mit einer Störung seines
Ortes verbunden, und umgekehrt (3) .
Anmerkung: Die Aussagen (1), (2) und (3) oben sind zwar miteinander verwandt, haben aber
physikalisch unterschiedliche Bedeutung. (3) führt leicht zu der falschen Vorstellung, dass das
Teilchen vor der Ortsmessung einen bestimmten Impuls hatte, dass also die Unbestimmtheit
erst durch die Messung verursacht wird.
Beispiel: Eine ähnliche Relation gilt auch für die Summe der Unbestimmtheiten von Photonen
(beliebiger Orientierung) bzgl. zweier verschiedene Polarisationsrichtungen φ1 und φ2.
(für Photonen mit Orientierung φ1 ist Unbestimmtheit bzgl. φ1 bzw. φ1+90o= 0, d.h. wird in
jedem Fall durchgelassen bzw. absorbiert; max. Unbestimmtheit =1/4 für φ1 = +/- 45o)
Die Wellenfunktion (WF):
Der Wellencharakter von Quantenobjekten wird aber nicht als Welle im Anschauungsraums
(wie Licht- oder Schallwellen) interpretiert, sondern als Wahrscheinlichkeitswellen. Jedes
Elementarteilchen lässt sich in der Quantenmechanik durch eine Wellenfunktion ψ („Psi“)
beschreiben. Diese beschreibt den quantenmechanischen Zustand eines Teilchens oder eines
Systems von Elementarteilchen in deren Ortsraum. Sie ist komplexwertig und somit keine
Messgröße! Sie hat die Bedeutung einer Wahrscheinlichkeitsfunktion für die
Zustandsparameter des Teilchens. Diese lassen sich nach der Quantentheorie nämlich nie
genau beschreiben, sondern nur mit einer gewissen Unschärfe, die durch die Wellenfunktion
gegeben ist. Wenn ψ (x,y,z,t) die Wellenfunktion für den zeitabhängigen Ort eines Teilchens
im Raum ist, so kann ihr Beitragsquadrat |ψ (x,y,z)|2 als Aufenthaltswahrscheinlichkeit des
Teilchens dafür gedeutet werden, es bei einer Messung am Ort (x,y,z) vorzufinden.
(Genauer: |ψ (x,y,z)|2 ist die Wahrscheinlichkeitsdichte in (x,y,z); die Wahrscheinlichkeit
das Teilchen im Bereich ∆x∆y∆z zu finden ist das Integral von ψ2 über diesen Raumbereich)
Die Wahrscheinlichkeitsdeutung der Wellenfunktion geht auf Max Born zurück. Zunächst
hatte man angenommen, man könne sich Teilchen als Wellenpakete vorstellen, welche durch
die Wellenfunktion beschrieben werden. Allerdings würden solche Wellenpakete, wie Max
Born zeigte, außer im Sonderfall des harmonischen Oszillators im Laufe der Zeit "zerfließen",
was im Widerspruch zur Stabilität der Materie stünde. Born schlug stattdessen die heute
allgemein anerkannte Wahrscheinlichkeitsdeutung vor. Sie führt die sich ergänzenden,
komplementären Darstellungsformen „Welle“ und „Teilchen“ zusammen. In der klassischen
Interpretation des Wellenmechanik ist die Intensität einer Welle proportional zum Quadrat der
Schwingungsamplitude. In dem von einem Teilchenstrahl erzeugten Interferenzmuster sind
die Streifen maximaler Intensität (Helligkeit) aber auch die Stellen, wo die meisten Teilchen
auftreffen, die Trefferverteilung ist damit ein Maß für die Auftreffwahrscheinlichkeit. Dies
inspirierte Max Born dazu, die quadrierte Wellenfunktion als Wahrscheinlichkeitsdichte dafür
zu interpretieren, dass ein Elektron an einem bestimmten Ort gefunden wird, wenn man seine
Position (im Rahmen einer Messung) ermittelt. Die WF und ihr Beitragsquadrat entwickeln
sich determiniert mit der Zeit. Beim Zerfließen von Wellenpaketen handelt es sich um eine
Verbreiterung der Aufenthaltswahrscheinlichkeit.
Für ein einzelnes Teilchen hat die Wellenfunktion ψ (r,t) mit Ortsvektor r in der Regel die
Form eines Wellenpaketes, das ist eine Welle deren Amplitude nur innerhalb eines räumlich
eng begrenzten Bereiches merklich von 0 unterscheidet, d.h. die Wahrscheinlichkeit ist sehr
hoch, das Teilchen bei einer Messung in diesem Raumbereich anzutreffen. Da die Amplitude
aber auch außerhalb dieses Bereiches nicht ganz 0 ist, gibt es nach der Theorie der
Quantenmechanik auch eine gewisse sehr geringe Restwahrscheinlichkeit, das Teilchen bei
einer einzelnen Messung irgendwo ganz anders (z.B. außerhalb unserer Galaxis) anzutreffen.
Auch die Wellenfunktion des Teilchenimpulses ψ (p) hat die Form eines Wellenpakets.
Die „Breite“ der Wellenpakete im Orts- und Impulsraum sind dabei über die Heisenbergsche
Unschärferelation miteinander verknüpft. Ein örtlich gut bestimmtes Teilchen hat demnach
eine sehr breite Impulsverteilung und umgekehrt. Je nach Art einer Messung zeigt sich eher
der Teilchen- oder Wellencharakter eines Quantenobjekts.
Allgemein bezieht sich die Wellenfunktion auf alle Zustandsvariablen (Observablen) eines
Quantenobjekts oder Quantensystems und beschreibt dessen zeitliche Entwicklung vor einer
Messung. Teilchen mit zusätzlichen Eigenschaften (wie Spin oder Drehimpuls) werden durch
Wellenfunktionen mit zusätzlichen Komponenten beschrieben.
Konkrete Wellenfunktionen sind Lösungen der sogenannten Schrödinger-Gleichung (SG).
Diese ist die zentrale Grundgleichung der nicht relativistischen Quantenmechanik. Sie
beschreibt die zeitliche Entwicklung der Zustandsvariablen (Ort, Impuls, Spin,...) eines
Quantensystems vor einer Messung als Funktion der Energien des Systems (inklusive eines
möglichen äußeren Potentialfeldes) in Form einer komplexwertigen Differentialgleichung
nach der Zeit. Ein Quantensystem besteht aus ein oder mehreren Teilchen. Bei mehreren
Quantenteilchen überlagern sich deren WF ψ1,...ψn dabei zu einer gemeinsamen WF ψ für die
Teilchengesamtheit. Ein Zustand mit zeitunabhängiger Wahrscheinlichkeitsdichte |ψ(r)|2 für
alle Ortsvektoren des Zustandsraums heißt stationärer Zustand. Die Wellenfunktion eines
Elektrons in einem Atomorbital beschreibt z.B. einen stationären Zustand.
Wenn ψ1 und ψ2 Lösungen der SG sind, so ist auch aψ1 + bψ2 eine Lösung. Eine solche
Überlagerung (Superposition) von 2 WF ergibt sich z.B. beim Doppelspaltversuch. Wo sich
die einzelnen ψ− Funktionen überlappen, kann ein Interferenzmuster beobachtet werden.
Die Schrödingergleichung ist, wie die Newtonschen Axiome in der klassischen Physik, ein
Postulat (Axiom) und lässt sich deshalb auch nicht mathematisch streng herleiten. Sie wurde
1926 von Erwin Schrödinger unter Berücksichtigung gewisser physikalischer Prinzipien und
gestützt auf die seinerzeit bereits bekannten quantenmechanischen Phänomene. aufgestellt.
(Die 1925 von Heisenberg entwickelte „Matrizenmechanik“ ist physikalisch äquivalent aber
mathematisch schwieriger zu handhaben). 1928 gelang Paul Dirac die Vereinheitlichung der
Quantenmechanik und der Speziellen Relativitätstheorie (SRT).
Die allgemeine Form der Schrödingergleichung lautet: iħ d/dt ψ(t) = H ψ(t)
Dabei beschreibt ψ(t) den Zustandsvektor des Quantensystems zur Zeit t, H bezeichnet den
sogenannten Energieoperator des Systems, i die imaginären Einheit und ħ = h/ 2π die
reduzierte Planck-Konstante. Der Energieoperator ist ein partieller Differentialoperator,
der den Erwartungswert der Energiemesswerte des Teilchens im Raum beschreibt. Für die
Wellenfunktion ψ(r, t) des Ortsvektors r eines Teilchens lässt er sich z.B. aus der klassischen
Energiefunktion des Teilchens H(r,t) = Ekin (r,t)+ V(r,t) = p2/2m+ V(r,t) in einem Potentialfeld
V(r,t) ableiten, wenn man zu den quantenmechanischen Differentialoperatoren für Ort,
Energie und Impuls übergeht (Korrespondenzprinzip!) und diese auf die unbekannte WF
ψ(r, t) anwendet. Es ergibt sich iħ d/dt ψ(r,t) = - ħ2/2m Lψ(r,t) + V(r,t) ψ(r,t).
(L= divo grad ist der sogenannte Laplace-Operator)
Die SG ist linear und zeitumkehrinvariant, d.h. mit ψ(t,r) ist auch die transformierte (t=>
-t, i=> -i) Wellenfunktion ψ*(-t,r) ein physikalisch möglicher Vorgang.
Interpretation der Quantenmechanik:
Die Wellenfunktion (WF) beschreibt die Zustandsentwicklung eines Quantenteilchens oder
Quantensystems vor einer Messung. Gemäß der Interpretation als Wahrscheinlichkeitswelle
sind diese Zustände vor einer Messung unbestimmt. Nun kann man natürlich fragen, ist die
WF eine Aussage über die Wirklichkeit selbst oder über unser prinzipielles Wissen über die
Wirklichkeit? Wenn eine Messung zum Zeitpunkt t den Ort x eines Teilchens ergibt, ist es
dann nicht berechtigt anzunehmen, dass das Teilchen unmittelbar davor bereits in der Nähe
von x gewesen sein muss, oder könnte eine solche Messung auch einen astronomisch weit
entfernten Ort des Teilchens ergeben haben, wenn auch mit geringer Wahrscheinlichkeit?
Liegen Ort und Impuls eines Quantenteilchens nicht vielleicht doch jederzeit eindeutig vor,
auch wenn wir nur grundsätzlich nicht in der Lage sind diese Größen gleichzeitig scharf zu
bestimmen? Nach der vorherrschenden Kopenhagener Deutung der Quantenmechanik ist
deren Wahrscheinlichkeitscharakter eine fundamentale, unausweichliche Eigenschaft der
Welt, und es macht es keinen Sinn, über die physikalische Realität vor einer Messung zu
spekulieren, wir können nichts weiter über sie sagen.
Bis zum tatsächlichen Messakt sind alle durch die Wahrscheinlichkeitsfunktion gegebenen
Möglichkeiten („alle möglichen Geschichten des Quantensystems“) offen, und daher nur
stochastische Vorhersagen möglich. Erst durch die Messung erfolgt der Übergang vom
Möglichen zum Faktischen. Die Kopenhagen Deutung erklärt dies mit dem zusätzlichen
Postulat eines instantanen Kollapses der Wellenfunktion auf den Wert 0 im Augenblick des
Messaktes für alle Werte außer dem gemessenen Wert. Diese Deutung ist bis heute umstritten.
(siehe Kap. 9, Philosophische Aspekte der Quantenphysik).
Wellenfunktion und Interferenz: beim Doppelspaltversuch ist der Aufschlagort des
einzelnen Teilchens nicht vorhersagbar. Die stochastische Verteilung (das Interferenzmuster)
ergibt sich aus der Überlagerung der beiden Einspalt-WF für den linken und den rechten
Spalt: ψsum(r,t) =ψli(r,t) + ψre(r,t). Schreibt man für die komplexwertige WF |ψ|2 in der Form
ψψ* so erhält man: ψsum ψ*sum = ψli ψ*li + ψre ψ*re + Re( ψ*li ψre ) für die Wahrscheinlichkeiten.
Der Interferenzterm Realteil( ψ*li ψre ) kann positive und negative Werte annehmen und
bestimmt das Interferenzmuster auf dem Auffangschirm.
Interferenz entsteht nur in dem Bereich, indem sich die Einzel-WF überlappen, also beide WF
ψ*li und ψre ungleich 0 sind. Erlaubt die Messapparatur eine WWI-Bestimmung für einen Spalt,
so nimmt die entsprechende Einzelspalt-WF für alle Orte (außer dem Gemessenen) instantan
den Wert 0 an (Kollaps der WF), und das Interferenzmuster erscheint nicht.
3. Verschränkung, Nichtlokalität der Quantentheorie, Dekohärenz
Wenn zwei oder mehr Quantenteilchen so miteinander in Wechselwirkung treten, dass ihre
gemeinsame Wellenfunktion nicht mehr als Überlagerung (Kombination) von unabhängigen
Einzel-WF dargestellt werden kann, sie daher fortan als ein Gesamtsystem betrachtet werden
müssen, nennt man sie verschränkt. Eine Messung an einem der Teilchen bewirkt instantan
auch eine Präparation aller mit ihm verschränkten Quantenobjekte auf bestimmte Messwerte
(Kollaps der gemeinsamen WF). Die Verschränkung bleibt auch dann erhalten, wenn der
Zeitpunkt der Wechselwirkung in der Vergangenheit liegt und die zwei Teilchen inzwischen
Lichtjahre voneinander entfernt sind. Dabei ist oft eine feste Korrelationen der Messwerte
bestimmter Observablen (z.B. Ort, Impuls, Spin, Polarisation) der verschränkten Teilchen zu
beobachten (z.B. entgegengesetzte Spin-Richtung, entgegengesetzter Impuls).
Quantenverschränkungen sind keine ungewöhnliche Erscheinung. Sie entstehen meist bei
Zerfalls- und Streuprozessen, wenn sich die Eigenschaften der beteiligten Teilchen auf die
Gesamtheit „verteilen“. Die genauen Bedingungen für die Entstehung von Verschränkungen
sind aber noch nicht geklärt. Verschränkte Quanten müssen jedenfalls nicht unbedingt aus der
selben Quelle stammen (wie in vielen Standard-Experimenten zu ihrer Erzeugung), auch die
Annahme, dass Verschränkung eine Wechselwirkung der Quantenteilchen voraussetzt gilt als
widerlegt (Stichwort: entanglement swapping).
Es gibt jedoch inzwischen eine Vielzahl von Experimenten, mittels derer sich verschränkte
Zustände von Paaren von Quantenteilchen erzeugen lassen. Meistens betrachtet man Atome
oder Photonen und dabei die korrelierten Eigenschaften Spin oder Polarisation. Entstehen die
Teilchenpaare aus einem Vorgang, so ergibt sich die Korrelation aus den Erhaltungssätzen für
bestimmte Parameter (wie z.B. Impuls, Drehimpuls, Spin) des Systems. Oft beschrieben ist
z.B. die Möglichkeit ein verschränktes Photonenpaar mit speziellen Kristallen zu erzeugen,
welche die Eigenschaft haben, aus einem einfallenden Photon zwei ausfallende mit jeweils
etwa halber Energie zu machen, die bezüglich ihrer Polarisation korreliert sind. Eine weitere
Möglichkeit ist, Kalzium Atome in einen speziellen Anregungszustand zu bringen, aus dem
sie nur durch Abstrahlung von 2 Photonen wieder in den Grundzustand übergehen können.
Nun kann man durch Blenden Photonenpaare auswählen, die in entgegengesetzter Richtung a
bzw. b ausgestrahlt werden und dort Messgeräte (z.B. Polarisationsfilter) platzieren, mittels
derer sich Quantenkorrelationen bei solchen Paaren nachweisen lassen.
Dabei sollten sich nach den Vorhersagen der Quantentheorie zwei verschränkte Teilchen, die
miteinander in Wechselwirkung standen, auch nach ihrer Separierung in im Prinzip beliebig
weit entfernte Orte gegenseitig in dem Sinn beeinflussen können, dass das zufällige Ergebnis
einer Messung an dem einen Ort das Ergebnis einer zeitgleichen Messung am anderen Ort
beeinflusst. Diese Vorhersage war einer der Gründe, weshalb Einstein die Quantenmechanik
ablehnte (Er sprach von spukhafter Fernwirkung).
Nach Einsteins Relativitätstheorie sollten sich zwei Ereignisse in der Raum-Zeit nur dann
gegenseitig beeinflussen können, wenn sie zueinander „lokal“ sind, d.h. wenn sie durch einen
Lichtstrahl (oder ein unterlichtschnelles Signal) verbunden werden können. Umgekehrt
sollten sich zwei Ereignisse oder allgemeiner zwei physikalische Systeme, die zueinander
nicht-lokal sind, auch nicht gegenseitig beeinflussen können. Einstein betrachtete diese
Separierbarkeit physikalischer Systeme als ein fundamentales Prinzip.
Daher versuchten Einstein, Podolski und Rosen (EPR) anhand eines Gedankenexperiments
nachzuweisen, dass die Quantenmechanik unter Annahme des Lokalitätsprinzips in dem Sinn
unvollständig ist, dass Quantenteilchen auch unabhängig von Messungen immer einen Ort
und Impuls haben, auch wenn diese als sogenannte „verborgene Parameter“ prinzipiell nicht
gleichzeitig direkt bestimmbar sind.
EPR-Experiment: bei 2 Teilchen, die aus einer Quelle (z.B. einem Atomzerfall) diametral
auseinander fliegen, lässt sich durch Messung am nach rechts fliegenden Teilchen (Ort oder
Impuls) indirekt auch die korrelierten Werte des nach links fliegenden Teilchens exakt
vorhersagen – ohne dass sich die Messung rechts auf das nach links fliegende Teilchen hätte
auswirken können (dieses Argument setzt „Lokalität“ voraus!). Da links keine Information
vorliegt, was rechts gemessen wird, muss das nach links fliegende Teilchen jederzeit einen
exakten Ort und einen exakten Impuls haben.. Diese seien damit Elemente der physikalischen
Realität, und die Quantenmechanik daher eine unvollständige Theorie.
John Bell konzipierte 1964 eine praktisch durchführbare Version dieses Experiments, mit
dem sich anhand der sogenannten Bellschen Ungleichung zusätzlich nachweisen lässt, ob
die beobachteten Korrelationen bei räumlich vollständig separierten Messungen auf ein
bereits bei Emission festgelegtes Verhaltensprogramm, also auf verborgene Parameter
zurückgeführt werden können oder nicht.
Experiment: Bei einer häufig beschriebenen Variante dieses Experiments, bestimmt man die
Polarisation verschränkter Photonen, die aus einer gemeinsamen Quelle in entgegengesetzte
Richtungen a und b auseinander fliegen. Dazu benutzt man Polarisationsfilter, die räumlich
vollständig separiert sind, so dass sich zeitgleiche Messungen nicht gegenseitig beeinflussen
können. Die Polarisationseigenschaft (Orientierung) der Photonen ist vor einer Messung
völlig unbestimmt. Werden die beiden Polarisationsfilter in jeweils gleiche, aber beliebige
Ausrichtungen φ gegen die Vertikale gebracht, so stellt man fest:
1.) Unabhängig von der Orientierung des Filters, wird im Mittel die Hälfte der Photonen a
durchgelassen, die andere Hälfte absorbiert. Das gleiche stellt man für die Photonen b fest.
Dieses Ergebnis ist zu erwarten, wenn die Orientierungen der Photonen gleich verteilt sind.
2.) Jedes mal wenn Photon a von „seinem“ Filter durch gelassen wird, wird auch b durchgelassen. Jedes mal wenn Photon a vom Filter absorbiert wird, wird auch b absorbiert
Für diese strenge Korrelation der Ergebnisse gibt es 2 mögliche Theorien A1, A2:
A1: Wenn Photon a durchgelassen bzw. absorbiert wird, wird Photon b ohne Zeitverzögerung
auf die gleiche Eigenschaft eingestellt. Die Korrelation beruht damit auf einer instantanen
Fernwirkung. A1ist eine nicht-lokale Theorie.
A2: Jedes Photon hat für jede Orientierung des Filters eine bereits zum Emissionszeitpunkt
feststehende, verborgene Eigenschaft „wird durchgelassen“ bzw. „wird absorbiert“. Die
Korrelation beruht daher auf „verborgenen Parametern“. A2 ist im Gegensatz zu A1 eine
lokale Theorie.
Man führt nun für 3 verschiedene Kombinationen von Filterorientierungen links und rechts
(K1: 0o & 45o, K2: 0o & 22,5o, K3: 22,5o & 45o) Messungen durch, wie oft das linke Photon
durchgelassen und das Rechte absorbiert wird. Gemessen wird stets H1 > H2 + H3
Dann ermittelt man die Häufigkeiten, die sich gemäß Theorie A2 ergeben müssten: da es pro
Filterorientierung 2 mögliche (durch verborgene Parameter festgelegte) Ergebnisse gibt, also
bei den 3 Orientierungen 8 Möglichkeiten der Ergebnis-Vorabfestlegung, lässt sich leicht
abzählen: H1 <= H2 + H3 (Bellsche Ungleichung). Die gemessenen Häufigkeiten erfüllen
aber die Bellsche Ungleichung nicht. Das korrelierte Verhalten dieser Photonenpaare kann
also nicht durch eine lokale Theorie mit verborgenen Parametern beschrieben werden.
Nun postuliert man: Sobald eines der Photonen von einem Polarisationsfilter mit Orientierung
φ durchgelassen bzw. absorbiert wird, erhält das andere instantan die gleiche Eigenschaft
bezüglich φ. In diesem Sinn handelt es sich nicht um „zwei Photonen“, sondern um ein
einziges quantenmechanisches Gebilde, das sich über einen großen Raumbereich erstreckt.
Nach der Quantentheorie ist die Polarisation des Photonenpaars vor der Wechselwirkung mit
einem Polarisationsfilter völlig unbestimmt. Die Durchlass-Wahrscheinlichkeit von Photon a
beim 0o-Filter ist daher 0,5. Da Photon a und Photon b dabei aber instantan die Orientierung
0o erhalten, ist die Absorptions-Wahrscheinlichkeit von b am 45o-Filter = sin2(45o) = 0,5 (*),
die Gesamt-Wahrscheinlichkeit für H1 = 0,5x0,5 =0,25. Mit analoge Berechnungen für H2
und H3 ergibt sich: H1 > H2 + H3 (in Übereinstimmung mit den Messergebnissen)
(*): Photonen mit Polarisationseigenschaft φ1 treffen auf ein Polarisationsfilter senkrecht zur
Ausbreitungsebene mit Orientierung φ2. Die Durchlass-Wahrscheinlichkeiten müssen bei
vielen Wiederholungen die klassischen Intensitäten reproduzieren. Klassisches Licht der
Intensität I mit Polarisation φ1 wird bei einem Polarisationsfilter der Orientierung φ2 mit der
Intensität I cos2(φ), φ=φ2-φ1, durchgelassen. Der Rest, I sin2(φ), wird absorbiert. Folglich
beträgt die Durchlass-Wahrscheinlichkeit für Photonen cos2(φ) und die AbsorptionsWahrscheinlichkeit sin2(φ). Jeder Polarisationsfilter legt Polarisationsrichtung neu fest und
damit auch Wahrscheinlichkeit, mit der ein Photon einen folgenden Polarisationsfilter passiert
(Erst die Messung präpariert ein Quantenobjekt)
Anmerkung: Bei einer allgemeinen Herleitung der Bellschen Ungleichung sind die 3
verschiedenen Achsen der Polarisationsfilter beliebig gewählt. Die Bellsche Ungleichung
liefert eine Obergrenze dafür, wie oft in einem lokalen, realistischen Universum beide
Photonen a und b die Modulatoren durchqueren und von den Detektoren registriert werden.
Die Experimentatoren finden stets, dass verschränkte Photonen stärker korreliert sind, dieses
Limit also verletzen. Die beliebige Wahl der Achsen, unabhängig von allen Eigenschaften der
Photonenpaare, ist neben der Annahme verborgener Parameter und der Lokalität sogar eine
implizite Voraussetzung des Experiments. Sollte die Natur nämlich auf irgendeine Weise die
möglichen Einstellungen der Modulatoren einschränkt und unmittelbar vor Durchführung der
Messungen mit dem jeweiligen Zustand der Teilchen korreliert haben, dann könnte auch diese
Einschränkung der freien Wahl die Messergebnisse erklären, die sonst mit Verschränkung
begründet werden. Dieses Schlupfloch gilt inzwischen aber als experimentell widerlegt.
Fazit: Durch eine Vielzahl der seit Ende der 1960-Jahre durchgeführte Experimente konnte
auf diese Weise nachgewiesen werden, dass die Quantentheorie - im Gegensatz zur Annahme
Einsteins nicht durch Hinzufügen von verborgenen Variablen zu einer realistischen und
gleichzeitig lokalen Theorie vervollständigt werden.
Die theoretische Analyse dieses Phänomens zeigt aber auch, dass dieses nicht im Widerspruch
zur speziellen Relativitätstheorie steht, da bei diesen Experimenten keine Informationen
überlichtschnell übertragen werden. Die einzelne Messung ergibt – unabhängig davon, ob das
andere Teilchen bereits gemessen wurde – stets ein für sich genommen unvorhersagbares
Ergebnis. Erst, wenn das Ergebnis der anderen Messung durch klassische, lichtschnelle
Kommunikation bekannt ist, kann man die Korrelation feststellen oder ausnutzen.
Alle klassischen Theorien sind lokal und realistisch. Es gibt dort keine instantane gegenseitige
Beeinflussung räumlich separierter Systeme, und Messungen lesen nur Eigenschaften ab, die
auch unabhängig von der Messung vorliegen. Ob die Quantentheorie realistisch ist, ob also
das Ergebnis jeder denkbaren Messung feststeht, auch wenn es wegen ungenügender Kenntnis
verborgener Parameter nicht vorher bekannt ist, ist umstritten. Nach der Kopenhagen Deutung
der Quantentheorie ist diese nicht realistisch.
Gemäß der De-Broglie-Bohm-Mechanik kann sie jedoch formal zu einer realistischen nichtlokalen Theorie erweitert werden. Gemäß dieser sind dann aber nicht nur nicht-lokale
Korrelationen zwischen verschränkten, räumlich getrennten Teilsystemen möglich, sondern
sogar nicht-lokale Wechselwirkungen (s. Kap. 9).
Verschränkung und Interferenz:
Beim Doppelspaltversuch mit Atomen, bei dem die WWI-Bestimmung durch an den Atomen
bei Spaltdurchgang gestreuten Photonen erfolgt, verschränken sich die Zustände der beiden
Quantenobjekte Atom und Photon. Bei geschlossenem rechten Spalt ergibt sich eine WF als
Produkt ψli atom x ψli photon, analog bei geschlossenem linken Spalt. Mit 2 offenen Spalten
ergibt sich Gesamt-WF als Superposition (Addition) ψli + ψre . Durch Ausmultiplizieren der
Beitragsquadrate erhält man einen Interferenzterm als Produkt aus allen 4 Einzel-WF:
(ψ*li atom x ψre atom) x (ψ*li photon x ψre photon).
Daraus folgt unmittelbar, dass Atom- und Photon-Interferenz verschwinden, sobald entweder,
die Atom-WF'n (li, re) oder die Photon-WF'n (li, re) nicht mehr überlappen. Da die gestreuten
Photonen mehr oder weniger stark auseinander laufen, ist die Atom-Interferenz nur zu sehen,
wenn diese auf dem Bildschirm auftreffen, bevor die Photon-WF'n sich separiert haben.
Sobald die Wahrscheinlichkeitspakete für die Möglichkeiten „links“ und „rechts“ bei einem
der beteiligten Quantenobjekte nicht mehr überlappen, kann kein Interferenzmuster mehr
beobachtet werden. Solange die Auswirkung der Überlagerung (d.h. ein Interferenzmuster)
beobachtet werden kann, spricht man von „Quantenkohärenz“. Lässt sich die Auswirkung
nicht mehr beobachten, spricht man von Dekohärenz.
Dekohärenz-Theorie:
Diese liefert eine Erklärung dafür, dass sich größere Objekte immer in eindeutigen
Konfigurationen befinden und keine Interferenzmuster durch sich überlagernde
Möglichkeiten zu beobachten sind. Sie geht von folgender Beobachtung aus: Je größer ein
Objekt ist, um so eher und um so wahrscheinlicher wechselwirkt es mit anderen Objekten
(Wärmestrahlung, Licht, Umgebungsmoleküle). Wie man zeigen kann, macht diese
Wechselwirkung bei einem makroskopischen Objekt innerhalb von kürzester Zeit aus dem
Überlagerungszustand einen Zustand, in dem keine Interferenzerscheinungen mehr beobachtet
werden können, da die Kohärenz der Gesamtwellenfunktion durch den Einfluss unzähliger
anderer Teilchen verwischt wird.
Wechselwirkung erzeugt Verschränkung, und die Einzel-Wellenfunktionen der beteiligten
Teilchen gehen in den Interferenzterm der Gesamt-WF als Produktfaktoren ein. So ergibt sich
bereits im Doppelspalt-Experiment mit Atomen und daran zur WWI-Bestimmung gestreuten
Photonen für den Überlagerungszustand ein Interferenzterm (s. oben):
(ψ*li atom x ψre atom) x (ψ*li photon x ψre photon). Erweitern man für makroskopische Objekte die
theoretische Beschreibung um die Freiheitsgrade der Umgebung, so liefert jedes verschränkte
Quantenobjekt zusätzliche Produktterme. Ist davon nur ein einziges 0, d.h. nicht (mehr)
überlappend, so verschwindet der gesamte Interferenzterm.
Die entwickelten Formeln zur Abschätzung der Dekohärenz in Abhängigkeit von Objektgröße
und störenden Einflüssen geben z.B. an, dass es für ein Staubkorn, dass im Weltall nur dem
Einfluss der kosmischen Hintergrundstrahlung ausgesetzt ist, innerhalb einer Millionstel
Sekunde zur Dekohärenz kommt.
Fazit: Die Dekohärenz-Theorie liefert eine Erklärung dafür, dass sich makroskopische
Objekte immer in eindeutigen Konfigurationen befinden, also klassisches Verhalten zeigen.
Allerdings löst auch die Dekohärenz das quantenmechanische Messproblem nicht vollständig,
da sie nicht beschreibt, wie es zum Auftreten eines konkreten Ereignisses (z.B. des Zerfalls
eines Atoms) kommt. Dies erfordert zusätzliche Annahmen.
4. Der Energiesatz in der Quantentheorie
In der Quantentheorie wird nun die Energie eines Teilchens in einen Zusammenhang gebracht
mit der Frequenz des Schwingungsvorgangs der „Teilchenwelle“. Dies ergibt sich aus einem
Grundphänomen allen atomaren Geschehens, des Dualismus von Welle und Teilchen.
Für Photonen (Lichtteilchen) ist der Proportionalitätsfaktor zwischen Energie des Photons und
Schwingungsfrequenz des ausgesandten Lichts das Plancksche Wirkungsquantum. Eine
analoge Teilchen-Wellen-Beziehung gilt für alle Elementarteilchen (De Broglie Welle)
Dabei bestimmt die Intensität (Amplitude) der Wellenbewegung an einem Ort die
Wahrscheinlichkeit, das Teilchen an diesem Ort (experimentell) lokalisieren zu können.
Der Energieerhaltungssatz verlangt nun, dass der experimentelle Nachweis des Teilchens an
einem bestimmten Ort zum unmittelbaren Zusammenbruch der Wellenfunktionen an allen
anderen Orten führen muss, d.h. die Wahrscheinlichkeit das Teilchen (und damit die in dem
Teilchen konzentrierte Energie) gleichzeitig noch an einem anderen Ort feststellen zu können,
wird in dem Augenblick Null, wo es an einer bestimmten Stelle lokalisiert worden ist.
In dieser sprunghaften Änderung der Wellenfunktion durch den Beobachtungsakt drückt sich
die Tatsache aus, dass die Wellen in der Quantenmechanik nicht an sich seiende physikalische
Realitäten, sondern nur Ausdruck unserer Kenntnis dieser Realität sind und sich daher durch
Erwerb einer neuen Erkenntnis auch schlagartig ändern können (siehe aber auch Kap. 9).
Der Grenzübergang zu den an sich seienden Wellenfeldern der klassischen Physik geschieht
durch Vermehrung der Anzahl der Lichtteilchen im Wellenzug; denn wenn die Welle viele
Lichtteilchen enthält, so ändert die Beobachtung eines einzelnen Lichtquants an einem
bestimmten Ort fast nichts an der Intensität der Summen-Wellenfunktion an anderen Orten.
Betrachten wir ein Teilchen, dessen Ort zu einem bestimmten Zeitpunkt genau bestimmt
wurde, so muss seine Wellenfunktion außer an der beobachteten Stelle überall Null sein.
Ein derartiges Wellenpaket hat nun gar keine definierte Frequenz oder Wellenlänge, d.h. diese
Größen und damit auch Energie und Impuls des Teilchens sind völlig unbestimmt. Umgekehrt
erfordert eine Energiebestimmung anhand der Frequenz der Wellenfunktion eine bestimmte
Mindestdauer des Schwingungsvorgangs, d.h. schon aus der Planckschen Beziehung ergibt
sich für diesen Fall eine unscharfe Ortsbestimmung. Die quantitative Formulierung dieser
Zusammenhänge erfolgt in der Heisenbergschen Unschärferelation.
Diese Unschärferelation hat jedoch auch eine Konsequenz für den Energiesatz: es ist möglich,
dass der Energiesatz für einen sehr kurzen Zeitraum verletzt wird, in dem die Energie eines
Teilchens unbestimmt ist. Daraus erklären sich auch experimentell bestätigte und technisch
genutzte Phänomene wie z.B. der sogenannte Tunneleffekt. Dieser besagt, dass Teilchen ein
Hindernis (z.B. eine Potentialbarriere), zu dessen Überwindung ihre Energie nach der
klassischen Physik nicht ausreicht, gleichwohl mit einer gewissen Wahrscheinlichkeit
überwinden können, wenn das Hindernis hinreichend schmal ist, also in hinreichend kurzer
Zeit überwunden werden kann. In dieser kurzen Zeit kann sich ein Teilchen die benötigte
Energie sozusagen aus dem Nichts leihen.
Mit Hilfe des Tunneleffekts wird unter anderem der spontane radioaktive Alpha-Zerfall von
Atomkernen trotz der Energiebarriere der starken Wechselwirkung erklärt. Technische
Anwendungen sind beispielsweise das Rastertunnelmikroskop und der Flash-Speicher.
Virtuelle Teilchen sind ein Konzept der Quantenfeldtheorie. Sie existieren nur innerhalb der
Grenzen der Heisenbergschen Unschärferelation, also nur innerhalb von Zeiträumen ∆t, die
durch ∆E ∆t ~ = h gegeben sind, wobei ∆E die Masse-Energie des virtuellen Teilchens ist.
Sie sind daher auch nicht direkt beobachtbar oder nachweisbar.
Virtuelle Teilchen spielen in der Quantenphysik zum einen eine Rolle als Botenteilchen von
Kraftwirkungen (s. Kap. 7), zum anderen bei den sogenannten Quantenfluktuationen des
Vakuums.
Quantenfluktuation (auch Vakuumfluktuationen) sind Teilchen-Antiteilchen-Paare, die in
nach der Quantenfeldtheorie aus dem Vakuum entstehen und sofort wieder zerfallen.
Weil diese Teilchen den Energieerhaltungssatz verletzen, können Sie nur innerhalb der
Grenzen der Heisenbergschen Unschärferelation existieren, also nur innerhalb von
Zeiträumen ∆t, die durch ∆E ∆t ~ = h gegeben sind, wobei ∆E die Masse-Energie der
entstehenden Teilchen ist. Die Teilchen leihen sich für kurze Zeit Energie aus dem Nichts.
Das Vakuum muss für diese Zeit eine negative Energie haben. Die sofortige gegenseitige
Auslöschung (Annihilation) der entstehenden Teilchenpaare verhindert jedoch eine globale
Verletzung Energieerhaltungssatzes. Die durch die Theorie postulierten Quantenfluktuationen
könnten prinzipiell auch nur indirekt nachgewiesen werden.
Die Quantenfeldtheorie betrachtet ein Vakuum daher nicht als völlig leer, sondern erfüllt mit
einer Vakuum-Energie. Selbst im Grundzustand, dem niedrigst-möglichen Energieniveau,
ermöglicht die Heisenbergsche Unschärferelation die Bildung von Vakuumfluktuationen.
Die Vakuumenergie kann folglich Teilchen des Standardmodells in diesem ansonsten leeren
Raum entstehen lassen. Neben sich sofort wieder gegenseitig vernichtenden Teilchenpaaren
tragen nach der Theorie der Quantenelektrodynamik auch virtuelle Photonen, die innerhalb
der Grenzen der HUR aus dem Quanten-Vakuum heraus entstehen und gleich danach wieder
verschwinden zur Vakuumenergie bei. (Photonen sind ihre eigenen Antiteilchen).
Die Teilchen-Antiteilchen-Bildung ist nachgewiesen für Elektron-Positron-Paare bei
Stoßprozessen energiereicher Photonen mit Materie oder auch untereinander, auch MyonAntimyon und Proton-Antiproton sind bekannte und nachgewiesene Paarbildungen.
Die spontane Teilchenbildung aus dem Vakuum ist dagegen prinzipiell nicht beobachtbar.
Die oft als indirekter Nachweis genannten Casimir-Effekt und Lamb-Verschiebung sind
auch ohne die Hypothese von Quantenfluktuationen erklärbar.
Die Vakuumenergie gilt auch als ein möglicher Kandidat für die Dunkle Energie, welche in
der Astronomie eine Erklärung für die beobachtete beschleunigte Expansion des Universums
bieten würde. Die theoretisch vorhergesagten Werte der Vakuumenergie liefern jedoch ein um
viele Größenordnungen (Faktor ~ 10120) größeres Ergebnis als die Beobachtungsdaten der
kosmischen Expansion erwarten lassen. Stephen Hawking hat die Teilchenerzeugung der
Vakuumenergie auch als Mechanismus für das „Verdampfen“ von Schwarzen Löchern
beschrieben („Hawking-Strahlung“). Auch dies ist (bisher) aber nur eine Hypothese.
Der Casimir-Effekt besagt, dass im Vakuum auf zwei parallele leitfähige Platten eine Kraft
wirkt, die beide zusammendrückt. Dieser Effekt wird häufig als ein experimentelles Indiz für
Vakuumfluktuationen des elektromagnetischen Feldes interpretiert. Danach beruht diese Kraft
auf der Tatsache, dass das Vakuum mit Fluktuationen virtueller Photonen erfüllt ist. Innerhalb
der Platten werden diese Wellenpakete an den Platten hin und her reflektiert. Dabei löschen
sich die Wellenpakete durch destruktive Interferenz aus, deren De-Broglie-Wellenlänge nicht
genau einem Vielfachen des Plattenabstandes entspricht. Somit entsteht zwischen den beiden
Platten ein „Unterdruck“ virtueller Teilchen. Innerhalb der Platten bleiben nur die wirksam,
die mit dem Abstand der Platten in Resonanz sind, während außerhalb der beiden Platten ein
Kontinuum virtueller Photonen auf die Platten Druck ausüben kann.
Der Casimir-Effekt kann jedoch auch ohne die Annahme virtueller Photonen als Wirkung
einer sogenannten Van-der-Waals-Kraft erklärt werden.
5. Die fundamentalen Naturkräfte
Die Wechselwirkung von Materie mit anderer Materie geschieht durch die Vermittlung von
Kräften. Bis heute sind vier Arten von Naturkräften bekannt: Schwerkraft (Gravitation),
Elektromagnetismus, starke Kraft und schwache Kraft.
Die Gravitationskraft kann in sofern als universelle Kraft angesehen werden, als sie auf alles
wirkt, was Masse-Energie trägt, auf materielle Teilchen ebenso wie auf Kraftfelder und
Strahlung. Sie wirkt normalerweise als anziehende Kraft, theoretisch kann sie in bestimmten
Situationen auch abstoßend wirken. Die Gravitation ist die bei weitem schwächste aller in der
Natur auftretenden Kräfte. Sie wirkt praktisch nur bei großen Massen, sie ist bestimmend im
Bereich der Sterne und Planeten, im Atom ist sie vernachlässigbar.
Der Elektromagnetismus setzt Teilchen mit elektrischer Ladung voraus und wirkt nur
zwischen diesen. Teilchen mit gleicher Ladung stoßen sich ab, mit entgegengesetzter Ladung
ziehen sich an. Im Atom sind Elektron und Proton die Träger der negativen bzw. positiven
Elementarladung. Die elektromagnetischen Kraftwirkung innerhalb der Atome bestimmt
gemeinsam mit den Gesetzen der Quantenphysik die Struktur der Elektronenwolken, die den
räumlich größten Teil aller gewöhnlichen Materie ausmachen. Der Elektromagnetismus
kontrolliert damit das chemische Verhalten aller Atome und Moleküle, auch jener, aus denen
wir bestehen. Da die Atome und Moleküle der Materie aber in der Regel elektrisch neutral
sind (d.h. gleich viele Elektronen und Protonen) enthalten, spielt die elektromagnetische Kraft
über größere Entfernungen hin keine Rolle. Überall, wo in der Natur elektrische Ladung
sichtbar wird, ist das letztendlich zurückzuführen auf einen lokalen Überschuss bzw. Mangel
an Elektronen (z.B. kann auch ein Atom temporär eine elektrische Ladung annehmen, wenn
es ionisiert ist, d.h. wenn Elektronen in seiner Hülle fehlen bzw. zu viel da sind.)
Zwei Protonen stoßen sich auf Grund ihrer positiven Ladung gegenseitig mit einer 1036 mal
größeren Kraft ab, als sie sich auf Grund ihrer Masse anziehen.
Starke und die schwache Kraft (Wechselwirkung):
Da die Abstoßungskraft zwischen den positiv geladenen Protonen des Atomkerns sehr viel
stärker wirkt als die Gravitationskraft, muss es eine weitere Naturkraft geben, welche den
Atomkern zusammenhält. Dies ist die 1935 von Hideki Yukawa theoretisch begründete
„starke Kraft“. Sie ist etwa 100-mal stärker als die elektromagnetische Kraft und damit die
bei weitem stärkste Naturkraft, wirkt aber praktisch nur auf die sehr kurze Entfernung von
etwa 10-15 m, was etwa dem Durchmesser eines Atomkerns entspricht.
Die starke Kraft bestimmt zusammen mit der schwachen Kraft, welche Atomkerne in der
Natur stabil sind und damit auch, welche chemischen Elemente existieren können.
Die 1934 von Enrico Fermi entdeckte „schwache Kraft“ wirkt nur auf noch kürzere
Entfernungen (Reichweite < 10-18 m). Sie spielt eine wichtige Rolle bei Zerfalls- und
Umwandlungsprozessen von Elementarteilchen. Sie verursacht z.B. auch Umwandlungen
zwischen Protonen und Neutronen (sogenannter β-Zerfall) und ist damit entscheidend dafür
verantwortlich, dass unsere Sonne uns durch die Fusion von Wasserstoff zu Heliumkernen in
ausreichendem Umfang Energie liefern kann (s. Kap. 6 und 7).
Sie ist bei „normalen Temperaturen“ etwa 1014 mal schwächer als die starke Kraft und damit
auch um etwa 1012 mal schwächer als die elektromagnetische Kraft. Bei sehr hohen Energien
(Temperaturen) kommt es jedoch zu Vereinheitlichung mit der elektromagnetischen Kraft zur
sogenannten elektroschwachen Kraft (s. Kap. 7).
6. Die atomare Struktur der Materie
In Kapitel 1 wurde bereits das Bohrsche Atommodell aus dem Jahre 1913 erläutert, nachdem
sich die Elektronen nur auf bestimmten Bahnen mit diskreten Energieniveaus um den Kern
bewegen können, und die Abgabe oder Aufnahme von Energie nur in Verbindung mit einem
Bahnwechsel erfolgen kann, bei dem die Energiedifferenz in Form eines Photons abgegeben
oder aufgenommen wird.
Das Schalenmodell des Atoms kann als Erweiterung des Bohrschen Modells aufgefasst
werden, wobei der Bahnkurve der Elektronen abstrahiert wird und nur die ungefähre
Entfernung vom Kern ausschlaggebend ist. Die Elektronenhülle untergliedert sich demnach in
mehrere Kugelschalen, die jeweils eine bestimmte Anzahl von Elektronen aufnehmen können.
Die innerste K-Schale kann genau zwei Elektronen aufnehmen, die darüber liegende L-Schale
fasst schon acht Elektronen, die dritte M-Schale, bietet 18 Elektronen Platz und so weiter.
Das Schalenmodell eignet sich zur Erklärung bestimmter chemischer Eigenschaften und
Reaktionen die Ionenbindung von Elementen kann auf das Bestreben der beteiligten Elemente
nach einer voll besetzten äußeren Schale zurück geführt werden. Z.B. verbinden sich
besonders leicht Elemente, bei denen das eine mit seinen „Außenelektronen“ die Schale des
anderen komplettieren kann (z.B. H2O); alle Edelgase haben eine vollbesetzte äußere Schale.
Einige Schwächen des Bohrschen Atommodells waren bereits 1913 klar. Insbesondere
verletzt die Vorstellung einer definierten Bahn des Elektrons um den Atomkern die 1927 von
Werner Heisenberg entdeckte Unschärferelation. Mit der Entdeckung der De Broglie Wellen
(s. Kap. 1) konnte man die Elektronenbahnen als stehende Materiewellen auffassen, d.h. die
zulässigen Bahnlängen sind Vielfache der Elektronenwellenlänge. Diese quantenphysikalisch
begründete Unschärfe der Elektronenbahn ist dafür verantwortlich, dass die Elektronen der
Atome nicht in den positiv geladenen Atomkern hineinstürzen. Als Gegenkraft wirkt hier das
Elektron selbst, dessen Ladung man sich über die gesamte Bahn verschmiert vorstellen kann.
Das Orbitalmodell des Atoms berücksichtigt die neuen, wellenmechanischen Ansätze, nach
denen man den Elektronen nur einen „verschmierten“ Bereich zuordnen, in denen man sie
finden kann. Obwohl sich der Name des Modells von "Orbit"="Bahn" herleitet, gibt man es
hier völlig auf, den Elektronen Bahnen zuzuordnen.
Da die Aufenthaltswahrscheinlichkeit der Elektronen mit dem Abstand vom Atomkern
asymptotisch gegen null geht und sich bis ins Unendliche erstreckt, wählt man als Orbital den
Aufenthaltsraum, in dem sich das betrachtete Elektron mit ca. 90% Wahrscheinlichkeit
aufhält. Die Abstände der größten Wahrscheinlichkeiten innerhalb der Orbitale, ein Elektron
anzutreffen, entsprechen den von Niels Bohr errechneten Bahnabständen. In welchem Orbital
sich ein Elektron aufhält gibt man mit Hilfe von Quantenzahlen an. Die „Hauptquantenzahl“
entspricht den Schalen des Bohrschen Atommodells. Ohne äußere Einwirkungen ist das Atom
stationär, es gibt also keine Bewegungen von Elektronen auf Bahnen. Orbitale können mit
zwei Kernen assoziiert sein und so chemische Bindungen vermitteln.
Die Elemente:
Das Neutron ist kein stabiles Elementarteilchen, da es außerhalb des Atomkerns radioaktiv
zerfällt. Protonen und Elektronen gelten als stabil. Das Elektron und Proton sind Träger der
elektrischen negativen bzw. positiven Elementarladung, d.h. der kleinsten in der Natur
vorkommenden elektrischen Ladung. Das Neutron ist elektrisch neutral. Auch das Atom ist
im Normalzustand elektrisch neutral, da es in diesem Zustand aus gleicher Anzahl von
Elektronen und Protonen besteht, der Ladungen sich gegenseitig aufhebt. Die Anzahl der
Protonen eines Atoms, die Kernladungszahl oder auch Ordnungszahl, bestimmt seine
chemischen Eigenschaften als „Grundelement“. Es gibt 92 in der Natur vorkommende
Grundelemente (wie Wasserstoff, Helium, Sauerstoff, Kohlenstoff, etc.). Aus diesen setzen
sich dann alle weiteren chemischen Verbindungen (Moleküle) zusammen. Als Isotope eines
Grundelements werden die verschiedenen Ausprägungen bezüglich der Neutronenzahl des
Elements bezeichnet. Die Zahl der Nukleonen (Neutronen und Protonen) eines Atoms ist
seine Massenzahl. Proton und Neutron sind nicht die letzten Bausteine der Materie. In hochenergetischen Stoßprozessen lassen sie sich weiter zerlegen und auch viele andere sehr
kurzlebige Elementarteilchen erzeugen, die sich jedoch alle auf wenige fundamentale
Elementarteilchen reduzieren lassen (s. Kap.7).
Kernfusionen und Radioaktivität
Die Bindungsenergie eines Atomkerns ist anschaulich die Arbeit, die aufgewandt werden
müsste, um diesen in seine einzelnen Nukleonen zu zerlegen. Sie entspricht dem sogenannten
Massendefekt, d.h. dem Unterschied zwischen der Summe der Massen aller Protonen und
Neutronen, aus denen ein Atomkern besteht, und der tatsächlich gemessenen stets kleineren
Masse des Atomkerns. Kerne haben wie Atome diskrete Energieniveaus.
Ein ungestörter Kern befindet sich normalerweise in seinem tiefsten Energieniveau, dem
Grundzustand. Die höheren Niveaus (angeregte Zustände) sind nicht stabil, sondern der Kern
geht früher oder später von dort in den Grundzustand über, wobei die Energiedifferenz als
Photon (Gammastrahlung) abgegeben wird. Die höheren Energieniveaus eines Atomkerns
können aber auch zu anregenden Resonanzen für bestimmte Kernreaktionen führen.
Kernfusionen:
Bei der Kernfusion muss zunächst die Coulomb-Barriere (elektrische Abstoßungskraft)
zwischen den positiv geladenen Kernen überwunden werden. Dazu sind Temperaturen und
Drucke erforderlich, wie sie normalerweise nur im Inneren von Sternen herrschen. Im Inneren
der Sonne trägt der quantenmechanische Tunneleffekt (s. Kap. 3) wohl häufig dazu bei, dass
diese Barriere überwunden werden kann. Beträgt der Abstand der beteiligten Kerne dann nur
noch 10−15 m, kann die starke Wechselwirkung die Kerne aneinander binden.
Grundsätzlich können Fusionsreaktionen exotherm (Energie liefernd) oder endotherm
(Energie verbrauchend) sein. Bei exotherme Fusionsreaktionen führt die Fusion zu einem
Massendefekt, d.h. es wird Masse in Energie, zum größten Teil in Strahlungsenergie,
umgewandelt, weil die Bindungsenergie des fusionierten Kerns höher ist, als die der beiden
Ausgangskerne zusammen. Da die Bindungsenergie pro Nukleon mit steigender Massenzahl
nur bis zur Bildung des Elementes Eisen (58Fe) zunimmt, kommt es im Sterninneren nur
solange zu Energie-liefernden Kernfusionen, bis dieses aus einem Eisenkern besteht. Wenn
ein Stern soweit ausgebrannt ist, dass er dem nach Innen gerichteten Gravitationsdruck nicht
mehr widerstehen kann, kommt es in gewissen Fällen zu einem abrupten Kollaps mit
explosiver Abspaltung der Sternenhülle (Supernova). Dabei treten so hohe Energien auf, dass
auch endotherme Fusionsreaktionen stattfinden können, und aufeinanderprallende Atomkerne
auch zu Elementen verschmelzen, die schwerer als Eisen sind.
Kernspaltungen und Radioaktivität:
Atomkerne sind nur solange stabil, solange solange die Kernladungszahl nicht zu hoch ist und
die Neutronenzahl nicht zu niedrig ist, denn nur dann kann die „Starke Kraft“ den Kern gegen
die elektrische Abstoßungskraft zusammenhalten. Radioaktive Atomkerne (Radionuklide)
sind im obigen Sinn instabil und zerfallen mit einer gewissen Radionuklid-spezifischen
Halbwertszeit in leichtere Kerne. Die Halbwertszeit (d.h. die Zeit bis 50% einer gegebenen
Ausgangsmenge zerfallen ist) kann Bruchteile von Sekunden oder Trillionen von Jahren
betragen. Radionuklide (wie z.B. Uran-, Caesium- oder Plutonium-Kerne) sind alle deutlich
schwerer als Eisen und haben daher eine geringere Bindungsenergie (d.h. einen geringeren
Massendefekt) als die Spaltprodukte. Die Reaktion ist daher exotherm, es wird Masse in
Energie umgewandelt. Die beim Umwandlungsprozess frei werdende Energie wird in der
Regel als α-, β- oder γ-Strahlung emittiert.
Beim α- und β- Zerfall ändert sich die Kernladungszahl des Ausgangskerns, es entsteht ein
neues Element. Die γ-Strahlung ist eine Begleiterscheinung des α- und β- Zerfalls, dabei wird
der Anregungszustand des veränderten Kerns unter Abstrahlung eines γ-Photons herabgesetzt.
Beim α-Zerfall spaltet der Ausgangskern einen Heliumkern („Alphateilchen“, bestehend aus
2 Protonen und 2 Neutronen) ab, entsprechend verringern sich Kernladungs- und Massenzahl
um 2 bzw. um 4. Für Alphastrahler erhöht sich dabei der Massendefekt (Bindungsenergie).
Die diesem Masseverlust entsprechende Energie wird in kinetische Energie der Zerfallskerne
umgesetzt. Dabei kann das Alphateilchen den Atomkern gegen die wirkende Starke Kraft nur
mittels des quantenmechanischen Tunneleffekt verlassen. Dessen Eintrittswahrscheinlichkeit
bestimmt die Halbwertszeit des Zerfalls.Typische in der Natur vorkommende Alphastrahler
sind Uran und Thorium sowie deren Zerfallsprodukte Radium und Radon.
Beim β-Zerfall wird ein Proton des Ausgangskern in ein Neutron umgewandelt oder
umgekehrt, dabei wird ein Positron respektive Elektron emittiert und die Kernladungszahl
ändert sich entsprechend um 1. Für den β- Zerfall ist die Schwache Wechselwirkung
verantwortlich. Dabei wird zwischen dem β-minus-Zerfall (ein Elektron wird ausgesendet)
und β-plus Zerfall (ein Positron wird ausgesendet) unterschieden:
β-minus :
Neutron ->
Proton + Elektron + Anti-Neutrino + Energie
β-plus :
Proton + Energie -> Neutron + Positron + Neutrino
Atomkerne sind dann stabil, wenn sie annähernd gleiche Anzahl von Protonen und Neutronen
haben, und insgesamt nicht zu viele. Atomkerne mit einem Neutronenüberschuss zerfallen
gemäß dem Beta-minus-Prozess, bei zu viel Protonen dagegen setzt der (seltenere) Beta-plusZerfall ein. Das Neutron ist etwas schwerer als das Proton.
Im Atomkern ist das Neutron im Normalfall stabil und trägt auch zur Stabilität des Atomkerns
durch die Starke Wechselwirkung insgesamt bei, da zwischen Neutronen untereinander und
zwischen Neutronen und Protonen keine elektrostatische Abstoßungskraft auftritt (s. Kap 8).
Auch freie Neutronen unterliegen dem Beta-minus-Zerfall (im Mittel nach 15 Minuten).
Freie Protonen sind stabil. Die Umwandlung Protonen in Neutronen gemäß β-plus erfordert
eine Energie von 1,3 MeV, was der Differenz der Ruheenergien von Proton und Neutron
entspricht. Entscheidende Bedeutung hat dies z.B. bei der Fusion von Wasserstoff zu Helium
in der Sonne, da dabei Protonen in Neutronen umgewandelt werden müssen. So entsteht aus
vier Protonen (den Wasserstoffkernen) über mehrere Zwischenschritte der stabile Heliumkern
mit zwei Protonen und zwei Neutronen. Aus diesem Prozess bezieht die Sonne ihre Energie.
Aufgrund der sehr kurzen Reichweite und relativen Schwäche der dafür verantwortlichen
schwachen Kraft läuft dieser Prozess so langsam ab, dass die Sonne schon seit vielen
Milliarden Jahren stabil leuchtet, und es voraussichtlich noch einmal so lange tun wird.
Der inverse β-minus-Zerfall (Proton + Elektron + Energie -> Neutron + Neutrino) kann bei
sehr hohem Gravitationsdruck im Inneren von Weißen Zwergen oder Neutronen-Sternen
stattfinden.
Das Periodensystem der Elemente (PSE)
Man unterscheidet 7 Perioden (Zeilen) entsprechend der Anzahl der Elektonenschalen im
Schalenmodell der Atomhülle. Die erste Periode enthält nur die Elemente Wasserstoff und
Helium mit einem bzw. zwei Elektronen auf der einzigen K-Schale. Die weiteren Perioden
enthalten jeweils 18 Spalten, davon 8 Hauptgruppen entsprechend der Anzahl von Elektronen
auf der jeweiligen Außenschale (Spalten 1,2, und 13-18 des PSE) und 10 Nebengruppen
(Spalten 3-12 des PSE). Die Nebengruppen besitzen jeweils ein oder zwei Außenelektronen,
die Unterschiede liegen in der darunter liegenden Schale. Die Elemente jeder Gruppe haben
ähnliche chemische Eigenschaften und von oben nach unten zunehmende Ordnungszahl.
Die Elemente der ersten 12 Gruppen (=Spalten) sind allesamt Metalle. Auch die Elemente der
Hauptgruppen III-VI zählt man bis auf die Elemente C, N, O, P und S zu den Metallen oder
Halbmetallen. Es gibt 94 natürliche Elemente, davon 80 stabile und 14 radioaktive.
Die Hauptgruppe I der Alkalimetalle beinhaltet 7 reaktive Leichtmetalle (d.h. geringe Dichte,
mit Messer schneidbar), die in ihrer Valenzschale ein einziges Elektron enthalten und daher
eine Neigung haben eine Ionenbindung einzugehen, bei der das Elektron abgegeben wird zur
Komplettierung der Außenschale eines anderen Elements. Sie enthält u.a. Lithium, Natrium
und Kalium. (Wasserstoff wird nicht dazu gezählt, obwohl gemäß Theorie bei riesigem Druck
„metallischer Wasserstoff“ entstehen kann). Die Alkalimetalle reagieren heftig (Abgabe von
Wärme) u.a. mit Wasserstoff (Bildung von Alkalimetallhydriden, z.B. NaH), Wasser (unter
Abgabe von Wasserstoff, z.B. Na2 + 2H2O > 2NaOH + H2), Sauerstoff (Bildung von Oxiden,
z.B. Na2O) und Halogenen (z.B. Natriumchorid Na+ Cl-). Die Halogene befinden sich in der
Hauptgruppe VII, sie enthalten u.a. Fluor, Chlor, Brom und Jod und kommen in der Natur vor
allem als einfach negativ geladene Anionen in Ionenbindung mit Alkalimetallen zu Salzen
vor. Sie reagieren auch mit Wasserstoff und bilden starke Säuren (z.B. HCl in wässriger
Lösung = Salzsäure). Die Hauptgruppe VIII enthält die äußerst reaktionsschwachen Edelgase.
Metalle, Halbmetalle, Nichtmetalle:
Zu den Metallen gehören die Elemente, die eine metallische Bindung zwischen gitterförmig
angeordneten Metallionen und im Gitter frei beweglichen Valenzelektronen realisieren. Die
Unterscheidung Schwermetalle zu Leichtmetallen erfolgt oft über die Dichte (>/< 5g cm³). In
der Kerntechnik versteht man unter Schwermetallen auch alle durch Neutronen spaltbaren
Nuklide. Edelmetalle sind besonders korrosionsbeständige Metalle (Gold, Silber, Platin). Der
Metallcharakter der Elemente im PSE nimmt von oben nach unten zu, von links nach rechts
ab, bezüglich der erforderlichen Ionisierungsenergie verhält es sich umgekehrt. Halbmetalle
(auch elementare Halbleiter, wie z.B. Silizium) stehen was elektrische Leitfähigkeit betrifft
zwischen Metallen und Nicht-Metallen.
Chemische Verbindungen:
Bei chemischen Bindungen unterscheidet man die Ionenbindung, die auf der elektrostatischen
Anziehung positiv und negativ geladener Ionen beruht (z.B. Na+ Cl-), von kovalenten
Bindungen, bei denen sich die Atome im Molekül die äußeren Elektronen teilen (z.B. H2O).
In Metallbindungen von Metallen und Legierungen, die auf der elektrostatischen Anziehung
zwischen Metallionen und im Gitter frei beweglichen Valenzelektronen beruht. Diese freien
und geteilten äußeren Elektronen transportieren Wärme und Elektrizität. Ferner gibt es einige
schwache Bindungen zwischen Molekülen, z.B. die sogenannte Wasserstoffbrückenbindung.
Diese spielt z.B. für Wasser und in Biomolekülen (z.B. DNA) eine wichtige Rolle. Die
elektrostatische Bindung erfolgt dabei zwischen einem kovalent gebunden Wasserstoffatom
und einem Atom höherer „Elektronegativität“ (z.B. Sauerstoff)
7. Das Standard Modell der Elementarteilchenphysik
Mit modernen Teilchenbeschleunigern konnten durch hoch-energetische Stoßprozesse bereits
ca. 200 verschiedene Elementarteilchen erzeugt werden, auch Antimaterie. Die meisten dieser
Elementarteilchen sind instabil, zerfallen nach kurzer Zeit wieder in stabile Elementarteilchen
und Energie. Auch Antimaterieteilchen zerstrahlen in kürzester Zeit durch Zusammenstoß mit
normaler Materie. Es ist eine der großen Entdeckungen der Physik, dass sich alles Geschehen
in der Welt, alle Formen der Masse-Energie, durch das Wirken sehr weniger Arten von
Teilchen bzw. Feldern erklären lässt.
Das sogenannte Standardmodell der Elementarteilchenphysik (SM) ist eine Theorie,
welche die fundamentalen Elementarteilchen und auch drei der vier elementaren KraftWechselwirkungen als Zusammenwirken von 12 nicht weiter teilbaren Materieteilchen
(Fermionen) und 5 verschiedenen „Kraftteilchen“ (Bosonen) beschreibt. Die drei vom
Standardmodell beschriebenen Wechselwirkungen sind die starke Wechselwirkung, die
schwache Wechselwirkung und die elektromagnetische Wechselwirkung.
Fermionen, die Bausteine der Materie
Materie-Teilchen des Standardmodells
Quarks
Leptonen
Generation 1
Generation 2
Generation 3
Up
Charm
Top
Down
Strange
Bottom
Elektron-Neutrino
Myon-Neutrino
Tauon-Neutrino
Elektron
Myon
Tauon
Die Materie besteht demnach aus 6 verschiedenen Quark-Teilchen, 3 verschiedenen
„Elektron“-Teilchen (Elektron, Myon und Tauon) sowie 3 verschiedenen Neutrino-Teilchen
(das Elektron-, Myon- und Tauon- Neutrino). Jeweils 2 Quark-Teilchen, 1 Elektron-Teilchen
und das zugehörige Neutrino-Teilchen bilden eine Generation von Elementarteilchen.
Äquivalente Teilchen verschiedener Generationen haben nahezu identische Eigenschaften, der
nennenswerteste Unterschied ist die mit der Nummer der Generation zunehmende Masse.
Unsere gewöhnliche Materie ist zusammengesetzt aus Teilchen der ersten Generation:
Proton und das Neutron bestehen jeweils einer bestimmten Zusammensetzung der beiden
Quarks der ersten Generation (up- und down-Quark), dazu kommt das Elektron und das
Elektron-Neutrino (oder kurz „Neutrino“), welches z.B. bei der Umwandlung von einem
Neutron in ein Proton beim radioaktiven Beta-Zerfall entsteht.
Die Teilchen der 2. und 3. Generation sind in der kosmischen Strahlung und bei künstlichen
Stoßprozessen nachweisbar. Sie sind nicht stabil und zerfallen in kürzester Zeit in Teilchen
der ersten Generation. Der Grund für ihre Existenz ist ungeklärt.
Kraftwirkung in der Quantenphysik:
Generell kann man sagen: eine Kraftwirkung entsteht zwischen zwei materiellen Körpern,
wenn diese eine „Ladung“ tragen, die mit dieser Kraft gekoppelt ist, z.B. ist die elektrische
Ladung gekoppelt mit der elektromagnetischen Kraft, die Masse mit der Schwerkraft. Jedes
Objekt mit einer solchen „Kraftladung“ ist von einem entsprechenden Kraftfeld umgeben.
Nach der Theorie der Quantenelektrodynamik kann auch eine ruhende Ladung Photonen
innerhalb der Grenzen der Heisenbergschen Unschärferelation (HUR) aussenden, also solange
∆E ∆t ~ = h; dadurch ist zwar der Energiesatz kurzzeitig verletzt, denn das Photon
transportiert ja Energie, dies ist jedoch für eine Zeitspanne ∆t ~ = h/ ∆E erlaubt.
Dieses „virtuelle Photon“ bewegt sich mit Lichtgeschwindigkeit bis in eine Entfernung
∆x= c ∆t, danach wird es von der Ladung wieder eingefangen oder es wird von einer anderen
Ladung absorbiert und überträgt so die elektromagnetische Kraftwirkung zur anderen Ladung.
Eine ruhende elektrische Ladung erzeugt ein elektrisches Feld durch virtuelle Photonen, eine
schwingende elektrische Ladung erzeugt ein schwingendes elektromagnetisches Feld, welches
auch als Strahl freilaufender Photonen aufgefasst werden kann. Auch diese können sich mit
elektrischer Ladung koppeln und so Kraft (Impuls) übertragen.
Dementsprechend geht man auch für die anderen Naturkräfte davon aus, dass die
Kraftwirkung jeweils durch spezifische virtuelle Kraftteilchen (auch Austauschteilchen,
Botenteilchen, Wechselwirkungsteilchen genannt) übertragen wird. Sie umschwirren die
Objekte entsprechender Kraftladung und werden zwischen Objekten gleicher Kraftladung
ständig ausgetauscht und übertragen so die Kraftwirkung. Auch diese virtuellen Teilchen
existieren nur innerhalb der Grenzen der HUR, also nur innerhalb von Zeiträumen ∆t, die
durch ∆E ∆t ~= h gegeben sind, wobei ∆E die Masse-Energie des virtuellen Teilchens ist.
Sie sind daher auch nicht direkt beobachtbar, sondern nur durch die vermittelte Kraftwirkung
nachweisbar. Wir können uns auch nicht anschaulich vorstellen, wie z.B. der ständige
Austausch virtueller Photonen zu einer abstoßenden bzw. anziehenden Kraft zwischen
gleichen bzw. ungleichen Ladungen wird.
Die Schwerkraft koppelt alle Teilchen, die Energie oder Masse tragen und wird durch
Gravitonen vermittelt. Die elektromagnetische Wechselwirkung koppelt Elementarteilchen,
welche eine elektrische Ladung tragen und wird durch Lichtteilchen (Photonen) vermittelt.
Die starke Kraft koppelt Elementarteilchen, die eine sogenannte „Farbladung“ tragen und
wird durch Gluonen vermittelt, die schwache Kraft koppelt Elementarteilchen, die die
sogenannte „schwache Ladung“ tragen und wird durch W- und Z-Bosonen vermittelt.
Bosonen: Wechselwirkungs-Teichen des Standardmodells
Wechselwirkung
Teilchen
Symbol Koppelnde Ladung
Elektromagnetische
Kraft
Photon
Schwache Kraft
Z-Boson
Starke Kraft
Elektrische Ladung
Z
W-Boson
Schwache Ladung
(Isospin)
W+, W-
Gluon
g
Farbladung
Das Standardmodell (der Elementarteilchenphysik) basiert auf den Quantenfeldtheorien der
oben genannten Kräfte, die Gravitation ist nicht Teil des Modells. Die von der Theorie
postulierten Austauschteilchen können als virtuelle Teilchen prinzipiell nicht beobachtet
sondern nur indirekt nachgewiesen werden. Als freilaufende Teilchen können sie auch
außerhalb der HUR existieren und sind als solche mit allen theoretisch vorhergesagten
Eigenschaften (bis auf das Graviton) auch experimentell nachgewiesen.
Als weiteres Boson des Standardmodells gilt das Higgs-Boson, das zunächst theoretisch
postuliert und erst in jüngster Zeit experimentell nachgewiesen wurde. Es ist als Anregung
eines das Universum gleichmäßig durchdringenden skalaren Higgs-Feldes zu verstehen.
Dieses vermittelt allerdings keine Kraftwirkung, sondern verleiht der Theorie zu Folge allen
Masse-behafteten Teilchen ihre Ruhemasse (s. unten, Ergänzungen).
Alle Materieteilchen haben eine Ruhemasse und unterliegen damit der Gravitation. Auch
Neutrinos haben eine sehr geringe Ruhemasse. Von den stabilen Elementarteilchen des Atoms
hat das Elektron die geringste Masse, Proton und Neutron sind ca. 2000 mal „schwerer“.
Alle Materieteilchen tragen eine schwache Ladung, unterliegen damit auch der schwachen
Kraft. Auf das Neutrino wirken nur diese beiden Kräfte. Auf Elektronen und Quarks wirkt
außerdem die elektromagnetische Kraft, d.h. sie tragen eine elektrische Ladung, die sie in
Atomen zusammenhält. Von den fundamentalen Materie-Teilchen tragen nur Quarks eine
Farbladung und unterliegen damit der starken Kraft.
Auch Kraftteilchen tragen zum Teil selbst eine koppelnde Ladung: alle Kraftteilchen tragen
Energie durch die Raumzeit und unterliegen damit der Gravitation. Photonen, Gluonen und
Gravitonen sind dabei aber masselos und bewegen sich daher mit Lichtgeschwindigkeit.
W- und Z-Bosonen dagegen haben eine große Ruhemasse (~ 100-fache Protonmasse) und
daher nur eine sehr kurze Reichweite. W-Bosonen haben auch eine positive oder negative
Elementarladung und unterliegen damit auch der elektromagnetischen Kraft. Gluonen
unterliegen selbst der Kraft, die sie vermitteln, denn sie tragen auch eine Farbladung und
wechselwirken miteinander. Durch die Eigen-Wechselwirkung der Gluonen untereinander hat
auch die Starke Kraft nur eine sehr kurze Reichweite.
Kraftteilchen (Bosonen) und Materieteilchen (Fermionen) unterscheiden sich
grundsätzlich durch eine Eigenschaft, die man den Spin nennt. Der Spin ist eine dem
Drehimpuls vergleichbare Eigenschaft aller Elementarteilchen. Er beschreibt die Rotation des
Teilchens um die eigene Achse. Seine exakte Bedeutung ergibt sich aus dem mathematischen
Regelwerk der Quantenmechanik. Der Spin von Fermionen hat den Wert ½ ħ , wobei ħ die
reduzierte Planck-Konstante ist. Der Zahlenfaktor s = ½ ist die Spinquantenzahl (kurz: Spin).
Fermionen grenzen sich dadurch ab von den Bosonen, die eine ganzzahlige Spinquantenzahl
(0,1,2 und entsprechende Spin-Werte 0 ħ , 1 ħ, 2 ħ ) besitzen. Während Photon, Gluon, Wund Z-Boson alle den Spin 1 haben, soll das Higgs-Boson den Spin 0 und das Graviton den
Spin 2 besitzen. Der Spin ½ bedeutet, dass der gleiche Zustand 2 Umdrehungen erfordert,
d.h. die quantenmechanische Wellenfunktion ändert nach einer Rotation um 360° das
Vorzeichen, nach einer Rotation um 720° ist der Ausgangszustand wieder hergestellt.
Der ganzzahlige Spin 0 bedeutet Rotationsinvarianz, für den Spin 1 ist eine, für Spin 2 ist ½
Umdrehung erforderlich sind um den Ausgangszustand wieder herzustellen. Die sogenannte
magnetische Spinquantenzahl beschreibt die Orientierung der Drehung (im UZS, gegen UZS)
des Spins und kann daher jeweils auch den negativen Wert der Spinquantenzahl annehmen.
Die Spin-Quantenzahl ½ für alle Fermionen ist entscheidend dafür, dass diese dem
berühmten Pauli'schen Ausschlussprinzip unterliegen. (s. Kap. 8).
Antimaterie besteht aus nahezu den gleichen Elementarteilchen wie normale Materie, mit
dem Unterschied, dass bei den jeweiligen Anti-Teilchen gewisse physikalische Größen
(Quantenzahlen), wie z.B. elektrische Ladung, Farbladung und schwache Ladung, entgegen
gesetzte Werte annehmen. Das „Anti-Elektron“ ist z.B. positiv geladen und heißt Positron,
das Anti-Proton hat entsprechend eine negative Ladung. Anti-Materie hat in unserer Welt der
normalen Materie keinen Bestand, da sich Teilchen und Anti-Teilchen bei Zusammenstoß
gegenseitig vernichten. (Umwandlung von Masse in Energie). Anti-Materie ist von Paul Dirac
theoretisch vorausgesagt, und erst später experimentell bewiesen worden. Der Grund für die
Asymmetrie zwischen Materie und Antimaterie im Universum ist ungeklärt. Man vermutet,
dass bei der Entstehung der Elementarteilchen nach dem Urknall physikalische Prozesse eine
Rolle gespielt haben, die sich bzgl. Raumspiegelung und Ladungsumkehr unsymmetrisch
verhalten („CP-Verletzung“), so dass sich mehr Materie als Antimaterie gebildet hat und bei
der nachfolgenden gegenseitigen Vernichtung dann nur Materie übrig geblieben ist.
Das Standardmodell der Teilchenphysik (SM) – Ergänzungen:
(1) Das sogenannte Standardmodell der Teilchenphysik wurde seid etwa 1970 entwickelt.
Es fasst die wesentlichen Erkenntnisse der Teilchenphysik nach heutigem Stand zusammen.
Es beschreibt alle bekannten Elementarteilchen und die wichtigen Wechselwirkungen
zwischen ihnen. Nur die (relativ sehr schwache) Gravitation wird nicht berücksichtigt.
In theoretischer Hinsicht ist es eine Quantenfeldtheorie. Ihre fundamentalen Objekte sind
Felder der Raumzeit (Feldtheorie), die nur in diskreten Energiepaketen verändert werden
(Quantentheorie). Die diskreten Pakete entsprechen in einer passenden Darstellung den
beobachteten Teilchen (Fermionen und Bosonen). Sie ist kompatibel mit den Gesetzen der
speziellen Relativitätstheorie und setzt sich aus 3 Teiltheorien zusammen:
der Quantenelektrodynamik, deren Erweiterung zur Theorie der elektroschwachen
Wechselwirkung und der Quantenchromodynamik (QCD) .
(2) Die Quantenchromodynamik ist die Quantenfeldtheorie der starken Wechselwirkung.
Sie stellt die Wechselwirkung zwischen zwei Quarks durch den Austausch eines Gluons dar.
Quarks tragen eine sogenannte Farbladung, die im Unterschied zur elektrischen Ladung in
drei Varianten auftritt (bezeichnet mit rot, grün, blau bzw. anti-rot, anti-grün und anti-blau für
Anti-Quarks). Außerdem tragen Quarks die elektrische Ladung -1/3 oder +2/3. Auch Gluonen
tragen Farbladungen ( i.d.R. eine Farbe und Antifarbe) und wechselwirken daher miteinander.
Ja nach Farbkombination unterscheidet man 8 verschiedene Gluonen. (Das Gluon mit der
Kombination „blau, anti-rot“ kann z.B. mit einem roten Quark reagieren und dessen Farbe in
blau ändern.).
Confinement: Quarks treten nie singulär auf, sondern nur als 3'er Gruppen von Quarks
(Baryonen oder Anti-Baryonen), oder 2'er Gruppen (Mesonen, bestehend aus einem Quark
und Anti-Quark); die gemeinsame Obergruppe nennt man Hadronen. Der Zusammenschluss
hat immer so zu erfolgen, dass sich in Summe die elektrische Ladung 0,1 oder -1 ergibt, sowie
die Summen-Farbladung „null“ (z.B. blau +grün + rot oder blau+anti-blau). Mesonen und die
meisten Baryonen sind instabil. Protonen und Neutronen der normalen Materie bestehen
jeweils aus 3 Quarks der 1. Generation (Proton = uud= up-up-down, Neutron =udd).
Die starke Kraft bindet nicht nur Quarks zu Hadronen zusammen, sondern vermittelt auch die
sogenannte starke Rest-Wechselwirkung zwischen diesen, welche den Atomkern zusammen
hält. Bei einem Abstand von etwa 2,5 x 10-15 m ist die Anziehung durch diese starke Rest-WW
vergleichbar stark wie die elektrostatische Abstoßung zwischen Protonen. Jenseits dieses
Abstandes nimmt sie dagegen sehr steil ab, während die Coulombkraft nur proportional zu
1/r2 abnimmt. Dieses Zusammenspiel der beiden Grundkräfte erklärt den Zusammenhalt der
Atomkerne, aber auch z.B. den Prozess der Spaltung schwerer Kerne.
(3) Die schwache Wechselwirkung wirkt zwischen allen Teilchen vom Typ Lepton und
Quark, wobei sie als einzige der Wechselwirkungen Umwandlungen zwischen Leptonen (z.B.
Elektron in Neutrino, Neutrino-Oszillationen) oder auch zwischen Quarks (z.B. up-Quark in
down-Quark) bewirken kann. Sie ist die einzig bekannte Naturkraft, die Prozesse erlaubt, die
bzgl. Raumspiegelung oder Zeitumkehr nicht symmetrisch sind. Ihre Austauschteilchen W+,
W− und Z-Boson haben eine kurze Lebensdauer (~ 10-25 s), eine große Masse und daher eine
sehr kurze Reichweite. Sie wirken meist als virtuelles Teilchen und können dadurch auch in
Prozessen auftreten, die nicht die nötige Energie für ihre Erzeugung als reale Bosonen haben.
W-Bosonen bewirken Teilchenumwandlungen (z.B. Beta-Zerfall), Z-Bosonen vermitteln WW
zwischen Neutrinos und Materie (z.B. Übertragung von Energie).
(4) Die Quantenfeld-theoretische Beschreibung der schwachen Wechselwirkung beruht auf
der Zusammenfassung mit der elektromagnetischen zur elektroschwachen Wechselwirkung,
die ein Grundpfeiler des Standardmodells ist Im Zusammenhang mit der Erklärung der Masse
dieser Austauschteilchen wurde das Higgs-Boson postuliert.
Die für das Standardmodell grundlegende Eichtheorie erfordert aus mathematischen
Gründen, dass Wechselwirkungsteilchen zunächst keine Masse haben. Bei Entwicklung der
Theorie der elektroschwachen WW wurden 4 masselose Bosonen als Botenteilchen postuliert.
Diese elektroschwache Kraft sollte aber unterhalb einer kritischen Temperatur (des frühen
Universums) durch eine „spontane Symmetriebrechung“ in die elektromagnetische und die
schwache Wechselwirkung zerfallen, ihre Bosonen dabei durch eine Transformation in je ein
Photon, W+,W- und Z-Boson übergehen. Z- und W-Bosonen erhalten dabei eine Masse, die
W-Bosonen auch eine elektrische Elementarladung. Masse-behaftete Bosonen können in der
Quantenfeldtheorie nur mit Hilfe eines Skalarfeldes beschrieben werden, das ihnen Masse
verleiht. In der elektroschwachen Theorie ist dieses Feld das bereits 1964 postulierte HiggsFeld, welches im ganzen Universum allgegenwärtig sein soll. Dieses wechselwirkt (gemäß
Theorie) in solcher Weise mit W- und Z-Bosonen, aber auch mit allen Fermionen (Quarks
und Leptonen), dass alle diese Teilchen dadurch Masse erhalten („Higgs-Mechanismus“).
Während das Higgs-Feld nicht direkt messbar ist, muss bei seiner Existenz ein weiteres
Elementarteilchen auftreten, das „Higgs-Boson“. Es ist massiv, elektrisch neutral, hat Spin 0
und zerfällt nach sehr kurzer Zeit. Higgs-Bosonen sind dabei als elementare Anregungen des
Higgs-Felds zu verstehen, die sich als nachweisbares Teilchen bemerkbar machen, analog
einer Gitarrensaite (schwingungsfähiges System), die aus dem Grundzustand zu (diskreten)
Vibrations-Niveaus (Tönen) angeregt werden kann. Genau dieses „In-Schwingung-Bringen
der Saite“ geschieht aufgrund der erforderlichen sehr hohen Energien erst bei Kollisionen in
Hochenergie-Teilchenbeschleunigern.
(5) Der Massebegriff im Licht des SM: Die Ruhemasse der Elementarteilchen, eine früher
als ursprünglich angesehene Eigenschaft, wird somit als Folge einer Wechselwirkung
gedeutet. Dieser Theorie zufolge, ist der Kosmos gleichförmig von einem Higgs-Feld
durchdrungen. Dieses ist dafür verantwortlich, dass Elementarteilchen eine Masse haben
können, weil sie in unterschiedlicher Weise mit dem Higgs-Feld wechselwirken (Austausch
virtueller Higgs-Teilchen) und daher bei Beschleunigung oder Bewegungsänderungen einen
Widerstand erfahren. Es hat überall die gleiche Stärke und ist im Gegensatz zu elektrischen
oder magnetischen Feldern ein Skalarfeld, also richtungslos. Deshalb haben Teilchen
derselben Sorte immer die gleiche Ruhemasse, unabhängig von ihrem Ort und der Richtung
ihrer Bewegung. Die so entstandenen Massenwerte aller Elementarteilchen tragen aber zur
Masse der normalen Materie, also der Masse der Atome, nur ca. 1% bei, denn diese beruht
wegen der Äquivalenz von Masse und Energie auch auf sämtlichen Wechselwirkungen ihrer
Bestandteile. Zu über 99% steckt die Atommasse im Atomkern, dessen Masse wiederum zu
etwa 99% aus der durch Gluonen vermittelten starken Bindung zwischen den Quarks in
seinen Nukleonen sowie der Bewegungsenergie dieser Quarks resultiert (Ruhemasse des
Protons 940 MeV/c2, Summenmasse seiner Quarks ~ 10 MeV/c2).
(6) Experimentelle Nachweise und Grenzen:
Die Vereinheitlichung der elektromagnetischen mit der schwachen Wechselwirkung wurde
1967 von Sheldon Glashow, Abdus Salam und Steven Weinberg theoretisch beschrieben
(GWS-Theorie). Experimentell wurde die Theorie erst 1973 indirekt durch bestimmte
vorausgesagte Umwandlungsprozesse unter Mitwirkung des Z-Bosons und 1983 direkt durch
den Nachweis der W± und Z-Bosonen als freie Teilchen bestätigt. Der Nachweis von HiggsBosonen ist erst kürzlich gelungen. Neben grundsätzlicher Kritik am Standardmodell gibt es
auch noch viele ungeklärte Einzelfragen (siehe Kap. 10).
8. Das Pauli-Prinzip
In der klassischen Physik kann man gleichartige Teilchen in einem Gemisch prinzipiell in
dem Sinn unterscheiden, dass man ihre genauen Bewegungsgrößen misst und ihre Bahnen
durch Berechnung von Stoßprozessen voraus berechnet oder zurück verfolgt.
In der Quantenmechanik ist dies wegen der Heisenbergschen Unschärferelation aber
prinzipiell nicht möglich. Die Wellenfunktionen solch nicht unterscheidbarer Teilchen eines
Quantensystems beeinflussen sich jedoch, sie überlagern sich zu einer Gesamtwellenfunktion,
so wie sich auch mehrere ineinander laufende Wasserwellen zu einer Gesamtwelle überlagern
können. Auch diese Gesamtwellenfunktion kann als Wahrscheinlichkeitsfunktion für den Ort
der Teilchen interpretiert werden.
Von einer Ansammlung elementarer Teilchen kann man erwarten, dass sich physikalisch
nichts ändern würde, wenn man zwei gleichartige Teilchen vertauscht. Insbesondere muss das
Betragsquadrat ihrer Gesamtwellenfunktion (als Maß für die Aufenthaltswahrscheinlichkeit
der Teilchen) gegenüber der Vertauschung invariant sein. Daraus folgt, dass die
Gesamtwellenfunktion bei Vertauschen zweier Teilchen höchstens das Vorzeichen wechseln
darf, also symmetrisch oder antisymmetrisch (nur Vorzeichenwechsel) sein muss.
Experimentell hat man ermittelt, dass es in der Tat 2 Klassen von Elementarteilchen gibt, die
sich genau dadurch unterscheiden: für Bosonen bleibt die Gesamtwellenfunktion bei
Vertauschung zweier Teilchen gleich, für Fermionen ändert sich deren Vorzeichen. Dies
hängt mit dem Spin (½ oder ganzzahlig) der Elementarteilchen zusammen. Das sogenannte
Spin-Statistik-Theorem liefert dafür auch eine theoretische Begründung.
Zu den Fermionen (mit Spin 1/2) gehören alle Teilchen, aus denen sich die Materie aufbaut,
also sowohl die Quarks und die daraus zusammen gesetzten Kernbausteine (Proton, Neutron)
als auch die Leptonen (Elektron, Neutrino). Zu den Bosonen (ganzzahliger Spin) gehören alle
Botenteilchen der Naturkräfte, also z.B. Photonen, Gluonen, Gravitonen (siehe Kap. 7).
Eine wichtige Konsequenz aus dem Vorzeichenwechsel der Gesamtwellenfunktion beim
Vertauschen von Fermionen in einem Quantensystem ist die als „Pauli Prinzip (PP) oder
Pauli'sches Ausschlussprinzip“ bekannte Regel, dass Elektronen oder andere Fermionen
nicht gleichzeitig einen identischen Quantenzustand am gleichen Ort annehmen können, d.h.
sie können innerhalb der Grenzen der HUR z.B. nicht zu gleicher Zeit den gleichen Ort und
den gleichen Impuls haben. Dies erklärt, warum Materieteilchen unter dem Einfluss der
Naturkräfte nicht zu einem Zustand sehr hoher Dichte kollabieren können: befinden sich zwei
Teilchen für einen Moment in annähernd gleicher Position, so führt der dann notwendige
unterschiedliche Impuls dazu, dass sich die Teilchen sofort wieder auseinander bewegen.
Diese gegenseitige "Abstoßung" der Fermionen gibt der Materie ihre Ausdehnung und
Festigkeit. Auf die Elektronen in einem Atom angewendet erklärt das Pauli-Prinzip, dass
nicht alle Elektronen in den gleichen Grundzustand fallen können, sondern paarweise die
verschiedenen Orbitale (Schalen) eines Atoms auffüllen. Erst durch diese Eigenschaft erklärt
sich der systematische Aufbau des Periodensystems der chemischen Elemente.
Aufgrund des Pauli-Prinzips gilt, dass in einem Atom keine zwei Elektronen in allen
Quantenzahlen, die zu seiner Zustandsbeschreibung im Atommodell notwendig sind,
übereinstimmen dürfen. Diese Quantenzahlen des Elektrons sind sein Spin und eine Reihe
weiterer Quantenzahlen, die das Orbital („die Bahn , die Schale“) des Elektrons im Atom
definieren. Daher kann ein Orbital nur jeweils zwei Elektronen aufnehmen, die sich in ihrer
magnetischen Spinquantenzahl unterscheiden, welche nur die Werte +1/2 und -1/2 annehmen
kann.
Herleitung des PP aus der Asymmetrie der Wellenfunktion für Fermionen:
Betrachtet man (ohne Beschränkung der Allgemeinheit) ein System aus nur zwei nicht
unterscheidbaren Fermionen, so gilt wegen der Antisymmetrie der Gesamtwellenfunktion für
Fermionen bei Vertauschung der Teilchen (mit den Ortsvektoren r1, r2 und den Spins s1,s2):
ψ (r1,s1; r2,s2) = - ψ (r2,s2; r1,s1); Für ( r1,s1)= (r2,s2) ergibt sich daraus
ψ (r1,s1 ; r1,s1) = - ψ (r1,s1 ; r1,s1), d.h.
ψ (r1,s1 ; r1,s1) = 0.
Die Wahrscheinlichkeit dafür, dass man bei einer Messung beide Fermionen am selben Ort r1
mit selbem Spin s1 findet, ist also Null.
Ausgangspunkt für das Pauli-Prinzp (PP) ist also die Tatsache, dass identische Teilchen in der
Quantenmechanik ununterscheidbar sind. Dies impliziert, dass die Wellenfunktion sich bei
Vertauschung von solchen identischen Teilchen nur symmetrisch oder antisymmetrisch
ändern kann, also das Betragsquadrat der WF gleich bleibt. Das Ausschlussprinzip für
Fermionen ergibt sich aus der Antisymmetrie der Änderung. Für Bosonen gilt das PP nicht.
Beliebig viele Bosonen können sich im gleichen quantenmechanischen Zustand befinden.
Dass Bosonen im gleichen Zustand sein können ermöglicht Kraftfeldern (z.B. Lichtstrahlen)
sich problemlos durchdringen. Dies gilt nicht für Materieteilchen.
Da die Austauschteilchen der Naturkräfte nicht dem PP unterliegen, können sie auch
gleichzeitig in nahezu unbegrenzter Zahl ausgetauscht werden und so eine starke Kraft
hervorrufen. (Gluonen streuen allerdings stark aneinander, da sie selbst Farbladung besitzen
und miteinander interagieren).
Neutronen- und Kern-Stabilität: Das Pauli-Prinzip ist auch dafür verantwortlich, dass
Neutronen im Atomkern im Gegensatz zu freien Neutronen normalerweise stabil sind. Es gibt
für sie im Kern kein niedrigeres Kern-Energieniveau um zu Protonen zerfallen zu können.
(In Kernen müssen Neutronen und Protonen auf Grund des PP jeweils eine Stufenleiter
zunehmender Energie-Niveaus besetzen. Gibt es mehr Neutronen als Protonen lohnt sich
irgendwann der beta-Zerfall eines Neutrons, da der Kern damit ein niedrigeres und damit
stabileres Energieniveau erreicht. Gegenläufiger Effekt: viele Neutronen im Kern vergrößern
den mittleren Abstand von Protonen und verringern damit deren elektrostatische Abstoßung.)
Brian Greene: „Alle Teilchen, Kraft- und Materieteilchen, werden als Anregungen eines
zugrunde liegenden Feldes gesehen. Dass sich Materiefelder (z.B. ein Elektronenfeld) nicht
makroskopisch wie ein klassisches Feld manifestiert, liegt am Pauli-Prinzip. Materieteilchen
der gleichen Art können sich nicht durchdringen.“
Das PP für Fermionen (Materieteilchen) ist also auch dafür verantwortlich, dass man nicht
einfach durch eine geschlossene Tür hindurchgehen kann.
Entartungsdruck: Sterne werden über einen Großteil ihres Lebenszyklus durch den
Strahlungsdruck und Gasdruck im Gleichgewicht gehalten, die ihre Energie aus den
Kernfusionsprozessen im Inneren der Sterne beziehen. Wenn der Kernbrennstoff verbraucht
ist verdichten sich die Sterne weiter zu sogenannter entarteter Materie. Bei dieser ist die
Atomstruktur der Materie aufgelöst, die Elektronen rücken so nahe zusammen, dass eine Art
Elektronenflüssigkeit entsteht, oder sie werden sogar in die Atomkerne „hinein gedrückt“ und
verschmelzen mit den Protonen des Kerns (inverser β-minus-Zerfall, s. Kap. 6) zu
Neutronen. Wenn die Sternmasse nicht zu groß ist, kann aber auch dann dem gravitativen Sog
in das Zentrum durch den sogenanntem Entartungsdruck widerstanden werden. Dieser hat
seine Ursache im Pauli-Prinzip, das verbietet, dass zwei Fermionen (in diesem Fall die
Elektronen oder Neutronen der entarteten Materie) einen identischen Quantenzustand
annehmen können.
9. Philosophische Aspekte der Quantentheorie
Die klassische Physik ist anschaulich, wir können uns die von ihr beschriebenen Prozesse
vorstellen. Die klassische Physik ist außerdem realistisch und objektivierbar, denn man geht
allgemein davon aus, dass die messbaren physikalischen Größen Teil der Realität sind, und
jede Messung intersubjektiv überprüfbar ist und etwas über die Realität in Erfahrung bringt.
Zwar stört auch in der klassischen Mechanik jede Messung unweigerlich das gemessene
System, jedoch lässt sich die Störung beliebig klein machen, so dass es sinnvoll ist,
idealisierend von störungsfreien Messungen auszugehen. Insbesondere geht man davon aus,
dass die Messwerte auch unabhängig von unserer Beobachtung vorliegen und feststehen.
Schließlich ist die klassische Physik auch deterministisch, den für jedes klassische System mit
bekanntem Anfangszustand t0 lassen sich die Gesetzmäßigkeiten oder Regeln angeben, nach
denen der Folgezustand des Systems zum Zeitpunkt t1 zumindest prinzipiell berechenbar ist.
In der Quantenphysik ist dies alles anders. Zunächst ist die Anschaulichkeit nicht mehr
gegeben. Quanten-physikalische Phänomene wie der Welle-Teilchen-Dualismus, nicht-lokale
Quanten-Verschränkungen oder die Kraftübermittlung durch virtuelle Bosonen sind
anschaulich nicht vorstellbar. Ferner sind störungsfreie Messungen in der Quantenmechanik
prinzipiell nicht möglich. Darüber hinaus stellt sich auch die Frage, ob die Messwerte ohne
und unabhängig von unserer Beobachtung überhaupt reale Eigenschaften des Quantenobjekts
darstellen, ob es überhaupt sinnvoll ist, einem unbeobachteten System Eigenschaften
zuzuschreiben, oder ob nicht vielmehr die beobachteten Eigenschaften überhaupt erst durch
die Beobachtung entstehen? Die Quantentheorie und diese Deutungen sind von erheblicher
Relevanz für das naturwissenschaftliche Weltbild und die Philosophie.
Kern dieser Fragestellung ist die Interpretation der Wellenfunktion.
Die Kopenhagener Deutung der Quantenmechanik (QM):
Die Kopenhagen Deutung ist eine Interpretation der Quantenmechanik. Sie wurde um 1927
von Nils Bohr und Werner Heisenberg während ihrer Zusammenarbeit in Kopenhagen
formuliert und basiert auf der Wahrscheinlichkeitsinterpretation der Wellenfunktion (WF).
Gemäß dieser Interpretation ist der Wahrscheinlichkeitscharakter quantentheoretischer
Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell
nicht-deterministischen Charakters von Naturvorgängen. Kernaussagen dieser Deutung sind:
Die QM ist nicht-realistisch, d.h. eine Messung liest nicht nur Eigenschaften ab, die auch
ohne die Messung vorliegen. Es gibt keine verborgenen Parameter wie z.B. reale, nur unserer
Kenntnis prinzipiell entzogene Teilchenbahnen. Impuls und Ort sind unterhalb gewisser
Grenzen, die durch die HUR gegeben sind, nicht definiert. Teilchenbahnen sind daher keine
reale Eigenschaft von Quantenobjekten.
Die QM ist nicht-deterministisch. Selbst wenn der Anfangszustand eines Quantensystems
genau bekannt wäre, ließe sich keine Gesetzmäßigkeit oder Regel angeben, nach der ein
Folgezustand prinzipiell genau berechenbar wäre. Vor einer Messung lassen sich nur
Wahrscheinlichkeiten angeben, sind nur stochastische Vorhersagen möglich; erst durch die
Messung erfolgt der Übergang vom Möglichen zum Faktischen.
Die Wellenfunktion ist nur ein Instrument, ein mathematisches Werkzeug zur Voraussage
der Erwartungswerte von Messergebnissen (Bohr), sie ist die Verkörperung dessen, was wir
über ein Quantensystem vor einem Messakt wissen können (Heisenberg). Sie hat keine
Realität im unmittelbaren Sinne, denn nur Messergebnisse werden als Elemente der Realität
angesehen. Demnach hat es gar keinen Sinn davon zu sprechen, welchen Zustand
beispielsweise ein Elektron hat, solange man es nicht beobachtet. Erst durch den Messakt
erfolgt der Übergang vom Möglichen zum Faktischen. Dabei nimmt die Wellenfunktion für
alle nicht gemessenen Möglichkeiten instantan den Wert 0 an.
Dieser Kollaps der Wellenfunktion lässt sich jedoch nicht aus der Schrödingergleichung
ableiten. Er ist ein zusätzliches Postulat um erklären zu können, was in Experimenten
tatsächlich sichtbar wird. Er ist – nach Heisenberg - nichts anderes, als die durch die Messung
bewirkte plötzliche Veränderung unseres Wissens: „Die Beobachtung selbst ändert die
Wahrscheinlichkeitsfunktion unstetig. Sie wählt von allen möglichen Vorgängen den aus, der
tatsächlich stattgefunden hat. Wenn wir beschreiben wollen, was in einem Atomvorgang
geschieht, müssen wir davon ausgehen, dass das Wort „geschieht“ sich nur auf die
Beobachtung beziehen kann, nicht auf die Situation zwischen zwei Beobachtungen.“
Das Grundkonzept der Kopenhagener Deutung baut ferner auf folgenden Prinzipien auf:
Korrespondenzprinzip: Dieses von Nils Bohr definierte Prinzip soll allgemein für jede
physikalische Theorie gelten, die den Anwendungsbereich einer älteren Theorie erweitert.
Es ist erfüllt, wenn die neuere Theorie auf dem Gültigkeitsbereich der älteren zu denselben
Ergebnissen kommt wie diese.
Unverzichtbarkeit klassischer Begriffe: Diese werden in ihrer üblichen Bedeutung auch in
der Quantenwelt benutzt, sie erhalten allerdings Vorschriften über ihre Anwendbarkeit. Das
sind z.B. die Definitionsgrenzen von Ort und Impuls, unterhalb diese Begriffe keinen Sinn
mehr ergeben, also undefiniert sind. Klassische Begriffe und die vorausgesetzte Gültigkeit
des Kausalitätsprinzips der Natur (s. unten) sind schon allein deshalb notwendig, um
quantenphysikalische Messungen durchführen und aus diesen zuverlässige Schlüsse auf die
Eigenschaften des Messobjekts ziehen zu können.
Kausalitätsprinzip und Determinismus:
Kausalitätsprinzip nach Kant: alle Veränderungen geschehen nach dem Gesetz der der
Verknüpfung von Ursache und Wirkung. Im Sprachgebrauch der Physik könnte man das
allgemeiner so definieren: Zwischen 2 Zuständen eines physikalischen Systems zu 2
Zeitpunkten t1 und t2 besteht eine kausale Verknüpfung, wenn es Gesetzmäßigkeiten gibt,
welche die beiden Zustände so miteinander verknüpfen, dass der frühere Zustand den späteren
bedingt. In der klassischen Physik und auch in der modernen geht man von der Vorstellung
aus, dass alles Naturgeschehen dem Kausalitätsprinzip genügt. Dies ist allerdings eine
metaphysische Aussage, die nicht impliziert, dass man diese Gesetzmäßigkeit erkennen oder
gar beschreiben können muss.
Determinismus bedeutet dagegen, dass eine raumzeitliche Beschreibung der Entwicklung
eines Systems aus einem bekannten Anfangszustand zumindest prinzipiell möglich ist.
Determinismus in diesem Sinn setzt Kausalität voraus und erfordert eine Subjekt-ObjektBeziehung. Aus der nicht-deterministischen QM gemäß Kopenhagener Deutung folgt aber
nicht, dass die Natur sich akausal verhält. Wenn in der QM vom Zufall die Rede ist, meinen
die meisten Physiker nicht den objektiven Zufall (also ein Ereignis, dass keine Ursache hat),
sondern dass wir über eine Ursache prinzipiell nichts wissen können.
Kausalordnung und Relativitätstheorie: Aus der speziellen Relativitätstheorie (SRT) folgt,
dass sich kein Signal schneller als mit Lichtgeschwindigkeit ausbreiten kann. Dies bedeutet,
dass sich 2 Ereignisse in der Raumzeit nur dann kausal beeinflussen können, wenn sie durch
einen Lichtstrahl (oder ein unterlichtschnelles Signal) verbunden werden können. Diese
„Signal-Lokalität“ ist notwendig (und hinreichend) dafür, dass für jeden Beobachter einer
Ursache-Wirkung-Beziehung, unabhängig vom gewählten Bezugssystem, die Wirkung
zeitlich nach der Ursache erfolgt. Die durch die SRT implizierte Kausalordnung auf den
Ereignissen der Raumzeit ist eine partielle Ordnung. Für ein Ereignis liegt die Ursachenkette
im Vergangenheitslichtkegel, die Wirkungskette im Zukunftslichtkegel des Ereignisses.
Obwohl die Quantenmechanik eine nicht-lokale Theorie ist (siehe Kap. 3), und nach der
Kopenhagener Deutung auch nicht-deterministisch, erfüllt sie die Forderung der SignalLokalität und verletzt daher diese Kausalordnung nicht.
Die Bohmsche Mechanik (auch de-Broglie-Bohm-Theorie):
Ein erster grundsätzlicher Einwand gegen die Kopenhagener Deutung der QM richtet sich
gegen deren nicht-realistische (d.h. auf einen Objektivierbarkeitsanspruch verzichtende) und
nicht-deterministische Interpretation. Einstein war zeitlebens ein Hauptvertreter dieser Kritik.
Bekannt in diesem Zusammenhang sind seine Aussprüche „Gott würfelt nicht“ und „der
Mond ist auch da, wenn wir ihn nicht beobachten“. Für Einstein war die QM in diesem Sinn
eine unvollständige Theorie. Werner Heisenberg konzedierte zumindest, dass der Verzicht auf
eine realistische Interpretation der quantenphysikalischen Phänomene auf unserer
prinzipiellen Unfähigkeit beruhen, hinter den Schleier der Unschärferelation messend
vorzudringen. Aus dieser Grundsatzkritik heraus entstand die Bohmsche Mechanik.
Die Grundidee dieser Theorie besteht darin, ein Quantensystem nicht nur durch die sich als
Lösung der Schrödingergleichung ergebende Wellenfunktion ψ zu beschreiben, sondern
zusätzlich durch die Orte Qi der Quantenteilchen, wobei sich diese Orte differentiell aus der
Wellenfunktion ableiten lassen. Die Wellenfunktion erhält somit eine reale Bedeutung als
Führungswelle der Quantenteilchen. Die Teilchen selbst bewegen sich auf kontinuierlichen
(und deterministischen) Bahnen. Dies erklärt auch Interferenz-Erscheinungen, etwa beim
Doppelspalt-Versuch. Dort laufen die Teilchen tatsächlich jeweils nur durch einen Spalt, aber
eben nicht auf den klassischen Bahnen gemäß Newtons Gesetzen – bloß die Führungswelle
passiert beide Spalte. Dem Wahrscheinlichkeitscharakter der Wellenfunktion wird durch eine
sogenannte „Quantengleichgewichtshypothese“ Rechnung getragen, wonach die
Ortsverteilung der Quantenteilchen durch |ψ |2 gegeben ist. Aufgrund dieser Hypothese wird
auch die Heisenbergsche Unschärferelation nicht verletzt.
Im Unterschied zur üblichen Quantenmechanik sind die Wahrscheinlichkeitsaussagen der
Bohmschen Mechanik jedoch lediglich unserer prinzipiellen Unkenntnis der konkreten
Anfangsbedingungen geschuldet. Diesbezüglich kann man immer nur von der unscharfen
Quantengleichgewichtsverteilung ausgehen. Nur aus diesem Grund entziehen sich auch die
real existierenden Teilchenbahnen (als sogenannte „verborgene Parameter“) prinzipiell
unserer Kenntnis. Deshalb ist die Bohmsche Mechanik eine realistische und deterministische
Theorie. Sie kommt ohne das Postulat eines Kollaps der Wellenfunktion aus, ein Messresultat
entspricht immer einem Teilchenort auf einer kontinuierlichen, durch die Wellenfunktion
bestimmten Bahn. Als realistische Quantentheorie kann sie gemäß der Bellschen Ungleichung
nur nicht-lokal sein (s. Kap. 3). Räumlich getrennte Objekte eines Quantensystems können
sich durch ihre gemeinsame reale Wellenfunktion instantan beeinflussen, was einerseits das
Phänomen nicht-lokaler Korrelationen verschränkter Teilchen erklärt, andrerseits darüber
hinaus aber auch nicht-lokale Wechselwirkungen erlaubt. Damit wird die Führungswelle zu
einer Art „Fernwirkungsfeld“, was einige Ansatzpunkte für Kritik liefert. Die Signal-Lokalität
und damit die Relativitätstheorie werden aber auch in der Bohmschen Mechanik respektiert.
Die Theorie reproduziert alle Vorhersagen der (nicht-relativistischen) Quantenmechanik.
Allerdings sind relativistische und Quantenfeld-theoretische Erweiterungen dieser Theorie
bisher nur in Ansätzen entwickelt.
Das Messproblem der Quantenmechanik (QM):
Andere Deutungen und Modelle der Quantenmechanik zielen vor allem darauf ab, den in der
Kopenhagener Deutung postulierten Kollaps der Wellenfunktion beim Messakt zu begründen
oder zu vermeiden. Die Wellenfunktion selbst verkörpert dort die Idee einer Überlagerung
vieler möglicher Zustände eines Quantensystems vor einer Messung. Dennoch wird am
(prinzipiell auch quantenmechanisch beschreibbaren) Messgerät in der Praxis immer ein
eindeutiges Messergebnis abgelesen. Die Frage danach, auf welche Weise in diesem Prozess
die Entscheidung für die Anzeige des Gerätes geschieht, durch den Messakt also immer genau
eine von vorher vielen Möglichkeiten ausgewählt wird, ist als Messproblem der QM
bekannt. Die Dekohärenz-Theorie (s. Kapitel 3) liefert eine Erklärung dafür, dass sich
makroskopische Objekte immer in eindeutigen Konfigurationen befinden, also klassisches
Verhalten zeigen. Allerdings löst auch die Dekohärenz das Messproblem nicht vollständig, da
sie nicht beschreibt, wie es zum Auftreten eines konkreten Ereignisses (z.B. des Zerfalls eines
Atoms) kommt. Die bekanntesten Antworten auf diese Frage sind:
1. Kopenhagener Deutung: Diese sieht in der Wellenfunktion nicht eine objektive
Eigenschaft der Quantenwirklichkeit, sondern eine Verkörperung dessen, was wir über
die Wirklichkeit wissen. Demzufolge ist der plötzliche Kollaps der WF nichts anderes,
als die durch die Messung bewirkte plötzliche Veränderung unseres Wissens. Der
eigentliche Übergang vom Möglichen zum Faktischen wird mit „Zufall“ begründet.
Dies impliziert nicht, dass sich die Natur akausal verhält, dass es sich also um einen
objektiven Zufall handelt, ein Ereignis ohne jede Ursache. Es impliziert nur, dass wir
über eine Ursache nichts wissen können.
2. Ensemble-Interpretation: Diese u.a. von Einstein unterstützte Deutung geht davon
aus, dass die Wellenfunktion lediglich eine statistische Aussage über die Verteilung
möglicher Messwerte für ein Ensemble gleichartig präparierter Quantensysteme (QS)
liefert. Für eine einzelne Messung eines individuellen QS liegt der Messwert schon
vor der Messung fest. Es wird jedoch darauf verzichtet, die Determiniertheit
physikalischer Größen z.B. durch verborgene Teilchenbahnen vorauszusetzen.
3. Bohmsche Mechanik: Diese geht darüber hinaus von der Vorstellung aus, dass es in
der Quantenwirklichkeit uns prinzipiell verborgene Teilchenbahnen gibt. Sie kommt
ohne das Postulat eines Kollaps der Wellenfunktion aus, ein Messresultat entspricht
immer einem Teilchenort auf einer kontinuierlichen, durch eine Führungswelle
bestimmten Bahn.
4. Viele-Welten-Interpretation (VWI): Nach der VWI gibt es keinen Kollaps der
Wellenfunktion. Sie geht davon aus, dass alle nach der Schrödingergleichung für ein
Quantensystem mögliche Zustände auch Wirklichkeit werden, aber jeder dieser
Zustände in eigenen Paralleluniversum. Diese Interpretation behauptet die Existenz
von Ereignissen (Welten), die nicht überprüfbar sind. Dazu ein Zitat: „ob etwas
existiert, über das niemand etwas wissen kann, gehört nicht in die Physik“ (W. Pauli).
5. Dynamische-Kollaps-Theorie: Nach einem Ansatz von Girardi-Rimini-Weber wird
die Schrödinger-Gleichung geringfügig so verändert, dass sie instabil ist. Für QuantenTeilchen kommt es danach im Mittel einmal in einer Milliarde Jahren zum spontanen
(zufälligen) Kollaps der Wellenfunktion. Die mikroskopische Quantenwirklichkeit
ändert sich dadurch nur nicht messbarer Weise. In großen Objekten kommt der
Kollaps eines Teilchens aber in jedem Sekundenbruchteil vor, und die Verschränkung
des Quantensystems sorgt dafür, dass dann auch die Wellenfunktionen aller anderen
Teilchen ebenfalls kollabieren. Die Theorie ist eher eine Alternative zur DekohärenzTheorie. Für diesen Ansatz gibt es (im Rahmen heutiger technischer Möglichkeiten)
aber keine Beweise.
Fazit:
Die Kopenhagener Deutung (Kollaps der Wellenfunktion = Übergang von Nicht-Wissen zu
Wissen), die rein statistische Ensemble-Interpretation und die VWI-Interpretation sind
unterschiedliche Deutungen der allein maßgeblichen Schrödinger-Gleichung. Die Bohmsche
Mechanik erfordert eine Erweiterung, die Dynamische Kollaps-Theorie Modifikation dieser
Gleichung. Die Bohmsche Mechanik und die Ensemble-Interpretation gehen davon aus, dass
die Quantenmechanik ähnlich wie die Thermodynamik Quantensysteme „im Mittel“
beschreibt. Die dynamische Kollaps-Theorie verletzt darüber hinaus die Zeitsymmetrie, führt
also einen Zeitpfeil in das Naturgeschehen ein.
10. Anwendungsbereiche, Grenzen und offene Fragen
Die auf der Schrödinger Gleichung beruhende Quantenmechanik und die darauf aufbauenden
Quantenfeldtheorien (z.B. auch das sogenannte Standardmodell der Teilchenphysik, s. Kap. 7)
sind durch eine Vielzahl experimentell bestätigter Voraussagen abgesichert worden. Eine
Vielzahl technischer Errungenschaften wie Mikroelektronik, Transistortechnik, Computer,
Laser, moderne Chemie-, Bio,- und Nano-Technologie beruhen auf der Quantenmechanik.
Dennoch ist das Modell unbefriedigend, da es ein „Flickwerk aus unterschiedlichen
Gleichungen darstellt, gemäß derer eine bestimmte Anzahl von Feldern untereinander über
bestimmte Kräfte wechselwirken und sich dabei nach bestimmten Symmetrien richten und
deren Stärke von bestimmten Kopplungskonstanten festgelegt ist“ (C. Rovelli). Das Modell
enthält außerdem eine Vielzahl freier Parameter, die nicht durch die Theorie bestimmt sind,
sondern durch Messungen bestimmt werden müssen (z.B. die Massen der Elementarteilchen).
Für sinnvolle Vorhersagen ist ferner eine „Renormierung“ Quantenfeld-theoretischer
Gleichungen notwendig um gegen Unendlich divergierende Lösungswerte zu vermeiden.
Es gibt auch eine Vielzahl offener Fragen (siehe unten), die möglicherweise erst im Rahmen
einer erweiterten Theorie beantwortet werden können. Aus einer solchen („Grand Unified
Theory”, GUT) sollte sich – so wird vermutet - die Vereinheitlichung der starken und der
elektroschwachen Wechselwirkung bei hohen Temperaturen (Energien) ergeben (analog der
im Standardmodell bereits beschriebenen Vereinheitlichung von elektromagnetischer und
schwacher Wechselwirkung). Es gibt bereits mehrere Ansätze für eine solche Theorie. Die
dafür erforderlichen sehr hohen Energien /Temperaturen ( > 1024 eV / 1028 K) lassen sich in
absehbarer Zeit nicht kontrolliert erzeugen. Ein möglicher Nachweis wäre der Zerfall freier
Protonen (mit einer Halbwertszeit > 1031 Jahre), den einige GUT-Varianten vorhersagen.
Noch weiter entfernt ist man von einer Theorie der Vereinheitlichung aller vier Naturkräfte
(TOE, Theory of Everything), also der Einbeziehung der Gravitation. Voraussetzung wäre
eine Quantentheorie der Gravitation, also eine Vereinheitlichung und Quantenfeldtheorie
und der Allgemeiner Relativitätstheorie (ART) als der maßgeblichen Theorie der Gravitation.
Auch hierfür gibt es erst Ansätze (z.B. die Schleifen-Quanten-Theorie), welche von einer
gequantelten (körnigen) Struktur der Raumzeit ausgeht. Die Physik der Gravitation sieht
Raum und Zeit dagegen als stetig an und in unendlich kleine Intervalle unterteilbar, wobei
jeder Ort oder Augenblick dem vorangehenden lückenlos folgt. Diese Sichtweise führt jedoch
„im Allerkleinsten“, im Bereich der sogenannten Planck-Skala, zu bisher nicht auflösbaren
Widersprüchen mit der Quantentheorie.
Die Planck-Länge lp definiert dabei eine Grenze für die Quantenwellenlänge eines Objekts,
unterhalb der dieses auf Grund der Unschärferelation mindestens die Planck-Masse mp haben
müsste und damit automatisch zu einem schwarzen Loch, also nach der ART in eine
Singularität, kollabieren würde. Die Planck-Länge ist um einen Faktor 1020 kleiner als der
Durchmesser eines Protons (also ca. 10−35 m) . Die Planck-Zeit ist definiert als die Zeit, die
ein Lichtstrahl braucht, um die Planck-Länge zu durchlaufen (ca. 10-43 s). Die Planck-Masse
beträgt zwar nur etwa 1/5000 der Masse eines Flohs, die Planck-Masse in einem Würfel mit
der Seitenlänge der Planck-Länge hätte allerdings die gleiche Dichte wie eine Billion Sonnen
komprimiert auf die Größe eines Protons. Die Energiedichten bei denen es zum Konflikt
zwischen ART und Quantentheorie kommt werden dementsprechend nur im Inneren von
Schwarzen Löchern und in der unmittelbaren Nähe des kosmischen Urknalls erreicht.
(siehe Aufsätze „Grenzgebiete der Physik“ und „Evolution des Universums“)
Offene Fragen und ungelöste Probleme (Auswahl)
Probleme aus dem Bereich der Kosmologie
1. Vakuumenergie und Dunkle Energie: Es gibt noch keine passende Formel zur
Berechnung oder Abschätzung der von der Quantentheorie vorhergesagten
Vakuumenergie, auch noch keinen Nachweis, dass es diese überhaupt gibt. Auch die
Natur der nach jüngsten Beobachtungen im Kosmos wirkenden „dunklen Energie“
konnte bisher nicht geklärt werden. Sie wirkt jedenfalls wie die postulierte VakuumEnergie wie eine abstoßende Gravitation. Die theoretische Abschätzungen der
Vakuumenergie des Universums sind jedoch um den Faktor 10120 größer ist als der
tatsächlich beobachtete Wert.
2. Dunkle Materie: Die Natur der im Kosmos gravitativ wirkenden “dunklen Materie“
konnte bisher nicht geklärt werden; verbergen sich dahinter neuartige Teilchen?
3. Antimaterie: Auch die Ursache für die Asymmetrie zwischen Materie und
Antimaterie in unserem Universum ist noch ungeklärt.
Probleme dem Bereich der Quanten- und Elementarteilchen-Physik
1. Nicht-Lokalität der Quantenphysik: Gibt es außer der Quantenverschränkung noch
andere nicht-lokale Phänomene in der Quantenphysik? Unter welchen Bedingungen
werden diese beobachtet? Was sagt die Existenz bzw. Nichtexistenz von nicht-lokalen
Phänomenen über die fundamentale Struktur der Raumzeit aus?
2. Elementarteilchen-Physik: Neben der oben skizzierten grundsätzlichen Kritik an
dem Standardmodell gibt es in der Teilchenphysik noch viele offen Fragen, z.B.
Warum gibt es genau drei Generationen von Elementarteilchen?
Ist die Einführung und Entdeckung des Higgs-Mechanismus und des Higgs-Bosons
die Lösung für die Entstehung von Masse? Warum haben Elementarteilchen
unterschiedliche Masse?
Was ist der Zusammenhang zwischen Quarks und Leptonen (Das Proton und das
Elektron haben die gleiche Elementarladung (+e/−e), ansonsten aber unterschiedliche
Eigenschaften)?
Warum kommen Quarks und Gluonen nicht als freie Teilchen vor (Confinement)?
Warum konnte für die starke Wechselwirkung noch keine CP-Verletzung – welche
prinzipiell möglich sein sollte – experimentell nachgewiesen werden?
Gibt es Supersymmetrie (d.h. bei hinreichend hohen Temperaturen eine Symmetrie,
die Bosonen und Fermionen ineinander umwandelt) ?
Gibt es magnetische Monopole (als Elementarteilchen) analog zu den elementaren
elektrischen Monopolen (Elektron und Proton)? Dies würde die Asymmetrie zwischen
den sonst so ähnlichen Erscheinungen Magnetismus und Elektrizität beheben und die
Quantisierung der elektrischen Ladung erklären.
Eine Reihe dieser Fragen und ungelösten Probleme werden im Aufsatz „Grenzgebiete der
Physik“ behandelt
Herunterladen