J. Herlet/2017 Atomstruktur und Quantenmechanik 1. Grenzen der klassischen Physik – frühe Quantentheorien 2. Komplementarität, Unbestimmtheit und Wellenfunktion 3. Verschränkung, Nichtlokalität der Quantentheorie, Dekohärenz 4. Der „Energiesatz“ in der Quantenphysik 5. Fundamentalkräfte der Natur 6. Die atomare Struktur der Materie 7. Das Standard-Modell der Elementarteilchenphysik 8. Das Pauli-Prinzip 9. Philosophische Aspekte der Quantentheorie 10. Anwendungsbereiche, Grenzen und offene Fragen Zusammenfassung: Die Quantenphysik umfasst die physikalischen Theorien, welche das Verhalten von Materie und Kraftfeldern im atomaren und subatomaren Bereich beschreiben. Während sich die Quantenmechanik (wie die klassischen Mechanik) i.W. auf materielle Objekte (Teilchen) bezieht, werden bei den darauf aufbauenden sogenannten Quantenfeldtheorien vor allem auch wechselwirkende Felder mit einbezogen. Die grundlegenden Konzepte der Quantenmechanik wurden im Zeitraum von 1925 bis 1935 von Werner Heisenberg, Erwin Schrödinger, Max Born, Pascual Jordan, Wolfgang Pauli, Niels Bohr, Paul Dirac und weiteren Physikern erarbeitet. Sie ist eine der Hauptsäulen der modernen Physik und bildet die Grundlage für viele ihrer Teilgebiete, so z.B. für die Atomphysik, die Festkörperphysik und die Kern- und Elementarteilchenphysik. 1928 schuf Paul Dirac eine vereinheitlichte Theorie für Quantenmechanik und Spezielle Relativitätstheorie (SRT). Diese Theorie sagte die die Existenz von Anti-Materie voraus; (genauer: das Anti-Elektron, das Dirac “Positron“ nannte, und das dann 1932 experimentell nachgewiesen werden konnte). Von grundlegender Bedeutung war auch die Entdeckung des Pauli’schen Ausschlussprinzips durch Wolfgang Pauli im Jahr 1925. Kernaussage der Quantenphysik ist, dass Vorgänge in der Natur nicht kontinuierlich sondern sprunghaft erfolgen. Ferner sind diese Vorgänge nicht beliebig genau vorhersagbar, sondern es sind nur Aussagen über die Wahrscheinlichkeit des Eintretens gewisser Ereignisse möglich. Diese Quanten-Effekte treten jedoch erst bei der Beobachtung molekularer, atomarer oder subatomarer Systeme in Erscheinung. Bereits im Rahmen der frühen Quantenmechanik wurde erkannt, dass Energie immer in kleinsten Paketen, sozusagen „gequantelt“ übertragen wird. Daher kann man Licht nicht nur als elektromagnetische Welle (bzw. als schwingendes elektromagnetisches Feld) auffassen, sondern auch als Strahl von Lichtteilchen (Photonen). Umgekehrt kann man jedes materielle Teilchen auch mit einer Schwingung (einer Welle) assoziieren, wobei dessen Masse-Energie (gemäß E= mc2) proportional zur Schwingungsfrequenz ist, und der Ort des Teilchens in gewisser Weise unbestimmt oder unscharf ist, so wie auch die Schwingung räumlich ausgedehnt ist und als Wahrscheinlichkeitsfunktion für den Aufenthaltsort des Teilchens interpretiert werden kann. Teilchen und Welle beschreiben also unterschiedliche Aspekte derselben Dinge, je nach Experiment kommt mehr der Teilchen- oder mehr der Wellen- Charakter von Masse-Energie zum Ausdruck. Man spricht vom Welle-Teilchen-Dualismus. Eine der großen Entdeckungen der Physik ist das auf Basis der Quantenmechanik vor allem in der 2. Hälfte des 20. Jahrhunderts entwickelte Standardmodell der Elementarteilchenphysik. Es besagt, dass sich alles Geschehen in der Welt, alle Formen der Masse-Energie, durch das Wirken sehr weniger Arten von Teilchen (bzw. Wellen oder schwingender Felder) erklären lässt. Danach existieren zwei Typen von Elementarteilchen, nämlich Materieteilchen, aus denen die Materie (oder auch die Anti-Materie) besteht und sogenannte „Botenteilchen“, welche die fundamentalen Naturkräfte übertragen. Alle diese Teilchen lassen sich demnach auch als Anregungen schwingender Felder auffassen, welche (unterschiedliche Formen) von Masse-Energie durch die Raumzeit tragen. Inhalt: Einzelne Phänomene der Quantenphysik wurden bereits in den ersten beiden Jahrzehnten des 20. Jahrhunderts entdeckt; diese „frühen Quantentheorien“ umfassen das Plancksche Strahlungsgesetz, Einsteins Photonenhypothese für das Licht, das Bohrsche Atommodell und de Broglie's Materiewellen. (Kapitel 1) Eine erste mathematisch ausformulierte Theorie der Quantenmechanik schufen 1925 dann die Physiker Werner Heisenberg, Max Born und Pascual Jordan. Erwin Schrödinger formulierte 1926 eine äquivalente, aber mathematisch einfacher zu handhabende Form. Wesensmerkmale der neuen Quantenmechanik sind das Komplementaritätsprinzip und die Unbestimmtheit von Naturvorgängen außerhalb von konkreten Messungen, die sich auch in der 1926 von Werner Heisenberg veröffentlichte Unbestimmtheitsrelation zeigen. (Kapitel 2) Eine wesentliche Erkenntnis der Quantenphysik ist, dass sie nicht-lokal ist, also auch Fernwirkungen im Rahmen sogenannter Verschränkungen erlaubt (Kapitel 3). Die Quantenmechanik erfordert eine Neubewertung des Energieerhaltungssatzes; sie erlaubt kurzzeitige Verletzungen dieses Satzes. Dies liefert eine Erklärung für den Tunneleffekt und führt zu Konzepten wie „virtuelle Teilchen“ und „Energie des Vakuums“. (Kapitel 4) Bis Mitte des 20. Jahrhunderts waren die Struktur der Materie bis auf die Ebene des Atomkerns entschlüsselt. Mit der starken Kraft und der schwachen Kraft waren zwei neue im Atomkern wirkende Naturkräfte entdeckt und ihre Rolle bezüglich der Stabilität von Atomen, von Kernfusionen und radioaktiven Zerfällen beschrieben. (Kapitel 5 und 6). Vor allem in zweiten Hälfte des 20. Jahrhunderts wurden die Quantenfeldtheorien der elektromagnetischen, der elektroschwachen und der starken Wechselwirkung entwickelt und darauf aufbauend das Standardmodell der Elementarteilchenphysik. (Kapitel 7) Das von Wolfgang Pauli bereits 1925 entdeckte Pauli Prinzip ist von grundlegender Bedeutung für die Stabilität der Materie (Kapitel 8). Die Quantenphysik ist von zentraler Bedeutung für unser physikalisches Weltbild. Sie stellt erkenntnistheoretische Begriffe wie Anschaulichkeit und Objektivierbarkeit, Determiniertheit und Kausalität auf den Prüfstand. Die Interpretation der Quantenphysik, insbesondere die grundlegende Frage ob diese Theorie Aussagen über die Wirklichkeit oder nur Aussagen über unsere prinzipielle Erkenntnisfähigkeit der Wirklichkeit trifft, sind Gegenstand anhaltender Diskussion. Die diskutierten Interpretationen reichen von der Kopenhagener Deutung über die Bohmsche Mechanik bis zur Viele-Welten-Theorie. (Kapitel 9) Die Quantenphysik gilt in ihren wesentlichen Aussagen für ihren Anwendungsbereich durch eine Vielzahl von experimentell bestätigten Vorhersagen als verifiziert. Einer bei G. Hasinger zitierten Studie zufolge beruhen etwa 40% des amerikanischen Bruttosozialproduktes auf technischen Anwendungen der Quantenphysik. Die Grenzen der Anwendbarkeit der Quantenphysik betreffen einmal ihre Abgrenzung und eingeschränkte Anwendbarkeit auf Phänomene der Makrophysik, wie sie z.B. durch die klassische Mechanik beschrieben werden. Von grundsätzlicher Bedeutung ist, dass sie bei sehr hohen Energiedichten, bei denen die Gravitation zur alles beherrschenden Kraft wird, mit der Allgemeinen Relativitätstheorie in Konflikt gerät. (Kapitel 10) 1. Grenzen der klassischen Physik – frühe Quantentheorien Nach Vorstellung der klassischen Physik besteht Licht (allgemeiner „elektromagnetische Strahlung“) aus sich im Raum fortpflanzenden senkrecht zur Ausbreitungsrichtung schwingenden elektrischen und magnetischen Feldern. Elektromagnetische Wellen benötigen kein Medium, um sich auszubreiten, wie z.B. Schall oder Wasserwellen. Sie pflanzen sich im leeren Raum (Vakuum) mit Lichtgeschwindigkeit c fort. Die Lichtgeschwindigkeit c ist eine Naturkonstante. Die Frequenz von Licht (Schwingungen pro Sekunde) wird in Hertz (Hz) gemessen; für die Wellenlänge λ einer bestimmten Frequenz f gilt: c = λ x f Der Wellencharakter des Lichtes lässt sich experimentell bestätigen, z.B. durch Interferenz. Interferenz beschreibt die Überlagerung von zwei oder mehr Wellen beliebiger Art durch Addition ihrer Amplituden. Je nachdem, ob sich die Wellen dabei gegenseitig auslöschen (also genau um eine halbe Wellenlänge versetzt schwingen) oder sich ihre Amplituden verstärken spricht man von destruktiver oder von konstruktiver Interferenz. Das Muster aus Stellen konstruktiver und destruktiver Interferenz wird als Interferenzmuster bezeichnet. Ein bekanntes Beispiel ist etwa das Streifenmuster hinter einer Doppelspalt-Anordnung. Bei diesem Experiment werden Lichtstrahlen einer bestimmten Wellenlänge an 2 Spalten einer Lichtblende gestreut und treffen dann mit unterschiedlichen Ablenkungswinkeln auf einen Sichtschirm hinter der Blende. Auf jeden Punkt des Schirms treffen Wellen aus beiden Spalten. Doch wegen der vom Streuwinkel abhängigen unterschiedlichen Entfernungen zwischen Spalten und Schirm entstehen auf dem Schirm helle und dunkle Streifen, in denen sich die Lichtwellen aus beiden Spalten gerade addieren oder gegenseitig auslöschen. Der Charakter von Licht als elektromagnetische Strahlung wurde 1865 von James Clerk Maxwell erkannt und 1888 von Heinrich Hertz experimentell nachgewiesen. Licht (elektromagnetische Strahlung) transportiert Energie. Die Strahlungsleistung P ist definiert als die pro Zeitspanne transportierte (differentielle) Energiemenge (P= dW/dt). Die Leuchtkraft L einer Lichtquelle ist die über das gesamte Spektrum der Lichtquelle aufsummierte Strahlungsleistung. Die Strahlungsintensität I ist die Strahlungsleistung pro Flächenelement, sie ist proportional zum Quadrat der Schwingungsamplitude (I= P/A ~ E2) Wärmestrahlung: Jeder Körper, dessen Temperatur über dem absoluten Nullpunkt liegt sendet aufgrund seiner Temperatur elektromagnetische Strahlung aus, die sogenannte Wärmestrahlung. Diese hat ihren Ursprung in der Schwingung der angeregten Atome des Körpers um ihre Gleichgewichtslagen. Je wärmer der Körper, desto energiereicher ist die Wärmestrahlung. Ein erhitzter Körper emittiert dabei ein ganzes Spektrum von Wellenlängen (Frequenzen). Aus Experimenten gewann man die Erkenntnis, dass mit zunehmender Temperatur T eines Körpers die Intensität (Energiefluss pro Zeit und Fläche) von dessen Wärmeabstrahlung proportional zu T4 wächst (Stefan-Boltzmann-Gesetz), und dass sich die Wellenlänge λmax mit maximaler Strahlungsleistung zu kürzeren Wellenlängen verschiebt (λmax.T = konstant; Wiensches Verschiebungsgesetz). Bei Festkörpern und Flüssigkeiten ist das Spektrum der emittierten Strahlung kontinuierlich und im Wesentlichen nur von der Temperatur abhängig. Gase emittieren ein für das Material charakteristisches Linienspektrum. Für Körpertemperaturen bis ca. 3000 o K schließt sich das Spektrum direkt an das rote Ende des sichtbaren Lichts an und wird daher auch oft InfrarotStrahlung genannt, für sehr heiße Körper kann das thermische Strahlungsmaximum aber sogar im Röntgenbereich liegen. Ein Körper kann aber auch Wärmestrahlung absorbieren und in Wärmenergie umwandeln.. Ein Schwarzer Körper ist ein idealisierter Körper, der alle auf ihn treffende Strahlung vollständig absorbiert (also nichts davon reflektiert oder streut) und der daher, nach dem Kirchhoffschen Strahlungsgesetz, für jede Wellenlänge auch die einer gegebenen Temperatur entsprechende maximal mögliche thermische Strahlungsleistung aussenden kann. Bei der Suche nach einer Energiefunktion E (T, f), welche die Intensitätsverteilung der Wärmestrahlung eines Schwarzen Körpers abhängig von dessen Temperatur T und der Frequenz f der Strahlung beschreiben sollte, hatte man Ende des 19-ten Jahrhunderts zwei Näherungsfunktionen gefunden, die aber jeweils nur für bestimmte Wellenbereiche mit den experimentellen Resultaten übereinstimmten. Um zu einer allgemein gültigen Formel zu gelangen, führte Max Planck eine neue Naturkonstante h ein und postulierte, dass die Energie eines mit einer Frequenz f schwingenden Atoms nur diskrete Werte En = n x f x h, (n= 1,2,3...), annehmen kann (Quantenhypothese). Aus diesem Postulat leitete er im Jahre 1900 sein berühmtes Strahlungsgesetz ab (das hier aber nicht wiedergegeben werden soll). Das Plancksche Wirkungsquantum h ist eine fundamentale Naturkonstante. Es tritt bei der Beschreibung von Quantenphänomenen auf, bei denen physikalische Eigenschaften nicht jeden beliebigen kontinuierlichen Wert, sondern nur bestimmte diskrete Werte annehmen können. Sein Wert kann nicht aus anderen Naturkonstanten hergeleitet werden, sondern nur experimentell bestimmt werden. Er beträgt h = 6,6260689633.. × 10-34 Js (Joulesekunden) und hat demnach die Dimension von Energie mal Zeit, also die einer physikalischen Wirkung (bzw. Ortsvektor mal Impulsvektor, also die eines Drehimpulses). In der Physik oft benutzt wird auch die reduzierte Konstante ħ = h / 2π Planck ging bei der Interpretation seiner Formel von der Annahme aus, dass der schwarze Körper aus Oszillatoren mit diskreten Energieniveaus besteht, d.h. betrachtete diese Quantelung der Energie als Eigenschaft der Materie und nicht des Lichtes selbst. Das Licht war nur insofern betroffen, als Licht in seinem Modell immer nur in bestimmten Portionen Energie mit Materie austauschen konnte, weil in der Materie nur bestimmte Energieniveaus möglich seien. Albert Einstein erweiterte dieses Konzept und schlug im Jahr 1905 eine Quantisierung der Energie des Lichtes selbst vor, um den photoelektrischen Effekt zu erklären. Der photoelektrische Effekt bezeichnet die Beobachtung, dass Licht bestimmter Frequenzen Elektronen aus Metall herauslösen kann. Im Widerspruch zur klassischen Vorstellung der Wellennatur des Lichtes zeigte sich, dass die kinetische Energie der frei werdenden Elektronen allein von der Frequenz und nicht von der Intensität des Lichtes abhängt, der Effekt tritt erst ab einer bestimmten material- abhängigen Mindestfrequenz auf, wirkt dann aber sofort bei Einfall des Lichtes. (Die Lichtintensität bestimmt nur die Anzahl der frei werdenden Elektronen.) Daraus schloss Einstein, dass die Energieniveaus nicht nur innerhalb der Materie gequantelt sind, sondern dass das Licht generell nur aus bestimmten Energieportionen besteht. Daher postulierte Einstein, dass Licht auch als ein Strom von masselosen Licht-Teilchen (Lichtquanten oder Photonen) beschrieben werden kann, die sich mit Lichtgeschwindigkeit c fortbewegen und deren Energie gemäß der Formel E = h x f von der jeweiligen Frequenz abhängt. Hierbei ist h das Plancksche Wirkungsquantum. Für diesen Beitrag zur Quantentheorie erhielt Einstein 1922 den Nobelpreis für Physik. Seither gilt: Licht ist Welle und Teilchenstrahl zugleich, es verhält sich in manchen Experimenten wie eine Welle, in anderen wie ein Teilchenstrahl. Wellenfunktion und Teilchenmodell sind komplementäre Beschreibungsmodelle der gleichen physikalischen Realität. Der Teilchen-Charakter des Lichts konnte 1922 auch mittels des Compton-Effekts endgültig experimentell nachgewiesen werden. (Bei der Streuung von hoch-energetischen Röntgen-Licht an Graphit erfährt das gestreute Licht Richtungs- und Frequenzänderungen, die sich nur als Stoßprozesse zwischen Lichtteilchen und den Hüllenelektronen der GraphitMoleküle erklären lassen.) Frühe Atommodelle: 1911 hatte Rutherford durch seine Streuexperimente von Heliumkernen an Metallfolien sein Atommodell entwickelt. Danach sollte das Atom aus einem kleinen Kern bestehen, der die gesamte positive Ladung in Form von Protonen enthält und einer Hülle aus Elektronen, die den Kern auf Kreisbahnen umlaufen. Die Ausdehnung des Kernes wurde mit 10-14 m abgeschätzt, die von Atomen mit 10-10. m. Man stellte sich das Atom also wie ein Sonnensystem im Kleinen vor, bei dem die elektrische Anziehungskraft zwischen Kern (Sonne) und Elektronen (Planeten) mit der Fliehkraft der kreisenden Elektronen im Gleichgewicht ist. Man erkannte jedoch schnell, dass dieses Modell im Widerspruch zur klassischen Physik steht, nach der die elektrisch geladenen kreisenden Elektronen Energie in Form von Licht abstrahlen müssten, und dieser Energieverlust die Elektronen in den Kern stürzen lassen würde. Das Rutherford’sche Atommodell konnte also nicht stabil sein. Eine erste quantentheoretischen Betrachtung des Atoms gelang 1913 Nils Bohr, der das charakteristische Wärme-Spektrum von erhitztem Wasserstoff-Gas untersuchte. Während bei der Wärmestrahlung fester oder flüssiger Körper ein kontinuierliches Spektrum ausgestrahlt wird, entstehen bei Erhitzung von Gasatomen Serien diskreter Strahlungsfrequenzen, die für das jeweilig beobachtete Element (z.B. Wasserstoff, Sauerstoff, Helium) charakteristisch sind. Angeregt durch Rutherfords Atommodell und Einsteins Lichtquanten-Hypothese ging Bohr davon aus, dass die Elektronen nur auf bestimmten diskreten Bahnen kreisen können, denen stationäre Energiezustände En (n=0,1,2,3...) zugeordnet sind, die von innen nach außen aufsteigende Energiewerte haben. Elektronen sollten keine Energie abstrahlen, solange sie eine bestimmte stationäre Bahn nicht verlassen. Beim Übergang von einer äußeren auf eine innere Bahn, wird ein Lichtquant abgestrahlt, dessen Frequenz f sich aus der Energiedifferenz Em-En (m>n) der Elektronenbahnen ergibt: Em-En= h x f x (m-n), wobei h das Plancksche Wirkumsquantum bezeichnet. Umgekehrt kann ein Elektron ein Photon einfangen und durch dieses auf ein höheres Energie-Niveau angehoben werden. Die charakteristischen Linien im Wärme-Spektrum der Atome entsprechen dabei den zulässigen Zustandsübergängen in der Elektronenhülle des Elementes. Das Elektron wird hierbei noch als klassisches Teilchen betrachtet, mit der Einschränkung, dass es nur bestimmte diskrete Energien haben kann. Für die stabile Elektronenbahnen sollte der Drehimpuls L=mevr des Elektrons der Masse me bei seiner Bewegung auf einem Kreis mit Radius r mit der Geschwindigkeit v ein ganzzahliges Vielfaches von h/2π sein (1): 2π r = n x h/ mev Im Jahr 1924 veröffentlichte Louis de Broglie seine Theorie der Materiewellen, wonach jedes (bewegte) Materie-Teilchen auch einen Wellencharakter aufweisen kann. Er gab für ein Teilchen mit dem Impuls p (p= m.v) eine Wellenlänge λ von λ = h/p an, d.h. die Wellenlänge eines Teilchens ist umso kleiner, je größer sein Impuls (Masse x Geschwindigkeit) ist. Herleitung (aus Wilfried Kuhn, Ideengeschichte der Physik): De Broglie ging davon aus, dass auch die Ruheenergie eines Teilchens auf Bewegungsenergie zurückführbar ist, die aus einer inneren Eigenschwingung, einer „periodischen Vibration“ des Teilchens resultiert. Für diese Schwingungsfrequenz f0 des Teilchens ergibt sich aus der Planckschen Energiebeziehung E = h x f und der Einsteinschen Masse-Energie-Äquivalenz E = mc2 für die Vibrationsfrequenz des ruhenden Teilchens (1): f0 = m0 c2 / h. Für einen ruhenden Beobachter, an dem das Teilchen mit einer Geschwindigkeit v vorbei zieht ergibt sich eine Frequenz (2): f2 = mc2 / h und daraus mit (3): m = m0 / W[1 – (v/c)2] der Beziehung von m zur Ruhemasse m0 des Teilchens mit (1) eine Frequenz (4): f2 = f0 / W[1 – (v/c)2]. Auf Grund von v verschiebt sich für den ruhenden Beobachter die Phase der periodischen Vibration, sie erscheint ihm als fortlaufende Welle, wobei sich aus der relativistischen Zeittransformation eine scheinbare Ausbreitungsgeschwindigkeit der Phasenwelle von u=c2/v (größer c!) ergibt. Für den ruhenden Beobachter gilt daher u = c2/v = f2 x λ. Für ein Teilchen der Masse m das sich mit Geschwindigkeit v bewegt folgt mit (4), (1) und (3): λ = h/ mv Die de Broglie Phasengeschwindigkeit ist also immer größer als die Lichtgeschwindigkeit. Dies widerspricht nicht der Relativitätstheorie, da die Signalgeschwindigkeit v ist. Die de Broglie Wellenlänge gilt auch für Photonen, die nach der Maxwellschen Theorie des Elektromagnetismus als Wellenpakete aufgefasst werden können. Diese haben zwar keine Ruhemasse, aber eine Energie E = h x f und einen Impuls mit dem Betrag = h/ λ . Mithilfe der Theorie der Materiewellen konnte das Bohrsche Atommodell erweitert werden. Die zulässigen Umlaufbahnen des Elektrons um den Atomkern sind genau die, bei denen die Bahnlänge einem Vielfachen der Wellenlänge des Elektrons entspricht, denn nur dann fallen Wellenberge und Täler bei jedem Umlauf zusammen, in allen anderen Fällen verschieben sich Wellenberge und Täler bei jedem Umlauf so gegeneinander, dass sich die Welle bei mehreren Umläufen durch Überlagerung auslöscht. D.h. die Umlaufbahnen des Elektrons um den Kern werden als stehende Materiewellen aufgefasst. Diese Interpretation folgt unmittelbar aus der Gleichung der de Broglie Wellenlänge: 2π r = n x h/ mev = n x λ De Broglies Theorie wurde drei Jahre später durch Experimente bestätigt. Das Doppelspaltexperiment für Elektronen liefert das gleiche Interferenzmuster heller und dunkler Streifen wie Licht. Das ist mit der Teilchenvorstellung für Elektronen nicht vereinbar. Danach würde man eine Gleichverteilung der Elektronen auf dem Sichtschirm hinter den Spalten erwarten. Insbesondere würde man beim Übergang von einem Spalt zu zwei Spalten erwarten, dass sich die Zahl der Auftreffpunkte hinter der Blende nur erhöhen kann, aber nicht dass sich Teilchen gegenseitig auslöschen können. Auch wenn man die Emission der Elektronen so weit verlangsamt, dass jede Sekunde nur 1 Elektron die Strahlungsquelle verlässt, also jedes die Blende passierende Elektron nach der Teilchenvorstellung entweder den einen oder den anderen Spalt passieren muss, und sich deshalb das gleiche Bild ergeben müsste, das man erhält, wenn man über die halbe Dauer des Experiments zunächst nur den linken Spalt öffnet und für die andere Hälfte nur den rechten Spalt, so erscheint nach gewisser Zeit doch das charakteristische Interferenzmuster. Jedes passierende Elektron hat seinen Weg anscheinend durch beide Spalten genommen. 2. Komplementarität, Unbestimmtheit und Wellenfunktion Bei Doppelspalt-Experimenten mit Quantenteilchen, seien es Atome, Elektronen oder Photonen, baut sich ein Interferenzmuster am Auffangschirm auf, auch wenn die Quantenobjekte einzeln und in zeitlichen Abständen abgestrahlt werden. Jedes Teilchen interferiert anscheinend mit sich selbst. Die Fähigkeit zur Interferenz und damit der Wellencharakter von Quantenobjekten zeigt sich bei allen Experimenten, bei denen es erstens mehr als einen klassischen Weg für das Teilchen zu dem Ort gibt, wo es nachgewiesen wird, und zweitens aus der Messapparatur keine „Welcher-Weg-Information“ (WWI) abgeleitet werden kann, also keine Information, welchen der klassisch möglichen Wege das Teilchen genommen hat. Bringt man im Doppelspalt-Experiment Detektoren an den Spalten an, welche den Durchgang eines Teilchens registrieren können, so erhält man immer die Information, dass das Teilchen nur einen Weg durch einen Spalt genommen hat und zweitens auch kein Interferenzmuster sondern die Überlagerung von 2 Einspaltmustern, wie man es auch erhält, wenn für die halbe Experimentdauer nur der linken Spalt und danach nur der rechten Spalt geöffnet ist. Dies gilt auch, wenn die WWI nicht ausgelesen wird; dies muss nur prinzipiell möglich sein, bevor das Quantenteilchen auf dem Schirm auftrifft. Wird die WWI aber noch innerhalb der Messapparatur und vor dem Auftreffen der Teilchen auf dem Schirm wieder gelöscht oder anderweitig entwertet, so erscheint wieder das Interferenzmuster. Dafür ob ein Interferenzmuster erscheint, ist die gesamte Messapparatur entscheidend (Prinzip der ganzheitlichen Messung). (siehe Beispiele unten). Beispiel-1: Beim Doppelspaltversuch mit Atomen lässt sich ein Detektor durch Streuung von Photonen an den Atomen beim Spaltendurchgang realisieren. Die Streuphotonen werden an den beiden Spalten unterschiedlich abgelenkt, so dass man mit in die jeweilige Streurichtung platzierten Photonenzähler, die WWI erhalten kann. Es kann nun gezeigt werden: Es baut sich kein Interferenzmuster auf, sondern die Überlagerung von 2 Einspaltmustern, wie man es erhält, wenn die halbe Experimentdauer nur den linken Spalt und danach nur den rechten Spalt geöffnet hat. Dieses Ergebnis erhält man auch, wenn man nur an einem Spalt einen Detektor anbringt. Es ist auch unabhängig davon, ob man die Photonzähler tatsächlich platziert, also die WWI abliest. Es reicht, dass man dies tun könnte bevor die Atome auf dem Schirm auftreffen. Werden die Streuphotonen allerdings innerhalb der Messapparatur z.B. durch Spiegel wieder zusammengeführt oder entstehen dort weitere nicht unterscheidbare, z.B. thermische Photonen, welche die WWI entwerten, so erscheint ein Interferenzmuster. Beispiel-2: Eine Variante des Doppelspalt-Versuches besteht darin, eine Lichtstrahl durch einen Strahlteiler in 2 auseinander laufende Teilstrahlen zu zerlegen, und diese dann mittels herkömmlicher Spiegel wieder auf einem Auffangschirm zusammenzuführen. Als Strahlteiler kann z.B. eine halb-durchlässige Glasscheibe dienen, die die Hälfte der Photonen durchlässt und die andere Hälfte reflektiert. Der Auffangschirm zeigt ein Interferenzmuster. Dieses baut sich auch dann auf, wenn man den Lichtstahl so drosselt, dass nur einzelne Photonen in zeitlichen Abständen die Lichtquelle verlassen. In jedem Photonenstrahl kann ein Detektor platziert werden, z.B. durch einen „Downconverter“, der jedes Photon in eines mit halber Energie wandelt und gleichzeitig ein sogenanntes Idler-Photon aussendet. Alternativ kann man die Photonen durch Polarisatoren in den beiden Teilstrahlen unterschiedlich markieren. Es kann gezeigt werden: 1.) Lässt sich aus der Messapparatur WWI ablesen (z.B. durch die Idler-Photonen oder die Orientierung der Photonen nach Durchlauf des Polarisators, so baut sich kein Interferenzmuster auf. 2.) Dabei verschwindet das Interferenzmuster auch dann, wenn der Detektor oder Polarisator jeweils erst dann eingeschaltet wird, nachdem das Photon den Strahlteiler verlassen hat (delayed choice); die Festlegung des Photons auf die 1- oder 2- Wege Variante erfolgt also in diesem Fall nach dem Passieren des Strahlteilers. 3.) Wenn man die WWI durch Markierung der Photonen (z.B. mittels Polarisator) erzeugt, diese Markierungen aber durch einen nachgeschalteten sogenannten „Quantenradierer“ (z.B. weiteren Polarisator) wieder löscht, unmittelbar bevor die Photonen auf dem Schirm auftreffen, so bleibt das Interferenzmuster erhalten. Komplementarität: Die Idee, dass sich ein unteilbares Objekt - Photon, Elektron oder Atomgleichzeitig auf mehr als einer Bahn bewegt und dadurch ein Interferenzmuster erzeugt, ist mit unseren klassischen Vorstellungen absolut unvereinbar. Jede anschauliche Vorstellung von diesem Vorgang ist falsch. Man kann aber sagen: Alle Quantenobjekte, Materie-Teilchen wie Lichtphotonen, sind dualistisch in dem Sinn, dass sie bei verschiedenen Experimenten Wellen- oder Teilchen-Eigenschaften zeigen. Das heißt, dass sie diese beiden, anschaulich konträren Eigenschaften zugleich haben. Es gibt Experimente die eher mit dem Wellenbild und andere die zweckmäßig mit dem Teilchenbild erklärt werden. Jedes Bild erfasst nicht die ganze Wirklichkeit. Die Bilder sind zueinander komplementär (Komplementaritätsprinzip). In Doppelspalt-Experimenten „erzwingt“ die Messung von „Welcher Weg Information“ das Teilchen dazu, sich wie ein solches zu verhalten. Nur wenn auf WWI verzichtet wird oder diese noch innerhalb des Systems – bevor sie zu einem externen Beobachter gelangen kann – wieder spurlos gelöscht wird, zeigt sich Wellencharakter der Quantenobjekte in Form des Interferenzmusters. WWI und Interferenz sind komplementär zueinander. Anmerkung: Die oft gelesene Formulierung, zueinander komplementäre Bilder oder Messergebnisse „schließen einander aus“ ist nicht richtig. Vielmehr muss es heißen: je schärfer das eine Bild sichtbar bzw. bestimmt wird, desto schwächer das dazu Komplementäre. (siehe auch unten, Heisenbergsche Unbestimmtheitsrelation). Das Interferenzmuster eines Atomstrahls beim Doppelspaltversuch kann am besten mit dem Wellencharakter der Atome erklärt werden, in der Körnigkeit des Aufschlagmusters wird aber auch deren Teilcheneigenschaft sichtbar. Wird nur ein Spalt geöffnet, ist die WWI gut bestimmt. Dennoch zeigt auch das zugehörige Einspaltmuster außerhalb des zentralen Aufschlagbereichs schwache Interferenzstreifen. Diese treten umso stärker in Erscheinung, je breiter der Spalt ist und haben ihre Ursache darin, dass es auch durch einen Spalt i.A. mehrere Wege gibt (in der Mitte, links, rechts). Ein weiteres Beispiel für das Komplementaritätsprinzip ist die Heisenbergsche Unschärferelation (auch Unbestimmtheitsrelation, HUR). Sie wurde 1927 von Werner Heisenberg im Rahmen der Quantenmechanik formuliert. Sie besagt, dass je zwei komplementäre Messgrößen eines Quantensystems nicht gleichzeitig beliebig genau bestimmbar sind (1). Das bekannteste Beispiel für ein Paar solcher komplementärer Messgrößen sind Ort und Impuls eines Teilchens. Je genauer man eine der beiden Größen misst, desto unschärfer werden die Messergebnisse für die andere Größe. Erzwingt die Versuchsanordnung eine genaue Ortsbestimmung, so bleibt der Impuls völlig unbestimmt, die Versuchsanordnung weist auf ein Teilchen hin, dass sich mit unbekannter Geschwindigkeit im Raum bewegt. Erzwingt man dagegen eine genaue Impulsbestimmung, so ist der Ort völlig unbestimmt. Durch die Unschärferelation wird also Raum gelassen für das Teilchenbild und das Wellenbild von Quantenobjekten. Die HUR besagt, dass das Produkt der Ortsunschärfe mal der Impulsunschärfe nicht kleiner als die Hälfte des Planckschen Wirkungsquantums sein kann: ∆x ∆p > = ħ/2 mit ħ = h/2π, wobei h das Plancksche Wirkungsquantum und π die Kreiszahl ist. Die HUR gilt in gleicher Weise auch für eine Teilchengesamtheit; die Unschärfe des Ortes x und des Impulses p werden dann durch deren statistische Streuung σx und σp gemessen. Die Unbestimmtheitsrelation besagt in diesem Fall σx σp > = ħ/2 mit ħ = h/2π. Dabei sind ∆x, ∆p bzw. σx, σp unbestimmt im Sinn einer statistischen Streuung vieler Messwerte. Die Aussage der Unbestimmtheitsrelation ist nun, dass es nicht möglich ist, Quantenobjekte in einen Zustand zu bringen, in dem ∆x und ∆p gleichzeitig beliebig klein sind (2). Neben dieser Relation existiert auch eine Unschärferelation zwischen Energie und Zeit. Sie begrenzt die mögliche Genauigkeit ∆E bei einer Messung durch die sogenannte Energie-Zeit-Unschärferelation ∆E ∆t > = ħ. In dem hier betrachteten Zusammenhang versteht man unter ∆t beispielsweise die Beobachtungsdauer (Messdauer), die bei einer Energiemessung an einem Quantenobjekt vorgegeben wird. (Vereinfachte, heuristische Herleitung: ∆x ∆p = ∆x (m0 ∆v) = ∆x (m0 ∆x/∆t ) = m0 (∆x/∆t)2 ∆t = 2∆E ∆t ) Man kann anhand eines Gedankenexperiments verdeutlichen, dass sich Ort und Impuls eines mikroskopischen Teilchens (z.B. eines Atoms) nicht gleichzeitig scharf bestimmen lassen. Jede Ortsbestimmung erfordert eine Interaktion mit dem Teilchen, mindestens die, dass ein Lichtquant an dem Teilchen gestreut oder reflektiert wird, und man daraus den Ort berechnet. Das auftreffende Lichtquant wird aber dem Teilchen einen Stoß geben und damit seinen Impuls ändern. Nun ist diese Ortsbestimmung aber höchstens so genau, wie die Wellenlänge des Lichtquants, d.h. je genauer man den Ort bestimmen will, umso kurzwelliger, also energiereicher muss das Lichtquant sein, und umso größer und damit unbestimmter ist dann auch die Impulsänderung, die das Teilchen durch den Stoß des Lichtquants erfährt. (Die Wellenlänge harter UV-Strahlung entspricht etwa einem Atomdurchmesser). Allgemein gilt : Die Messung des Impulses eines Teilchens ist zwangsläufig mit einer Störung seines Ortes verbunden, und umgekehrt (3) . Anmerkung: Die Aussagen (1), (2) und (3) oben sind zwar miteinander verwandt, haben aber physikalisch unterschiedliche Bedeutung. (3) führt leicht zu der falschen Vorstellung, dass das Teilchen vor der Ortsmessung einen bestimmten Impuls hatte, dass also die Unbestimmtheit erst durch die Messung verursacht wird. Beispiel: Eine ähnliche Relation gilt auch für die Summe der Unbestimmtheiten von Photonen (beliebiger Orientierung) bzgl. zweier verschiedene Polarisationsrichtungen φ1 und φ2. (für Photonen mit Orientierung φ1 ist Unbestimmtheit bzgl. φ1 bzw. φ1+90o= 0, d.h. wird in jedem Fall durchgelassen bzw. absorbiert; max. Unbestimmtheit =1/4 für φ1 = +/- 45o) Die Wellenfunktion (WF): Der Wellencharakter von Quantenobjekten wird aber nicht als Welle im Anschauungsraums (wie Licht- oder Schallwellen) interpretiert, sondern als Wahrscheinlichkeitswellen. Jedes Elementarteilchen lässt sich in der Quantenmechanik durch eine Wellenfunktion ψ („Psi“) beschreiben. Diese beschreibt den quantenmechanischen Zustand eines Teilchens oder eines Systems von Elementarteilchen in deren Ortsraum. Sie ist komplexwertig und somit keine Messgröße! Sie hat die Bedeutung einer Wahrscheinlichkeitsfunktion für die Zustandsparameter des Teilchens. Diese lassen sich nach der Quantentheorie nämlich nie genau beschreiben, sondern nur mit einer gewissen Unschärfe, die durch die Wellenfunktion gegeben ist. Wenn ψ (x,y,z,t) die Wellenfunktion für den zeitabhängigen Ort eines Teilchens im Raum ist, so kann ihr Beitragsquadrat |ψ (x,y,z)|2 als Aufenthaltswahrscheinlichkeit des Teilchens dafür gedeutet werden, es bei einer Messung am Ort (x,y,z) vorzufinden. (Genauer: |ψ (x,y,z)|2 ist die Wahrscheinlichkeitsdichte in (x,y,z); die Wahrscheinlichkeit das Teilchen im Bereich ∆x∆y∆z zu finden ist das Integral von ψ2 über diesen Raumbereich) Die Wahrscheinlichkeitsdeutung der Wellenfunktion geht auf Max Born zurück. Zunächst hatte man angenommen, man könne sich Teilchen als Wellenpakete vorstellen, welche durch die Wellenfunktion beschrieben werden. Allerdings würden solche Wellenpakete, wie Max Born zeigte, außer im Sonderfall des harmonischen Oszillators im Laufe der Zeit "zerfließen", was im Widerspruch zur Stabilität der Materie stünde. Born schlug stattdessen die heute allgemein anerkannte Wahrscheinlichkeitsdeutung vor. Sie führt die sich ergänzenden, komplementären Darstellungsformen „Welle“ und „Teilchen“ zusammen. In der klassischen Interpretation des Wellenmechanik ist die Intensität einer Welle proportional zum Quadrat der Schwingungsamplitude. In dem von einem Teilchenstrahl erzeugten Interferenzmuster sind die Streifen maximaler Intensität (Helligkeit) aber auch die Stellen, wo die meisten Teilchen auftreffen, die Trefferverteilung ist damit ein Maß für die Auftreffwahrscheinlichkeit. Dies inspirierte Max Born dazu, die quadrierte Wellenfunktion als Wahrscheinlichkeitsdichte dafür zu interpretieren, dass ein Elektron an einem bestimmten Ort gefunden wird, wenn man seine Position (im Rahmen einer Messung) ermittelt. Die WF und ihr Beitragsquadrat entwickeln sich determiniert mit der Zeit. Beim Zerfließen von Wellenpaketen handelt es sich um eine Verbreiterung der Aufenthaltswahrscheinlichkeit. Für ein einzelnes Teilchen hat die Wellenfunktion ψ (r,t) mit Ortsvektor r in der Regel die Form eines Wellenpaketes, das ist eine Welle deren Amplitude nur innerhalb eines räumlich eng begrenzten Bereiches merklich von 0 unterscheidet, d.h. die Wahrscheinlichkeit ist sehr hoch, das Teilchen bei einer Messung in diesem Raumbereich anzutreffen. Da die Amplitude aber auch außerhalb dieses Bereiches nicht ganz 0 ist, gibt es nach der Theorie der Quantenmechanik auch eine gewisse sehr geringe Restwahrscheinlichkeit, das Teilchen bei einer einzelnen Messung irgendwo ganz anders (z.B. außerhalb unserer Galaxis) anzutreffen. Auch die Wellenfunktion des Teilchenimpulses ψ (p) hat die Form eines Wellenpakets. Die „Breite“ der Wellenpakete im Orts- und Impulsraum sind dabei über die Heisenbergsche Unschärferelation miteinander verknüpft. Ein örtlich gut bestimmtes Teilchen hat demnach eine sehr breite Impulsverteilung und umgekehrt. Je nach Art einer Messung zeigt sich eher der Teilchen- oder Wellencharakter eines Quantenobjekts. Allgemein bezieht sich die Wellenfunktion auf alle Zustandsvariablen (Observablen) eines Quantenobjekts oder Quantensystems und beschreibt dessen zeitliche Entwicklung vor einer Messung. Teilchen mit zusätzlichen Eigenschaften (wie Spin oder Drehimpuls) werden durch Wellenfunktionen mit zusätzlichen Komponenten beschrieben. Konkrete Wellenfunktionen sind Lösungen der sogenannten Schrödinger-Gleichung (SG). Diese ist die zentrale Grundgleichung der nicht relativistischen Quantenmechanik. Sie beschreibt die zeitliche Entwicklung der Zustandsvariablen (Ort, Impuls, Spin,...) eines Quantensystems vor einer Messung als Funktion der Energien des Systems (inklusive eines möglichen äußeren Potentialfeldes) in Form einer komplexwertigen Differentialgleichung nach der Zeit. Ein Quantensystem besteht aus ein oder mehreren Teilchen. Bei mehreren Quantenteilchen überlagern sich deren WF ψ1,...ψn dabei zu einer gemeinsamen WF ψ für die Teilchengesamtheit. Ein Zustand mit zeitunabhängiger Wahrscheinlichkeitsdichte |ψ(r)|2 für alle Ortsvektoren des Zustandsraums heißt stationärer Zustand. Die Wellenfunktion eines Elektrons in einem Atomorbital beschreibt z.B. einen stationären Zustand. Wenn ψ1 und ψ2 Lösungen der SG sind, so ist auch aψ1 + bψ2 eine Lösung. Eine solche Überlagerung (Superposition) von 2 WF ergibt sich z.B. beim Doppelspaltversuch. Wo sich die einzelnen ψ− Funktionen überlappen, kann ein Interferenzmuster beobachtet werden. Die Schrödingergleichung ist, wie die Newtonschen Axiome in der klassischen Physik, ein Postulat (Axiom) und lässt sich deshalb auch nicht mathematisch streng herleiten. Sie wurde 1926 von Erwin Schrödinger unter Berücksichtigung gewisser physikalischer Prinzipien und gestützt auf die seinerzeit bereits bekannten quantenmechanischen Phänomene. aufgestellt. (Die 1925 von Heisenberg entwickelte „Matrizenmechanik“ ist physikalisch äquivalent aber mathematisch schwieriger zu handhaben). 1928 gelang Paul Dirac die Vereinheitlichung der Quantenmechanik und der Speziellen Relativitätstheorie (SRT). Die allgemeine Form der Schrödingergleichung lautet: iħ d/dt ψ(t) = H ψ(t) Dabei beschreibt ψ(t) den Zustandsvektor des Quantensystems zur Zeit t, H bezeichnet den sogenannten Energieoperator des Systems, i die imaginären Einheit und ħ = h/ 2π die reduzierte Planck-Konstante. Der Energieoperator ist ein partieller Differentialoperator, der den Erwartungswert der Energiemesswerte des Teilchens im Raum beschreibt. Für die Wellenfunktion ψ(r, t) des Ortsvektors r eines Teilchens lässt er sich z.B. aus der klassischen Energiefunktion des Teilchens H(r,t) = Ekin (r,t)+ V(r,t) = p2/2m+ V(r,t) in einem Potentialfeld V(r,t) ableiten, wenn man zu den quantenmechanischen Differentialoperatoren für Ort, Energie und Impuls übergeht (Korrespondenzprinzip!) und diese auf die unbekannte WF ψ(r, t) anwendet. Es ergibt sich iħ d/dt ψ(r,t) = - ħ2/2m Lψ(r,t) + V(r,t) ψ(r,t). (L= divo grad ist der sogenannte Laplace-Operator) Die SG ist linear und zeitumkehrinvariant, d.h. mit ψ(t,r) ist auch die transformierte (t=> -t, i=> -i) Wellenfunktion ψ*(-t,r) ein physikalisch möglicher Vorgang. Interpretation der Quantenmechanik: Die Wellenfunktion (WF) beschreibt die Zustandsentwicklung eines Quantenteilchens oder Quantensystems vor einer Messung. Gemäß der Interpretation als Wahrscheinlichkeitswelle sind diese Zustände vor einer Messung unbestimmt. Nun kann man natürlich fragen, ist die WF eine Aussage über die Wirklichkeit selbst oder über unser prinzipielles Wissen über die Wirklichkeit? Wenn eine Messung zum Zeitpunkt t den Ort x eines Teilchens ergibt, ist es dann nicht berechtigt anzunehmen, dass das Teilchen unmittelbar davor bereits in der Nähe von x gewesen sein muss, oder könnte eine solche Messung auch einen astronomisch weit entfernten Ort des Teilchens ergeben haben, wenn auch mit geringer Wahrscheinlichkeit? Liegen Ort und Impuls eines Quantenteilchens nicht vielleicht doch jederzeit eindeutig vor, auch wenn wir nur grundsätzlich nicht in der Lage sind diese Größen gleichzeitig scharf zu bestimmen? Nach der vorherrschenden Kopenhagener Deutung der Quantenmechanik ist deren Wahrscheinlichkeitscharakter eine fundamentale, unausweichliche Eigenschaft der Welt, und es macht es keinen Sinn, über die physikalische Realität vor einer Messung zu spekulieren, wir können nichts weiter über sie sagen. Bis zum tatsächlichen Messakt sind alle durch die Wahrscheinlichkeitsfunktion gegebenen Möglichkeiten („alle möglichen Geschichten des Quantensystems“) offen, und daher nur stochastische Vorhersagen möglich. Erst durch die Messung erfolgt der Übergang vom Möglichen zum Faktischen. Die Kopenhagen Deutung erklärt dies mit dem zusätzlichen Postulat eines instantanen Kollapses der Wellenfunktion auf den Wert 0 im Augenblick des Messaktes für alle Werte außer dem gemessenen Wert. Diese Deutung ist bis heute umstritten. (siehe Kap. 9, Philosophische Aspekte der Quantenphysik). Wellenfunktion und Interferenz: beim Doppelspaltversuch ist der Aufschlagort des einzelnen Teilchens nicht vorhersagbar. Die stochastische Verteilung (das Interferenzmuster) ergibt sich aus der Überlagerung der beiden Einspalt-WF für den linken und den rechten Spalt: ψsum(r,t) =ψli(r,t) + ψre(r,t). Schreibt man für die komplexwertige WF |ψ|2 in der Form ψψ* so erhält man: ψsum ψ*sum = ψli ψ*li + ψre ψ*re + Re( ψ*li ψre ) für die Wahrscheinlichkeiten. Der Interferenzterm Realteil( ψ*li ψre ) kann positive und negative Werte annehmen und bestimmt das Interferenzmuster auf dem Auffangschirm. Interferenz entsteht nur in dem Bereich, indem sich die Einzel-WF überlappen, also beide WF ψ*li und ψre ungleich 0 sind. Erlaubt die Messapparatur eine WWI-Bestimmung für einen Spalt, so nimmt die entsprechende Einzelspalt-WF für alle Orte (außer dem Gemessenen) instantan den Wert 0 an (Kollaps der WF), und das Interferenzmuster erscheint nicht. 3. Verschränkung, Nichtlokalität der Quantentheorie, Dekohärenz Wenn zwei oder mehr Quantenteilchen so miteinander in Wechselwirkung treten, dass ihre gemeinsame Wellenfunktion nicht mehr als Überlagerung (Kombination) von unabhängigen Einzel-WF dargestellt werden kann, sie daher fortan als ein Gesamtsystem betrachtet werden müssen, nennt man sie verschränkt. Eine Messung an einem der Teilchen bewirkt instantan auch eine Präparation aller mit ihm verschränkten Quantenobjekte auf bestimmte Messwerte (Kollaps der gemeinsamen WF). Die Verschränkung bleibt auch dann erhalten, wenn der Zeitpunkt der Wechselwirkung in der Vergangenheit liegt und die zwei Teilchen inzwischen Lichtjahre voneinander entfernt sind. Dabei ist oft eine feste Korrelationen der Messwerte bestimmter Observablen (z.B. Ort, Impuls, Spin, Polarisation) der verschränkten Teilchen zu beobachten (z.B. entgegengesetzte Spin-Richtung, entgegengesetzter Impuls). Quantenverschränkungen sind keine ungewöhnliche Erscheinung. Sie entstehen meist bei Zerfalls- und Streuprozessen, wenn sich die Eigenschaften der beteiligten Teilchen auf die Gesamtheit „verteilen“. Die genauen Bedingungen für die Entstehung von Verschränkungen sind aber noch nicht geklärt. Verschränkte Quanten müssen jedenfalls nicht unbedingt aus der selben Quelle stammen (wie in vielen Standard-Experimenten zu ihrer Erzeugung), auch die Annahme, dass Verschränkung eine Wechselwirkung der Quantenteilchen voraussetzt gilt als widerlegt (Stichwort: entanglement swapping). Es gibt jedoch inzwischen eine Vielzahl von Experimenten, mittels derer sich verschränkte Zustände von Paaren von Quantenteilchen erzeugen lassen. Meistens betrachtet man Atome oder Photonen und dabei die korrelierten Eigenschaften Spin oder Polarisation. Entstehen die Teilchenpaare aus einem Vorgang, so ergibt sich die Korrelation aus den Erhaltungssätzen für bestimmte Parameter (wie z.B. Impuls, Drehimpuls, Spin) des Systems. Oft beschrieben ist z.B. die Möglichkeit ein verschränktes Photonenpaar mit speziellen Kristallen zu erzeugen, welche die Eigenschaft haben, aus einem einfallenden Photon zwei ausfallende mit jeweils etwa halber Energie zu machen, die bezüglich ihrer Polarisation korreliert sind. Eine weitere Möglichkeit ist, Kalzium Atome in einen speziellen Anregungszustand zu bringen, aus dem sie nur durch Abstrahlung von 2 Photonen wieder in den Grundzustand übergehen können. Nun kann man durch Blenden Photonenpaare auswählen, die in entgegengesetzter Richtung a bzw. b ausgestrahlt werden und dort Messgeräte (z.B. Polarisationsfilter) platzieren, mittels derer sich Quantenkorrelationen bei solchen Paaren nachweisen lassen. Dabei sollten sich nach den Vorhersagen der Quantentheorie zwei verschränkte Teilchen, die miteinander in Wechselwirkung standen, auch nach ihrer Separierung in im Prinzip beliebig weit entfernte Orte gegenseitig in dem Sinn beeinflussen können, dass das zufällige Ergebnis einer Messung an dem einen Ort das Ergebnis einer zeitgleichen Messung am anderen Ort beeinflusst. Diese Vorhersage war einer der Gründe, weshalb Einstein die Quantenmechanik ablehnte (Er sprach von spukhafter Fernwirkung). Nach Einsteins Relativitätstheorie sollten sich zwei Ereignisse in der Raum-Zeit nur dann gegenseitig beeinflussen können, wenn sie zueinander „lokal“ sind, d.h. wenn sie durch einen Lichtstrahl (oder ein unterlichtschnelles Signal) verbunden werden können. Umgekehrt sollten sich zwei Ereignisse oder allgemeiner zwei physikalische Systeme, die zueinander nicht-lokal sind, auch nicht gegenseitig beeinflussen können. Einstein betrachtete diese Separierbarkeit physikalischer Systeme als ein fundamentales Prinzip. Daher versuchten Einstein, Podolski und Rosen (EPR) anhand eines Gedankenexperiments nachzuweisen, dass die Quantenmechanik unter Annahme des Lokalitätsprinzips in dem Sinn unvollständig ist, dass Quantenteilchen auch unabhängig von Messungen immer einen Ort und Impuls haben, auch wenn diese als sogenannte „verborgene Parameter“ prinzipiell nicht gleichzeitig direkt bestimmbar sind. EPR-Experiment: bei 2 Teilchen, die aus einer Quelle (z.B. einem Atomzerfall) diametral auseinander fliegen, lässt sich durch Messung am nach rechts fliegenden Teilchen (Ort oder Impuls) indirekt auch die korrelierten Werte des nach links fliegenden Teilchens exakt vorhersagen – ohne dass sich die Messung rechts auf das nach links fliegende Teilchen hätte auswirken können (dieses Argument setzt „Lokalität“ voraus!). Da links keine Information vorliegt, was rechts gemessen wird, muss das nach links fliegende Teilchen jederzeit einen exakten Ort und einen exakten Impuls haben.. Diese seien damit Elemente der physikalischen Realität, und die Quantenmechanik daher eine unvollständige Theorie. John Bell konzipierte 1964 eine praktisch durchführbare Version dieses Experiments, mit dem sich anhand der sogenannten Bellschen Ungleichung zusätzlich nachweisen lässt, ob die beobachteten Korrelationen bei räumlich vollständig separierten Messungen auf ein bereits bei Emission festgelegtes Verhaltensprogramm, also auf verborgene Parameter zurückgeführt werden können oder nicht. Experiment: Bei einer häufig beschriebenen Variante dieses Experiments, bestimmt man die Polarisation verschränkter Photonen, die aus einer gemeinsamen Quelle in entgegengesetzte Richtungen a und b auseinander fliegen. Dazu benutzt man Polarisationsfilter, die räumlich vollständig separiert sind, so dass sich zeitgleiche Messungen nicht gegenseitig beeinflussen können. Die Polarisationseigenschaft (Orientierung) der Photonen ist vor einer Messung völlig unbestimmt. Werden die beiden Polarisationsfilter in jeweils gleiche, aber beliebige Ausrichtungen φ gegen die Vertikale gebracht, so stellt man fest: 1.) Unabhängig von der Orientierung des Filters, wird im Mittel die Hälfte der Photonen a durchgelassen, die andere Hälfte absorbiert. Das gleiche stellt man für die Photonen b fest. Dieses Ergebnis ist zu erwarten, wenn die Orientierungen der Photonen gleich verteilt sind. 2.) Jedes mal wenn Photon a von „seinem“ Filter durch gelassen wird, wird auch b durchgelassen. Jedes mal wenn Photon a vom Filter absorbiert wird, wird auch b absorbiert Für diese strenge Korrelation der Ergebnisse gibt es 2 mögliche Theorien A1, A2: A1: Wenn Photon a durchgelassen bzw. absorbiert wird, wird Photon b ohne Zeitverzögerung auf die gleiche Eigenschaft eingestellt. Die Korrelation beruht damit auf einer instantanen Fernwirkung. A1ist eine nicht-lokale Theorie. A2: Jedes Photon hat für jede Orientierung des Filters eine bereits zum Emissionszeitpunkt feststehende, verborgene Eigenschaft „wird durchgelassen“ bzw. „wird absorbiert“. Die Korrelation beruht daher auf „verborgenen Parametern“. A2 ist im Gegensatz zu A1 eine lokale Theorie. Man führt nun für 3 verschiedene Kombinationen von Filterorientierungen links und rechts (K1: 0o & 45o, K2: 0o & 22,5o, K3: 22,5o & 45o) Messungen durch, wie oft das linke Photon durchgelassen und das Rechte absorbiert wird. Gemessen wird stets H1 > H2 + H3 Dann ermittelt man die Häufigkeiten, die sich gemäß Theorie A2 ergeben müssten: da es pro Filterorientierung 2 mögliche (durch verborgene Parameter festgelegte) Ergebnisse gibt, also bei den 3 Orientierungen 8 Möglichkeiten der Ergebnis-Vorabfestlegung, lässt sich leicht abzählen: H1 <= H2 + H3 (Bellsche Ungleichung). Die gemessenen Häufigkeiten erfüllen aber die Bellsche Ungleichung nicht. Das korrelierte Verhalten dieser Photonenpaare kann also nicht durch eine lokale Theorie mit verborgenen Parametern beschrieben werden. Nun postuliert man: Sobald eines der Photonen von einem Polarisationsfilter mit Orientierung φ durchgelassen bzw. absorbiert wird, erhält das andere instantan die gleiche Eigenschaft bezüglich φ. In diesem Sinn handelt es sich nicht um „zwei Photonen“, sondern um ein einziges quantenmechanisches Gebilde, das sich über einen großen Raumbereich erstreckt. Nach der Quantentheorie ist die Polarisation des Photonenpaars vor der Wechselwirkung mit einem Polarisationsfilter völlig unbestimmt. Die Durchlass-Wahrscheinlichkeit von Photon a beim 0o-Filter ist daher 0,5. Da Photon a und Photon b dabei aber instantan die Orientierung 0o erhalten, ist die Absorptions-Wahrscheinlichkeit von b am 45o-Filter = sin2(45o) = 0,5 (*), die Gesamt-Wahrscheinlichkeit für H1 = 0,5x0,5 =0,25. Mit analoge Berechnungen für H2 und H3 ergibt sich: H1 > H2 + H3 (in Übereinstimmung mit den Messergebnissen) (*): Photonen mit Polarisationseigenschaft φ1 treffen auf ein Polarisationsfilter senkrecht zur Ausbreitungsebene mit Orientierung φ2. Die Durchlass-Wahrscheinlichkeiten müssen bei vielen Wiederholungen die klassischen Intensitäten reproduzieren. Klassisches Licht der Intensität I mit Polarisation φ1 wird bei einem Polarisationsfilter der Orientierung φ2 mit der Intensität I cos2(φ), φ=φ2-φ1, durchgelassen. Der Rest, I sin2(φ), wird absorbiert. Folglich beträgt die Durchlass-Wahrscheinlichkeit für Photonen cos2(φ) und die AbsorptionsWahrscheinlichkeit sin2(φ). Jeder Polarisationsfilter legt Polarisationsrichtung neu fest und damit auch Wahrscheinlichkeit, mit der ein Photon einen folgenden Polarisationsfilter passiert (Erst die Messung präpariert ein Quantenobjekt) Anmerkung: Bei einer allgemeinen Herleitung der Bellschen Ungleichung sind die 3 verschiedenen Achsen der Polarisationsfilter beliebig gewählt. Die Bellsche Ungleichung liefert eine Obergrenze dafür, wie oft in einem lokalen, realistischen Universum beide Photonen a und b die Modulatoren durchqueren und von den Detektoren registriert werden. Die Experimentatoren finden stets, dass verschränkte Photonen stärker korreliert sind, dieses Limit also verletzen. Die beliebige Wahl der Achsen, unabhängig von allen Eigenschaften der Photonenpaare, ist neben der Annahme verborgener Parameter und der Lokalität sogar eine implizite Voraussetzung des Experiments. Sollte die Natur nämlich auf irgendeine Weise die möglichen Einstellungen der Modulatoren einschränkt und unmittelbar vor Durchführung der Messungen mit dem jeweiligen Zustand der Teilchen korreliert haben, dann könnte auch diese Einschränkung der freien Wahl die Messergebnisse erklären, die sonst mit Verschränkung begründet werden. Dieses Schlupfloch gilt inzwischen aber als experimentell widerlegt. Fazit: Durch eine Vielzahl der seit Ende der 1960-Jahre durchgeführte Experimente konnte auf diese Weise nachgewiesen werden, dass die Quantentheorie - im Gegensatz zur Annahme Einsteins nicht durch Hinzufügen von verborgenen Variablen zu einer realistischen und gleichzeitig lokalen Theorie vervollständigt werden. Die theoretische Analyse dieses Phänomens zeigt aber auch, dass dieses nicht im Widerspruch zur speziellen Relativitätstheorie steht, da bei diesen Experimenten keine Informationen überlichtschnell übertragen werden. Die einzelne Messung ergibt – unabhängig davon, ob das andere Teilchen bereits gemessen wurde – stets ein für sich genommen unvorhersagbares Ergebnis. Erst, wenn das Ergebnis der anderen Messung durch klassische, lichtschnelle Kommunikation bekannt ist, kann man die Korrelation feststellen oder ausnutzen. Alle klassischen Theorien sind lokal und realistisch. Es gibt dort keine instantane gegenseitige Beeinflussung räumlich separierter Systeme, und Messungen lesen nur Eigenschaften ab, die auch unabhängig von der Messung vorliegen. Ob die Quantentheorie realistisch ist, ob also das Ergebnis jeder denkbaren Messung feststeht, auch wenn es wegen ungenügender Kenntnis verborgener Parameter nicht vorher bekannt ist, ist umstritten. Nach der Kopenhagen Deutung der Quantentheorie ist diese nicht realistisch. Gemäß der De-Broglie-Bohm-Mechanik kann sie jedoch formal zu einer realistischen nichtlokalen Theorie erweitert werden. Gemäß dieser sind dann aber nicht nur nicht-lokale Korrelationen zwischen verschränkten, räumlich getrennten Teilsystemen möglich, sondern sogar nicht-lokale Wechselwirkungen (s. Kap. 9). Verschränkung und Interferenz: Beim Doppelspaltversuch mit Atomen, bei dem die WWI-Bestimmung durch an den Atomen bei Spaltdurchgang gestreuten Photonen erfolgt, verschränken sich die Zustände der beiden Quantenobjekte Atom und Photon. Bei geschlossenem rechten Spalt ergibt sich eine WF als Produkt ψli atom x ψli photon, analog bei geschlossenem linken Spalt. Mit 2 offenen Spalten ergibt sich Gesamt-WF als Superposition (Addition) ψli + ψre . Durch Ausmultiplizieren der Beitragsquadrate erhält man einen Interferenzterm als Produkt aus allen 4 Einzel-WF: (ψ*li atom x ψre atom) x (ψ*li photon x ψre photon). Daraus folgt unmittelbar, dass Atom- und Photon-Interferenz verschwinden, sobald entweder, die Atom-WF'n (li, re) oder die Photon-WF'n (li, re) nicht mehr überlappen. Da die gestreuten Photonen mehr oder weniger stark auseinander laufen, ist die Atom-Interferenz nur zu sehen, wenn diese auf dem Bildschirm auftreffen, bevor die Photon-WF'n sich separiert haben. Sobald die Wahrscheinlichkeitspakete für die Möglichkeiten „links“ und „rechts“ bei einem der beteiligten Quantenobjekte nicht mehr überlappen, kann kein Interferenzmuster mehr beobachtet werden. Solange die Auswirkung der Überlagerung (d.h. ein Interferenzmuster) beobachtet werden kann, spricht man von „Quantenkohärenz“. Lässt sich die Auswirkung nicht mehr beobachten, spricht man von Dekohärenz. Dekohärenz-Theorie: Diese liefert eine Erklärung dafür, dass sich größere Objekte immer in eindeutigen Konfigurationen befinden und keine Interferenzmuster durch sich überlagernde Möglichkeiten zu beobachten sind. Sie geht von folgender Beobachtung aus: Je größer ein Objekt ist, um so eher und um so wahrscheinlicher wechselwirkt es mit anderen Objekten (Wärmestrahlung, Licht, Umgebungsmoleküle). Wie man zeigen kann, macht diese Wechselwirkung bei einem makroskopischen Objekt innerhalb von kürzester Zeit aus dem Überlagerungszustand einen Zustand, in dem keine Interferenzerscheinungen mehr beobachtet werden können, da die Kohärenz der Gesamtwellenfunktion durch den Einfluss unzähliger anderer Teilchen verwischt wird. Wechselwirkung erzeugt Verschränkung, und die Einzel-Wellenfunktionen der beteiligten Teilchen gehen in den Interferenzterm der Gesamt-WF als Produktfaktoren ein. So ergibt sich bereits im Doppelspalt-Experiment mit Atomen und daran zur WWI-Bestimmung gestreuten Photonen für den Überlagerungszustand ein Interferenzterm (s. oben): (ψ*li atom x ψre atom) x (ψ*li photon x ψre photon). Erweitern man für makroskopische Objekte die theoretische Beschreibung um die Freiheitsgrade der Umgebung, so liefert jedes verschränkte Quantenobjekt zusätzliche Produktterme. Ist davon nur ein einziges 0, d.h. nicht (mehr) überlappend, so verschwindet der gesamte Interferenzterm. Die entwickelten Formeln zur Abschätzung der Dekohärenz in Abhängigkeit von Objektgröße und störenden Einflüssen geben z.B. an, dass es für ein Staubkorn, dass im Weltall nur dem Einfluss der kosmischen Hintergrundstrahlung ausgesetzt ist, innerhalb einer Millionstel Sekunde zur Dekohärenz kommt. Fazit: Die Dekohärenz-Theorie liefert eine Erklärung dafür, dass sich makroskopische Objekte immer in eindeutigen Konfigurationen befinden, also klassisches Verhalten zeigen. Allerdings löst auch die Dekohärenz das quantenmechanische Messproblem nicht vollständig, da sie nicht beschreibt, wie es zum Auftreten eines konkreten Ereignisses (z.B. des Zerfalls eines Atoms) kommt. Dies erfordert zusätzliche Annahmen. 4. Der Energiesatz in der Quantentheorie In der Quantentheorie wird nun die Energie eines Teilchens in einen Zusammenhang gebracht mit der Frequenz des Schwingungsvorgangs der „Teilchenwelle“. Dies ergibt sich aus einem Grundphänomen allen atomaren Geschehens, des Dualismus von Welle und Teilchen. Für Photonen (Lichtteilchen) ist der Proportionalitätsfaktor zwischen Energie des Photons und Schwingungsfrequenz des ausgesandten Lichts das Plancksche Wirkungsquantum. Eine analoge Teilchen-Wellen-Beziehung gilt für alle Elementarteilchen (De Broglie Welle) Dabei bestimmt die Intensität (Amplitude) der Wellenbewegung an einem Ort die Wahrscheinlichkeit, das Teilchen an diesem Ort (experimentell) lokalisieren zu können. Der Energieerhaltungssatz verlangt nun, dass der experimentelle Nachweis des Teilchens an einem bestimmten Ort zum unmittelbaren Zusammenbruch der Wellenfunktionen an allen anderen Orten führen muss, d.h. die Wahrscheinlichkeit das Teilchen (und damit die in dem Teilchen konzentrierte Energie) gleichzeitig noch an einem anderen Ort feststellen zu können, wird in dem Augenblick Null, wo es an einer bestimmten Stelle lokalisiert worden ist. In dieser sprunghaften Änderung der Wellenfunktion durch den Beobachtungsakt drückt sich die Tatsache aus, dass die Wellen in der Quantenmechanik nicht an sich seiende physikalische Realitäten, sondern nur Ausdruck unserer Kenntnis dieser Realität sind und sich daher durch Erwerb einer neuen Erkenntnis auch schlagartig ändern können (siehe aber auch Kap. 9). Der Grenzübergang zu den an sich seienden Wellenfeldern der klassischen Physik geschieht durch Vermehrung der Anzahl der Lichtteilchen im Wellenzug; denn wenn die Welle viele Lichtteilchen enthält, so ändert die Beobachtung eines einzelnen Lichtquants an einem bestimmten Ort fast nichts an der Intensität der Summen-Wellenfunktion an anderen Orten. Betrachten wir ein Teilchen, dessen Ort zu einem bestimmten Zeitpunkt genau bestimmt wurde, so muss seine Wellenfunktion außer an der beobachteten Stelle überall Null sein. Ein derartiges Wellenpaket hat nun gar keine definierte Frequenz oder Wellenlänge, d.h. diese Größen und damit auch Energie und Impuls des Teilchens sind völlig unbestimmt. Umgekehrt erfordert eine Energiebestimmung anhand der Frequenz der Wellenfunktion eine bestimmte Mindestdauer des Schwingungsvorgangs, d.h. schon aus der Planckschen Beziehung ergibt sich für diesen Fall eine unscharfe Ortsbestimmung. Die quantitative Formulierung dieser Zusammenhänge erfolgt in der Heisenbergschen Unschärferelation. Diese Unschärferelation hat jedoch auch eine Konsequenz für den Energiesatz: es ist möglich, dass der Energiesatz für einen sehr kurzen Zeitraum verletzt wird, in dem die Energie eines Teilchens unbestimmt ist. Daraus erklären sich auch experimentell bestätigte und technisch genutzte Phänomene wie z.B. der sogenannte Tunneleffekt. Dieser besagt, dass Teilchen ein Hindernis (z.B. eine Potentialbarriere), zu dessen Überwindung ihre Energie nach der klassischen Physik nicht ausreicht, gleichwohl mit einer gewissen Wahrscheinlichkeit überwinden können, wenn das Hindernis hinreichend schmal ist, also in hinreichend kurzer Zeit überwunden werden kann. In dieser kurzen Zeit kann sich ein Teilchen die benötigte Energie sozusagen aus dem Nichts leihen. Mit Hilfe des Tunneleffekts wird unter anderem der spontane radioaktive Alpha-Zerfall von Atomkernen trotz der Energiebarriere der starken Wechselwirkung erklärt. Technische Anwendungen sind beispielsweise das Rastertunnelmikroskop und der Flash-Speicher. Virtuelle Teilchen sind ein Konzept der Quantenfeldtheorie. Sie existieren nur innerhalb der Grenzen der Heisenbergschen Unschärferelation, also nur innerhalb von Zeiträumen ∆t, die durch ∆E ∆t ~ = h gegeben sind, wobei ∆E die Masse-Energie des virtuellen Teilchens ist. Sie sind daher auch nicht direkt beobachtbar oder nachweisbar. Virtuelle Teilchen spielen in der Quantenphysik zum einen eine Rolle als Botenteilchen von Kraftwirkungen (s. Kap. 7), zum anderen bei den sogenannten Quantenfluktuationen des Vakuums. Quantenfluktuation (auch Vakuumfluktuationen) sind Teilchen-Antiteilchen-Paare, die in nach der Quantenfeldtheorie aus dem Vakuum entstehen und sofort wieder zerfallen. Weil diese Teilchen den Energieerhaltungssatz verletzen, können Sie nur innerhalb der Grenzen der Heisenbergschen Unschärferelation existieren, also nur innerhalb von Zeiträumen ∆t, die durch ∆E ∆t ~ = h gegeben sind, wobei ∆E die Masse-Energie der entstehenden Teilchen ist. Die Teilchen leihen sich für kurze Zeit Energie aus dem Nichts. Das Vakuum muss für diese Zeit eine negative Energie haben. Die sofortige gegenseitige Auslöschung (Annihilation) der entstehenden Teilchenpaare verhindert jedoch eine globale Verletzung Energieerhaltungssatzes. Die durch die Theorie postulierten Quantenfluktuationen könnten prinzipiell auch nur indirekt nachgewiesen werden. Die Quantenfeldtheorie betrachtet ein Vakuum daher nicht als völlig leer, sondern erfüllt mit einer Vakuum-Energie. Selbst im Grundzustand, dem niedrigst-möglichen Energieniveau, ermöglicht die Heisenbergsche Unschärferelation die Bildung von Vakuumfluktuationen. Die Vakuumenergie kann folglich Teilchen des Standardmodells in diesem ansonsten leeren Raum entstehen lassen. Neben sich sofort wieder gegenseitig vernichtenden Teilchenpaaren tragen nach der Theorie der Quantenelektrodynamik auch virtuelle Photonen, die innerhalb der Grenzen der HUR aus dem Quanten-Vakuum heraus entstehen und gleich danach wieder verschwinden zur Vakuumenergie bei. (Photonen sind ihre eigenen Antiteilchen). Die Teilchen-Antiteilchen-Bildung ist nachgewiesen für Elektron-Positron-Paare bei Stoßprozessen energiereicher Photonen mit Materie oder auch untereinander, auch MyonAntimyon und Proton-Antiproton sind bekannte und nachgewiesene Paarbildungen. Die spontane Teilchenbildung aus dem Vakuum ist dagegen prinzipiell nicht beobachtbar. Die oft als indirekter Nachweis genannten Casimir-Effekt und Lamb-Verschiebung sind auch ohne die Hypothese von Quantenfluktuationen erklärbar. Die Vakuumenergie gilt auch als ein möglicher Kandidat für die Dunkle Energie, welche in der Astronomie eine Erklärung für die beobachtete beschleunigte Expansion des Universums bieten würde. Die theoretisch vorhergesagten Werte der Vakuumenergie liefern jedoch ein um viele Größenordnungen (Faktor ~ 10120) größeres Ergebnis als die Beobachtungsdaten der kosmischen Expansion erwarten lassen. Stephen Hawking hat die Teilchenerzeugung der Vakuumenergie auch als Mechanismus für das „Verdampfen“ von Schwarzen Löchern beschrieben („Hawking-Strahlung“). Auch dies ist (bisher) aber nur eine Hypothese. Der Casimir-Effekt besagt, dass im Vakuum auf zwei parallele leitfähige Platten eine Kraft wirkt, die beide zusammendrückt. Dieser Effekt wird häufig als ein experimentelles Indiz für Vakuumfluktuationen des elektromagnetischen Feldes interpretiert. Danach beruht diese Kraft auf der Tatsache, dass das Vakuum mit Fluktuationen virtueller Photonen erfüllt ist. Innerhalb der Platten werden diese Wellenpakete an den Platten hin und her reflektiert. Dabei löschen sich die Wellenpakete durch destruktive Interferenz aus, deren De-Broglie-Wellenlänge nicht genau einem Vielfachen des Plattenabstandes entspricht. Somit entsteht zwischen den beiden Platten ein „Unterdruck“ virtueller Teilchen. Innerhalb der Platten bleiben nur die wirksam, die mit dem Abstand der Platten in Resonanz sind, während außerhalb der beiden Platten ein Kontinuum virtueller Photonen auf die Platten Druck ausüben kann. Der Casimir-Effekt kann jedoch auch ohne die Annahme virtueller Photonen als Wirkung einer sogenannten Van-der-Waals-Kraft erklärt werden. 5. Die fundamentalen Naturkräfte Die Wechselwirkung von Materie mit anderer Materie geschieht durch die Vermittlung von Kräften. Bis heute sind vier Arten von Naturkräften bekannt: Schwerkraft (Gravitation), Elektromagnetismus, starke Kraft und schwache Kraft. Die Gravitationskraft kann in sofern als universelle Kraft angesehen werden, als sie auf alles wirkt, was Masse-Energie trägt, auf materielle Teilchen ebenso wie auf Kraftfelder und Strahlung. Sie wirkt normalerweise als anziehende Kraft, theoretisch kann sie in bestimmten Situationen auch abstoßend wirken. Die Gravitation ist die bei weitem schwächste aller in der Natur auftretenden Kräfte. Sie wirkt praktisch nur bei großen Massen, sie ist bestimmend im Bereich der Sterne und Planeten, im Atom ist sie vernachlässigbar. Der Elektromagnetismus setzt Teilchen mit elektrischer Ladung voraus und wirkt nur zwischen diesen. Teilchen mit gleicher Ladung stoßen sich ab, mit entgegengesetzter Ladung ziehen sich an. Im Atom sind Elektron und Proton die Träger der negativen bzw. positiven Elementarladung. Die elektromagnetischen Kraftwirkung innerhalb der Atome bestimmt gemeinsam mit den Gesetzen der Quantenphysik die Struktur der Elektronenwolken, die den räumlich größten Teil aller gewöhnlichen Materie ausmachen. Der Elektromagnetismus kontrolliert damit das chemische Verhalten aller Atome und Moleküle, auch jener, aus denen wir bestehen. Da die Atome und Moleküle der Materie aber in der Regel elektrisch neutral sind (d.h. gleich viele Elektronen und Protonen) enthalten, spielt die elektromagnetische Kraft über größere Entfernungen hin keine Rolle. Überall, wo in der Natur elektrische Ladung sichtbar wird, ist das letztendlich zurückzuführen auf einen lokalen Überschuss bzw. Mangel an Elektronen (z.B. kann auch ein Atom temporär eine elektrische Ladung annehmen, wenn es ionisiert ist, d.h. wenn Elektronen in seiner Hülle fehlen bzw. zu viel da sind.) Zwei Protonen stoßen sich auf Grund ihrer positiven Ladung gegenseitig mit einer 1036 mal größeren Kraft ab, als sie sich auf Grund ihrer Masse anziehen. Starke und die schwache Kraft (Wechselwirkung): Da die Abstoßungskraft zwischen den positiv geladenen Protonen des Atomkerns sehr viel stärker wirkt als die Gravitationskraft, muss es eine weitere Naturkraft geben, welche den Atomkern zusammenhält. Dies ist die 1935 von Hideki Yukawa theoretisch begründete „starke Kraft“. Sie ist etwa 100-mal stärker als die elektromagnetische Kraft und damit die bei weitem stärkste Naturkraft, wirkt aber praktisch nur auf die sehr kurze Entfernung von etwa 10-15 m, was etwa dem Durchmesser eines Atomkerns entspricht. Die starke Kraft bestimmt zusammen mit der schwachen Kraft, welche Atomkerne in der Natur stabil sind und damit auch, welche chemischen Elemente existieren können. Die 1934 von Enrico Fermi entdeckte „schwache Kraft“ wirkt nur auf noch kürzere Entfernungen (Reichweite < 10-18 m). Sie spielt eine wichtige Rolle bei Zerfalls- und Umwandlungsprozessen von Elementarteilchen. Sie verursacht z.B. auch Umwandlungen zwischen Protonen und Neutronen (sogenannter β-Zerfall) und ist damit entscheidend dafür verantwortlich, dass unsere Sonne uns durch die Fusion von Wasserstoff zu Heliumkernen in ausreichendem Umfang Energie liefern kann (s. Kap. 6 und 7). Sie ist bei „normalen Temperaturen“ etwa 1014 mal schwächer als die starke Kraft und damit auch um etwa 1012 mal schwächer als die elektromagnetische Kraft. Bei sehr hohen Energien (Temperaturen) kommt es jedoch zu Vereinheitlichung mit der elektromagnetischen Kraft zur sogenannten elektroschwachen Kraft (s. Kap. 7). 6. Die atomare Struktur der Materie In Kapitel 1 wurde bereits das Bohrsche Atommodell aus dem Jahre 1913 erläutert, nachdem sich die Elektronen nur auf bestimmten Bahnen mit diskreten Energieniveaus um den Kern bewegen können, und die Abgabe oder Aufnahme von Energie nur in Verbindung mit einem Bahnwechsel erfolgen kann, bei dem die Energiedifferenz in Form eines Photons abgegeben oder aufgenommen wird. Das Schalenmodell des Atoms kann als Erweiterung des Bohrschen Modells aufgefasst werden, wobei der Bahnkurve der Elektronen abstrahiert wird und nur die ungefähre Entfernung vom Kern ausschlaggebend ist. Die Elektronenhülle untergliedert sich demnach in mehrere Kugelschalen, die jeweils eine bestimmte Anzahl von Elektronen aufnehmen können. Die innerste K-Schale kann genau zwei Elektronen aufnehmen, die darüber liegende L-Schale fasst schon acht Elektronen, die dritte M-Schale, bietet 18 Elektronen Platz und so weiter. Das Schalenmodell eignet sich zur Erklärung bestimmter chemischer Eigenschaften und Reaktionen die Ionenbindung von Elementen kann auf das Bestreben der beteiligten Elemente nach einer voll besetzten äußeren Schale zurück geführt werden. Z.B. verbinden sich besonders leicht Elemente, bei denen das eine mit seinen „Außenelektronen“ die Schale des anderen komplettieren kann (z.B. H2O); alle Edelgase haben eine vollbesetzte äußere Schale. Einige Schwächen des Bohrschen Atommodells waren bereits 1913 klar. Insbesondere verletzt die Vorstellung einer definierten Bahn des Elektrons um den Atomkern die 1927 von Werner Heisenberg entdeckte Unschärferelation. Mit der Entdeckung der De Broglie Wellen (s. Kap. 1) konnte man die Elektronenbahnen als stehende Materiewellen auffassen, d.h. die zulässigen Bahnlängen sind Vielfache der Elektronenwellenlänge. Diese quantenphysikalisch begründete Unschärfe der Elektronenbahn ist dafür verantwortlich, dass die Elektronen der Atome nicht in den positiv geladenen Atomkern hineinstürzen. Als Gegenkraft wirkt hier das Elektron selbst, dessen Ladung man sich über die gesamte Bahn verschmiert vorstellen kann. Das Orbitalmodell des Atoms berücksichtigt die neuen, wellenmechanischen Ansätze, nach denen man den Elektronen nur einen „verschmierten“ Bereich zuordnen, in denen man sie finden kann. Obwohl sich der Name des Modells von "Orbit"="Bahn" herleitet, gibt man es hier völlig auf, den Elektronen Bahnen zuzuordnen. Da die Aufenthaltswahrscheinlichkeit der Elektronen mit dem Abstand vom Atomkern asymptotisch gegen null geht und sich bis ins Unendliche erstreckt, wählt man als Orbital den Aufenthaltsraum, in dem sich das betrachtete Elektron mit ca. 90% Wahrscheinlichkeit aufhält. Die Abstände der größten Wahrscheinlichkeiten innerhalb der Orbitale, ein Elektron anzutreffen, entsprechen den von Niels Bohr errechneten Bahnabständen. In welchem Orbital sich ein Elektron aufhält gibt man mit Hilfe von Quantenzahlen an. Die „Hauptquantenzahl“ entspricht den Schalen des Bohrschen Atommodells. Ohne äußere Einwirkungen ist das Atom stationär, es gibt also keine Bewegungen von Elektronen auf Bahnen. Orbitale können mit zwei Kernen assoziiert sein und so chemische Bindungen vermitteln. Die Elemente: Das Neutron ist kein stabiles Elementarteilchen, da es außerhalb des Atomkerns radioaktiv zerfällt. Protonen und Elektronen gelten als stabil. Das Elektron und Proton sind Träger der elektrischen negativen bzw. positiven Elementarladung, d.h. der kleinsten in der Natur vorkommenden elektrischen Ladung. Das Neutron ist elektrisch neutral. Auch das Atom ist im Normalzustand elektrisch neutral, da es in diesem Zustand aus gleicher Anzahl von Elektronen und Protonen besteht, der Ladungen sich gegenseitig aufhebt. Die Anzahl der Protonen eines Atoms, die Kernladungszahl oder auch Ordnungszahl, bestimmt seine chemischen Eigenschaften als „Grundelement“. Es gibt 92 in der Natur vorkommende Grundelemente (wie Wasserstoff, Helium, Sauerstoff, Kohlenstoff, etc.). Aus diesen setzen sich dann alle weiteren chemischen Verbindungen (Moleküle) zusammen. Als Isotope eines Grundelements werden die verschiedenen Ausprägungen bezüglich der Neutronenzahl des Elements bezeichnet. Die Zahl der Nukleonen (Neutronen und Protonen) eines Atoms ist seine Massenzahl. Proton und Neutron sind nicht die letzten Bausteine der Materie. In hochenergetischen Stoßprozessen lassen sie sich weiter zerlegen und auch viele andere sehr kurzlebige Elementarteilchen erzeugen, die sich jedoch alle auf wenige fundamentale Elementarteilchen reduzieren lassen (s. Kap.7). Kernfusionen und Radioaktivität Die Bindungsenergie eines Atomkerns ist anschaulich die Arbeit, die aufgewandt werden müsste, um diesen in seine einzelnen Nukleonen zu zerlegen. Sie entspricht dem sogenannten Massendefekt, d.h. dem Unterschied zwischen der Summe der Massen aller Protonen und Neutronen, aus denen ein Atomkern besteht, und der tatsächlich gemessenen stets kleineren Masse des Atomkerns. Kerne haben wie Atome diskrete Energieniveaus. Ein ungestörter Kern befindet sich normalerweise in seinem tiefsten Energieniveau, dem Grundzustand. Die höheren Niveaus (angeregte Zustände) sind nicht stabil, sondern der Kern geht früher oder später von dort in den Grundzustand über, wobei die Energiedifferenz als Photon (Gammastrahlung) abgegeben wird. Die höheren Energieniveaus eines Atomkerns können aber auch zu anregenden Resonanzen für bestimmte Kernreaktionen führen. Kernfusionen: Bei der Kernfusion muss zunächst die Coulomb-Barriere (elektrische Abstoßungskraft) zwischen den positiv geladenen Kernen überwunden werden. Dazu sind Temperaturen und Drucke erforderlich, wie sie normalerweise nur im Inneren von Sternen herrschen. Im Inneren der Sonne trägt der quantenmechanische Tunneleffekt (s. Kap. 3) wohl häufig dazu bei, dass diese Barriere überwunden werden kann. Beträgt der Abstand der beteiligten Kerne dann nur noch 10−15 m, kann die starke Wechselwirkung die Kerne aneinander binden. Grundsätzlich können Fusionsreaktionen exotherm (Energie liefernd) oder endotherm (Energie verbrauchend) sein. Bei exotherme Fusionsreaktionen führt die Fusion zu einem Massendefekt, d.h. es wird Masse in Energie, zum größten Teil in Strahlungsenergie, umgewandelt, weil die Bindungsenergie des fusionierten Kerns höher ist, als die der beiden Ausgangskerne zusammen. Da die Bindungsenergie pro Nukleon mit steigender Massenzahl nur bis zur Bildung des Elementes Eisen (58Fe) zunimmt, kommt es im Sterninneren nur solange zu Energie-liefernden Kernfusionen, bis dieses aus einem Eisenkern besteht. Wenn ein Stern soweit ausgebrannt ist, dass er dem nach Innen gerichteten Gravitationsdruck nicht mehr widerstehen kann, kommt es in gewissen Fällen zu einem abrupten Kollaps mit explosiver Abspaltung der Sternenhülle (Supernova). Dabei treten so hohe Energien auf, dass auch endotherme Fusionsreaktionen stattfinden können, und aufeinanderprallende Atomkerne auch zu Elementen verschmelzen, die schwerer als Eisen sind. Kernspaltungen und Radioaktivität: Atomkerne sind nur solange stabil, solange solange die Kernladungszahl nicht zu hoch ist und die Neutronenzahl nicht zu niedrig ist, denn nur dann kann die „Starke Kraft“ den Kern gegen die elektrische Abstoßungskraft zusammenhalten. Radioaktive Atomkerne (Radionuklide) sind im obigen Sinn instabil und zerfallen mit einer gewissen Radionuklid-spezifischen Halbwertszeit in leichtere Kerne. Die Halbwertszeit (d.h. die Zeit bis 50% einer gegebenen Ausgangsmenge zerfallen ist) kann Bruchteile von Sekunden oder Trillionen von Jahren betragen. Radionuklide (wie z.B. Uran-, Caesium- oder Plutonium-Kerne) sind alle deutlich schwerer als Eisen und haben daher eine geringere Bindungsenergie (d.h. einen geringeren Massendefekt) als die Spaltprodukte. Die Reaktion ist daher exotherm, es wird Masse in Energie umgewandelt. Die beim Umwandlungsprozess frei werdende Energie wird in der Regel als α-, β- oder γ-Strahlung emittiert. Beim α- und β- Zerfall ändert sich die Kernladungszahl des Ausgangskerns, es entsteht ein neues Element. Die γ-Strahlung ist eine Begleiterscheinung des α- und β- Zerfalls, dabei wird der Anregungszustand des veränderten Kerns unter Abstrahlung eines γ-Photons herabgesetzt. Beim α-Zerfall spaltet der Ausgangskern einen Heliumkern („Alphateilchen“, bestehend aus 2 Protonen und 2 Neutronen) ab, entsprechend verringern sich Kernladungs- und Massenzahl um 2 bzw. um 4. Für Alphastrahler erhöht sich dabei der Massendefekt (Bindungsenergie). Die diesem Masseverlust entsprechende Energie wird in kinetische Energie der Zerfallskerne umgesetzt. Dabei kann das Alphateilchen den Atomkern gegen die wirkende Starke Kraft nur mittels des quantenmechanischen Tunneleffekt verlassen. Dessen Eintrittswahrscheinlichkeit bestimmt die Halbwertszeit des Zerfalls.Typische in der Natur vorkommende Alphastrahler sind Uran und Thorium sowie deren Zerfallsprodukte Radium und Radon. Beim β-Zerfall wird ein Proton des Ausgangskern in ein Neutron umgewandelt oder umgekehrt, dabei wird ein Positron respektive Elektron emittiert und die Kernladungszahl ändert sich entsprechend um 1. Für den β- Zerfall ist die Schwache Wechselwirkung verantwortlich. Dabei wird zwischen dem β-minus-Zerfall (ein Elektron wird ausgesendet) und β-plus Zerfall (ein Positron wird ausgesendet) unterschieden: β-minus : Neutron -> Proton + Elektron + Anti-Neutrino + Energie β-plus : Proton + Energie -> Neutron + Positron + Neutrino Atomkerne sind dann stabil, wenn sie annähernd gleiche Anzahl von Protonen und Neutronen haben, und insgesamt nicht zu viele. Atomkerne mit einem Neutronenüberschuss zerfallen gemäß dem Beta-minus-Prozess, bei zu viel Protonen dagegen setzt der (seltenere) Beta-plusZerfall ein. Das Neutron ist etwas schwerer als das Proton. Im Atomkern ist das Neutron im Normalfall stabil und trägt auch zur Stabilität des Atomkerns durch die Starke Wechselwirkung insgesamt bei, da zwischen Neutronen untereinander und zwischen Neutronen und Protonen keine elektrostatische Abstoßungskraft auftritt (s. Kap 8). Auch freie Neutronen unterliegen dem Beta-minus-Zerfall (im Mittel nach 15 Minuten). Freie Protonen sind stabil. Die Umwandlung Protonen in Neutronen gemäß β-plus erfordert eine Energie von 1,3 MeV, was der Differenz der Ruheenergien von Proton und Neutron entspricht. Entscheidende Bedeutung hat dies z.B. bei der Fusion von Wasserstoff zu Helium in der Sonne, da dabei Protonen in Neutronen umgewandelt werden müssen. So entsteht aus vier Protonen (den Wasserstoffkernen) über mehrere Zwischenschritte der stabile Heliumkern mit zwei Protonen und zwei Neutronen. Aus diesem Prozess bezieht die Sonne ihre Energie. Aufgrund der sehr kurzen Reichweite und relativen Schwäche der dafür verantwortlichen schwachen Kraft läuft dieser Prozess so langsam ab, dass die Sonne schon seit vielen Milliarden Jahren stabil leuchtet, und es voraussichtlich noch einmal so lange tun wird. Der inverse β-minus-Zerfall (Proton + Elektron + Energie -> Neutron + Neutrino) kann bei sehr hohem Gravitationsdruck im Inneren von Weißen Zwergen oder Neutronen-Sternen stattfinden. Das Periodensystem der Elemente (PSE) Man unterscheidet 7 Perioden (Zeilen) entsprechend der Anzahl der Elektonenschalen im Schalenmodell der Atomhülle. Die erste Periode enthält nur die Elemente Wasserstoff und Helium mit einem bzw. zwei Elektronen auf der einzigen K-Schale. Die weiteren Perioden enthalten jeweils 18 Spalten, davon 8 Hauptgruppen entsprechend der Anzahl von Elektronen auf der jeweiligen Außenschale (Spalten 1,2, und 13-18 des PSE) und 10 Nebengruppen (Spalten 3-12 des PSE). Die Nebengruppen besitzen jeweils ein oder zwei Außenelektronen, die Unterschiede liegen in der darunter liegenden Schale. Die Elemente jeder Gruppe haben ähnliche chemische Eigenschaften und von oben nach unten zunehmende Ordnungszahl. Die Elemente der ersten 12 Gruppen (=Spalten) sind allesamt Metalle. Auch die Elemente der Hauptgruppen III-VI zählt man bis auf die Elemente C, N, O, P und S zu den Metallen oder Halbmetallen. Es gibt 94 natürliche Elemente, davon 80 stabile und 14 radioaktive. Die Hauptgruppe I der Alkalimetalle beinhaltet 7 reaktive Leichtmetalle (d.h. geringe Dichte, mit Messer schneidbar), die in ihrer Valenzschale ein einziges Elektron enthalten und daher eine Neigung haben eine Ionenbindung einzugehen, bei der das Elektron abgegeben wird zur Komplettierung der Außenschale eines anderen Elements. Sie enthält u.a. Lithium, Natrium und Kalium. (Wasserstoff wird nicht dazu gezählt, obwohl gemäß Theorie bei riesigem Druck „metallischer Wasserstoff“ entstehen kann). Die Alkalimetalle reagieren heftig (Abgabe von Wärme) u.a. mit Wasserstoff (Bildung von Alkalimetallhydriden, z.B. NaH), Wasser (unter Abgabe von Wasserstoff, z.B. Na2 + 2H2O > 2NaOH + H2), Sauerstoff (Bildung von Oxiden, z.B. Na2O) und Halogenen (z.B. Natriumchorid Na+ Cl-). Die Halogene befinden sich in der Hauptgruppe VII, sie enthalten u.a. Fluor, Chlor, Brom und Jod und kommen in der Natur vor allem als einfach negativ geladene Anionen in Ionenbindung mit Alkalimetallen zu Salzen vor. Sie reagieren auch mit Wasserstoff und bilden starke Säuren (z.B. HCl in wässriger Lösung = Salzsäure). Die Hauptgruppe VIII enthält die äußerst reaktionsschwachen Edelgase. Metalle, Halbmetalle, Nichtmetalle: Zu den Metallen gehören die Elemente, die eine metallische Bindung zwischen gitterförmig angeordneten Metallionen und im Gitter frei beweglichen Valenzelektronen realisieren. Die Unterscheidung Schwermetalle zu Leichtmetallen erfolgt oft über die Dichte (>/< 5g cm³). In der Kerntechnik versteht man unter Schwermetallen auch alle durch Neutronen spaltbaren Nuklide. Edelmetalle sind besonders korrosionsbeständige Metalle (Gold, Silber, Platin). Der Metallcharakter der Elemente im PSE nimmt von oben nach unten zu, von links nach rechts ab, bezüglich der erforderlichen Ionisierungsenergie verhält es sich umgekehrt. Halbmetalle (auch elementare Halbleiter, wie z.B. Silizium) stehen was elektrische Leitfähigkeit betrifft zwischen Metallen und Nicht-Metallen. Chemische Verbindungen: Bei chemischen Bindungen unterscheidet man die Ionenbindung, die auf der elektrostatischen Anziehung positiv und negativ geladener Ionen beruht (z.B. Na+ Cl-), von kovalenten Bindungen, bei denen sich die Atome im Molekül die äußeren Elektronen teilen (z.B. H2O). In Metallbindungen von Metallen und Legierungen, die auf der elektrostatischen Anziehung zwischen Metallionen und im Gitter frei beweglichen Valenzelektronen beruht. Diese freien und geteilten äußeren Elektronen transportieren Wärme und Elektrizität. Ferner gibt es einige schwache Bindungen zwischen Molekülen, z.B. die sogenannte Wasserstoffbrückenbindung. Diese spielt z.B. für Wasser und in Biomolekülen (z.B. DNA) eine wichtige Rolle. Die elektrostatische Bindung erfolgt dabei zwischen einem kovalent gebunden Wasserstoffatom und einem Atom höherer „Elektronegativität“ (z.B. Sauerstoff) 7. Das Standard Modell der Elementarteilchenphysik Mit modernen Teilchenbeschleunigern konnten durch hoch-energetische Stoßprozesse bereits ca. 200 verschiedene Elementarteilchen erzeugt werden, auch Antimaterie. Die meisten dieser Elementarteilchen sind instabil, zerfallen nach kurzer Zeit wieder in stabile Elementarteilchen und Energie. Auch Antimaterieteilchen zerstrahlen in kürzester Zeit durch Zusammenstoß mit normaler Materie. Es ist eine der großen Entdeckungen der Physik, dass sich alles Geschehen in der Welt, alle Formen der Masse-Energie, durch das Wirken sehr weniger Arten von Teilchen bzw. Feldern erklären lässt. Das sogenannte Standardmodell der Elementarteilchenphysik (SM) ist eine Theorie, welche die fundamentalen Elementarteilchen und auch drei der vier elementaren KraftWechselwirkungen als Zusammenwirken von 12 nicht weiter teilbaren Materieteilchen (Fermionen) und 5 verschiedenen „Kraftteilchen“ (Bosonen) beschreibt. Die drei vom Standardmodell beschriebenen Wechselwirkungen sind die starke Wechselwirkung, die schwache Wechselwirkung und die elektromagnetische Wechselwirkung. Fermionen, die Bausteine der Materie Materie-Teilchen des Standardmodells Quarks Leptonen Generation 1 Generation 2 Generation 3 Up Charm Top Down Strange Bottom Elektron-Neutrino Myon-Neutrino Tauon-Neutrino Elektron Myon Tauon Die Materie besteht demnach aus 6 verschiedenen Quark-Teilchen, 3 verschiedenen „Elektron“-Teilchen (Elektron, Myon und Tauon) sowie 3 verschiedenen Neutrino-Teilchen (das Elektron-, Myon- und Tauon- Neutrino). Jeweils 2 Quark-Teilchen, 1 Elektron-Teilchen und das zugehörige Neutrino-Teilchen bilden eine Generation von Elementarteilchen. Äquivalente Teilchen verschiedener Generationen haben nahezu identische Eigenschaften, der nennenswerteste Unterschied ist die mit der Nummer der Generation zunehmende Masse. Unsere gewöhnliche Materie ist zusammengesetzt aus Teilchen der ersten Generation: Proton und das Neutron bestehen jeweils einer bestimmten Zusammensetzung der beiden Quarks der ersten Generation (up- und down-Quark), dazu kommt das Elektron und das Elektron-Neutrino (oder kurz „Neutrino“), welches z.B. bei der Umwandlung von einem Neutron in ein Proton beim radioaktiven Beta-Zerfall entsteht. Die Teilchen der 2. und 3. Generation sind in der kosmischen Strahlung und bei künstlichen Stoßprozessen nachweisbar. Sie sind nicht stabil und zerfallen in kürzester Zeit in Teilchen der ersten Generation. Der Grund für ihre Existenz ist ungeklärt. Kraftwirkung in der Quantenphysik: Generell kann man sagen: eine Kraftwirkung entsteht zwischen zwei materiellen Körpern, wenn diese eine „Ladung“ tragen, die mit dieser Kraft gekoppelt ist, z.B. ist die elektrische Ladung gekoppelt mit der elektromagnetischen Kraft, die Masse mit der Schwerkraft. Jedes Objekt mit einer solchen „Kraftladung“ ist von einem entsprechenden Kraftfeld umgeben. Nach der Theorie der Quantenelektrodynamik kann auch eine ruhende Ladung Photonen innerhalb der Grenzen der Heisenbergschen Unschärferelation (HUR) aussenden, also solange ∆E ∆t ~ = h; dadurch ist zwar der Energiesatz kurzzeitig verletzt, denn das Photon transportiert ja Energie, dies ist jedoch für eine Zeitspanne ∆t ~ = h/ ∆E erlaubt. Dieses „virtuelle Photon“ bewegt sich mit Lichtgeschwindigkeit bis in eine Entfernung ∆x= c ∆t, danach wird es von der Ladung wieder eingefangen oder es wird von einer anderen Ladung absorbiert und überträgt so die elektromagnetische Kraftwirkung zur anderen Ladung. Eine ruhende elektrische Ladung erzeugt ein elektrisches Feld durch virtuelle Photonen, eine schwingende elektrische Ladung erzeugt ein schwingendes elektromagnetisches Feld, welches auch als Strahl freilaufender Photonen aufgefasst werden kann. Auch diese können sich mit elektrischer Ladung koppeln und so Kraft (Impuls) übertragen. Dementsprechend geht man auch für die anderen Naturkräfte davon aus, dass die Kraftwirkung jeweils durch spezifische virtuelle Kraftteilchen (auch Austauschteilchen, Botenteilchen, Wechselwirkungsteilchen genannt) übertragen wird. Sie umschwirren die Objekte entsprechender Kraftladung und werden zwischen Objekten gleicher Kraftladung ständig ausgetauscht und übertragen so die Kraftwirkung. Auch diese virtuellen Teilchen existieren nur innerhalb der Grenzen der HUR, also nur innerhalb von Zeiträumen ∆t, die durch ∆E ∆t ~= h gegeben sind, wobei ∆E die Masse-Energie des virtuellen Teilchens ist. Sie sind daher auch nicht direkt beobachtbar, sondern nur durch die vermittelte Kraftwirkung nachweisbar. Wir können uns auch nicht anschaulich vorstellen, wie z.B. der ständige Austausch virtueller Photonen zu einer abstoßenden bzw. anziehenden Kraft zwischen gleichen bzw. ungleichen Ladungen wird. Die Schwerkraft koppelt alle Teilchen, die Energie oder Masse tragen und wird durch Gravitonen vermittelt. Die elektromagnetische Wechselwirkung koppelt Elementarteilchen, welche eine elektrische Ladung tragen und wird durch Lichtteilchen (Photonen) vermittelt. Die starke Kraft koppelt Elementarteilchen, die eine sogenannte „Farbladung“ tragen und wird durch Gluonen vermittelt, die schwache Kraft koppelt Elementarteilchen, die die sogenannte „schwache Ladung“ tragen und wird durch W- und Z-Bosonen vermittelt. Bosonen: Wechselwirkungs-Teichen des Standardmodells Wechselwirkung Teilchen Symbol Koppelnde Ladung Elektromagnetische Kraft Photon Schwache Kraft Z-Boson Starke Kraft Elektrische Ladung Z W-Boson Schwache Ladung (Isospin) W+, W- Gluon g Farbladung Das Standardmodell (der Elementarteilchenphysik) basiert auf den Quantenfeldtheorien der oben genannten Kräfte, die Gravitation ist nicht Teil des Modells. Die von der Theorie postulierten Austauschteilchen können als virtuelle Teilchen prinzipiell nicht beobachtet sondern nur indirekt nachgewiesen werden. Als freilaufende Teilchen können sie auch außerhalb der HUR existieren und sind als solche mit allen theoretisch vorhergesagten Eigenschaften (bis auf das Graviton) auch experimentell nachgewiesen. Als weiteres Boson des Standardmodells gilt das Higgs-Boson, das zunächst theoretisch postuliert und erst in jüngster Zeit experimentell nachgewiesen wurde. Es ist als Anregung eines das Universum gleichmäßig durchdringenden skalaren Higgs-Feldes zu verstehen. Dieses vermittelt allerdings keine Kraftwirkung, sondern verleiht der Theorie zu Folge allen Masse-behafteten Teilchen ihre Ruhemasse (s. unten, Ergänzungen). Alle Materieteilchen haben eine Ruhemasse und unterliegen damit der Gravitation. Auch Neutrinos haben eine sehr geringe Ruhemasse. Von den stabilen Elementarteilchen des Atoms hat das Elektron die geringste Masse, Proton und Neutron sind ca. 2000 mal „schwerer“. Alle Materieteilchen tragen eine schwache Ladung, unterliegen damit auch der schwachen Kraft. Auf das Neutrino wirken nur diese beiden Kräfte. Auf Elektronen und Quarks wirkt außerdem die elektromagnetische Kraft, d.h. sie tragen eine elektrische Ladung, die sie in Atomen zusammenhält. Von den fundamentalen Materie-Teilchen tragen nur Quarks eine Farbladung und unterliegen damit der starken Kraft. Auch Kraftteilchen tragen zum Teil selbst eine koppelnde Ladung: alle Kraftteilchen tragen Energie durch die Raumzeit und unterliegen damit der Gravitation. Photonen, Gluonen und Gravitonen sind dabei aber masselos und bewegen sich daher mit Lichtgeschwindigkeit. W- und Z-Bosonen dagegen haben eine große Ruhemasse (~ 100-fache Protonmasse) und daher nur eine sehr kurze Reichweite. W-Bosonen haben auch eine positive oder negative Elementarladung und unterliegen damit auch der elektromagnetischen Kraft. Gluonen unterliegen selbst der Kraft, die sie vermitteln, denn sie tragen auch eine Farbladung und wechselwirken miteinander. Durch die Eigen-Wechselwirkung der Gluonen untereinander hat auch die Starke Kraft nur eine sehr kurze Reichweite. Kraftteilchen (Bosonen) und Materieteilchen (Fermionen) unterscheiden sich grundsätzlich durch eine Eigenschaft, die man den Spin nennt. Der Spin ist eine dem Drehimpuls vergleichbare Eigenschaft aller Elementarteilchen. Er beschreibt die Rotation des Teilchens um die eigene Achse. Seine exakte Bedeutung ergibt sich aus dem mathematischen Regelwerk der Quantenmechanik. Der Spin von Fermionen hat den Wert ½ ħ , wobei ħ die reduzierte Planck-Konstante ist. Der Zahlenfaktor s = ½ ist die Spinquantenzahl (kurz: Spin). Fermionen grenzen sich dadurch ab von den Bosonen, die eine ganzzahlige Spinquantenzahl (0,1,2 und entsprechende Spin-Werte 0 ħ , 1 ħ, 2 ħ ) besitzen. Während Photon, Gluon, Wund Z-Boson alle den Spin 1 haben, soll das Higgs-Boson den Spin 0 und das Graviton den Spin 2 besitzen. Der Spin ½ bedeutet, dass der gleiche Zustand 2 Umdrehungen erfordert, d.h. die quantenmechanische Wellenfunktion ändert nach einer Rotation um 360° das Vorzeichen, nach einer Rotation um 720° ist der Ausgangszustand wieder hergestellt. Der ganzzahlige Spin 0 bedeutet Rotationsinvarianz, für den Spin 1 ist eine, für Spin 2 ist ½ Umdrehung erforderlich sind um den Ausgangszustand wieder herzustellen. Die sogenannte magnetische Spinquantenzahl beschreibt die Orientierung der Drehung (im UZS, gegen UZS) des Spins und kann daher jeweils auch den negativen Wert der Spinquantenzahl annehmen. Die Spin-Quantenzahl ½ für alle Fermionen ist entscheidend dafür, dass diese dem berühmten Pauli'schen Ausschlussprinzip unterliegen. (s. Kap. 8). Antimaterie besteht aus nahezu den gleichen Elementarteilchen wie normale Materie, mit dem Unterschied, dass bei den jeweiligen Anti-Teilchen gewisse physikalische Größen (Quantenzahlen), wie z.B. elektrische Ladung, Farbladung und schwache Ladung, entgegen gesetzte Werte annehmen. Das „Anti-Elektron“ ist z.B. positiv geladen und heißt Positron, das Anti-Proton hat entsprechend eine negative Ladung. Anti-Materie hat in unserer Welt der normalen Materie keinen Bestand, da sich Teilchen und Anti-Teilchen bei Zusammenstoß gegenseitig vernichten. (Umwandlung von Masse in Energie). Anti-Materie ist von Paul Dirac theoretisch vorausgesagt, und erst später experimentell bewiesen worden. Der Grund für die Asymmetrie zwischen Materie und Antimaterie im Universum ist ungeklärt. Man vermutet, dass bei der Entstehung der Elementarteilchen nach dem Urknall physikalische Prozesse eine Rolle gespielt haben, die sich bzgl. Raumspiegelung und Ladungsumkehr unsymmetrisch verhalten („CP-Verletzung“), so dass sich mehr Materie als Antimaterie gebildet hat und bei der nachfolgenden gegenseitigen Vernichtung dann nur Materie übrig geblieben ist. Das Standardmodell der Teilchenphysik (SM) – Ergänzungen: (1) Das sogenannte Standardmodell der Teilchenphysik wurde seid etwa 1970 entwickelt. Es fasst die wesentlichen Erkenntnisse der Teilchenphysik nach heutigem Stand zusammen. Es beschreibt alle bekannten Elementarteilchen und die wichtigen Wechselwirkungen zwischen ihnen. Nur die (relativ sehr schwache) Gravitation wird nicht berücksichtigt. In theoretischer Hinsicht ist es eine Quantenfeldtheorie. Ihre fundamentalen Objekte sind Felder der Raumzeit (Feldtheorie), die nur in diskreten Energiepaketen verändert werden (Quantentheorie). Die diskreten Pakete entsprechen in einer passenden Darstellung den beobachteten Teilchen (Fermionen und Bosonen). Sie ist kompatibel mit den Gesetzen der speziellen Relativitätstheorie und setzt sich aus 3 Teiltheorien zusammen: der Quantenelektrodynamik, deren Erweiterung zur Theorie der elektroschwachen Wechselwirkung und der Quantenchromodynamik (QCD) . (2) Die Quantenchromodynamik ist die Quantenfeldtheorie der starken Wechselwirkung. Sie stellt die Wechselwirkung zwischen zwei Quarks durch den Austausch eines Gluons dar. Quarks tragen eine sogenannte Farbladung, die im Unterschied zur elektrischen Ladung in drei Varianten auftritt (bezeichnet mit rot, grün, blau bzw. anti-rot, anti-grün und anti-blau für Anti-Quarks). Außerdem tragen Quarks die elektrische Ladung -1/3 oder +2/3. Auch Gluonen tragen Farbladungen ( i.d.R. eine Farbe und Antifarbe) und wechselwirken daher miteinander. Ja nach Farbkombination unterscheidet man 8 verschiedene Gluonen. (Das Gluon mit der Kombination „blau, anti-rot“ kann z.B. mit einem roten Quark reagieren und dessen Farbe in blau ändern.). Confinement: Quarks treten nie singulär auf, sondern nur als 3'er Gruppen von Quarks (Baryonen oder Anti-Baryonen), oder 2'er Gruppen (Mesonen, bestehend aus einem Quark und Anti-Quark); die gemeinsame Obergruppe nennt man Hadronen. Der Zusammenschluss hat immer so zu erfolgen, dass sich in Summe die elektrische Ladung 0,1 oder -1 ergibt, sowie die Summen-Farbladung „null“ (z.B. blau +grün + rot oder blau+anti-blau). Mesonen und die meisten Baryonen sind instabil. Protonen und Neutronen der normalen Materie bestehen jeweils aus 3 Quarks der 1. Generation (Proton = uud= up-up-down, Neutron =udd). Die starke Kraft bindet nicht nur Quarks zu Hadronen zusammen, sondern vermittelt auch die sogenannte starke Rest-Wechselwirkung zwischen diesen, welche den Atomkern zusammen hält. Bei einem Abstand von etwa 2,5 x 10-15 m ist die Anziehung durch diese starke Rest-WW vergleichbar stark wie die elektrostatische Abstoßung zwischen Protonen. Jenseits dieses Abstandes nimmt sie dagegen sehr steil ab, während die Coulombkraft nur proportional zu 1/r2 abnimmt. Dieses Zusammenspiel der beiden Grundkräfte erklärt den Zusammenhalt der Atomkerne, aber auch z.B. den Prozess der Spaltung schwerer Kerne. (3) Die schwache Wechselwirkung wirkt zwischen allen Teilchen vom Typ Lepton und Quark, wobei sie als einzige der Wechselwirkungen Umwandlungen zwischen Leptonen (z.B. Elektron in Neutrino, Neutrino-Oszillationen) oder auch zwischen Quarks (z.B. up-Quark in down-Quark) bewirken kann. Sie ist die einzig bekannte Naturkraft, die Prozesse erlaubt, die bzgl. Raumspiegelung oder Zeitumkehr nicht symmetrisch sind. Ihre Austauschteilchen W+, W− und Z-Boson haben eine kurze Lebensdauer (~ 10-25 s), eine große Masse und daher eine sehr kurze Reichweite. Sie wirken meist als virtuelles Teilchen und können dadurch auch in Prozessen auftreten, die nicht die nötige Energie für ihre Erzeugung als reale Bosonen haben. W-Bosonen bewirken Teilchenumwandlungen (z.B. Beta-Zerfall), Z-Bosonen vermitteln WW zwischen Neutrinos und Materie (z.B. Übertragung von Energie). (4) Die Quantenfeld-theoretische Beschreibung der schwachen Wechselwirkung beruht auf der Zusammenfassung mit der elektromagnetischen zur elektroschwachen Wechselwirkung, die ein Grundpfeiler des Standardmodells ist Im Zusammenhang mit der Erklärung der Masse dieser Austauschteilchen wurde das Higgs-Boson postuliert. Die für das Standardmodell grundlegende Eichtheorie erfordert aus mathematischen Gründen, dass Wechselwirkungsteilchen zunächst keine Masse haben. Bei Entwicklung der Theorie der elektroschwachen WW wurden 4 masselose Bosonen als Botenteilchen postuliert. Diese elektroschwache Kraft sollte aber unterhalb einer kritischen Temperatur (des frühen Universums) durch eine „spontane Symmetriebrechung“ in die elektromagnetische und die schwache Wechselwirkung zerfallen, ihre Bosonen dabei durch eine Transformation in je ein Photon, W+,W- und Z-Boson übergehen. Z- und W-Bosonen erhalten dabei eine Masse, die W-Bosonen auch eine elektrische Elementarladung. Masse-behaftete Bosonen können in der Quantenfeldtheorie nur mit Hilfe eines Skalarfeldes beschrieben werden, das ihnen Masse verleiht. In der elektroschwachen Theorie ist dieses Feld das bereits 1964 postulierte HiggsFeld, welches im ganzen Universum allgegenwärtig sein soll. Dieses wechselwirkt (gemäß Theorie) in solcher Weise mit W- und Z-Bosonen, aber auch mit allen Fermionen (Quarks und Leptonen), dass alle diese Teilchen dadurch Masse erhalten („Higgs-Mechanismus“). Während das Higgs-Feld nicht direkt messbar ist, muss bei seiner Existenz ein weiteres Elementarteilchen auftreten, das „Higgs-Boson“. Es ist massiv, elektrisch neutral, hat Spin 0 und zerfällt nach sehr kurzer Zeit. Higgs-Bosonen sind dabei als elementare Anregungen des Higgs-Felds zu verstehen, die sich als nachweisbares Teilchen bemerkbar machen, analog einer Gitarrensaite (schwingungsfähiges System), die aus dem Grundzustand zu (diskreten) Vibrations-Niveaus (Tönen) angeregt werden kann. Genau dieses „In-Schwingung-Bringen der Saite“ geschieht aufgrund der erforderlichen sehr hohen Energien erst bei Kollisionen in Hochenergie-Teilchenbeschleunigern. (5) Der Massebegriff im Licht des SM: Die Ruhemasse der Elementarteilchen, eine früher als ursprünglich angesehene Eigenschaft, wird somit als Folge einer Wechselwirkung gedeutet. Dieser Theorie zufolge, ist der Kosmos gleichförmig von einem Higgs-Feld durchdrungen. Dieses ist dafür verantwortlich, dass Elementarteilchen eine Masse haben können, weil sie in unterschiedlicher Weise mit dem Higgs-Feld wechselwirken (Austausch virtueller Higgs-Teilchen) und daher bei Beschleunigung oder Bewegungsänderungen einen Widerstand erfahren. Es hat überall die gleiche Stärke und ist im Gegensatz zu elektrischen oder magnetischen Feldern ein Skalarfeld, also richtungslos. Deshalb haben Teilchen derselben Sorte immer die gleiche Ruhemasse, unabhängig von ihrem Ort und der Richtung ihrer Bewegung. Die so entstandenen Massenwerte aller Elementarteilchen tragen aber zur Masse der normalen Materie, also der Masse der Atome, nur ca. 1% bei, denn diese beruht wegen der Äquivalenz von Masse und Energie auch auf sämtlichen Wechselwirkungen ihrer Bestandteile. Zu über 99% steckt die Atommasse im Atomkern, dessen Masse wiederum zu etwa 99% aus der durch Gluonen vermittelten starken Bindung zwischen den Quarks in seinen Nukleonen sowie der Bewegungsenergie dieser Quarks resultiert (Ruhemasse des Protons 940 MeV/c2, Summenmasse seiner Quarks ~ 10 MeV/c2). (6) Experimentelle Nachweise und Grenzen: Die Vereinheitlichung der elektromagnetischen mit der schwachen Wechselwirkung wurde 1967 von Sheldon Glashow, Abdus Salam und Steven Weinberg theoretisch beschrieben (GWS-Theorie). Experimentell wurde die Theorie erst 1973 indirekt durch bestimmte vorausgesagte Umwandlungsprozesse unter Mitwirkung des Z-Bosons und 1983 direkt durch den Nachweis der W± und Z-Bosonen als freie Teilchen bestätigt. Der Nachweis von HiggsBosonen ist erst kürzlich gelungen. Neben grundsätzlicher Kritik am Standardmodell gibt es auch noch viele ungeklärte Einzelfragen (siehe Kap. 10). 8. Das Pauli-Prinzip In der klassischen Physik kann man gleichartige Teilchen in einem Gemisch prinzipiell in dem Sinn unterscheiden, dass man ihre genauen Bewegungsgrößen misst und ihre Bahnen durch Berechnung von Stoßprozessen voraus berechnet oder zurück verfolgt. In der Quantenmechanik ist dies wegen der Heisenbergschen Unschärferelation aber prinzipiell nicht möglich. Die Wellenfunktionen solch nicht unterscheidbarer Teilchen eines Quantensystems beeinflussen sich jedoch, sie überlagern sich zu einer Gesamtwellenfunktion, so wie sich auch mehrere ineinander laufende Wasserwellen zu einer Gesamtwelle überlagern können. Auch diese Gesamtwellenfunktion kann als Wahrscheinlichkeitsfunktion für den Ort der Teilchen interpretiert werden. Von einer Ansammlung elementarer Teilchen kann man erwarten, dass sich physikalisch nichts ändern würde, wenn man zwei gleichartige Teilchen vertauscht. Insbesondere muss das Betragsquadrat ihrer Gesamtwellenfunktion (als Maß für die Aufenthaltswahrscheinlichkeit der Teilchen) gegenüber der Vertauschung invariant sein. Daraus folgt, dass die Gesamtwellenfunktion bei Vertauschen zweier Teilchen höchstens das Vorzeichen wechseln darf, also symmetrisch oder antisymmetrisch (nur Vorzeichenwechsel) sein muss. Experimentell hat man ermittelt, dass es in der Tat 2 Klassen von Elementarteilchen gibt, die sich genau dadurch unterscheiden: für Bosonen bleibt die Gesamtwellenfunktion bei Vertauschung zweier Teilchen gleich, für Fermionen ändert sich deren Vorzeichen. Dies hängt mit dem Spin (½ oder ganzzahlig) der Elementarteilchen zusammen. Das sogenannte Spin-Statistik-Theorem liefert dafür auch eine theoretische Begründung. Zu den Fermionen (mit Spin 1/2) gehören alle Teilchen, aus denen sich die Materie aufbaut, also sowohl die Quarks und die daraus zusammen gesetzten Kernbausteine (Proton, Neutron) als auch die Leptonen (Elektron, Neutrino). Zu den Bosonen (ganzzahliger Spin) gehören alle Botenteilchen der Naturkräfte, also z.B. Photonen, Gluonen, Gravitonen (siehe Kap. 7). Eine wichtige Konsequenz aus dem Vorzeichenwechsel der Gesamtwellenfunktion beim Vertauschen von Fermionen in einem Quantensystem ist die als „Pauli Prinzip (PP) oder Pauli'sches Ausschlussprinzip“ bekannte Regel, dass Elektronen oder andere Fermionen nicht gleichzeitig einen identischen Quantenzustand am gleichen Ort annehmen können, d.h. sie können innerhalb der Grenzen der HUR z.B. nicht zu gleicher Zeit den gleichen Ort und den gleichen Impuls haben. Dies erklärt, warum Materieteilchen unter dem Einfluss der Naturkräfte nicht zu einem Zustand sehr hoher Dichte kollabieren können: befinden sich zwei Teilchen für einen Moment in annähernd gleicher Position, so führt der dann notwendige unterschiedliche Impuls dazu, dass sich die Teilchen sofort wieder auseinander bewegen. Diese gegenseitige "Abstoßung" der Fermionen gibt der Materie ihre Ausdehnung und Festigkeit. Auf die Elektronen in einem Atom angewendet erklärt das Pauli-Prinzip, dass nicht alle Elektronen in den gleichen Grundzustand fallen können, sondern paarweise die verschiedenen Orbitale (Schalen) eines Atoms auffüllen. Erst durch diese Eigenschaft erklärt sich der systematische Aufbau des Periodensystems der chemischen Elemente. Aufgrund des Pauli-Prinzips gilt, dass in einem Atom keine zwei Elektronen in allen Quantenzahlen, die zu seiner Zustandsbeschreibung im Atommodell notwendig sind, übereinstimmen dürfen. Diese Quantenzahlen des Elektrons sind sein Spin und eine Reihe weiterer Quantenzahlen, die das Orbital („die Bahn , die Schale“) des Elektrons im Atom definieren. Daher kann ein Orbital nur jeweils zwei Elektronen aufnehmen, die sich in ihrer magnetischen Spinquantenzahl unterscheiden, welche nur die Werte +1/2 und -1/2 annehmen kann. Herleitung des PP aus der Asymmetrie der Wellenfunktion für Fermionen: Betrachtet man (ohne Beschränkung der Allgemeinheit) ein System aus nur zwei nicht unterscheidbaren Fermionen, so gilt wegen der Antisymmetrie der Gesamtwellenfunktion für Fermionen bei Vertauschung der Teilchen (mit den Ortsvektoren r1, r2 und den Spins s1,s2): ψ (r1,s1; r2,s2) = - ψ (r2,s2; r1,s1); Für ( r1,s1)= (r2,s2) ergibt sich daraus ψ (r1,s1 ; r1,s1) = - ψ (r1,s1 ; r1,s1), d.h. ψ (r1,s1 ; r1,s1) = 0. Die Wahrscheinlichkeit dafür, dass man bei einer Messung beide Fermionen am selben Ort r1 mit selbem Spin s1 findet, ist also Null. Ausgangspunkt für das Pauli-Prinzp (PP) ist also die Tatsache, dass identische Teilchen in der Quantenmechanik ununterscheidbar sind. Dies impliziert, dass die Wellenfunktion sich bei Vertauschung von solchen identischen Teilchen nur symmetrisch oder antisymmetrisch ändern kann, also das Betragsquadrat der WF gleich bleibt. Das Ausschlussprinzip für Fermionen ergibt sich aus der Antisymmetrie der Änderung. Für Bosonen gilt das PP nicht. Beliebig viele Bosonen können sich im gleichen quantenmechanischen Zustand befinden. Dass Bosonen im gleichen Zustand sein können ermöglicht Kraftfeldern (z.B. Lichtstrahlen) sich problemlos durchdringen. Dies gilt nicht für Materieteilchen. Da die Austauschteilchen der Naturkräfte nicht dem PP unterliegen, können sie auch gleichzeitig in nahezu unbegrenzter Zahl ausgetauscht werden und so eine starke Kraft hervorrufen. (Gluonen streuen allerdings stark aneinander, da sie selbst Farbladung besitzen und miteinander interagieren). Neutronen- und Kern-Stabilität: Das Pauli-Prinzip ist auch dafür verantwortlich, dass Neutronen im Atomkern im Gegensatz zu freien Neutronen normalerweise stabil sind. Es gibt für sie im Kern kein niedrigeres Kern-Energieniveau um zu Protonen zerfallen zu können. (In Kernen müssen Neutronen und Protonen auf Grund des PP jeweils eine Stufenleiter zunehmender Energie-Niveaus besetzen. Gibt es mehr Neutronen als Protonen lohnt sich irgendwann der beta-Zerfall eines Neutrons, da der Kern damit ein niedrigeres und damit stabileres Energieniveau erreicht. Gegenläufiger Effekt: viele Neutronen im Kern vergrößern den mittleren Abstand von Protonen und verringern damit deren elektrostatische Abstoßung.) Brian Greene: „Alle Teilchen, Kraft- und Materieteilchen, werden als Anregungen eines zugrunde liegenden Feldes gesehen. Dass sich Materiefelder (z.B. ein Elektronenfeld) nicht makroskopisch wie ein klassisches Feld manifestiert, liegt am Pauli-Prinzip. Materieteilchen der gleichen Art können sich nicht durchdringen.“ Das PP für Fermionen (Materieteilchen) ist also auch dafür verantwortlich, dass man nicht einfach durch eine geschlossene Tür hindurchgehen kann. Entartungsdruck: Sterne werden über einen Großteil ihres Lebenszyklus durch den Strahlungsdruck und Gasdruck im Gleichgewicht gehalten, die ihre Energie aus den Kernfusionsprozessen im Inneren der Sterne beziehen. Wenn der Kernbrennstoff verbraucht ist verdichten sich die Sterne weiter zu sogenannter entarteter Materie. Bei dieser ist die Atomstruktur der Materie aufgelöst, die Elektronen rücken so nahe zusammen, dass eine Art Elektronenflüssigkeit entsteht, oder sie werden sogar in die Atomkerne „hinein gedrückt“ und verschmelzen mit den Protonen des Kerns (inverser β-minus-Zerfall, s. Kap. 6) zu Neutronen. Wenn die Sternmasse nicht zu groß ist, kann aber auch dann dem gravitativen Sog in das Zentrum durch den sogenanntem Entartungsdruck widerstanden werden. Dieser hat seine Ursache im Pauli-Prinzip, das verbietet, dass zwei Fermionen (in diesem Fall die Elektronen oder Neutronen der entarteten Materie) einen identischen Quantenzustand annehmen können. 9. Philosophische Aspekte der Quantentheorie Die klassische Physik ist anschaulich, wir können uns die von ihr beschriebenen Prozesse vorstellen. Die klassische Physik ist außerdem realistisch und objektivierbar, denn man geht allgemein davon aus, dass die messbaren physikalischen Größen Teil der Realität sind, und jede Messung intersubjektiv überprüfbar ist und etwas über die Realität in Erfahrung bringt. Zwar stört auch in der klassischen Mechanik jede Messung unweigerlich das gemessene System, jedoch lässt sich die Störung beliebig klein machen, so dass es sinnvoll ist, idealisierend von störungsfreien Messungen auszugehen. Insbesondere geht man davon aus, dass die Messwerte auch unabhängig von unserer Beobachtung vorliegen und feststehen. Schließlich ist die klassische Physik auch deterministisch, den für jedes klassische System mit bekanntem Anfangszustand t0 lassen sich die Gesetzmäßigkeiten oder Regeln angeben, nach denen der Folgezustand des Systems zum Zeitpunkt t1 zumindest prinzipiell berechenbar ist. In der Quantenphysik ist dies alles anders. Zunächst ist die Anschaulichkeit nicht mehr gegeben. Quanten-physikalische Phänomene wie der Welle-Teilchen-Dualismus, nicht-lokale Quanten-Verschränkungen oder die Kraftübermittlung durch virtuelle Bosonen sind anschaulich nicht vorstellbar. Ferner sind störungsfreie Messungen in der Quantenmechanik prinzipiell nicht möglich. Darüber hinaus stellt sich auch die Frage, ob die Messwerte ohne und unabhängig von unserer Beobachtung überhaupt reale Eigenschaften des Quantenobjekts darstellen, ob es überhaupt sinnvoll ist, einem unbeobachteten System Eigenschaften zuzuschreiben, oder ob nicht vielmehr die beobachteten Eigenschaften überhaupt erst durch die Beobachtung entstehen? Die Quantentheorie und diese Deutungen sind von erheblicher Relevanz für das naturwissenschaftliche Weltbild und die Philosophie. Kern dieser Fragestellung ist die Interpretation der Wellenfunktion. Die Kopenhagener Deutung der Quantenmechanik (QM): Die Kopenhagen Deutung ist eine Interpretation der Quantenmechanik. Sie wurde um 1927 von Nils Bohr und Werner Heisenberg während ihrer Zusammenarbeit in Kopenhagen formuliert und basiert auf der Wahrscheinlichkeitsinterpretation der Wellenfunktion (WF). Gemäß dieser Interpretation ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell nicht-deterministischen Charakters von Naturvorgängen. Kernaussagen dieser Deutung sind: Die QM ist nicht-realistisch, d.h. eine Messung liest nicht nur Eigenschaften ab, die auch ohne die Messung vorliegen. Es gibt keine verborgenen Parameter wie z.B. reale, nur unserer Kenntnis prinzipiell entzogene Teilchenbahnen. Impuls und Ort sind unterhalb gewisser Grenzen, die durch die HUR gegeben sind, nicht definiert. Teilchenbahnen sind daher keine reale Eigenschaft von Quantenobjekten. Die QM ist nicht-deterministisch. Selbst wenn der Anfangszustand eines Quantensystems genau bekannt wäre, ließe sich keine Gesetzmäßigkeit oder Regel angeben, nach der ein Folgezustand prinzipiell genau berechenbar wäre. Vor einer Messung lassen sich nur Wahrscheinlichkeiten angeben, sind nur stochastische Vorhersagen möglich; erst durch die Messung erfolgt der Übergang vom Möglichen zum Faktischen. Die Wellenfunktion ist nur ein Instrument, ein mathematisches Werkzeug zur Voraussage der Erwartungswerte von Messergebnissen (Bohr), sie ist die Verkörperung dessen, was wir über ein Quantensystem vor einem Messakt wissen können (Heisenberg). Sie hat keine Realität im unmittelbaren Sinne, denn nur Messergebnisse werden als Elemente der Realität angesehen. Demnach hat es gar keinen Sinn davon zu sprechen, welchen Zustand beispielsweise ein Elektron hat, solange man es nicht beobachtet. Erst durch den Messakt erfolgt der Übergang vom Möglichen zum Faktischen. Dabei nimmt die Wellenfunktion für alle nicht gemessenen Möglichkeiten instantan den Wert 0 an. Dieser Kollaps der Wellenfunktion lässt sich jedoch nicht aus der Schrödingergleichung ableiten. Er ist ein zusätzliches Postulat um erklären zu können, was in Experimenten tatsächlich sichtbar wird. Er ist – nach Heisenberg - nichts anderes, als die durch die Messung bewirkte plötzliche Veränderung unseres Wissens: „Die Beobachtung selbst ändert die Wahrscheinlichkeitsfunktion unstetig. Sie wählt von allen möglichen Vorgängen den aus, der tatsächlich stattgefunden hat. Wenn wir beschreiben wollen, was in einem Atomvorgang geschieht, müssen wir davon ausgehen, dass das Wort „geschieht“ sich nur auf die Beobachtung beziehen kann, nicht auf die Situation zwischen zwei Beobachtungen.“ Das Grundkonzept der Kopenhagener Deutung baut ferner auf folgenden Prinzipien auf: Korrespondenzprinzip: Dieses von Nils Bohr definierte Prinzip soll allgemein für jede physikalische Theorie gelten, die den Anwendungsbereich einer älteren Theorie erweitert. Es ist erfüllt, wenn die neuere Theorie auf dem Gültigkeitsbereich der älteren zu denselben Ergebnissen kommt wie diese. Unverzichtbarkeit klassischer Begriffe: Diese werden in ihrer üblichen Bedeutung auch in der Quantenwelt benutzt, sie erhalten allerdings Vorschriften über ihre Anwendbarkeit. Das sind z.B. die Definitionsgrenzen von Ort und Impuls, unterhalb diese Begriffe keinen Sinn mehr ergeben, also undefiniert sind. Klassische Begriffe und die vorausgesetzte Gültigkeit des Kausalitätsprinzips der Natur (s. unten) sind schon allein deshalb notwendig, um quantenphysikalische Messungen durchführen und aus diesen zuverlässige Schlüsse auf die Eigenschaften des Messobjekts ziehen zu können. Kausalitätsprinzip und Determinismus: Kausalitätsprinzip nach Kant: alle Veränderungen geschehen nach dem Gesetz der der Verknüpfung von Ursache und Wirkung. Im Sprachgebrauch der Physik könnte man das allgemeiner so definieren: Zwischen 2 Zuständen eines physikalischen Systems zu 2 Zeitpunkten t1 und t2 besteht eine kausale Verknüpfung, wenn es Gesetzmäßigkeiten gibt, welche die beiden Zustände so miteinander verknüpfen, dass der frühere Zustand den späteren bedingt. In der klassischen Physik und auch in der modernen geht man von der Vorstellung aus, dass alles Naturgeschehen dem Kausalitätsprinzip genügt. Dies ist allerdings eine metaphysische Aussage, die nicht impliziert, dass man diese Gesetzmäßigkeit erkennen oder gar beschreiben können muss. Determinismus bedeutet dagegen, dass eine raumzeitliche Beschreibung der Entwicklung eines Systems aus einem bekannten Anfangszustand zumindest prinzipiell möglich ist. Determinismus in diesem Sinn setzt Kausalität voraus und erfordert eine Subjekt-ObjektBeziehung. Aus der nicht-deterministischen QM gemäß Kopenhagener Deutung folgt aber nicht, dass die Natur sich akausal verhält. Wenn in der QM vom Zufall die Rede ist, meinen die meisten Physiker nicht den objektiven Zufall (also ein Ereignis, dass keine Ursache hat), sondern dass wir über eine Ursache prinzipiell nichts wissen können. Kausalordnung und Relativitätstheorie: Aus der speziellen Relativitätstheorie (SRT) folgt, dass sich kein Signal schneller als mit Lichtgeschwindigkeit ausbreiten kann. Dies bedeutet, dass sich 2 Ereignisse in der Raumzeit nur dann kausal beeinflussen können, wenn sie durch einen Lichtstrahl (oder ein unterlichtschnelles Signal) verbunden werden können. Diese „Signal-Lokalität“ ist notwendig (und hinreichend) dafür, dass für jeden Beobachter einer Ursache-Wirkung-Beziehung, unabhängig vom gewählten Bezugssystem, die Wirkung zeitlich nach der Ursache erfolgt. Die durch die SRT implizierte Kausalordnung auf den Ereignissen der Raumzeit ist eine partielle Ordnung. Für ein Ereignis liegt die Ursachenkette im Vergangenheitslichtkegel, die Wirkungskette im Zukunftslichtkegel des Ereignisses. Obwohl die Quantenmechanik eine nicht-lokale Theorie ist (siehe Kap. 3), und nach der Kopenhagener Deutung auch nicht-deterministisch, erfüllt sie die Forderung der SignalLokalität und verletzt daher diese Kausalordnung nicht. Die Bohmsche Mechanik (auch de-Broglie-Bohm-Theorie): Ein erster grundsätzlicher Einwand gegen die Kopenhagener Deutung der QM richtet sich gegen deren nicht-realistische (d.h. auf einen Objektivierbarkeitsanspruch verzichtende) und nicht-deterministische Interpretation. Einstein war zeitlebens ein Hauptvertreter dieser Kritik. Bekannt in diesem Zusammenhang sind seine Aussprüche „Gott würfelt nicht“ und „der Mond ist auch da, wenn wir ihn nicht beobachten“. Für Einstein war die QM in diesem Sinn eine unvollständige Theorie. Werner Heisenberg konzedierte zumindest, dass der Verzicht auf eine realistische Interpretation der quantenphysikalischen Phänomene auf unserer prinzipiellen Unfähigkeit beruhen, hinter den Schleier der Unschärferelation messend vorzudringen. Aus dieser Grundsatzkritik heraus entstand die Bohmsche Mechanik. Die Grundidee dieser Theorie besteht darin, ein Quantensystem nicht nur durch die sich als Lösung der Schrödingergleichung ergebende Wellenfunktion ψ zu beschreiben, sondern zusätzlich durch die Orte Qi der Quantenteilchen, wobei sich diese Orte differentiell aus der Wellenfunktion ableiten lassen. Die Wellenfunktion erhält somit eine reale Bedeutung als Führungswelle der Quantenteilchen. Die Teilchen selbst bewegen sich auf kontinuierlichen (und deterministischen) Bahnen. Dies erklärt auch Interferenz-Erscheinungen, etwa beim Doppelspalt-Versuch. Dort laufen die Teilchen tatsächlich jeweils nur durch einen Spalt, aber eben nicht auf den klassischen Bahnen gemäß Newtons Gesetzen – bloß die Führungswelle passiert beide Spalte. Dem Wahrscheinlichkeitscharakter der Wellenfunktion wird durch eine sogenannte „Quantengleichgewichtshypothese“ Rechnung getragen, wonach die Ortsverteilung der Quantenteilchen durch |ψ |2 gegeben ist. Aufgrund dieser Hypothese wird auch die Heisenbergsche Unschärferelation nicht verletzt. Im Unterschied zur üblichen Quantenmechanik sind die Wahrscheinlichkeitsaussagen der Bohmschen Mechanik jedoch lediglich unserer prinzipiellen Unkenntnis der konkreten Anfangsbedingungen geschuldet. Diesbezüglich kann man immer nur von der unscharfen Quantengleichgewichtsverteilung ausgehen. Nur aus diesem Grund entziehen sich auch die real existierenden Teilchenbahnen (als sogenannte „verborgene Parameter“) prinzipiell unserer Kenntnis. Deshalb ist die Bohmsche Mechanik eine realistische und deterministische Theorie. Sie kommt ohne das Postulat eines Kollaps der Wellenfunktion aus, ein Messresultat entspricht immer einem Teilchenort auf einer kontinuierlichen, durch die Wellenfunktion bestimmten Bahn. Als realistische Quantentheorie kann sie gemäß der Bellschen Ungleichung nur nicht-lokal sein (s. Kap. 3). Räumlich getrennte Objekte eines Quantensystems können sich durch ihre gemeinsame reale Wellenfunktion instantan beeinflussen, was einerseits das Phänomen nicht-lokaler Korrelationen verschränkter Teilchen erklärt, andrerseits darüber hinaus aber auch nicht-lokale Wechselwirkungen erlaubt. Damit wird die Führungswelle zu einer Art „Fernwirkungsfeld“, was einige Ansatzpunkte für Kritik liefert. Die Signal-Lokalität und damit die Relativitätstheorie werden aber auch in der Bohmschen Mechanik respektiert. Die Theorie reproduziert alle Vorhersagen der (nicht-relativistischen) Quantenmechanik. Allerdings sind relativistische und Quantenfeld-theoretische Erweiterungen dieser Theorie bisher nur in Ansätzen entwickelt. Das Messproblem der Quantenmechanik (QM): Andere Deutungen und Modelle der Quantenmechanik zielen vor allem darauf ab, den in der Kopenhagener Deutung postulierten Kollaps der Wellenfunktion beim Messakt zu begründen oder zu vermeiden. Die Wellenfunktion selbst verkörpert dort die Idee einer Überlagerung vieler möglicher Zustände eines Quantensystems vor einer Messung. Dennoch wird am (prinzipiell auch quantenmechanisch beschreibbaren) Messgerät in der Praxis immer ein eindeutiges Messergebnis abgelesen. Die Frage danach, auf welche Weise in diesem Prozess die Entscheidung für die Anzeige des Gerätes geschieht, durch den Messakt also immer genau eine von vorher vielen Möglichkeiten ausgewählt wird, ist als Messproblem der QM bekannt. Die Dekohärenz-Theorie (s. Kapitel 3) liefert eine Erklärung dafür, dass sich makroskopische Objekte immer in eindeutigen Konfigurationen befinden, also klassisches Verhalten zeigen. Allerdings löst auch die Dekohärenz das Messproblem nicht vollständig, da sie nicht beschreibt, wie es zum Auftreten eines konkreten Ereignisses (z.B. des Zerfalls eines Atoms) kommt. Die bekanntesten Antworten auf diese Frage sind: 1. Kopenhagener Deutung: Diese sieht in der Wellenfunktion nicht eine objektive Eigenschaft der Quantenwirklichkeit, sondern eine Verkörperung dessen, was wir über die Wirklichkeit wissen. Demzufolge ist der plötzliche Kollaps der WF nichts anderes, als die durch die Messung bewirkte plötzliche Veränderung unseres Wissens. Der eigentliche Übergang vom Möglichen zum Faktischen wird mit „Zufall“ begründet. Dies impliziert nicht, dass sich die Natur akausal verhält, dass es sich also um einen objektiven Zufall handelt, ein Ereignis ohne jede Ursache. Es impliziert nur, dass wir über eine Ursache nichts wissen können. 2. Ensemble-Interpretation: Diese u.a. von Einstein unterstützte Deutung geht davon aus, dass die Wellenfunktion lediglich eine statistische Aussage über die Verteilung möglicher Messwerte für ein Ensemble gleichartig präparierter Quantensysteme (QS) liefert. Für eine einzelne Messung eines individuellen QS liegt der Messwert schon vor der Messung fest. Es wird jedoch darauf verzichtet, die Determiniertheit physikalischer Größen z.B. durch verborgene Teilchenbahnen vorauszusetzen. 3. Bohmsche Mechanik: Diese geht darüber hinaus von der Vorstellung aus, dass es in der Quantenwirklichkeit uns prinzipiell verborgene Teilchenbahnen gibt. Sie kommt ohne das Postulat eines Kollaps der Wellenfunktion aus, ein Messresultat entspricht immer einem Teilchenort auf einer kontinuierlichen, durch eine Führungswelle bestimmten Bahn. 4. Viele-Welten-Interpretation (VWI): Nach der VWI gibt es keinen Kollaps der Wellenfunktion. Sie geht davon aus, dass alle nach der Schrödingergleichung für ein Quantensystem mögliche Zustände auch Wirklichkeit werden, aber jeder dieser Zustände in eigenen Paralleluniversum. Diese Interpretation behauptet die Existenz von Ereignissen (Welten), die nicht überprüfbar sind. Dazu ein Zitat: „ob etwas existiert, über das niemand etwas wissen kann, gehört nicht in die Physik“ (W. Pauli). 5. Dynamische-Kollaps-Theorie: Nach einem Ansatz von Girardi-Rimini-Weber wird die Schrödinger-Gleichung geringfügig so verändert, dass sie instabil ist. Für QuantenTeilchen kommt es danach im Mittel einmal in einer Milliarde Jahren zum spontanen (zufälligen) Kollaps der Wellenfunktion. Die mikroskopische Quantenwirklichkeit ändert sich dadurch nur nicht messbarer Weise. In großen Objekten kommt der Kollaps eines Teilchens aber in jedem Sekundenbruchteil vor, und die Verschränkung des Quantensystems sorgt dafür, dass dann auch die Wellenfunktionen aller anderen Teilchen ebenfalls kollabieren. Die Theorie ist eher eine Alternative zur DekohärenzTheorie. Für diesen Ansatz gibt es (im Rahmen heutiger technischer Möglichkeiten) aber keine Beweise. Fazit: Die Kopenhagener Deutung (Kollaps der Wellenfunktion = Übergang von Nicht-Wissen zu Wissen), die rein statistische Ensemble-Interpretation und die VWI-Interpretation sind unterschiedliche Deutungen der allein maßgeblichen Schrödinger-Gleichung. Die Bohmsche Mechanik erfordert eine Erweiterung, die Dynamische Kollaps-Theorie Modifikation dieser Gleichung. Die Bohmsche Mechanik und die Ensemble-Interpretation gehen davon aus, dass die Quantenmechanik ähnlich wie die Thermodynamik Quantensysteme „im Mittel“ beschreibt. Die dynamische Kollaps-Theorie verletzt darüber hinaus die Zeitsymmetrie, führt also einen Zeitpfeil in das Naturgeschehen ein. 10. Anwendungsbereiche, Grenzen und offene Fragen Die auf der Schrödinger Gleichung beruhende Quantenmechanik und die darauf aufbauenden Quantenfeldtheorien (z.B. auch das sogenannte Standardmodell der Teilchenphysik, s. Kap. 7) sind durch eine Vielzahl experimentell bestätigter Voraussagen abgesichert worden. Eine Vielzahl technischer Errungenschaften wie Mikroelektronik, Transistortechnik, Computer, Laser, moderne Chemie-, Bio,- und Nano-Technologie beruhen auf der Quantenmechanik. Dennoch ist das Modell unbefriedigend, da es ein „Flickwerk aus unterschiedlichen Gleichungen darstellt, gemäß derer eine bestimmte Anzahl von Feldern untereinander über bestimmte Kräfte wechselwirken und sich dabei nach bestimmten Symmetrien richten und deren Stärke von bestimmten Kopplungskonstanten festgelegt ist“ (C. Rovelli). Das Modell enthält außerdem eine Vielzahl freier Parameter, die nicht durch die Theorie bestimmt sind, sondern durch Messungen bestimmt werden müssen (z.B. die Massen der Elementarteilchen). Für sinnvolle Vorhersagen ist ferner eine „Renormierung“ Quantenfeld-theoretischer Gleichungen notwendig um gegen Unendlich divergierende Lösungswerte zu vermeiden. Es gibt auch eine Vielzahl offener Fragen (siehe unten), die möglicherweise erst im Rahmen einer erweiterten Theorie beantwortet werden können. Aus einer solchen („Grand Unified Theory”, GUT) sollte sich – so wird vermutet - die Vereinheitlichung der starken und der elektroschwachen Wechselwirkung bei hohen Temperaturen (Energien) ergeben (analog der im Standardmodell bereits beschriebenen Vereinheitlichung von elektromagnetischer und schwacher Wechselwirkung). Es gibt bereits mehrere Ansätze für eine solche Theorie. Die dafür erforderlichen sehr hohen Energien /Temperaturen ( > 1024 eV / 1028 K) lassen sich in absehbarer Zeit nicht kontrolliert erzeugen. Ein möglicher Nachweis wäre der Zerfall freier Protonen (mit einer Halbwertszeit > 1031 Jahre), den einige GUT-Varianten vorhersagen. Noch weiter entfernt ist man von einer Theorie der Vereinheitlichung aller vier Naturkräfte (TOE, Theory of Everything), also der Einbeziehung der Gravitation. Voraussetzung wäre eine Quantentheorie der Gravitation, also eine Vereinheitlichung und Quantenfeldtheorie und der Allgemeiner Relativitätstheorie (ART) als der maßgeblichen Theorie der Gravitation. Auch hierfür gibt es erst Ansätze (z.B. die Schleifen-Quanten-Theorie), welche von einer gequantelten (körnigen) Struktur der Raumzeit ausgeht. Die Physik der Gravitation sieht Raum und Zeit dagegen als stetig an und in unendlich kleine Intervalle unterteilbar, wobei jeder Ort oder Augenblick dem vorangehenden lückenlos folgt. Diese Sichtweise führt jedoch „im Allerkleinsten“, im Bereich der sogenannten Planck-Skala, zu bisher nicht auflösbaren Widersprüchen mit der Quantentheorie. Die Planck-Länge lp definiert dabei eine Grenze für die Quantenwellenlänge eines Objekts, unterhalb der dieses auf Grund der Unschärferelation mindestens die Planck-Masse mp haben müsste und damit automatisch zu einem schwarzen Loch, also nach der ART in eine Singularität, kollabieren würde. Die Planck-Länge ist um einen Faktor 1020 kleiner als der Durchmesser eines Protons (also ca. 10−35 m) . Die Planck-Zeit ist definiert als die Zeit, die ein Lichtstrahl braucht, um die Planck-Länge zu durchlaufen (ca. 10-43 s). Die Planck-Masse beträgt zwar nur etwa 1/5000 der Masse eines Flohs, die Planck-Masse in einem Würfel mit der Seitenlänge der Planck-Länge hätte allerdings die gleiche Dichte wie eine Billion Sonnen komprimiert auf die Größe eines Protons. Die Energiedichten bei denen es zum Konflikt zwischen ART und Quantentheorie kommt werden dementsprechend nur im Inneren von Schwarzen Löchern und in der unmittelbaren Nähe des kosmischen Urknalls erreicht. (siehe Aufsätze „Grenzgebiete der Physik“ und „Evolution des Universums“) Offene Fragen und ungelöste Probleme (Auswahl) Probleme aus dem Bereich der Kosmologie 1. Vakuumenergie und Dunkle Energie: Es gibt noch keine passende Formel zur Berechnung oder Abschätzung der von der Quantentheorie vorhergesagten Vakuumenergie, auch noch keinen Nachweis, dass es diese überhaupt gibt. Auch die Natur der nach jüngsten Beobachtungen im Kosmos wirkenden „dunklen Energie“ konnte bisher nicht geklärt werden. Sie wirkt jedenfalls wie die postulierte VakuumEnergie wie eine abstoßende Gravitation. Die theoretische Abschätzungen der Vakuumenergie des Universums sind jedoch um den Faktor 10120 größer ist als der tatsächlich beobachtete Wert. 2. Dunkle Materie: Die Natur der im Kosmos gravitativ wirkenden “dunklen Materie“ konnte bisher nicht geklärt werden; verbergen sich dahinter neuartige Teilchen? 3. Antimaterie: Auch die Ursache für die Asymmetrie zwischen Materie und Antimaterie in unserem Universum ist noch ungeklärt. Probleme dem Bereich der Quanten- und Elementarteilchen-Physik 1. Nicht-Lokalität der Quantenphysik: Gibt es außer der Quantenverschränkung noch andere nicht-lokale Phänomene in der Quantenphysik? Unter welchen Bedingungen werden diese beobachtet? Was sagt die Existenz bzw. Nichtexistenz von nicht-lokalen Phänomenen über die fundamentale Struktur der Raumzeit aus? 2. Elementarteilchen-Physik: Neben der oben skizzierten grundsätzlichen Kritik an dem Standardmodell gibt es in der Teilchenphysik noch viele offen Fragen, z.B. Warum gibt es genau drei Generationen von Elementarteilchen? Ist die Einführung und Entdeckung des Higgs-Mechanismus und des Higgs-Bosons die Lösung für die Entstehung von Masse? Warum haben Elementarteilchen unterschiedliche Masse? Was ist der Zusammenhang zwischen Quarks und Leptonen (Das Proton und das Elektron haben die gleiche Elementarladung (+e/−e), ansonsten aber unterschiedliche Eigenschaften)? Warum kommen Quarks und Gluonen nicht als freie Teilchen vor (Confinement)? Warum konnte für die starke Wechselwirkung noch keine CP-Verletzung – welche prinzipiell möglich sein sollte – experimentell nachgewiesen werden? Gibt es Supersymmetrie (d.h. bei hinreichend hohen Temperaturen eine Symmetrie, die Bosonen und Fermionen ineinander umwandelt) ? Gibt es magnetische Monopole (als Elementarteilchen) analog zu den elementaren elektrischen Monopolen (Elektron und Proton)? Dies würde die Asymmetrie zwischen den sonst so ähnlichen Erscheinungen Magnetismus und Elektrizität beheben und die Quantisierung der elektrischen Ladung erklären. Eine Reihe dieser Fragen und ungelösten Probleme werden im Aufsatz „Grenzgebiete der Physik“ behandelt