Prinzipien der modernen Physik Teil 1 Vorlesung von B. Baumgartner gehalten im Sommersemester 2007 Bernhard Baumgartner, Wien, 2000,2002 und 2005 Alle Rechte vorbehalten 1. Einleitung Die Prinzipien dieser Vorlesung Um die Prinzipien der modernen Physik richtig verstehen zu können, ist es notwendig, über einige Grundsätze der Erkenntnistheorie Bescheid zu wissen. Was ist die Physik? Naturwissenschaft Die Physik ist eine Naturwissenschaft. Ein Naturwissenschaftler untersucht Ereignisse, Dinge und Körper, die beobachtet werden, und die es - im Prinzip - auch ohne Menschen gibt. So sind die Naturwissenschaften abgegrenzt von Geisteswissenschaften (z.B. Volkskunde), von den Formalwissenschaften (z.B. Mathematik) und auch von den technischen Wissenschaften (z.B. Maschinenbau). Eine verfeinerte Form der Beobachtung ist das Messen. Spezialisierung auf allgemeine Aspekte Die Physik ist unter allen Naturwissenschaften dadurch ausgezeichnet, dass sie die umfassendste ist, denn sie trifft eine Auswahl von Aspekten, die jedem Ereignis zukommen (auch ein springendes Eichhörnchen unterliegt der Schwerkraft; auch bei einer chemischen Reaktion bleibt die Energie erhalten). Sie ist auch insofern die Grundlage für alle anderen Naturwissenschaften, als sie das Verhalten der kleinen Teile eines jeden Körpers beschreibt. Dieses konkrete Teilen der Dinge ist, genau bedacht, eng verbunden mit dem abstrakten Teilen der Begriffswelt und der verschiedenen Aspekte Bildung von Modellen und Theorien „Verstehen“ ist das Erfassen von Zusammenhängen. Die Naturgesetze werden im Wechselspiel von Messung und Bildung von Theorien entdeckt: An beobachteten Ereignissen werden charakteristische Strukturen wahrgenommen. Diese werden in mathematischer Form beschrieben: So entstehen empirische Gesetze. Mehrere empirische Gesetze (z.B. Galileis Fallgesetz und die Keplerschen Gesetze der Planetenbahnen) werden dann in einer umfassenderen Theorie erklärt (z.B. Newtons Gravitationstheorie). Diese Erklärung erfolgt dadurch, dass ein Modell definiert und analysiert wird (z.B. zwei Massenpunkte, Sonne und Planet repräsentierend). Entwicklung der Begriffe Mit der Zeit ändern sich die Fragestellungen der physikalischen Forschung, ebenso ihre Methoden und die Vorgangsweise. Gibt es revolutionäre neue Ergebnisse, so führt dies zu einer Wandlung der Begriffe. (In der Relativitätstheorie gibt es zum Beispiel statt „Raum“ und „Zeit“ das „Raum-Zeit-Kontinuum“.). Das war in der Geschichte mehrmals der Fall, und 1 auch in der Zukunft wird es wohl noch viele kleinere, vielleicht auch größere Wandlungen der Begriffswelt geben. Warum Beschäftigung mit der Geschichte? Die Entstehungsgeschichte einer Theorie kann die Bildung der Prinzipien und den Zusammenhang der Begriffe aufdecken, der ja durch die Auswahl von Aspekten hergestellt wurde, mit denen brauchbare Modelle entwickelt werden können. Am Beispiel der Geschichte wichtiger Neuerungen der Physik kann man sich auch vielleicht auf die Neuerungen, die noch kommen werden, vorbereiten. Grobe Einteilung Nach der Physik der Antike, dominiert von den Lehren des Aristoteles, aufgenommen in die Philosophie des Mittelalters durch die Scholastik, begann die klassische Physik um 1600 mit Galileo Galilei. (Gleichzeitig Johannes Kepler, Vorläufer sind Nikolaus Kopernikus und Simon Stevin) Die moderne Physik beginnt mit 1900 (Planck, Einstein, Bohr, Schrödinger, Heisenberg, Pauli....) Messungen Theorien Verknüpfung von Theorie und Praxis Bei jeder Messung sind Theorie und Praxis miteinander verknüpft, da ja die MessErgebnisse und die Sinneseindrücke interpretiert werden müssen. Ein Beispiel ist die Bestimmung der Sonnenoberflächentemperatur: Die Thermodynamik (die „Theorie der Wärme“) liefert ein Strahlungsgesetz, eine Formel für den Zusammenhang der Temperatur des strahlenden Körpers mit der Intensität und Zusammensetzung seiner Wärmestrahlung. Ein Vergleich der so gefundenen Frequenzkurven mit den Daten der Sonnenstrahlung läßt auf eine Temperatur von 5800 Kelvin (~5500°C) schließen. Genauigkeit und Fehler Die Physik ist die genaueste aller Naturwissenschaften. Damit hat sie auch die Verpflichtung zu wahrhaftiger und glaubwürdiger Genauigkeit, mit der Angabe ihrer Grenzen, also der möglichen Fehler. Die genaue Berücksichtigung von Fehlern kann auch zu direkten Erfolgen führen: C.F. Gauß entwickelte die Fehlerrechnung und konnte damit den Astronomen mitteilen, wo ein von ihnen neu entdeckter, aber dann wieder aus ihrem Blickfeld verschwundener Planetoid aufzufinden war. (In Anerkennung dieser Leistung wurde er zum Leiter der Göttinger Sternwarte berufen.) Experiment Galilei betonte die Wichtigkeit des Experiments als Quelle der „kleinen Wahrheit“, die er den großen Thesen vorzog. Damit geschah der Schritt weg von der Beschäftigung mit einer umfassenden „Naturphilosophie“ hin zur Forschung im Stile der klassischen Physik. Vorläufer, in diesem Sinne, war Simon Stevin (genannt „Simon von Brügge“), der sowohl praktische Ingenieurarbeiten durchführte (Windmühlen, Wasserpumpen, Schleusensysteme), als auch theoretische Abhandlungen schrieb („...weeghconst“ - Statik). Überhaupt ist die ganze Handwerkskunst, der praktische Umgang mit Materialien, die Grundlage zur Entstehung der Naturwissenschaften. 2 Teile Ganzheit Analyse und Synthese Die Methode, zuerst das Verhalten kleiner Teile der Natur zu untersuchen, dann erst ihre Wechselwirkungen im Ganzen (explizit genannt von Galilei in Betonung des Unterschieds von den früheren Naturphilosophen) wurde zum Erfolgsrezept der klassischen Physik. In der modernen Physik gibt es nun Grenzen dieser Methode. In der Quantenphysik sind z.B. der Beobachter und das Beobachtete im Prinzip als Einheit zu sehen. Das Ganze ist mehr als die Summe der Teile Beispiel Temperatur: Ein Gas besteht aus Atomen. Ein Gas hat Temperatur. Ein einzelnes Atom hingegen wird ohne Temperatur beschrieben. Ein historischer Irrtum (bis Ende 18. Jhdt.) erwuchs aus der Überbetonung des Konzeptes „Teilen“: Man hielt die Wärme für einen Stoff (das „Phlogiston“). Die „Statistische Physik“ als Grundlage der Thermodynamik erklärte dann die Temperatur als eine Eigenschaft der Gesamtheit aller Atome. Die „Reduktion“, das ist die Erklärung des Ganzen durch Rückführung auf die Teile, geschieht nie ohne Reste. Modelle Wirklichkeit Die Vorgangsweise der Naturerklärung Erst kommt die „Verwunderung“ (Augustinus sagt „das Staunen“), über eine Klasse von Phänomenen. (Vielleicht auch der Wunsch nach technischer Beherrschbarkeit) Dann entsteht das Problem der Erklärung. Es folgen Lösungsversuche mit Modellbildung und Analyse. Schließlich erfolgt der Vergleich von Modell und Wirklichkeit mit der Elimination der Irrtümer (oder auch Erkenntnis der Grenzen der Anwendbarkeit). (nach Karl R. Popper „Alles Leben ist Problemlösen“) Jede physikalische Theorie ist so innerhalb der Begrenzung ihres Anwendungsbereiches ein „Modell der Wirklichkeit“. (nach Wolfgang Pauli „Phänomen und physikalische Realität“) Modellbildung Die Konstruktion eines Modells beginnt mit der Auswahl von Aspekten, die man für wichtig hält. Dann folgt die Anwendung einer Theorie. Beispiel: Erklärung der Planetenbahnen: Wichtige Aspekte sind die Massen der Sonne und der Planeten, und die Wechselwirkung jedes einzelnen Planeten mit der Sonne. Somit ist das erste Modell ein System eines einzelnen Paares von Sonne und Planet, dargestellt als Massenpunkte. Mit Newtons Bewegungsgleichungen und seiner Theorie der Gravitation folgt die Erklärung der Keplerschen Gesetze. 3 Für die Auswahl der Aspekte ist eine Abschätzung der Größenordnungen wichtig. Beispiel: Sonnensystem: Mit der groben Abschätzung, dass die Dichte aller Körper im Sonnensystem gleich ist, und der Berechnung der Volumina aus den beobachteten Durchmessern, ergibt sich für den größten Planeten, den Jupiter, eine Masse von einem Tausendstel der Sonnenmasse. Da die Planeten einander nicht sehr nahe kommen, sind auch ihre Kräfte aufeinander nicht größer als ein Tausendstel der Schwerkraft der Sonne. Sie können fürs erste also unberücksichtigt bleiben. Auch sind die Durchmesser der Körper um mindesten vier Größenordnungen kleiner als die Durchmesser ihrer Bahnen. Sie können somit fürs erste als punktförmig betrachtet werden. Verfeinerung von Modell und Theorie Die Verbesserung und Verfeinerung eines Modells geschieht durch Berücksichtigung von Aspekten, die zuerst weggelassen wurden. Fehler der Theorie sollen dabei geringer, die Fehlergrenzen enger werden. Beispiel: Die Einwirkung des Planeten Jupiter auf die anderen Planeten. (Eine volle, exakte Lösung des Dreikörperproblems ist nicht möglich, daher betreibt man Störungstheorie.) Fortschritte Die Entdeckung gemeinsamer Strukturen verschiedener Modelle ist die Erkenntnis allgemeiner Prinzipien. Beispiel: Bewegungen im Schwerefeld Prinzip der Energieerhaltung. Diese Prinzipien sind abstrakter als die zuerst gefundenen Gesetze und von den einfachen Vorstellungen weiter entfernt. In der Entwicklung neuer Theorien ist es oft notwendig, gewohnheitsmäßige Vorstellungen, die früher als selbstverständlich galten, durch neue zu ersetzen. Die abstrakteren Prinzipien erweisen sich dagegen als standfester. (nach Max Planck: „Die Quantenhypothese“) 4 ORIGINAL-TEXTE MAX PLANCK Die Quantenhypothese Der erste Anstoß zu einer Revision und Umbildung einer physikalischen Theorie geht fast immer aus von der Feststellung einer oder mehrerer Tatsachen, die in den bisherigen Rahmen der Theorie nicht hineinpassen. Die Tatsachen bilden stets den Archimedischen Punkt, von dem aus auch die gewichtigste Theorie aus den Angeln gehoben werden kann. Insofern ist für den richtigen Theoretiker nichts interessanter als eine Tatsache, die mit einer bisher allgemein anerkannten Theorie in direktem Widerspruch steht; denn hier setzt seine eigentliche Arbeit ein. Was ist nun in einem solchen Falle zu tun? Fest steht nur das eine: An der bestehenden Theorie muß irgend etwas geändert werden, und zwar so, daß sie mit der festgestellten Tatsache in Übereinstimmung kommt. ........ Und nun ist das überaus wichtige und merkwürdige Resultat zu verzeichnen, daß in allen derartig entstandenen Konflikten der neueren Zeit die großen allgemeinen physikalischen Prinzipien, so namentlich das Prinzip der Erhaltung der Energie, das Prinzip der Erhaltung der Bewegungsgröße, das Prinzip der kleinsten Wirkung, die Hauptsätze der Thermodynamik, es gewesen sind, welche ausnahmslos das Feld behauptet haben, und deren Bedeutung daher ganz erheblich gewachsen ist, während dagegen die im Kampfe unterlegenen Sätze solche sind, welche bisher zwar allen theoretischen Entwicklungen als scheinbar sicherer Ausgangspunkt dienten, aber nur deshalb, weil sie als so selbstverständlich angesehen wurden, daß man sie besonders zu erwähnen gewöhnlich entweder nicht für nötig fand, oder überhaupt vergaß. Zusammenfassend kann man geradezu sagen, daß die neueste Entwicklung der theoretischen Physik ihr Gepräge erhält durch den Sieg der großen physikalischen Prinzipien über gewisse tief eingewurzelte, aber doch nur gewohnheitsmäßige Annahmen und Vorstellungen. ......... Sowenig sich eine Weltanschauung wissenschaftlich beweisen läßt, so sicher kann man darauf bauen, daß sie jeglichem Ansturm gegenüber unerschütterlich standhalten wird, sofern sie nur mit sich selber und mit den Tatsachen der Erfahrung in Übereinstimmung bleibt. ........ Freilich: der Glaube allein tut's nicht, er kann, wie die Geschichte einer jeden Wissenschaft lehrt, leicht auch einmal in die Irre führen und in Beschränktheit und Fanatismus ausarten. Um ein zuverlässiger Führer zu bleiben, muß er beständig an der Hand der Denkgesetze und der Erfahrung nachgeprüft werden, und dazu verhilft in letzter Linie nur gewissenhafte, oft mühsame und entsagungsvolle Einzelarbeit. ["Neue Bahnen der physikalischen Erkenntnis" In: Physikalische Rundblicke. Gesammelte Reden und Aufsätze, Leipzig 1922 ] [Auch im Buch von S. Samburski nachzulesen.] Hervorhebungen durch Fettdruck von B. Baumgartner. 5 WOLFGANG PAULI Phänomen und physikalische Realität Im folgenden will ich einige Hinweise geben, welche Probleme in Verbindung mit den Stichworten Phänomen und Realität in der heutigen Physik eine wichtige Rolle spielen, ohne Anspruch, dieses unerschöpfliche Thema auch nur annähernd bemeistern zu können. Dabei will ich aber auch kontroverse Fragen berühren, denn diese sind es ja, denen sich das allgemeine Interesse am meisten zuwendet. Zur Orientierung der Philosophen möchte ich gleich bemerken, daß ich selbst keiner bestimmten philosophischen Richtung angehöre, die einen mit den Silben «ismus») endenden Namen trägt. Darüber hinaus bin ich auch dagegen, spezielle physikalische Theorien wie zum Beispiel die Relativitätstheorie oder die Quanten- oder Wellenmechanik speziellen -ismen zuzuordnen, obwohl dies zuweilen von physikalischer Seite her geschieht. Meine allgemeine Tendenz ist vielmehr, zwischen extremen Richtungen eine gewisse Mitte einzuhalten. In diesem Sinne ist es wohl am besten, sich zunächst darüber zu besinnen, wie Phänomen und Realität im beruflichen Alltagsleben des Physikers vorkommen. Das Phänomen, die Erscheinung, kann elementar oder auch recht komplex sein. Zu den unmittelbaren Phänomenen gehören die Bewußtseinsinhalte. Die Beschreibung derselben als Wahrnehmungen ist insofern einseitig, als auch Gedanken und Ideen spontan entstehen. ....... Das, was wir antreffen, was sich unserer Willkür entzieht, womit wir rechnen müssen, ist das, was man als wirklich bezeichnet. ........ Wenn wir nun zu formulieren versuchen, was das physikalische Phänomen und was die physikalische Wirklichkeit ist, so gehen die Meinungen bereits auseinander. .... erscheint mir eine solche Trennung selbst bereits das Resultat einer besonderen kritischen Gedankenarbeit, welche die stets vorhandenen unbewußt instinktiven Denkzutaten entfernt. Eine Beschränkung auf festgestellte oder feststellbare Bewußtseinsinhalte würde sowohl das Leben wie die Wissenschaft unmöglich machen. Erst unwillkürlich und später bewußt, setzt der Mensch an und für sich nicht Feststellbares, man kann auch sagen relativ Transzendentes - wie zum Beispiel das Bewußtsein der anderen, die Rückseite des Mondes, eine Geschichte der Erde, die zum Teil kein Lebewesen gesehen hat -, um daraus wieder Feststellbares abzuleiten. Von dieser Mitte aus ist es ein gleich weiter Weg bis zur Elimination des Wirklichkeitsbegriffes einerseits und der Annahme von metaphysischen, unbedingt und für immer geltenden Seinsurteilen andererseits. Ich glaube, daß für die Naturwissenschaften keines von beiden nötig ist. Der Mensch wird immer wieder die spontane Erfahrung einer Wirklichkeit erleben und diese in Worten beschreiben, die ihm angemessen scheinen. Er kann aber Seinsurteile als bedingt erkennen durch die Bestrebungen, Hoffnungen, Wünsche, kurz durch die allgemeine seelische Einstellung des Einzelnen oder der Gruppe, welche diese Aussagen machen. Hierzu gehört, insbesondere auch beim Forscher, der Grad seiner Kenntnisse, das Maß des Wissens seiner Zeit. Auf diese Weise entsteht eine Spannung zwischen Phänomen und Wirklichkeit, die den Reiz des Lebens wie der Forschung ausmacht. Der Naturwissenschaftler hat es mit besonderen Phänomenen und einer besonderen Wirklichkeit zu tun. Er hat sich auf das zu beschränken, was 6 reproduzierbar ist. Hierzu rechne ich auch das, für dessen Reproduktion die Natur von selbst gesorgt hat. Ich behaupte nicht, daß das Reproduzierbare an und für sich wichtiger sei als das Einmalige, aber ich behaupte, daß das wesentlich Einmalige sich der Behandlung durch naturwissenschaftliche Methoden entzieht. Zweck und Ziel dieser Methoden ist ja, Naturgesetze zu finden und zu prüfen, worauf die Aufmerksamkeit des Forschers allein gerichtet ist und gerichtet bleiben muß. Die zusammenhängende Formulierung von Gedankensystemen, bestehend aus mathematischen Gleichungen und aus Regeln, wie diese mit Erfahrungsdaten zu verknüpfen sind, nennen wir eine physikalische Theorie, die man dann innerhalb der Begrenzung ihres Anwendungsbereiches als "Modell der Wirklichkeit" bezeichnen kann. ........ Theorien kommen zustande durch ein vom empirischen Material inspiriertes Verstehen, welches am besten im Anschluß an Plato als Zur-Deckung-Kommen von inneren Bildern mit äußeren Objekten und ihrem Verhalten zu deuten ist. Die Möglichkeit des Verstehens zeigt aufs Neue das Vorhandensein regulierender typischer Anordnungen, denen sowohl das Innen wie das Außen des Menschen unterworfen sind. [Aufsätze über Physik und Erkenntnistheorie, Braunschweig 1961] Hervorhebungen durch Fettdruck von B. Baumgartner. Literatur: Zu den hier angeschnittenen fachübergreifenden Themen: Friedrich Hund: Geschichte der physikalischen Begriffe Shmuel Samburski: Der Weg der Physik Herbert Pietschmann: Phänomenologie der Naturwissenschaft Infolge der Weiterentwicklung der Physik und auch der Ausbildungsmethoden gibt es (noch) kein ganz genau passendes Buch zu dieser ganzen Vorlesung. Besonders empfehlen kann ich ausgewählte Kapitel aus „Physik“ von Paul A. Tipler 7 Entstehung der modernen Physik Max Planck 1900 Wirkungsquantum Albert Einstein 1905 Spezielle Relativitätstheorie Albert Einstein 1905 Quanten des Lichts Niels Bohr 1913 Atommodell mit Quantenzahlen Albert Einstein 1916 Allgemeine Relativitätstheorie Louis Victor de Broglie 1924 „Recherches sur la théorie des Quanta“ Erwin Schrödinger 1926 „Die Quantisierung als Eigenwertproblem“ Max Born 1926 Wahrscheinlichkeits-Interpretation Werner Heisenberg 1927 Unschärferelation 8 2. Das Relativitätsprinzip (klassisch); Ereignisse in Raum und Zeit Um die Vielfalt der Ereignisse, die wir beobachten, verstehen zu können, beobachten wir auch ihre Ordnung und Anordnung. Der allgemeinste Aspekt ist die Anordnung in Zeit und Raum: Wann und wo etwas geschieht oder geschehen ist. Die Gesetzmäßigkeiten dieser Ordnung sind einerseits die Grundlagen der Physik und wurden als erste Prinzipien erforscht; andererseits wurden gerade diese Fundamente in der modernen Physik neu festgelegt. Dabei bleiben aber die klassischen Gesetze als Grenzfälle. Sie helfen auch, die modernen Prinzipien zu verstehen. Literatur: P.Tipler (ältere Auflagen), Kapitel 1.1, 3, 4 / 2.2, 3 / 3 / 4.1 / 8.1 / 34.1 / 42.6 2.1. Koordinaten 2.1.1 Die Menge der Ereignisse; Raum-Zeit-Diagramme Ein Beispiel: Vortragende Person geht vor den sitzenden Hörern auf und ab. Dann wirft er ihnen ein Kreidestück zu, ein Hörer fängt es auf. Symbolische Darstellung der Menge von Ereignissen in einem Diagramm: Zu verschiedenen Zeiten wird das Kreidestück an verschiedenen Orten wahrgenommen. Das gibt eine Abfolge von sehr vielen Ereignissen. Diese Ereignisse, an denen das Kreidestück teilnimmt, bilden die Weltlinie der Kreide - idealisiert ist das eine stetige, sehr dünne (infinitesimal dünne) Kurve im Raum-Zeit-Diagramm. Schon in so einer nicht näher quantifizierten symbolischen Darstellung stecken einige der „tief eingewurzelten, aber doch nur gewohnheitsmäßigen Annahmen und Vorstellungen“. Der Begriff „Ereignis“ wird zu einem tiefen Problem der Quantenphysik. Die Festlegung eines „Ortes“ (z.B. Sitzplatz im Hörsaal) bedeutet, wie von Galilei dargestellt, keine absolute Ruhe. Um physikalische Gesetze zu finden, brauchen wir auch noch detailliertere Angaben, über Abstände zwischen verschiedenen Orten, also die „Metrik“ des Raumes, über die Dauer eines Ablaufes von Ereignissen, über Festlegung von „früher“ oder „später“ oder „gleichzeitig“. Der Begriff „gleichzeitig“ wird zum archimedischen Punkt, um die klassische Mechanik durch die relativistische Kinematik zu ersetzen. Erst die Festlegung von „Gleichzeitigkeit“ ermöglicht es, Schnitte durch die Menge aller Ereignisse zu legen, die den „Raum“ charakterisieren. Das grundlegende Problem ist also die Wahl eines Systems von Koordinaten. (Auch die gewohnheitsmäßige Voraussetzung, dass man ein kartesisches Koordinatensystem wählen kann, muss in der allgemeinen Relativitätstheorie fallen gelassen werden.) 9 2.1.2. Die Zeit Intuitiv erscheint uns persönlich die Zeit als gerichtete lineare Ordnung. Wir erleben die Qualität „früher - später“. Zu dieser Qualität kommt die Quantität „Dauer“. Wir können sie durch Messen mit Uhren konkretisieren. Im Lauf der Geschichte gab es verschiedene Vorstellungen von „Zeit“. Zunächst eine einzige von außen vorgegebene Zeit, nämlich durch Bewegungen von Sonne, Mond, Planeten und Sternen relativ zum beobachtenden Menschen. In der Anordnung der irdischen Ereignisse in dieser Zeit wurden Gesetzmäßigkeiten erkannt und zur Entwicklung von Uhren verwendet. Auch im Ablauf der astronomischen Ereignisse wurden Gesetze erkannt. Um sie zu beschreiben, brauchte man eine Zeit, die nicht selber durch diese astronomischen Ereignisse definiert wird. Newton postulierte die Existenz einer absoluten Zeit. Die Gesetze der Physik schienen zunächst mit dem Postulat so einer absoluten Zeit verträglich zu sein. Die Zeitdauer, die eine Uhr anzeigt, sollte demnach je nach Güte der Uhr beliebig genau mit dieser absoluten Zeitdauer übereinstimmen. In der modernen Physik, in der Relativitätstheorie, gibt es keine absolute Zeit. Jede Uhr zeigt eine Eigenzeit an. Zwar zeigen Uhren, die nahe beieinander sind und die sich nicht relativ zueinander bewegen, die gleiche Eigenzeit an, aber räumliche Trennung und / oder relative Bewegung kann dazu führen, dass sie verschiedene Eigenzeiten anzeigen. Eine konkrete Demonstration dieses „Uhrenparadoxons“ erfolgte erstmals im Oktober 1971, im Hafele-Keating-Experiment. Siehe Anhang im nächsten Kapitel. In diesem Kapitel verwenden wir im folgenden Newtons Modell einer absoluten Zeit. In diesem Modell gibt es eine absolute „Gleichzeitigkeit“. Mathematische Struktur: Ist die wirkliche Zeit eine stetige Abfolge von Ereignissen oder eine diskrete, so wie die Folge der Bilder eines Films? Wir wissen es nicht. Wir bleiben bei dem Modell: Kontinuum, wie bei den reellen Zahlen. Festlegung einer Einheit der Zeitdauer: Im SI-System (seit 1960) ist eine Sekunde die Dauer von 9 192 631 770 Schwingungen der Strahlung einer bestimmten Hyperfeinstruktur der Atome 133Cs (Cäsium-Atome mit je 133 Nukleonen). Die Möglichkeit dieser universellen Definition ist durch die Prinzipien der Quantenphysik gegeben. 10 2.1.3. Der Raum Die Gleichzeitigkeit ist eine logische Voraussetzung für die Bildung des Begriffs Raum. Im Modell der absoluten Zeit kann man Schnitte der Gleichzeitigkeit durch die Menge der Ereignisse legen. So eine Menge von „gleichzeitigen“ Ereignissen bildet dann den Raum. Newton postulierte die Existenz eines absoluten Raumes, der stets gleich und unbeweglich ist. Es gibt keinen Einfluss auf diesen Raum. Klassisches Modell Der Raum ist ein euklidischer dreidimensionaler Raum. Er ist homogen und isotrop. Das heißt, alle Richtungen und alle Orte sind gleichwertig. Kein Punkt ist ausgezeichnet und keine Richtung ist es. (Galilei hat gegen die Auszeichnung der Erde als „Mittelpunkt“ der Welt gekämpft.) Absolute Begriffe sind „gerade Linie“ und „parallele Gerade“. Es gibt „Längen“ von Strecken und „Winkel“ zwischen einander schneidenden Geraden. Der euklidische Raum ist wieder ein Kontinuum. Es gibt infinitesimale Abstände. Mathematische Beschreibung Meistens mit kartesischen Koordinaten. Auswahl eines Punktes Nullpunkt, Ursprung Auswahl von Richtungen Achsen Auswahl einer Längeneinheit (z.B. nach SI-System) Zahlenwerte der Koordinaten Jedem Punkt wird ein Vektor zugeordnet, der vom Nullpunkt zu ihm hin zeigt: x 1 x.... x 2 x3 Die Koordinaten des Punktes sind die Komponenten des Vektors. x x 12 x 22 x 32 Abstand zwischen den Punkten, die x und y entsprechen: | x y | Winkel zwischen x und y : x y x y cos Länge eines Vektors: SI-Einheit der Länge 1 s zurücklegt. 299 792 458 Die Möglichkeit dieser universellen Definition ist durch die Prinzipien der Relativitätstheorie gegeben. 1 m ist die Strecke, die das Licht im Vakuum in der Zeitdauer Moderne Physik Es gibt keinen absoluten Raum. Eine Auswahl von „gleichzeitigen“ Ereignissen ist „relativ“ zu einem ausgewählten Bezugssystem. (Spezielle Relativitätstheorie) Der Raum wird dann auch noch durch Einwirkung der Materie gekrümmt. (Allgemeine Relativitätstheorie) Er ist nur im kleinen Maßstab näherungsweise euklidisch. 11 2.1.4 Die Raum-Zeit Problemstellung: Trennung der Aspekte „räumliche Distanz“ und „zeitliche Distanz“ durch Festlegung von Koordinatenachsen in der Menge der Ereignisse. Zu einer ausgewählten Zeit t0 wählt man einen bestimmten Ort und bestimmte Richtungen als Ursprung des Koordinatensystems und als Achsenrichtungen. Kann man diesen ausgewählten Punkt und diese Richtungen zu anderen Zeiten wiedererkennen? (Beispiel, erdachte Science Fiction: Ein Gefangener erwacht in einem Raumschiff ohne Kontakt nach außen. Kann er feststellen, ob sich das Raumschiff bewegt?) Newton postulierte den absoluten Raum als unbeweglich. Er konnte mit dem berühmten Beispiel des rotierenden Eimers zeigen, dass man mit physikalischen Beobachtungen Rotationen feststellen kann, also Änderungen der Richtungen: Einmal ausgewählte Richtungen kann man also zu anderen Zeiten wiedererkennen. Einmal ausgewählte Orte kann man aber zu anderen Zeiten nicht wiedererkennen. Das ist Galileis Relativitätsprinzip. Galilei veranschaulichte das mit dem Beispiel eines Schiffes, das sich bei ruhigem sanftem Wind gleichmäßig vorwärts bewegt. Dem Beobachter auf dem Schiff erscheint zum Beispiel der Fuß des Mastes immer als der „gleiche“ Ort. Durch physikalische Experimente, die keine Einwirkungen von außerhalb einbeziehen, ist auf dem Schiff keine Bewegung festzustellen. Einem Beobachter am Ufer erscheint das Schiff natürlich in Bewegung. Für die physikalischen Gesetze gibt es aber keinen prinzipiellen Unterschied zwischen Ruhe und Bewegung. Was Galilei noch nicht genau formuliert hat: Man kann schon zwischen verschiedenen Arten von Bewegungen unterscheiden. Es gibt zwar keine einzelne ausgezeichnete Bewegung, keine „absolute Ruhe“, aber es gibt eine ausgezeichnete Klasse von Bewegungen: Trägheitsprinzip (Das 1. Newtonsche Axiom) Ein Körper bleibt in Ruhe oder bewegt sich mit konstanter Geschwindigkeit (geradlinig gleichförmig) weiter, wenn keine resultierende äußere Kraft auf ihn einwirkt. Für Newton war die Definition von „geradlinig gleichförmig“ in Bezug auf den absoluten Raum möglich. In der modernen Physik gilt dieser Begriff relativ zwischen kräftefreien Körpern. Zur Beschreibung der physikalischen Ereignisse und ihrer Gesetze wählt man günstigerweise Koordinatensysteme, in denen ein kräftefreier Körper eventuell ruht. Jeder andere kräftefreie Körper wird in so einem Bezugssystem dann entweder auch als ruhend oder als mit konstanter Geschwindigkeit sich bewegend beschrieben. Jedes solche Bezugssystem ist ein Inertialsystem. Relativitätsprinzip ( = Das 1. Postulat der Relativitätstheorie) Die Naturgesetze haben in jedem Inertialsystem dieselbe Form. Es gibt kein physikalisch bevorzugtes Inertialsystem. 12 Mathematische Beschreibung Mit der Auswahl eines Punktes im Raum und Zuordnung entsprechender Punkte zu allen Zeiten (z.B. Weltlinie eines kräftefreien Körpers) definiert man eine neue Achse, die Zeitachse, für ein kartesisches Koordinatensystem der Raum-Zeit. Ein idealisiertes Ereignis hat Koordinaten ( t, x ) Eine Weltlinie ist eine Menge {( t, x )} solcher Ereignispunkte, in der es zu jeder Zeit t nur einen Punkt gibt. Man definiert daher als Bahn die Vektor-wertige Funktion x ( t ) . Die Geschwindigkeit ist ein Vektor, eine Größe mit Betrag und Richtung. Aus den Daten der Bahn berechnet man die Geschwindigkeit durch Differentiation nach der Zeit. Konvention der Physik, zurückzuführen auf Newtons Schreibweise: Differenzieren nach der Zeit wird durch einen Punkt symbolisiert. v ( t ) x ( t ) (Buchstabe v kommt von „velocitas“ und „velocity“) Diese Differentiation einer vektorwertigen Funktion ist als komponentenweise Differentiation definiert. d v 1 ( t ) x 1 ( t ) x 1 ( t ) ... dt Beschleunigung gibt die zeitliche Änderung der Geschwindigkeit an: a ( t ) v ( t ) (Buchstabe a kommt von „acceleration“) Achtung: Anders als in der Sprechweise des Alltags ist in der Physik die Beschleunigung auch dann ungleich Null, wenn sich nur die Richtung, nicht aber der Betrag der Geschwindigkeit ändert. (Beispiel Kreisbahn) Geradlinig gleichförmige Bewegung: x ( t ) x ( 0) t v v(t) v a( t) 0 Beispiel Kreisbahn Bewegung in einer Ebene. Wählen die Koordinaten so, dass x 3 ( t ) 0 ist, und schreiben in der Folge nur die beiden ersten Komponenten der Vektoren. Als Nullpunkt wird der Mittelpunkt der Kreisbahn gewählt. | x ( t ) | ist daher konstant =:r. Die Winkelgeschwindigkeit ist zeitlich konstant. Das heißt, in Polarkoordinaten wäre der Winkel (t) = t. x (t) x ( t ) 1 r cos t sin t x 2 (t) v (t) v ( t ) 1 r sin t cos t v 2 (t) a (t) a ( t ) 1 2 r cos t 2 x ( t ) sin t a 2 (t) Die Geschwindigkeit ist zwar im Betrag konstant, aber in der Richtung zeitlich veränderlich. Die Beschleunigung ist daher ungleich Null. Die Bewegung ist nicht kräftefrei! Es muss eine Kraft wirken, die Zentripetalkraft. 13 2.2. Wechsel des Bezugssystems Wir betrachten die Beschreibung von Ereignissen in zwei verschiedenen Inertialsystemen. Hätten die räumlichen Achsen verschiedene Richtungen, wäre die mathematische Beschreibung recht aufwendig. (Dafür ist die Diskussion der physikalischen Konzepte bei bloßer Richtungsänderung unkompliziert.) Wir betrachten also nur zwei Inertialsysteme, die relativ zueinander bewegt sind, deren Achsenrichtungen aber übereinstimmen. Als Beispiel können wir an Galileis Beispiel des gleichmäßig fahrenden Schiffes denken. Im Inertialsystem, in dem der Beobachter am Ufer ruht, wird die Bahn eines Körpers mit x ( t ) beschrieben. Die Bewegung des Schiffs, genaugenommen eines bestimmten Punktes am Schiff, ist geradlinig gleichförmig, beschrieben als S( t ) S(0) w t Dieser bestimmte Punkt auf dem Schiff ist zu jeder Zeit der Nullpunkt des RaumKoordinaten-Systems des zweiten Bezugssystems, in dem der Beobachter auf dem Schiff ruht. In diesem an das Schiff fixierten System wird die Bahn eines Körpers mit ( t ) beschrieben. Zwischen diesen Beschreibungen gilt die Relation x ( t ) S( t ) ( t ) S(0) w t ( t ) Geschwindigkeiten des Körpers: Auf dem Schiff: u( t ) ( t ) Vom Ufer aus: v ( t ) x ( t ) S ( t ) ( t ) w u( t ) Beschleunigungen des Körpers: Auf dem Schiff a ( t ) u ( t ) Vom Ufer aus: v ( t ) u ( t ) a ( t ) Es gilt die Addition der Geschwindigkeiten vuw und die Invarianz der Beschleunigungen. Die Beschleunigung ist - in der klassischen Physik - absolut. 14 2.3. Ein Modell des expandierenden Universums (klassisch) Erstes Bezugssystem: Sonnensystem, eigene Galaxie, die „Milchstraße“ im Ursprung. Von uns aus betrachtet, hat jede Galaxie, wenn ihr der Koordinaten-Vektor x zugeordnet wird, die Geschwindigkeit („Fluchtgeschwindigkeit“) v Hx Das ist das Hubble-Gesetz. Dabei ist H die Hubble-Konstante 23 km s 1 1 H 6 10 10 Lichtjahre 10 a (Der „genaue“ Wert, die zweite Stelle, ist noch umstritten.) Von der Galaxie G (bei y ) aus, die für uns die Geschwindigkeit H y hat, haben wir die Geschwindigkeit w H y . Eine dritte Galaxie (für uns im Abstand x ) hat von dort aus die Koordinaten x y und die Geschwindigkeit u v w Hx Hy H Das Hubble-Gesetz gilt daher in jedem Bezugssystem mit einer Galaxie im Ursprung und in Ruhe. Es gibt in diesem Modell keinen „Mittelpunkt“ des Universums und keine absolute Ruhe! 15 ORIGINAL-TEXTE Sir Isaak Newton Absoluter Raum, absolute Zeit ... I. Die absolute, wahre und mathematische Zeit verfließt an sich und vermöge ihrer Natur gleichförmig und ohne Beziehung auf irgend einen äußern Gegenstand. Sie wird so auch mit dem Namen Dauer belegt. Die relative, scheinbare und gewöhnliche Zeit ist ein fühlbares und äußerliches, entweder genaues oder ungleiches Maß der Dauer, dessen man sich gewöhnlich statt der wahren Zeit bedient, wie Stunde, Tag, Monat, Jahr. II. Der absolute Raum bleibt vermöge seiner Natur und ohne Beziehung auf einen äußern Gegenstand stets gleich und unbeweglich. Der relative Raum ist ein Maß oder ein beweglicher Teil des erstern... III. Der Ort ist ein Teil des Raumes, welchen ein Körper einnimmt... IV. Die absolute Bewegung ist die Übertragung des Körpers von einem absoluten Orte nach einem andern absoluten Orte... Das Experiment mit einem rotierenden Gefäß Die Wirkungen, durch welche absolute und relative Bewegungen voneinander verschieden sind, sind die Fliehkräfte... Man hänge z.B. ein Gefäß an einer sehr langen Schnur auf, drehe dasselbe ständig im Kreise herum, bis die Schnur durch die Drehung sehr steif wird; hierauf fülle man es mit Wasser und halte es zugleich mit dem letzteren in Ruhe. Wird es nun durch eine plötzlich wirkende Kraft in entgegengesetzte Kreisbewegung versetzt und hält diese, während die Schnur sich ablöst, längere Zeit an, so wird die Oberfläche des Wassers anfangs eben sein, wie vor der Bewegung des Gefäßes; hierauf, wenn die Kraft allmählich auf das Wasser einwirkt, bewirkt das Gefäß, daß das Wasser merklich sich umzudrehen anfängt. Es entfernt sich nach und nach von der Mitte und steigt an den Wänden des Gefäßes in die Höhe, indem es eine hohle Form annimmt. (Diesen Versuch habe ich selbst gemacht.) ... Grundsätze oder Gesetze der Bewegung 1. Gesetz. Jeder Körper beharrt in seinem Zustande der Ruhe oder der gleichförmigen geradlinigen Bewegung, wenn er nicht durch einwirkende Kräfte gezwungen wird, seinen Zustand zu ändern. ... Philosophiae naturalis principia mathematica, 1687 Übersetzung von J. Ph. Wolfers, Berlin 1872 16 3. Spezielle Relativitätstheorie Zeit und Raum, gemeinsam mit Materie, bilden das Universum. Nichts davon ist absolut. Die Aufteilungen und auch die Maße dafür erscheinen verschieden bewegten Beobachtern verschieden. Unter relativ zueinander bewegten Körpern hat jeder seine spezielle Eigenzeit. Als Konsequenz müssen auch Impuls und Energie neu definiert werden, die Energie trägt zur Masse bei, Masse und Energie sind äquivalent. Literatur: P.Tipler (Ältere Auflagen) 34.3 - 34.5, 34.8 - 34.10 3.1. Die Raum-Zeit; Kinematik 3.1.1. Das Relativitätsprinzip und die Elektrodynamik Galileo Galilei hatte als Argument für die Bewegung der Erde die beobachtete Relativität der physikalischen Gesetze betont. (Als Beispiel diskutierte er den fallenden Körper auf einem bewegten Schiff.) Newton brachte dann dieses Prinzip in den fundamentalen Gesetzen der Mechanik zur Geltung. (Trotzdem postulierte er einen absoluten Raum; die Mathematik seiner Zeit war noch nicht so weit, darauf zu verzichten. Vielleicht hatte Newton auch metaphysisch-philosophische Gründe.) Die klassische Mechanik ist dann noch weiter ausgebaut und verfeinert worden, aber an der grundlegenden Struktur der Beschreibung von Ereignissen in Raum und Zeit hat sich bis 1900 nichts geändert. Die Elektrodynamik knüpfte mit Beobachtungen von Kraftwirkungen auf elektrisch geladene Körper und auf Magnete zunächst an die Mechanik an. In der folgenden Entwicklung, in der mathematischen Beschreibung, eröffnete sie neue Gebiete, unabhängig von der Mechanik. Maxwell hat anfangs noch mechanische Modelle für die elektrischen und magnetischen Felder entworfen. Später hat er seine Theorie ganz ohne solche Modelle formuliert. Die Elektrodynamik war somit ein eigenes Gebiet, das sich nur teilweise mit der Mechanik deckte. Eine Relativität der elektrodynamischen Gesetze ist einerseits zu beobachten, zum Beispiel an den Gesetzen der Induktion: ein Strom wird induziert, wenn sich ein Leiter im „ruhenden“ Magnetfeld bewegt, und auch, wenn sich ein Magnetfeld über einen „ruhenden“ Leiter bewegt. Andererseits ist die einheitliche, absolute Geschwindigkeit elektrodynamischer Wellen, die Lichtgeschwindigkeit, nicht zugleich mit der klassischen Geschwindigkeitstransformation und mit dem klassischen Relativitätsprinzip vereinbar. Denn nach der klassischen Physik müsste ein bewegter Beobachter eine andere Geschwindigkeit messen. Das wäre aber nur in Verbindung mit anderen zugrundeliegenden Gesetzen für die Felder möglich. H.A.Lorentz versuchte einen Ausweg aus diesem Dilemma, indem er ein mechanisches Modell für die Schwingungen der Felder ansetzte: Das Äther-Modell. Dieses Modell führt aber zu grotesken Schlüssen: Der Äther müsste das ganze Universum füllen, das Licht ohne irgendwelche Verluste transportieren (Licht von fernen Sternen), eine ungebremste Bewegung der Materie ermöglichen (Bewegung der Sterne und Planeten seit Milliarden von Jahren), und dennoch einen Einfluss auf Ausdehnungen und Zeitabläufe bewegter Körper ausüben. (Um zu erklären, dass Michelson und Morley keine Unterschiede in den 17 Geschwindigkeiten des Lichts in verschiedenen Richtungen relativ zur Erdbewegung messen konnten.) -- Diese Eigenschaften entsprechen wieder gar nicht den klassischen Gesetzen der Physik. Einstein hatte den Mut, die Fundamente der Physik neu zu analysieren. Seine „Desiderata“, die Liste von Anforderungen für eine gute Theorie sind: a) b) c) d) Einfachheit, „Schönheit“, („Denk-Ökonomie“ von Ernst Mach) Innere Konsistenz, Einheitlichkeit der neuen Physik Verträglichkeit mit anderen Teilen der Physik und mit anderen Wissenschaften Empirische Gültigkeit, Verträglichkeit mit Experimenten 3.1.2. Neue Axiome für lokale Inertialsysteme Struktur der Menge von Ereignissen: a) Quasi-klassische Beschreibung im Lokalen Inertial-System: Jeder Beobachter kann die Ereignisse lokal (in seiner Umgebung, in kleinen zeitlichen und räumlichen Abständen) im euklidischen Raum und in einer davon unabhängigen Zeit beschreiben. b) Trägheitsprinzip: Es gilt weiterhin das erste Newtonsche Axiom: Ein Körper ohne äußere Krafteinwirkung bleibt im Zustand der Ruhe oder der geradlinig gleichförmigen Bewegung. (Das gibt wieder die Charakterisierung von LIS.) c) Relativitätsprinzip: In jedem Inertialsystem gelten die gleichen physikalischen Gesetze. d) Konstanz der Lichtgeschwindigkeit: In jedem Inertialsystem ist die Lichtgeschwindigkeit gleich c. Raum-Zeit-Diagramme Jeder Beobachter in einem lokalen Inertialsystem, LIS, kann ein Koordinatensystem festlegen, mit dem er die Anordnung der Ereignisse in einem Raum-Zeit-Diagramm beschreiben kann. („Minkowski-Diagramm“) (Die Einschränkung auf „lokal“, nicht auf das Universum auszudehnen, wird in der allgemeinen Relativitätstheorie wichtig.) In den folgenden Beispielen wird die Auswahl einer einzigen Raumkoordinate x genügen. Die Einheiten werden dabei meistens so gewählt, dass die „Bahn“ des Lichts genau den rechten Winkel zwischen den Achsen teilt. Wenn die Zeit-Einheit Sekunde gewählt wird, ist die passende Einheit für Längen eine Lichtsekunde. 18 3.1.3. Die Relativität der Gleichzeitigkeit Was ist „gleichzeitig“? Beispiel: Funk-Kontakt Erde-Mond: Aussendung eines Signals von der Erde ist Ereignis A. Das Signal wird vom Mond sofort beim Eintreffen bestätigt: Fernes Ereignis F. Das Eintreffen dieser Rückmeldung auf der Erde ist Ereignis R. Welches Ereignis G auf der Erde ist gleichzeitig mit F? Die Zeitdauer zwischen A und R ist mehr als zwei Sekunden, da ja die Entfernung Erde-Mond, ~ 380 000 km, etwas mehr als eine Lichtsekunde ist. Es bewegt sich nichts schneller als das Licht, also könnte jedes Ereignis zwischen A und R als gleichzeitig mit F betrachtet werden. Wir brauchen eine Definition: Das Ereignis G, am selben Ort wie A und R, genau in der Hälfte der Zeitdauer zwischen A und R, ist gleichzeitig mit dem fernen Ereignis F, bei dem das Licht- (oder Funk-) Signal, das von A ausgeht, zur Rückkehr R gespiegelt wird. Die x-Achse sowie alle dazu parallelen Linien im Raum-Zeit-Diagramm verbinden jeweils gleichzeitige Ereignisse. (x = Abstand vom Mond) Im Folgenden kommt noch die Bahn eines Raumschiffes dazu. Das Raumschiff ist gerade beim Ereignis F ganz nahe beim Mond. Wie sieht nun die Einordnung dieser Ereignisse in ein Raum-Zeit-Diagramm aus, in dem dieses Raumschiff, das sich gerade sehr schnell am Mond vorbei zur Erde bewegt, als ruhend erscheint? Wir verwenden nun das Axiom der Konstanz der Lichtgeschwindigkeit. Das Bezugs-System Das System, in dem das Raumschiff ruht; wo also t-Achse = Bahn des Raumschiffs. Die x-Achse verbindet Ereignisse, die für das System gleichzeitig sind. - 19 Koordinaten der Ereignisse im System : A (xA ,tA) R (xR ,tR) F (xF = 0, tF = 0) G (xG ,tG) Das Ereignis G ist genau in der Mitte zwischen den Ereignissen A und R, und daher nicht auf der Achse, welche die Gleichzeitigkeit für das Raumschiff darstellt. Denn vom bewegten Bezugssystem aus nähert sich die Erde zu dem Ort des Ereignisses F, sodass das Licht dorthin noch länger braucht als bei der Rückkehr, bei der die Erde schon näher ist. Berechnung der Koordinaten von G im Bezugs-System Wir wissen von folgenden Tatsachen: 1) Die Ereignisse A und R liegen auf den Lichtlinien durch das Ereignis F, welches als Ursprung des -Koordinatensystems dient. xA c tA xR c tR 2) Geschwindigkeit der Erde relativ zum Raumschiff hat den konstanten Wert v. x R xA v tR tA 3) Ereignis G ist in der Mitte zwischen A und R. xG x R xA 2 tG tR tA 2 Mit diesen drei Formeln berechnen wir die Zeit tG , in Abhängigkeit vom Abstand xG. 3 tG 1 2 1 3 tR tA 1 v v x xA v (t R t A ) 2 R (x R x A ) 2 xG 2 2c 2c c 2 c Das Ereignis G, welches für das System der erdgebundenen Beobachter so wie das Ereignis F mit der Zeitangabe 0 charakterisiert wird, erscheint vom relativ bewegten System aus, in dem F wieder die Zeitangabe 0 erhält, zu der früheren Zeit tG v xG c2 20 Dieser Zeitunterschied zum Koordinatenursprung ist proportional zur x-Koordinate. Die Menge aller Erd-gleichzeitigen Ereignisse (im Erd-System die x-Achse) bildet hier die Linie mit der Gleichung zwischen den Koordinaten t v x c2 Das Minuszeichen erscheint hier deshalb, weil die - System Geschwindigkeit der Erde relativ zum negativ ist, gleich -v. Umgekehrt, von der Erde aus, hat das Raumschiff die positive Geschwindigkeit v; und die -gleichzeitigen Ereignisse auf der x- Achse des - Systems erscheinen im Erdsystem auf der Linie t = (v/c2)x . Die Galileische Revolution war Relativierung der Linien „gleicher Ort“. die Die Einsteinsche Revolution ist hier die Relativierung der Ebenen „gleiche Zeit“. 3.1.4. Die Eigenzeit Wir kennen nun im Raum-Zeit-Diagramm den Wechsel der Koordinatenachsen, die einen Wechsel des Bezugssystems begleiten muss. Die nächste Frage: Wo liegen die Einteilungen für die Einheiten auf den Achsen? Speziell bezüglich der Achse, die die Weltlinie eines (möglichen) Körpers im neuen LIS darstellt: Wo liegt das Ereignis „Die im Ursprung des neuen LIS lokalisierte Uhr zeigt den Ablauf einer Sekunde an!“, vom ersten Bezugssystem aus gesehen ? Antwort: In der Ebene der ersten Gleichzeitigkeit, die den Ablauf von Sekunden angibt; mit 1 1 v2 c2 Die Eigenzeit - das ist die Zeit-Dauer für die Uhr im „bewegten“ Bezugssystem- ist, ausgedrückt durch die im äußeren Bezugs- System gemessene Zeit t: 21 1t Anschauliche Begründung: Die Zeit-Dehnung, die „Zeit-Dilatation“ folgt aus den Unterschieden der Gleichzeitigkeits-Ebenen in der Raum-Zeit. Als Beispiel analysieren wir eine fiktive Situation mit allen Bewegungen in xRichtungen. Wir stellen uns zwei an der Erde vorbeifliegende Raumschiffe vor, A mit Geschwindigkeiten +v und B mit v. (Sollen die folgenden Zahlen des Beispiels stimmen, muss v2 = c2/3 sein.) Es gibt dabei also drei Bezugssysteme (lokale Inertialsysteme): A, B, und das „neutrale“ Bezugssystem der Erde. Wir betrachten die Uhren der Raumschiffe (Annahme: alle sind physikalisch gleich, würden also, nebeneinander liegend, gleich gehen.): Im Bug und im Heck jeweils eine. Sie werden von der Ankunft eines Lichtblitzes synchronisiert, der von der Mitte des Raumschiffes ausgeht. In einem Inertialsystem gelten ja zwei Ereignisse auch dann als gleichzeitig, wenn zwei Lichtsignale, die von der Mitte ihres räumlichen Abstands gleichzeitig ausgehen, jeweils gleichzeitig mit den Ereignissen an ihren Orten eintreffen. Zunächst diskutieren wir nur die Ereignisse im Raumschiff A. Von der Erde aus betrachtet, kommt die Heck-Uhr dem Lichtsignal entgegen, wird also (von der Erde aus gemessen!) früher in Gang gesetzt, als die Bug-Uhr, der das Lichtsignal nacheilen muss. Wenn jede Uhr beim Eintreffen des Lichtsignals auf „Null“ gestellt wird und dann weiter geht, ist also die Heck-Uhr schon weiter, als „Null“ - Sagen wir, bei „Zwei“ - wenn das Signal vorne eintrifft und die Bug-Uhr auf „Eins“ gestellt wird. Ist dann die Zeit der Bug-Uhr „Eins“, so ist die der Heck-Uhr schon „Drei“, und so weiter. Das Analoge gilt für das Raumschiff B: 22 Und wir nehmen nun an, dass die Uhren der Schiffe beim Vorbeiflug aneinander genau so sind wie im Bild, also genau diese Zeiten anzeigen. Die Differenzen in jedem Schiff bleiben bestehen. Zum Beispiel könnten beim Vorbeiflug der Hecks aneinander die Uhren um je zwei Zeiteinheiten weitergegangen sein: Und so sieht die Situation für einen Beobachter vom Raumschiff A aus, für das ja keine Zeitdifferenz der eigenen Uhren besteht: „Beim Treffen unseres (A) Bugs mit dem B-Bug zeigte die dortige Uhr 'Eins', wie die unsere. Jedoch beim Vorbeiflug des B-Bugs an unserem Heck war bei uns (A) die Zeit 'Fünf' und im B-Bug erst die Zeit 'Drei'. Während für uns (Schiff A) vier Zeiteinheiten vergangen sind, sind für B erst zwei Zeiteinheiten vergangen. Die Uhr in B geht also langsamer als unsere Uhren in A !“ Das ist die Zeit-Dehnung, die „Zeit-Dilatation“. Achtung: Die Bilder, die solche Situationen darstellen, sind meistens anders als die „Bilder“, die direkt optisch wahrgenommen würden. Die gezeigten Bilder sind verschiedene Querschnitte durch das Raum-Zeit-Diagramm. Alle obigen Bilder stellen die Querschnitte durch die Raum-Zeit zu festen Zeiten des Beobachters auf der Erde dar. Berechnung des - Faktors für die Eigenzeit Berechnungen einfacher Spezialfälle sollen mit elementaren mathematischen Mitteln die physikalischen Prinzipien darstellen. Wir analysieren die Eintragungen im Raum-Zeit-Diagramm des ersten Systems mit der Zeit-Koordinate t. Wir verwenden die schon berechnete Neigung der GleichzeitigkeitsEbenen des zweiten Systems mit der Eigenzeit t' und das Relativitätsprinzip: Was für die Beziehung vom System 2 zum System 1 gilt, muss auch umgekehrt gelten. Aus Symmetriegründen muss auch die Relativ-Geschwindigkeit von jedem System aus den gleichen Betrag haben. Mit den Diagramm-Einheiten, in denen der Lichtstrahl den rechten Winkel zwischen xund t-Achsen teilt, ist der Winkel der t'-Gleichzeitigkeitslinie mit der x-Achse gleich dem Winkel der t'-Achse mit der t-Achse. (Das entspricht der Wahl von Einheiten, für die „c=1“ gilt. Nach dieser Berechnung kehren wir zurück zur Verwendung allgemeinerer Einheiten. Dann schreiben wir v/c anstelle von v. Denn: In Einheiten mit c=1 hat z.B. die „halbe Lichtgeschwindigkeit“ den Wert 1/2. Denselben Wert erhalte ich in anderen Einheiten bei Berechnung von v/c.) Wir untersuchen die Geometrie im Raum-Zeit –Diagramm, mit folgenden Punkten: O ist der Koordinatenursprung E ist die Markierung der Zeit-Einheit auf der Zeit-Achse des ersten Systems D ist die Markierung der Zeit-Einheit auf der Zeit-Achse des zweiten Systems F liegt auf der Zeit-Achse des ersten Systems, hat im zweiten System die Zeit „Eins“. 23 E ist der Punkt der Zeit-Einheit: t(E) = t(D) = 1[s] a hat die Länge v mal 1[s] = v/c [s] Die Eigenzeit in D ist t'(D) = -1 [s] F hat die selbe t'-Zeit wie D. t'(F) = t'(D) = -1 Das Dreieck D-E-F ist ähnlich zum Dreieck O-E-D. Wegen der Relativität, und wegen der Symmetrie, verhält sich die t-Zeit von F zur t'-Zeit von F (=t'-Zeit von D = -1) so wie die t'-Zeit von D zur t-Zeit von D (= t(E) = 1[s]): t ( F) t ' ( D ) t ' ( F) t ( D ) t ( F) t ' ( D ) t ' ( D) t ( E ) t ( F) [ t ' ( D)]2 2 t( E) Wegen der Ähnlichkeit der Dreiecke D-E-F und O-E-D gilt t ( E ) t ( F) a a t ( E) 1 2 a a 1 also Diese Gleichung kann nach aufgelöst werden und gibt den angegebenen Ausdruck: = ((1 - a2)-1/2 = (1 _ v2/c2)-1/2 Umfassender und vollständiger sind dann Berechnungen mit ausgefeilten Methoden der Matrizenrechnung. Die geben dann die Lorentz-Transformation. Veränderliche Geschwindigkeit Für Körper, die ihre Bewegungszustände, also die Geschwindigkeit, ändern, setzt sich die Eigenzeit aus Stücken zusammen. Für jedes Stück gilt = -1(v)t Daher gilt für die Summe, für die ganze Eigenzeit 1 ( v ) t Wenn die Geschwindigkeiten sich stetig ändern, dann ist die Summe durch ein Integral zu ersetzen. 24 Das Zwillingsparadoxon Wenn der bewegte Körper (einer der Zwillinge) zum Ausgangspunkt zurückkehrt, dann ist die für ihn abgelaufene Eigenzeit an Ort und Stelle mit der abgelaufenen Zeit t des ruhenden Systems (des nicht bewegten Zwillings) zu vergleichen. Da jeder Faktor -1 kleiner (oder gleich) 1 ist, gilt 1 ( v ) t t t Der ruhende Zwilling hat die längste Zeitspanne hinter sich, der bewegte ist weniger gealtert. Auch die Resultate des Hafele-Keating-Experiments, siehe Anhang, sind so zu erklären. 3.1.5. Geschwindigkeitstransformation Als Folge der Unterschiede, der Relativität von Zeiten und Längen, gelten auch andere Gesetze für die Zusammensetzung von Bewegungen; die einfache Addition der Geschwindigkeiten gilt nicht mehr. Für die Zusammensetzung von Geschwindigkeiten v und w in einer Richtung zu einer neuen Geschwindigkeit u gilt nun: u vw 1 vw / c 2 a) Der klassische Grenzfall: Für |v| und |w| viel kleiner als c ist u näherungsweise gleich v+w. b) Die Lichtgeschwindigkeit wird nie überschritten: Für |v| kleiner als c und |w| kleiner als c ist auch |u| kleiner als c. c) Die Universalität der Lichtgeschwindigkeit: w=c u=c d) Symmetrie: v = –w u = 0 Ein im “ruhenden” System ruhender Körper hat, vom mit Geschwindigkeit w „bewegten“ System aus, die Geschwindigkeit –w. Bei Zusammensetzung einer Relativbewegung zweier Systeme in Geschwindigkeit v mit einer zusätzlichen Bewegung eines Objekts mit Geschwindigkeit w quer zur Relativbewegung kommt die Zeitdilatation zum Tragen: Im System 1 bewegt sich ein Raumschiff in x – Richtung mit Geschwindigkeit v. Im Raumschiff, im System 2, bewegt sich ein Objekt quer zur Flugrichtung mit Geschwindigkeit w. Vom System 1 aus beobachtet, ist die Geschwindigkeit des Objekts ein Vektor mit zwei Komponenten. In x – Richtung ist die Komponente v, quer dazu ist die Komponente -1(v)w. 25 3.2 Dynamik 3.2.1. Wechselwirkungen Es gibt keine absolute Gleichzeitigkeit. Daher kann es keine Fernwirkung geben. Die Wechselwirkungen voneinander entfernter Körper werden über Felder oder Teilchen vermittelt. Zum Beispiel wirkt die Coulomb-Kraft nicht instantan, sondern über das elektromagnetische Feld. Dessen Ausbreitung geschieht durch Wellen mit Lichtgeschwindigkeit. Auch die Gravitation wirkt nicht direkt zwischen weit entfernten schweren Körpern, sondern über Vermittlung der Raum-Zeit-Krümmung. Es gibt keine absolut starren Körper, es gibt keine absoluten Zwangskräfte. Die beobachteten „Zwangskräfte“ sind in Wirklichkeit Kräfte zwischen den Atomen, zurückzuführen auf elektrische Kräfte und auf Quanteneffekte. Keine Ausbreitung mit Überlichtgeschwindigkeit! Die Beschreibung der Wechselwirkungen mit Kräften und mit zeitunabhängigen Potentialen ist oft nicht möglich, nur im Grenzfall langsamer Bewegungen, wenn v/c 1. 3.2.2. Energie und Impuls Man braucht relativistische Erhaltungsgrößen, die im Grenzfall die klassischen Größen geben. Energie und Impuls werden neu definiert. p m0 v E m0c 2 Dabei ist mo die Ruhemasse des Teilchens. Auch die Masse kann, wenn man so will, als abhängig von der Geschwindigkeit betrachtet werden. (Die Nützlichkeit so einer Betrachtung ist umstritten.) Einem Körper wird dabei eine invariante Ruhemasse m0 zugeschrieben, die bei höheren Geschwindigkeiten zur relativistischen Masse mrel wird. mrel = mo Im Grenzfall |v| viel kleiner als c, wird 1 und der Impuls p mv. In der Formel für die Energie muss man in diesem Grenzfall den Faktor entwickeln: ( v) 1 v2 1 2 c2 1 1 v 2 c2 In der Formel für E ergibt das E m0 c 2 26 m0 v 2 2 Der geschwindigkeitsabhängige Term gibt die klassische kinetische Energie. Da in der klassischen Mechanik immer nur Differenzen von Energien beobachtbar sind, ist die „RuheEnergie“ Eo = moc2 vor dem zwanzigsten Jahrhundert nicht beobachtet worden. Erste Anwendung: Erklärung der Massendefekte beim radioaktiven Zerfall. Einsicht in die Formel für den relativistischen Impuls Betrachte die streifende Streuung zweier gleicher Teilchen A und B. Verwende in der Überlegung das hier intuitiv einleuchtende Prinzip der Symmetrie. Im Schwerpunkts-System bewegen sich beide Teilchen vor der Streuung in x-Richtung aufeinander zu. Nach der Streuung legt jedes in der gleichen Zeit ein gleich langes kleines Wegstück quer zur x-Richtung zurück. (In entgegengesetzten Richtungen). Die Eigenzeiten beider Teilchen verlaufen auch ganz gleich: Um eine gegebene Differenz der Querkoordinaten zu überwinden, brauchen beide Körper die gleiche Eigenzeit . Nun wechseln wir das Bezugssystem, verwenden das Labor-System, in dem das Teilchen A vorher ruht. Das Teilchen B nähert sich ihm in x-Richtung. Nach der Streuung hat das Teilchen A einen (kleinen) Impuls quer zur x-Richtung. Der Betrag dieses Impulses ist, wegen der kleinen Geschwindigkeit, ungefähr gleich dem klassischen Wert movA. Den gleich großen, entgegengesetzt gerichteten Impuls hat das Teilchen B aufgenommen, wie wir nun berechnen: Die Komponente der Geschwindigkeit quer zur x-Richtung ist aber für das Teilchen B kleiner, und zwar um den Faktor -1. Denn im neuen Bezugssystem erscheint seine Eigenzeit um diesen Faktor geringer als die Zeit des Systems. Die Eigenzeit von A hingegen ist, wegen der sehr kleinen Geschwindigkeit, praktisch identisch mit der Zeit des Systems. Da beide Teilchen in gleicher Eigenzeit = A = B gleiche Querstrecken - die in jedem System gleich lang sind - zurücklegen, brauchen sie in der neuen Systemzeit dazu verschieden lange. A braucht die Systemzeit tA = A , B braucht dazu die Systemzeit tB = B . |(vB)quer| = = -1 |vA| 1 t B B A Bei der Berechnung der Querkomponente des Impulses von B wird dieser Faktor in der relativistischen Formel wieder kompensiert: |(pB)quer| = mo|(vB)quer| = mo-1 |vA| = mo|vA| = |pA| Da die Richtungen einander entgegengesetzt sind, ist die Summe der Querkomponenten der Impulse von A und von B auch nach der Streuung wieder gleich Null. Man kann auch den Gamma-Faktor und die Ruhemasse zusammen als „relativistische Masse“ bezeichnen. 27 3.2.3. Die Äquivalenz von Masse und Energie Die Masse-Energie-Äquivalenz ist in der Kurzform E = mc2 allgemein bekannt. Gedankenexperiment Ein zusammengesetztes Objekt wird beschleunigt, es muss ihm Impuls und Energie zugeführt werden. Der Widerstand dagegen, die „Trägheit“, definiert die träge Masse Mo des Objekts. Nun kann man aus dieser Trägheit allein nicht feststellen, ob die Teile (indiziert mit , aus denen das Objekt besteht, ruhen, sodass M0 = mo() gilt, oder ob sich die Teile vielleicht sehr schnell bewegen, sodass M0 = (v)m0() gilt, so wie weiter oben bei der Untersuchung der Querkomponente des Impulses. Dann wäre die Masse des zusammengesetzten Objekts größer als die Summe der Ruhe-Massen der Teile. Die kinetischen Energien tragen ebenfalls zur Gesamtmasse bei. Beim Zerfall eines zusammengesetzten Körpers kann also ein Teil seiner Ruhemasse zur kinetischen Energie der Zerfallsprodukte werden. (Genau das geschieht beim radioaktiven Zerfall schwerer Atomkerne.) Einsteins Hypothese: Das Äquivalenzprinzip a) Die Äquivalenz von Masse und Energie gilt nicht nur teilweise für zusammengesetzte Körper, sondern immer und ganz. Diese Hypothese hat sich als zutreffend erwiesen. Wenn ein Teilchen auf sein Antiteilchen trifft, können die Massen dieser Teilchen vollständig in Energie umgewandelt werden. b) Träge Masse = Schwere Masse Diese starke Form des Äquivalenzprinzip ist das Fundament für die Theorie der Gravitation, die „allgemeinen Relativitätstheorie“. Weiterführende Literatur: Wolfgang Rindler 28 „Essential Relativity“ Anhang: Das Hafele-Keating Experiment Flugzeug umrundet die Erde einmal nach Osten, einmal nach Westen. Atomuhren im Flugzeug werden vor den Flügen mit Vergleichsuhren auf der Erde synchronisiert. Nachher zeigen sie andere Eigenzeit als die Vergleichsuhren. Beim Westflug ist der Unterschied der Eigenzeiten anders als beim Ostflug. Geschwindigkeit des Flugzeuges: Dauer eines Fluges: 900 km/h 40 Stunden Differenz der gemessenen Unterschiede zwischen den Eigenzeiten von West- und Ostflug: ~ 300109 s (Dreihundert Nano-Sekunden) Der Vergleich der Gang-Differenz zur Dauer eines Fluges ergibt: 300 10 9 10 9 2 10 12 40 3600 480 Als „ruhender Ort“ könnte für diese Zeitspanne der Südpol betrachtet werden. Die Erde dreht sich in diesem System nach Osten. Das Flugzeug im Ostflug hat gegen das System dauernd eine noch höhere Geschwindigkeit, das Flugzeug im Westflug eine geringere. Daher vergeht beim Westflug mehr Eigenzeit. Darstellung in einem Raum-Zeit-Diagramm mit Angabe der geographischen Länge. Um 360° ( = 2 ) weiter ist derselbe Ort. Übungsaufgabe: Berechnung der Eigenzeiten im Hafele-Keating-Experiment. Vereinfachende Annahmen: Die Geschwindigkeit eines jeden Flugzeugs relativ zur Erdoberfläche ist ständig 900 km/h, die Flugstrecken sind entlang dem Äquator. (In Wirklichkeit kommt dann noch ein Effekt hinzu, der davon herrührt, dass die Flugzeuge im Schwerefeld der Erde höher sind. Dieser Effekt wird in der allgemeinen Relativitätstheorie erklärt.) Unter „klassischen“ Verhältnissen mit kleinen Geschwindigkeiten (|v| << c) und schwachen Schwerefeldern (wie auf der Erde) sind die Unterschiede der Eigenzeiten nur mit verfeinerten Methoden messbar. 29 ORIGINAL - TEXT Zur Elektrodynamik bewegter Körper; von A. Einstein. Daß die Elektrodynamik Maxwells - wie dieselbe gegenwärtig aufgefaßt zu werden pflegt - in ihrer Anwendung auf bewegte Körper zu Asymmetrien führt, welche den Phänomenen nicht anzuhaften scheinen, ist bekannt. Man denke z. B. an die elektrodynamische Wechselwirkung zwischen einem Magneten und einem Leiter. Das beobachtbare Phänomen hängt hier nur ab von der Relativbewegung von Leiter und Magnet, während nach der üblichen Auffassung die beiden Fälle, daß der eine oder der andere dieser Körper der bewegte sei, streng voneinander zu trennen sind. Bewegt sich nämlich der Magnet und ruht der Leiter, so entsteht in der Umgebung des Magneten ein elektrisches Feld von gewissem Energiewerte, welches an den Orten, wo sich Teile des Leiters befinden, einen Strom erzeugt. Ruht aber der Magnet und bewegt sich der Leiter, so entsteht in der Umgebung des Magneten kein elektrisches Feld, dagegen im Leiter eine elektromotorische Kraft, welcher an sich keine Energie entspricht, die aber - Gleichheit der Relativbewegung bei den beiden ins Auge gefaßten Fällen vorausgesetzt - zu elektrischen Strömen von derselben Größe und demselben Verlaufe Veranlassung gibt, wie im ersten Falle die elektrischen Kräfte. Beispiele ähnlicher Art, sowie die mißlungenen Versuche, eine Bewegung der Erde relativ zum "Lichtmedium" zu konstatieren, führen zu der Vermutung, daß dem Begriffe der absoluten Ruhe nicht nur in der Mechanik, sondern auch in der Elektrodynamik keine Eigenschaften der Erscheinungen entsprechen, sondern daß vielmehr für alle Koordinatensysteme, für welche die mechanischen Gleichungen gelten, auch die gleichen elektrodynamischen und optischen Gesetze gelten, wie dies für die Größen erster Ordnung bereits erwiesen ist. Wir wollen diese Vermutung (deren Inhalt im folgenden "Prinzip der Relativität" genannt werden wird) zur Voraussetzung erheben und außerdem die mit ihm nur scheinbar unverträgliche Voraussetzung einführen, daß sich das Licht im leeren Raume stets mit einer bestimmten, vom Bewegungszustande des emittierenden Körpers unabhängigen Geschwindigkeit V fortpflanze. Diese beiden Voraussetzungen genügen, um zu einer einfachen und widerspruchsfreien Elektrodynamik bewegter Körper zu gelangen unter Zugrundelegung der Maxwellschen Theorie für ruhende Körper. Die Einführung eines "Lichtäthers" wird sich insofern als überflüssig erweisen, als nach der zu entwickelnden Auffassung weder ein mit besonderen Eigenschaften ausgestatteter "absolut ruhender Raum" eingeführt, noch einem Punkte des leeren Raumes, in welchem elektromagnetische Prozesse stattfinden, ein Geschwindigkeitsvektor zugeordnet wird. Die zu entwickelnde Theorie stützt sich - wie jede andere Elektrodynamik - auf die Kinematik des starren Körpers, da die Aussagen einer jeden Theorie Beziehungen zwischen starren Körpern (Koordinatensystemen), Uhren und elektromagnetischen Prozessen betreffen. Die nicht genügende Berücksichtigung dieses Umstandes ist die Wurzel der Schwierigkeiten, mit denen die Elektrodynamik bewegter Körper gegenwärtig zu kämpfen hat. I. Kinematischer Teil. § 1. Definition der Gleichzeitigkeit. ......... Annalen der Physik 17, p.891, 1905 30 4. Quanten und Wellen-Natur der Materie 4.1. Quanten des Lichts, Photonen Die Energie eines Lichtstrahls ist quantisiert. Energiequanten sind E = Eine Science-Fiction-Geschichte Die Besatzung eines Raumschiffs landet auf einem unbewohnten Planeten. Früher einmal waren dort schon Raumpiraten, die ihre Beute in einer Höhle deponiert haben und den Eingang zur Höhle mit einem Kraftfeld abgeschirmt haben. Nur die Strahlen der Laserpistolen können diesen Schutzschild durchbrechen. Der Erkundungstrupp schießt mit roten Laserstrahlen auf den metallisch glänzenden Rahmen des Höhlentores, in dem die Quelle des Kraftfeldes liegt. Nichts rührt sich, auch nicht bei höchster Intensität des Strahles. Der Wissenschaftler des Trupps entscheidet daraufhin, blaue Laserstrahlen zu verwenden. Sie bewirken kleine Funken am beschossenen Teil. Bei steigender Intensität der Bestrahlung werden diese Funken dichter, aber nicht länger, sie bleiben dicht am Rahmen und das Feld ändert sich nicht. Dann werden Ultraviolett-Laser eingesetzt: Schon bei kleinster Intensität werden lange Entladungsbögen zwischen gegenüberliegenden Rahmenseiten ausgelöst, das Feld wird immer schwächer und verschwindet schließlich ganz. Diese kurze Geschichte ist eine Erzählung vom lichtelektrischen Effekt. 4.1.1. Der Lichtelektrische Effekt 1887 von Heinrich Hertz entdeckt, 1900 bis 1902 von Philipp Lenard genauer gemessen. (Wird auch „photo-elektrischer Effekt“ oder „Photo-Effekt“ genannt.) Elektromagnetische Strahlung (UV-Licht der Frequenz /2) fällt auf einen Emitter. Wenn dabei Elektronen aus dem Emitter austreten, treffen sie auf den Kollektor und erzeugen einen Strom, dessen Stärke mit einem Galvanometer gemessen wird. Es wird also gemessen, welche Strahlung Elektronen aus dem Emitter herauslösen kann. Wird noch zusätzlich eine Spannung U, die die Elektronen vom Kollektor abstößt, zwischen Emitter und Kollektor angelegt, so muss ein Elektron die Energie eU aufbringen, um am Kollektor aufzutreffen. Das ist nur dann möglich, wenn es mit mindestens dieser Energie aus dem Emitter austritt. Durch Variation von U misst man so die Austrittsenergie der Elektronen. 31 Das Ergebnis zeigt für E eine lineare Abhängigkeit von der Frequenz = /2 der einfallenden Strahlung. Strahlung mit Kreisfrequenz kleiner als löst keine Elektronen aus. Strahlung größerer Frequenz löst Elektronen aus dem Emitter aus. Sie haben dann die Energie E = - E0 wobei E0 = (Eo ist die Bindungsenergie eines Elektrons im Metall des Emitters.) Die Erklärung dieses Effekts: 4.1.2. Die Lichtquanten-Hypothese Einen wesentlichen Schritt zur Schaffung der Quantenphysik setzte Albert Einstein 1905 mit der Lichtquantenhypothese: Das Licht besteht aus Lichtquanten (Photonen), „welche sich bewegen, ohne sich zu teilen“. Hat das Licht die Kreisfrequenz , so ist die Energie eines Lichtquants E=. So konnte der photoelektrische Effekt erklärt werden. Dafür erhielt Einstein 1921 den Nobelpreis. Einsteins Erklärung dieses Effekts: Elektromagnetische Strahlung gibt es nur in Vielfachen von Lichtquanten, deren jedes die Energie E = hat. Elektronen sind im Emitter mit Energie E gebunden. Um austreten zu können müssen sie mindestens diese Energie aufnehmen. Nehmen sie von einem Lichtquant kleinerer Kreisfrequenz als geringere Energie auf, so haben sie diese entweder als Reflexion abgestrahlt, oder als thermische Erregung abgegeben, bevor das nächste Photon eintrifft. Wenn sie austreten, bleibt ihnen im Freien die Energie E = - E0 Vorgeschichte: Max Planck beschäftigte sich mit Problemstellungen der Thermodynamik. Nach jahrelangem Bemühen, die Grundlagen für die phänomenologisch bekannten Gesetze (Temperaturabhängigkeit und Frequenzverteilung) der Hohlraumstrahlung (der Wärmestrahlung eines schwarzen Körpers) zu finden, erreichte er Ende 1900 sein Ziel. Er erkannte die Notwendigkeit einer revolutionären Hypothese: 32 Es gibt ein Wirkungsquantum, = 1,... 10-34 J s . Energieaustausch zwischen Materie und elektromagnetischen Wellen mit Kreisfrequenz geschieht in Energiequanten E=. Planck selbst verwendete noch das Plancksche Wirkungsquantum h=2 = /2 E=h. die Frequenz und die Formel In dieser erfolgreichen Hypothese zur Erklärung der Strahlungsgesetze war es noch nicht klar, ob die Quantisierung bei den „Oszillatoren“ des Materials, oder bei den Lichtwellen, oder bei deren Wechselwirkung anzusetzen ist. 4.1.3. Lichtquanten als Teilchen: Photonen Energie, Impuls, Frequenz und Wellenvektor Mit Einsteins Lichtquantenhypothese bekommt das Licht auch einen Teilchencharakter. Der Streit zwischen Newtons Teilchentheorie des Lichtes und der Huygenschen Wellentheorie war nur scheinbar endgültig zugunsten der letzteren entschieden worden. (Nach 1800, von Thomas Young und Augustin Fresnel.) Beide Theorien müssen nun koëxistieren. Das Photon hat, so wie andere Teilchen, Energie und Impuls. Diese Größen sind nach der Relativitätstheorie in folgender allgemeiner Formel miteinander verknüpft: E2 = m02 c4 + p2 c2 m0 ..... Ruhemasse des Teilchens, beim Photon: m0 = 0, c ..... Lichtgeschwindigkeit Speziell für das Photon ohne Ruhemasse (m0 = 0) gilt, im Limes m0 0 , E konstant: E2 = p2 c2 Für den Betrag p des Impulses folgt daraus p = E / c = / c = h / c = h / .....Wellenlänge Mit dem Wellenvektor k , der dazu verwendet wird, um harmonische ebene Wellen zu beschreiben, dessen Richtung gleich der Fortpflanzungsrichtung der Wellen ist, und dessen Betrag k die Wellenzahl gibt: p = h k/2 = k Nun gilt die Gleichung nicht nur für den Betrag, sondern auch für die Richtung. p k Eine kurze Erklärung der wichtigsten Begriffe aus der Theorie von Wellen folgt im Anhang. 33 4.1.4. Elastische Streuung am Elektron: Compton-Streuung Für Energie und Impuls der Photonen gelten die aus der Mechanik bekannten Erhaltungsgesetze bei Stößen, man kann Streuprozesse mit Teilchen berechnen. Die Erhaltungssätze für Energie und Impuls ergeben, zusammen mit den EinsteinBeziehungen für die entsprechenden Größen des Photons, bei einem Stoßprozess zwischen Photon und Elektron: Eeinlaufendes Teilchen + ein = Eauslaufendes Teilchen + aus p ein + k ein = p aus + k aus Bei Streuung an Metall kann ein Photon also auch die innere Struktur, den Zustand des Körpers ändern, indem es Energie mit einem Elektron austauscht. Es wird dabei an einem einzelnen Elektron, das im Metall „fast frei“ ist, gestreut. Die Energie des Elektrons wird dadurch geändert, es erfährt einen „Rückstoß“. Dabei muss das Photon beim Stoß Energie abgeben. (Dass umgekehrt das Elektron keine Energie abgeben kann, ist eine Folge des „Pauli-Verbots“, und des Zustands der Elektronen im „Fermi-See“ in Metallen.) aus ein Das gestreute Licht hat dann kleinere Frequenz, größere Wellenlänge, als das einfallende. Die Differenz hängt von dem Streuwinkel ab. Man berechnet sie aus der Erhaltung von Energie und Impuls als: h 2 sin 2 ( / 2) 2(1 cos ) mc mc Die Größe /mc (die „Compton-Wellenlänge des Elektrons“) ist ~ 410-13 m . Die Änderung der Wellenlänge ist also etwa ein Prozent der Wellenlänge von Röntgenstrahlen. Der Effekt wurde 1922 beobachtet. Wendet man dieselbe Überlegung an auf die Streuung des Photons an einem größeren Körper, so muss man nur die größere Masse in dieselbe Formel einsetzen. Die Änderung der Wellenlänge ist umgekehrt proportional zu dieser Masse, also z.B. schon bei einem kleinen Körper von nur einem Mikrogram um 21 Größenordnungen kleiner als bei der Streuung am Elektron und praktisch unbeobachtbar. Somit können wir einen solchen Körper bei Lichtstreuung als „unbeweglich“ betrachten. (Diese Situation wird im Beispiel von 4.4.1. vorausgesetzt werden.) 34 4.2. Wellen-Natur massiver Teilchen Teilchen der Materie haben Zustands-Eigenschaften, die man von Wellen kennt. De Broglie-Wellen Prince Victor Louis de Broglie (ein Franzose aus italienischer Adelsfamilie) entwickelte 1923 die Idee, die Begriffsverbindung von Welle und Teilchen, wie sie in Einsteins „Lichtquantenhypothese“ geschehen war, auch bei Teilchen der Materie durchzuführen. (Daraus wurde seine Dissertation.) So soll dann mit stehenden Wellen das Bohrsche Quantenpostulat erklärt werden. Das Bohrsche Quantenpostulat Die Elektronen können im Atom nur Zustände mit Energien aus einer Menge bestimmter diskreter Werte {En} einnehmen. (Mehr dazu im Anhang zu Kap. 6) Die Hypothese von De Broglie Es gelten auch für Teilchen der Materie die Quantenbeziehungen E= p k Ein freies Teilchen mit Energie E und Impuls p zeigt auch die Eigenschaften der Welle: e i ( k x t ) Zur Veranschaulichung: Diese komplexwertige Welle hat keine „Berge“ und „Täler“. Der Betrag des Absolutwertes ist überall gleich. Wenn man sich ein Bild machen will, so kann man sich die Werte als Punkte auf dem Einheitskreis in der komplexen Ebene vorstellen: Die Welle entlang einer Geraden im Raum bewegt sich dann wie eine geschobene Schraube. Nur wenn man den Realteil und den Imaginärteil extra betrachtet, erhält man Kosinusund Sinus-Wellen. Genauer betrachtet hat jede Welle Beginn und Ende. Es handelt sich dabei um „Wellenpakete“. 35 Ein Wellenpaket in Bewegung: Am Spezialfall solcher Wellen ist schon ersichtlich, dass für Berechnungen in der Quantenmechanik die Verwendung komplexer Zahlen notwendig ist. Rechenregeln: (a,b,c,d, sind reelle, w, z sind komplexe Zahlen) i2 = 1 (a + i b) + (c + i d) = (a+c) + i (b + d) (a + i b)(c + i d) = (ac – bd) + i (ad + bc) |a + i b| = (a2 + b2) e i = cos + i sin ew+z = ewez Die Interferenz, mit der Möglichkeit einer Auslöschung, unterscheidet Wellenstrahlen von anderen gewohnten Strahlen. Zwei Strahlen von Teilchen könnten einander in der klassischen Mechanik nie auslöschen. Geschichte: Thomas Young und Augustin Fresnel zeigten (~ 1800 - 1820) dass es bei Licht Interferenzen gibt. Die Wellentheorie löste Newtons Teilchentheorie des Lichts ab. Der fundamentale Unterschied zur Bewegung der Teilchen der klassischen Physik ist die Interferenz der Wellen, mit der Möglichkeit der Auslöschung. Einige Begriffe und Fakten aus der Theorie der Wellen finden Sie im Anhang! Um die Theorie des Atombaus befriedigend aufzustellen, muss man allerdings dreidimensionale Probleme der Wellengleichungen lösen. Schrödinger, mit solchen mathematischen Problemen vertraut, schaffte das 1925/26, aufbauend auf de Broglies Ideen. Dazu mehr in den folgenden Kapiteln. 36 4.3. Interferometrie mit Neutronen Moderne Experimente makroskopischen Bereich zeigen die Wellennatur der Materie auch im Noch eine Science-Fiction-Geschichte Ein Raumschiff ist in einen dichten Sternenstaubnebel geraten. Es gibt nur zwei mögliche Wege, um einen Riesenstern herum, die beide dann in einen Strukturknoten leiten, und schließlich weiter aus diesem heraus entweder ins Verderben in einem schwarzen Loch oder in die Freiheit in den weiten Raum hinaus führen. Der Kapitän schickt zur Erkundung kleine Proberaketen aus. Erst über den Weg A: Aus dem Strukturknoten heraus gelangen sie mit unvorhersehbarer Zufälligkeit teils ins schwarze Loch, teils ins Freie, und zwar mit jeweils gleicher Chance. Dann wird der Weg B getestet: Auch hier gleiche Wahrscheinlichkeit für Verderben wie für Entkommen. Der Chefwissenschaftler stellt Berechnungen an und findet die sichere Vorgangsweise zum Verlassen des verhexten Nebels: Das Raumschiff muss völlig abgeschirmt werden, so dass es von nichts und niemandem beobachtet werden kann, und auch keine eigene Beobachtung des eingeschlagenen Weges ermöglicht. Dann fliegen sie, ohne Klarheit über den zurückgelegten Weg, es kann A sein, genauso auch B. Und mit völliger Sicherheit erreichen sie so die Freiheit! Diese Geschichte ist eine Erzählung über Interferometrie, die nicht nur mit Licht, sondern auch schon mit kleinen Materieteilchen, etwa mit Neutronen, beobachtet wurde. 4.3.1. Prinzip des experimentellen Aufbaus Ein Neutronen-Interferometer besteht aus drei parallelen Platten, die aus einem circa 8 cm 5 cm 5 cm großen Einkristall geschnitten werden. Von außen fällt auf die erste Platte unter schrägem Winkel ein Strahl „monochromatischer“ thermischer Neutronen ein. Auf der anderen Seite tritt ein Teil dieses Strahles in gleicher Richtung, ein anderer Teil unter verändertem Winkel wieder aus. Beide dieser Strahlen, der direkte und der gebeugte, treffen auf die zweite Platte, wo sie wiederum in je zwei Strahlen geteilt werden. Von diesen vier Strahlen treten die äußersten aus dem Apparat aus. (Sie brauchen uns nicht weiter zu interessieren. Bei Interferometern für Photonen gibt es stattdessen eine Spiegelung des Strahls.) Die zwei inneren treffen bei der dritten Platte wieder zusammen. Jeder dieser beiden Strahlen A und B würde nun für sich allein auch in der dritten Platte in I und II aufspalten. (Experimentell überprüfbar durch Abblocken des jeweils anderen Strahles) 37 Wenn aber die beiden Strahlen gemeinsam auftreffen, so tritt, unter bestimmten Bedingungen der Anordnung, hinter der dritten Platte nur ein Strahl aus. Seine Intensität ist die Summe der Intensitäten der beiden wieder zusammentreffenden Strahlen. Die Neutronen fliegen dabei immer einzeln durch das Interferometer. Dieses Experiment wurde mit Neutronen erstmals am österreichischen Atominstitut 1974 von Rauch, Treimer und Bonse durchgeführt. Die Messresultate lieferten genau die für Wellen berechneten Oszillationen der Intensität, die zu beobachten sind, wenn es im Strahl B einen verstellbaren Phasenschieber gibt. In Wirklichkeit ja sind die Intensitätsverteilungen nicht ganz so praktisch wie hier angenommen. Aber durch Einbau eines Phasenschiebers ergaben sich großartige Resultate. Siehe Anhang. 4.3.2. Die Theorie zur Erklärung der Messergebnisse Die Strahlen werden mit ihrer Wellennatur berechnet. Die Welle im Strahl A kommt mit Wellenvektor . Sie wird beim Durchdringen der Kristall-Platte in zwei austretende Wellen geteilt: Eine mit unverändertem Wellenvektor (Strahl II ) und eine gebeugte mit Wellenvektor k (Strahl I ). Die folgenden Annahmen für die Gesetze im speziellen Apparat (die wirklichen Gesetze beim Experiment hängen von den verwendeten Winkeln und Plattenstärken ab) sind so getroffen, dass die Berechnung möglichst einfach wird: Gesetz 1: Die ungebeugte Welle ist einfach ein fortgesetzter Teil der einlaufenden Welle. Die gebeugte Welle hat eine andere Phase, sie ist mit dem Phasenfaktor i = e i /2 zu multiplizieren. Gesetz 2: Wir nehmen an, die Intensitäten beider austretender Wellen seien gleich. Zur übersichtlicheren Berechnung nehmen wir die Intensität jeder dieser letzten Teilwellen als 1 an. Die Welle am Weg A hat daher Intensität 2, und als Amplitude Wurzel aus 2. Die Welle im Strahl B kommt mit Wellenvektor k und, wegen ihrer Vorgeschichte – sie wurde einmal öfter gebeugt –, schon mit einem Phasenfaktor i . Sie teilt sich ebenfalls in zwei gleichstarke austretende Wellen, wobei die gebeugte (jetzt im Strahl II ), wieder mit dem Phasenfaktor i multipliziert wird. Dann werden die Beiträge addiert. Es geschieht die Superposition der Wellen: A B Summe, Superposition 2 e i x ikx 2 ie ie ik x ie ei x ik x 2i e ik x ei x 0 Die Überlagerung der Wellenanteile beider Wege bewirkt, dass nur ein Strahl in 2 Richtung austritt und zwar mit der Intensität 2i = 4, das ist die Summe der Intensitäten der Strahlen A und B. In Richtung tritt gar nichts aus. Die Verteilung ist also ganz anders als bei den einzelnen Wellen A, B. Denn bei den Wellen werden nicht die Intensitäten, sondern die Amplituden addiert. Dadurch entstehen eben die Interferenzen, bis zur gegenseitigen Auslöschung. 38 4.4. Die Interpretation Mit den Wellen berechnet man Wahrscheinlichkeiten von Messergebnissen 4.4.1. Wahrscheinlichkeiten Nun stellt sich die Frage, wie die scheinbar gegensätzlichen Beschreibungen durch Wellen (x) und durch Teilchen in einer Theorie erscheinen können. Die Intensitäten der Wellen verändern sich stetig, kontinuierlich; die Neutronen jedoch treten in ganzen Zahlen auf. Die Wellen sind genau berechenbar; für das einzelne Neutron kann man aber im allgemeinen nicht mit Sicherheit voraussagen, in welchem Strahl es zu messen ist. (Außer es ist die Anordnung gerade so, dass ein Strahl durch die Interferenz ganz ausgelöscht wird.) In der klassischen Wellentheorie gilt: Intensität Betragsquadrat der Amplitude In Wirklichkeit misst man hinter dem Neutroneninterferometer einzelne Neutronen. Eine Messung besteht aus einer Messreihe, bei der eine große Zahl von Neutronen durch den Apparat geschickt wird. Man wertet die Messungen aus und bestimmt die relative Häufigkeit von Neutronen im Strahl A Zahl der in A gemessenen Neutronen Anzahl aller gemessenen Neutronen In großer Zahl der auftreffenden Neutronen entspricht ihre relative Häufigkeit der berechneten Intensität der Welle. (Mit statistischem Fehler.) Nach dem mathematischen Gesetz der großen Zahlen (Wahrscheinlichkeitstheorie) entspricht diese relative Häufigkeit einer Wahrscheinlichkeit für die einzelnen Neutronen. Intensität Wahrscheinlichkeit zusammen gibt das die Interpretation der Welle: Wahrscheinlichkeit Betragsquadrat der Amplitude Historisches: Diese Wahrscheinlichkeits-Interpretation wurde 1926 von Max Born gefunden. Der Anlass war damals die Theorie der Streuungen von Teilchen. Im Zeitraum 1925 / 26 erfolgte nämlich die Geburt der richtigen Quantenmechanik: Werner Heisenberg schuf 1925, zusammen mit Max Born und Pascual Jordan, die Matrizenrechnung der Quantenmechanik. Erwin Schrödinger erfand unabhängig davon 1925 / 26 die Quantenmechanik als Wellenmechanik. Max Born kam 1926 auf die richtige Interpretation der Wellenfunktion als Wahrscheinlichkeits-Amplitude. 39 Ein Beispiel: Elastische Streuung von Licht Licht wird an einem Metallkörper gestreut. Der Metallkörper ist unbeweglich, seine kinetische Energie ist nach der Streuung so wie vor der Streuung gleich Null. (Die Streuung nennt man elastisch, wenn keine Änderungen in der inneren Struktur auftreten, wenn die innere Energie des Körpers unverändert bleibt.) Es gilt also Energieerhaltung für das Photon: aus ein Es wird Licht der gleichen Frequenz wieder ausgestrahlt, wie eingefallen ist. Für ein Streuzentrum in einem breiten Lichtstrahl berechnet man in der klassischen Elektrodynamik eine auslaufende Kugelwelle; eine Welle, deren Flächen gleicher Phase („Wellenfronten“) Kugelflächen sind. Die Intensität ist dabei von der Richtung abhängig, also eine Funktion der Winkel. In einem größeren Abstand werden dann die Intensitäten durch die Schwärzungen eines Films gemessen. In der klassischen Elektrodynamik gilt, wie in der klassischen Wellentheorie: Intensität Betragsquadrat der Amplitude In Wirklichkeit entsteht ein Bild aus dem Auftreffen einzelner Photonen („welche sich bewegen, ohne sich zu teilen“), die einzelne Bildpunkte erzeugen. In großer Zahl entspricht die Dichte der auftreffenden Photonen der berechneten Intensität. Nach dem mathematischen Gesetz der großen Zahlen (Wahrscheinlichkeitstheorie) entspricht diese Dichte den Wahrscheinlichkeiten: Intensität Wahrscheinlichkeitsdichte zusammen: Wahrscheinlichkeitsdichte Betragsquadrat der Amplitude Teilen: Die Wellenfunktion breitet sich aus, aber das Teilchen teilt sich dabei nicht. 4.4.2. Erwartungswerte und Unschärfen Es gibt für Wellenpakete auch Schranken der möglichen Lokalisierungen im klassischen Orts- und Impuls-Raum. Diese Schranken gelten sowohl für die Messungen, als auch für die Herstellungen von Zuständen der Objekte: Erwartungswerte Der „Schwerpunkt“ <x> einer Wellenfunktion (x) wird mit Wahrscheinlichkeitsdichte |(x)|2 berechnet, wenn das „Wellenpaket“ „normiert“ ist: 40 der x x | ( x ) |2 dx In der Beobachtung, wenn viele Messergebnisse, x1 ... xN , vorliegen, entspricht dieser Erwartungswert dem Mittelwert: 1 x xn N n Die allgemein gültigen Unschärferelationen für Wellenpakete k x 1/2 t ½ und geben die Heisenbergsche Unschärferelation p x /2 E t /2 und (Heisenberg fand die Unschärferelationen 1927) Dabei sind die Unschärfen als die Wurzeln der mittleren quadratischen Abweichungen vom Mittelwert definiert: x x x 2 x2 x 2 Man kann also weder Ort und Impuls, noch Zeit und Energie gleichzeitig beliebig genau messen. 4.4.3. Einige Bemerkungen Die Personen Einige große Theoriegebäude der Physik, auch die Relativitätstheorie, wurden von einzelnen Personen geschaffen: Galilei, Newton, Maxwell, Boltzmann, Einstein. Die Quantenmechanik ist aber durch gemeinsame und wechselweise Anstrengungen vieler Forscher entstanden. Der Grund dafür liegt vielleicht darin, dass sie sich von unserer alltäglichen Begriffswelt viel weiter weg entfernt als jede andere Theorie. Der Fortschritt der Quantentheorie kam durch verschiedene revolutionäre Ideen junger Leute (Einstein 1905, Bohr 1913, Heisenberg 1925), gepaart mit den Kenntnissen, oder in Frage gestellt und geprüft von erfahrenen Menschen (Einstein nach 1925, Bohr um 1925, Born, Schrödinger). Zu bewundern ist Max Planck, der, eigentlich konservativ, ursprünglich dem Atomismus und den Boltzmannschen Ideen gegenüber eher misstrauisch, gegen den eigenen Widerstand durch Konsequenz und Korrektheit den ersten Schritt zur größten Revolution in der Physik unternommen hat. Niels Bohr hat um 1922 Bedenken gegen die Einsteinsche Lichtquantenhypothese ausgesprochen und versuchte noch, die klassischen Vorstellungen zu retten. Nach 1925 war die Situation umgekehrt: Niels Bohr wirkte in Kopenhagen als Leitfigur aller jungen Theoretiker. Einstein aber war nicht zufrieden mit der „Kopenhagener Deutung“ der Quantenmechanik. Seine Überzeugung war: „Gott würfelt nicht.“ 41 Die größten Theoretiker betonten die Wichtigkeit des Wechselspiels von Theorie und Experiment. Man kann nicht, wie Descartes wollte, alle Naturgesetze aus zweifelsfrei richtigen Erkenntnissen deduktiv ableiten. Gerade die Quantenmechanik wäre so nie erdacht worden. Weltbild und Geschichte Die Wahrscheinlichkeit ist übrigens auch sonst, in anderem Zusammenhang, erst spät als Werkzeug und Untersuchungsobjekt in die Wissenschaften aufgenommen worden. Auch ist ihre Umsetzung in die Wirklichkeit kein praktisches, aber ein philosophisches Problem: Wie verhält sich ein Einzelfall zu den statistischen Gesetzen? Physik ist wohl die genaueste aller Naturwissenschaften. Die klassische Mechanik und die klassische Elektrodynamik vermitteln auch eine oft staunenswerte Genauigkeit und Sicherheit von Gesetzen und Aussagen. Beispiele dafür findet man in den Gesetzen der Astronomie und in der Methode der Navigation mit Ortsbestimmungen durch Funk über Satelliten. Der Determinismus der klassischen Physik führt in äußerster Konsequenz zu dem Weltbild des Universums als „Uhrwerk“: Eine genaue Kenntnis der Orte und Geschwindigkeiten aller Körper zu einer bestimmten Zeit würde im Prinzip die Berechnung der Zustände zu jeder anderen Zeit ermöglichen. Ein solches Weltbild entsteht dadurch, dass man den Naturgesetzen, die man bei Experimenten im Labor findet, einen unbeschränkten Bereich der Gültigkeit zuspricht: Man denkt, sie gälten an allen Orten, zu allen Zeiten, und auch für alle Größenordnungen. Philosophische Bedenken gegen solche unendliche Ausdehnung gab es schon im Altertum bei den Griechen. Speziell bei Erörterung sehr kleiner Größenordnungen gab es zwei Denkrichtungen: Kontinuumstheorie contra Atomismus. Solche gegensätzliche Schulen gab es auch zur Zeit um 1900; noch niemand hatte ein Atom gesehen. Nach der Entdeckung der Quantenmechanik wurde es deutlich, dass man Atome auch gar nicht im üblichen Sinn „sehen“ kann -- die Unschärferelation gibt Schranken des Messbaren. Es gibt nun „Grenzen ohne Grenzen“. Die Bilder, die wir von Molekülen machen, haben noch eine schwache Ähnlichkeit mit der Wirklichkeit, die Bilder der Atome sind nur noch Symbole. Dafür kann man andererseits verstehen, wie es möglich ist, dass punktförmige Teilchen in endlicher Anzahl einen ausgedehnten Körper bilden. Die alten philosophischen Probleme sind auf unerwartete Weise gelöst worden; dafür sind ganz neue Probleme aufgetaucht. Der Bruch mit der Tradition war bei der Entstehung der Quantentheorie viel tiefer als Galileis Bruch mit der Physik des Aristoteles. Jetzt stecken schon in den Grundgesetzen Aussagen über Wahrscheinlichkeiten, es gibt hier nicht mehr den Determinismus der klassischen Physik. „Verstehen“ -- Wissen: Rückführung auf Bekanntes ist hier nicht möglich. In diesem Sinne kann man also die Quantenphysik nicht „verstehen“. Aber man kann ihre Gesetze und Prinzipien kennen und die Zusammenhänge logisch verstehen. Man kann, zur Unterstützung des Denkens, auch Analogien finden, wie eben „Wellen“, und Modelle bilden. Modellvorstellungen? Maxwell hatte zuerst eine Modellvorstellung für die elektromagnetischen Wellen als Schwingungen eines materiellen „Äthers“ entwickelt, ist aber später davon wieder abgekommen. Modellvorstellungen können in die Irre führen. Auch das Bohrsche Atommodell ist schon längst überholt. 42 Anhänge 4.A.1. Begriffe aus der Theorie der Wellen Es werden physikalische Erscheinungen mit einer Wellenfunktion (x,t) beschrieben. Eine Gleichung für die zeitliche Änderung heißt Wellengleichung. Es gibt viele verschiedene Wellengleichungen. In der nicht-relativistischen Quantenphysik gilt die Schrödinger-Gleichung, die im nächsten Kapitel besprochen wird. Ein ganz wichtiger Spezialfall von Wellenbewegungen, von Lösungen einer Wellengleichung ist die Menge von harmonischen Wellen.  e i ( kx t ) i(kx–t) In einer Raum-Dimension ist das e . Auch die Amplitude ist komplexwertig,  = A ei . Der Verlauf des Realteils A cos (kx – t + ) hat wirklich zu jeder festen Zeit die erwartete gewohnte Form einer „Welle“. Die Wellenlänge, der Abstand von einem Wellenberg zum nächsten, ist = 2/|k| k heißt Wellenzahl, denn die Anzahl der Wellenberge oder –täler auf einer Strecke von der Länge 2 mal der Einheitslänge ist gleich |k|. Sie kann positiv oder negativ sein. Das Vorzeichen bestimmt die Bewegungsrichtung In drei Dimensionen ist k ein Vektor, der Wellenvektor k , und die Formeln für die harmonischen ebenen Wellen sind (x, t) A ei(kx t ) mit Realteil A cos(k x t ) Die Wellenberge des Realteils der Wellenfunktion sind dabei in Ebenen angeordnet (deshalb „ebene“ Welle), die orthogonal zu dem Wellenzahlvektor k sind. 43 Interferenzen: Verstärkung - Auslöschung Beispiel: Von einer Quelle kommt die Welle 1(x,t) = A cos(kx–t+1) , von einer anderen Quelle (oder über einen anderen Weg) kommt die Welle 2(x,t) = A cos(kx–t+2) . Die beiden Wellen haben also gleiche Wellenzahl, gleiche Frequenz, gleiche Amplitude, aber verschiedene Phasen. Die Überlagerung ergibt 2 2 1 2 2A cos 1 cos kx t 1 2 2 Der letzte Term in dieser Formel ist wieder die Welle mit gleicher Wellenzahl, mit einer mittleren Phase, die jetzt nicht weiter interessant ist. Die Differenz der Phasen 1 - 2 bestimmt im Vorfaktor die Stärke dieser Welle, ob es zu Abschwächung oder Verstärkung kommt: Wenn (1 - 2)/2 gleich Null oder einem ganzzahligen Vielfachen von ist, kommt es zu maximaler Verstärkung, die Amplitude ist dann 2A. Wenn (1 - 2)/2 ein ungeradzahliges Vielfaches von 2 ist, kommt es zur Auslöschung. 4.A.2. Neutroneninterferometer mit Phasenschieber Schon die Unterdrückung eines der beiden austretenden Strahlen und Verstärkung des anderen zeigt den Wellencharakter der Neutronenstrahlen im Experiment. Noch deutlicher wird dieses Wellenverhalten durch den Einbau eines Phasenschiebers in den Strahl B. (Es ist das ein Stück eines amorphen Materials. Die Änderung der Phase im Strahl ist proportional zur Länge des Weges, die der Strahl in diesem Stück zurücklegt. Durch Drehung des Materials wird diese Länge, und damit die Phase, variiert.) Der Phasenfaktor für den Strahl B ist nun iei mit variablem . Neuerliche Berechnung ergibt: 44 A B 2 e i 2 ie e i x ikx ie ie e Superposition der Wellen Intensität ikx e i x i ix i ikx ik x (1 + ei) i e 2 + 2 cos –e e (1 – ei) i ei x 2 – 2 cos Die Verteilung der Intensitäten ist eine oszillierende Funktion der Phase . Effekte von Störungen Wenn der Kristall kein gut gewachsener Einkristall ist, kommt es durch die thermischen Bewegungen der einzelnen Platten zu Fluktuationen der Phasenbeziehung der beiden Wellen auf den Wegen A und B. Für jedes neu durchlaufende Neutron gibt es eine andere Phasenrelation. In der Summe gibt der Mittelwert über alle Phasen (Mittelwert über alle möglichen in obigen Berechnungen) die durchschnittliche Wahrscheinlichkeit, wo das Neutron austritt, also die Intensität der Strahlen. Der Mittelwert über cos ist Null, die Intensität ist in jedem austretenden Strahl 2, wie bei klassischen Teilchenstrahlen! 4.A.3. Messungen Auch Beobachtungen, Messungen, die feststellen, welchen der Wege das Neutron durchläuft, A oder B, sind ein Eingriff in das System. Hat man gemessen, dass das Neutron den Weg B nimmt, dann nimmt es wirklich den Weg B und nicht den Weg A. Die weitere Fortbewegung der Welle geschieht dann so, wie für den Weg B berechnet wurde, und es gibt wieder zwei gleich wahrscheinliche Richtungen des Austretens, die zwei Strahlen und . Die Messung beeinflusst das gemessene System. Wenn es gemessen wird, verhält es sich anders als ohne Messung. Befragt man das Neutron, woher es komme, so gibt es keine Interferenzen der beiden Möglichkeiten mehr. Die Teilung Objekt – Beobachter kann nicht restlos geschehen. Ein weiterer Beobachter muss den ersten Beobachter als verknüpft und „verschränkt“ mit dem Messobjekt beschreiben. Das alte Subjek–Objekt-Problem der Philosophie taucht nun in neuem Zusammenhang auf: Jede Messung beeinflusst das gemessene System. Die neuen Prinzipien der Physik wurden zwar erst in den kleinen Größenordnungen offensichtlich, doch ändern sie das Weltbild auch im großen Maßstab: Es gibt für die Gültigkeit der Quantenmechanik keine Grenze in den Größenordnungen. Diese Revolution der erkenntnistheoretischen Grundlagen der Wissenschaften ist selbst von den bei der Schaffung Mitwirkenden Einstein und Schrödinger nicht voll akzeptiert worden; nicht so radikal wie von Bohr, Heisenberg, Born und Dirac. Bei den Diskussionen über Gültigkeit, Vollständigkeit und Interpretation der Quantenmechanik – Probleme, die man mit der Frage „Was ist Wirklichkeit?“ umfassen kann – wurden Probleme aufgedeckt, die immer noch diskutiert werden: Das Einstein-Podolski-Rosen (EPR) -Paradoxon (Messungen an einem Punkt haben scheinbare Effekte auch an weit entfernten Orten.) Schrödingers Katzen-Paradoxon (Erst durch Beobachtung wird die Katze, die durch einen Quanteneffekt vielleicht vergiftet wurde, tot oder lebendig.) Jedes dieser Paradoxa ist ein Effekt der Gültigkeit der Quantenmechanik in allen Größenordnungen. 45 ORIGINAL - TEXT Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt von A. Einstein ........ Die mit kontinuierlichen Raumfunktionen operierende Undulationstheorie des Lichtes hat sich zur Darstellung der rein optischen Phänomene vortrefflich bewährt und wird wohl nie durch eine andere Theorie ersetzt werden. Es ist jedoch im Auge zu behalten, daß sich die optischen Beobachtungen auf zeitliche Mittelwerte, nicht aber auf Momentanwerte beziehen, ........ Es scheint mir nun in der Tat, daß die Beobachtungen über die „schwarze Strahlung“, Photolumineszenz, die Erzeugung von Kathodenstrahlen durch ultraviolettes Licht und andere die Erzeugung bez. Verwandlung des Lichtes betreffende Erscheinungsgruppen besser verständlich erscheinen unter der Annahme, daß die Energie des Lichtes diskontinuierlich im Raume verteilt sei. Nach der hier ins Auge zu fassenden Annahme ist bei Ausbreitung eines von einem Punkte ausgehenden Lichtstrahles die Energie nicht kontinuierlich auf größer und größer werdende Räume verteilt, sondern es besteht dieselbe aus einer endlichen Zahl von in Raumpunkten lokalisierten Energiequanten, welche sich bewegen, ohne sich zu teilen, und nur als Ganze absorbiert und erzeugt werden können. ........ [Ann. d. Phys. 17 132 (1905)] Auch in S. Samburski, „Der Weg der Physik“ nachzulesen 46 47 INHALT von TEIL 1 1. EINLEITUNG 1 Die Prinzipien dieser Vorlesung / W as ist die Physik? / Entwicklung der Begriffe Messungen Theorien / Teile Ganzheit / Modelle Wirklichkeit ORIGINAL – TEXTE von Max Planck und Wolfgang Pauli Entstehung der modernen Physik 8 1 2 5 2. DAS RELATIVITÄTSPRINZIP (KLASSISCH); 2.1. Koordinaten 2.1.1 Die Menge der Ereignisse; Raum-Zeit-Diagramme 2.1.2. Die Zeit 2.1.3. Der Raum 2.1.4 Die Raum-Zeit 2.2. Wechsel des Bezugssystems 2.3. Ein Modell des expandierenden Universums (klassisch) ORIGINAL – TEXTE von Sir Isaak Newton 9 9 9 10 11 12 14 15 16 3. SPEZIELLE RELATIVITÄTSTHEORIE 3.1. Die Raum-Zeit; Kinematik 3.1.1. Das Relativitätsprinzip und die Elektrodynamik 3.1.2. Neue Axiome für lokale Inertialsysteme 3.1.3. Die Relativität der Gleichzeitigkeit 3.1.4. Die Eigenzeit 3.1.5. Geschwindigkeitstransformation 3.2 Dynamik 3.2.1. Wechselwirkungen 3.2.2. Energie und Impuls 3.2.3. Die Äquivalenz von Masse und Energie Anhang: Das Hafele-Keating Experiment ORIGINAL – TEXT von Albert Einstein 17 17 17 18 19 21 25 26 26 26 28 29 30 4. QUANTEN UND WELLEN-NATUR DER MATERIE 4.1. Quanten des Lichts, Photonen Eine Science-Fiction-Geschichte 4.1.1. Der Lichtelektrische Effekt 4.1.2. Die Lichtquanten-Hypothese 4.1.3. Lichtquanten als Teilchen: Photonen 4.1.4. Elastische Streuung am Elektron: Compton-Streuung 4.2. Wellen-Natur massiver Teilchen De Broglie-Wellen 4.3. Interferometrie mit Neutronen Noch eine Science-Fiction-Geschichte 4.3.1. Prinzip des experimentellen Aufbaus 4.3.2. Die Theorie zur Erklärung der Messergebnisse 4.4. Die Interpretation 4.4.1. Wahrscheinlichkeiten 4.4.2. Erwartungswerte und Unschärfen 4.4.3. Einige Bemerkungen 4.A.1. Begriffe aus der Theorie der Wellen 4.A.2. Neutroneninterferometer mit Phasenschieber 4.A.3. Messungen ORIGINAL – TEXT von Albert Einstein 48 31 31 31 31 32 33 34 35 35 37 37 37 38 39 39 40 41 43 44 45 46 5. Die Zeitentwicklung in der Quantenmechanik Die Bewegungen werden durch eine Wellengleichung beschrieben: die Schrödinger-Gleichung. Wellengruppen bewegen sich ähnlich wie klassische Teilchen, wenn ihre Unschärfen klein sind im Vergleich mit den äußeren Einflüssen. Wenn dies nicht der Fall ist, dann entstehen Quanteneffekte, zum Beispiel durch Einfließen der Wellenfunktion in klassisch verbotene Gebiete. Literatur: P. Tipler , ältere Auflagen: Kapitel 36,1 / 36,5 / 36,10 5.1. Das Superpositionsprinzip Der fundamentale Unterschied zur Bewegung der Teilchen der klassischen Physik ist die Interferenz der Wellen, mit der Möglichkeit der Auslöschung. So wie die meisten Wellengleichungen der Physik ist auch die zeitabhängige Schrödingergleichung eine lineare Gleichung, das heißt sie hat folgende Eigenschaften: Sind (x,t) und (x,t) mögliche gültige Wellenfunktionen, genügen also den physikalischen Gesetzen, sind Konstante, so ist auch (x,t) = (x,t) (x,t) möglich. Es können sich somit Lösungen der Wellengleichung „überlagern“, „superponieren“ und bilden damit wiederum Lösungen. So, wie zum Beispiel Lichtwellen, die von Quelle A zum Empfänger B laufen, sich mit Lichtwellen von C nach D kreuzen können, ohne dass die beiden Lichtbündel im Gebiet der Überlagerung einander irgendwie beeinflussen. Dieses Prinzip ist weiters ein ganz allgemeines Postulat der Quantentheorie. Es gilt auch für Wellenfunktionen von zwei oder mehr Teilchen A, B,... (xA, xB, ...), für Wellenfunktionen, die auch Wahrscheinlichkeiten über Spin-Orientierungen s beschreiben, (x,s); ganz allgemein für Zeitabhängigkeit von „Vektoren im Hilbertraum“, wie man die mathematische Charakterisierung von Wellenfunktionen nennt. Es ist die Grundlage für Interferenzphänomene, die ja bis zur Auslöschung führen können. 5.2. Wellengleichung für freie Teilchen Die von de Broglie aufgestellte Theorie der Wellen-Natur eines Teilchens wird nun zur Erforschung ihrer Konsequenzen mathematisch untersucht. Geschichte Schrödinger befasste sich mit dem Problem, eine theoretische Grundlage für Bohrs Quantenpostulat zu finden. Er griff De Broglies Idee der Begründung mit stehenden Wellen auf, und fand: So wie die schwingende Saite nur in einer diskreten Menge von „Eigenwerten“ der Frequenz schwingen kann, so gibt es für die Atome eine Beschreibung mit Wellen, die nur in einer diskreten Menge von „Eigenwerten“ der Energie erscheinen können. Erst danach 49 forschte er nach einer zeitabhängigen Wellengleichung für solche Wellen, und publizierte diese in einer späteren Arbeit der Reihe von Veröffentlichungen mit dem Titel „Die Quantisierung als Eigenwertproblem“. Wir kehren nun zum Erarbeiten der Prinzipien den Weg dieser Entwicklung um, denn so wird die logische Notwendigkeit deutlich. Die Gültigkeit der Beschreibung freier Teilchen mit De Broglie Wellen ist ja inzwischen auch experimentell direkt gezeigt worden, ohne weitere theoretische Entwicklungen verwenden zu müssen. Die Wellen mit scharfer Energie und mit scharfem Impuls Ein freies Teilchen mit Energie E und Impuls p zeigt auch die Eigenschaften der Welle: e i ( k x t ) Erinnerung: Im vorherigen Kapitel hatten wir De Broglies Postulat: Es gelten auch für Teilchen der Materie die Quantenbeziehungen E= p k Diese beiden Gleichungen sind bei Photonen durch eine relativistische Gleichung für Energie und Impuls sowie eine schon früher bekannt gewesene Wellengleichung (und deren Dispersionsrelation) miteinander verknüpft. Hier werden beide extra postuliert. Die dynamischen Beziehungen zwischen Energie Impuls bestimmen dann die Beziehungen zwischen Kreisfrequenz und Wellenzahl, also die Dispersionsrelation. Dabei gelten hier aber andere Beziehungen zwischen den Werten von E und von p als bei den Photonen, daher auch andere Beziehungen zwischen und k. Es gilt eine andere Dispersionsrelation, gefunden mit der klassischen Gleichung für die kinetische Energie: p2 E 2m k2 2m Die Phase einer einzelnen Wellenfunktion ist nicht messbar. Beobachtbare physikalische Effekte beziehen sich nur auf Differenzen von Phasen, zum Beispiel bei Überlagerungen. Deshalb kann man beruhigt die relativistische Ruhe-Energie E=moc2 weglassen, solange man nur Systeme mit Teilchen betrachtet, die viel langsamer als das Licht sind. Die Wellengleichung Welche Wellengleichung kann so eine Wellenfunktion, ei(kx–ωt), zur Lösung haben? Die (partielle) Ableitung nach der Zeit gibt, mit der Beziehung zwischen Energie und Frequenz: ( x , t ) ikx it i e e e ikx (i)e it E ( x, t ) t t Diese Gleichung multiplizieren wir mit i und verwenden die klassische Gleichung für die kinetische Energie, E = p2/2m, dann die de Broglie – Beziehung zwischen Impuls und Wellenzahlvektor. Zunächst denken wir an Wellen in nur einer Dimension, verwenden p k , und erhalten: 50 E i 2 2 p2 k 2m 2m Den Wellenzahl-Vektor k, der verschiedene Werte annehmen kann, und im allgemeinen auch gar nicht scharf ist, möchten wir eliminieren, das heißt, durch den Operator ersetzen, der ihn aus dem gegebenen produziert. Das erreichen wir durch partielles Differenzieren nach x: ikx it ik e ikx e it ik e e x x 2 (ik ) 2 k 2 2 x 2 2 k 2 x Diese Gleichung setzen wir in obige ein: i 2 2 2m x 2 Das ist nun die Wellengleichung für die Wellenfunktion eines freien Teilchens in einer Dimension. Für die Herleitung haben wir zwar angenommen, dass Energie und Impuls bestimmte Werte hätten, diese kommen aber am Ende der Rechnung gar nicht mehr vor. Also gilt die Wellengleichung für beliebige Energien und Impulse, und, wegen des Superpositionsprinzips, auch für alle Überlagerungen harmonischer Wellen. Da man jede Wellenfunktion als eine solche Überlagerung (eindeutig) darstellen kann (Fourierzerlegung), gilt die Wellengleichung für alle Wellenfunktionen freier Teilchen. In drei Dimensionen ist der Impuls p ein Vektor, die Wellenzahl k ist ein Vektor; sein Quadrat ist die Summe der Quadrate seiner Komponenten: k 2 k 12 k 22 k 23 und das alles gibt 2 2 2 k 2 e i ( kx t ) 2 e i (...) 2 e i (...) 2 e i (...) e i ( kx t ) x 1 x 2 x 3 mit dem Laplace-Operator , der als Symbol, als „icon“ aufgefasst werden kann, dass die Funktion des Vektors x, die rechts von ihm steht und auf die er wirkt, nach jeder Komponente des x-Vektors zweimal abgeleitet wird. Die Wellengleichung für freie Teilchen in drei Dimensionen ist somit i 2 2m 51 Wellengruppen für ein freies Teilchen Wir untersuchen Wellenpakete und finden einen wichtigen Anknüpfungspunkt zur klassischen Physik. Die oben gefundene Wellengleichung gilt auch für alle Überlagerungen von harmonischen Wellen. Die Bildungen von Ableitungen sind ja lineare Prozesse. Das Superpositionsprinzip für Wellen ist weiters sogar ein Axiom der Quantenmechanik. Die Wellengleichung gilt daher für beliebige Wellengruppen, denn alle Wellen sind sogar eindeutig - als Überlagerungen von Wellen scharfer Wellenzahlen darzustellen (Fourier-Zerlegung). Zur Berechnung der Gruppengeschwindigkeit v, sie wird im Anhang erklärt, brauchen wir die Funktion (k): = E = p2/2m (k ) k 2 / 2m In einer Dimension ist In drei Dimensionen: p k und (k) = k2/2m und v = d/dk = k/m = p/m v j / k j k j / m p j / m v p/m Ein erstes Anzeichen für „das Bohrsche Korrespondenzprinzip“: Die klassische Mechanik kann als Grenzfall der Quantenmechanik aufgefasst werden, in Größenordnungen, wo die Wellengruppen, Wellenpakete sehr klein, fast punktförmig erscheinen. Manche wichtige Beziehungen -- hier p mv -- kann man auf die Quantenmechanik übertragen. Es gibt zwar bei exakter Berechnung die unvermeidlichen Unschärfen, aber für die Mittelwerte x und p gelten die klassischen Gesetze: dx/dt = p/m Analogie zum ersten Newtonschen Axiom zum „Trägheitsgesetz“: Der Wellenzahlvektor k ändert sich nicht mit der Zeit p und v = p /m ändern sich nicht mit der Zeit Der Schwerpunkt des Wellenpakets bewegt sich geradlinig und gleichförmig. Unschärfen Man erkennt am Beispiel zur Berechnung der Gruppengeschwindigkeit im Anhang: Die Darstellung von Wellenpaketen mit jeweiliger Länge k ist nur durch Überlagerung von harmonischen Wellen mit verschiedenen Wellenzahlen, im Abstand 2k, möglich. Die räumliche Ausdehnung eines Wellenpakets ist reziprok zur Ausdehnung der Wellengruppe im „k-Raum“. Egal, wie man k wählt, das Produkt von räumlicher Ausdehnung und Wellenzahl-Unschärfe ist immer gleich 2. 52 Auch mit anderen Überlagerungen lässt sich dieses Prinzip nicht ändern. Und es gibt eine strikte Ungleichung für die Unschärfen im Ortsraum und im k-Raum: xk 1/2 (Dabei werden die Unschärfen x und k so wie die Schwankungsquadrate der Wahrscheinlichkeitsrechnung, analog zur Fehlerrechnung, definiert.) Untersucht man auch noch die Zeitdauer , die ein Wellenpaket braucht, um über einen Punkt zu laufen, findet man eine ähnliche Ungleichung: ½. Beide Ungleichungen entsprechen den Heisenbergschen Unschärferelationen, wie in 4.4.2. besprochen. Zerfließen des Wellenpakets Aufgrund der Unschärferelation besteht jedes räumlich eingeschränkte Wellenpaket aus vielen Teilen mit verschiedenen Impulsen. Und aufgrund der Dispersion bewegen sich diese Teile eines Wellenpakets mit verschiedenen Geschwindigkeiten, entsprechend ihren verschiedenen Impulsen. Im Laufe der Zeit bewirken diese verschiedenen Geschwindigkeiten verschieden lange Wegstrecken, das Wellenpaket zerfließt, weil seine Teile auseinander laufen. 5.3. Schrödingergleichung für die Zeitentwicklung Welcher Operator bestimmt die Zeitentwicklung für Teilchen im Potential? Für freie Teilchen ist es der Laplace-Operator, der auch noch als der Operator betrachtet werden kann, der die Wellenfunktion eines freien Teilchens mit dessen kinetischer Energie multipliziert. Die geniale Idee von Schrödinger, aufbauend auf den Ideen von de Broglie, ist es, diese Wellengleichung für den allgemeinen Fall von wechselwirkenden Teilchen so zu erweitern, dass dieser Operator zum Hamilton-Operator ergänzt wird (analog zur Hamilton-Funktion der klassischen Mechanik), als Summe von kinetischer und potentieller Energie. (Im Jahr davor entstanden, in einem anderen Zugang, die Arbeiten Heisenbergs, der mit Unterstützung von Max Born die Matrizen-Mechanik geschaffen hat. Dabei wird mit Operatoren ähnlich den Matrizen gerechnet, welche die Größen der Mechanik darstellen. Schrödinger zeigte dann die mathematische Äquivalenz der beiden Methoden.) Somit erhält man als Wellengleichung für ein Teilchen im Potential V(x): 2 ( x , t ) i ( x, t ) V( x) ( x, t ) 2m 2 V ( x ) ( x , t ) 2m H ( x, t ) Kurz geschrieben als H i Das ist die Schrödingergleichung der Zeitentwicklung. Der Hamilton-Operator H kann wieder als eine Zusammenfassung all der Operationen verstanden werden, die mit der rechts davon stehenden Wellenfunktion durchzuführen sind: Nach jeder Komponente des Ortsvektors ist extra zweimal zu 2 differenzieren und die Ergebnisse sind zu addieren ( Laplace-Operator), und mit 2m 53 zu multiplizieren; dann ist an jedem Ort mit dem dortigen Wert des Potentials zu multiplizieren, und das Ergebnis dieser Multiplikation ist wieder an jedem Ort zu dem schon vorher berechneten zu addieren. Der Hamiltonoperator hat zwei Aspekte: Einerseits gibt er die Energie des Teilchens an. Wenn diese scharf ist, reproduziert er sie mit dem genauen Wert. (Siehe Kap. 6.) Wenn sie unscharf ist, kann man mit ihm den Erwartungswert H berechnen, der dann bei Messungen dem Mittelwert der Ergebnisse einer Messreihe entspricht. Anderseits erzeugt er die Zeitentwicklung, so wie die Schrödingergleichung es angibt. 5.4. Quantenphänomen Tunneleffekt Die Quantenmechanik ermöglicht es, ein Teilchen an Orten zu finden, wo es klassisch gar nicht hin dürfte. Ein Modell Es soll die Zeitentwicklung berechnet werden, deren Erzeugende der Hamiltonoperator H = p2/2m + V(x) ist, mit dem Potential V(x) = 0 V(x) = V > 0 für x < 0 für x > 0 (Es ist das ein einfaches eindimensionales Modell für die Bewegung eines Elektrons in einem Metall mit der begrenzenden Oberfläche { x = 0 }) Die konkrete Problemstellung ist die: Ein Wellenpaket, das zunächst ganz im Inneren des Metalls, im Bereich x < 0, lokalisiert ist, hat negative Energie und bewegt sich zum Rand, zur Potentialstufe, hin. Was geschieht dort? Was besagt die Schrödingergleichung über die Welle im klassisch verbotenen Bereich x > 0 ? 54 Wellen mit scharfer Energie Wir nützen das Superpositionsprinzip und stellen uns Wellenpakete, wie beim freien Teilchen, als Überlagerungen von Wellen mit scharfer Energie E vor. Diese Wellen sollen Lösungen der Schrödingergleichung sein: i (x,t) = H (x,t) Und so wie die ebenen Wellen bei freien Teilchen als Wellen mit scharfer Energie E mit Kreisfrequenz schwingen, so muss auch hier die Zeitabhängigkeit in einem Faktor e–it erscheinen. Die zeitabhängige Wellenfunktion (x,t) ist daher von Produktform. Lösungs-Ansatz: (x,t) = (x) e–it Dabei gilt wieder E = . Somit wird die linke Seite der Schrödinger - Gleichung: i (x,t) = i(x) (–ie–it = (x) e–it = E (x) e–it Die rechte Seite: H (x) e–it = [ H (x) ] e–it Kürzt man beide Seiten durch e–it so erhält man (mit Vertauschung der Seiten) die Differentialgleichung für die x-Abhängigkeit der Welle: Hx = Ex (Diese Gleichung wird im nächsten Kapitel noch eine ganz wichtige Bedeutung erhalten.) Im klassisch erlaubten Bereich hat diese Gleichung Teile der ein- und auslaufenden Wellen, die bekannten de Broglie - Wellen eikx , e–ikx zur Lösung; und Überlagerungen, wie cos(kx + ) Der klassisch verbotene Bereich Einen neuen Aspekt der Quantenmechanik finden wir für Energien E < V. Klassisch wäre dann der Halbraum x > 0 ganz verboten. Zwei fundamentale mathematische Lösungen der Differentialgleichung H = E sind dort die Exponentialfunktionen e x und e–x , mit V – E = 22/2m also 1 2m V E Alle mathematisch möglichen Lösungen sind Linearkombinationen dieser beiden Exponentialfunktionen. Exponentiell anwachsende Funktionen eignen sich aber nicht zur Bildung von Wellenpaketen. Daher ist aus physikalischen Gründen die Lösung ex auszuschließen. Es bleibt (x) = e–x 55 für x > 0 Die Teilchen dringen auch in die klassisch verbotene Zone ein, mit einer in x exponentiell abfallenden Wahrscheinlichkeitsdichte. Dieser Effekt wird dann beobachtbar und wichtig, wenn der klassisch verbotene Bereich nur eine dünne Potentialbarriere ist, mit der Dicke . Dann tritt der Tunneleffekt auf, die Teilchen können mit einer Wahrscheinlichkeit, die proportional zu e-2 ist, „durchtunneln“, die Barriere also durchdringen und sich auf der anderen Seite weiter bewegen. (Der Faktor 2 im Exponenten tritt deshalb auf, weil die Wahrscheinlichkeit das Quadrat der Amplitude ist!) Geschichte George Gamow erklärte 1928 den - Zerfall von Atomkernen mit dem Tunneleffekt: Zwischen den Nukleonen (Protonen und Neutronen) wirkt die anziehende starke Kernkraft. Sie ist bei Entfernungen bis zu etwa 10-15 m stärker als die Coulomb-Abstoßung der positiv geladenen Protonen, hat aber nur eine kurze Reichweite von circa 10-14 m. Man stellt sich vor, dass sich in einem Kern mit vielen Nukleonen zunächst zwei Protonen und zwei Neutronen zu einem -Teilchen verbinden. Die Kernkräfte zwischen diesem Teilchen und allen anderen Nukleonen bilden einen Potentialtopf für das -Teilchen. Bei einiger Entfernung vom Rest des Kerns überwiegt aber die positive abstoßende Coulomb-Wechselwirkung. Sie schafft eine positive Potentialbarriere rund um den Kern. Wenn es nun für das -Teilchen keinen gebundenen Zustand mit Energie < 0 gibt, sondern nur metastabile Zustände mit positiven Energien, so wird der Kern zerfallen, indem das -Teilchen durch die Barriere durchtunnelt. Der Tunneleffekt wird auch technisch verwendet, zum Beispiel beim Raster - Tunnel - Elektronen - Mikroskop zur genauen Vermessung von Materialoberflächen: Die Teilchen sind Elektronen, der klassisch verbotene Bereich liegt zwischen der Spitze einer beweglichen Anode und der zu vermessenden Fläche. Die Stromstärke, die Intensität des durchtunnelnden Elektronenstrahls, variiert mit der Länge des Weges von der Anode zur Fläche, und zwar ist sie proportional zu e-2 Für 1Å ist dieser Faktor 1/ 1000 56 Anhang 5.A. Das zeitliche Verhalten von Wellen In drei Dimensionen ist die Formel für die harmonischen ebenen Wellen (x, t) A ei(kx t ) A cos(k x t ) mit Realteil Die Wellenberge des Realteils der Wellenfunktion zu einer festen Zeit sind dabei in Ebenen angeordnet (deshalb „ebene“ Welle), die orthogonal zu dem Wellenzahlvektor k sind. (Die Bewegung der Erscheinungsform besteht in einem Wandern dieser Ebenen mit Geschwindigkeit / | k | in der Richtung des Wellenzahlvektors.) An einem festen Punkt x ist die zeitliche Veränderung nichts anderes als die zeitliche Veränderung der Phase, die aber an sich nicht beobachtet werden kann. Die Kreisfrequenzen können, abhängig von der Wellenzahl, verschiedene Werte annehmen. Die Funktion = (k) heißt Dispersionsrelation. Die harmonischen Wellen, die hier betrachtet werden, sind eine kleine Menge ganz spezieller Wellen. Durch Überlagerung von solchen kann man aber alle möglichen Wellen darstellen: Die Methode heißt Fourierzerlegung oder Fouriertransformation. (Vorlesung M2!) Die Gruppengeschwindigkeit Wenn Wellen Information oder Energie übertragen, dann muss das in einem begrenzten Bereich möglich sein, so dass diese Übertragung Anfang und Ende hat. Die Übertragung erfolgt in einem Wellenpaket (Wellengruppe, Wellenpuls). Ein Wellenpaket entsteht durch Überlagerung von harmonischen Wellen mit leicht verschiedenen Wellenzahlen. Durch die solcherart räumlich verschiedenen Phasenunterschiede der Schwingungen kommt es im Inneren des Wellenpakets zur Verstärkung, an den Rändern zur Auslöschung. Die Geschwindigkeit einer solchen Wellengruppe heißt Gruppengeschwindigkeit. d( k ) vG dk Rechnerisch einfachstes Beispiel: Überlagerung zweier harmonischer Wellen mit eng benachbarten Wellenzahlen und Frequenzen: k1 = k + k 1 = + , , k2 = k _ k = _ 2 (x, t) ei(k1x 1t ) ei(k 2 x 2 t ) Den Realteil stellen wir dar: 57 Re[(x,t)] = cos(k1x _ 1t) + cos(k2x _ 2t) = = 2 cos(kx _ t) cos(kx _ t) Berechnung der komplexen Wellenfunktion: (x, t) ei[(kx t ) ( k x t )] ei[(kx t ) ( k x t )] ei( k x t ) e i( k x t ) ei(kx t ) 2 cos(k x t) ei(kx t ) Der Term ei(kx–ωt), er gibt cos(kx _ t) im Realteil, ist die gewohnte Welle. Sie ist aber hier mit dem Faktor cos(kx _ t) moduliert. Durch diese Modulation entstehen Wellenpakete. Die Bewegung der Modulation gibt die beobachtbare Bewegung der Wellenpakete. Der Mittelpunkt eines Wellenpakets ist der Ort xMittel, wo _ t) = 1 cos(kx x (t) = x (t=0) + (/δk)t Mittel Mittel Die Geschwindigkeit der Bewegung dieser Mittelpunkte ist Mittel v = /k Für infinitesimal kleine Unterschiede der Wellenzahlen wird dieser Quotient zum Differentialquotienten. Die Geschwindigkeit, die man somit berechnet, ist eben die Gruppengeschwindigkeit. d( k ) vG dk Wenn sich die Gruppengeschwindigkeit mit der Wellenzahl ändert, dann laufen einzelne Wellenpakete auseinander. Man nennt das Dispersion. Die Abhängigkeit der Frequenz von der Wellenzahl, die Funktion (k) hat deshalb den Namen Dispersionsrelation. Bei Wellenbewegung in drei Dimensionen ist die Gruppengeschwindigkeit ein Vektor. Die einzelnen Komponenten berechnet man mit partieller Ableitung: Ganz analoge Berechnungen ergeben v G ,1 ( k ) v G v G , 2 ..........v G , j k j v G ,3 58 6. Quantisierte Energie Die Quantisierung der Energie von gebundenen Teilchen ist die historische Wurzel der Quantenphysik, die Erklärung dessen, was Bohr im Quantenpostulat gefordert hatte. Hier ist der Schlüssel zur Erkenntnis der Struktur der Materie. Literatur: P. Tipler , ältere Auflagen: Kapitel 36,6 / 36,7 / 36,9 6.1. Ein Teilchen im Potentialtopf So wie De Broglie es vorhersah und teilweise auch schon zeigte, sind die stationären Zustände der Elektronen in Atomen als stehende Wellen zu erklären. Da das volle Problem nicht ganz einfach ist, machen wir uns an einem einfacheren Modell mit den Prinzipien vertraut. 6.1.1. Modell und Problemstellung Wir interessieren uns für die gebundenen Zustände im eindimensionalen Modell mit einem Potential-Kasten: V(x) = für x < 0 V(x) = 0 für x [0,] und für x > Analog zu den Wellen eikx e-it freier Teilchen suchen wir Wellenfunktionen scharfer Energie. (Andere Lösungen der Zeitentwicklungs-Schrödingergleichung kann man dann, wie es das Superpositionsprinzip sagt, als Überlagerungen dieser Wellenfunktionen beschreiben.) Ansatz für die Lösung: (x,t) = (x)e-it („Trennung der Variablen“) Diesen Ansatz, mit noch unbekanntem und mit unbekanntem setzen wir in die Schrödinger-Gleichung für die Zeitentwicklung ein. und erhalten H i i(-i) = (x)e-it = (H)(x)e-it Der Hamilton-Operator H wirkt ja nur auf den x-abhängigen Teil der Wellenfunktion. In dieser Gleichung verwenden wir die Einstein-de-Broglie-Beziehung E = und kürzen durch e-it : (H)(x) = E(x) 59 Das ist eine „Eigenwertgleichung“: Es stellt sich heraus, dass E nicht beliebig gewählt werden kann, sondern als „Eigenwert“ des Operators H erst zu finden ist; stehende Wellen gibt es eben nur mit bestimmten Frequenzen. (Der Titel von jeder der vier Arbeiten Schrödingers, die seine Gleichungen enthielten, ist: „Die Quantisierung als Eigenwertproblem“.) Der Wert der Energie, E, kann deshalb nicht beliebig sein, weil für die Wellenfunktion die folgenden Randbedingungen gelten müssen: (x) = 0 bei x = 0 und bei x = Idealisierung des Randes Woher kommen die Randbedingungen? Zur Beantwortung dieser Frage überdenken wir die Beziehung des Modells „Potentialkasten“ zur Wirklichkeit. Die unendlich hohen „Wände“ sind ja eine Idealisierung (zum Zweck der einfacheren Berechnung). In Wirklichkeit kann zum Beispiel ein Elektron aus einem Potentialtopf (z.B. im Inneren eines Metalls) durch Aufnahme von Energie entweichen. Etwas realistischer wäre also das Modell eines „Potential-Topfs“ mit endlich hohen Wänden. Dort gibt es andere Randbedingungen: Wir wissen schon (Tunneleffekt, 7.2.3): Die Wellenfunktion kann über den Rand hinausreichen und fällt dort exponentiell ab. Auch direkt am Rand muss aber die Wellenfunktion - so wie auch ihre Ableitung - stetig sein, sonst gibt es Energie-Unschärfen. (Das findet man durch eine mathematische Analyse.) Je größer die Energiedifferenz |Vaußen - ETeilchen| ist (die Energie, die dem Teilchen fehlt, um aus dem Potentialtopf weiter zu entweichen), desto steiler fällt dieser exponentielle Außenteil der Wellenfunktion ab, und es sieht ganz ähnlich aus, als wäre die Wellenfunktion direkt am Rand schon Null. Daher kann man das Modell, mit dem hier eine Situation beschrieben wird, abändern zum Kasten-Potential. 6.1.2. Die Lösungen der Eigenwertgleichung Stehende Wellen In einer Dimension kann man eine stehende Welle im Inneren des Kastens als Überlagerung zweier in entgegengesetzten Richtungen laufender Wellen betrachten: (x, t ) 1 i ( k x t ) e e i ( k x t ) 2i sin(k x ) e i t Die nur von x abhängigen Teile solcher Wellen (im Allgemeinen noch mit Phasenkonstanten) sind Lösungen der Eigenwertgleichung: Mit H 2 2 2 m x 2 und gilt 60 (x) = sin(kx) H 2 2 sin( k x ) 2 k 2 sin( k x ) E sin( k x ) E . 2m x 2 2m Wobei der Energie-Eigenwert dieser Wellenfunktion natürlich dieselbe Energie ist, die auch die überlagerten Wellen haben: 2 k 2 E 2m Randbedingungen An den Rändern muss (x) = 0 sein. Für den Rand bei x = 0 gilt das schon genau für alle Sinus-Funktionen. (Deshalb wurde genau die am Beginn angegebene Überlagerung gebildet.) Für den Rand bei x = ist die Bedingung sin(k) = 0 k {...} dann sind also nur noch diskrete Werte der Wellenzahl k möglich: kn = n/ n {1, 2, 3, ....} Sie geben diskrete Energie-Eigenwerte charakterisiert durch die „Quantenzahl“ n En = p2 /2m = (kn)2/2m = (n/)2/2m Zu jedem Energie-Eigenwert gibt es eine Wellenfunktion, hier n ( x, t ) sin( k n x ) e in t Nullpunkts-Energie Auch der tiefste Energie-Eigenwert, die „Grundzustands-Energie“ E1 ist höher als der Boden des Potentialkastens, und zwar um den Wert (/)2/2m Man kann das als eine Folge der Unschärferelation auffassen: Die Orts-Unschärfe ist nicht größer als der halbe Durchmesser des Kastens . Daher gibt es eine Impuls-Unschärfe p > / und die kinetische Energie, p2/2m ist größer als (p)2/2m > (/)2/2m. Diese Überlegung liefert auch fast die richtige Größenordnung. Den genauen Wert (der um den Faktor 2 größer ist) findet man durch die genaue Berechnung. 61 Wirklichkeit Dieses Beispiel eines Systems mit einer Menge von diskreten Energiewerten läßt sich mit den modernen Techniken der Materialbearbeitung für Elektronen in Potentialtöpfen in Halbleitern wirklich herstellen. Und die Beschreibung dreidimensionaler Systeme kann manchmal mit der Methode der „Trennung der Variablen“ auf Berechnung eindimensionaler Systeme zurückgeführt werden. 6.2. Allgemeine Schrödingergleichung Die Herleitung der Eigenwertgleichung in 6.1.1. war im Prinzip des mathematischen Verfahrens ganz unabhängig vom Modell. In jedem System kann man nach Wellenfunktionen mit scharfer Energie suchen, indem man nach Lösungen der „zeitunabhängigen“ Schrödingergleichung sucht: H = E Damit findet man spezielle Lösungen der „zeitabhängigen“ Schrödingergleichung H , i nämlich (x,t) = (x)e–it wobei E = gilt. Die Energie ist hier scharf, sie zeigt keine Schwankungen. Bindungen und Quantisierung Wenn der klassisch erlaubte Bereich für ein Teilchen mit Energie E endliches Volumen hat, wenn das Potential dort unterhalb beschränkt ist (oder zumindest nicht zu stark gegen minus Unendlich strebt), dann gibt es quantenmechanisch für Energien kleiner als E nur eine diskrete Menge von Wellenfunktionen mit scharfer Energie. Diese sind Eigenfunktionen n des Hamilton-Operators. Sie sind lokalisiert, man muss sie also nicht erst zu Wellenpaketen formen, um Zustände zu beschreiben. Die Zustände, die sie beschreiben, sind stationäre gebundene Zustände. Die dazugehörigen Eigenwerte En des Hamilton-Operators sind die scharfen, schwankungsfreien Energien der Zustände, charakterisiert durch Quantenzahlen n. Die Eigenwertgleichung ist H n = En n Das ist also die Ursache der „Quantisierung“ der Energien gebundener Zustände. Der ganze Hamiltonoperator, somit das ganze Potential V(x), bestimmt das physikalische Verhalten des gebundenen Teilchens. Das Potential hat daher mehr Bedeutung als bloß die Festlegung der potentiellen Energie des Teilchens. Zum Beispiel im Kastenpotential gibt es nur einen einzigen möglichen Wert für die potentielle Energie. Aber die Ränder des Kastenpotentials bestimmen mit ihrer Lage die möglichen scharfen Werte der Energie. 62 Die Wellenfunktionen für gebundene Zustände Solange keine Magnetfelder im Spiel sind, sind, können die Wellenfunktionen der gebundenen Zustände als reellwertig gewählt werden. Der Zustand mit niedrigster Energie, der „Grundzustand“, ist nirgends Null (außer vielleicht am Rand). Das Teilchen kann an jedem Punkt sein. Die Wellenfunktion kann, wieder in Fällen ohne Magnetfeld, als positiv gewählt werden. Sie hat keine Nullstellen, wechselt im Raum das Vorzeichen nicht. Die Zustände mit höheren Energien werden immer wellenähnlicher, sie oszillieren immer mehr, je größer die Quantenzahlen werden, das heißt, je höher die Energie wird. Durch Überlagerungen solcher wellenähnlicher Funktionen mit verschiedenen Energien, also durch Bilden von Wellenpaketen mit unscharfer Energie, entsteht dann „Bewegung“ in der Bindung. Übungsaufgabe: Bilden sie die Überlagerung zweier Wellenfunktionen mit benachbarten Energien im Kastenpotential. Diskutieren sie die Bewegung. Vergleichen Sie diese mit der klassischen Bewegung! Auch klassisch verbotene Bereiche werden erreicht (Tunneleffekt). Dort fallen die Wellenfunktionen schnell ab. Damit schließt sich der Kreis, vom Ursprung der Quantentheorie bei Planck, über Einstein, Bohr, De Broglie und Schrödinger. 63 6.3. Der harmonische Oszillator Ein oft verwendetes Modell zur Beschreibung von Teilchen, die nahe beim tiefsten Punkt, bei Minimum, eines Potentials sind. Das Modell So wie oft in der klassischen Mechanik betrachten wir ein eindimensionales Modell mit dem Potential V(x) = x2/2 Es ist das eine Näherung für realistischere Modelle, wie zum Beispiel das Lennard-JonesPotential für die Wechselwirkungsenergie zweier Atome. Solche Näherungen sind dann brauchbar, wenn die Teilchen nur wenig von ihrer (klassischen) Ruhelage abweichen. Mehrdimensionale Systeme kann man, so wie beim Kastenpotential, wieder aus eindimensionalen Systemen zusammensetzen. Das eindimensionale Modell ist im logischen Sinne ein Teil des dreidimensionalen Modells. Der Grundzustand Wie in 6.2. bemerkt wurde, ist die Wellenfunktion des Grundzustandes (= Zustand mit tiefster Energie) dadurch ausgezeichnet, dass sie nirgends Null ist. Hier ist die Wellenfunktion des Grundzustands eine Gauß-Funktion: 0 (x) ex 2 / 2a 2 a = (2/m)1/4 mit Breite Überprüfung dieses Ansatzes durch Berechnung: 2 2 2 x x 2 / 2a 2 2 ( x ) e 2 m 2 m x 2 0 2 m x a 2 2 2 ma 4 x2 x2 1 x 2 / 2a 2 a 4 a 2 e 2 0 (x ) 2 ma 2 Um die Schrödingergleichung H = E zu lösen, muss = 2/ma4 gelten obige Gleichung für a. Die Grundzustands-Energie ist E0 2 2 2 ma 1 2 m Unschärfen Die Gauß-Funktionen haben minimale Produkte von Unschärfen. Die Orts- und ImpulsUnschärfen sind: x a / 2 und p / a 2 64 Es gilt daher xp = /2 Die Energie-Eigenwerte Die Kreisfrequenz m charakterisiert die klassische Schwingungs-Bewegung im Oszillator. In der Quantenmechanik charakterisiert sie das Energie-Spektrum: En = (n + 1/2) mit n = 0,1,2,... Der Grundzustand hat die sogenannte „Nullpunktsenergie“ /2. Jeder Abstand zwischen aufeinanderfolgenden Energieniveaus ist ein „Energiequant“ . Solche Energiequanten gibt es auch für das elektromagnetische Feld (als Photonen), es gibt sie aber in dieser einfachen Form ganz allgemein nur bei harmonischen Schwingungen! Strahlungs-Übergänge Wenn das Elektron, oder ein anderes elektrisch geladenes Teilchen, von einem Zustand mit Energie En+1 zum anderen mit Energie En wechselt, dann gibt es die überschüssige Energie meistens in Form von elektromagnetischer Strahlung ab, in Quanten mit Energie = En+1 - En . Das elektromagnetische Feld schwingt in so einer Welle mit Periode T = 2/. Umgekehrt kann das Teilchen auch Photonen aufnehmen und in einen Zustand mit höherer Energie übergehen. Auch beim harmonischen Oszillator geschehen Strahlungsübergänge mit Abstrahlung (oder Aufnahme) von Photonen mit Energie = En+1 – En. „Zufällig“ ist dabei Photon = Oszillator . 65 Anhang 6.A. Das Quantenpostulat von Niels Bohr Der Atombau 1858 wurden die Kathodenstrahlen entdeckt. Bald stellte man fest, dass sie aus negativ geladenen Teilchen bestehen. 1897 wurde durch Analyse der Bewegung im elektromagnetischen Feld das Verhältnis e/m (Ladung durch Masse) bestimmt. Man nahm an, ihre Ladung wäre die Elementarladung, die aus Daten der Elektrolyse (Faradaysche Zahl) und mit der Loschmidtschen Zahl (Avogadro-Konstante) berechnet werden konnte. Die Teilchen wurden Elektronen genannt. 1911 schloss Rutherford aus einem Vergleich der von ihm experimentell bei Streuung (im Durchschießen von dünnen Goldfolien) gefundenen Ablenkung von -Teilchen (HeliumKernen) mit Berechnungen der Streuung am Coulomb-Feld auf quasi Punktförmigkeit der Atomkerne. Niels Bohr war damals in Rutherfords Labor in Manchester. Das Quantenpostulat Als die Bausteine des Atoms bekannt waren, stellte man die Fragen: Warum fallen die Elektronen nicht in den Atomkern? Warum die scharfen Spektral-Linien? Nach der Quantisierung der Lichtwellen war ein „komplementärer“ Schritt eine Quantisierung der Zustände der Atome. Niels Bohr setzte 1913 das Quantenpostulat: Die Elektronen können im Atom nur Zustände mit Energien aus einer Menge bestimmter diskreter Werte {En} einnehmen. Beim Übergang von einem Zustand mit Energie Em zu einem Zustand mit Energie En wird ein Lichtquant mit der Kreisfrequenz = |Em -En|/ ausgestrahlt oder absorbiert. So konnte die große Menge von Spektrallinien der Atome eines Elements mit der Kombination einer kleineren Menge von Energiewerten erklärt werden. Die neue Problemstellung der Theorie ist nun die Erklärung dieser quantisierten Energiewerte. Die Regeln zur Berechnung der Energiewerte wurden aber von Niels Bohr in seinem Modell der Atome noch auf die klassische Mechanik „aufgepfropft“ und waren bei schwereren Atomen nicht so erfolgreich wie bei dem Wasserstoff-Atom. 66 7. Atome Die Atome sind mit klassischer Mechanik nicht mehr zu erklären. Die Entwicklung einer Theorie der Atome war geschichtlich der Anlass zur Entdeckung der Quantenphysik. Hier braucht man alle in den letzten Kapiteln vorgestellten Konzepte und erkennt damit die Ansatzpunkte für Grundlagen der Chemie sowie aller Kräfte zwischen den Teilen der Materie. Literatur: P.Tipler , Ältere Auflagen: Kapitel 37,1 / 37,2 / 37,6 7.1. Atomistik Atomistik als Denkmodell Bei den Griechen gab es philosophische Überlegungen, ob die Materie unendlich teilbar wäre, oder ob man beim Teilen auf unteilbare Teilchen stoßen würde. Das „Atom“, das Unteilbare, wurde von den Vorsokratikern Leukipp und Demokrit als kleinster Baustein der Materie gedacht. Aristoteles dagegen vertrat die Kontinuumstheorie. Atomistik als Erklärungsmodell für physikalische Gesetze Die geometrische Struktur von Kristallen ist schon von Johannes Kepler als regelmäßige Anordnung von Atomen gedeutet worden. Auch die bei genauen Messungen beobachteten geometrischen Gesetze der Kristallographie konnten dann von Haüy 1785 auf die „AtomHypothese“ zurückgeführt werden. Die physikalischen Gesetze der Gase und Flüssigkeiten versuchte man seit dem 18. Jahrhundert mit der Bewegung von Atomen bzw. Molekülen zu erklären. Erste konkrete Berechnungen gab es von Daniel Bernoulli („Hydrodynamica“, 1738). Es folgten Amedeo Avogadro (1811 Hypothese, dass alle Gase bei gleichem Volumen, Druck und Temperatur die gleiche Anzahl von Atomen, bzw. Molekülen, enthält), Joseph Loschmidt (1865 Berechnung der „Avogadro-Zahl“ aus Messdaten), James Clerk Maxwell (~1860 Kinetische Gastheorie) und Ludwig Boltzmann (~1868 bis 1878 Statistische Mechanik). Aber bis ~1900 gab es Skeptiker, wie Ernst Mach, die jeden Atomismus ablehnten. Atomistik als Erklärungsmodell für Gesetze der Chemie Die moderne Chemie gab seit Lavoisier (zuverlässige Messmethoden, 1789) und John Dalton („Ein neues System der chemischen Wissenschaft“, 1809) noch weiter reichende Grundlagen für den Atomismus: Unterscheidung zwischen Elementen und Verbindungen, das Gesetz der konstanten Proportionen, der Begriff des Mols (Beispiel: H2O, CO2, CH4), Elektrolyse (1832 Michael Faraday: elektrochemisches Äquivalentgesetz). Spektroskopie und Struktur der Atome 1859 wurde von Gustav Kirchhoff und Robert Bunsen die Spektroskopie als Methode der chemischen Analyse erfunden. (Damit wurden auch die bis dahin unbekannten Elemente Caesium und Rubidium entdeckt.) J.R. Rydberg und W. Ritz entdeckten Gesetzmäßigkeiten im Spektrum des Wasserstoffatoms (Frequenzen sind m,n= Ry(1/m2 – 1/n2) , mit Ry... = Rydbergkonstante), die dann 1913 von Bohr „erklärt“ wurden. (Siehe 6.2.1.) Die Elektronen waren seit 1858 bzw. 1897 bekannt, die Existenz eines sehr kleinen Atomkerns erst seit Rutherfords Experimenten 1911. (Siehe 6.2.1.) 67 Der Spin des Elektrons wurde in einer Hypothese zur Erklärung von Multipletts und Aufspaltungen von Linien der Atomspektren 1925 von G.E. Uhlenbeck und S. Goudsmit in die Theorie eingefügt. Wolfgang Pauli entwickelte 1927 die Theorie weiter. Vorher hatte er schon das „Ausschließungsprinzip“, das „Pauli-Verbot“, entdeckt: Nicht mehr als ein Elektron kann einen bestimmten Zustand einnehmen. (Siehe 7.4.4.) Moderne Physik Es waren verschiedenste erfolgreiche Experimente, die jeden Widerspruch gegen die Atomistik verschwinden ließen: 1907/08 Sir Ernest Rutherford, unterstützt von Hans Geiger, zählt die Szintillationen einzelner Alpha-Teilchen. 1908: Jean Perrin untersucht die Brownsche Bewegung, die thermische Bewegung sehr kleiner Teilchen, die im Mikroskop gerade noch zu beobachten sind. Daraus lässt sich die Boltzmannkonstante und die Avogadro-Zahl bestimmen. (Die Theorie dazu ist 1905 von Albert Einstein geschaffen worden.) 1912 Max von Laue: Beugung von Röntgenstrahlen an Kristallen Gitterstruktur der Kristalle, Messung der Abstände von Atomen. 1913:Robert A. Millikan bestimmt durch Untersuchungen an im elektrischen Feld fallenden geladenen Öltröpfchen die Einheit der elektrischen Ladung. Über Faradays elektrochemisches Äquivalent gibt das auch eine Bestimmung der Avogadro-Zahl. Es folgt die Theorie. Zuerst Atom-Modelle von Rutherford und Niels Bohr. Dann 1926 Erwin Schrödinger: Berechnung der Energieeigenzustände des Wasserstoffatoms. In kurzer Zeit folgen Berechnungen für andere Atome und für die chemische Bindung. (Wo Bohrs alte halbklassische Theorie völlig versagt hat.) 1986: Nobelpreis für Binnig und Rohrer, für die Erfindung des Rastertunnelmikroskops; damit wird die atomare Struktur von Oberflächen sichtbar. Wir können nun die einzelnen Atome sehen. 7.2. Modelle zur Berechnung Wir betrachten die nicht-relativistische Theorie, mit Coulomb-Wechselwirkung zwischen Atomkern und Elektron. 7.2.1. Das Wasserstoff-Atom Die Theorie ist ein zwei-Teilchen-Problem. So wie in der klassischen Physik gibt es auch in der Quantenmechanik die Trennung in die Systeme der Schwerpunkts- und der Relativbewegung. Wegen des großen Unterschiedes der Kern- und der Elektronenmasse muss man nur eine kleine Korrektur von der Elektronmasse zur effektiven Masse machen, wenn man vom primitiveren Modell des beweglichen Elektrons im Feld des fixierten Atomkerns zum realistischeren Modell der Relativbewegung übergeht.--- Alles wie in der klassischen Physik. 7.2.2. Mehr-Elektron-Atome Mehr-Teilchen-Probleme sind hier nicht mehr exakt lösbar. Man muss Näherungen machen. Sehr nahe an der Wirklichkeit sind schon folgende Näherungen: 68 Fester Atomkern Beim Wasserstoffatom kann man in den Berechnungen überprüfen, dass die Annahme eines „unendlich schweren“, also unbeweglichen Atomkerns nur ein sehr kleiner Fehler ist. Bei schwereren Atomkernen wird dieser Fehler noch unbedeutender. Die Situation ist ganz analog zur Theorie des Sonnensystems in der klassischen Mechanik. Effektives Feld Jedes Elektron „bewegt“ sich unabhängig von den Details der Bewegungen der anderen Elektronen in einem „effektiven Feld“, welches aus dem anziehenden Potential des Atomkerns mit der Kernladungszahl Z und dem abstoßenden Potential der „Elektronenwolke“ besteht. e2 Veffektiv (x) 40 Z (x) 3 | x | | x x | d x Die Dichte der Elektronenwolke ist die Summe der Wahrscheinlichkeitsdichten: ( x ) | j ( x ) |2 Elektronen , j Hier erscheint wieder eine dieser ganz neuen Eigenheiten der Quantenphysik: Das Elektron als Teilchen ist so gut wie punktförmig. Wenn es aber um seine Wechselwirkung mit anderen elektrischen Ladungen geht, dann verhält es sich wirklich wie eine ausgedehnte Ladungs-Wolke. Diese Elektronenwolke ist im Atom drehsymmetrisch, daher ist das effektive Feld drehsymmetrisch. 7.3. Drehimpuls eines Elektrons 7.3.1. Bahn-Drehimpuls Die Theorie des Drehimpulses ist eigentlich aufwendig. Hier können nur einige Plausibilitätsargumente vorgestellt werden. Analogien Kraft Kraft wirkt in einer linearen Richtung z.B. x1-Richtung Impuls Welle eikx p = k Drehmoment („Kraft mal Kraftarm“) Drehmoment wirkt in einem Dreh-Sinne um eine Achse; z.B. um x3-Achse, Winkel - Drehung Drehimpuls (Kreis-) Welle eim L3 = m Unterschied Die Wellenzahl k ist irgendeine reelle Zahl, m dagegen ist eine ganze Zahl. Nur mit solchen Werten ist die Welle, wenn man sie im Kreis herum, den Winkel verändernd, verfolgt, auch dort stetig, wo man mit = 0 begonnen hat, und mit = 2 wieder anlangt. 69 Nun ist der Drehimpuls eine gerichtete Größe, und hat drei Komponenten. Wegen der Unschärfe-Relationen können aber im Allgemeinen nicht alle drei gleichzeitig scharfe Werte annehmen, sondern nur einer. (Ausnahme: Alle drei sind gleich Null.) Aber, wenn die eine Komponente scharf ist, können die unscharfen Verteilungen der anderen beiden Komponenten so aufeinander abgestimmt sein, dass der Betrag des ganzen Drehimpulses auch scharf ist. Zusammenfassung Die magnetische Quantenzahl m, eine ganze Zahl, gibt den Eigenwert m von L3 . Der Betrag des ganzen Bahn-Drehimpulses eines Elektrons wird charakterisiert durch die Bahn-Drehimpuls-Quantenzahl : Die Eigenwerte von L 2 sind 2(+1) mit = 0, 1, 2, 3,.... L 2 und L3 können gleichzeitig scharfe Werte einnehmen, mit m {,...} Für gegebenes gibt es daher 2+1 verschiedene Werte für m. Das Coulomb-Feld des Atomkerns und auch das effektive Feld von der Ladundswolke aller Elektronen sind drehsymmetrisch. Tiefere mathematische Untersuchungen ergeben: Deshalb bleiben scharfe Werte für den Bahn-Drehimpuls in der Zeitentwicklung erhalten, und deshalb können sie gleichzeitig mit scharfen Energie-Eigenwerten erscheinen. Die zugehörigen Wellenfunktionen werden nun günstigerweise mit Polarkoordinaten angegeben. Für eine „Eigenfunktion“ von L3 gilt: ( r , , ) ( r , ) e i m 7.3.2. Zustände mit =0 und =1 =0 Es muss auch die magnetische Quantenzahl m Null sein. Das heißt, die Wellenfunktion ändert sich gar nicht bei Drehungen um die x3-Achse, eim = e0 = 1. Wenn man überlegt, dass man ja auch irgendeine andere Komponente des Drehimpuls-Vektors messen könnte, und dass für alle anderen Komponenten dasselbe gilt, kommt man zu dem Schluss, dass sich die Wellenfunktion bei gar keiner Drehung um den Atomkern ändert: Die Wellenfunktion ist kugelsymmetrisch. Von der klassischen Begriffswelt hat sich für die Zustände der Elektronen noch das Wort „Orbital“ (=Bahn) erhalten. Von der Spektroskopie her werden Zustände mit Quantenzahl = 0 mit dem Buchstaben s charakterisiert. Es sind „s-Orbitale“. 70 =1 Diese Zustände heißen nun „p-Orbitale“. Für die Quantenzahl m gibt es die möglichen Werte 1, 0 und +1. Die zugehörigen Wellenfunktionen, als Funktionen der Polarkoordinaten r,, geschrieben, sind von Produktform, mit durch m gegebenem Verlauf im Winkel : (r,)eim Hier ist eim gleich e–i, 1 oder e+i. Nun muss L3 nicht immer scharf sein, die Elektronen können auch Zustände besetzen, die durch Überlagerung entstehen. Für die chemische Bindung sind dann folgende „p-Orbitale“ wichtig: ei + e–i = 2cos ei – e–i = 2isin Die erste Wellenfunktion mit cos ist mehr bei der x-Achse (x = x1) lokalisiert, px-Orbital; die zweite Wellenfunktion mit sin ist mehr bei der y-Achse (y = x2) lokalisiert py-Orbital. Die Wellenfunktion, die in konstant ist, hat als Funktion von einen anderen Verlauf als die px und py -Orbitale, und ist mehr bei der z-Achse (z = x3) lokalisiert (hantelförmig) pz-Orbital. (Das Wort „Orbital“ ist ein Relikt aus dem Bohrschen Atom-Modell, wo man noch an klassische Bahnen = Orbitale der Elektronen dachte. Für Erklärung von „p“ siehe 7.4.3.) 7.3.3. Spin Es gibt noch den inneren Freiheitsgrad „Spin“ des Elektrons, mit zwei Zuständen, die durch die Spin-Quantenzahl s = 1/2 charakterisiert sind. Der Spin S ist der EigenDrehimpuls (So etwas ähnliches wie bei der Erde die Drehung um die eigene Achse.) Der Betrag des Spins ist für alle Elektronen gleich, „Spin ½“ ( quadriert gleich 2(½)(1 + ½) ). Die Richtung kann variieren. Die Drei-Komponente kann also auch variieren. Sie ist es, die durch die Spin-Quantenzahl s (auch ms geschrieben) angegeben wird, wenn sie scharf ist. Dass der Spin halbzahlige Quantenzahlen hat, ist ein Hinweis darauf, dass man ihn nicht wirklich als „Drehung“ von Bestandteilen des Elektrons verstehen kann. 71 7.4. Quantenzahlen und Energie-Spektrum Das Wort „Spektrum“ ist von der Bedeutung „Strahlungsspektrum“ her zur Bezeichnung von dessen Ursprung, also der Menge der Energie-Eigenwerte, übernommen worden. 7.4.1. Das Wasserstoff-Atom Der quadrierte Drehimpuls ist klassisch (p x) 2 r 2 p 2tangential und gibt, mit 1/2mr2 multipliziert, einen Beitrag zur kinetischen Energie Ekin = p 2/2m . Analog gilt in der Quantenmechanik: Bei scharfem Drehimpuls gibt 2(+1), multipliziert mit 1/2mr2 , einen Beitrag zur kinetischen Energie. Da der Anteil des Drehimpulses an der kinetischen Energie für größere Werte von auch größer wird, ist der tiefste EnergieEigenwert mit =0 zu erreichen. Man kann das in der klassischen Mechanik so verstehen: Ein Punktteilchen in einem anziehenden Potential in irgend einer Entfernung vom Zentrum kann noch verschiedene Impulse, damit verschiedene Energien haben. Die kleinste kinetische Energie hat es natürlich ganz ohne Impuls. Ohne einen solchen wird es dann in das Zentrum fallen, auf einer Bahn mit Bahn-Drehimpuls Null. In der Quantenmechanik gibt es zwar die Unschärfen von Ort und Impuls, und von manchen Komponenten des Drehimpulses, aber der Betrag des Drehimpulses kann bei Drehsymmetrie gleichzeitig mit der Energie scharfe Werte annehmen, und es bleibt dabei, dass kleinere Drehimpulse, kleinere Quantenzahlen , auch kleinere Energien ermöglichen. Die tiefste Energie des Wasseratoffatoms für ein gegebenes ist 2 e2 m 1 2 2 40 2 ( 1) h Ry 1 ( 1) 2 (Die Energien sind negativ, weil man die Energie des System-Zustands, wo Atomkern und Elektron ganz getrennt sind und beide ruhen, als Null definiert. Bei der Bindung fällt das Elektron dann in einen Potentialtopf hinein und gibt Energie ab.) Nun stellt sich bei Berechnung der angeregten Zustände heraus, dass der erste angeregte Zustand mit = 0 dieselbe Energie wie der tiefste Zustand mit = 1 hat; dass der zweite angeregte Zustand mit = 0 dieselbe Energie hat, wie der erste angeregte Zustand mit = 1 und dieselbe Energie wie der Grundzustand mit = 2; und so weiter. Die Energie-Eigenwerte werden durch eine einzige Quantenzahl, die Hauptquantenzahl n charakterisiert: En = – hRy / n2 Diese Energie kann zusammen mit einem Drehimpuls auftreten, bei dem die Quantenzahl durch +1 = n gegeben, oder auch kleiner ist. Die Energie-Eigenwerte sind entartet, das heißt: Es gibt immer mehr als nur einen Zustand mit dieser Energie. 72 Die Energie-Eigenzustände werden weiter noch durch die Quantenzahlen ,m,s charakterisiert, die keinen weiteren Einfluss auf die Energie haben (solange keine Magnetfelder wirken und solange relativistische Effekte vernachlässigt werden.). n = 1,2,3,... Hauptquantenzahl = 0,1,2,... m = ...–2,–1,0,1,2,... n–1 Drehimpuls-Quantenzahl |m| magnetische Quantenzahl s = 1/2, +1/2 Spin-Quantenzahl 7.4.2. Grundzustand des H-Atoms Die tiefste Energie ist mit = 0 zu erreichen, das heißt, die Wellenfunktion ist völlig drehinvariant, sie ändert sich nur mit r, nicht mit den Winkeln der Polarkoordinaten. Für die kinetische Energie im Hamilton-Operator verwendet man daher am besten den LaplaceOperator in Polarkoordinaten (siehe Formelsammlung): 2 r 2 2 , r r Auf die Wellenfunktion (r) wirkt nur der Teil mit Ableitungen nach r, der andere gibt Null und kann weggelassen werden. Für eine solche Wellenfunktion ist die Schrödingersche Eigenwertgleichung: 2 2 2 e2 r 2 r r 4 r E 2 m 0 Wir machen den Lösungs-Ansatz (r) = e–r/a und setzen ihn in die Gleichung ein. Wir berechnen die Ableitungen: ´(r) = (–1/a)e–r/a ´´(r) = (1/a2)e–r/a '' + 2'/r = [ 1/a2 – 2/(ra) ] e–r/a Also können wir in der Folge die ganze Svhrödinger-Gleichung durch e–r/a kürzen: 73 2 1 2 e2 2 E ar 4 0 r 2m a Die Koeffizienten von 1/r müssen einander annullieren. Damit ergibt sich für a a rB 2 4 0 me 2 0,5... A Das ist der Bohrsche Radius rB. Die Wellenfunktion (r) ist dort, wo der Abstand vom Kern r gleich rB ist, auf (0)/e abgefallen. Zuletzt erhält man damit die Energie des Grundzustands E1 = –h Ry = –(m/22)(e2/40)2 –13 eV Die früher empirisch gefundene Rydbergkonstante Ry ergibt sich daher als Größe, die aus der Elektronen-Masse mEl und den fundamentalen Naturkonstanten , e, 0 gebildet wird. 7.4.3. Das Schalenmodell für Mehr-Elektron-Atome Die „zufällige“ Entartung, die beim Wasserstoffatom auftritt, gibt es bei anderen Atomen nicht mehr. Die Energie-Eigenwerte sind für verschiedene Drehimpulse nicht mehr gleich. Es gibt nur noch die 2 (2 + 1) fache Entartung (durch Spin- und magnetische Quantenzahl). Trotzdem verwendet man weiterhin die Hauptquantenzahl n, um die Zustände zu charakterisieren. Der tiefste Zustand mit Drehimpuls hat die Hauptquantenzahl n = + 1 . Dieselbe Hauptquantenzahl gibt es auch in Verbindung mit kleineren Drehimpulsen. Nun macht man folgende Beobachtungen: Die Zustände mit gleicher Hauptquantenzahl haben bei kleineren Drehimpulsen immer tiefer liegende Energien. In einem halbklassischen Bild kann man diese Ordnung so verstehen: Kreisbahnen haben großen Drehimpuls; im Keplerproblem haben Ellipsenbahnen mit gleicher Energie bei kleinerem Drehimpuls eine größere Exzentrizität, sie kommen näher zum Kraftzentrum. Nun haben wir hier nicht nur ein anziehendes Kraftzentrum, sondern auch eine für jedes einzelne Elektron abstoßende Elektronenwolke. Nach dem Prinzip des Faradayschen Käfigs wirkt an jedem Punkt nur der Teil der Ladungswolke, der näher dem Zentrum mit der Kernladung Ze ist, und nach dem Newtonschen Prinzip wirkt sie mit derselben Kraft, als wäre sie im Zentrum konzentriert. An jedem Punkt wirkt eine Kraft proportional zu Zeffektiv(r)/r2 , mit einer effektiven Kernladung, die mit größerem Abstand r vom Zentrum abnimmt, weil immer mehr durch die Elektronenwolke abgeschirmt wird. Die „Tauchbahnen“ mit größerer Exzentrizität kommen näher zum Zentrum und daher wirken auf sie größere Anziehungskräfte, als sie ein CoulombPotential mit einem Zeffektiv(rKreisbahn) erzeugen würde, das effektive Potential ist dort tiefer. (Umgekehrt reicht die exzentrischere Bahn auch weiter hinaus. Dabei nehmen die wirkenden Kräfte dort rascher ab und das Potential steigt nicht so stark an wie ein Coulomb-Potential mit Zeffektiv(rKreisbahn).) Im Vergleich mit dem Keplerproblem sind also hier die exzentrischeren Bahnen im Mittel in Bereichen mit tieferen potentiellen Energien. In der Quantenmechanik bleiben die Überlegungen über den Verlauf der Kräfte und Potentiale genauso gültig. Nur muss man statt der Bahn die radiale Ortsunschärfe der Wellenfunktion betrachten: Auch sie ist für kleinere Drehimpulse weiter ausgedehnt. 74 Der Effekt der Elektronenwolke ist der, dass bei gleicher Hauptquantenzahl die Zustände mit kleinerem Drehimpuls die tiefere Energie haben. Man nennt nun die Menge der Zustände mit einer fixierten Hauptquantenzahl n und einer fixierten Drehimpulsquantenzahl eine „Schale“. Im Modell mit dem effektiven Feld haben sie alle die gleiche Energie. Erst bei detaillierteren Berechnungen findet man kleine Energieunterschiede innerhalb einer Schale. Von den Strahlungsspektren her hat sich eine Nomenklatur mit speziellen Buchstaben für die Drehimpulseigenzustände ergeben: =0 s „scharf“ =2 d „diffus“ =1 p „prinzipal“ =3 f „fundamental“ Eine „Schale“ des Atoms wird also durch eine Hauptquantenzahl und den Buchstaben für den Drehimpuls bezeichnet. Die höchstmögliche Anzahl von Elektronen in so einer Schale ist 2 (2 + 1) . 7.4.4. Das Pauli-Prinzip für Fermionen Elektronen haben Spin ½. (Der Spin ist so etwas ähnliches wie ein innerer Drehimpuls, wie eine Rotation um die eigene Achse.). Ein sehr tief in den theoretischen Fundamenten (der relativistischen Quantenfeldtheorie) verwurzelter Satz besagt, dass sie deshalb Fermionen sind, (nach Enrico Fermi benannt, der als erster ihre thermodynamischen Eigenschaften berechnet hat,) und dem Pauli-Prinzip, das auch Pauli-Verbot genannt wird, genügen: Zwei Fermionen können nicht gleichzeitig einen Zustand mit den selben Quantenzahlen einnehmen. Wolfgang Pauli hat damit den Aufbau von Atomen mit mehreren Elektronen erklärt. Gemeinsam mit Arnold Sommerfeld hat er damit auch eine Theorie zur Beschreibung der Elektronen in Metallen entwickelt. In dieser Vorlesung wurde dieses Prinzip schon im Zusammenhang mit dem ComptonEffekt erwähnt. (Siehe 4.1.4.) Die Zustände für die Elektronen in einem Stück Metall sind bis zu einer Grenze, der „Fermi-Energie“, besetzt. Beim Auftreffen eines Photons kann ein einzelnes Elektron nur in einen freien Zustand über dieser Fermi-Energie übergehen. Die Zustände mit tieferer Energie sind schon besetzt und für jedes weitere Elektron „verboten“. 75 7.4.5. Strahlungsspektren Beim Übergang von einem Energieniveau zu einem anderen sendet ein Elektron ein Photon mit = (Ezuvor – Edanach )/ aus (manchmal auch zwei), oder absorbiert es. So entstehen die Spektrallinien Bei den äußeren, den „Valenz - Elektronen“ (sie sind auch für die chemischen Bindungen zuständig) sind die Energien im selben Bereich wie beim H-Atom. Die Spektrallinien sind im sichtbaren und im UV-Bereich. Die innersten Elektronen können nur durch harte Röntgenstrahlen hinausgeschleudert werden, oder sie strahlen umgekehrt solche ab, wenn sie „eingefangen“ werden. (Aufgabe: Ein inneres Elektron hat ungefähr solche Energien, wie man sie erhält, wenn man in der Formel für das H-Atom den Term (e2/4)2 durch (Ze2/4)2 ersetzt. Wenn nun Z = 50 ist, in welchem Bereich sind die Wellenlängen?) 7.5. Periodensystem der Elemente 7.5.1. Geschichte Phänomenologie ~1830 Erkenntnis der Existenz von „Reihen“ chemisch analoger Elemente. (z.B. Li, Na, K) ~1870 Lothar Meyer und Dimitri Mendelejew ordnen alle bekannten Elemente in ein Periodensystem ein, geordnet nach Molgewicht (entspricht dem Atomgewicht). Dabei erscheinen Lücken. Für diese Stellen wird die Existenz bis dahin unbekannter Elemente vorausgesagt. 1875 – 1885 Entdeckung der „Lückenfüller“, Elemente Ga, Ge, Sc Neunziger Jahre: Entdeckung der Edelgase. Theorie 1922 Halbklassische Theorie von Niels Bohr, mit Ein-Elektron-Näherung für die Quantisierung und mit dem „Abschlussprinzip“ dass die Schalen mit 2, bzw. 6, bzw. 10 Elektronen abgeschlossen sind. (Spätere Erklärung mit Quantenzahlen und dem Pauli-Prinzip.) 1926 Schrödingergleichung 1927 Heitler und London begründen die Quantenchemie. 1927, -29 Pauli, Sommerfeld: Theorie der Elektronen in Atomen. 76 7.5.2. Theorie Beim Aufbau des Atoms werden zuerst die tieferen Schalen angefüllt; und in jedem Atom, bei jeder Kernladungszahl Z, ist die Reihenfolge die gleiche: Zuerst kommen die kleineren Hauptquantenzahlen. Bei jeder Hauptquantenzahl kommen zuerst die „Tauchbahnen“ mit den kleineren Drehimpulsquantenzahlen. Dieser Bruch der „zufälligen“ Coulomb-Entartung, das Absinken der Energien von Zuständen mit kleinem , ist so groß, dass diese Zustände mit kleinen sogar tiefer liegen als Zustände mit kleinerem n und um 2 Einheiten größerem : 4s kommt vor 3d, 5s kommt vor 4d, 6s vor 4f und 5d, 7s vor 5f und 6d. Damit hat man fast alle Details des periodischen Systems der Elemente erklärt. Periodisches System mit einigen ausgewählten Elementen: H Li Be Na K Sc B Ti V Cr Mn Fe Co Ni La Ac Lanthanide Actinide Cu Zn Ag Au Hg C N O S F Cl He Ne Pb Ce U Pu Der Typus der Elektronen mit höchster Energie: 1s 2s 3s 4s 5s 6s 7s 2s 3s 4s 5s 6s 7s 3d 4d 5d 6d Lanthanide Actinide 3d 4d 5d 5d 4f 5f ( oder 5d ) ( oder 6d ) 77 2p 3p 4p 5p 6p 1s 2p 3p 4p 5p 6p 7.A. Stabile und stationäre Zustände Nun bringt das neue Weltbild nicht nur eine Unsicherheit in manchen Voraussagen, sondern andererseits einen Gewinn an Sicherheit bezüglich der Zustände eines Systems und Stabilität der Materie. Vergleichen wir die klassische Mechanik des Planetensystems mit der Quantentheorie der Atome: Wir können zwar die Bewegungen der Planeten mit „astronomischer Genauigkeit“ vorausberechnen, aber von anderen Sonnen wissen wir nicht, welche Planetenbahnen sie mit sich führen. Abgesehen davon, dass wir nicht wissen, ob sie überhaupt Planeten haben, und wenn ja, wie viele und von welcher Masse, so ist in einem weiten Bereich ein riesiges Kontinuum von großen und kleinen Halbachsen der Bahnen möglich, bis zum Sturz des Planeten in die Sonne. Auch bei unserem eigenen Planetensystem sind wir, trotz aller Rechentechnik, noch nicht imstande, die Stabilität für mehr als wenige Millionen Jahre zu garantieren. Wir können nicht ausschließen, dass nach so vielen Jahren ein Planet in die interstellaren Räume entweicht, oder einer in die Sonne fällt, oder dass zwei zusammenstoßen. Dem ganz entgegengesetzt ist die Physik der Atome. Da gibt es für jedes Atom einen stabilen Zustand, den „Grundzustand“, mit einem für jedes Element charakteristischen bestimmten Durchmesser (~10-10 m = 1 Å ). Somit werden die Atome eines Isotops ununterscheidbar nachdem ja schon dessen Bausteine ununterscheidbare Elementarteilchen sind. Über diesem Grundzustand, bei höheren Energien, gibt es zunächst kein Kontinuum, sondern eine diskrete Menge von stationären Zuständen. Durch die Abgabe von elektromagnetischer Strahlung gehen sie in tiefer liegende Zustände über, das Strahlungsspektrum des Atoms entsteht. Einerseits können wir über die Zeit dieser Übergänge nur Wahrscheinlichkeitsvoraussagen machen. Andererseits wissen wir aber über die Energien dieser Zustände mit solcher Genauigkeit Bescheid, somit auch über die Energien, Wellenlängen und Frequenzen der ausgesandten Strahlungsquanten, dass so ein Übergang zur Definition der S I - Einheit der Zeit verwendet wird. Und wir sind sicher über die Stabilität der Materie. 78 8. Elementarteilchen Literatur: P.Tipler, ältere Auflage: Kapitel 40.1 / 40.6 / 41.1 - 5 8.0. Eine Erzählung Der Traum Kürzlich hatte ich einen Traum: Galileo Galilei erschien mit teils durch den Prozeß verbittertem, teils verschmitztem Gesichtsausdruck. Er sagte, er habe unbedingt noch einen Dialog verfassen wollen, und er überreichte mir einige beschriebene Blätter. Ich wachte auf; noch im Halbschlaf sah ich, im Geiste, das Manuskript vor meinen Augen, und ich übertrug, soviel ich vor deren Verschwinden noch konnte, den Inhalt, der nun folgt, auf wirkliches echtes Papier. Die Fragestellung Simplicio: Mein lieber, verehrter Sagredo; ich bin in letzter Zeit etwas mitgenommen von all den überraschenden Wandlungen um uns herum. Nun ist es mein brennender Wunsch, Bescheid zu wissen, was denn bestehen bleibt. Was ist die Substanz unserer Welt, die in aller Ewigkeit war und sein wird? Sagredo: Ich möchte Sie, lieber Simplicio, über Schicksalsschläge trösten und möchte Ihnen vorab versichern: All die guten Erlebnisse, die wir hatten und wohl noch haben werden, sind unverrückbar, jenseits aller fließenden Zeit, in der Ewigkeit aufbewahrt. Sonst kann ich über die Ewigkeit wenig aussagen. Unser Universum ist in einem Urknall entstanden, der keine Ewigkeit, sondern einige Milliarden Jahre zurückliegt. Simplicio: Ja, davon habe ich gehört (war wohl recht laut, der Urknall), und ich sehe ein, ich muß meinen Wissensdurst einschränken. Ich erinnere mich, man soll den Weg zur großen Weisheit bei den kleinen Wahrheiten beginnen. Also sagen Sie mir: Was von unserer Welt bleibt von heute bis morgen bestehen, von diesem Jahr zum nächsten? Sagredo: Auf diese Frage gibt es viele Antworten. Bausteine der Chemie: Atome, Reaktionsenergie, Wärme Sagredo: Um etwas sagen zu können, muß ich Sie um weitere Einschränkung bitten, eine Festlegung der Richtung unserer Überlegungen. Am besten ist es, an eine ganz konkrete Situation zu denken. Simplicio: Sie zwingen mich zur Bescheidenheit. Aber dabei fällt mir ja doch ein, daß ich schon ein klein wenig über die Substanz der Welt weiß. Wenn ich an eine konkrete Situation des Wandels denken soll, dann drängt sich meinen Vorstellungen gleich das Feuer auf. Es kann ja viel in der Struktur zerstören, aber die Materie bleibt. Wenn ich mir vorstelle, ich habe einen völlig abgedichteten Ofen, eine Brennkammer mit ein wenig Holz und sehr viel Luft, dann verwandelt das Feuer diese Ausgangsstoffe in Rauch, Asche und Gase: CO2, Stickoxide. Also scheint mir, die Masse der Materie besteht, bis ins allerkleinste Teilchen; und dabei kann ich mich sogar noch wärmen. Sagredo: Mit den Aussagen über allerkleinste Teilchen und über Massenbilanz müssen wir vorsichtiger sein. Wer sich mit der Wärmestrahlung des Ofens die Wintertage 79 verschönt, der nimmt ja viele, viele Photonen in sich auf, die die Energie des Feuers hinaus tragen. Und, Sie wissen ja: E = mc2 . Simplicio: Nun bin ich verunsichert. Feuer ist doch ein chemischer Prozeß, und man hat mich gelehrt, in der Chemie gelte die Erhaltung der Masse, die um 1800 entdeckt wurde. Sie sagen nun, dieses Gesetz gilt nicht. Sagredo: Gemach, gemach, und nicht das Kind mit dem Bad ausschütten. Gerade in der genauesten aller Wissenschaften, der Physik, haben wir gelernt, bescheiden zu sein. Viele der bekannten Gesetze gelten nur mit Einschränkungen; nur unter speziellen Rahmenbedingungen und nur mit gewissen Fehlern. Der Fehler im Gesetz von der Erhaltung der Masse bei chemischen Prozessen besteht darin, nicht die Umwandlungsenergien einzubeziehen. Diese sind allerdings nicht mehr als wenige eV pro Atom. Das wäre selbst beim leichtesten Atom, dem Wasserstoffatom, mit einer Masse von etwa 1000 Mev/c2 erst bei einer Meßgenauigkeit von 1/1000 p.p.m. feststellbar Simplicio: Nun ist zwar auch ein Tausendstel part per million nicht Null, und tausend Mega-Elektronvolt, was ja wohl dasselbe wie ein GeV ist, sind nicht unendlich viel mehr als ein eV; aber ich sehe ein, daß bescheidenere Meßkünste solche Anteile nicht bemerken können. Ich schließe daraus, ich muß die Annahme der Unwandelbarkeit auf die Masse der nackten Atome einschränken, ohne die Bindungsenergien mitzurechnen. Und dann bleiben wohl noch die Atome selber, mit ihren rund neunzig verschiedenen Arten, als unwandelbare Bausteine der Materie? Bausteine der Atome: Elektronen und Kerne Sagredo: Die Atome ändern sich bei der Zusammensetzung, in der Bindung zu Molekülen und Festkörpern. Simplicio: Wie sind sie dann in der chemischen Analyse noch immer als Atome bestimmter Elemente zu erkennen? Sagredo: Was sich in der chemischen Bindung nicht ändert, sind die Atomkerne. Sie sind es, die das Element bestimmen. Auch die Masse ist in der Hauptsache von ihnen, denn jedes der Elektronen wiegt nur 10-30 kg, etwa ein halbes MeV/c2. Also spielt es für die Massenverteilung eine geringe Rolle, wenn sie in der Bindung unter den veschiedenen Atomen anders als zuerst aufgeteilt werden. Simplicio: Und wenn die Bindung wieder aufgelöst wird, ändern sich dann die Atome, wenn sie mit fremden Elektronen sich entfernen? Sagredo: Die Elektronen sind ununterscheidbar, sogar identisch, wie übrigens alle Elementarteilchen in ihrer Art. Atomkerne Simplicio: Dann gibt es also auch bei den Atomkernen nur neunzig verschiedene? Sagredo: Nein, zu fast allen Elementen gibt es verschiedene stabile Atomkerne. Sie werden "Isotope" genannt, da sie im Periodensystem der Elemente an den selben Platz gehören. Simplicio: Was ist an ihnen gleich, was ist verschieden? Sagredo: Die Isotope eines Elements haben die gleiche Kernladungszahl Z, aber verschiedene Massen, deren jede etwa ein ganzzahliges Vielfaches der atomaren Masseneinheit u ist Kernmasse = Au mit u ~ 1,6610-27 kg ~ 930 MeV/c2 A heißt Massenzahl. 80 z.B. für Helium, welches Z = 2 hat, gibt es zwei Isotope. Das häufigere hat Massenzahl 4, das andere A = 3. Man schreibt sie 4He und 3He Bausteine der Atomkerne: Protonen und Neutronen Simplicio: Ich bewundere immer die Vielfalt der Natur. Nicht nur neunzig verschiedene Atomkerne, nein, noch viel mehr gibt es. So viele verschiedene Substanzen der Welt! Sagredo: Die Vielfalt der Natur beruht in der Komplexität ihrer Strukturen, wie einige wenige Bausteine auf verschiedene Arten zusammengesetzt werden. Tatsächlich kann man jeden Atomkern dadurch charakterisieren, wie viele Protonen und wie viele Neutronen er enthält: Die Anzahl der Protonen ist gleich der Kernladungszahl Z, die Anzahl der Neutronen ist A - Z. Simplicio: Mir scheint, jetzt sind wir tatsächlich beim Kern angelangt, bei der Antwort auf meinen Frage: Die Substanz der Welt ist die Menge der drei verschiedenen Elementarteilchen: Elektronen, Protonen, Neutronen. Sie sind unzerstörbar, ihre Anzahl ist unveränderlich, die Summe ihrer Massen ist das Gewicht der Welt. Sagredo: Leider muß ich diese Ihre voreilige Schlußfolgerung fast vollständig für ungültig erklären. Bindungsenergie der Nukleonen Sagredo: Ich beginne mit der Widerlegung der letzten Ihrer Aussagen. In der Materie, die täglich in und um uns ist, ist die Massenbilanz nicht einfach die Summe der Nukleonen (so nennt man Protonen und Neutronen zusammen.) Die Masse eines Protons ist ~938 MeV/c2, die Masse eines Neutrons mehr als 939 MeV/c2. Simplicio: Das sind ja acht bis neun MeV/c2 mehr als die atomare Masseneinheit. Wohin verschwindet denn der Rest? Sagredo: Der Rest ist die Bindungsenergie, im Mittel circa 8 MeV pro Nukleon. Sie wird abgegeben, wenn sich die Nukleonen zu Kernen vereinigen, in Wasserstoffbomben und im Sonneninneren. Exkurs über dunkle Materie Sagredo: Nun folgt mehr Widerspruch zum "Gewicht der Welt": Aus astronomischen Beobachtungen der Rotationen von Galaxien und aus Überlegungen über die Ausdehnung des Universums wissen wir, daß alle sichtbare Materie nur wenige Prozent zu der gesamten schweren Masse beiträgt. Über den Rest, die "dunkle Materie" werden zur Zeit verschiedene Vermutungen angestellt. Vielleicht besteht sie aus Teilchen, von denen wir in den Labors bis jetzt noch keines beobachtet haben. Antimaterie Sagredo: Es folgt noch ein Widerspruch zu dem mittleren Teil Ihrer obigen Meinung. Keines der Elementarteilchen ist unzerstörbar. Zu jedem Teilchen gibt es ein Antiteilchen. Bei den von uns bis jetzt genannten sind das: Zum Proton das Antiproton, zum Neutron das 81 Antineutron, zum Elektron das Positron. Wenn die beiden Teile eines solchen Gegensatzpaares aufeinander treffen, vernichten sie einander; die Energie bleibt bestehen. Aus ihr entstehen andere Teilchen. Simplicio: Ich bin tief erschüttert. Wenn morgen ein Komet aus Antiteilchen die Erde trifft, dann ist das wohl der Weltuntergang. Sagredo: Zu ihrer Beruhigung kann ich versichern, daß das Universum, soweit wir es kennen, nicht aus Antimaterie besteht, sondern aus Materie, wie unser Sonnensystem. Nur in der Nähe von schwarzen Löchern können größere Mengen Antimaterie entstehen. Die sind aber wohl alle weit entfernt. Zerfall des Neutrons, Beta-Zerfall Simplicio: Dann sind die genannten Substanzen also solange stabil, als die Antimaterie fern ist! Sagredo: Nicht ganz. Die Neutronen, wenn sie allein sind, nicht in stabilen Kernen gebunden, die zerfallen ganz von selber. Dabei entstehen: Ein Proton, ein Elektron und ein Antineutrino. Letzteres hat keine elektrische Ladung und keine Ruhemasse, es entweicht, und macht sich nur mit ganz geringer Wahrscheinlichkeit noch weiter bemerkbar. Simplicio: Die Neutronen vertragen die Einsamkeit nicht. Ein direkt menschlicher Charakterzug! In der Gemeinschaft mit anderen Nukleonen sind sie also stabil. Sagredo: Nicht in wahlloser Gesellschaft. Es dürfen nicht zu viele sein (der schwerste fast stabile Atomkern ist 238U ), und rund die Hälfte davon sollen Protonen sein. Bevor Sie wieder Vergleiche mit menschlichen Eigenschaften anstellen, möchte ich Ihnen auch die Ursachen mitteilen: Der Massenunterschied zwischen Neutron und Proton reicht ganz knapp, um ein Elektron und ein masseloses Antineutrino mit ein bißchen Energie zu erzeugen. In einem leichten stabilen Atomkern teilt sich das Neutron seinen Zustand mit einem Proton. Nach Paulis Prinzip darf dort kein anderes Proton mehr sein. Das beim Neutronenzerfall entstehende Proton müßte also mit zusätzlicher Energie ausgestattet werden, um in einen höher liegenden Zustand zu klettern. Aber dafür reicht die zur Verfügung stehende Massendifferenz nicht aus, und das Neutron bleibt stabil in seinem Zustand im Kern. In einem schweren Atomkern gibt es dann zwar weniger Protonen als Neutronen, aber das zusätzliche Proton müßte gegen die elektrische Abstoßung der schon vorhandenen ankämpfen, und wieder reicht die Massendifferenz nicht aus. Simplicio: Mir erscheint nun wirklich das Licht einer bisher unbekannten Weltordnung. Bisher hielt ich die Masse-Energie-Äquivalenz für ein gedankliches Kunststück, aber hier sehe ich erstmals ein wunderbares Wechselspiel zwischen Massen und Bindungsenergien. Sagredo: Ja, in der Chemie sind diese beiden Größen noch in ganz verschiedenen Bereichen der Skala, um neun Größenordnungen getrennt. Im Aufbau der Atomkerne sind sie schon recht nahe beisammen. Und wenn wir tiefer in die Struktur der Materie eindringen, dann werden sie überhaupt nicht mehr zu trennen sein. Grenzen des Teilens? Simplicio: Noch tiefer in die Struktur der Materie! Aristoteles hat also recht. Jedes Teilchen hat seine Größe, und wir können, wenn wir es anschauen, den linken Teil vom rechten unterscheiden, und diese Teile dann wieder unterteilen, ohne Ende. Sagredo: Nein, die Quantenphysik mit ihren Unschärfen verändert diese einfache Vorstellung des Teilens. Um genauer hinzuschauen, brauchen wir engere Einschränkungen der Längen in unseren Beobachtungsstrahlen, kürzere Wellenlängen, größere Impulse und größere Energien. Diese hohen Energien, die zum Messen der Struktur von Elektronen und 82 Nukleonen benötigt werden, die genügen, um viele neue Paare von Teilchen und Antiteilchen zu erzeugen. Somit ist die Größe eines Teilchens nicht scharf begrenzt. Es ist mit einer Wolke von solchen virtuellen Teilchen und Antiteilchen umgeben. Dennoch können wir, indirekt, aus unseren Beobachtungen manche Schlüsse ziehen: In seiner Wolke virtueller Teilchen sitzt ein "nacktes" Elektron, das, nach unserer Kenntnis, punktförmig ist. Jedenfalls hat es keinen größeren Durchmesser als 10-18 Meter. Bausteine der Nukleonen: Up-Quarks und Down-Quarks Sagredo: Ein jedes Nukleon hingegen hat einen Durchmesser von einem fm - das ist ein Femtometer, oder "Fermi" - und wird von drei Quarks gebildet. Das Proton aus zwei upund einem down-Quark, Das Neutron aus einem u- und zwei d-Quarks. Das u hat eine positive elektrische Ladung von 2/3 e und eine Masse von etwa 4 MeV/c2, das d eine negative Ladung von -1/3 e und eine Masse von etwa 7 MeV/c2. Simplicio: Jetzt bin ich wieder äußerst überrascht, und viele Fragen drängen sich auf: Wie kommt es, daß man so lange geglaubt hat, nur ganzzahlige Vielfache der Elementarladung e wären in der Natur zu beobachten? Kann denn Ihre Angabe der Massen stimmen, die doch in der Summe jeweils nur einen kleinen Teil der Masse des Nukleons ausmachen? Wo sind die Teilchen, die aus nur zwei Quarks bestehen? Was macht ein einzelnes Quark, wenn man es herauszieht? Sagredo: Für jede dieser Fragen gibt es eine Antwort und es gibt eine einheitliche Begründung. So wie die Coulomb-Kraft immer positive und negative Ladungen aneinander zieht und bindet, so daß das zusammengesetzte System elektrisch neutral ist, so bindet die starke Wechselwirkung der Quarks immer drei "Farbladungen" aneinander - man hat sie "rot", "grün" und "blau" genannt, wegen der Analogie zu unserem Farbensehen, obwohl sie damit weiter nichts zu tun haben - sodaß das zusammengesetzte System farbneutral - quasi "weiß" - ist. Jedes Quark, ob u oder d, kann jeweils eine dieser drei Farben annehmen. Nun werden diese Bindungskräfte mit größerem Abstand nicht schwächer. Versucht man, ein Quark herauszuziehen, zum Beispiel ein rotes, muß man daher andauernd Arbeit leisten, soviel Energie hineinstecken, bis daraus neue Teilchen entstehen, zum Beispiel ein Quark-Antiquark-Paar mit den Farben rot und antirot. Es sitzt dann wieder ein rotes Quark bei den zurückgebliebenen mit grün und blau. Und ein neues "Elementarteilchen" - eine Bindung von Quark und Antiquark - hat sich geformt. Die Antiquarks haben die Farben antirot, antigrün und antiblau zur Auswahl. Farbneutral können nur folgende Kombinationen sein: "Baryonen" aus drei Quarks, "Antibaryonen" aus drei Antiquarks, "Mesonen" aus einem Quark und einem Antiquark. Wie immer beim Vergleich von Teilchen mit Antiteilchen sind die Massen der Antiquarks gleich den Massen der Quarks und die elektrischen Ladungen sind umgekehrt: u hat -2/3 e, d hat +1/3 e. Nun ist es eine Denksportaufgabe, herauszufinden, daß man mit farb-neutralen Kombinationen immer nur ganzzahlige Vielfache der Ladung e bilden kann. Das Kraftfeld, welches die farbigen Quarks "verleimt", das "Gluon-Feld", enthält soviel Energie, daß es den Hauptbeitrag zu den Massen der Mesonen und Baryonen, zu denen auch die Nukleonen gehören, liefert. Simplicio: Und woraus bestehen nun die Quarks? Sagredo: Die sind wohl so punktförmig wie die Elektronen. Die erste Generation von Quarks und Leptonen Simplicio: Jetzt sind wir also am unteren Ende der Teilbarkeit angelangt. Sagredo: Zumindest soweit, wie es die Technik des zweiten Jahrtausends nach Christi Geburt ermöglicht hat. 83 Simplicio: Und wir kennen alle Bausteine der Materie. Sagredo: Nicht alle, aber die, mit denen wir die Welt unseres Alltags beschreiben können. Das ist die erste Generation: Zwei Quarks und zwei Leptonen - man hat sie so genannt, weil sie viel leichter als die Baryonen und Mesonen sind - Elektron und ElektronNeutrino. Dann gibt es noch die vier entsprechenden Antiteilchen, aber die sind nicht Bausteine unserer Welt. Die Wechselwirkungen Sagredo: Was wir aber nicht vergessen dürfen, bei der Massenbilanz wären wir sonst im Irrtum, sind die Kraftfelder der Wechselwirkungen und die Teilchen, die wir als quantisierte Wellen dieser Felder beschreiben können: Die elektromagnetische Wechselwirkung mit den Photonen, die starke Wechselwirkung mit den Gluonen, und die schwache Wechselwirkung mit den W- und Z-Bosonen. Simplicio: Was ist mit der Gravitation, mit deren trefflicher Erforschung ein gewisser Galileo Galilei den Beginn der neuzeitlichen Physik gesetzt hat? Sagredo: Sie ist zwischen einzelnen Elementarteilchen so schwach, daß wir sie in diesem Stadium der Forschung außer acht lassen. Erst wenn wir in der Zeit zurückschauen, bis zum Urknall mit dem Anfang des Universums, was soviel bedeutet wie, daß wir die Theorie von allem haben wollen, dann werden wir sie mit einbeziehen müssen. Simplicio: Von elektromagnetischen Erscheinungen habe ich schon früher erfahren, ebenso von den Photonen. Über die starke Kraft habe ich vorhin von Ihnen gehört, daß sie die Quarks zu Nukleonen bindet. Übrigens denke ich mir, daß die in Protonen und Neutronen eingeschlossenen Quarks mit der starken Kraft auch ein bißchen über die Grenzen ihres Einschlusses hinwegsehen können, und zärtliche Bande mit den Insassen benachbarter Nukleonen knüpfen, sodaß sich die Atomkerne bilden. Die Eigenheiten der schwachen Wechselwirkung Simplicio: Aber von den schwachen Wechselwirkungen war bis jetzt nicht die Rede. Auch ist mir in der Rekapitulation all Ihrer lichtvollen Darlegungen aufgefallen, daß alle Teilchen in der Ausübung ihrer starken und elektromagnetischen Beziehungsarbeit ihren persönlichen Charakter, ich könnte sagen ihren "flavor", bewahren. Ein u bleibt ein u, ein eein e-. Beim Beta-Zerfall des Neutrons jedoch herrscht ein ungeheures Tohuwabohu von Umwandlung und Entstehung von Teilchen. Gehe ich recht in der Schlußfolgerung, das dies die -Wirkung einer -Wirkung, nämlich die Aus-... der schwachen Wechsel-... ist? Sagredo: Mein lieber Simplicio, ich freue mich, daß ihre Stimmung besser geworden ist. Sie haben einen noch nie dagewesenen Höhenflug ihrer Gedanken. So witzig, und mit so vielen Fremdwörtern habe ich Sie nur selten reden gehört. Mit Ihren wissenschaftlichen Vermutungen haben sie ins Schwarze getroffen, auch dort, wo es sich um die Wechselwirkung von Farbladungen handelt. Die schwache Wechselwirkung kann tatsächlich d- in u- Quarks verwandeln oder umgekehrt, sie kann Elektronen in Elektron-Neutrinos verwandeln oder umgekehrt. Bei den Quarks kann sie sogar Umwandlungen zwischen den Generationen bewirken. - Es gibt nämlich noch zwei Generationen, die wie Kopien der ersten Generation von Teilchen sind, nur mit größeren Massen. - Aber die Bilanz der elektrischen Ladungen muß stimmen. Auch sonst verletzt sie Gesetze, die für alle anderen Prozesse gelten. Zum Beispiel ist die Parität nicht erhalten, schwache Prozesse sind nicht spiegelsymmetrisch. 84 Erhaltungssätze Simplicio: Meine gute Laune schwindet wieder. Ich erhoffte mir doch, etwas über unwandelbare Substanz zu hören. Ist alles flüchtig, bleibt nichts bestehen? Sagredo: Was immer in der Bilanz von vorher und nachher erhalten bleibt, das ist: Die Energie, der Impuls und der Drehimpuls, Die elektrische Ladung, Die Leptonenzahl, das ist die Anzahl aller Leptonen, vermindert um die Zahl aller Antileptonen, Die Baryonenzahl, das ist die Anzahl aller Quarks, vermindert um die Zahl der Antiquarks und dann durch drei dividiert. Simplicio: Nun bin ich zufrieden, soweit es meinen Wissensdurst nach stabiler Substanz der Welt betrifft. Und ich bin erstaunt, mit wie wenigen Arten von Bausteinen, mit wie wenigen Arten von Wechselwirkungen sich die Welt erklären läßt. Sie werden mir doch nicht vielleicht sagen, daß sich auch dieses wenige noch vereinheitlichen läßt? Das Ende der Aufzeichnungen Ganz schwach konnte ich in meinen Traumerinnerungen noch einige Wörter Sagredos über elektroschwach, Symmetriebrechung, Higgsbosonen und Eichtheorie wahrnehmen. Zu "Eichtheorie" assoziierte ich dann "Eiche", weiter "Trüffel". (Ich habe einmal gehört, die Trüffeln würden von abgerichteten Schweinen unter Eichen gefunden.) Ich ging zur Küche, um nach Eßbarem zu suchen. Dann waren meine Traumbilder verschwunden. 85 8.1. Bausteine der Materie, die erste Generation von Elementarteilchen Atome Siehe Kapitel 7 Die Form eines Atoms wird durch die Wellenfunktion seiner Bausteine bestimmt. Elektronen und Atomkerne Nach der Kenntnis von Elektronen (1897 von J.J.Thomson untersucht) wurde 1911 von Rutherford der Atomkern entdeckt. Das Elektron gilt heute als „elementar“, als punktförmig, soweit die Unschärferelation es erlaubt, und als nicht mehr teilbar. Es hat: Spin ½, Ladung –1, Baryonenzahl B = 0, Leptonenzahl L = 1, 2 -30 Ruhemasse ~½ MeV/c , das sind ~10 kg. Die Atomkerne haben Ausmaße von fm = Fermi = Femtometer = 10-15 m. Das Element, für das ein Atomkern zuständig ist, entspricht seiner elektrischen Ladung , die ist +Ze. Die „Kernladungszahl“ Z wird auch „Ordnungszahl“ genannt. Es gibt noch die Massenzahl A: Die Masse eines jeden Atomkerns ist ungefähr A mal der atomaren Masseneinheit u ~ 930 MeV/c2. Auch sein Volumen ist proportional zu A. Isotope sind Kerne mit gleicher Kernladungszahl, aber verschiedenen Massenzahlen. Das Zusammenhalten von Elektronen mit dem Atomkern wird durch die elektromagnetische Wechselwirkung bestimmt. Nukleonen: Protonen und Neutronen – Und dann noch das Neutrino Das Proton ist auch der Atomkern des leichteren Wasserstoff-Isotops. Es hat Spin ½, Ladung +1, Baryonenzahl B = 1, L = 0, Ruhemasse ~938,3 MeV/c2 Das Neutron wurde 1932 entdeckt. . Es hat Spin ½, Ladung Null (aber ein starkes magnetisches Moment), B = 1, L = 0, Ruhemasse ~939,6 MeV/c2 Aus dem Atomkern herausgeholt, ist es nicht stabil, es hat eine Halbwertszeit von einer Viertelstunde. Das heißt, aus einer großen Menge von Neutronen ist nach 15 Minuten circa die Hälfte zerfallen. Sein Zerfall ist ein Beta-Zerfall, wie er auch bei instabilen Kernen auftritt. Es zerfällt in ein Proton, ein Elektron und ein Elektron-Anti-Neutrino. Das Neutrino wurde von Pauli ~1932 vorausgesagt, um die Erhaltungssätze von Energie und Drehimpuls beim Beta-Zerfall zu retten. Mitte der Fünfzigerjahre wurde es dann nachgewiesen. Es hat Spin ½, Ladung Null, B = 0, L = 1, Ruhemasse ~? Das Zusammenhalten der Nukleonen im Atomkern wird durch die kurzreichweitigen Kernkräfte bewirkt. Sie sind Effekte der starken Wechselwirkung. Die Wirkungen dieser Kräfte sind für Protonen und Neutronen nur wenig verschieden. 86 Analog zum Aufbau der Atome kann man für den Aufbau der Atomkerne ein Modell mit einem effektiven Potential bilden, das vom „Nukleonen-Tröpfchen“ erzeugt wird. Wegen der kurzen Reichweite der Kernkräfte ist dieses effektive Potential ein Potentialtopf. In diesen Topf werden dann, unter Berücksichtigung des Pauli-Prinzips, die Nukleonen eingefüllt. Der tiefste Zustand kann von zwei Protonen und zwei Neutronen besetzt werden, jeweils eines mit Spin hinauf, eines mit Spin hinunter. Ist dieser tiefste Zustand besetzt, ist eine „Schale“ aufgefüllt und das System besonders stabil: Ein Alpha-Teilchen = 4He-Kern. (Die Situation ist analog zur Auffüllung von Elektronenschalen, die chemisch inerte Edelgase erzeugt.) Sind schon viele (mehr als 25) Protonen im Kern, ist die elektrostatische Abstoßung zwischen ihnen so stark, dass es energetisch günstiger ist, mehr Neutronen als Protonen im Kern zu haben. Der Potentialtopf wird für die Protonen durch ihre Abstoßung angehoben. Ein anderer Effekt der Coulomb-Abstoßung ist der Aufbau einer Coulomb-Barriere für Protonen rund um den Kern. Es kann daher geschehen, dass die Protonen eine Zeitlang in Zuständen verbringen, deren Energie schon zu hoch ist, als dass sie stabil gebunden wären. Aber zum Entweichen aus dem Kern müssen sie erst die Barriere durchtunneln. Das tun sie gleich in Gemeinschaft, sodass ein -Teilchen heraustunnelt: So geschieht der Alpha-Zerfall mancher instabiler Kerne. Schließlich ist es auch der Coulomb-Abstoßung der Protonen zuzuschreiben, dass Kerne mit Ordnungszahl Z > 92 nicht mehr stabil sind. Up-Quark und Down-Quark 1964 vermutet, seit ~1974 unbestritten. Das u-Quark hat Spin ½, Ladung +2/3, B = 1/3, L = 0, Ruhemasse ~ 4 MeV/c2 Das d-Quark hat Spin ½, Ladung -1/3, B = 1/3, L = 0, Ruhemasse ~ 7,5 MeV/c2 Die Quarks sind durch die starke Wechselwirkung aneinander gebunden. Diese wirkt über „Farb-Ladungen“ der Quarks, blau, grün und rot. Sie können aus diesen Bindungen nicht herausgeholt werden. Größere Abstände zwischen ihnen können nur durch das Hineinstecken von viel Energie erreicht werden. Diese Energie wird dann aber umgewandelt zu Massen von neu entstehenden Teilchen, unter anderem von neuen Quarks. So entstehen dann neue QuarkVerbindungen. Erst „farbneutrale“, Anordnungen können sich vom Rest trennen. Zusammensetzungen der Nukleonen: Proton p = u u d Neutron n = u d d Antimaterie: Zu jedem Teilchen gibt es ein Antiteilchen mit gleichem Spin und gleicher Masse. Alle anderen Quantenzahlen haben die umgekehrten Werte. 87 8.2. Nachweise und Produktion von Teilchen Produktion Die Bausteine der Atome werden durch Ionisierung (mittels Erhitzen oder Bestrahlen) separiert, dann in elektromagnetischen Feldern gebündelt und beschleunigt. In Kernreaktoren werden unter anderem Neutronen und Neutrinos erzeugt, sowie AlphaBeta- und Gammastrahlung (4He-Kerne, Elektronen, hochenergetische Photonen). Um instabile kurzlebige Teilchen oder auch Antiteilchen zu erzeugen, beschleunigt man die stabilen Teilchen und läßt diese auf andere Teilchen treffen. Zur Produktion noch schwererer Teilchen läßt man es nicht bei obigem Vorgang, sondern beschleunigt in einem Folgeverfahren auch die Antiteilchen und läßt Proton gegen Antiproton oder Elektron gegen Positron frontal aufeinander stoßen. Die kinetische Energie kann dann (teilweise) in Masse von neu produzierten Teilchen umgewandelt werden. Übungsaufgaben: Wie groß ist die Geschwindigkeit eines Elektrons, welches eine Energie von 1 GeV hat? Warum ist es ausgiebiger, ein Antiproton gegen ein entgegenkommendes Proton zu schießen, als gegen ein ruhendes? Viele Teilchen werden auch mit der kosmischen Strahlung geliefert. Nachweise Geladene Teilchen, die genügend lange leben hinterlassen direkte Spuren in Nebel-, Blasen-, oder Drahtkammern. Aus der Krümmung der Bahn in einem Magnetfeld kann man auf seinen Impuls schließen, wenn die Masse bekannt ist. Elektrisch neutrale oder kurzlebige Teilchen sind indirekt über ihren Zerfall oder über Resonanz-Effekte bei Streuungen zu beobachten. Eingeschlossene Teilchen machen sich über Jets bei hochenergetischen Streuprozessen bemerkbar. Ein Jet ist ein Bündel von Teilchen, die ungefähr in gleicher Richtung mit ungefähr gleicher Geschwindigkeit fliegen. Im primären Effekt der Streuung entsteht ein Quark oder Gluon mit hoher Bewegungs-Energie relativ zu den Farb-Partnern. In seinem Ausbruchsversuch aus dem Einschluss entstehen alle möglichen anderen Teilchen, die es begleiten und letzten Endes seine Farbe neutralisieren. Ein mögliches Beispiel: Wenn bei Elektron-Positron-Streuung primär ein Quark, ein Antiquark und ein Gluon entstehen, sind im Ende drei Jets zu beobachten. Man könnte sagen, dass man die zusammengesetzten Strukturen „abtastet“. Um in die Strukturen einzudringen, und zum Zwecke einer guten „Auflösung“, müssen die dazu verwendeten Teilchen hohe Energien haben. Rutherfords Entdeckung des Atomkerns durch Beschuss von Goldfolien mit Alphateilchen ist quasi das Paradigma dieser Methoden. 88 8.3. Der Teilchenzoo und das Standardmodell Geschichte der Entdeckungen und Modellbildungen 1927 stellt Dirac ein relativistisches Analogon zur Schrödingergleichung auf. Das führt zur Vorhersage von Antiteilchen. 1931 entdeckt Anderson das Positron, das ist das Anti-Elektron. 1932 entdeckt Chadwick das Neutron In der kosmischen Strahlung werden („Myon“) und („Pion“) gesehen. (Heutige Einordnung: ist aus der zweiten Generation, das Analogon zum Elektron. Die Pi-Mesonen sind Verbindungen von je einem Quark mit einem Antiquark.) Bei den vielen Dutzenden von Teilchen, die mit den Beschleunigern erzeugt werden konnten (inzwischen sind es ca. 300), hat man gewisse Ähnlichkeiten und mögliche symmetrische Anordnungen gefunden, vergleichbar dem Aufspüren des Periodensystems. "Der achtfache Weg", 1961 von Gell-Mann und Ne'eman, mit Anordnung der Teilchen in "Supermultipletts" Auffinden einer Lücke in so einem "Supermultiplett" Vorhersage des - -Teilchens für den noch leeren Platz Nachweis des - -Teilchens 1964 1964 Quarkmodell von Gell-Mann und Zweig. Damals mit den drei Quarks u, d und s. (Dabei ist das s ("strange")-Quark aus der heute bekannten zweiten Generation das Analogon zum d, und - = sss) 1974 Entdeckung des -Mesons. Es ist sehr schwer und für sein großes Gewicht extrem langlebig (10-20 s in seiner Eigenzeit, statt 10-23 s wie andere Teilchen dieses Gewichts) Erklärung als Bindungszustand von c mit c , das bedeutet Entdeckung des bis dahin noch unbekannten c- ("charmed") Quarks (heute als Analogon zum u in der zweiten Generation einzuordnen. Mit dem aus der Höhenstrahlung schon lange bekannten Myon und dem -Neutrino als Leptonen, sowie mit passenden Antiteilchen, ist damit die zweite Generation vollständig.) Allgemeine Anerkennung des Quark-Modells 1980 Identifizierung des b- ("bottom") Quarks bei DORIS in Hamburg. Zusammen mit dem (Tauon) und -Neutrino ist die dritte Generation fast vollständig Vorhersage des t- ("top") Quarks 1995 Nachweis des t mit einer Masse ~174 GeV/c2 beim TEVATRON in Brookhaven Dazwischen lange Suche nach "Zwischenbosonen", die zum Photon analogen AustauschTeilchen für die schwache Wechselwirkung 1983 Nachweis von W+, W- und Zo beim CERN bei Genf. 1984 Nobelpreis für Carlo Rubbia 89 8.4. Wechselwirkungen Dynamik Die spezielle Relativitätstheorie ist zwar für die Physik in großen Maßstäben entwickelt und zuerst auch dort durch Beobachtungen bestätigt worden, aber, wie meistens bei erfolgreichen Theorien, ist bald angenommen worden, dass ihre Gültigkeit universal ist, was sich in allem bestätigt hat. Nur wenn die kinetische Energie jedes Teilchens viel kleiner ist, als seine Ruhe-Energie mc2, dann ist die nichtrelativistische Energieformel brauchbar, mit Ekin = mv2/2 = p2/2m. Schon beim Wasserstoffatom sind relativistische Korrekturen zum einfacheren nichtrelativistischen Modell beobachtbar und auch berechenbar Die Feinstruktur des Spektrums. Bei schweren Atomen sind die relativistischen Effekte noch stärker. (Spin-BahnKopplung, Wechselwirkungen der magnetischen Momente.) Probleme der relativistischen Dynamik: Es gibt keine absolute Gleichzeitigkeit, daher ist die Beschreibung der Kräfte über ein Potential nicht möglich; das würde ja einer momentanen Fernwirkung entsprechen. (Die Newtonsche Physik ist deswegen oft mit philosophischen Argumenten kritisiert worden.) Nur für das Wasserstoffatom läßt sich noch ein halb-relativistisches Modell mit unbeweglichem Kern und Potential bilden. Wegen der großen Energien der Teilchen braucht man zur Beschreibung die relativistische Dynamik, wegen der kleinen Größenordnungen von Abständen die Quantenphysik der Kraftfelder relativistische Quantenfeldtheorie. QED, Quantenelektrodynamik Die quantisierten Wellen des elektromagnetischen Feldes sind die Photonen. Die Wechselwirkungen elektrisch geladener Teilchen geschieht über Ausstrahlung und Einfang von Photonen. Wenn sie nur kurz leben, erlaubt die Unschärferelation ein Abweichen von der üblichen Energie-Impuls-Relation E2 = p2c2 , so als hätten die kurzlebigen Photonen eine Ruhemasse ungleich Null. Verblüffenderweise bewirkt so ein Hin- und Her-laufen von Photonen eine Anziehung entgegengesetzter Ladungen. Auch für die geladenen Teilchen erlaubt die Unschärferelation ein Abweichen von der Gleichung E2 = m2c4 + p2c2 zwischen Einfang und Aussendung eines Photons, so als hätten die Elektronen oder sonstige geladene Teilchen in der Zwischenzeit eine andere Ruhemasse. Durch diese kurzzeitig erlaubten Massenänderungen sind Drei-Teilchen-Kopplungen möglich, wie eben beispielsweise Aussenden oder Einfangen eines Photons durch ein Elektron. Denn Energie und Impuls sind bei jedem solchen Ereignis strikt erhalten. Graphisch stellt man so eine Kopplung durch einen Vertex (das ist ein Knotenpunkt) in einem FeynmanGraphen dar. Zum Beispiel für die Compton-Streuung: Die durchgezogene Linie stellt symbolisch die Raum-Zeit-Bahn des Elektrons dar (Zeit verläuft von links nach rechts), die gewellten Linien sind die Photonen. Im ersten Vertex wird das Photon vom Elektron „verschluckt“, im zweiten wird eines ausgesandt. 90 Es gibt Rechenregeln für die Wahrscheinlichkeitsamplituden solcher Prozesse. So wie ein Teilchen im Interferometer verschiedene Wege nehmen kann, und wie das Endergebnis aus der Überlagerung der entsprechenden Wahrscheinlichkeitswellen bestimmt wird, so wird hier das Endergebnis mit der Überlagerung, der Aufsummierung der Wahrscheinlichkeitsamplituden aller möglichen Feynman-Graphen berechnet. Eine überraschende Folge der relativistischen Theorie ist die Möglichkeit, einen Vertex beliebig in der Raum-Zeit zu drehen, um andere mögliche Vertices zu erhalten. Feynman hat das so interpretiert, dass ein in der Zeit rückwärts laufendes Teilchen gleich dem Antiteilchen ist. Tatsächlich ist die Existenz von Antiteilchen zuerst von Dirac als notwendige Konsequenz einer relativistischen Wellengleichung erkannt und vorausgesagt worden. Starke Wechselwirkung In Analogie zum Photon findet man als Teilchen des quantisierten Gluonfeldes die Gluonen. So wie die Photonen an den "elektromagnetischen Strom" (so nennt man die RaumZeit-Trajektorien elektrisch geladener Teilchen) koppeln, so koppeln die Gluonen an den Farb-Strom der Quarks. Sie sind selbst farbig und daher auch eingeschlossen. Die Leptonen haben keine Farbladungen und daher keine starken Wechselwirkungen. Schwache Wechselwirkung Das quantisierte Feld der schwachen Wechselwirkung gibt drei massive kurzlebige Bosonen: W+, W- und Zo . Die W-Bosonen sind elektrisch geladen, das Z-Boson ist elektrisch neutral. Da die W-Bosonen geladen sind, transportieren sie an jedem Vertex eine elektrische Ladung zu dem anderen Teilchen oder von ihm weg und verändern es entsprechend: Elektronen werden in Elektron-Neutrinos umgewandelt oder umgekehrt, downQuarks werden in up-Quarks umgewandelt oder umgekehrt. Bei den Quarks kann auch eine Umwandlung in eine andere Generation erfolgen. In den Feynman-Graphen, die den Beta-Zerfall darstellen, ist das Anti-ElektronNeutrino gleich dem in der Zeit rückwärts laufenden Elektron-Neutrino: Weitere Literatur: Berkeley Physik Kurs 4 Pedro Waloschek: Besuch im Teilchenzoo David Griffiths: (Einführung in die) Elementarteilchenphysik. Kapitel 1 und 2 91 92 9. Schwerkraft und Universum Literatur: P.Tipler, Ältere Auflagen: Kapitel 34.11 / 42.2 / 42.6 – 42.8 9.1. Gravitation 9.1.1. Einsteins Ziel und Ausgangslage Kurzfassung der Allgemeinen Relativitätstheorie Die Raum-Zeit ist gekrümmt. Die Ausmaße der Krümmungen werden lokal von der Materie bestimmt. So wie im Kleinen die Raum-Zeit fast flach ist, so gelten lokal alle Gesetze der Physik wie in einer flachen Raum-Zeit. („Lokale Inertial-Systeme“) Kräftefreie Teilchen bewegen sich lokal geradlinig gleichförmig. Die Gravitation zählt dabei nicht mehr als Kraft. Sie wirkt über die Raum-ZeitKrümmung. „Frei fallende“ Körper sind kräftefrei. Die träge Masse ist identisch mit der schweren Masse. Einsteins Ausgangsposition In der Relativitätstheorie gibt es keine absolute Gleichzeitigkeit. Daher sind Fernwirkungen nicht möglich. Jede physikalische Einwirkung muss von einem Punkt der Raum-Zeit zu einem anderen hin erst transportiert werden. Ein „Potential“ kann es nur noch näherungsweise in fast stationären Systemen geben, wo sich alle Körper relativ langsam bewegen. Bei der elektromagnetischen Wechselwirkung geschieht der Transport über Wellen des elektromagnetischen Feldes. Bei einer ruhenden Ladung gibt es ein elektrisches Feld, wie man es mit dem Coulomb-Potential berechnen kann. Wird diese Ladung dann plötzlich bewegt, so ändert sich das Feld in größerer Entfernung zuerst nicht, sondern erst dann, wenn die von der beschleunigten Ladung ausgehende Welle eintrifft. Was ist nun bei der Gravitation die Übertragungsweise? Die Äquivalenz von träger und schwerer Masse ist zwar jedem von Kindheit an so vertraut, dass sie selbstverständlich scheint, aber bei genauerem Nachdenken ist sie es nicht mehr. (Newton hat experimentelle Messungen durchgeführt, um diese Äquivalenz zu überprüfen.) Die träge Masse definiert den Widerstand gegen Kräfte. Die schwere Masse definiert die Wechselwirkung mit anderen schweren Körpern, so wie die elektrische Ladung die Wechselwirkung mit anderen geladenen Körpern definiert. Die elektrische Ladung ist natürlich etwas ganz anderes als die träge Masse. Die schwere Masse ist aber von der trägen Masse nicht zu unterscheiden, obwohl in der klassischen Physik kein Grund für die Äquivalenz vorliegt. Die Newtonsche Gravitationstheorie könnte sehr gut mit verschiedenen Massenbegriffen auskommen. Für diese Äquivalenz muss es doch einen tieferen Grund geben! 93 9.1.2. Beobachtete Spezial-Effekte der ART Periheldrehung des Merkur Die Keplerschen Ellipsenbahnen haben dauernd feststehende Achsen. Beim Merkur sind aber Abweichungen zu beobachten. Das „Perihel“, das ist der sonnennächste Punkt der Bahn, ist bei jedem Umlauf um einen kleinen Betrag verschoben. Einen Teil dieser Verschiebungen kann man mit der klassischen Mechanik erklären: Merkur und Sonne sind nicht punktförmig, auch nicht genau kugelförmig und die anderen Planeten haben einen gewissen Einfluss auf die Bahn. Diese „Störungen“ kann man sehr genau berechnen. Es bleibt dann immer noch eine Differenz zur beobachteten Bahn. Die volle Erklärung dieser Periheldrehung konnte Einstein mit seiner Theorie geben. Gekrümmte Lichtstrahlen im Schwerefeld In der allgemeinen Relativitätstheorie werden auch Lichtstrahlen durch die Gravitation beeinflusst. So wie an der Sonne vorbeifliegende Körper gekrümmte Bahnen haben, auch wenn die Körper sehr schnell sind, so sind auch Lichtstrahlen gekrümmt; je näher zur Sonne, desto stärker. Dieser vorausgesagte Effekt wurde bei einer Sonnenfinsternis 1922 beobachtet. Abbremsung der Zeit im Schwerefeld In der Nähe von schweren Körpern gehen die Uhren „langsamer“. Das ist natürlich nicht aus der Nähe zu beobachten, sondern nur im Vergleich mit weiter entfernten Zeitmessern. Das Hafele-Keating-Experiment hat 1971 diese Voraussage bestätigt: Zu den Effekten der SRT (=spezielle Relativitätstheorie), die den Unterschied zwischen Ost- und Westflug betreffen, kommt noch ein Gravitationseffekt: In der Höhe von einigen tausend Metern zeigen Uhren nach der entsprechenden Anzahl von Stunden um 160 Nanosekunden mehr an abgelaufener Eigenzeit an, als Uhren auf der Erdoberfläche. Gravitations-Rotverschiebung Wenn die Bahn eines Körpers kräftefrei von einem schweren Gravitationszentrum (z.B. Erde) fortführt (z.B. auf der Erde in die Höhe steigt), dann verliert dieser Körper, von weiter weg aus beobachtet, Energie, und zwar proportional zu seiner Masse. Nach dem Äquivalenzprinzip der SRT hat auch ein Photon eine Masse (u.zw. /c2 ). Daher muss auch ein Photon beim Wegbewegen von einem Gravitationszentrum Energie verlieren. Die Frequenz der Oszillation wird kleiner, sichtbares Licht wird im Spektrum in die Richtung zum roten Ende hin verschoben. Genau gemessen wurde dieser Effekt erstmals 1965 (Pound + Snider) auf der Erde, mit Hilfe des Mössbauer-Effekts. Der Höhenunterschied war dabei 20m. Die Frequenzunterschiede sind identisch mit den Gangunterschieden von Uhren in verschiedenen Höhen. Einem Beobachter, der von oben aus die Vorgänge tiefer unten ganz genau betrachtet, erscheint alles langsamer; die Uhren genauso wie alle Schwingungen, und es bleiben alle Phasenrelationen unverändert. Expansion des Universums Wird in 9.2. noch gebracht werden. 94 9.1.3. Raum-Zeit-Krümmung (einfache Beispiele) Hier ist immer von „intrinsischer“ Krümmung die Rede, wie sie zum Beispiel ein zweidimensionales Wesen auf einer Kugeloberfläche beobachten könnte. Jede mögliche mathematische „Einbettung“ in höherdimensionale Räume ist dabei ohne Bedeutung für die Physik. Krümmung einer Kugeloberfläche Bewegt man sich zum Beispiel auf dem Äquator vom Punkt A am Greenwich-Meridian um 4000 km nach Norden, so erreicht man Punkt C. Bewegt man sich um 10 000 km vom Punkt A nach Westen, erreicht man Punkt B. Vom Punkt B aus dann wieder 4000 km genau nach Norden geht es zum Punkt D. Alle diese Strecken sind so gerade, wie sie auf einer Kugeloberfläche sein können, und die Winkel sind rechte Winkel. Auf einer flachen Ebene hätte man drei Seiten eines Quadrats, die Entfernung von C nach D müsste wieder genau dieselbe sein, wie von A nach B. Auf der Erdoberfläche ist sie aber kürzer als 10 000 km (wieviel?). Dieser Effekt gibt ein Maß der inneren Krümmung einer Fläche. (Bei der Kugeloberfläche ist die Krümmung positiv. Negativ gekrümmte Flächen sind z.B. die Sattelflächen.) Raum-Zeit-Krümmung Wir stellen uns ein Raum-Zeit-Diagramm vor, in dem die Punkte auf einer senkrechten Geraden (von der Erdoberfläche aus in die Höhe) und zu verschiedenen Zeiten aufgetragen sind. Bei Höhe h = 0 zur Zeit t=0 ist Raum-Zeit-Punkt (ein Ereignis) A. In einer anderen Höhe, z. B. h = 1m, ebenfalls zur Zeit t = 0 (gemessen im „ruhenden“ Labor, die Uhr in Höhe 0), ist Ereignis C. Nach einer Sekunde ist in der Höhe 0 das Ereignis B. Gleichzeitig mit B ist in der Höhe von 1m das Ereignis D. Die (fiktive) Uhr in Höhe von 1m hat aber von A bis D mehr Eigenzeit gemessen, als eine Sekunde! (Das Labor könnte auch am Nordpol stehen, sodass es keine Effekte der Erddrehung gibt.) Es ist nun so, dass die Weltlinien, die in konstanter Höhe von A nach B bzw. von C zu D führen, keine „geodätischen“ Linien der ART sind. Aber dieses Beispiel zeigt eben, dass die klassische Vorstellung der flachen Raum-Zeit nicht haltbar ist. Und auch für die „geodätischen“ Verbindungen der Punkte ist zwischen C und D mehr Eigenzeit als zwischen A und B. 9.1.4. Erklärung der klassischen Gravitation Gerade Linien und Geodäten Die kürzeste Verbindung zweier Punkte im flachen Raum ist die Gerade. Als Analogon dazu gibt es in gekrümmten Räumen die geodätischen Linien. In einer Kugeloberfläche sind es die Großkreise, die geodätische Linien sind. Auf der Erdoberfläche zum Beispiel der Äquator und die Meridiane. (Die Geodäten können auch lokal definiert werden, als diejenigen Linien, die in lokalen Projektionen auf tangentiale Flächen, „Karten“, am wenigsten von Geraden abweichen. Das ergibt dann Differentialgleichungen für den Verlauf.) Die Bahn eines kräftefreien Körpers in der SRT ist dadurch zu charakterisieren, dass sie Ereignisse in der Raum-Zeit so verbindet, dass über sie die Eigenzeit am längsten ist! Das Zwillingsparadoxon zeigt diese Tatsache für den Fall von zwei Ereignissen, die in einem ausgewählten Bezugssystem am selben Ort sind. (Abflug und Wiederkehr des reisenden Zwillings) Die Eigenzeiten sind nun unabhängig vom Bezugssystem. Die Transformation des Standardbeispiels auf ein anderes Inertialsystem ändert nichts an den Eigenzeiten. Also auch 95 der Zwilling, der sich geradlinig gleichförmig bewegt (z.B. in einem Raumschiff), hat bei der Wiederkehr des unsteteren Zwillings, der das Raumschiff verlässt und seine Geschwindigkeiten ändert, in jedem Falle mehr Eigenzeit erlebt. Diese Charakterisierung gilt nun für die „geodätischen“ Bahnen in der gekrümmten Raum-Zeit. Die Bahn eines kräftefreien Körpers ist die Verbindung von Ereignissen mit der längsten Eigenzeit. Wenn ein Körper senkrecht in die Höhe geworfen wird und wieder herabfällt, dann ist bei seiner Rückkehr zum Ausgangspunkt für ihn mehr Eigenzeit vergangen, als für einen Körper, der dort in gleicher Höhe geblieben ist. Das ist ein Effekt des „schnelleren“ Verlaufs der Eigenzeit in größeren Höhen. Ein Cartoon-Modell Statt unter allen Weltlinien von A nach B nach denen mit der längsten Eigenzeit zu suchen, suchen wir nur in einer einparametrigen Schar von Weltlinien, die aus zwei Stücken zusammengesetzt sind. Jedes dieser Stücke ist (in klassischer Sichtweise) gerade und wird mit konstanter Geschwindigkeit v durchlaufen. Der Knick-Punkt K ist bei Erdzeit T, wobei A bei Erdzeit Null, B bei Erdzeit 2T ist. Variabel ist, mit Variation von v, nur seine Höhe z = vT. In jeder Höhe h über den Endpunkten läuft die Zeit „schneller“ als unten. Mit der Gravitations-Beschleunigung der Erde, g dth = ( 1 + gh/c2 ) dt Für den Körper auf der Weltlinie kommt noch ein Faktor der SRT zur „Verzögerung“ der Eigenzeit dazu: d = -1(v)(1 + gh/c2 ) dt ~ (1 v2/2c2)(1 + gh/c2 ) dt ~ (1 + gh/c2 v2/2c2) dt Auf der Linie von A nach K ist h(t) = vt und die integrierte Eigenzeit wird A,K = (1 + gvT/2c2 v2/2c2)T Für die Summe über beide Wegstrecken: = (v) = (2 + gvT/c2 v2/c2)T Das Maximum, die längste Eigenzeit, wird bei v = gT/2 angenommen. Das entspricht einem Aufstieg bis zur Höhe z = gT2/2. Ein Cartoon-Modell des freien (Aufstiegs und) Falls! 9.1.5. Rotverschiebung und schwarze Löcher Wenn ein Teilchen zu einem sehr massiven Gravitationszentrum mit Masse M „hinunter“ fällt, dann scheint seine Bewegung, von außen betrachtet, zunächst beschleunigt. Dann tritt aber im „Schwerefeld“ die relative Verzögerung der Eigenzeit auf. Sie wird schließlich überwiegend, sodass das Teilchen von außen gebremst scheint, bis zum Beinahe-Stillstand vor dem Schwarzschild-Radius R = 2GM/c2 . Dementsprechend wird die Rotverschiebung senkrecht ausgesandter Photonen extrem, und nicht senkrecht ausgesandte fallen im Bogen wieder zurück: Es gibt praktisch nichts mehr zum Beobachten. 96 9.2. Globale Raum-Zeit-Struktur 9.2.1. Größenordnungen, Expansion Unsere Sonne ist 30 000 Lichtjahre vom Zentrum unserer Milchstraße entfernt. Unsere Galaxie umfasst 1011 Sterne. Die Sonne bewegt sich mit einer Geschwindigkeit von 250 km/s auf einer Kreisbahn um das Zentrum, die Umlaufzeit ist 2,3108 Jahre. Berechnet man die Masse, die notwendig ist, um eine solche Kreisbahn zu verursachen, und vergleicht sie mit der Masse der beobachteten Objekte, findet man eine Diskrepanz: 90% der benötigten Masse fehlt! Dieses Problem der fehlenden Masse besteht auch bei den anderen Galaxien. Das beobachtbare Universum beheimatet 1011 Galaxien. Das Licht von den weit entfernten zeigt eine Rotverschiebung, die – über den Dopplereffekt berechnet einer Fluchtgeschwindigkeit v entspricht. Sie ist proportional zur Entfernung r: v = Hr H ist die Hubble-Konstante, H = (23km/s)/106 Lichtjahre Das entspricht einer Zeitdauer H–1 ~ 1010 Jahre, und einem Beobachtungsradius von ~ 1010 Lichtjahren. Beobachtbare Objekte in annähernder Entfernung bewegen sich beinahe mit Lichtgeschwindigkeit von uns fort und die von ihnen ausgesandte Strahlung ist extrem rotverschoben. Das bedeutet, dass vor ~ 1010 Jahren alle beobachtbaren Objekte gemeinsam eine sehr dichte Menge von Materie geformt haben, die im Urknall mit der Expansion begonnen hat. Über den genauen Wert der Hubble-Konstante gibt es noch Diskussionen. Die Unstimmigkeiten beziehen sich dabei auf die Bestimmung der Entfernungen von Galaxien, die unter anderem auf dem Umweg der Helligkeitsmessung von bestimmten Typen von Sternen verläuft, von denen man, aus astrophysikalischen Gründen, eine konstante absolute Helligkeit erwartet. Aus allen Richtungen kommend ist die kosmische Hintergrundstrahlung zu beobachten. Das ist elektromagnetische Strahlung, wie sie ein Körper mit der Temperatur von 2,7 K ausstrahlt. Die Hintergrundstrahlung ist „zufällig“ beim Test von Funk-Empfangs-Geräten gefunden worden; sie war aber schon von G. Gamow vorausgesagt gewesen. Sie stammt aus einem früheren Alter des Universums ( 300 000 Jahre), also aus einer Gegend hinter allen beobachteten Sternen, und ist extrem rotverschoben. Das bedeutet, dass sie sehr abgekühlt ist. Zur Zeit ihrer Entstehung hatte sie eine Temperatur von ca. 4 000 Kelvin. 97 9.2.2. Der Urknall Schon mit der klassischen Theorie der Gravitation erscheint das Problem der Stabilität des Universums: Alle Sterne ziehen einander an. Ist ihre Zahl endlich, dann fallen sie entweder alle zusammen, oder sie laufen auseinander, und zwar seit dem Urknall. Ist ihre Zahl unendlich, dann erscheinen Probleme mit den Unendlichkeiten. Mit der allgemeinen Relativitätstheorie als Theorie der Gravitation ändert sich dabei vor allem das Prinzip: Der Urknall erfolgte nicht in Raum und Zeit, sondern formte die Materie gemeinsam mit der Raum-Zeit. Das Universum, welches heute einen Durchmesser von 1010 Lichtjahren (oder mehr) hat, hatte dabei wohl keinen größeren Durchmesser als die „Planck-Länge“ . = (Gh / c3)1/2 = 10–35 m In diesen Größenordnungen müsste eine - heute noch weitgehend unbekannte – „Quantengravitation“, ja sogar noch mehr, die „Theory of everything“ gelten. Dabei wirken vielleicht alle Wechselwirkungen in vereinheitlichter Form. Die Entwicklungsgeschichte des Universums wird dann, nach der „Abkopplung“ der Gravitation von den anderen Wechselwirkungen, durch die Einstein-Gleichungen geregelt. Energiedichte und Druck der Materie bestimmen die Krümmung der Raum-Zeit, die Expansion. Eine neuere Erkenntnis ist die Auswirkung einer wahrscheinlich erfolgten Abkopplung der elektromagnetischen von der schwachen Wechselwirkung, eine Art von Phasenübergang bei den Quantenfeldern. Die Änderung von Druck und Energiedichte führte dabei zu einer exponentiellen „Inflation“ des Universums. Damit ist die beobachtete Isotropie zu erklären. Die Frage, was vor dem Urknall war, ist im Rahmen der Physik vermutlich so bedeutungslos, wie die Frage, was südlich vom Südpol ist. Weiterführende Literatur zu Schwerkraft und Universum (geordnet nach Anspruch bez. Mathematik): Kip S. Thorne: Gekrümmter Raum und verbogene Zeit J.A. Wheeler: Gravitation und Raumzeit C.J. Hogan: The Little Book of the Big Bang R. und H. Sexl: Weiße Zwerge – schwarze Löcher Wolfgang Rindler: Essential Relativity 98 99 INHALT von TEIL 1 1. EINLEITUNG 1 Die Prinzipien dieser Vorlesung / W as ist die Physik? / Entwicklung der Begriffe Messungen Theorien / Teile Ganzheit / Modelle Wirklichkeit ORIGINAL – TEXTE von Max Planck und Wolfgang Pauli Entstehung der modernen Physik 8 1 2 5 2. DAS RELATIVITÄTSPRINZIP (KLASSISCH); 2.1. Koordinaten 2.1.1 Die Menge der Ereignisse; Raum-Zeit-Diagramme 2.1.2. Die Zeit 2.1.3. Der Raum 2.1.4 Die Raum-Zeit 2.2. Wechsel des Bezugssystems 2.3. Ein Modell des expandierenden Universums (klassisch) ORIGINAL – TEXTE von Sir Isaak Newton 9 9 9 10 11 12 14 15 16 3. SPEZIELLE RELATIVITÄTSTHEORIE 3.1. Die Raum-Zeit; Kinematik 3.1.1. Das Relativitätsprinzip und die Elektrodynamik 3.1.2. Neue Axiome für lokale Inertialsysteme 3.1.3. Die Relativität der Gleichzeitigkeit 3.1.4. Die Eigenzeit 3.1.5. Geschwindigkeitstransformation 3.2 Dynamik 3.2.1. Wechselwirkungen 3.2.2. Energie und Impuls 3.2.3. Die Äquivalenz von Masse und Energie Anhang: Das Hafele-Keating Experiment ORIGINAL – TEXT von Albert Einstein 17 17 17 18 19 21 25 26 26 26 28 29 30 4. QUANTEN UND WELLEN-NATUR DER MATERIE 4.1. Quanten des Lichts, Photonen Eine Science-Fiction-Geschichte 4.1.1. Der Lichtelektrische Effekt 4.1.2. Die Lichtquanten-Hypothese 4.1.3. Lichtquanten als Teilchen: Photonen 4.1.4. Elastische Streuung am Elektron: Compton-Streuung 4.2. Wellen-Natur massiver Teilchen De Broglie-Wellen 4.3. Interferometrie mit Neutronen Noch eine Science-Fiction-Geschichte 4.3.1. Prinzip des experimentellen Aufbaus 4.3.2. Die Theorie zur Erklärung der Messergebnisse 4.4. Die Interpretation 4.4.1. Wahrscheinlichkeiten 4.4.2. Erwartungswerte und Unschärfen 4.4.3. Einige Bemerkungen 4.A.1. Begriffe aus der Theorie der Wellen 4.A.2. Neutroneninterferometer mit Phasenschieber 4.A.3. Messungen ORIGINAL – TEXT von Albert Einstein 48 31 31 31 31 32 33 34 35 35 37 37 37 38 39 39 40 41 43 44 45 46 INHALT von TEIL 2 5. DIE ZEITENTWICKLUNG 49 5.1 Das Superpositionsprinzip 49 5.2 Wellengleichung für freie Teilchen 49 5.3. Schrödingergleichung für die Zeitentwicklung 53 5.4. Quantenphänomen Tunneleffekt 54 6. QUANTISIERTE ENERGIE 59 6.1. Ein Teilchen im Potentialtopf 59 6.2. Allgemeine Schrödingergleichung 62 6.3. Der harmonische Oszillator 64 7. ATOME 67 7.1. Atomistik 67 7.2. Modelle zur Berechnung 7.2.1. Das Wasserstoff-Atom 7.2.2. Mehr-Elektron-Atome 68 68 68 7.3. Drehimpuls eines Elektrons 7.3.1. Bahn-Drehimpuls 7.3.2. Zustände mit =0 und =1 7.3.3. Spin 69 69 70 71 7.4. Quantenzahlen und Energie-Spektrum 7.4.1. Das Wasserstoff-Atom 7.4.2. Grundzustand des H-Atoms 7.4.3. Das Schalenmodell für Mehr-Elektron-Atome 7.4.4. Das Pauli-Prinzip für Fermionen 7.4.5. Strahlungsspektren 72 72 73 74 75 76 7.5. Periodensystem der Elemente 76 7.A. Stabile und stationäre Zustände 78 8. ELEMENTARTEILCHEN 79 8.0. Eine Erzählung 79 8.1. Bausteine der Materie, 86 8.2. Nachweise und Produktion von Teilchen 88 8.3. Der Teilchenzoo und das Standardmodell 89 8.4. Wechselwirkungen 90 9. SCHWERKRAFT UND UNIVERSUM 93 9.1. Gravitation 9.1.1. Einsteins Ziel und Ausgangslage 9.1.2. Beobachtete Spezial-Effekte der ART 9.1.3. Raum-Zeit-Krümmung (einfache Beispiele) 9.1.4. Erklärung der klassischen Gravitation 9.1.5. Rotverschiebung und schwarze Löcher 93 93 94 95 95 96 9.2. Globale Raum-Zeit-Struktur 9.2.1. Größenordnungen, Expansion 9.2.2. Der Urknall 97 97 98 100