Abhandlung

Werbung
- Kapitel 1 Prolog: Eine kleine Vorgeschichte der Zeiten
Seit frühester Menschheit ist es Ziel die Zusammenhänge unserer Umwelt zu verstehen,
Entwicklungen vorherzusagen und die Geheimnisse der Natur für den Menschen nutzbar zu
machen.
Das Verständnis für die Natur zu stärken – diesem Ziel haben sich Weltweit Wissenschaftler, vom
Altertum bis in die Gegenwart, verschrieben. Die Anzahl der Wissenschaftler die aktuell forschen
ist größer als die Summe aller Wissenschaftler in den Jahrtausenden zuvor.
Große wissenschaftliche Leistungen alter Völker
Ein Beispiel für den Forscherdrang der Menschheit ist die Mathematik und Astronomie. Auch wenn
die Theorien in diesem Gebiet zunächst eher einen mystischen Hintergrund hatten, so gelten die
Ergebnisse teilweise bis heute. Exemplarisch sei hier die Lehre der Pythagoreer erwähnt. Die nach
dem griechischen Philosophen Pythagoras (570 – 500 v. Chr.) genannte Vereinigung versuchte
unter anderem mit Hilfe der Mathematik die von Gott geschaffene Welt zu erklären. Grundlegende
Erkenntnisse im Bereich der Primzahlen und anderer Bereiche der Zahlentheorie waren das
Ergebnis dieser Bemühungen. Heute sind Primzahlen elementare Grundlage im Bereich der
Kryptographie. Der Satz des Pythagoras (a²+b²=c²) hingegen trägt zwar seinen Namen stammt
jedoch nicht aus der Feder des berühmten griechischen Philosophen. Er war schon lange vor seiner
Zeit bekannt: Die alten Babylonier sollen ihn schon über 1000 Jahre vor den Pythagoreern
angewendet haben.
Auch die Pyramidenbauten des alten Ägypten zwischen 2700 und 1000 v.Chr. sind nicht nur
Zeugnis einer ausgefeilten Baukunst und eines bewundernswerten Organisationstalentes, sondern
auch Ausdruck fundierter naturwissenschaftlich-mathematischer Kenntnisse. Es existieren
Theorien, wonach diese Pyramiden sogar einem himmlischen Bauplan gleichen. Wenn man sich die
Positionen der Pyramiden betrachtet und dieser Landkarte eine Sternenkarte gegenüberstellt (in der
man zuvor die Sternenkonstellationen der entsprechenden Bauepoche zurückgerechnet hat) so stellt
man fest, dass die Anordnung gewisser Sterne im Sternbild Orion identisch ist mit der Anordnung
der drei großen Pyramiden von Gise (Giza) (Orion-Theorie nach Robert Bauval (1994)). Auch wenn
diese Theorie umstritten ist, so zeigt sich immer wieder wie gut die astronomischen Kenntnisse
vieler alter Völker waren. Die schon oben erwähnten Pythagoreer waren der Auffassung, dass die
Erde eine Kugel sei und dass sich das Weltall mit Hilfe der Zahlentheorie exakt beschreiben ließe
(Theorie der Sphärenmusik). Das berühmte Weltkulturerbe Stonehange im Südwesten Englands ist
ein weiteres Sinnbild ausgefeilter naturwissenschaftlicher Kenntnisse: Dieses zwischen 2000 bis
1500 v. Chr. erbaute Monument war, so die Theorie, in der Lage Sommer- und Wintersonnenwende
und sogar Sonnen- und Mondfinsternisse vorherzusagen.
Dieser Ausflug in die Geschichte der Wissenschaft sollte eines deutlich machen: Schon früh kamen
Menschen auf die Idee, dass natürliche Vorgänge bestimmten (mathematischen) Gesetzen
gehorchen. Nichts erfolgt willkürlich sondern nach Plänen, welche man in Formeln
versinnbildlichen kann.
Wissenschaft der Renaissance
Natürlich war die wissenschaftliche Forschung keine geradlinige Erfolgsgeschichte. Betrachtet man
die historische Entwicklungen, so gibt es immer wieder Rückschläge. Dies kann man leicht sehen,
wenn man sich vor Augen führt, dass bereits die Pythagoreer dachten die Erde sei eine Kugel. Aber
noch zur stark kirchlich geprägten Zeit des Kolumbus in Europa wurde geglaubt man falle von der
Seite 1 von 83
Copyright Stefan Frank
Erdscheibe, wenn man nur weit genug auf das Meer hinausführe.
Eine Wende in diesem kirchlich geprägten Denken Europas brachten Untersuchungen der Gestirne
die der biblischen Auffassung bezüglich der Erde und des Universums strikt entgegenliefen.
Nikolaus Kopernikus (1473-1543) rückte die Erde aus dem Zentrum des Universums in eine
unbedeutende Randposition – sie ist nur ein Planet von vielen der die Sonne umkreist. Johannes
Kepler (1571-1630) trug seinen Teil dazu bei als er erkannte, dass alle Planeten nicht die göttlich
perfekten Kreisbewegungen vollziehen sondern elliptische Umlaufbahnen um die Sonne
beschreiben. Einen großen Anteil an dem Niedergang der kirchlichen Lehre als einzig wahre
Wissenschaft trägt der italienische Mathematiker Galileo Galilei (1564-1642). Er entdeckte mit
Hilfe eines Fernrohres, dass der Jupiter von anderen Planeten umkreist wird. Diese Jupitermonde
waren Beweis dafür, dass nicht zwangsläufig alle Planeten die Erde umkreisen müssen, wie man ja
dachte – die Erde ist nicht Zentrum des Universum womit die Theorie des Kopernikus gestärkt
wurde. Neben den bedeutenden Entdeckung Galileis liegt seine weitere große Leistung in der
Einführung der wissenschaftlichen Methodenlehre: Beobachtung, Aufstellung einer Theorie unter
Verwendung mathematischer Formeln, bestätigen dieser Theorie anhand weiterer Experimente.
Dieses Vorgehen klingt heute selbstverständlich, war es zu seiner kirchlich-dogmatisch geprägten
Zeit aber keineswegs.
Das 16. Jahrhundert (Zeit der Renaissance) war geprägt von einem Niedergang kirchlicher
Autorität. Der Fortschritt im Bereich der Astronomie war ebenso Zeichen hierfür wie die
wissenschaftlichen Aktivitäten auf dem Gebiet der Medizin. So führte der belgische Arzt Andreas
Vesalius (1514-1564), ungeachtet der Kritik, Obduktionen an Leichen durch und gewann
grundlegende anatomische Kenntnisse. Man kann wahrscheinlich nicht behaupten, dass die
Naturwissenschaften zu einer Art neuen Religion geworden waren aber sie etablierten sich als
eigenständige und von der Kirche weitestgehend unabhängige Denkrichtung.
Vor diesem Hintergrund muss man die wissenschaftliche Denkweise der zukünftigen Jahrhunderte
betrachten – man schrieb der Wissenschaft eine gewisse Allmacht zu – alles und jedes ist
berechenbar, man muss nur die Gesetze finden. Diese Denkweise erfuhr einen weiteren Auftrieb
durch einen Mann der sicherlich mit Recht als der Begründer der klassischen Physik bezeichnen
werden kann: Sir Isaac Newton (1643-1727).
Newton begründet die klassische Physik
Wahrscheinlich ist jedem die berühmte Geschichte bekannt, wonach Newton eines Tages unter
einen Apfelbaum gesessen habe und durch einen herunterfallenden Apfel am Kopf getroffen worden
sein soll. Ob diese Geschichte wirklich stimmt sei dahingestellt, Fakt ist die Erkenntnis, die Newton
1687 in seinem Werk „Philosophiae Naturalis Principia Mathematica“ veröffentlichte: Die
Schwerkrafttheorie. Plötzlich konnte man Planetenbewegungen relativ exakt berechnen und
erklären. Dies war ein Meilenstein der Forschung, nachdem vorher schon die Mathematik in höhere
Sphären aufgebrochen war: Newton und der deutsche Mathematiker Gottfried Wilhelm Leibniz
(1646-1716) hatten die Infinitesimalrechnung begründet (leidgeprüften Schülern besser unter
Integral- und Differentialrechnung bekannt). Damit war es nun möglich jede beliebige Fläche genau
zu berechnen und mit Unendlichkeiten in der Mathematik besser umzugehen – viele mathematische
Probleme konnten nun endlich einer Lösung zugeführt werden.
Die folgenden beiden Jahrhunderte waren von weiteren wissenschaftlichen Erfolgen geprägt: In der
Physik wurde die Thermodynamik (wichtiges Teilgebiet der Wärmelehre) begründet, James Clerk
Maxwell (1831-1879) erkennt die Äquivalenz zwischen Magnetismus und Elektrizität, Georg
Simon Ohm (1787-1854) stellt wichtige Grundprinzipien des Stromflusses fest (Ohm'sches Gesetz
bei Widerständen). Aber auch die Chemie machte Fortschritte: Auf Antoine Laurent de Lavoisier
(1743-1794) gehen eine Reihe wichtiger Erkenntnisse zurück, so prägte er den Elementebegriff, als
Stoff, der nicht in weitere Bestandteile aufgesplittet werden kann. Er stellte den Grundsatz der
Seite 2 von 83
Copyright Stefan Frank
Masseerhaltung bei chemischen Reaktionen auf (weder verschwindet Masse bei Reaktionen noch
kommt Masse unbeteiligter Stoffe hinzu) und entdeckte die Bestandteile des Wassers: Wasserstoff
und Sauerstoff. 1827 schafft es Friedrich Wöhler den organischen Harnstoff künstlich herzustellen
und begründet so die organische Chemie. Die physikalische Chemie versucht Reaktionen mit
physikalisch-mathematischen Gesetzen zu erklären. 1898 schaffen es Marie und Pierre Curie das
radioaktive Radium zu isolieren,... Viele weitere Beispiele könnten hier aufgeführt werden vom
medizinischen Fortschritt ganz zu schweigen, man denke nur an die Entdeckung der
krankheitserregenden Keime durch Robert Koch (1843-1910) oder die bahnbrechenden Arbeiten
von Louis Pasteur (1822-1895) wodurch es möglich wurde Impfstoffe gegen Krankheiten wie die
Tollwut zu entwickeln.
Warum erzähle ich dies überhaupt? Eigentlich nur um die nun folgenden Aussage zu verstehen:
Das Universum ist vollständig deterministisch. Ist uns der gesamte Zustand des Universums zu
einem Zeitpunkt bekannt, so lassen sich mit Hilfe der naturwissenschaftlichen Gesetze alle
zukünftigen Zustände des Universums vorhersagen.
Diese Einstellung vertrat der französische Mathematiker und Astronom Pierre Simon Marquis de
LaPlace (1749-1827). Unter Determinismus (aus dem Lateinischen: determinare (begrenzen))
versteht man, dass aus einem Zustand x der Zustand y folgen muss, es kann nicht Zustand z folgen.
Somit ist das System vollständig vorhersagbar. Wie diese Auffassung zustande kam können Sie sich
jetzt sicherlich leicht aus dem oben Beschreibenen erschließen.
Das Ende eines Traumes
Die Krönung der wissenschaftlichen Arbeit im Bereich der Physik war für viele sicherlich die
spezielle (1905) und allgemeine (1915) Relativitätstheorie Albert Einsteins (1879-1955). Sie
erlaubte tiefe mathematische Einblicke in Raum und Zeit – sie bot Platz für tiefgründige
wissenschaftliche Arbeit aber auch für Sciencefiction-Autoren und Phantasten. Die Vorstellung,
dass Zeit und Raum nicht absolut sind, sondern „eine rein private Angelegenheit“ wie Albert
Einstein einmal sagte, faszinierte Experten wie Laien gleichermaßen und ließ die einfache
Energiegleichung E=mc² (Energie gleich Masse mal Lichtgeschwindigkeit zum Quadrat) zu
Weltruhm gelangen.
Es machte den Anschein, dass die Menschheit einem Traum sehr nahe war: der Berechenbarkeit von
allem und jedem. Ein uralter Menschheitstraum schien wahr zu werden, denn mit dieser
„Weltformel“ wäre man auch Herrscher über die Natur und könnte nach Belieben schalten und
walten.
Doch seit der Entdeckung der Relativität sind jetzt schon fast 100 Jahre vergangen und wir haben
diese alles umfassende Formel immer noch nicht in den Händen. Es war sogar so, dass Einstein bis
zu seinem letzen Lebenstag an diesem Ziel forschte, jedoch leider ohne Erfolg. Was war passiert?
Warum können wir die Entwicklung des Alls bis heute nicht vorhersagen? Die Antwort hierauf ist
leicht in ein einziges Wort zu packen, die Tragweite dieses Wortes ist jedoch gewaltig:
QUANTENTHEORIE.
Die Quantentheorie und die hieraus resultierende Quantenphysik machte dem Determinismus einen
gewaltigen Strich durch die Rechnung – ein Menschheitstraum scheint ausgeträumt. Aber die
Quantenphysik lässt neue Träume erwachen und möglicherweise Dinge wahr werden, an die wir
zuvor nicht einmal zu Träumen gewagt hätten. Lassen Sie mich Ihnen diese geheimnisvolle Welt
der Quantenphysik näher bringen und Ihnen zeigen was sich hinter den Kulissen verbirgt – sie
werden sehen: die Zukunft ist spannend auch, oder gerade weil wir sie nicht 100prozentig
vorhersagen können. Aber ich warne Sie, der Physiker Niels Bohr sagte einmal:
„Wer über die Quantentheorie nicht entsetzt ist, der hat sie nicht verstanden.“
Seite 3 von 83
Copyright Stefan Frank
Sie werden bald sehen warum Bohr zu dieser Feststellung kam.
Zusammenfassung
Bereits vor Christi Geburt beschäftigten sich alte Völker mit wissenschaftlichen Theorie und
entdeckten Grundlagen, die teilweise bis heute Gültigkeit haben (z.B. den Satz des Pythagoras). Im
15. und 16. Jahrhundert wurde im mittelalterlichen Europa der Glaube an die Allmacht der Kirche
abgelegt und fundierte wissenschaftliche Erkenntnisse begannen, das neue Weltbild zu bestimmen.
Maßgeblich dazu beigetragen haben die Wissenschaftler Nikolaus Kopernikus, der die Welt aus
dem Zentrum des Universums in eine unbedeutende Randposition hob, Galileo Galilei, der mit
seinen Erkenntnissen die Theorie des Kopernikus stützte und die wissenschaftliche Methodenlehre
einführte und Johannes Kepler, der erkannte, dass die Planeten keine Kreise sondern elliptische
Umlaufbahnen um die Sonne beschreiben. Isaac Newton und Gottfried Wilhelm Leibniz
revolutionierten mit ihrer Infinitesimalrechnung die Mathematik. Dies mündete in die
Gravitationstheorie, welche zusammen mit bahnbrechenden, wissenschaftlichen Erkenntnissen
anderer Fachgebiete zu einer Stärkung des Glaubens in die Allmacht der Wissenschaft führte. Der
Determinismus ist Ausdruck dieses Glaubens. Erst einige hundert Jahre später sollte durch die
Entdeckung der Quantentheorie diese Euphorie gedämpft werden.
Seite 4 von 83
Copyright Stefan Frank
- Kapitel 2 Einige Grundlagen – Unsere atomare Welt und ihr Aufbau
Schon früh entwickelten Menschen Theorien über den Aufbau der Materie, welche uns umgibt. Eine
berühmte Vorstellung der griechischen Antike besagt, dass alles uns umgebende aus den vier bzw.
fünf Urstoffen aufgebaut ist: Feuer, Wasser, Erde, Luft (und dem Äther, dessen Existenz erst Ende
des 19. Jahrhunderts widerlegt werden konnte). Der griechische Philosoph Leukipp (um 450 bis 370
v. Chr.) und sein Schüler Demokrit (um 460 bis ca. 370 v. Chr.) entwickelten jedoch eine eigene
Materietheorie, die der heutigen in vielen Belangen schon sehr nahe kommt. Sie stellten sich die
Welt aus sog. Atomen (griechisch atomos: unteilbar) aufgebaut vor. Dabei handelt es sich, so die
Vorstellung der Philosophen, um unsichtbare, kleine Materieteilchen, welche durch den leeren
Raum fliegen. Aus der Möglichkeit Bindungen mit anderen Atomen einzugehen und sich somit an
bestimmten Orten aufzuhäufen entsteht unsere reale Welt. Dabei ist Materieteilchen nicht gleich
Materieteilchen: Sie sind zwar prinzipiell alle gleich doch unterscheiden sie sich in Größe, Form
und Lage womit die Vielfalt der gegenständlichen Welt erklärt werden kann.
Bis zum Jahre 1803 sollte diese Theorie nahezu unverändert bleiben, bis ein Mann namens John
Dalton die alte Theorie aufgriff, das Atommodell weiterentwickelte und in die moderne Physik
überführte. Es war das erste Atommodell was diesen Namen verdiente, sollte aber lange nicht das
letzte sein. Viele weitere sind gefolgt. Die Entwicklung soll hier kurz dargestellt werden, da der
Atombegriff elementar für die Quantentheorie ist.
1803 – Das Atommodell nach John Dalton (1766-1844)
Auch nach Daltons Auffassung gibt es verschiedene Atomarten aus denen sich die Materie
zusammensetzt. Jegliche Materie besteht entweder aus einer einzigen Atomart oder setzt sich aus
einer Kombinationen verschiedenartiger Atome zusammen. Hat man einen Stoff vorliegen, welcher
sich aus verschiedenen Atomarten zusammensetzt, so kann man diesen Stoff in seine
Grundbestandteile aufspalten. Materie, die sich nicht weiter in verschiedene Atomsorten aufspalten
lässt nennt man Elemente.
Atome einer Sorte sind gleich – sie haben gleiches Gewicht und verhalten sich bei chemischen
Reaktionen identisch. Der primäre Unterschied zwischen den Atomarten liegt bei ihrem Gewicht
(besser: bei ihrer Masse). Dalton nahm Wasserstoff als leichtestes Element und setzte andere
bekannte Elemente bezüglich ihres Gewichtes in Relation. Am Ende hatte er ein tabellarisches
System, aus welchem hervorging, dass Element X so und so viel mal schwerer ist als Wasserstoff –
dies ist die Grundlage unseres heutigen
Periodensystems der Elemente.
Wie schon Leukipp und Demokrit ging er
davon aus, dass Atome unteilbar sind. Die
Masse eines jeden Atoms ist gleichmäßig
im Raum den es ausfüllt verteilt
(vergleichbar mit einem Vollgummiball).
Wenn es Bindungen mit anderen Atomen
eingeht, dann nur vollständig – es kann
sich also nicht aufspalten und nur zu einem
Teil mit dem anderen Atom eine Bindung
eingehen.
Seite 5 von 83
Copyright Stefan Frank
1911 – Das Atommodell nach Sir Ernest Rutherford (1871-1937)
Es sollte sich jedoch bald herausstellen, dass Daltons Atommodell nicht stimmen konnte. Vor allem
der Begriff der Unteilbarkeit kam ins Wanken. Im Jahre 1895 entdeckte Wilhelm Konrad Röntgen
(1845-1923) die nach ihm benannte Strahlung. Auch wenn man sie noch nicht genau verifizieren
konnte, so hatte sie doch die sonderbare Eigenschaft Materie zu durchdringen. Wie konnte das aber
sein, wenn Materie kompakt ist und den Raum komplett ausfüllt, wie es Dalton formulierte?
Antoine Henri Becquerel (1852-1908) entdeckte 1896, dass auch andere Stoffe Strahlung
emittierten, z. B. sog. Uransalze. Marie und Pierre Curie entdeckten die Strahlung emittierenden
Elemente Polonium und Radium und nannten Substanzen, die Strahlung abgeben radioaktiv. Wie
konnte es sein, dass ein Stoff einfach Strahlung emittiert?
Das waren nur ein paar ungeklärte Fragen. Eine weitere war die Entdeckung eines kleinen Teilchens
durch Sir Joseph John Thomsen (1856-1940) im Jahre 1897, welches viel leichter war als alle
bekannten Atome. Dieses sog. Elektron passte nicht in das bis dahin bekannte Modell der Atome.
Ernest Rutherford nahm sich dieser Probleme an und analysierte erst einmal das, was ich bisher mit
dem ominösen Wort „Strahlung“ bezeichnet habe. Zunächst wusste man nur, dass bestimmte
Elemente irgend etwas emittieren (Aussenden) was anderenorts bestimmte Auswirkungen hat. Wie
schon erwähnt hatte die Röntgenstrahlung die Eigenschaft Materie zu durchdringen und eine
dahinter angebrachte Photoplatte zu beleuchten – die Röntgenaufnahme der Hand seiner Ehefrau ist
nur ein Ergebnis der Experimente Röntgens. Man konnte in diesem Zusammenhang auch zeigen,
dass die Strahlung phosphorizierende Stoffe (wie man Sie von den Ziffern eines Weckers kennt)
zum Leuchten anregt.
Rutherford kam zu einem höchst interessanten Schluss: Zunächst muss man sich von dem
Gedanken eines unteilbaren Atoms lösen. Atome sind sehr wohl teilbar und setzen sich aus noch
kleineren Teilchen zusammen. Es gibt auch nicht nur die Strahlung, sondern drei verschiedene
Arten: Alpha-, Beta- und Gammastrahlung. Dabei ist Gammastrahlung eine elektromagnetische
Welle auf die ich in Kapitel 3 „Das Licht und seine Natur“
genauer eingehen werde. Die Beta-Strahlung besteht aus
den von Thomsen entdeckten Elektronen und die
Alphastrahlung aus Heliumkernen. Um zu verstehen was
ein Heliumkern ist, muss man wissen, welches Atommodell
Rutherford entwickelt hat.
Nach seiner Vorstellung besteht ein Atom aus einem
kompakten Kern, welcher aus noch kleineren Teilchen
aufgebaut ist, den sog. Protonen. Diese tragen eine positive
Ladung. Die Hülle bilden die negativ geladenen Elektronen,
welche den Kern planetenartig umkreisen. Zwischen Kern
und Hülle befindet sich keine weitere Materie, wodurch der
Großteil eines Atoms aus Vakuum besteht, wenn man dies so
formulieren möchte. Dabei sind die Abstände zwischen Kern
und Hülle nicht zu unterschätzen. Das Größenverhältnis ist
in etwa so, als würde man einen Tennisball (Atomkern) auf
das Dach des Kölner Doms (Atomhülle) legen. Ein Atom
besteht also fast nur aus Vakuum.
Des weiteren sagte Rutherford später (im Jahre 1920) ein
Teilchen voraus, dessen Existenzbeweis jedoch erst 1932
erbracht werden konnte: das elektrisch neutrale Neutron. Sie bilden zusammen mit den Protonen
den Atomkern. Welches Element man vor sich liegen hat bestimmt die Anzahl der Protonen im
Kern, die Anzahl der Elektronen hat primär Auswirkung auf die chemischen Eigenschaften (z.B.
Bindungsverhalten zu anderen Elementen) des Atoms, jedoch nicht auf die physikalischen (z.B.
Seite 6 von 83
Copyright Stefan Frank
Dichte, Schmelz- und Siedepunkt usw.). Auch die Anzahl der Neutronen hat Auswirkung auf die
physikalischen Eigenschaften eines Stoffes. Ein Element mit
gleicher Protonenzahl aber unterschiedlicher Neutronenzahl
nennt man Isotop. Ein Beispiel hierfür ist der Wasserstoff: Er
besteht aus einen Proton im Kern und einem Elektron in der
Hülle. Es gibt jedoch auch den sog. schweren Wasserstoff.
Dieser hat neben dem Proton im Kern und dem Elektron in der
Hülle noch ein bzw. zwei zusätzliche Neutronen im Kern. Man
nennt diese Form des Wasserstoffs dann Deuterium bzw.
Tritium.
Nachdem man dies erst einmal verdaut hat kann man jetzt auch verstehen was ein Heliumkern ist:
Ein Heliumatom besteht aus je zwei Protonen und Neutronen im Kern. Umkreist wird dieser von
zwei Elektronen in der Atomhülle. Ein Heliumkern ist also ein Heliumatom ohne die beiden
Elektronen.
Die Ladung eines Atoms und Rutherfords Experiment
Im Normalfall ist ein Atom nach außen hin elektrisch neutral. Dies bedeutet, die negativen
Elektronenladungen in der Atomhülle gleichen die positiven Protonenladungen im Atomkern aus.
Dies ist jedoch nur dann der Fall, wenn die Anzahl der Elektronen gleich der Anzahl der Protonen
ist. Überwiegt die Anzahl einer der beiden Teilchenarten, so ist das Gesamtatom nach außen
entweder negativ (bei Elektronenüberschuss) bzw. positiv (bei Elektronenmangel) geladen. Bei
einem nicht elektrisch neutralen Atom spricht man von einem Ion. Die Alphastrahlung, welche ja
aus Heliumkernen besteht muss daher zweifach positiv geladen sein, da die beiden Elektronen in
der Hülle fehlen und nur die beiden positiven Ladungen im Atomkern übrig geblieben sind.
Heliumatom:
elektrisch neutral
Herliumion:
einfach positiv
Heliumion:
zweifach positiv
(Alpha-Teilchen)
Diese Ladungseigenschaft nutzte Rutherford 1911 bei einem Experiment aus, welches sein
Atommodell bestätigen sollte. Dabei beschoss er eine dünne Goldfolie mit Alphastrahlung. Wenn
Atome kompakt gebaut wären, hätten, wenn überhaupt, nur sehr wenige Heliumkerne die Folie
passieren dürfen. In Wirklichkeit passierte aber sogar sehr viel Alphastrahlung die Folie, was man
an den Lichtblitzen der hinter der Goldfolie aufgestellten phosphorizierenden Platte sehen konnte.
Die Heliumkerne, welche nicht durchkamen wurden abgelenkt, so dass sich ein Streumuster um die
Goldfolie herum ergab. Intensive Berechnungen ließen den Schluss zu, dass dieses Streumuster nur
durch den Aufbau der Atome zu erklären war: Der elektrisch positive Heliumkern wurde von den
positiven Kernen der Goldatome abgelenkt, denn positive und positive bzw. negative und negative
Ladungen stoßen sich ab, entgegengesetzte Ladungen hingegen ziehen sich an.
Seite 7 von 83
Copyright Stefan Frank
Elektrischer Strom als Fluss von Ladungsträgern
Wie Sie oben erfahren haben, existieren Teilchen welche positiv oder negativ geladen sein können –
diese Teilchen nennt man Ladungsträger. Elektrischer Strom, wie wir Ihn jeden Tag für die
verschiedensten Dinge verbrauchen, ist nichts weiter als ein Fluss von Ladungsträgern, genauer: ein
Fluss von Elektronen. Verbindet man ein Material (z.B. ein Metall), welches Träger eines
Elektronenüberschuss ist mit einem Material, welches einen Elektronenmangel aufweist, so werden
die überschüssigen Elektronen des einen Materials von dem positiv geladenen Material angezogen.
Voraussetzung für einen Elektronenfluss ist jedoch, dass die Verbindung zwischen den beiden
Materialien leitend ist. Ein Material ist dann leitend, wenn Elektronen innerhalb des Materials mehr
oder weniger frei fliesen können. Ist der freie Elektronenfluss innerhalb des Leiters gehemmt, so
setzt dieser dem Fluss einen Widerstand entgegen. Dieser wird mit dem Formelzeichen R
bezeichnet und in der Einheit Ohm gemessen. Ist der Widerstand sehr groß, so ist kein Stromfluss
mehr möglich. Materialen, welche eine solche Eigenschaft haben, nennt man Isolatoren.
Zwei Begriffe, welche oftmals im Zusammenhang mit dem elektrischen Strom fallen sind Volt und
Ampere. Auch diese lassen sich mit Hilfe des Ladungsmodells erklären. Die Spannung
(Formelzeichen U) kann man als Bewegungsenergie der Elektronen auffassen. Um so größer der
Ladungsunterschied zwischen positiv und negativ geladenem Material, um so größer ist die
Anziehungskraft der positiven Seite und die Abstoßungskraft der negativen. Durch die stärkeren
Kräfte werden die Elektronen stärker angezogen, was sich in einer größeren „Reisegeschwindigkeit“
der einzelnen Elektronen niederschlägt. Sie durchlaufen also den Leiter um so schneller, um so
größer die Ladungsdifferenz ist. Angegeben wird die Spannung, welche man mit einem sog.
Voltmeter misst, in Volt (kurz V).
Mit einem sog. Amperemeter hingegen lässt sich die Stromstärke (Formelzeichen I) in Ampere
(kurz A) bestimmen. Dies ist ein Maß für die Anzahl der Elektronen, die pro Sekunde eine beliebige
Stelle des Stromleiters durchfließen.
Multipliziert man die Stromstärke mit der Spannung, so erhält man die elektrische Leistung (P),
welche in Watt (W) angegeben wird (bekannt von der Angabe auf Glühbirnen).
Seite 8 von 83
Copyright Stefan Frank
Multipliziert man nun diese elektrische Leistung mit der untersuchten Zeitspanne (t), so erhält man
die elektrische Arbeit (W (nicht zu verwechseln mit der Einheit W für Watt!)). Diese misst man in
Wattsekunde (Ws).
Ihnen dürfte dies jedoch besser bekannt sein unter kWh (Kilowattstunde). Die verbrauchten
Kilowattstunden sind nämlich genau das, was das Elektrizitätswerk regelmäßig an ihrem Zähler
abliest. Lassen Sie also z.B. eine 60 Watt-Glühlampe eine Stunde lang brennen, so müssen Sie 60
Wattstunden bezahlen, das sind 0,06 kWh. Zur besseren Verständlichkeit sei hier noch einmal der
Zusammenhang zwischen Formelzeichen und Maßeinheit dargestellt:
Formelzeichen
Maßeinheit
Spannung
U
Volt (V)
Stromstärke
I
Ampere (A)
Widerstand
R
Ohm (
elektrische Leistung
P
Watt (W)
elektrische Arbeit
W
Wattsekunde (Ws)
)
Otto Hahn und die Kernspaltung
Sie haben nun schon feststellen können, dass Atome nicht kompakte Materieteilchen sind, die
statisch verharren, ohne dass man an ihnen etwas ändern könnte. So haben Sie bereits gesehen, dass
man einem Atom Elektronen entfernen (und auch hinzufügen) kann. Ein Beispiel hierfür ist der
Heliumkern, der die Alphastrahlung ausmacht. Die Frage bleibt jedoch woher diese Strahlung
kommt. Warum emittieren bestimmte Stoffe wie z.B. die Uransalze Alpha-, Beta- und
Gammastrahlung? Die Antwort hierauf liegt im atomaren Zerfall begründet.
Auch hier hat Rutherford bahnbrechende Ergebnisse erzielt. Stickstoff ist ein Element mit 7
Protonen im Kern. Er beschoss diesen mit Alphateilchen, also Heliumkernen mit 2 Protonen. Das
Ergebnis war ein Atom mit 8 Protonen im Kern und einem weiteren freien Proton. Wie oben bereits
gesagt bestimmt die Anzahl der Protonen welcher Stoff gerade vorliegt. Das Element mit 8
Protonen nennen wir Sauerstoff. Rutherford hatte es also geschafft das lebensfeindliche Element
Stickstoff in den lebensnotwendigen Sauerstoff (genauer ein bestimmtes Sauerstoffisotop)
umzuwandeln. Es handelte sich um die erste künstliche Kernreaktion.
Der deutsche Chemiker Otto Hahn (1879-1968) legte dann 1938 einen wichtigen Grundstein für die
heute völlig selbstverständliche Kernspaltung in Atomkraftwerken. Enrico Fermi (1901-1954) hatte
bereits vor Hahn Elemente mit Neutronen beschossen und somit den Kern künstlich manipuliert.
Darunter auch Uran, ein Element mit 92 Protonen. Man dachte jedoch, dass durch das Beschießen
des Kerns mit Neutronen Elemente entstehen würden, die mehr als 92 Protonen im Kern haben, also
93,94,95,... (sog. Transurane). Otto Hahn bewies zusammen mit seinem Kollegen Strassmann, dass
dem mit Nichten so ist. Der Kern wird nicht um weitere Teilchen erweitert, so wie das bei den
Stickstoff-Sauerstoff-Experimenten von Rutherford der Fall war, sondern gespalten. Hahn fand
heraus, dass Uran in Barium, ein Element mit 56 Protonen und Krypton, ein Element mit 36
Protonen im Kern (56 + 36 = 92!) zerfällt. Des weiteren werden weitere Neutronen frei, die
ihrerseits wieder andere Urankerne spalten können – eine Kettenreaktion findet statt.
Neben diesem künstlich hervorgerufenen Kernzerfall gibt es auch natürliche Zerfallsprozesse. Es
gibt Kernkonfigurationen, welche instabil sind – der Kern enthält entweder zu viele Neutronen und
Protonen oder einfach zu viel Energie. Der Kern besitzt jedoch die Fähigkeit sich selber wieder in
eine stabilere Konfiguration aus Neutronen und Protonen zu versetzen indem er einfach das abgibt,
Seite 9 von 83
Copyright Stefan Frank
was ihn stört. Das Ergebnis ist die Alpha-, Beta- und Gammastrahlung. Genaueres möchte ich an
dieser Stelle noch nicht erklären und zunächst noch ein paar Grundlagen legen. Ich verweise daher
hier auf das Kapitel „Die physikalischen Grenzen des Chips - der Tunneleffekt“.
Die Suche nach dem perfekten Atommodell
Rutherfords Atommodell konnte viele Phänomene schon gut erklären es gab aber Lücken, die es zu
verbessern galt. Niels Bohr (1885-1962) entwickelte 1913 das Modell nach Rutherford weiter und
stellte fest, dass Elektronen nur auf bestimmten Bahnen den Kern umkreisen können. Theoretisch
war bisher jede Planetenbahn um den Kern möglich. Bohr hingegen schrieb ganz bestimmte, feste
Umlaufbahnen vor und berechnete diese auch.
Aber auch in diesem Modell wurden schnell Fehler festgestellt. Unter Verwendung der
Heißenbergschen Unschärferelation aus der Quantenphysik kam man zu einem ganz neuen Modell:
der sog. Orbitaltheorie.
Nichts verstanden? Macht nichts! Die letzten beiden Modelle seien an dieser Stelle nur der
Vollständigkeit halber erwähnt. Um den Hintergrund genauer verstehen zu können brauchen sie erst
fundiertes Wissen über die Quantentheorie. Und damit geht es nun endlich im nächsten Kapitel los,
in dem zunächst die Natur des Lichtes geklärt wird – d.h. soweit das unsere heutige Wissenschaft
überhaupt kann.
Zusammenfassung
Die griechischen Philosophen Leukipp und Demokrit entwickelten die erste Vorstellung von einem
Atom, welches als unteilbares Teilchen die Grundlage jeder Materie bilden sollte. 1803 entwickelte
Dalton dieses Modell weiter und erklärte chemische Bindungen als einen Zusammenschluss
verschiedener Atommarten. Atome, welche nicht weiter in andere Atomarten zerlegbar sind, nennt
man Elemente. Ernest Rutherford entwickelte 1911 ein ausgefeilteres Modell, wonach der Kern aus
Protonen und Neutronen aufgebaut ist und die Atomhülle durch Elektronen gebildet wird. Die
Anzahl der Protonen bestimmen um welches Element es sich handelt. Differiert die Neutronenzahl
zwischen zwei Atomen mit gleicher Protonenzahl, so spricht man von einem Isotop. Ist ein Atom
nach außen hin nicht elektrisch neutral, so herrscht Elektronenmangel oder Elektronenüberschuss.
Tritt dieser Fall ein, so liegt ein sog. Ion vor. Elektrischer Strom ist nichts weiter als ein Fluss
elektrisch geladener Teilchen (Elektronen), welche von einem Elektronenüberschuss zu einem
Elektronenmangel wandern.
Durch den Kernzerfall werden Atomkerne aufgespalten, wobei Strahlung emittiert wird. Dieser
Vorgang kann natürlicher Ursache sein, aber auch künstlich hervorgerufen werden. Emittiert
werden Alpha-, Beta- und Gammastrahlung, wobei erstere aus Heliumkernen besteht und
Betastrahlung aus Elektronen.
Seite 10 von 83
Copyright Stefan Frank
- Kapitel 3 Das Licht und seine Natur
Die Frage „Was ist Licht“ beschäftigt die Wissenschaft noch heute. Genau ist diese Frage nämlich
bisher nicht zu beantworten.
Die Korpuskeltheorie
Für Isaac Newton bestand Licht aus kleinen Teilchen, die neben den Atomen existieren, sog.
Korpuskeln. Diese Erklärung erschien zunächst auch glaubhaft, denn man konnte damit einige
Phänomen befriedigend erklären. So z. B. die Reflexion des Lichtes: Wie Sie sicherlich noch aus
der Schule wissen gilt bei Lichtreflexionen, dass Einfallswinkel gleich Ausfallswinkel ist. Der
Winkel, in dem das Licht auf eine reflektierende Fläche trifft entspricht dem Winkel mit dem das
Licht zurückgeworfen wird. Ein Gummiball den man auf den Boden wirft verhält sich ebenso, was
die Teilchentheorie der Korpuskeln untermauert.
Auch ein weiteres Phänomen ließ sich,
wenn auch nur unbefriedigend, mit der
Korpuskeltheorie darstellen: Wenn man
einen Stock in klares Wasser hält und
von oben auf die Wasseroberfläche
schaut, so stellt man fest, dass der Stock
geknickt erscheint, obwohl er es nicht
ist. Die Korpuskelerklärung hierfür: Die
kleinen Teilchen bewegen sich in
Wasser schneller als in Luft. Dadurch
kommt diese optische Täuschung
zustande.
Die Wellentheorie
Bestimmte Phänomene ließen sich
so jedoch nicht erklären. So
entwickelte sich parallel zur
Korpuskeltheorie
die
Wellentheorie des Lichts, primär
durch den Niederländer Christiaan
Huygens (1629-1695) im Jahre
1678.
Dabei
haben
diese
Lichtwellen
Ähnlichkeit
mit
Wasserwellen.
Das
Ausbreitungsmedium ist jedoch
nicht Wasser sondern etwas was
Äther genannt wurde. Ich habe
diesen „Stoff“ bereits oben kurz
erwähnt und als einen der fünf
Urstoffe vorgestellt. Man stellte
sich vor, dass der Äther das
gesamte Universum durchzieht,
ohne dass man diesen direkt spürt.
Seite 11 von 83
Copyright Stefan Frank
Von diesem Medium sollten die Lichtwellen getragen werden, ähnlich wie Wasser Träger der
Wasserwellen ist.
Die Wellentheorie führte neben der Korpuskeltheorie jedoch leider nur ein Schattendasein. Es
dauerte 100 Jahre bis man sich mit ihr wieder intensiver auseinander setzte. Ursächlich dafür war
eine Vorstellung, welche Thomas Young vertrat. Er übertrug eine Beobachtung, welche man auf
Wasseroberflächen machen kann auf die Wellen des Lichts: Wenn man auf eine ruhige, gänzlich
unbewegte Wasseroberfläche eine Stein wirft, so breitet sich eine Welle in kreisen um diesen Stein
aus. Diese Beobachtung haben wir sicherlich alle schon einmal gemacht. Dabei kann man leicht
zwischen Wellenbergen und Wellentälern unterscheiden, da das Wasser eine Art Sinuskurve um
den Stein beschreibt. Machen wir es nun ein wenig komplizierter: Nimmt man zwei Steine und
wirft sie in geringem Abstand in das Wasser, so verursachen beide kreisförmige Wellenbewegungen
auf der Oberfläche des Wassers. Zu einem gewissen Zeitpunkt treffen die beiden verursachten
Wellenbewegungen aufeinander. Jetzt kann man folgendes Beobachten: Treffen zwei Wellenberge
bzw. Wellentäler zusammen, so addieren sich diese auf. Der Wellenberg wird also noch höher bzw.
das Wellental noch tiefer. Treffen jedoch Wellenberg und Wellental aufeinander so wird von der
Höhe (besser: der Energie) des Wellenberges die Energie des Wellentales abgezogen. Das Ergebnis
ist entweder ein Wellenberg geringerer Höhe, bzw. Energie oder sogar ein Wellental, wenn die
„negative Energie“ des Wellentales die „positive Energie“ des Wellenberges überstieg. Ist die
Energie des Wellentales exakt gleich der Energie des Wellenberges so heben sich beide Effekte
sogar auf und das Ergebnis ist eine glatte Wasseroberfläche. Das Verstärken bzw. Auslöschen von
Bergen und Tälern nennt man Interferenz.
Young übertrug dies nun auf Lichtwellen. Wenn man Licht nicht als Teilchen sondern als Welle
auffassen würde, so seine Vorstellung, dann könnten sich auch hier Wellenberge und Täler
gegenseitig auslöschen. Eine Vorstellung mit der sich plötzlich physikalische Experimente erklären
ließen, an der die Korpuskeltheorie zuvor gescheitert war. Es konnte sogar gezeigt werden, dass alle
ungelösten optischen Experimente zu Beginn des 19. Jahrhunderts erklärt werden konnten. Das war
der Beginn des Siegeszuges der Wellentheorie des Lichts. Einige wichtige optische Experimente
seien hier dargestellt, da sie für die weitere Entwicklung der Quantentheorie von großer Wichtigkeit
waren.
Seite 12 von 83
Copyright Stefan Frank
Die Wellentheorie als Erklärung für Interferenzmuster
Lässt man Licht durch einen
kleinen
Spalt in
eine
abgedunkelte Kiste fallen, so
stellt man etwas fest, was mit
der
herkömmlichen
Teilchentheorie nicht mehr
zu erklären war. Geht man
von der Teilchengestalt des
Lichts aus, so müsste bei
diesem Experiment folgendes
passieren: Das Licht fällt
durch den Spalt in die Kiste,
durchquert
den
Raum
geradlinig und trifft am
anderen Ende auf die Wand
der Kiste auf, wo wir ein klar begrenztes Abbild des Eingangslichtes haben. In Wirklichkeit jedoch
ist das Abbild an den Rändern ausgefranst und vor allem ist das beleuchtete Gebiet der Rückwand
größer als der Spalt. Wie kann das aber sein, wenn Licht die Kiste geradlinig durchläuft? Die
Erklärung hierfür ist die Wellentheorie: Man stelle sich vor, eine Wasserwelle steuert auf eine
Wand zu, in der es nur einen kleinen Schlitz gibt. Was wird passieren? Trifft die Welle auf die
Wand auf, so durchdringt sie diese an der Stelle des Schlitzes. Von hier aus baut sich eine neue
Welle auf, welche in Halbkreisen weiterläuft. Bei unserem Experiment trifft die Lichtwelle also auf
den Durchlass, bildet
neue Halbkreise und
läuft von dort weiter.
Somit ist erklärbar
warum das Licht
ausgefranst an der
Rückwand ankommt.
Es
sind
keine
geradlinigen
Lichtstrahlen die den
Raum durchlaufen,
sondern
gebeugte
Lichtwellen.
Dieses
Experiment
kann man nun noch
etwas komplizierter
gestalten. Nachdem
das Licht den ersten Schlitz durchdrungen hat, steuert die neu erzeugte Lichtwelle auf die
Rückwand zu, in der sich jetzt jedoch noch einmal zwei vertikale Lichtschlitze nebeneinander
befinden. Die vorher erzeugte Lichtwelle wird an den beiden Schlitzen noch einmal aufgeteilt. Das
Ergebnis sind zwei Lichtwellen, die sich hinter den beiden Durchlässen ausbreiten. Ich glaube Sie
ahnen schon worauf dieses Experiment hinaus will. Sie wissen, dass sich bei zwei Wasserwellen
Wellenberge und Täler, je nach Situation, addieren bzw. subtrahieren oder sogar gegenseitig
auslöschen. Genau dies passiert bei diesem Experiment: Auf der Rückwand lässt sich kein
einheitliches Licht erkennen, sondern abwechselnd dunkle und helle Bereiche, das sog.
Interferenzmuster. Die hellen Bereiche markieren Stellen, an denen sich Licht verstärkt hat, die
Seite 13 von 83
Copyright Stefan Frank
dunklen hingegen Bereiche, in denen sich Licht abgeschwächt bzw. ausgelöscht hat.
Licht als elektro-magnetische Welle
Bei der Beschreibung atomarer Eigenschaften habe ich bereits von elektrisch positiver bzw.
negativer Ladung gesprochen. Tatsächlich ist Elektrizität nichts weiter als eine Bewegung von
Ladungsträgern. Ladungsträger können z.B. Elektronen (negative Ladung) oder Protonen (positive
Ladung) sein. Sie haben aber auch gelernt, dass ganze Atome eine Ladung haben können, wie das
schon so oft zitierte Alphateilchen, welches ein Heliumkern ohne Elektronen darstellt, und somit
zweifach positiv geladen ist. Ein geladenes Teilchen kann Kraft auf andere geladene Teilchen
ausüben. So können sich zwei gleich geladene Teilchen abstoßen bzw. entgegengesetzt geladene
anziehen. Den Wirkungsbereich der elektrischen Kraft um ein geladenen Teilchen nennt man
elektrisches Feld. Es nimmt mit zunehmender Entfernung zum Teilchen ab.
Ein Magnet ist uns allen von Schulexperimenten mit Stabmagneten bekannt. Wir haben alle in der
Schule gelernt, dass ein Magnet über zwei entgegengesetzte Pole verfügt: einem Nord- und einem
Südpol. Auch hier gilt das schon bekannte Gesetz: gleichnamige Pole stoßen sich ab,
entgegengesetzte Pole ziehen sich an. Ein Magnet hat die Fähigkeit andere magnetische Objekt (z.
B. Eisen) anzuziehen. Das Gebiet indem die Kraft um einen magnetischen Körper wirkt nennen wir
Magnetfeld. Auch dieses nimmt mit zunehmender Entfernung zum Verursacher ab.
Schon durch diese Beschreibung wird ersichtlich, dass elektrische und magnetische Felder viele
Gemeinsamkeiten haben. Dies fiel auch dem schottischen Physiker James Clerk Maxwell auf
(1831-1879). Den Resultaten seiner Forschung nach verursacht eine bewegte elektrische Ladung
immer auch ein Magnetfeld. Während ein Elektron den Kern eines Atoms umkreist, verursacht es
Seite 14 von 83
Copyright Stefan Frank
also auch automatisch ein magnetisches Feld. Maxwell ging jedoch noch viel weiter: Durch
hervorragende mathematische Leistungen schaffte er es die elektrische und magnetische Kraft als
zwei Auswirkungen eines elektromagnetischen Feldes zu beschreiben und die Anzahl der Formeln,
die beide Feldtypen mathematisieren auf vier Formeln zu reduzieren, die beide Felder gleichzeitig
erfassen. Man kann also jedes elektrische oder
magnetische Feld auch als elektromagnetisches
Feld behandeln – man muss nicht zwischen ihnen
unterscheiden.
Eine weitere wichtige Erkenntnis war, dass ein sich
veränderndes elektrisches Feld ein magnetisches
Feld verursacht und umgekehrt. Baut sich also ein
elektrisches Feld auf (es wird stärker), so verändert
es sich und verursacht ein magnetisches Feld,
welches sich seinerseits aufbaut und dadurch
wiederum ein elektrisches Feld verursacht, usw. Es
hat zwar noch eine Weile gedauert bis diese
Forschungsergebnisse wirklich anerkannt worden
sind, aber heute wissen wir, dass Licht als
elektromagnetische Welle aufgefasst werden kann.
Da ein elektrisches Feld ein magnetisches hervorruft und umgekehrt braucht es kein Medium, um
durch den Weltraum zu reisen – es ist sozusagen selbst erhaltend. Somit wurde der Begriff des
Äthers überflüssig – dieses Medium zum Transport des Lichtes war nicht mehr nötig. Zum Glück –
denn wie sich bald herausstellen sollte gibt es den Äther nicht.
Mit Frequenz bezeichnet man die Anzahl der Schwingungen im elektromagnetischen Feld pro
Sekunde. Um so höher die Frequenz, um so höher die Energie dieser sog. elektromagnetischen
Welle.
Nun lässt sich auch leicht erklären was Gammastrahlung ist: Sie ist nichts weiter als eine
elektromagnetische Welle mit sehr hoher Frequenz (also hohem Energiegehalt). Der
Frequenzbereich liegt bei 1020 Hertz und höher (Hertz steht für „Schwingungen pro Sekunde“).
Röntgenstrahlung hingegen hat eine etwas geringere Hertzzahl. Auch die verschiedenen Farben,
welche wir wahrnehmen können haben unterschiedliche Schwingungsfrequenz vom energiereichen
blau bis hin zum energieärmeren rot. Weißes Licht ist eine Überlagerung aller anderen Farben –
sozusagen ein Wellenrauschen. Eine Brille, durch die man nur rot sieht, filtert das von den Objekten
der Umgebung ausgesandte Licht und lässt nur das Licht mit „roter Wellenlänge“ durch – alle
anderen Frequenzen werden absorbiert bzw. reflektiert.
Zu Beginn dieses Kapitels sagte ich, dass die Wissenschaft nicht genau weiß was Licht ist. Es
scheint doch jetzt aber so, als hätten wir eine befriedigende Antwort gefunden. Das scheint aber
auch nur so! In Wirklichkeit ist das hier gesagte nur die halbe Wahrheit. Das wissenschaftliche
Durcheinander wird seinen Lauf nehmen – verlassen Sie sich darauf. Zunächst möchte ich jedoch
Ihre Vorstellungskraft mit etwas ganz anderem auf die Probe stellen: Der Einsteinschen
Relativitätstheorie. Viel Spaß dabei!!
Seite 15 von 83
Copyright Stefan Frank
Zusammenfassung
Zunächst hatte sich die Korpuskeltheorie in der wissenschaftlichen Landschaft durchgesetzt, erst
Christiaan Huygens und Thomas Young brachten Argumente für die Wellentheorie des Lichts ein,
welche viele Physiker umstimmten. Ein Argument war die Erklärung für das Phänomen der
Interferenz. James Clerk Maxwell führte diesen Gedanken fort und schaffte eine mathematische
Vereinheitlichung von elektrischer und magnetischer Kraft. Seiner Vorstellung zu folge ist Licht
eine elektromagnetische Welle, wobei ein sich veränderndes elektrisches Feld ein magnetisches
hervorruft und andersherum. Die Wellenlänge der Schwingung repräsentiert die Art des Lichts.
Seite 16 von 83
Copyright Stefan Frank
- Kapitel 4 Lichtgeschwindigkeit ist absolut
Sie haben jetzt schon viele wichtige Eigenschaften des Lichtes kennen gelernt, ein Thema habe ich
bis jetzt jedoch ausgespart: Die Lichtgeschwindigkeit. Heute wissen wir, dass Licht eine Sekunde
benötigt um eine Strecke von 300.000 km (genau: 299.729,5 km) zurückzulegen, oder anders
ausgedrückt: Licht hat eine Geschwindigkeit von 300.000 km/s bzw. 1.080.000.000 km/h (das sind
über eine Milliarde Kilometer in der Stunde!). Die Vorstellung, dass Licht eine Geschwindigkeit
hat, erscheint uns heute selbstverständliche, war es zunächst aber keineswegs. Man ging erst davon
aus, dass Licht überhaupt keine Zeit benötigt um von seinem Ausgangsort zu irgend einem anderen
Ort zu kommen. Kaum wird es ausgesendet so ist es auch schon am Ziel angekommen ohne dafür
Zeit zu benötigen – die Lichtgeschwindigkeit war so zusagen unendlich groß. Erst der dänische
Astronom Olaf Rømer (1644-1710) änderte 1675 diese Vorstellung. Ihm fiel ein himmlisches
Phänomen auf, welches er über eine nicht unendliche Lichtgeschwindigkeit erklären konnte. Mit
Hilfe von Teleskopen war es ihm möglich zu beobachten, wie einer der Jupitermonde aus dem
Schatten des Jupiters trat. Um so weiter die Erde von dem Jupiter entfernt war, um so länger dauerte
es bis man ihn sehen konnte. Dies ließ sich damit erklären, dass das Licht des Jupitermondes
schlicht und ergreifend länger zur Erde unterwegs war. Heute wissen wir, dass das Licht von der
Sonne zur Erde etwa acht Minuten braucht, vom Mond zur Erde ca. eine Sekunde. Knipst ein
mächtiger Gott das Licht der Sonne aus, so würde uns das auf der Erde erst acht Minuten später
auffallen.
Schauen wir in den Himmel, so blicken wir immer in die Vergangenheit. Um so weiter eine
Lichtquelle entfernt ist, um so weiter können wir in die Vergangenheit schauen. Ein Beispiel: Das
Licht des Sterns Alpha Centauri benötigt, auf Grund der großen Distanz, vier Jahre bis es auf der
Erde eintrifft. Wir sehen also den Stern, wie er vor vier Jahren ausgesehen hat - ist er in der
Zwischenzeit vielleicht sogar schon explodiert? Um mit den unglaublich großen Entfernungen im
Weltall umgehen zu können hat man neue Maßeinheiten eingeführt. So ist eine Lichtsekunde die
Strecke, die das Licht in einer Sekunde zurücklegt (300.000 km). Ein Lichtjahr hingegen ist die
Strecke, die Licht in einem Jahr durch das All reist (das sind 300.000 km x 60 Sekunden x 60
Minuten x 24 Stunden x 365 Tagen = 9.460.800.000.000 km, also fast 10 Billionen Kilometer!). Da
das Licht von Alpha Centaurie ca. vier Jahre zu uns unterwegs ist bedeutet dies eine Entfernung von
vier Lichtjahren, also knapp 40 Billionen Kilometern.
Wenn Flugzeuge vom Winde verweht werden...
Wie im vorangegangenen Kapitel bereits beschrieben dachte man noch am Ende des 19.
Jahrhunderts, dass der Weltall von einer „Substanz“ mit dem Namen Äther gefüllt ist. Diese war
u.a. nötig, um als Trägermedium für Lichtwellen zu dienen. Der Äther stehe still, während alle
Planeten durch diesen Äther wandern. Kann man diesen Äther nachweisen? Die beiden Physiker
Albert Abraham Michelson (1852-1931) und Edward Williams Morley (1838-1923) hatten sich
dazu Gedanken gemacht, die auf folgender
Grundvorstellung fußten.
Man nehme ein Flugzeug und lasse es zunächst
gegen den Wind fliegen, dann soll es wenden und
mit dem Wind zurückfliegen. Die Zeit, welche das
Flugzeug für Hin- und Rückflug benötigt hat hält
man fest. Nun lässt man das Flugzeug die gleiche
Entfernung
senkrecht
zur
Windrichtung
zurücklegen – bei gleichem Einsatz der Motoren.
Auch hier wird die Zeit gestoppt. Wenn man nun
Seite 17 von 83
Copyright Stefan Frank
die beiden gemessenen Zeiten vergleicht, so wird
man feststellen, dass das Flugzeug, welches
Senkrecht zur Windrichtung geflogen ist, für die
gleiche Strecke weniger Zeit benötigt hat als das
Flugzeug, welches mit Front- und Rückenwind
geflogen ist.
Dieses Experiment übertrugen die beiden
Wissenschaftler Michelson und Morley 1887 auf den Äther, der Ihnen als „Windquelle“ diente.
Das Interferometerexperiment nach Michelson und Morley
Wie schon erwähnt stellte man sich den Äther als ruhiges Irgendwas vor (man verzeihe mir diese
Ausdruckweise), was selber keinerlei Bewegung vollzog. Nun ist aber bekannt, dass die Erde in
Bewegung ist: sie umkreist innerhalb eines Jahres die Sonne und somit legt sie eine Strecke zurück.
Nun stellen Sie sich vor, sie laufen an einem windigen Tag sportlich durch den Wald und halten an.
Es ist klar, dass Sie den Wind auf ihrer Haut spüren. Nun stellen Sie sich die gleiche Situation an
einem völlig windstillen Tag vor. Halten Sie an, so können Sie natürlich keinerlei Luft auf Ihrer
Haut spüren, beginnen Sie jedoch wieder zu laufen, so verspüren Sie sehr wohl eine kühlende
Wirkung auf Ihrer Haut. Es ist so, als ob es windig wäre, dabei bewegen Sie sich und nicht die Luft,
das Ergebnis ist jedoch das gleiche.
Ähnlich dachte man beim Ätherwind: Der Äther an sich steht still,
aber die Erde bewegt sich in ihm, so dass es in Bewegungsrichtung
der Erde eine Art Wind geben müsste und quer zur
Bewegungsrichtung natürlich kaum Wind zu verzeichnen sein
dürfte.
Michelson und Morley nahmen jetzt jedoch keine Flugzeuge um
diesen Wind nachzuweisen, sondern Licht. Wenn Licht in
Bewegungsrichtung der Erde fliegt und dann zurück, dann wäre es
so als würde ein Flugzeug mit Rückenwind und Frontwind fliegen. Ein zweites Lichtteilchen,
welches Senkrecht zum ersten fliegt, bräuchte dem zufolge weniger Zeit, ähnlich wie bei dem
Flugzeug.
Die beiden Wissenschaftler machten nun folgendes Experiment: Sie nahmen ein Platte und
installierten darauf ein Gerät, welches in der Lage war, einzelne Lichtteilchen (ja, sie haben schon
richtig gelesen: es gibt nicht nur Lichtwellen, sondern auch Lichtteilchen, aber dazu später mehr) zu
emittieren. Eines ließen sie mit dem Ätherwind fliegen und eines senkrecht dazu. Über Spiegel
wurden die Lichtteilchen reflektiert, so dass sie die Strecke einmal hin und zurück flogen. Zum
Schluss wurden beide in einen Detektor (Teleskop) geleitet. Was hoffte man in diesem Teleskop zu
sehen? Wenn wirklich eines der beiden Lichtteilchen schneller gewesen wäre als das andere, so
hätten beiden Teilchen auch leicht zeitversetzt an dem Teleskop ankommen müssen. Dies hätte aber
auch bedeutet, dass Wellenberg und Wellental leicht versetzt angekommen wären und Sie wissen ja
bereits was das bedeutet: Wellenberge und Täler verstärken sich oder löschen sich aus. Man hätte
also ein Hell-Dunkel-Muster angezeigt bekommen, ähnlich wie ich es im vorhergehenden Kapitel
bereits erklärt habe. Doch es zeigte sich nicht! Man wiederholte den Versuchsaufbau sogar noch
einmal auf einer Art Quecksilbersee um jegliche Außenbeeinflussung auszuschließen, aber das
Experiment schlug abermals fehl. George Francis Fitzgerald (1851-1901) schlug daher vor, dass der
Ätherwind schlicht und ergreifend so stark ist, dass er die Länge in Bewegungsrichtung des Windes
zusammenstaucht. Dadurch müsste das Lichtteilchen eine geringere Strecke zurücklegen und wäre
dadurch gleichzeitig mit dem anderen Lichtteilchen am Ziel. Später sollte ein niederländischer
Physiker die hierzu passenden und nach ihm benannten Lorentz-Transformationen aufstellen,
welche ich im nächsten Abschnitt genauer untersuchen möchte. Spätere Überlegungen des
Seite 18 von 83
Copyright Stefan Frank
Physikers Albert Einstein ließen ihn jedoch zur der Schlussfolgerung kommen, dass der Äther als
nicht Existent abgeschrieben werden muss. Prinzipiell sollte der Äther ein Medium sein, in
welchem sich Licht ausbreiten konnte. Sie haben jedoch bereits erfahren, dass dieses Trägermedium
nicht mehr benötigt wurde, als die Theorie der elektromagnetischen Welle aufgestellt worden war.
Einen direkten Einfluss des Äthers auf Materie konnte nicht nachgewiesen werden (die Kontraktion
der Länge war ja nicht direkt messbar, sondern nur eine mögliche Erklärung für kürze Laufzeit des
Lichts!), ebenso wenig ein Einfluss auf Lichtteilchen. Albert Einstein sagte daher, dass der Äther
keinerlei Existenzberechtigung mehr habe. Für das Phänomen der gleichen Laufzeit der
Lichtteilchen hatte er bereits eine andere Erklärung in der Schublade...
Raum und Zeit sind nicht absolut – Die Lorentz-Transformationen
Es verwunderte sehr, dass Licht, egal wie es fliegt, immer gleiche Zeit benötigt. Der niederländische
Physiker Hendrik Antoon Lorentz (1853-1928) und der schon erwähnte George Francis Fitzgerald
kamen auf die Idee, dass sich die Strecke in Bewegungsrichtung verkürzt. So wäre zu erklären
gewesen, warum die eigentlich langsameren Lichtteilchen, welche dem Ätherwind ausgesetzt waren
genauso schnell sind, wie die schnelleren Teilchen senkrecht zum Ätherwind. Erstere hatten einfach
eine kürzere Strecke zurückzulegen. Dies klingt nicht nur für unsere Ohren eigentümlich, sondern
Seite 19 von 83
Copyright Stefan Frank
auch für die Ohren der damaligen Forscher. Aber es sollte die Grundlage für Einsteins
Relativitätstheorie bilden. Lorentz ging noch viel weiter: Es erfolgt nicht nur eine
Streckenverkürzung, sondern auch eine Verlangsamung der Zeit! Wenn Sie selber mal ausrechnen
möchten, um wie viel langsamer Sie altern, wenn Sie über eine Straße fahren, dann können Sie
folgende Formeln anwenden:
Es gilt immer:
v = Geschwindigkeit des Objektes in km/s (beispielsweise eines Autos)
c = Lichtgeschwindigkeit (= 300.000 km/s)
1. Streckenveränderung:
Wobei:
srelativ = Länge der Strecke, wenn das Objekt in Bewegung ist
s = Länge der Strecke, wenn das Objekt still steht
2. Zeitveränderung:
Wobei:
trelativ = Zeit, wenn das Objekt in Bewegung ist
t = Zeit, wenn das Objekt still steht
3. Masseveränderung:
Die Masseveränderung gehört nicht direkt zu den Lorenztransformationen, sie passt jedoch gut in
das Konzept. Es ist nämlich bei zunehmender Geschwindigkeit tatsächlich Massezunahme
festzustellen.
Wobei:
mrelativ = Masse, wenn das Objekt in Bewegung ist
m = Masse, wenn das Objekt still steht
Seite 20 von 83
Copyright Stefan Frank
Ein Beispiel soll die Anwendung der Formeln verdeutlichen: Sie fahren mit 100 km/h über die
Bundesstraße. Dies entspricht einer Geschwindigkeit in Kilometern je Sekunde von:
Während für einen Beobachter, welcher am Straßenrand steht 1 Stunde (=60 Minuten = 3600
Sekunden) vergeht, ist für Sie gerade mal eine Zeit von
vergangen. Die Zeit vergeht für Sie also um 0.0000000000146 Sekunden langsamer. Sie sehen: Ein
Quell ewiger Jugend ist die Relativitätstheorie nicht gerade.
Eine weitere Tatsache resultiert aus den Lorentztransformationen: Das Verkürzen einer Strecke, das
Langsamergehen der Zeit, die Zunahme der Masse, all dies gilt nur in Bewegungsrichtung des
Objektes, soll heißen: Objekte, die sich rechts oder links von der bewegten Materie befinden sind
von der Transformation nicht betroffen!
Aus diesen Erkenntnissen resultiert Einsteins Relativitätstheorie, welche im nächsten Kapitel
genauer erläutert werden soll. Grundlage bildet auch hier die Konstanz der Lichtgeschwindigkeit.
Zusammenfassung
Lichtgeschwindigkeit ist nicht unendlich, jedoch sehr groß: ca. 300.000 km/s. Die Strecke, welche
Licht in einem Jahr zurücklegt wird Lichtjahr genannt. Um den Äther nachzuweisen, führten
Michelson und Morley das nach ihnen benannte Interferometerexperiment durch. Dies baut auf der
Tatsache auf, dass Teilchen, welche mit Front- und Rückenwind zu kämpfen haben für die gleiche
Strecke länger brauchen, als wenn sie nur mit Seitenwind zurechtkommen müssen. Als das
erwartete Interferenzmuster nicht erschien, begannen Hendrik Antoon Lorentz und George Francis
Fitzgerald darüber nachzudenken, ob die Strecke in Windrichtung nicht einfach verkürzt wird, so
dass ein gleichzeitiges Eintreffen der Teilchen wieder zu erklären wäre. Das Ergebnis dieser
Überlegungen waren die Lorentztransformationen.
Seite 21 von 83
Copyright Stefan Frank
- Kapitel 5 Albert Einstein – Die spezielle Relativitätstheorie
Kaum ein Physiker hat es zu solch einem Weltruhm gebracht wie Albert Einstein (1879-1955).
Jedem Kind ist er bekannt, genauso wie die, von ihm Entwickelte Formel E=mc². Berühmt
geworden ist er durch seine Relativitättheorie, die ich Ihnen hier näher bringen möchte. Sie klingt
nicht nur für uns völlig verrückt, sondern auch für Mitglieder der wissenschaftlichen Zunft seiner
Zeit. Daher bekam er den Nobelpreis auch nicht für seine weltbekannte Theorie, wie oft fälschlicher
weise angenommen wird, sondern für seine Beiträge zum sog. photoelektrischen Effekt.
Die Lichtgeschwindigkeit als unveränderliche Konstante
Stellen Sie sich vor: Sie fahren in einem Zug mit einer
Geschwindigkeit von 50 km/h. Zusätzlich bewegen Sie sich
mit 5 km/h in die Fahrtrichtung des Zuges. An den Gleisen
steht eine weitere Person und beobachtet die Situation. Sie
wird feststellen, dass Sie sich mit einer Geschwindigkeit von
50 km/h + 5 km/h, also 55 km/h fortbewegen. Sie hingegen
glauben weiterhin nur mit 5 km/h zu laufen.
Geschwindigkeit ist also rein subjektiv, wir können nicht
objektiv feststellen, wie groß unsere Geschwindigkeit ist, da
die Beobachtung vom Standpunkt abhängt - die
Geschwindigkeit ist also relativ!
Ein anderes Beispiel: Nun bewegen Sie sich in einem 50
km/h schnellen Zug mit 5 km/h entgegengesetzt zur
Fahrtrichtung. Während sie 5 km/h schnell laufen, hat die
außenstehende Person den Eindruck, dass sie sich mit 50
km/h - 5 km/h = 45 km/h fortbewegen. Sie sehen, der
Eindruck wie schnell wir uns bewegen ist relativ. Auch hier
ist es nicht möglich die absolute Geschwindigkeit zu
bestimmen. Oder können Sie die Frage beantworten, wie
schnell unsere Erde durch das Universum fliegt? Sie können
die Geschwindigkeit unserer Erde nur in Bezug auf andere
Planeten angeben, doch wird dieser Bezugsplanet ebenfalls
eine Geschwindigkeit aufweisen. Weiterhin können wir
nicht ausschließen, dass unser Universum ebenfalls einer bestimmten Bewegung unterliegt, und so
weiter. Daher können wir nie feststellen wie schnell wir uns absolut bewegen. Dies formulierte
Einstein in zwei Postulaten:
1. Postulat: Die Lichtgeschwindigkeit ist immer und überall für alle Beobachter gleich.
2. Postulat: Wir können nie feststellen wie schnell wir uns absolut bewegen und können daher
annehmen wir selber stehen still und unsere Umwelt bewegt sich.
Jetzt stellen wir uns das oben durchgeführte Experiment nocheinmal vor. Im Unterschied zu vorher
ist jetzt jedoch ein Lichtteilchen in Bewegung, welches von einer Lichtquelle in der Mitte eines
Zugwaggons ausgesendet wird. Was erwarten wir wird passieren? Es kann angenommen werden,
dass das Licht mit einer Geschwindigkeit von 300.000 km/s von der Quelle wegfliegen wird. Der
Zug fährt mit einer Geschwindigkeit von 50 km/h, oder anders ausgedrückt: 0,014 km/s (50 km/h :
60 Minuten : 60 Sekunden = ca. 0,014 km/s). Parallel zu unserem vorhergehenden Experiment
würden wir folgendes erwarten: Das Licht benötigt zum Erreichen der rechten Wand des Waggons
Seite 22 von 83
Copyright Stefan Frank
etwas länger, als zum erreichen der linken Waggonwand, da sich erstere ja auf die Lichtquelle zu
bewegt, während sich die andere Wand von der Lichtquelle entfernt. Albert Einstein, der auf dem
Bahnsteig das Experiment verfolgt erkennt tatsächlich eine Diskrepanz zwischen dem Zeitpunkt des
Eintreffens an der linken und rechten Waggonwand. Was bedeutet dies aber für einen Insassen des
Zuges, der die Lichtgeschwindigkeit misst: Der Insasse, nehmen wir an er sei Diplomphysiker,
kennt die Lichtgeschwindigkeit von 300.000 km/s. Weiterhin ist ihm Einsteins zweites Postulat
bekannt, welches besagt, dass die Absolutgeschwindigkeit nicht ermittelt werden kann. Er wird
zwar relativ leicht herausfinden können wie schnell der Zug ist, aber er wird nicht sagen können wie
schnell die Erde durch das Universum reist, geschweige denn welche Geschwindigkeit das gesamte
Universum hat. Daher ist für ihn die Geschwindigkeit des Zuges zunächst bedeutungslos. Da die
Entfernung Lichtquelle und Waggonwand sowohl nach rechts, als auch nach links gleich ist, jedoch
trotzdem das Licht zu unterschiedlichen Zeitpunkten an den Wänden ankommt (wie unser
außenstehender Einstein erkannt hat), müsste auch das Licht unterschiedlich Geschwindigkeiten
haben (aus Sicht des Insassen, denn den interessiert die eigene Geschwindigkeit nicht, er kann
davon ausgehen, dass er stillsteht).
Doch was besagt Einsteins Postulat:
Die Lichtgeschwindigkeit ist konstant
und lässt sich nicht verändern! Führt
man das Experiment in der Realität
durch, so wird man feststellen: Das
Licht breitet sich in alle Richtungen
gleich schnell aus. Egal wie schnell der
Zug fährt, die Lichtgeschwindigkeit
bleibt immer gleich und das Licht wird
beide Wände - aus Sicht des
Zuginsassen - gleichzeitig erreichen.
Und was sieht unser Außenbeobachter?
Der stellt die Fluggeschwindigkeit des
Lichts von 300.000 km/s fest, erkennt
aber gleichzeitig, dass das Licht zum
erreiche der linken Wand weniger Zeit
benötigt als zum erreichen der rechten
Wand.
Wer von den beiden hat nun recht? Der Innenbeobachter, der sieht, wie beide Lichtstrahlen
gleichzeitig die Wände berühren, oder der Außenbeobachter, der sieht wie beide Wände zu
unterschiedlichen Zeitpunkten von den Leichtteilchen erreicht werden? Die Antwort ist so einfach
wie verblüffend: Beide haben recht! Herzlich willkommen in der verrückten Welt der
Relativitätstheorie. Unser Begriff der Gleichzeitigkeit wird vernichtet, Zeit und Raum sind nicht
mehr das was sie einmal waren - sind nicht konstant, sie sind variabel! Der Teil der
Relativitätstheorie, der sich mit diesem Phänomen beschäftigt nennt man die „Spezielle
Relativitätstheorie“.
Analysieren wir das Ergebnis etwas genauer: Wenn für unseren Beobachter im Waggon beide
Lichtstrahlen gleichzeitig eintreffen, für den Außenstehenden jedoch nicht, ist das zwangsläufig die
Konsequenz daraus, dass der Raum eine Veränderung erfahren hat. Diese Veränderung erfolgte
genau so, dass Albert das gleichzeitige Eintreffen der Quanten innerhalb des Zuges erklären kann.
Aus weiteren Überlegungen, resultierend aus der Raumveränderung, kommt man zu dem Schluss,
dass auch die Zeit eine Veränderung erfahren haben muss.
Seite 23 von 83
Copyright Stefan Frank
Warum man den Äther nicht mehr braucht
Zunächst möchte ich Ihnen das oben
gesagte an einem Beispiel verdeutlichen:
Gegeben sei wieder ein Zug mit einem
Beobachter. Die Länge des Waggons
beträgt 600.000 km (naja, nicht ganz
realistisch, lässt sich aber leichter rechnen)
und er bewegt sich mit einer
Geschwindigkeit von 150.000 km/s. In der
Mitte befindet sich abermals ein
Emissionsgerät, welches Lichtteilchen
aussendet. Ein solches Lichtteilchen muss
also die Halbe Waggonlänge von 300.000
km zurücklegen um die Waggonwand zu
erreichen und abermals 300.000 km um
zum Emissionsgerät zurückzukehren,
wenn dieses von einem Wandspiegel
reflektiert wird. Das Emissionsgerät
wiederum verfügt über einen Detektor, der
meldet, ob die Teilchen wieder eingetroffen sind.
Gegeben: v=150.000 km/s, s=2 x 300.000 km pro Teilchen, c = 300.000 km/s
An den Schienen wartet Albert Einstein und beobachtet die Situation. Nun werden die Lichtquanten
ausgesandt und das Ergebnis ist doch sehr verblüffend: Zwar treffen für jeden der Beobachter die
Quanten gleichzeitig wieder am Detektor ein, jedoch benötigte das Licht eine unterschiedliche
Laufzeit. Der Insasse stellt ein gleichzeitiges Eintreffen nach 2 Sekunden fest, denn bei einer
Lichtgeschwindigkeit von 300.000 km/s benötigen die Teilchen jeweils gerade 2 Sekunden für die
600.000 km lange Hin- und Rückflugstrecke. Bei Albert sieht das etwas anders aus: Zwar beträgt
bei ihm die Lichtgeschwindigkeit auch 300.000 km/s, jedoch ist die Strecke, welche das Licht
zurücklegen muss, etwas länger. Betrechten wir nur das rechte Teilchen: Es fliegt zunächst in
Fahrtrichtung, muss also die Wand, welche ständig vor dem Teilchen „flieht“ erst einmal einholen.
Diese Strecke ist auf jeden Fall schon einmal länger als 300.000 km. Zwar wird die Strecke auf dem
Rückflug wieder kürzer, weil der Detektor nun direkt auf das entgegengesetzt zur Fahrtrichtung
fliegende Teilchen zusteuert, diese Streckenverkürzung kann jedoch die vorhergehende
Streckenverlängerung nicht mehr ausgleichen. Resultat: Für Einstein braucht das Licht 2,67
Sekunden (das gleiche gilt natürlich auch für das linke Teilchen).
Nach reichlicher Überlegung kommt Albert auf die Lösung des Problems: Wenn immer und überall
die Lichtgeschwindigkeit gleich ist, das Licht aber für ihn selber 2,67 Sekunden zum Erreichen der
Wände gebraucht hat, für den Insassen jedoch nur 2 Sekunden, dann müssen die Abstände der
Wände zum Detektor verkürzt sein. Diese so gestauchte Strecke kann das Licht in 2 Sekunden
zurücklegen. Wie groß diese Stauchung ist, sagen uns die Lorentztransformationen:
Die Strecken „Zug – rechte Wand“ und „Zug – linke Wand“ sind also jeweils um ca. 40.000 km
geschrumpft. Hieraus resultiert allerdings ein weiteres zeitliches Problem. Wenn die Gesamtstrecke
pro Teilchen wirklich 600.000 km lang ist, dann kann man leicht die benötigte Zeit des Lichts für
Seite 24 von 83
Copyright Stefan Frank
das Zurücklegen dieser Strecke ausrechnen, denn es gilt die Formel:
Die Geschwindigkeit v eines Objektes (z. B. eines Autos) ergibt sich demnach durch Division der
zurückgelegten Strecke s durch die dafür benötigte Zeit t. Diese Formel kann man leicht nach t
umstellen:
Setzt man hierfür unsere gegebenen Werte ein, so erhält man:
s 600.000 km
t= =
=2s
v
km
300.000
s
Albert hat jedoch ausgerechnet, dass die Strecke jeweils etwas geschrumpft sein muss (und zwar um
je ca. 40.000 km). Für diese Strecke muss das Licht auch weniger Zeit benötigt haben als für
300.000 km! Der Innenbeobachter bestätigt jedoch die Dauer von zwei Sekunden. Albert Einstein
schließt daraus: Die Uhr des Insassen ging etwas langsamer! Auch dies kann man berechnen:
Vergeht für Albert eine Sekunde, so für den Insassen nur 0,87 Sekunden. Vergehen außerhalb des
Zuges zwei Sekunden, so für den Insassen logisch nur 0,87 * 2 = 1,74 Sekunden usw.. Setzt man
diese Erkenntnisse in die Formel zur Geschwindigkeitsberechnung ein, so erhält man tatsächlich
wieder die Lichtgeschwindigkeit:
Das verblüffende Ergebnis: Während der
Insasse
eine
Strecke
„Wand
–
Emissionsgerät“
von
300.000
km
ermittelt, muss die Strecke von Alberts
Position aus in Wirklichkeit kürzer
gewesen sein, nämlich nur ca. 260.000
km. Und während für den Insassen eine
Zeit von einer Sekunde verstrich, sind
nach Alberts Auffassung nur 0,87
Sekunden innerhalb des Zuges vergangen.
Die Zeit innerhalb des Zuges vergeht also
150.000 km/s
langsamer! Logische Schlussfolgerung:
Für die Diskrepanz zwischen unseren Messungen gibt es für
mich nur eine Erklärung: Der Zug muss in Fahrtrichtung Auch der Alterungsprozess des Insassen
etwas geschrumpft sein. So hat das Licht eine kürzere
Strecke zurückzulegen und die beiden Lichtteilchen können ist verlangsamt. Dieses Phänomen ist
den Detektor schon nach zwei Sekunden erreichen. Da das unter dem Begriff Zwillings-Paradoxon
Licht nun eine kürzere Strecke zurücklegen muss, ist es nötig
den
Verlauf
der
Zeit
anzupassen,
damit
die bekannt geworden: Wenn einer von zwei
Lichtgeschwindigkeit auch für den Insassen weiterhin
konstant bleibt.
Brüdern eine interstellare Rakete besteigt
und mit nahezu Lichtgeschwindigkeit durch das Weltall reist, so wird er nach einiger Zeit eine
erschreckende Feststellung machen, wenn er wieder auf der Erde angekommen ist: Während dieser
Seite 25 von 83
Copyright Stefan Frank
jugendlich aus der Rakete steigt, empfängt ihn sein 80 Jahre Alter Bruder für den die Zeit außerhalb
der Rakete weiterhin „normal“ verlaufen ist.
George Francis Fitzgerald war der Auffassung, dass der Ätherwind eine Strecke stauchen könnte
und so die Leichtteilchen trotz Gegen- und Seitenwind gleichzeitig eintreffen könnten. Nimmt man
jedoch an, der Ätherwind existiert nicht, so ist es auch nicht verwunderlich, dass das Licht beide
Strecken in der gleichen Zeit abläuft, denn es existiert nichts, was das Licht aufhalten würde. Diese
Selbstverständlichkeit scheint jedoch nur auf dem ersten Blick offensichtlich. Schaut man etwas
genauer hin, so ist etwas seltsames festzustellen: Die Erde ist in Bewegung und dreht sich um die
Sonne. Wird nun ein Lichtteilchen emittiert, so muss eines eine längere Strecke zurücklegen, als das
andere, wie die Grafik zeigt. Das vertikal fliegende Teilchen hat keinen geraden Weg, sondern muss
eine diagonale Strecke bewältigen, trotzdem kommen beide Teilchen gleichzeitig an. Um diese
Diskrepanz mathematisch wieder auszugleichen muss die horizontale Flugstrecke leicht verkürzt
werden. Ich darf Sie daran erinnern, dass man die vertikale Flugrichtung nicht einfach verkürzen
darf! Die Relativitätstheorie gilt nur in Flugrichtung, Objekte die sich rechts oder links von dieser
Strecke befinden, bzw. Strecken welche senkrecht zur Flugrichtung stehen werden von den
relativistischen Auswirkungen nicht erfasst. Auch wenn der Äther also als nicht Existent angesehen
wird, muss eine Strecke gestaucht worden sein, da sonst das gleichzeitige Eintreffen der Teilchen
nicht zu erklären wäre.
E = mc² und das Problem von Masse und Energie
Zunächst möchte ich zwei Begriffe erklären, welche oft verwandt werden, oftmals ohne zu wissen
was der genaue Bedeutungshintergrund ist. Der erste zu erklärende Begriff ist Kraft: Nach der
newtonschen Mechanik ist Kraft die Beschleunigung, welche auf eine Masse einwirkt. Nach
Newton hat jeder Körper den inneren Drang sich gerade und gleichförmig zu bewegen. Tut dies ein
Körper nicht so wirkt eine Kraft ein. Fällt ein Apfel auf die Erde und bleibt dort liegen, so hindert
die Schwerkraft diesen an der geraden gleichförmigen Bewegung. Werfe ich einen Ball, so erhöhe
ich dessen Geschwindigkeit (ich beschleunige ihn), fange ich ihn ein, so bremse ich diesen ab
(negative Beschleunigung). Kraft (F) ist somit eine Beschleunigung a, welche auf eine Masse m
einwirkt:
Je nachdem wie lange ich eine Kraft auf einen Körper ausübe und diesem um eine Strecke s
Seite 26 von 83
Copyright Stefan Frank
verschiebe, um so mehr Energie (E) übertrage ich, womit der zweite Begriff erklärt währe.
Energie ist also eine Kraft, die ich auf eine bestimmte Strecke aufwende. Unter Beschleunigung
versteht man physikalisch das Verhältnis von erreichter Geschwindigkeit zur dafür benötigten Zeit:
Wenn ich also aus dem Stand in 10 s auf 50 m/s beschleunige, so habe ich eine Beschleunigung von
5 m/s² vorliegen. Die erreichte Endgeschwindgkeit sei ab sofort mit dem Index „Ende“ versehen.
Setzt man obige Gleichung für a in die Kraftgleichung ein, so ergibt sich:
Durch Substitution des F in der Energiegleichung erhält man:
Auch das s in obiger Gleichung lässt sich weiter umformen. Hat man eine gleichförmige,
geradlinige Bewegung vorliegen, so gilt für s:
Somit erhält man für E:
Ein Lichtteilchen hat die Eigenschaft, dass es immer die gleiche Geschwindigkeit hat, egal wo und
wann man misst:
Wendet man diese Erkenntnis auf die Energiegleichung an, so erhält man etwas, was Ihnen
sicherlich bekannt vorkommen dürfte:
In Science-Fiction-Serien wird immer wieder beschrieben wie Raumschiffe die
Lichtgeschwindigkeit überschreiten und mit über 300.000 km/s fliegen. Dies funktioniert aber
wirklich nur bei Raumschiff Enterprise, mit der Realität hat das leider sehr wenig zu tun - dafür um
so mehr mit Relativität. Albert Einsteins Theorie informiert uns nämlich über eine erschreckende
Tatsache: Wir werden nie mit Lichtgeschwindigkeit fliegen können. Für Flüge mit
Lichtgeschwindigkeit wäre eine unendlich große Energie von Nöten, die Länge jedes Gegenstandes
würde auf das unendlich kleine schrumpfen und die Masse des Körpers an sich würde unendlich
groß.
Beweis Anhand der Lorentztransformationen:
1. Streckenproblem:
2. Zeitproblem:
Seite 27 von 83
Copyright Stefan Frank
3. Massenproblem:
Es gibt tatsächlich Möglichkeiten Teilchen auf nahezu Lichtgeschwindigkeit zu beschleunigen. Dies
geschieht im Teilchenbeschleuniger des Kernforschungszentrums CERN bei Genf. Man hat
festgestellt, dass z. B. ein Elektron im Ruhezustand weniger Masse aufweist als im beschleunigten.
Wie kann man das erklären? Ich habe Sie ja bereits mit dem atomaren Aufbau unserer Welt vertraut
gemacht. Ein Mensch wiegt auf der Erde um einiges mehr als auf dem Mond, weil hier die
Schwerkraft größer ist. Die Masse eines Menschen bleibt jedoch unverändert, da die Anzahl der
Atome aus dem der Körper zusammengesetzt ist keiner Veränderung unterliegt. Wenn man jedoch
in Bewegung ist - dies hat man in CERN bewiesen - scheint die Masse größer zu werden, als
würden Atome aus dem Nichts hinzukommen. Dem beschleunigten Körper fügt man außer Energie
jedoch nichts weiter hinzu. Sollte dies vielleicht bedeuten, dass Energie in Masse umgewandelt
werden kann? Albert Einstein sagt: "Ja!". Dies resultiert direkt aus seiner Formel E=mc². In der
Zwischenzeit ist bewiesen, dass man aus Masse sehr, sehr viel Energie gewinnen kann, denn jedes
Atomkraftwerke baut auf dieser Tatsache auf. Aus Energie lässt sich im Umkehrschluss jedoch auch
Masse gewinnen: Wenn man ein Stück Eisen erhitzt wird das Metall im heißen Zustand mehr
wiegen als vorher, da man Energie hinzugefügt hat - und Energie ist gleich Materie. In CERN
wurden entsprechende Experimente durchgeführt - aus purer Energie wurde reine Materie.
Der Vollständigkeit halber sei hier noch die Tachyonen-Theorie erwähnt, auch wenn diese auf
zweifelhaftem Fundament steht. Tachyonen, so die Vorstellung, sind Teilchen, welche sich
schneller als Licht bewegen können. Gary Feinberg untersuchte die Relativitätstheorie auf Fälle von
Überlichtgeschwindigkeit und erkannte, dass die Theorie sehr wohl solche Fälle zulässt. Teilchen,
welche sich jedoch mit Überlichtgeschwindigkeit bewegen müssten masselos sein (ähnlich dem
Lichtteilchen) und könnten ihre Geschwindigkeiten nicht unter Lichtgeschwindigkeit reduzieren.
Auch für sie wäre also die Barriere von ca. 300.000 km/s unüberwindbar, halt nur von der anderen
Seite. Zwar ist diese Theorie mathematisch fundiert, bis jetzt konnten diese Teilchen jedoch nicht
nachgewiesen werden.
Zusammenfassung
Geschwindigkeit ist relativ und nicht absolut messbar. Wir können immer nur feststellen wie
schnell wir uns relativ zu einem Bezugspunkt bewegen. Da wir jedoch nicht von einem Stillstand
dieses Bezugspunktes ausgehen können, ist unsere Absolutgeschwindigkeit nicht messbar. Wir
können also auch genauso gut davon ausgehen, dass wir stillstehen und sich das Universum um uns
bewegt. Da die Lichtgeschwindigkeit konstant ist, ergibt sich hieraus das Phänomen von Längenund Zeitkontraktion. Eine Erhöhung der Geschwindigkeit eines Objektes ist nur durch
Energiezufuhr möglich. Da jedoch, nach Einstein, Energie gleichzusetzen ist mit Masse (E=mc²), ist
bei höheren Geschwindigkeiten auch eine Massezunahme festzustellen. Eine Überschreitung der
Lichtgeschwindigkeit ist nicht möglich, es sei denn Teilchen sind bereits von Natur aus mit
Überlichtgeschwindigkeit ausgestattet. Diese hypothetischen Tachyon-Teilchen können die
Lichtgeschwindigkeit jedoch nicht unterschreiten.
Seite 28 von 83
Copyright Stefan Frank
- Kapitel 6 Was ist Gravitation? Die allgemeine Relativitätstheorie
Newtons Gleichungen erklärten wie die Planeten um die Sonnen kreisen - und dies auch sehr genau.
Doch gab es ein Problem, welches Newton nicht zu lösen vermochte: Neben der Tatsache, dass er
die Schwerkraft an sich nicht deuten konnte, war es ihm auch nicht möglich die Fehler in der
Umlaufbahn des sonnennächsten Planeten Merkur zu lösen. Mit jedem Umlauf des Merkurs um die
Sonne verschiebt sich seine Umlaufbahn etwas zu vorhergehenden. Die bestehende
Gravitationstheorie konnte diese Abweichungen nicht richtig vorhersagen. Man vermutete die
Existenz eines weiteren Planeten, den man bisher noch nicht entdeckt hatte und der diese
Abweichung verursacht - man nannte ihn „Vulkan“. Heute ist er wohl aus der Serie Raumschiff
Enterprise bekannt, dessen Besatzungsmitglied Mr. Spock von diesem Planeten stammt. Einstein
löste das Problem und erklärte ganz nebenbei noch, was eigentlich Schwerkraft ist.
Das Raum-Zeit-Kontinuum
Dazu müssen wir uns das so genannte Raum-Zeit-Kontinuum genauer betrachten. Der Raum besteht
zunächst aus den drei bekannten Koordinaten: Länge, Breite und Höhe. Mit diesen Koordinaten
können wir jeden x-beliebigen Punkt genau festlegen. Um einen Punkt in der Geschichte genau
ansprechen zu können, benötigen wir neben diesen Angaben noch eine vierte - die Zeit. Soweit
erscheint uns das ja auch noch logisch. Stellen Sie sich nun ein Schattenspiel vor. Die Bewohner
einer „Schatten-Spiel-Stadt“ kennen keine Tiefe, das bedeutet sie haben nur zwei Dimensionen zur
Verfügung: die Länge und die Breite. Es ist für diese Wesen schier unvorstellbar, dass es noch eine
dritte Dimension gibt - die Tiefe nämlich. Was für uns völlig selbstverständlich ist, ist für diese
Wesen völlig fremd. Und genau so schwer, wie es für diese Wesen ist, sich eine dritte Dimension
vorzustellen, ist es für uns nahezu unmöglich eine vierte Dimension zu veranschaulichen. Aber
genau das sagt Albert Einstein: So wie Länge, Breite und Höhe miteinander unzertrennlich
verknüpft sind, so ist auch die Zeit untrennbar mit diesen drei Dimensionen verbunden: dies ist das
so genannte Raum-Zeit-Kontinuum. Und jede Masse, egal wie groß oder wie klein sie ist, beugt
dieses Kontinuum, die Masse macht sozusagen eine Delle in die Raumzeit.
Wie schon erklärt hat jede Masse den drang eine geradlinige, gleichförmige Bewegung zu
vollziehen. Wollen wir dies verhindern, so müssen wir eine Kraft aufwenden um die Masse
umzulenken, abzubremsen oder zu beschleunigen. Auch Planeten haben demnach den Drang einer
geradlinigen, gleichförmigen Bewegung, sie werden jedoch daran gehindert, da die
Gravitationskraft anderer Planeten bzw. Sterne (z.B. die Sonne) eine beeinflussende Kraft auf
andere Planeten ausübt. Albert Einstein deutete die Gravitation als eine Verwerfung (also eine
Krümmung) der Raumzeit. Stellen Sie sich ein gespanntes Gummituch vor. In die Mitte legen Sie
ein schweres rundes Objekt, so dass das Gummituch eingedrückt wird. Nun nehmen Sie
beispielsweise eine Murmel und lassen sie um das mittlere Objekt kreisen. Die Murmel wird sich
um den Mittelpunkt drehen, dabei die Form ihrer Umlaufbahn permanent verändert und schließlich
in den Mittelpunkt stürzen. Das Gummituch soll dabei natürlich die Raumzeit und die Murmeln die
Planeten symbolisieren. Albert Einstein löste somit das Problem der Gravitation und gleichzeitig
Newtons Gesetze ab. Sie werden allerdings aus Einfachheitsgründen heute immer noch angewendet,
da Einsteins Formeln einfach zu komplex sind und der Unterschied in der Regel minimal ist.
Seite 29 von 83
Copyright Stefan Frank
Das Verhalten von Licht in der Raumzeit - das Äquivalenzprinzip
Stellen Sie sich vor, Sie sie sind in einen Fahrstuhl eingestiegen, jedoch nicht in einem x-beliebigen
sondern in einem speziellen - ein Fahrstuhl der mitten in der Unendlichkeit des Raumes verkehrt.
Normalerweise gibt es hier keine Schwerkraft, sie würden also in ihrem Fahrstuhl umherschweben.
Stellen Sie sich weiter vor, der Fahrstuhl fährt nun an. Wenn er eine bestimmte Geschwindigkeit
erreicht hat können Sie nicht mehr unterscheiden, ob Sie in einem Fahrstuhl nach oben fahren, oder
ob plötzlich eine höhere Macht die Schwerkraft in dem Fahrstuhl eingeschaltet hat. Beide
Erscheinungsbilder sind vollkommen gleich - die Beschleunigung nach oben und die Schwerkraft dies nennt man das Äquivalenzprinzip.
Stellen Sie sich weiter vor in
den Fahrstuhl fällt durch ein
kleines
Loch
ein
Lichtteilchen in das Innere
der Kabine. Was werden Sie
sehen? Das Lichtteilchen
fliegt gerade aus. Sie
bewegen sich jedoch mit
dem Fahrstuhl nach oben und
plötzlich erscheint es Ihnen
als würde das Lichtteilchen
in Bezug auf die Kabine
gekrümmt.
Wenn die Beschleunigung
des Fahrstuhls und die
Schwerkraft äquivalent sind,
sollte dann vielleicht ein
vergleichbarer
Lichteffekt
auch
bei
Körpern
vorkommen, die Schwerkraft
ausüben? Die Antwort auf
die Frage: Ja! Licht wird tatsächlich an der Erde oder anderen Objekten gekrümmt. Was hat das für
Seite 30 von 83
Copyright Stefan Frank
folgen? Nun, wenn wir in den Himmel schauen können wir, so glaubten wir bisher, die Position der
Sterne kartographieren, indem wir uns die Himmelspositionen auf eine Karte übertragen. Dies geht
nun nicht mehr! Wenn ein anderer Planet das Licht beugt, kann der Stern in Wirklichkeit an einer
ganz anderen versetzten Stellen aufzufinden sein, wie folgendes Bild zeigt:
Einsteins größter Fehler
Resultierend aus seiner Relativitätstheorie machte Albert Einstein eine erschreckende Entdeckung:
Der Weltraum ist nicht konstant sondern expandiert! Diese Erkenntnis war zu Einsteins Zeiten
revolutionär, doch war das Bild eines statischen Universums zu sehr in den Gedanken der
Menschen verankert. Auch Einstein konnte sich mit einem expandierenden Universum nicht
abfinden und korrigierte daher seine Gleichungen - er führte einen konstanten Wert ein, der der
Expansion sozusagen entgegenwirkt: es handelt sich um die „Kosmologische Konstante“.
Der amerikanische Astronom Edwin Hubble (1889-1953) entdeckte etwas was später Hubble-Effekt
genannt werden sollte. Es war der schlagende beweis dafür, dass Albert Einstein falsch lag: Das
Universum expandiert! Einstein bezeichnete die kosmologische Konstante später als größten Fehler
seines Lebens.
Was ist der Hubble-Effekt? Zunächst muss man wissen, dass Hubble zwei physikalische
Erkenntnisse kombiniert hat: den Doppler-Effekt und die Frauenhoferlinien im Lichtspektrum. Den
Doppler-Effekt können wir jeden Tag selber beobachten: Wenn wir an einer Straßenkreuzung
stehen und ein Feuerwehrfahrzeug mit Blaulicht und Martinshorn heranfahren hören, dann machen
wir eine bemerkenswerte Feststellung: Um so näher das Einsatzfahrzeug an uns heranfährt, um so
höher erscheint uns der Klang der Sirene. Dies ist keine Einbildung, sondern ein logisches Resultat,
wenn man sich den Schall genauer ansieht. Der Schall besteht aus Wellen, die sich in einem
Medium, in der Regel Luft, fortpflanzen. Diese Wellen werden in regelmäßigen Abständen von dem
Seite 31 von 83
Copyright Stefan Frank
Martinshorn abgegeben und treffen dann auf unser Gehör, wo die Daten durch unser Gehirn
weiterverarbeitet werden. Um so näher das Fahrzeug kommt, um so mehr Schallwellen pro
Zeiteinheit treffen auf unser Ohr.
Nehmen wir an das Fahrzeug ist noch zwei Meter von uns entfernt und sendet nun Schallwellen aus,
so treffen diese Wellen wenig später auf unser Gehör. In der Zwischenzeit ist das Fahrzeug jedoch
wieder etwas auf uns zu gekommen. Die nun ausgesandten Wellen werden zwar später emittiert, sie
müssen dafür aber auch eine kürze Strecke zu uns zurücklegen. Somit werden diese Wellen fast
gleichzeitig mit den anderen, vorher ausgesandten Wellen eintreffen. Um so näher das Fahrzeug
kommt, um so mehr Wellen treffen nach diesem Prinzip auf unser Gehör. Um so mehr Wellen auf
unser Ohr treffen, um so höher kommt uns der Klang vor. Das gleiche geht natürlich auch
andersherum: Wenn das Fahrzeug an uns vorbeigefahren ist, treffen weniger Wellen pro Zeiteinheit
bei uns ein und der Klang wird wieder tiefer.
Licht besteht ja ebenfalls aus Wellen. Könnte man da ähnliche Erfahrungen machen? Es stellte sich
heraus, dass tatsächlich ein ähnlicher Effekt verzeichnet werden kann. Dabei helfen die sog.
Frauenhoferlinien im Lichtspektrum weiter: Man nehme ein beliebiges Element, bestrahle es mit
weißem Licht und schicke den Lichtanteil, der von dem Körper zurückgeworfen wird durch ein
Prisma und lasse das Licht in seine Spektralfarben zerlegen. Das Ergebnis sind z.B. die Farben des
Regenbogens, jedoch sind in gewissen Abständen kleine schwarze Streifen zu erkennen. In diesen
Bereichen ist Licht von dem bestrahlten Element absorbiert und nicht reflektiert worden. Jedes
Element hat seine charakteristischen Spektrallinien (auch Frauenhoferlinien genannt). Man könnte
sagen, die Frauenhoferlinien sind der Fingerabdruck eines jeden Elementes. Auf diese Art und
Weise lässt sich auch feststellen aus welchen Elementen entfernte Sterne zusammengesetzt sind
ohne diese selber betreten zu müssen: Man zerlegt einfach das ankommende Licht in sein Spektrum.
Betrachtet man das Lichtspektrum weiter, so stellt man fest, dass beim linken Spektrum (der
Bereich des ultravioletten Lichtes) die Abstände zwischen Wellenberg und Wellental sehr gering
sind, um so weiter man im Spektrum nach rechts geht (der Bereich des infraroten Lichtes), um so
größer werden die Abstände zwischen Wellenberg und Wellental. Man könnte vereinfacht sagen: im
rechten Spektrum treten pro Zeiteinheit weniger Wellen auf als im linken Spektrum, aber dies habe
ich Ihnen ja bereits erklärt.
Als Hubble das Licht entfernter Galaxien beobachtete sah er, dass die Spektrallinien der Stoffe
leicht in das rote, rechte Spektrum verschoben worden waren. In Kombination mit dem DopplerEffekt konnte er sich dies erklären: Die Galaxien entfernen sich, ähnlich dem Feuerwehrfahrzeug.
Hierdurch treffen weniger Lichtwellen pro Zeiteinheit auf unsere Augen. Zwischen Wellenberg und
Wellental ist eine größer Lücke vorzufinden - resultierend aus diesem Effekt werden die
Frauenhoferlinien leicht in das rote, rechte Spektrum verschoben.
Ich habe nicht um sonst so viel Zeit für die Erklärung dieses Effektes verwendet. Schließlich
beschreibt der Hubble-Effekt eine völlig neue Sichtweise unserer Welt. Durch die Expansion des
Weltalls können wir darauf schließen, dass es eine Zeit gegeben haben muss, in der die gesamte
Masse des Universums auf einen Ort konzentriert war. Wenn das All also einen Anfang hatte, hat es
dann auch ein Ende? Welche Bedeutung hat dies für die Quantentheorie? Kann Sie Auskunft über
das Kommende oder Vergangene geben? Fragen über Fragen und wir wollen sehen, was die
Quantentheorie dazu sagt. Los geht's im nächsten Kapitel.
Seite 32 von 83
Copyright Stefan Frank
Zusammenfassung
Albert Einstein prägte den Begriff der Raumzeit bzw. des Raum-Zeit-Kontinuums. Demnach sind
die drei Raumkoordinaten und die Zeit untrennbar miteinander verwoben. Eine Masse, egal wie
klein, krümmt dieses Raum-Zeit-Kontinuum. Verwerfungen der Raumzeit sind für die
gravimetrischen Effekte verantwortlich. Einstein erkannte weiter, dass Trägheits- und Schwerefeld
vergleichbar (äquivalent) sind. Ob ein Fahrstuhl nach oben fährt und dadurch Masseträgheit
hervorgerufen wird, oder ob der Fahrstuhl einem Schwerefeld ausgesetzt ist, lässt sich nicht
unterscheiden. Hieraus resultiert die Krümmung von Licht an massereichen Objekten. Aus seinen
Überlegungen schloss Einstein, dass es eine treibende Kraft geben müsse, die das Universum
expandieren lässt. Um dies zu verhindern, führte er eine Gegenkraft ein - die kosmologische
Konstante. Edwin Hubble konnte jedoch durch seine Beobachtungen eine Expansion des
Universums nachweisen, was die kosmologische Konstante widerlegte.
Seite 33 von 83
Copyright Stefan Frank
- Kapitel 7 Das Problem des schwarzen Körpers – Geburtsstunde der Quantentheorie
Mit der Wellentheorie ließen sich viele physikalische Phänomene beschreiben, so z.B. die Brechung
und Reflexion des Lichts und nicht zu vergessen die Interferenz und das daraus resultierende
Muster. Wir haben jedoch nicht nur einmal feststellen müssen, dass Theorien oftmals nur eine kurze
Halbwertzeit haben, da es Versuche gibt, die sich mit dem vorhandenen Modell nicht exakt
beschreiben lassen. So war es auch mit der Vorstellung Licht sei eine Welle. Im Fall des sog.
schwarzen Körpers (black body) machte sie eine falsche Vorhersage.
Was ist ein schwarzer Körper?
Ein black body ist ein Körper, der keinerlei Strahlung emittiert sondern die gesamte eintreffende
Strahlung absorbiert. Ein Spiegel beispielsweise ist das Gegenteil eines schwarzen Körpers: Er
absorbiert kaum Strahlung, sondern sendet sie annähernd komplett zurück, weshalb wir uns in ihm
spiegeln können. Man wusste zur Zeit Maxwells bereits, dass Atome über die Fähigkeit verfügen
sowohl einfallende elektromagnetische Wellen einzufangen und zurückzuwerfen (Reflektion) bzw.
Strahlung „gefangen zu halten“ (Absorption).
Zunächst scheint es so, als würde ein schwarzer Körper keinerlei Strahlung emittieren dürfen, da er
ja jede ankommende Strahlung absorbiert und nicht zurückwirft. Aber dies ist falsch. Er darf
durchaus Strahlung abgeben, diese darf aber nur von ihm selbst erzeugt worden sein und nicht das
Ergebnis einer Reflexion der umgebenden Strahlung darstellen. Ein einfaches Beispiel hierfür ist die
Sonne. Sie ist ein annähernd perfekter schwarzer Körper, da sie kaum Umgebungsstrahlung
reflektiert und nur selbst erzeugte Strahlung (z.B. sichtbares Licht) aussendet. Im Labor kann man
natürlich keine Sonne erzeugen, weswegen man sich eines Tricks behilft um einen black body zu
realisieren.
Man nimmt ein schwarzes Rohr und verschließt beide Enden mit einer Kappe. In eine der beiden
Kappen macht man ein kleines Loch. Die Strahlung welche im inneren des Rohres erzeugt wird
kann durch das Loch nach außen dringen wo sie durch ein Messgerät erfasst wird. Licht, welches
von außen durch das Loch in das Innere der Röhre fällt, wird von den Innenwänden des Rohres so
oft hin und her reflektiert, bis die gesamte Lichtenergie von den Atomen des Rohres absorbiert
worden ist. Somit hat der Strahl keine Chance die Röhre zu verlassen, wodurch das Licht nicht mehr
nach außen dringen kann. Das Ergebnis ist ein recht guter schwarzer Körper.
Nach
der
bisherigen
Wellentheorie glaubte man an
folgenden Sachverhalt: Um so
heißer ein Körper ist um so
mehr Energie beinhaltet er.
Hitze ist nichts weiter als eine
Vielzahl elektromagnetischer
Wellen, welche der Körper
aussendet. Um so kürzer die
Wellenlänge des Lichts um so
energiereicher ist die Strahlung und um so heißer erscheint uns der Körper. Daraus ergibt sich
jedoch ein Problem: Um so heißer der Körper um so energiereicher die Strahlung – theoretisch wäre
es möglich gewesen, dass die Wellenlänge immer kleiner und kleiner wird, dies bedeutet aber, dass
die Energie immer größer und größer geworden wäre. Für eine unendlich kleine Wellenlänge hätte
das eine unendlich große Energiemenge bedeutet. Dieses Phänomen nennt man „ultraviolette
Katastrophe“ - benannt nach dem hochenergetischen Bereich des Lichtspektrums. Man führte
entsprechende Experimente an einem schwarzen Körper durch, doch die Katastrophe blieb aus. Statt
Seite 34 von 83
Copyright Stefan Frank
dessen bemerkte man, dass ab einer bestimmten kurzen Wellenlänge die Emissionen einfach
abbrachen – es gab einfach keine Wellenlängen, die noch kürzer waren. Man konnte also die
Wellenlänge nicht beliebig verkürzen. Die Ursache hierfür blieb zunächst im Dunklen, eine
Erklärung konnte nicht gefunden werden – wissenschaftliche Sprachlosigkeit. Fakt war nur, dass
dies mit der Wellentheorie des Lichts nicht mehr zu erklären war.
Im Jahre 1900 konnte der deutsche Physiker Max Planck (1858-1947) das Problem jedoch lösen.
Dafür musste man sich von der Vorstellung einer kontinuierlichen Energieverteilung verabschieden,
was Planck selber nicht gefiel aber alle Versuche einer anderen Erklärung schlugen fehl. Demnach
fasste Planck die Strahlungsenergie nicht mehr alleinig als elektromagnetische Welle auf, welche
kontinuierlich jede beliebige Energiemenge abgeben konnte. Er ging viel mehr von einer diskreten
Verteilung der Energie aus – er meinte, die Energie sei gequantelt. Planck recycelte die
Teilchentheorie, jedoch sehr stark abgewandelt: Elektromagnetische Energie kann an Atome nicht
kontinuierlich abgeben werden, sondern nur in ganzen Energiepaketen, sog. Quanten. Dabei ist
jedes Quantum Träger einer ganz bestimmten Energiemenge. Die Energiemenge ist Abhängig von
der Frequenz der Strahlung. Er fasste dies in der Formel
zusammen, wobei E die Energie des Quantums, v die Frequenz der Strahlung und h das sog.
Plancksche Wirkungsquantum ist. Letzteres ist eine Naturkonstante, die ich noch genauer erklären
werde.
Da man nun wusste, dass elektromagnetische Strahlung nicht kontinuierlich in jeder beliebigen
Menge abgeben werden kann, sondern nur in Paketen bestimmter Energie, konnte man nun auch das
Nichtauftreten der ultravioletten Katastrophe erklären. Die Atome waren nicht in der Lage die
gewünschten Energiepakete mit
entsprechender Energie zur Verfügung zu stellen.
Entweder das Atom kann ein Quant
der Energie abgeben, oder nicht. Nur ein bisschen
Energie der Frequenz v abzugeben geht nicht, das würde eine kontinuierlichen Abgabe von Energie
entsprechen. Wenn das Atom Energie abgaben will, dann muss es das schon in ganzen Paketen tun,
wobei dieses Paket eine Energie hat, welche der Frequenz multipliziert mit dem Planckschen
Wirkungsquantum entspricht. Man wird nie ein Lichtquant finden, welches bei einer gegebenen
Frequenz v nur eine
Energie
abgeben wird. Dies wäre
nur ein halbes Quant der
Frequenz
v.
Halbe
Quanten
existieren
jedoch nicht. Quant ist
Quant und kann nicht
halbiert, verdoppelt usw.
werden. Es ist die
kleinste
mögliche
Energiemenge, in der
eine elektromagnetische
Welle der Frequenz v
auftreten kann. Eine
Quelle, welches Licht der
Frequenz v aussendet,
emittiert
also
lauter
kleine Energiepakete mit
der
beschriebenen
Energiemenge.
Seite 35 von 83
Copyright Stefan Frank
Es ist logisch, dass man wirklich verstanden haben muss was ein Quant ist, wenn man die
Quantentheorie verstehen will, deswegen sei es hier noch einmal direkt auf den Punkt gebracht:
Ein Quant ist ein Energiepaket. Wenn wir eine elektromagnetische Welle mit einer bestimmten
Frequenz vorliegen haben, so kann diese ihre Energie nicht kontinuierlich z. B. an ein Atom
abgeben sondern nur in ganzen Energiepaketen. Die Energie eines Paketes entspricht der Frequenz
multipliziert mit einer Naturkonstanten, genannt Plancksches Wirkungsquantum. Andersherum
kann ein Atom auch nur ganze Energiepakete emittieren. Auch ihm ist es nicht möglich Strahlung
kontinuierlich, also in jeder beliebigen Menge abzustrahlen.
Das Bohrsche Atommodell
Das Bohrsche Atommodell war eine
logische Konsequenz aus der
Quantentheorie Max Plancks. Sie
erinnern sich: Das Rutherfordsche
Modell hatte die Eigenschaft, dass
Elektronen in jeder beliebigen Bahn
den Kern umkreisen können. Aber
schon in der Zeit vor der
Entdeckung der Quantentheorie
machte
dieses
Modell
den
Physikern Kopfzerbrechen. Stellt
man sich die Elektronenbahnen
wirklich als Planetenbahnen vor, so
hätte, nach Annahme der klassischen Mechanik das Elektron durch Abgabe von Energie in den
Kern stürzen müssen. Ähnlich der schon beschriebenen Murmel auf einem Gummituch um die man
eine zweite Kugel kreisen lässt. Nach einiger Zeit wird die Bahn immer enger und enger, bis die
kreisende Kugel endgültig auf den ruhenden Kern stürzt. Die Quantenphysik hatte dafür jetzt eine
Erklärung, auch wenn viele diese zunächst nicht akzeptieren wollten, weil sie eine Verquickung der
klassischen Physik mit den Erkenntnissen der Quantentheorie bedeutete, was zu einem etwas
komischen Gesamtkonstrukt führte.
Bohr behielt zwar die Vorstellung der Planetenbahnen bei, jedoch waren diese nicht mehr beliebig.
Durch Anwendung der Quantentheorie auf die atomare Struktur fand er heraus, dass Elektronen nur
auf ganz bestimmten Bahnen den Atomkern umkreisen können. Ein jedes Elektron bewegt sich auf
einer dieser Bahnen. Wenn das Elektron in der Kern stürzen würde, müsste es dabei Energie
Seite 36 von 83
Copyright Stefan Frank
abgeben. Energie kann jedoch nur in ganzen Paketen emittiert werden. Die neuen Quantenbahnen
sind nun so ausgelegt, dass ein Elektron beim Fall in den Kern weniger Energie abgeben müsste als
einem Quantum Energie entspräche. Da jedoch ein Quant ein Quant ist und nicht halbiert, gedrittelt,
geviertelt usw. werden kann, ist es dem Elektron nicht möglich das Quant auszusenden, wodurch es
verdammt ist auf seiner Bahn zu bleiben. Es ergibt sich dadurch eine ganz neue Sichtweise des
Atoms mit einem schalenartigen Aufbau. Auf jeder dieser Schalen, welche das Atom wie eine Art
Zwiebel umgeben, haben eine bestimmte Anzahl an Elektronen Platz.
Die Ursache der Frauenhoferlinien im Lichtspektrum
Sie wissen nun, dass Elektronen nur auf ganz bestimmten Bahnen den Kern umkreisen können. Sie
wissen weiterhin, dass die Elektronen aufgrund der Eigenschaft ihrer Bahnen nicht einfach in den
Kern stürzen können. Es ist ihnen jedoch möglich die Bahnen zu wechseln, wodurch die Effekte
Lichtabsorption und Lichtemittierung erklärt werden können.
Trifft ein Quant auf ein Atom, so kann dieses, bei entsprechender Energie, ein Elektron mit Energie
so versorgen, dass es die Kraft hat von einer niedrigeren Schale auf eine höhere überzugehen. Das
Quant wird dabei von dem Elektron aufgenommen und hat dadurch keine Chance mehr
weiterzufliegen. Haben wir ein Gas eines Elementes (z.B. Wasserstoff oder Helium) vorliegen und
bestrahlen dieses mit weißem Licht, welches wir hinter der Gasansammlung in seine Spektralfarben
zerlegen, so werden wir feststellen, dass die schon oben beschriebenen Linien im Lichtspektrum
auftauchen. Die Erklärung hierfür liegt bei den angeregten Elektronen. Bestimmte Quanten wurden
von dem Gas aufgenommen (absorbiert) und so am weiterfliegen gehindert, während andere
Quantenpakete das Gas ungehindert passieren konnten und das Lichtspektrum am anderen Ende
bilden. Dabei haben die aufgenommenen Quanten nicht irgendeine Energie, sondern exakt die
Energiemenge welche benötigt wurde, um das Elektron von dem einen Energieniveau auf das
Seite 37 von 83
Copyright Stefan Frank
andere zu heben. Da die Energie eines Quants jedoch gerade die Frequenz multipliziert mit dem
Wirkungsquantum ist, fehlen immer genau bestimmte Frequenzen im Lichtspektrum. Die Frequenz
des Lichts ergibt sich direkt aus seiner Wellenlänge und daher kann man auch sagen, dass
bestimmte Wellenlängen fehlen.
Andersherum kann ein Elektron auch von einer höheren Bahn auf eine niedrigere Abfallen und
dabei ein Quant emittieren. Dabei entspricht die Energie des Quants genau der Differenz zwischen
den Energieniveaus der oberen und unteren Bahn. Da die Energie eines Quants nur von der
Frequenz (ergo von der Wellenlänge) abhängt ergibt sich, dass Licht einer ganz bestimmten
Wellenlänge emittiert wird. Ähnliches passiert bei fluoreszierenden Stoffen, wie wir es von den
Ziffern eines Weckers her kennen: Licht fällt auf die Substanz, wodurch jede Menge Elektronen in
einen höheren, energiereicheren Zustand übergehen. Wenn wir den Raum abdunkeln, fallen diese
nach und nach wieder in den Ausgangszustand zurück und geben dabei ihre Energie, welche wir als
sichtbares Licht wahrnehmen, ab. Das Ergebnis ist eine leuchtende Schrift.
Auch Experimente bestätigten zunächst diese Vorstellung des Atoms und die Richtigkeit der
Quantenvorstellung. Hierauf möchte ich im nächsten Kapitel genauer eingehen.
Zusammenfassung
Um die ultraviolette Katastrophe beim schwarzen Körper zu verhindern, führte Max Planck die
Vorstellung der gequantelten Energie ein. Demnach kann Energie nicht kontinuierlich, sondern nur
in Paketen, sog. Quanten übertragen werden. Der Energiegehalt eines Quants entspricht der
Lichtfrequenz multipliziert mit einer Naturkonstante, dem Planckschen Wirkungsquantum. Das
Bohrsche Atommodell macht sich diese Quanten-Vorstellung zu nutze und schreibt Elektronen eine
ganz bestimmte Umlaufbahn innerhalb eines Atoms vor. Absorbiert ein Atom Lichtenergie, so wird
ein Elektron auf eine höhere Schale gehoben. Bei Lichtemission hingegen fällt ein Elektron von
einer höheren auf eine niedriger Schale zurück.
Seite 38 von 83
Copyright Stefan Frank
- Kapitel 8 Experimentelle Forschung auf dem Gebiet der Quantentheorie
Durch die Quantentheorie konnten viele Probleme gelöst werden, welche physikalische
Experimente aufgeworfen hatten. Weiterhin legten Experimente die Grundlage für
wissenschaftliche Theorien und lieferten den Beweis für die Richtigkeit der Quantenvorstellung.
Einstein und das Rätsel um den photoelektrischen Effekt
Die Lösung des Geheimnisses um den photoelektrischen Effekt sollte Albert Einstein zu höchsten
Ehren bringen. Für diese Leistung, und nicht etwa für seine Relativitätstheorie erhielt er 1922 den
Nobelpreis für Physik.
Das Rätsel, welches ich nun beschreiben möchte, beschäftigte die Wissenschaftler schon lange. Ich
denke, man kann auch gut verstehen warum dem so ist. Man hatte nämlich festgestellt, dass
metallische Platten, wenn man diese mit Licht bestrahlt, elektrisch geladen werden. Diese Tatsache
an sich war noch nicht verwunderlich. Man dachte sich bereits, dass durch die Energie des Lichts
Elektronen aus der Oberfläche des Metalls herausgeschlagen werden, wodurch ein
Elektronenmangel in der Platte entsteht, welche somit elektrisch positiv geladen wird, wobei die
Elektronen ein elektrisch negatives Feld erzeugen.
Verwunderlich waren vielmehr Experimente, welche man mit unterschiedlichem Licht und
unterschiedlicher Lichtintensität durchführte. Grundlage dieses Versuchs ist eine Metallplatte
welche mit Licht bestrahlt wird. Elektronen werden aus dem Metall herausgerissen und haben dabei
eine bestimmte Energie. Die Geschwindigkeit, mit der diese sich von der Platte entfernen kann
dabei als Maß für ihren Energiegehalt angenommen werden, man spricht auch von der sog.
Impulsenergie.
Geht man von der Wellennatur des Lichts aus müsste man eigentlich die Geschwindigkeit der
Elektronen erhöhen können, wenn man die Intensität der Strahlung erhöht, also einfach mehr rote
Strahlung auf die Metallplatte treffen lässt. Bei einem entsprechenden Experiment zeigte sich
jedoch, dass durch eine Erhöhung der roten Strahlung zwar mehr Elektronen aus der Platte
geschlagen worden sind, jedoch diese den gleichen Energiegehalt (die gleiche Geschwindigkeit)
aufwiesen wie vorher.
Ändert man jedoch die Frequenz des Lichtes und verwendet (energiereichere) blaue Strahlung, so
hatten die ausgesandten Elektronen eine höhere Energie. Auch hier galt, dass eine Erhöhung der
Strahlungsintensität nur mehr ausgesandte Elektronen zur Folge hatte, jedoch keine
Energieveränderung bei den einzelnen Elektronen.
Bei bestimmten Experimenten konnte man diese Beobachtungen sogar auf die Spitze treiben: Wenn
man Metalle mit Strahlung kurzer Wellenlänge (geringer Frequenz) behandelte, wurden teilweise
überhaupt keine Elektronen ausgesandt. Egal wie hoch man die Intensität der Strahlung auch setzte.
Das war unlogisch: Denn wenn Licht eine energiereiche Welle ist, so hätte nach Erhöhung der
Lichtintensität irgendwann genug Energie ankommen müssen, um das Elektron aus dem Atom
herauszulösen. Wenn die Strahlung kontinuierlich an das Elektron abgegeben wird, so hätte das
Elektron mit der Zeit genug Energie „sammeln“ können, um sich aus der Umklammerung zu lösen.
Dies funktionierte jedoch nicht, man stellte stattdessen fest, dass schon eine geringe Intensität
kurzwelligerer Strahlung (z.B. blau) ausgereicht hat, um Elektronen zu lösen. Wie konnte das sein?
Albert Einstein hatte darauf eine Antwort, und vielleicht haben Sie auch bereits eine Idee. Dass die
Energie der ausgesandten Elektronen nicht von der Intensität des Lichtes sondern nur von seiner
Wellenlänge abhängt, ist Folge der Quantelung von elektromagnetischer Strahlung. Wenn
Elektronen aus einem Atom gelöst werden sollen, braucht man dafür eine bestimmte Energie. Diese
Energie wird von dem Elektron nicht mit der Zeit gesammelt sondern in Quantenportionen
aufgenommen. Entweder die Strahlung liefert Quanten mit entsprechender Energie oder nicht. Eine
Seite 39 von 83
Copyright Stefan Frank
Intensivierung der Strahlung erhöht nur die Anzahl der Quantenpakete, jedoch nicht ihren
Energiegehalt. Nur eine Reduzierung der Wellenlänge führt zu einer Erhöhung der Frequenz und
somit zu energiereicheren Quanten. Diese führen dann genügend Energie mit sich um das Elektron
ad hoc aus dem Atom zu befreien.
Die Fotozelle und das Plancksche Wirkungsquantum
Ich habe sie schon oft erwähnt, die Naturkonstante h, genannt das Plancksche Wirkungsquantum.
Nun will ich etwas genauer erläutern wie man überhaupt auf diese Zahl gekommen ist und was man
sich unter ihr vorzustellen hat. Sie haben ja schon einiges über den atomaren Aufbau der Materie
und quantentheoretischer Effekte gelesen, dieses Wissen werden wir nun anwenden.
Wie so oft steht am Anfang wieder ein Experiment – die sog. Fotozelle. Eine Möglichkeit eine
solche aufzubauen ist die Verwendung einer sog. Cäsiumelektrode. Diese wird auf der Rückseite
z.B. einer Röhre angebracht und mit Licht (am Besten einer Wellenlänge) bestrahlt. Sie wissen ja
bereits was passiert: Hat das Licht die richtige Frequenz (bzw. die Quanten die richtige Energie) so
werden Elektronen aus der Cäsiumelektrode gelöst, welche sich auf Grund des Elektronenmangels
positiv auflädt. Gegenüber der Elektrode bringt man eine Gegenelektrode an, welche die
losgeschlagenen Elektronen einfängt. Da dadurch ein Elektronenüberschuss innerhalb der
Gegenelektrode erreicht wird, lädt sich diese negativ auf. Um so mehr Elektronen auf der einen
Seite herausgeschlagen und auf der anderen Seite aufgefangen werden, um so schwerer haben es die
negativ geladenen Elektronen von der positiven Anziehungskraft der Cäsiumelektrode zu fliehen
und gegen die abstoßende Kraft der ebenfalls negativen Gegenelektrode anzukämpfen. Um so mehr
Elektronen die eine Seite verlassen und auf der anderen Seite eintreffen um so höher ist die positive
Ladung der Cäsiumelektrode und um so negativer die Ladung der Gegenelektrode. Mit der Zeit wird
das Wachstum beider Felder langsamer werden, denn die Elektronen haben einfach nicht mehr die
Kraft gegen die Feldkräfte anzukämpfen. Ab einem bestimmten Zeitpunkt ist ein
Gleichgewichtszustand erreicht – weder verlassen Elektronen die eine Seite noch schlagen auf der
anderen Seite welche ein. Es entsteht ein Ladungsgefälle zwischen den beiden Seiten – wie ich
bereits erklärte nennt man dies Spannung. Man gibt sie in Volt an, eine Einheit die Ihnen sicherlich
von den Elektrogeräten ihres Haushalts bekannt ist.
Seite 40 von 83
Copyright Stefan Frank
Sie haben bereits bei der Behandlung des photoelektrischen Effekts (vorhergehender Abschnitt)
gelernt, dass kürzere Wellenlängen (sprich höhere Quantenergie) zur Folge hat, dass Elektronen mit
höhere Geschwindigkeit atomare Strukturen verlassen. Diesen sog. Impuls (Masse des Elektrons
mal Geschwindigkeit) nahmen wir als Maß für die Energie des Elektrons. Diese Kenntnis macht
man sich bei der Fotozelle zu nutze: Um so höher die Lichtenergie, um so höher die
Geschwindigkeit der Elektronen und um so höher ihre Energie. Wenn Elektronen jedoch eine
höhere Geschwindigkeit haben, haben sie auch mehr Energie um gegen – die sich aufbauenden –
Feldkräfte auf den beiden Seiten anzugehen. Dies hat zur Folge, dass die Feldkräfte stärker sein
müssen um den Gleichgewichtszustand herbeizuführen. Somit ist die sich einstellende Spannung
ein Maß für die Energie der Elektronen. Um so höhere deren Energie um so höher die sich
einstellende Spannung.
In der Physik wird die Energie eines Elektrons in Elektronenvolt (eV) angegeben. Dabei handelt es
sich um die Energie, die ein Elektron erhält, wenn es in einem elektrischen Spannungsfeld
beschleunigt wird. Haben wir z. B. eine Spannung von einem Volt vorliegen und geben ein Elektron
in dieses Spannungsfeld, so erhält dieses eine Energie von 1 eV. Formelmäßig drückt man dies wie
folgt aus:
Dabei ist W die (elektrische) Arbeit, e die sog. Elementarladung, also die negative Ladung die ein
Elektron von Natur aus in sich trägt, und U das Zeichen für die anliegende Spannung. Da e eine
Konstante darstellt, ist leicht zu sehen, dass eine höhere Spannung zugleich eine Erhöhung der
Arbeit zur Folge hat. Dabei ist Arbeit hier nichts weiter als ein anderes Wort für Energie.
Nun kann man das Fotozellenexperiment durchführen. Zunächst nimmt man Cäsium und bestrahlt
es mit Licht verschiedener Wellenlänge und notiert die sich einstellenden
Gleichgewichtsspannungen. Dann wechselt man das Material (z.B. Lithium) und wiederholt das
Experiment ebenfalls mit verschiedenen Lichtstärken. Die Ergebnisse fasst man nun in einem
Diagramm zusammen, wobei man auf der x-Achse die Frequenz und auf der y-Achse die maximale
kinetische Arbeit abträgt (also nichts weiter als die sich einstellende Gleichgewichtsspannung
multipliziert mit der Elementarladung eines Elektrons).
Man stellt fest, dass für jedes verwendete Element eine Gerade entsteht, welche alle parallel
Seite 41 von 83
Copyright Stefan Frank
zueinander verlaufen. Eine gerade hat eine sog. Steigung, also einen Wert, der angibt wieviel auf
den y-Wert aufaddieren bzw. von ihm abgezogen werden muss, wenn man auf der x-Achse eine
Einheit nach rechts geht. Dieser Wert lässt sich leicht berechnen, indem man die Differenz zweier
beliebige y-Werte auf der Geraden durch die Differenz ihrer x-Werte teilt. Führt man dies bei den
resultierenden Geraden des Photozellenexperimentes durch, so erhält man den Steigungswert der
Geraden. Dieser Wert ist gerade das Plancksche Wirkungsquantum, eine unverrückbare
Naturkonstante . Mit dessen Hilfe kann man nun leicht berechnen wie groß die Energie eines
Elektrons bei gegebenen Material und vorgegebener Lichtfrequenz ist. Jedem Element ist eine
Größe eigen, welche man messen kann: Es handelt sich dabei um die Ablösearbeit W ab. Dies ist die
Lichtenergie, welche Aufgebracht werden muss, um überhaupt ein Elektron aus dem Atom lösen zu
können. Warum dem so ist, wurde ja bereits erklärt – es liegt eben daran, dass die Elektronen die
Lichtenergie nur in Quanten aufnehmen können und diese müssen die richtige Energie besitzen um
das Elektron herauszuschlagen. Entweder das Lichtquantum hat diese Energie oder nicht. Die
Ablösearbeit ist gerade die Stelle, an der sich das elektrische Feld langsam beginnt aufzubauen (also
erste Elektronen aus der Platte geschlagen werden). Es ist dann folgende Formel herleitbar:
Fotozellen sind heute aus dem normalen Alltag nicht mehr wegzudenken. Sie werden beispielsweise
in Bewegungsmeldern verwendet: Ein Lichtstrahl wird von einer Quelle auf eine Fotozelle gelenkt,
in der sich ein elektrisches Feld aufbaut. Verbindet man nun beide Elektroden mit einem
Metalldraht, so fließen in diesem Draht Elektronen von der negativen Elektrode zur positiven.
Dieser sog. elektrische Strom versucht so das Ladungsgefälle auszugleichen. Durch das Licht
werden jedoch immer wieder Elektronen aus der Platte geschlagen, so dass zwar auf der einen Seite
das Spannungsgefälle durch den Elektronenfluss ausgeglichen wird, auf der anderen Seite jedoch
immer wieder ein neues Spannunggefälle entsteht. Nur wenn der Lichtstrahl unterbrochen wird
stoppt das Herausschlagen der Elektronen, wodurch der Elektronenfluss die Chance hat, das
Spannungsgefälle auszugleichen. Nachdem die Spannung auf 0 gesunken ist stoppt auch der Fluss
der Elektronen. Dieser Zusammenbruch führt dazu, dass ein sog. Relais (eine Art elektrisch
gesteuerter Schalter) schließt, wodurch dann (ähnlich einem Lichtschalter) ein anderes Gerät
eingeschaltet wird: z.B. eine Lampe, die Klingel der Eingangstür eines Geschäftes oder die
Alarmanlage einer Bank.
So... Damit haben Sie diesen Abschnitt auch geschafft, es war sicherlich bis jetzt der mit Abstand
anspruchvollste. Sie benötigten Wissen über Atome und ihren Aufbau, über Quanten und die
Übertragung von Energie. Sie mussten Ihre Vorstellungskraft anstrengen, um das Experiment
nachvollziehen zu können und einige Formeln verstehen. Aber ihre Bemühungen haben sich
gelohnt: Sie haben durch das Durcharbeiten dieses Abschnittes, den ich nicht um sonst so
ausführlich gestaltet habe, elementare Kenntnisse der Quantentheorie nicht nur erworben, sondern
sogar angewendet! Darauf dürfen Sie nun wirklich ein bisschen Stolz sein.
Franck, Hertz und die Richtigkeit der Quantentheorie
Den beiden Physikern James Franck (1882-1964) und Gustav Hertz (1887-1975) (nicht zu
verwechseln mit dem Physiker Heinrich Hertz) gelang es zum ersten mal die Richtigkeit der
Quantentheorie experimentell zu zeigen wofür sie 1925 den Nobelpreis erhielten.
Grundlage ihres Experimentes ist eine mit einem Gas gefüllte Röhre. Quecksilbergas kann hierfür
beispielsweise herangezogen werden. Den weiteren Aufbau zeigt folgende Abbildung:
Seite 42 von 83
Copyright Stefan Frank
Auf der linken Seite wird eine Elektronenquelle installiert, hierfür kann z. B. ein Glühfaden dienen.
Über eine Spannungsquelle wird zwischen der Elektronenquelle und einem Metallgitter Spannung
aufgebaut. Hier wird durch die emittierten Elektronen also kein Spannungsfeld erzeugt, sondern
dies legen wir über eine Spannungquelle künstlich an um es selber steuern zu können. Auf der
rechten Seite des Aufbaus ist eine Metallplatte befestigt. Diese ist mit einem Amperemeter
verbunden, einem Messgerät, welches – vereinfacht gesagt – die Anzahl der Elektronen, welche
diese Platte erreichen zählen kann. Je höher der Amperewert, desto höher die Anzahl der
einschlagenden Elektronen. Es ist verständlich, dass die Anzahl der hinten gezählten Elektronen um
so größer sein wird, je höher wir vorne das Spannungsfeld aufbauen: Je höher die Spannung, um so
höher die positive Ladung des Metallgitters, was wiederum eine stärkere Anziehungskraft auf die
negativ geladenen Elektronen ausübt. Diese erhalten dadurch eine höhere kinetische Energie
(Bewegungsenergie) und können das umgebende Quecksilbergas wohl leichter durchdringen. Das
Experiment wird nun mit verschiedenen Spannungen durchgeführt und die Ergebnisse in einem
Diagramm festgehalten. Dabei wird die anliegende Spannung auf der x-Achse und die dazugehörige
Amperezahl (die sog. Stromstärke) auf der y-Achse abgetragen:
Das Ergebnis sieht zunächst sehr verwunderlich aus: Zwar steigt die Anzahl der einschlagenden
Elektronen insgesamt betrachtet an, jedoch sind zwischendurch immer Einbrüche bei der Anzahl
Seite 43 von 83
Copyright Stefan Frank
der einschlagenden Elektronen festzustellen. Bei Helium beispielsweise liegen diese Abstürze
immer bei 4.9 eV und einem Vielfachen davon, also 9.8 eV, 14.7 eV,... Wie lässt sich das erklären?
Es liegt primär an den Elektronen der Umlaufbahnen des Quecksilberatoms. Diese können Energie
nur gequantelt aufnehmen, d.h. sie benötigen eine bestimmte „Portion“ Energie um von einer
Umlaufbahn zur nächsten springen zu können. Diese Energie wird von den ankommenden
Elektronen, welche 4.9 eV Energie bei sich tragen, mitgebracht und mit einem sog. unelastischen
Stoß an das Elektron des Atoms abgegeben, welches dadurch von einer Bahn in eine nächste, höher
gelegene, springt. Das Stoßelektron verliert dabei seine gesamte Energie und hat nun wieder 0 eV,
während das Elektron des Atoms 4.9 eV mehr Energie besitzt. Somit fällt die Anzahl der
eintreffenden Elektronen deshalb ab, weil diese jetzt die passende Energie haben um diese
abzugeben und nicht weiterreisen werden. Wenn jedoch die benötigte Energie 4,9 eV ist, wieso sind
die Einbrüche dann auch bei dem Vielfachen dieser Zahl zu finden? Die energiearmen Elektronen
können natürlich nach einen Stoß wieder beschleunigt werden. Wenn das Feld ein Vielfaches der
benötigen Energie ist, so wird es wieder auf 4.9 eV beschleunigt und kann die Energie abermals
abgeben usw. Hat das Elektron seine Energie abgeben, so hat es selbst nicht mehr genügend davon
um gegen die positive Elektrode in der Mitte anzukämpfen und wird von dieser angezogen – die
hintere Platte ist daher für dieses Elektron nicht mehr zu erreichen. Anders jedoch bei Spannungen
die sich z.B. zwischen 4.9 und dem Doppelten befinden. Haben wir 8 Volt anliegen, so
„verbrauchen“ die Atomelektronen nur 4.9 eV, was einen „Rest“ von 3.1 eV entspricht. Dies ist
zwar zu wenig um ein Elektron eines Quecksilberatoms anzuregen, jedoch reicht es aus, dass viele
Elektronen die Anziehungskraft der positiven Elektrode entfliehen können und auf der rechten
Platte aufschlagen werden. Dies erklärt den trotzdem kontinuierlichen Anstieg der Gesamtkurve.
Jetzt bleibt noch eine Frage zu beantworten: Was passiert eigentlich mit den angeregten Elektronen
innerhalb der Quecksilberatome? Diese bleiben nicht für immer und ewig auf ihrer angeregten,
höheren Bahn. Sie fallen nach einiger Zeit in ihren alten Zustand zurück. Dabei emittieren sie eine
elektromagnetische Welle in Form eines Quantenpaketes. Wie hoch der Energiegehalt dieses
Paketes sein wird, ist für Sie vielleicht nicht mehr verwunderlich: 4.9 eV, also genau die Energie,
die sie vorher aufgenommen hatten. Wenn man das auf die Frequenz der emittierten Welle
umrechnet, so kommt man auf eine sehr niedrige Wellenlänge – sie liegt im ultravioletten Bereich.
Unsere Augen können diese jedoch nicht wahrnehmen. Könnten wir es aber doch, so würden wir
feststellen, dass unser Versuchsaufbau von einem Licht ultravioletter Farbe umgeben ist.
Das gesamte Experiment ließ sich nur mit Hilfe der Quantentheorie erklären. Die Vorhersagen der
Quantenphysiker deckten sich mit den experimentellen Ergebnissen - die Quantentheorie war
bewiesen.
Bis jetzt macht die Quantentheorie, trotz all dem Hin und Her, doch noch einen sehr geordneten und
aufgeräumten Eindruck. Vorhersagen wurden experimentell bestätigt, die quantentheoretischen
Vorhersagen machten Sinn – auch wenn es zunächst einigen Wissenschaftlern nicht recht gefiel.
Doch in den nächsten Kapiteln wird sich diese Klarheit ändern. Vielleicht haben Sie sich auch
schon geärgert, dass ich ständig zwischen Wellen und Teilchen hin und her springe, wenn ich etwas
erkläre – anscheinend ohne Sinn und Verstand. Aber Sie werden bald sehen, dass Welle und
Teilchen untrennbar miteinander verbundene Begrifflichkeiten sind. Seien Sie gespannt, denn Sie
können sich einer Sache sicher sein: In der Quantentheorie gibt es immer nur einen Weg: Den
Verrückteren.
Seite 44 von 83
Copyright Stefan Frank
Zusammenfassung
In verschiedenen Experimenten konnte die Richtigkeit der Quantentheorie bestätigt werden. Albert
Einstein erklärte mit ihrer Hilfe den Photoelektrischen Effekt, wonach die Lichtintensität nur für die
Anzahl der herausgeschlagenen Atome verantwortlich ist. Ob ein Elektron überhaupt gelöst wird
und welche Geschwindigkeit dieses hat hängt einerseits von der mitgebrachten Quantenenergie des
Lichts ab und andererseits von der akzeptierten Quantenenergie des Elektrons. Mit Hilfe der
Photozelle konnte Planck den Wert seiner Naturkonstante h ermitteln. Franck und Hertz bewiesen
mit ihrem Versuch, dass Elektronen Energie wirklich nur gequantelt aufnehmen können und zeigten
so die Richtigkeit der Quantentheorie.
Seite 45 von 83
Copyright Stefan Frank
Kapitel 9
Von Wellen, Teilchen und Wahrscheinlichkeiten
An dieser Stelle möchte ich nun etwas Klarheit in das Welle-Teilchen-Kauderwelsch bringen, d.h.
soweit dies überhaupt möglich ist, denn selbst die Wissenschaft muss sich mit einer
Zwischenlösung behelfen, wie Sie sehen werden. Es wird sogar noch unglaublicher, da sich
herausstellte, dass man den Ort eines Teilchens nicht genau bestimmen kann. Man kann nur einen
Raum angeben, in dem sich das Teilchen mit hoher Wahrscheinlichkeit befindet, wo es jedoch
wirklich ist lässt sich nicht sagen.
Das Licht als Fluss von Photonen
Sie haben bereits die Gleichung kennen gelernt, nach der die Energie eines sog. Quants berechnet
wird. Die Energie eines einzelnen Quants ist demnach das Plancksche Wirkungsquantum
multipliziert mit der Frequenz des Lichtes. Die Frequenz (f) ist der Kehrwert der sog. Periodendauer
(T), also:
Die Periodendauer wiederum ist die Zeit, die eine Welle für eine komplette Schwingung benötigt.
Hierfür dividiert man die gemessene Zeit (t) durch die Anzahl (n) der in diesem Zeitraum erfolgten
Schwingungen:
Wenn man weiß, wie lange eine Schwingung dauert, so muss man dies nur noch mit der
Ausbreitungsgeschwindigkeit (c) multiplizieren und erhält die Wellenlänge (Lambda):
Somit gilt nach einfacher Umformung:
Setzt man das in die Frequenzgleichung ein erhält man:
Dies hat zur Folge, dass die Energiegleichung Plancks für ein Quant folgende Form erhält:
Da es sich um eine Berechnung in Bezug auf elektromagnetische Wellen handelt ist die
Ausbreitungsgeschwindigkeit c gleich der Lichtgeschwindigkeit (ca. 300.000 km/s). Wenn Sie die
Herleitung nicht ganz verstanden haben, so ist das nicht schlimm. Wichtig ist hier nur die letzte
Gleichung. Ich wollte Ihnen an dieser Stelle deutlich vor Augen führen, dass der Energiegehalt eines
Quants von der Lichtgeschwindigkeit und der Wellenlänge des untersuchten Lichts abhängt. Und
somit ist die Wellentheorie und die Teilchentheorie des Lichts untrennbar miteinander verknüpft.
Man kann Licht nicht nur als Welle oder nur als Teichen beschreiben, beide Ansichten sind
komplementär, die eine kann ohne die andere nicht sein. Bohr gab dieser Tatsache einen eigenen
Namen: das „Komplementaritätsprinzip“.
1916 erkannte Einstein einen interessanten Ansatz, der sich aus den Gleichungen seiner allgemeinen
Relativitätstheorie ergaben. Nach seinen Forschungen gilt für die Energie eines Teilchens:
c ist auch hier die Lichtgeschwindigkeit, m dir Ruhmasse und p der Impuls des Teilchens.
Vorhergehende Untersuchungen Plancks sagten, dass der Impuls eines Lichtquants gerade
Seite 46 von 83
Copyright Stefan Frank
sein müsste. Albert Einstein ging hier wahrlich im wahrsten Sinne des Wortes ein Licht auf, als er
diese Gleichung seiner eigenen gegenüberstellte. Geht man davon aus, dass Licht keine Ruhemasse
hat, so ergibt sich:
Formt man dies nach p um und schreibt die Gleichung passend auf, so erhält man:
Die vorhergehenden Erkenntnisse Plancks und die übereinstimmenden Berechnungen Einsteins
legen den Schluss nahe, dass Lichtteilchen kein Behilfskonstrukt sondern Realität sind. Später
wurden diese Lichtteilchen Photonen genannt und sie haben eine höchst interessante Eigenschaft,
die ich oben nur beiläufig erwähnt habe: Licht hat keine Ruhemasse! Das ist so ähnlich, als würde
man einen Fußball nehmen der nur existiert solange die Spieler ihn bewegen. Bleibt er einmal
liegen bewegt er sich nicht mehr, hat damit keine Masse und verschwindet plötzlich als hätte es ihn
nie gegebenen. Ergo: Wenn wir ein Photon messen, dann bewegt es sich auch, es gibt keine
stillstehenden Photonen – sie bewegen sich mit Lichtgeschwindigkeit.
Der Welle-Teilchen-Dualismus
Sie haben bezüglich des Photons bereits gelernt, dass die Wellen- und die Teilchenvorstellung
untrennbar miteinander verwoben sind. Weiterhin können bestimmte Experimente nur mit der
Wellenvorstellung (z.B. Interferenzmuster), andere nur mit der Teilchenvorstellung (z.B.
photoelektrischer Effekt, Franck-Hertz-Versuch) erklärt werden. Da liegt doch eine Frage relativ
nahe: Wenn eine Welle auch ein Teilchen ist, ist dann nicht ein Teilchen auch eine Welle? Diese
Seite 47 von 83
Copyright Stefan Frank
Frage mutet zunächst etwas philosophisch an, jedoch wurde sie ernsthaft gestellt und auch
beantwortet. Konkret befasste sich der französische Physiker Louis Victor Broglie (1892-1987) mit
dieser Fragestellung. Er wollte beweisen, dass Elektronen nicht nur Teilchen sind, wie ja die
allgemeine Auffassung war, sondern auch Wellen bzw. beides, ähnlich dem Licht. Mathematisch
konnte er dies relativ früh zeigen. Der experimentelle Nachweis dauerte jedoch bis zum Jahre 1927.
Für den Versuch wurde ein Nickelkristall verwendet auf den ein Elektron abgeschossen wurde. Ist
das Elektron wirklich eine Welle, so würde diese, ähnlich einer Wasserwelle an den einzelnen
Atomen des Kristalls gebeugt. Innerhalb der Kristallformation sind die Atome sehr regelmäßig
angeordnet. Die Abstände zwischen den Atomen sind sehr klein, kleiner als die von de Broglie
berechnete Wellenlänge eines Elektrons. Dadurch hätte die Welle zwischen mehreren Atomen
hindurchdringen müssen. Das Ergebnis ist leicht absehbar: Sie haben bereits im dritten Kapitel
gesehen was passiert: Wasserwellen, welche durch zwei Spalten fliesen interferieren, ähnliches
geschieht bei Licht, was sich durch helle und dunkle Streifen zeigt. Gleiches hoffte man bei dem
Elektron zu erkennen: ein Interferenzmuster. Und es er erschien wirklich!
Damit war der Beweis erbracht: Elektronen sind Wellen... und Teilchen – na ja, dieses Problem
kennen Sie ja bereits. Spätere Untersuchungen zeigten, dass sogar die Protonen und Neutronen des
Kerns Welleneigenschaften haben – man spricht daher auch von Materiewellen. Bitte merken Sie
sich das gut! Materie kann sowohl als Teilchen, als auch als Welle aufgefasst werden!
Wahrscheinlichkeiten, oder: Wo ist mein Elektron?
Bis jetzt war das von Bohr aufgestellte
Atommodell sehr eindeutig: Ein Kern der aus
Teilchen besteht, welche man Protonen und
Neutronen nennt, und in ganz bestimmten
Umlaufbahnen
fliegen
kleine
Teilchen,
Elektronen genannt. Doch wie sollte man sich
das ganze mit Wellen vorstellen? Nach der
neuen Auffassung müssten jetzt auch kleine
Wellen um den Kern fliegen, der übrigens selber
ja wieder ein „Knäuel“ aus Wellen ist. Die
Vorstellungskraft schwindet hier – und das ist
auch ein Ergebnis, was Sie aus diesem Kapitel
mitnehmen sollen: Das schöne, eindeutige
Modell der atomaren Welt, welches Ihnen
wahrscheinlich in der Schule mitgegeben wurde
existiert nicht. Man versucht – das ist nur allzu menschlich – komplizierte Sachverhalte der
Quantenphysik auf Begriffe unserer Alltagswelt zu übertragen um eine bessere Vorstellungskraft zu
haben. So sind die Planetenbahnen nur eine Metapher! Sie sind nicht wirklich existent. Es fliegen
also keine Elektronen um einen Kern auf planetenähnlichen Bahnen – dies soll uns nur die Sicht
auf die atomare Welt erleichtern – und so ist das mit vielen Dingen der Quantentheorie. Ich möchte
Sie an dieser Stelle nicht verwirren, aber Sie sollten nicht alles für bare Münze nehmen und 1:1 auf
die reale Welt übertragen. Sie können das tun, um eine bessere Vorstellungskraft zu erhalten,
jedoch sollten Sie nicht annehmen, dass es wirklich so ist. Wie es in einem Atom tatsächlich
aussieht kann Ihnen niemand, wirklich niemand sagen. Wir müssen uns mit menschlich greifbaren
Metaphern behelfen, um eine Vorstellung zu gewinnen, man darf diese aber nie mit der Wirklichkeit
verwechseln!
Max Born (1882-1970), deutscher Physiker, entwickelte zur Beschreibung des Welle-TeilchenDualismuses eine Idee weiter, welche vorher schon existierte, er brachte sie jedoch zur Perfektion.
Zur Beschreibung eines Elektrons verwendete er, wie das üblich war, die Wellenfunktion, welche
Seite 48 von 83
Copyright Stefan Frank
man mit dem griechischen Buchstaben Psi abkürzt. Born verknüpfte jetzt die Ergebnisse der PsiFunktion mit der Vorstellung vom Teilchen: Man kann mit Hilfe der Wellenfunktion die Intensität
einer Welle irgendwo im Raum berechnen. Die Intensität der Welle nahm Born als
Wahrscheinlichkeit dafür an, dass sich das Teilchen zu einem Zeitpunkt t an der Stelle x befindet.
Um so intensiver das Ergebnis der Psi-Funktion an einer bestimmten Stelle des Raumes um so
wahrscheinlicher, dass das Elektron genau an der Stelle zu finden ist. Das Ergebnis dieser
Berechnungen wahr erschütternd: Wir können nie sagen wo ein Elektron gerade ist! Wir können nur
sagen wie hoch die Wahrscheinlichkeit ist, dass das Elektron an einem bestimmten Ort verweilt. Es
kann sich also theoretisch überall befinden, nur dass die Wahrscheinlichkeit des Aufenthalts an
einigen Orten um ein Vielfaches größer ist als an anderen.
Diese erschreckende Feststellung macht unsere Vorstellung von einem Atom natürlich nicht
leichter. Wie soll man sich ein Elektron vorstellen, welches überall und nirgends ist. Innerhalb des
Atoms musste man daher den Vergleich mit den Bahnen endgültig aufgeben und sog. Orbitale
einführen – Bereiche des Atoms in dem sich ein Elektron höchst wahrscheinlich aufhält. Das
Gleiche gilt natürlich auch für alle anderen Teilchen. Ich habe es ja bereits angedeutet: In der
Quantenphysik gibt es immer nur den verrückteren Weg.
„Gott würfelt nicht“
Das Rechnen mit Wahrscheinlichkeiten war in der Quantenphysik jedoch nichts neues. Schon
vorher hatte man erkannt, dass bestimmte Vorgänge nicht zu berechnen sind – sie passieren halt:
wann, warum, wieso, weshalb weiß kein Mensch. Albert Einstein war mit dieser Vorstellung nicht
zu frieden. Er glaubte fest daran, dass alles eine Ursache hat und diese müsse sich auch in ihren
Auswirkungen berechnen lassen. Er brachte das mit seiner berühmten Aussage „Gott würfelt nicht“
zum Ausdruck und meinte, dass Gott nichts zufällig geschehen lässt, sondern alles wohl bestimmt
sei. Eine Einstellung, welche ich bereits im ersten Kapitel genauer erläuterte und die man mit
Determinismus bezeichnet. Ich sagte jedoch schon zu diesem Zeitpunkt, dass der Determinismus
leider nur ein Traum ist: Nicht alles und jedes ist zu berechnen. Manche Dinge scheinen doch rein
zufällig zu passieren. Dies haben Sie bereits bei der Berechnung der Elektronenposition gesehen,
dessen Ort nicht genau bestimmbar ist. Sie werden es jetzt an zwei weiteren quantenphysikalischen
Prozessen sehen, die Sie schon kennen gelernt haben.
Sie wissen, dass Elektronen durch Photonen innerhalb von Atomen auf höhere Bahnen gehoben
werden können. Durch die übertragene Energie springen die Elektronen von einer tieferen auf eine
höhere Umlaufbahn (Sie sehen, dass ich bei den Metaphern bleibe, auch wenn sie falsch sind, aber
so kann man es sich am besten vorstellen). Sie wissen jedoch auch, dass Elektronen auf diesem
höheren Energieniveau nicht für immer verweilen werden. Nach einer gewissen Zeit fallen Sie
zurück in den alten Zustand und geben dabei die aufgenommene Energie wieder ab. Wann sie
jedoch in den alten Zustand zurückfallen ist nicht zu berechnen! Man kann eine Wahrscheinlichkeit
angeben wann sie denn zurückfallen könnten – ob sie das jedoch tun bleibt ganz den Elektronen
überlassen.
Ein weiteres Problem ist die Berechnung radioaktiver Zerfallsprozesse. Sie wissen bereits, dass
Kerne künstlich gespalten werden können, wie man dies in Kernkraftwerken durchführt. Kerne
können jedoch auch natürlich zerfallen, ohne dass man sie mit Neutronen oder ähnlichem
beschießen müsste. Wann sie jedoch zerfallen bleibt ganz den Atomen überlassen, auch dies lässt
sich nicht berechnen. Man kann nur statistische Wahrscheinlichkeitswerte angeben in welcher Zeit
eine gewisse Menge einer Probe zerfallen wird. Nimmt man eine Menge einer Probe an, so kann
man feststellen, dass nach einer Zeit x die Hälfte der in der Probe befindlichen Atome zerfallen
sind. Vergeht dieser Zeitraum wieder, so ist von der Hälfte wieder die Hälfte zerfallen usw. Dies
nennt man die Halbwertzeit. Hiervon haben Sie sicherlich schon einmal im Zusammenhang mit
Endlagern für radioaktiven Müll gehört. Die Halbwertzeit von Uran der Isotopart 235 (51
Seite 49 von 83
Copyright Stefan Frank
Neutronen) beträgt z.B. 700 Millionen Jahre, die von Uran der Isotopart 238 (54 Neutronen) hat
sogar eine Halbwertzeit von 4.5 Milliarden Jahren. Dies bedeutet, dass bei einer Probe von 1 kg
nach 700 Millionen bzw. 4.5 Milliarden Jahren die Hälfte, also 0.5 kg der Probe zerfallen ist. Das
Ergebnis ist also: Gott würfelt doch!
Quantenzahlen und ihre Rolle beim Atomaufbau
Woher wissen die Elektronen auf welche Bahn sie gehören (wie gesagt: Ich bleibe aus Gründen der
Anschaulichkeit bei den Planetenbahnen)? Warum passen auf die innerste Bahn nur 2 Elektronen
auf die nächste jedoch schon 8 - warum nicht mehr? Wolfgang Pauli (1900-1958) hatte hierauf eine
Antwort. Es war bereits bekannt,
dass
Elektronen
mehr
Eigenschaften inne tragen als nur
die Frequenz, die Energie und den
Impuls. Ihnen mussten weitere
Werte zugeschrieben werden um
bestimmte Phänomene zu erklären.
Ein ungelöstes Problem war z.B.
die Balmer-Serie. Diese ist nichts
weiter als die Spektrallinien im
Lichtspektrum,
welches
der
Wasserstoff hervorruft. Johann
Jakob Balmer (1825-1898) war ein
schweizer Lehrer, der sich über das
Phänomen der Frauenhoferlinien
Gedanken gemacht hatte und eine
Formel entwickelte mit deren Hilfe
die
Spektrallinien
berechnet
werden konnten – sie funktionierte
jedoch nur beim Wasserstoff und
natürlich hatte sie nichts mit der
Quantenphysik zu tun, denn die
wurde ja erst 1900 entwickelt und
zu diesem Zeitpunkt war Balmer
schon längst tot. Nils Bohr jedoch vermutete, dass eine Abwandlung der Formel unter Verwendung
der Planckschen Konstante h die Gleichung in die Welt der Quantentheorie überführen könnte. Er
vollzog dies und es funktionierte. Anhand des bohrschen Atommodells mit Elektronen, die nur auf
bestimmte, gequantelte Bahnen springen können konnte man die Spektrallinien erklären (wie bereits
beschrieben). Es gab jedoch ein Problem: Es waren mehr Spektrallinien erlaubt als es wirklich gab.
Die Ursache hierfür konnte man nicht klären, man schrieb jedoch den Elektronen weitere
Eigenschaften zu, so dass das mathematische Modell wieder passte: sog. Quantenzahlen. Dabei ist
das Erreichen einer sog. Hauptquantenzahl (n), welche ein erreichbares Energieniveau innerhalb der
Schale des Atoms entspricht für bestimmte Elektronen wahrscheinlicher als ein anderes
Energieniveau. Auf diese Art und Weise ließ sich erklären, warum bestimmt Linien im Spektrum
nicht erscheinen bzw. andere ausgeprägter sind: Die Wahrscheinlichkeit, dass ein Elektron die
Energieportion x aufnimmt und damit auf die Schale y springt ist einfach größer, als dass es die
Energieportion x' aufnimmt und somit auf Energieniveauschale y' aufsteigt.
In der Zwischenzeit wurden dem Elektron viele weitere Eigenschaften zugeschrieben: sog.
Nebenquantenzahlen, Megnetquantenzahlen und Spinquantenzahlen. Ich erspare es Ihnen an dieser
Stelle genauer auf diese Zahlen einzugehen, da diese rein mathematische Gedankenexperimente
Seite 50 von 83
Copyright Stefan Frank
sind. Man versuchte zwar die Zahlen in die klassische Mechanik zu übersetzen und kam auf
Parallelismen wie z.B. der Spin sei der Eigendrehimplus. Dies funktioniert solange, wie man sich
Elektronen als Kugeln vorstellt. Aber wie dreht sich eine Welle? Und überhaupt, wo ist diese Welle
eigentlich, die sich drehen soll? Sie sehen, diese Vorstellung funktioniert nicht und hätte mit der
Wirklichkeit abermals nichts zu tun. Daher sollte man sich einfach merken, dass Quantenzahlen
Eigenschaften sind, welche man den Elektronen zuschreibt – und fertig.
Ich habe bereits oben den Begriff der Orbitale verwendet. Dies sind berechnete Räume, in der es
wahrscheinlich ist ein Elektron anzutreffen. Diese Vorstellung hat nichts mehr mit dem gut
greifbaren Begriff der Planetenbahnen zu tun.
Man kann also Orbitale als
Räume
auffassen.
Jede
Hauptquantenzahl entspricht eine
Schale von Bohrs Atommodell,
also Hauptquantenzahl 1 ist die
innerste
Schale,
Hauptquantenzahl 2 die nächste
usw. bis zur siebten Schale. Nun
ist jeder Schale eine gewisse
Anzahl an möglichen Orbitalen
zugeordnet. Der ersten Schale
z.B. wurde ein sog. s-Orbital
hinzugefügt, der zweiten Schale
ein s-Orbital und 3 sog. pOrbitale usw. Dabei sind die
Orbitale weiterhin nichts weiter
als Räume in denen sich
Elektronen bewegen können. Die
Aufgabe der Nebenquantenzahl
ist es genau eine bestimmte
Orbitalform auszusuchen, ob es
also ein s-, p- ,d-, f- oder gOrbital sein soll. Was das für bestimmte Orbitale sind, soll hier nicht von Interesse sein, es handelt
sich um bestimmte räumliche Formen, in denen sich ein Elektron gerade befinden kann. Innerhalb
eines Orbitals finden 2 Elektronen Platz. Diese müssen jedoch unterschiedlichen Spin haben.
Für uns ist eine Sache aus der Alltagswelt völlig normal: Habe ich eine Murmel auf den Tisch
gelegt so kann ich an die gleiche Stelle zur gleichen Zeit nicht noch eine hinlegen, denn die erste
nimmt bereits den Raum ein. Stellt man sich Elektronen als Kugeln vor, so können zwei Elektronen
auch nicht zur gleichen Zeit am gleichen Ort sein. Nimmt man jedoch an Elektronen seien Wellen
und es gibt nur eine Wahrscheinlichkeit, dass ein Elektron zu einem bestimmten Zeitpunkt an einem
bestimmten Ort ist, so können sich diese Wahrscheinlichkeitsräume durchaus überlappen. Man kann
daher sagen, dass in einem Orbital mehr als ein Elektron Platz hat. Nach Pauli sind es genau zwei –
nicht mehr. Warum? Dies ist das grundlegende Gesetz, welches er entdeckte: Zwei Elektronen
können zwar den gleichen (Wahrscheinlichkeits-)Raum haben, jedoch müssen sie unterschiedliche
Quantenzahlen haben. Haben sich die Elektronen für ein Orbital entschieden, so stehen damit ihre
Quantenzahlen alle fest, bis auf eine: der Spin. Der Spin kann entweder +1/2 oder -1/2 betragen.
Das ist der Grund warum ein Orbital maximal genau zwei Elektronen aufnehmen kann. Mehr geht
nicht, denn dann müssten mind. 2 Elektronen einen Spin von +1/2 bzw. -1/2 innerhalb des Orbitals
haben und dies ist nicht möglich, denn dann würden mind. 2 Teilchen in allen Quantenzahlen
übereinstimmen - dies darf nicht sein. Auf diese Weise erklärte Pauli woher das Elektron weiß wo
es hin gehört. Es ergibt sich aus seiner Quantenzahl. Dabei werden zunächst die Orbitale niedrigerer
Energie aufgefüllt und dann die höherer Energie, immer unter Berücksichtigung des eigenen Spins
Seite 51 von 83
Copyright Stefan Frank
und der anderen 3 Quantenzahlen. Dies nennt man das Paulische Ausschließungsprinzip, oder kurz
Pauli-Prinzip und ist ein fundamentales Naturgesetz. Natürlich haben nicht nur Elektronen
Quantenzahlen. Auch Protonen und Neutronen verfügen über diese Eigenschaften, auch wenn sie
nicht ganz vergleichbar sind.
Aus den Gesetzen der Wahrscheinlichkeit und den Quantenzahlen konnten gute mathematische
Modelle entwickelt werden, um die Natur der Teilchen zu beschreiben. Dazu zählen die
Matrizenmechanik, die Quantenalgebra und – sehr berühmt – die Wellengleichung Schrödingers.
Letzteres ist sicherlich sehr schwer zu verstehen. Das Pauli-Prinzip sei hier auch nur der
Vollständigkeit halber erwähnt, es wird nicht unbedingt für ein einfaches Verständnis der
Quantentheorie benötigt. Es ist eher das i-Tüpfelchen. Das nächste Kapitel ist da schon um einiges
Interessanter, denn hier geht es um Kurioses und Weltveränderndes.
Zusammenfassung
Nach dem Komplementaritätsprinzip Bohrs sind Welle und Teilchen eng miteinander verknüpft.
Dies bezeichnet man auch als Welle-Teilchen-Dualismus – beide Auffassung sind zwei Seiten ein
und der selben Medaille. Auch Elektronen und andere Elementarteilchen können als Materiewelle
aufgefasst werden. Es ergab sich jedoch das Problem, dass der genaue Ort eines Teilchens nicht
mehr bestimmt werden konnte. Somit mussten Wahrscheinlichkeiten eingeführt werden, die
abermals den Determinismus empfindlich störten. Daraus resultierte ein überarbeitetes Atommodell,
wonach die Teilchen Wahrscheinlichkeitsräume innerhalb eines Atoms einnehmen. Welchen
Wahrscheinlichkeitsraum die Teilchen zu besetzen haben, sagt ihnen das Paulische
Ausschließungsprinzip, wonach innerhalb eines Systems (z.B. eines Atoms) keine Teilchen mit
identischen Quantenzahlen vorkommen dürfen. Quantenzahlen sind dabei zusätzliche Eigenschaften
die jedem Teilchen zugeschrieben werden.
Seite 52 von 83
Copyright Stefan Frank
- Kapitel 10 Verrücktes aus der Welt der Quantenphysik
Aus der Wahrscheinlichkeitsverteilung und dem Welle-Teilchen-Dualismus ergeben sich einige
sehr sonderbar anmutende Versuche und Gedankenexperimente. Ich möchte einige berühmte hier
kurz darstellen und gleichzeitig ein sehr wichtiges Naturgesetz aufzeigen.
Der Doppelspalt und die Heisenbergsche Unschärferelation
Grundlage der folgenden
Erklärung soll wieder
ein Experiment bilden.
Man
nehme
eine
Lichtquelle und eine
Abdeckplatte in die zwei
Streifen
geschnitten
sind. Das Licht muss
einen der beiden Wege
nehmen, um letzten
Endes auf einen dahinter
liegenden Schirm (eine
Photoplatte)
aufzutreffen. Die beiden
optional
möglichen
Wege, welche das Licht
nehmen kann müssen
jedoch unterschiedlich
lang sein. Sie wissen
sicherlich was man
dadurch erreichen will: Durch die
unterschiedlich langen Wege stimmen
hinter dem Spalt Wellenberg und
Wellental
nicht
mehr
überein,
interferieren und ein Interferenzmuster
erscheint auf der Photoplatte.
Man
hatte
versucht
das
Interferenzmuster, also die HellDunkelzonen auf dem Schirm, zunächst
dadurch zu erklären, dass die Quanten
sich gegenseitig abstoßen und dadurch
in Abständen auf dem Schirm prallen,
was das Muster erklären könnte. Dann
würde man die Wellentheorie für dieses
Experiment nicht mehr benötigen. Aber
auch dies konnte widerlegt werden:
Schießt man nur ein einziges Photon ab,
so kann es nicht von einem anderen
abgestoßen
werden
das
Seite 53 von 83
Copyright Stefan Frank
Interferenzmuster zeigt sich jedoch trotzdem.
Als nächstes ging man davon aus, dass das Quant vielleicht gespalten würde und so zwei Quanten
durch die Schlitze fliegen, welche sich dann natürlich wieder abstoßen könnten. Also brachte man
die Photoplatte direkt hinter den beiden Durchlässen an. Man hätte jetzt bei beiden Lichtdurchlässen
Lichteinschläge sehen müssen. Dies war jedoch nicht der Fall. Auch die Spaltungstheorie konnte
also aufgegeben werden. Es ist jedoch bei dem Experiment etwas hoch interessantes festzustellen.
Sie werden sich jetzt vielleicht fragen: „Wenn Licht als Welle durch die Spalten tritt, dann hätte
doch auch Licht auf beiden Detektoren festgestellt werden müssen, ähnlich als hätte sich das Quant
gespalten. Wie tritt denn nun das Licht durch den Spalt: Als Welle oder als Teilchen?“ Die Antwort
hierauf ist: Mal so und mal so! Das Licht verhält sich so, wie wir es erwarten. Wenn wir ein
Interferenzexperiment durchführen, dann verhält sich Licht wie eine Welle, wenn wir wissen
wollen, wo das Licht durchfliegt, dann verhält es sich wie ein Fluss von Quanten. Das ist eine
fundamentale Eigenschaft und zeigt wieder mal die Verrücktheit des Welle-Teilchen-Dualismus.
Das Licht kann anscheinend unsere Gedanken lesen und weiß was wir erwarten und kann sich dem
entsprechend verhalten.
Hieraus ergibt sich ein gewaltiges Problem: Wenn wir die Photoplatte direkt hinter dem Spalt
anbringen, so können wir messen durch welches der beiden Schlitze das Photon geflogen ist, wissen
jedoch nicht wo es hinten aufgeschlagen wäre, wenn wir den Schirm weiter hinten aufgestellt
hätten. Andersherum können wir messen wo das Photon aufschlägt, wenn wir den Schirm weiter
hinten positionieren, jedoch können wir dann nicht sagen durch welchen der beiden Schlitze das
Photon geflogen ist. Das Ergebnis dieses Experimentes ist somit: Ort und Impuls (bzw. Energie,
hier symbolisiert durch den Einschlagspunkt) sind nicht gleichzeitig mit beliebiger Genauigkeit
messbar. Dies nennt man die Heisenbergsche Unschärferelation, benannt nach ihrem Entwickler,
dem deutschen Physiker Werner Karl Heisenberg (1901-1976). Er drückte dies in der Formel
aus. Sie besagt, dass die Ortsunschärfe (Delta x) multipliziert mit der Impulsunschärfe (Delta p)
größer ist als das Plancksche Wirkungsquantum dividiert durch 4 mal die Kreiszahl Pi (ca. 3,14). Es
ergibt sich hieraus, dass eine genaue Messung des x-Wertes eine massive Fehlmessung bezüglich
des Impulses zur Folge hat und andersherum.
Dies veränderte das wissenschaftliche Weltbild grundlegend: Wenn wir noch nicht einmal in der
Lage sind die kleinsten Strukturen genau zu analysieren und zu lokalisieren, wie sollen wir dann die
großen Zusammenhänge richtig beschreiben ohne die Vorgänge in den kleinsten Strukturen genau
zu kennen? Dies ist einer der Gründe warum wir den Determinismus wohl endgültig aufgeben
müssen. Zu diesem Zwecke wurde die sog. Quantenmechanik geschaffen. Sie beschäftigt sich nicht
damit vorherzusagen wie ein bestimmtes System in der Zukunft aussehen wird. Aufgabe der
Quantenmechanik ist es festzustellen welche Möglichkeiten ein System hat sich zu entwickeln und
zu berechnen wie wahrscheinlich es ist, dass ein System diese oder jene Entwicklung nehmen wird.
Mehr als Wahrscheinlichkeiten bleiben uns nicht... und Wahrscheinlichkeiten sind bekanntlich
keine Gewissheiten.
Die Quantenpolarisation und ein sonderbarer Effekt
Im dritten Kapitel haben Sie bereits viel über das Licht und seine Eigenschaften erfahren, unter
anderem auch, dass man es als eine elektromagnetische Welle auffassen kann. Dabei steht
elektrisches und magnetisches Feld in einem 90 Grad-Winkel aufeinander. Wenn man sich die
Richtung, in welche sich das Licht ausbreitet als Pfeil vorstellt, so stehen zwar elektrische und
magnetische Welle immer in einem rechtwinkligen Verhältnis, aber die Gesamtschwingung kann
man in Pfeilrichtung beliebig drehen – die Grafik veranschaulicht dies.
Seite 54 von 83
Copyright Stefan Frank
Polarisationfilter lassen nur Licht durch,
welches in einer ganz bestimmten Richtung
polarisiert ist. Licht mit anderer Polarisation
wird an der Weiterreise gehindert. Nimmt man
also einen Filter, welches nur horizontales
Licht hindurch lässt so befindet sich hinter
dem Filter nur horizontal polarisiertes Licht.
Versucht man nun dieses durch einen Filter
mit vertikaler Polarisation zu schicken, so
wird man selbstverständlich feststellen, dass
hinter diesem Filter kein Licht ankommt, da ja nur Licht horizontaler Polarisation vorhanden ist,
welches aber an der Weiterreise gehindert wird.
Baut
man
nun
das
Experiment ein wenig um
und
positioniert
einen
diagonal
ausgerichteten
Polarisator
hinter
den
horizontalen, so ergibt sich
aus der Mathematik der
Quantentheorie, dass 50
Prozent
des
horizontal
polarisierten Lichts diesen
durchdringen kann.
Jetzt kommt jedoch die
Paradoxe Situation: Baut
man hinter dem diagonalen
Polarisator wieder den –
schon vorhin erwähnten –
vertikalen Polarisator, so
wird man feststellen, dass
Licht diesen durchdringt.
Das ist doch wirklich
komisch:
Im
ersten
Experiment baue ich zwei
Zäune, welche die Aufgabe
haben die Quanten von mir
fern zuhalten. Dann baue ich
(um ganz sicher zugehen)
noch einen dritten Zaun
zwischen die beiden schon
vorhandenen Zäune und das
Ergebnis ist eine Durchdringung der Sperranlage durch die Quanten. Dies ist Paradox und ist nur
mit einer Tatsache zu erklären: Durch die Veränderung des Versuchaufbaus habe ich eine neue sog.
Quantenrealität geschaffen. Die Schlussfolgerung aus den beiden Experimenten sind daher nicht
miteinander vergleichbar!
Seite 55 von 83
Copyright Stefan Frank
Traurige Mitteilung: Schrödingers Katze ist lebendig tot
Erwin Schrödinger schlug ein Experiment vor, welches die Paradoxie der Quantenphysik deutlich
machen sollte. Untersuchungsergebnisse wie die Heisenbergsche Unschärferelation, die
Wahrscheinlichkeitsverteilung und der Welle-Teilchen-Dualismus fasst man unter dem Oberbegriff
Kopenhagener Deutung der Quantentheorie zusammen. Diese Erkenntnisse verband Schrödinger in
seinem berühmt gewordenen Gedankenexperiment, welches „Schrödingers Katze“ getauft wurde.
Das Grundprinzip ist eigentlich ganz einfach: In eine Holzkiste wird eine Katze eingesperrt.
Weiterhin wird in die Kiste eine
Probe von radioaktivem Material
hineingegeben. Hinzu wird ein
Geigerzähler gestellt, der misst ob
ein Kern innerhalb der Probe
zerfallen ist. Der Geigerzähler
wiederum wird mit einem
Giftfläschchen
verbunden.
Zerfällt ein Kern, so wird die
Flasche durch eine Apparatur
geöffnet und das Gift strömt aus,
welches die Katze tötet. Zerfällt
jedoch kein Kern der Probe, so
passiert nichts.
Wir schließen nun die Kiste mit
der Katze und der Apparatur und warten eine Zeit. Was passiert mit der Katze innerhalb der Kiste?
Ist sie bereits tot oder lebt sie noch? Sie können sich erinnern: Der Zerfall eines Atomkerns ist eine
rein statistische Angelegenheit und für uns nicht berechenbar. Ob die Katze lebt oder nicht ist rein
zufällig und eine Überlagerung vieler möglicher wahrscheinlicher Zustände. Die Katze ist so
zusagen lebendig tot. Sie befindet sich in einem Zwischenzustand. Erst wenn wir die Kiste öffnen
muss die Wellenfunktion eine Entscheidung treffen und die Katze sterben oder sie am Leben lassen.
Dies klingt absolut absurd: Entweder die Katze lebt noch oder nicht, jedoch ist ein Zwischenzustand
nur schwer vorstellbar. Schrödinger wollte auf diese radikale Weise auf die Fehlerhaftigkeit der
Kopenhagener Deutung hinweisen. Natürlich kann die Katze nur in einem der beiden Zustände sein
und nicht irgendwo dazwischen. Aber wie lässt sich dann die Quantenphysik retten? Wie können
diese Fehler ausgemerzt werden? Dies soll das Thema späterer Kapitel sein.
Zusammenfassung
Das Doppelspaltexperiment zeigt, dass Ort und Impuls eines Teilchens nicht gleichzeitig messbar
ist. Wir können also die Realität auf kleinster Ebene nicht uneingeschränkt erfassen – genannt
wurde dieses Phänomen nach ihrem Entdecker, Werner von Heisenberg, die Heisenbergsche
Unschärferelation. Auch können wir von dem Ausgang eines quantenphysikalischen Experimentes
nicht auf den Ausgang anderer schließen, wie das Experiment mit polarisiertem Licht demonstriert.
Schrödingers Katze befindet sich in Folge der Überlagerung von Wahrscheinlichkeitswerten
innerhalb der Kiste gleichzeitig in einem lebendigen und einem toten Zustand. Öffnen wir die Kiste,
so muss sich das Quantensystem für eine Realität entscheiden und die Katze sterben oder weiter
leben lassen. Dies versteht man unter dem Zusammenbruch der Wahrscheinlichkeitswellenfunktion.
Seite 56 von 83
Copyright Stefan Frank
- Kapitel 11 Der Teilchenzoo
Bis Jetzt haben Sie schon drei Teilchen unserer Welt näher betrachtet: Das Elektron, das Neutron
und das Proton. Dies ist jedoch nur ein kleiner Teil, in Wirklichkeit gibt es nämlich sehr viele und
so hat sich der Begriff Teilchenzoo eingebürgert. In diesem Kapitel möchte ich Ihnen diese
„possierlich Teilchen“ etwas näher vorstellen.
Ableitung der Antimaterie aus der speziellen Relativitätstheorie Einsteins
Ich hatte sie Ihnen bereits vorgestellt: Die Energiegleichung Einsteins, mit deren Hilfe man den
Energiegehalt eines Teilchens aus seiner Masse und seinem Impuls berechnen kann:
Setzt man den Impuls p gleich null, so erhält man:
Zieht man die Wurzel, so ergeben sich 2 (!) Lösungen:
und
,
denn es gilt sowohl
als auch
.
Die letzte Gleichung wurde lange Jahre außer Acht gelassen. Es schien einfach klar, dass nur die
Gleichung mit positivem Faktor Sinn ergibt.
Für Paul Dirac (1902-1984), einem britischem
Physiker, ergab das negative Ergebnis aber sehr
wohl Sinn. Überträgt man die Gleichung auf
Elektronen, so müsste es auch Elektronen
negativer Energie geben. Sie wissen, dass nach
dem Pauli-Prinzip Energieniveaus immer vom
niedrigsten zum höchsten besetzt werden. Das
höhere Energieniveau wird nur besetzt, wenn das
niedriger schon voll ist und ein weiteres Elektron
keinen Platz mehr hat (seine Quantenzahlen
würden sich überschneiden). Wenn ein Elektron
jedoch nicht in den niedrigeren negativen Zustand
fällt, dann ist doch die Frage offensichtlich
warum es das nicht tut. Diracs Antwort darauf:
Weil die niedrigeren Energieniveaus bereits
durch Elektronen besetzt sind! Sie existieren
einfach überall, selbst im leeren Raum, wo wir
eigentlich nichts vermuten. Sie sind einfach da Teilchen negativer Energie. Wenn sie da sind,
kann man diese Antielektronen, wie man sie
nannte, nicht sichtbar und messbar machen? Man
kann dies. Unter Verwendung hoher Mengen an Energie (ca. einer Million Elektronenvolt) kann
man dem Elektron die nötige Energie hinzufügen, so dass es aus der „Antiwelt“ in unsere Welt
springt. Die Energie, welche man hinzufügen muss ist leicht zu berechnen. Sie beträgt nach
folgender Gleichung
gerade 2 mal die Masse des Elektrons mal der Lichtgeschwindigkeit zum Quadrat. Wenn jedoch ein
Elektron aus der Antiwelt herausgelöst wird, so müsste dort eine Art Loch entstehen. Dieses Loch,
Seite 57 von 83
Copyright Stefan Frank
umgeben von negativer Energie müsste ähnlich auffallen, wie ein negatives Elektron umgeben von
positiver Energie in unserer Welt, halt nur genau andersherum. Während in unserer Welt das
Teilchen negativ auffällt, müsste in der Antiwelt die Lücke positiv auffallen. Dies wäre messbar:
Gesucht ist also ein Teilchen, welches die Masse eines Elektrons hat, jedoch positiv geladen ist.
Experimente bestätigten seine Existenz – dieses Antielektron wird heute Positron genannt.
Fermionen und Bosonen
Der Teilchenzoo kann in zwei Obergruppen eingeteilt werden, die sog. Fermionen und Bosonen. Sie
sind völlig unterschiedlicher Natur. Elektronen, Neutronen und Protonen gehören zu den
Fermionen, benannt nach der Fermi-Dirac-Statistik, mit der – grob gesagt – das Verhalten von
Elektronen genauer untersucht werden sollte. Fermionen sind von Bosonen durch ihre SpinQuantenzahl leicht zu unterscheiden: Erstere haben einen halbzahligen Spin (also +- ½, +- 3/2,...),
Bosonen hingegen einen ganzzahligen (0,+-1,+-2,...). Das Elektron z.B. hat einen Spin von
bzw.
.
Das Plancksche Wirkungsquantum dividiert durch zwei mal die Kreiszahl Pi ist eine Konstante mit
der man den Spinwert multipliziert. Fermionen gehorchen dem Pauli-Prinzip, d.h. mehrere
Elektronen müssen innerhalb eines Atoms unterschiedliche Quantenzahlen haben. Die Anzahl der
Fermionen im Universum ist konstant, sie können nicht erzeugt oder zerstört werden. Daraus folgt:
Die Anzahl der Neutronen, Protonen und Elektronen innerhalb unseres Universums ist eine
unverrückbare Konstante. Dem gegenüber stehen die Bosonen. Diese nach der Bose-EinsteinStatistik benannten Teilchen muten etwas komisch an. Sie gehorchen nicht dem Pauli-Prinzip und
können künstlich erzeugt werden. Ihre Anzahl im Universum ist also nicht konstant. Den wohl
bekanntesten Vertreter dieser Gattung haben Sie bereits kennen gelernt: das Photon. Es besitzt
keinerlei Ruhemasse und kann künstlich erzeugt werden, wie wir es in unseren Experimenten
permanent getan haben und auch Sie schon, wenn Sie das Licht eingeschaltet haben.
Protonen, Neutronen und die Quarks
Bei Experimenten wurde festgestellt, dass Protonen und Neutronen keine Elementarteilchen sind.
Sie setzen sich aus weiteren, noch kleineren Teilchen zusammen, den sog. Quarks. Von diesen gibt
es 6 Stück, die sich u.a. in Ladung und Masse unterscheiden:
Quark
Ladung
Up (u)
+2/3
Down (d)
-1/3
Charm (c)
+2/3
Strange (s)
-1/3
Top (t)
+2/3
Bottom (b)
-1/3
Ein Proton besteht aus zwei Up-Quarks und einem Down-Quark. Wenn man nachrechnet kann dies
gut sein, denn 2/3 Ladung + 2/3 Ladung – 1/3 Ladung = +1 Ladung, und das Proton ist genau Träger
einer einfach positiven Ladung. Dies müsste auch bei den Neutronen passen mit einer Ladung von
0. Ein Neutron besteht aus einem Up-Quark und 2 Down-Quarks: 2/3 Ladung – 1/3 Ladung – 1/3
Seite 58 von 83
Copyright Stefan Frank
Ladung = 0 Ladung. Dies ist also korrekt. Wenn Sie die obige Tabelle genau betrachten, so werden
Sie feststellen, dass es auch andere Kombinationsmöglichkeiten gibt um eine Ladung von 0 oder 1
zu erreichen. Z. B. würde ein Up-Quark, ein Down-Quark und ein Strange-Quark ebenfalls
zusammen 0 ergeben. Warum ist diese Kombination dann nicht das Neutron? Erstens hat dieses
Teilchen eine andere Masse als ein Neutron und zweitens lebt es nicht lange, nämlich nur ca. 1/10
Milliardstel Sekunde. Dieses sog. Lambda-Teilchen ist also extrem instabil. Der Vollständigkeit
halber seien hier diese sog. Baryonen noch einmal aufgeführt:
Typ
Teilchen
Quarks
Ladung
uud
+1
Neutron
udd
0
Hyperonen Lambda
uds
0
Nukleonen Proton
Sigma-Teilchen:
Sigma-Plus
uus
+1
Sigma-Null
uds
0
Sigma-Minus
dds
-1
Xi-Teilchen:
Xi-Null
uss
0
Xi-Minus
dss
-1
Lambda-c-Plus
udc
+1
Mit Nukleonen bezeichnet man die stabilen Teilchen, mit Hyperonen diejenigen, welche nach
kurzer Zeit zerfallen. Ihre Spin-Zahl ist halbzahlig und gehören daher zu den Fermionen.
Dem gegenüber stehen die Mesonen, welche ganzzahligen Spin haben und daher zu den Bosonen
gehören. Sie setzen sich aus Antiquarks zusammen, sind also Quarks mit gleicher Masse wie ihre
schon vorgestellten Gegenstücke, haben jedoch entgegengesetzte Ladung. Man unterscheidet primär
zwei Arten von Mesonen: Das Pion und das Kaon, welche sich jeweils wieder in viele
Untergruppen unterteilen. Darauf möchte ich aber an dieser Stelle nicht genauer eingehen.
„Und die Elektron, woraus bestehen die?“, werden Sie sich jetzt vielleicht fragen. Die Antwort
hierauf ist einfach: Es ist nicht aus weiteren Teilchen zusammengesetzt. Es gehört zu einer dritten
Gattung von Teilchen, die neben den Baryonen und Mesonen existiert: die sog. Leptonen. Leptonen
sind Elementarteilchen, welche sich in Ladung, Masse und Lebensdauer unterscheiden. Es
existieren 3 Gattungen, nämlich die Elektronen, Myonen und das Tauon. Jedes von ihnen besitzt ein
neutrales Gegenstück, das Neutrino:
Teilchen
Seite 59 von 83
Ladung
Elektron
-1
Elektron-Neutrino
0
Myon
-1
Myon-Neutrino
0
Tauon
-1
Tauon-Neutrino
0
Copyright Stefan Frank
Zu jedem dieser Teilchen gehört ein Antiteilchen. Das Antiteilchen des Elektrons ist Ihnen ja bereits
bekannt, es handelt sich um das Positron. Alle Leptonen haben einen halbzahligen Spin und gehören
daher zu den Fermionen.
Warum aber diese nochmalige Unterteilung? Welchen Sinn hat diese? Wo ist der Zusammenhang in
diesem verwirrenden Zusammenspiel von Teilchen. Damit werden wir uns im nächsten Kapitel
beschäftigen.
Zusammenfassung
Paul Dirac stellte fest, dass es neben der uns vertrauten Materie auch sog. Antimaterie gibt. Anhand
des Elektrons konnte diese nachgewiesen werden – das Positron ist ein Elektron mit positiver
Energie. Weiterhin unterteilen wir die Teilchenwelt zunächst in 2 Gruppen: Den Fermionen und
Bosonen, jenachdem welchen Spin sie haben. Fermionen mit halbzahligem Spin kommen der uns
vertrauten Materie am Nächsten: Sie haben eine Ruhemasse und gehorchen dem Paulischen
Ausschließungsprinzip. Bosonen hingegen haben einen ganzzahligen Spin und gehorchen dem
Pauli-Prinzip nicht. Bestimmte Teilchen, wie die Neutronen und Protonen (jedoch nicht die
Elektronen!) setzen sich aus weiteren Teilchen, den sog. Quarks zusammen. Von diesen gibt es
abermals sechs Stück plus ihre Gegenstücke aus Antimaterie. Unabhängig davon lassen sich weitere
drei Gruppen herausarbeiten, nämlich die Baryonen (Neutronen, Protonen,...), die Mesonen (Pion,
Kaon) und die Leptonen (Elektron, Myon, Tauon und ihre Neutrinos).
Seite 60 von 83
Copyright Stefan Frank
- Kapitel 12 Kernkräfte und ihre Wirkung
Wir wissen nun, dass Teilchen, wie die Protonen und Neutronen aus noch kleineren Teilchen
zusammengesetzt sind, den Quarks. Die großen Gruppen der Baryonen und Mesonen sind
prinzipiell alle aus diesen Teilchen aufgebaut. Doch wie halten diese Teilchen zusammen? Warum
fallen die Quarks nicht wieder auseinander? Diese Fragen möchte ich Ihnen hier beantworten.
Weiterhin möchte ich versuchen ein bisschen Ordnung in das Chaos des Teilchenzoos und seiner
Unterteilungen zu bringen.
Die Quantenelektrodynamik und die elektromagnetische Kraft
Ursache für den Zusammenhalt unserer Materie sind Kräfte, die zwischen den Teilchen wirken.
Man kann alle bekannten Phänomene auf vier Urkräfte zurückführen: starke Kernkraft, schwache
Kernkraft, Schwerkraft (Gravitation) und elektromagnetische Kraft. Letztere kennen Sie bereits. Sie
ist z.B. für Abstoßungs- und Anziehungskräfte von Ladungsträgern verantwortlich. Die Gravitation
ist uns allen aus dem Alltag bekannt: Ihre Aufgabe ist es, dass Masseteilchen eine gewisse
Anziehungskraft aufeinander ausüben. Die starke Kernkraft sorgt dafür, dass die Materieteilchen
des Atomkerns zusammenhalten, also auch die Quarks. Für den Zerfallsprozess des Kerns (z.B. bei
radioaktiven Prozessen) ist die schwache Kernkraft verantwortlich.
Man stellt sich vor, dass die Kräfte durch kleine Teilchen, den schon bekannten Bosonen
hervorgerufen werden. Auch hier gibt es wieder einen ganzen Zoo, wie Wissenschaftler
herausgefunden haben. Jede Kraft hat ihre eigenen Bosonen. Indem zwischen den Teilchen diese
Bosonen ausgetauscht werden, wird die Kraft übertragen. Satyendra Nath Bose (1894-1974) war
indischer Mathematiker und Physiker und neben Einstein Mitbegründer der Bose-Einstein-Statistik.
Wie bereits erwähnt sind Bosonen, im Gegensatz zu Fermionen, Teilchen mit ganzzahligem Spin.
Das Photon ist ein solches Boson und ist an sich Träger - und damit Ursache - einer ganz
bestimmten Kraft – der elektromagnetischen Feldkraft. Wirken also zwischen zwei Teilchen
elektromagnetische Kräfte, so werden zwischen ihnen Photonen ausgetauscht. Stoßen sich
beispielsweise zwei Elektronen ab, so kann das wie folgt veranschaulicht werden:
Das rechte Bild zeigt ein sog. Feynman-Diagramm, benannt nach dem amerikanischen Physiker und
Nobelpreisträger Richard Phillips Feynman (1918-1988). Es abstrahiert das Geschehen ist aber in
Seite 61 von 83
Copyright Stefan Frank
diesem Fall noch relativ einfach nachzuvollziehen. Der Teilbereich der Physik, welcher sich mit der
Wechselwirkung von Materie und Bosonen im elektromagnetischen Feld beschäftigt nennt man
Quantenelektrodynamik. Sie gilt heute als sehr gut ausgearbeitet und wurde in Experimenten mit
überwältigender Übereinstimmung nachgewiesen.
Die Quantenchromodynamik und die starke Kernkraft
Jetzt möchte ich Ihnen die stärkste aller bekannten Kräfte vorstellen, auch wenn wir diese zunächst
nicht direkt spüren. Viele glauben, die Gravitation sei die stärkste Kraft, weil wir diese direkt
wahrnehmen. Aber dem ist nicht so, im Gegenteil, sie gehört sogar zu den schwächsten bekannten
Kräften.
Sie haben bereits erfahren, dass die starke Kernkraft (auch starke Wechselwirkung genannt) für den
Zusammenhalt der Quarks innerhalb der Protonen, Neutronen und allen anderen Baryonen bzw.
Mesonen verantwortlich ist. Die Träger dieser Kraft, so die Vorstellung, sind die Gluonen. Auch sie
sind masselose Teilchen, welche zwischen dem Quarks ausgetauscht werden, dies jedoch auf eine
ganz besondere Weise. Insgesamt sind acht verschiedene Arten an Gluonen bekannt. Ihnen allen
wird eine Eigenschaft zugeschrieben, eine bestimmte Farbe. Auch Quarks haben eine Farbe, daher
nennt man die sich mit diesem Komplex befassende Theorie auch Quantenchromodynamik
(chromos, griechisch für Farbe). Dabei darf man sich die Quarks und Gluonen nicht wirklich wie
bemalte Ostereier vorstellen, es ist wieder mal die
Veranschaulichung einer Eigenschaft, die man den
Teilchen zuschreibt. Zur besseren Verständlichkeit der
Theorie ist es jedoch sinnvoll einen Bezug zu unserer
Alltagswelt herzustellen. Den bereits vorgestellten
Quarksarten (Up, Down, Charm, Strange, Top, Botton)
werden jeweils Farben zugewiesen und zwar Rot, Grün
und Blau. Ihre Antiteilchen haben dementsprechend die
Farben Antirot, Antigrün und Antiblau (fragen Sie mich
bitte nicht, was man sich unter diesen Farben
vorzustellen hat). Unter diesen Voraussetzungen gilt nun
folgendes Gesetz: Entweder die Farben innerhalb eines
neu gebildeten Teilchen (z.B. Proton, Neutron oder Pion)
heben sich gegenseitig auf oder ergänzen sich
gegenseitig zu Weiß. Aufheben heißt, dass eine Farbe
plus eine Antifarbe keine Farbe ergibt. Alle Pionen und
Kaonen (also die Mesonen) bestehen aus einem Quark und einem Antiquark. Wenn man ein rotes
Quark innerhalb des Mesons vorliegen hat, so muss auch ein rotes Antiquark vorhanden sein. Ein
Meson besteht nie aus mehr als zwei Teilchen, denn ein drittes Teilchen würde sofort wieder eine
Farbe bzw. eine Antifarbe ins Spiel bringen. Die Teilchen, welche nur Quarks und keine Antiquarks
enthalten sind die Baryonen (Neutron-, Proton-, Lambda-, Sigma- und Xi-Teilchen). Sie müssen
drei Quarks in sich tragen und zwar von jeder Farbe eins, denn rote plus blaue plus gelbe Farbe
ergibt Weiß. Daher sind nicht alle Quarks innerhalb der Teilchen beliebig kombinierbar, sondern
nur bestimmte, welche die richtige Farbeigenschaft in sich tragen.
Da die Gluonen, welche die Kraft zwischen den Quarks hervorrufen, selber noch einmal acht
Farben haben ist die Theorie sehr komplex. Wichtig ist jedoch zu wissen, dass die starke Kernkraft
dafür sorgt, dass auf der einen Seite die Quarks innerhalb eines Baryons bzw. Mesons zusammen
gehalten werden und auf der anderen Seite den gesamten Kern zusammenhält. Eigentlich müsste ein
Kern sofort auseinander fallen, denn die Abstoßungseffekte zwischen den positiv geladenen
Protonen müssten den Kern sprengen. Dies passiert jedoch nicht. Dies liegt auf der einen Seite an
den Neutronen, die einen gewissen Abstand zwischen den Protonen schafft, auf der anderen Seite
Seite 62 von 83
Copyright Stefan Frank
wirken die starken Kernkräfte der Protonen und Neutronen (Nukleonen) über sich selber hinaus und
binden so die Quarks der unterschiedlichen Nukleonen aneinander. Die starke Wechselwirkung ist
dabei um ein vielfaches stärker als die elektromagnetische Abstoßungskraft zwischen den Protonen.
Teilchen, welche dem Einfluss der starken Wechselwirkung unterliegen nennt man Hadronen. Die
Hadronen sind alle Teilchen, welche die Baryonen und Mesonen umfassen. Die Leptonen gehören
jedoch nicht dazu, also das Elektron, das Myon, das Tauon uns ihre Neutrinos. Sie zeigen keinerlei
Wechselwirkung mit der starken Kernkraft, was auch logisch ist. Da sie keine Quarks enthalten,
können die Gluonen mit diesen nicht wechselwirken.
Theory of Everything und Superstrings
Zwei weitere Kräfte verbleiben noch zu erklären: Für die schwache Kernkraft sind gleich drei
Bosonen verantwortlich, man nennt sie W+, W- und Z0, oder zusammenfassend: Vektor-Bosonen. Es
handelt sich dabei um sehr schwere Teilchen die nur über eine kurze Distanz wirken können. Sie
sorgen für den Kernzerfall und sind die schwachen Gegenspieler der starken Kernkraft.
Das größte Problem bereitet jedoch die Gravitation. Bis jetzt ist es noch nicht gelungen eine Theorie
zu entwickeln, die diese Kraft ähnlich beschreibt wie die Quantenelektrodynamik die
elektromagnetische Kraft oder die Quantenchromodynamik die starke Kernkraft. Man vermutet, es
könnte ein Teilchen geben, das Graviton, welches zwischen den Materieteilchen wechselwirkt,
bewiesen ist dies jedoch noch nicht. Bis jetzt haben wir mehr oder weniger nur eine Theorie, welche
die Gravitation richtig beschreibt und das ist Einsteins allgemeine Relativitätstheorie. Eine
Quantentheorie der Gravitation steht noch aus, auch wenn es bereits erste Ansätze in diese Richtung
gibt.
Der Traum der Wissenschaftler ist es, eine Theorie zu finden, welche alle vier fundamentalen Kräfte
vereinigt. Auf diese Weise hofft man tiefe Einblicke in das Universum und seinen Aufbau zu
erhalten. Sie kann sicherlich nicht alles Vorhersagen, sie wäre aber ein gutes wissenschaftlichen
Fundament, auf dem sich neue Erkenntnisse schnell und sicher aufbauen ließen.
Es wird vermutet, dass alle Kräfte früher in einer vereint waren, der Urkraft. Diese existierte nur
Seite 63 von 83
Copyright Stefan Frank
kurz nach dem Urknall. Danach spaltete diese sich in die vier uns bekannten Kräfte auf. Ziel ist es
jetzt diese Urkraft, zumindest mathematisch, zu beschreiben. Ansätze hierfür gibt es bereits: Die
Weinberg-Salem-Theorie besagt, dass die drei Vektor-Bosonen der schwachen Kernkraft bei hohen
Energien (mehr als 100 Milliarden eV) dem Photon gleichen würden, welches ja Träger der
elektromagnetischen Kraft ist. Im Kernforschungszentrum CERN bei Genf hat man entsprechende
Experimente in einem sog. Teilchenbeschleuniger durchgeführt. Er besteht aus einem riesigen
unterirdischen Ring in dessen Inneren bei hohen Geschwindigkeiten Teilchen aufeinander
geschossen werden können. Es zeigte sich, dass die Vorhersagen mit den experimentellen
Ergebnissen übereinstimmen. Somit war die elektromagnetische und die schwache Kernkraft
vereinheitlicht. Die starke Kernkraft kann man wahrscheinlich auf ähnliche Art und Weise mit den
anderen beiden Kräften verbinden, jedoch fehlt hierfür der Beweis, denn es müssten Energien
aufgebracht werden, die in unseren Teilchenbeschleunigern nicht zu erreichen sind. Man geht bei
dieser Grand Unified Theory (GUT) davon aus, dass die starke Kernkraft über eine Eigenschaft
verfügt, die man als asymptotische Freiheit bezeichnet: Um so höher die hinzugefügte Energie ist,
um so schwächer wird die starke Wechselwirkung. Auf diese Weise könnte man die starke
Kernkraft abschwächen, während man die elektromagnetische und schwache Kernkraft durch
Hinzufügen von Energie stärkt. Das Ergebnis ist dann logisch: Beide Kräfte werden irgendwann
gleich stark sein. Somit wären diese drei Kräfte nur noch „verschiedene Aspekte einer einzigen
Kraft“, so Stephen Hawking in seinem Beststeller „Eine Kurze Geschichte der Zeit“. Bei dieser sog.
Vereinheitlichungsenergie sollen auch alle Teilchen mit dem Spin ½ (also alle Fermionen) gleiche
Erscheinungsform haben. Sie wären dann auch nur verschiedene Aspekte des gleichen Teilchens,
ähnlich wie die Vektor-Bosonen verschiedene Aspekte des Photons sind.
Und was ist mit der Gravitation? Wenn man
noch nicht einmal eine einheitliche Theorie
dieser Kraft hat, wie soll man sie dann
vereinheitlichen? Eine Lösung auf dem Weg
zu dieser Theory of Everything (TOE)
könnten sog. Superstrings sein, etwas sehr
abstraktes. Demnach bilden unsere Teilchen
keinen Punkt in der Raumzeit, sondern einen
Faden. Bisher war es so, dass man ein
Teilchen
als
Punkt
an
bestimmten
Ortskoordinaten zu einer bestimmten Zeit
angab. Jetzt versucht man ein Teilchen als
einen Faden in der Raumzeit zu beschreiben.
Diese Strings haben eine gewisse Länge und
bewegen sich mit der Zeit vorwärts, wodurch
sie eine Art zweidimensionale Fläche
beschreiben. Diese Fläche kann jedoch auch
gekrümmt sein, so dass sich linke und rechte
Seite der Fläche treffen und so einen Zylinder
bilden, der Querschnitt ist dann kreisförmig.
Diese neue Vorstellung, 1984 von den beiden
Physikern Michael Green und John Schwarz massiv vorangetrieben, konnte viele Ungereimtheiten,
welche bei dem Versuch der Vereinheitlichung auftraten, eliminieren. Sie sagt etwas voraus, was
man Supersymmetrie nennt: Demnach sind Fermionen (Materieteilchen mit halbzahligem Spin) und
Bosonen (Träger der Kräfte mit ganzzahligem Spin) abermals verschiedene Aspekte ein und des
selben Superteilchens, ähnlich wie oben bereits bei den Vektor-Bosonen und den Fermionen
beschrieben. Damit hätte man auch das Graviton in die Theorie mit eingeschlossen. Die
Superstringtheorie setzt eine 10-dimensionale Raumzeit voraus, was ziemlich verwunderlich wirkt,
wenn wir unsere real wahrnehmbare vierdimensionale Raumzeit (drei Raumdimension plus eine
Seite 64 von 83
Copyright Stefan Frank
Zeitdimension)
betrachten.
Dadurch wird die Theorie jedoch
nicht automatisch falsch: Man
geht davon aus, dass die anderen
sechs Dimensionen so klein
zusammengerollt sind, dass wir
sie nicht wahrnehmen können.
Sie sollen nicht größer als 10-35
Meter sein, während die anderen
drei Raumdimensionen unseres
Universums eine Größe von 1023
Metern haben.
Aber um jede Euphorie gleich
wieder
zu
dämpfen:
Die
Stringtheorie ist nichts weiter als
ein mathematisches Modell. Sie
versucht Sachverhalte der Relativitätstheorie zu vereinheitlichen mit quantenphysikalischen
Erkenntnissen. Man steht hierbei jedoch noch am Anfang. Es wird noch viele Jahrezehnte brauchen,
bis man einigermaßen gesicherte Erkenntnisse hat – in naher Zukunft ist mit einem Erfolg also nicht
zu rechnen.
Nach dem durchlesen dieses Kapitels haben Sie einen Eindruck gewonnen wie kompliziert unsere
atomare Welt aufgebaut ist. Die hier vorgestellten Teilchen sind dabei noch längst nicht alle. Es gibt
um einige mehr, würden aber den Rahmen dieser Abhandlung deutlich sprengen. Sie wissen nun
jedoch schon viel über Teilchen, Kräfte und ihre Wirkung. Aus der Quantenphysik ergeben sich in
diesem Zusammenhang viele interessante Schlussfolgerungen, von denen ich Ihnen einige in den
nächsten Kapiteln vorstellen möchte.
Zusammenfassung
Um die vier fundamentalen Kräfte zu erklären, stellt man sich im Rahmen der Quantenphysik vor,
dass zwischen Teilchen Bosonen ausgetauscht werden, welche Träger der Kräfte sind. Die
Quantenelektrodynamik beschreibt die elektromagnetische Kraft mit dem Austausch von Photonen,
die Quantenchromodynamik die starke Kernkraft mit dem Austausch von Gluonen zwischen den
Quarks. Die schwache Kernkraft wird durch drei weitere Teilchen (W+,W-,Z0) hervorgerufen. Die
Weinberg-Salem-Theorie sagt eine Vereinigung der schwachen mit der elektromagnetischen
Kernkraft voraus. Tatsächlich wirken die drei Vektor-Bosonen der schwachen Wechselwirkung bei
großer Beschleunigung wie ein Photon. Auch die starke Kernkraft kann theoretisch auf diese Weise
vereinheitlicht werden (Grand Unified Theory (GUT)). Die Theory of Everything (TOE) soll auch
die Gravitation auf ähnliche Weise mit den anderen drei Kräften verbinden, doch soweit ist man
noch lange nicht. Helfen kann dabei möglicherweise die Superstring-Theorie, wobei ein Teilchen
nicht mehr als Punkt sondern als Faden innerhalb der Raumzeit beschrieben wird.
Seite 65 von 83
Copyright Stefan Frank
- Kapitel 13 Die quantenphysikalische Auffassung von Raum und Zeit
Die Heisenbergsche Unschärferelation, die Wahrscheinlichkeitsverteilung von Wellen
(Schrödinger), der Teilchenzoo, der Welle-Teilchen-Dualismus und all die anderen Konzepten, von
denen Sie bisher gehört haben, offenbaren uns eine neue Sicht auf Raum und Zeit – ähnlich wie es
bereits die Relativitätstheorie tat. Die relativistischen Aussagen haben Sie bereits in früheren
Kapiteln kennen gelernt. Nun möchte ich Sie kurz mit Schlussfolgerungen der Quantenphysik über
unser Verhältnis zu Raum und Zeit informieren.
Ein Vakuum ist gar nicht so leer, oder: Die Strahlung schwarzer Löcher
Wenn ein Raum von jeglicher Materie (also allen Atomen) gesäubert und von jeglicher Strahlung
abgeschirmt wird, so nennt man den entstehenden Raum ein Vakuum. In ihm befindet sich, so die
logische Schlussfolgerung, nichts. Aber wir haben bereits gesehen, dass ein „Teppich“ von
Antimaterie den gesamten Raum füllt, so leer ist also unser Vakuum nicht, wir merken zunächst nur
nichts davon.
Es gibt jedoch einen Effekt, den man mit Quantenfluktuation umschreibt und mit dessen Hilfe aus
dem Nichts tatsächlich neue Teilchen – einfach so – entstehen können. Die Heisenbergsche
Unschärferelation besagt, dass man Ort und Impuls einen Teilchens nicht gleichzeitig genau
bestimmen kann. Dies kann man auf ein Kraftfeld übertragen: Hier heißt es, dass man die Stärke
eines Feldes und seine sog. Veränderungsrate zum gleichen Zeitpunkt nicht exakt festhalten kann.
Wenn jedoch ein Feld vorliegt, dessen Stärke gleich null ist, so ist auch seine Veränderungsrate
gleich null. In einem Vakuum hätte man dann also die Feldstärke und Veränderungsrate exakt
bestimmen können – nämlich null. Dies widerspricht der Heisenbergschen Unschärferelation, also
muss auch in einem zunächst völlig energie- und masselosen Raum Energie vorhanden sein. Daher
kam man zu dem Ergebnis, dass innerhalb eines vermeintlichen Vakuums spontan Energiequanten
und Gravitonen (wenn es sie denn gibt) entstehen, jedoch dann gleich wieder vernichtet werden. Ein
Antiteilchen hat i.d.R. immer soviel negative Energie wie sein reales Gegenstück (Sie erinnern sich
an die Herleitung der Antimaterie aus der speziellen Relativitätstheorie). Ein Gesetz der Physik
besagt, dass sich ein Teilchen und sein Antiteilchen gegenseitig vernichten, wenn sie
zusammentreffen. Z.B. löschen sich ein Elektron und ein Positron gegenseitig aus, wobei jedoch ein
Quant Gammastrahlung emittiert wird. Ähnliches erfolgt im Vakuum: Gleichzeitig entsteht immer
ein Paar: ein Quant und Antiquant oder ein Graviton und ein Antigraviton. Diese existieren jeweils
für kurze Zeit bis sie sich wieder gegenseitig vernichten (annihilieren, wie der Fachbegriff hierfür
ist).
Dass solche Vorstellungen nicht nur Hirngespinste sind, zeigen schwarze Löcher. Durch den
Urknall, so die vorherrschende Meinung der Wissenschaft, entstand unser Universum. An einer
kleinen winzigen Stelle, kleiner als ein Atom, hatte sich die gesamte Materie des Universums
konzentriert. Die Explosion dieses kleinen Objektes, genannt Singularität, war die Geburtsstunde
unseres Universums. Es ist schwer sich eine solche Singularität vorzustellen. Fest steht, dass vor der
Explosion der Singularität alle physikalischen Gesetze außer Kraft gesetzt sein mussten und, was
viel imposanter ist: Die Zeit stand still! In den Kapiteln über die Relativitätstheorie habe ich dies
bereits angesprochen: Sie haben erfahren, dass Licht (bzw. die Raumzeit) von Massereichen
Objekten gebeugt wird. Je größer die Masse um so stärker dieser Effekt. Bei Singularitäten ist die
Gravitationswirkung so stark, dass nichts, nicht einmal Licht dem Gebilde entkommen kann.
Ursache hierfür ist die massive Krümmung des Raum-Zeit-Kontinuums. Wenn selbst Licht nicht in
der Lage ist, die Singularität zu bezwingen, dann ist es auch für alle anderen Objekte unmöglich der
geballten Schwerkraft zu entkommen – jegliche Masse wird regelrecht angesaugt.
Diese Singularitäten sind auch die Erklärung für das Phänomen „Schwarze Löcher“. Sie sind nichts
Seite 66 von 83
Copyright Stefan Frank
weiter als eine Art UrknallSingularitäten, die alles verschlingen,
was ihnen in die Quere kommt. Wenn
schwarze Löcher jedoch alles
auffressen und selbst Licht festhalten,
wie können wir diese Objekte dann
sehen? Dazu muss man sich den
Aufbau genauer betrachten: Ein
Schwarzes Loch hat einen sog.
Ereignishorizont. Der Punkt, bei dem
Licht gerade noch der Gravitation des
Loches entkommt markiert diesen.
Alles was darunter ist bleibt unsere
Einsicht verwehrt - es handelt sich
hierbei um den Schwarzschildradius.
Nun kommt es dazu, dass nicht nur
Licht, sondern auch Materie ein
Schwarzes Loch umkreisen kann,
immer auf der Schwelle zwischen
Absturz in die schwarze Tiefe und der
Weiterreise in die Unendlichkeit des Raumes. Durch diese Tatsache ist ein schwarzes Loch
auszumachen: Man sieht Materiebewegungen um einen schwarzen inneren Kreis.
In der Zwischenzeit hatte Stephen William Hawking (geb. 1942) jedoch eine ganz neue Idee und er
kam zu dem Schluss: Schwarze Löcher sind nicht Schwarz! Diese Erkenntnis baut direkt auf der
Heisenbergschen Unschärferelation und der sich ergebenden Quantenfluktuation im Vakuum auf.
Jedes schwarze Loch sendet Strahlung aus, die Frage ist nur, wie diese aus dem schwarzen Loch
entweichen kann. Die Antwort hierfür liegt im Ereignishorizont des schwarzen Loches: In
Vakuumbereichen bilden sich, wie schon erwähnt, Teilchen-Antiteilchen-Paare. Diese würden sich im Normalfall - nach sehr kurzer Zeit wieder gegenseitig auslöschen. Es kann jedoch passieren, dass
eines der beiden Teilchen von der Gravitation des schwarzen Loches angezogen wird. Innerhalb des
schwarzen Loches ist jegliche Masse mit negativer Energie versehen, da „das Gravitationsfeld im
Inneren des Schwarzen Loches so stark ist, dass dort sogar ein reales Teilchen negative Energie
aufweisen kann., so Hawking in „Eine kurze Geschichte der Zeit“. Somit sieht ein Teilchen mit
negativer Energie ähnlich aus, wie ein Teilchen, welches vorher positive Energie hatte und nur
durch die Gravitation jetzt auch negative Energie in sich trägt. Da es sich jetzt als „reales Teilchen
fühlen“ kann hat es nicht mehr den Drang einen Partner positiver Energie zu suchen um sich
gegenseitig zu vernichten. Das reale Teilchen außerhalb des schwarzen Loches kann nun versuchen
der Schwerkraft zu entkommen, was mit etwas Glück auch gelingt. Dieses Entkommen können wir
als Strahlung messen. Sie kommt also nicht wirklich aus dem Inneren des Loches, sondern aus
seinem Ereignishorizont. Diese Erklärung ist eine praktische Anwendung der Quantenfluktuation
im Vakuum.
Zurück in die Vergangenheit – Wenn für Teilchen die Zeit nicht geradlinig verläuft
Bei der Analyse des, bereits oben vorgestellten Feynman-Diagramms kam man auf ein sehr komisch
anmutendes Ergebnis: Teilchen können in der Zeit rückwärts reisen. Zu diesem Zweck soll ein
Elektronen-Positronen-Paar in einem Feynman-Diagramm betrachtet werden. Dazu muss man etwas
genauer über diese Diagramm-Art bescheidwissen. Auf der x-Achse werden hierbei die
Ortskoordinaten abgetragen, auf der y-Achse trägt man die Zeit ab. Für ein einzelnes Elektron,
welches ein Gammaquant emittiert könnte dies so aussehen, wie das Diagramm zeigt. Durch die
Seite 67 von 83
Copyright Stefan Frank
Rückstoßkraft des Quants bei der
Emission wird das Elektron nach
rechts abgelenkt. Die Pfeile geben an,
in welche Richtung die Elektronen
innerhalb des Diagramms fliegen,
hier also von unten nach oben.
Nun soll ein Feynman-Diagramm
gezeigt werden, in dem sich ein
Elektronen-Positronen-Paar begegnen
und gegenseitig auslöschen. Beide
steuern innerhalb des Diagramms
zunächst von unten nach oben
aufeinander zu. Treffen sich beide, so
werden sie vernichtet und ein
Gammaquant emittiert (links). Jetzt
jedoch der Trick, und das ist mehr als ein mathematischer Kniff! Das gleiche Diagramm lässt sich
auch anders interpretieren. Nehmen wir zunächst nur ein einzelnes Elektron, welches durch den
Raum fliegt. Zu einem Zeitpunkt „zerfällt“ dieses Elektron spontan, emittiert einen Gammaquant
und wird durch den Rückprall in der Zeit zurückgeschickt (rechts). Sie sehen, dass der Pfeil des
rechten Elektrons von oben nach unten Zeigt. Da die Zeit auf der y-Achse abgetragen wird, zeigt
sich so die zeitliche Rückwärtswanderung.
Wurmlöcher durch den Casimir-Effekt?
Aus der Relativitätstheorie geht hervor, dass kein Objekt schneller fliegen kann als das Licht
(Tachyonen mal ausgenommen). An die Lichtgeschwindigkeit gebunden würden wir jedoch schon
100.000 Jahre brauchen um das Zentrum der Milchstraße zu erreichen. Deswegen hat man die
Relativitätstheorie auf alle möglichen Eventualitäten überprüft und man wurde fündig. Wurmlöcher
könnten uns schnelle Reisen in ungeahnte Weiten ermöglichen. Wie der Name schon sagt sind diese
Gebilde lange Schläuche, welche die Raumzeit durchqueren. Die Funktionsweise baut auch hier auf
den Quantenfluktuationen auf: Sie Wissen, dass unser Universum Höhe, Breite und Tiefe hat,
welche mit der Zeit verwoben sind. Der vierdimensionale Raum kann gekrümmt werden, auch dies
haben sie bereits erfahren. Im Normalzustand ist unser Raum wie eine Kugel positiv gekrümmt. Für
ein Wurmloch muss man jedoch versuchen den Raum negativ – ähnlich einem Sattel – zu
krümmen. Hierfür kann der Casimir-Effekt herangezogen werden: Zwei Platten werden in einem
Seite 68 von 83
Copyright Stefan Frank
gewissen Abstand zueinander aufgestellt. Innerhalb und außerhalb der Platten entstehen aus der
Quantenfluktuation resultierende Teilchen, z.B. Photonen. Für diese Quanten haben die
Metallplatten die Funktion von Spiegeln und somit werden diese permanent hin und her geworfen.
Wenn der Abstand zwischen den beiden Platten nicht genau dem Vielfachen der Wellenlänge des
Photons gleichkommt können sich Wellenberg und Wellenberg bzw. Wellental und Wellental
zweier Photonen nicht genau überschneiden: Nach kurzer Zeit wird es dazu kommen, dass
Wellenberg und Wellental einander überlagern und was dann passiert wissen Sie ja: Die Wellen
heben sich gegenseitig auf. Somit müssen wir auf folgendes schließen: Die Energie innerhalb der
Platten ist geringer als außerhalb, da Teile der Quantenenergie innerhalb der Platten aufgehoben
wird. Dies kann man sogar nachweisen. Da die Energie außerhalb der Platten stärker ist, werden die
äußeren Quanten, welche auf die Platten schlagen dafür sorgen, dass diese zusammengeschoben
werden. Im Labor hat man dies überprüft und den Effekt nachweisen können. Hieraus lässt sich
jedoch noch etwas weiteres bedeutsames ableiten: Durch die geringere Energie innerhalb der Platten
wird das Energiepotential relativ zur normalen Umgebung negativ. Das bedeutet, die positive
Beugung des Raum-Zeit-Kontinuums wird negativ gekrümmt. Wir erhalten ein Gebilde, welches
einem Sattel gleichkommt. Diese Beugung ist eine Voraussetzung für die Erzeugung von
Wurmlöchern. Ich muss Ihre vielleicht aufkommende Euphorie jedoch zügeln: Es handelt sich
hierbei um Theorien – eine praktische Anwendung wird wohl keiner von uns je erleben.
Wie viele Universen gibt es?
Die Fragestellung, wie sie in der Überschrift formuliert ist, wird Sie vielleicht zunächst verwundern.
„Eines natürlich, nämlich unseres“ könnte Ihre Antwort sein. Die Antwort eines Quantenphysikers
wäre wahrscheinlich: „Für Sie eines, nämlich Ihres.“
Sie haben bereits einiges über die sog. Kopenhagener Deutung erfahren. Sie wissen welche kuriosen
Vorhersagen sie macht. Ein Resultat dieser Überlegungen war Schrödingers Katze. Demnach
Seite 69 von 83
Copyright Stefan Frank
existieren alle möglichen Zustände eines (Quanten-) Systems gleichzeitig. Erst im Augenblick
unserer Beobachtung zwingen wir diese Überlagerung von Wellenfunktionen dazu
zusammenzubrechen. Hierdurch muss das System „eine Entscheidung fällen“ und einen Weg
beschreiten. Im Falle von Schrödingers Katze würde dies bedeuten, das System muss gnädig sein
und die Katze am Leben lassen oder das Todesurteil sprechen und vollziehen. Dieses Modell der
kollabierenden Wellenfunktion lässt sich mathematisch gut beschreiben. Weiterhin kann man sich
(zumindest im Entferntesten) etwas unter diesem Entscheidungsvorgang vorstellen.
Eine ganz andere Auffassung dieses Vorgangs wurde
in den 50er Jahren publik. Diese Vorstellung beruht
auf der Annahme, dass bei jeder Entscheidung die ein
Quantensystem fällen muss nicht nur eine der
Möglichkeiten Realität wird, sondern alle! Diese
Realitäten würden alle parallel existieren – es gibt also
nicht nur eine Welt (ein Universum), sondern
unglaublich viele in denen sich alle möglichen
Quantenentscheidungen wiederspiegeln. Für uns wird
jedoch zu jedem Entscheidungszeitpunkt nur eine
Möglichkeit Realität – die anderen existieren zwar,
jedoch nicht für uns. Überspitzt könnte man sagen,
jeder hat sein eigenes Privatuniversum. Den Raum in
dem sich diese unglaubliche Anzahl an parallelen Universen befindet nennt man Hyperraum.
Praktisch bedeutet das für Schrödingers Katze: In unserer Realität hat die Katze vielleicht überlebt,
aber – so traurig es ist – es wird irgendwo ein paralleles Universum geben in der die Katze nicht
überlebt hat. Science Fiction-Autoren haben daher überlegt, ob man nicht von der einen Realität zu
der anderen einfach hinüberwechseln kann, indem man dieses Universum verlässt (wie auch immer)
und in das entsprechend andere hinüberwechselt, um dort die tote Katze vorzufinden. Die Antwort
hierauf ist jedoch schlicht und ergreifend: Nein. Man darf sich die Universen nicht so vorstellen, als
würden sie alle parallel nebeneinander liegen und man brauche nur „die Spur zu wechseln“ (ähnlich
einer Autobahnfahrt) um in eine anderen Realität zu gelangen. Die einzige Möglichkeit in die
Realität der toten Katze zu wechseln wäre es, in der Zeit rückwärts zum Zeitpunkt der
Quantenentscheidung zu reisen und von dort zu versuchen in den Zweig der anderen Realität zu
wechseln.
Dieses mathematisch völlig durchdachte und in Einklang mit der Quantentheorie stehende Modell
ist sehr umstritten, was man wohl leicht nachvollziehen kann. Bevorzugt wird daher von vielen
Physikern die kollabierende Wellenfunktion, auch wenn diese mindestens so viele Fragen aufwirft
wie das Modell der parallel existierenden Realitäten. Man muss jedoch akzeptieren, dass es ein
mögliches Modell ist auch wenn bisher (natürlich) keine messbaren Beweise vorgebracht werden
konnten.
Zusammenfassung
Um die Heisenbergsche Unschärferelation auch in Vakuum ihre Gültigkeit behalten zu lassen,
führte man Quantenfluktuationen ein, wonach Teilchen-Antiteilchen-Paare spontan entstehen
können deren Lebensdauer jedoch begrenzt ist. Stephen Hawking erkannte dieses Phänomen als
Ursache für die Strahlung schwarzer Löcher. Mit Hilfe des Casimir-Effektes ist es möglich den
Raum negativ zu krümmen, um so vielleicht eines Tages Wurmlöcher erzeugen zu können. Nach
dem Viele-Welten-Modell spaltet sich bei jeder Quantenentscheidung das Universum in alle
möglichen Alternativ-Universen auf, welche dann parallel existieren. Diese Alternativ-Universen
sind jedoch von der eigenen Realität nahezu unerreichbar. Das Feynman-Diagramm zeigt, dass es
eine realistische Möglichkeit gibt, dass Teilchen in der Zeit rückwärts wandern können.
Seite 70 von 83
Copyright Stefan Frank
- Kapitel 14 Quantenphysikalische Probleme bei der Prozessorarchitektur
Im Jahre 1936 baute der deutsche Ingenieur Konrad Zuse (1910-1995) den ersten Computer der
Welt, welcher über ein Programm steuerbar war. Dabei verwendete er das sog. Dualsystem, welches
auf den Zahlen 0 und 1 aufbaut, bzw. auf den beiden Zuständen „Strom fließt“ und „Strom fließt
nicht“. Waren seine Anlagen zunächst noch rein mechanisch, so hatten die Nachfolger schon
komplizierte elektronische Schaltungen.
Die Entwicklung auf dem Gebiet der elektronischen Datenverarbeitung (EDV) war rasant – Rechenund Speicherkapazität stiegen explosionsartig an. Zu verdanken ist diese Entwicklung primär einer
Erfindung: dem Siliziumchip. Durch die Miniaturisierung seiner Bestandteile kann gleichzeitig
Komplexität und Rechengeschwindigkeit gesteigert werden. Moor's Gesetz besagt, dass mit einer
Verdopplung der Prozessorleistung alle 18 Monate gerechnet werden kann. In der Vergangenheit
stimmte dieses auch. Jedoch ist es nicht möglich die einzelnen Komponenten eines Chips beliebig
klein zu konstruieren – die Gesetzte der Quantentheorie stellen nahezu unüberwindbare Barrieren
auf, auch wenn es Versuche gibt diese zu umgehen.
Um die Geschwindigkeit zukünftiger Rechnergenerationen trotzdem steigern zu können versucht
man einen ganz neuen Wege zu beschreiten: den Weg des Quantencomputers. Sollte er eines Tages
Realität werden, so stehen der Menschheit Rechengeschwindigkeiten zur Verfügung von denen wir
momentan nur Träumen können. Dieses Kapitel soll über die Probleme jetziger
Rechnerarchitekturen informieren und mögliche Alternativen aufzeigen. Das nächste Kapitel
wendet sich dann dem Quantencomputer zu. Es ist sicherlich nicht zu viel gesagt, wenn man einen
Rechner auf Quantenbasis als einen der größten Siege der Quantentheorie bezeichnet.
Der Siliziumchip
Ein Computer basiert auf der Tatsache, dass man jede beliebige Dezimalzahl mit Hilfe zweier
anderer Zahlen darstellen kann, der 0 und der 1. Das folgende Beispiel soll dieses Dualprinzip
genauer erklären: Nehmen wir an, wir haben die Zahl 5670 vorliegen. Ohne lange zu überlegen
wissen wir sofort, was unter dieser Zahl zu verstehen ist. Mathematisch lässt sich diese Zahl jedoch
wie folgt beschreiben:
Sie sehen, dass jeder Stelle der Zahl eine Potenz zugeschrieben ist. Die Potenz rechts steht für die
Einerstellen (10 hoch 0 ergibt 1). Die nächste Potenz steht für die 10er Stellen, die darauf folgende
für die 100er usw. Da die Zahl 10 die Basis dieser Auflistung repräsentiert spricht man vom sog.
Dezimalsystem. Eine Zahl dieser Art lässt sich jedoch nicht in einem Rechner darstellen, eine Zahl
mit der Basis zwei jedoch sehr wohl. Folgende Berechnung zeigt die Darstellung:
Addiert man die Potenzen zur Basis zwei zusammen, so erhält man tatsächlich die Zahl 5670 im
Dezimalsystem. Die möglichen Vorfaktoren der jeweiligen Potenz sind jeweils die Basis minus 1.
Im 10er-System stehen also die Vorfaktoren 0 bis 9 zur Verfügung, im 5er-System die Faktoren 0
bis 4 und im 2er-System (Dualsystem) demzufolge 0 und 1. In der Notation kann man sich die
Potenzen sparen. Bei der Zahl 5670 im Dezimalsystem schreiben wir also nicht die Zehnerpotenzen
dahinter. Vereinbarungsgemäß wissen wir, dass die Zahlen 5,6,7 und 0 gerade die Vorfaktoren der
jeweiligen Zehnerpotenzen sind. Das gleiche macht man nun im Dualsystem: Anstatt die lange
Kette an Zweierpotenzen zu notieren, schreibt man nur die Vorfaktoren auf, in unserem Beispiel
wäre das: 1011000100110. Es gilt also:
Der Index beschreibt dabei, mit welchem Zahlensystem man es zu tun hat. Eine Kette von Nullen
Seite 71 von 83
Copyright Stefan Frank
und Einsen lässt sich wiederum in einem Computer darstellen: Eine Eins steht dabei für „Schalter
geschlossen, Strom fliest“, eine Null für „Schalter offen, Strom fließt nicht“. Ein Mikrochip ist
nichts weiter als ein Baustein, welcher Schalter beinhaltet, die den Strom an- bzw. ausschalten.
Diese Schalter haben jedoch keinerlei Ähnlichkeit mit einem Lichtschalter oder dem On/OffSchalter Ihres Fernsehgerätes. Die Schalter von denen ich hier spreche, sind sog. Transistoren.
Ein
Transistor
verfügt über zwei
Eingänge
und
einen
Ausgang:
Der Strom soll
über den sog.
Emitter in den
Transistor
eintreten und über
den sog. Kollektor
wieder
entweichen. Damit
er das jedoch kann, muss der Schalter, welcher durch den Gate dargestellt wird, geschlossen
werden.
Es gibt verschiedene Arten von Transistoren, die prinzipielle Funktionsweise sei hier jedoch an dem
Beispiel des n-MOS-Transistors vom Anreicherungstyp gezeigt. Ein Chip besteht i.d.R. aus
Silizium, einem chemischen Element mit 14 Protonen im Kern. Demzufolge hat es 14 Elektronen in
der Hülle: 2 auf der innersten Schale, 8 auf der zweiten und
4 auf der dritten Schale. Liegt hochreines Silizium vor, so
bildet es ein einheitliches, stabiles Gitter. Die vier
Elektronen der äußersten Schale (Valenzbandelektronen)
teilen die Siliziumatome mit anderen Atomen ihrer Art,
welche wiederum ihre Elektronen zur Verfügung stellen.
Man muss sich das in etwa so vorstellen, dass ein
Siliziumatom nur dann wirklich „glücklich“ ist, wenn es 8
Elektronen auf der äußeren Schale hat. Das heißt, es muss
sich vier weitere besorgen und dies tut es, indem es sich mit
anderen Atomen Elektronen teilt. Auf diese Weise entsteht
ein stabiler Verbund, die sog. Elektronenpaarbindung. Diese
kristalline Struktur ist nach außen hin elektrisch neutral, was
nicht verwundert, denn an der Anzahl der Protonen und
Elektronen hat sich ja nichts geändert.
Mit diesem hochreinen und elektrisch neutralen Siliziumkristallen könnte die Computerindustrie
jedoch noch nicht viel anfangen. Für ihre Zwecke muss das Material eine elektrische Ladung
enthalten und zwar positiv auf der einen Seite und negativ auf der anderen. Um dieses Ziel zu
erreichen hat man ein Verfahren erfunden, welches man Dotierung nennt. Hierbei werden
Fremdatome in das Silizium eingebracht. Zunächst soll dies anhand der negativen Dotierung (nDotierung) erklärt werden. Ziel ist es also in das elektrisch neutrale Silizium eine negative Ladung
„zu schmuggeln“. Dies ist prinzipiell relativ einfach (auf das technische Verfahren soll hier nicht
näher eingegangen werden). Ersetzt man ein Siliziumatom durch ein Phosphoratom ist das
gewünschte Ergebnis schon erzielt. Phosphor hat 15 Elektronen, also eines mehr als Silizium. Vier
Elektronen werden benötigt, um dabei zu helfen bei vier Siliziumatome das Valenzband auf 8
Elektronen aufzufüllen. Ein Elektron ist also „überflüssig“ und dient als negativer Ladungsträger.
Möchte man eine p-Dotierung erreichen (also eine positive Ladung einschmuggeln), so besteht eine
Möglichkeit darin ein Aluminiumatom in das Kristallgitter zu integrieren. Aluminium hat 13
Elektronen, also gerade eins weniger als Silizium. Ein Siliziumatom in der Umgebung des
Seite 72 von 83
Copyright Stefan Frank
Aluminiumatoms kann also nicht
bedient werden. Im Kontext des
elektrisch
neutralen
Gitters
erscheint dies als positive Lücke,
als positives Elektron (ähnlich
einem Positron).
Der n-MOS-Transistor vom
Anreicherungstyp besteht nun
aus je einem n-Dotierten Emitter
bzw. Kollektor und einem pdotierten Gebiet, welches unter
dem Train liegt. Ziel ist es, dass
ein Strom zwischen den beiden
n-dotierten Gebieten fließen
kann. Zur Zeit ist dies nicht
möglich, da das p-dotierte Gebiet den Elektronen den Weg versperrt. Jetzt könnten Sie natürlich die
Frage stellen, warum denn die negativen Elektronen des n-Gebietes nicht von den positiven Lücken
des p-Gebietes angezogen werden. Diese Frage ist berechtigt und nicht leicht zu beantworten. Es ist
tatsächlich so, dass die Elektronen von den positiven Lücken des p-Leiters angezogen werden. Bei
dem Prozess des Anziehens entsteht jedoch im n-dotierten Gebiet ein Elektronenmangel welcher
zur Folge hat, dass Elektronen wieder
zurückgezogen werden. Dies wiederum hat
zur Folge, dass die p-Schicht wieder
stärker an den Elektronen zieht, wodurch
in
der
n-Schicht
abermals
ein
Elektronenmangel auftritt usw. Dies
könnte man ewig so fortsetzen bis zu
einem Zeitpunkt bei dem sich dieses Hin
und Her einpendelt und in einen
Gleichgewichtszustand eintritt.
Um nun Strom durch den Transistor fließen zu lassen muss man an den Gate eine positive
Spannung anlegen. Hierdurch werden die positiven Bereiche des p-Materials verdrängt und die
negativen Elektronen des n-Materials regelrecht angezogen. Es entsteht eine freie Leiterbahn für die
Elektronen – Strom fließt.
Die physikalischen Grenzen des Chips - der Tunneleffekt
Leistungssteigerungen bei Prozessoren liegen primär in der Miniaturisierung der einzelnen
Transistoren begründet. Um so kleiner jedoch die Strukturen, um so stärker wirkt sich ein
Phänomen aus den man Tunneleffekt nennt. Es handelt sich dabei um ein quantenphysiklisches
Problem, welches auf der Heisenbergschen Unschärferelation aufbaut.
In Kapitel 12 haben Sie bereits einiges über die Kräfte unserer Welt gelernt. Unter anderem haben
Sie erfahren, dass die elektromagnetische Kraft Ladungen abstößt bzw. anzieht und die starke
Kernkraft den Atomkern zusammenhält. Diese ist also eine Art Gegenspieler zur
elektromagnetischen Kraft, deren Aufgabe es wäre die gleich geladenen Protonen im Kern
abzustoßen. Die Frage ist dann jedoch warum es trotzdem zu radioaktiven Zerfallsprozessen
kommen kann, wenn doch die starke Kernkraft den Kern zusammenhält. Die Antwort hierauf ist der
Tunneleffekt. Sie können sich das Energieverhältnis innerhalb des Kerns wie einen Wasserdamm
vorstellen, welcher die Bevölkerung vor Überflutung schützen soll. Ist das Wasser unterhalb der
Krone, so sind die Behausungen geschützt. Steigt das Wasser jedoch weiter, so ist die Siedlung
Seite 73 von 83
Copyright Stefan Frank
nicht mehr zu retten – das Wasser stürzt ins Tal. Ähnlich ist dies in einem Atomkern: Die starke
Anziehungskraft stellt den Damm da. Die Energie der Protonen müsste größer sein, als die Krone
des Hangs um sich aus dem Verbund zu lösen. Schafft es jedoch ein Proton über diese Spitze, so
sorgt die elektromagnetische Kraft dafür, dass das Proton abgestoßen wird – ähnlich dem Hang,
welcher das Wasser beschleunigt, so dass die Naturgewalt nicht mehr zu stoppen ist.
Die Gesetze der Quantenmechanik sagen
jedoch, dass kein einziges Proton
genügend Energie hat, um den Damm
(den sog. Potentialwall) zu erklimmen.
Die Heisenbergsche Unschärferelation
erlaubt es den Protonen jedoch den Wall
trotzdem zu überwinden. Hierfür gibt es
zwei Erklärungen, wobei die eine etwas
einfacher, die andere wiederum etwas
komplizierter ist. Ich möchte zunächst
die einfache Möglichkeit aufzeigen. Die
Unschärferelation besagt, dass der Ort
eines Quantums nicht genau bestimmbar
ist. Ein Teilchen innerhalb des
Potentialwalls kann – unter bestimmten
Voraussetzungen – auch kurzzeitig als
ein Teilchen außerhalb des Walls
aufgefasst werden. Die Wellengleichungen Schrödingers sprechen zwar den Teilchen nur eine
geringe Aufenthaltswahrscheinlichkeit außerhalb des Potentialwalls zu, aber die Wahrscheinlichkeit
ist nicht gleich null. Zwar hat das Proton immer noch nicht genügend Energie für die Überwindung
der Barriere, jedoch lässt die Ortsunschärfe einen kurzzeitigen Aufenthalt außerhalb der Barriere zu.
Ähnlich verhält es sich auch mit der Energie, was gleichzeitig die zweite Erklärung ist: Nicht nur
der Ort sondern auch der Impuls ist nicht exakt bestimmbar. Der Impuls, das wissen Sie bereits, ist
ein Maß für den Energiegehalt des untersuchten Teilchens. Es ist also möglich, dass ein Teilchen
kurzzeitig die nötige Energie aufweist, und so den Potentialwall überwinden kann. Es hat den
Anschein als würde das Teilchen den Potentialwall durchtunneln, daher der Name. Dies ist ähnlich
dem Wasser, welches durch kleine Risse und Mauselöcher Wege durch den Damm suchen kann und
diesen so umgeht. Innerhalb eines Kerns bedeutet dies, dass Protonen den Verbund verlassen
können uns so den radioaktiven Zerfall hervorrufen.
In diesem Zusammenhang müssen Sie immer bedenken, dass die Unschärferelation nicht nur ein
Problem bei der Messung ist, sondern eine fundamentale Eigenschaft, die jedem Teilchen inne
wohnt. Selbst mit den geschicktesten Versuchen lässt sich Ort und Impuls nicht exakt bestimmen –
dies ist kein Problem der Messung, sondern ein Problem der Teilchen, deren inne wohnende
Eigenschaften es ist nicht exakt bestimmbar zu sein.
Ein ähnlicher Tunneleffekt stellt sich bei Transistoren ab einer bestimmten Größen ein (500
Nanometer gilt als kritische Grenze). Im Normalfall können Elektronen Isolatoren nicht
durchdringen. Im dritten Kapitel konnten Sie lesen, dass Elektrizität ein Fluss von Elektronen ist
und Isolatoren die Fähigkeit besitzen keine Elektronen zu leiten. Das Problem ist jedoch, dass ab
einer bestimmten Größe Elektronen die Isolationsschicht einfach durchtunneln können, resultierend
aus ihrer Orts- bzw. Impulsunschärfe. Somit hat natürlich ein Transistor keinerlei Schalterwirkung
mehr, da die Elektronen so oder so durchkommen. Der Transistor ist daher wertlos geworden, es
gibt jedoch eine Entwicklung, welche genau diesen Tunneleffekt ausnutzt – der sog. QuantenTunneleffekt-Transistor.
Seite 74 von 83
Copyright Stefan Frank
Der Quanten-Tunneleffekt-Transistor
Dieser Transistor arbeitet nicht direkt auf der Basis „Strom ein“, „Strom aus“ sondern repräsentiert
die logische Information 0 und 1 durch die relative Position zweier Elektronen zueinander.
Grundlage ist eine Siliziumoxid-Scheibe auf der 4 metallische Inseln aufgebracht sind, welche
zusammen ein Quadrat bilden. Diese vier Metallplatten beherbergen zwei Elektronen. Auf Grund
der Abstoßungskräfte nehmen beide die Position auf dem Metall ein, welcher den größte Abstand
zwischen ihnen darstellt. Daraus resultiert, dass sie die Eckpunkte zweier Metallinseln besetzen,
und zwar so, dass sie diagonal gegenüberliegen.
Legt man nun eine
Spannung an, so
kann
man
ein
Elektron
dazu
bringen auf die
andere Seite des
Quadrats
zu
tunneln.
Das
Resultat ist, dass
nun nicht mehr der
längste
Abstand
zwischen
den
beiden Elektronen
eingehalten wird.
Das
andere
Elektron erfährt also eine Abstoßungskraft und kann mit Hilfe des Tunneleffektes auf die andere
Seite der Quadrats springen. Je nachdem, welche diagonale Einstellung die Elektronen zueinander
haben, repräsentieren sie so 0 oder 1. Positiv ist, dass die Schaltvorgänge so deutlich schneller
realisiert werden können, negativ hingegen ist das Problem, dass dies nur bei äußerst niedrigen
Temperaturen nahe dem absoluten Nullpunkt möglich ist. Ein Rechner würde natürlich nicht nur
aus einem solchen Transistor bestehen, sondern aus Millionen. An der effizienten
Zusammenschaltung dieser Transistoren wird jedoch noch geforscht.
Supraleiter als Schalter?
Supraleiter besitzen die Fähigkeit Strom ungehindert fließen zu lassen. Im Normalfall haben
elektrische Leiter einen Widerstand, der den elektrischen Fluss hemmt. Kühlt man jedoch
bestimmte Materialen ab (z.B. Helium oder Quecksilber), so verlieren sie diese hemmende
Eigenschaft und Strom kann ungehindert fließen. Dieser Effekt wurde 1911 von dem holländischen
Physiker Heike Kamerlingh Onnes (1853-1926) erstmals entdeckt. Voraussetzung ist eine
Abkühlung des Stoffes auf eine Temperatur nahe dem absoluten Nullpunkt.
Die Vorgänge, welche sich innerhalb des Stoffes abspielen sind rein quantenphysikalisch.
Elektronen gehorchen der Fermi-Dirac-Statistik, sind also Fermionen und haben einen halbzahligen
Spin (+/- ½). Da sie diese Eigenschaften besitzen gehorchen sie auch dem Pauli-Prinzip, welches
besagt, dass zwei Fermionen innerhalb eines Systems (also z.B. innerhalb eines Atoms) nie in dem
gleichen Quantenzustand sein können. Zwar haben alle Elektronen zunächst den Drang niedrige
Energieniveaus zu besetzen, sind diese jedoch aufgefüllt so müssen sie nach dem
Ausschließungsprinzip höhere Energieniveaus einnehmen.
Unter bestimmten Voraussetzungen kann jedoch etwas sehr merkwürdiges passieren: Zwei
Elektronen, welche sich normalerweise abstoßen gehen eine lockere Bindung ein. Diese Bindung
sorgt dafür, dass sie nach außen wie ein Teilchen wirken. Nach den Gesetzen der Quantenphysik
Seite 75 von 83
Copyright Stefan Frank
addieren sich ihre Spins (z.B. -½ + ½ = 0). Es ergeben sich also ganzzahlige Spins, welche nun den
Elektronen völlig neue Eigenschaften verleihen. Teilchen mit ganzzahligem Spin folgen bekanntlich
der Bose-Einstein-Statistik (wie z.B. Photonen). Bosonen unterliegen nicht dem
Ausschließungsprinzip und so können alle Elektronen den niedrigst möglichen Energiezustand
annehmen. Der Abstand zwischen dem niedrigsten Energiezustand und dem nächst möglichen ist so
groß, dass Quanten mit relativ hohem Energiegehalt nötig wären um die Elektronen anzuregen. Auf
Grund dieser Tatsache können die Elektronen kaum noch mit den Atomen des leitenden Materials
wechselwirken. Eine Energieabgabe ist nicht möglich, da sich die Elektronen bereits auf dem
niedrigsten Energieniveau befinden, eine Energieaufnahme ist nicht möglich, da die Atome hierfür
nicht genügend Quantenenergie zur Verfügung stellen. Um letzteres jedoch zu erreichen, muss man
dem Material die Energie entziehen (abkühlen). Fügt man dem Material jedoch Wärme, und somit
Energie hinzu, so können die Elektronen auf höhere Energieniveaus gehoben werden und der
lockere Elektronenverbund (die sog. Elektronenkopplung) zerbricht. Das Ergebnis sind wieder zwei
Elektronen, welche der Fermi-Dirac-Statistik gehorchen.
Im Jahre 1999 haben es genfer Forscher geschafft einen Supraleiter zu entwickeln, welcher sich anund ausschalten lässt. Ist der Supraleiter aktiv, so fliest Strom, ansonsten nicht. Auf diese Weise
würden sich Rechner konstruieren lassen, deren Schaltvorgänge deutlich schneller sind als die
heutige Technologie es erlaubt.
Revolutionär wäre jedoch eine ganz neue Art von Rechnern, der sog. Quantencomputer. Er würde
gänzlich auf der Quantentheorie aufbauen und sich nicht nur ihrer Eigenschaften als Hilfsmittel
bedienen. Im nächsten Kapitel soll dieser genauer beschrieben werden.
Zusammenfassung
Computer bauen auf dem Binärsystem auf, da sie nur zwei Zustände („Strom an“, „Strom aus“)
unterscheiden können. Transistoren sind elektrisch gesteuerte Schalter, welche sich auf
Siliziumscheiben realisieren lassen. Eine unendliche Miniaturisierung ist jedoch nicht möglich, da
der Tunneleffekt Isolatoren unwirksam macht. Bestimmte Chip-Architekturen wie der QuantenTunneleffelt-Transistor machen sich diesen zur Nutze. Andere neuartige Architekturen bauen auf
der Supraleitfähigkeit von Stoffen auf, wobei Elektronen bei niedrigen Temperaturen nicht wie
Fermionen sondern wie Bosonen wirken. Hierdurch ist ein widerstandsfreier Stromtransport
möglich.
Seite 76 von 83
Copyright Stefan Frank
- Kapitel 15 Unglaubliche Möglichkeiten: Der Quantencomputer
Es klingt zu fantastisch um wahr zu sein: Ein Computer, welcher bestimmte Aufgaben tausendfach
schneller rechnet als die schnellsten Supercomputer heutiger Tage. Leider ist es im Moment mehr
Vision als Realität, aber erste Erfolge auf dem Weg zum Quantencomputer konnten bereits verbucht
werden. Ich möchte diese Zukunftstechnologie hier genauer vorstellen, so zusagen als krönender
Abschluss unserer Reise durch die Welt der Relativität und Quantentheorie. Das Kapitel soll jedoch
nur einen kurzen Einblick gewähren, da eine tiefgründige Analyse schnell in den mathematischen
Einsatz der Schrödingerfunktionen und Dirac-Notationen führen würde, was diese
populärwissenschaftliche Einführung deutlich sprenget.
Von Qubits und Quantensuperpositionen
Grundlage des Quantencomputers sind quantenphysikalische Zustände, wie sie in dieser
Abhandlung bereits beschrieben worden sind. Ich möchte daher versuchen das schon bekannte so zu
verknüpfen, dass Sie die Grundlagen verstehen.
Mit
Hilfe
des
Doppelspaltexperimentes
habe ich Ihnen in Kapitel
10
das
komische
Verhalten von Quanten
gezeigt. Verwendet man
eine Platte, welche an
zwei
Stellen
lichtdurchlässig ist und
befestigt
in
einem
gewissen Abstand eine
Photoplatte dahinter so
zeigt
sich
ein
Interferenzmuster sobald
Licht durch die beiden
Schlitze fällt. Dies ist
verständlich, denn der
Welle-TeilchenDualismus besagt, dass
Quanten auch als Wellen
aufgefasst werden und diese haben die Fähigkeit zu interferieren. Verwunderlich war jedoch das
Entstehen des Interferenzmusters wenn man nur ein einzelnes Quant aussendet. Mit welchem Quant
interferiert dieses um das Muster zu erzeugen? Auf Wellenebene haben wir diese Frage bereits
geklärt und gesagt, dass das Quant als Welle durch die Schlitze tritt und so auch ein einzelnes Quant
eine Interferenz hervorrufen kann. Es gibt jedoch auch eine Erklärung auf Quantenebene, welche,
wie sollte es in der Quantentheorie auch anders sein, verrückt ist. Das Quant trägt nicht nur die
eigene Welleninformation in sich, sondern auch die Information seines „Gegenspielers“, welches
die Interferenz hervorruft. Beide Zustände sind in dem einen Quant gespeichert. Ein weiteres
Experiment, welches eine große Ähnlichkeit mit dem Michelso-Morley-Interferometer aus Kapitel 4
hat, bestätigt diese Vermutung. Das sog. Mach-Zehnder-Interferometer hat den folgenden Aufbau:
Licht wird auf einen halb durchlässigen Spiegel gesandt, wobei der Lichtstrahl geteilt wird. Beide
legen nun über je einen Spiegel eine exakt gleiche Strecke zurück und werden am Ende mit Hilfe
eines weiteres halb durchlässigen Spiegels wieder vereinigt. Innerhalb des Spiegels tritt nun
Seite 77 von 83
Copyright Stefan Frank
Interferenz auf: In die eine Richtung verstärken sich die Lichtstrahlen und können daher mit Hilfe
eines Detektors gemessen werden. In die andere Richtung jedoch löschen sich die Lichtstrahlen
gegenseitig aus. Daher zeigt der Detektor keinerlei Lichteinfall an. Interessant wird es, wenn man
nur ein Quant durch das System sendet: Geht man von der Teilchennatur des Lichts aus, so muss
dieses sich für einen Weg entscheiden. Man kommt jedoch zu dem gleichen Ergebnis, wie bei dem
vorhergehenden Versuch: Ein Detektor registriert das Quant, der andere nicht. Verschließt man nun
einen der beiden Wege, so ist in beiden Detektoren Licht zu registrieren. Auch hier hat das Quant
also die Information von eigentlich zwei Quanten in sich getragen: Die eigene Information und die
Information des Gegenspielers, welches die Interferenz auslöst und so verhindert, dass beide
Detektoren etwas messen können.
Die Schrödingergleichungen beschreiben dieses Phänomen ebenfalls auf Wellenebene. Sie haben
erfahren, dass ein Quantensystem eine Überlagerung vieler möglicher Zustände ist (eine
Überlagerung vieler Wellenfunktionen) und nur zum Zeitpunkt der Beobachtung zwingt man das
System dazu eine Entscheidung zu fällen, z.B. ob Schrödinger seine Katze weiterhin behalten darf
oder eben nicht.
Die Eigenschaft, dass ein Quantensystem mehr als eine Information in sich tragen kann nennt man
Quantensuperposition. Während in der „herkömmlichen“ Informatik ein Zustand eindeutig ist,
nämlich entweder 0 oder 1, haben wir es in der Quanteinformatik mit einer Überlagerung mehrerer
Zustände zu tun. Dies ist mit nichts in der bisherigen Informationstheorie vergleichbar. In der
Informatik sprach man bisher von sog. Bits. Ein Bit ist eine einzige Speicherzelle, welcher genau
ein Zustand, nämlich 0 oder 1, zugewiesen werden kann. Dabei ist es egal, ob man dies mit „Strom
an“, „Strom aus“, „Schalter auf“, „Schalter zu“, „magnetisiert“, „nicht magnetisiert“ usw.
gleichsetzt. Der Zustand ist immer ganz eindeutig definiert.
In der Quanteninformatik ersetzt man diese Bits durch Qubits. Ein einzelnes Qubit ist ein Teilchen,
welches quantenphysikalischen Gesetzen gehorcht und gleichzeitig 0 und 1 repräsentiert! Koppelt
man zwei Qubits so repräsentiert ihr Quantensuperposition alle vier möglichen Zustände
(00,01,10,11), koppelt man drei so alle acht, bei vieren alle 16 usw. Die einfache Formel dahinter
lautet 2N, wobei N die Anzahl der gekoppelten Qubits ist.
Es gibt verschiedene Möglichkeiten Qubits zu realisieren. Die zwei bekanntesten möchte ich hier
vorstellen: NMR und die Ionenfalle.
Nukleare magnetische Resonanz (NMR)
Bei der nuklearen magnetischen Resonanz (kurz NMR) wird der schon beschriebene Spin der
Teilchen ausgenutzt. Eine Flüssigkeit, deren Teilchen alle den Spin ½ aufweisen, dient als Basis
dieser Methode. Wird ein solches Teilchen einem Magnetfeld ausgesetzt so richtet sich dieses
getreu seinem Spin aus. Der Spin schreibt dem Teilchen also vor in welche Richtung es sich zu
drehen hat. Wenn das Teilchen jedoch eine genau entgegengesetzte Position einnehmen soll, so
braucht es dafür ein höheres Energieniveau. Bei der NMR-Methode wird an die Flüssigkeit ein
Magnetfeld angelegt, so dass sich die Teilchen alle gleich in eine Richtung auslenken. Dieser
Grundzustand kann mit der Binärzahl 0 gleichgesetzt werden. Mit Hilfe von gezielt eingesetzter
Radiostrahlung (niederfrequente Strahlung) kann ein solches Teilchen dazu gebracht werden seine
Ausrichtung zu ändern, dies würde der 1 entsprechen. Ein nochmaliger Einsatz des Strahls würde
das Teilchen wieder auf 0 zurückspringen lassen. In der Informatik bezeichnet man das als logisches
NOT, da der Zustand genau umgekehrt wird (NOT 1 = 0, NOT 0 = 1). Man muss jedoch das
Teilchen, welches z.B. ein Wasserstoffkern (also ein Proton) sein kann nicht um 180° drehen.
Verwendet man nur die Hälfte der Energie, so dreht man es um nur 90°. Und hier schlägt die
Quantenphysik wieder zu: Misst man jetzt den Zustand des Teilchens so ist die Wahrscheinlichkeit
eine 1 zu messen 50 % und ebenso 50 % ein 0 zu messen. Das Teilchen gehorcht
quantenphysikalischen Regeln und befindet sich in einer Superposition zwischen zwei Werten.
Seite 78 von 83
Copyright Stefan Frank
Nun sollen quantenphysikalische Systeme jedoch nicht nur aus einem, sondern aus vielen Qubits
bestehen. Dafür müssen sie miteinander interagieren. Die Quantenphysik hält hierfür ein Phänomen
bereit, welches sich Spin-Spin-Kopplung nennt. Innerhalb eines Moleküls bewirkt die Veränderung
des einen Atomspins eine Veränderung des Spins eines anderen Atoms des Moleküls. Somit können
verschiedene Qubits innerhalb eines Moleküls miteinander gekoppelt werden.
Ionenfallen
Wie der Name schon sagt dienen bei dieser Methode Ionen als Grundlage. Diese werden unter
Verwendung eines elektrischen Feldes in einem Vakuum festgehalten. Mit Hilfe eines Lasers ist es
möglich die Ionen in einen ruhigen Zustand zu versetzen (man nennt dies Kühlung mittels Laser).
Ein Laser ist nichts weiter als ein Strahl von Lichtquanten, welche alle die gleiche Energie
aufweisen. Somit ist die Frequenz des Lichtes eindeutig bestimmt und nicht eine Überlagerung von
vielen Wellenlängen, wie wir es in unserem Alltag vorfinden. Eine weitere Besonderheit des
Laserlichtes ist, dass es kohärent ist, Wellenberg und Wellental der einzelnen Lichtwellen liegen
also genau übereinander und können sich so nicht gegenseitig auslöschen.
Die Ionen können die Quantenenergie des Lasers nur aufnehmen, wenn dieser die richtige Frequenz
aufweist. Befindet sich das Ion in Ruhe, so hat der Laser keinerlei Wirkung, da die Quantenergie
nicht der benötigten Energie des Ions entspricht. Befindet es sich jedoch in Bewegung, so entfernt
sich dieses von dem Laser und wandert wieder auf diesen zu. Nach dem Dopplereffekt, wie er oben
bereits beschrieben wurde, erhöht sich die Frequenz des Lichts, wenn sich das Ion auf die
Lichtquelle zu bewegt. Hierdurch kann das Quant die nötige Energie erhalten und auf das Ion
einwirken. Dies erhält einen Rückstoß und beginnt so die Bewegung langsam einzustellen, bis es
schließlich gänzlich zur Ruhe kommt.
Mit Hilfe des Laserlichtes kann das ruhige Ion nun beliebig angeregt werden. Da auch dieses den
Gesetzen der Quantenphysik gehorcht, lässt es sich somit in eine Quantensuperposition zwischen
angeregtem und nicht angeregtem Zustand versetzen. Auch eine Wechselwirkung mit anderen Ionen
ist möglich: Wird nämlich ein Ion angeregt und somit in Bewegung versetzt, so tun das auch die
anderen Ionen, welche in der gleichen Falle sitzen. Somit erhält man eine Überlagerung
verschiedener Quantenzustände.
Mit Quantensuperpositionen rechnen
Sie werden sich nun zu recht fragen wie man mit irgendwelchen überlagerten Wellenfunktionen
rechnen kann. Diese Frage soll nun hier beantwortet werden. Mathematisch gesehen handelt es sich
bei Quantenoperationen um komplexe Vektorberechnungen, welche ich hier nicht tiefergehend
beschreiben möchte. Um Ihnen jedoch eine mathematische Vorstellung zu geben, sei das Prinzip
hier ganz kurz demonstriert. Wenn Sie die Mathematik nicht mögen, so können Sie das nun
Folgende einfach überlesen, ich empfehle jedoch wenigstens einen kurzen Blick auf die
mathematische Beschreibung zu werfen. Auch wenn Sie nicht alles verstehen sollten, so werden die
Gedankengänge trotzdem deutlicher. Grundlage des mathematischen Modells bildet der sog.
Hilbertsche Raum, ein Koordinatensystem, welches ähnlich dem kartesischen ist (also dem
gewohnten mit einer horizontalen, vertikalen und diagonalen Achse (letztere soll immer die Tiefe
repräsentieren)), jedoch kann der Hilbertraum mehr Dimensionen enthalten. Der Zustand eines
quantenphysikalischen Systems lässt sich als Vektor darstellen, welcher sich aus drei weiteren
Vektoren zusammensetzt. Diese Vektoren können gerade die x,y und z-Achse eines kartesischen
Koordinatensystems sein. Je nachdem wie hoch jeweils der Anteil der drei Vektoren am
resultierenden Vektor ist, richtet sich dieser unterschiedlich im Raum aus. Dieser sich ergebende
Vektor (ket-Vektor genannt) wird mit dem Formelzeichen dargestellt. Haben wir ein Qubit
Seite 79 von 83
Copyright Stefan Frank
vorliegen, so überlagern sich zwei Zustände: Einmal der Zustand, welchen wir mit 0 bezeichnen,
und ein Zustand, welchen wir mit 1 umschreiben. Beides sind Eigenschaften des
quantenphysikalischen Systems und müssen für das Gesamtsystem berücksichtigt werden. Diese
beiden Zustände lassen sich nun wieder als ket-Vektor auffassen. Die Wahrscheinlichkeit, dass das
System bei einer Messung 0 zurückgibt kann man mit
bezeichnen,die Wahrscheinlichkeit für
eine 1 mit
. Es ist zu beachten, dass es sich hierbei noch nicht direkt um die
Wahrscheinlichkeiten handelt, da beide Werte komplexe Zahlen sind.
In der sog. Dirac-Notation fasst man nun die Wahrscheinlichkeit cp, den Zustand eines Systems
und den ket-Vektor zusammen:
. Dies besagt nichts weiter, als dass das System eine
Wahrscheinlichkeit cp hat, bei einem gegebenen ket-Vektor in den Zustand zu fallen.
In unserem Beispiel ergibt sich das gesamte quantenphysikalische System aus der Kombination
zweier Systeme:
Dieses Qubit repräsentiert nun zwei Werte, welche man als Vektor notieren kann (rechte Seite der
Gleichung). Durch hinzufügen weiterer Qubits können weitere Werte repräsentiert werden. Dies
erfolgt mathematisch durch eine Multiplikation der jeweiligen Vektoren der Qubits:
Sie sehen, dass sich ein Vektor ergibt, welcher nun vier Zustände darstellen kann. Auf diese Weise
könnte man das Ganze für 3, 4, 5 usw. Qubits fortsetzen. Man erhält immer 2 N Möglichkeiten der
Darstellung.
Wir haben zwar jetzt Quantenzustände innerhalb des Rechners (zumindest mathemtisch) erzeugt,
jedoch noch keine einzige Rechenoperation ausgeführt. In der Mathematik bedient man sich hierfür
sog. Matrizen (M), welche man auf die Vektoren ansetzt:
Wendet man diese Matrix auf einen Quantenvektor an, so funktioniert dies wie folgt:
An einem sehr einfachen Beispiel sei dies demonstriert. Möchte man das logische NOT
programmieren, so muss man eine Matrix finden, welche meine Vektoren so verändert, dass am
Ende eine 0 steht, wenn der Eingabewert 1 war und umgekehrt. Befindet sich unser
quantenphysikalischen System in dem eindeutigen Zustand 0, so ist die Wahrscheinlichkeit eine 0
zu messen 100 % (=1) und die Wahrscheinlichkeit eine 1 zu messen 0 % (=0):
Seite 80 von 83
Copyright Stefan Frank
Wendet man auf diesen Vektor nun folgende Matrix an
so ergibt sich:
Sie sehen, dass der Vektor nun genau vertauschte Werte hat! Das gleiche funktioniert natürlich auch
andersherum:
Auffällig ist, dass bei der Anwendung der Matrix alle Werte des Vektors bearbeitet werden. Alle
Werte werden parallel verändert (hier die 0 zur 1 und die 1 zur 0). Dies ist auch das große
Geheimnis des Quantenrechners: Eine Operation auf einen Quantenzustand verändert alle
beteiligten Einzelzustände parallel, so dass theoretisch Millionen Berechnungen gleichzeitig
möglich sind.
Sie haben nun eine Vorstellung wie die mathematischen Operationen innerhalb eines
Quantenrechners von statten gehen. Das Geheimnis sind die Matrizen, welche man auf die Vektoren
anwendet. Die Frage ist jedoch, wie dies hardwaretechnisch realisiert wird. Bis jetzt haben Sie nur
die Software geschrieben, aber ohne Hardware nützt die beste Software nichts. Einen Teil der
Hardware haben wir bereits: eine Art Speichermedium auf dem wir Quantensuperpositionen
repräsentieren können (z.B. Ionenfallen oder NMR). Wie wendet man nun aber die Rechenoperation
an?
Wenn wir uns an das Mach-Zehnder-Interferometer vom Anfang zurückerinnern, so können wir
feststellen, dass das Auslöschen des einen Lichtstrahls und das Verstärken des anderen Resultat
ihrer Laufzeit ist. Verändern wir die Laufzeit eines Lichtstrahls so würde dieser etwas später als der
andere eintreffen – Wellenberg und Wellental hätten eine andere Überlagerung und würden
vielleicht genau das entgegengesetzte Ergebnis liefern (eine Glasscheibe hat beispielsweise eine
solche abbremsende Wirkung). Dies macht man sich in Quantencomputern zu nutze: Man versucht
mit den verschiedensten Hilfsmitteln die Matrix zu simulieren. Die Möglichkeit einer NOTFunktion haben Sie bereits kennen gelernt: So kann bei der NMR-Methode die Ausrichtung des
Teilchens um 180° gedreht oder bei der Ionenfalle ein Ion angeregt bzw. abgebremst werden.
EPR und Dekohärenz
Ein großes Problem innerhalb der Quanteninformatik besteht darin, die Quantensuperpositionen
aufrecht zu erhalten. Kleinste Wechselwirkungen mit der Umgebung zerstören diese nämlich und
Interaktionen mit der Umgebung sind auf Quantenebene leider Alltag. Den Prozess der „langsamen“
Zerstörung der Quantensuperposition nennt man Dekohärenz. Diese dauert manchmal nur
Millisekunden. Ziel ist es die Lebensdauer der Quantenzustände zu erhöhen. In der Zwischenzeit
wurden Theorien entwickelt um eine Fehlerkorrektur zu ermöglichen.
Es gibt jedoch eine Methode Daten zu sichern, welche so phantastisch anmutet, als wäre sie von
Scotty persönlich aus dem Schiffscomputer der Enterprise geladen worden: verschränkte Quanten.
Wieder einmal muss man sich der Heisenbergschen Unschärferelation bedienen um zu verstehen
was verschränkte Quanten sind. 1935 haben drei Physiker ein Gedankenexperiment aufgestellt,
welches fortan als EPR-Paradoxon bezeichnet wurde: Albert Einstein, Boris Podolsky und Nathan
Rosen. Man nehme, so dachten sie sich, zwei Quanten und lasse diese in einem geringen Abstand
voneinander wechselwirken. In dieser Situation lässt sich der Abstand der beiden Quanten
zueinander exakt bestimmen. Auch der Gesamtimpuls des Systems ist bestimmbar. Ist die
Wechselwirkung erfolgt, so trennen sich die beiden Quanten wieder ohne auf ihrer Reise mit
Seite 81 von 83
Copyright Stefan Frank
anderen Teilchen in
Kontakt zu treten. Zu
einem frei gewählten
Zeitpunkt misst man
jetzt den Impuls des
einen Teilchens mit
exakter Genauigkeit.
Da die Impulsenergie
des gesamten Systems
gleich bleibt, muss
man
nur
diese
Messung von der
vorher
gemessenen
Gesamtimpulsenergie
abziehen und erhält
die Impulsenergie des
anderen Quants. Nun messen wir den Ort des ersten Quants, wodurch wir den Impuls nach
Heisenberg natürlich zerstören. Dies ist aber kein Problem, denn aus dem Messergebnis können wir
nun ableiten welchen Ort das zweite Quant in der Zwischenzeit eingenommen haben dürfte. So
haben wir für das zweie Quant Ort und Impuls gleichzeitig bestimmt und damit die Heisenbergsche
Unschärferelation zerstört – eines der fundamentalsten Naturgesetze hat keinerlei Gültigkeit mehr!
Aber keine Panik! So, wie es sich Einstein, Podolsky und Rosen dachten, funktioniert es nicht. Die
beiden Quanten stehen nämlich in einer Fernwirkung in Beziehung zueinander. Zerstören wir den
Impuls des einen Quants wird instantan (ohne Zeitverzögerung) auch der Impuls des anderen
Quants zerstört. Einstein und viele andere Physiker haben jedoch ein Problem mit der
Gleichzeitigkeit: Theoretisch müsste die Information bezüglicher der veränderten Impulsenergie
unendlich schnell den Raum durchqueren und das andere Quant beeinflussen. Unendliche
Geschwindigkeiten widersprechen jedoch den Gesetzen der Relativitätstheorie! Schaut man sich
einmal in Internetforen um, so sieht man welches heillose Durcheinander an Meinungen und
Einstellungen, Abschätzungen und wissenschaftlichen Erkenntnissen bezüglich des EPRGedankenexperimentes herrscht. Ich möchte daher an dieser Stelle nicht tiefer auf dieses Problem
eingehen. Fakt ist in der Zwischenzeit nur, dass die instantane Datenübertragung tatsächlich
funktioniert. Eines der wichtigsten Experimente auf diesem Gebiet führte John Bell durch und
bewies mit seiner Bell'schen Ungleichung die Richtigkeit der instanten Datenübertragung.
In Quantencomputern könnte man sich nun vorstellen den Schwingungszustand des einen Quants
instantan auf ein anderes Quant zu übertragen, welches mit diesem in Beziehung steht (man spricht
von sog. verschränkten Quanten) um so die Information länger zu erhalten.
Auf ähnliche Weise funktioniert das Prinzip des Beamens auf Raumschiff Enterprise. Jede
molekulare Struktur kann als Schwingung einer Materiewelle aufgefasst werden, als ein großes
Quantensystem. Mit Hilfe der verschränkten Quanten könnte man nun die Schwingungsinformation
und Polarisation auf ein zweites Quant übertragen. Mit einzelnen Lichtquanten hat dies schon
funktioniert, Experimente mit Wasserstoffatomen sind in Planung.
Viele ungelöste Probleme
Vieles, was hier beschrieben worden ist, klingt nicht nur kompliziert sondern ist es auch. An einen
wirklich lauffähigen Rechner auf Quantenbasis ist zur Zeit nicht zu denken, auch wenn einige
Optimisten das Jahr 2010 als Ziel vor Augen haben. Ob wir jedoch wirklich im Jahre 2010 mit
Quantenrechnern arbeiten können sei dahingestellt. Bis jetzt sind nur zwei Algorithmen entwickelt
worden, die auf einem solchen Computer lauffähig wären. Das ist Peter Shors Algorithmus zur
Seite 82 von 83
Copyright Stefan Frank
Primzahlzerlegung auf der einen Seite und Lov Grovers Algorithmus zur Suche nach Daten in einer
unsortierten Datenbank auf der anderen. Eines der größten Probleme ist jedoch immer noch die
Dekohärenz, trotz der vielversprechenden Ansätze wie ich sie oben beschrieben habe.
Sollte der Quantencomputer jedoch Realität werden, so wären alle bisherigen Kryptografieverfahren
hinfällig, denn fast alle bauen auf dem Prinzip der Primzahlzerlegung auf (z.B. RSA-Verfahren).
Ein Rechner kann zwar durch Multiplikation aus Primzahlen (also Zahlen welche nur durch 1 uns
sich selber teilbar sind) schnell sehr große Zahlen erstellen, diese jedoch nicht mehr innerhalb einer
realistischen Zeit in ihre Primzahlen zerlegen. Für einen Quantencomputer wäre das jedoch nur eine
leichte Fingerübung. Dafür stellt die Quanteninformatik jedoch ein adäquates Gegenmittel zur
Verfügung: die Quantenkryptografie, welche besonders bei der Datenübertragung geeignet ist.
Bevor man eine Information über ein Glasfaserkabel überträgt werden sie von dem Sender in eine
bestimmte Richtung polarisiert. Der Empfänger misst diese Polarisation und sendet den gemessen
Wert zurück an den Sender. Dieser prüft daraufhin die Übereinstimmung der Polarisation. Möchte
ein Spion den Datenfluss abhören muss er die Quanten bei der Übertragung betrachtet. Hierdurch
zerstört er jedoch die Polarisation was der Sender feststellen kann. Sollte ein Quant falsch
polarisiert ankommen, wird die Leitung gekappt und der Spion hatte keine Chance eine brauchbare
Information aus dem System zu ziehen. Entsprechende Übertragungen wurden bereits über Strecken
von ca. 10 km Länge durchgeführt.
Zusammenfassung
Bei Quantencomputern werden Bits durch sog. Qubits ersetzt, welche eine Überlagerung mehrerer
Quantenzustände gleichzeitig darstellen (Quantensuperposition). Zwei Möglichkeiten solche
Superpositionen hervorzurufen sind die nukleare magnetische Resonanz (NMR), welche sich der
Spineigenschaft von Teilchen bedient, und die Ionenfalle, welche auf angeregte und nicht
angeregten Ionen in einem elektrischen Feld aufbaut. Mathematisch basiert der Quantenrechner auf
der Vektorrechnung, dessen mathematische Form mit allerhand Tricks auf die Hardware abgebildet
werden muss. Um Dekohärenz (Zusammenbruch der Superposition) zu vermeiden, versucht man
den Quantenzustand mit Hilfe verschränkter Quanten auf andere Quantensysteme zu übertragen.
Die Grundidee dahinter bildet das EPR-Paradoxon. Die Quantenkryptografie ermöglicht eine
sichere Datenübertragung zwischen Sender und Empfänger durch Ausrichten der Polarisation.
Seite 83 von 83
Copyright Stefan Frank
Herunterladen