- Kapitel 1 Prolog: Eine kleine Vorgeschichte der Zeiten Seit frühester Menschheit ist es Ziel die Zusammenhänge unserer Umwelt zu verstehen, Entwicklungen vorherzusagen und die Geheimnisse der Natur für den Menschen nutzbar zu machen. Das Verständnis für die Natur zu stärken – diesem Ziel haben sich Weltweit Wissenschaftler, vom Altertum bis in die Gegenwart, verschrieben. Die Anzahl der Wissenschaftler die aktuell forschen ist größer als die Summe aller Wissenschaftler in den Jahrtausenden zuvor. Große wissenschaftliche Leistungen alter Völker Ein Beispiel für den Forscherdrang der Menschheit ist die Mathematik und Astronomie. Auch wenn die Theorien in diesem Gebiet zunächst eher einen mystischen Hintergrund hatten, so gelten die Ergebnisse teilweise bis heute. Exemplarisch sei hier die Lehre der Pythagoreer erwähnt. Die nach dem griechischen Philosophen Pythagoras (570 – 500 v. Chr.) genannte Vereinigung versuchte unter anderem mit Hilfe der Mathematik die von Gott geschaffene Welt zu erklären. Grundlegende Erkenntnisse im Bereich der Primzahlen und anderer Bereiche der Zahlentheorie waren das Ergebnis dieser Bemühungen. Heute sind Primzahlen elementare Grundlage im Bereich der Kryptographie. Der Satz des Pythagoras (a²+b²=c²) hingegen trägt zwar seinen Namen stammt jedoch nicht aus der Feder des berühmten griechischen Philosophen. Er war schon lange vor seiner Zeit bekannt: Die alten Babylonier sollen ihn schon über 1000 Jahre vor den Pythagoreern angewendet haben. Auch die Pyramidenbauten des alten Ägypten zwischen 2700 und 1000 v.Chr. sind nicht nur Zeugnis einer ausgefeilten Baukunst und eines bewundernswerten Organisationstalentes, sondern auch Ausdruck fundierter naturwissenschaftlich-mathematischer Kenntnisse. Es existieren Theorien, wonach diese Pyramiden sogar einem himmlischen Bauplan gleichen. Wenn man sich die Positionen der Pyramiden betrachtet und dieser Landkarte eine Sternenkarte gegenüberstellt (in der man zuvor die Sternenkonstellationen der entsprechenden Bauepoche zurückgerechnet hat) so stellt man fest, dass die Anordnung gewisser Sterne im Sternbild Orion identisch ist mit der Anordnung der drei großen Pyramiden von Gise (Giza) (Orion-Theorie nach Robert Bauval (1994)). Auch wenn diese Theorie umstritten ist, so zeigt sich immer wieder wie gut die astronomischen Kenntnisse vieler alter Völker waren. Die schon oben erwähnten Pythagoreer waren der Auffassung, dass die Erde eine Kugel sei und dass sich das Weltall mit Hilfe der Zahlentheorie exakt beschreiben ließe (Theorie der Sphärenmusik). Das berühmte Weltkulturerbe Stonehange im Südwesten Englands ist ein weiteres Sinnbild ausgefeilter naturwissenschaftlicher Kenntnisse: Dieses zwischen 2000 bis 1500 v. Chr. erbaute Monument war, so die Theorie, in der Lage Sommer- und Wintersonnenwende und sogar Sonnen- und Mondfinsternisse vorherzusagen. Dieser Ausflug in die Geschichte der Wissenschaft sollte eines deutlich machen: Schon früh kamen Menschen auf die Idee, dass natürliche Vorgänge bestimmten (mathematischen) Gesetzen gehorchen. Nichts erfolgt willkürlich sondern nach Plänen, welche man in Formeln versinnbildlichen kann. Wissenschaft der Renaissance Natürlich war die wissenschaftliche Forschung keine geradlinige Erfolgsgeschichte. Betrachtet man die historische Entwicklungen, so gibt es immer wieder Rückschläge. Dies kann man leicht sehen, wenn man sich vor Augen führt, dass bereits die Pythagoreer dachten die Erde sei eine Kugel. Aber noch zur stark kirchlich geprägten Zeit des Kolumbus in Europa wurde geglaubt man falle von der Seite 1 von 83 Copyright Stefan Frank Erdscheibe, wenn man nur weit genug auf das Meer hinausführe. Eine Wende in diesem kirchlich geprägten Denken Europas brachten Untersuchungen der Gestirne die der biblischen Auffassung bezüglich der Erde und des Universums strikt entgegenliefen. Nikolaus Kopernikus (1473-1543) rückte die Erde aus dem Zentrum des Universums in eine unbedeutende Randposition – sie ist nur ein Planet von vielen der die Sonne umkreist. Johannes Kepler (1571-1630) trug seinen Teil dazu bei als er erkannte, dass alle Planeten nicht die göttlich perfekten Kreisbewegungen vollziehen sondern elliptische Umlaufbahnen um die Sonne beschreiben. Einen großen Anteil an dem Niedergang der kirchlichen Lehre als einzig wahre Wissenschaft trägt der italienische Mathematiker Galileo Galilei (1564-1642). Er entdeckte mit Hilfe eines Fernrohres, dass der Jupiter von anderen Planeten umkreist wird. Diese Jupitermonde waren Beweis dafür, dass nicht zwangsläufig alle Planeten die Erde umkreisen müssen, wie man ja dachte – die Erde ist nicht Zentrum des Universum womit die Theorie des Kopernikus gestärkt wurde. Neben den bedeutenden Entdeckung Galileis liegt seine weitere große Leistung in der Einführung der wissenschaftlichen Methodenlehre: Beobachtung, Aufstellung einer Theorie unter Verwendung mathematischer Formeln, bestätigen dieser Theorie anhand weiterer Experimente. Dieses Vorgehen klingt heute selbstverständlich, war es zu seiner kirchlich-dogmatisch geprägten Zeit aber keineswegs. Das 16. Jahrhundert (Zeit der Renaissance) war geprägt von einem Niedergang kirchlicher Autorität. Der Fortschritt im Bereich der Astronomie war ebenso Zeichen hierfür wie die wissenschaftlichen Aktivitäten auf dem Gebiet der Medizin. So führte der belgische Arzt Andreas Vesalius (1514-1564), ungeachtet der Kritik, Obduktionen an Leichen durch und gewann grundlegende anatomische Kenntnisse. Man kann wahrscheinlich nicht behaupten, dass die Naturwissenschaften zu einer Art neuen Religion geworden waren aber sie etablierten sich als eigenständige und von der Kirche weitestgehend unabhängige Denkrichtung. Vor diesem Hintergrund muss man die wissenschaftliche Denkweise der zukünftigen Jahrhunderte betrachten – man schrieb der Wissenschaft eine gewisse Allmacht zu – alles und jedes ist berechenbar, man muss nur die Gesetze finden. Diese Denkweise erfuhr einen weiteren Auftrieb durch einen Mann der sicherlich mit Recht als der Begründer der klassischen Physik bezeichnen werden kann: Sir Isaac Newton (1643-1727). Newton begründet die klassische Physik Wahrscheinlich ist jedem die berühmte Geschichte bekannt, wonach Newton eines Tages unter einen Apfelbaum gesessen habe und durch einen herunterfallenden Apfel am Kopf getroffen worden sein soll. Ob diese Geschichte wirklich stimmt sei dahingestellt, Fakt ist die Erkenntnis, die Newton 1687 in seinem Werk „Philosophiae Naturalis Principia Mathematica“ veröffentlichte: Die Schwerkrafttheorie. Plötzlich konnte man Planetenbewegungen relativ exakt berechnen und erklären. Dies war ein Meilenstein der Forschung, nachdem vorher schon die Mathematik in höhere Sphären aufgebrochen war: Newton und der deutsche Mathematiker Gottfried Wilhelm Leibniz (1646-1716) hatten die Infinitesimalrechnung begründet (leidgeprüften Schülern besser unter Integral- und Differentialrechnung bekannt). Damit war es nun möglich jede beliebige Fläche genau zu berechnen und mit Unendlichkeiten in der Mathematik besser umzugehen – viele mathematische Probleme konnten nun endlich einer Lösung zugeführt werden. Die folgenden beiden Jahrhunderte waren von weiteren wissenschaftlichen Erfolgen geprägt: In der Physik wurde die Thermodynamik (wichtiges Teilgebiet der Wärmelehre) begründet, James Clerk Maxwell (1831-1879) erkennt die Äquivalenz zwischen Magnetismus und Elektrizität, Georg Simon Ohm (1787-1854) stellt wichtige Grundprinzipien des Stromflusses fest (Ohm'sches Gesetz bei Widerständen). Aber auch die Chemie machte Fortschritte: Auf Antoine Laurent de Lavoisier (1743-1794) gehen eine Reihe wichtiger Erkenntnisse zurück, so prägte er den Elementebegriff, als Stoff, der nicht in weitere Bestandteile aufgesplittet werden kann. Er stellte den Grundsatz der Seite 2 von 83 Copyright Stefan Frank Masseerhaltung bei chemischen Reaktionen auf (weder verschwindet Masse bei Reaktionen noch kommt Masse unbeteiligter Stoffe hinzu) und entdeckte die Bestandteile des Wassers: Wasserstoff und Sauerstoff. 1827 schafft es Friedrich Wöhler den organischen Harnstoff künstlich herzustellen und begründet so die organische Chemie. Die physikalische Chemie versucht Reaktionen mit physikalisch-mathematischen Gesetzen zu erklären. 1898 schaffen es Marie und Pierre Curie das radioaktive Radium zu isolieren,... Viele weitere Beispiele könnten hier aufgeführt werden vom medizinischen Fortschritt ganz zu schweigen, man denke nur an die Entdeckung der krankheitserregenden Keime durch Robert Koch (1843-1910) oder die bahnbrechenden Arbeiten von Louis Pasteur (1822-1895) wodurch es möglich wurde Impfstoffe gegen Krankheiten wie die Tollwut zu entwickeln. Warum erzähle ich dies überhaupt? Eigentlich nur um die nun folgenden Aussage zu verstehen: Das Universum ist vollständig deterministisch. Ist uns der gesamte Zustand des Universums zu einem Zeitpunkt bekannt, so lassen sich mit Hilfe der naturwissenschaftlichen Gesetze alle zukünftigen Zustände des Universums vorhersagen. Diese Einstellung vertrat der französische Mathematiker und Astronom Pierre Simon Marquis de LaPlace (1749-1827). Unter Determinismus (aus dem Lateinischen: determinare (begrenzen)) versteht man, dass aus einem Zustand x der Zustand y folgen muss, es kann nicht Zustand z folgen. Somit ist das System vollständig vorhersagbar. Wie diese Auffassung zustande kam können Sie sich jetzt sicherlich leicht aus dem oben Beschreibenen erschließen. Das Ende eines Traumes Die Krönung der wissenschaftlichen Arbeit im Bereich der Physik war für viele sicherlich die spezielle (1905) und allgemeine (1915) Relativitätstheorie Albert Einsteins (1879-1955). Sie erlaubte tiefe mathematische Einblicke in Raum und Zeit – sie bot Platz für tiefgründige wissenschaftliche Arbeit aber auch für Sciencefiction-Autoren und Phantasten. Die Vorstellung, dass Zeit und Raum nicht absolut sind, sondern „eine rein private Angelegenheit“ wie Albert Einstein einmal sagte, faszinierte Experten wie Laien gleichermaßen und ließ die einfache Energiegleichung E=mc² (Energie gleich Masse mal Lichtgeschwindigkeit zum Quadrat) zu Weltruhm gelangen. Es machte den Anschein, dass die Menschheit einem Traum sehr nahe war: der Berechenbarkeit von allem und jedem. Ein uralter Menschheitstraum schien wahr zu werden, denn mit dieser „Weltformel“ wäre man auch Herrscher über die Natur und könnte nach Belieben schalten und walten. Doch seit der Entdeckung der Relativität sind jetzt schon fast 100 Jahre vergangen und wir haben diese alles umfassende Formel immer noch nicht in den Händen. Es war sogar so, dass Einstein bis zu seinem letzen Lebenstag an diesem Ziel forschte, jedoch leider ohne Erfolg. Was war passiert? Warum können wir die Entwicklung des Alls bis heute nicht vorhersagen? Die Antwort hierauf ist leicht in ein einziges Wort zu packen, die Tragweite dieses Wortes ist jedoch gewaltig: QUANTENTHEORIE. Die Quantentheorie und die hieraus resultierende Quantenphysik machte dem Determinismus einen gewaltigen Strich durch die Rechnung – ein Menschheitstraum scheint ausgeträumt. Aber die Quantenphysik lässt neue Träume erwachen und möglicherweise Dinge wahr werden, an die wir zuvor nicht einmal zu Träumen gewagt hätten. Lassen Sie mich Ihnen diese geheimnisvolle Welt der Quantenphysik näher bringen und Ihnen zeigen was sich hinter den Kulissen verbirgt – sie werden sehen: die Zukunft ist spannend auch, oder gerade weil wir sie nicht 100prozentig vorhersagen können. Aber ich warne Sie, der Physiker Niels Bohr sagte einmal: „Wer über die Quantentheorie nicht entsetzt ist, der hat sie nicht verstanden.“ Seite 3 von 83 Copyright Stefan Frank Sie werden bald sehen warum Bohr zu dieser Feststellung kam. Zusammenfassung Bereits vor Christi Geburt beschäftigten sich alte Völker mit wissenschaftlichen Theorie und entdeckten Grundlagen, die teilweise bis heute Gültigkeit haben (z.B. den Satz des Pythagoras). Im 15. und 16. Jahrhundert wurde im mittelalterlichen Europa der Glaube an die Allmacht der Kirche abgelegt und fundierte wissenschaftliche Erkenntnisse begannen, das neue Weltbild zu bestimmen. Maßgeblich dazu beigetragen haben die Wissenschaftler Nikolaus Kopernikus, der die Welt aus dem Zentrum des Universums in eine unbedeutende Randposition hob, Galileo Galilei, der mit seinen Erkenntnissen die Theorie des Kopernikus stützte und die wissenschaftliche Methodenlehre einführte und Johannes Kepler, der erkannte, dass die Planeten keine Kreise sondern elliptische Umlaufbahnen um die Sonne beschreiben. Isaac Newton und Gottfried Wilhelm Leibniz revolutionierten mit ihrer Infinitesimalrechnung die Mathematik. Dies mündete in die Gravitationstheorie, welche zusammen mit bahnbrechenden, wissenschaftlichen Erkenntnissen anderer Fachgebiete zu einer Stärkung des Glaubens in die Allmacht der Wissenschaft führte. Der Determinismus ist Ausdruck dieses Glaubens. Erst einige hundert Jahre später sollte durch die Entdeckung der Quantentheorie diese Euphorie gedämpft werden. Seite 4 von 83 Copyright Stefan Frank - Kapitel 2 Einige Grundlagen – Unsere atomare Welt und ihr Aufbau Schon früh entwickelten Menschen Theorien über den Aufbau der Materie, welche uns umgibt. Eine berühmte Vorstellung der griechischen Antike besagt, dass alles uns umgebende aus den vier bzw. fünf Urstoffen aufgebaut ist: Feuer, Wasser, Erde, Luft (und dem Äther, dessen Existenz erst Ende des 19. Jahrhunderts widerlegt werden konnte). Der griechische Philosoph Leukipp (um 450 bis 370 v. Chr.) und sein Schüler Demokrit (um 460 bis ca. 370 v. Chr.) entwickelten jedoch eine eigene Materietheorie, die der heutigen in vielen Belangen schon sehr nahe kommt. Sie stellten sich die Welt aus sog. Atomen (griechisch atomos: unteilbar) aufgebaut vor. Dabei handelt es sich, so die Vorstellung der Philosophen, um unsichtbare, kleine Materieteilchen, welche durch den leeren Raum fliegen. Aus der Möglichkeit Bindungen mit anderen Atomen einzugehen und sich somit an bestimmten Orten aufzuhäufen entsteht unsere reale Welt. Dabei ist Materieteilchen nicht gleich Materieteilchen: Sie sind zwar prinzipiell alle gleich doch unterscheiden sie sich in Größe, Form und Lage womit die Vielfalt der gegenständlichen Welt erklärt werden kann. Bis zum Jahre 1803 sollte diese Theorie nahezu unverändert bleiben, bis ein Mann namens John Dalton die alte Theorie aufgriff, das Atommodell weiterentwickelte und in die moderne Physik überführte. Es war das erste Atommodell was diesen Namen verdiente, sollte aber lange nicht das letzte sein. Viele weitere sind gefolgt. Die Entwicklung soll hier kurz dargestellt werden, da der Atombegriff elementar für die Quantentheorie ist. 1803 – Das Atommodell nach John Dalton (1766-1844) Auch nach Daltons Auffassung gibt es verschiedene Atomarten aus denen sich die Materie zusammensetzt. Jegliche Materie besteht entweder aus einer einzigen Atomart oder setzt sich aus einer Kombinationen verschiedenartiger Atome zusammen. Hat man einen Stoff vorliegen, welcher sich aus verschiedenen Atomarten zusammensetzt, so kann man diesen Stoff in seine Grundbestandteile aufspalten. Materie, die sich nicht weiter in verschiedene Atomsorten aufspalten lässt nennt man Elemente. Atome einer Sorte sind gleich – sie haben gleiches Gewicht und verhalten sich bei chemischen Reaktionen identisch. Der primäre Unterschied zwischen den Atomarten liegt bei ihrem Gewicht (besser: bei ihrer Masse). Dalton nahm Wasserstoff als leichtestes Element und setzte andere bekannte Elemente bezüglich ihres Gewichtes in Relation. Am Ende hatte er ein tabellarisches System, aus welchem hervorging, dass Element X so und so viel mal schwerer ist als Wasserstoff – dies ist die Grundlage unseres heutigen Periodensystems der Elemente. Wie schon Leukipp und Demokrit ging er davon aus, dass Atome unteilbar sind. Die Masse eines jeden Atoms ist gleichmäßig im Raum den es ausfüllt verteilt (vergleichbar mit einem Vollgummiball). Wenn es Bindungen mit anderen Atomen eingeht, dann nur vollständig – es kann sich also nicht aufspalten und nur zu einem Teil mit dem anderen Atom eine Bindung eingehen. Seite 5 von 83 Copyright Stefan Frank 1911 – Das Atommodell nach Sir Ernest Rutherford (1871-1937) Es sollte sich jedoch bald herausstellen, dass Daltons Atommodell nicht stimmen konnte. Vor allem der Begriff der Unteilbarkeit kam ins Wanken. Im Jahre 1895 entdeckte Wilhelm Konrad Röntgen (1845-1923) die nach ihm benannte Strahlung. Auch wenn man sie noch nicht genau verifizieren konnte, so hatte sie doch die sonderbare Eigenschaft Materie zu durchdringen. Wie konnte das aber sein, wenn Materie kompakt ist und den Raum komplett ausfüllt, wie es Dalton formulierte? Antoine Henri Becquerel (1852-1908) entdeckte 1896, dass auch andere Stoffe Strahlung emittierten, z. B. sog. Uransalze. Marie und Pierre Curie entdeckten die Strahlung emittierenden Elemente Polonium und Radium und nannten Substanzen, die Strahlung abgeben radioaktiv. Wie konnte es sein, dass ein Stoff einfach Strahlung emittiert? Das waren nur ein paar ungeklärte Fragen. Eine weitere war die Entdeckung eines kleinen Teilchens durch Sir Joseph John Thomsen (1856-1940) im Jahre 1897, welches viel leichter war als alle bekannten Atome. Dieses sog. Elektron passte nicht in das bis dahin bekannte Modell der Atome. Ernest Rutherford nahm sich dieser Probleme an und analysierte erst einmal das, was ich bisher mit dem ominösen Wort „Strahlung“ bezeichnet habe. Zunächst wusste man nur, dass bestimmte Elemente irgend etwas emittieren (Aussenden) was anderenorts bestimmte Auswirkungen hat. Wie schon erwähnt hatte die Röntgenstrahlung die Eigenschaft Materie zu durchdringen und eine dahinter angebrachte Photoplatte zu beleuchten – die Röntgenaufnahme der Hand seiner Ehefrau ist nur ein Ergebnis der Experimente Röntgens. Man konnte in diesem Zusammenhang auch zeigen, dass die Strahlung phosphorizierende Stoffe (wie man Sie von den Ziffern eines Weckers kennt) zum Leuchten anregt. Rutherford kam zu einem höchst interessanten Schluss: Zunächst muss man sich von dem Gedanken eines unteilbaren Atoms lösen. Atome sind sehr wohl teilbar und setzen sich aus noch kleineren Teilchen zusammen. Es gibt auch nicht nur die Strahlung, sondern drei verschiedene Arten: Alpha-, Beta- und Gammastrahlung. Dabei ist Gammastrahlung eine elektromagnetische Welle auf die ich in Kapitel 3 „Das Licht und seine Natur“ genauer eingehen werde. Die Beta-Strahlung besteht aus den von Thomsen entdeckten Elektronen und die Alphastrahlung aus Heliumkernen. Um zu verstehen was ein Heliumkern ist, muss man wissen, welches Atommodell Rutherford entwickelt hat. Nach seiner Vorstellung besteht ein Atom aus einem kompakten Kern, welcher aus noch kleineren Teilchen aufgebaut ist, den sog. Protonen. Diese tragen eine positive Ladung. Die Hülle bilden die negativ geladenen Elektronen, welche den Kern planetenartig umkreisen. Zwischen Kern und Hülle befindet sich keine weitere Materie, wodurch der Großteil eines Atoms aus Vakuum besteht, wenn man dies so formulieren möchte. Dabei sind die Abstände zwischen Kern und Hülle nicht zu unterschätzen. Das Größenverhältnis ist in etwa so, als würde man einen Tennisball (Atomkern) auf das Dach des Kölner Doms (Atomhülle) legen. Ein Atom besteht also fast nur aus Vakuum. Des weiteren sagte Rutherford später (im Jahre 1920) ein Teilchen voraus, dessen Existenzbeweis jedoch erst 1932 erbracht werden konnte: das elektrisch neutrale Neutron. Sie bilden zusammen mit den Protonen den Atomkern. Welches Element man vor sich liegen hat bestimmt die Anzahl der Protonen im Kern, die Anzahl der Elektronen hat primär Auswirkung auf die chemischen Eigenschaften (z.B. Bindungsverhalten zu anderen Elementen) des Atoms, jedoch nicht auf die physikalischen (z.B. Seite 6 von 83 Copyright Stefan Frank Dichte, Schmelz- und Siedepunkt usw.). Auch die Anzahl der Neutronen hat Auswirkung auf die physikalischen Eigenschaften eines Stoffes. Ein Element mit gleicher Protonenzahl aber unterschiedlicher Neutronenzahl nennt man Isotop. Ein Beispiel hierfür ist der Wasserstoff: Er besteht aus einen Proton im Kern und einem Elektron in der Hülle. Es gibt jedoch auch den sog. schweren Wasserstoff. Dieser hat neben dem Proton im Kern und dem Elektron in der Hülle noch ein bzw. zwei zusätzliche Neutronen im Kern. Man nennt diese Form des Wasserstoffs dann Deuterium bzw. Tritium. Nachdem man dies erst einmal verdaut hat kann man jetzt auch verstehen was ein Heliumkern ist: Ein Heliumatom besteht aus je zwei Protonen und Neutronen im Kern. Umkreist wird dieser von zwei Elektronen in der Atomhülle. Ein Heliumkern ist also ein Heliumatom ohne die beiden Elektronen. Die Ladung eines Atoms und Rutherfords Experiment Im Normalfall ist ein Atom nach außen hin elektrisch neutral. Dies bedeutet, die negativen Elektronenladungen in der Atomhülle gleichen die positiven Protonenladungen im Atomkern aus. Dies ist jedoch nur dann der Fall, wenn die Anzahl der Elektronen gleich der Anzahl der Protonen ist. Überwiegt die Anzahl einer der beiden Teilchenarten, so ist das Gesamtatom nach außen entweder negativ (bei Elektronenüberschuss) bzw. positiv (bei Elektronenmangel) geladen. Bei einem nicht elektrisch neutralen Atom spricht man von einem Ion. Die Alphastrahlung, welche ja aus Heliumkernen besteht muss daher zweifach positiv geladen sein, da die beiden Elektronen in der Hülle fehlen und nur die beiden positiven Ladungen im Atomkern übrig geblieben sind. Heliumatom: elektrisch neutral Herliumion: einfach positiv Heliumion: zweifach positiv (Alpha-Teilchen) Diese Ladungseigenschaft nutzte Rutherford 1911 bei einem Experiment aus, welches sein Atommodell bestätigen sollte. Dabei beschoss er eine dünne Goldfolie mit Alphastrahlung. Wenn Atome kompakt gebaut wären, hätten, wenn überhaupt, nur sehr wenige Heliumkerne die Folie passieren dürfen. In Wirklichkeit passierte aber sogar sehr viel Alphastrahlung die Folie, was man an den Lichtblitzen der hinter der Goldfolie aufgestellten phosphorizierenden Platte sehen konnte. Die Heliumkerne, welche nicht durchkamen wurden abgelenkt, so dass sich ein Streumuster um die Goldfolie herum ergab. Intensive Berechnungen ließen den Schluss zu, dass dieses Streumuster nur durch den Aufbau der Atome zu erklären war: Der elektrisch positive Heliumkern wurde von den positiven Kernen der Goldatome abgelenkt, denn positive und positive bzw. negative und negative Ladungen stoßen sich ab, entgegengesetzte Ladungen hingegen ziehen sich an. Seite 7 von 83 Copyright Stefan Frank Elektrischer Strom als Fluss von Ladungsträgern Wie Sie oben erfahren haben, existieren Teilchen welche positiv oder negativ geladen sein können – diese Teilchen nennt man Ladungsträger. Elektrischer Strom, wie wir Ihn jeden Tag für die verschiedensten Dinge verbrauchen, ist nichts weiter als ein Fluss von Ladungsträgern, genauer: ein Fluss von Elektronen. Verbindet man ein Material (z.B. ein Metall), welches Träger eines Elektronenüberschuss ist mit einem Material, welches einen Elektronenmangel aufweist, so werden die überschüssigen Elektronen des einen Materials von dem positiv geladenen Material angezogen. Voraussetzung für einen Elektronenfluss ist jedoch, dass die Verbindung zwischen den beiden Materialien leitend ist. Ein Material ist dann leitend, wenn Elektronen innerhalb des Materials mehr oder weniger frei fliesen können. Ist der freie Elektronenfluss innerhalb des Leiters gehemmt, so setzt dieser dem Fluss einen Widerstand entgegen. Dieser wird mit dem Formelzeichen R bezeichnet und in der Einheit Ohm gemessen. Ist der Widerstand sehr groß, so ist kein Stromfluss mehr möglich. Materialen, welche eine solche Eigenschaft haben, nennt man Isolatoren. Zwei Begriffe, welche oftmals im Zusammenhang mit dem elektrischen Strom fallen sind Volt und Ampere. Auch diese lassen sich mit Hilfe des Ladungsmodells erklären. Die Spannung (Formelzeichen U) kann man als Bewegungsenergie der Elektronen auffassen. Um so größer der Ladungsunterschied zwischen positiv und negativ geladenem Material, um so größer ist die Anziehungskraft der positiven Seite und die Abstoßungskraft der negativen. Durch die stärkeren Kräfte werden die Elektronen stärker angezogen, was sich in einer größeren „Reisegeschwindigkeit“ der einzelnen Elektronen niederschlägt. Sie durchlaufen also den Leiter um so schneller, um so größer die Ladungsdifferenz ist. Angegeben wird die Spannung, welche man mit einem sog. Voltmeter misst, in Volt (kurz V). Mit einem sog. Amperemeter hingegen lässt sich die Stromstärke (Formelzeichen I) in Ampere (kurz A) bestimmen. Dies ist ein Maß für die Anzahl der Elektronen, die pro Sekunde eine beliebige Stelle des Stromleiters durchfließen. Multipliziert man die Stromstärke mit der Spannung, so erhält man die elektrische Leistung (P), welche in Watt (W) angegeben wird (bekannt von der Angabe auf Glühbirnen). Seite 8 von 83 Copyright Stefan Frank Multipliziert man nun diese elektrische Leistung mit der untersuchten Zeitspanne (t), so erhält man die elektrische Arbeit (W (nicht zu verwechseln mit der Einheit W für Watt!)). Diese misst man in Wattsekunde (Ws). Ihnen dürfte dies jedoch besser bekannt sein unter kWh (Kilowattstunde). Die verbrauchten Kilowattstunden sind nämlich genau das, was das Elektrizitätswerk regelmäßig an ihrem Zähler abliest. Lassen Sie also z.B. eine 60 Watt-Glühlampe eine Stunde lang brennen, so müssen Sie 60 Wattstunden bezahlen, das sind 0,06 kWh. Zur besseren Verständlichkeit sei hier noch einmal der Zusammenhang zwischen Formelzeichen und Maßeinheit dargestellt: Formelzeichen Maßeinheit Spannung U Volt (V) Stromstärke I Ampere (A) Widerstand R Ohm ( elektrische Leistung P Watt (W) elektrische Arbeit W Wattsekunde (Ws) ) Otto Hahn und die Kernspaltung Sie haben nun schon feststellen können, dass Atome nicht kompakte Materieteilchen sind, die statisch verharren, ohne dass man an ihnen etwas ändern könnte. So haben Sie bereits gesehen, dass man einem Atom Elektronen entfernen (und auch hinzufügen) kann. Ein Beispiel hierfür ist der Heliumkern, der die Alphastrahlung ausmacht. Die Frage bleibt jedoch woher diese Strahlung kommt. Warum emittieren bestimmte Stoffe wie z.B. die Uransalze Alpha-, Beta- und Gammastrahlung? Die Antwort hierauf liegt im atomaren Zerfall begründet. Auch hier hat Rutherford bahnbrechende Ergebnisse erzielt. Stickstoff ist ein Element mit 7 Protonen im Kern. Er beschoss diesen mit Alphateilchen, also Heliumkernen mit 2 Protonen. Das Ergebnis war ein Atom mit 8 Protonen im Kern und einem weiteren freien Proton. Wie oben bereits gesagt bestimmt die Anzahl der Protonen welcher Stoff gerade vorliegt. Das Element mit 8 Protonen nennen wir Sauerstoff. Rutherford hatte es also geschafft das lebensfeindliche Element Stickstoff in den lebensnotwendigen Sauerstoff (genauer ein bestimmtes Sauerstoffisotop) umzuwandeln. Es handelte sich um die erste künstliche Kernreaktion. Der deutsche Chemiker Otto Hahn (1879-1968) legte dann 1938 einen wichtigen Grundstein für die heute völlig selbstverständliche Kernspaltung in Atomkraftwerken. Enrico Fermi (1901-1954) hatte bereits vor Hahn Elemente mit Neutronen beschossen und somit den Kern künstlich manipuliert. Darunter auch Uran, ein Element mit 92 Protonen. Man dachte jedoch, dass durch das Beschießen des Kerns mit Neutronen Elemente entstehen würden, die mehr als 92 Protonen im Kern haben, also 93,94,95,... (sog. Transurane). Otto Hahn bewies zusammen mit seinem Kollegen Strassmann, dass dem mit Nichten so ist. Der Kern wird nicht um weitere Teilchen erweitert, so wie das bei den Stickstoff-Sauerstoff-Experimenten von Rutherford der Fall war, sondern gespalten. Hahn fand heraus, dass Uran in Barium, ein Element mit 56 Protonen und Krypton, ein Element mit 36 Protonen im Kern (56 + 36 = 92!) zerfällt. Des weiteren werden weitere Neutronen frei, die ihrerseits wieder andere Urankerne spalten können – eine Kettenreaktion findet statt. Neben diesem künstlich hervorgerufenen Kernzerfall gibt es auch natürliche Zerfallsprozesse. Es gibt Kernkonfigurationen, welche instabil sind – der Kern enthält entweder zu viele Neutronen und Protonen oder einfach zu viel Energie. Der Kern besitzt jedoch die Fähigkeit sich selber wieder in eine stabilere Konfiguration aus Neutronen und Protonen zu versetzen indem er einfach das abgibt, Seite 9 von 83 Copyright Stefan Frank was ihn stört. Das Ergebnis ist die Alpha-, Beta- und Gammastrahlung. Genaueres möchte ich an dieser Stelle noch nicht erklären und zunächst noch ein paar Grundlagen legen. Ich verweise daher hier auf das Kapitel „Die physikalischen Grenzen des Chips - der Tunneleffekt“. Die Suche nach dem perfekten Atommodell Rutherfords Atommodell konnte viele Phänomene schon gut erklären es gab aber Lücken, die es zu verbessern galt. Niels Bohr (1885-1962) entwickelte 1913 das Modell nach Rutherford weiter und stellte fest, dass Elektronen nur auf bestimmten Bahnen den Kern umkreisen können. Theoretisch war bisher jede Planetenbahn um den Kern möglich. Bohr hingegen schrieb ganz bestimmte, feste Umlaufbahnen vor und berechnete diese auch. Aber auch in diesem Modell wurden schnell Fehler festgestellt. Unter Verwendung der Heißenbergschen Unschärferelation aus der Quantenphysik kam man zu einem ganz neuen Modell: der sog. Orbitaltheorie. Nichts verstanden? Macht nichts! Die letzten beiden Modelle seien an dieser Stelle nur der Vollständigkeit halber erwähnt. Um den Hintergrund genauer verstehen zu können brauchen sie erst fundiertes Wissen über die Quantentheorie. Und damit geht es nun endlich im nächsten Kapitel los, in dem zunächst die Natur des Lichtes geklärt wird – d.h. soweit das unsere heutige Wissenschaft überhaupt kann. Zusammenfassung Die griechischen Philosophen Leukipp und Demokrit entwickelten die erste Vorstellung von einem Atom, welches als unteilbares Teilchen die Grundlage jeder Materie bilden sollte. 1803 entwickelte Dalton dieses Modell weiter und erklärte chemische Bindungen als einen Zusammenschluss verschiedener Atommarten. Atome, welche nicht weiter in andere Atomarten zerlegbar sind, nennt man Elemente. Ernest Rutherford entwickelte 1911 ein ausgefeilteres Modell, wonach der Kern aus Protonen und Neutronen aufgebaut ist und die Atomhülle durch Elektronen gebildet wird. Die Anzahl der Protonen bestimmen um welches Element es sich handelt. Differiert die Neutronenzahl zwischen zwei Atomen mit gleicher Protonenzahl, so spricht man von einem Isotop. Ist ein Atom nach außen hin nicht elektrisch neutral, so herrscht Elektronenmangel oder Elektronenüberschuss. Tritt dieser Fall ein, so liegt ein sog. Ion vor. Elektrischer Strom ist nichts weiter als ein Fluss elektrisch geladener Teilchen (Elektronen), welche von einem Elektronenüberschuss zu einem Elektronenmangel wandern. Durch den Kernzerfall werden Atomkerne aufgespalten, wobei Strahlung emittiert wird. Dieser Vorgang kann natürlicher Ursache sein, aber auch künstlich hervorgerufen werden. Emittiert werden Alpha-, Beta- und Gammastrahlung, wobei erstere aus Heliumkernen besteht und Betastrahlung aus Elektronen. Seite 10 von 83 Copyright Stefan Frank - Kapitel 3 Das Licht und seine Natur Die Frage „Was ist Licht“ beschäftigt die Wissenschaft noch heute. Genau ist diese Frage nämlich bisher nicht zu beantworten. Die Korpuskeltheorie Für Isaac Newton bestand Licht aus kleinen Teilchen, die neben den Atomen existieren, sog. Korpuskeln. Diese Erklärung erschien zunächst auch glaubhaft, denn man konnte damit einige Phänomen befriedigend erklären. So z. B. die Reflexion des Lichtes: Wie Sie sicherlich noch aus der Schule wissen gilt bei Lichtreflexionen, dass Einfallswinkel gleich Ausfallswinkel ist. Der Winkel, in dem das Licht auf eine reflektierende Fläche trifft entspricht dem Winkel mit dem das Licht zurückgeworfen wird. Ein Gummiball den man auf den Boden wirft verhält sich ebenso, was die Teilchentheorie der Korpuskeln untermauert. Auch ein weiteres Phänomen ließ sich, wenn auch nur unbefriedigend, mit der Korpuskeltheorie darstellen: Wenn man einen Stock in klares Wasser hält und von oben auf die Wasseroberfläche schaut, so stellt man fest, dass der Stock geknickt erscheint, obwohl er es nicht ist. Die Korpuskelerklärung hierfür: Die kleinen Teilchen bewegen sich in Wasser schneller als in Luft. Dadurch kommt diese optische Täuschung zustande. Die Wellentheorie Bestimmte Phänomene ließen sich so jedoch nicht erklären. So entwickelte sich parallel zur Korpuskeltheorie die Wellentheorie des Lichts, primär durch den Niederländer Christiaan Huygens (1629-1695) im Jahre 1678. Dabei haben diese Lichtwellen Ähnlichkeit mit Wasserwellen. Das Ausbreitungsmedium ist jedoch nicht Wasser sondern etwas was Äther genannt wurde. Ich habe diesen „Stoff“ bereits oben kurz erwähnt und als einen der fünf Urstoffe vorgestellt. Man stellte sich vor, dass der Äther das gesamte Universum durchzieht, ohne dass man diesen direkt spürt. Seite 11 von 83 Copyright Stefan Frank Von diesem Medium sollten die Lichtwellen getragen werden, ähnlich wie Wasser Träger der Wasserwellen ist. Die Wellentheorie führte neben der Korpuskeltheorie jedoch leider nur ein Schattendasein. Es dauerte 100 Jahre bis man sich mit ihr wieder intensiver auseinander setzte. Ursächlich dafür war eine Vorstellung, welche Thomas Young vertrat. Er übertrug eine Beobachtung, welche man auf Wasseroberflächen machen kann auf die Wellen des Lichts: Wenn man auf eine ruhige, gänzlich unbewegte Wasseroberfläche eine Stein wirft, so breitet sich eine Welle in kreisen um diesen Stein aus. Diese Beobachtung haben wir sicherlich alle schon einmal gemacht. Dabei kann man leicht zwischen Wellenbergen und Wellentälern unterscheiden, da das Wasser eine Art Sinuskurve um den Stein beschreibt. Machen wir es nun ein wenig komplizierter: Nimmt man zwei Steine und wirft sie in geringem Abstand in das Wasser, so verursachen beide kreisförmige Wellenbewegungen auf der Oberfläche des Wassers. Zu einem gewissen Zeitpunkt treffen die beiden verursachten Wellenbewegungen aufeinander. Jetzt kann man folgendes Beobachten: Treffen zwei Wellenberge bzw. Wellentäler zusammen, so addieren sich diese auf. Der Wellenberg wird also noch höher bzw. das Wellental noch tiefer. Treffen jedoch Wellenberg und Wellental aufeinander so wird von der Höhe (besser: der Energie) des Wellenberges die Energie des Wellentales abgezogen. Das Ergebnis ist entweder ein Wellenberg geringerer Höhe, bzw. Energie oder sogar ein Wellental, wenn die „negative Energie“ des Wellentales die „positive Energie“ des Wellenberges überstieg. Ist die Energie des Wellentales exakt gleich der Energie des Wellenberges so heben sich beide Effekte sogar auf und das Ergebnis ist eine glatte Wasseroberfläche. Das Verstärken bzw. Auslöschen von Bergen und Tälern nennt man Interferenz. Young übertrug dies nun auf Lichtwellen. Wenn man Licht nicht als Teilchen sondern als Welle auffassen würde, so seine Vorstellung, dann könnten sich auch hier Wellenberge und Täler gegenseitig auslöschen. Eine Vorstellung mit der sich plötzlich physikalische Experimente erklären ließen, an der die Korpuskeltheorie zuvor gescheitert war. Es konnte sogar gezeigt werden, dass alle ungelösten optischen Experimente zu Beginn des 19. Jahrhunderts erklärt werden konnten. Das war der Beginn des Siegeszuges der Wellentheorie des Lichts. Einige wichtige optische Experimente seien hier dargestellt, da sie für die weitere Entwicklung der Quantentheorie von großer Wichtigkeit waren. Seite 12 von 83 Copyright Stefan Frank Die Wellentheorie als Erklärung für Interferenzmuster Lässt man Licht durch einen kleinen Spalt in eine abgedunkelte Kiste fallen, so stellt man etwas fest, was mit der herkömmlichen Teilchentheorie nicht mehr zu erklären war. Geht man von der Teilchengestalt des Lichts aus, so müsste bei diesem Experiment folgendes passieren: Das Licht fällt durch den Spalt in die Kiste, durchquert den Raum geradlinig und trifft am anderen Ende auf die Wand der Kiste auf, wo wir ein klar begrenztes Abbild des Eingangslichtes haben. In Wirklichkeit jedoch ist das Abbild an den Rändern ausgefranst und vor allem ist das beleuchtete Gebiet der Rückwand größer als der Spalt. Wie kann das aber sein, wenn Licht die Kiste geradlinig durchläuft? Die Erklärung hierfür ist die Wellentheorie: Man stelle sich vor, eine Wasserwelle steuert auf eine Wand zu, in der es nur einen kleinen Schlitz gibt. Was wird passieren? Trifft die Welle auf die Wand auf, so durchdringt sie diese an der Stelle des Schlitzes. Von hier aus baut sich eine neue Welle auf, welche in Halbkreisen weiterläuft. Bei unserem Experiment trifft die Lichtwelle also auf den Durchlass, bildet neue Halbkreise und läuft von dort weiter. Somit ist erklärbar warum das Licht ausgefranst an der Rückwand ankommt. Es sind keine geradlinigen Lichtstrahlen die den Raum durchlaufen, sondern gebeugte Lichtwellen. Dieses Experiment kann man nun noch etwas komplizierter gestalten. Nachdem das Licht den ersten Schlitz durchdrungen hat, steuert die neu erzeugte Lichtwelle auf die Rückwand zu, in der sich jetzt jedoch noch einmal zwei vertikale Lichtschlitze nebeneinander befinden. Die vorher erzeugte Lichtwelle wird an den beiden Schlitzen noch einmal aufgeteilt. Das Ergebnis sind zwei Lichtwellen, die sich hinter den beiden Durchlässen ausbreiten. Ich glaube Sie ahnen schon worauf dieses Experiment hinaus will. Sie wissen, dass sich bei zwei Wasserwellen Wellenberge und Täler, je nach Situation, addieren bzw. subtrahieren oder sogar gegenseitig auslöschen. Genau dies passiert bei diesem Experiment: Auf der Rückwand lässt sich kein einheitliches Licht erkennen, sondern abwechselnd dunkle und helle Bereiche, das sog. Interferenzmuster. Die hellen Bereiche markieren Stellen, an denen sich Licht verstärkt hat, die Seite 13 von 83 Copyright Stefan Frank dunklen hingegen Bereiche, in denen sich Licht abgeschwächt bzw. ausgelöscht hat. Licht als elektro-magnetische Welle Bei der Beschreibung atomarer Eigenschaften habe ich bereits von elektrisch positiver bzw. negativer Ladung gesprochen. Tatsächlich ist Elektrizität nichts weiter als eine Bewegung von Ladungsträgern. Ladungsträger können z.B. Elektronen (negative Ladung) oder Protonen (positive Ladung) sein. Sie haben aber auch gelernt, dass ganze Atome eine Ladung haben können, wie das schon so oft zitierte Alphateilchen, welches ein Heliumkern ohne Elektronen darstellt, und somit zweifach positiv geladen ist. Ein geladenes Teilchen kann Kraft auf andere geladene Teilchen ausüben. So können sich zwei gleich geladene Teilchen abstoßen bzw. entgegengesetzt geladene anziehen. Den Wirkungsbereich der elektrischen Kraft um ein geladenen Teilchen nennt man elektrisches Feld. Es nimmt mit zunehmender Entfernung zum Teilchen ab. Ein Magnet ist uns allen von Schulexperimenten mit Stabmagneten bekannt. Wir haben alle in der Schule gelernt, dass ein Magnet über zwei entgegengesetzte Pole verfügt: einem Nord- und einem Südpol. Auch hier gilt das schon bekannte Gesetz: gleichnamige Pole stoßen sich ab, entgegengesetzte Pole ziehen sich an. Ein Magnet hat die Fähigkeit andere magnetische Objekt (z. B. Eisen) anzuziehen. Das Gebiet indem die Kraft um einen magnetischen Körper wirkt nennen wir Magnetfeld. Auch dieses nimmt mit zunehmender Entfernung zum Verursacher ab. Schon durch diese Beschreibung wird ersichtlich, dass elektrische und magnetische Felder viele Gemeinsamkeiten haben. Dies fiel auch dem schottischen Physiker James Clerk Maxwell auf (1831-1879). Den Resultaten seiner Forschung nach verursacht eine bewegte elektrische Ladung immer auch ein Magnetfeld. Während ein Elektron den Kern eines Atoms umkreist, verursacht es Seite 14 von 83 Copyright Stefan Frank also auch automatisch ein magnetisches Feld. Maxwell ging jedoch noch viel weiter: Durch hervorragende mathematische Leistungen schaffte er es die elektrische und magnetische Kraft als zwei Auswirkungen eines elektromagnetischen Feldes zu beschreiben und die Anzahl der Formeln, die beide Feldtypen mathematisieren auf vier Formeln zu reduzieren, die beide Felder gleichzeitig erfassen. Man kann also jedes elektrische oder magnetische Feld auch als elektromagnetisches Feld behandeln – man muss nicht zwischen ihnen unterscheiden. Eine weitere wichtige Erkenntnis war, dass ein sich veränderndes elektrisches Feld ein magnetisches Feld verursacht und umgekehrt. Baut sich also ein elektrisches Feld auf (es wird stärker), so verändert es sich und verursacht ein magnetisches Feld, welches sich seinerseits aufbaut und dadurch wiederum ein elektrisches Feld verursacht, usw. Es hat zwar noch eine Weile gedauert bis diese Forschungsergebnisse wirklich anerkannt worden sind, aber heute wissen wir, dass Licht als elektromagnetische Welle aufgefasst werden kann. Da ein elektrisches Feld ein magnetisches hervorruft und umgekehrt braucht es kein Medium, um durch den Weltraum zu reisen – es ist sozusagen selbst erhaltend. Somit wurde der Begriff des Äthers überflüssig – dieses Medium zum Transport des Lichtes war nicht mehr nötig. Zum Glück – denn wie sich bald herausstellen sollte gibt es den Äther nicht. Mit Frequenz bezeichnet man die Anzahl der Schwingungen im elektromagnetischen Feld pro Sekunde. Um so höher die Frequenz, um so höher die Energie dieser sog. elektromagnetischen Welle. Nun lässt sich auch leicht erklären was Gammastrahlung ist: Sie ist nichts weiter als eine elektromagnetische Welle mit sehr hoher Frequenz (also hohem Energiegehalt). Der Frequenzbereich liegt bei 1020 Hertz und höher (Hertz steht für „Schwingungen pro Sekunde“). Röntgenstrahlung hingegen hat eine etwas geringere Hertzzahl. Auch die verschiedenen Farben, welche wir wahrnehmen können haben unterschiedliche Schwingungsfrequenz vom energiereichen blau bis hin zum energieärmeren rot. Weißes Licht ist eine Überlagerung aller anderen Farben – sozusagen ein Wellenrauschen. Eine Brille, durch die man nur rot sieht, filtert das von den Objekten der Umgebung ausgesandte Licht und lässt nur das Licht mit „roter Wellenlänge“ durch – alle anderen Frequenzen werden absorbiert bzw. reflektiert. Zu Beginn dieses Kapitels sagte ich, dass die Wissenschaft nicht genau weiß was Licht ist. Es scheint doch jetzt aber so, als hätten wir eine befriedigende Antwort gefunden. Das scheint aber auch nur so! In Wirklichkeit ist das hier gesagte nur die halbe Wahrheit. Das wissenschaftliche Durcheinander wird seinen Lauf nehmen – verlassen Sie sich darauf. Zunächst möchte ich jedoch Ihre Vorstellungskraft mit etwas ganz anderem auf die Probe stellen: Der Einsteinschen Relativitätstheorie. Viel Spaß dabei!! Seite 15 von 83 Copyright Stefan Frank Zusammenfassung Zunächst hatte sich die Korpuskeltheorie in der wissenschaftlichen Landschaft durchgesetzt, erst Christiaan Huygens und Thomas Young brachten Argumente für die Wellentheorie des Lichts ein, welche viele Physiker umstimmten. Ein Argument war die Erklärung für das Phänomen der Interferenz. James Clerk Maxwell führte diesen Gedanken fort und schaffte eine mathematische Vereinheitlichung von elektrischer und magnetischer Kraft. Seiner Vorstellung zu folge ist Licht eine elektromagnetische Welle, wobei ein sich veränderndes elektrisches Feld ein magnetisches hervorruft und andersherum. Die Wellenlänge der Schwingung repräsentiert die Art des Lichts. Seite 16 von 83 Copyright Stefan Frank - Kapitel 4 Lichtgeschwindigkeit ist absolut Sie haben jetzt schon viele wichtige Eigenschaften des Lichtes kennen gelernt, ein Thema habe ich bis jetzt jedoch ausgespart: Die Lichtgeschwindigkeit. Heute wissen wir, dass Licht eine Sekunde benötigt um eine Strecke von 300.000 km (genau: 299.729,5 km) zurückzulegen, oder anders ausgedrückt: Licht hat eine Geschwindigkeit von 300.000 km/s bzw. 1.080.000.000 km/h (das sind über eine Milliarde Kilometer in der Stunde!). Die Vorstellung, dass Licht eine Geschwindigkeit hat, erscheint uns heute selbstverständliche, war es zunächst aber keineswegs. Man ging erst davon aus, dass Licht überhaupt keine Zeit benötigt um von seinem Ausgangsort zu irgend einem anderen Ort zu kommen. Kaum wird es ausgesendet so ist es auch schon am Ziel angekommen ohne dafür Zeit zu benötigen – die Lichtgeschwindigkeit war so zusagen unendlich groß. Erst der dänische Astronom Olaf Rømer (1644-1710) änderte 1675 diese Vorstellung. Ihm fiel ein himmlisches Phänomen auf, welches er über eine nicht unendliche Lichtgeschwindigkeit erklären konnte. Mit Hilfe von Teleskopen war es ihm möglich zu beobachten, wie einer der Jupitermonde aus dem Schatten des Jupiters trat. Um so weiter die Erde von dem Jupiter entfernt war, um so länger dauerte es bis man ihn sehen konnte. Dies ließ sich damit erklären, dass das Licht des Jupitermondes schlicht und ergreifend länger zur Erde unterwegs war. Heute wissen wir, dass das Licht von der Sonne zur Erde etwa acht Minuten braucht, vom Mond zur Erde ca. eine Sekunde. Knipst ein mächtiger Gott das Licht der Sonne aus, so würde uns das auf der Erde erst acht Minuten später auffallen. Schauen wir in den Himmel, so blicken wir immer in die Vergangenheit. Um so weiter eine Lichtquelle entfernt ist, um so weiter können wir in die Vergangenheit schauen. Ein Beispiel: Das Licht des Sterns Alpha Centauri benötigt, auf Grund der großen Distanz, vier Jahre bis es auf der Erde eintrifft. Wir sehen also den Stern, wie er vor vier Jahren ausgesehen hat - ist er in der Zwischenzeit vielleicht sogar schon explodiert? Um mit den unglaublich großen Entfernungen im Weltall umgehen zu können hat man neue Maßeinheiten eingeführt. So ist eine Lichtsekunde die Strecke, die das Licht in einer Sekunde zurücklegt (300.000 km). Ein Lichtjahr hingegen ist die Strecke, die Licht in einem Jahr durch das All reist (das sind 300.000 km x 60 Sekunden x 60 Minuten x 24 Stunden x 365 Tagen = 9.460.800.000.000 km, also fast 10 Billionen Kilometer!). Da das Licht von Alpha Centaurie ca. vier Jahre zu uns unterwegs ist bedeutet dies eine Entfernung von vier Lichtjahren, also knapp 40 Billionen Kilometern. Wenn Flugzeuge vom Winde verweht werden... Wie im vorangegangenen Kapitel bereits beschrieben dachte man noch am Ende des 19. Jahrhunderts, dass der Weltall von einer „Substanz“ mit dem Namen Äther gefüllt ist. Diese war u.a. nötig, um als Trägermedium für Lichtwellen zu dienen. Der Äther stehe still, während alle Planeten durch diesen Äther wandern. Kann man diesen Äther nachweisen? Die beiden Physiker Albert Abraham Michelson (1852-1931) und Edward Williams Morley (1838-1923) hatten sich dazu Gedanken gemacht, die auf folgender Grundvorstellung fußten. Man nehme ein Flugzeug und lasse es zunächst gegen den Wind fliegen, dann soll es wenden und mit dem Wind zurückfliegen. Die Zeit, welche das Flugzeug für Hin- und Rückflug benötigt hat hält man fest. Nun lässt man das Flugzeug die gleiche Entfernung senkrecht zur Windrichtung zurücklegen – bei gleichem Einsatz der Motoren. Auch hier wird die Zeit gestoppt. Wenn man nun Seite 17 von 83 Copyright Stefan Frank die beiden gemessenen Zeiten vergleicht, so wird man feststellen, dass das Flugzeug, welches Senkrecht zur Windrichtung geflogen ist, für die gleiche Strecke weniger Zeit benötigt hat als das Flugzeug, welches mit Front- und Rückenwind geflogen ist. Dieses Experiment übertrugen die beiden Wissenschaftler Michelson und Morley 1887 auf den Äther, der Ihnen als „Windquelle“ diente. Das Interferometerexperiment nach Michelson und Morley Wie schon erwähnt stellte man sich den Äther als ruhiges Irgendwas vor (man verzeihe mir diese Ausdruckweise), was selber keinerlei Bewegung vollzog. Nun ist aber bekannt, dass die Erde in Bewegung ist: sie umkreist innerhalb eines Jahres die Sonne und somit legt sie eine Strecke zurück. Nun stellen Sie sich vor, sie laufen an einem windigen Tag sportlich durch den Wald und halten an. Es ist klar, dass Sie den Wind auf ihrer Haut spüren. Nun stellen Sie sich die gleiche Situation an einem völlig windstillen Tag vor. Halten Sie an, so können Sie natürlich keinerlei Luft auf Ihrer Haut spüren, beginnen Sie jedoch wieder zu laufen, so verspüren Sie sehr wohl eine kühlende Wirkung auf Ihrer Haut. Es ist so, als ob es windig wäre, dabei bewegen Sie sich und nicht die Luft, das Ergebnis ist jedoch das gleiche. Ähnlich dachte man beim Ätherwind: Der Äther an sich steht still, aber die Erde bewegt sich in ihm, so dass es in Bewegungsrichtung der Erde eine Art Wind geben müsste und quer zur Bewegungsrichtung natürlich kaum Wind zu verzeichnen sein dürfte. Michelson und Morley nahmen jetzt jedoch keine Flugzeuge um diesen Wind nachzuweisen, sondern Licht. Wenn Licht in Bewegungsrichtung der Erde fliegt und dann zurück, dann wäre es so als würde ein Flugzeug mit Rückenwind und Frontwind fliegen. Ein zweites Lichtteilchen, welches Senkrecht zum ersten fliegt, bräuchte dem zufolge weniger Zeit, ähnlich wie bei dem Flugzeug. Die beiden Wissenschaftler machten nun folgendes Experiment: Sie nahmen ein Platte und installierten darauf ein Gerät, welches in der Lage war, einzelne Lichtteilchen (ja, sie haben schon richtig gelesen: es gibt nicht nur Lichtwellen, sondern auch Lichtteilchen, aber dazu später mehr) zu emittieren. Eines ließen sie mit dem Ätherwind fliegen und eines senkrecht dazu. Über Spiegel wurden die Lichtteilchen reflektiert, so dass sie die Strecke einmal hin und zurück flogen. Zum Schluss wurden beide in einen Detektor (Teleskop) geleitet. Was hoffte man in diesem Teleskop zu sehen? Wenn wirklich eines der beiden Lichtteilchen schneller gewesen wäre als das andere, so hätten beiden Teilchen auch leicht zeitversetzt an dem Teleskop ankommen müssen. Dies hätte aber auch bedeutet, dass Wellenberg und Wellental leicht versetzt angekommen wären und Sie wissen ja bereits was das bedeutet: Wellenberge und Täler verstärken sich oder löschen sich aus. Man hätte also ein Hell-Dunkel-Muster angezeigt bekommen, ähnlich wie ich es im vorhergehenden Kapitel bereits erklärt habe. Doch es zeigte sich nicht! Man wiederholte den Versuchsaufbau sogar noch einmal auf einer Art Quecksilbersee um jegliche Außenbeeinflussung auszuschließen, aber das Experiment schlug abermals fehl. George Francis Fitzgerald (1851-1901) schlug daher vor, dass der Ätherwind schlicht und ergreifend so stark ist, dass er die Länge in Bewegungsrichtung des Windes zusammenstaucht. Dadurch müsste das Lichtteilchen eine geringere Strecke zurücklegen und wäre dadurch gleichzeitig mit dem anderen Lichtteilchen am Ziel. Später sollte ein niederländischer Physiker die hierzu passenden und nach ihm benannten Lorentz-Transformationen aufstellen, welche ich im nächsten Abschnitt genauer untersuchen möchte. Spätere Überlegungen des Seite 18 von 83 Copyright Stefan Frank Physikers Albert Einstein ließen ihn jedoch zur der Schlussfolgerung kommen, dass der Äther als nicht Existent abgeschrieben werden muss. Prinzipiell sollte der Äther ein Medium sein, in welchem sich Licht ausbreiten konnte. Sie haben jedoch bereits erfahren, dass dieses Trägermedium nicht mehr benötigt wurde, als die Theorie der elektromagnetischen Welle aufgestellt worden war. Einen direkten Einfluss des Äthers auf Materie konnte nicht nachgewiesen werden (die Kontraktion der Länge war ja nicht direkt messbar, sondern nur eine mögliche Erklärung für kürze Laufzeit des Lichts!), ebenso wenig ein Einfluss auf Lichtteilchen. Albert Einstein sagte daher, dass der Äther keinerlei Existenzberechtigung mehr habe. Für das Phänomen der gleichen Laufzeit der Lichtteilchen hatte er bereits eine andere Erklärung in der Schublade... Raum und Zeit sind nicht absolut – Die Lorentz-Transformationen Es verwunderte sehr, dass Licht, egal wie es fliegt, immer gleiche Zeit benötigt. Der niederländische Physiker Hendrik Antoon Lorentz (1853-1928) und der schon erwähnte George Francis Fitzgerald kamen auf die Idee, dass sich die Strecke in Bewegungsrichtung verkürzt. So wäre zu erklären gewesen, warum die eigentlich langsameren Lichtteilchen, welche dem Ätherwind ausgesetzt waren genauso schnell sind, wie die schnelleren Teilchen senkrecht zum Ätherwind. Erstere hatten einfach eine kürzere Strecke zurückzulegen. Dies klingt nicht nur für unsere Ohren eigentümlich, sondern Seite 19 von 83 Copyright Stefan Frank auch für die Ohren der damaligen Forscher. Aber es sollte die Grundlage für Einsteins Relativitätstheorie bilden. Lorentz ging noch viel weiter: Es erfolgt nicht nur eine Streckenverkürzung, sondern auch eine Verlangsamung der Zeit! Wenn Sie selber mal ausrechnen möchten, um wie viel langsamer Sie altern, wenn Sie über eine Straße fahren, dann können Sie folgende Formeln anwenden: Es gilt immer: v = Geschwindigkeit des Objektes in km/s (beispielsweise eines Autos) c = Lichtgeschwindigkeit (= 300.000 km/s) 1. Streckenveränderung: Wobei: srelativ = Länge der Strecke, wenn das Objekt in Bewegung ist s = Länge der Strecke, wenn das Objekt still steht 2. Zeitveränderung: Wobei: trelativ = Zeit, wenn das Objekt in Bewegung ist t = Zeit, wenn das Objekt still steht 3. Masseveränderung: Die Masseveränderung gehört nicht direkt zu den Lorenztransformationen, sie passt jedoch gut in das Konzept. Es ist nämlich bei zunehmender Geschwindigkeit tatsächlich Massezunahme festzustellen. Wobei: mrelativ = Masse, wenn das Objekt in Bewegung ist m = Masse, wenn das Objekt still steht Seite 20 von 83 Copyright Stefan Frank Ein Beispiel soll die Anwendung der Formeln verdeutlichen: Sie fahren mit 100 km/h über die Bundesstraße. Dies entspricht einer Geschwindigkeit in Kilometern je Sekunde von: Während für einen Beobachter, welcher am Straßenrand steht 1 Stunde (=60 Minuten = 3600 Sekunden) vergeht, ist für Sie gerade mal eine Zeit von vergangen. Die Zeit vergeht für Sie also um 0.0000000000146 Sekunden langsamer. Sie sehen: Ein Quell ewiger Jugend ist die Relativitätstheorie nicht gerade. Eine weitere Tatsache resultiert aus den Lorentztransformationen: Das Verkürzen einer Strecke, das Langsamergehen der Zeit, die Zunahme der Masse, all dies gilt nur in Bewegungsrichtung des Objektes, soll heißen: Objekte, die sich rechts oder links von der bewegten Materie befinden sind von der Transformation nicht betroffen! Aus diesen Erkenntnissen resultiert Einsteins Relativitätstheorie, welche im nächsten Kapitel genauer erläutert werden soll. Grundlage bildet auch hier die Konstanz der Lichtgeschwindigkeit. Zusammenfassung Lichtgeschwindigkeit ist nicht unendlich, jedoch sehr groß: ca. 300.000 km/s. Die Strecke, welche Licht in einem Jahr zurücklegt wird Lichtjahr genannt. Um den Äther nachzuweisen, führten Michelson und Morley das nach ihnen benannte Interferometerexperiment durch. Dies baut auf der Tatsache auf, dass Teilchen, welche mit Front- und Rückenwind zu kämpfen haben für die gleiche Strecke länger brauchen, als wenn sie nur mit Seitenwind zurechtkommen müssen. Als das erwartete Interferenzmuster nicht erschien, begannen Hendrik Antoon Lorentz und George Francis Fitzgerald darüber nachzudenken, ob die Strecke in Windrichtung nicht einfach verkürzt wird, so dass ein gleichzeitiges Eintreffen der Teilchen wieder zu erklären wäre. Das Ergebnis dieser Überlegungen waren die Lorentztransformationen. Seite 21 von 83 Copyright Stefan Frank - Kapitel 5 Albert Einstein – Die spezielle Relativitätstheorie Kaum ein Physiker hat es zu solch einem Weltruhm gebracht wie Albert Einstein (1879-1955). Jedem Kind ist er bekannt, genauso wie die, von ihm Entwickelte Formel E=mc². Berühmt geworden ist er durch seine Relativitättheorie, die ich Ihnen hier näher bringen möchte. Sie klingt nicht nur für uns völlig verrückt, sondern auch für Mitglieder der wissenschaftlichen Zunft seiner Zeit. Daher bekam er den Nobelpreis auch nicht für seine weltbekannte Theorie, wie oft fälschlicher weise angenommen wird, sondern für seine Beiträge zum sog. photoelektrischen Effekt. Die Lichtgeschwindigkeit als unveränderliche Konstante Stellen Sie sich vor: Sie fahren in einem Zug mit einer Geschwindigkeit von 50 km/h. Zusätzlich bewegen Sie sich mit 5 km/h in die Fahrtrichtung des Zuges. An den Gleisen steht eine weitere Person und beobachtet die Situation. Sie wird feststellen, dass Sie sich mit einer Geschwindigkeit von 50 km/h + 5 km/h, also 55 km/h fortbewegen. Sie hingegen glauben weiterhin nur mit 5 km/h zu laufen. Geschwindigkeit ist also rein subjektiv, wir können nicht objektiv feststellen, wie groß unsere Geschwindigkeit ist, da die Beobachtung vom Standpunkt abhängt - die Geschwindigkeit ist also relativ! Ein anderes Beispiel: Nun bewegen Sie sich in einem 50 km/h schnellen Zug mit 5 km/h entgegengesetzt zur Fahrtrichtung. Während sie 5 km/h schnell laufen, hat die außenstehende Person den Eindruck, dass sie sich mit 50 km/h - 5 km/h = 45 km/h fortbewegen. Sie sehen, der Eindruck wie schnell wir uns bewegen ist relativ. Auch hier ist es nicht möglich die absolute Geschwindigkeit zu bestimmen. Oder können Sie die Frage beantworten, wie schnell unsere Erde durch das Universum fliegt? Sie können die Geschwindigkeit unserer Erde nur in Bezug auf andere Planeten angeben, doch wird dieser Bezugsplanet ebenfalls eine Geschwindigkeit aufweisen. Weiterhin können wir nicht ausschließen, dass unser Universum ebenfalls einer bestimmten Bewegung unterliegt, und so weiter. Daher können wir nie feststellen wie schnell wir uns absolut bewegen. Dies formulierte Einstein in zwei Postulaten: 1. Postulat: Die Lichtgeschwindigkeit ist immer und überall für alle Beobachter gleich. 2. Postulat: Wir können nie feststellen wie schnell wir uns absolut bewegen und können daher annehmen wir selber stehen still und unsere Umwelt bewegt sich. Jetzt stellen wir uns das oben durchgeführte Experiment nocheinmal vor. Im Unterschied zu vorher ist jetzt jedoch ein Lichtteilchen in Bewegung, welches von einer Lichtquelle in der Mitte eines Zugwaggons ausgesendet wird. Was erwarten wir wird passieren? Es kann angenommen werden, dass das Licht mit einer Geschwindigkeit von 300.000 km/s von der Quelle wegfliegen wird. Der Zug fährt mit einer Geschwindigkeit von 50 km/h, oder anders ausgedrückt: 0,014 km/s (50 km/h : 60 Minuten : 60 Sekunden = ca. 0,014 km/s). Parallel zu unserem vorhergehenden Experiment würden wir folgendes erwarten: Das Licht benötigt zum Erreichen der rechten Wand des Waggons Seite 22 von 83 Copyright Stefan Frank etwas länger, als zum erreichen der linken Waggonwand, da sich erstere ja auf die Lichtquelle zu bewegt, während sich die andere Wand von der Lichtquelle entfernt. Albert Einstein, der auf dem Bahnsteig das Experiment verfolgt erkennt tatsächlich eine Diskrepanz zwischen dem Zeitpunkt des Eintreffens an der linken und rechten Waggonwand. Was bedeutet dies aber für einen Insassen des Zuges, der die Lichtgeschwindigkeit misst: Der Insasse, nehmen wir an er sei Diplomphysiker, kennt die Lichtgeschwindigkeit von 300.000 km/s. Weiterhin ist ihm Einsteins zweites Postulat bekannt, welches besagt, dass die Absolutgeschwindigkeit nicht ermittelt werden kann. Er wird zwar relativ leicht herausfinden können wie schnell der Zug ist, aber er wird nicht sagen können wie schnell die Erde durch das Universum reist, geschweige denn welche Geschwindigkeit das gesamte Universum hat. Daher ist für ihn die Geschwindigkeit des Zuges zunächst bedeutungslos. Da die Entfernung Lichtquelle und Waggonwand sowohl nach rechts, als auch nach links gleich ist, jedoch trotzdem das Licht zu unterschiedlichen Zeitpunkten an den Wänden ankommt (wie unser außenstehender Einstein erkannt hat), müsste auch das Licht unterschiedlich Geschwindigkeiten haben (aus Sicht des Insassen, denn den interessiert die eigene Geschwindigkeit nicht, er kann davon ausgehen, dass er stillsteht). Doch was besagt Einsteins Postulat: Die Lichtgeschwindigkeit ist konstant und lässt sich nicht verändern! Führt man das Experiment in der Realität durch, so wird man feststellen: Das Licht breitet sich in alle Richtungen gleich schnell aus. Egal wie schnell der Zug fährt, die Lichtgeschwindigkeit bleibt immer gleich und das Licht wird beide Wände - aus Sicht des Zuginsassen - gleichzeitig erreichen. Und was sieht unser Außenbeobachter? Der stellt die Fluggeschwindigkeit des Lichts von 300.000 km/s fest, erkennt aber gleichzeitig, dass das Licht zum erreiche der linken Wand weniger Zeit benötigt als zum erreichen der rechten Wand. Wer von den beiden hat nun recht? Der Innenbeobachter, der sieht, wie beide Lichtstrahlen gleichzeitig die Wände berühren, oder der Außenbeobachter, der sieht wie beide Wände zu unterschiedlichen Zeitpunkten von den Leichtteilchen erreicht werden? Die Antwort ist so einfach wie verblüffend: Beide haben recht! Herzlich willkommen in der verrückten Welt der Relativitätstheorie. Unser Begriff der Gleichzeitigkeit wird vernichtet, Zeit und Raum sind nicht mehr das was sie einmal waren - sind nicht konstant, sie sind variabel! Der Teil der Relativitätstheorie, der sich mit diesem Phänomen beschäftigt nennt man die „Spezielle Relativitätstheorie“. Analysieren wir das Ergebnis etwas genauer: Wenn für unseren Beobachter im Waggon beide Lichtstrahlen gleichzeitig eintreffen, für den Außenstehenden jedoch nicht, ist das zwangsläufig die Konsequenz daraus, dass der Raum eine Veränderung erfahren hat. Diese Veränderung erfolgte genau so, dass Albert das gleichzeitige Eintreffen der Quanten innerhalb des Zuges erklären kann. Aus weiteren Überlegungen, resultierend aus der Raumveränderung, kommt man zu dem Schluss, dass auch die Zeit eine Veränderung erfahren haben muss. Seite 23 von 83 Copyright Stefan Frank Warum man den Äther nicht mehr braucht Zunächst möchte ich Ihnen das oben gesagte an einem Beispiel verdeutlichen: Gegeben sei wieder ein Zug mit einem Beobachter. Die Länge des Waggons beträgt 600.000 km (naja, nicht ganz realistisch, lässt sich aber leichter rechnen) und er bewegt sich mit einer Geschwindigkeit von 150.000 km/s. In der Mitte befindet sich abermals ein Emissionsgerät, welches Lichtteilchen aussendet. Ein solches Lichtteilchen muss also die Halbe Waggonlänge von 300.000 km zurücklegen um die Waggonwand zu erreichen und abermals 300.000 km um zum Emissionsgerät zurückzukehren, wenn dieses von einem Wandspiegel reflektiert wird. Das Emissionsgerät wiederum verfügt über einen Detektor, der meldet, ob die Teilchen wieder eingetroffen sind. Gegeben: v=150.000 km/s, s=2 x 300.000 km pro Teilchen, c = 300.000 km/s An den Schienen wartet Albert Einstein und beobachtet die Situation. Nun werden die Lichtquanten ausgesandt und das Ergebnis ist doch sehr verblüffend: Zwar treffen für jeden der Beobachter die Quanten gleichzeitig wieder am Detektor ein, jedoch benötigte das Licht eine unterschiedliche Laufzeit. Der Insasse stellt ein gleichzeitiges Eintreffen nach 2 Sekunden fest, denn bei einer Lichtgeschwindigkeit von 300.000 km/s benötigen die Teilchen jeweils gerade 2 Sekunden für die 600.000 km lange Hin- und Rückflugstrecke. Bei Albert sieht das etwas anders aus: Zwar beträgt bei ihm die Lichtgeschwindigkeit auch 300.000 km/s, jedoch ist die Strecke, welche das Licht zurücklegen muss, etwas länger. Betrechten wir nur das rechte Teilchen: Es fliegt zunächst in Fahrtrichtung, muss also die Wand, welche ständig vor dem Teilchen „flieht“ erst einmal einholen. Diese Strecke ist auf jeden Fall schon einmal länger als 300.000 km. Zwar wird die Strecke auf dem Rückflug wieder kürzer, weil der Detektor nun direkt auf das entgegengesetzt zur Fahrtrichtung fliegende Teilchen zusteuert, diese Streckenverkürzung kann jedoch die vorhergehende Streckenverlängerung nicht mehr ausgleichen. Resultat: Für Einstein braucht das Licht 2,67 Sekunden (das gleiche gilt natürlich auch für das linke Teilchen). Nach reichlicher Überlegung kommt Albert auf die Lösung des Problems: Wenn immer und überall die Lichtgeschwindigkeit gleich ist, das Licht aber für ihn selber 2,67 Sekunden zum Erreichen der Wände gebraucht hat, für den Insassen jedoch nur 2 Sekunden, dann müssen die Abstände der Wände zum Detektor verkürzt sein. Diese so gestauchte Strecke kann das Licht in 2 Sekunden zurücklegen. Wie groß diese Stauchung ist, sagen uns die Lorentztransformationen: Die Strecken „Zug – rechte Wand“ und „Zug – linke Wand“ sind also jeweils um ca. 40.000 km geschrumpft. Hieraus resultiert allerdings ein weiteres zeitliches Problem. Wenn die Gesamtstrecke pro Teilchen wirklich 600.000 km lang ist, dann kann man leicht die benötigte Zeit des Lichts für Seite 24 von 83 Copyright Stefan Frank das Zurücklegen dieser Strecke ausrechnen, denn es gilt die Formel: Die Geschwindigkeit v eines Objektes (z. B. eines Autos) ergibt sich demnach durch Division der zurückgelegten Strecke s durch die dafür benötigte Zeit t. Diese Formel kann man leicht nach t umstellen: Setzt man hierfür unsere gegebenen Werte ein, so erhält man: s 600.000 km t= = =2s v km 300.000 s Albert hat jedoch ausgerechnet, dass die Strecke jeweils etwas geschrumpft sein muss (und zwar um je ca. 40.000 km). Für diese Strecke muss das Licht auch weniger Zeit benötigt haben als für 300.000 km! Der Innenbeobachter bestätigt jedoch die Dauer von zwei Sekunden. Albert Einstein schließt daraus: Die Uhr des Insassen ging etwas langsamer! Auch dies kann man berechnen: Vergeht für Albert eine Sekunde, so für den Insassen nur 0,87 Sekunden. Vergehen außerhalb des Zuges zwei Sekunden, so für den Insassen logisch nur 0,87 * 2 = 1,74 Sekunden usw.. Setzt man diese Erkenntnisse in die Formel zur Geschwindigkeitsberechnung ein, so erhält man tatsächlich wieder die Lichtgeschwindigkeit: Das verblüffende Ergebnis: Während der Insasse eine Strecke „Wand – Emissionsgerät“ von 300.000 km ermittelt, muss die Strecke von Alberts Position aus in Wirklichkeit kürzer gewesen sein, nämlich nur ca. 260.000 km. Und während für den Insassen eine Zeit von einer Sekunde verstrich, sind nach Alberts Auffassung nur 0,87 Sekunden innerhalb des Zuges vergangen. Die Zeit innerhalb des Zuges vergeht also 150.000 km/s langsamer! Logische Schlussfolgerung: Für die Diskrepanz zwischen unseren Messungen gibt es für mich nur eine Erklärung: Der Zug muss in Fahrtrichtung Auch der Alterungsprozess des Insassen etwas geschrumpft sein. So hat das Licht eine kürzere Strecke zurückzulegen und die beiden Lichtteilchen können ist verlangsamt. Dieses Phänomen ist den Detektor schon nach zwei Sekunden erreichen. Da das unter dem Begriff Zwillings-Paradoxon Licht nun eine kürzere Strecke zurücklegen muss, ist es nötig den Verlauf der Zeit anzupassen, damit die bekannt geworden: Wenn einer von zwei Lichtgeschwindigkeit auch für den Insassen weiterhin konstant bleibt. Brüdern eine interstellare Rakete besteigt und mit nahezu Lichtgeschwindigkeit durch das Weltall reist, so wird er nach einiger Zeit eine erschreckende Feststellung machen, wenn er wieder auf der Erde angekommen ist: Während dieser Seite 25 von 83 Copyright Stefan Frank jugendlich aus der Rakete steigt, empfängt ihn sein 80 Jahre Alter Bruder für den die Zeit außerhalb der Rakete weiterhin „normal“ verlaufen ist. George Francis Fitzgerald war der Auffassung, dass der Ätherwind eine Strecke stauchen könnte und so die Leichtteilchen trotz Gegen- und Seitenwind gleichzeitig eintreffen könnten. Nimmt man jedoch an, der Ätherwind existiert nicht, so ist es auch nicht verwunderlich, dass das Licht beide Strecken in der gleichen Zeit abläuft, denn es existiert nichts, was das Licht aufhalten würde. Diese Selbstverständlichkeit scheint jedoch nur auf dem ersten Blick offensichtlich. Schaut man etwas genauer hin, so ist etwas seltsames festzustellen: Die Erde ist in Bewegung und dreht sich um die Sonne. Wird nun ein Lichtteilchen emittiert, so muss eines eine längere Strecke zurücklegen, als das andere, wie die Grafik zeigt. Das vertikal fliegende Teilchen hat keinen geraden Weg, sondern muss eine diagonale Strecke bewältigen, trotzdem kommen beide Teilchen gleichzeitig an. Um diese Diskrepanz mathematisch wieder auszugleichen muss die horizontale Flugstrecke leicht verkürzt werden. Ich darf Sie daran erinnern, dass man die vertikale Flugrichtung nicht einfach verkürzen darf! Die Relativitätstheorie gilt nur in Flugrichtung, Objekte die sich rechts oder links von dieser Strecke befinden, bzw. Strecken welche senkrecht zur Flugrichtung stehen werden von den relativistischen Auswirkungen nicht erfasst. Auch wenn der Äther also als nicht Existent angesehen wird, muss eine Strecke gestaucht worden sein, da sonst das gleichzeitige Eintreffen der Teilchen nicht zu erklären wäre. E = mc² und das Problem von Masse und Energie Zunächst möchte ich zwei Begriffe erklären, welche oft verwandt werden, oftmals ohne zu wissen was der genaue Bedeutungshintergrund ist. Der erste zu erklärende Begriff ist Kraft: Nach der newtonschen Mechanik ist Kraft die Beschleunigung, welche auf eine Masse einwirkt. Nach Newton hat jeder Körper den inneren Drang sich gerade und gleichförmig zu bewegen. Tut dies ein Körper nicht so wirkt eine Kraft ein. Fällt ein Apfel auf die Erde und bleibt dort liegen, so hindert die Schwerkraft diesen an der geraden gleichförmigen Bewegung. Werfe ich einen Ball, so erhöhe ich dessen Geschwindigkeit (ich beschleunige ihn), fange ich ihn ein, so bremse ich diesen ab (negative Beschleunigung). Kraft (F) ist somit eine Beschleunigung a, welche auf eine Masse m einwirkt: Je nachdem wie lange ich eine Kraft auf einen Körper ausübe und diesem um eine Strecke s Seite 26 von 83 Copyright Stefan Frank verschiebe, um so mehr Energie (E) übertrage ich, womit der zweite Begriff erklärt währe. Energie ist also eine Kraft, die ich auf eine bestimmte Strecke aufwende. Unter Beschleunigung versteht man physikalisch das Verhältnis von erreichter Geschwindigkeit zur dafür benötigten Zeit: Wenn ich also aus dem Stand in 10 s auf 50 m/s beschleunige, so habe ich eine Beschleunigung von 5 m/s² vorliegen. Die erreichte Endgeschwindgkeit sei ab sofort mit dem Index „Ende“ versehen. Setzt man obige Gleichung für a in die Kraftgleichung ein, so ergibt sich: Durch Substitution des F in der Energiegleichung erhält man: Auch das s in obiger Gleichung lässt sich weiter umformen. Hat man eine gleichförmige, geradlinige Bewegung vorliegen, so gilt für s: Somit erhält man für E: Ein Lichtteilchen hat die Eigenschaft, dass es immer die gleiche Geschwindigkeit hat, egal wo und wann man misst: Wendet man diese Erkenntnis auf die Energiegleichung an, so erhält man etwas, was Ihnen sicherlich bekannt vorkommen dürfte: In Science-Fiction-Serien wird immer wieder beschrieben wie Raumschiffe die Lichtgeschwindigkeit überschreiten und mit über 300.000 km/s fliegen. Dies funktioniert aber wirklich nur bei Raumschiff Enterprise, mit der Realität hat das leider sehr wenig zu tun - dafür um so mehr mit Relativität. Albert Einsteins Theorie informiert uns nämlich über eine erschreckende Tatsache: Wir werden nie mit Lichtgeschwindigkeit fliegen können. Für Flüge mit Lichtgeschwindigkeit wäre eine unendlich große Energie von Nöten, die Länge jedes Gegenstandes würde auf das unendlich kleine schrumpfen und die Masse des Körpers an sich würde unendlich groß. Beweis Anhand der Lorentztransformationen: 1. Streckenproblem: 2. Zeitproblem: Seite 27 von 83 Copyright Stefan Frank 3. Massenproblem: Es gibt tatsächlich Möglichkeiten Teilchen auf nahezu Lichtgeschwindigkeit zu beschleunigen. Dies geschieht im Teilchenbeschleuniger des Kernforschungszentrums CERN bei Genf. Man hat festgestellt, dass z. B. ein Elektron im Ruhezustand weniger Masse aufweist als im beschleunigten. Wie kann man das erklären? Ich habe Sie ja bereits mit dem atomaren Aufbau unserer Welt vertraut gemacht. Ein Mensch wiegt auf der Erde um einiges mehr als auf dem Mond, weil hier die Schwerkraft größer ist. Die Masse eines Menschen bleibt jedoch unverändert, da die Anzahl der Atome aus dem der Körper zusammengesetzt ist keiner Veränderung unterliegt. Wenn man jedoch in Bewegung ist - dies hat man in CERN bewiesen - scheint die Masse größer zu werden, als würden Atome aus dem Nichts hinzukommen. Dem beschleunigten Körper fügt man außer Energie jedoch nichts weiter hinzu. Sollte dies vielleicht bedeuten, dass Energie in Masse umgewandelt werden kann? Albert Einstein sagt: "Ja!". Dies resultiert direkt aus seiner Formel E=mc². In der Zwischenzeit ist bewiesen, dass man aus Masse sehr, sehr viel Energie gewinnen kann, denn jedes Atomkraftwerke baut auf dieser Tatsache auf. Aus Energie lässt sich im Umkehrschluss jedoch auch Masse gewinnen: Wenn man ein Stück Eisen erhitzt wird das Metall im heißen Zustand mehr wiegen als vorher, da man Energie hinzugefügt hat - und Energie ist gleich Materie. In CERN wurden entsprechende Experimente durchgeführt - aus purer Energie wurde reine Materie. Der Vollständigkeit halber sei hier noch die Tachyonen-Theorie erwähnt, auch wenn diese auf zweifelhaftem Fundament steht. Tachyonen, so die Vorstellung, sind Teilchen, welche sich schneller als Licht bewegen können. Gary Feinberg untersuchte die Relativitätstheorie auf Fälle von Überlichtgeschwindigkeit und erkannte, dass die Theorie sehr wohl solche Fälle zulässt. Teilchen, welche sich jedoch mit Überlichtgeschwindigkeit bewegen müssten masselos sein (ähnlich dem Lichtteilchen) und könnten ihre Geschwindigkeiten nicht unter Lichtgeschwindigkeit reduzieren. Auch für sie wäre also die Barriere von ca. 300.000 km/s unüberwindbar, halt nur von der anderen Seite. Zwar ist diese Theorie mathematisch fundiert, bis jetzt konnten diese Teilchen jedoch nicht nachgewiesen werden. Zusammenfassung Geschwindigkeit ist relativ und nicht absolut messbar. Wir können immer nur feststellen wie schnell wir uns relativ zu einem Bezugspunkt bewegen. Da wir jedoch nicht von einem Stillstand dieses Bezugspunktes ausgehen können, ist unsere Absolutgeschwindigkeit nicht messbar. Wir können also auch genauso gut davon ausgehen, dass wir stillstehen und sich das Universum um uns bewegt. Da die Lichtgeschwindigkeit konstant ist, ergibt sich hieraus das Phänomen von Längenund Zeitkontraktion. Eine Erhöhung der Geschwindigkeit eines Objektes ist nur durch Energiezufuhr möglich. Da jedoch, nach Einstein, Energie gleichzusetzen ist mit Masse (E=mc²), ist bei höheren Geschwindigkeiten auch eine Massezunahme festzustellen. Eine Überschreitung der Lichtgeschwindigkeit ist nicht möglich, es sei denn Teilchen sind bereits von Natur aus mit Überlichtgeschwindigkeit ausgestattet. Diese hypothetischen Tachyon-Teilchen können die Lichtgeschwindigkeit jedoch nicht unterschreiten. Seite 28 von 83 Copyright Stefan Frank - Kapitel 6 Was ist Gravitation? Die allgemeine Relativitätstheorie Newtons Gleichungen erklärten wie die Planeten um die Sonnen kreisen - und dies auch sehr genau. Doch gab es ein Problem, welches Newton nicht zu lösen vermochte: Neben der Tatsache, dass er die Schwerkraft an sich nicht deuten konnte, war es ihm auch nicht möglich die Fehler in der Umlaufbahn des sonnennächsten Planeten Merkur zu lösen. Mit jedem Umlauf des Merkurs um die Sonne verschiebt sich seine Umlaufbahn etwas zu vorhergehenden. Die bestehende Gravitationstheorie konnte diese Abweichungen nicht richtig vorhersagen. Man vermutete die Existenz eines weiteren Planeten, den man bisher noch nicht entdeckt hatte und der diese Abweichung verursacht - man nannte ihn „Vulkan“. Heute ist er wohl aus der Serie Raumschiff Enterprise bekannt, dessen Besatzungsmitglied Mr. Spock von diesem Planeten stammt. Einstein löste das Problem und erklärte ganz nebenbei noch, was eigentlich Schwerkraft ist. Das Raum-Zeit-Kontinuum Dazu müssen wir uns das so genannte Raum-Zeit-Kontinuum genauer betrachten. Der Raum besteht zunächst aus den drei bekannten Koordinaten: Länge, Breite und Höhe. Mit diesen Koordinaten können wir jeden x-beliebigen Punkt genau festlegen. Um einen Punkt in der Geschichte genau ansprechen zu können, benötigen wir neben diesen Angaben noch eine vierte - die Zeit. Soweit erscheint uns das ja auch noch logisch. Stellen Sie sich nun ein Schattenspiel vor. Die Bewohner einer „Schatten-Spiel-Stadt“ kennen keine Tiefe, das bedeutet sie haben nur zwei Dimensionen zur Verfügung: die Länge und die Breite. Es ist für diese Wesen schier unvorstellbar, dass es noch eine dritte Dimension gibt - die Tiefe nämlich. Was für uns völlig selbstverständlich ist, ist für diese Wesen völlig fremd. Und genau so schwer, wie es für diese Wesen ist, sich eine dritte Dimension vorzustellen, ist es für uns nahezu unmöglich eine vierte Dimension zu veranschaulichen. Aber genau das sagt Albert Einstein: So wie Länge, Breite und Höhe miteinander unzertrennlich verknüpft sind, so ist auch die Zeit untrennbar mit diesen drei Dimensionen verbunden: dies ist das so genannte Raum-Zeit-Kontinuum. Und jede Masse, egal wie groß oder wie klein sie ist, beugt dieses Kontinuum, die Masse macht sozusagen eine Delle in die Raumzeit. Wie schon erklärt hat jede Masse den drang eine geradlinige, gleichförmige Bewegung zu vollziehen. Wollen wir dies verhindern, so müssen wir eine Kraft aufwenden um die Masse umzulenken, abzubremsen oder zu beschleunigen. Auch Planeten haben demnach den Drang einer geradlinigen, gleichförmigen Bewegung, sie werden jedoch daran gehindert, da die Gravitationskraft anderer Planeten bzw. Sterne (z.B. die Sonne) eine beeinflussende Kraft auf andere Planeten ausübt. Albert Einstein deutete die Gravitation als eine Verwerfung (also eine Krümmung) der Raumzeit. Stellen Sie sich ein gespanntes Gummituch vor. In die Mitte legen Sie ein schweres rundes Objekt, so dass das Gummituch eingedrückt wird. Nun nehmen Sie beispielsweise eine Murmel und lassen sie um das mittlere Objekt kreisen. Die Murmel wird sich um den Mittelpunkt drehen, dabei die Form ihrer Umlaufbahn permanent verändert und schließlich in den Mittelpunkt stürzen. Das Gummituch soll dabei natürlich die Raumzeit und die Murmeln die Planeten symbolisieren. Albert Einstein löste somit das Problem der Gravitation und gleichzeitig Newtons Gesetze ab. Sie werden allerdings aus Einfachheitsgründen heute immer noch angewendet, da Einsteins Formeln einfach zu komplex sind und der Unterschied in der Regel minimal ist. Seite 29 von 83 Copyright Stefan Frank Das Verhalten von Licht in der Raumzeit - das Äquivalenzprinzip Stellen Sie sich vor, Sie sie sind in einen Fahrstuhl eingestiegen, jedoch nicht in einem x-beliebigen sondern in einem speziellen - ein Fahrstuhl der mitten in der Unendlichkeit des Raumes verkehrt. Normalerweise gibt es hier keine Schwerkraft, sie würden also in ihrem Fahrstuhl umherschweben. Stellen Sie sich weiter vor, der Fahrstuhl fährt nun an. Wenn er eine bestimmte Geschwindigkeit erreicht hat können Sie nicht mehr unterscheiden, ob Sie in einem Fahrstuhl nach oben fahren, oder ob plötzlich eine höhere Macht die Schwerkraft in dem Fahrstuhl eingeschaltet hat. Beide Erscheinungsbilder sind vollkommen gleich - die Beschleunigung nach oben und die Schwerkraft dies nennt man das Äquivalenzprinzip. Stellen Sie sich weiter vor in den Fahrstuhl fällt durch ein kleines Loch ein Lichtteilchen in das Innere der Kabine. Was werden Sie sehen? Das Lichtteilchen fliegt gerade aus. Sie bewegen sich jedoch mit dem Fahrstuhl nach oben und plötzlich erscheint es Ihnen als würde das Lichtteilchen in Bezug auf die Kabine gekrümmt. Wenn die Beschleunigung des Fahrstuhls und die Schwerkraft äquivalent sind, sollte dann vielleicht ein vergleichbarer Lichteffekt auch bei Körpern vorkommen, die Schwerkraft ausüben? Die Antwort auf die Frage: Ja! Licht wird tatsächlich an der Erde oder anderen Objekten gekrümmt. Was hat das für Seite 30 von 83 Copyright Stefan Frank folgen? Nun, wenn wir in den Himmel schauen können wir, so glaubten wir bisher, die Position der Sterne kartographieren, indem wir uns die Himmelspositionen auf eine Karte übertragen. Dies geht nun nicht mehr! Wenn ein anderer Planet das Licht beugt, kann der Stern in Wirklichkeit an einer ganz anderen versetzten Stellen aufzufinden sein, wie folgendes Bild zeigt: Einsteins größter Fehler Resultierend aus seiner Relativitätstheorie machte Albert Einstein eine erschreckende Entdeckung: Der Weltraum ist nicht konstant sondern expandiert! Diese Erkenntnis war zu Einsteins Zeiten revolutionär, doch war das Bild eines statischen Universums zu sehr in den Gedanken der Menschen verankert. Auch Einstein konnte sich mit einem expandierenden Universum nicht abfinden und korrigierte daher seine Gleichungen - er führte einen konstanten Wert ein, der der Expansion sozusagen entgegenwirkt: es handelt sich um die „Kosmologische Konstante“. Der amerikanische Astronom Edwin Hubble (1889-1953) entdeckte etwas was später Hubble-Effekt genannt werden sollte. Es war der schlagende beweis dafür, dass Albert Einstein falsch lag: Das Universum expandiert! Einstein bezeichnete die kosmologische Konstante später als größten Fehler seines Lebens. Was ist der Hubble-Effekt? Zunächst muss man wissen, dass Hubble zwei physikalische Erkenntnisse kombiniert hat: den Doppler-Effekt und die Frauenhoferlinien im Lichtspektrum. Den Doppler-Effekt können wir jeden Tag selber beobachten: Wenn wir an einer Straßenkreuzung stehen und ein Feuerwehrfahrzeug mit Blaulicht und Martinshorn heranfahren hören, dann machen wir eine bemerkenswerte Feststellung: Um so näher das Einsatzfahrzeug an uns heranfährt, um so höher erscheint uns der Klang der Sirene. Dies ist keine Einbildung, sondern ein logisches Resultat, wenn man sich den Schall genauer ansieht. Der Schall besteht aus Wellen, die sich in einem Medium, in der Regel Luft, fortpflanzen. Diese Wellen werden in regelmäßigen Abständen von dem Seite 31 von 83 Copyright Stefan Frank Martinshorn abgegeben und treffen dann auf unser Gehör, wo die Daten durch unser Gehirn weiterverarbeitet werden. Um so näher das Fahrzeug kommt, um so mehr Schallwellen pro Zeiteinheit treffen auf unser Ohr. Nehmen wir an das Fahrzeug ist noch zwei Meter von uns entfernt und sendet nun Schallwellen aus, so treffen diese Wellen wenig später auf unser Gehör. In der Zwischenzeit ist das Fahrzeug jedoch wieder etwas auf uns zu gekommen. Die nun ausgesandten Wellen werden zwar später emittiert, sie müssen dafür aber auch eine kürze Strecke zu uns zurücklegen. Somit werden diese Wellen fast gleichzeitig mit den anderen, vorher ausgesandten Wellen eintreffen. Um so näher das Fahrzeug kommt, um so mehr Wellen treffen nach diesem Prinzip auf unser Gehör. Um so mehr Wellen auf unser Ohr treffen, um so höher kommt uns der Klang vor. Das gleiche geht natürlich auch andersherum: Wenn das Fahrzeug an uns vorbeigefahren ist, treffen weniger Wellen pro Zeiteinheit bei uns ein und der Klang wird wieder tiefer. Licht besteht ja ebenfalls aus Wellen. Könnte man da ähnliche Erfahrungen machen? Es stellte sich heraus, dass tatsächlich ein ähnlicher Effekt verzeichnet werden kann. Dabei helfen die sog. Frauenhoferlinien im Lichtspektrum weiter: Man nehme ein beliebiges Element, bestrahle es mit weißem Licht und schicke den Lichtanteil, der von dem Körper zurückgeworfen wird durch ein Prisma und lasse das Licht in seine Spektralfarben zerlegen. Das Ergebnis sind z.B. die Farben des Regenbogens, jedoch sind in gewissen Abständen kleine schwarze Streifen zu erkennen. In diesen Bereichen ist Licht von dem bestrahlten Element absorbiert und nicht reflektiert worden. Jedes Element hat seine charakteristischen Spektrallinien (auch Frauenhoferlinien genannt). Man könnte sagen, die Frauenhoferlinien sind der Fingerabdruck eines jeden Elementes. Auf diese Art und Weise lässt sich auch feststellen aus welchen Elementen entfernte Sterne zusammengesetzt sind ohne diese selber betreten zu müssen: Man zerlegt einfach das ankommende Licht in sein Spektrum. Betrachtet man das Lichtspektrum weiter, so stellt man fest, dass beim linken Spektrum (der Bereich des ultravioletten Lichtes) die Abstände zwischen Wellenberg und Wellental sehr gering sind, um so weiter man im Spektrum nach rechts geht (der Bereich des infraroten Lichtes), um so größer werden die Abstände zwischen Wellenberg und Wellental. Man könnte vereinfacht sagen: im rechten Spektrum treten pro Zeiteinheit weniger Wellen auf als im linken Spektrum, aber dies habe ich Ihnen ja bereits erklärt. Als Hubble das Licht entfernter Galaxien beobachtete sah er, dass die Spektrallinien der Stoffe leicht in das rote, rechte Spektrum verschoben worden waren. In Kombination mit dem DopplerEffekt konnte er sich dies erklären: Die Galaxien entfernen sich, ähnlich dem Feuerwehrfahrzeug. Hierdurch treffen weniger Lichtwellen pro Zeiteinheit auf unsere Augen. Zwischen Wellenberg und Wellental ist eine größer Lücke vorzufinden - resultierend aus diesem Effekt werden die Frauenhoferlinien leicht in das rote, rechte Spektrum verschoben. Ich habe nicht um sonst so viel Zeit für die Erklärung dieses Effektes verwendet. Schließlich beschreibt der Hubble-Effekt eine völlig neue Sichtweise unserer Welt. Durch die Expansion des Weltalls können wir darauf schließen, dass es eine Zeit gegeben haben muss, in der die gesamte Masse des Universums auf einen Ort konzentriert war. Wenn das All also einen Anfang hatte, hat es dann auch ein Ende? Welche Bedeutung hat dies für die Quantentheorie? Kann Sie Auskunft über das Kommende oder Vergangene geben? Fragen über Fragen und wir wollen sehen, was die Quantentheorie dazu sagt. Los geht's im nächsten Kapitel. Seite 32 von 83 Copyright Stefan Frank Zusammenfassung Albert Einstein prägte den Begriff der Raumzeit bzw. des Raum-Zeit-Kontinuums. Demnach sind die drei Raumkoordinaten und die Zeit untrennbar miteinander verwoben. Eine Masse, egal wie klein, krümmt dieses Raum-Zeit-Kontinuum. Verwerfungen der Raumzeit sind für die gravimetrischen Effekte verantwortlich. Einstein erkannte weiter, dass Trägheits- und Schwerefeld vergleichbar (äquivalent) sind. Ob ein Fahrstuhl nach oben fährt und dadurch Masseträgheit hervorgerufen wird, oder ob der Fahrstuhl einem Schwerefeld ausgesetzt ist, lässt sich nicht unterscheiden. Hieraus resultiert die Krümmung von Licht an massereichen Objekten. Aus seinen Überlegungen schloss Einstein, dass es eine treibende Kraft geben müsse, die das Universum expandieren lässt. Um dies zu verhindern, führte er eine Gegenkraft ein - die kosmologische Konstante. Edwin Hubble konnte jedoch durch seine Beobachtungen eine Expansion des Universums nachweisen, was die kosmologische Konstante widerlegte. Seite 33 von 83 Copyright Stefan Frank - Kapitel 7 Das Problem des schwarzen Körpers – Geburtsstunde der Quantentheorie Mit der Wellentheorie ließen sich viele physikalische Phänomene beschreiben, so z.B. die Brechung und Reflexion des Lichts und nicht zu vergessen die Interferenz und das daraus resultierende Muster. Wir haben jedoch nicht nur einmal feststellen müssen, dass Theorien oftmals nur eine kurze Halbwertzeit haben, da es Versuche gibt, die sich mit dem vorhandenen Modell nicht exakt beschreiben lassen. So war es auch mit der Vorstellung Licht sei eine Welle. Im Fall des sog. schwarzen Körpers (black body) machte sie eine falsche Vorhersage. Was ist ein schwarzer Körper? Ein black body ist ein Körper, der keinerlei Strahlung emittiert sondern die gesamte eintreffende Strahlung absorbiert. Ein Spiegel beispielsweise ist das Gegenteil eines schwarzen Körpers: Er absorbiert kaum Strahlung, sondern sendet sie annähernd komplett zurück, weshalb wir uns in ihm spiegeln können. Man wusste zur Zeit Maxwells bereits, dass Atome über die Fähigkeit verfügen sowohl einfallende elektromagnetische Wellen einzufangen und zurückzuwerfen (Reflektion) bzw. Strahlung „gefangen zu halten“ (Absorption). Zunächst scheint es so, als würde ein schwarzer Körper keinerlei Strahlung emittieren dürfen, da er ja jede ankommende Strahlung absorbiert und nicht zurückwirft. Aber dies ist falsch. Er darf durchaus Strahlung abgeben, diese darf aber nur von ihm selbst erzeugt worden sein und nicht das Ergebnis einer Reflexion der umgebenden Strahlung darstellen. Ein einfaches Beispiel hierfür ist die Sonne. Sie ist ein annähernd perfekter schwarzer Körper, da sie kaum Umgebungsstrahlung reflektiert und nur selbst erzeugte Strahlung (z.B. sichtbares Licht) aussendet. Im Labor kann man natürlich keine Sonne erzeugen, weswegen man sich eines Tricks behilft um einen black body zu realisieren. Man nimmt ein schwarzes Rohr und verschließt beide Enden mit einer Kappe. In eine der beiden Kappen macht man ein kleines Loch. Die Strahlung welche im inneren des Rohres erzeugt wird kann durch das Loch nach außen dringen wo sie durch ein Messgerät erfasst wird. Licht, welches von außen durch das Loch in das Innere der Röhre fällt, wird von den Innenwänden des Rohres so oft hin und her reflektiert, bis die gesamte Lichtenergie von den Atomen des Rohres absorbiert worden ist. Somit hat der Strahl keine Chance die Röhre zu verlassen, wodurch das Licht nicht mehr nach außen dringen kann. Das Ergebnis ist ein recht guter schwarzer Körper. Nach der bisherigen Wellentheorie glaubte man an folgenden Sachverhalt: Um so heißer ein Körper ist um so mehr Energie beinhaltet er. Hitze ist nichts weiter als eine Vielzahl elektromagnetischer Wellen, welche der Körper aussendet. Um so kürzer die Wellenlänge des Lichts um so energiereicher ist die Strahlung und um so heißer erscheint uns der Körper. Daraus ergibt sich jedoch ein Problem: Um so heißer der Körper um so energiereicher die Strahlung – theoretisch wäre es möglich gewesen, dass die Wellenlänge immer kleiner und kleiner wird, dies bedeutet aber, dass die Energie immer größer und größer geworden wäre. Für eine unendlich kleine Wellenlänge hätte das eine unendlich große Energiemenge bedeutet. Dieses Phänomen nennt man „ultraviolette Katastrophe“ - benannt nach dem hochenergetischen Bereich des Lichtspektrums. Man führte entsprechende Experimente an einem schwarzen Körper durch, doch die Katastrophe blieb aus. Statt Seite 34 von 83 Copyright Stefan Frank dessen bemerkte man, dass ab einer bestimmten kurzen Wellenlänge die Emissionen einfach abbrachen – es gab einfach keine Wellenlängen, die noch kürzer waren. Man konnte also die Wellenlänge nicht beliebig verkürzen. Die Ursache hierfür blieb zunächst im Dunklen, eine Erklärung konnte nicht gefunden werden – wissenschaftliche Sprachlosigkeit. Fakt war nur, dass dies mit der Wellentheorie des Lichts nicht mehr zu erklären war. Im Jahre 1900 konnte der deutsche Physiker Max Planck (1858-1947) das Problem jedoch lösen. Dafür musste man sich von der Vorstellung einer kontinuierlichen Energieverteilung verabschieden, was Planck selber nicht gefiel aber alle Versuche einer anderen Erklärung schlugen fehl. Demnach fasste Planck die Strahlungsenergie nicht mehr alleinig als elektromagnetische Welle auf, welche kontinuierlich jede beliebige Energiemenge abgeben konnte. Er ging viel mehr von einer diskreten Verteilung der Energie aus – er meinte, die Energie sei gequantelt. Planck recycelte die Teilchentheorie, jedoch sehr stark abgewandelt: Elektromagnetische Energie kann an Atome nicht kontinuierlich abgeben werden, sondern nur in ganzen Energiepaketen, sog. Quanten. Dabei ist jedes Quantum Träger einer ganz bestimmten Energiemenge. Die Energiemenge ist Abhängig von der Frequenz der Strahlung. Er fasste dies in der Formel zusammen, wobei E die Energie des Quantums, v die Frequenz der Strahlung und h das sog. Plancksche Wirkungsquantum ist. Letzteres ist eine Naturkonstante, die ich noch genauer erklären werde. Da man nun wusste, dass elektromagnetische Strahlung nicht kontinuierlich in jeder beliebigen Menge abgeben werden kann, sondern nur in Paketen bestimmter Energie, konnte man nun auch das Nichtauftreten der ultravioletten Katastrophe erklären. Die Atome waren nicht in der Lage die gewünschten Energiepakete mit entsprechender Energie zur Verfügung zu stellen. Entweder das Atom kann ein Quant der Energie abgeben, oder nicht. Nur ein bisschen Energie der Frequenz v abzugeben geht nicht, das würde eine kontinuierlichen Abgabe von Energie entsprechen. Wenn das Atom Energie abgaben will, dann muss es das schon in ganzen Paketen tun, wobei dieses Paket eine Energie hat, welche der Frequenz multipliziert mit dem Planckschen Wirkungsquantum entspricht. Man wird nie ein Lichtquant finden, welches bei einer gegebenen Frequenz v nur eine Energie abgeben wird. Dies wäre nur ein halbes Quant der Frequenz v. Halbe Quanten existieren jedoch nicht. Quant ist Quant und kann nicht halbiert, verdoppelt usw. werden. Es ist die kleinste mögliche Energiemenge, in der eine elektromagnetische Welle der Frequenz v auftreten kann. Eine Quelle, welches Licht der Frequenz v aussendet, emittiert also lauter kleine Energiepakete mit der beschriebenen Energiemenge. Seite 35 von 83 Copyright Stefan Frank Es ist logisch, dass man wirklich verstanden haben muss was ein Quant ist, wenn man die Quantentheorie verstehen will, deswegen sei es hier noch einmal direkt auf den Punkt gebracht: Ein Quant ist ein Energiepaket. Wenn wir eine elektromagnetische Welle mit einer bestimmten Frequenz vorliegen haben, so kann diese ihre Energie nicht kontinuierlich z. B. an ein Atom abgeben sondern nur in ganzen Energiepaketen. Die Energie eines Paketes entspricht der Frequenz multipliziert mit einer Naturkonstanten, genannt Plancksches Wirkungsquantum. Andersherum kann ein Atom auch nur ganze Energiepakete emittieren. Auch ihm ist es nicht möglich Strahlung kontinuierlich, also in jeder beliebigen Menge abzustrahlen. Das Bohrsche Atommodell Das Bohrsche Atommodell war eine logische Konsequenz aus der Quantentheorie Max Plancks. Sie erinnern sich: Das Rutherfordsche Modell hatte die Eigenschaft, dass Elektronen in jeder beliebigen Bahn den Kern umkreisen können. Aber schon in der Zeit vor der Entdeckung der Quantentheorie machte dieses Modell den Physikern Kopfzerbrechen. Stellt man sich die Elektronenbahnen wirklich als Planetenbahnen vor, so hätte, nach Annahme der klassischen Mechanik das Elektron durch Abgabe von Energie in den Kern stürzen müssen. Ähnlich der schon beschriebenen Murmel auf einem Gummituch um die man eine zweite Kugel kreisen lässt. Nach einiger Zeit wird die Bahn immer enger und enger, bis die kreisende Kugel endgültig auf den ruhenden Kern stürzt. Die Quantenphysik hatte dafür jetzt eine Erklärung, auch wenn viele diese zunächst nicht akzeptieren wollten, weil sie eine Verquickung der klassischen Physik mit den Erkenntnissen der Quantentheorie bedeutete, was zu einem etwas komischen Gesamtkonstrukt führte. Bohr behielt zwar die Vorstellung der Planetenbahnen bei, jedoch waren diese nicht mehr beliebig. Durch Anwendung der Quantentheorie auf die atomare Struktur fand er heraus, dass Elektronen nur auf ganz bestimmten Bahnen den Atomkern umkreisen können. Ein jedes Elektron bewegt sich auf einer dieser Bahnen. Wenn das Elektron in der Kern stürzen würde, müsste es dabei Energie Seite 36 von 83 Copyright Stefan Frank abgeben. Energie kann jedoch nur in ganzen Paketen emittiert werden. Die neuen Quantenbahnen sind nun so ausgelegt, dass ein Elektron beim Fall in den Kern weniger Energie abgeben müsste als einem Quantum Energie entspräche. Da jedoch ein Quant ein Quant ist und nicht halbiert, gedrittelt, geviertelt usw. werden kann, ist es dem Elektron nicht möglich das Quant auszusenden, wodurch es verdammt ist auf seiner Bahn zu bleiben. Es ergibt sich dadurch eine ganz neue Sichtweise des Atoms mit einem schalenartigen Aufbau. Auf jeder dieser Schalen, welche das Atom wie eine Art Zwiebel umgeben, haben eine bestimmte Anzahl an Elektronen Platz. Die Ursache der Frauenhoferlinien im Lichtspektrum Sie wissen nun, dass Elektronen nur auf ganz bestimmten Bahnen den Kern umkreisen können. Sie wissen weiterhin, dass die Elektronen aufgrund der Eigenschaft ihrer Bahnen nicht einfach in den Kern stürzen können. Es ist ihnen jedoch möglich die Bahnen zu wechseln, wodurch die Effekte Lichtabsorption und Lichtemittierung erklärt werden können. Trifft ein Quant auf ein Atom, so kann dieses, bei entsprechender Energie, ein Elektron mit Energie so versorgen, dass es die Kraft hat von einer niedrigeren Schale auf eine höhere überzugehen. Das Quant wird dabei von dem Elektron aufgenommen und hat dadurch keine Chance mehr weiterzufliegen. Haben wir ein Gas eines Elementes (z.B. Wasserstoff oder Helium) vorliegen und bestrahlen dieses mit weißem Licht, welches wir hinter der Gasansammlung in seine Spektralfarben zerlegen, so werden wir feststellen, dass die schon oben beschriebenen Linien im Lichtspektrum auftauchen. Die Erklärung hierfür liegt bei den angeregten Elektronen. Bestimmte Quanten wurden von dem Gas aufgenommen (absorbiert) und so am weiterfliegen gehindert, während andere Quantenpakete das Gas ungehindert passieren konnten und das Lichtspektrum am anderen Ende bilden. Dabei haben die aufgenommenen Quanten nicht irgendeine Energie, sondern exakt die Energiemenge welche benötigt wurde, um das Elektron von dem einen Energieniveau auf das Seite 37 von 83 Copyright Stefan Frank andere zu heben. Da die Energie eines Quants jedoch gerade die Frequenz multipliziert mit dem Wirkungsquantum ist, fehlen immer genau bestimmte Frequenzen im Lichtspektrum. Die Frequenz des Lichts ergibt sich direkt aus seiner Wellenlänge und daher kann man auch sagen, dass bestimmte Wellenlängen fehlen. Andersherum kann ein Elektron auch von einer höheren Bahn auf eine niedrigere Abfallen und dabei ein Quant emittieren. Dabei entspricht die Energie des Quants genau der Differenz zwischen den Energieniveaus der oberen und unteren Bahn. Da die Energie eines Quants nur von der Frequenz (ergo von der Wellenlänge) abhängt ergibt sich, dass Licht einer ganz bestimmten Wellenlänge emittiert wird. Ähnliches passiert bei fluoreszierenden Stoffen, wie wir es von den Ziffern eines Weckers her kennen: Licht fällt auf die Substanz, wodurch jede Menge Elektronen in einen höheren, energiereicheren Zustand übergehen. Wenn wir den Raum abdunkeln, fallen diese nach und nach wieder in den Ausgangszustand zurück und geben dabei ihre Energie, welche wir als sichtbares Licht wahrnehmen, ab. Das Ergebnis ist eine leuchtende Schrift. Auch Experimente bestätigten zunächst diese Vorstellung des Atoms und die Richtigkeit der Quantenvorstellung. Hierauf möchte ich im nächsten Kapitel genauer eingehen. Zusammenfassung Um die ultraviolette Katastrophe beim schwarzen Körper zu verhindern, führte Max Planck die Vorstellung der gequantelten Energie ein. Demnach kann Energie nicht kontinuierlich, sondern nur in Paketen, sog. Quanten übertragen werden. Der Energiegehalt eines Quants entspricht der Lichtfrequenz multipliziert mit einer Naturkonstante, dem Planckschen Wirkungsquantum. Das Bohrsche Atommodell macht sich diese Quanten-Vorstellung zu nutze und schreibt Elektronen eine ganz bestimmte Umlaufbahn innerhalb eines Atoms vor. Absorbiert ein Atom Lichtenergie, so wird ein Elektron auf eine höhere Schale gehoben. Bei Lichtemission hingegen fällt ein Elektron von einer höheren auf eine niedriger Schale zurück. Seite 38 von 83 Copyright Stefan Frank - Kapitel 8 Experimentelle Forschung auf dem Gebiet der Quantentheorie Durch die Quantentheorie konnten viele Probleme gelöst werden, welche physikalische Experimente aufgeworfen hatten. Weiterhin legten Experimente die Grundlage für wissenschaftliche Theorien und lieferten den Beweis für die Richtigkeit der Quantenvorstellung. Einstein und das Rätsel um den photoelektrischen Effekt Die Lösung des Geheimnisses um den photoelektrischen Effekt sollte Albert Einstein zu höchsten Ehren bringen. Für diese Leistung, und nicht etwa für seine Relativitätstheorie erhielt er 1922 den Nobelpreis für Physik. Das Rätsel, welches ich nun beschreiben möchte, beschäftigte die Wissenschaftler schon lange. Ich denke, man kann auch gut verstehen warum dem so ist. Man hatte nämlich festgestellt, dass metallische Platten, wenn man diese mit Licht bestrahlt, elektrisch geladen werden. Diese Tatsache an sich war noch nicht verwunderlich. Man dachte sich bereits, dass durch die Energie des Lichts Elektronen aus der Oberfläche des Metalls herausgeschlagen werden, wodurch ein Elektronenmangel in der Platte entsteht, welche somit elektrisch positiv geladen wird, wobei die Elektronen ein elektrisch negatives Feld erzeugen. Verwunderlich waren vielmehr Experimente, welche man mit unterschiedlichem Licht und unterschiedlicher Lichtintensität durchführte. Grundlage dieses Versuchs ist eine Metallplatte welche mit Licht bestrahlt wird. Elektronen werden aus dem Metall herausgerissen und haben dabei eine bestimmte Energie. Die Geschwindigkeit, mit der diese sich von der Platte entfernen kann dabei als Maß für ihren Energiegehalt angenommen werden, man spricht auch von der sog. Impulsenergie. Geht man von der Wellennatur des Lichts aus müsste man eigentlich die Geschwindigkeit der Elektronen erhöhen können, wenn man die Intensität der Strahlung erhöht, also einfach mehr rote Strahlung auf die Metallplatte treffen lässt. Bei einem entsprechenden Experiment zeigte sich jedoch, dass durch eine Erhöhung der roten Strahlung zwar mehr Elektronen aus der Platte geschlagen worden sind, jedoch diese den gleichen Energiegehalt (die gleiche Geschwindigkeit) aufwiesen wie vorher. Ändert man jedoch die Frequenz des Lichtes und verwendet (energiereichere) blaue Strahlung, so hatten die ausgesandten Elektronen eine höhere Energie. Auch hier galt, dass eine Erhöhung der Strahlungsintensität nur mehr ausgesandte Elektronen zur Folge hatte, jedoch keine Energieveränderung bei den einzelnen Elektronen. Bei bestimmten Experimenten konnte man diese Beobachtungen sogar auf die Spitze treiben: Wenn man Metalle mit Strahlung kurzer Wellenlänge (geringer Frequenz) behandelte, wurden teilweise überhaupt keine Elektronen ausgesandt. Egal wie hoch man die Intensität der Strahlung auch setzte. Das war unlogisch: Denn wenn Licht eine energiereiche Welle ist, so hätte nach Erhöhung der Lichtintensität irgendwann genug Energie ankommen müssen, um das Elektron aus dem Atom herauszulösen. Wenn die Strahlung kontinuierlich an das Elektron abgegeben wird, so hätte das Elektron mit der Zeit genug Energie „sammeln“ können, um sich aus der Umklammerung zu lösen. Dies funktionierte jedoch nicht, man stellte stattdessen fest, dass schon eine geringe Intensität kurzwelligerer Strahlung (z.B. blau) ausgereicht hat, um Elektronen zu lösen. Wie konnte das sein? Albert Einstein hatte darauf eine Antwort, und vielleicht haben Sie auch bereits eine Idee. Dass die Energie der ausgesandten Elektronen nicht von der Intensität des Lichtes sondern nur von seiner Wellenlänge abhängt, ist Folge der Quantelung von elektromagnetischer Strahlung. Wenn Elektronen aus einem Atom gelöst werden sollen, braucht man dafür eine bestimmte Energie. Diese Energie wird von dem Elektron nicht mit der Zeit gesammelt sondern in Quantenportionen aufgenommen. Entweder die Strahlung liefert Quanten mit entsprechender Energie oder nicht. Eine Seite 39 von 83 Copyright Stefan Frank Intensivierung der Strahlung erhöht nur die Anzahl der Quantenpakete, jedoch nicht ihren Energiegehalt. Nur eine Reduzierung der Wellenlänge führt zu einer Erhöhung der Frequenz und somit zu energiereicheren Quanten. Diese führen dann genügend Energie mit sich um das Elektron ad hoc aus dem Atom zu befreien. Die Fotozelle und das Plancksche Wirkungsquantum Ich habe sie schon oft erwähnt, die Naturkonstante h, genannt das Plancksche Wirkungsquantum. Nun will ich etwas genauer erläutern wie man überhaupt auf diese Zahl gekommen ist und was man sich unter ihr vorzustellen hat. Sie haben ja schon einiges über den atomaren Aufbau der Materie und quantentheoretischer Effekte gelesen, dieses Wissen werden wir nun anwenden. Wie so oft steht am Anfang wieder ein Experiment – die sog. Fotozelle. Eine Möglichkeit eine solche aufzubauen ist die Verwendung einer sog. Cäsiumelektrode. Diese wird auf der Rückseite z.B. einer Röhre angebracht und mit Licht (am Besten einer Wellenlänge) bestrahlt. Sie wissen ja bereits was passiert: Hat das Licht die richtige Frequenz (bzw. die Quanten die richtige Energie) so werden Elektronen aus der Cäsiumelektrode gelöst, welche sich auf Grund des Elektronenmangels positiv auflädt. Gegenüber der Elektrode bringt man eine Gegenelektrode an, welche die losgeschlagenen Elektronen einfängt. Da dadurch ein Elektronenüberschuss innerhalb der Gegenelektrode erreicht wird, lädt sich diese negativ auf. Um so mehr Elektronen auf der einen Seite herausgeschlagen und auf der anderen Seite aufgefangen werden, um so schwerer haben es die negativ geladenen Elektronen von der positiven Anziehungskraft der Cäsiumelektrode zu fliehen und gegen die abstoßende Kraft der ebenfalls negativen Gegenelektrode anzukämpfen. Um so mehr Elektronen die eine Seite verlassen und auf der anderen Seite eintreffen um so höher ist die positive Ladung der Cäsiumelektrode und um so negativer die Ladung der Gegenelektrode. Mit der Zeit wird das Wachstum beider Felder langsamer werden, denn die Elektronen haben einfach nicht mehr die Kraft gegen die Feldkräfte anzukämpfen. Ab einem bestimmten Zeitpunkt ist ein Gleichgewichtszustand erreicht – weder verlassen Elektronen die eine Seite noch schlagen auf der anderen Seite welche ein. Es entsteht ein Ladungsgefälle zwischen den beiden Seiten – wie ich bereits erklärte nennt man dies Spannung. Man gibt sie in Volt an, eine Einheit die Ihnen sicherlich von den Elektrogeräten ihres Haushalts bekannt ist. Seite 40 von 83 Copyright Stefan Frank Sie haben bereits bei der Behandlung des photoelektrischen Effekts (vorhergehender Abschnitt) gelernt, dass kürzere Wellenlängen (sprich höhere Quantenergie) zur Folge hat, dass Elektronen mit höhere Geschwindigkeit atomare Strukturen verlassen. Diesen sog. Impuls (Masse des Elektrons mal Geschwindigkeit) nahmen wir als Maß für die Energie des Elektrons. Diese Kenntnis macht man sich bei der Fotozelle zu nutze: Um so höher die Lichtenergie, um so höher die Geschwindigkeit der Elektronen und um so höher ihre Energie. Wenn Elektronen jedoch eine höhere Geschwindigkeit haben, haben sie auch mehr Energie um gegen – die sich aufbauenden – Feldkräfte auf den beiden Seiten anzugehen. Dies hat zur Folge, dass die Feldkräfte stärker sein müssen um den Gleichgewichtszustand herbeizuführen. Somit ist die sich einstellende Spannung ein Maß für die Energie der Elektronen. Um so höhere deren Energie um so höher die sich einstellende Spannung. In der Physik wird die Energie eines Elektrons in Elektronenvolt (eV) angegeben. Dabei handelt es sich um die Energie, die ein Elektron erhält, wenn es in einem elektrischen Spannungsfeld beschleunigt wird. Haben wir z. B. eine Spannung von einem Volt vorliegen und geben ein Elektron in dieses Spannungsfeld, so erhält dieses eine Energie von 1 eV. Formelmäßig drückt man dies wie folgt aus: Dabei ist W die (elektrische) Arbeit, e die sog. Elementarladung, also die negative Ladung die ein Elektron von Natur aus in sich trägt, und U das Zeichen für die anliegende Spannung. Da e eine Konstante darstellt, ist leicht zu sehen, dass eine höhere Spannung zugleich eine Erhöhung der Arbeit zur Folge hat. Dabei ist Arbeit hier nichts weiter als ein anderes Wort für Energie. Nun kann man das Fotozellenexperiment durchführen. Zunächst nimmt man Cäsium und bestrahlt es mit Licht verschiedener Wellenlänge und notiert die sich einstellenden Gleichgewichtsspannungen. Dann wechselt man das Material (z.B. Lithium) und wiederholt das Experiment ebenfalls mit verschiedenen Lichtstärken. Die Ergebnisse fasst man nun in einem Diagramm zusammen, wobei man auf der x-Achse die Frequenz und auf der y-Achse die maximale kinetische Arbeit abträgt (also nichts weiter als die sich einstellende Gleichgewichtsspannung multipliziert mit der Elementarladung eines Elektrons). Man stellt fest, dass für jedes verwendete Element eine Gerade entsteht, welche alle parallel Seite 41 von 83 Copyright Stefan Frank zueinander verlaufen. Eine gerade hat eine sog. Steigung, also einen Wert, der angibt wieviel auf den y-Wert aufaddieren bzw. von ihm abgezogen werden muss, wenn man auf der x-Achse eine Einheit nach rechts geht. Dieser Wert lässt sich leicht berechnen, indem man die Differenz zweier beliebige y-Werte auf der Geraden durch die Differenz ihrer x-Werte teilt. Führt man dies bei den resultierenden Geraden des Photozellenexperimentes durch, so erhält man den Steigungswert der Geraden. Dieser Wert ist gerade das Plancksche Wirkungsquantum, eine unverrückbare Naturkonstante . Mit dessen Hilfe kann man nun leicht berechnen wie groß die Energie eines Elektrons bei gegebenen Material und vorgegebener Lichtfrequenz ist. Jedem Element ist eine Größe eigen, welche man messen kann: Es handelt sich dabei um die Ablösearbeit W ab. Dies ist die Lichtenergie, welche Aufgebracht werden muss, um überhaupt ein Elektron aus dem Atom lösen zu können. Warum dem so ist, wurde ja bereits erklärt – es liegt eben daran, dass die Elektronen die Lichtenergie nur in Quanten aufnehmen können und diese müssen die richtige Energie besitzen um das Elektron herauszuschlagen. Entweder das Lichtquantum hat diese Energie oder nicht. Die Ablösearbeit ist gerade die Stelle, an der sich das elektrische Feld langsam beginnt aufzubauen (also erste Elektronen aus der Platte geschlagen werden). Es ist dann folgende Formel herleitbar: Fotozellen sind heute aus dem normalen Alltag nicht mehr wegzudenken. Sie werden beispielsweise in Bewegungsmeldern verwendet: Ein Lichtstrahl wird von einer Quelle auf eine Fotozelle gelenkt, in der sich ein elektrisches Feld aufbaut. Verbindet man nun beide Elektroden mit einem Metalldraht, so fließen in diesem Draht Elektronen von der negativen Elektrode zur positiven. Dieser sog. elektrische Strom versucht so das Ladungsgefälle auszugleichen. Durch das Licht werden jedoch immer wieder Elektronen aus der Platte geschlagen, so dass zwar auf der einen Seite das Spannungsgefälle durch den Elektronenfluss ausgeglichen wird, auf der anderen Seite jedoch immer wieder ein neues Spannunggefälle entsteht. Nur wenn der Lichtstrahl unterbrochen wird stoppt das Herausschlagen der Elektronen, wodurch der Elektronenfluss die Chance hat, das Spannungsgefälle auszugleichen. Nachdem die Spannung auf 0 gesunken ist stoppt auch der Fluss der Elektronen. Dieser Zusammenbruch führt dazu, dass ein sog. Relais (eine Art elektrisch gesteuerter Schalter) schließt, wodurch dann (ähnlich einem Lichtschalter) ein anderes Gerät eingeschaltet wird: z.B. eine Lampe, die Klingel der Eingangstür eines Geschäftes oder die Alarmanlage einer Bank. So... Damit haben Sie diesen Abschnitt auch geschafft, es war sicherlich bis jetzt der mit Abstand anspruchvollste. Sie benötigten Wissen über Atome und ihren Aufbau, über Quanten und die Übertragung von Energie. Sie mussten Ihre Vorstellungskraft anstrengen, um das Experiment nachvollziehen zu können und einige Formeln verstehen. Aber ihre Bemühungen haben sich gelohnt: Sie haben durch das Durcharbeiten dieses Abschnittes, den ich nicht um sonst so ausführlich gestaltet habe, elementare Kenntnisse der Quantentheorie nicht nur erworben, sondern sogar angewendet! Darauf dürfen Sie nun wirklich ein bisschen Stolz sein. Franck, Hertz und die Richtigkeit der Quantentheorie Den beiden Physikern James Franck (1882-1964) und Gustav Hertz (1887-1975) (nicht zu verwechseln mit dem Physiker Heinrich Hertz) gelang es zum ersten mal die Richtigkeit der Quantentheorie experimentell zu zeigen wofür sie 1925 den Nobelpreis erhielten. Grundlage ihres Experimentes ist eine mit einem Gas gefüllte Röhre. Quecksilbergas kann hierfür beispielsweise herangezogen werden. Den weiteren Aufbau zeigt folgende Abbildung: Seite 42 von 83 Copyright Stefan Frank Auf der linken Seite wird eine Elektronenquelle installiert, hierfür kann z. B. ein Glühfaden dienen. Über eine Spannungsquelle wird zwischen der Elektronenquelle und einem Metallgitter Spannung aufgebaut. Hier wird durch die emittierten Elektronen also kein Spannungsfeld erzeugt, sondern dies legen wir über eine Spannungquelle künstlich an um es selber steuern zu können. Auf der rechten Seite des Aufbaus ist eine Metallplatte befestigt. Diese ist mit einem Amperemeter verbunden, einem Messgerät, welches – vereinfacht gesagt – die Anzahl der Elektronen, welche diese Platte erreichen zählen kann. Je höher der Amperewert, desto höher die Anzahl der einschlagenden Elektronen. Es ist verständlich, dass die Anzahl der hinten gezählten Elektronen um so größer sein wird, je höher wir vorne das Spannungsfeld aufbauen: Je höher die Spannung, um so höher die positive Ladung des Metallgitters, was wiederum eine stärkere Anziehungskraft auf die negativ geladenen Elektronen ausübt. Diese erhalten dadurch eine höhere kinetische Energie (Bewegungsenergie) und können das umgebende Quecksilbergas wohl leichter durchdringen. Das Experiment wird nun mit verschiedenen Spannungen durchgeführt und die Ergebnisse in einem Diagramm festgehalten. Dabei wird die anliegende Spannung auf der x-Achse und die dazugehörige Amperezahl (die sog. Stromstärke) auf der y-Achse abgetragen: Das Ergebnis sieht zunächst sehr verwunderlich aus: Zwar steigt die Anzahl der einschlagenden Elektronen insgesamt betrachtet an, jedoch sind zwischendurch immer Einbrüche bei der Anzahl Seite 43 von 83 Copyright Stefan Frank der einschlagenden Elektronen festzustellen. Bei Helium beispielsweise liegen diese Abstürze immer bei 4.9 eV und einem Vielfachen davon, also 9.8 eV, 14.7 eV,... Wie lässt sich das erklären? Es liegt primär an den Elektronen der Umlaufbahnen des Quecksilberatoms. Diese können Energie nur gequantelt aufnehmen, d.h. sie benötigen eine bestimmte „Portion“ Energie um von einer Umlaufbahn zur nächsten springen zu können. Diese Energie wird von den ankommenden Elektronen, welche 4.9 eV Energie bei sich tragen, mitgebracht und mit einem sog. unelastischen Stoß an das Elektron des Atoms abgegeben, welches dadurch von einer Bahn in eine nächste, höher gelegene, springt. Das Stoßelektron verliert dabei seine gesamte Energie und hat nun wieder 0 eV, während das Elektron des Atoms 4.9 eV mehr Energie besitzt. Somit fällt die Anzahl der eintreffenden Elektronen deshalb ab, weil diese jetzt die passende Energie haben um diese abzugeben und nicht weiterreisen werden. Wenn jedoch die benötigte Energie 4,9 eV ist, wieso sind die Einbrüche dann auch bei dem Vielfachen dieser Zahl zu finden? Die energiearmen Elektronen können natürlich nach einen Stoß wieder beschleunigt werden. Wenn das Feld ein Vielfaches der benötigen Energie ist, so wird es wieder auf 4.9 eV beschleunigt und kann die Energie abermals abgeben usw. Hat das Elektron seine Energie abgeben, so hat es selbst nicht mehr genügend davon um gegen die positive Elektrode in der Mitte anzukämpfen und wird von dieser angezogen – die hintere Platte ist daher für dieses Elektron nicht mehr zu erreichen. Anders jedoch bei Spannungen die sich z.B. zwischen 4.9 und dem Doppelten befinden. Haben wir 8 Volt anliegen, so „verbrauchen“ die Atomelektronen nur 4.9 eV, was einen „Rest“ von 3.1 eV entspricht. Dies ist zwar zu wenig um ein Elektron eines Quecksilberatoms anzuregen, jedoch reicht es aus, dass viele Elektronen die Anziehungskraft der positiven Elektrode entfliehen können und auf der rechten Platte aufschlagen werden. Dies erklärt den trotzdem kontinuierlichen Anstieg der Gesamtkurve. Jetzt bleibt noch eine Frage zu beantworten: Was passiert eigentlich mit den angeregten Elektronen innerhalb der Quecksilberatome? Diese bleiben nicht für immer und ewig auf ihrer angeregten, höheren Bahn. Sie fallen nach einiger Zeit in ihren alten Zustand zurück. Dabei emittieren sie eine elektromagnetische Welle in Form eines Quantenpaketes. Wie hoch der Energiegehalt dieses Paketes sein wird, ist für Sie vielleicht nicht mehr verwunderlich: 4.9 eV, also genau die Energie, die sie vorher aufgenommen hatten. Wenn man das auf die Frequenz der emittierten Welle umrechnet, so kommt man auf eine sehr niedrige Wellenlänge – sie liegt im ultravioletten Bereich. Unsere Augen können diese jedoch nicht wahrnehmen. Könnten wir es aber doch, so würden wir feststellen, dass unser Versuchsaufbau von einem Licht ultravioletter Farbe umgeben ist. Das gesamte Experiment ließ sich nur mit Hilfe der Quantentheorie erklären. Die Vorhersagen der Quantenphysiker deckten sich mit den experimentellen Ergebnissen - die Quantentheorie war bewiesen. Bis jetzt macht die Quantentheorie, trotz all dem Hin und Her, doch noch einen sehr geordneten und aufgeräumten Eindruck. Vorhersagen wurden experimentell bestätigt, die quantentheoretischen Vorhersagen machten Sinn – auch wenn es zunächst einigen Wissenschaftlern nicht recht gefiel. Doch in den nächsten Kapiteln wird sich diese Klarheit ändern. Vielleicht haben Sie sich auch schon geärgert, dass ich ständig zwischen Wellen und Teilchen hin und her springe, wenn ich etwas erkläre – anscheinend ohne Sinn und Verstand. Aber Sie werden bald sehen, dass Welle und Teilchen untrennbar miteinander verbundene Begrifflichkeiten sind. Seien Sie gespannt, denn Sie können sich einer Sache sicher sein: In der Quantentheorie gibt es immer nur einen Weg: Den Verrückteren. Seite 44 von 83 Copyright Stefan Frank Zusammenfassung In verschiedenen Experimenten konnte die Richtigkeit der Quantentheorie bestätigt werden. Albert Einstein erklärte mit ihrer Hilfe den Photoelektrischen Effekt, wonach die Lichtintensität nur für die Anzahl der herausgeschlagenen Atome verantwortlich ist. Ob ein Elektron überhaupt gelöst wird und welche Geschwindigkeit dieses hat hängt einerseits von der mitgebrachten Quantenenergie des Lichts ab und andererseits von der akzeptierten Quantenenergie des Elektrons. Mit Hilfe der Photozelle konnte Planck den Wert seiner Naturkonstante h ermitteln. Franck und Hertz bewiesen mit ihrem Versuch, dass Elektronen Energie wirklich nur gequantelt aufnehmen können und zeigten so die Richtigkeit der Quantentheorie. Seite 45 von 83 Copyright Stefan Frank Kapitel 9 Von Wellen, Teilchen und Wahrscheinlichkeiten An dieser Stelle möchte ich nun etwas Klarheit in das Welle-Teilchen-Kauderwelsch bringen, d.h. soweit dies überhaupt möglich ist, denn selbst die Wissenschaft muss sich mit einer Zwischenlösung behelfen, wie Sie sehen werden. Es wird sogar noch unglaublicher, da sich herausstellte, dass man den Ort eines Teilchens nicht genau bestimmen kann. Man kann nur einen Raum angeben, in dem sich das Teilchen mit hoher Wahrscheinlichkeit befindet, wo es jedoch wirklich ist lässt sich nicht sagen. Das Licht als Fluss von Photonen Sie haben bereits die Gleichung kennen gelernt, nach der die Energie eines sog. Quants berechnet wird. Die Energie eines einzelnen Quants ist demnach das Plancksche Wirkungsquantum multipliziert mit der Frequenz des Lichtes. Die Frequenz (f) ist der Kehrwert der sog. Periodendauer (T), also: Die Periodendauer wiederum ist die Zeit, die eine Welle für eine komplette Schwingung benötigt. Hierfür dividiert man die gemessene Zeit (t) durch die Anzahl (n) der in diesem Zeitraum erfolgten Schwingungen: Wenn man weiß, wie lange eine Schwingung dauert, so muss man dies nur noch mit der Ausbreitungsgeschwindigkeit (c) multiplizieren und erhält die Wellenlänge (Lambda): Somit gilt nach einfacher Umformung: Setzt man das in die Frequenzgleichung ein erhält man: Dies hat zur Folge, dass die Energiegleichung Plancks für ein Quant folgende Form erhält: Da es sich um eine Berechnung in Bezug auf elektromagnetische Wellen handelt ist die Ausbreitungsgeschwindigkeit c gleich der Lichtgeschwindigkeit (ca. 300.000 km/s). Wenn Sie die Herleitung nicht ganz verstanden haben, so ist das nicht schlimm. Wichtig ist hier nur die letzte Gleichung. Ich wollte Ihnen an dieser Stelle deutlich vor Augen führen, dass der Energiegehalt eines Quants von der Lichtgeschwindigkeit und der Wellenlänge des untersuchten Lichts abhängt. Und somit ist die Wellentheorie und die Teilchentheorie des Lichts untrennbar miteinander verknüpft. Man kann Licht nicht nur als Welle oder nur als Teichen beschreiben, beide Ansichten sind komplementär, die eine kann ohne die andere nicht sein. Bohr gab dieser Tatsache einen eigenen Namen: das „Komplementaritätsprinzip“. 1916 erkannte Einstein einen interessanten Ansatz, der sich aus den Gleichungen seiner allgemeinen Relativitätstheorie ergaben. Nach seinen Forschungen gilt für die Energie eines Teilchens: c ist auch hier die Lichtgeschwindigkeit, m dir Ruhmasse und p der Impuls des Teilchens. Vorhergehende Untersuchungen Plancks sagten, dass der Impuls eines Lichtquants gerade Seite 46 von 83 Copyright Stefan Frank sein müsste. Albert Einstein ging hier wahrlich im wahrsten Sinne des Wortes ein Licht auf, als er diese Gleichung seiner eigenen gegenüberstellte. Geht man davon aus, dass Licht keine Ruhemasse hat, so ergibt sich: Formt man dies nach p um und schreibt die Gleichung passend auf, so erhält man: Die vorhergehenden Erkenntnisse Plancks und die übereinstimmenden Berechnungen Einsteins legen den Schluss nahe, dass Lichtteilchen kein Behilfskonstrukt sondern Realität sind. Später wurden diese Lichtteilchen Photonen genannt und sie haben eine höchst interessante Eigenschaft, die ich oben nur beiläufig erwähnt habe: Licht hat keine Ruhemasse! Das ist so ähnlich, als würde man einen Fußball nehmen der nur existiert solange die Spieler ihn bewegen. Bleibt er einmal liegen bewegt er sich nicht mehr, hat damit keine Masse und verschwindet plötzlich als hätte es ihn nie gegebenen. Ergo: Wenn wir ein Photon messen, dann bewegt es sich auch, es gibt keine stillstehenden Photonen – sie bewegen sich mit Lichtgeschwindigkeit. Der Welle-Teilchen-Dualismus Sie haben bezüglich des Photons bereits gelernt, dass die Wellen- und die Teilchenvorstellung untrennbar miteinander verwoben sind. Weiterhin können bestimmte Experimente nur mit der Wellenvorstellung (z.B. Interferenzmuster), andere nur mit der Teilchenvorstellung (z.B. photoelektrischer Effekt, Franck-Hertz-Versuch) erklärt werden. Da liegt doch eine Frage relativ nahe: Wenn eine Welle auch ein Teilchen ist, ist dann nicht ein Teilchen auch eine Welle? Diese Seite 47 von 83 Copyright Stefan Frank Frage mutet zunächst etwas philosophisch an, jedoch wurde sie ernsthaft gestellt und auch beantwortet. Konkret befasste sich der französische Physiker Louis Victor Broglie (1892-1987) mit dieser Fragestellung. Er wollte beweisen, dass Elektronen nicht nur Teilchen sind, wie ja die allgemeine Auffassung war, sondern auch Wellen bzw. beides, ähnlich dem Licht. Mathematisch konnte er dies relativ früh zeigen. Der experimentelle Nachweis dauerte jedoch bis zum Jahre 1927. Für den Versuch wurde ein Nickelkristall verwendet auf den ein Elektron abgeschossen wurde. Ist das Elektron wirklich eine Welle, so würde diese, ähnlich einer Wasserwelle an den einzelnen Atomen des Kristalls gebeugt. Innerhalb der Kristallformation sind die Atome sehr regelmäßig angeordnet. Die Abstände zwischen den Atomen sind sehr klein, kleiner als die von de Broglie berechnete Wellenlänge eines Elektrons. Dadurch hätte die Welle zwischen mehreren Atomen hindurchdringen müssen. Das Ergebnis ist leicht absehbar: Sie haben bereits im dritten Kapitel gesehen was passiert: Wasserwellen, welche durch zwei Spalten fliesen interferieren, ähnliches geschieht bei Licht, was sich durch helle und dunkle Streifen zeigt. Gleiches hoffte man bei dem Elektron zu erkennen: ein Interferenzmuster. Und es er erschien wirklich! Damit war der Beweis erbracht: Elektronen sind Wellen... und Teilchen – na ja, dieses Problem kennen Sie ja bereits. Spätere Untersuchungen zeigten, dass sogar die Protonen und Neutronen des Kerns Welleneigenschaften haben – man spricht daher auch von Materiewellen. Bitte merken Sie sich das gut! Materie kann sowohl als Teilchen, als auch als Welle aufgefasst werden! Wahrscheinlichkeiten, oder: Wo ist mein Elektron? Bis jetzt war das von Bohr aufgestellte Atommodell sehr eindeutig: Ein Kern der aus Teilchen besteht, welche man Protonen und Neutronen nennt, und in ganz bestimmten Umlaufbahnen fliegen kleine Teilchen, Elektronen genannt. Doch wie sollte man sich das ganze mit Wellen vorstellen? Nach der neuen Auffassung müssten jetzt auch kleine Wellen um den Kern fliegen, der übrigens selber ja wieder ein „Knäuel“ aus Wellen ist. Die Vorstellungskraft schwindet hier – und das ist auch ein Ergebnis, was Sie aus diesem Kapitel mitnehmen sollen: Das schöne, eindeutige Modell der atomaren Welt, welches Ihnen wahrscheinlich in der Schule mitgegeben wurde existiert nicht. Man versucht – das ist nur allzu menschlich – komplizierte Sachverhalte der Quantenphysik auf Begriffe unserer Alltagswelt zu übertragen um eine bessere Vorstellungskraft zu haben. So sind die Planetenbahnen nur eine Metapher! Sie sind nicht wirklich existent. Es fliegen also keine Elektronen um einen Kern auf planetenähnlichen Bahnen – dies soll uns nur die Sicht auf die atomare Welt erleichtern – und so ist das mit vielen Dingen der Quantentheorie. Ich möchte Sie an dieser Stelle nicht verwirren, aber Sie sollten nicht alles für bare Münze nehmen und 1:1 auf die reale Welt übertragen. Sie können das tun, um eine bessere Vorstellungskraft zu erhalten, jedoch sollten Sie nicht annehmen, dass es wirklich so ist. Wie es in einem Atom tatsächlich aussieht kann Ihnen niemand, wirklich niemand sagen. Wir müssen uns mit menschlich greifbaren Metaphern behelfen, um eine Vorstellung zu gewinnen, man darf diese aber nie mit der Wirklichkeit verwechseln! Max Born (1882-1970), deutscher Physiker, entwickelte zur Beschreibung des Welle-TeilchenDualismuses eine Idee weiter, welche vorher schon existierte, er brachte sie jedoch zur Perfektion. Zur Beschreibung eines Elektrons verwendete er, wie das üblich war, die Wellenfunktion, welche Seite 48 von 83 Copyright Stefan Frank man mit dem griechischen Buchstaben Psi abkürzt. Born verknüpfte jetzt die Ergebnisse der PsiFunktion mit der Vorstellung vom Teilchen: Man kann mit Hilfe der Wellenfunktion die Intensität einer Welle irgendwo im Raum berechnen. Die Intensität der Welle nahm Born als Wahrscheinlichkeit dafür an, dass sich das Teilchen zu einem Zeitpunkt t an der Stelle x befindet. Um so intensiver das Ergebnis der Psi-Funktion an einer bestimmten Stelle des Raumes um so wahrscheinlicher, dass das Elektron genau an der Stelle zu finden ist. Das Ergebnis dieser Berechnungen wahr erschütternd: Wir können nie sagen wo ein Elektron gerade ist! Wir können nur sagen wie hoch die Wahrscheinlichkeit ist, dass das Elektron an einem bestimmten Ort verweilt. Es kann sich also theoretisch überall befinden, nur dass die Wahrscheinlichkeit des Aufenthalts an einigen Orten um ein Vielfaches größer ist als an anderen. Diese erschreckende Feststellung macht unsere Vorstellung von einem Atom natürlich nicht leichter. Wie soll man sich ein Elektron vorstellen, welches überall und nirgends ist. Innerhalb des Atoms musste man daher den Vergleich mit den Bahnen endgültig aufgeben und sog. Orbitale einführen – Bereiche des Atoms in dem sich ein Elektron höchst wahrscheinlich aufhält. Das Gleiche gilt natürlich auch für alle anderen Teilchen. Ich habe es ja bereits angedeutet: In der Quantenphysik gibt es immer nur den verrückteren Weg. „Gott würfelt nicht“ Das Rechnen mit Wahrscheinlichkeiten war in der Quantenphysik jedoch nichts neues. Schon vorher hatte man erkannt, dass bestimmte Vorgänge nicht zu berechnen sind – sie passieren halt: wann, warum, wieso, weshalb weiß kein Mensch. Albert Einstein war mit dieser Vorstellung nicht zu frieden. Er glaubte fest daran, dass alles eine Ursache hat und diese müsse sich auch in ihren Auswirkungen berechnen lassen. Er brachte das mit seiner berühmten Aussage „Gott würfelt nicht“ zum Ausdruck und meinte, dass Gott nichts zufällig geschehen lässt, sondern alles wohl bestimmt sei. Eine Einstellung, welche ich bereits im ersten Kapitel genauer erläuterte und die man mit Determinismus bezeichnet. Ich sagte jedoch schon zu diesem Zeitpunkt, dass der Determinismus leider nur ein Traum ist: Nicht alles und jedes ist zu berechnen. Manche Dinge scheinen doch rein zufällig zu passieren. Dies haben Sie bereits bei der Berechnung der Elektronenposition gesehen, dessen Ort nicht genau bestimmbar ist. Sie werden es jetzt an zwei weiteren quantenphysikalischen Prozessen sehen, die Sie schon kennen gelernt haben. Sie wissen, dass Elektronen durch Photonen innerhalb von Atomen auf höhere Bahnen gehoben werden können. Durch die übertragene Energie springen die Elektronen von einer tieferen auf eine höhere Umlaufbahn (Sie sehen, dass ich bei den Metaphern bleibe, auch wenn sie falsch sind, aber so kann man es sich am besten vorstellen). Sie wissen jedoch auch, dass Elektronen auf diesem höheren Energieniveau nicht für immer verweilen werden. Nach einer gewissen Zeit fallen Sie zurück in den alten Zustand und geben dabei die aufgenommene Energie wieder ab. Wann sie jedoch in den alten Zustand zurückfallen ist nicht zu berechnen! Man kann eine Wahrscheinlichkeit angeben wann sie denn zurückfallen könnten – ob sie das jedoch tun bleibt ganz den Elektronen überlassen. Ein weiteres Problem ist die Berechnung radioaktiver Zerfallsprozesse. Sie wissen bereits, dass Kerne künstlich gespalten werden können, wie man dies in Kernkraftwerken durchführt. Kerne können jedoch auch natürlich zerfallen, ohne dass man sie mit Neutronen oder ähnlichem beschießen müsste. Wann sie jedoch zerfallen bleibt ganz den Atomen überlassen, auch dies lässt sich nicht berechnen. Man kann nur statistische Wahrscheinlichkeitswerte angeben in welcher Zeit eine gewisse Menge einer Probe zerfallen wird. Nimmt man eine Menge einer Probe an, so kann man feststellen, dass nach einer Zeit x die Hälfte der in der Probe befindlichen Atome zerfallen sind. Vergeht dieser Zeitraum wieder, so ist von der Hälfte wieder die Hälfte zerfallen usw. Dies nennt man die Halbwertzeit. Hiervon haben Sie sicherlich schon einmal im Zusammenhang mit Endlagern für radioaktiven Müll gehört. Die Halbwertzeit von Uran der Isotopart 235 (51 Seite 49 von 83 Copyright Stefan Frank Neutronen) beträgt z.B. 700 Millionen Jahre, die von Uran der Isotopart 238 (54 Neutronen) hat sogar eine Halbwertzeit von 4.5 Milliarden Jahren. Dies bedeutet, dass bei einer Probe von 1 kg nach 700 Millionen bzw. 4.5 Milliarden Jahren die Hälfte, also 0.5 kg der Probe zerfallen ist. Das Ergebnis ist also: Gott würfelt doch! Quantenzahlen und ihre Rolle beim Atomaufbau Woher wissen die Elektronen auf welche Bahn sie gehören (wie gesagt: Ich bleibe aus Gründen der Anschaulichkeit bei den Planetenbahnen)? Warum passen auf die innerste Bahn nur 2 Elektronen auf die nächste jedoch schon 8 - warum nicht mehr? Wolfgang Pauli (1900-1958) hatte hierauf eine Antwort. Es war bereits bekannt, dass Elektronen mehr Eigenschaften inne tragen als nur die Frequenz, die Energie und den Impuls. Ihnen mussten weitere Werte zugeschrieben werden um bestimmte Phänomene zu erklären. Ein ungelöstes Problem war z.B. die Balmer-Serie. Diese ist nichts weiter als die Spektrallinien im Lichtspektrum, welches der Wasserstoff hervorruft. Johann Jakob Balmer (1825-1898) war ein schweizer Lehrer, der sich über das Phänomen der Frauenhoferlinien Gedanken gemacht hatte und eine Formel entwickelte mit deren Hilfe die Spektrallinien berechnet werden konnten – sie funktionierte jedoch nur beim Wasserstoff und natürlich hatte sie nichts mit der Quantenphysik zu tun, denn die wurde ja erst 1900 entwickelt und zu diesem Zeitpunkt war Balmer schon längst tot. Nils Bohr jedoch vermutete, dass eine Abwandlung der Formel unter Verwendung der Planckschen Konstante h die Gleichung in die Welt der Quantentheorie überführen könnte. Er vollzog dies und es funktionierte. Anhand des bohrschen Atommodells mit Elektronen, die nur auf bestimmte, gequantelte Bahnen springen können konnte man die Spektrallinien erklären (wie bereits beschrieben). Es gab jedoch ein Problem: Es waren mehr Spektrallinien erlaubt als es wirklich gab. Die Ursache hierfür konnte man nicht klären, man schrieb jedoch den Elektronen weitere Eigenschaften zu, so dass das mathematische Modell wieder passte: sog. Quantenzahlen. Dabei ist das Erreichen einer sog. Hauptquantenzahl (n), welche ein erreichbares Energieniveau innerhalb der Schale des Atoms entspricht für bestimmte Elektronen wahrscheinlicher als ein anderes Energieniveau. Auf diese Art und Weise ließ sich erklären, warum bestimmt Linien im Spektrum nicht erscheinen bzw. andere ausgeprägter sind: Die Wahrscheinlichkeit, dass ein Elektron die Energieportion x aufnimmt und damit auf die Schale y springt ist einfach größer, als dass es die Energieportion x' aufnimmt und somit auf Energieniveauschale y' aufsteigt. In der Zwischenzeit wurden dem Elektron viele weitere Eigenschaften zugeschrieben: sog. Nebenquantenzahlen, Megnetquantenzahlen und Spinquantenzahlen. Ich erspare es Ihnen an dieser Stelle genauer auf diese Zahlen einzugehen, da diese rein mathematische Gedankenexperimente Seite 50 von 83 Copyright Stefan Frank sind. Man versuchte zwar die Zahlen in die klassische Mechanik zu übersetzen und kam auf Parallelismen wie z.B. der Spin sei der Eigendrehimplus. Dies funktioniert solange, wie man sich Elektronen als Kugeln vorstellt. Aber wie dreht sich eine Welle? Und überhaupt, wo ist diese Welle eigentlich, die sich drehen soll? Sie sehen, diese Vorstellung funktioniert nicht und hätte mit der Wirklichkeit abermals nichts zu tun. Daher sollte man sich einfach merken, dass Quantenzahlen Eigenschaften sind, welche man den Elektronen zuschreibt – und fertig. Ich habe bereits oben den Begriff der Orbitale verwendet. Dies sind berechnete Räume, in der es wahrscheinlich ist ein Elektron anzutreffen. Diese Vorstellung hat nichts mehr mit dem gut greifbaren Begriff der Planetenbahnen zu tun. Man kann also Orbitale als Räume auffassen. Jede Hauptquantenzahl entspricht eine Schale von Bohrs Atommodell, also Hauptquantenzahl 1 ist die innerste Schale, Hauptquantenzahl 2 die nächste usw. bis zur siebten Schale. Nun ist jeder Schale eine gewisse Anzahl an möglichen Orbitalen zugeordnet. Der ersten Schale z.B. wurde ein sog. s-Orbital hinzugefügt, der zweiten Schale ein s-Orbital und 3 sog. pOrbitale usw. Dabei sind die Orbitale weiterhin nichts weiter als Räume in denen sich Elektronen bewegen können. Die Aufgabe der Nebenquantenzahl ist es genau eine bestimmte Orbitalform auszusuchen, ob es also ein s-, p- ,d-, f- oder gOrbital sein soll. Was das für bestimmte Orbitale sind, soll hier nicht von Interesse sein, es handelt sich um bestimmte räumliche Formen, in denen sich ein Elektron gerade befinden kann. Innerhalb eines Orbitals finden 2 Elektronen Platz. Diese müssen jedoch unterschiedlichen Spin haben. Für uns ist eine Sache aus der Alltagswelt völlig normal: Habe ich eine Murmel auf den Tisch gelegt so kann ich an die gleiche Stelle zur gleichen Zeit nicht noch eine hinlegen, denn die erste nimmt bereits den Raum ein. Stellt man sich Elektronen als Kugeln vor, so können zwei Elektronen auch nicht zur gleichen Zeit am gleichen Ort sein. Nimmt man jedoch an Elektronen seien Wellen und es gibt nur eine Wahrscheinlichkeit, dass ein Elektron zu einem bestimmten Zeitpunkt an einem bestimmten Ort ist, so können sich diese Wahrscheinlichkeitsräume durchaus überlappen. Man kann daher sagen, dass in einem Orbital mehr als ein Elektron Platz hat. Nach Pauli sind es genau zwei – nicht mehr. Warum? Dies ist das grundlegende Gesetz, welches er entdeckte: Zwei Elektronen können zwar den gleichen (Wahrscheinlichkeits-)Raum haben, jedoch müssen sie unterschiedliche Quantenzahlen haben. Haben sich die Elektronen für ein Orbital entschieden, so stehen damit ihre Quantenzahlen alle fest, bis auf eine: der Spin. Der Spin kann entweder +1/2 oder -1/2 betragen. Das ist der Grund warum ein Orbital maximal genau zwei Elektronen aufnehmen kann. Mehr geht nicht, denn dann müssten mind. 2 Elektronen einen Spin von +1/2 bzw. -1/2 innerhalb des Orbitals haben und dies ist nicht möglich, denn dann würden mind. 2 Teilchen in allen Quantenzahlen übereinstimmen - dies darf nicht sein. Auf diese Weise erklärte Pauli woher das Elektron weiß wo es hin gehört. Es ergibt sich aus seiner Quantenzahl. Dabei werden zunächst die Orbitale niedrigerer Energie aufgefüllt und dann die höherer Energie, immer unter Berücksichtigung des eigenen Spins Seite 51 von 83 Copyright Stefan Frank und der anderen 3 Quantenzahlen. Dies nennt man das Paulische Ausschließungsprinzip, oder kurz Pauli-Prinzip und ist ein fundamentales Naturgesetz. Natürlich haben nicht nur Elektronen Quantenzahlen. Auch Protonen und Neutronen verfügen über diese Eigenschaften, auch wenn sie nicht ganz vergleichbar sind. Aus den Gesetzen der Wahrscheinlichkeit und den Quantenzahlen konnten gute mathematische Modelle entwickelt werden, um die Natur der Teilchen zu beschreiben. Dazu zählen die Matrizenmechanik, die Quantenalgebra und – sehr berühmt – die Wellengleichung Schrödingers. Letzteres ist sicherlich sehr schwer zu verstehen. Das Pauli-Prinzip sei hier auch nur der Vollständigkeit halber erwähnt, es wird nicht unbedingt für ein einfaches Verständnis der Quantentheorie benötigt. Es ist eher das i-Tüpfelchen. Das nächste Kapitel ist da schon um einiges Interessanter, denn hier geht es um Kurioses und Weltveränderndes. Zusammenfassung Nach dem Komplementaritätsprinzip Bohrs sind Welle und Teilchen eng miteinander verknüpft. Dies bezeichnet man auch als Welle-Teilchen-Dualismus – beide Auffassung sind zwei Seiten ein und der selben Medaille. Auch Elektronen und andere Elementarteilchen können als Materiewelle aufgefasst werden. Es ergab sich jedoch das Problem, dass der genaue Ort eines Teilchens nicht mehr bestimmt werden konnte. Somit mussten Wahrscheinlichkeiten eingeführt werden, die abermals den Determinismus empfindlich störten. Daraus resultierte ein überarbeitetes Atommodell, wonach die Teilchen Wahrscheinlichkeitsräume innerhalb eines Atoms einnehmen. Welchen Wahrscheinlichkeitsraum die Teilchen zu besetzen haben, sagt ihnen das Paulische Ausschließungsprinzip, wonach innerhalb eines Systems (z.B. eines Atoms) keine Teilchen mit identischen Quantenzahlen vorkommen dürfen. Quantenzahlen sind dabei zusätzliche Eigenschaften die jedem Teilchen zugeschrieben werden. Seite 52 von 83 Copyright Stefan Frank - Kapitel 10 Verrücktes aus der Welt der Quantenphysik Aus der Wahrscheinlichkeitsverteilung und dem Welle-Teilchen-Dualismus ergeben sich einige sehr sonderbar anmutende Versuche und Gedankenexperimente. Ich möchte einige berühmte hier kurz darstellen und gleichzeitig ein sehr wichtiges Naturgesetz aufzeigen. Der Doppelspalt und die Heisenbergsche Unschärferelation Grundlage der folgenden Erklärung soll wieder ein Experiment bilden. Man nehme eine Lichtquelle und eine Abdeckplatte in die zwei Streifen geschnitten sind. Das Licht muss einen der beiden Wege nehmen, um letzten Endes auf einen dahinter liegenden Schirm (eine Photoplatte) aufzutreffen. Die beiden optional möglichen Wege, welche das Licht nehmen kann müssen jedoch unterschiedlich lang sein. Sie wissen sicherlich was man dadurch erreichen will: Durch die unterschiedlich langen Wege stimmen hinter dem Spalt Wellenberg und Wellental nicht mehr überein, interferieren und ein Interferenzmuster erscheint auf der Photoplatte. Man hatte versucht das Interferenzmuster, also die HellDunkelzonen auf dem Schirm, zunächst dadurch zu erklären, dass die Quanten sich gegenseitig abstoßen und dadurch in Abständen auf dem Schirm prallen, was das Muster erklären könnte. Dann würde man die Wellentheorie für dieses Experiment nicht mehr benötigen. Aber auch dies konnte widerlegt werden: Schießt man nur ein einziges Photon ab, so kann es nicht von einem anderen abgestoßen werden das Seite 53 von 83 Copyright Stefan Frank Interferenzmuster zeigt sich jedoch trotzdem. Als nächstes ging man davon aus, dass das Quant vielleicht gespalten würde und so zwei Quanten durch die Schlitze fliegen, welche sich dann natürlich wieder abstoßen könnten. Also brachte man die Photoplatte direkt hinter den beiden Durchlässen an. Man hätte jetzt bei beiden Lichtdurchlässen Lichteinschläge sehen müssen. Dies war jedoch nicht der Fall. Auch die Spaltungstheorie konnte also aufgegeben werden. Es ist jedoch bei dem Experiment etwas hoch interessantes festzustellen. Sie werden sich jetzt vielleicht fragen: „Wenn Licht als Welle durch die Spalten tritt, dann hätte doch auch Licht auf beiden Detektoren festgestellt werden müssen, ähnlich als hätte sich das Quant gespalten. Wie tritt denn nun das Licht durch den Spalt: Als Welle oder als Teilchen?“ Die Antwort hierauf ist: Mal so und mal so! Das Licht verhält sich so, wie wir es erwarten. Wenn wir ein Interferenzexperiment durchführen, dann verhält sich Licht wie eine Welle, wenn wir wissen wollen, wo das Licht durchfliegt, dann verhält es sich wie ein Fluss von Quanten. Das ist eine fundamentale Eigenschaft und zeigt wieder mal die Verrücktheit des Welle-Teilchen-Dualismus. Das Licht kann anscheinend unsere Gedanken lesen und weiß was wir erwarten und kann sich dem entsprechend verhalten. Hieraus ergibt sich ein gewaltiges Problem: Wenn wir die Photoplatte direkt hinter dem Spalt anbringen, so können wir messen durch welches der beiden Schlitze das Photon geflogen ist, wissen jedoch nicht wo es hinten aufgeschlagen wäre, wenn wir den Schirm weiter hinten aufgestellt hätten. Andersherum können wir messen wo das Photon aufschlägt, wenn wir den Schirm weiter hinten positionieren, jedoch können wir dann nicht sagen durch welchen der beiden Schlitze das Photon geflogen ist. Das Ergebnis dieses Experimentes ist somit: Ort und Impuls (bzw. Energie, hier symbolisiert durch den Einschlagspunkt) sind nicht gleichzeitig mit beliebiger Genauigkeit messbar. Dies nennt man die Heisenbergsche Unschärferelation, benannt nach ihrem Entwickler, dem deutschen Physiker Werner Karl Heisenberg (1901-1976). Er drückte dies in der Formel aus. Sie besagt, dass die Ortsunschärfe (Delta x) multipliziert mit der Impulsunschärfe (Delta p) größer ist als das Plancksche Wirkungsquantum dividiert durch 4 mal die Kreiszahl Pi (ca. 3,14). Es ergibt sich hieraus, dass eine genaue Messung des x-Wertes eine massive Fehlmessung bezüglich des Impulses zur Folge hat und andersherum. Dies veränderte das wissenschaftliche Weltbild grundlegend: Wenn wir noch nicht einmal in der Lage sind die kleinsten Strukturen genau zu analysieren und zu lokalisieren, wie sollen wir dann die großen Zusammenhänge richtig beschreiben ohne die Vorgänge in den kleinsten Strukturen genau zu kennen? Dies ist einer der Gründe warum wir den Determinismus wohl endgültig aufgeben müssen. Zu diesem Zwecke wurde die sog. Quantenmechanik geschaffen. Sie beschäftigt sich nicht damit vorherzusagen wie ein bestimmtes System in der Zukunft aussehen wird. Aufgabe der Quantenmechanik ist es festzustellen welche Möglichkeiten ein System hat sich zu entwickeln und zu berechnen wie wahrscheinlich es ist, dass ein System diese oder jene Entwicklung nehmen wird. Mehr als Wahrscheinlichkeiten bleiben uns nicht... und Wahrscheinlichkeiten sind bekanntlich keine Gewissheiten. Die Quantenpolarisation und ein sonderbarer Effekt Im dritten Kapitel haben Sie bereits viel über das Licht und seine Eigenschaften erfahren, unter anderem auch, dass man es als eine elektromagnetische Welle auffassen kann. Dabei steht elektrisches und magnetisches Feld in einem 90 Grad-Winkel aufeinander. Wenn man sich die Richtung, in welche sich das Licht ausbreitet als Pfeil vorstellt, so stehen zwar elektrische und magnetische Welle immer in einem rechtwinkligen Verhältnis, aber die Gesamtschwingung kann man in Pfeilrichtung beliebig drehen – die Grafik veranschaulicht dies. Seite 54 von 83 Copyright Stefan Frank Polarisationfilter lassen nur Licht durch, welches in einer ganz bestimmten Richtung polarisiert ist. Licht mit anderer Polarisation wird an der Weiterreise gehindert. Nimmt man also einen Filter, welches nur horizontales Licht hindurch lässt so befindet sich hinter dem Filter nur horizontal polarisiertes Licht. Versucht man nun dieses durch einen Filter mit vertikaler Polarisation zu schicken, so wird man selbstverständlich feststellen, dass hinter diesem Filter kein Licht ankommt, da ja nur Licht horizontaler Polarisation vorhanden ist, welches aber an der Weiterreise gehindert wird. Baut man nun das Experiment ein wenig um und positioniert einen diagonal ausgerichteten Polarisator hinter den horizontalen, so ergibt sich aus der Mathematik der Quantentheorie, dass 50 Prozent des horizontal polarisierten Lichts diesen durchdringen kann. Jetzt kommt jedoch die Paradoxe Situation: Baut man hinter dem diagonalen Polarisator wieder den – schon vorhin erwähnten – vertikalen Polarisator, so wird man feststellen, dass Licht diesen durchdringt. Das ist doch wirklich komisch: Im ersten Experiment baue ich zwei Zäune, welche die Aufgabe haben die Quanten von mir fern zuhalten. Dann baue ich (um ganz sicher zugehen) noch einen dritten Zaun zwischen die beiden schon vorhandenen Zäune und das Ergebnis ist eine Durchdringung der Sperranlage durch die Quanten. Dies ist Paradox und ist nur mit einer Tatsache zu erklären: Durch die Veränderung des Versuchaufbaus habe ich eine neue sog. Quantenrealität geschaffen. Die Schlussfolgerung aus den beiden Experimenten sind daher nicht miteinander vergleichbar! Seite 55 von 83 Copyright Stefan Frank Traurige Mitteilung: Schrödingers Katze ist lebendig tot Erwin Schrödinger schlug ein Experiment vor, welches die Paradoxie der Quantenphysik deutlich machen sollte. Untersuchungsergebnisse wie die Heisenbergsche Unschärferelation, die Wahrscheinlichkeitsverteilung und der Welle-Teilchen-Dualismus fasst man unter dem Oberbegriff Kopenhagener Deutung der Quantentheorie zusammen. Diese Erkenntnisse verband Schrödinger in seinem berühmt gewordenen Gedankenexperiment, welches „Schrödingers Katze“ getauft wurde. Das Grundprinzip ist eigentlich ganz einfach: In eine Holzkiste wird eine Katze eingesperrt. Weiterhin wird in die Kiste eine Probe von radioaktivem Material hineingegeben. Hinzu wird ein Geigerzähler gestellt, der misst ob ein Kern innerhalb der Probe zerfallen ist. Der Geigerzähler wiederum wird mit einem Giftfläschchen verbunden. Zerfällt ein Kern, so wird die Flasche durch eine Apparatur geöffnet und das Gift strömt aus, welches die Katze tötet. Zerfällt jedoch kein Kern der Probe, so passiert nichts. Wir schließen nun die Kiste mit der Katze und der Apparatur und warten eine Zeit. Was passiert mit der Katze innerhalb der Kiste? Ist sie bereits tot oder lebt sie noch? Sie können sich erinnern: Der Zerfall eines Atomkerns ist eine rein statistische Angelegenheit und für uns nicht berechenbar. Ob die Katze lebt oder nicht ist rein zufällig und eine Überlagerung vieler möglicher wahrscheinlicher Zustände. Die Katze ist so zusagen lebendig tot. Sie befindet sich in einem Zwischenzustand. Erst wenn wir die Kiste öffnen muss die Wellenfunktion eine Entscheidung treffen und die Katze sterben oder sie am Leben lassen. Dies klingt absolut absurd: Entweder die Katze lebt noch oder nicht, jedoch ist ein Zwischenzustand nur schwer vorstellbar. Schrödinger wollte auf diese radikale Weise auf die Fehlerhaftigkeit der Kopenhagener Deutung hinweisen. Natürlich kann die Katze nur in einem der beiden Zustände sein und nicht irgendwo dazwischen. Aber wie lässt sich dann die Quantenphysik retten? Wie können diese Fehler ausgemerzt werden? Dies soll das Thema späterer Kapitel sein. Zusammenfassung Das Doppelspaltexperiment zeigt, dass Ort und Impuls eines Teilchens nicht gleichzeitig messbar ist. Wir können also die Realität auf kleinster Ebene nicht uneingeschränkt erfassen – genannt wurde dieses Phänomen nach ihrem Entdecker, Werner von Heisenberg, die Heisenbergsche Unschärferelation. Auch können wir von dem Ausgang eines quantenphysikalischen Experimentes nicht auf den Ausgang anderer schließen, wie das Experiment mit polarisiertem Licht demonstriert. Schrödingers Katze befindet sich in Folge der Überlagerung von Wahrscheinlichkeitswerten innerhalb der Kiste gleichzeitig in einem lebendigen und einem toten Zustand. Öffnen wir die Kiste, so muss sich das Quantensystem für eine Realität entscheiden und die Katze sterben oder weiter leben lassen. Dies versteht man unter dem Zusammenbruch der Wahrscheinlichkeitswellenfunktion. Seite 56 von 83 Copyright Stefan Frank - Kapitel 11 Der Teilchenzoo Bis Jetzt haben Sie schon drei Teilchen unserer Welt näher betrachtet: Das Elektron, das Neutron und das Proton. Dies ist jedoch nur ein kleiner Teil, in Wirklichkeit gibt es nämlich sehr viele und so hat sich der Begriff Teilchenzoo eingebürgert. In diesem Kapitel möchte ich Ihnen diese „possierlich Teilchen“ etwas näher vorstellen. Ableitung der Antimaterie aus der speziellen Relativitätstheorie Einsteins Ich hatte sie Ihnen bereits vorgestellt: Die Energiegleichung Einsteins, mit deren Hilfe man den Energiegehalt eines Teilchens aus seiner Masse und seinem Impuls berechnen kann: Setzt man den Impuls p gleich null, so erhält man: Zieht man die Wurzel, so ergeben sich 2 (!) Lösungen: und , denn es gilt sowohl als auch . Die letzte Gleichung wurde lange Jahre außer Acht gelassen. Es schien einfach klar, dass nur die Gleichung mit positivem Faktor Sinn ergibt. Für Paul Dirac (1902-1984), einem britischem Physiker, ergab das negative Ergebnis aber sehr wohl Sinn. Überträgt man die Gleichung auf Elektronen, so müsste es auch Elektronen negativer Energie geben. Sie wissen, dass nach dem Pauli-Prinzip Energieniveaus immer vom niedrigsten zum höchsten besetzt werden. Das höhere Energieniveau wird nur besetzt, wenn das niedriger schon voll ist und ein weiteres Elektron keinen Platz mehr hat (seine Quantenzahlen würden sich überschneiden). Wenn ein Elektron jedoch nicht in den niedrigeren negativen Zustand fällt, dann ist doch die Frage offensichtlich warum es das nicht tut. Diracs Antwort darauf: Weil die niedrigeren Energieniveaus bereits durch Elektronen besetzt sind! Sie existieren einfach überall, selbst im leeren Raum, wo wir eigentlich nichts vermuten. Sie sind einfach da Teilchen negativer Energie. Wenn sie da sind, kann man diese Antielektronen, wie man sie nannte, nicht sichtbar und messbar machen? Man kann dies. Unter Verwendung hoher Mengen an Energie (ca. einer Million Elektronenvolt) kann man dem Elektron die nötige Energie hinzufügen, so dass es aus der „Antiwelt“ in unsere Welt springt. Die Energie, welche man hinzufügen muss ist leicht zu berechnen. Sie beträgt nach folgender Gleichung gerade 2 mal die Masse des Elektrons mal der Lichtgeschwindigkeit zum Quadrat. Wenn jedoch ein Elektron aus der Antiwelt herausgelöst wird, so müsste dort eine Art Loch entstehen. Dieses Loch, Seite 57 von 83 Copyright Stefan Frank umgeben von negativer Energie müsste ähnlich auffallen, wie ein negatives Elektron umgeben von positiver Energie in unserer Welt, halt nur genau andersherum. Während in unserer Welt das Teilchen negativ auffällt, müsste in der Antiwelt die Lücke positiv auffallen. Dies wäre messbar: Gesucht ist also ein Teilchen, welches die Masse eines Elektrons hat, jedoch positiv geladen ist. Experimente bestätigten seine Existenz – dieses Antielektron wird heute Positron genannt. Fermionen und Bosonen Der Teilchenzoo kann in zwei Obergruppen eingeteilt werden, die sog. Fermionen und Bosonen. Sie sind völlig unterschiedlicher Natur. Elektronen, Neutronen und Protonen gehören zu den Fermionen, benannt nach der Fermi-Dirac-Statistik, mit der – grob gesagt – das Verhalten von Elektronen genauer untersucht werden sollte. Fermionen sind von Bosonen durch ihre SpinQuantenzahl leicht zu unterscheiden: Erstere haben einen halbzahligen Spin (also +- ½, +- 3/2,...), Bosonen hingegen einen ganzzahligen (0,+-1,+-2,...). Das Elektron z.B. hat einen Spin von bzw. . Das Plancksche Wirkungsquantum dividiert durch zwei mal die Kreiszahl Pi ist eine Konstante mit der man den Spinwert multipliziert. Fermionen gehorchen dem Pauli-Prinzip, d.h. mehrere Elektronen müssen innerhalb eines Atoms unterschiedliche Quantenzahlen haben. Die Anzahl der Fermionen im Universum ist konstant, sie können nicht erzeugt oder zerstört werden. Daraus folgt: Die Anzahl der Neutronen, Protonen und Elektronen innerhalb unseres Universums ist eine unverrückbare Konstante. Dem gegenüber stehen die Bosonen. Diese nach der Bose-EinsteinStatistik benannten Teilchen muten etwas komisch an. Sie gehorchen nicht dem Pauli-Prinzip und können künstlich erzeugt werden. Ihre Anzahl im Universum ist also nicht konstant. Den wohl bekanntesten Vertreter dieser Gattung haben Sie bereits kennen gelernt: das Photon. Es besitzt keinerlei Ruhemasse und kann künstlich erzeugt werden, wie wir es in unseren Experimenten permanent getan haben und auch Sie schon, wenn Sie das Licht eingeschaltet haben. Protonen, Neutronen und die Quarks Bei Experimenten wurde festgestellt, dass Protonen und Neutronen keine Elementarteilchen sind. Sie setzen sich aus weiteren, noch kleineren Teilchen zusammen, den sog. Quarks. Von diesen gibt es 6 Stück, die sich u.a. in Ladung und Masse unterscheiden: Quark Ladung Up (u) +2/3 Down (d) -1/3 Charm (c) +2/3 Strange (s) -1/3 Top (t) +2/3 Bottom (b) -1/3 Ein Proton besteht aus zwei Up-Quarks und einem Down-Quark. Wenn man nachrechnet kann dies gut sein, denn 2/3 Ladung + 2/3 Ladung – 1/3 Ladung = +1 Ladung, und das Proton ist genau Träger einer einfach positiven Ladung. Dies müsste auch bei den Neutronen passen mit einer Ladung von 0. Ein Neutron besteht aus einem Up-Quark und 2 Down-Quarks: 2/3 Ladung – 1/3 Ladung – 1/3 Seite 58 von 83 Copyright Stefan Frank Ladung = 0 Ladung. Dies ist also korrekt. Wenn Sie die obige Tabelle genau betrachten, so werden Sie feststellen, dass es auch andere Kombinationsmöglichkeiten gibt um eine Ladung von 0 oder 1 zu erreichen. Z. B. würde ein Up-Quark, ein Down-Quark und ein Strange-Quark ebenfalls zusammen 0 ergeben. Warum ist diese Kombination dann nicht das Neutron? Erstens hat dieses Teilchen eine andere Masse als ein Neutron und zweitens lebt es nicht lange, nämlich nur ca. 1/10 Milliardstel Sekunde. Dieses sog. Lambda-Teilchen ist also extrem instabil. Der Vollständigkeit halber seien hier diese sog. Baryonen noch einmal aufgeführt: Typ Teilchen Quarks Ladung uud +1 Neutron udd 0 Hyperonen Lambda uds 0 Nukleonen Proton Sigma-Teilchen: Sigma-Plus uus +1 Sigma-Null uds 0 Sigma-Minus dds -1 Xi-Teilchen: Xi-Null uss 0 Xi-Minus dss -1 Lambda-c-Plus udc +1 Mit Nukleonen bezeichnet man die stabilen Teilchen, mit Hyperonen diejenigen, welche nach kurzer Zeit zerfallen. Ihre Spin-Zahl ist halbzahlig und gehören daher zu den Fermionen. Dem gegenüber stehen die Mesonen, welche ganzzahligen Spin haben und daher zu den Bosonen gehören. Sie setzen sich aus Antiquarks zusammen, sind also Quarks mit gleicher Masse wie ihre schon vorgestellten Gegenstücke, haben jedoch entgegengesetzte Ladung. Man unterscheidet primär zwei Arten von Mesonen: Das Pion und das Kaon, welche sich jeweils wieder in viele Untergruppen unterteilen. Darauf möchte ich aber an dieser Stelle nicht genauer eingehen. „Und die Elektron, woraus bestehen die?“, werden Sie sich jetzt vielleicht fragen. Die Antwort hierauf ist einfach: Es ist nicht aus weiteren Teilchen zusammengesetzt. Es gehört zu einer dritten Gattung von Teilchen, die neben den Baryonen und Mesonen existiert: die sog. Leptonen. Leptonen sind Elementarteilchen, welche sich in Ladung, Masse und Lebensdauer unterscheiden. Es existieren 3 Gattungen, nämlich die Elektronen, Myonen und das Tauon. Jedes von ihnen besitzt ein neutrales Gegenstück, das Neutrino: Teilchen Seite 59 von 83 Ladung Elektron -1 Elektron-Neutrino 0 Myon -1 Myon-Neutrino 0 Tauon -1 Tauon-Neutrino 0 Copyright Stefan Frank Zu jedem dieser Teilchen gehört ein Antiteilchen. Das Antiteilchen des Elektrons ist Ihnen ja bereits bekannt, es handelt sich um das Positron. Alle Leptonen haben einen halbzahligen Spin und gehören daher zu den Fermionen. Warum aber diese nochmalige Unterteilung? Welchen Sinn hat diese? Wo ist der Zusammenhang in diesem verwirrenden Zusammenspiel von Teilchen. Damit werden wir uns im nächsten Kapitel beschäftigen. Zusammenfassung Paul Dirac stellte fest, dass es neben der uns vertrauten Materie auch sog. Antimaterie gibt. Anhand des Elektrons konnte diese nachgewiesen werden – das Positron ist ein Elektron mit positiver Energie. Weiterhin unterteilen wir die Teilchenwelt zunächst in 2 Gruppen: Den Fermionen und Bosonen, jenachdem welchen Spin sie haben. Fermionen mit halbzahligem Spin kommen der uns vertrauten Materie am Nächsten: Sie haben eine Ruhemasse und gehorchen dem Paulischen Ausschließungsprinzip. Bosonen hingegen haben einen ganzzahligen Spin und gehorchen dem Pauli-Prinzip nicht. Bestimmte Teilchen, wie die Neutronen und Protonen (jedoch nicht die Elektronen!) setzen sich aus weiteren Teilchen, den sog. Quarks zusammen. Von diesen gibt es abermals sechs Stück plus ihre Gegenstücke aus Antimaterie. Unabhängig davon lassen sich weitere drei Gruppen herausarbeiten, nämlich die Baryonen (Neutronen, Protonen,...), die Mesonen (Pion, Kaon) und die Leptonen (Elektron, Myon, Tauon und ihre Neutrinos). Seite 60 von 83 Copyright Stefan Frank - Kapitel 12 Kernkräfte und ihre Wirkung Wir wissen nun, dass Teilchen, wie die Protonen und Neutronen aus noch kleineren Teilchen zusammengesetzt sind, den Quarks. Die großen Gruppen der Baryonen und Mesonen sind prinzipiell alle aus diesen Teilchen aufgebaut. Doch wie halten diese Teilchen zusammen? Warum fallen die Quarks nicht wieder auseinander? Diese Fragen möchte ich Ihnen hier beantworten. Weiterhin möchte ich versuchen ein bisschen Ordnung in das Chaos des Teilchenzoos und seiner Unterteilungen zu bringen. Die Quantenelektrodynamik und die elektromagnetische Kraft Ursache für den Zusammenhalt unserer Materie sind Kräfte, die zwischen den Teilchen wirken. Man kann alle bekannten Phänomene auf vier Urkräfte zurückführen: starke Kernkraft, schwache Kernkraft, Schwerkraft (Gravitation) und elektromagnetische Kraft. Letztere kennen Sie bereits. Sie ist z.B. für Abstoßungs- und Anziehungskräfte von Ladungsträgern verantwortlich. Die Gravitation ist uns allen aus dem Alltag bekannt: Ihre Aufgabe ist es, dass Masseteilchen eine gewisse Anziehungskraft aufeinander ausüben. Die starke Kernkraft sorgt dafür, dass die Materieteilchen des Atomkerns zusammenhalten, also auch die Quarks. Für den Zerfallsprozess des Kerns (z.B. bei radioaktiven Prozessen) ist die schwache Kernkraft verantwortlich. Man stellt sich vor, dass die Kräfte durch kleine Teilchen, den schon bekannten Bosonen hervorgerufen werden. Auch hier gibt es wieder einen ganzen Zoo, wie Wissenschaftler herausgefunden haben. Jede Kraft hat ihre eigenen Bosonen. Indem zwischen den Teilchen diese Bosonen ausgetauscht werden, wird die Kraft übertragen. Satyendra Nath Bose (1894-1974) war indischer Mathematiker und Physiker und neben Einstein Mitbegründer der Bose-Einstein-Statistik. Wie bereits erwähnt sind Bosonen, im Gegensatz zu Fermionen, Teilchen mit ganzzahligem Spin. Das Photon ist ein solches Boson und ist an sich Träger - und damit Ursache - einer ganz bestimmten Kraft – der elektromagnetischen Feldkraft. Wirken also zwischen zwei Teilchen elektromagnetische Kräfte, so werden zwischen ihnen Photonen ausgetauscht. Stoßen sich beispielsweise zwei Elektronen ab, so kann das wie folgt veranschaulicht werden: Das rechte Bild zeigt ein sog. Feynman-Diagramm, benannt nach dem amerikanischen Physiker und Nobelpreisträger Richard Phillips Feynman (1918-1988). Es abstrahiert das Geschehen ist aber in Seite 61 von 83 Copyright Stefan Frank diesem Fall noch relativ einfach nachzuvollziehen. Der Teilbereich der Physik, welcher sich mit der Wechselwirkung von Materie und Bosonen im elektromagnetischen Feld beschäftigt nennt man Quantenelektrodynamik. Sie gilt heute als sehr gut ausgearbeitet und wurde in Experimenten mit überwältigender Übereinstimmung nachgewiesen. Die Quantenchromodynamik und die starke Kernkraft Jetzt möchte ich Ihnen die stärkste aller bekannten Kräfte vorstellen, auch wenn wir diese zunächst nicht direkt spüren. Viele glauben, die Gravitation sei die stärkste Kraft, weil wir diese direkt wahrnehmen. Aber dem ist nicht so, im Gegenteil, sie gehört sogar zu den schwächsten bekannten Kräften. Sie haben bereits erfahren, dass die starke Kernkraft (auch starke Wechselwirkung genannt) für den Zusammenhalt der Quarks innerhalb der Protonen, Neutronen und allen anderen Baryonen bzw. Mesonen verantwortlich ist. Die Träger dieser Kraft, so die Vorstellung, sind die Gluonen. Auch sie sind masselose Teilchen, welche zwischen dem Quarks ausgetauscht werden, dies jedoch auf eine ganz besondere Weise. Insgesamt sind acht verschiedene Arten an Gluonen bekannt. Ihnen allen wird eine Eigenschaft zugeschrieben, eine bestimmte Farbe. Auch Quarks haben eine Farbe, daher nennt man die sich mit diesem Komplex befassende Theorie auch Quantenchromodynamik (chromos, griechisch für Farbe). Dabei darf man sich die Quarks und Gluonen nicht wirklich wie bemalte Ostereier vorstellen, es ist wieder mal die Veranschaulichung einer Eigenschaft, die man den Teilchen zuschreibt. Zur besseren Verständlichkeit der Theorie ist es jedoch sinnvoll einen Bezug zu unserer Alltagswelt herzustellen. Den bereits vorgestellten Quarksarten (Up, Down, Charm, Strange, Top, Botton) werden jeweils Farben zugewiesen und zwar Rot, Grün und Blau. Ihre Antiteilchen haben dementsprechend die Farben Antirot, Antigrün und Antiblau (fragen Sie mich bitte nicht, was man sich unter diesen Farben vorzustellen hat). Unter diesen Voraussetzungen gilt nun folgendes Gesetz: Entweder die Farben innerhalb eines neu gebildeten Teilchen (z.B. Proton, Neutron oder Pion) heben sich gegenseitig auf oder ergänzen sich gegenseitig zu Weiß. Aufheben heißt, dass eine Farbe plus eine Antifarbe keine Farbe ergibt. Alle Pionen und Kaonen (also die Mesonen) bestehen aus einem Quark und einem Antiquark. Wenn man ein rotes Quark innerhalb des Mesons vorliegen hat, so muss auch ein rotes Antiquark vorhanden sein. Ein Meson besteht nie aus mehr als zwei Teilchen, denn ein drittes Teilchen würde sofort wieder eine Farbe bzw. eine Antifarbe ins Spiel bringen. Die Teilchen, welche nur Quarks und keine Antiquarks enthalten sind die Baryonen (Neutron-, Proton-, Lambda-, Sigma- und Xi-Teilchen). Sie müssen drei Quarks in sich tragen und zwar von jeder Farbe eins, denn rote plus blaue plus gelbe Farbe ergibt Weiß. Daher sind nicht alle Quarks innerhalb der Teilchen beliebig kombinierbar, sondern nur bestimmte, welche die richtige Farbeigenschaft in sich tragen. Da die Gluonen, welche die Kraft zwischen den Quarks hervorrufen, selber noch einmal acht Farben haben ist die Theorie sehr komplex. Wichtig ist jedoch zu wissen, dass die starke Kernkraft dafür sorgt, dass auf der einen Seite die Quarks innerhalb eines Baryons bzw. Mesons zusammen gehalten werden und auf der anderen Seite den gesamten Kern zusammenhält. Eigentlich müsste ein Kern sofort auseinander fallen, denn die Abstoßungseffekte zwischen den positiv geladenen Protonen müssten den Kern sprengen. Dies passiert jedoch nicht. Dies liegt auf der einen Seite an den Neutronen, die einen gewissen Abstand zwischen den Protonen schafft, auf der anderen Seite Seite 62 von 83 Copyright Stefan Frank wirken die starken Kernkräfte der Protonen und Neutronen (Nukleonen) über sich selber hinaus und binden so die Quarks der unterschiedlichen Nukleonen aneinander. Die starke Wechselwirkung ist dabei um ein vielfaches stärker als die elektromagnetische Abstoßungskraft zwischen den Protonen. Teilchen, welche dem Einfluss der starken Wechselwirkung unterliegen nennt man Hadronen. Die Hadronen sind alle Teilchen, welche die Baryonen und Mesonen umfassen. Die Leptonen gehören jedoch nicht dazu, also das Elektron, das Myon, das Tauon uns ihre Neutrinos. Sie zeigen keinerlei Wechselwirkung mit der starken Kernkraft, was auch logisch ist. Da sie keine Quarks enthalten, können die Gluonen mit diesen nicht wechselwirken. Theory of Everything und Superstrings Zwei weitere Kräfte verbleiben noch zu erklären: Für die schwache Kernkraft sind gleich drei Bosonen verantwortlich, man nennt sie W+, W- und Z0, oder zusammenfassend: Vektor-Bosonen. Es handelt sich dabei um sehr schwere Teilchen die nur über eine kurze Distanz wirken können. Sie sorgen für den Kernzerfall und sind die schwachen Gegenspieler der starken Kernkraft. Das größte Problem bereitet jedoch die Gravitation. Bis jetzt ist es noch nicht gelungen eine Theorie zu entwickeln, die diese Kraft ähnlich beschreibt wie die Quantenelektrodynamik die elektromagnetische Kraft oder die Quantenchromodynamik die starke Kernkraft. Man vermutet, es könnte ein Teilchen geben, das Graviton, welches zwischen den Materieteilchen wechselwirkt, bewiesen ist dies jedoch noch nicht. Bis jetzt haben wir mehr oder weniger nur eine Theorie, welche die Gravitation richtig beschreibt und das ist Einsteins allgemeine Relativitätstheorie. Eine Quantentheorie der Gravitation steht noch aus, auch wenn es bereits erste Ansätze in diese Richtung gibt. Der Traum der Wissenschaftler ist es, eine Theorie zu finden, welche alle vier fundamentalen Kräfte vereinigt. Auf diese Weise hofft man tiefe Einblicke in das Universum und seinen Aufbau zu erhalten. Sie kann sicherlich nicht alles Vorhersagen, sie wäre aber ein gutes wissenschaftlichen Fundament, auf dem sich neue Erkenntnisse schnell und sicher aufbauen ließen. Es wird vermutet, dass alle Kräfte früher in einer vereint waren, der Urkraft. Diese existierte nur Seite 63 von 83 Copyright Stefan Frank kurz nach dem Urknall. Danach spaltete diese sich in die vier uns bekannten Kräfte auf. Ziel ist es jetzt diese Urkraft, zumindest mathematisch, zu beschreiben. Ansätze hierfür gibt es bereits: Die Weinberg-Salem-Theorie besagt, dass die drei Vektor-Bosonen der schwachen Kernkraft bei hohen Energien (mehr als 100 Milliarden eV) dem Photon gleichen würden, welches ja Träger der elektromagnetischen Kraft ist. Im Kernforschungszentrum CERN bei Genf hat man entsprechende Experimente in einem sog. Teilchenbeschleuniger durchgeführt. Er besteht aus einem riesigen unterirdischen Ring in dessen Inneren bei hohen Geschwindigkeiten Teilchen aufeinander geschossen werden können. Es zeigte sich, dass die Vorhersagen mit den experimentellen Ergebnissen übereinstimmen. Somit war die elektromagnetische und die schwache Kernkraft vereinheitlicht. Die starke Kernkraft kann man wahrscheinlich auf ähnliche Art und Weise mit den anderen beiden Kräften verbinden, jedoch fehlt hierfür der Beweis, denn es müssten Energien aufgebracht werden, die in unseren Teilchenbeschleunigern nicht zu erreichen sind. Man geht bei dieser Grand Unified Theory (GUT) davon aus, dass die starke Kernkraft über eine Eigenschaft verfügt, die man als asymptotische Freiheit bezeichnet: Um so höher die hinzugefügte Energie ist, um so schwächer wird die starke Wechselwirkung. Auf diese Weise könnte man die starke Kernkraft abschwächen, während man die elektromagnetische und schwache Kernkraft durch Hinzufügen von Energie stärkt. Das Ergebnis ist dann logisch: Beide Kräfte werden irgendwann gleich stark sein. Somit wären diese drei Kräfte nur noch „verschiedene Aspekte einer einzigen Kraft“, so Stephen Hawking in seinem Beststeller „Eine Kurze Geschichte der Zeit“. Bei dieser sog. Vereinheitlichungsenergie sollen auch alle Teilchen mit dem Spin ½ (also alle Fermionen) gleiche Erscheinungsform haben. Sie wären dann auch nur verschiedene Aspekte des gleichen Teilchens, ähnlich wie die Vektor-Bosonen verschiedene Aspekte des Photons sind. Und was ist mit der Gravitation? Wenn man noch nicht einmal eine einheitliche Theorie dieser Kraft hat, wie soll man sie dann vereinheitlichen? Eine Lösung auf dem Weg zu dieser Theory of Everything (TOE) könnten sog. Superstrings sein, etwas sehr abstraktes. Demnach bilden unsere Teilchen keinen Punkt in der Raumzeit, sondern einen Faden. Bisher war es so, dass man ein Teilchen als Punkt an bestimmten Ortskoordinaten zu einer bestimmten Zeit angab. Jetzt versucht man ein Teilchen als einen Faden in der Raumzeit zu beschreiben. Diese Strings haben eine gewisse Länge und bewegen sich mit der Zeit vorwärts, wodurch sie eine Art zweidimensionale Fläche beschreiben. Diese Fläche kann jedoch auch gekrümmt sein, so dass sich linke und rechte Seite der Fläche treffen und so einen Zylinder bilden, der Querschnitt ist dann kreisförmig. Diese neue Vorstellung, 1984 von den beiden Physikern Michael Green und John Schwarz massiv vorangetrieben, konnte viele Ungereimtheiten, welche bei dem Versuch der Vereinheitlichung auftraten, eliminieren. Sie sagt etwas voraus, was man Supersymmetrie nennt: Demnach sind Fermionen (Materieteilchen mit halbzahligem Spin) und Bosonen (Träger der Kräfte mit ganzzahligem Spin) abermals verschiedene Aspekte ein und des selben Superteilchens, ähnlich wie oben bereits bei den Vektor-Bosonen und den Fermionen beschrieben. Damit hätte man auch das Graviton in die Theorie mit eingeschlossen. Die Superstringtheorie setzt eine 10-dimensionale Raumzeit voraus, was ziemlich verwunderlich wirkt, wenn wir unsere real wahrnehmbare vierdimensionale Raumzeit (drei Raumdimension plus eine Seite 64 von 83 Copyright Stefan Frank Zeitdimension) betrachten. Dadurch wird die Theorie jedoch nicht automatisch falsch: Man geht davon aus, dass die anderen sechs Dimensionen so klein zusammengerollt sind, dass wir sie nicht wahrnehmen können. Sie sollen nicht größer als 10-35 Meter sein, während die anderen drei Raumdimensionen unseres Universums eine Größe von 1023 Metern haben. Aber um jede Euphorie gleich wieder zu dämpfen: Die Stringtheorie ist nichts weiter als ein mathematisches Modell. Sie versucht Sachverhalte der Relativitätstheorie zu vereinheitlichen mit quantenphysikalischen Erkenntnissen. Man steht hierbei jedoch noch am Anfang. Es wird noch viele Jahrezehnte brauchen, bis man einigermaßen gesicherte Erkenntnisse hat – in naher Zukunft ist mit einem Erfolg also nicht zu rechnen. Nach dem durchlesen dieses Kapitels haben Sie einen Eindruck gewonnen wie kompliziert unsere atomare Welt aufgebaut ist. Die hier vorgestellten Teilchen sind dabei noch längst nicht alle. Es gibt um einige mehr, würden aber den Rahmen dieser Abhandlung deutlich sprengen. Sie wissen nun jedoch schon viel über Teilchen, Kräfte und ihre Wirkung. Aus der Quantenphysik ergeben sich in diesem Zusammenhang viele interessante Schlussfolgerungen, von denen ich Ihnen einige in den nächsten Kapiteln vorstellen möchte. Zusammenfassung Um die vier fundamentalen Kräfte zu erklären, stellt man sich im Rahmen der Quantenphysik vor, dass zwischen Teilchen Bosonen ausgetauscht werden, welche Träger der Kräfte sind. Die Quantenelektrodynamik beschreibt die elektromagnetische Kraft mit dem Austausch von Photonen, die Quantenchromodynamik die starke Kernkraft mit dem Austausch von Gluonen zwischen den Quarks. Die schwache Kernkraft wird durch drei weitere Teilchen (W+,W-,Z0) hervorgerufen. Die Weinberg-Salem-Theorie sagt eine Vereinigung der schwachen mit der elektromagnetischen Kernkraft voraus. Tatsächlich wirken die drei Vektor-Bosonen der schwachen Wechselwirkung bei großer Beschleunigung wie ein Photon. Auch die starke Kernkraft kann theoretisch auf diese Weise vereinheitlicht werden (Grand Unified Theory (GUT)). Die Theory of Everything (TOE) soll auch die Gravitation auf ähnliche Weise mit den anderen drei Kräften verbinden, doch soweit ist man noch lange nicht. Helfen kann dabei möglicherweise die Superstring-Theorie, wobei ein Teilchen nicht mehr als Punkt sondern als Faden innerhalb der Raumzeit beschrieben wird. Seite 65 von 83 Copyright Stefan Frank - Kapitel 13 Die quantenphysikalische Auffassung von Raum und Zeit Die Heisenbergsche Unschärferelation, die Wahrscheinlichkeitsverteilung von Wellen (Schrödinger), der Teilchenzoo, der Welle-Teilchen-Dualismus und all die anderen Konzepten, von denen Sie bisher gehört haben, offenbaren uns eine neue Sicht auf Raum und Zeit – ähnlich wie es bereits die Relativitätstheorie tat. Die relativistischen Aussagen haben Sie bereits in früheren Kapiteln kennen gelernt. Nun möchte ich Sie kurz mit Schlussfolgerungen der Quantenphysik über unser Verhältnis zu Raum und Zeit informieren. Ein Vakuum ist gar nicht so leer, oder: Die Strahlung schwarzer Löcher Wenn ein Raum von jeglicher Materie (also allen Atomen) gesäubert und von jeglicher Strahlung abgeschirmt wird, so nennt man den entstehenden Raum ein Vakuum. In ihm befindet sich, so die logische Schlussfolgerung, nichts. Aber wir haben bereits gesehen, dass ein „Teppich“ von Antimaterie den gesamten Raum füllt, so leer ist also unser Vakuum nicht, wir merken zunächst nur nichts davon. Es gibt jedoch einen Effekt, den man mit Quantenfluktuation umschreibt und mit dessen Hilfe aus dem Nichts tatsächlich neue Teilchen – einfach so – entstehen können. Die Heisenbergsche Unschärferelation besagt, dass man Ort und Impuls einen Teilchens nicht gleichzeitig genau bestimmen kann. Dies kann man auf ein Kraftfeld übertragen: Hier heißt es, dass man die Stärke eines Feldes und seine sog. Veränderungsrate zum gleichen Zeitpunkt nicht exakt festhalten kann. Wenn jedoch ein Feld vorliegt, dessen Stärke gleich null ist, so ist auch seine Veränderungsrate gleich null. In einem Vakuum hätte man dann also die Feldstärke und Veränderungsrate exakt bestimmen können – nämlich null. Dies widerspricht der Heisenbergschen Unschärferelation, also muss auch in einem zunächst völlig energie- und masselosen Raum Energie vorhanden sein. Daher kam man zu dem Ergebnis, dass innerhalb eines vermeintlichen Vakuums spontan Energiequanten und Gravitonen (wenn es sie denn gibt) entstehen, jedoch dann gleich wieder vernichtet werden. Ein Antiteilchen hat i.d.R. immer soviel negative Energie wie sein reales Gegenstück (Sie erinnern sich an die Herleitung der Antimaterie aus der speziellen Relativitätstheorie). Ein Gesetz der Physik besagt, dass sich ein Teilchen und sein Antiteilchen gegenseitig vernichten, wenn sie zusammentreffen. Z.B. löschen sich ein Elektron und ein Positron gegenseitig aus, wobei jedoch ein Quant Gammastrahlung emittiert wird. Ähnliches erfolgt im Vakuum: Gleichzeitig entsteht immer ein Paar: ein Quant und Antiquant oder ein Graviton und ein Antigraviton. Diese existieren jeweils für kurze Zeit bis sie sich wieder gegenseitig vernichten (annihilieren, wie der Fachbegriff hierfür ist). Dass solche Vorstellungen nicht nur Hirngespinste sind, zeigen schwarze Löcher. Durch den Urknall, so die vorherrschende Meinung der Wissenschaft, entstand unser Universum. An einer kleinen winzigen Stelle, kleiner als ein Atom, hatte sich die gesamte Materie des Universums konzentriert. Die Explosion dieses kleinen Objektes, genannt Singularität, war die Geburtsstunde unseres Universums. Es ist schwer sich eine solche Singularität vorzustellen. Fest steht, dass vor der Explosion der Singularität alle physikalischen Gesetze außer Kraft gesetzt sein mussten und, was viel imposanter ist: Die Zeit stand still! In den Kapiteln über die Relativitätstheorie habe ich dies bereits angesprochen: Sie haben erfahren, dass Licht (bzw. die Raumzeit) von Massereichen Objekten gebeugt wird. Je größer die Masse um so stärker dieser Effekt. Bei Singularitäten ist die Gravitationswirkung so stark, dass nichts, nicht einmal Licht dem Gebilde entkommen kann. Ursache hierfür ist die massive Krümmung des Raum-Zeit-Kontinuums. Wenn selbst Licht nicht in der Lage ist, die Singularität zu bezwingen, dann ist es auch für alle anderen Objekte unmöglich der geballten Schwerkraft zu entkommen – jegliche Masse wird regelrecht angesaugt. Diese Singularitäten sind auch die Erklärung für das Phänomen „Schwarze Löcher“. Sie sind nichts Seite 66 von 83 Copyright Stefan Frank weiter als eine Art UrknallSingularitäten, die alles verschlingen, was ihnen in die Quere kommt. Wenn schwarze Löcher jedoch alles auffressen und selbst Licht festhalten, wie können wir diese Objekte dann sehen? Dazu muss man sich den Aufbau genauer betrachten: Ein Schwarzes Loch hat einen sog. Ereignishorizont. Der Punkt, bei dem Licht gerade noch der Gravitation des Loches entkommt markiert diesen. Alles was darunter ist bleibt unsere Einsicht verwehrt - es handelt sich hierbei um den Schwarzschildradius. Nun kommt es dazu, dass nicht nur Licht, sondern auch Materie ein Schwarzes Loch umkreisen kann, immer auf der Schwelle zwischen Absturz in die schwarze Tiefe und der Weiterreise in die Unendlichkeit des Raumes. Durch diese Tatsache ist ein schwarzes Loch auszumachen: Man sieht Materiebewegungen um einen schwarzen inneren Kreis. In der Zwischenzeit hatte Stephen William Hawking (geb. 1942) jedoch eine ganz neue Idee und er kam zu dem Schluss: Schwarze Löcher sind nicht Schwarz! Diese Erkenntnis baut direkt auf der Heisenbergschen Unschärferelation und der sich ergebenden Quantenfluktuation im Vakuum auf. Jedes schwarze Loch sendet Strahlung aus, die Frage ist nur, wie diese aus dem schwarzen Loch entweichen kann. Die Antwort hierfür liegt im Ereignishorizont des schwarzen Loches: In Vakuumbereichen bilden sich, wie schon erwähnt, Teilchen-Antiteilchen-Paare. Diese würden sich im Normalfall - nach sehr kurzer Zeit wieder gegenseitig auslöschen. Es kann jedoch passieren, dass eines der beiden Teilchen von der Gravitation des schwarzen Loches angezogen wird. Innerhalb des schwarzen Loches ist jegliche Masse mit negativer Energie versehen, da „das Gravitationsfeld im Inneren des Schwarzen Loches so stark ist, dass dort sogar ein reales Teilchen negative Energie aufweisen kann., so Hawking in „Eine kurze Geschichte der Zeit“. Somit sieht ein Teilchen mit negativer Energie ähnlich aus, wie ein Teilchen, welches vorher positive Energie hatte und nur durch die Gravitation jetzt auch negative Energie in sich trägt. Da es sich jetzt als „reales Teilchen fühlen“ kann hat es nicht mehr den Drang einen Partner positiver Energie zu suchen um sich gegenseitig zu vernichten. Das reale Teilchen außerhalb des schwarzen Loches kann nun versuchen der Schwerkraft zu entkommen, was mit etwas Glück auch gelingt. Dieses Entkommen können wir als Strahlung messen. Sie kommt also nicht wirklich aus dem Inneren des Loches, sondern aus seinem Ereignishorizont. Diese Erklärung ist eine praktische Anwendung der Quantenfluktuation im Vakuum. Zurück in die Vergangenheit – Wenn für Teilchen die Zeit nicht geradlinig verläuft Bei der Analyse des, bereits oben vorgestellten Feynman-Diagramms kam man auf ein sehr komisch anmutendes Ergebnis: Teilchen können in der Zeit rückwärts reisen. Zu diesem Zweck soll ein Elektronen-Positronen-Paar in einem Feynman-Diagramm betrachtet werden. Dazu muss man etwas genauer über diese Diagramm-Art bescheidwissen. Auf der x-Achse werden hierbei die Ortskoordinaten abgetragen, auf der y-Achse trägt man die Zeit ab. Für ein einzelnes Elektron, welches ein Gammaquant emittiert könnte dies so aussehen, wie das Diagramm zeigt. Durch die Seite 67 von 83 Copyright Stefan Frank Rückstoßkraft des Quants bei der Emission wird das Elektron nach rechts abgelenkt. Die Pfeile geben an, in welche Richtung die Elektronen innerhalb des Diagramms fliegen, hier also von unten nach oben. Nun soll ein Feynman-Diagramm gezeigt werden, in dem sich ein Elektronen-Positronen-Paar begegnen und gegenseitig auslöschen. Beide steuern innerhalb des Diagramms zunächst von unten nach oben aufeinander zu. Treffen sich beide, so werden sie vernichtet und ein Gammaquant emittiert (links). Jetzt jedoch der Trick, und das ist mehr als ein mathematischer Kniff! Das gleiche Diagramm lässt sich auch anders interpretieren. Nehmen wir zunächst nur ein einzelnes Elektron, welches durch den Raum fliegt. Zu einem Zeitpunkt „zerfällt“ dieses Elektron spontan, emittiert einen Gammaquant und wird durch den Rückprall in der Zeit zurückgeschickt (rechts). Sie sehen, dass der Pfeil des rechten Elektrons von oben nach unten Zeigt. Da die Zeit auf der y-Achse abgetragen wird, zeigt sich so die zeitliche Rückwärtswanderung. Wurmlöcher durch den Casimir-Effekt? Aus der Relativitätstheorie geht hervor, dass kein Objekt schneller fliegen kann als das Licht (Tachyonen mal ausgenommen). An die Lichtgeschwindigkeit gebunden würden wir jedoch schon 100.000 Jahre brauchen um das Zentrum der Milchstraße zu erreichen. Deswegen hat man die Relativitätstheorie auf alle möglichen Eventualitäten überprüft und man wurde fündig. Wurmlöcher könnten uns schnelle Reisen in ungeahnte Weiten ermöglichen. Wie der Name schon sagt sind diese Gebilde lange Schläuche, welche die Raumzeit durchqueren. Die Funktionsweise baut auch hier auf den Quantenfluktuationen auf: Sie Wissen, dass unser Universum Höhe, Breite und Tiefe hat, welche mit der Zeit verwoben sind. Der vierdimensionale Raum kann gekrümmt werden, auch dies haben sie bereits erfahren. Im Normalzustand ist unser Raum wie eine Kugel positiv gekrümmt. Für ein Wurmloch muss man jedoch versuchen den Raum negativ – ähnlich einem Sattel – zu krümmen. Hierfür kann der Casimir-Effekt herangezogen werden: Zwei Platten werden in einem Seite 68 von 83 Copyright Stefan Frank gewissen Abstand zueinander aufgestellt. Innerhalb und außerhalb der Platten entstehen aus der Quantenfluktuation resultierende Teilchen, z.B. Photonen. Für diese Quanten haben die Metallplatten die Funktion von Spiegeln und somit werden diese permanent hin und her geworfen. Wenn der Abstand zwischen den beiden Platten nicht genau dem Vielfachen der Wellenlänge des Photons gleichkommt können sich Wellenberg und Wellenberg bzw. Wellental und Wellental zweier Photonen nicht genau überschneiden: Nach kurzer Zeit wird es dazu kommen, dass Wellenberg und Wellental einander überlagern und was dann passiert wissen Sie ja: Die Wellen heben sich gegenseitig auf. Somit müssen wir auf folgendes schließen: Die Energie innerhalb der Platten ist geringer als außerhalb, da Teile der Quantenenergie innerhalb der Platten aufgehoben wird. Dies kann man sogar nachweisen. Da die Energie außerhalb der Platten stärker ist, werden die äußeren Quanten, welche auf die Platten schlagen dafür sorgen, dass diese zusammengeschoben werden. Im Labor hat man dies überprüft und den Effekt nachweisen können. Hieraus lässt sich jedoch noch etwas weiteres bedeutsames ableiten: Durch die geringere Energie innerhalb der Platten wird das Energiepotential relativ zur normalen Umgebung negativ. Das bedeutet, die positive Beugung des Raum-Zeit-Kontinuums wird negativ gekrümmt. Wir erhalten ein Gebilde, welches einem Sattel gleichkommt. Diese Beugung ist eine Voraussetzung für die Erzeugung von Wurmlöchern. Ich muss Ihre vielleicht aufkommende Euphorie jedoch zügeln: Es handelt sich hierbei um Theorien – eine praktische Anwendung wird wohl keiner von uns je erleben. Wie viele Universen gibt es? Die Fragestellung, wie sie in der Überschrift formuliert ist, wird Sie vielleicht zunächst verwundern. „Eines natürlich, nämlich unseres“ könnte Ihre Antwort sein. Die Antwort eines Quantenphysikers wäre wahrscheinlich: „Für Sie eines, nämlich Ihres.“ Sie haben bereits einiges über die sog. Kopenhagener Deutung erfahren. Sie wissen welche kuriosen Vorhersagen sie macht. Ein Resultat dieser Überlegungen war Schrödingers Katze. Demnach Seite 69 von 83 Copyright Stefan Frank existieren alle möglichen Zustände eines (Quanten-) Systems gleichzeitig. Erst im Augenblick unserer Beobachtung zwingen wir diese Überlagerung von Wellenfunktionen dazu zusammenzubrechen. Hierdurch muss das System „eine Entscheidung fällen“ und einen Weg beschreiten. Im Falle von Schrödingers Katze würde dies bedeuten, das System muss gnädig sein und die Katze am Leben lassen oder das Todesurteil sprechen und vollziehen. Dieses Modell der kollabierenden Wellenfunktion lässt sich mathematisch gut beschreiben. Weiterhin kann man sich (zumindest im Entferntesten) etwas unter diesem Entscheidungsvorgang vorstellen. Eine ganz andere Auffassung dieses Vorgangs wurde in den 50er Jahren publik. Diese Vorstellung beruht auf der Annahme, dass bei jeder Entscheidung die ein Quantensystem fällen muss nicht nur eine der Möglichkeiten Realität wird, sondern alle! Diese Realitäten würden alle parallel existieren – es gibt also nicht nur eine Welt (ein Universum), sondern unglaublich viele in denen sich alle möglichen Quantenentscheidungen wiederspiegeln. Für uns wird jedoch zu jedem Entscheidungszeitpunkt nur eine Möglichkeit Realität – die anderen existieren zwar, jedoch nicht für uns. Überspitzt könnte man sagen, jeder hat sein eigenes Privatuniversum. Den Raum in dem sich diese unglaubliche Anzahl an parallelen Universen befindet nennt man Hyperraum. Praktisch bedeutet das für Schrödingers Katze: In unserer Realität hat die Katze vielleicht überlebt, aber – so traurig es ist – es wird irgendwo ein paralleles Universum geben in der die Katze nicht überlebt hat. Science Fiction-Autoren haben daher überlegt, ob man nicht von der einen Realität zu der anderen einfach hinüberwechseln kann, indem man dieses Universum verlässt (wie auch immer) und in das entsprechend andere hinüberwechselt, um dort die tote Katze vorzufinden. Die Antwort hierauf ist jedoch schlicht und ergreifend: Nein. Man darf sich die Universen nicht so vorstellen, als würden sie alle parallel nebeneinander liegen und man brauche nur „die Spur zu wechseln“ (ähnlich einer Autobahnfahrt) um in eine anderen Realität zu gelangen. Die einzige Möglichkeit in die Realität der toten Katze zu wechseln wäre es, in der Zeit rückwärts zum Zeitpunkt der Quantenentscheidung zu reisen und von dort zu versuchen in den Zweig der anderen Realität zu wechseln. Dieses mathematisch völlig durchdachte und in Einklang mit der Quantentheorie stehende Modell ist sehr umstritten, was man wohl leicht nachvollziehen kann. Bevorzugt wird daher von vielen Physikern die kollabierende Wellenfunktion, auch wenn diese mindestens so viele Fragen aufwirft wie das Modell der parallel existierenden Realitäten. Man muss jedoch akzeptieren, dass es ein mögliches Modell ist auch wenn bisher (natürlich) keine messbaren Beweise vorgebracht werden konnten. Zusammenfassung Um die Heisenbergsche Unschärferelation auch in Vakuum ihre Gültigkeit behalten zu lassen, führte man Quantenfluktuationen ein, wonach Teilchen-Antiteilchen-Paare spontan entstehen können deren Lebensdauer jedoch begrenzt ist. Stephen Hawking erkannte dieses Phänomen als Ursache für die Strahlung schwarzer Löcher. Mit Hilfe des Casimir-Effektes ist es möglich den Raum negativ zu krümmen, um so vielleicht eines Tages Wurmlöcher erzeugen zu können. Nach dem Viele-Welten-Modell spaltet sich bei jeder Quantenentscheidung das Universum in alle möglichen Alternativ-Universen auf, welche dann parallel existieren. Diese Alternativ-Universen sind jedoch von der eigenen Realität nahezu unerreichbar. Das Feynman-Diagramm zeigt, dass es eine realistische Möglichkeit gibt, dass Teilchen in der Zeit rückwärts wandern können. Seite 70 von 83 Copyright Stefan Frank - Kapitel 14 Quantenphysikalische Probleme bei der Prozessorarchitektur Im Jahre 1936 baute der deutsche Ingenieur Konrad Zuse (1910-1995) den ersten Computer der Welt, welcher über ein Programm steuerbar war. Dabei verwendete er das sog. Dualsystem, welches auf den Zahlen 0 und 1 aufbaut, bzw. auf den beiden Zuständen „Strom fließt“ und „Strom fließt nicht“. Waren seine Anlagen zunächst noch rein mechanisch, so hatten die Nachfolger schon komplizierte elektronische Schaltungen. Die Entwicklung auf dem Gebiet der elektronischen Datenverarbeitung (EDV) war rasant – Rechenund Speicherkapazität stiegen explosionsartig an. Zu verdanken ist diese Entwicklung primär einer Erfindung: dem Siliziumchip. Durch die Miniaturisierung seiner Bestandteile kann gleichzeitig Komplexität und Rechengeschwindigkeit gesteigert werden. Moor's Gesetz besagt, dass mit einer Verdopplung der Prozessorleistung alle 18 Monate gerechnet werden kann. In der Vergangenheit stimmte dieses auch. Jedoch ist es nicht möglich die einzelnen Komponenten eines Chips beliebig klein zu konstruieren – die Gesetzte der Quantentheorie stellen nahezu unüberwindbare Barrieren auf, auch wenn es Versuche gibt diese zu umgehen. Um die Geschwindigkeit zukünftiger Rechnergenerationen trotzdem steigern zu können versucht man einen ganz neuen Wege zu beschreiten: den Weg des Quantencomputers. Sollte er eines Tages Realität werden, so stehen der Menschheit Rechengeschwindigkeiten zur Verfügung von denen wir momentan nur Träumen können. Dieses Kapitel soll über die Probleme jetziger Rechnerarchitekturen informieren und mögliche Alternativen aufzeigen. Das nächste Kapitel wendet sich dann dem Quantencomputer zu. Es ist sicherlich nicht zu viel gesagt, wenn man einen Rechner auf Quantenbasis als einen der größten Siege der Quantentheorie bezeichnet. Der Siliziumchip Ein Computer basiert auf der Tatsache, dass man jede beliebige Dezimalzahl mit Hilfe zweier anderer Zahlen darstellen kann, der 0 und der 1. Das folgende Beispiel soll dieses Dualprinzip genauer erklären: Nehmen wir an, wir haben die Zahl 5670 vorliegen. Ohne lange zu überlegen wissen wir sofort, was unter dieser Zahl zu verstehen ist. Mathematisch lässt sich diese Zahl jedoch wie folgt beschreiben: Sie sehen, dass jeder Stelle der Zahl eine Potenz zugeschrieben ist. Die Potenz rechts steht für die Einerstellen (10 hoch 0 ergibt 1). Die nächste Potenz steht für die 10er Stellen, die darauf folgende für die 100er usw. Da die Zahl 10 die Basis dieser Auflistung repräsentiert spricht man vom sog. Dezimalsystem. Eine Zahl dieser Art lässt sich jedoch nicht in einem Rechner darstellen, eine Zahl mit der Basis zwei jedoch sehr wohl. Folgende Berechnung zeigt die Darstellung: Addiert man die Potenzen zur Basis zwei zusammen, so erhält man tatsächlich die Zahl 5670 im Dezimalsystem. Die möglichen Vorfaktoren der jeweiligen Potenz sind jeweils die Basis minus 1. Im 10er-System stehen also die Vorfaktoren 0 bis 9 zur Verfügung, im 5er-System die Faktoren 0 bis 4 und im 2er-System (Dualsystem) demzufolge 0 und 1. In der Notation kann man sich die Potenzen sparen. Bei der Zahl 5670 im Dezimalsystem schreiben wir also nicht die Zehnerpotenzen dahinter. Vereinbarungsgemäß wissen wir, dass die Zahlen 5,6,7 und 0 gerade die Vorfaktoren der jeweiligen Zehnerpotenzen sind. Das gleiche macht man nun im Dualsystem: Anstatt die lange Kette an Zweierpotenzen zu notieren, schreibt man nur die Vorfaktoren auf, in unserem Beispiel wäre das: 1011000100110. Es gilt also: Der Index beschreibt dabei, mit welchem Zahlensystem man es zu tun hat. Eine Kette von Nullen Seite 71 von 83 Copyright Stefan Frank und Einsen lässt sich wiederum in einem Computer darstellen: Eine Eins steht dabei für „Schalter geschlossen, Strom fliest“, eine Null für „Schalter offen, Strom fließt nicht“. Ein Mikrochip ist nichts weiter als ein Baustein, welcher Schalter beinhaltet, die den Strom an- bzw. ausschalten. Diese Schalter haben jedoch keinerlei Ähnlichkeit mit einem Lichtschalter oder dem On/OffSchalter Ihres Fernsehgerätes. Die Schalter von denen ich hier spreche, sind sog. Transistoren. Ein Transistor verfügt über zwei Eingänge und einen Ausgang: Der Strom soll über den sog. Emitter in den Transistor eintreten und über den sog. Kollektor wieder entweichen. Damit er das jedoch kann, muss der Schalter, welcher durch den Gate dargestellt wird, geschlossen werden. Es gibt verschiedene Arten von Transistoren, die prinzipielle Funktionsweise sei hier jedoch an dem Beispiel des n-MOS-Transistors vom Anreicherungstyp gezeigt. Ein Chip besteht i.d.R. aus Silizium, einem chemischen Element mit 14 Protonen im Kern. Demzufolge hat es 14 Elektronen in der Hülle: 2 auf der innersten Schale, 8 auf der zweiten und 4 auf der dritten Schale. Liegt hochreines Silizium vor, so bildet es ein einheitliches, stabiles Gitter. Die vier Elektronen der äußersten Schale (Valenzbandelektronen) teilen die Siliziumatome mit anderen Atomen ihrer Art, welche wiederum ihre Elektronen zur Verfügung stellen. Man muss sich das in etwa so vorstellen, dass ein Siliziumatom nur dann wirklich „glücklich“ ist, wenn es 8 Elektronen auf der äußeren Schale hat. Das heißt, es muss sich vier weitere besorgen und dies tut es, indem es sich mit anderen Atomen Elektronen teilt. Auf diese Weise entsteht ein stabiler Verbund, die sog. Elektronenpaarbindung. Diese kristalline Struktur ist nach außen hin elektrisch neutral, was nicht verwundert, denn an der Anzahl der Protonen und Elektronen hat sich ja nichts geändert. Mit diesem hochreinen und elektrisch neutralen Siliziumkristallen könnte die Computerindustrie jedoch noch nicht viel anfangen. Für ihre Zwecke muss das Material eine elektrische Ladung enthalten und zwar positiv auf der einen Seite und negativ auf der anderen. Um dieses Ziel zu erreichen hat man ein Verfahren erfunden, welches man Dotierung nennt. Hierbei werden Fremdatome in das Silizium eingebracht. Zunächst soll dies anhand der negativen Dotierung (nDotierung) erklärt werden. Ziel ist es also in das elektrisch neutrale Silizium eine negative Ladung „zu schmuggeln“. Dies ist prinzipiell relativ einfach (auf das technische Verfahren soll hier nicht näher eingegangen werden). Ersetzt man ein Siliziumatom durch ein Phosphoratom ist das gewünschte Ergebnis schon erzielt. Phosphor hat 15 Elektronen, also eines mehr als Silizium. Vier Elektronen werden benötigt, um dabei zu helfen bei vier Siliziumatome das Valenzband auf 8 Elektronen aufzufüllen. Ein Elektron ist also „überflüssig“ und dient als negativer Ladungsträger. Möchte man eine p-Dotierung erreichen (also eine positive Ladung einschmuggeln), so besteht eine Möglichkeit darin ein Aluminiumatom in das Kristallgitter zu integrieren. Aluminium hat 13 Elektronen, also gerade eins weniger als Silizium. Ein Siliziumatom in der Umgebung des Seite 72 von 83 Copyright Stefan Frank Aluminiumatoms kann also nicht bedient werden. Im Kontext des elektrisch neutralen Gitters erscheint dies als positive Lücke, als positives Elektron (ähnlich einem Positron). Der n-MOS-Transistor vom Anreicherungstyp besteht nun aus je einem n-Dotierten Emitter bzw. Kollektor und einem pdotierten Gebiet, welches unter dem Train liegt. Ziel ist es, dass ein Strom zwischen den beiden n-dotierten Gebieten fließen kann. Zur Zeit ist dies nicht möglich, da das p-dotierte Gebiet den Elektronen den Weg versperrt. Jetzt könnten Sie natürlich die Frage stellen, warum denn die negativen Elektronen des n-Gebietes nicht von den positiven Lücken des p-Gebietes angezogen werden. Diese Frage ist berechtigt und nicht leicht zu beantworten. Es ist tatsächlich so, dass die Elektronen von den positiven Lücken des p-Leiters angezogen werden. Bei dem Prozess des Anziehens entsteht jedoch im n-dotierten Gebiet ein Elektronenmangel welcher zur Folge hat, dass Elektronen wieder zurückgezogen werden. Dies wiederum hat zur Folge, dass die p-Schicht wieder stärker an den Elektronen zieht, wodurch in der n-Schicht abermals ein Elektronenmangel auftritt usw. Dies könnte man ewig so fortsetzen bis zu einem Zeitpunkt bei dem sich dieses Hin und Her einpendelt und in einen Gleichgewichtszustand eintritt. Um nun Strom durch den Transistor fließen zu lassen muss man an den Gate eine positive Spannung anlegen. Hierdurch werden die positiven Bereiche des p-Materials verdrängt und die negativen Elektronen des n-Materials regelrecht angezogen. Es entsteht eine freie Leiterbahn für die Elektronen – Strom fließt. Die physikalischen Grenzen des Chips - der Tunneleffekt Leistungssteigerungen bei Prozessoren liegen primär in der Miniaturisierung der einzelnen Transistoren begründet. Um so kleiner jedoch die Strukturen, um so stärker wirkt sich ein Phänomen aus den man Tunneleffekt nennt. Es handelt sich dabei um ein quantenphysiklisches Problem, welches auf der Heisenbergschen Unschärferelation aufbaut. In Kapitel 12 haben Sie bereits einiges über die Kräfte unserer Welt gelernt. Unter anderem haben Sie erfahren, dass die elektromagnetische Kraft Ladungen abstößt bzw. anzieht und die starke Kernkraft den Atomkern zusammenhält. Diese ist also eine Art Gegenspieler zur elektromagnetischen Kraft, deren Aufgabe es wäre die gleich geladenen Protonen im Kern abzustoßen. Die Frage ist dann jedoch warum es trotzdem zu radioaktiven Zerfallsprozessen kommen kann, wenn doch die starke Kernkraft den Kern zusammenhält. Die Antwort hierauf ist der Tunneleffekt. Sie können sich das Energieverhältnis innerhalb des Kerns wie einen Wasserdamm vorstellen, welcher die Bevölkerung vor Überflutung schützen soll. Ist das Wasser unterhalb der Krone, so sind die Behausungen geschützt. Steigt das Wasser jedoch weiter, so ist die Siedlung Seite 73 von 83 Copyright Stefan Frank nicht mehr zu retten – das Wasser stürzt ins Tal. Ähnlich ist dies in einem Atomkern: Die starke Anziehungskraft stellt den Damm da. Die Energie der Protonen müsste größer sein, als die Krone des Hangs um sich aus dem Verbund zu lösen. Schafft es jedoch ein Proton über diese Spitze, so sorgt die elektromagnetische Kraft dafür, dass das Proton abgestoßen wird – ähnlich dem Hang, welcher das Wasser beschleunigt, so dass die Naturgewalt nicht mehr zu stoppen ist. Die Gesetze der Quantenmechanik sagen jedoch, dass kein einziges Proton genügend Energie hat, um den Damm (den sog. Potentialwall) zu erklimmen. Die Heisenbergsche Unschärferelation erlaubt es den Protonen jedoch den Wall trotzdem zu überwinden. Hierfür gibt es zwei Erklärungen, wobei die eine etwas einfacher, die andere wiederum etwas komplizierter ist. Ich möchte zunächst die einfache Möglichkeit aufzeigen. Die Unschärferelation besagt, dass der Ort eines Quantums nicht genau bestimmbar ist. Ein Teilchen innerhalb des Potentialwalls kann – unter bestimmten Voraussetzungen – auch kurzzeitig als ein Teilchen außerhalb des Walls aufgefasst werden. Die Wellengleichungen Schrödingers sprechen zwar den Teilchen nur eine geringe Aufenthaltswahrscheinlichkeit außerhalb des Potentialwalls zu, aber die Wahrscheinlichkeit ist nicht gleich null. Zwar hat das Proton immer noch nicht genügend Energie für die Überwindung der Barriere, jedoch lässt die Ortsunschärfe einen kurzzeitigen Aufenthalt außerhalb der Barriere zu. Ähnlich verhält es sich auch mit der Energie, was gleichzeitig die zweite Erklärung ist: Nicht nur der Ort sondern auch der Impuls ist nicht exakt bestimmbar. Der Impuls, das wissen Sie bereits, ist ein Maß für den Energiegehalt des untersuchten Teilchens. Es ist also möglich, dass ein Teilchen kurzzeitig die nötige Energie aufweist, und so den Potentialwall überwinden kann. Es hat den Anschein als würde das Teilchen den Potentialwall durchtunneln, daher der Name. Dies ist ähnlich dem Wasser, welches durch kleine Risse und Mauselöcher Wege durch den Damm suchen kann und diesen so umgeht. Innerhalb eines Kerns bedeutet dies, dass Protonen den Verbund verlassen können uns so den radioaktiven Zerfall hervorrufen. In diesem Zusammenhang müssen Sie immer bedenken, dass die Unschärferelation nicht nur ein Problem bei der Messung ist, sondern eine fundamentale Eigenschaft, die jedem Teilchen inne wohnt. Selbst mit den geschicktesten Versuchen lässt sich Ort und Impuls nicht exakt bestimmen – dies ist kein Problem der Messung, sondern ein Problem der Teilchen, deren inne wohnende Eigenschaften es ist nicht exakt bestimmbar zu sein. Ein ähnlicher Tunneleffekt stellt sich bei Transistoren ab einer bestimmten Größen ein (500 Nanometer gilt als kritische Grenze). Im Normalfall können Elektronen Isolatoren nicht durchdringen. Im dritten Kapitel konnten Sie lesen, dass Elektrizität ein Fluss von Elektronen ist und Isolatoren die Fähigkeit besitzen keine Elektronen zu leiten. Das Problem ist jedoch, dass ab einer bestimmten Größe Elektronen die Isolationsschicht einfach durchtunneln können, resultierend aus ihrer Orts- bzw. Impulsunschärfe. Somit hat natürlich ein Transistor keinerlei Schalterwirkung mehr, da die Elektronen so oder so durchkommen. Der Transistor ist daher wertlos geworden, es gibt jedoch eine Entwicklung, welche genau diesen Tunneleffekt ausnutzt – der sog. QuantenTunneleffekt-Transistor. Seite 74 von 83 Copyright Stefan Frank Der Quanten-Tunneleffekt-Transistor Dieser Transistor arbeitet nicht direkt auf der Basis „Strom ein“, „Strom aus“ sondern repräsentiert die logische Information 0 und 1 durch die relative Position zweier Elektronen zueinander. Grundlage ist eine Siliziumoxid-Scheibe auf der 4 metallische Inseln aufgebracht sind, welche zusammen ein Quadrat bilden. Diese vier Metallplatten beherbergen zwei Elektronen. Auf Grund der Abstoßungskräfte nehmen beide die Position auf dem Metall ein, welcher den größte Abstand zwischen ihnen darstellt. Daraus resultiert, dass sie die Eckpunkte zweier Metallinseln besetzen, und zwar so, dass sie diagonal gegenüberliegen. Legt man nun eine Spannung an, so kann man ein Elektron dazu bringen auf die andere Seite des Quadrats zu tunneln. Das Resultat ist, dass nun nicht mehr der längste Abstand zwischen den beiden Elektronen eingehalten wird. Das andere Elektron erfährt also eine Abstoßungskraft und kann mit Hilfe des Tunneleffektes auf die andere Seite der Quadrats springen. Je nachdem, welche diagonale Einstellung die Elektronen zueinander haben, repräsentieren sie so 0 oder 1. Positiv ist, dass die Schaltvorgänge so deutlich schneller realisiert werden können, negativ hingegen ist das Problem, dass dies nur bei äußerst niedrigen Temperaturen nahe dem absoluten Nullpunkt möglich ist. Ein Rechner würde natürlich nicht nur aus einem solchen Transistor bestehen, sondern aus Millionen. An der effizienten Zusammenschaltung dieser Transistoren wird jedoch noch geforscht. Supraleiter als Schalter? Supraleiter besitzen die Fähigkeit Strom ungehindert fließen zu lassen. Im Normalfall haben elektrische Leiter einen Widerstand, der den elektrischen Fluss hemmt. Kühlt man jedoch bestimmte Materialen ab (z.B. Helium oder Quecksilber), so verlieren sie diese hemmende Eigenschaft und Strom kann ungehindert fließen. Dieser Effekt wurde 1911 von dem holländischen Physiker Heike Kamerlingh Onnes (1853-1926) erstmals entdeckt. Voraussetzung ist eine Abkühlung des Stoffes auf eine Temperatur nahe dem absoluten Nullpunkt. Die Vorgänge, welche sich innerhalb des Stoffes abspielen sind rein quantenphysikalisch. Elektronen gehorchen der Fermi-Dirac-Statistik, sind also Fermionen und haben einen halbzahligen Spin (+/- ½). Da sie diese Eigenschaften besitzen gehorchen sie auch dem Pauli-Prinzip, welches besagt, dass zwei Fermionen innerhalb eines Systems (also z.B. innerhalb eines Atoms) nie in dem gleichen Quantenzustand sein können. Zwar haben alle Elektronen zunächst den Drang niedrige Energieniveaus zu besetzen, sind diese jedoch aufgefüllt so müssen sie nach dem Ausschließungsprinzip höhere Energieniveaus einnehmen. Unter bestimmten Voraussetzungen kann jedoch etwas sehr merkwürdiges passieren: Zwei Elektronen, welche sich normalerweise abstoßen gehen eine lockere Bindung ein. Diese Bindung sorgt dafür, dass sie nach außen wie ein Teilchen wirken. Nach den Gesetzen der Quantenphysik Seite 75 von 83 Copyright Stefan Frank addieren sich ihre Spins (z.B. -½ + ½ = 0). Es ergeben sich also ganzzahlige Spins, welche nun den Elektronen völlig neue Eigenschaften verleihen. Teilchen mit ganzzahligem Spin folgen bekanntlich der Bose-Einstein-Statistik (wie z.B. Photonen). Bosonen unterliegen nicht dem Ausschließungsprinzip und so können alle Elektronen den niedrigst möglichen Energiezustand annehmen. Der Abstand zwischen dem niedrigsten Energiezustand und dem nächst möglichen ist so groß, dass Quanten mit relativ hohem Energiegehalt nötig wären um die Elektronen anzuregen. Auf Grund dieser Tatsache können die Elektronen kaum noch mit den Atomen des leitenden Materials wechselwirken. Eine Energieabgabe ist nicht möglich, da sich die Elektronen bereits auf dem niedrigsten Energieniveau befinden, eine Energieaufnahme ist nicht möglich, da die Atome hierfür nicht genügend Quantenenergie zur Verfügung stellen. Um letzteres jedoch zu erreichen, muss man dem Material die Energie entziehen (abkühlen). Fügt man dem Material jedoch Wärme, und somit Energie hinzu, so können die Elektronen auf höhere Energieniveaus gehoben werden und der lockere Elektronenverbund (die sog. Elektronenkopplung) zerbricht. Das Ergebnis sind wieder zwei Elektronen, welche der Fermi-Dirac-Statistik gehorchen. Im Jahre 1999 haben es genfer Forscher geschafft einen Supraleiter zu entwickeln, welcher sich anund ausschalten lässt. Ist der Supraleiter aktiv, so fliest Strom, ansonsten nicht. Auf diese Weise würden sich Rechner konstruieren lassen, deren Schaltvorgänge deutlich schneller sind als die heutige Technologie es erlaubt. Revolutionär wäre jedoch eine ganz neue Art von Rechnern, der sog. Quantencomputer. Er würde gänzlich auf der Quantentheorie aufbauen und sich nicht nur ihrer Eigenschaften als Hilfsmittel bedienen. Im nächsten Kapitel soll dieser genauer beschrieben werden. Zusammenfassung Computer bauen auf dem Binärsystem auf, da sie nur zwei Zustände („Strom an“, „Strom aus“) unterscheiden können. Transistoren sind elektrisch gesteuerte Schalter, welche sich auf Siliziumscheiben realisieren lassen. Eine unendliche Miniaturisierung ist jedoch nicht möglich, da der Tunneleffekt Isolatoren unwirksam macht. Bestimmte Chip-Architekturen wie der QuantenTunneleffelt-Transistor machen sich diesen zur Nutze. Andere neuartige Architekturen bauen auf der Supraleitfähigkeit von Stoffen auf, wobei Elektronen bei niedrigen Temperaturen nicht wie Fermionen sondern wie Bosonen wirken. Hierdurch ist ein widerstandsfreier Stromtransport möglich. Seite 76 von 83 Copyright Stefan Frank - Kapitel 15 Unglaubliche Möglichkeiten: Der Quantencomputer Es klingt zu fantastisch um wahr zu sein: Ein Computer, welcher bestimmte Aufgaben tausendfach schneller rechnet als die schnellsten Supercomputer heutiger Tage. Leider ist es im Moment mehr Vision als Realität, aber erste Erfolge auf dem Weg zum Quantencomputer konnten bereits verbucht werden. Ich möchte diese Zukunftstechnologie hier genauer vorstellen, so zusagen als krönender Abschluss unserer Reise durch die Welt der Relativität und Quantentheorie. Das Kapitel soll jedoch nur einen kurzen Einblick gewähren, da eine tiefgründige Analyse schnell in den mathematischen Einsatz der Schrödingerfunktionen und Dirac-Notationen führen würde, was diese populärwissenschaftliche Einführung deutlich sprenget. Von Qubits und Quantensuperpositionen Grundlage des Quantencomputers sind quantenphysikalische Zustände, wie sie in dieser Abhandlung bereits beschrieben worden sind. Ich möchte daher versuchen das schon bekannte so zu verknüpfen, dass Sie die Grundlagen verstehen. Mit Hilfe des Doppelspaltexperimentes habe ich Ihnen in Kapitel 10 das komische Verhalten von Quanten gezeigt. Verwendet man eine Platte, welche an zwei Stellen lichtdurchlässig ist und befestigt in einem gewissen Abstand eine Photoplatte dahinter so zeigt sich ein Interferenzmuster sobald Licht durch die beiden Schlitze fällt. Dies ist verständlich, denn der Welle-TeilchenDualismus besagt, dass Quanten auch als Wellen aufgefasst werden und diese haben die Fähigkeit zu interferieren. Verwunderlich war jedoch das Entstehen des Interferenzmusters wenn man nur ein einzelnes Quant aussendet. Mit welchem Quant interferiert dieses um das Muster zu erzeugen? Auf Wellenebene haben wir diese Frage bereits geklärt und gesagt, dass das Quant als Welle durch die Schlitze tritt und so auch ein einzelnes Quant eine Interferenz hervorrufen kann. Es gibt jedoch auch eine Erklärung auf Quantenebene, welche, wie sollte es in der Quantentheorie auch anders sein, verrückt ist. Das Quant trägt nicht nur die eigene Welleninformation in sich, sondern auch die Information seines „Gegenspielers“, welches die Interferenz hervorruft. Beide Zustände sind in dem einen Quant gespeichert. Ein weiteres Experiment, welches eine große Ähnlichkeit mit dem Michelso-Morley-Interferometer aus Kapitel 4 hat, bestätigt diese Vermutung. Das sog. Mach-Zehnder-Interferometer hat den folgenden Aufbau: Licht wird auf einen halb durchlässigen Spiegel gesandt, wobei der Lichtstrahl geteilt wird. Beide legen nun über je einen Spiegel eine exakt gleiche Strecke zurück und werden am Ende mit Hilfe eines weiteres halb durchlässigen Spiegels wieder vereinigt. Innerhalb des Spiegels tritt nun Seite 77 von 83 Copyright Stefan Frank Interferenz auf: In die eine Richtung verstärken sich die Lichtstrahlen und können daher mit Hilfe eines Detektors gemessen werden. In die andere Richtung jedoch löschen sich die Lichtstrahlen gegenseitig aus. Daher zeigt der Detektor keinerlei Lichteinfall an. Interessant wird es, wenn man nur ein Quant durch das System sendet: Geht man von der Teilchennatur des Lichts aus, so muss dieses sich für einen Weg entscheiden. Man kommt jedoch zu dem gleichen Ergebnis, wie bei dem vorhergehenden Versuch: Ein Detektor registriert das Quant, der andere nicht. Verschließt man nun einen der beiden Wege, so ist in beiden Detektoren Licht zu registrieren. Auch hier hat das Quant also die Information von eigentlich zwei Quanten in sich getragen: Die eigene Information und die Information des Gegenspielers, welches die Interferenz auslöst und so verhindert, dass beide Detektoren etwas messen können. Die Schrödingergleichungen beschreiben dieses Phänomen ebenfalls auf Wellenebene. Sie haben erfahren, dass ein Quantensystem eine Überlagerung vieler möglicher Zustände ist (eine Überlagerung vieler Wellenfunktionen) und nur zum Zeitpunkt der Beobachtung zwingt man das System dazu eine Entscheidung zu fällen, z.B. ob Schrödinger seine Katze weiterhin behalten darf oder eben nicht. Die Eigenschaft, dass ein Quantensystem mehr als eine Information in sich tragen kann nennt man Quantensuperposition. Während in der „herkömmlichen“ Informatik ein Zustand eindeutig ist, nämlich entweder 0 oder 1, haben wir es in der Quanteinformatik mit einer Überlagerung mehrerer Zustände zu tun. Dies ist mit nichts in der bisherigen Informationstheorie vergleichbar. In der Informatik sprach man bisher von sog. Bits. Ein Bit ist eine einzige Speicherzelle, welcher genau ein Zustand, nämlich 0 oder 1, zugewiesen werden kann. Dabei ist es egal, ob man dies mit „Strom an“, „Strom aus“, „Schalter auf“, „Schalter zu“, „magnetisiert“, „nicht magnetisiert“ usw. gleichsetzt. Der Zustand ist immer ganz eindeutig definiert. In der Quanteninformatik ersetzt man diese Bits durch Qubits. Ein einzelnes Qubit ist ein Teilchen, welches quantenphysikalischen Gesetzen gehorcht und gleichzeitig 0 und 1 repräsentiert! Koppelt man zwei Qubits so repräsentiert ihr Quantensuperposition alle vier möglichen Zustände (00,01,10,11), koppelt man drei so alle acht, bei vieren alle 16 usw. Die einfache Formel dahinter lautet 2N, wobei N die Anzahl der gekoppelten Qubits ist. Es gibt verschiedene Möglichkeiten Qubits zu realisieren. Die zwei bekanntesten möchte ich hier vorstellen: NMR und die Ionenfalle. Nukleare magnetische Resonanz (NMR) Bei der nuklearen magnetischen Resonanz (kurz NMR) wird der schon beschriebene Spin der Teilchen ausgenutzt. Eine Flüssigkeit, deren Teilchen alle den Spin ½ aufweisen, dient als Basis dieser Methode. Wird ein solches Teilchen einem Magnetfeld ausgesetzt so richtet sich dieses getreu seinem Spin aus. Der Spin schreibt dem Teilchen also vor in welche Richtung es sich zu drehen hat. Wenn das Teilchen jedoch eine genau entgegengesetzte Position einnehmen soll, so braucht es dafür ein höheres Energieniveau. Bei der NMR-Methode wird an die Flüssigkeit ein Magnetfeld angelegt, so dass sich die Teilchen alle gleich in eine Richtung auslenken. Dieser Grundzustand kann mit der Binärzahl 0 gleichgesetzt werden. Mit Hilfe von gezielt eingesetzter Radiostrahlung (niederfrequente Strahlung) kann ein solches Teilchen dazu gebracht werden seine Ausrichtung zu ändern, dies würde der 1 entsprechen. Ein nochmaliger Einsatz des Strahls würde das Teilchen wieder auf 0 zurückspringen lassen. In der Informatik bezeichnet man das als logisches NOT, da der Zustand genau umgekehrt wird (NOT 1 = 0, NOT 0 = 1). Man muss jedoch das Teilchen, welches z.B. ein Wasserstoffkern (also ein Proton) sein kann nicht um 180° drehen. Verwendet man nur die Hälfte der Energie, so dreht man es um nur 90°. Und hier schlägt die Quantenphysik wieder zu: Misst man jetzt den Zustand des Teilchens so ist die Wahrscheinlichkeit eine 1 zu messen 50 % und ebenso 50 % ein 0 zu messen. Das Teilchen gehorcht quantenphysikalischen Regeln und befindet sich in einer Superposition zwischen zwei Werten. Seite 78 von 83 Copyright Stefan Frank Nun sollen quantenphysikalische Systeme jedoch nicht nur aus einem, sondern aus vielen Qubits bestehen. Dafür müssen sie miteinander interagieren. Die Quantenphysik hält hierfür ein Phänomen bereit, welches sich Spin-Spin-Kopplung nennt. Innerhalb eines Moleküls bewirkt die Veränderung des einen Atomspins eine Veränderung des Spins eines anderen Atoms des Moleküls. Somit können verschiedene Qubits innerhalb eines Moleküls miteinander gekoppelt werden. Ionenfallen Wie der Name schon sagt dienen bei dieser Methode Ionen als Grundlage. Diese werden unter Verwendung eines elektrischen Feldes in einem Vakuum festgehalten. Mit Hilfe eines Lasers ist es möglich die Ionen in einen ruhigen Zustand zu versetzen (man nennt dies Kühlung mittels Laser). Ein Laser ist nichts weiter als ein Strahl von Lichtquanten, welche alle die gleiche Energie aufweisen. Somit ist die Frequenz des Lichtes eindeutig bestimmt und nicht eine Überlagerung von vielen Wellenlängen, wie wir es in unserem Alltag vorfinden. Eine weitere Besonderheit des Laserlichtes ist, dass es kohärent ist, Wellenberg und Wellental der einzelnen Lichtwellen liegen also genau übereinander und können sich so nicht gegenseitig auslöschen. Die Ionen können die Quantenenergie des Lasers nur aufnehmen, wenn dieser die richtige Frequenz aufweist. Befindet sich das Ion in Ruhe, so hat der Laser keinerlei Wirkung, da die Quantenergie nicht der benötigten Energie des Ions entspricht. Befindet es sich jedoch in Bewegung, so entfernt sich dieses von dem Laser und wandert wieder auf diesen zu. Nach dem Dopplereffekt, wie er oben bereits beschrieben wurde, erhöht sich die Frequenz des Lichts, wenn sich das Ion auf die Lichtquelle zu bewegt. Hierdurch kann das Quant die nötige Energie erhalten und auf das Ion einwirken. Dies erhält einen Rückstoß und beginnt so die Bewegung langsam einzustellen, bis es schließlich gänzlich zur Ruhe kommt. Mit Hilfe des Laserlichtes kann das ruhige Ion nun beliebig angeregt werden. Da auch dieses den Gesetzen der Quantenphysik gehorcht, lässt es sich somit in eine Quantensuperposition zwischen angeregtem und nicht angeregtem Zustand versetzen. Auch eine Wechselwirkung mit anderen Ionen ist möglich: Wird nämlich ein Ion angeregt und somit in Bewegung versetzt, so tun das auch die anderen Ionen, welche in der gleichen Falle sitzen. Somit erhält man eine Überlagerung verschiedener Quantenzustände. Mit Quantensuperpositionen rechnen Sie werden sich nun zu recht fragen wie man mit irgendwelchen überlagerten Wellenfunktionen rechnen kann. Diese Frage soll nun hier beantwortet werden. Mathematisch gesehen handelt es sich bei Quantenoperationen um komplexe Vektorberechnungen, welche ich hier nicht tiefergehend beschreiben möchte. Um Ihnen jedoch eine mathematische Vorstellung zu geben, sei das Prinzip hier ganz kurz demonstriert. Wenn Sie die Mathematik nicht mögen, so können Sie das nun Folgende einfach überlesen, ich empfehle jedoch wenigstens einen kurzen Blick auf die mathematische Beschreibung zu werfen. Auch wenn Sie nicht alles verstehen sollten, so werden die Gedankengänge trotzdem deutlicher. Grundlage des mathematischen Modells bildet der sog. Hilbertsche Raum, ein Koordinatensystem, welches ähnlich dem kartesischen ist (also dem gewohnten mit einer horizontalen, vertikalen und diagonalen Achse (letztere soll immer die Tiefe repräsentieren)), jedoch kann der Hilbertraum mehr Dimensionen enthalten. Der Zustand eines quantenphysikalischen Systems lässt sich als Vektor darstellen, welcher sich aus drei weiteren Vektoren zusammensetzt. Diese Vektoren können gerade die x,y und z-Achse eines kartesischen Koordinatensystems sein. Je nachdem wie hoch jeweils der Anteil der drei Vektoren am resultierenden Vektor ist, richtet sich dieser unterschiedlich im Raum aus. Dieser sich ergebende Vektor (ket-Vektor genannt) wird mit dem Formelzeichen dargestellt. Haben wir ein Qubit Seite 79 von 83 Copyright Stefan Frank vorliegen, so überlagern sich zwei Zustände: Einmal der Zustand, welchen wir mit 0 bezeichnen, und ein Zustand, welchen wir mit 1 umschreiben. Beides sind Eigenschaften des quantenphysikalischen Systems und müssen für das Gesamtsystem berücksichtigt werden. Diese beiden Zustände lassen sich nun wieder als ket-Vektor auffassen. Die Wahrscheinlichkeit, dass das System bei einer Messung 0 zurückgibt kann man mit bezeichnen,die Wahrscheinlichkeit für eine 1 mit . Es ist zu beachten, dass es sich hierbei noch nicht direkt um die Wahrscheinlichkeiten handelt, da beide Werte komplexe Zahlen sind. In der sog. Dirac-Notation fasst man nun die Wahrscheinlichkeit cp, den Zustand eines Systems und den ket-Vektor zusammen: . Dies besagt nichts weiter, als dass das System eine Wahrscheinlichkeit cp hat, bei einem gegebenen ket-Vektor in den Zustand zu fallen. In unserem Beispiel ergibt sich das gesamte quantenphysikalische System aus der Kombination zweier Systeme: Dieses Qubit repräsentiert nun zwei Werte, welche man als Vektor notieren kann (rechte Seite der Gleichung). Durch hinzufügen weiterer Qubits können weitere Werte repräsentiert werden. Dies erfolgt mathematisch durch eine Multiplikation der jeweiligen Vektoren der Qubits: Sie sehen, dass sich ein Vektor ergibt, welcher nun vier Zustände darstellen kann. Auf diese Weise könnte man das Ganze für 3, 4, 5 usw. Qubits fortsetzen. Man erhält immer 2 N Möglichkeiten der Darstellung. Wir haben zwar jetzt Quantenzustände innerhalb des Rechners (zumindest mathemtisch) erzeugt, jedoch noch keine einzige Rechenoperation ausgeführt. In der Mathematik bedient man sich hierfür sog. Matrizen (M), welche man auf die Vektoren ansetzt: Wendet man diese Matrix auf einen Quantenvektor an, so funktioniert dies wie folgt: An einem sehr einfachen Beispiel sei dies demonstriert. Möchte man das logische NOT programmieren, so muss man eine Matrix finden, welche meine Vektoren so verändert, dass am Ende eine 0 steht, wenn der Eingabewert 1 war und umgekehrt. Befindet sich unser quantenphysikalischen System in dem eindeutigen Zustand 0, so ist die Wahrscheinlichkeit eine 0 zu messen 100 % (=1) und die Wahrscheinlichkeit eine 1 zu messen 0 % (=0): Seite 80 von 83 Copyright Stefan Frank Wendet man auf diesen Vektor nun folgende Matrix an so ergibt sich: Sie sehen, dass der Vektor nun genau vertauschte Werte hat! Das gleiche funktioniert natürlich auch andersherum: Auffällig ist, dass bei der Anwendung der Matrix alle Werte des Vektors bearbeitet werden. Alle Werte werden parallel verändert (hier die 0 zur 1 und die 1 zur 0). Dies ist auch das große Geheimnis des Quantenrechners: Eine Operation auf einen Quantenzustand verändert alle beteiligten Einzelzustände parallel, so dass theoretisch Millionen Berechnungen gleichzeitig möglich sind. Sie haben nun eine Vorstellung wie die mathematischen Operationen innerhalb eines Quantenrechners von statten gehen. Das Geheimnis sind die Matrizen, welche man auf die Vektoren anwendet. Die Frage ist jedoch, wie dies hardwaretechnisch realisiert wird. Bis jetzt haben Sie nur die Software geschrieben, aber ohne Hardware nützt die beste Software nichts. Einen Teil der Hardware haben wir bereits: eine Art Speichermedium auf dem wir Quantensuperpositionen repräsentieren können (z.B. Ionenfallen oder NMR). Wie wendet man nun aber die Rechenoperation an? Wenn wir uns an das Mach-Zehnder-Interferometer vom Anfang zurückerinnern, so können wir feststellen, dass das Auslöschen des einen Lichtstrahls und das Verstärken des anderen Resultat ihrer Laufzeit ist. Verändern wir die Laufzeit eines Lichtstrahls so würde dieser etwas später als der andere eintreffen – Wellenberg und Wellental hätten eine andere Überlagerung und würden vielleicht genau das entgegengesetzte Ergebnis liefern (eine Glasscheibe hat beispielsweise eine solche abbremsende Wirkung). Dies macht man sich in Quantencomputern zu nutze: Man versucht mit den verschiedensten Hilfsmitteln die Matrix zu simulieren. Die Möglichkeit einer NOTFunktion haben Sie bereits kennen gelernt: So kann bei der NMR-Methode die Ausrichtung des Teilchens um 180° gedreht oder bei der Ionenfalle ein Ion angeregt bzw. abgebremst werden. EPR und Dekohärenz Ein großes Problem innerhalb der Quanteninformatik besteht darin, die Quantensuperpositionen aufrecht zu erhalten. Kleinste Wechselwirkungen mit der Umgebung zerstören diese nämlich und Interaktionen mit der Umgebung sind auf Quantenebene leider Alltag. Den Prozess der „langsamen“ Zerstörung der Quantensuperposition nennt man Dekohärenz. Diese dauert manchmal nur Millisekunden. Ziel ist es die Lebensdauer der Quantenzustände zu erhöhen. In der Zwischenzeit wurden Theorien entwickelt um eine Fehlerkorrektur zu ermöglichen. Es gibt jedoch eine Methode Daten zu sichern, welche so phantastisch anmutet, als wäre sie von Scotty persönlich aus dem Schiffscomputer der Enterprise geladen worden: verschränkte Quanten. Wieder einmal muss man sich der Heisenbergschen Unschärferelation bedienen um zu verstehen was verschränkte Quanten sind. 1935 haben drei Physiker ein Gedankenexperiment aufgestellt, welches fortan als EPR-Paradoxon bezeichnet wurde: Albert Einstein, Boris Podolsky und Nathan Rosen. Man nehme, so dachten sie sich, zwei Quanten und lasse diese in einem geringen Abstand voneinander wechselwirken. In dieser Situation lässt sich der Abstand der beiden Quanten zueinander exakt bestimmen. Auch der Gesamtimpuls des Systems ist bestimmbar. Ist die Wechselwirkung erfolgt, so trennen sich die beiden Quanten wieder ohne auf ihrer Reise mit Seite 81 von 83 Copyright Stefan Frank anderen Teilchen in Kontakt zu treten. Zu einem frei gewählten Zeitpunkt misst man jetzt den Impuls des einen Teilchens mit exakter Genauigkeit. Da die Impulsenergie des gesamten Systems gleich bleibt, muss man nur diese Messung von der vorher gemessenen Gesamtimpulsenergie abziehen und erhält die Impulsenergie des anderen Quants. Nun messen wir den Ort des ersten Quants, wodurch wir den Impuls nach Heisenberg natürlich zerstören. Dies ist aber kein Problem, denn aus dem Messergebnis können wir nun ableiten welchen Ort das zweite Quant in der Zwischenzeit eingenommen haben dürfte. So haben wir für das zweie Quant Ort und Impuls gleichzeitig bestimmt und damit die Heisenbergsche Unschärferelation zerstört – eines der fundamentalsten Naturgesetze hat keinerlei Gültigkeit mehr! Aber keine Panik! So, wie es sich Einstein, Podolsky und Rosen dachten, funktioniert es nicht. Die beiden Quanten stehen nämlich in einer Fernwirkung in Beziehung zueinander. Zerstören wir den Impuls des einen Quants wird instantan (ohne Zeitverzögerung) auch der Impuls des anderen Quants zerstört. Einstein und viele andere Physiker haben jedoch ein Problem mit der Gleichzeitigkeit: Theoretisch müsste die Information bezüglicher der veränderten Impulsenergie unendlich schnell den Raum durchqueren und das andere Quant beeinflussen. Unendliche Geschwindigkeiten widersprechen jedoch den Gesetzen der Relativitätstheorie! Schaut man sich einmal in Internetforen um, so sieht man welches heillose Durcheinander an Meinungen und Einstellungen, Abschätzungen und wissenschaftlichen Erkenntnissen bezüglich des EPRGedankenexperimentes herrscht. Ich möchte daher an dieser Stelle nicht tiefer auf dieses Problem eingehen. Fakt ist in der Zwischenzeit nur, dass die instantane Datenübertragung tatsächlich funktioniert. Eines der wichtigsten Experimente auf diesem Gebiet führte John Bell durch und bewies mit seiner Bell'schen Ungleichung die Richtigkeit der instanten Datenübertragung. In Quantencomputern könnte man sich nun vorstellen den Schwingungszustand des einen Quants instantan auf ein anderes Quant zu übertragen, welches mit diesem in Beziehung steht (man spricht von sog. verschränkten Quanten) um so die Information länger zu erhalten. Auf ähnliche Weise funktioniert das Prinzip des Beamens auf Raumschiff Enterprise. Jede molekulare Struktur kann als Schwingung einer Materiewelle aufgefasst werden, als ein großes Quantensystem. Mit Hilfe der verschränkten Quanten könnte man nun die Schwingungsinformation und Polarisation auf ein zweites Quant übertragen. Mit einzelnen Lichtquanten hat dies schon funktioniert, Experimente mit Wasserstoffatomen sind in Planung. Viele ungelöste Probleme Vieles, was hier beschrieben worden ist, klingt nicht nur kompliziert sondern ist es auch. An einen wirklich lauffähigen Rechner auf Quantenbasis ist zur Zeit nicht zu denken, auch wenn einige Optimisten das Jahr 2010 als Ziel vor Augen haben. Ob wir jedoch wirklich im Jahre 2010 mit Quantenrechnern arbeiten können sei dahingestellt. Bis jetzt sind nur zwei Algorithmen entwickelt worden, die auf einem solchen Computer lauffähig wären. Das ist Peter Shors Algorithmus zur Seite 82 von 83 Copyright Stefan Frank Primzahlzerlegung auf der einen Seite und Lov Grovers Algorithmus zur Suche nach Daten in einer unsortierten Datenbank auf der anderen. Eines der größten Probleme ist jedoch immer noch die Dekohärenz, trotz der vielversprechenden Ansätze wie ich sie oben beschrieben habe. Sollte der Quantencomputer jedoch Realität werden, so wären alle bisherigen Kryptografieverfahren hinfällig, denn fast alle bauen auf dem Prinzip der Primzahlzerlegung auf (z.B. RSA-Verfahren). Ein Rechner kann zwar durch Multiplikation aus Primzahlen (also Zahlen welche nur durch 1 uns sich selber teilbar sind) schnell sehr große Zahlen erstellen, diese jedoch nicht mehr innerhalb einer realistischen Zeit in ihre Primzahlen zerlegen. Für einen Quantencomputer wäre das jedoch nur eine leichte Fingerübung. Dafür stellt die Quanteninformatik jedoch ein adäquates Gegenmittel zur Verfügung: die Quantenkryptografie, welche besonders bei der Datenübertragung geeignet ist. Bevor man eine Information über ein Glasfaserkabel überträgt werden sie von dem Sender in eine bestimmte Richtung polarisiert. Der Empfänger misst diese Polarisation und sendet den gemessen Wert zurück an den Sender. Dieser prüft daraufhin die Übereinstimmung der Polarisation. Möchte ein Spion den Datenfluss abhören muss er die Quanten bei der Übertragung betrachtet. Hierdurch zerstört er jedoch die Polarisation was der Sender feststellen kann. Sollte ein Quant falsch polarisiert ankommen, wird die Leitung gekappt und der Spion hatte keine Chance eine brauchbare Information aus dem System zu ziehen. Entsprechende Übertragungen wurden bereits über Strecken von ca. 10 km Länge durchgeführt. Zusammenfassung Bei Quantencomputern werden Bits durch sog. Qubits ersetzt, welche eine Überlagerung mehrerer Quantenzustände gleichzeitig darstellen (Quantensuperposition). Zwei Möglichkeiten solche Superpositionen hervorzurufen sind die nukleare magnetische Resonanz (NMR), welche sich der Spineigenschaft von Teilchen bedient, und die Ionenfalle, welche auf angeregte und nicht angeregten Ionen in einem elektrischen Feld aufbaut. Mathematisch basiert der Quantenrechner auf der Vektorrechnung, dessen mathematische Form mit allerhand Tricks auf die Hardware abgebildet werden muss. Um Dekohärenz (Zusammenbruch der Superposition) zu vermeiden, versucht man den Quantenzustand mit Hilfe verschränkter Quanten auf andere Quantensysteme zu übertragen. Die Grundidee dahinter bildet das EPR-Paradoxon. Die Quantenkryptografie ermöglicht eine sichere Datenübertragung zwischen Sender und Empfänger durch Ausrichten der Polarisation. Seite 83 von 83 Copyright Stefan Frank