Das Endspiel für den lokalen Realismus - Max-Planck

Werbung
Das Endspiel für den lokalen Realismus
Johannes Kofler
Max-Planck-Institut für Quantenoptik (MPQ), Garching, Deutschland
Die Bellsche Ungleichung, die im vergangen Jahr ihren 50. Geburtstag gefeiert hat, zeigt auf eindrucksvolle Weise den unüberbrückbaren Bruch zwischen klassischer Physik und Quantenmechanik. Während
es in den letzten Jahrzehnten wegweisende Experimente gegeben hat, steht ein sogenannter „definitiver
Bell-Test“, der alle technischen Schlupflöcher gleichzeitig schließt, immer noch aus.
1. Irreduzibler Zufall oder versteckte Variablen?
Albert Einstein war vermutlich der bedeutendste Physiker aller Zeiten. Seine spezielle und allgemeine Relativitätstheorie revolutionierten in den Jahren 1905 bzw. 1915 unsere Vorstellungen von Raum und Zeit. Mit seiner
Lichtquantenhypothese leistete Einstein auch grundlegende Beiträge zur Quantenmechanik, konnte sich aber bis
zu seinem Tod nicht mit dem Charakter dieser neuartigen Theorie anfreunden. Insbesondere damit, dass in der
Quantenmechanik bestimmte physikalische Ereignisse, wie etwa der radioaktive Zerfall eines Atoms, offenbar
vollkommen zufällig und ohne konkrete Ursache geschehen. Man kann nur noch die Wahrscheinlichkeit dafür
berechnen, dass ein Ereignis eintritt, jedoch nicht mehr das Einzelereignis selbst. Dieser Bruch mit Kausalität
und Determinismus – den vielleicht wichtigsten Grundpfeilern der klassischen Physik – war ihm nicht geheuer
und widerstrebte seinem Instinkt. An seinen Freund und Kollegen Max Born schrieb er Ende 1926 diese berühmten Worte, die seine Abneigung gegen den Zufall in der Natur widerspiegeln [1]:
„Die Quantenmechanik ist sehr achtung-gebietend. Aber eine innere Stimme sagt mir, daß das doch nicht
der wahre Jakob ist. Die Theorie liefert viel, aber dem Geheimnis des Alten bringt sie uns kaum näher.
Jedenfalls bin ich überzeugt, daß der nicht würfelt.“
Ironischerweise erhielt Born später den Nobelpreis für Physik gerade für die von ihm 1926 vorgeschlagene
Wahrscheinlichkeitsinterpretation der quantenmechanischen Wellenfunktion, die zu einem Fundament der sogenannten Kopenhagener Deutung geworden war.
Im Kern ging es Einstein um folgendes Problem: In der klassischen Physik gibt es für jedes auch noch so komplizierte System eine deterministische Beschreibung. Jedes Ereignis hat genau eine Ursache, und jede Ursache
führt nur zu genau einem möglichen Ereignis. In der zweiten Hälfte des 19. Jahrhunderts etwa gelang es Ludwig
Boltzmann mit seiner kinetischen Gastheorie, für die statistischen Gesetze der Thermodynamik eine darunterliegende deterministische Beschreibung zu finden. Auch wenn eine konkrete Vorhersagbarkeit zu komplex ist, so
kann man im Prinzip sogar eine Dampfmaschine oder einen Wurf im Roulette durch die Bewegung der einzelnen Atome verstehen. Das wirft natürlich die Frage auf, ob es nicht auch für quantenmechanische Systeme eine
darunterliegende deterministische Beschreibung geben könnte? So wie Rouletterad, Kugel und Umgebungsluft
aus Atomen bestehen, könnte ein radioaktives Atom ja aus noch elementareren Einheiten aufgebaut sein, die
deterministischen Gesetzen folgen und den exakten Zeitpunkt des radioaktiven Zerfalls bestimmen (Abbildung 1). Der Zufall in quantenmechanischen Experimenten wäre nur scheinbar – bloß subjektiv und reduzibel.
Die quantenmechanische Wellenfunktion wäre eine nur unvollständige Beschreibung der Natur.
Es stellt sich also folgende Frage: Könnte es versteckte Variablen geben, deren Kenntnis eine genauere Vorhersagbarkeit für Quantensysteme ermöglichen würde als die Wellenfunktion? Kann man die Beschreibung der
Natur doch wieder auf ein deterministisches Fundament stellen? Man könnte argumentieren, dass diese Fragestellung zu den wichtigsten und zentralsten der Physik gehört, vielleicht sogar der Naturwissenschaft als Ganzes.
Der Mathematiker John von Neumann veröffentlichte 1932 einen „Beweis“ der Unmöglichkeit von versteckten
Variablen, von dem sich jedoch später herausstellte, dass er fehlerhaft war. Im Jahr 1935 publizierte Einstein
gemeinsam mit Boris Podolsky und Nathan Rosen eine bahnbrechende Arbeit, die darauf hindeutete, aber nicht
bewies, dass die Wellenfunktion keine vollständige Beschreibung von Quantensystemen sein kann, wenn man
am Prinzip der Lokalität festhalten will [2]. Letzteres ist ein fundamentaler Baustein der Relativitätstheorie und
besagt, dass in der Natur Information nicht schneller übertragen werden kann als mit Lichtgeschwindigkeit.
Schnellere Übertragung von Information würde Kommunikation in die Vergangenheit ermöglichen und Paradoxa erzeugen. David Bohm gelang 1952 eine deterministische Formulierung der Quantenmechanik mit versteckten Variablen. Allerdings gibt es in dieser Theorie eine versteckte Kommunikation, die schneller ist als Licht. Da
es ohne direkten Zugang zu den versteckten Variablen nicht möglich ist, diese Kommunikation zur Informationsübertragung auszunutzen, wird ein direkter Widerspruch zur Relativitätstheorie vermieden. Aber konzeptuell kann man es als unbefriedigend betrachten, eine Verletzung des Prinzips der Lokalität auf einer versteckten
Ebene dulden zu müssen.
1
2. Die Bellsche Ungleichung
Der theoretische Durchbruch gelang im Jahre 1964 dem nordirischen Physiker John Bell (Abbildung 2) [3]. Bell
stellte sich die Frage, ob jede Theorie mit versteckten Variablen nicht-lokal sein muss so wie die Bohmsche
Mechanik, oder ob doch das klassische Weltbild des lokalen Realismus richtig sein kann. Letzteres setzt sich
zusammen aus den folgenden Annahmen:
Realismus: Eigenschaften physikalischer Objekte sind (durch versteckte Variablen) stets wohldefiniert
und existieren unabhängig davon ob sie gemessen werden oder nicht.
Lokalität:
Physikalische Einflüsse können nur mit höchstens Lichtgeschwindigkeit übertragen werden.
Bell zeigte mit seinem Theorem, dass in der Tat jeder Versuch, die Quantenmechanik mithilfe von lokalen versteckten Variablen zu vervollständigen, im Widerspruch zu den Vorhersagen der Quantenmechanik selbst steht.
Damit ist es möglich, experimentell zwischen lokalem Realismus und Quantenmechanik zu entscheiden. Auf
diese Weise brachte er ein vermeintlich unlösbares, nahezu philosophisches Problem auf eine dem Experiment
zugängliche Ebene – eine Meisterleistung, die ihm Anfang der 1990er Jahre den Gerüchten nach den PhysikNobelpreis einbringen hätte können, wäre er nicht zuvor verstorben.
Wir werden jetzt versuchen, Bells Gedankengang nachzuvollziehen, und zwar in einer mathematisch vereinfachten Form, die im Kern auf John Clauser, Michael Horne, Abner Shimony und Richard Holt (CHSH) zurückgeht
[4]. Dazu betrachten wir Abbildung 3. Eine in der Mitte positionierte Quelle emittiert ein Teilchenpaar, zB. zwei
Photonen. Im lokalen Realismus wird jedes Teilchenpaar durch (gemeinsame) versteckte Variablen vollständig
bestimmt. Alle versteckten Variablen des Paares fassen wir mit dem Symbol λ zusammen. Eines der beiden
Teilchen wird an eine Messstation namens Alice geschickt, das andere an eine namens Bob. Alice kann eine von
zwei möglichen Messungen an ihrem Teilchen durchführen, die wir mit a1 und a2 bezeichnen. Beispielsweise
könnte sie die Polarisation – dh. die Schwingungsrichtung des elektrischen Feldes – messen, und a1 könnte eine
Horizontal(0°)/Vertikal(90°)-Messung der Polarisation sein, während a2 die Polarisation entlang einer anderen
Richtung misst, zum Beispiel +45°/–45°. Analog gibt es zwei mögliche Messeinstellungen („Settings“) b1 und b2
für Bob, die nicht mit a1 und a2 übereinstimmen müssen. Das Resultat von Alices Messung nennen wir A und
definieren, dass es nur die Werte +1 und –1 haben kann. Hat Alice etwa die Horizontal/Vertikal-Messung a1
vorgenommen, so wäre A = +1 das Ergebnis „horizontal“ und A = –1 das Ergebnis „vertikal“. Hat sie hingegen
die +45°/–45°-Messung a2 vorgenommen, so wäre A = +1 das Ergebnis „+45°“ und A = –1 das Ergebnis „–45°“.
Ganz analog definieren wir die Messresultate B auf Bobs Seite.
Bell betrachtete 1964 den deterministischen Fall, in dem die versteckten Variablen λ das jeweilige Messresultat
eindeutig bestimmen. (Es gibt auch stochastische Modelle, aber diese sind mathematisch stets auf deterministische reduzierbar [5]. Wir bleiben hier also bei Bells ursprünglicher Formulierung.) Da wir lokale Theorien mit
versteckten Variablen betrachten, hängt Alices Resultat A neben λ nur noch von ihrem Setting (a1 bzw. a2) ab
und nicht auch noch von Bobs Setting (b1 bzw. b2) oder davon, ob bzw. wie sich die versteckten Variablen auf
Bobs Seite später aufgrund seines Settings verändern. Je nach Alices Setting-Wahl benennen wir ihr Ergebnis
mit A1 = A(a1,λ) bzw. A2 = A(a2,λ). Gemäß dem Beispiel im vorigen Absatz ist A1 das Resultat der Horizontal/Vertikal-Messung a1 bzw. A2 das Resultat der +45°/–45°-Messung a2. Analog benennen wir auf Bobs Seite
das Resultat mit B1 = B(b1,λ) bzw. B2 = B(b2,λ).
Die versteckten Variablen definieren alle vier möglichen Messresultate, egal ob die Messungen wirklich durchgeführt werden oder nicht. In der Tat kann für jedes Teilchenpaar nur entweder A1 oder A2 und nur entweder B1
oder B2 realisiert werden, weil sich die jeweiligen Messungen gegenseitig ausschließen. Man muss sich im Experiment für eine Polarisationsrichtung entscheiden und kann nicht zwei verschiedene gleichzeitig messen. Da die
beiden Messungen a1 und a2 nicht kompatibel sind („nicht kommutieren“), ist es in der Quantenmechanik unmöglich, für ein Photon sowohl ein konkretes Resultat für A1 als auch für A2 mit 100%-Wahrscheinlichkeit vorherzusagen. Dito für B1 und B2. Lokaler Realismus ist aber gerade das Weltbild, in dem auch nicht ausgeführte
Messungen definitive Werte haben, und zwar unabhängig von dem, was gleichzeitig an einer anderen Stelle
passiert. In Theorien mit versteckten Variablen können also für ein einziges Photonenpaar alle 4 Resultate – A1,
A2, B1, B2 – gleichzeitig definitive Werte haben. Da diese jeweils nur +1 oder –1 sein können, gilt folgende algebraische Relation:
A1 (B1+B2) + A2 (B1–B2) = ±2.
(1)
Hier steht „±2“ für „+2 oder –2“. Man kann die Richtigkeit dieser Gleichung durch Einsetzen aller Möglichkeiten nachprüfen oder sich wie folgt überzeugen: Entweder sind B1 und B2 gleich, also beide +1 oder beide –1.
Dann verschwindet die zweite Klammer und der erste Term muss +2 oder –2 sein. Oder B1 und B2 sind ungleich.
Dann verschwindet die erste Klammer und das Resultat ist wieder +2 oder –2. Wir erinnern an dieser Stelle noch
2
einmal daran, dass (1) experimentell nicht überprüfbar ist, weil sich die jeweiligen lokalen Messungen gegenseitig ausschließen.
Jetzt stellen wir uns vor, dass sehr viele Teilchenpaare erzeugt werden, jedes mit seinen eigenen versteckten
Variablen. In jedem Durchgang, dh. für jedes einzelne Paar, wählen Alice und Bob zufällig ihre Settings und
damit eine der vier möglichen Setting-Kombinationen, also (a1,b1) oder (a1,b2) oder (a2,b1) oder (a2,b2). In rund
einem Viertel der Durchgänge misst man A1 und B1, in einem weiteren Viertel A1 und B2 und so weiter. Die
Daten eines Experiments sehen also beispielsweise folgendermaßen aus:
Paar
1
2
3
4
:
A1
+1
–1
:
A2
+1
–1
:
B1
–1
+1
:
B2
–1
+1
:
Man kann mithin in jedem einzelnen Durchgang eines der vier Produkte finden: A1B1 oder A1B2 oder A2B1 oder
A2B2. So kann man experimentell alle vier Erwartungswerte ⟨A1B1⟩, ⟨A1B2⟩, ⟨A2B1⟩, ⟨A2B2⟩ der Produkte der Resultate – genannt Korrelationen – bestimmen. Da im lokalen Realismus jedes einzelne Paar der Gleichung (1)
genügen muss (A1B1 + A1B2 + A2B1 – A2B2 = ±2), gilt für die vier Korrelationen die folgende Ungleichung:
⟨A1B1⟩ + ⟨A1B2⟩ + ⟨A2B1⟩ – ⟨A2B2⟩ ≤ 2.
(2)
Einfach formuliert: Der Durchschnitt aus vielen Werten, die alle +2 oder –2 sind, kann nicht größer als +2 sein.
Das Minus-Zeichen vor dem vierten Term kommt vom Minus-Zeichen auf der linken Seite in Gleichung (1).
Ungleichung (2) ist eine sogenannte Bellsche Ungleichung. Alle lokal-realistischen Theorien müssen sie erfüllen. Und im Gegensatz zu (1) ist (2) experimentell überprüfbar. Das Bemerkenswerte ist, dass es in der Quantenmechanik sogenannte verschränkte Zustände gibt, die eine Verletzung der Bellschen Ungleichung vorhersagen. Der Polarisationssingulett-Zustand zweier Photonen etwa erzeugt bei optimal gewählten Settings die Korrelationen ⟨A1B1⟩ = ⟨A1B2⟩ = ⟨A2B1⟩ = –⟨A2B2⟩ = 1/√2. Die linke Seite von Ungleichung (2) nimmt dann den Wert
2√2 ≈ 2.828 an. Dieser Quantenzustand ist daher nicht mit lokalen versteckten Variablen modellierbar.
Der Vollständigkeit halber sei erwähnt, dass es unendlich viele Bellsche Ungleichungen gibt, auch welche mit
mehr als zwei Parteien und/oder mehr als zwei möglichen Settings und/oder mehr als zwei möglichen Messresultaten. Die spezielle Form (2) wird CHSH-Ungleichung genannt und ist die berühmteste und am meisten verwendete Bell-Ungleichung.
3. Schlupflöcher
Der erste erfolgreiche experimentelle Test wurde 1972 von Stuart Freedman and John Clauser durchgeführt, die
eine Verletzung einer Bell-Ungleichung durch Messungen an verschränkten Photonen beobachteten. Sind lokale
versteckte Variablen damit endgültig widerlegt und ist dieses Kapitel der Physik seit 1972 abgeschlossen? Mitnichten! Der Grund liegt darin, dass es in experimentellen Realisierungen bisher stets technische Schwächen
gab, die sogenannte Schlupflöcher („Loopholes“) offen lassen. Damit haben Anhänger des lokalen Realismus
trotz verletzter Bell-Ungleichung weiterhin die Möglichkeit, ihr Weltbild zu verteidigen. Bis heute gibt es kein
Experiment, in dem alle bekannten Schlupflöcher gleichzeitig geschlossen werden konnten. Wir diskutieren nun
zunächst die wichtigsten Loopholes und danach die Aussichten auf ein definitives (dh. schlupflochfreies) BellExperiment.
3.1. Lokalität
Das erste Schlupfloch ist das logisch naheliegende Locality Loophole (Lokalitätsschlupfloch) und hängt direkt
mit der Lokalitätsannahme im Bellschen Theorem zusammen. Man muss experimentell sicherstellen, dass die
Wahl des Settings auf einer Seite keinen Einfluss auf das Resultat der anderen Seite haben kann (und vice versa).
Dazu darf kein Setting auf der jeweils anderen Seite verfügbar sein; es muss also zufällig gewählt werden und
zudem muss das Ereignis der Setting-Wahl im Sinne der speziellen Relativitätstheorie raumartig vom Messereignis der anderen Seite getrennt werden. Das heißt, die Ereignisse müssen raum-zeitlich so angeordnet sein,
dass nicht einmal Lichtgeschwindigkeit für eine etwaige Kommunikation ausreicht (Abbildung 4). Nur so ist
wirklich sichergestellt, dass Alices Resultat A nicht von Bobs Setting b abhängen kann (und vice versa). Andernfalls gibt es nämlich beispielsweise das folgende simple nicht-lokale Modell, das sogar unabhängig von λ ist:
A1 = +1,
A2 = +1,
3
B1 = +1,
 + 1 falls a = a1 ,
B2 = 
 − 1 falls a = a 2 .
Hier sind A1, A2 und B1 immer +1, dh. ⟨A1B1⟩ = ⟨A2B1⟩ = +1, während B2 von Alices Setting abhängt, und zwar
so, dass die Korrelation ⟨A1B2⟩ den Wert +1 hat, während ⟨A2B2⟩ den Wert –1 annimmt. Damit erreicht die linke
Seite der CHSH-Ungleichung (2) ihren logischen Maximalwert 4. (Eine derart starke Verletzung schafft übrigens nicht einmal die Quantenmechanik.) Die Verletzung der Lokalitätsbedingung ermöglicht also auf ganz
einfache Weise eine Verletzung der Bellschen Ungleichung.
Die technische Herausforderung zufällig gewählter Settings unter raumartiger Trennung von der Messung auf
der anderen Seite gelang zum ersten Mal im Jahr 1998 an der Universität Innsbruck [6]. Alice und Bob wurden
400 Meter voneinander getrennt und die Wahl der Settings erfolgte durch schnelle Zufallsgeneratoren zu den
entsprechenden Zeitpunkten. Die an verschränkten Photonen durchgeführten Polarisationsmessungen verletzten
die CHSH-Ungleichung (2).
3.2. Wahlfreiheit
Das zweite Schlupfloch betrifft eine in der Herleitung von Bell-Ungleichungen geradezu verborgene Annahme.
In der Tat wurde sie erst ein Jahrzehnt nach Bells Originalarbeit als essentiell identifiziert. Es handelt sich um
die Annahme der freien Wahl, und eine potentielle Nicht-Erfüllung dieser Annahme öffnet das Freedom-ofchoice Loophole (Wahlfreiheitsschlupfloch). Die Annahme besagt, dass Alice und Bob ihre Settings a und b für
jedes Teilchenpaar unabhängig von den versteckten Variablen λ wählen können bzw. dass die versteckten Variablen ihrerseits nicht von der Wahl der Settings abhängen. Mathematisch heißt dies, dass die auf die versteckten
Variablen konditionierte Wahrscheinlichkeit, Settings a und b zu wählen gleich der unbedingten ist: ρ(a,b|λ) =
ρ(a,b). Ohne diese Annahme kann man nicht einfach von (1) auf (2) schließen, also über alle Teilchenpaare
mitteln.
Ein simples Modell mit versteckten Variablen, das dem Prinzip der Lokalität gehorcht, aber die Wahlfreiheit
verletzt, sieht zum Beispiel wie folgt aus: Es gibt vier versteckte Variablen λ11, λ12, λ21, λ22. Die Quelle emittiert
in jedem Durchgang zufällig eine der vier Variablen. Sowohl die Mess-Settings als auch die Resultate werden
dann wie folgt bestimmt:
λ11:
λ12:
λ21:
λ22:
a
a1
a1
a2
a2
b
b1
b2
b1
b2
A
+1,
+1,
+1,
+1,
B
+1
+1
+1
–1
Wie man leicht sehen kann, hat die linke Seite der CHSH-Ungleichung (2) dann wieder den Wert 4. Verletzung
der Wahlfreiheit kann mithin sofort zur Verletzung einer Bellschen Ungleichung führen.
Das Schlupfloch der Wahlfreiheit wird dadurch adressiert, dass Alice und Bob ihre Settings auch raumartig getrennt von der Emission des Teilchenpaares in der Quelle wählen (Abbildung 4). Wenn man annimmt, dass die
versteckten Variablen zum Zeitpunkt der Emission in der Quelle erzeugt werden, dann können sie die SettingWahl nicht beeinflussen (und auch nicht durch sie beeinflusst werden). Erreicht wurde dieses raumzeitliche
Szenario zum ersten Mal vor einigen Jahren bei einem Bell-Experiment auf den kanarischen Inseln [7].
Wir müssen allerdings anmerken, dass es für die Settings und versteckten Variablen eine gemeinsame Ursache
weiter zurück in der Vergangenheit geben könnte. Es gibt daher Überlegungen, für die Settings von Alice und
Bob das Licht von zwei verschiedenen Quasaren zu verwenden, die seit Milliarden von Jahren kausal getrennt
sind [8]. Hypothetisch findet man aber spätestens im Urknall selbst eine mögliche gemeinsame Ursache. Dieses
Weltbild – genannt Superdeterminismus – ist ein denkbarer Ausweg, den lokale Realisten immer nehmen können. Eine solche Theorie ist nicht falsifizierbar, denn wir lebten dann in einer Welt, die sich gleichsam gegen uns
verschworen hätte. Eine der Grundannahmen der Physik wäre verletzt, nämlich jene, dass wir der Natur Fragen
stellen können, ohne dass die Natur diese Fragen konspirativ vorherbestimmt, sich darauf einstellt, und uns dann
stets eine irreführende, situationsangepasste Antwort liefert.
3.3. Faires Sampling
Das dritte Schlupfloch, das wir besprechen wollen, nennt sich Fair-sampling Loophole. Es ist ebenfalls schon
seit vielen Jahrzehnten bekannt [9], und es geht dabei um folgendes Problem: In der Herleitung der CHSHUngleichung (2) gab es eine weitere implizite Annahme, nämlich, dass es erlaubt ist, nur jene Durchgänge des
4
Experiments anzusehen, in denen sowohl Alice als auch Bob ein Teilchen detektieren und die anderen Durchgänge zu verwerfen. Man nimmt dabei an, dass das Sampling fair ist, dass also die detektierten Teilchen faire
Repräsentanten aller emittierten Teilchen sind. Was aber, wenn zum Beispiel Teilchen auf dem Weg zu Alice
oder Bob verloren gehen bzw. das Messgerät die Detektion verweigert, und zwar abhängig vom jeweils gewählten Setting? Im Allgemeinen ist dies ein gravierendes Problem. Man kann Modelle mit versteckten Variablen
finden, die Ungleichung (2) verletzen, einfach indem sie die Annahme des fairen Samplings nicht erfüllen und
auf ganz bestimmte ausgeklügelte Weise zu Detektionen bzw. Nicht-Detektionen führen [10]. Dabei bleiben
Lokalität und Wahlfreiheit gewahrt; die Verletzung beruht einzig auf vom jeweiligen lokalen Setting sowie λ
abhängenden Detektionseffizienzen.
Es gibt zwei Arten, das Schlupfloch des fairen Samplings zu schließen: Will man Ungleichungen wie etwa (2)
verwenden, die die Annahme fairen Samplings in ihrer Herleitung gemacht haben, so muss man zusätzlich noch
nachweisen, dass die Detektionseffizienz – sie berücksichtigt Verluste in der Quelle, auf dem Übertragungsweg
sowie im Detektor selbst – über einem gewissen Schwellenwert liegt. Für die CHSH-Ungleichung sind es etwa
83 %. Das erste Bell-Experiment mit einer solchen Effizienz gelang im Jahr 2001 am National Institute of Standards and Technology in Boulder (Colorado, USA) mit verschränkten Ionen [11]. Mit Photonen kann man bis
heute weder eine solche Effizienz erreichen noch weiß man üblicherweise die zur Bestimmung der Effizienz
nötige Zahl der Teilchenpaare, die eine Quelle genau emittiert. Zum Glück gibt es noch einen zweiten – viel
eleganteren – Weg, das Schlupfloch zu schließen, nämlich eine Bellsche Ungleichung zu verwenden, die die
Annahme fairen Samplings in ihrer Herleitung gar nicht verwendet. Eine solche Ungleichung geht auf Clauser
und Horne zurück und heißt daher CH-Ungleichung [12]. Sie sieht folgendermaßen aus:
p(a1,b1) + p(a1,b2) + p(a2,b1) – p(a2,b2) – pA(a1) – pB(b1) ≤ 0.
(3)
Hier ist p(ai,bj) keine Korrelation sondern die Wahrscheinlichkeit, dass – wenn Alice ai und Bob bj misst, wobei
i,j ∈ {1,2} – die Resultate A = +1 und B = +1 sind. Ferner ist pA(a1) bzw. pB(b1) die Wahrscheinlichkeit, dass bei
Messung von a1 bzw b1 das Resultat A = +1 bzw. B = +1 ist. (Die Ergebnisse A = –1 bzw. B = –1 werden überhaupt nicht benötigt, es reicht also ein Detektor pro Seite.) Durch bloßes Ansehen der CH-Ungleichung (3) kann
man schon erkennen, dass niedrige Detektionseffizienzen automatisch hinderlich für eine Verletzung sind. Nehmen wir an, dass Alices und Bobs Detektionseffizienzen gleich sind und bezeichnen wir den Wert mit η, wobei
η eine Zahl zwischen 0 und 1 ist. Dann skalieren die ersten vier Wahrscheinlichkeiten mit dem Produkt der jeweiligen Effizienz, also mit η2, weil ja jede Partei ihr Teilchen detektieren muss. Die letzten beiden Wahrscheinlichkeiten sind im Wortsinn „einfach“ und skalieren daher nur mit der jeweiligen Effizienz η. Bei kleinen Effizienzen überwiegen daher automatisch die letzten beiden Terme. Da diese negatives Vorzeichen haben, wird die
Ungleichung bei genügend kleinem η zwangsläufig erfüllt. Man kann mathematisch zeigen [13], dass die CHUngleichung nur verletzt werden kann, wenn η größer ist als 2/3.
Vor ungefähr zwei Jahren gelang zum ersten Mal ein Bell-Experiment mit verschränkten Photonen, das das
Fair-sampling Loophole schließen konnte [14], indem die CH-Ungleichung (bzw. eine dazu äquivalente Ungleichung) verletzt wurde. Mithilfe von modernen supraleitenden Detektoren konnte eine ausreichende Detektionseffizienz von etwa 75 % erreicht werden.
3.4. Weitere Schlupflöcher
An dieser Stelle sei kurz erwähnt, dass es noch zwei weitere relevante Schlupflöcher gibt. Das erste ist das sogenannte Coincidence-time Loophole, das eigentlich nur bei nicht-gepulsten Experimenten mit Photonen relevant
ist, nicht aber bei anderen Realisierungen. Ähnlich wie beim fairen Sampling geht es hier darum, dass die Ankunftszeiten der Teilchen unfair programmiert sein könnten, und die identifizierten Koinzidenzen – relevant für
die ersten vier Terme in Ungleichung (3) – nicht repräsentativ für alle erzeugten Teilchenpaare sein könnten
[15]. Das Schlupfloch kann relativ einfach dadurch geschlossen werden, dass man auf Alices und Bobs Seite
jeweils vorher fixierte Zeitfenster wählt und eine Koinzidenz dadurch definiert, dass beide Parteien im jeweils
gleichen Fenster eine Detektion registrieren [16].
Das letzte relevante Schlupfloch ist das sogenannte Memory Loophole [17]. Eine de facto nicht zu vermeidende
Tatsache ist, dass sich Alices bzw. Bobs Messgerät die Resultate der vergangenen Durchgänge merken kann.
Beim n-ten Teilchenpaar sind alle Daten (Settings und Resultate) für die Teilchenpaare 1, 2, …, n–2, n–1 im
Prinzip in einem wie auch immer gearteten Speicher verfügbar. Vermeiden könnte man das nur, wenn man jeden
experimentellen Aufbau (Quelle und Messgeräte) nur einmal verwendet und sehr viele (Tausende, Millionen)
solcher Experimente gleichzeitig und raumartig getrennt durchführt – praktisch ein Ding der Unmöglichkeit.
Zum Glück ändert dieses Problem nichts an der Gültigkeit von Bell-Ungleichungen selbst. Man muss nur vorsichtig bei der statistischen Auswertung der Daten sein, weil man nicht mehr von voneinander unabhängigen
Durchgängen ausgehen darf. Das Memory Loophole wird geschlossen, indem man hinreichend viele Daten
sammelt und diese mit entsprechend ausgeklügelten statistischen Methoden auswertet.
5
Und dann gibt es noch eine Reihe weiterer fundamentaler Meta-Annahmen, ohne die das Bell-Theorem nicht
funktionieren würde. Beispielsweise müssen die Gesetze der Logik gelten wie etwa der „Satz vom ausgeschlossenen Dritten“, der besagt, dass für jede beliebige Aussage entweder die Aussage selbst oder ihr Gegenteil wahr
sein muss. Aber solche Prinzipien entziehen sich – wie auch der oben diskutierte Superdeterminismus – dessen,
was Physiker experimentell kontrollieren bzw. erzwingen können.
4. Auf dem Weg zu einem definitiven Bell-Test
Wie wir gesehen haben, gibt es fünf wichtige Schlupflöcher – das Locality, das Freedom-of-choice, das Fairsampling, das Coincidence-time und das Memory Loophole. Alle wurden schon experimentell geschlossen, aber
niemals simultan in ein und demselben Experiment. Während Atome beispielsweise sehr gute Detektionseffizienzen erlauben, ist es schwierig, sie über räumlich große Distanzen zu verschränken. Und wenn man verschränkte Photonen über große Distanzen trennt, dann reduziert sich ihre Detektionswahrscheinlichkeit, weil sie unterwegs durch Streuung oder Absorption verloren gehen.
Freilich ist es unwahrscheinlich, dass die Natur in verschiedenen Experimenten verschiedene Schlupflöcher
ausnutzt, aber undenkbar ist es nicht. Ein definitives Bell-Experiment ist daher von fundamentaler Bedeutung für
die Grundlagen der Physik, weil es eine experimentelle Antwort für eine der zentralen Frage bringen würde, die
seit den Anfängen der Quantenmechanik offen ist. Zudem ist ein definitiver Test auch aus technologischer Sicht
höchst relevant für das moderne Feld der sogenannten Quantenkryptographie, deren Sicherheit auf der Verletzung der Bellschen Ungleichung beruht. Offene Schlupflöcher können hier kryptographische Unsicherheit und
Angreifbarkeit bedeuten.
Derzeit arbeiten weltweit zumindest drei renommierte Forschungsteams an einem definitiven Bell-Test: eine
Gruppe um Ronald Hanson in Delft (mit sogenannten Stickstoff-Fehlstellen-Zentren in Diamanten) [18], eine
um Harald Weinfurter in München (mit Atomen) [19] und eine um Anton Zeilinger in Wien (mit Photonen) [14].
Der entscheidende Durchbruch in diesem spannenden Rennen könnte durchaus noch heuer oder im nächsten Jahr
gelingen, vielleicht auch von jemandem, der im Stillen daran arbeitet. Gewiss ist: Das Endspiel für den lokalen
Realismus hat schon begonnen.
Abschließend sollten wir noch Folgendes festhalten: Ein definitiver Bell-Test schließt das Weltbild des lokalen
Realismus aus, kann aber nichts zum Interpretationsproblem der Quantenphysik beitragen, denn alle Interpretationen sagen gleichermaßen die Verletzung der Bellschen Ungleichungen vorher. Bohmianer werden weiter mit
nicht-lokalen versteckten Variablen arbeiten und an einem deterministischen Weltbild festhalten. Anhänger der
Viele-Welten-Interpretation werden weiter davon ausgehen, dass bei jeder Messung jedes Resultat verwirklicht
wird, und zwar in jeweils einem eigenen neuen Universum. Und Anhänger der Kopenhagener Deutung werden
weiterhin davon überzeugt sein, dass das Konzept des Realismus nicht haltbar ist und die Natur prinzipiell indeterministischen Charakter hat. Das Deutungsproblem der Quantenmechanik wird der Physik erhalten bleiben,
vielleicht für immer.
Zusammenfassung
Das Weltbild, in dem die Eigenschaften physikalischer Objekte stets wohlbestimmt sind und unabhängig von
ihrer Messung existieren (Realismus) sowie physikalische Einflüsse nur mit höchstens Lichtgeschwindigkeit
übertragen werden können (Lokalität) steht im Widerspruch zu den Vorhersagen der Quantenphysik. Dies zeigt
sich durch die experimentelle Verletzung der Bellschen Ungleichung durch quantenmechanisch verschränkte
Zustände. Ein definitiver Bell-Test, der simultan alle Schlupflöcher schließt und lokalen Realismus endgültig
widerlegt, konnte bisher noch nicht realisiert werden, liegt aber vermutlich in nicht allzu ferner Zukunft.
Abbildungen
Abbildung 1: Das Ergebnis eines Wurfs im Roulette (links) ist im Prinzip durch die anfängliche Bewegung aller einzelnen Atome des Rades, der Kugel sowie der Umgebungsluft determiniert. Daher spricht man von subjektivem oder
reduziblem Zufall. Ob es auch für den Zufall in quantenmechanischen Phänomenen wie beispielsweise im Alphazerfall (rechts) eine deterministische Erklärung gibt oder ob er objektiv und irreduzibel ist, ist eine der zentralen Fragen
6
der Physik. (Quelle Roulette-Rad: Wikipedia, © Ralf Roletschek – Fahrradtechnik und Fotografie. Quelle Alphazerfall: Wikipedia, Public Domain.)
Abbildung 2: John Bell im Jahr 1988. Das nach ihm benannte Bellsche Theorem zeigt die Unvereinbarkeit von klassischer Physik (lokalem Realismus) und Quantenmechanik. (Quelle: Wikipedia, © Queen’s University Belfast.)
Abbildung 3: In einem Bell-Experiment sendet eine Quelle (blau) Teilchenpaare aus, beispielsweise Photonen, deren
physikalische Eigenschaften im Weltbild des lokalen Realismus durch lokale versteckte Variablen λ bestimmt sind.
Von jedem Paar wird ein Teilchen an Alice geschickt, das andere an Bob. Alice kann zwischen zwei möglichen Messeinstellungen a1 und a2 (grün) wählen. Und für jede der beiden möglichen Messungen gibt es jeweils zwei mögliche
Resultate (rot), A = +1 und A = –1. Ganz analog sind die Bezeichnungen auf Bobs Seite. Die gemessenen Korrelationen müssen im lokalen Realismus der Bellschen Ungleichung genügen.
Abbildung 4: Raum-Zeit-Diagramm eines photonischen Bell-Experiments. Die räumliche Achse ist mit x beschriftet,
die zeitliche mit t. Die Achsen sind so gewählt, dass sich Licht entlang von 45°-Linien nach links bzw. rechts oben
bewegt. Eine Quelle emittiert im Raum-Zeit-Punkt E ein Photonenpaar. Die gepunkteten blauen Linien bilden den
sogenannten Zukunfts- und Vergangenheitslichtkegel dieses Ereignisses. Alle Ereignisse vor E und räumlich innerhalb des Vergangenheitslichtkegels können E durch physikalisch mögliche Kommunikation (dh. mit Lichtgeschwindigkeit oder langsamer) beeinflussen. Alle Ereignisse nach E und räumlich innerhalb des Zukunftslichtkegels können
von E beeinflusst werden. Alle Ereignisse außerhalb der beiden blau gepunkteten Kegel sind raumartig getrennt von
E und eine Beeinflussung wäre nur mit Überlichtgeschwindigkeit möglich. Die beiden Photonen bewegen sich in
Glasfasern langsamer als Licht im Vakuum und daher entlang der soliden blauen Linien zu Alice bzw. Bob. Die Messereignisse von Alice und Bob sind mit A bzw. B bezeichnet und dauern realistischerweise eine gewisse Zeit, weshalb Intervalle gezeichnet sind und keine Punkte. Die gepunkteten roten Linien sind Teile der Vergangenheitslichtkegel der Messereignisse. Um die Lokalitätsbedingung zu erfüllen und damit das Locality Loophole zu schließen, muss
das Ereignis von Alices Setting-Wahl a raumartig getrennt sein von Bobs Messereignis B, und vice versa. Dies ist
etwa durch die grau gezeichneten Intervalle erfüllt. (So wurde es qualitativ im Experiment [6] realisiert.) Um auch
Wahlfreiheit zu erfüllen und das Freedom-of-choice Loophole zu schließen, müssen die Wahlereignisse a und b zu7
dem raumartig von der Emission E getrennt werden. Dies ist durch die grauen Intervalle nicht erfüllt – sie liegen ja
im Zukunftslichtkegel von E – aber beispielsweise durch die grün gezeichneten. (Dies wurde technisch realisiert im
Experiment [7].) Die Farbgebung dieser Figur stimmt weitestgehend mit Abbildung 3 überein.
Referenzen
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
Brief an Max Born, 4. Dezember 1926, Einstein-Archiv 8-180 & Albert Einstein, Max Born, Briefwechsel 1916-1955.
A. Einstein, B. Podolsky, N. Rosen, Phys. Rev. 47, 777 (1935).
J. S. Bell, Physics 1 (N.Y.), 195 (1964).
J. F. Clauser, M. A. Horne, A. Shimony, R. A. Holt, Phys. Rev. Lett. 23, 880 (1969).
A. Fine, Phys. Rev. Lett. 48, 291 (1982).
G. Weihs, T. Jennewein, C. Simon, H. Weinfurter, A. Zeilinger, Phys. Rev. Lett. 81, 5039 (1998).
T. Scheidl, R. Ursin, J. Kofler, S. Ramelow, X. Ma, T. Herbst, L. Ratschbacher, A. Fedrizzi, N. Langford, T. Jennewein, A. Zeilinger, Proc. Natl. Acad. Sci. USA 107, 19708 (2010).
J. Gallicchio, A. S. Friedman, D. I. Kaiser, Phys. Rev. Lett. 112, 110405 (2014).
P. M. Pearle, Phys. Rev. D 2, 1418 (1970).
N. Gisin, B. Gisin, Phys. Lett. A 260, 323 (1999).
M. A. Rowe, D. Kielpinski, V. Meyer, C. A. Sackett, W. M. Itano, C. Monroe, D. J. Wineland, Nature 409, 791 (2001).
J. F. Clauser, M. A. Horne, Phys. Rev. D 10, 526 (1974).
P. H. Eberhard, Phys. Rev. A 47, R747 (1993).
M. Giustina, A. Mech, S. Ramelow, B. Wittmann, J. Kofler, J. Beyer, A. Lita, B. Calkins, T. Gerrits, S.W. Nam, R.
Ursin, A. Zeilinger, Nature 497, 227 (2013).
J.-Å. Larsson, R. D. Gill, Europhys. Lett. 67, 707 (2004).
J.-Å. Larsson, M. Giustina, J. Kofler, B. Wittmann, R. Ursin, S. Ramelow, Phys. Rev. A 90, 032107 (2014).
J. Barrett, D. Collins, L. Hardy, A. Kent, S. Popescu, Phys. Rev. A 66, 042111 (2002).
W. Pfaff, B. Hensen, H. Bernien, S. B. van Dam, M. S. Blok, T. H. Taminiau, M. J. Tiggelman, R. N. Schouten, M.
Markham, D. J. Twitchen, R. Hanson, Science 345, 532 (2014).
J. Hofmann, M. Krug, N. Ortegel, L. Gérard, M. Weber, W. Rosenfeld, H. Weinfurter, Science 337, 72 (2012).
Danksagung
Der Autor dankt Andreas Bertl, Carolin Hahn, Georg Kofler und Gregor Langer für hilfreiche Kommentare.
Der Autor
Johannes Kofler studierte Physik an der Johannes Kepler Universität Linz und promovierte 2009 „sub auspiciis“ an der Universität Wien. Danach war er Junior Scientist am Institut für Quantenoptik und Quanteninformation (IQOQI) der Österreichischen Akademie der Wissenschaften in Wien. Seit 2011 ist er wissenschaftlicher Mitarbeiter der Theorie-Gruppe am MaxPlanck-Institut für Quantenoptik (MPQ) in Garching bei München.
8
Herunterladen