Das Endspiel für den lokalen Realismus Johannes Kofler Max-Planck-Institut für Quantenoptik (MPQ), Garching, Deutschland Die Bellsche Ungleichung, die im vergangen Jahr ihren 50. Geburtstag gefeiert hat, zeigt auf eindrucksvolle Weise den unüberbrückbaren Bruch zwischen klassischer Physik und Quantenmechanik. Während es in den letzten Jahrzehnten wegweisende Experimente gegeben hat, steht ein sogenannter „definitiver Bell-Test“, der alle technischen Schlupflöcher gleichzeitig schließt, immer noch aus. 1. Irreduzibler Zufall oder versteckte Variablen? Albert Einstein war vermutlich der bedeutendste Physiker aller Zeiten. Seine spezielle und allgemeine Relativitätstheorie revolutionierten in den Jahren 1905 bzw. 1915 unsere Vorstellungen von Raum und Zeit. Mit seiner Lichtquantenhypothese leistete Einstein auch grundlegende Beiträge zur Quantenmechanik, konnte sich aber bis zu seinem Tod nicht mit dem Charakter dieser neuartigen Theorie anfreunden. Insbesondere damit, dass in der Quantenmechanik bestimmte physikalische Ereignisse, wie etwa der radioaktive Zerfall eines Atoms, offenbar vollkommen zufällig und ohne konkrete Ursache geschehen. Man kann nur noch die Wahrscheinlichkeit dafür berechnen, dass ein Ereignis eintritt, jedoch nicht mehr das Einzelereignis selbst. Dieser Bruch mit Kausalität und Determinismus – den vielleicht wichtigsten Grundpfeilern der klassischen Physik – war ihm nicht geheuer und widerstrebte seinem Instinkt. An seinen Freund und Kollegen Max Born schrieb er Ende 1926 diese berühmten Worte, die seine Abneigung gegen den Zufall in der Natur widerspiegeln [1]: „Die Quantenmechanik ist sehr achtung-gebietend. Aber eine innere Stimme sagt mir, daß das doch nicht der wahre Jakob ist. Die Theorie liefert viel, aber dem Geheimnis des Alten bringt sie uns kaum näher. Jedenfalls bin ich überzeugt, daß der nicht würfelt.“ Ironischerweise erhielt Born später den Nobelpreis für Physik gerade für die von ihm 1926 vorgeschlagene Wahrscheinlichkeitsinterpretation der quantenmechanischen Wellenfunktion, die zu einem Fundament der sogenannten Kopenhagener Deutung geworden war. Im Kern ging es Einstein um folgendes Problem: In der klassischen Physik gibt es für jedes auch noch so komplizierte System eine deterministische Beschreibung. Jedes Ereignis hat genau eine Ursache, und jede Ursache führt nur zu genau einem möglichen Ereignis. In der zweiten Hälfte des 19. Jahrhunderts etwa gelang es Ludwig Boltzmann mit seiner kinetischen Gastheorie, für die statistischen Gesetze der Thermodynamik eine darunterliegende deterministische Beschreibung zu finden. Auch wenn eine konkrete Vorhersagbarkeit zu komplex ist, so kann man im Prinzip sogar eine Dampfmaschine oder einen Wurf im Roulette durch die Bewegung der einzelnen Atome verstehen. Das wirft natürlich die Frage auf, ob es nicht auch für quantenmechanische Systeme eine darunterliegende deterministische Beschreibung geben könnte? So wie Rouletterad, Kugel und Umgebungsluft aus Atomen bestehen, könnte ein radioaktives Atom ja aus noch elementareren Einheiten aufgebaut sein, die deterministischen Gesetzen folgen und den exakten Zeitpunkt des radioaktiven Zerfalls bestimmen (Abbildung 1). Der Zufall in quantenmechanischen Experimenten wäre nur scheinbar – bloß subjektiv und reduzibel. Die quantenmechanische Wellenfunktion wäre eine nur unvollständige Beschreibung der Natur. Es stellt sich also folgende Frage: Könnte es versteckte Variablen geben, deren Kenntnis eine genauere Vorhersagbarkeit für Quantensysteme ermöglichen würde als die Wellenfunktion? Kann man die Beschreibung der Natur doch wieder auf ein deterministisches Fundament stellen? Man könnte argumentieren, dass diese Fragestellung zu den wichtigsten und zentralsten der Physik gehört, vielleicht sogar der Naturwissenschaft als Ganzes. Der Mathematiker John von Neumann veröffentlichte 1932 einen „Beweis“ der Unmöglichkeit von versteckten Variablen, von dem sich jedoch später herausstellte, dass er fehlerhaft war. Im Jahr 1935 publizierte Einstein gemeinsam mit Boris Podolsky und Nathan Rosen eine bahnbrechende Arbeit, die darauf hindeutete, aber nicht bewies, dass die Wellenfunktion keine vollständige Beschreibung von Quantensystemen sein kann, wenn man am Prinzip der Lokalität festhalten will [2]. Letzteres ist ein fundamentaler Baustein der Relativitätstheorie und besagt, dass in der Natur Information nicht schneller übertragen werden kann als mit Lichtgeschwindigkeit. Schnellere Übertragung von Information würde Kommunikation in die Vergangenheit ermöglichen und Paradoxa erzeugen. David Bohm gelang 1952 eine deterministische Formulierung der Quantenmechanik mit versteckten Variablen. Allerdings gibt es in dieser Theorie eine versteckte Kommunikation, die schneller ist als Licht. Da es ohne direkten Zugang zu den versteckten Variablen nicht möglich ist, diese Kommunikation zur Informationsübertragung auszunutzen, wird ein direkter Widerspruch zur Relativitätstheorie vermieden. Aber konzeptuell kann man es als unbefriedigend betrachten, eine Verletzung des Prinzips der Lokalität auf einer versteckten Ebene dulden zu müssen. 1 2. Die Bellsche Ungleichung Der theoretische Durchbruch gelang im Jahre 1964 dem nordirischen Physiker John Bell (Abbildung 2) [3]. Bell stellte sich die Frage, ob jede Theorie mit versteckten Variablen nicht-lokal sein muss so wie die Bohmsche Mechanik, oder ob doch das klassische Weltbild des lokalen Realismus richtig sein kann. Letzteres setzt sich zusammen aus den folgenden Annahmen: Realismus: Eigenschaften physikalischer Objekte sind (durch versteckte Variablen) stets wohldefiniert und existieren unabhängig davon ob sie gemessen werden oder nicht. Lokalität: Physikalische Einflüsse können nur mit höchstens Lichtgeschwindigkeit übertragen werden. Bell zeigte mit seinem Theorem, dass in der Tat jeder Versuch, die Quantenmechanik mithilfe von lokalen versteckten Variablen zu vervollständigen, im Widerspruch zu den Vorhersagen der Quantenmechanik selbst steht. Damit ist es möglich, experimentell zwischen lokalem Realismus und Quantenmechanik zu entscheiden. Auf diese Weise brachte er ein vermeintlich unlösbares, nahezu philosophisches Problem auf eine dem Experiment zugängliche Ebene – eine Meisterleistung, die ihm Anfang der 1990er Jahre den Gerüchten nach den PhysikNobelpreis einbringen hätte können, wäre er nicht zuvor verstorben. Wir werden jetzt versuchen, Bells Gedankengang nachzuvollziehen, und zwar in einer mathematisch vereinfachten Form, die im Kern auf John Clauser, Michael Horne, Abner Shimony und Richard Holt (CHSH) zurückgeht [4]. Dazu betrachten wir Abbildung 3. Eine in der Mitte positionierte Quelle emittiert ein Teilchenpaar, zB. zwei Photonen. Im lokalen Realismus wird jedes Teilchenpaar durch (gemeinsame) versteckte Variablen vollständig bestimmt. Alle versteckten Variablen des Paares fassen wir mit dem Symbol λ zusammen. Eines der beiden Teilchen wird an eine Messstation namens Alice geschickt, das andere an eine namens Bob. Alice kann eine von zwei möglichen Messungen an ihrem Teilchen durchführen, die wir mit a1 und a2 bezeichnen. Beispielsweise könnte sie die Polarisation – dh. die Schwingungsrichtung des elektrischen Feldes – messen, und a1 könnte eine Horizontal(0°)/Vertikal(90°)-Messung der Polarisation sein, während a2 die Polarisation entlang einer anderen Richtung misst, zum Beispiel +45°/–45°. Analog gibt es zwei mögliche Messeinstellungen („Settings“) b1 und b2 für Bob, die nicht mit a1 und a2 übereinstimmen müssen. Das Resultat von Alices Messung nennen wir A und definieren, dass es nur die Werte +1 und –1 haben kann. Hat Alice etwa die Horizontal/Vertikal-Messung a1 vorgenommen, so wäre A = +1 das Ergebnis „horizontal“ und A = –1 das Ergebnis „vertikal“. Hat sie hingegen die +45°/–45°-Messung a2 vorgenommen, so wäre A = +1 das Ergebnis „+45°“ und A = –1 das Ergebnis „–45°“. Ganz analog definieren wir die Messresultate B auf Bobs Seite. Bell betrachtete 1964 den deterministischen Fall, in dem die versteckten Variablen λ das jeweilige Messresultat eindeutig bestimmen. (Es gibt auch stochastische Modelle, aber diese sind mathematisch stets auf deterministische reduzierbar [5]. Wir bleiben hier also bei Bells ursprünglicher Formulierung.) Da wir lokale Theorien mit versteckten Variablen betrachten, hängt Alices Resultat A neben λ nur noch von ihrem Setting (a1 bzw. a2) ab und nicht auch noch von Bobs Setting (b1 bzw. b2) oder davon, ob bzw. wie sich die versteckten Variablen auf Bobs Seite später aufgrund seines Settings verändern. Je nach Alices Setting-Wahl benennen wir ihr Ergebnis mit A1 = A(a1,λ) bzw. A2 = A(a2,λ). Gemäß dem Beispiel im vorigen Absatz ist A1 das Resultat der Horizontal/Vertikal-Messung a1 bzw. A2 das Resultat der +45°/–45°-Messung a2. Analog benennen wir auf Bobs Seite das Resultat mit B1 = B(b1,λ) bzw. B2 = B(b2,λ). Die versteckten Variablen definieren alle vier möglichen Messresultate, egal ob die Messungen wirklich durchgeführt werden oder nicht. In der Tat kann für jedes Teilchenpaar nur entweder A1 oder A2 und nur entweder B1 oder B2 realisiert werden, weil sich die jeweiligen Messungen gegenseitig ausschließen. Man muss sich im Experiment für eine Polarisationsrichtung entscheiden und kann nicht zwei verschiedene gleichzeitig messen. Da die beiden Messungen a1 und a2 nicht kompatibel sind („nicht kommutieren“), ist es in der Quantenmechanik unmöglich, für ein Photon sowohl ein konkretes Resultat für A1 als auch für A2 mit 100%-Wahrscheinlichkeit vorherzusagen. Dito für B1 und B2. Lokaler Realismus ist aber gerade das Weltbild, in dem auch nicht ausgeführte Messungen definitive Werte haben, und zwar unabhängig von dem, was gleichzeitig an einer anderen Stelle passiert. In Theorien mit versteckten Variablen können also für ein einziges Photonenpaar alle 4 Resultate – A1, A2, B1, B2 – gleichzeitig definitive Werte haben. Da diese jeweils nur +1 oder –1 sein können, gilt folgende algebraische Relation: A1 (B1+B2) + A2 (B1–B2) = ±2. (1) Hier steht „±2“ für „+2 oder –2“. Man kann die Richtigkeit dieser Gleichung durch Einsetzen aller Möglichkeiten nachprüfen oder sich wie folgt überzeugen: Entweder sind B1 und B2 gleich, also beide +1 oder beide –1. Dann verschwindet die zweite Klammer und der erste Term muss +2 oder –2 sein. Oder B1 und B2 sind ungleich. Dann verschwindet die erste Klammer und das Resultat ist wieder +2 oder –2. Wir erinnern an dieser Stelle noch 2 einmal daran, dass (1) experimentell nicht überprüfbar ist, weil sich die jeweiligen lokalen Messungen gegenseitig ausschließen. Jetzt stellen wir uns vor, dass sehr viele Teilchenpaare erzeugt werden, jedes mit seinen eigenen versteckten Variablen. In jedem Durchgang, dh. für jedes einzelne Paar, wählen Alice und Bob zufällig ihre Settings und damit eine der vier möglichen Setting-Kombinationen, also (a1,b1) oder (a1,b2) oder (a2,b1) oder (a2,b2). In rund einem Viertel der Durchgänge misst man A1 und B1, in einem weiteren Viertel A1 und B2 und so weiter. Die Daten eines Experiments sehen also beispielsweise folgendermaßen aus: Paar 1 2 3 4 : A1 +1 –1 : A2 +1 –1 : B1 –1 +1 : B2 –1 +1 : Man kann mithin in jedem einzelnen Durchgang eines der vier Produkte finden: A1B1 oder A1B2 oder A2B1 oder A2B2. So kann man experimentell alle vier Erwartungswerte 〈A1B1〉, 〈A1B2〉, 〈A2B1〉, 〈A2B2〉 der Produkte der Resultate – genannt Korrelationen – bestimmen. Da im lokalen Realismus jedes einzelne Paar der Gleichung (1) genügen muss (A1B1 + A1B2 + A2B1 – A2B2 = ±2), gilt für die vier Korrelationen die folgende Ungleichung: 〈A1B1〉 + 〈A1B2〉 + 〈A2B1〉 – 〈A2B2〉 ≤ 2. (2) Einfach formuliert: Der Durchschnitt aus vielen Werten, die alle +2 oder –2 sind, kann nicht größer als +2 sein. Das Minus-Zeichen vor dem vierten Term kommt vom Minus-Zeichen auf der linken Seite in Gleichung (1). Ungleichung (2) ist eine sogenannte Bellsche Ungleichung. Alle lokal-realistischen Theorien müssen sie erfüllen. Und im Gegensatz zu (1) ist (2) experimentell überprüfbar. Das Bemerkenswerte ist, dass es in der Quantenmechanik sogenannte verschränkte Zustände gibt, die eine Verletzung der Bellschen Ungleichung vorhersagen. Der Polarisationssingulett-Zustand zweier Photonen etwa erzeugt bei optimal gewählten Settings die Korrelationen 〈A1B1〉 = 〈A1B2〉 = 〈A2B1〉 = –〈A2B2〉 = 1/√2. Die linke Seite von Ungleichung (2) nimmt dann den Wert 2√2 ≈ 2.828 an. Dieser Quantenzustand ist daher nicht mit lokalen versteckten Variablen modellierbar. Der Vollständigkeit halber sei erwähnt, dass es unendlich viele Bellsche Ungleichungen gibt, auch welche mit mehr als zwei Parteien und/oder mehr als zwei möglichen Settings und/oder mehr als zwei möglichen Messresultaten. Die spezielle Form (2) wird CHSH-Ungleichung genannt und ist die berühmteste und am meisten verwendete Bell-Ungleichung. 3. Schlupflöcher Der erste erfolgreiche experimentelle Test wurde 1972 von Stuart Freedman and John Clauser durchgeführt, die eine Verletzung einer Bell-Ungleichung durch Messungen an verschränkten Photonen beobachteten. Sind lokale versteckte Variablen damit endgültig widerlegt und ist dieses Kapitel der Physik seit 1972 abgeschlossen? Mitnichten! Der Grund liegt darin, dass es in experimentellen Realisierungen bisher stets technische Schwächen gab, die sogenannte Schlupflöcher („Loopholes“) offen lassen. Damit haben Anhänger des lokalen Realismus trotz verletzter Bell-Ungleichung weiterhin die Möglichkeit, ihr Weltbild zu verteidigen. Bis heute gibt es kein Experiment, in dem alle bekannten Schlupflöcher gleichzeitig geschlossen werden konnten. Wir diskutieren nun zunächst die wichtigsten Loopholes und danach die Aussichten auf ein definitives (dh. schlupflochfreies) BellExperiment. 3.1. Lokalität Das erste Schlupfloch ist das logisch naheliegende Locality Loophole (Lokalitätsschlupfloch) und hängt direkt mit der Lokalitätsannahme im Bellschen Theorem zusammen. Man muss experimentell sicherstellen, dass die Wahl des Settings auf einer Seite keinen Einfluss auf das Resultat der anderen Seite haben kann (und vice versa). Dazu darf kein Setting auf der jeweils anderen Seite verfügbar sein; es muss also zufällig gewählt werden und zudem muss das Ereignis der Setting-Wahl im Sinne der speziellen Relativitätstheorie raumartig vom Messereignis der anderen Seite getrennt werden. Das heißt, die Ereignisse müssen raum-zeitlich so angeordnet sein, dass nicht einmal Lichtgeschwindigkeit für eine etwaige Kommunikation ausreicht (Abbildung 4). Nur so ist wirklich sichergestellt, dass Alices Resultat A nicht von Bobs Setting b abhängen kann (und vice versa). Andernfalls gibt es nämlich beispielsweise das folgende simple nicht-lokale Modell, das sogar unabhängig von λ ist: A1 = +1, A2 = +1, 3 B1 = +1, + 1 falls a = a1 , B2 = − 1 falls a = a 2 . Hier sind A1, A2 und B1 immer +1, dh. 〈A1B1〉 = 〈A2B1〉 = +1, während B2 von Alices Setting abhängt, und zwar so, dass die Korrelation 〈A1B2〉 den Wert +1 hat, während 〈A2B2〉 den Wert –1 annimmt. Damit erreicht die linke Seite der CHSH-Ungleichung (2) ihren logischen Maximalwert 4. (Eine derart starke Verletzung schafft übrigens nicht einmal die Quantenmechanik.) Die Verletzung der Lokalitätsbedingung ermöglicht also auf ganz einfache Weise eine Verletzung der Bellschen Ungleichung. Die technische Herausforderung zufällig gewählter Settings unter raumartiger Trennung von der Messung auf der anderen Seite gelang zum ersten Mal im Jahr 1998 an der Universität Innsbruck [6]. Alice und Bob wurden 400 Meter voneinander getrennt und die Wahl der Settings erfolgte durch schnelle Zufallsgeneratoren zu den entsprechenden Zeitpunkten. Die an verschränkten Photonen durchgeführten Polarisationsmessungen verletzten die CHSH-Ungleichung (2). 3.2. Wahlfreiheit Das zweite Schlupfloch betrifft eine in der Herleitung von Bell-Ungleichungen geradezu verborgene Annahme. In der Tat wurde sie erst ein Jahrzehnt nach Bells Originalarbeit als essentiell identifiziert. Es handelt sich um die Annahme der freien Wahl, und eine potentielle Nicht-Erfüllung dieser Annahme öffnet das Freedom-ofchoice Loophole (Wahlfreiheitsschlupfloch). Die Annahme besagt, dass Alice und Bob ihre Settings a und b für jedes Teilchenpaar unabhängig von den versteckten Variablen λ wählen können bzw. dass die versteckten Variablen ihrerseits nicht von der Wahl der Settings abhängen. Mathematisch heißt dies, dass die auf die versteckten Variablen konditionierte Wahrscheinlichkeit, Settings a und b zu wählen gleich der unbedingten ist: ρ(a,b|λ) = ρ(a,b). Ohne diese Annahme kann man nicht einfach von (1) auf (2) schließen, also über alle Teilchenpaare mitteln. Ein simples Modell mit versteckten Variablen, das dem Prinzip der Lokalität gehorcht, aber die Wahlfreiheit verletzt, sieht zum Beispiel wie folgt aus: Es gibt vier versteckte Variablen λ11, λ12, λ21, λ22. Die Quelle emittiert in jedem Durchgang zufällig eine der vier Variablen. Sowohl die Mess-Settings als auch die Resultate werden dann wie folgt bestimmt: λ11: λ12: λ21: λ22: a a1 a1 a2 a2 b b1 b2 b1 b2 A +1, +1, +1, +1, B +1 +1 +1 –1 Wie man leicht sehen kann, hat die linke Seite der CHSH-Ungleichung (2) dann wieder den Wert 4. Verletzung der Wahlfreiheit kann mithin sofort zur Verletzung einer Bellschen Ungleichung führen. Das Schlupfloch der Wahlfreiheit wird dadurch adressiert, dass Alice und Bob ihre Settings auch raumartig getrennt von der Emission des Teilchenpaares in der Quelle wählen (Abbildung 4). Wenn man annimmt, dass die versteckten Variablen zum Zeitpunkt der Emission in der Quelle erzeugt werden, dann können sie die SettingWahl nicht beeinflussen (und auch nicht durch sie beeinflusst werden). Erreicht wurde dieses raumzeitliche Szenario zum ersten Mal vor einigen Jahren bei einem Bell-Experiment auf den kanarischen Inseln [7]. Wir müssen allerdings anmerken, dass es für die Settings und versteckten Variablen eine gemeinsame Ursache weiter zurück in der Vergangenheit geben könnte. Es gibt daher Überlegungen, für die Settings von Alice und Bob das Licht von zwei verschiedenen Quasaren zu verwenden, die seit Milliarden von Jahren kausal getrennt sind [8]. Hypothetisch findet man aber spätestens im Urknall selbst eine mögliche gemeinsame Ursache. Dieses Weltbild – genannt Superdeterminismus – ist ein denkbarer Ausweg, den lokale Realisten immer nehmen können. Eine solche Theorie ist nicht falsifizierbar, denn wir lebten dann in einer Welt, die sich gleichsam gegen uns verschworen hätte. Eine der Grundannahmen der Physik wäre verletzt, nämlich jene, dass wir der Natur Fragen stellen können, ohne dass die Natur diese Fragen konspirativ vorherbestimmt, sich darauf einstellt, und uns dann stets eine irreführende, situationsangepasste Antwort liefert. 3.3. Faires Sampling Das dritte Schlupfloch, das wir besprechen wollen, nennt sich Fair-sampling Loophole. Es ist ebenfalls schon seit vielen Jahrzehnten bekannt [9], und es geht dabei um folgendes Problem: In der Herleitung der CHSHUngleichung (2) gab es eine weitere implizite Annahme, nämlich, dass es erlaubt ist, nur jene Durchgänge des 4 Experiments anzusehen, in denen sowohl Alice als auch Bob ein Teilchen detektieren und die anderen Durchgänge zu verwerfen. Man nimmt dabei an, dass das Sampling fair ist, dass also die detektierten Teilchen faire Repräsentanten aller emittierten Teilchen sind. Was aber, wenn zum Beispiel Teilchen auf dem Weg zu Alice oder Bob verloren gehen bzw. das Messgerät die Detektion verweigert, und zwar abhängig vom jeweils gewählten Setting? Im Allgemeinen ist dies ein gravierendes Problem. Man kann Modelle mit versteckten Variablen finden, die Ungleichung (2) verletzen, einfach indem sie die Annahme des fairen Samplings nicht erfüllen und auf ganz bestimmte ausgeklügelte Weise zu Detektionen bzw. Nicht-Detektionen führen [10]. Dabei bleiben Lokalität und Wahlfreiheit gewahrt; die Verletzung beruht einzig auf vom jeweiligen lokalen Setting sowie λ abhängenden Detektionseffizienzen. Es gibt zwei Arten, das Schlupfloch des fairen Samplings zu schließen: Will man Ungleichungen wie etwa (2) verwenden, die die Annahme fairen Samplings in ihrer Herleitung gemacht haben, so muss man zusätzlich noch nachweisen, dass die Detektionseffizienz – sie berücksichtigt Verluste in der Quelle, auf dem Übertragungsweg sowie im Detektor selbst – über einem gewissen Schwellenwert liegt. Für die CHSH-Ungleichung sind es etwa 83 %. Das erste Bell-Experiment mit einer solchen Effizienz gelang im Jahr 2001 am National Institute of Standards and Technology in Boulder (Colorado, USA) mit verschränkten Ionen [11]. Mit Photonen kann man bis heute weder eine solche Effizienz erreichen noch weiß man üblicherweise die zur Bestimmung der Effizienz nötige Zahl der Teilchenpaare, die eine Quelle genau emittiert. Zum Glück gibt es noch einen zweiten – viel eleganteren – Weg, das Schlupfloch zu schließen, nämlich eine Bellsche Ungleichung zu verwenden, die die Annahme fairen Samplings in ihrer Herleitung gar nicht verwendet. Eine solche Ungleichung geht auf Clauser und Horne zurück und heißt daher CH-Ungleichung [12]. Sie sieht folgendermaßen aus: p(a1,b1) + p(a1,b2) + p(a2,b1) – p(a2,b2) – pA(a1) – pB(b1) ≤ 0. (3) Hier ist p(ai,bj) keine Korrelation sondern die Wahrscheinlichkeit, dass – wenn Alice ai und Bob bj misst, wobei i,j ∈ {1,2} – die Resultate A = +1 und B = +1 sind. Ferner ist pA(a1) bzw. pB(b1) die Wahrscheinlichkeit, dass bei Messung von a1 bzw b1 das Resultat A = +1 bzw. B = +1 ist. (Die Ergebnisse A = –1 bzw. B = –1 werden überhaupt nicht benötigt, es reicht also ein Detektor pro Seite.) Durch bloßes Ansehen der CH-Ungleichung (3) kann man schon erkennen, dass niedrige Detektionseffizienzen automatisch hinderlich für eine Verletzung sind. Nehmen wir an, dass Alices und Bobs Detektionseffizienzen gleich sind und bezeichnen wir den Wert mit η, wobei η eine Zahl zwischen 0 und 1 ist. Dann skalieren die ersten vier Wahrscheinlichkeiten mit dem Produkt der jeweiligen Effizienz, also mit η2, weil ja jede Partei ihr Teilchen detektieren muss. Die letzten beiden Wahrscheinlichkeiten sind im Wortsinn „einfach“ und skalieren daher nur mit der jeweiligen Effizienz η. Bei kleinen Effizienzen überwiegen daher automatisch die letzten beiden Terme. Da diese negatives Vorzeichen haben, wird die Ungleichung bei genügend kleinem η zwangsläufig erfüllt. Man kann mathematisch zeigen [13], dass die CHUngleichung nur verletzt werden kann, wenn η größer ist als 2/3. Vor ungefähr zwei Jahren gelang zum ersten Mal ein Bell-Experiment mit verschränkten Photonen, das das Fair-sampling Loophole schließen konnte [14], indem die CH-Ungleichung (bzw. eine dazu äquivalente Ungleichung) verletzt wurde. Mithilfe von modernen supraleitenden Detektoren konnte eine ausreichende Detektionseffizienz von etwa 75 % erreicht werden. 3.4. Weitere Schlupflöcher An dieser Stelle sei kurz erwähnt, dass es noch zwei weitere relevante Schlupflöcher gibt. Das erste ist das sogenannte Coincidence-time Loophole, das eigentlich nur bei nicht-gepulsten Experimenten mit Photonen relevant ist, nicht aber bei anderen Realisierungen. Ähnlich wie beim fairen Sampling geht es hier darum, dass die Ankunftszeiten der Teilchen unfair programmiert sein könnten, und die identifizierten Koinzidenzen – relevant für die ersten vier Terme in Ungleichung (3) – nicht repräsentativ für alle erzeugten Teilchenpaare sein könnten [15]. Das Schlupfloch kann relativ einfach dadurch geschlossen werden, dass man auf Alices und Bobs Seite jeweils vorher fixierte Zeitfenster wählt und eine Koinzidenz dadurch definiert, dass beide Parteien im jeweils gleichen Fenster eine Detektion registrieren [16]. Das letzte relevante Schlupfloch ist das sogenannte Memory Loophole [17]. Eine de facto nicht zu vermeidende Tatsache ist, dass sich Alices bzw. Bobs Messgerät die Resultate der vergangenen Durchgänge merken kann. Beim n-ten Teilchenpaar sind alle Daten (Settings und Resultate) für die Teilchenpaare 1, 2, …, n–2, n–1 im Prinzip in einem wie auch immer gearteten Speicher verfügbar. Vermeiden könnte man das nur, wenn man jeden experimentellen Aufbau (Quelle und Messgeräte) nur einmal verwendet und sehr viele (Tausende, Millionen) solcher Experimente gleichzeitig und raumartig getrennt durchführt – praktisch ein Ding der Unmöglichkeit. Zum Glück ändert dieses Problem nichts an der Gültigkeit von Bell-Ungleichungen selbst. Man muss nur vorsichtig bei der statistischen Auswertung der Daten sein, weil man nicht mehr von voneinander unabhängigen Durchgängen ausgehen darf. Das Memory Loophole wird geschlossen, indem man hinreichend viele Daten sammelt und diese mit entsprechend ausgeklügelten statistischen Methoden auswertet. 5 Und dann gibt es noch eine Reihe weiterer fundamentaler Meta-Annahmen, ohne die das Bell-Theorem nicht funktionieren würde. Beispielsweise müssen die Gesetze der Logik gelten wie etwa der „Satz vom ausgeschlossenen Dritten“, der besagt, dass für jede beliebige Aussage entweder die Aussage selbst oder ihr Gegenteil wahr sein muss. Aber solche Prinzipien entziehen sich – wie auch der oben diskutierte Superdeterminismus – dessen, was Physiker experimentell kontrollieren bzw. erzwingen können. 4. Auf dem Weg zu einem definitiven Bell-Test Wie wir gesehen haben, gibt es fünf wichtige Schlupflöcher – das Locality, das Freedom-of-choice, das Fairsampling, das Coincidence-time und das Memory Loophole. Alle wurden schon experimentell geschlossen, aber niemals simultan in ein und demselben Experiment. Während Atome beispielsweise sehr gute Detektionseffizienzen erlauben, ist es schwierig, sie über räumlich große Distanzen zu verschränken. Und wenn man verschränkte Photonen über große Distanzen trennt, dann reduziert sich ihre Detektionswahrscheinlichkeit, weil sie unterwegs durch Streuung oder Absorption verloren gehen. Freilich ist es unwahrscheinlich, dass die Natur in verschiedenen Experimenten verschiedene Schlupflöcher ausnutzt, aber undenkbar ist es nicht. Ein definitives Bell-Experiment ist daher von fundamentaler Bedeutung für die Grundlagen der Physik, weil es eine experimentelle Antwort für eine der zentralen Frage bringen würde, die seit den Anfängen der Quantenmechanik offen ist. Zudem ist ein definitiver Test auch aus technologischer Sicht höchst relevant für das moderne Feld der sogenannten Quantenkryptographie, deren Sicherheit auf der Verletzung der Bellschen Ungleichung beruht. Offene Schlupflöcher können hier kryptographische Unsicherheit und Angreifbarkeit bedeuten. Derzeit arbeiten weltweit zumindest drei renommierte Forschungsteams an einem definitiven Bell-Test: eine Gruppe um Ronald Hanson in Delft (mit sogenannten Stickstoff-Fehlstellen-Zentren in Diamanten) [18], eine um Harald Weinfurter in München (mit Atomen) [19] und eine um Anton Zeilinger in Wien (mit Photonen) [14]. Der entscheidende Durchbruch in diesem spannenden Rennen könnte durchaus noch heuer oder im nächsten Jahr gelingen, vielleicht auch von jemandem, der im Stillen daran arbeitet. Gewiss ist: Das Endspiel für den lokalen Realismus hat schon begonnen. Abschließend sollten wir noch Folgendes festhalten: Ein definitiver Bell-Test schließt das Weltbild des lokalen Realismus aus, kann aber nichts zum Interpretationsproblem der Quantenphysik beitragen, denn alle Interpretationen sagen gleichermaßen die Verletzung der Bellschen Ungleichungen vorher. Bohmianer werden weiter mit nicht-lokalen versteckten Variablen arbeiten und an einem deterministischen Weltbild festhalten. Anhänger der Viele-Welten-Interpretation werden weiter davon ausgehen, dass bei jeder Messung jedes Resultat verwirklicht wird, und zwar in jeweils einem eigenen neuen Universum. Und Anhänger der Kopenhagener Deutung werden weiterhin davon überzeugt sein, dass das Konzept des Realismus nicht haltbar ist und die Natur prinzipiell indeterministischen Charakter hat. Das Deutungsproblem der Quantenmechanik wird der Physik erhalten bleiben, vielleicht für immer. Zusammenfassung Das Weltbild, in dem die Eigenschaften physikalischer Objekte stets wohlbestimmt sind und unabhängig von ihrer Messung existieren (Realismus) sowie physikalische Einflüsse nur mit höchstens Lichtgeschwindigkeit übertragen werden können (Lokalität) steht im Widerspruch zu den Vorhersagen der Quantenphysik. Dies zeigt sich durch die experimentelle Verletzung der Bellschen Ungleichung durch quantenmechanisch verschränkte Zustände. Ein definitiver Bell-Test, der simultan alle Schlupflöcher schließt und lokalen Realismus endgültig widerlegt, konnte bisher noch nicht realisiert werden, liegt aber vermutlich in nicht allzu ferner Zukunft. Abbildungen Abbildung 1: Das Ergebnis eines Wurfs im Roulette (links) ist im Prinzip durch die anfängliche Bewegung aller einzelnen Atome des Rades, der Kugel sowie der Umgebungsluft determiniert. Daher spricht man von subjektivem oder reduziblem Zufall. Ob es auch für den Zufall in quantenmechanischen Phänomenen wie beispielsweise im Alphazerfall (rechts) eine deterministische Erklärung gibt oder ob er objektiv und irreduzibel ist, ist eine der zentralen Fragen 6 der Physik. (Quelle Roulette-Rad: Wikipedia, © Ralf Roletschek – Fahrradtechnik und Fotografie. Quelle Alphazerfall: Wikipedia, Public Domain.) Abbildung 2: John Bell im Jahr 1988. Das nach ihm benannte Bellsche Theorem zeigt die Unvereinbarkeit von klassischer Physik (lokalem Realismus) und Quantenmechanik. (Quelle: Wikipedia, © Queen’s University Belfast.) Abbildung 3: In einem Bell-Experiment sendet eine Quelle (blau) Teilchenpaare aus, beispielsweise Photonen, deren physikalische Eigenschaften im Weltbild des lokalen Realismus durch lokale versteckte Variablen λ bestimmt sind. Von jedem Paar wird ein Teilchen an Alice geschickt, das andere an Bob. Alice kann zwischen zwei möglichen Messeinstellungen a1 und a2 (grün) wählen. Und für jede der beiden möglichen Messungen gibt es jeweils zwei mögliche Resultate (rot), A = +1 und A = –1. Ganz analog sind die Bezeichnungen auf Bobs Seite. Die gemessenen Korrelationen müssen im lokalen Realismus der Bellschen Ungleichung genügen. Abbildung 4: Raum-Zeit-Diagramm eines photonischen Bell-Experiments. Die räumliche Achse ist mit x beschriftet, die zeitliche mit t. Die Achsen sind so gewählt, dass sich Licht entlang von 45°-Linien nach links bzw. rechts oben bewegt. Eine Quelle emittiert im Raum-Zeit-Punkt E ein Photonenpaar. Die gepunkteten blauen Linien bilden den sogenannten Zukunfts- und Vergangenheitslichtkegel dieses Ereignisses. Alle Ereignisse vor E und räumlich innerhalb des Vergangenheitslichtkegels können E durch physikalisch mögliche Kommunikation (dh. mit Lichtgeschwindigkeit oder langsamer) beeinflussen. Alle Ereignisse nach E und räumlich innerhalb des Zukunftslichtkegels können von E beeinflusst werden. Alle Ereignisse außerhalb der beiden blau gepunkteten Kegel sind raumartig getrennt von E und eine Beeinflussung wäre nur mit Überlichtgeschwindigkeit möglich. Die beiden Photonen bewegen sich in Glasfasern langsamer als Licht im Vakuum und daher entlang der soliden blauen Linien zu Alice bzw. Bob. Die Messereignisse von Alice und Bob sind mit A bzw. B bezeichnet und dauern realistischerweise eine gewisse Zeit, weshalb Intervalle gezeichnet sind und keine Punkte. Die gepunkteten roten Linien sind Teile der Vergangenheitslichtkegel der Messereignisse. Um die Lokalitätsbedingung zu erfüllen und damit das Locality Loophole zu schließen, muss das Ereignis von Alices Setting-Wahl a raumartig getrennt sein von Bobs Messereignis B, und vice versa. Dies ist etwa durch die grau gezeichneten Intervalle erfüllt. (So wurde es qualitativ im Experiment [6] realisiert.) Um auch Wahlfreiheit zu erfüllen und das Freedom-of-choice Loophole zu schließen, müssen die Wahlereignisse a und b zu7 dem raumartig von der Emission E getrennt werden. Dies ist durch die grauen Intervalle nicht erfüllt – sie liegen ja im Zukunftslichtkegel von E – aber beispielsweise durch die grün gezeichneten. (Dies wurde technisch realisiert im Experiment [7].) Die Farbgebung dieser Figur stimmt weitestgehend mit Abbildung 3 überein. Referenzen [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] Brief an Max Born, 4. Dezember 1926, Einstein-Archiv 8-180 & Albert Einstein, Max Born, Briefwechsel 1916-1955. A. Einstein, B. Podolsky, N. Rosen, Phys. Rev. 47, 777 (1935). J. S. Bell, Physics 1 (N.Y.), 195 (1964). J. F. Clauser, M. A. Horne, A. Shimony, R. A. Holt, Phys. Rev. Lett. 23, 880 (1969). A. Fine, Phys. Rev. Lett. 48, 291 (1982). G. Weihs, T. Jennewein, C. Simon, H. Weinfurter, A. Zeilinger, Phys. Rev. Lett. 81, 5039 (1998). T. Scheidl, R. Ursin, J. Kofler, S. Ramelow, X. Ma, T. Herbst, L. Ratschbacher, A. Fedrizzi, N. Langford, T. Jennewein, A. Zeilinger, Proc. Natl. Acad. Sci. USA 107, 19708 (2010). J. Gallicchio, A. S. Friedman, D. I. Kaiser, Phys. Rev. Lett. 112, 110405 (2014). P. M. Pearle, Phys. Rev. D 2, 1418 (1970). N. Gisin, B. Gisin, Phys. Lett. A 260, 323 (1999). M. A. Rowe, D. Kielpinski, V. Meyer, C. A. Sackett, W. M. Itano, C. Monroe, D. J. Wineland, Nature 409, 791 (2001). J. F. Clauser, M. A. Horne, Phys. Rev. D 10, 526 (1974). P. H. Eberhard, Phys. Rev. A 47, R747 (1993). M. Giustina, A. Mech, S. Ramelow, B. Wittmann, J. Kofler, J. Beyer, A. Lita, B. Calkins, T. Gerrits, S.W. Nam, R. Ursin, A. Zeilinger, Nature 497, 227 (2013). J.-Å. Larsson, R. D. Gill, Europhys. Lett. 67, 707 (2004). J.-Å. Larsson, M. Giustina, J. Kofler, B. Wittmann, R. Ursin, S. Ramelow, Phys. Rev. A 90, 032107 (2014). J. Barrett, D. Collins, L. Hardy, A. Kent, S. Popescu, Phys. Rev. A 66, 042111 (2002). W. Pfaff, B. Hensen, H. Bernien, S. B. van Dam, M. S. Blok, T. H. Taminiau, M. J. Tiggelman, R. N. Schouten, M. Markham, D. J. Twitchen, R. Hanson, Science 345, 532 (2014). J. Hofmann, M. Krug, N. Ortegel, L. Gérard, M. Weber, W. Rosenfeld, H. Weinfurter, Science 337, 72 (2012). Danksagung Der Autor dankt Andreas Bertl, Carolin Hahn, Georg Kofler und Gregor Langer für hilfreiche Kommentare. Der Autor Johannes Kofler studierte Physik an der Johannes Kepler Universität Linz und promovierte 2009 „sub auspiciis“ an der Universität Wien. Danach war er Junior Scientist am Institut für Quantenoptik und Quanteninformation (IQOQI) der Österreichischen Akademie der Wissenschaften in Wien. Seit 2011 ist er wissenschaftlicher Mitarbeiter der Theorie-Gruppe am MaxPlanck-Institut für Quantenoptik (MPQ) in Garching bei München. 8