Methoden des quantenmechanischen Zustandsvergleichs angewandt auf adaptives Qubitschätzen Diplomarbeit von Christof Johannes Happ Institut für Quantenphysik Universität Ulm Juli 2007 Inhaltsverzeichnis 1 Einleitung 1.1 Gliederung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Grundlagen adaptiver Messungen 2.1 Adaptive Messungen . . . . . . 2.2 Qubit-Schätzen . . . . . . . . . 2.3 Adaptionsmethoden . . . . . . . 2.4 Monte-Carlo-Simulationen . . . 2.5 Ergebnisse früherer Arbeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Symmetriemessungen 3.1 Prinzip der Symmetriemessung . . . . . . . . . . . . . . . . . . 3.2 Experimentelle Realisierung der Symmetriemessungen . . . . . . 3.3 Das vollständige adaptive Messverfahren . . . . . . . . . . . . . 3.4 Zufällige Referenzzustände . . . . . . . . . . . . . . . . . . . . . 3.5 Shannon-Entropie-Adaption . . . . . . . . . . . . . . . . . . . . 3.6 Fidelity-Maximierung . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Qualität der Adaptionsstrategien und der Symmetriemessungen 3.8 Verbindungen zur Spin-Messung . . . . . . . . . . . . . . . . . . 4 Bell-Messungen 4.1 Prinzip der Bell-Messungen . . . . . 4.2 Rechenbasis . . . . . . . . . . . . . . 4.3 Referenzbasis . . . . . . . . . . . . . 4.4 Ergebnisse der Simulationen . . . . . 4.5 Vergleich mit anderen Messmethoden 4.6 Ist die Referenzbasis optimal? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 6 7 . . . . . 9 9 10 13 15 17 . . . . . . . . 19 19 21 23 24 25 40 46 46 . . . . . . 51 51 52 54 58 59 61 3 Inhaltsverzeichnis 5 Frequenzmessungen 63 5.1 Energiemessungen und Verschränkung . . . . . . . . . . . . . . . . . . . 63 5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel . . . . . . . . . . . . 65 6 Zusammenfassung 71 A Visualisierung der Likelihoods 73 B Streuung der Schätzergebnisse 79 C Realisierung der Simulation 81 C.1 Anpassung des Messverfahrens zur Simulation . . . . . . . . . . . . . . . 81 C.2 Wahl zufälliger Qubits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 C.3 Numerische Maximierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 D Symmetriemessungen am Strahlteiler 85 E Erwartete Fidelity bei vollständiger Fidelity-Maximierung 87 F Vergleich mit der Adaptionsmethode aus [3] F.1 Beschreibung des unbekannten Zustands durch die vorhandene Information F.2 Adaption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . F.3 Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 91 91 92 G Varianz der Frequenzmessung 95 4 1 Einleitung Durch Betrachtung der Quantenmechanik unter dem Gesichtspunkt der Theorie der klassischen Informationsverarbeitung ist das Forschungsgebiet der Quanteninformation entstanden. Die Verwendung quantenmechanischer Systeme birgt neue Chancen für die Informationsverarbeitung, stellt sie aber auch vor neue Herausforderungen. Eine von ihnen ist das „No-Cloning-Theorem“, welches besagt, dass Quantenzustände nicht fehlerfrei kopiert werden können [1, 2, 28]. Damit verbunden ist die Unmöglichkeit der Bestimmung eines quantenmechanischen Zustands durch eine einzelne Messung. Um einen Zustand exakt zu bestimmen, müssen an ihm unendlich viele Messungen durchgeführt werden. Weil der Messvorgang aber den ursprünglichen Zustand verändert, braucht man dazu auch unendlich viele identisch präparierte Versionen des Zustands. In der Realität kann man selbstverständlich nur eine endliche Anzahl gleicher Zustände präparieren. Mit Messungen an einem solchen endlichen Ensemble kann man den Zustand streng genommen nicht rekonstruieren, sondern nur eine mit einer gewissen Wahrscheinlichkeit zutreffende Vermutung aufstellen. Deshalb werden solche Verfahren als Zustandsschätzen bezeichnet. Daraus ergibt sich die Notwendigkeit eines anderen Umgangs mit quantenmechanisch kodierter Information. Während klassische Information beliebig vermessen und vervielfältigt werden kann, ist dies mit Quanteninformation nicht möglich. Hat man ein Ensemble identischer Quantenzustände, kann ihre Anzahl nicht erhöht werden, ohne den Präparationsprozess zu wiederholen. Zum Lesen der Information werden aber mehrere Messungen an mehreren Kopien benötigt. In diesem Sinne ist Quanteninformation eine begrenzte Ressource, mit der effizient umgegangen werden muss. Zum Auslesen von Quanteninformation, dem Zustandsschätzen, existiert mittlerweile eine Vielzahl an Arbeiten [3–5, 9–12]. In der vorliegenden wird eine spezielle Art von Messungen, die wir Symmetriemessungen nennen, und die sich mit Photonen am quantenmechanischen Strahlteiler realisieren lassen, untersucht; dabei beschränken wir uns auf Messungen an reinen Zwei-Niveau-Systemen, die – analog zu klassischen Bits – Qubits genannt werden. Eine besondere Eigenschaft der Symmetriemessungen ist, dass 5 1 Einleitung sie nur wenig Informationen über das untersuchte System liefern, nämlich nur inwieweit der zu messende Zustand bei Vertauschung mit einem frei wählbaren Referenzzustand symmetrisch ist. Anstatt also direkt die Größe zu messen, in der das Qubit realisiert wurde, also zum Beispiel der Spin eines Elektrons oder die Polarisation eines Photons, wird nur Teilchenaustauschsymmetrie untersucht. In dieser Arbeit wird unter anderem bewiesen, dass sich der Zustand mit einem solchen Minimum an Information überhaupt schätzen lässt. Durch Untersuchung der mit den Symmetriemessungen eng verwandten Bell-Messungen wird gezeigt, inwiefern beide Messmethoden mit den direkten Messungen von Spin oder Polarisation zusammenhängen. Außerdem wird als Beispiel für die Anwendung der Messmethoden kurz die Bestimmung der Energien atomarer Übergänge diskutiert. 1.1 Gliederung der Arbeit Diese Arbeit beschäftigt sich also mit dem Schätzen reiner Zwei-Niveau-Systeme (Qubits) unter der Verwendung der Ergebnisse von Symmetrie- und Bell-Messungen. Nach einer kurzen Zusammenstellung der Grundlagen adaptiver Messmethoden und der verwendeten Schätz- und Adaptionsstrategien in Kapitel 2 werden in Kapitel 3 die Symmetriemessungen definiert und auf das Problem des Qubitschätzens angewandt. Insbesondere wird dort sowohl eine auf informationstheoretischen Methoden beruhende Strategie vorgestellt werden, die vergleichsweise schlechte Ergebnisse liefert, als auch eine Strategie mit direkter Maximierung des Überlapps zwischen geschätztem und gesuchtem Zustand, was zu guten Ergebnissen führt. Außerdem wird gezeigt werden, inwiefern die Symmetriemessmethoden in Verbindung mit einfachen Spin-Messungen stehen. Danach werden in Kapitel 4 vollständige Bell-Messungen, wiederum unter Verwendung derselben Strategien, untersucht. Diese sind eine naheliegende Erweiterung des Symmetriemessungskonzepts, die pro Messung mehr Information liefern, wofür man aber den Charakter der reinen Symmetriemessung aufgeben muss. Die Betrachtung dieser Messungen wird dann die Beantwortung der Frage erlauben, wieso die informationstheoretische Adaption bei den reinen Symmetriemessungen so schlechte Ergebnisse liefert. Abschließend wird wieder die Verbindung zu Spin-Messungen hergestellt. In Kapitel 5 werden die untersuchten Messstrategien auf das Problem der Bestimmung von Energiedifferenzen atomarer Energieniveaus (Ramsey-Spektroskopie) angewandt. Vom theoretischen Standpunkt aus entspricht dies dem Schätzen eines Zustands, 6 1.2 Notation |0! √1 2 √1 2 (|0! + |1!) (|0! + i |1!) |1! Abbildung 1.1: Bloch-Kugel mit A-priori-Wissen. Die adaptiven Methoden werden dann mit der nichtadaptiven Standardmessmethode verglichen. Eine kurze Zusammenfassung der gewonnenen Erkenntnisse (Kapitel 6) schließt die Arbeit ab. 1.2 Notation Wie bereits erwähnt beschränkt sich diese Arbeit auf Messungen an reinen Zwei-NiveauSystemen oder Qubits. Die beiden Niveaus seien mit |0! und |1! bezeichnet. Ein allgemeines Qubit kann dann mit den komplexen Parametern c0 und c1 dargestellt werden als |ψ! = c0 |0! + c1 |1!. Normiert man den Zustand, und verzichtet man auf nicht messbare globale Phasen, fallen zwei der vier freien Parameter weg, und man kommt zur Darstellung |ψ! = cos θ2 |0! + eiφ sin 2θ |1!, mit den reellen Parametern θ und φ, die als Koordinaten auf einer Einheitskugel, der sogenannten Bloch-Kugel, interpretiert werden können. 7 1 Einleitung In dieser Arbeit treten folgende Qubits auf: • das zu bestimmende, „unbekannte“ Qubit |ψ!M = cos θ θ |0!M + eiφ sin |1!M , 2 2 (1.1) • der nach der ν-ten Messung geschätzte Zustand ! est " θest θest est !ψν = cos ν |0! + eiφν sin ν |1! 2 2 (1.2) • und das für jede Messung frei wählbare Referenzqubit |rν !R = cos ϑν ϑν |0!R + eiϕν sin |1!R 2 2 (1.3) Die gelegentlich auftretenden Indizes bezeichnen den Hilbert-Raum der Qubits, M bezeichnet das im zu vermessenden Zustand präparierte Teilchen, R das als Referenzqubit präparierte Objekt. Es wird die Kurzschreibweise |··! = |·!R |·!M verwendet, wobei sich das erste Qubit immer im Raum R, das zweite in M befindet. Ein Querstrich bezeichnet den bei Qubits eindeutigen orthogonalen Zustand. So ist |r ν ! das zu |rν ! orthogonale Qubit: |r ν !R = sin ϑν ϑν |0!R − eiϕν cos |1!R 2 2 (1.4) Für die Integration über die Bloch-Kugel wird die Notation # f (θ, φ) dΩ := #2π #π f (θ, φ) sin θ dθdφ (1.5) φ=0 θ=0 verwendet. Außerdem sei hier die Schreibweise # f (|ψ!) dΩψ (1.6) vereinbart, die besagt: Schreibe f als Funktion der Parameter θ und φ des Zustands |ψ!, und integriere über diese. 8 2 Grundlagen adaptiver Messungen Die in der vorliegenden Arbeit verwendeten Methoden zur Simulation adaptiver Messungen beruhen auf Konzepten, die bereits in [3, 4] benutzt wurden. Diese Grundlagen adaptiver Strategien sind hier zusammengefasst, bevor im nächsten Kapitel die eigentlichen Messmethoden beschrieben werden. 2.1 Adaptive Messungen Der Grundgedanke adaptiver Messungen ist die optimale Ausnutzung begrenzter Ressourcen. In unserem Fall sind diese Ressourcen eine endliche Anzahl von Kopien eines Qubits, an denen einzelne quantenmechanische Messungen vorgenommen werden können. Das bedeutet, dass bei jedem Messschritt die vorliegenden Informationen aus vorhergehenden Messungen verwendet werden, um die neue Messung zu wählen, das heißt freie Parameter m & ν der Messung festzulegen.∗ Diese Wahl soll so erfolgen, dass sie eine sogenannte Kostenfunktion, die den Fehler quantifiziert, minimiert, oder eine Zielfunktion maximiert. Abbildung 2.1 illustriert das Konzept adaptiver Messungen. Um es konkret anwenden zu können, müssen folgende Komponenten dieses Konzeptes festgelegt werden: • Welche Messungen werden durchgeführt? Dies ist der eigentlich neue, in dieser Arbeit untersuchte Aspekt. Er wird in Kapitel 3 ausgeführt. • Wie wird der Zustand geschätzt? • Wie wird die nächste Messung an die bekannten Informationen optimal angepasst? • Wie beurteilt man die Qualität des abschließend geschätzten Zustands? Die letzten drei Fragen werden in den folgenden Abschnitten beantwortet. ∗ Zum Beispiel legen die Messparameter bei einer Stern-Gerlach-Messung die Messrichtung fest. 9 2 Grundlagen adaptiver Messungen erste Messung m !1 νte Messung m !ν schätze adaptiere Zustand Referenz ja νter geschätzter Zustand |ψνest ! noch Kopien? nein endgültig geschätzter est Zustand |ψN ! Abbildung 2.1: Adaptive Messungen. Solang keine Informationen über den zu schätzenden Zustand vorliegen, kann keine Adaption vorgenommen werden. Deshalb müssen die Parameter m ! 1 einer ersten Messung willkürlich gewählt werden. Das Ergebnis der ersten Messung liefert Information über den Zustand, aufgrund der eine erste vorläufige Schätzung abgegeben werden kann. Die nächste Messung wird nun so gewählt, dass sie die meiste Information liefert, falls der geschätzte Zustand wirklich vorliegt. Aus dieser Messung erhält man weitere Information, an die man mit den Parametern m ! ν eine neue Messung adaptieren kann. Dieser Prozess wird so lange fortgesetzt, bis alle Kopien des unbekannten Zustands aufgebraucht sind. Der dann vorliegende Schätzwert ist der endgültig geschätzte Zustand. 2.2 Qubit-Schätzen 2.2.1 Likelihood-Maximierung Die Umsetzung der Messergebnisse in einen geschätzten Zustand erfolgt über eine Maximum-Likelihood-Methode [23, 24]. Eine mögliche Likelihood-Funktion ist das Produkt aus den Wahrscheinlichkeiten {pαi (m & i , |ψ!)}, die ν Messergebnisse {αi } zu erhalten: Lν ({αi } , {m & i } , |ψ!) = 10 ν $ n=1 pαn (m & n , |ψ!) (2.1) 2.2 Qubit-Schätzen Die Parameter m & n charakterisieren die Messung, ν ≤ N ist die Anzahl der bisher erfolgten Messungen. Die konstanten Parameter {m & i } und {αi } – die Messgeschichte – werden im weiteren unterdrückt. Für einen festen Zustand |ψ! betrachtet ist Gleichung (2.1) nichts anderes als die Wahrscheinlichkeit, bei einer Folge von ν Messungen mit den Messparametern {m & n} am selben Zustand |ψ! die Messergebniskette {αi } zu erhalten. Als Funktion von |ψ! betrachtet ist sie aber ein Maß für die Möglichkeit, dass der (variable) Zustand |ψ! die (feste) Ergebniskette {αi } erzeugt hat, die sogenannte Mutmaßlichkeit oder Likelihood; wobei im Folgenden ausschließlich der englische Begriff verwendet werden soll. Demnach bezeichnet das Maximum der Likelihood-Funktion denjenigen Zustand, der am ehesten die erhaltenen Messergebnisse produziert. Wir wählen also den geschätzten Zustand |ψνest ! gemäß: ! " Lν (!ψνest ) = max Lν (|ψ!) (2.2) |ψ" Nimmt man zum Beispiel Stern-Gerlach-Messungen vor, dann sind die Messparameter einfach die Komponenten des Vektors, der die Messrichtung angibt. Wählt man als erste Messrichtung die z-Richtung und findet dabei den Zustand |0z !, dann ist L1 = |$0z |ψ!|2 , mit dem Maximum bei |ψ1est ! = |0z !. Eine alternative Begründung dieses Likelihood-Ansatzes beruht auf der Bayes’schen Regel [19, 20]. Diese besagt, bis auf eine Normierungskonstante Z ist die Wahrscheinlichkeitsverteilung wναν (|ψ!), dass der Zustand |ψ! vorliegt – unter der Bedingung, dass bei der ν-ten Messung das Ergebnis αν erhalten wird – gleich dem Produkt der unbedingten A-priori-Wahrscheinlichkeit wν−1 (|ψ!), dass |ψ! vorlag, und der bedingten Wahrscheinlichkeit pαν (m & ν , |ψ!) das Ergebnis αν zu erhalten, wenn man an |ψ! misst:† wναν (|ψ!) = Z −1 wν−1 (|ψ!)pαν (m & ν , |ψ!) (2.3) Beginnt man bei einer vorgegebenen Wahrscheinlichkeit w0 vor der ersten Messung, zum Beispiel mit einer Gleichverteilung, wenn keine A-priori-Information vorliegt, kann daraus sukzessive die Wahrscheinlichkeitsverteilung wν (|ψ! |{αi }) = wναν (|ψ!) unter der Bedingung, dass die Ergebnisse {αi } gemessen wurden, aufgebaut werden. Diese ist bis auf die Normierung gleich der in Gleichung (2.1) definierten Likelihood. Der per Likelihood-Maximierung geschätzte Zustand hängt also außer vom untersuch† Die Wahrscheinlichkeiten wναν und wν−1 hängen natürlich auch von der vollständigen Messgeschichte, also den jeweils ν − 1 Messparametern {m ! i } und -ergebnissen {αi } ab. Um die Notation aber nicht noch aufwändiger zu gestalten, werden sie hier unterdrückt. 11 2 Grundlagen adaptiver Messungen ten Zustand |ψ! ab von der Messgeschichte ({m & i }, {αi }), bestehend aus den Parametern der Messung {m & i } und den Messergebnissen {αi }. Erstere werden durch die Adaptionsmethode vorgeschlagen, letztere sind Ergebnisse der in ihrem Ausgang nur indirekt über die {m & i } beeinflussbaren quantenmechanischen Messungen. Eine graphische Darstellung, wie sich die Likelihood während eines adaptiven Verfahrens verändert, findet sich in Anhang A. 2.2.2 Fidelity Durch die Likelihood-Maximierung (2.2) erhält man, nachdem an allen N Kopien geest messen wurde, einen endgültigen geschätzten Zustand |ψN !. Um die Übereinstimmung mit dem zu schätzenden Zustand zu quantifizieren, wird als Zielfunktion die Fidelity [21, 22, 28] verwendet. Für reine Zustände ist sie gleich dem Betragsquadrat des Überlapps der beiden Qubits:‡ ! est "& !' ! est "!2 % ! F |ψ! , !ψN = ! ψ !ψN ! ! est est !2 ! θ θN θ θN −iφ+iφest ! ! N = !cos cos +e sin sin 2 2 2 2 ! % & 1 1 1 est est + cos θ cos θN + cos φ − φest = N sin θ sin θN 2 2 2 (2.4) oder auch est est est est θ − θN 2 φ − φN 2 θ + θN 2 φ − φN cos + cos sin F = cos 2 2 2 2 2 (2.5) Die Fidelity soll die Güte einer einzelnen Messung quantifizieren, hängt aber außer von der Adaptionsmethode auch vom zu bestimmenden Zustand und den – probabilstisch – erhaltenen Messergebnissen ab. Über die letzten beiden muss, um die Adaptionsmethode selbst beurteilen zu können, gemittelt werden. Das endgültige Maß für die Güte einer Adaptionsmethode ist also eine gemittelte Fidelity F , die nur von der Art der Adaption und der Anzahl vorhandener Kopien N abhängt. Die Fidelity eines einzelnen Schätzergebnisses F kann sich aber erheblich von der mittleren Fidelity F für das verwendete Adaptionsverfahrens unterscheiden. Wenn man zum Beispiel bei jeder Messung ein unwahrscheinliches Ergebnis erhält, ist auch die Li‡ Diese Formeln erlauben die Berechnung der Fidelity aus den Bloch-Kugel-Winkeln, also den Parametern in der Rechenbasis. Die Fidelity ist selbstverständlich von der gewählten Rechenbasis unabhängig, und hängt nur vom Winkel δ zwischen den Bloch-Kugel-Vektoren ab: F = 21 (1 + cos δ) 12 2.3 Adaptionsmethoden kelihood beim richtigen Qubit |ψ! klein, und auch das beste Adaptionsverfahren wird zu keinem guten Ergebnis führen. Selbst ein einziges extrem unwahrscheinliches Messergebnis kann die Likelihood (2.2) in Richtung eines falschen Schätzwerts beeinflussen. Deshalb ist ein weiteres Kriterium für die Güte der Adaption die Streuung der Fidelities um den Mittelwert. Um diese zu quantifizieren wird für jede Simulation einer Adapti2 onsmethode auch die Varianz der Fidelity ∆F 2 = F 2 − F angegeben. Diese wird in Anahng B genauer diskutiert. 2.3 Adaptionsmethoden In dieser Arbeit wird eine Vielzahl unterschiedlicher Adaptionsstrategien untersucht. Diese lassen sich – abgesehen von den offensichtlichen Ausnahmen – in zwei Gruppen einteilen; nämlich einerseits die informationstheoretisch begründeten Methoden und andererseits solche die auf der Optimierung einer Zielfunktion beruhen. Beiden ist gemein, dass sie auf Grundlage der erfolgten Messungen die Parameter der nächsten Messung festlegen sollen. Dazu dürfen selbstverständlich nur die Messinformationen verwendet werden, und nicht der zu vermessende Zustand |ψ!.§ 2.3.1 Zufällige Messparameter Bevor die beiden Gruppen der Adaptionsstrategien vorgestellt werden, sei hier kurz auf eine nichtadaptive Methode, einen Bezugspunkt zur Bewertung der adaptiven Methoden, eingegangen. Anstatt eine Adaption vorzunehmen, kann man die Messparameter zufällig wählen. Jede sinnvolle adaptive Methode sollte natürlich bessere Ergebnisse liefern. Der Vergleich der im Allgemeinen mit höherem rechnerischen Aufwand verbundenen adaptiven Methoden mit den Ergebnissen der zufälligen Messparamterwahl erlaubt eine Beurteilung des Nutzens im Verhältnis zu diesem Aufwand. 2.3.2 Maximaler Informationsgewinn Die allgemein formulierte Grundfrage unserer adaptiven Messungen lautet: Wie kann – unter der Bedingung nur Messungen an einzelnen Kopien durchzuführen – aus den § Bei der Untersuchung der Adaptionsstrategien durch Simulationen ist der „unbekannte“ Zustand |ψ! vorgegeben. Näheres siehe Abschnitt 2.4 und Anhang C. 13 2 Grundlagen adaptiver Messungen begrenzten Ressourcen ein Maximum an Information über den unbekannten Zustand gewonnen werden? Die Informationstheorie liefert uns ein Maß für diese Information. Man kann eine dem Problem angepasste Informationsentropie definieren. Die Adaption besteht nun in der Maximierung dieser Entropie bezüglich der Messparameter, und der Verwendung dieser Parameter für die nächste Messung. 2.3.3 Fidelity-Maximierung Als Maß für die Güte unserer Schätzverfahren haben wir die Fidelity gewählt. Anstatt den Umweg über eine Entropie zu gehen, kann man auch direkt diese Zielfunktion optimieren, wie es zuerst in [3] getan wurde. Das heißt, man berechnet eine erwartete Fidelity nach der nächsten Messung, bevor man diese durchführt. Diese Größe hängt natürlich von den Messparametern ab. Man kann sie bezüglich dieser maximieren, und die so gefundenen Werte zur Adaption verwenden. Für einen festen Zustand |ψ! ist diese erwartete Fidelity die Summe über die Fideli! est " ties mit den Zuständen !ψν+1,α , die beim Auftreten des jeweiligen Messergebnisses α geschätzt würden, gewichtet mit der Wahrscheinlichkeit des Auftretens des Messergebnisses: % (! est ") & * %! est " & exp Fν+1 {αi } , {m & i} , m & ν+1 , !ψν+1,β , |ψ! = pα ( m & ν+1 , |ψ!) F !ψν+1,α , |ψ! α Dieses Funktional hängt von folgenden Größen ab: den noch festzulegenden Messparametern der nächsten Messung m & ν+1 (über das mit ihnen erzielte Ergebnis wird gemit(! est ") telt), den abhängig vom erhaltenen Ergebnis geschätzten Zuständen !ψν+1,β , die auch von m & ν+1 abhängen und natürlich dem unbekannten Zustand |ψ!. Die (festen) Messgeschichte ({m & i }, {αi }) der bereits durchgeführten ν Messungen fließt nur indirekt über die geschätzen Zustände ein. In den nächsten beiden Kapiteln werden diese komplizierten Abhängigkeiten unterdrückt. Da der zu messende Zustand natürlich nicht bekannt ist, muss über ihn gemittelt werden. Aufgrund der bereits vermessenen Kopien ist er aber auch nicht gänzlich unbekannt. Die entsprechende Information ist die Likelihood (2.1), da sie angibt, wie hoch die Mutmaßlichkeit ist, dass der Zustand |ψ! gerade die vorliegende Messergebniskette {αi } erzeugt hat. Mit dieser muss deshalb die Integration gewichtet werden. Damit lautet die 14 2.4 Monte-Carlo-Simulationen mittlere erwartete Fidelity: (! est ")& exp % F ν+1 {αi } , {m & i} , m & ν+1 , !ψν+1,β # * %! est " & pα ( m & ν+1 , |ψ!) F !ψν+1,α , |ψ! dΩψ ∼ Lν ({αi } , {m & i } , |ψ!) (2.6) α In dieser gemittelten und gewichteten erwarteten Fidelity steht taucht jetzt die Abhängigkeit von der Messgeschichte auch explizit auf. Da es von großer Bedeutung für die, in Abschnitt 3.6 beschriebene, konkrete Berechnung des Funktionals ist, sei hier auch nocheinmal darauf hingewiesen, dass die geschätz! est " ten Zustände {!ψν+1,α } neben dem Messergebnis natürlich auch von den verwendeten Messparametern m & ν+1 abhängen. Es werden für die nächste Messung wie erwähnt diejenigen Messparameter gewählt, exp bezüglich derer die erwartete Fidelity F ν+1 maximal wird. 2.4 Monte-Carlo-Simulationen Die Güte verschiedener Messungen bei Verwendung der soeben beschriebenen Adaptionsverfahren wurde durch Monte-Carlo-Simulationen untersucht. Bei einer Monte-CarloSimulation werden zufällig Sequenzen von quantenmechanischen „Messergebnissen“ bestimmt, und die speziellen Ergebnisse für diese Sequenzen errechnet. Dabei ist darauf zu achten, dass die Verteilung der Messergebnisse ihren Wahrscheinlichkeiten entspricht. Zuerst berechnet man die Wahrscheinlichkeiten der einzelnen Messergebnisse und vergleicht sie mit einer Zufallszahl zwischen 0 und 1. Dazu teilt man das Intervall [0, 1] in eine Anzahl Teilstücke, die der Zahl der möglichen Messergebnisse entspricht, wobei die Längen jedes Teilstücks durch die Wahrscheinlichkeit des zugeordneten Messergebnisses gegeben ist. Nun kann man feststellen, in welchem Teilstück die Zufallszahl liegt; das diesem Stück korrespondierende Messergebnis wird dann als das simulierte Ergebnis verwendet. Führt man dieses Verfahren für eine große Zahl von simulierten Messungen aus, erhält man eine Verteilung der simulierten Ergebnisse, die der entspricht, die auch in einem realen quantenmechanischen Experiment auftritt. Dieses Konzept ist in Abbildung 2.2 noch einmal für eine dichotome Messung veranschaulicht. Das simulierte Messergebnis kann nun genauso wie eine reales gemäß der oben vorgestellten Methoden ausgewertet werden. Man erhält ein vorläufiges geschätztes Qubit und adaptierte Messparameter. Mit letzteren wird eine weitere Messung simuliert, die man 15 2 Grundlagen adaptiver Messungen 0 z < pa z > pa ⇒ Messergebnis a ⇒ Messergebnis b pa 1 Abbildung 2.2: Veranschaulichung der Monte-Carlo-Simulation. Wenn man eine zweiwertige Messung mit den möglichen Messergebnissen a und b simulieren möchte, teilt man das Intervall [0, 1] bei pa in zwei Teile. (Bei mehr als zwei Möglichkeiten für den Messausgang müsste man weiter unterteilen.) Nun vergleicht man eine Zufallszahl z mit pa . Findet man z < pa hat man a simuliert, ansonsten b. wieder auswertet. Dies wird so lange fortgesetzt bis die Zahl der Messungen N erreicht hat, in der Realität also alle vorhandenen Kopien aufgebraucht wären; dann liegt auch der endgültig geschätzte Zustand vor. Wenn es Ziel der Messung war, wie es in einem Experiment im Allgemeinen der Fall sein wird, ein einzelnes unbekanntes Qubit zu bestimmen, ist man nun am Ende. Man hat das unbekannte Qubit mit einer vom verwendeten Verfahren abhängigen Wahrscheinlichkeit innerhalb einer vorgegebenen Fidelity geschätzt. Aufgrund des probabilistischen Charakters quantenmechanischer Messungen kann sich das geschätzt Qubit vom realen aber im Einzelfall erheblich unterscheiden. In dieser Arbeit soll aber die Güte der Adaptions- und Messverfahren allgemein, das heißt unabhängig von einzelnen Messergebnissen, untersucht werden. Man muss also prinzipiell über alle möglichen unbekannten Zustände und Messergebnisse mitteln. In der Simulation wird deshalb die erzielte Fidelity einer Messreihe über N Messungen berechnet, und über eine statistisch signifikante Anzahl solcher Messreihen oder Läufe gemittelt. Bei allen angegebenen numerischen Ergebnissen fand diese Mittelung, wenn nicht anders angegeben, über 10.000 Läufe statt. Bei der Untersuchung der Messverfahren treten zwei Arten von Fehlern auf, die strikt voneinander unterschieden werden müssen. Die eine beruht auf dem probabilistischen Charakter quantenmechanischer Messungen, die andere auf der Verwendung numerischer Rechnungen. Die Quantenmechanik macht Aussagen über die Wahrscheinlichkeit eines Messausgangs. Bei einer konkreten Messung können natürlich auch unwahrscheinliche Ergebnisse gefunden werden. Das Prinzip der Likelihood-Maximierung, Gleichung (2.2), geht aber davon aus, dass im Mittel eher die wahrscheinlichen Ergebnisse gemessen werden. 16 2.5 Ergebnisse früherer Arbeiten Für die geringe Anzahl von Messungen die in dieser Arbeit betrachtet werden, muss das natürlich nicht immer der Fall sein; auch wenn eine Adaptionsmethode im Mittel eine sehr gute Fidelity zwischen gesuchtem und geschätztem Zustand liefert, kann der geschätzte Zustand einer einzelnen Messreihe erheblich vom eigentlichen unbekannten Zustand abweichen. Um diese Streuung zu quantifizieren, werden bei den Ergebnissen der numerischen Simulationen auch die Varianzen ∆F 2 der Fidelity angegeben. Dieser Wert gibt die Streuung der einzelnen Messläufe an und nicht etwa die numerischen Fehler der Simulation. Eine genauere Diskussion der Streuung findet sich in Anhang B. Wie alle numerischen Berechnungen sind auch die in dieser Arbeit durchgeführten Simulationen selbst fehlerbehaftet. Wegen des statistischen Charakters der Monte-CarloMethode, und weil sich einmal gemachte Fehler innerhalb einer Messreihe fortpflanzen, sind diese Fehler recht groß; es treten zwischen verschiedenen Simulationen (über 10.000 est 2 Messreihen) zufällige Fehler der Fidelity |$ψ|ψN !| von bis zu 0,005 auf.¶ Dies entspricht in den meisten Plots gerade der Symbolgröße der Datenpunkte. In den anderen Fällen sind die entsprechenden Fehlerbalken (also ±0,0025) eingezeichnet. Außerdem können noch systematische Fehler auftreten, die zu grundsätzlich zu kleinen Fidelities führen, da sich zufällige Fehler bei einzelnen Komponenten der Simulation tendenziell eher in Richtung zu kleineren als zu größeren Fidelities auswirken. Diese Fehler sind prinzipiell schwierig anzugeben; die Simulationen der besten Adaptionsmethoden ergeben aber Fidelities, die nur 0,01 unter der theoretischen Obergrenze aus [9] liegen. Diese analytisch berechnete Obergrenze gilt aber für simultane Messungen an allen Kopien, die adaptiven Methoden sind zumindest minimal schlechter. Deshalb muss der systematische Fehler kleiner als 0,01 sein. Technische Details der Implementierung der Simulation werden in Anhang C behandelt. 2.5 Ergebnisse früherer Arbeiten Wie bereits kurz erwähnt, wurden die in diesem Kapitel vorgestellten Konzepte bereits in den Arbeiten [3–5] verwendet. Diese betrachteten Stern-Gerlach-Messungen, und zeig¶ Man beachte, dass die in den folgenden Kapiteln gezeigten Simulationsdaten nicht aus verschiedenen Läufen stammen. Das heißt, die Daten für einen Messschritt beruhen auf denen des vorigen, der (n + m)-te Messpunkt hat bis zur n-ten Messung dieselben Messgeschichten wie der n-te. Deshalb sind die Fidelity-Differenzen zwischen zwei Schritten mit einem geringeren Fehler behaftet. Um den angegebenen Fehler von 0, 005 zu beobachten muss man zwei Messpunkte aus zwei unabhängigen Simulationen, das bedeutet mit 10.000 verschiedenen Messgeschichten, vergleichen. 17 2 Grundlagen adaptiver Messungen ten dass sich durch Verwendung sowohl der Entropie-Adaption als auch der FidelityMaximierung zumindest für Zwei-Niveau-Systeme erheblich bessere Fidelities ergeben als durch nichtadaptive Methoden. Eine Aufgabe der vorliegenden Arbeit ist es, diese Untersuchungen auf Messverfahren auszudehnen, die auf reinen Symmetrieargumenten beruhen. Ein weiteres bedeutendes Ergebnis bezieht sich auf die theoretische Obergrenze für die Fidelities, die durch Messungen an einer Menge von N Kopien eines Quantenzustands erreicht werden können [9]. Für Zwei-Niveau-Systeme beträgt diese maximale Fidelity Fopt = N +1 . N +2 (2.7) In [3] wurde gezeigt, dass sich bei Spinmessungen mit adaptiven Methoden Fidelities erzielen lassen, die mehr als 98% von Fopt betragen. Dies ist insofern bemerkenswert, als alle N vorhandenen Kopien des unbekannten Zustands verschränkt werden müssen, und an diesem Ensemble eine simultane Messung vorgenommen werden muss, um die optimalen Werte zu erzielen. Im Gegensatz dazu beschränkten sich die Autoren von [3], wie die vorliegende Arbeit, auf die Betrachtung von Messungen an einzelnen Kopien. Ein Großteil des Fidelity-Gewinns, der scheinbar auf Verwendung von Verschränkung beruht, lässt sich also auch durch Einzelmessungen in Verbindung mit einer geschickten Wahl der Messparameter erreichen. 18 3 Symmetriemessungen In diesem Kapitel wird das Konzept der Symmetriemessung vorgestellt, und nach einer kurzen Zusammenfassung des vollständigen adaptiven Verfahrens die in Kapitel 2 beschriebenen Adaptionsstrategien mit Symmetriemessungen angewandt. Nachdem die Methoden des Maximalen Informationsgewinns und der Maximierung der erwarteten Fidelity diskutiert wurden, stellt Abschnitt 3.8 eine Verbindung zu den Spinmessungen her. 3.1 Prinzip der Symmetriemessung Die naheliegende Messmethode bei der Schätzung eines Qubits ist die direkte Messung der Größe, in der die Quanteninformation kodiert ist, also zum Beispiel des Spins oder der Polarisation. Die Adaption solcher Messungen wurde in [3, 4] untersucht. Wie aber ist die Situation, wenn nur Symmetrieinformationen bezüglich eines anderen Zustands verwendet werden können? Wir beschränken uns also auf den Vergleich des zu untersuchenden Zustands |ψ! mit einem Referenz- oder Ruler-Qubit |rν !. Dieser Vergleich findet, wie im Folgenden genauer beschrieben wird, durch Projektion in den antisymmetrischen Untervektorraum statt [6]. Eine Basis des Zwei-Qubit-Hilbert-Raums wird durch die Bell-Zustände aufgespannt: ! +" 1 !Φ = √ (|0!A |0!B + |1!A |1!B ) 2 ! −" 1 !Φ = √ (|0!A |0!B − |1!A |1!B ) 2 ! +" 1 !Ψ = √ (|0!A |1!B + |1!A |0!B ) 2 ! −" 1 !Ψ = √ (|0!A |1!B − |1!A |0!B ) 2 (3.1) (3.2) (3.3) (3.4) 19 3 Symmetriemessungen Unter Vertauschung der beiden Räume A und B sind die Zustände |Φ+ !, |Φ− ! und |Ψ+ ! invariant; sie spannen den symmetrischen Untervektorraum auf. Der Zustand |Ψ− ! ändert bei einer solchen Vertauschung dagegen sein Vorzeichen, er spannt den – hier eindimensionalen – antisymmetrischen Untervektorraum auf. Der Vergleich von zu vermessendem und Referenzzustand erfolgt durch eine projektive Messung in der Bell-Basis am Produktzustand |rν !R |ψ!M . θ ϑν θ ϑν cos |00! + eiφ+iϕν sin sin |11! 2 2 2 2 ϑν θ ϑν θ |01! + eiϕν cos sin |10! +eiφ sin cos 2 2 2 2 |rν !R |ψ!M = cos Findet man den Produktzustand bei einer solchen Messung im Zustand |Ψ− !, dann lautet dass Messergebnis αν = a: „der Produktzustand hat einen Anteil im antisymmetrischen Untervektorraum“. Die Wahrscheinlichkeit dafür beträgt: !' ! !2 pa (|ψ! , |rν !) = ! Ψ− ! |rν !R |ψ!M ! ! !2 θ ϑν ϑν !! θ 1 !! iφ iϕν e sin cos − e cos sin ! = 2! 2 2 2 2 = 1 (1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν ) 4 (3.5) Die anderen drei Möglichkeiten werden zum Ergebnis αν = s: „der Zustand hat einen Anteil im symmetrischen Untervektorraum“ zusammengefasst. Die zugehörige Wahrscheinlichkeit bezeichnen wir: ps (|ψ! , |rν !) = 1 − pa (|ψ! , |rν !) = 1 (3 + cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν ) (3.6) 4 Für die Wahrscheinlichkeiten gelten folgende Eigenschaften: • Sie liegen in folgendem Wertebereich: • Ihre Mittelwerte sind: 20 + , + , 1 1 ; ps ∈ , 1 pa ∈ 0, 2 2 (3.7) 1 3 pa = ; ps = 4 4 (3.8) 3.2 Experimentelle Realisierung der Symmetriemessungen • Wenn der unbekannte Zustand und die Referenz identisch sind, kann |ψ!M |rν !R nach einer Bell-Messung nicht in |Ψ− ! gefunden werden: • Laut [6] gilt !' ! !2 pa (|r! , |r!) = ! Ψ− ! |r! |r!! = 0 (3.9) ps − pa = |$ψ|rν !|2 , (3.10) das heißt ps ≥ pa . Man erkennt dies sofort durch Subtraktion von Gleichung (3.5) von Gleichung (3.6) und Vergleich mit Gleichung (2.4). • Es gilt: 1 |$ψ|r ν !|2 (3.11) 2 Um dies zu zeigen, nützt man die Invarianz des Bell-Zustands |Ψ− ! unter Basistransformation (siehe auch Kapitel 4) und schreibt ihn als: pa = ! −" !Ψ = √1 (|rν ! |rν ! − |r ν ! |rν ! ) M R M R 2 Eingesetzt in die erste Zeile von Gleichung (3.5) erhält man sofort Gleichung (3.11). 3.2 Experimentelle Realisierung der Symmetriemessungen Bisher wurde die Symmetriemessung nur als eine Messung in der Bell-Basis, bei der ein Teil der Messinformation ignoriert wird, definiert. Man kann natürlich auch fragen, was passiert, wenn man die drei Bell-Messergebnisse, die dem Symmetriemessergebnis s zugeordnet werden, unterscheidet. Diese Fragestellung wird in Kapitel 4 verfolgt. Allerdings gibt es auch Situationen in denen die Bell-Zustände nicht unterschieden werden können, aber Symmetriemessungen möglich sind. In [25] wurde gezeigt, dass dies bei der Verwendung linearer Optik, insbesondere dem quantenmechanischen Strahlteiler, zutrifft. Um die Symmetriemessungen am Strahlteiler∗ zu verwirklichen, betrachtet man den ∗ Um konkrete Transformationen anzugeben, wird hier der vielschichtige Strahlteiler mit der Transformationsgleichungen â0 = √12 (â2 − â3 ) und â1 = √12 (â2 + â3 ) verwendet. Die angegebenen Ergebnisse sind aber leicht für andere Transformationsgleichungen anzupassen. 21 3 Symmetriemessungen a0 a1 a3 a2 Abbildung 3.1: 50:50-Strahlteiler. In die Eingangsmoden 0 in 1 werden die beiden zu vergleichenden Zustände |ψ! und |r! eingekoppelt. An den Ausgangsmoden 2 und 3 wird die Photonenzahl detektiert. Messung von zwei Photonen in einem Detektor entspricht dem Messergebnis a; sind die Photonen auf die zwei Detektoren verteilt, entspricht dies dem Messergebnis s. Hong-Ou-Mandel-Dip [26, 27], der auftritt, wenn man in die beiden Eingangsmoden (bezeichnet mit den Indizes 0 und 1) eines 50:50-Strahlteilers gleichzeitig zwei identische Photonen einbringt. Dann werden die beiden Photonen nach dem Durchgang durch den Strahlteiler immer gemeinsam in einer Mode gefunden, da die anderen Möglichkeiten – je ein Photon pro Ausgangsmode (Indizes 2 und 3) – destruktiv interferieren: 1 |1!0 |1!1 → √ (|2!2 |0!3 − |0!2 |2!3 ) 2 (3.12) Man beachte, dass sich diese Notation von der bisherigen unterscheidet: Die Zahlen innerhalb der Kets geben die Photonenzahl an und bezeichnen nicht mehr ein Niveau eines Zwei-Niveau-Systems. Unterscheiden sich die beiden Photonen jedoch dadurch, dass sie senkrecht zueinander polarisiert sind, tritt der Hong-Ou-Mandel-Dip nicht mehr auf. Die Photonen durchqueren den Strahlteiler unabhängig voneinander und jedes für sich wird entweder in der einen oder anderen Ausgangsmode gefunden: 1 |0!0 |1!1 → √ (|1!2 |0!3 + |0!2 |1!3 ) 2 1 |1!0 |0!1 → √ (|1!2 |0!3 − |0!2 |1!3 ) 2 22 (3.13) (3.14) 3.3 Das vollständige adaptive Messverfahren Das heißt, man kann beide Photonen sowohl gemeinsam in einer Mode, oder auch auf beide verteilt finden. Der Hong-Ou-Mandel-Dip tritt also nur bei gleich polarisierten Photonen auf. In diesem Fall werden mit Sicherheit zwei Photonen in einem Detektor gefunden. Stehen die Polarisationsvektoren beider Photonen senkrecht, tritt der Dip nicht auf. Es besteht sowohl die Möglichkeit beide Photonen in einem Detektor, als auch je ein Photon pro Detektor zu finden. Erhält man letzteres Messergebnis, weiß man mit Sicherheit, dass die Photonen nicht gleich polarisiert gewesen sein können. Genau dies realisiert die Symmetriemessungen, wenn die Qubits in den Polarisationen der Photonen kodiert werden. Um die Messung durchzuführen, legt man an eine Eingangsmode das unbekannte Qubit |ψ!, an die andere den Referenzzustand |r! an. Wenn man in beiden Ausgängen je ein Photon detektiert, können die Polarisationen der Eingangszustände nicht gleich gewesen sein, man hat das Ergebnis a gefunden. Detektiert man beide Photonen in derselben Ausgangsmode, so ist die Gleichheit der Qubits möglich, was dem Ergebnis s entspricht. Eine genauere Herleitung ist in Anhang D durchgeführt. 3.3 Das vollständige adaptive Messverfahren Nun sind alle Komponenten des adaptiven Messverfahrens vorgestellt (Kapitel 2 und Abschnitt 3.1). Bevor in den nächsten Abschnitten die Anwendung der Adaptionsverfahren auf die Symmetriemessung und die damit erhaltenen Ergebnisse diskutiert werden, sei hier noch einmal das vollständige Verfahren kurz zusammengefasst. • Gegeben sind N Kopien eines zu bestimmenden Zustands |ψ!. • Da noch keine Informationen vorliegen, die für die Wahl des Referenzzustands verwendet werden könnten, wird als erster Ruler immer |r1 ! = |0! verwendet. • Bei jedem Messschritt ν nimmt man eine projektive Messung am Produktzustand |ψ! |rν ! vor. Findet man den Produktzustand im Bell-Zustand |Ψ− !, lautet das Messergebnis αν = a, sonst αν = s. So erhält man sukzessive eine Folge von Messergebnissen {αi } und eine Folge zugehöriger Referenzzustände {|ri !}. 23 3 Symmetriemessungen • Nun kann man die Likelihood-Funktion, Gleichung (2.1), Lν = ν $ n=1 pαn (|rn ! , |ψ!) (3.15) in Abhängigkeit von allen vorherigen Messungen, das heißt den gemessenen Folgen {αi } und {|ri !}, berechnen und ihr Maximum bezüglich der Parameter von |ψ! bestimmen. Diese geben den Zustand an, der am stärksten mit den Messwerten im Einklang steht. • Die zu adaptierenden Messparameter sind bei Symmetriemessungen die Parameter ϑν und ϕν des Referenzzustands |rν !. Als nächster Referenzzustand wird ein je nach Adaptionsstrategie gewähltes Qubit |rν ! festgelegt. • Messung, Likelihoodmaximierung und Wahl des neuen Referenzzustands werden für alle N Schritte wiederholt. Das Ergebnis der letzten Likelihoodmaximierung ist der endgültig geschätzte Zustand. Um dieses Konzept weiter zu illustrieren ist die Entwicklung der Fidelity für ein adaptives Verfahren in Anhang A graphisch dargestellt. In dieser Arbeit wird die Qualität der verschiedenen Adaptionsstrategien durch MonteCarlo-Simulationen beurteilt. Dazu muss die Vorgehensweise leicht angepasst werden, was in Anhang C beschrieben ist. 3.4 Zufällige Referenzzustände Bevor die eigentlich adaptiven Methoden besprochen werden, seien zuvor die Ergebnisse mit zufälligen Referenz-Qubits vorgestellt, die als Vergleichswerte für die adaptiven Methoden dienen sollen. Die mittleren Fidelities sind in Abbildung 3.2 dargestellt. Der Erfolg der adaptiven Methoden ist durch den Gewinn an Fidelity gegenüber diesen Werten quantifizierbar. Man sieht bereits an Abbildung 3.2, dass die Symmetriemessungen weniger Information liefern als Spinmessungen. Schon durch eine einzige Messung an einem unbekannten Spin-Qubit kann man den Zustand mit einer mittleren Fidelity von 23 schätzen (vergleiche auch Gleichung (2.7)). Die Symmetriemessungen liefern im Schnitt nach der ersten Messung eine Fidelity von 0,58, was da ja vor der ersten Messung noch keine Informa- 24 3.5 Shannon-Entropie-Adaption tion über den unbekannten Zustand vorliegt, durch adaptive Verfahren nicht verbessert werden kann. N F ∆2 F 0,90 1 2 3 5 10 15 20 25 30 0,584 0,619 0,649 0,686 0,758 0,801 0,836 0,858 0,878 0,077 0,073 0,069 0,064 0,049 0,040 0,031 0,025 0,020 0,85 Fidelity F 0,80 0,75 0,70 0,65 Zufällige Referenzen 0,60 0,55 0 5 10 15 20 Zahl der Messungen N Abbildung 3.2: Zufällige Referenzen. Durchschnittliche Fidelity F aufgetragen gegen die Zahl der Kopien N . In der Tabelle sind exemplarisch einige Zahlenwerte der Fidelity und ihrer 2 Varianz ∆F 2 = F 2 − F angegeben (Vergleiche auch Anhang (B)). Aus Laufzeitgründen wurde der Wert für N = 30 über 7.000 Läufe gemittelt, der für N = 25 über 8.500 Läufe und alle anderen Werte über 10.000. 3.5 Shannon-Entropie-Adaption Ein naheliegendes Informationsmaß für die Symmetriemessungen ist die ShannonEntropie [16, 28]: S := −pa log2 pa − ps log2 ps (3.16) Sie ist ein Maß für die durch die Messung gewonnene Information oder – anders formuliert – ein Maß für die Unkenntnis des Messergebnisses vor der Messung. Gleichung (3.16) wird durch die Wahl ! " $rν+1 |ψ! = 0 ⇔ |rν+1 ! = !ψ (3.17) 25 3 Symmetriemessungen maximiert. Wie man an Gleichung (3.11) ablesen kann, gilt bei dieser Wahl für die Wahrscheinlichkeiten: pa (|rν+1 ! , |ψ!) = ps (|rν+1 ! , |ψ!) = 1 2 (3.18) Sie sind gleichverteilt, es wird kein Messergebnis bevorzugt, was bekanntlich die Entropie maximiert. Da |ψ! unbekannt ist, steht für die Maximierung nur das Wissen aus den vorherigen Messungen zur Verfügung. Eine Möglichkeit diesem Problem zu begegnen, ist es, statt S(|ψ! , |rν+1 !) einfach S(|ψνest ! , |rν !) bezüglich |rν ! zu maximieren, wie im nächsten Abschnitt beschrieben. Sobald |ψνest ! „nahe genug“ an |ψ! liegt, hat dies keine Auswirkungen auf die Adaption, für niedrigere N stellt es eine allgemeine Schwierigkeit adaptiver Methoden dar. Eine genauere Berücksichtigung des Vorwissens wird in Abschnitt 3.5.3 untersucht. 3.5.1 Entropieadaption mit vorläufig geschätztem Zustand Um S(|ψνest ! , |rν !) statt S(|ψ! , |rν+1 !) zu maximieren, muss man nur, wie im vorherigen ! " Abschnitt diskutiert, |rν+1 ! = !ψνest wählen. In diesem Abschnitt werden zuerst analytische Ergebnisse bei Verwendung dieser Adaptionsmethode und dann Resultate der numerischen Simulationen vorgestellt. 3.5.1.1 Analytische Berechnung der ersten Schritte Wegen der einfachen Adaption ist bei diesem Verfahren die Maximierung der Likelihood (3.15) der aufwändigere Teil. Aber auch dieser lässt sich für wenige Schritte analytisch durchführen. Erster Schritt für beliebigen Anfangsreferenzzustand Es wird die erste Messung mit einem beliebigen Anfangsreferenzzustand |r1 ! = cos ϑ21 |0! + eiϕ1 sin ϑ21 |1! durchgeführt. Man erhält das Messergebniss α1 ∈ {a, s}. Die Likelihood (3.15) ist L1 = pα1 (|ψ! , |r1 !). Erhält man das Messergebnis a so ist die entsprechende Likelihood L1,a = pa . Um diese zu maximieren, müssen die Nullstellen der Ableitungen gefunden werden: 26 3.5 Shannon-Entropie-Adaption 1 ∂L1,a ! = (sin θ cos ϑ1 − cos (φ − ϕ1 ) cos θ sin ϑ1 ) = 0 ∂θ 4 ∂L1,a 1 ! = sin (φ − ϕ1 ) sin θ sin ϑ1 = 0 ∂φ 4 (3.19) (3.20) Die Funktion hat ein Minimum bei (θ = ϑ1 , φ = ϕ1 ) und ein Maximum bei (θ = ϑ1 + π, φ = ϕ1 ).† Für das Messergebnis s ist L1,s = ps = 1 − pa . Deshalb liegt ihr Maximum gerade beim Minimum von L1,s . Man geht im ersten Schritt also so vor, wie intuitiv zu erwarten war: Misst man s, schätzt man |ψ1est ! = |r1 !; misst man a, schätzt man |ψ1est ! = |r1 !. Erste drei Schritte für Anfangsreferenzzustand |0! Auf prinzipiell gleiche Weise können auch die Werte für die weiteren Zustände berechnet werden. Da die Rechenbasis frei wählbar ist, bedeutet die Wahl |r1 ! = |0! keinen Verlust an Allgemeinheit. Die analytisch berechneten Parameter der geschätzten Qubits und der daraufhin gewählten Referenzzustände sind in den Tabellen 3.1 bis 3.3 zusammengestellt. Man kann daran feststellen: • Verschiedene Messergebnissketten könne zu gleichen Schätzwerten führen. Die entsprechenden Likelihoods können durchaus verschiedene Funktionen sein, ihr Maximum liegt jedoch am selben Punkt. • Zuerst liegen die geschätzten Zustände auf den Polen der Bloch-Kugel; die Koordinate φest ν hat dann keine Bedeutung (in den Tabellen gekennzeichnet durch „-“). Ab einem Schritt, der von den erhaltenen Messergebnissen abhängt, verlässt er die Pole. Ab diesem Zeitpunkt beschreiben verschiedene φest ν unterschiedliche Zustände; es gibt jedoch kein Kriterium das diese Koordinate festlegt, sie muss willkürlich gewählt werden (Tabellen: „frei“). Die in den weiteren Schritten geschätzten Zustände und die für die Messung verwendeten Referenzen sind dann eindeutig bestimmt, hängen aber von dieser Wahl ab. In den Tabellen werden die willkürlich zu wählenden Winkelparameter ϕν der Referenzzustände anstatt der † Das zweite Wertepaar löst zwar die Gleichung und ist sofort als Bloch-Kugel-Antipode des ersten identifizierbar, θ = ϑ1 + π liegt aber nicht mehr im formalen Wertebereich θ ∈ [0, π]. Das in diesem Sinne korrekte Wertepaar ist (θ = π − ϑ1 , φ = ϕ1 ± π), wobei das Vorzeichen bei ϕ1 ± π davon abhängt, ob ϕ1 größer oder kleiner als π ist. 27 3 Symmetriemessungen α1 a s θ1est π 0 φest 1 - |ψ1est ! |r2 ! |1! |0! |0! |1! Tabelle 3.1: Analytische Ergebnisse für N = 1 α1 α2 aa as sa ss θ2est π π 0 π 2 φest 2 frei |ψ2est ! |1! |1! |0! √1 (|0! − eiϕ3 |1!) 2 |r3 ! |0! |0! |1! √1 (|0! + eiϕ3 |1!) 2 Tabelle 3.2: Analytische Ergebnisse für N = 2 α1 α2 α3 aaa aas asa ass saa sas ssa sss θ3est π π π% & arccos − 13 0 0 π 2 π 2 φest 3 frei ϕ3 + π ϕ3 |ψ3est ! |1! |1! |1! √ & % 1 √ |0! − 2eiϕ4 |1! 3 |0! |0! √1 (|0! − eiϕ3 |1!) 2 √1 (|0! + eiϕ3 |1!) 2 |r4 ! |0! |0! & %√ |0! iϕ 1 √ 2 |0! + e 4 |1! 3 |1! |1! √1 (|0! + eiϕ3 |1!) 2 √1 (|0! − eiϕ3 |1!) 2 Tabelle 3.3: Analytische Ergebnisse für N = 3 Tabellen 3: In den Tabellen 3.1 bis 3.3 sind die analytischen Ergebnisse für die Messergebnisketten {αi } angegeben. Das Symbol „-“ bedeutet, dass der Parameter φest ν keine Auswirkung auf den Zustand hat, da dieser auf einem Pol der Bloch-Kugel liegt. Dagegen bezeichnet „frei“, dass die Variablen φest ν und damit auch ϕν nicht durch das Adaptionsverfahren festgelegt werden, aber sehr wohl unterschiedliche Qubits parametrisieren. Einer dieser Parameter muss jetzt willkürlich gewählt werden. Die weiteren Zustände sind dann in Abhängigkeit von ϕν angegeben. 28 3.5 Shannon-Entropie-Adaption φest ν angegeben, da für das adaptive Verfahren zuerst einmal die Referenzzustände est wichtig sind, und für die Schätzung nur der letzte geschätzte Zustand |ψN ! benötigt wird. Erhält man zum Beispiel in zwei Messungen die Messergebnisse ss, schätzt man einen Zustand auf dem Äquator der Bloch-Kugel, der Winkel φest 2 ist aber noch nicht bestimmt (vergleiche Tabelle 3.2). Durch seine !Wahl, - und damit ! est auch der Wahl des Parameter ϕ3 des Referenzzustands |r3 ! = !ψ 3 , wird auch der entsprechende Winkel im dritten Schritt bestimmt (Tabelle 3.3). Fidelities Mit diesen Werten kann man die durchschnittlichen Fidelities zwischen geschätztem und wirklichem Qubit berechnen. Für die mittlere Fidelity nach einem Schritt erhält man: # !' !' "! "! 1 ! ψ|ψ est (a) !2 pa + ! ψ|ψ est (s) !2 ps dΩψ F1 = 1 1 4π !2 . / # ! ! ! 1 1 θ π θ π iφ !cos cos + e sin sin ! = (1 − cos θ cos 0 − cos φ sin θ sin 0) 4π ! 2 2 2 2! 4 !2 . ! / ! 1 ! θ θ iφ ! ! (3 + cos θ cos 0 + cos φ sin θ sin 0) dΩ + !cos cos 0 + e sin sin 0! 2 2 4 # θ θ 1 sin2 (1 − cos θ) + cos2 (3 + cos θ) dΩ = 16π 2 2 7 (3.21) = = 0, 583 12 Genauso ergibt sich die mittlere Fidelity nach zwei Schritten zu: # !' !' "! "! 1 ! ψ|ψ2est (aa) !2 L2 (aa) + ! ψ|ψ2est (as) !2 L2 (as) F2 = 4π !' !' "!2 "!2 + ! ψ|ψ2est (sa) ! L2 (sa) + ! ψ|ψ2est (ss) ! L2 (ss) dΩ . . / / # 1 1 1 2 2 θ 2 θ = sin (1 − cos θ) + sin (1 − cos θ) (3 + cos θ) 4π 2 16 2 16 . / θ 1 (3 + cos θ) (1 + cos θ) + cos2 2 16 ! !2 . / 1 !! θ 1 θ !! iφ + !cos + e sin ! (3 + cos θ) (3 − cos θ) dΩ 2 2 2 16 = 7 = 0, 583 ≡ F 1 12 (3.22) 29 3 Symmetriemessungen Die Fidelities nach einem und zwei Schritten sind identisch! Man gewinnt beim zweiten Schritt im Mittel keine besseren Schätzwerte. Außerdem liegt F 2 unter dem Wert von 0,62, den man numerisch nach zwei Schritten mit zufälligen Referenzen erhält. 3.5.1.2 Simulation weiterer Schritte Da sich die Zahl der möglichen Messergebnisse mit jedem weiteren Schritt verdoppelt, können nicht mehr alle Schätzwerte analytisch berechnet werden. Deshalb wurde auf das Hilfsmittel der Monte-Carlo-Simulation zurückgegriffen. Details der Umsetzung finden sich in Anhang C. FN ∆2 F 1 2 3 5 10 20 25 30 0,583 0,584 0,623 0,652 0,703 0,770 0,790 0,800 0,078 0,079 0,072 0,070 0,062 0,045 0,041 0,038 0,90 0,85 0,80 Fidelity F N 0,75 0,70 0,65 Shannon-EntropieAdaption Zufällige Referenzen 0,60 0,55 0 5 10 15 20 Zahl der Messungen N Abbildung 3.3: Shannon-Entropie-Adaption im Vergleich mit zufälligen Referenzen. Durchschnittliche Fidelity der Shannon-Entropie-Adaption F aufgetragen gegen die Zahl der Kopien N . Zum Vergleich sind die Fidelities aus der zufälligen Referenzwahl aufgetragen. In der 2 Tabelle sind exemplarisch einige Zahlenwerte der Fidelity und ihrer Varianz ∆F 2 = F 2 −F für die Shannon-Entropie-Adaption angegeben. Wiederum aus Laufzeitgründen wurde der Wert für N = 30 über 7.000 Läufe gemittelt, der für N = 25 über 8.500 Läufe und alle anderen Werte, auch die für den Graphen, über 10.000. Die Ergebnisse sind in Abbildung 3.3 dargestellt, aus ihnen erhält man folgendes Bild: • Die Methode konvergiert im Durchschnitt. Je höher N um so besser die Fidelity. 30 3.5 Shannon-Entropie-Adaption • Der Fidelity-Zuwachs des Entropie-Verfahrens ist nicht gleichmäßig. Die durchschnittliche Fidelity nach dem zweiten Schritt ist gleich der nach dem ersten; dafür steigt sie bei N = 3 relativ stark an. Ebenso ist der Gewinn von Schritt 2 auf 3 größer als der von Schritt 3 auf 4. • Die Ergebnisse sind schlechter als die, die man mit zufälligen Referenzen erhält. 3.5.1.3 Verbesserung des Entropie-Verfahrens Ein Adaptionsverfahren das schlechtere Werte als ein nichtadaptives Verfahren liefert, ist sicherlich nicht befriedigend. Es stellt sich die Frage, ob dieses Scheitern ein grundlegendes Problem der Entropie-Adaption darstellt, oder ob es Möglichkeiten gibt, das Verfahren soweit zu verbessern, dass es Fidelities größer als diejenigen aus der Methode der zufälligen Referenzen liefert. Dazu werden in den folgenden Abschnitten drei Modifikationen der Entropieadaption untersucht: • Während der ersten Messschritte liegt nur wenig Information über den Zustand |ψ! vor; man kann Vermuten, dass das Adaptionsverfahren aufgrund dieser mangelnden Information versagt. Eine Lösungsmöglichkeit wäre es dann, wie in Abschnitt 3.5.2 beschrieben, die ersten Referenzzustände fest zu wählen, und mit der Adaption erst später zu beginnen. • Eine andere Verbesserungsmöglichkeit besteht darin, nicht den momentan geschätzten Zustand |ψνest ! in die Adaptionsbedingung (3.18) einzusetzen, sondern die volle Likelihood-Information zu verwenden. Dies ist in Abschnitt 3.5.3 diskutiert. • Man kann auch argumentieren, dass es aufgrund des vierdimensionalen HilbertRaums nötig wäre, nicht die Entropie bezüglich der zwei Messergebnisse s und a zu maximieren, sondern die Entropie bezüglich aller vier möglichen Messergebnisse einer vollständigen Bell-Messung. Dies neue Adaption, die zur Bedingung pa = 14 führte, wird in Abschnitt 3.5.4 untersucht. Es stellt sich heraus, dass keine dieser Modifikationen zu einer zufriedenstellenden Adaption führt. Deshalb wird in Abschnitt 3.6 eine neue Adaptionsmethode, die Maximierung der erwarteten Fidelity, vorgestellt, die zu einer signifikanten Verbesserung gegenüber der zufälligen Referenzwahl führt. Um zu erklären, wieso die ShannonEntropie-Maximierung keine Vorteile bringt, ist es sinnvoll zuerst die vollständigen 31 3 Symmetriemessungen Bell-Messungen zu betrachten, was in Kapitel 4 geschieht. Die Erklärung für die Probleme der Entropie-Maximierung wird dann in Abschnitt 4.5.2 gegeben. 3.5.1.4 Anmerkung zur Konvergenz Bevor diese Versuche zur Verbesserung dieser Situation diskutiert werden, sei angemerkt, dass das Shannon-Entropie-Verfahren zwar im Mittel aber nicht für jede einzelne Messreihe konvergiert. Ist der zu bestimmende Zustand beispielsweise |1!, der erste Referenzzustand |0! und das erste Messergebnis s (ps = 21 ), dann wird der erste adaptierte Referenzzustand |r2 ! = |1!. Dann erhält man bei der zweiten Messung mit Sicherheit das Ergebnis s, was zu einem dritten Referenzzustand auf dem Äquator, zum Beispiel |r3 ! = √12 (|0! + |1!), führt. Unabhängig vom damit erhaltenen Messergebnis bleibt der nächste geschätzte Zustand auf dem Äquator; ab nun liegen alle Referenzen und geschätzten Zustände auf dem Äquator; es kann zu keiner Konvergenz hin zum richtigen Zustand |1! auf dem Südpol kommen. 3.5.2 Modifikation mit Symmetriebrechung Die Entropieadaption liefert bei der zweiten Messung im Durchschnitt keine Information. Möglicherweise lässt die mangelnde Information zu Beginn der Messreihe keine sinnvolle Entropieadaption zu. Deshalb bietet es sich an, zuerst mehrere Referenzzustände fest zu wählen, und erst später mit der Adaption zu beginnen. Dies löst auch folgendes Problem, das auftritt, wenn man die ersten beiden Referenzzustände wie im beschriebenen Algorithmus mit parallelen oder antiparallelen BlochVektoren, zum Beispiel |r1 ! = |0! , |r2 ! = |0! oder |r1 ! = |0! , |r2 ! = |1!, wählt: Bei einem von der Sequenz der Messergebnisse abhängigen Schritt ν muss der Winkel ϕν gewählt werden. Dies tritt bei der Messfolge ss im zweiten, bei der Folge ass im dritten Schritt auf (siehe Tabelle 3.2 beziehungsweise 3.3). Bei Folgen, die anders beginnen, ist die Wahl erst in späteren Schritten nötig; erhält man in allen Messungen das Ergebnis a, erfolgt gar keine Wahl, da der vermutete Zustand immer |1! bleibt. Die durch den Algorithmus erreichte Fidelity hängt stark von der ϕν -Wahl ab. Im schlimmsten Fall liegt der unbekannte Zustand |ψ! auf dem Äquator der BlochKugel. Dann sind die wahrscheinlichsten Ergebnisse für die ersten beiden Messungen ss. Man schätzt dann einen Zustand auf dem Äquator, die φest ν -Koordinate ist aber frei; je nach ihrer Wahl schätzt man den richtigen Zustand, den dazu orthogonalen oder einen „dazwischen“. Die erzielte Fidelity kann also jeden Wert zwischen 0 und 1 annehmen. 32 3.5 Shannon-Entropie-Adaption Da die errechnete Likelihood, bis die Wahl nötig wird, unabhängig von ϕν ist, liegt bis dahin keinerlei gemessene Information vor, die Hinweise auf eine möglichst gute Wahl liefern könnte. Um von der ungenauen Information nach nur einem Schritt unabhängig zu werden und die Rotationssymmetrie möglichst früh zu brechen, kann man den Algorithmus folgendermaßen modifizieren: Man wählt als Referenzzustand für die zweiten Messung |r2 ! eine Zustand, dessen Bloch-Vektor senkrecht zu dem von |r1 ! ist, dass heißt der Überlapp beider Zustände beträgt 12 . Erst ab dem zweiten Schritt werden die Referenzzustände nach dem Prinzip maximaler Entropie, also senkrecht zum vermuteten Zustand, gewählt. Der geschätzte Zustand wird weiterhin nach jedem Schritt über das Maximum der Likelihood gefunden. Genauso kann man auch die ersten drei Zustände senkrecht auf der Bloch-Kugel wählen. Die ersten drei Referenzen sind dann:‡ |r1 ! = |0!, |r2 ! = √12 (|0! + |1!) und |r3 ! = √12 (|0! + i |1!). Ergebnisse Wie erwartet ist das Verhalten der beiden Modifikationen und des ursprünglichen Algorithmus’ bei nur wenigen Schritten unterschiedlich. Es gibt in allen drei Vorgehensweisen einen Schritt bei dem sich die gemittelte Fidelity nicht verbessert. Dies ist jeweils der erste Schritt, bei dem die Referenzwahl mittels Entropiemaximierung greift, also im ursprünglichem Algorithmus der zweite, bei zwei festen Referenzen der dritte, bei dreien der vierte. Zumindest die erste Referenzwahl nach dem Entropieargument wählt also nicht den besten sondern sogar den schlechtesten Referenzzustand. Für eine hohe Anzahl von Messungen sind die beiden Modifikationen und der ursprüngliche Algorithmus wieder gleichwertig. Es kommt also auf die Wahl der ersten Messrichtungen nicht an; die Entropieadaption ist also nicht nur während der ersten Schritte ungeeignet. ‡ Bei Spin-Messungen liefert eine solche orthogonale Wahl der Messrichtungen bei drei Messungen optimale Ergebnisse [12]. 33 3 Symmetriemessungen 0,90 0,85 Fidelity F 0,80 0,75 0,70 Shannon-EntropieAdaption Symmetriebrechung 1 Symmetriebrechung 2 Zufällige Referenzen 0,65 0,60 0,55 0 5 10 Messungen N 15 20 Abbildung 3.4: Adaption mit Symmetriebrechung. Hier werden die Fidelities aus Entropieadaption mit zwei (Symmetriebrechung 1) beziehungsweise drei (Symmetriebrechung 2) festen Anfangsreferenzen im Vergleich zur ursprünglichen Shannon-Entropie-Adaption (Abschnitt 3.5.1) dargestellt. 3.5.3 Verfeinerung der Entropieadaption Die bisherigen Ergebnisse erwecken den Anschein einer Fehlerhaftigkeit der Entropieadaption. Möglicherweise liegt das Problem aber auch an einer ineffizienten Verwendung ! der Messdaten: Bisher wurde in die Bedingung pa = 12 |$ψ|r!|2 = 12 für $ψ| immer $ψνest | eingesetzt. Das gesamte bereits gewonnene Wissen über den unbekannten Zustand befindet sich aber in Lν , Gleichung (3.15), der Likelihood nach ν Messungen, die von den jeweils ν Referenzen {|ri !} und Messergebnissen {αi } abhängt, und aus der |ψνest ! per Likelihood-Maximierung gewonnen wird. Wenn wir dieses Vorwissen vollständig berücksichtigen wollen, müssten wir über alle möglichen Zustände, gewichtet mit Lν , mitteln. Dann ist die erwartetet Wahrscheinlichkeit das Ergebnis a zu erhalten: pa ∼ # Lν ({αi } , {|ri !} , |ψ!) |$ψ|r ν !|2 dΩψ (3.23) Diese Wahrscheinlichkeit ist immer kleiner als 21 , da Lν niemals eine Dirac-Distribution 34 3.5 Shannon-Entropie-Adaption ist. Somit kann die Entropie nicht mehr, wie im vorhergehenden Fall, das Maximum log2 2 = 1bit annehmen. Vielmehr wird die Entropie dann maximal, wenn auch pa maximal ist. Extremwerte von pa erreicht man, wie man durch gleich Null setzen der Ableitung von Gleichung (3.23) überprüfen kann, durch die Wahl von§ I3 I3 ∨ ϕν = π + arctan I I .2 /2 I2 I3 = arctan cos ϕν + sin ϕν I1 I1 ϕν = arctan ϑν (3.24) mit den Koeffizienten I1 = I2 = I3 = # # # Lν sin θ cos θ dΩ Lν cos φ sin2 θ dΩ Lν sin φ sin2 θ dΩ. (3.25) Eines der beiden Wertepaare (ϕν , ϑν ) ist ein Minimum, das andere ein Maximum. Adaptiert man auf das Maximum, erhält man die in Abbildung 3.5 dargestellten Werte, die nur sehr geringfügig mit N steigen. So gewinnt man also fast keine Information über |ψ!! Eigentlich erwartet man ein solches Bild bei einer Minimierung, da dabei pa = 0 gesetzt wird und man deshalb immer das Messergebniss s und damit auch keine neuen Informationen erhält. Die so erhaltenen Ergebnisse sind zu Vergleichszwecken ebenfalls in Abbildung 3.5 aufgetragen. Man findet nur geringfügig schlechtere Werte. Augenscheinlich führt die Verwendung der vollen Likelihood-Information zu schlechteren Fidelities. Man kann argumentieren, dass das Mitteln über die Likelihood die A-priori-Information, dass ein reiner Zustand vorlag, vernachlässigt. Andererseits ist es aber auch unstrittig, dass die Likelihood die zusätzliche Information einbringt, inwieweit die bislang erzielten Messergebnisse konsistent sind; ob die Likelihood durch im Einklang miteinander stehende Messergebnisse einen klaren Peak ausbildet, oder ob wegen sich widersprechender Ergebnisse eine breite Verteilung entsteht. Auf jeden Fall zeigt § Mit arctan sei hier der kleinste positive Wert des Arkustangens bezeichnet. Somit gibt es für die Gleichung tan ϑ = x mit ϑ ∈ [0, π] genau eine Lösung ϑ = arctan x, für tan ϕ = x mit ϕ ∈ [0, 2π[ jedoch zwei: ϕ = arctan x ∨ ϕ = π + arctan x. 35 3 Symmetriemessungen 0,90 ! 5 10 20 0,639 0,651 0,679 ∆2 F 0,076 0,081 0,078 ! pa =0: N F 5 10 20 0,644 0,655 0,661 ∆2 F 0,074 0,080 0,083 Shannon-EntropieAdaption Zufällige Referenzen verfeinerte ShannonEntropie-Adaption minimaler Informationsgewinn 0,85 0,80 Fidelity F pa = max .: N F 0,75 0,70 0,65 0,60 0,55 0 5 10 15 20 Zahl der Messungen N Abbildung 3.5: Verfeinerung der Entropieadaption. Die Shannon-Entropie-Adaption wird durch Verwendung des Vorwissens in Gestalt der Likelihood-Verteilung modifiziert. Dann kann ! ! die Adaptionsbedingung pa = 12 nicht mehr erreicht werden. Stattdessen muss pa = max . verwendet werden. Damit erhält man Fidelities die kaum besser sind, als wenn man die ungünstigste ! Adaptionsstrategie pa =0 (minimaler Informationsgewinn) verwendet. der flache Verlauf der Fidelity bei der verfeinerten Adaption, dass die Konvergenz der ursprünglichen Entropie-Adaption nicht auf dem Prinzip der Entropieadaption selbst, sondern bestenfalls auf der A-priori-Information, dass ein reiner Zustand vorlag, beruht. 3.5.4 „Entropieadaption“ pa = 1 4 Die Bedingung für die Shannon-Entropie-Adaption pa = ps = 21 ist Konsequenz der Forderung der Gleichverteilung dichotomer Messausgänge. Der Hilbert-Raum in dem die Symmetriemessungen vorgenommen werden ist jedoch vierdimensional. Dass wir Zweiwertigkeit der Messergebnisse mehr oder weniger willkürlich durch Zusammenfassen von drei der eigentlich vier möglichen Bell-Messungs-Ergebnisse erzeugen, sollte keine Auswirkungen auf die Shannon-Entropie (3.16) haben. Dennoch wird hier eine Adaption mit pa = 41 , ps = 34 statt pa = ps = 21 versucht. Dies ist äquivalent zu der Forderung !' est ! "!2 1 ! ψ ! rν ! = . ν−1 2 Diese Adaption bestimmt den neuen Referenzzustand nicht mehr eindeutig, es gibt ! est " nicht nur einen Zustand, der diese Bedingung erfüllt. Ist zum Beispiel !ψν−1 = |0!, so 36 3.5 Shannon-Entropie-Adaption gilt pa = 14 für alle Qubits auf dem Äquator der Bloch-Kugel. Die endgültige Wahl des Referenzzustands hat erheblichen Einfluss auf die Güte des Adaptionsverfahrens. !' est ! "!2 !rν ! = 1 zu erzielen ist die Wahl ϕν = φest und ϑν = Eine Möglichkeit ! ψν−1 ν−1 2 est θν−1 + π2 . Die so erhaltenen Werte sind deutlich besser als die aus der ursprünglichen Entropieadaption. Für wenige Schritte sind sie auch besser als die mit zufälligen Referenzen erhaltenen. Bei mehr als zehn Schritten fallen sie jedoch wieder hinter diese zurück (Abbildung 3.6). Diese Adaption wählt die Referenzen immer auf dem selben Meridian wie die geschätzten Qubits, was die Brechung der Rotationssymmetrie verzögert. Wie man auch an den Ergebnissen des nächsten Kapitels erkennt, verringert dies die erzielten Fidelities. ! Man kann die Referenzen aber auch anders wählen. Allgemein gilt bei pa = 14 : % % & & est ϑν = arccot − cos φest ν−1 − ϕν tan θν−1 (3.26) mit beliebig wählbarem ϕν . Wählt man ϕν zufällig, ergeben sich die in Abbildung 3.6 dargestellten Werte. Man erhält Fidelities die 1 bis 2% über denen der zufälligen Referenzen liegen. Eine Wahl von Referenzzuständen mit einer Fidelity von 12 mit den geschätzten Zuständen liefert also weit bessere Werte als eine Wahl gemäß der ursprünglichen Entropieadaption. Das bedeutet natürlich nicht, dass die modifizierte Adaption die „korrekte“ ist. Durch die Bedingung pa = 14 werden die Ergebnisse so stark gewichtet, wie es den Dimensionen ihrer Untervektorräume entspricht. Abgesehen von den besseren Ergebnissen, kann hier noch keine Begründung für dieses Vorgehen gegeben werden. In Abschnitt 4.5.2 wird erklärt wieso die Entropieadaptionen so schlechte Ergebnisse liefert. Damit kann auch erklärt werden, wieso die in diesem Abschnitt vorgestellte Adaptionsbedingung bessere Werte ergibt. Wie bereits in Abschnitt 3.5.3 kann man auch hier die Adaption verfeinern, indem man die Wahrscheinlichkeiten mit der Likelihood gewichtet und über die Bloch-Kugel mittelt. Dies liefert aber nur geringfügig bessere Werte. 37 3 Symmetriemessungen Ad-Hoc-Adaption mit zufälligem ϕν : N F ∆F 2 5 10 20 0,700 0,776 0,850 0,059 0,044 0,025 0,85 0,80 Fidelity F 5 0,701 0,059 10 0,773 0,044 20 0,846 0,027 verfeinerte AdHoc-Adaption mit zufälligem ϕν : N F ∆F 2 0,90 0,75 Shannon-EntropieAdaption Zufällige Referenzen Ad-Hoc-Adaption, fest Ad-Hoc-Adaption, zufällig verfeinerte Ad-HocAdaption, zufällig 0,70 0,65 0,60 0,55 0 5 10 15 20 Zahl der Messungen N Abbildung 3.6: Ad-Hoc-Adaption. Dargestellt sind die Fidelities für drei Adaptionsmetho! den die auf der Wahl pa = 14 beruhen. Diese unterscheiden sich in der Wahl von ϕν , das in einem Fall auf ϕν = φest ν−1 gesetzt, in den anderen zufällig gewählt wurde. Die dritte Adaptionsmethode verwendet die in Abschnitt 3.5.3 beschriebene Verfeinerung, angewandt auf die Ad-Hoc-Adaption. Für die letzten beiden Methoden sind in den Tabellen einige Zahlenwerte 2 für die mittlere Fidelity und ihre Varianz ∆F 2 = F 2 − F angegeben. 3.5.5 Diskussion der Entropieadaptionen Die ursprünglich angedachte Entropiemaximierung liefert extrem schlechte Ergebnisse, und auch die ad hoc eingeführte Adaption mit pa = 14 ergibt keine wesentlich besseren Werte als die zufällige Referenzwahl. Man kann den Grund dafür darin vermuten, dass die Shannon-Entropie (3.16) SS = −pa log2 pa − ps log2 ps nur die Information der Folge der Messergebnisse misst. Die volle Messinformation besteht aber aus Messergebnis und dem Referenzzustand mit dem es erzielt wurde. Gerade das Informationsmaximum der Messergebnisse wird durch Referenz-Qubits erkauft, die so ungünstig sind, dass die gesamten Messdaten ({αi } und {|ri !}) kaum Information liefern. Es sollte also besser eine Entropie maximiert werden, die auch die Referenzzustände 38 3.5 Shannon-Entropie-Adaption mit einbezieht. Die Kullback-Entropie¶ [17, 18, 28] SK ∼ − # f (x) ln Rx f (x) dx f0 (x) (3.27) ist ein solches Maß. Hier ist f0 (x) eine Wahrscheinlichkeitsverteilung die das A-prioriWissen eines Beobachters, in Abhängigkeit eines im Allgemeinen mehrdimensionalen Parametersatzes x ∈ Rx , ausdrückt. Dieser Beobachter erhält nun eine Nachricht, die sein Wissen auf die A-posteriori-Wahrscheinlichkeitsverteilung f (x) modifiziert. Dann ist SK ein Maß für die Information der Nachricht. Im vorliegenden Fall sind diese beiden Verteilungen die Likelihood-Funktionen Lν−1 und Lν vor und nach der ν-ten Messung. Damit wird die Entropie zu # ν SK ∼ − Lν ({αi } , {|ri !} , |ψ!) ln pαν (|rν ! , |ψ!) dΩψ , (3.28) falls man als Nachricht Referenzzustand und Messergebniss erhält. Bei der Adaption ist das Ergebnis der nächsten Messung natürlich noch unbekannt, und man muss auch über die möglichen Messergebnisse mitteln: # * ν SK ∼ − Lν−1 ({αi } , {|ri !} , |ψ!) pαν (|rν ! , |ψ!) ln pαν (|rν ! , |ψ!) dΩψ (3.29) αν ∈{a,s} Die Integration über den Logarithmus von pαν verursacht eine deutliche Erschwerung der Auswertung für größere N. Beim ersten Adaptionsschritt ist L0 jedoch konstant; deshalb ist die Kullback-Entropie (3.29) dann äquivalent zur Shannon-Entropie (3.16) der Messergebnisse. Grade hier liefert die Shannon-Entropie-Adaption keinen Fidelity-Zuwachs. Die Kullback-Entropie kann also im ersten Schritt die Probleme der Shannon-Adaption nicht beseitigen; die Gründe für das Fehlschlagen der Entropieadaption sind anderswo zu suchen. Ein generelles Problem der Entropieansätze ist, dass für die Entropieadaption natürlich nur die bisher erhaltene Information über den unbekannten Zustand verwendet werden kann. Nur wenn diese Information korrekt ist, ist der Informationsgewinn maximal. Deshalb kann die Entropiemaximierung gerade im kritischen Fall ungenauer Information ¶ Die Definition der Kullback-Entropie bezüglich eines positiven Vorfaktors frei. Da im weiteren die unnormierte Likelihood Lν auftritt, und ein konstanter Faktor für die Maximierung unerheblich ist, werden hier nur Proportionalitäten angegeben. 39 3 Symmetriemessungen schlechte Ergebnisse liefern. Dies gilt aber genauso für alle anderen adaptiven Verfahren; man kann immer nur von der vorhandenen Information ausgehen. Die im nächsten Abschnitt beschriebenen Adaptionsmethoden mit Fidelity-Maximierung liefern jedoch gute Ergebnisse, nur die Entropieadaption ist schlechter als die Verwendung zufälliger Referenzen. In Abschnitt 4.5.2 wird eine Erklärung für dieses Verhalten der Entropieadaption gegeben, doch dazu zunächst die vollständigen Bell-Messungen mit Unterscheidung aller vier möglichen Ergebnisse betrachten. Aufgrund des an dieser Stelle noch nicht verstandenen Scheiterns der Entropieadaptionen stellt sich die Frage, ob man die Entropieadaption nicht aufgibt, und einen anderen Versuch, befriedigende Ergebnisse zu erhalten, verfolgt, der nicht auf informationstheoretischen Argumenten sondern auf der direkten Maximierung der Zielfunktion Fidelity beruht. 3.6 Fidelity-Maximierung Die im vorigen Abschnitt dargestellten Ergebnisse der Referenz-Wahl mit Hilfe der Entropiemaximierung deuten auf einen grundlegenden Fehler des Entropieargument hin. Deshalb soll im Folgenden eine alternative Wahl der Referenzzustände beschrieben werden. Dazu wird die erwartete Fidelity nach der nächsten, der (ν + 1)-ten, Messung als Zielfunktion benutzt, die es in Abhängigkeit von den Referenzzuständen zu maximieren gilt.& Es liegen also bereits ν Messergebnisse {αi } vor, die mit den ν Referenzzuständen {|ri !} gefunden wurden. Gesucht ist der nächste Referenzzustand |rν+1 !, der die Ziel$ Bei dieser Berechnung treten die Winkelparameter der Zustände zahlreich auf. Deshalb sei hier noch einmal die Parametrisierung der Zustände aufgeführt: Unbekannter, zu schätzender Zustand: |ψ! = cos θ θ |0! + eiφ sin |1! 2 2 Geschätzter Zustand, wenn in der nächsten Messung der Messwert αν+1 gefunden wird: est est ! θν+1,α θν+1,α ! est iφest ν+1 ν+1 |0! + e ν+1,αν+1 sin |1! !ψν+1,αν+1 = cos 2 2 Für die nächste Messung ν + 1 verwendeter Referenzzustand: |rν ! = cos 40 ϑν ϑν |0! + eiϕν sin |1! 2 2 3.6 Fidelity-Maximierung funktion Fidelity maximieren soll. Dieser Referenzzustand ist noch unbekannt, man kann aber für jedes |rν+1 ! mittels Likelihoodmaximierung (2.2) den geschätzten Zustand in Abhängigkeit von den beiden möglichen Messergebnissen berechnen. Diese Zustände ! est " ! est " seien mit !ψν+1,a und !ψν+1,s bezeichnet. Man benutzt also als Zielfunktion die im nächsten Schritt ν + 1 erreichbaren Fidelities, wenn man das Messergebnis a oder s %! est " & %! est " & erhält, also F !ψν+1,a , |ψ! beziehungsweise F !ψν+1,s , |ψ! . Diese hängen natürlich vom vorliegenden Zustand |ψ! selbst sowie von dem aufgrund der dann erhaltenen Mes! est " sergebnisse geschätzten Zustand !ψν+1,α ab. Gewichtet man die beiden Fidelities mit ν+1 der Wahrscheinlichkeit die entsprechenden Messergebnisse zu finden, erhält man eine erwartete Fidelity: %! est " & %! est " & exp Fν+1 = pa (|rν+1 ! , |ψ!) · F !ψν+1,a , |ψ! + ps (|rν+1 ! , |ψ!) · F !ψν+1,s , |ψ! Da der zu bestimmende Zustand natürlich unbekannt ist, muss man noch über die mögliexp chen Zustände |ψ! mitteln. Die so erhaltene mittlere erwartete Fidelity sei F ν+1 genannt. Es gibt verschiedene Möglichkeiten, diesen Wert zu berechnen, die in den nächsten Abschnitten beschrieben sind. 3.6.1 Fidelity-Maximierung ohne Vorwissen: unvollständige Fidelity-Maximierung Mittelt man einfach über die Bloch-Kugel, ohne die Zustände zu gewichten, erhält man für die mittlere erwartete Fidelity nach dem nächsten Schritt: # %! est " & %! est " & 1 exp pa (|rν+1 ! , |ψ!) · F !ψν+1,a , |ψ! + ps (|rν+1 ! , |ψ!) · F !ψν+1,s , |ψ! dΩψ F ν+1 = 4π (3.30) Dieser Ausdruck berücksichtigt nicht die bereits vorhandene Wahrscheinlichkeitsinformation über die Verteilung von |ψ!, nämlich die Likelihood Lν ({αi } , {|ri !} , |ψ!). Die bereits gemachten Messungen fließen nur indirekt über die geschätzten Zustände ! est " ! est " !ψ ! ν+1,a und ψν+1,s ein. Diese Vereinfachung erlaubt eine analytische Berechnung des Integrals in Gleichung (3.30): 41 3 Symmetriemessungen exp F ν+1 = % & 1 1 est est + cos ϑν+1 cos θν+1,s − cos θν+1,a + 2 24 && % % & % est 1 est est cos φest + sin ϑν+1 sin θν+1,s ν+1,s − ϕν+1 − sin θν+1,a cos φν+1,a − ϕν+1 24 (3.31) est Dabei ist zu beachten, dass die θν+1,α und φest ν+1,αν+1 von ϑν+1 und ϕν+1 abhängen, ν+1 ! est " da !ψν+1,αν+1 die wahrscheinlichsten Zustände sind, falls die nächste Messung mit dem exp Referenzzustand |rν+1 ! durchgeführt wird. Um den Wert von F ν+1 zu bestimmen, müssen ! % "& est also zunächst die Likelihoods Lν+1 {αi } , {|ri !} , !ψν+1,α maximiert und die daraus ν+1 ! est " exp erhaltenen geschätzten Zustände !ψν+1,αν+1 in F ν+1 eingesetzt werden. Um den nächsexp ten Referenzzustand |rν+1 ! zu erhalten, muss man die so berechnete Funktion F ν+1 maximieren. Diese sich so ergebenden, in Abbildung 3.7 dargestellten, Fidelities sind deutlich besser als die mit zufälligen Referenzen erhaltenen. 3.6.2 Fidelity-Maximierung mit Vorwissen: vollständige Fidelity-Maximierung exp Berücksichtigt man die Likelihood der Zustände |ψ! bei der Integration, so ist F ν+1 : exp F ν+1 ∼ # %! est " & Lν ({αi } , {|ri !} , |ψ!) (pa (|rν+1 ! , |ψ!) · F !ψν+1,a , |ψ! %! est " & +ps (|rν+1 ! , |ψ!) · F !ψν+1,s , |ψ! )dΩψ exp (3.32) Die erwartete Fidelity F ν+1 hängt jetzt auch direkt von allen ν vorherigen Messergebnissen {αi } und dazugehörigen Referenzzuständen {|ri !} ab. Damit kann natürlich das Integral nicht mehr allgemein analytisch berechnet werden. Stattdessen muss in jedem Schritt eine Monte-Carlo-Integration durchgeführt werden. exp Wird diese Integration bei jeder Berechnung eines Zahlenwertes von F ν+1 bei der Maximierung ausgeführt, wird die Simulation sehr aufwendig. Allerdings lässt sich die Berechnung aufgrund der speziellen Struktur des Integrals vereinfachen. Man kann nämlich mittels elementarer Umformungen das Integral auf die Form einer Summe von Inteest est est grationen bringen, aus denen die Variablen ϑν+1 , ϕν+1 , θν+1,a , φest ν+1,a , θν+1,s und φν+1,s herausgezogen werden können. Diese Form ist in Anhang E angegeben. Somit ist es möglich, zuerst die Integration einmal durchzuführen. Da die Integranden nicht mehr vom Referenzzustand abhängen, können die Ergebnisse diese Rechnung 42 3.6 Fidelity-Maximierung exp für jede Berechnung eines Funktionswerts von F ν+1 verwendet werden. Deshalb ist zur Bestimmung des Maximums keine weitere Integration nötig; der numerische Rechenaufwand wurde erheblich verringert. 3.6.2.1 Doppelte Maximierung Man kann |rν+1 ! wie in Abschnitt 3.6.1 ohne Berücksichtigung des Vorwissens berechnen, nur dass nun noch die Monte-Carlo-Integration hinzukommt. Das heißt |rν+1 ! wird folgendermaßen bestimmt: • Die oben erwähnten und in Anhang E angegebenen Integrale werden per MonteCarlo-Integration berechnet. ! est " ! est " • Für ein vorgegebenes |rν+1 ! wird per Likelihood-Maximierung !ψν+1,a und !ψν+1,s bestimmt. exp • So kann F ν+1 für beliebige |rν+1 ! berechnet und damit auch maximiert werden. exp Dasjenige Qubit |rν+1 !, das F ν+1 maximiert, wird als nächste Referenz gewählt. Wie man in Abbildung 3.7 sieht, sind die Ergebnisse praktisch gleichwertig zu denen aus der Fidelity-Maximierung ohne Vorwissen, obwohl die numerische Berechnung ungleich aufwendiger ist. 3.6.2.2 Sechsdimensionale Maximierung der Fidelity ! est " Eine andere Methode zur Berechnung von Gleichung (3.32) besteht darin, !ψν+1,a und ! est " exp !ψν+1,s als unabhängig von |rν+1 ! zu betrachten, und F ν+1 damit als Funktion von sechs Variablen aufzufassen. Diese Methode wurde bereits in [3] verwendet. Es wird also keine Likelihood-Maximierung vorgenommen, sondern eine sechsdimenexp sionale Maximierung von F ν+1 .∗∗ Als Ergebnis erhält man die maximierenden Zustände ! est " ! est " ! est " |rν+1 !,!ψν+1,a und !ψν+1,s , wobei |rν+1 ! der nächste Referenzzustand ist, und !ψν+1,a ! est " oder !ψν+1,s die nächsten Schätzwerte sind, je nachdem welches Messergebnis die nächste Messung liefert. Die Wahl des Schätzwerts durch Likelihoodmaximierung fällt weg. Diese Methode liefert bei N = 3..13 eine weitere, kleine Verbesserung der Fidelities, die aber im Bereich der numerischen Fehler liegt (vergleiche Abbildung 3.7). ∗∗ Wobei natürlich immer noch die Monte-Carlo-Integration durchgeführt werden muss. 43 3 Symmetriemessungen unvollständig: N F ∆F 2 0,712 0,791 0,864 0,85 0,80 ∆F 2 5 0,709 0,057 10 0,788 0,042 20 0,865 0,023 sechsdimensional: N F ∆F 2 5 10 20 0,90 0,060 0,044 0,026 0,055 0,039 0,023 Fidelity F 5 0,711 10 0,788 20 0,864 vollständig: N F 0,75 Zufällige Referenzen Unvollständige Fidelity-Maximierung Vollständige FidelityMaximierung 6D-Fidelity-Maximierung 0,70 0,65 0,60 0,55 0 5 10 15 20 Zahl der Messungen N Abbildung 3.7: Adaption auf maximale erwartete Fidelity. Dargestellt sind die mittleren Fidelities der drei in diesem Abschnitt beschriebenen Fidelity-Maximierungs-Strategien im Vergleich mit der zufälligen Referenzwahl. In den Tabellen sind exemplarische Zahlenwerte für 2 die mittlere Fidelity F und ihre Varianz ∆F 2 = F 2 − F angegeben. Man erkennt, dass die Ergebnisse aus diesen drei Strategien, trotz enormen Unterschieden im Rechenaufwand, praktisch identisch sind, und dass sie einen deutlichen Fidelity-Gewinn gegenüber Messungen mit zufälligen Referenzen liefern. 3.6.3 Ergebnisse der Fidelity-Maximierung Die direkte Fidelity-Maximierung liefert Ergebnisse die signifikant besser als die aus allen bisher betrachteten Adaptionsstrategien sind. Diese sind allerdings mit höherem numerischen Rechenaufwand verbunden. Während die unvollständige Fidelity-Maximierung mit moderatem Rechenaufwand (Maximierung einer Funktion, die selbst eine Maximierungsaufgabe enthält, bezüglich zweier Variablen) eine Verbesserung bis zu 0,05 erbringt, liefert die sechsdimensionale vollständige Fidelity-Maximierung bei bedeutend höherem Aufwand (Maximierung einer Funktion, die eine numerische Integration enthält, bezüglich sechs Variablen) keine Verbesserung die über die numerischen Fehler herausgeht. Dass die in der Likelihood enthaltene Information keine Rolle spielt, ist überraschend. Die unvollständige erwartete Fidelity ist nämlich eine kontrastarme Funktion, das heißt sie unterscheidet sich kaum von 0,5. Dies kann man sich leicht klarmachen: Für große N haben neue Messinformationen im Normalfall nur geringe Auswirkungen auf die ge! est " ! est " schätzten Zustände; !ψν+1,a und !ψν+1,s liegen deshalb sehr nahe beieinander. Dann 44 3.6 Fidelity-Maximierung ! est " ! est " kann man in der Integration (3.30) !ψν+1,a und !ψν+1,s gleichsetzten, und man erhält: exp F ν+1 1 = 4π # %! est " & 1 F !ψν+1,s/a , |ψ! dΩψ = 2 Dennoch liegen die Maxima augenscheinlich an so aussagekräftigen Punkten, dass sich noch gute Schätzwerte ergeben. 0,04 0,03 Fidelity-Differenz F 0,02 0,01 0,00 Shannon-EntropieAdaption Ad-Hoc-Adaption, zufällig verfeinerte Ad-HocAdaption, zufällig Unvollständige Fidelity-Maximierung 6D-Fidelity-Maximierung -0,01 -0,02 -0,03 -0,04 -0,05 -0,06 -0,07 0 5 10 15 20 Zahl der Messungen N Abbildung 3.8: Fidelity-Differenz zwischen Adaption und zufälliger Referenzwahl. Hier ist die Differenz zwischen den Fidelities ∆F aus den verschiedenen adaptiven Verfahren und denen aus der zufälligen Referenzwahl ∆F = Fadaptiv − Fzufällig gegen die Zahl der verwendeten Kopien N aufgetragen. Wie man sieht, liefert die Gruppe der Fidelity-Maximierungs-Strategien Ergebnisse die sich untereinander innerhalb der Fehlergrenzen nicht unterscheiden; dasselbe gilt auch für die der Ad-Hoc-Adaptionen auf pa = 41 . Letztere liefern einen Fidelity-Zuwachs von bis zu 0, 02 gegenüber den zufälligen Referenzen, während die Fidelity-Maximierungen diesen Zuwachs noch einmal fast verdoppeln. Beide Gruppen liefern den maximalen Fidelity-Zuwachs bei N ≈ 11. 45 3 Symmetriemessungen 3.7 Qualität der Adaptionsstrategien und der Symmetriemessungen Für die beiden untersuchten Gruppen von Adaptionsstrategien zeigen sich zwei grundsätzlich verschiedene Situationen, die in Abbildung 3.8 dargestellt sind. Dort ist die Differenz zwischen den Fidelities ∆F aus den verschiedenen adaptiven Verfahren und denen aus der zufälligen Referenzwahl ∆F = Fadaptiv − Fzufällig gegen die Zahl der verwendeten Kopien N aufgetragen. Im Gegensatz zur Anwendung auf die Spin-Messungen in [3, 4] liefern die EntropieStrategien hier extrem schlechte Ergebnisse, während sich die Fidelity-MaximierungsStrategie auch bei den Symmetriemessungen als Strategie bewährt, die deutlich bessere Fidelities als die zufällig gewählten Referenzen liefert. Jedoch bleiben die Fidelities weit hinter dem theoretischen Maximum [9] von Fopt = zurück, insbesondere auch hinter dem Wert 23 , den man im Mittel nach nur einer Spinmessung erhalten würde. Dies liegt daran, dass die Symmetriemessungen als BellMessungen mit nur teilweisem Auslesen der Messergebnisse definiert wurden. Statt nur die Ergebnisse a und s zu unterscheiden, könnten alle vier möglichen Ergebnisse der BellMessungen genutzt werden. Dann erhielten wir aus jeder Messung mehr Information. Dieses Ignorieren von Information muss sich in den erzielten Fidelities niederschlagen. N +1 N +2 3.8 Verbindungen zur Spin-Messung Für die vollständigen Bell-Messungen sei auf Kapitel 4 verwiesen. Es gibt jedoch noch eine andere Herangehensweise an die Frage der niedrigeren Fidelities: Es gilt pa ≤ 12 . Also sogar wenn |rν ! und |ψ! orthogonal sind ($rν |ψ! = 0), wird mit einer Wahrscheinlichkeit von 21 das Ergebnis s gefunden, obwohl die Zustände nicht unterschiedlicher sein könnten. In diesem Abschnitt wird untersucht, inwieweit eine Transformation des Produktzustands |ψ! |rν ! diese Wahrscheinlichkeiten optimieren kann; dabei wird gezeigt, dass dies zurück zu den Spin-Messungen aus [3, 4] führt. Da die Argumentation unabhängig vom Adaptionsschritt ν ist, verzichten wir im Folgenden auf den Index des Referenzzustands: |r! ≡ |rν ! 46 3.8 Verbindungen zur Spin-Messung 3.8.1 Symmetriemessung mit vorhergehender Transformation Bis jetzt wurden Symmetriemessungen nur an separablen Zuständen |rν !R |ψ!M durchgeführt. Deshalb konnte die Wahrscheinlichkeit den Produktzustand im antisymmetrischen Untervektorraum zu finden höchstens pa = 21 betragen. Um diese Wahrscheinlichkeit zu vergrößern, kann man vor der Messung eine Transformation anwenden, die einen Produktzustand aus zwei senkrechten Zuständen auf den Singlett-Zustand |Ψ− ! abbildet: ! " 1 |r!R |r!M → √ (|r!R |r!M − |r!R |r!M ) = !Ψ− 2 2 Dann wird für diesen Produktzustand pa → |$Ψ− |Ψ− !| = 1. |r!R H Z c0 |Ψ− ! + c1 |Φ− r ! |ψ!M Abbildung 3.9: Gatter für die Transformation Die hierfür benötigte Transformation besteht aus einem Hadamard-Gatter und einem Phasengatter für den Zustand in R und einem CNOT-Gatter mit dem transformierten Zustand als Kontrollqubit. Jedoch müssen alle Operationen bezüglich der {|r! , |r!}-Basis ausgeführt werden; das heißt, das Hadamard-Gatter H hat die Wirkung 1 |r!R → √ (|r!R + |r!R ) 2 1 |r!R → √ (|r!R − |r!R ) , 2 das Phasengatter Z |r!R → |r!R |r!R → − |r!R , 47 3 Symmetriemessungen und das CNOT-Gatter CNOT |r!R |r!M → |r!R |r!M |r!R |r!M → |r!R |r!M |r!R |r!M → |r!R |r!M |r!R |r!M → |r!R |r!M . Dann transformiert das gesamte Gatter den Zustand |r!R |r!M wie gewünscht: ! " 1 CNOT Z H |r!R |r!M = √ (|r!R |r!M − |r!R |r!M ) = !Ψ− 2 Liegen zwei gleiche Zustände vor, hat das Gatter folgenden Effekt: ! " 1 CNOT Z H |r!R |r!M = √ (|r!R |r!M − |r!R |r!M ) = !Φ− r 2 Da man jedes Qubit |ψ! nach |r! und |r! entwickeln kann |ψ! = c0 |r! + c1 |r!, erhält man für beliebige Zustände: ! " ! " CNOT Z H |r!R |ψ!M = c0 !Ψ− + c1 !Φ− r (3.33) Eine Symmetriemessung liefert nun mit der Wahrscheinlichkeit pa = |c0 |2 das antisymmetrische Ergebnis und mit der Wahrscheinlichkeit ps = |c1 |2 = 1 − |c0 |2 das symmetrische. Insbesondere erhält man bei |ψ! = |r! immer das Ergebnis a.†† 3.8.2 Vergleich mit Polarisations-/Spin-Messung Die beschriebene Transformation hängt vom Referenzzustand |r! ab; dieser muss also, um die Transformationsmatrizen aufzustellen, bekannt sein. Statt einen solchen Vergleichs eines unbekannten mit einem bekannten Zustand durchzuführen, kann man natürlich auch eine Spin-Messung an |ψ! in Richtung von |r! vornehmen. Auch hier betragen die Wahrscheinlichkeiten: pr = |c0 |2 =p ˆ a , pr = |c1 |2 =p ˆ s †† Damit ist auch das Problem der nicht verwendeten Information umgangen, da die Bell-Zustände |Ψ+ r ! und |Φ+ r ! gar nicht mehr detektiert werden können; die prinzipiell vierwertige ist auf eine dichotome Messung zurückgeführt worden. 48 3.8 Verbindungen zur Spin-Messung Man kann also mit der beschriebenen Transformation und Symmetriemessung exakt die gleichen Ergebnisse wie mit Spinmessungen erzielen‡‡ ; die Symmetriemessungen nach Transformationen bringen keine Vorteile, wenn eine Spinmessung möglich ist. Die Spin-Messungs-Algorithmen die in [3, 4] formuliert sind, scheinen sich technisch von den hier verwendeten zu unterscheiden. In Anhang F wird gezeigt, dass diese Unterschiede nicht von Bedeutung sind. ‡‡ Insbesondere sind die Fidelities, die man bei Spinmessungen aus der Entropieadaption erhält, deutlich besser als die aus zufälligen Referenzen; dem bei Symmetriemessungen auftauchende Problem mit der Entropieadaption, wird durch die Transformation ausgewichen. 49 3 Symmetriemessungen 50 4 Bell-Messungen 4.1 Prinzip der Bell-Messungen Symmetriemessungen können verwirklicht werden, indem man Messungen in der BellBasis vornimmt. Dabei zählen Messungen von |Ψ+ !, |Φ+ ! und |Φ− ! zum Messergebnis s, Messungen von |Ψ− ! als Ergebnis a. Bei einem solchen Vorgehen verliert man Informationen, da man die unterscheidbaren Ergebnisse Ψ+ , Φ+ und Φ− nicht weiter differenziert. Diese Differenzierung durchzuführen ist eine offensichtliche Möglichkeit zur Verbesserung der erzielten Fidelities. Solche Messungen beruhen natürlich nicht mehr allein auf Austauschsymmetrie. In diesem Kapitel wird die Effizienz von Bell-Messungen bei Verwendung der für die Symmetriemessungen benutzten Adaptionsstrategien untersucht. Diese Adaptionsverfahren können für Bell-Messungen angepasst werden, wenn man nur berücksichtigt, dass Summationen über die möglichen Messergebnisse nun vier statt zwei Terme haben. 4.1.1 Basistransformationen Im Gegensatz zu den Symmetriemessungen gibt es einen weiteren Freiheitsgrad der Messmethoden: Der (eindimensionale) antisymmetrische Untervektorraum ist natürlich unabhängig von der Qubit-Basis, in der der in ihm enthaltene Vektor angegeben wird. Deshalb ist der Singulettzustand |Ψ− ! invariant unter Basistransformationen, das heißt: ! −" % ! " ! " & !Ψ = √1 (|0! |1! − |1! |0!) ≡ √1 |b! !b − !b |b! (4.1) 2 2 ! " für jede beliebige Basis {|b! , !b }, was im vorigen Kapitel auch gelegentlich verwendet wurde. 51 4 Bell-Messungen Für die anderen drei Bell-Vektoren gilt dies nicht mehr: ! +" 1 % ! " ! " & !Ψ = √ |b! !b + !b |b! b 2 ! −" ! " ! "& % 1 !Φ = √ |b! |b! − !b !b b 2 ! +" ! " ! "& 1 % !Φ !b !b √ = |b! |b! + b 2 (4.2) sind für verschiedene Basen unterschiedlich. Nur der von den drei Vektoren aufgespannte Untervektorraum ist natürlich immer der gleiche, weshalb diese Freiheit bei den Symmetriemessungen keine Rolle spielt. Somit stellt die Wahl der Basis einen neuen freien Parameter der Bell-Messungen dar, und wird nicht etwa durch die Mittelung über die Bloch-Kugel wieder ausgeglichen. Eine andere Basiswahl hat physikalisch andere Messoperatoren und damit unterschiedliche + − Wahrscheinlichkeiten der Messausgänge Ψ+ b , Φb und Φb zur Folge. 4.2 Rechenbasis In diesem Abschnitt untersuchen wir zuerst die Adaptionsstrategien bei Bell-Messungen in der Rechenbasis {|0! , |1!}. In dieser Basis sind die Wahrscheinlichkeiten für die einzelnen Messergebnisse: 1 (1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν ) = pa 4 1 2 = |$Ψ+ | |rν ! |ψ!| = (1 − cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν ) 4 1 2 (1 + cos θ cos ϑν − cos (φ + ϕν ) sin θ sin ϑν ) = |$Φ− | |rν ! |ψ!| = 4 1 2 (1 + cos θ cos ϑν + cos (φ + ϕν ) sin θ sin ϑν ) (4.3) = |$Φ+ | |rν ! |ψ!| = 4 2 pΨ− = |$Ψ− | |rν ! |ψ!| = pΨ + p Φ− p Φ+ 4.2.1 Zufällige Referenzen Wie erwartet liegen die mit zufälligen Referenzen erzielten Fidelities, die in Abbildung 4.1 dargestellt sind, wesentlich näher am theoretischen Maximum, Gleichung (2.7), als die aus den Symmetriemessungen des vorherigen Kapitels. 52 4.2 Rechenbasis 4.2.2 Unvollständige Fidelity-Maximierung Analog zur Fidelity-Maximierung bei den Spin-Messungen ist die zur unvollständigen Fidelity-Maximierung bezüglich |rν+1 ! zu maximierende Größe: exp F ν+1 1 = 4π # * ! est "& % pα (|rν+1 ! , |ψ!) F |ψ! , !ψν+1,α dΩψ (4.4) α∈{Ψ− ,Ψ+ ,Φ− ,Φ+ } Was sich bei Vernachlässigung des Vorwissens vereinfacht zu: exp F ν+1 = 1 1 est est est est + cos ϑν+1 (cos θν+1,Φ − + cos θν+1,Φ+ − cos θν+1,Ψ− − cos θν+1,Ψ+ ) 2 24 & % & % 1 est est est + sin ϑν+1 (− cos ϕν+1 + φest ν+1,Φ− sin θν+1,Φ− + cos ϕν+1 + φν+1,Φ+ sin θν+1,Φ+ 24 & & % % est est est sin θν+1,Ψ + cos ϕ − φ − cos ϕν+1 − φest sin θ +) + − − ν+1 ν+1,Ψ ν+1,Ψ ν+1,Ψ (4.5) In Abbildung 4.1 sind die so gefundenen Fidelities aufgetragen. Die FidelityMaximierung liefert auch bei den Bell-Messungen einen deutlichen Fidelity-Gewinn gegenüber den zufälligen Referenzzuständen. 4.2.3 Entropiemaximierung Bei vier möglichen Messergebnissen ist die Shannon-Entropie S=− * pα log2 pα (4.6) α∈{Ψ− ,Ψ+ ,Φ− ,Φ+ } maximal für pΨ− = pΨ+ = pΦ− = pΦ+ = 14 . Mit den Wahrscheinlichkeiten (4.3) ist dies jedoch nicht für beliebige θ und φ, das heißt für beliebige Zustände |ψ!, möglich. Die Entropie müsste also für jeden geschätzten Zustand neu maximiert werden. In Abschnitt 4.6.1 wird aber gezeigt, dass die Gleichverteilung bei der Wahl einer geeigneten Basis erreicht werden kann. Es ist deshalb nicht sinnvoll, den Referenzzustand durch ein so kompliziertes Verfahren zu bestimmen, dabei aber die durch nichts ausgezeichnete Rechenbasis zu verwenden. 53 4 Bell-Messungen 5 10 20 0,813 0,886 0,942 uFM: N F 5 10 20 0,836 0,899 0,948 1,00 ∆F 2 0,036 0,019 0,005 ∆F 2 0,027 0,013 0,004 0,95 0,90 Fidelity F Zufällige Referenzen: N F 0,85 0,80 Zufällige Referenzen in Rechenbasis uFM in Rechenbasis (N+1)/(N+2) 0,75 0,70 0 5 10 Zahl der Messungen N 15 20 Abbildung 4.1: Bell-Messungen in der Rechenbasis. Fidelities bei zufälliger Referenzwahl und unvollständiger Fidelity-Maximierung (uFM) in der Rechenbasis aufgetragen gegen die Zahl der Kopien N . Die mittlere Fidelity für N = 20 bei der uFM ist über 6.669 Läufe gemittelt, alle anderen über 10.000. 4.2.4 Ergebnisse Durch die vollständige Verwendung der Information aus Bell-Messungen erhält man Fidelities, die dem theoretischen Maximum für simultane Messungen nahe kommen. Die Fidelity-Maximierung liefert eine deutliche Verbesserung gegenüber der zufälligen Referenzwahl. Wie man dem nächsten Abschnitt entnehmen kann, ist es möglich, diesen Zuwachs noch weiter zu steigern. 4.3 Referenzbasis Wieso sollte man ausgerechnet die Bell-Zustände in der willkürlich gewählten Rechenbasis {|0! , |1!} verwenden? Die Wahl einer anderen festen (für jede Messung gleiche) Referenzbasis würde die Situation nicht verändern, da die unbekannten Zustände gleichmäßig verteilt sind. Allerdings kann natürlich auch bei jeder Messung eine andere Basis verwendet werden. Eine ausgezeichnete Version dieser variablen Basen ist die Wahl der Basis entsprechend den jeweiligen Referenzzuständen |rν !. Wie in Abschnitt 4.5.1 gezeigt wird, sind Bell-Messungen in dieser Referenzbasis {|rν ! , |rν !} äquivalent zu direkten 54 4.3 Referenzbasis Spin-Messungen. Deshalb soll zunächst diese Messmethode untersucht werden. Die Wahrscheinlichkeiten der einzelnen Messergebnisse lauten hier: 1 (1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν ) = pa = 4 1 = (1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν ) 4 1 (1 + cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν ) = = 4 1 = (1 + cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν ) 4 pΨ − = pΨ + p Φ− p Φ+ (4.7) Man beachte die Gleichheit von pΨ− und pΨ+ sowie von pΦ− und pΦ+ . Jeder unbekannte Zustand erzeugt die jeweiligen Messergebnisse mit der gleichen Wahrscheinlichkeit. Für das Maximum-Likelihood-Schätzen macht es deshalb ebensowenig einen Unterschied, ob man das Ergebnis Ψ− oder Ψ+ , wie es gleichgültig ist ob man Φ− oder Φ+ erhält. 4.3.1 Zufällige Referenzen Mit zufälligen Referenzen erhält man in der Referenzbasis die in Abbildung 4.2 dargestellten Werte. Diese sind bei kleinen N geringfügig besser als für die Messungen in der Rechenbasis. Die Unterschiede liegen aber im Bereich der numerischen Fehler. 4.3.2 Unvollständige Fidelity-Maximierung Die mittlere erwartete Fidelity lautet in diesem Fall: exp F ν+1 = 1 1 est est est est + cos ϑν+1 (cos θν+1,Φ − + cos θν+1,Φ+ − cos θν+1,Ψ− − cos θν+1,Ψ+ ) 2 24 % & % & 1 est est est + sin ϑν+1 (cos ϕν+1 − φest ν+1,Φ− sin θν+1,Φ− + cos ϕν+1 − φν+1,Φ+ sin θν+1,Φ+ 24 % & % & est est est − cos ϕν+1 − φest ν+1,Ψ− sin θν+1,Ψ− − cos ϕν+1 − φν+1,Ψ+ sin θν+1,Ψ+ ) (4.8) Hier liegen die Fidelities, die sich ebenfalls in Abbildung 4.2 finden, signifikant über denen, die man bei Verwendung der Rechenbasis erhält. 55 4 Bell-Messungen 4.3.3 Entropiemaximierung Für vier mögliche Messergebnisse ist die Shannon-Entropie (4.6) S=− * pi log2 pi i∈{Ψ− ;Ψ+ ;Φ− ;Φ+ } maximal wenn pΨ− = pΨ+ = pΦ− = pΦ+ = 14 . Dies führt zur Adaptionsvorschrift: „Wähle einen Referenzzustand, dessen Bloch-Kugel-Vektor senkrecht zu dem des geschätzten 2 Zustands ist.“ (|$ψνest |rν+1 !| = 21 ) Diese Vorschrift beschränkt den Referenzzustand nur auf einen Großkreis auf der Bloch-Kugel, legt ihn aber nicht eindeutig fest. Welcher Zustand nun wirklich als Referenz verwendet wird, muss zufällig gewählt werden.∗ Die durch die Entropiemaximierung gewonnenen Werte vervollständigen Abbildung 4.2. Die Fidelities liegen für N < 10 etwa 0,01 über denen der zufälligen Referenzwahl. Bis N = 20 werden erstere von letzteren aber wieder eingeholt. ∗ Wie schon im entsprechenden Abschnitt zu Symmetriemessungen (Abschnitt 3.5.4) ergeben feste Wahlen des freien Parameters schlechtere Ergebnisse. 56 4.3 Referenzbasis 4.3.4 Ergebnisse In der Referenzbasis erhält man einen noch deutlicheren Fidelity-Zuwachs von bis zu 0,03 gegenüber den zufälligen Referenzen. Die Entropieadaption liefert für kleine N im Vergleich mit zufälligen Referenzen bessere Fidelities, bleibt aber deutlich hinter der Fidelity-Maximierung zurück. Zufällige Referenzen: N F ∆F 2 0,817 0,886 0,941 0,035 0,019 0,005 F ∆F 2 5 0,847 0,021 10 0,911 0,009 19 0,949 0,003 Entropieadaption: N F ∆F 2 5 10 20 0,828 0,895 0,941 0,027 0,013 0,005 1,00 0,95 0,90 Fidelity F 5 10 20 uFM: N 0,85 zufällige Referenzen in Referenzbasis uFM in Referenzbasis Entropieadaption (N+1)/(N+2) 0,80 0,75 0,70 0 5 10 Zahl der Messungen N 15 20 Abbildung 4.2: Bell-Messungen in der Referenzbasis. Fidelities bei zufälliger Referenzwahl, unvollständiger Fidelity-Maximierung (uFM) und Entropieadaption in der Referenzbasis aufgetragen gegen die Zahl der Kopien N . Die Fidelity-Maximierung liefert Ergebnisse, die sehr nah am theoretischen Maximum liegen, während sich bei der Entropieadaption Werte ergeben, die näher an denen aus zufälliger Referenzwahl liegen. Die Fidelities sind über 10.000 Läufe gemittelt, außer der Fidelity der uFM bei N = 19, die über 6.544 Läufe gemittelt ist. 57 4 Bell-Messungen 4.4 Ergebnisse der Simulationen In Abbildung 4.3 sind die Fidelity-Verluste der in diesem Kapitel vorgestellten adaptiven +1 (siehe Abschnitt 2.5) dargestellt. Verfahren im Vergleich zu den optimalen Fidelities N N +2 Man erkennt, dass die Ergebnisse aus der Fidelity-Maximierung in der Referenzbasis den theoretisch möglichen Werten extrem nahe kommen. Die verbleibende Fidelity-Differenz liegt sogar im Bereich der numerischen Fehler. 0,00 Fidelity-Differenz F -0,01 -0,02 -0,03 Zufällige Referenzen in Rechenbasis zufällige Referenzen in Referenzbasis uFM in Rechenbasis uFM in Referenzbasis -0,04 -0,05 0 5 10 Zahl der Messungen N 15 20 Abbildung 4.3: Fidelity-Differenz zwischen Adaption und optimalem Verfahren. Hier ist die Fidelity-Differenz ∆F zwischen adaptiven Verfahren und der optimalen, simultanen N +1 Messung ∆F = Fadaptiv − N +2 bei Bell-Messungen in Abhängigkeit von der Zahl der vermessenen Kopien aufgetragen. Dargestellt sind zufälligen Referenzen und unvollständige FidelityMaximierung (uFM) in Rechen- und Referenzbasis. Die Verwendung der Fidelity-Maximierung halbiert den Nachteil, den man durch zufällige Einzelmessungen gegenüber einer simultanen Messung erhält. Messung in der Referenzbasis halbiert die Differenz nocheinmal. 58 4.5 Vergleich mit anderen Messmethoden 4.5 Vergleich mit anderen Messmethoden 4.5.1 Bell-Messungen und Polarisations-/Spin-Messungen Die Simulation eines Bell-Basis-Messverfahrens mit zufälligen Referenzzuständen oder Fidelity-Maximierung führte in der Referenzbasis zu Fidelities, die in etwa denen der jeweiligen Spinmessung aus [3, 4] entsprechen. Es wurde bereits in Abschnitt 3.8 gezeigt, dass Symmetriemessungen mit vorgeschaltetem Gatter zu solchen Spinmessungen äquivalent sind. Deshalb stellt sich die Frage, ob nicht auch die Bell-Messungen auf Spinmessungen zurückgeführt werden können. Zur Untersuchung dieser Frage wird der unbekannten Zustand wieder in Komponenten parallel zum Referenzzustand |r! und dem orthogonalen Zustand |r! zerlegt,† das heißt, man wählt als Basis, in der wir |ψ! darstellen, die Referenzbasis {|r! , |r!}. (4.9) |ψ! = c0 |r! + c1 |r! Bei einer Spinmessung betragen die Wahrscheinlichkeiten |r! oder |r! zu messen: pr = |c0 |2 , pr = |c1 |2 (4.10) Den Produktzustand |r! |ψ! kann man schreiben als: |r! |ψ! = c0 |r! |r! + c1 |r! |r! (4.11) ! −" !Ψ = √1 (|0! |1! − |1! |0!) = √1 (|r! |r! − |r! |r!) 2 2 (4.12) Da der Singulettzustand unabhängig von der Rechenbasis ist, gilt immer: pΨ − = 1 |c1 |2 2 (4.13) Die anderen Bell-Zustände sind nicht rechenbasisunabhängig; deshalb hängen die anderen Wahrscheinlichkeiten von der Wahl der Rechenbasis ab. Wählt man jedoch die † Wie schon am Ende von Kapitel 3 sei im Folgende auf den Index ν verzichtet. 59 4 Bell-Messungen Rechenbasis immer als {|r! , |r!}, also: ! +" 1 !Ψr = √ (|r! |r! + |r! |r!) 2 ! −" 1 !Φ = √ (|r! |r! − |r! |r!) r 2 ! +" 1 !Φr = √ (|r! |r! + |r! |r!) , 2 (4.14) (4.15) (4.16) dann sind die Wahrscheinlichkeiten gerade: 1 |c1 |2 2 1 |c0 |2 = 2 1 = |c0 |2 2 pΨ+r = (4.17) pΦ−r (4.18) pΦ+r (4.19) Das heißt, wertet man Messungen, die |Ψ− ! oder |Ψ+ r ! ergeben, als Spinmessung mit − + Ergebnis |r!, und solche mit |Φr ! oder |Φr ! als |r!, so ist das Messverfahren äquivalent zu den Spinmessungen. 4.5.2 Bell-Messungen und Symmetriemessungen Die vorangegangene Diskussion erlaubt auch die Beantwortung der Frage, wieso die Verwendung der Entropieadaption auf die Symmetriemessungen so schlechte Ergebnisse liefert (Kapitel 3). Bei den Symmetriemessungen werden die drei Bell-Messergebnisse − + Ψ+ b , Φb und Φb zu einem Ergebnis s zusammengefasst. Wegen der Invarianz des symmetrischen Unterraums bezüglich Basistransformationen ist dies unabhängig von der für die Bell-Zustände verwendeten Basis. Man kann also auch die Referenzbasis wählen, und erhält damit allgemeingültige Resultate. Wie eben gezeigt, ist die Bell-Messung in der Referenzbasis zu Spinmessungen äquivalent, wenn man die vier Ergebnisse anders − + kombiniert, nämlich Ψ− und Ψ+ r sowie Φr und Φr . Man kann also sagen, dass sich aus den Bell-Messungen in der Referenzbasis eine Messung konstruieren lässt, die äquivalent ist entweder zu den effizienten Spin-Messungen oder zu den ineffizienten Symmetriemessungen, je nachdem wo man das Ergebnis Ψ+ r einordnet. Aus der Shannon-Entropie-Adaption für Symmetriemessungen folgt die Bedingung $ψ est |r! = 0. Das heißt, man verwendet im „Idealfall“ für die Messung einen Produktzu60 4.6 Ist die Referenzbasis optimal? 2 stand der Form |r! |r!. Dann ist die Wahrscheinlichkeit pa = pΨ− = |$Ψ− | |r! |r!| = 12 , wie von der Entropiemaximierung gefordert, und automatisch auch ps = pΨ+r + pΦ−r + 2 1 pΦ+r = 12 . Dieses ps setzt sich dann aber zusammen aus pΨ+r = |$Ψ+ r | |r! |r!| = 2 und pΦ−r = pΦ+r = 0. Hier liegt der prinzipielle Mangel der Symmetriemessungen: Die Entropieadaption maximiert nicht nur pa = pΨ−r sondern auch die Wahrscheinlichkeit pΨ+ für das „falsch einsortierte“ Messergebnis Ψ+ r ! Somit maximiert die Entropieadaption zwar den Informationsgehalt der Messergebnisse, gleichzeitig aber auch die „Fehlinformation“, die man erhält, wenn man Ψ+ r misst. Um sich dies klarzumachen, kann man auch Gleichung (4.7) betrachten: Die Shannon-Entropie-Adaption setzt pΦ−r und pΦ+r gleich 0. Die anderen beiden Wahrscheinlichkeiten sind aber gleich, und damit für die LikelihoodMaximierung nicht zu unterscheiden; aus einer solchen Messung gewinnt man keinerlei Information. Daher ist bei der Shannon-Entropie-Adaption der Einfluss der Unzulänglichkeit der Symmetriemessung am stärksten ausgeprägt. Bei der Fidelity-Maximierung wirkt sich dieser Einfluss zwar immer noch aus, man gewinnt deutlich schlechtere Fidelities als mit Spinmessungen, aber er ist so weit reduziert, dass sich bessere Fidelities als mit zufälligen Referenzen ergeben. 4.6 Ist die Referenzbasis optimal? Bisher wurden in diesem Kapitel nur zwei Basiswahlen betrachtet: die feste Rechenbasis {|0! , |1!} (Abschnitt 4.2) und die Referenzbasis {|r! , |r!} (Abschnitt 4.3). Es stellt sich die Frage, ob es nicht möglich ist, die Basiswahl unabhängig von der Referenzwahl zu adaptieren und die Messergebnisse so weiter zu optimieren. In diesem Abschnitt wird zuerst speziell für die Entropieadaption begründet, dass dies nicht möglich ist. Danach wird ein Argument dafür gegeben, wieso dies auch allgemein gelten sollte. 4.6.1 Entropiemaximierung Berechnet man die Wahrscheinlichkeiten der vier Messergebnisse ohne die Basis festzulegen, erhält man Funktionen von sechs Variablen, nämlich je zwei für das unbekannte ! " Qubit |ψ!, den Referenzzustand |r! und die Basis {|b! , !b }. Man hat also vier frei wählbare Parameter, mit denen die Wahrscheinlichkeiten auf 14 gesetzt werden können um die Shannon-Entropie zu maximieren. Führt man diese Rechnung durch, erhält man sieses Entropiemaximum aber gerade 61 4 Bell-Messungen für |b! = |r!.‡ Zumindest nach der Entropiemaximierungsstrategie ist die Referenzbasis also auch die optimale Basis. 4.6.2 Allgemeine Optimalität Mit Hilfe der in Abschnitt 4.5 benutzten Überlegungen kann auch argumentiert werden, dass die Verwendung einer anderen Basis keine besseren Ergebnisse liefern kann. Dazu geht man von den Bell-Messungen in der Referenzbasis aus, für die pΨ− = pΨ+r = 12 pr und pΦ−r = pΦ+r = 21 pr gilt, wobei pr und pr die Wahrscheinlichkeiten sind, bei Spinmessungen die Richtung |r! beziehungsweise |r! zu finden. Solange die Bell-Messungen in der Referenzbasis durchführt, sind sie zu den Spinmessungen äquivalent. Im Folgenden behält man die Referenzzustände, die der Messrichtung bei Spinmessungen entsprechen, ! " bei. Verwendet man stattdessen eine andere Basis {|b! , !b } für die Bell-Zustände, bleibt zwar pΨ− gleich, aber die anderen drei Wahrscheinlichkeiten ändern sich. Das heißt, man erhält mit einer endlichen Wahrscheinlichkeit ein Bell-Messergebnis, welches bei Messung in der Referenzbasis einem anderem Spin-Messergebnis zugeordnet werden würde. Wenn aber Spin-Messergebnisse falsch zugeordnet werden, verschlechtert dies sicherlich die Schätzergebnisse. Bell-Messungen in anderen Basen liefern also schlechtere Ergebnisse als Spin-Messungen und damit auch als Bell-Messungen in der Referenzbasis. ‡ 2 Dann folgt natürlich auch die in Abschnitt 4.3.3 beschriebene Adaptionsbedingung |$ψ est |r!| = 21 . 62 5 Frequenzmessungen In diesem Kapitel soll die Anwendung der Qubit-Schätzmethoden auf die Messung von Energieniveaus betrachtet werden. Als Messmethode wird dazu die Bell-Messung in der Referenzbasis verwendet, da sie einerseits deutlich bessere Ergebnisse als die Symmetriemessungen liefert, und andererseits ihre Ergebnisse, wie in Abschnitt 4.5.1 gezeigt, auch für Stern-Gerlach-Messungen gelten. 5.1 Energiemessungen und Verschränkung Eine Methode der Präzisionsspektroskopie ist die Ramsey-Spektroskopie [13, 14]. Dabei wird ein Atom zuerst in einem internen Zustand |0! präpariert, und dann mit einem sogenannten Ramsey-Puls – analog einer Hadamard-Operation – in eine gleichgewichtete Überlagerung der Zustände |0! und |1! gebracht. 1 |0! → √ (|0! + |1!) 2 Bei einer freien Zeitentwicklung nimmt die |1!-Komponente dieser Überlagerung eine Phase auf, die vom Frequenzabstand ω der beiden Niveaus und der Dauer der Entwicklung t abhängt. & 1 % 1 √ (|0! + |1!) → √ |0! + eiωt |1! (5.1) 2 2 Die Wahrscheinlichkeit, bei einer σ̂x -Messung den Eigenwert 1 zu messen, beträgt p = cos2 ωt . Diese Messung wird durch einen zweiten Ramsey-Puls und eine anschließende 2 σ̂z -Messung des internen Zustands realisiert. 63 5 Frequenzmessungen Mit Hilfe der Statistik einer Anzahl N solcher Messungen kann der Frequenzabstand ω geschätzt werden. Dazu werden die bei N Messungen erhaltenen Ergebnisse “Spin up” gezählt. Diese Summe wird N+ genannt. Der Anteil solcher Ergebnisse an der Gesamtzahl N+ geht gegen p: der Messungen N N+ ωt −→ cos2 N N →∞ 2 (5.2) Die Frequenz kann also durch direkte Inversion obiger Gleichung geschätzt werden als: . / N+ 1 −1 ωN = arccos 2 t N (5.3) Bei diesem Messverfahren besteht eine „Unschärferelation“ zwischen der 0Entwicklungs2 dauer t (Messzeit) und der Standardabweichung der Frequenz ∆ωN := $ωN ! − $ωN !2 , nämlich, wie die in Anhang G durchgeführte Rechnung ergibt: 1 t∆ωN = √ N (5.4) Wenn man aber statt N einzelner Messungen eine Messung am maximal verschränk% & ten Zustand von n nicht wechselwirkenden Atomen √12 |0!⊗n + |1!⊗n vornimmt,∗ dann beträgt die aufgenommene Phase nωt. Die Wahrscheinlichkeit bei einer entsprechenden % & Messung das Ergebnis √12 |0!⊗n + |1!⊗n zu erhalten ist demnach pver = cos2 nωt . Da2 bei ist zu beachten, dass für eine solche Messung nicht ein sondern n Atome benötigt werden. Hat man also weiterhin N präparierte Atome zur Verfügung, so kann man nur noch A = Nn Messungen ausführen. Man muss also in Gleichung (5.3) lediglich N durch A = Nn und t durch nt ersetzen. Deshalb lautet der Schätzwert der Frequenz: . / 1 A+ ωA = arccos 2 −1 nt A (5.5) Daraus folgt wieder mit der Rechnung aus Anhang G die Unschärferelation: √ 1 1 A t∆ω = √ = √ = N n A nN ∗ Die Notation |·!⊗n bezeichnet das n-fache Produkt des Zustands: |·!⊗n = 64 (5.6) n 1 0 |·! 5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel Scheinbar erhält man also die geringste Unschärfe, wenn man A = 1 wählt, also alle verfügbaren Atome verschränkt und mit ihnen eine einzelne Messung durchführt. Aber natürlich hat der mittlere quadratische Fehler ∆ω nur für statistisch signifikante A Be+ nur die Werte 0 und 1 annehmen. Die damit deutung. Im Extremfall A = 1 kann A A berechnete Frequenz ω1 ist also auch dichotom und damit im Allgemeinen kein guter Schätzwert für beliebige Frequenzen. Erst für eine große, feste Anzahl von Messungen A erhält man aussagekräftige Frequenzschätzwerte ωA . Durch die Verwendung verschränkter Zustände erhält man also ein anderes Potenzgesetz für den Frequenzfehler ∆ωN . ∆ωN ∼ N β (5.7) Bei der unverschränkten Messmethode ist β = − 21 , bei der verschränkten aber β = −1. 5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel Adaptive Methoden liefern beim Schätzen von reinen Qubits ohne Verwendung von Verschränkung Ergebnisse, den optimalen, auf Verschränkung beruhenden, Messmethoden sehr nahe kommen (Kapitel 4). Deshalb stellt sich die Frage, ob β ≈ −1 auch mit unverschränkten Atomen erreicht werden kann, wenn man nicht immer in σ̂x -Richtung misst, sondern die Messrichtung adaptiert. Das in [13] beschriebene Prinzip, das im letzten Abschnitt kurz zusammengefasst wurde, garantiert, dass die zu schätzenden Zustände (5.1) auf dem Äquator liegen, also θ = π2 . Deshalb entspricht diese Messung dem Zustandsschätzen mit dem A-prioriWissen, dass sich der unbekannte Zustand auf dem Äquator befindet. Die vorgestellten adaptiven Schätzmethoden können also auf dieses Problem angewendet werden, wobei sich der Aufwand deutlich verringert, da die Maximierung nicht mehr bezüglich zweier sondern nur noch bezüglich einer Variablen, nämlich φ, vorgenommen werden muss. Im Folgenden wird die im letzten Abschnitt diskutierte Methode des Auszählens von Spinmessergebnissen mit zwei in den Kapiteln 3 und 4 verwendeten Methoden verglichen. Dazu werden wiederum Monte-Carlo-Simulationen über 10.000 Messläufe durchgeführt. Dann wird aus den erhaltenen geschätzten Zuständen die Standardabweichung der Frequenz berechnet, und mit den Gleichungen (5.4) und (5.6) verglichen, oder falls möglich der Exponent β von Gleichung (5.7) bestimmt, wobei t = 1 gesetzt wird. 65 5 Frequenzmessungen 5.2.1 Auszählmethode Die Methode aus [13] lässt sich in der Sprache der adaptiven Schätzmethoden folgendermaßen beschreiben: Es wird bei allen Messungen der gleiche Referenzzustand, nämlich der σ̂x -Eigenzustand √12 (|0! + |1!), verwendet. Der eigentliche Schätzvorgang erfolgt nicht durch eine Likelihood-Maximierung, sondern durch Gleichsetzen der erhaltenen Messwertverteilung mit der Wahrscheinlichkeitsverteilung des Messwerts, Gleichung (5.3). Diese Methode erlaubt keine Adaption, da die Gleichheit der Messrichtungen für alle Messunge eine wesentliche Bedingung für die Verbindung relativer Häufigkeit und Wahrscheinlichkeit, Gleichung 5.2, ist. Eine Monte-Carlo-Simulation, deren Ergebnisse in Abbildung 5.1(b) dargestellt ist, bestätigt gut den Exponenten β = −0,5 in Beziehung (5.4). !Ω ln!!Ω" 1.2 1 0.5 1 1.5 2 2.5 3 ln N -0.25 0.8 -0.5 0.6 -0.75 0.4 -1 0.2 -1.25 10 20 30 40 50 60 (a) 70 Schritte, lineare Auftragung 70 N (b) 21 Schritte, logarithmische Auftragung Abbildung 5.1: Auszählmethode. Bei doppeltlogarithmischer Auftragung kann man eine Regressionsgerade an die Messpunkte fitten. Diese hat die Steigung −0,511. Die erwartete Abhängigkeit ∆ω ∼ √1N wird bestätigt. 66 5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel 5.2.2 Zufällige Referenzen Vor der Anwendung einer echt adaptiven Methode sei hier das Zustandsschätzen mit zufälligen Referenzzuständen untersucht. Hier bestehen zwei technische Unterschiede zur Auszählmethode: 1. Es wird nicht mehr nur in eine Richtung, nämlich die σx -Richtung, gemessen. 2. Wegen der Verwendung unterschiedlicher Messrichtungen können nicht mehr einfach die Messergebnisse ausgezählt und mit der Wahrscheinlichkeitsverteilung gleichgesetzt werden, wie in der Zuordnung (5.2), da hier für jede Messung eine andere Wahrscheinlichkeit gilt. Stattdessen wird die Likelihood (2.1) maximiert. Da weder eine Adaption durchgeführt noch Verschränkung verwendet wird, kann man also erwarten, dass es kein wesentlicher Unterschied zur Auszählmethode auftritt. Überraschenderweise findet man aber die in Abbildung 5.2 dargestellten Werte für den Frequenzfehler. !Ω 1.2 ln!!Ω" 1 1 0.8 2 3 4 ln N -0.5 0.6 -1 0.4 -1.5 0.2 10 20 30 40 50 60 (a) 70 Schritte, lineare Auftragung 70 N -2 (b) 70 Schritte, logarithmische Auftragung Abbildung 5.2: Zufällige Referenzen. Das Potenzgesetz (5.7) gilt hier nicht mehr; der Exponent β in ∆ω ∼ N β ist nicht unabhängig von N . Zuerst sinkt der Fehler ∆ω langsamer als N −0,5 , dann schneller. Die Ausgleichsgerade hat die Steigung −0, 558. Für kleine N ist diese Methode schlechter als die Auszählmethode, ab N = 10 erkennt man aber in der logarithmischer Auftragung ein lineares Verhalten mit Steigung −0, 558. Dies ist betragsmäßig größer als bei der Auszählmethode. Die Fehler werden aber erst ab N ≈ 110 kleiner. Bei N = 210 beträgt der Frequenzfehler ∆ω ≈ 0, 069 gegenüber ∆ω ≈ 0, 071 aus der Auszählmethode, was innerhalb der numerischen Genauigkeit gleich ist. 67 5 Frequenzmessungen 5.2.3 Fidelity-Maximierung Um eine Verkleinerung der Frequenzfehler zu erreichen verwenden wir nun die beste gefundene Adaptionsmethode, die unvollständige Fidelity-Maximierung. Die Frequenzfehler dieser Methode sind in Abbildung 5.3 zu finden. !Ω ln!!Ω" 1.2 1 0.5 1 1.5 2 2.5 3 ln N -0.2 0.8 -0.4 0.6 -0.6 0.4 -0.8 -1 0.2 -1.2 5 10 15 (a) 21 Schritte, lineare Auftragung 20 N (b) 21 Schritte, logarithmische Auftragung Abbildung 5.3: Fidelity-Maximierung. Man erhält in guter Näherung ein Potenzverhalten ∆ω ∼ N β , mit β = −0,486. In der logarithmischen Auftragung erhält man eine Gerade mit einer Steigung β ! −0,5, die Werte von ∆ω weichen aber für größere N von der Regressionsgeraden nach unten ab. Die Adaption führt also nicht zu einer qualitativ besseren Konvergenz, sondern es bleibt bei dem Exponenten −0, 5 in Gleichung (5.6). Darüber hinaus hat die Adaption auch für kleine N keine Vorteile! Die Adaption liefert sogar minimal schlechtere absolute Werte, wie man am direkten Vergleich der Graphen in Abbildung 5.4 erkennt. 5.2.4 Vergleich der Schätzmethoden Wie man aus Abbildung 5.4 ablesen kann, liefert die adaptive Methode der FidelityMaximierung Werte, die praktisch identisch zu denen der Auszählmethode sind. Dies ist insofern verwunderlich, als man durch die Adaption eine Verbesserung gegenüber nichtadaptiven Methoden erwarten würde. Gegenüber der zufälligen Referenzwahl tritt durch die Adaption auch eine Verbesserung auf; allerdings sind die Frequenzfehler bei den zufälligen Referenzen um so viel höher als die der Auszählmethode, dass diese Verbesserung gerade ausgeglichen wird, so dass die adaptive Methode praktisch dieselben Werte wie 68 5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel 1,2 1,1 Auszählen der Messergebnisse zufällige Referenzen Fidelity-Maximierung 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 N Abbildung 5.4: Vergleich der Schätzmethoden. Auszählmethode und Fidelity-Maximierung liefern vergleichbare Ergebnisse, während bei zufälligen Referenzen größere Fehler auftreten. die nichtadaptive Auszählmethode liefert. Auch der Nachteil der zufälligen Referenzen gegenüber der Auszählmethode ist unerwartet, man würde annehmen, dass falls es überhaupt einen Unterschied geben sollte, die gleichverteilten zufälligen Referenzen besser Abschneiden sollten als die Auszählmethode, bei der immer nur eine Messrichtung verwendet wird. Die Messrichtungen sind jedoch nicht der einzige Unterschied zwischen den beiden Methoden: Bei den zufälligen Referenzen beruht das Zustands- und damit das Frequenzschätzen auf der Likelihood-Maximierung (2.2), beim Auszählen wird direkt Gleichung (5.2) invertiert. Inwieweit das Auswirkung auf die Frequenzfehler hat, wäre eine interessante Fortführung dieser Arbeit. 69 5 Frequenzmessungen 70 6 Zusammenfassung Das Schätzen eines unbekannten Qubits ist unter Verwendung von Messungen, die ausschließlich auf Symmetrieeigenschaften beruhen, möglich. Die adaptive Methode der Maximierung der Fidelity, die nach der nächsten Messung erwartet wird, liefert eine signifikante Verbesserung der Schätzwerte gegenüber nichtadaptiven Verfahren. Dagegen führt die Verwendung eines Verfahrens, das die Entropie der Messinformation maximiert, zu schlechteren Schätzergebnissen. Die Ergebnisse sind sogar schlechter als die aus nichtadaptiven Verfahren. Das bedeutet, die Adaption verschlechtert aktiv die Schätzwerte. Dieses unerwartete Ergebnis ist mit einer immanenten Unzulänglichkeit der Symmetriemessungen zu erklären: Bei einer Symmetriemessung wird nur unterschieden, ob der Produktzustand |ψ! |r! im symmetrischen oder im antisymmetrischen Untervektorraum gefunden wird. Der erste Fall wird als Indiz für Gleichheit, der zweite für Ungleichheit von zu untersuchendem Qubit |ψ! und Referenzzustand |r! gewertet. Der symmetrische Untervektorraum enthält aber auch den Bell-Zustand |Ψ+ r !, der eher der Ungleichheit der beiden Zustände entspricht. Eine Entropie-Maximierung sorgt nicht nur für eine Gleichverteilung der Messergebnisse, sondern hat auch die „Nebenwirkung“, den Anteil von |Ψ+ r ! am symmetrischen Ergebnis zu maximieren; dadurch wird gerade die Unzulänglichkeit der Symmetriemessungen übermäßig gewichtet. Die Erklärung dieses Effekts wurde bei der Untersuchung vollständiger Bell-Messungen gefunden. Diese Messungen liefern wegen der im Vergleich zu den Symmetriemessungen besseren Ausnutzung der Messinformation Schätzungen, die nahe an den theoretisch bestmöglichen Ergebnissen liegen. Dabei ist darauf zu achten, welche Basis für die Bell-Zustände benutzt wird. Bei Verwendung der Referenzbasis erzielt man die besten Resultate. Überdies erhält man dann dieselben Ergebnisse wie, würde man statt der Bell-Messungen Spinmessungen durchführen. Eine ähnliche Analogie existiert auch für die Symmetriemessungen: Misst man nicht am Produktzustand |ψ! |r! sondern am verschränkten Zustand √12 (|ψ! |r! − |r! |ψ!), so löst sich das Problem der mangelhaften Informationsauswertung, und die Entropieadaption gelingt; aber dieselben Ergebnisse erhielte man auch durch Spinmessungen. 71 6 Zusammenfassung Die Maximierung der erwarteten Fidelity hat sich sowohl bei den Symmetrie- als auch den Bell-Messungen als die beste der untersuchten Adaptionsmethoden herausgestellt. Bei dieser Methode könnte man erwarten, man müsste das bereits gewonnene Vorwissen in Gestalt der Likelihood berücksichtigen. Es hat sich jedoch gezeigt, dass dies keine signifikanten Vorteile bringt. Die hier unvollständige Fidelity-Maximierung genannte Methode, in der das Vorwissen nur indirekt einfließt und die wesentlich weniger numerischen Aufwand erfordert, liefert praktisch gleichgute Schätzergebnisse. Um die untersuchten Methoden nicht nur auf das Schätzen eines vollständig unbekannten Zustands anzuwenden, wurde betrachtet, wie sie sich beim Schätzen der Abstände atomarer Energieniveaus mittels Ramsey-Spektroskopie verhalten – was dem Schätzen eines Qubits mit dem A-priori-Wissen, dass es sich auf dem Äquator der Bloch-Kugel befindet, entspricht. Dabei konnte, im Gegensatz zum Schätzen vollständig unbekannter Qubits, kein Vorteil der adaptiven Methoden gefunden werden. Dies liegt daran, dass das Standardauswertverfahren der Ramsey-Spektroskopie, die Auszählmethode, keine Adaption zulässt, und die in dieser Arbeit behandelten, auf Likelihood-Maximierung beruhenden, Verfahren einen Nachteil gegenüber der Auszählmethode aufweisen, der durch die Adaption nicht wettgemacht wird. Es ist eine interessante offene Frage, ob diese Situation durch eine andere Likelihood-Funktion oder ein gänzlich anderes Schätzverfahren verbessert werden kann. 72 Anhang A Visualisierung der Likelihoods Die Maximierung der Likelihood-Funktion (2.1) ist ein wesentlicher Teil der meisten in dieser Arbeit vorgestellten Schätzstrategien, da sie angibt, welches Qubit mit der höchsten Wahrscheinlichkeit die gemessene Ergebniskette erzeugt, und auf dieser Grundlage der geschätzte Zustand |ψνest ! bestimmt wird. Je mehr Information man durch weitere Messungen gewinnt, um so eindeutiger wird die Wahl von |ψνest !; die Likelihood entwickelt einen klaren Peak. Um eine Vorstellung zu geben, wie sich die Likelihood-Funktion mit den Messschritten entwickelt, ist sie im folgenden Beispiel als Funktion auf der Bloch-Kugel dargestellt. Abbildung A.1 zeigt die Entwicklung der Likelihood als Graustufendarstellung bei Symmetriemessungen (Abschnitt 3.1) mit per Shannon-Entropie-Adaption bestimmten Referenzzuständen (Abschnitt 3.5.1). Der rote Punkt bezeichnet das unbekannte Qubit. In der ersten Messung wurde mit dem Referenzzustand |0! das Ergebnis s gefunden, so dass der Zustand |0! geschätzt wird (blauer Punkt). Die zweite Messung lieferte des Ergebnis a, der nächste geschätzte Zustand muss deshalb auf dem Äquator liegen. Hier besteht Wahlfreiheit der Winkelvariable φest 2 . Sie wird hier auf 0 gesetzt. Die Notwendigkeit einer Wahl bricht die azimutale Symmetrie; die Likelihood-Maximierung liefert ab jetzt beide Winkel. Die Messungen 4 und 5 ändern weder das geschätzte Qubit noch die prinzipielle Form der Likelihood. Messung 6 jedoch vermindert die Likelihood am vorherigen Maximum so weit, dass sie zwei gleich hohe Maxima aufweist, von denen das „linke“ gewählt wird. Die nächste Messung gewichtet aber das „rechte“ Maximum stärker, so dass sich der geschätzte Zustand wiederum ändert. Die weiteren Messungen liefern keine eindeutigen Ergebnisse, so dass der vermutete Zustand immer neuen Punkten auf der Bloch-Kugel entspricht. Erst mit Messung 18 wird der aktuell geschätzte Zustand, der eine Fidelity von 75,6% hat, so weit bestätigt, dass große Teile der Bloch-Kugel eine relativ kleine Likelihood zugewiesen bekommen. Messung 20 verbessert den Schätzwert 73 Anhang A Visualisierung der Likelihoods 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (a) N = 1 2 3 Φ 4 5 6 4 5 6 4 5 6 4 5 6 (b) N = 2 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (c) N = 3 2 3 Φ (d) N = 4 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (e) N = 5 2 3 Φ (f ) N = 6 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ (g) N = 7 4 5 6 0 0 1 2 3 Φ (h) N = 8 Abbildung A.1: Likelihood bei Symmetriemessungen mit Entropiemaximierung 74 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (i) N = 9 2 3 Φ 4 5 6 4 5 6 4 5 6 4 5 6 (j) N = 10 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (k) N = 11 2 3 Φ (l) N = 12 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (m) N = 13 2 3 Φ (n) N = 14 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ (o) N = 15 4 5 6 0 0 1 2 3 Φ (p) N = 16 Abbildung A.1: Likelihood bei Symmetriemessungen mit Entropiemaximierung 75 Anhang A Visualisierung der Likelihoods 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ 4 5 0 6 0 1 (q) N = 17 2 3 Φ 4 5 6 4 5 6 (r) N = 18 3 3 2 2 Θ Θ 1 0 1 0 1 2 3 Φ (s) N = 19 4 5 6 0 0 1 2 3 Φ (t) N = 20 Abbildung A.1: Likelihood bei Symmetriemessungen mit Entropiemaximierung. Hier sind die ersten 20 Schritte für einen charakteristischen Lauf der Shannon-Entropie-Maximierung (Abschnitt 3.5.1) bei Symmetriemessungen (Abschnitt 3.1) dargestellt. Die Bilder zeigen eine Abwicklung der Bloch-Kugel, in der die Likelihood in Graustufen kodiert ist; helle Gebiete entsprechen hoher Likelihood, in dunklen Bereichen ist sie klein. Die Position des zu schätzenden Qubits ist durch den roten Punkt gekennzeichnet; der blaue Punkt bezeichnet das Maximum der Likelihood, entspricht also dem momentan geschätzten Zustand. 76 auf eine Fidelity von 96,4%, was durch die folgenden Messungen bestätigen. Die gezeigte Simulation einer Messreihe ist insofern typisch, als sie sowohl das erratische Verhalten während der ersten Schritte als auch die Konvergenz zu einem guten Schätzwert demonstriert. Allerdings zeigen die meisten Läufe weniger Wechsel des vermuteten Zustands und mit dem dargestellten Lauf erhält man eine Fidelity die über dem durchschnittlichen Wert dieser Mess- und Adaptionsmethode von 77,0% liegt. 77 Anhang A Visualisierung der Likelihoods 78 Anhang B Streuung der Schätzergebnisse Um die Streuung der Schätzergebnisse zu quantifizieren, wurden in dieser Arbeit neben den mittleren Fidelities zwischen zu vermessendem und geschätztem Zustand auch ihre Varianzen angegeben. In diesem Anhang soll eine Vorstellung von dieser Streuung, also der Verteilung der in den einzelnen Simulationsläufen erzielten Fidelities, gegeben werden. Dazu ist in Abbildung B.1 die Verteilung der Fidelities bei Symmetriemessungen (Abschnitt 3.1) und vollständiger Fidelity-Maximierung dargestellt (Abschnitt 3.6.2). Es zeigt sich, dass die Fidelities einer Exponentialverteilung folgen, und nicht wie vielleicht erwartet werden könnte, einer glockenförmigen Verteilung mit Maximum bei der mittleren Fidelity. Selbst bei schlechten mittleren Fidelities liefert die relative Mehrheit der Läufe gute Fidelities, das Maximum der Verteilungen liegt bei F = 1. Für Exponentialverteilungen der Form f (x) = 1 −x e σ σ gilt nicht nur, dass die Varianz ein sinnvolles Maß der Streuung ist, sondern sogar dass Varianz σ und Mittelwert gleich sind. Die Verteilungen der Fidelity haben die Form f (F ) = √ es gilt deshalb √ 1 ∆F 2 − √1−F e ∆F 2 ∆F 2 = 1 − F . Was die angegebenen Zahlenwerte für größere Schrittzahlen (ab N ≈ 10) in guter Näherung bestätigen. 79 Anhang B Streuung der Schätzergebnisse n n 300 200 250 150 200 150 100 100 50 50 0.2 0.4 0.6 0.8 √ (a) 3 Schritte, F = 0,66, ∆F 2 = 0,26 1 F n 0.2 0.4 0.6 0.8 √ (b) 5 Schritte, F = 0,71, ∆F 2 = 0,24 1 F n 800 400 600 300 400 200 200 100 1 0.6 0.8 √ 2 (c) 10 Schritte, F = 0,79, ∆F = 0,20 0.2 0.4 F 1 0.6 0.8 √ 2 (d) 20 Schritte, F = 0,87, ∆F = 0,15 0.2 0.4 F Abbildung B.1: Fidelity-Verteilung bei Symmetriemessungen mit FidelityMaximierung. Die Histogramme zeigen die Verteilung der Fidelity F zwischen unbekanntem und geschätztem Zustand bei Verwendung der vollständigen Fidelity-Maximierung (Abschnitt 3.6.2) für Symmetriemessungen (Abschnitt 3.1). Dazu wurde der Wertebereich der Fidelity [0, 1] in 100 Intervalle aufgeteilt, und für jeden Balken die Zahl der Schätzergebnisse n aufaddiert, deren Fidelity im zugehörigen Intervall liegt. Wie man sieht, werden bereits nach wenigen Schritten hohe Fidelities deutlich bevorzugt und prägt sich eine exponentielle Verteilung aus, deren Standardabweichung mit wachsender Schrittzahl deutlich abnimmt. 80 Anhang C Realisierung der Simulation C.1 Anpassung des Messverfahrens zur Simulation Das Ziel einer Adaption in einem Experiment ist es, möglichst genaue Information über ein reales unbekanntes Qubit in einer einzigen Messreihe zu erhalten. In der vorliegenden Arbeit wird die Güte der einzelnen Verfahren beurteilt. Dazu reicht es nicht eine einzelne Messreihe durchzuführen oder zu simulieren, sondern es muss über eine statistisch signifikante Anzahl von Messreihen gemittelt werden. Dabei wird statt einer realen quantenmechanischen Messung eine Monte-Carlo-Simulation durchgeführt. Dabei wird folgendermaßen vorgegangen (vergleiche Abschnitt 3.3): • Man wählt zuerst zufällig einen zu bestimmenden Zustand |ψ!. Als erster Ruler wird immer |r1 ! = |0! verwendet. • Man berechnet in jedem Schritt ν die Wahrscheinlichkeit pa den Produktzustand |ψ!M |rν !R im antisymmetrischen Untervektorraum zu finden, und vergleicht sie mit einer Zufallszahl aus dem Intervall [0, 1]. Ist die Zufallszahl kleiner als pa , gilt das als „Messung“ von a, sonst als s. So erreicht man eine den Wahrscheinlichkeiten entsprechende Verteilung der simulierten Messwerte. • Nun berechnet man die Likelihood (2.1) in Abhängigkeit von allen vorherigen Messungen und bestimmt ihr Maximum. Seine Position entspricht dem Zustand, der am besten mit den simulierten Messwerten im Einklang ist. • Der Referenzzustand nimmt die Rolle der zu adaptierenden Messparameter ein. Als nächster Referenzzustand wird ein je nach Adaptionsstrategie gewähltes Qubit festgelegt. 81 Anhang C Realisierung der Simulation • Simulation der Messung, Likelihoodmaximierung und Wahl des neuen Referenzzustands werden für alle N Schritte wiederholt. Das Ergebnis der letzten Likelihoodmaximierung ist der für diese Messreihe, diesen Lauf endgültig geschätzte Zustand. • Zur Beurteilung der Strategie führt man eine statistisch signifikante Anzahl von Läufen, in unserem Fall 10.000, mit verschiedenen, über die Bloch-Kugel gleichverteilten „unbekannten“ Zuständen durch. Zuerst wurde eine solche Simulation in Mathematica 5.2 implementiert. Aus Effizienzgründen musste die Simulation aber neu in C geschrieben werden, um statistisch signifikante Ergebnisse für höhere N zu erhalten. Alle in dieser Arbeit vorgestellten numerischen Ergebnisse stammen deshalb aus Simulationen in C, kompiliert mit gcc 3.3.5. Für Zufallszahlenerzeugung, numerische Maximierung und numerische Integration wurde die freie C-Bibliothek GNU Scientific Library (GSL) in Version 1.8 verwendet. Wenn nicht anders angegeben, wurde jeweils über 10.000 Läufe (simulierte Messreihen) gemittelt. C.2 Wahl zufälliger Qubits Eine Grundvoraussetzung für erfolgreiche Monte-Carlo-Simulationen ist, dass die zufälligen Werte gleichverteilt sein müssen. Wie dies für die simulierten Messwerte bewerkstelligt wird ist in Abschnitt 2.4 beschrieben. Aber auch die zu schätzenden Zustände müssen gleichverteilt über die Bloch-Kugel sein. Um dies zu erreichen, kann man von zwei gleichverteilten Zufallszahlen x, y ∈ [0, 1] ausgehen und daraus die Winkelparameter des zu wählenden Zustands gemäß θ = arccos (1 − 2x) , φ = 2πy bestimmen. Wie man leicht zeigen kann, führt diese Wahl gerade zu der gewünschten Gleichverteilung über die Bloch-Kugel. C.3 Numerische Maximierung Die Likelihood-Funktion, deren Maximum das zu schätzende Qubit angibt, kann wegen ihrer Abhängigkeit von allen vorherigen Messwerten, nicht allgemein analytisch maxi- 82 C.3 Numerische Maximierung miert werden. Dasselbe gilt auch sowohl für die Maximierung der erwarteten Fidelity mit Vorwissen als auch für einige entropiebasierte Adaptionsmethoden. Um das Maximum innerhalb der Simulation zu bestimmen, wurde eine numerische Methode zur Maximierung verwendet, nämlich der Broyden-Fletcher-Goldfarb-Shanno-Algorithmus. Bei diesem handelt es sich um eine Quasi-Newton-Methode; das Maximum wird also durch einen Test des Gradienten gefunden. Dabei treten zwei Probleme auf: Die Gradiententest gilt als erfüllt, wenn der Betrag des Gradienten unter eine vorgegebene Toleranzschwelle sinkt. Die Wahl dieser Toleranz ist immer ein Kompromiss zwischen Rechengenauigkeit und Ressourcenverbrauch. Die wesentlichere Schwierigkeit liegt aber darin begründet, dass das Maximierungsverfahren lokal arbeitet, das heißt, die zu maximierende Funktion immer nur an einem Punkt untersucht wird. So wird immer das einem willkürlich zu wählenden Startpunkt im Sinne des Maximierungsverfahrens am nächsten liegende lokale Maximum gefunden. Es kann aber nicht mit Sicherheit angegeben werden, ob es sich bei diesem Maximum auch um ein globales handelt. Deshalb wurde in der Simulation nach jedem Maximierungsaufruf, ein Satz von Punkten auf der Bloch-Kugel mit dem „Maximumkandidaten“ verglichen, und falls ein größerer Funktionswert gefunden wurde, die Maximierung mit diesem Punkt als Anfangswert neu gestartet. Dieses Vorgehen garantiert natürlich nicht, dass nur globale Maxima gefunden werden, liefert aber für die Anwendung im Rahmen dieser Arbeit hinreichende Ergebnisse. 83 Anhang C Realisierung der Simulation 84 Anhang D Symmetriemessungen am Strahlteiler Wie man Symmetriemessungen am Strahlteiler durchführen kann, schnitt (3.2) beschrieben; die Berechnung der Wahrscheinlichkeiten der wurde aber übersprungen. Hier wird gezeigt, dass sich in der Tat auch die in Abschnitt (3.1) angegebenen Wahrscheinlichkeiten, Gleichungen ergeben. wurde in AbMessergebnisse am Strahlteiler (3.5) und (3.6) Man legt an die beiden Eingangsmoden das Strahlteilers den Produktzustand |rν ! |ψ! an. Ohne Beschränkung der Allgemeinheit, liege an Mode 0 der Referenzzustand |rν ! und an Mode 1 der unbekannte Zustand |ψ!. Letzterer |ψ! = sin θ2 |0! + eiφ cos 2θ |1! wird für die Strahlteilertransformation geschrieben als |ψ!1 = c1H |1H 0V !1 + c1V |0H 1V !1 2 3 † † = c1H â1H + c1V â1V |0H 0V !1 (D.1) mit c1H = cos 2θ und c1V = eiφ sin θ2 . Analog ist % & + |rν !0 = c0H â+ 0H + c0V â0V |0H 0V !0 (D.2) mit c0H = cos ϑ2ν und c0V = eiϕν sin ϑ2ν . Dabei ist das logische Qubit |0!M in horizontaler und |1!M in vertikaler Polarisation kodiert. Die Notation |nH mV ! bedeutet dann, n horizontal polarisierte und m vertikal polarisierte Photonen; die Zahlen selbst geben nicht mehr die Polarisation an. Mit den Strahlteilertransformationen â0 = √12 (â2 − â3 ) und â1 = √12 (â2 + â3 ) für sowohl horizontale als auch vertikale Polarisation kann man den Zustand |out! hinter 85 Anhang D Symmetriemessungen am Strahlteiler dem Strahlteiler berechnen. 33 3 2 2 1 2 |out! = √ c0H â†2H − â†3H + c0V â†2V − â†3V 2 2 3 2 33 1 2 √ c1H â†2H + â†3H + c1V â†2V + â†3V |0H 0V !2 |0H 0V !3 2 % & 12 = c0H c1H |2H 0V !2 |0H 0V !3 − |0H 0V !2 |2H 0V !3 2 % + c0H c1V |1H 1V !2 |0H 0V !3 − |0H 1V !2 |1H 0V !3 & + |1H 0V !2 |0H 1V !3 − |0H 0V !2 |1H 1V !3 % + c0V c1H |1H 1V !2 |0H 0V !3 − |1H 0V !2 |0H 1V !3 & + |0H 1V !2 |1H 0V !3 − |0H 0V !2 |1H 1V !3 % &3 + c0V c1V |0H 2V !2 |0H 0V !3 − |0H 0V !2 |0H 2V !3 (D.3) Die Photonen auf beide Moden verteilt zu finden, entspricht den Zuständen |0H 1V !2 |1H 0V !3 und |1H 0V !2 |0H 1V !3 . Durch Ablesen findet man aus Gleichung (D.3) dass die Wahrscheinlichkeit ein Photon pro Detektor zu finden ! !2 ! 1 !! iφ θ ϑν θ ϑ 1 ν 2 |c0H c1V − c0V c1H | = !e sin cos − eiϕν cos sin !! = pa 2 2 2 2 2 2 mit pa aus Gleichung (3.5) identisch ist; vorausgesetzt man unterscheidet die Polarisationen der detektierten Photonen, was mit polarisierenden Strahlteilern möglich ist. Genauso ist die Wahrscheinlichkeit einen anderen Zustand zu finden ps , Gleichung (3.6). Der 50:50-Strahlteiler realisiert also tatsächlich die Symmetriemessungen. 86 Anhang E Erwartete Fidelity bei vollständiger Fidelity-Maximierung In Abschnitt 3.6.2 wird die vollständige Fidelity-Maximierung beschrieben. Dabei wird exp erwähnt, dass die erwartete Fidelity F ν+1 durch elementare Umformungen auf eine Form gebracht werden kann, in der der Integrand nicht mehr von den geschätzten Zuständen ! est " ! est " !ψν+1,a und !ψν+1,s abhängt. Diese Form ist hier angegeben. exp Bei der vollständigen Fidelity-Maximierung war die erwartete Fidelity F ν+1 , Gleichung (3.32): exp F ν+1 exp ∼ # %! est " & Lν ({αi } , {|ri !} , |ψ!) (pa (|rν+1 ! , |ψ!) · F !ψν+1,a , |ψ! %! est " & +ps (|rν+1 ! , |ψ!) · F !ψν+1,s , |ψ! )dΩψ F ν+1 hängt dann auch direkt von allen vorherigen Messergebnissen und dazugehörigen Referenzzuständen ab. Damit kann das Integral nicht mehr analytisch berechnet werden. Stattdessen muss in jedem Schritt eine Monte-Carlo-Integration durchgeführt werden. 87 Anhang E Erwartete Fidelity bei vollständiger Fidelity-Maximierung exp Wird diese Integration bei jeder Berechnung eines Zahlenwertes von F ν+1 bei der Maximierung ausgeführt, wird die Simulation sehr aufwendig. Allerdings lässt sich die Berechnung aufgrund der Struktur des Integrals vereinfachen. Man kann nämlich mittels elementarer Umformungen das Integral # exp F ν+1 ∼ Lν ({αi } , {|ri !} , |ψ!) · . 2 3 1 · 3 + cos θ cos ϑν+1 + cos(φ − ϕν+1 ) sin θ sin ϑν+1 · 4 3 12 est est · 1 + cos θ cos θν+1,s + cos(φ − φest ) sin θ sin θ ν+1,s ν+1,s + 2 3 12 1 − cos θ cos ϑν+1 − cos(φ − ϕν+1 ) sin θ sin ϑν+1 · + 4 3/ 12 est est est · 1 + cos θ cos θν+1,a + cos(φ − φν+1,a ) sin θ sin θν+1,a dΩ 2 auf die Form einer Summe von Integrationen bringen, aus denen die Variablen ϑν+1 , est est est ϕν+1 , θν+1,a , φest ν+1,a , θν+1,s und φν+1,s herausgezogen werden können: & % exp est est F ν+1 ∼ I0 + I1 3 cos θν+1,s + cos θν+1,a % & est est est +I2 3 cos φest ν+1,s sin θν+1,s + cos φν+1,a sin θν+1,a % & est est est +I3 3 sin φest ν+1,s sin θν+1,s + sin φν+1,a sin θν+1,a % & est est +I4 cos ϑν+1 cos θν+1,s − cos θν+1,a % & est est +I5 sin ϑν+1 cos ϕν+1 cos θν+1,s − cos θν+1,a % & est est +I6 sin ϑν+1 sin ϕν+1 cos θν+1,s − cos θν+1,a % & est est est +I7 sin ϑν+1 cos ϕν+1 cos φest ν+1,s sin θν+1,s − cos φν+1,a sin θν+1,a % & est est est +I8 sin ϑν+1 cos ϕν+1 sin φest ν+1,s sin θν+1,s − sin φν+1,a sin θν+1,a & % est est est +I9 sin ϑν+1 sin ϕν+1 cos φest ν+1,s sin θν+1,s − cos φν+1,a sin θν+1,a % & est est est +I 10 sin ϑν+1 sin ϕν+1 sin φest ν+1,s sin θν+1,s − sin φν+1,a sin θν+1,a , (E.1) 88 mit den Koeffizienten I0 = 4 # I1 = # I2 = # I3 = # I4 = # I5 = # I6 = # I7 = # I8 = I9 = # I10 = # Lν dΩ Lν cos θ dΩ Lν sin θ cos φ dΩ Lν sin θ sin φ dΩ Lν cos2 θ dΩ Lν sin θ cos θ cos φ dΩ Lν sin θ cos θ sin φ dΩ Lν sin2 θ cos2 φ dΩ Lν sin2 θ cos φ sin φ dΩ Lν sin2 θ sin2 φ dΩ. (E.2) Deshalb können bei jeder Fidelity-Maximierung zuerst diese neun Integrale berechnet werden, und danach kann man ohne weitere Integrationen numerisch das Maximum bestimmen. 89 Anhang E Erwartete Fidelity bei vollständiger Fidelity-Maximierung 90 Anhang F Vergleich mit der Adaptionsmethode aus [3] Hier wird gezeigt, inwieweit der auf Transformation und Symmetriemessung aufbauende Algorithmus, beschrieben in Abschnitt 3.8, mit dem in [3, 4] untersuchten Algorithmus, der auf Spinmessungen beruht, äquivalent ist. F.1 Beschreibung des unbekannten Zustands durch die vorhandene Information Im Symmetriealgorithmus wird nach jedem Schritt ein vermuteter Zustand |ψnest ! angegeben. Im Gegensatz dazu wird der unbekannte Zustand in [4] durch eine Dichtematrix ρ̂n = # wn (ϑ, ϕ) |ϑ, ϕ! $ϑ, ϕ| dΩ beschrieben. Wie im Weiteren gezeigt wird, ist dieser zuerst gravierend erscheinende Unterschied gar nicht so bedeutend. F.2 Adaption Der neue Zustand |ψnest ! wird im Symmetrie-Algorithmus durch eine Maximierung der Likelihood (3.15) Ln (θ, φ) = n $ ν=1 pαν (|ψ! , |rν !) = n $ pαν (θ, φ, ϑν , ϕν ) ν=1 91 Anhang F Vergleich mit der Adaptionsmethode aus [3] berechnet.∗ Dabei ist pαν die Wahrscheinlichkeit bei der Symmetriemessung mit dem Referenzzustand |rν ! das Ergebnis a respektive s zu erhalten, vorausgesetzt es lag der Zustand |ψ! vor. In [4] wird die Verteilung wn nach der Bayes’schen Regel bestimmt: wn (ϑ, φ) = Z −1 Pαn (θ, φ, ϑn , ϕn )wn−1 (ϑ, ϕ) Hier ist Pαν die Wahrscheinlichkeit bei der Spin-Messung in Richtung von |rn ! = cos ϑn ϑn |0! + eiϕn sin |1! 2 2 das Ergebnis αν = 0 beziehungsweise αν = 1 zu erhalten, unter der Voraussetzung dass der unbekannte Zustand durch die Integrationsvariablen (θ, φ) beschrieben wird. Als 1 gewählt. Anfangswert wird die Gleichverteilung w0 = 4π Da nach der Betrachtung aus Abschnitt 3.8, wenn man vor der Messung die dort beschriebene Transformation durchführt, die Funktionen pαν und Pαν gleich sind, gilt auch Ln (θ, φ) ∼ wn (θ, φ), das heißt L und w sind bis auf die Normierung von w gleich. Der einzige Unterschied zwischen beiden Adaptionsverfahren liegt also darin, dass beim Symmetriealgorithmus nach jeder Messung |ψnest ! berechnet wird, in [4] dagegen erst nachdem alle Messungen abgeschlossen wurden. Das Ergebnis der Likelihoodmaximierung |ψnest ! wird aber nur für die Wahl des nächsten Referenzzustand benötigt, und hat nur darüber indirekten Einfluss auf die Likelihood im nächsten Schritt. F.3 Optimierung Im bisherigen Symmetriealgorithmus (ohne vorhergehende Transformation) erfolgt die Wahl des nächsten Referenzzustands |rn ! durch die Maximierung der Entropie S = −pa log2 pa − ps log2 ps ! ! est mit pa = ps = 12 , was automatisch zur Wahl |rn ! = !ψ n führt. Da die Transformation pa verbessert, erhält man beim Algorithmus mit Transformation die maximale Entropie für: ∗ Die Wahrscheinlichkeiten pαν sind symmetrisch unter einer Vertauschung der Argumente. Durch eine solches Vertauschen von |ψ! und |rν ! und eine Umbenennen der Summationsindizes wurde die Notation an die aus [3, 4] angepasst. 92 F.3 Optimierung ! -3 " 1 2! ! est |rn ! = √ !ψnest + eiδ !ψ n 2 In [4] wird unter anderem ebenfalls eine entropische Optimierungsmethode verwendet (maximization of average information gain). Dort verwendet man aber nicht nur das Maximum der Likelihood zur Beschreibung der bisher gewonnenen Information, sondern die gesamte Verteilung (Likelihood) wn . Denn es wird die Entropie S = −p0 log2 p0 − p1 log2 p1 mit den Wahrscheinlichkeiten pαν = $ϑn , ϕn | ρ̂n |ϑn , ϕn ! = # wn (θ, φ)Pi (θ, φ, ϑn , ϕn )dΩ maximiert. Hier liegt also der einzige Unterschied zum Algorithmus mit SymmetrieMessung vor, bei dem nicht mit einer Dichtematrix, sondern mit dem reinen Zustand größter Likelihood gerechnet wird. Formal würde dem entsprechen, wenn man im Spinmessungsalgorithmus die “richtige” Verteilung durch einen Delta-Peak am Maximum ersetzen würde. 93 Anhang F Vergleich mit der Adaptionsmethode aus [3] 94 Anhang G Varianz der Frequenzmessung In Abschnitt 5.1 wird eine Unschärferelation, Gleichung (5.4), für Messzeit und Frequenzfehler angegeben. Diese wird hier hergeleitet. Dazu geht man von der Beziehung zwischen Frequenz und relativer Häufigkeit der Messergebnisse, Gleichung (5.3), aus: N+ 1 = (1 + cos ωN t) =: p+ (N) N 2 (G.1) Für große N geht die geschätzte Frequenz ωN gegen den gesuchten Wert ω, da ja p+ = p+ (N → ∞) = 1 (1 + cos ωt) 2 (G.2) die Wahrscheinlichkeit ist, Spin up zu messen. Man beachte den Unterschied zwischen der Wahrscheinlichkeit p+ und dem Wert p+ (N), der nur eine Abkürzung für das Verhältnis N+ ist. N Der Erwartungswert von p+ (N) beträgt: $p+ (N)! = N * N+ =0 4 N N+ 5 N p++ (1 − p+ )N −N+ p+ (N) (G.3) Auch ohne die Rechnung durchzuführen, weiß man, dass der Erwartungswert gleich p+ ist: 1 (G.4) $p+ (N)! = (1 + cos ωt) 2 Für das mittlere Quadrat gilt analog zu Gleichung (G.3) N * ' 2 " p+ (N) = N+ =0 4 N N+ 5 N p++ (1 − p+ )N −N+ p2+ (N), (G.5) 95 Anhang G Varianz der Frequenzmessung was sich vereinfachen lässt zu: ' 2 " 1 p+ (N) = p2+ + p+ (1 − p+ ) N (G.6) Damit lautet der mittlere quadratische Fehler 6 0 1 1 ∆p+ := $p2+ (N)! − $p+ (N)!2 = p+ (1 − p+ ) = √ sin ωt, N 2 N (G.7) woraus sich mittels |∆p+ | != ∆ωN = !! d*p+ (N )" ! ! dω ! √1 |sin ωt| 2 N 1 t |sin ωt| 2 1 = √ t N (G.8) der gesuchte Frequenzfehler berechnen lässt. Wenn man nun wie in Abschnitt 5.1 Messungen an verschränkten Atomen durchführt, muss man in der Rechnung lediglich N durch A = Nn und t durch nt ersetzen, und man erhält: 1 ∆ωA = √ (G.9) nt A 96 Literaturverzeichnis [1] D. Dieks; Communication by EPR Devices; Phys. Lett. A, 92, 271 (1982) [2] W. Wootters, W. Zurek; A Single Quantum Cannot be Cloned ; Nature, 299, 802 (1982) [3] D. Fischer, S. Kienle, M. Freyberger: Quantum-State Estimation by Self-Learning Measurements; Phys. Rev. A 61, 032306 (2000) [4] Dietmar G. Fischer: Quantum Information Processing with Finite Resorces (Dissertation); Mensch & Buch Verlag, 2002 [5] Thorsten C. Bschorr: Quantum Estimation Problems with Finite Resorces in Higher Dimensions (Dissertation); Mensch & Buch Verlag, 2006 [6] S. Barnett, A. Chefles, I. Jex: Comparison of Two Unknown Quantum Systems; Phys. Lett. A 307, 189 (2003) [7] I. Jex, E. Andersson, A. Chefles: Comparing the States of Many Quantum Systems; J. Mod. Opt. 51, 505 (2004) [8] A. Chefles, E. Andersson, I. Jex: Unambigious Comparison of the States of Multiple Quantum Systems; J. Phys. A: Math. Gen. 37, 7315 (2004) [9] S. Massar, S. Popescu: Optimal Extraction of Information from Finite Quantum Ensembles; Phys. Rev. Lett. 74, 1259 (1995) [10] R. Derka, V. Buzek, A. Ekert: Universal Algorithm for Optimal Estimation of Quantum States from Finite Ensembles via Realizable Generalized Measurement; Phys. Rev. Lett. 80, 1571 (1998) [11] E. Bagan, M. Baig, A. Monras, R. Muñoz-Tapia: Optimal Reconstruction of a Pure Qubit State with Local Measurements; quantph/0312167 (2003) 97 Literaturverzeichnis [12] K. Jones: Principles of Quantum Inference; Annals of Physic 207, 140 (1991) [13] S. Huelga, C. Macchiavello, T. Pellizzari, A. Ekert, M. Plenio, J. Cirac: Improvement of Frequency Standards with Quantum Entanglement; Phys. Rev. Lett. 79, 3865 (1997) [14] Norman F. Ramsey: Molecular Beams; Oxford University Press, 1963 [15] Y. Aharanov, S. Massar, S. Popescu: Measuring Energy, Estimating Hamiltonians, and the Time-Energy Uncertainty Relation; Phys. Rev. A 66, 052107 (2002) [16] C. Shannon: A Mathematical Theory of Communication; Bell System Tech. J. 27, 379, 623 (1948) [17] S. Kullback, R. Leibler: On Information and Sufficiency; Ann. Math. Stat. 22, 79 (1951) [18] Solomon Kullback: Information Theory and Statistics; Dover Publications, 1968 [19] R. Schack, T. Brun, C. Caves: Quantum Bayes Rule; Phys. Rev. A 64, 014305 (2001) [20] Hanns L. Harney: Bayesian Inference; Springer, 2003 [21] A. Uhlmann; The ’Transition Probability’ in the State Space of a *-Algebra; Rep. Math. Phys. 9, 273 (1976) [22] R. Jozsa; Fidelity for Mixed Qubits; J. Mod. Opt. 41, 2315 (1994) [23] Z. Hradil, J. Řeháček, J. Fiurášek, M. Ježek; Maximum-Likelihood Methods in Quantum Mechanics; in Matteo G. Paris, Jaroslav Řeháček (Herausgeber): Quantum State Estimation; Springer 2004 [24] Z. Hradil, J. Summhammer, G. Badurek, H. Rauch: Reconstruction of the Spin State; Phys. Rev. A 62, 014101 (2000) [25] N. Lütkenhaus, J. Calsamiglia, K. Suominen: Bell Measurements for Teleportation; Phys. Rev. A 59, 3295 (1999) [26] C. Hong, Z. Ou, L. Mandel: Measurement of Subpicosecond Time Intervals Between Two Photons by Interference; Phys. Rev. Lett. 59, 2044 (1987) 98 Literaturverzeichnis [27] Christopher C. Gerry, Peter L. Knight: Introductory Quantum Optics; Cambridge University Press, 2005 [28] Michael A. Nielson, Isaac L. Chuang: Quantum Computation and Quantum Information; Cambridge University Press, 2000 99 Literaturverzeichnis 100 Danksagung Ich möchte mich an dieser Stelle bei all jenen bedanken, die mir das Schreiben dieser Arbeit ermöglichten. Im Einzelnen gebührt mein Dank: Herrn Professor Matthias Freyberger, der mich nicht nur durch seine Vorlesung über Quanteninformation für dieses Forschungsgebiet begeistert, sondern auch den Hauptbericht zu dieser Arbeit übernommen hat und bei dem ich für meine Fragen jederzeit ein offenes Ohr fand; Herrn Professor Wolfgang Schleich für die freundliche Aufnahme in das Institut für Quantenphysik; und Herrn Professor Peter Reineker dafür, dass er sich als Zweitberichter zur Verfügung gestellt hat. Herr Reineker und Herr Schleich ebenfalls durch ihre Vorlesungen mein Interesse für die theoretische Physik geweckt und vertieft, auch dafür sei ihnen gedankt. Weiterhin möchte ich mich bei Herrn Professor Igor Jex bedanken, der an der Stellung des Diplomarbeitsthemas maßgeblich beteiligt war, mir einen kurzen Besuch an der Tschechischen Technischen Universität in Prag ermöglichte, und mir dort für Diskussionen zur Verfügung stand. Beim Verfassen der Arbeit war mir Ferdinand Gleisberg eine enorme Hilfe. Unter ungeheurem Zeitaufwand spürte er sowohl inhaltlicher Unklarheiten als auch sprachlicher Fehler auf. Außer ihm leisteten mir auch viele Mitglieder des Instituts durch das Korrekturlesen der Arbeit wertvolle Unterstützung. Ihnen allen sei hiermit herzlich gedankt. Stellvertretend für sie möchte ich hier Michael Bußhardt nennen, der mir auch sonst ein wertvoller Diskussionspartner, was physikalische und andere Themen anging, war. In der Anfangsphase meiner Diplomarbeit, bis er das Institut verließ, stand mir auch Stefan Probst-Schendzielorz, insbesondere bei der Implementation der Simulationen, zur Seite. Sie und alle anderen Institutsmitglieder trugen ihren Teil zum freundlichen, produktiven und überhaupt sehr angenehmen Arbeitsklima bei, dass mir meine Diplomandenzeit zum Vergnügen machte. Darüber hinaus will ich mich bei meinen Lehrern, sowohl denen an der Universität Ulm, die ich noch nicht genannt habe, als auch denen an der Kerschensteinerschule in Stuttgart bedanken, die mir immer wieder neu zeigten, wieviel Spaß Physik macht, und was für ein Privileg es ist studieren und jetzt in der Forschung arbeiten zu dürfen. Nicht zuletzt bin ich meinen Eltern – die mir nicht nur mein Studium erst möglich machten – und meiner Großmutter – an die ich mich immer wenden konnte, wenn es nötig war – zu Dank verpflichtet. 101 102 Erklärung Hiermit erkläre ich, diese Arbeit selbstständig und nur unter Verwendung der angegebenen Quellen und Hilfsmittel angefertigt zu haben. Ulm, den 31. Juli 2007 Christof Johannes Happ 103