Methoden des quantenmechanischen Zustandsvergleichs

Werbung
Methoden des
quantenmechanischen
Zustandsvergleichs
angewandt auf
adaptives Qubitschätzen
Diplomarbeit
von
Christof Johannes Happ
Institut für Quantenphysik
Universität Ulm
Juli 2007
Inhaltsverzeichnis
1 Einleitung
1.1 Gliederung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Grundlagen adaptiver Messungen
2.1 Adaptive Messungen . . . . . .
2.2 Qubit-Schätzen . . . . . . . . .
2.3 Adaptionsmethoden . . . . . . .
2.4 Monte-Carlo-Simulationen . . .
2.5 Ergebnisse früherer Arbeiten . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Symmetriemessungen
3.1 Prinzip der Symmetriemessung . . . . . . . . . . . . . . . . . .
3.2 Experimentelle Realisierung der Symmetriemessungen . . . . . .
3.3 Das vollständige adaptive Messverfahren . . . . . . . . . . . . .
3.4 Zufällige Referenzzustände . . . . . . . . . . . . . . . . . . . . .
3.5 Shannon-Entropie-Adaption . . . . . . . . . . . . . . . . . . . .
3.6 Fidelity-Maximierung . . . . . . . . . . . . . . . . . . . . . . . .
3.7 Qualität der Adaptionsstrategien und der Symmetriemessungen
3.8 Verbindungen zur Spin-Messung . . . . . . . . . . . . . . . . . .
4 Bell-Messungen
4.1 Prinzip der Bell-Messungen . . . . .
4.2 Rechenbasis . . . . . . . . . . . . . .
4.3 Referenzbasis . . . . . . . . . . . . .
4.4 Ergebnisse der Simulationen . . . . .
4.5 Vergleich mit anderen Messmethoden
4.6 Ist die Referenzbasis optimal? . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
6
7
.
.
.
.
.
9
9
10
13
15
17
.
.
.
.
.
.
.
.
19
19
21
23
24
25
40
46
46
.
.
.
.
.
.
51
51
52
54
58
59
61
3
Inhaltsverzeichnis
5 Frequenzmessungen
63
5.1 Energiemessungen und Verschränkung . . . . . . . . . . . . . . . . . . . 63
5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel . . . . . . . . . . . . 65
6 Zusammenfassung
71
A Visualisierung der Likelihoods
73
B Streuung der Schätzergebnisse
79
C Realisierung der Simulation
81
C.1 Anpassung des Messverfahrens zur Simulation . . . . . . . . . . . . . . . 81
C.2 Wahl zufälliger Qubits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
C.3 Numerische Maximierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
D Symmetriemessungen am Strahlteiler
85
E Erwartete Fidelity bei vollständiger Fidelity-Maximierung
87
F Vergleich mit der Adaptionsmethode aus [3]
F.1 Beschreibung des unbekannten Zustands durch die vorhandene Information
F.2 Adaption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
F.3 Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
91
91
92
G Varianz der Frequenzmessung
95
4
1 Einleitung
Durch Betrachtung der Quantenmechanik unter dem Gesichtspunkt der Theorie der
klassischen Informationsverarbeitung ist das Forschungsgebiet der Quanteninformation
entstanden. Die Verwendung quantenmechanischer Systeme birgt neue Chancen für die
Informationsverarbeitung, stellt sie aber auch vor neue Herausforderungen. Eine von ihnen ist das „No-Cloning-Theorem“, welches besagt, dass Quantenzustände nicht fehlerfrei
kopiert werden können [1, 2, 28]. Damit verbunden ist die Unmöglichkeit der Bestimmung
eines quantenmechanischen Zustands durch eine einzelne Messung. Um einen Zustand
exakt zu bestimmen, müssen an ihm unendlich viele Messungen durchgeführt werden.
Weil der Messvorgang aber den ursprünglichen Zustand verändert, braucht man dazu
auch unendlich viele identisch präparierte Versionen des Zustands. In der Realität kann
man selbstverständlich nur eine endliche Anzahl gleicher Zustände präparieren. Mit Messungen an einem solchen endlichen Ensemble kann man den Zustand streng genommen
nicht rekonstruieren, sondern nur eine mit einer gewissen Wahrscheinlichkeit zutreffende
Vermutung aufstellen. Deshalb werden solche Verfahren als Zustandsschätzen bezeichnet.
Daraus ergibt sich die Notwendigkeit eines anderen Umgangs mit quantenmechanisch
kodierter Information. Während klassische Information beliebig vermessen und vervielfältigt werden kann, ist dies mit Quanteninformation nicht möglich. Hat man ein Ensemble identischer Quantenzustände, kann ihre Anzahl nicht erhöht werden, ohne den
Präparationsprozess zu wiederholen. Zum Lesen der Information werden aber mehrere
Messungen an mehreren Kopien benötigt. In diesem Sinne ist Quanteninformation eine
begrenzte Ressource, mit der effizient umgegangen werden muss.
Zum Auslesen von Quanteninformation, dem Zustandsschätzen, existiert mittlerweile eine Vielzahl an Arbeiten [3–5, 9–12]. In der vorliegenden wird eine spezielle Art
von Messungen, die wir Symmetriemessungen nennen, und die sich mit Photonen am
quantenmechanischen Strahlteiler realisieren lassen, untersucht; dabei beschränken wir
uns auf Messungen an reinen Zwei-Niveau-Systemen, die – analog zu klassischen Bits –
Qubits genannt werden. Eine besondere Eigenschaft der Symmetriemessungen ist, dass
5
1 Einleitung
sie nur wenig Informationen über das untersuchte System liefern, nämlich nur inwieweit
der zu messende Zustand bei Vertauschung mit einem frei wählbaren Referenzzustand
symmetrisch ist. Anstatt also direkt die Größe zu messen, in der das Qubit realisiert
wurde, also zum Beispiel der Spin eines Elektrons oder die Polarisation eines Photons,
wird nur Teilchenaustauschsymmetrie untersucht.
In dieser Arbeit wird unter anderem bewiesen, dass sich der Zustand mit einem solchen Minimum an Information überhaupt schätzen lässt. Durch Untersuchung der mit
den Symmetriemessungen eng verwandten Bell-Messungen wird gezeigt, inwiefern beide Messmethoden mit den direkten Messungen von Spin oder Polarisation zusammenhängen. Außerdem wird als Beispiel für die Anwendung der Messmethoden kurz die
Bestimmung der Energien atomarer Übergänge diskutiert.
1.1 Gliederung der Arbeit
Diese Arbeit beschäftigt sich also mit dem Schätzen reiner Zwei-Niveau-Systeme
(Qubits) unter der Verwendung der Ergebnisse von Symmetrie- und Bell-Messungen.
Nach einer kurzen Zusammenstellung der Grundlagen adaptiver Messmethoden und
der verwendeten Schätz- und Adaptionsstrategien in Kapitel 2 werden in Kapitel 3 die
Symmetriemessungen definiert und auf das Problem des Qubitschätzens angewandt.
Insbesondere wird dort sowohl eine auf informationstheoretischen Methoden beruhende
Strategie vorgestellt werden, die vergleichsweise schlechte Ergebnisse liefert, als auch eine
Strategie mit direkter Maximierung des Überlapps zwischen geschätztem und gesuchtem
Zustand, was zu guten Ergebnissen führt. Außerdem wird gezeigt werden, inwiefern die
Symmetriemessmethoden in Verbindung mit einfachen Spin-Messungen stehen.
Danach werden in Kapitel 4 vollständige Bell-Messungen, wiederum unter Verwendung
derselben Strategien, untersucht. Diese sind eine naheliegende Erweiterung des Symmetriemessungskonzepts, die pro Messung mehr Information liefern, wofür man aber den
Charakter der reinen Symmetriemessung aufgeben muss. Die Betrachtung dieser Messungen wird dann die Beantwortung der Frage erlauben, wieso die informationstheoretische
Adaption bei den reinen Symmetriemessungen so schlechte Ergebnisse liefert. Abschließend wird wieder die Verbindung zu Spin-Messungen hergestellt.
In Kapitel 5 werden die untersuchten Mess‌strategien auf das Problem der Bestimmung von Energiedifferenzen atomarer Energieniveaus (Ramsey-Spektroskopie) angewandt. Vom theoretischen Standpunkt aus entspricht dies dem Schätzen eines Zustands,
6
1.2 Notation
|0!
√1
2
√1
2
(|0! + |1!)
(|0! + i |1!)
|1!
Abbildung 1.1: Bloch-Kugel
mit A-priori-Wissen. Die adaptiven Methoden werden dann mit der nichtadaptiven Standardmessmethode verglichen.
Eine kurze Zusammenfassung der gewonnenen Erkenntnisse (Kapitel 6) schließt die
Arbeit ab.
1.2 Notation
Wie bereits erwähnt beschränkt sich diese Arbeit auf Messungen an reinen Zwei-NiveauSystemen oder Qubits. Die beiden Niveaus seien mit |0! und |1! bezeichnet. Ein allgemeines Qubit kann dann mit den komplexen Parametern c0 und c1 dargestellt werden
als |ψ! = c0 |0! + c1 |1!. Normiert man den Zustand, und verzichtet man auf nicht messbare globale Phasen, fallen zwei der vier freien Parameter weg, und man kommt zur
Darstellung |ψ! = cos θ2 |0! + eiφ sin 2θ |1!, mit den reellen Parametern θ und φ, die als
Koordinaten auf einer Einheitskugel, der sogenannten Bloch-Kugel, interpretiert werden
können.
7
1 Einleitung
In dieser Arbeit treten folgende Qubits auf:
• das zu bestimmende, „unbekannte“ Qubit
|ψ!M = cos
θ
θ
|0!M + eiφ sin |1!M ,
2
2
(1.1)
• der nach der ν-ten Messung geschätzte Zustand
! est "
θest
θest
est
!ψν
= cos ν |0! + eiφν sin ν |1!
2
2
(1.2)
• und das für jede Messung frei wählbare Referenzqubit
|rν !R = cos
ϑν
ϑν
|0!R + eiϕν sin
|1!R
2
2
(1.3)
Die gelegentlich auftretenden Indizes bezeichnen den Hilbert-Raum der Qubits, M bezeichnet das im zu vermessenden Zustand präparierte Teilchen, R das als Referenzqubit
präparierte Objekt. Es wird die Kurzschreibweise |··! = |·!R |·!M verwendet, wobei sich
das erste Qubit immer im Raum R, das zweite in M befindet.
Ein Querstrich bezeichnet den bei Qubits eindeutigen orthogonalen Zustand. So ist
|r ν ! das zu |rν ! orthogonale Qubit:
|r ν !R = sin
ϑν
ϑν
|0!R − eiϕν cos
|1!R
2
2
(1.4)
Für die Integration über die Bloch-Kugel wird die Notation
#
f (θ, φ) dΩ :=
#2π #π
f (θ, φ) sin θ dθdφ
(1.5)
φ=0 θ=0
verwendet. Außerdem sei hier die Schreibweise
#
f (|ψ!) dΩψ
(1.6)
vereinbart, die besagt: Schreibe f als Funktion der Parameter θ und φ des Zustands |ψ!,
und integriere über diese.
8
2 Grundlagen adaptiver Messungen
Die in der vorliegenden Arbeit verwendeten Methoden zur Simulation adaptiver Messungen beruhen auf Konzepten, die bereits in [3, 4] benutzt wurden. Diese Grundlagen
adaptiver Strategien sind hier zusammengefasst, bevor im nächsten Kapitel die eigentlichen Messmethoden beschrieben werden.
2.1 Adaptive Messungen
Der Grundgedanke adaptiver Messungen ist die optimale Ausnutzung begrenzter Ressourcen. In unserem Fall sind diese Ressourcen eine endliche Anzahl von Kopien eines
Qubits, an denen einzelne quantenmechanische Messungen vorgenommen werden können. Das bedeutet, dass bei jedem Messschritt die vorliegenden Informationen aus vorhergehenden Messungen verwendet werden, um die neue Messung zu wählen, das heißt
freie Parameter m
& ν der Messung festzulegen.∗ Diese Wahl soll so erfolgen, dass sie eine
sogenannte Kostenfunktion, die den Fehler quantifiziert, minimiert, oder eine Zielfunktion maximiert.
Abbildung 2.1 illustriert das Konzept adaptiver Messungen. Um es konkret anwenden
zu können, müssen folgende Komponenten dieses Konzeptes festgelegt werden:
• Welche Messungen werden durchgeführt?
Dies ist der eigentlich neue, in dieser Arbeit untersuchte Aspekt. Er wird in Kapitel 3 ausgeführt.
• Wie wird der Zustand geschätzt?
• Wie wird die nächste Messung an die bekannten Informationen optimal angepasst?
• Wie beurteilt man die Qualität des abschließend geschätzten Zustands?
Die letzten drei Fragen werden in den folgenden Abschnitten beantwortet.
∗
Zum Beispiel legen die Messparameter bei einer Stern-Gerlach-Messung die Messrichtung fest.
9
2 Grundlagen adaptiver Messungen
erste Messung
m
!1
νte Messung
m
!ν
schätze
adaptiere
Zustand
Referenz
ja
νter geschätzter
Zustand |ψνest !
noch Kopien?
nein
endgültig geschätzter
est
Zustand |ψN
!
Abbildung 2.1: Adaptive Messungen. Solang keine Informationen über den zu schätzenden
Zustand vorliegen, kann keine Adaption vorgenommen werden. Deshalb müssen die Parameter
m
! 1 einer ersten Messung willkürlich gewählt werden. Das Ergebnis der ersten Messung liefert
Information über den Zustand, aufgrund der eine erste vorläufige Schätzung abgegeben werden
kann. Die nächste Messung wird nun so gewählt, dass sie die meiste Information liefert, falls
der geschätzte Zustand wirklich vorliegt. Aus dieser Messung erhält man weitere Information,
an die man mit den Parametern m
! ν eine neue Messung adaptieren kann. Dieser Prozess wird
so lange fortgesetzt, bis alle Kopien des unbekannten Zustands aufgebraucht sind. Der dann
vorliegende Schätzwert ist der endgültig geschätzte Zustand.
2.2 Qubit-Schätzen
2.2.1 Likelihood-Maximierung
Die Umsetzung der Messergebnisse in einen geschätzten Zustand erfolgt über eine
Maximum-Likelihood-Methode [23, 24].
Eine mögliche Likelihood-Funktion ist das Produkt aus den Wahrscheinlichkeiten
{pαi (m
& i , |ψ!)}, die ν Messergebnisse {αi } zu erhalten:
Lν ({αi } , {m
& i } , |ψ!) =
10
ν
$
n=1
pαn (m
& n , |ψ!)
(2.1)
2.2 Qubit-Schätzen
Die Parameter m
& n charakterisieren die Messung, ν ≤ N ist die Anzahl der bisher erfolgten Messungen. Die konstanten Parameter {m
& i } und {αi } – die Messgeschichte – werden
im weiteren unterdrückt.
Für einen festen Zustand |ψ! betrachtet ist Gleichung (2.1) nichts anderes als die
Wahrscheinlichkeit, bei einer Folge von ν Messungen mit den Messparametern {m
& n}
am selben Zustand |ψ! die Messergebniskette {αi } zu erhalten. Als Funktion von |ψ!
betrachtet ist sie aber ein Maß für die Möglichkeit, dass der (variable) Zustand |ψ! die
(feste) Ergebniskette {αi } erzeugt hat, die sogenannte Mutmaßlichkeit oder Likelihood;
wobei im Folgenden ausschließlich der englische Begriff verwendet werden soll.
Demnach bezeichnet das Maximum der Likelihood-Funktion denjenigen Zustand, der
am ehesten die erhaltenen Messergebnisse produziert. Wir wählen also den geschätzten
Zustand |ψνest ! gemäß:
!
"
Lν (!ψνest ) = max Lν (|ψ!)
(2.2)
|ψ"
Nimmt man zum Beispiel Stern-Gerlach-Messungen vor, dann sind die Messparameter
einfach die Komponenten des Vektors, der die Messrichtung angibt. Wählt man als erste
Messrichtung die z-Richtung und findet dabei den Zustand |0z !, dann ist L1 = |$0z |ψ!|2 ,
mit dem Maximum bei |ψ1est ! = |0z !.
Eine alternative Begründung dieses Likelihood-Ansatzes beruht auf der Bayes’schen
Regel [19, 20]. Diese besagt, bis auf eine Normierungskonstante Z ist die Wahrscheinlichkeitsverteilung wναν (|ψ!), dass der Zustand |ψ! vorliegt – unter der Bedingung, dass bei
der ν-ten Messung das Ergebnis αν erhalten wird – gleich dem Produkt der unbedingten
A-priori-Wahrscheinlichkeit wν−1 (|ψ!), dass |ψ! vorlag, und der bedingten Wahrscheinlichkeit pαν (m
& ν , |ψ!) das Ergebnis αν zu erhalten, wenn man an |ψ! misst:†
wναν (|ψ!) = Z −1 wν−1 (|ψ!)pαν (m
& ν , |ψ!)
(2.3)
Beginnt man bei einer vorgegebenen Wahrscheinlichkeit w0 vor der ersten Messung,
zum Beispiel mit einer Gleichverteilung, wenn keine A-priori-Information vorliegt, kann
daraus sukzessive die Wahrscheinlichkeitsverteilung wν (|ψ! |{αi }) = wναν (|ψ!) unter der
Bedingung, dass die Ergebnisse {αi } gemessen wurden, aufgebaut werden. Diese ist bis
auf die Normierung gleich der in Gleichung (2.1) definierten Likelihood.
Der per Likelihood-Maximierung geschätzte Zustand hängt also außer vom untersuch†
Die Wahrscheinlichkeiten wναν und wν−1 hängen natürlich auch von der vollständigen Messgeschichte,
also den jeweils ν − 1 Messparametern {m
! i } und -ergebnissen {αi } ab. Um die Notation aber nicht
noch aufwändiger zu gestalten, werden sie hier unterdrückt.
11
2 Grundlagen adaptiver Messungen
ten Zustand |ψ! ab von der Messgeschichte ({m
& i }, {αi }), bestehend aus den Parametern
der Messung {m
& i } und den Messergebnissen {αi }. Erstere werden durch die Adaptionsmethode vorgeschlagen, letztere sind Ergebnisse der in ihrem Ausgang nur indirekt über
die {m
& i } beeinflussbaren quantenmechanischen Messungen.
Eine graphische Darstellung, wie sich die Likelihood während eines adaptiven Verfahrens verändert, findet sich in Anhang A.
2.2.2 Fidelity
Durch die Likelihood-Maximierung (2.2) erhält man, nachdem an allen N Kopien geest
messen wurde, einen endgültigen geschätzten Zustand |ψN
!. Um die Übereinstimmung
mit dem zu schätzenden Zustand zu quantifizieren, wird als Zielfunktion die Fidelity
[21, 22, 28] verwendet. Für reine Zustände ist sie gleich dem Betragsquadrat des Überlapps der beiden Qubits:‡
! est "&
!' ! est "!2
%
!
F |ψ! , !ψN
= ! ψ !ψN
!
!
est
est !2
!
θ
θN
θ
θN
−iφ+iφest
!
!
N
= !cos cos
+e
sin sin
2
2
2
2 !
%
&
1
1 1
est
est
+ cos θ cos θN
+ cos φ − φest
=
N sin θ sin θN
2 2
2
(2.4)
oder auch
est
est
est
est
θ − θN
2 φ − φN
2 θ + θN
2 φ − φN
cos
+ cos
sin
F = cos
2
2
2
2
2
(2.5)
Die Fidelity soll die Güte einer einzelnen Messung quantifizieren, hängt aber außer von
der Adaptionsmethode auch vom zu bestimmenden Zustand und den – probabilstisch –
erhaltenen Messergebnissen ab. Über die letzten beiden muss, um die Adaptionsmethode
selbst beurteilen zu können, gemittelt werden. Das endgültige Maß für die Güte einer
Adaptionsmethode ist also eine gemittelte Fidelity F , die nur von der Art der Adaption
und der Anzahl vorhandener Kopien N abhängt.
Die Fidelity eines einzelnen Schätzergebnisses F kann sich aber erheblich von der
mittleren Fidelity F für das verwendete Adaptionsverfahrens unterscheiden. Wenn man
zum Beispiel bei jeder Messung ein unwahrscheinliches Ergebnis erhält, ist auch die Li‡
Diese Formeln erlauben die Berechnung der Fidelity aus den Bloch-Kugel-Winkeln, also den Parametern in der Rechenbasis. Die Fidelity ist selbstverständlich von der gewählten Rechenbasis
unabhängig, und hängt nur vom Winkel δ zwischen den Bloch-Kugel-Vektoren ab: F = 21 (1 + cos δ)
12
2.3 Adaptionsmethoden
kelihood beim richtigen Qubit |ψ! klein, und auch das beste Adaptionsverfahren wird
zu keinem guten Ergebnis führen. Selbst ein einziges extrem unwahrscheinliches Messergebnis kann die Likelihood (2.2) in Richtung eines falschen Schätzwerts beeinflussen.
Deshalb ist ein weiteres Kriterium für die Güte der Adaption die Streuung der Fidelities
um den Mittelwert. Um diese zu quantifizieren wird für jede Simulation einer Adapti2
onsmethode auch die Varianz der Fidelity ∆F 2 = F 2 − F angegeben. Diese wird in
Anahng B genauer diskutiert.
2.3 Adaptionsmethoden
In dieser Arbeit wird eine Vielzahl unterschiedlicher Adaptionsstrategien untersucht.
Diese lassen sich – abgesehen von den offensichtlichen Ausnahmen – in zwei Gruppen
einteilen; nämlich einerseits die informationstheoretisch begründeten Methoden und andererseits solche die auf der Optimierung einer Zielfunktion beruhen.
Beiden ist gemein, dass sie auf Grundlage der erfolgten Messungen die Parameter der
nächsten Messung festlegen sollen. Dazu dürfen selbstverständlich nur die Messinformationen verwendet werden, und nicht der zu vermessende Zustand |ψ!.§
2.3.1 Zufällige Messparameter
Bevor die beiden Gruppen der Adaptionsstrategien vorgestellt werden, sei hier kurz auf
eine nichtadaptive Methode, einen Bezugspunkt zur Bewertung der adaptiven Methoden,
eingegangen.
Anstatt eine Adaption vorzunehmen, kann man die Messparameter zufällig wählen.
Jede sinnvolle adaptive Methode sollte natürlich bessere Ergebnisse liefern. Der Vergleich
der im Allgemeinen mit höherem rechnerischen Aufwand verbundenen adaptiven Methoden mit den Ergebnissen der zufälligen Messparamterwahl erlaubt eine Beurteilung des
Nutzens im Verhältnis zu diesem Aufwand.
2.3.2 Maximaler Informationsgewinn
Die allgemein formulierte Grundfrage unserer adaptiven Messungen lautet: Wie kann
– unter der Bedingung nur Messungen an einzelnen Kopien durchzuführen – aus den
§
Bei der Untersuchung der Adaptionsstrategien durch Simulationen ist der „unbekannte“ Zustand |ψ!
vorgegeben. Näheres siehe Abschnitt 2.4 und Anhang C.
13
2 Grundlagen adaptiver Messungen
begrenzten Ressourcen ein Maximum an Information über den unbekannten Zustand
gewonnen werden? Die Informationstheorie liefert uns ein Maß für diese Information.
Man kann eine dem Problem angepasste Informationsentropie definieren. Die Adaption
besteht nun in der Maximierung dieser Entropie bezüglich der Messparameter, und der
Verwendung dieser Parameter für die nächste Messung.
2.3.3 Fidelity-Maximierung
Als Maß für die Güte unserer Schätzverfahren haben wir die Fidelity gewählt. Anstatt
den Umweg über eine Entropie zu gehen, kann man auch direkt diese Zielfunktion optimieren, wie es zuerst in [3] getan wurde. Das heißt, man berechnet eine erwartete
Fidelity nach der nächsten Messung, bevor man diese durchführt. Diese Größe hängt
natürlich von den Messparametern ab. Man kann sie bezüglich dieser maximieren, und
die so gefundenen Werte zur Adaption verwenden.
Für einen festen Zustand |ψ! ist diese erwartete Fidelity die Summe über die Fideli! est "
ties mit den Zuständen !ψν+1,α
, die beim Auftreten des jeweiligen Messergebnisses α
geschätzt würden, gewichtet mit der Wahrscheinlichkeit des Auftretens des Messergebnisses:
%
(! est ")
& *
%! est "
&
exp
Fν+1
{αi } , {m
& i} , m
& ν+1 , !ψν+1,β
, |ψ! =
pα ( m
& ν+1 , |ψ!) F !ψν+1,α
, |ψ!
α
Dieses Funktional hängt von folgenden Größen ab: den noch festzulegenden Messparametern der nächsten Messung m
& ν+1 (über das mit ihnen erzielte Ergebnis wird gemit(! est ")
telt), den abhängig vom erhaltenen Ergebnis geschätzten Zuständen !ψν+1,β
, die auch
von m
& ν+1 abhängen und natürlich dem unbekannten Zustand |ψ!. Die (festen) Messgeschichte ({m
& i }, {αi }) der bereits durchgeführten ν Messungen fließt nur indirekt über die
geschätzen Zustände ein. In den nächsten beiden Kapiteln werden diese komplizierten
Abhängigkeiten unterdrückt.
Da der zu messende Zustand natürlich nicht bekannt ist, muss über ihn gemittelt
werden. Aufgrund der bereits vermessenen Kopien ist er aber auch nicht gänzlich unbekannt. Die entsprechende Information ist die Likelihood (2.1), da sie angibt, wie hoch die
Mutmaßlichkeit ist, dass der Zustand |ψ! gerade die vorliegende Messergebniskette {αi }
erzeugt hat. Mit dieser muss deshalb die Integration gewichtet werden. Damit lautet die
14
2.4 Monte-Carlo-Simulationen
mittlere erwartete Fidelity:
(! est ")&
exp %
F ν+1 {αi } , {m
& i} , m
& ν+1 , !ψν+1,β
#
*
%! est "
&
pα ( m
& ν+1 , |ψ!) F !ψν+1,α
, |ψ! dΩψ
∼ Lν ({αi } , {m
& i } , |ψ!)
(2.6)
α
In dieser gemittelten und gewichteten erwarteten Fidelity steht taucht jetzt die Abhängigkeit von der Messgeschichte auch explizit auf.
Da es von großer Bedeutung für die, in Abschnitt 3.6 beschriebene, konkrete Berechnung des Funktionals ist, sei hier auch nocheinmal darauf hingewiesen, dass die geschätz! est "
ten Zustände {!ψν+1,α
} neben dem Messergebnis natürlich auch von den verwendeten
Messparametern m
& ν+1 abhängen.
Es werden für die nächste Messung wie erwähnt diejenigen Messparameter gewählt,
exp
bezüglich derer die erwartete Fidelity F ν+1 maximal wird.
2.4 Monte-Carlo-Simulationen
Die Güte verschiedener Messungen bei Verwendung der soeben beschriebenen Adaptionsverfahren wurde durch Monte-Carlo-Simulationen untersucht. Bei einer Monte-CarloSimulation werden zufällig Sequenzen von quantenmechanischen „Messergebnissen“ bestimmt, und die speziellen Ergebnisse für diese Sequenzen errechnet. Dabei ist darauf zu
achten, dass die Verteilung der Messergebnisse ihren Wahrscheinlichkeiten entspricht.
Zuerst berechnet man die Wahrscheinlichkeiten der einzelnen Messergebnisse und vergleicht sie mit einer Zufallszahl zwischen 0 und 1. Dazu teilt man das Intervall [0, 1]
in eine Anzahl Teilstücke, die der Zahl der möglichen Messergebnisse entspricht, wobei
die Längen jedes Teilstücks durch die Wahrscheinlichkeit des zugeordneten Messergebnisses gegeben ist. Nun kann man feststellen, in welchem Teilstück die Zufallszahl liegt;
das diesem Stück korrespondierende Messergebnis wird dann als das simulierte Ergebnis
verwendet. Führt man dieses Verfahren für eine große Zahl von simulierten Messungen aus, erhält man eine Verteilung der simulierten Ergebnisse, die der entspricht, die
auch in einem realen quantenmechanischen Experiment auftritt. Dieses Konzept ist in
Abbildung 2.2 noch einmal für eine dichotome Messung veranschaulicht.
Das simulierte Messergebnis kann nun genauso wie eine reales gemäß der oben vorgestellten Methoden ausgewertet werden. Man erhält ein vorläufiges geschätztes Qubit und
adaptierte Messparameter. Mit letzteren wird eine weitere Messung simuliert, die man
15
2 Grundlagen adaptiver Messungen
0
z < pa
z > pa
⇒ Messergebnis a
⇒ Messergebnis b
pa
1
Abbildung 2.2: Veranschaulichung der Monte-Carlo-Simulation. Wenn man eine zweiwertige Messung mit den möglichen Messergebnissen a und b simulieren möchte, teilt man das
Intervall [0, 1] bei pa in zwei Teile. (Bei mehr als zwei Möglichkeiten für den Messausgang müsste man weiter unterteilen.) Nun vergleicht man eine Zufallszahl z mit pa . Findet man z < pa
hat man a simuliert, ansonsten b.
wieder auswertet. Dies wird so lange fortgesetzt bis die Zahl der Messungen N erreicht
hat, in der Realität also alle vorhandenen Kopien aufgebraucht wären; dann liegt auch
der endgültig geschätzte Zustand vor.
Wenn es Ziel der Messung war, wie es in einem Experiment im Allgemeinen der Fall
sein wird, ein einzelnes unbekanntes Qubit zu bestimmen, ist man nun am Ende. Man
hat das unbekannte Qubit mit einer vom verwendeten Verfahren abhängigen Wahrscheinlichkeit innerhalb einer vorgegebenen Fidelity geschätzt. Aufgrund des probabilistischen
Charakters quantenmechanischer Messungen kann sich das geschätzt Qubit vom realen
aber im Einzelfall erheblich unterscheiden.
In dieser Arbeit soll aber die Güte der Adaptions- und Messverfahren allgemein, das
heißt unabhängig von einzelnen Messergebnissen, untersucht werden. Man muss also
prinzipiell über alle möglichen unbekannten Zustände und Messergebnisse mitteln. In
der Simulation wird deshalb die erzielte Fidelity einer Messreihe über N Messungen
berechnet, und über eine statistisch signifikante Anzahl solcher Messreihen oder Läufe
gemittelt. Bei allen angegebenen numerischen Ergebnissen fand diese Mittelung, wenn
nicht anders angegeben, über 10.000 Läufe statt.
Bei der Untersuchung der Messverfahren treten zwei Arten von Fehlern auf, die strikt
voneinander unterschieden werden müssen. Die eine beruht auf dem probabilistischen
Charakter quantenmechanischer Messungen, die andere auf der Verwendung numerischer
Rechnungen.
Die Quantenmechanik macht Aussagen über die Wahrscheinlichkeit eines Messausgangs. Bei einer konkreten Messung können natürlich auch unwahrscheinliche Ergebnisse gefunden werden. Das Prinzip der Likelihood-Maximierung, Gleichung (2.2), geht
aber davon aus, dass im Mittel eher die wahrscheinlichen Ergebnisse gemessen werden.
16
2.5 Ergebnisse früherer Arbeiten
Für die geringe Anzahl von Messungen die in dieser Arbeit betrachtet werden, muss
das natürlich nicht immer der Fall sein; auch wenn eine Adaptionsmethode im Mittel
eine sehr gute Fidelity zwischen gesuchtem und geschätztem Zustand liefert, kann der
geschätzte Zustand einer einzelnen Messreihe erheblich vom eigentlichen unbekannten
Zustand abweichen. Um diese Streuung zu quantifizieren, werden bei den Ergebnissen
der numerischen Simulationen auch die Varianzen ∆F 2 der Fidelity angegeben. Dieser
Wert gibt die Streuung der einzelnen Messläufe an und nicht etwa die numerischen Fehler
der Simulation. Eine genauere Diskussion der Streuung findet sich in Anhang B.
Wie alle numerischen Berechnungen sind auch die in dieser Arbeit durchgeführten Simulationen selbst fehlerbehaftet. Wegen des statistischen Charakters der Monte-CarloMethode, und weil sich einmal gemachte Fehler innerhalb einer Messreihe fortpflanzen,
sind diese Fehler recht groß; es treten zwischen verschiedenen Simulationen (über 10.000
est 2
Messreihen) zufällige Fehler der Fidelity |$ψ|ψN
!| von bis zu 0,005 auf.¶ Dies entspricht
in den meisten Plots gerade der Symbolgröße der Datenpunkte. In den anderen Fällen
sind die entsprechenden Fehlerbalken (also ±0,0025) eingezeichnet. Außerdem können
noch systematische Fehler auftreten, die zu grundsätzlich zu kleinen Fidelities führen,
da sich zufällige Fehler bei einzelnen Komponenten der Simulation tendenziell eher in
Richtung zu kleineren als zu größeren Fidelities auswirken. Diese Fehler sind prinzipiell
schwierig anzugeben; die Simulationen der besten Adaptionsmethoden ergeben aber Fidelities, die nur 0,01 unter der theoretischen Obergrenze aus [9] liegen. Diese analytisch
berechnete Obergrenze gilt aber für simultane Messungen an allen Kopien, die adaptiven Methoden sind zumindest minimal schlechter. Deshalb muss der systematische
Fehler kleiner als 0,01 sein.
Technische Details der Implementierung der Simulation werden in Anhang C behandelt.
2.5 Ergebnisse früherer Arbeiten
Wie bereits kurz erwähnt, wurden die in diesem Kapitel vorgestellten Konzepte bereits in
den Arbeiten [3–5] verwendet. Diese betrachteten Stern-Gerlach-Messungen, und zeig¶
Man beachte, dass die in den folgenden Kapiteln gezeigten Simulationsdaten nicht aus verschiedenen
Läufen stammen. Das heißt, die Daten für einen Messschritt beruhen auf denen des vorigen, der
(n + m)-te Messpunkt hat bis zur n-ten Messung dieselben Messgeschichten wie der n-te. Deshalb
sind die Fidelity-Differenzen zwischen zwei Schritten mit einem geringeren Fehler behaftet. Um den
angegebenen Fehler von 0, 005 zu beobachten muss man zwei Messpunkte aus zwei unabhängigen
Simulationen, das bedeutet mit 10.000 verschiedenen Messgeschichten, vergleichen.
17
2 Grundlagen adaptiver Messungen
ten dass sich durch Verwendung sowohl der Entropie-Adaption als auch der FidelityMaximierung zumindest für Zwei-Niveau-Systeme erheblich bessere Fidelities ergeben
als durch nichtadaptive Methoden. Eine Aufgabe der vorliegenden Arbeit ist es, diese
Untersuchungen auf Messverfahren auszudehnen, die auf reinen Symmetrieargumenten
beruhen.
Ein weiteres bedeutendes Ergebnis bezieht sich auf die theoretische Obergrenze für die
Fidelities, die durch Messungen an einer Menge von N Kopien eines Quantenzustands
erreicht werden können [9]. Für Zwei-Niveau-Systeme beträgt diese maximale Fidelity
Fopt =
N +1
.
N +2
(2.7)
In [3] wurde gezeigt, dass sich bei Spinmessungen mit adaptiven Methoden Fidelities
erzielen lassen, die mehr als 98% von Fopt betragen. Dies ist insofern bemerkenswert,
als alle N vorhandenen Kopien des unbekannten Zustands verschränkt werden müssen,
und an diesem Ensemble eine simultane Messung vorgenommen werden muss, um die
optimalen Werte zu erzielen. Im Gegensatz dazu beschränkten sich die Autoren von [3],
wie die vorliegende Arbeit, auf die Betrachtung von Messungen an einzelnen Kopien.
Ein Großteil des Fidelity-Gewinns, der scheinbar auf Verwendung von Verschränkung
beruht, lässt sich also auch durch Einzelmessungen in Verbindung mit einer geschickten
Wahl der Messparameter erreichen.
18
3 Symmetriemessungen
In diesem Kapitel wird das Konzept der Symmetriemessung vorgestellt, und nach einer kurzen Zusammenfassung des vollständigen adaptiven Verfahrens die in Kapitel 2
beschriebenen Adaptionsstrategien mit Symmetriemessungen angewandt.
Nachdem die Methoden des Maximalen Informationsgewinns und der Maximierung
der erwarteten Fidelity diskutiert wurden, stellt Abschnitt 3.8 eine Verbindung zu den
Spinmessungen her.
3.1 Prinzip der Symmetriemessung
Die naheliegende Messmethode bei der Schätzung eines Qubits ist die direkte Messung
der Größe, in der die Quanteninformation kodiert ist, also zum Beispiel des Spins oder
der Polarisation. Die Adaption solcher Messungen wurde in [3, 4] untersucht. Wie aber
ist die Situation, wenn nur Symmetrieinformationen bezüglich eines anderen Zustands
verwendet werden können?
Wir beschränken uns also auf den Vergleich des zu untersuchenden Zustands |ψ! mit
einem Referenz- oder Ruler-Qubit |rν !. Dieser Vergleich findet, wie im Folgenden genauer
beschrieben wird, durch Projektion in den antisymmetrischen Untervektorraum statt [6].
Eine Basis des Zwei-Qubit-Hilbert-Raums wird durch die Bell-Zustände aufgespannt:
! +"
1
!Φ
= √ (|0!A |0!B + |1!A |1!B )
2
! −"
1
!Φ
= √ (|0!A |0!B − |1!A |1!B )
2
! +"
1
!Ψ
= √ (|0!A |1!B + |1!A |0!B )
2
! −"
1
!Ψ
= √ (|0!A |1!B − |1!A |0!B )
2
(3.1)
(3.2)
(3.3)
(3.4)
19
3 Symmetriemessungen
Unter Vertauschung der beiden Räume A und B sind die Zustände |Φ+ !, |Φ− ! und
|Ψ+ ! invariant; sie spannen den symmetrischen Untervektorraum auf. Der Zustand |Ψ− !
ändert bei einer solchen Vertauschung dagegen sein Vorzeichen, er spannt den – hier
eindimensionalen – antisymmetrischen Untervektorraum auf.
Der Vergleich von zu vermessendem und Referenzzustand erfolgt durch eine projektive
Messung in der Bell-Basis am Produktzustand |rν !R |ψ!M .
θ
ϑν
θ
ϑν
cos
|00! + eiφ+iϕν sin sin
|11!
2
2
2
2
ϑν
θ
ϑν
θ
|01! + eiϕν cos sin
|10!
+eiφ sin cos
2
2
2
2
|rν !R |ψ!M = cos
Findet man den Produktzustand bei einer solchen Messung im Zustand |Ψ− !, dann lautet
dass Messergebnis αν = a: „der Produktzustand hat einen Anteil im antisymmetrischen
Untervektorraum“. Die Wahrscheinlichkeit dafür beträgt:
!' !
!2
pa (|ψ! , |rν !) = ! Ψ− ! |rν !R |ψ!M !
!
!2
θ
ϑν
ϑν !!
θ
1 !! iφ
iϕν
e sin cos
− e cos sin !
=
2!
2
2
2
2
=
1
(1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν )
4
(3.5)
Die anderen drei Möglichkeiten werden zum Ergebnis αν = s: „der Zustand hat einen
Anteil im symmetrischen Untervektorraum“ zusammengefasst. Die zugehörige Wahrscheinlichkeit bezeichnen wir:
ps (|ψ! , |rν !) = 1 − pa (|ψ! , |rν !) =
1
(3 + cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν ) (3.6)
4
Für die Wahrscheinlichkeiten gelten folgende Eigenschaften:
• Sie liegen in folgendem Wertebereich:
• Ihre Mittelwerte sind:
20
+
,
+
,
1
1
; ps ∈ , 1
pa ∈ 0,
2
2
(3.7)
1
3
pa = ; ps =
4
4
(3.8)
3.2 Experimentelle Realisierung der Symmetriemessungen
• Wenn der unbekannte Zustand und die Referenz identisch sind, kann |ψ!M |rν !R
nach einer Bell-Messung nicht in |Ψ− ! gefunden werden:
• Laut [6] gilt
!' !
!2
pa (|r! , |r!) = ! Ψ− ! |r! |r!! = 0
(3.9)
ps − pa = |$ψ|rν !|2 ,
(3.10)
das heißt ps ≥ pa . Man erkennt dies sofort durch Subtraktion von Gleichung (3.5)
von Gleichung (3.6) und Vergleich mit Gleichung (2.4).
• Es gilt:
1
|$ψ|r ν !|2
(3.11)
2
Um dies zu zeigen, nützt man die Invarianz des Bell-Zustands |Ψ− ! unter Basistransformation (siehe auch Kapitel 4) und schreibt ihn als:
pa =
! −"
!Ψ = √1 (|rν ! |rν ! − |r ν ! |rν ! )
M
R
M
R
2
Eingesetzt in die erste Zeile von Gleichung (3.5) erhält man sofort Gleichung (3.11).
3.2 Experimentelle Realisierung der
Symmetriemessungen
Bisher wurde die Symmetriemessung nur als eine Messung in der Bell-Basis, bei der
ein Teil der Messinformation ignoriert wird, definiert. Man kann natürlich auch fragen,
was passiert, wenn man die drei Bell-Messergebnisse, die dem Symmetriemessergebnis s
zugeordnet werden, unterscheidet. Diese Fragestellung wird in Kapitel 4 verfolgt.
Allerdings gibt es auch Situationen in denen die Bell-Zustände nicht unterschieden
werden können, aber Symmetriemessungen möglich sind. In [25] wurde gezeigt, dass dies
bei der Verwendung linearer Optik, insbesondere dem quantenmechanischen Strahlteiler,
zutrifft.
Um die Symmetriemessungen am Strahlteiler∗ zu verwirklichen, betrachtet man den
∗
Um konkrete Transformationen anzugeben, wird hier der vielschichtige Strahlteiler mit der Transformationsgleichungen â0 = √12 (â2 − â3 ) und â1 = √12 (â2 + â3 ) verwendet. Die angegebenen Ergebnisse sind aber leicht für andere Transformationsgleichungen anzupassen.
21
3 Symmetriemessungen
a0
a1
a3
a2
Abbildung 3.1: 50:50-Strahlteiler. In die Eingangsmoden 0 in 1 werden die beiden zu vergleichenden Zustände |ψ! und |r! eingekoppelt. An den Ausgangsmoden 2 und 3 wird die Photonenzahl detektiert. Messung von zwei Photonen in einem Detektor entspricht dem Messergebnis a;
sind die Photonen auf die zwei Detektoren verteilt, entspricht dies dem Messergebnis s.
Hong-Ou-Mandel-Dip [26, 27], der auftritt, wenn man in die beiden Eingangsmoden
(bezeichnet mit den Indizes 0 und 1) eines 50:50-Strahlteilers gleichzeitig zwei identische
Photonen einbringt. Dann werden die beiden Photonen nach dem Durchgang durch den
Strahlteiler immer gemeinsam in einer Mode gefunden, da die anderen Möglichkeiten –
je ein Photon pro Ausgangsmode (Indizes 2 und 3) – destruktiv interferieren:
1
|1!0 |1!1 → √ (|2!2 |0!3 − |0!2 |2!3 )
2
(3.12)
Man beachte, dass sich diese Notation von der bisherigen unterscheidet: Die Zahlen
innerhalb der Kets geben die Photonenzahl an und bezeichnen nicht mehr ein Niveau
eines Zwei-Niveau-Systems.
Unterscheiden sich die beiden Photonen jedoch dadurch, dass sie senkrecht zueinander
polarisiert sind, tritt der Hong-Ou-Mandel-Dip nicht mehr auf. Die Photonen durchqueren den Strahlteiler unabhängig voneinander und jedes für sich wird entweder in der
einen oder anderen Ausgangsmode gefunden:
1
|0!0 |1!1 → √ (|1!2 |0!3 + |0!2 |1!3 )
2
1
|1!0 |0!1 → √ (|1!2 |0!3 − |0!2 |1!3 )
2
22
(3.13)
(3.14)
3.3 Das vollständige adaptive Messverfahren
Das heißt, man kann beide Photonen sowohl gemeinsam in einer Mode, oder auch auf
beide verteilt finden.
Der Hong-Ou-Mandel-Dip tritt also nur bei gleich polarisierten Photonen auf. In diesem Fall werden mit Sicherheit zwei Photonen in einem Detektor gefunden. Stehen die
Polarisationsvektoren beider Photonen senkrecht, tritt der Dip nicht auf. Es besteht
sowohl die Möglichkeit beide Photonen in einem Detektor, als auch je ein Photon pro
Detektor zu finden. Erhält man letzteres Messergebnis, weiß man mit Sicherheit, dass
die Photonen nicht gleich polarisiert gewesen sein können.
Genau dies realisiert die Symmetriemessungen, wenn die Qubits in den Polarisationen der Photonen kodiert werden. Um die Messung durchzuführen, legt man an eine
Eingangsmode das unbekannte Qubit |ψ!, an die andere den Referenzzustand |r! an.
Wenn man in beiden Ausgängen je ein Photon detektiert, können die Polarisationen der
Eingangszustände nicht gleich gewesen sein, man hat das Ergebnis a gefunden. Detektiert man beide Photonen in derselben Ausgangsmode, so ist die Gleichheit der Qubits
möglich, was dem Ergebnis s entspricht.
Eine genauere Herleitung ist in Anhang D durchgeführt.
3.3 Das vollständige adaptive Messverfahren
Nun sind alle Komponenten des adaptiven Messverfahrens vorgestellt (Kapitel 2 und Abschnitt 3.1). Bevor in den nächsten Abschnitten die Anwendung der Adaptionsverfahren
auf die Symmetriemessung und die damit erhaltenen Ergebnisse diskutiert werden, sei
hier noch einmal das vollständige Verfahren kurz zusammengefasst.
• Gegeben sind N Kopien eines zu bestimmenden Zustands |ψ!.
• Da noch keine Informationen vorliegen, die für die Wahl des Referenzzustands
verwendet werden könnten, wird als erster Ruler immer |r1 ! = |0! verwendet.
• Bei jedem Messschritt ν nimmt man eine projektive Messung am Produktzustand
|ψ! |rν ! vor. Findet man den Produktzustand im Bell-Zustand |Ψ− !, lautet das
Messergebnis αν = a, sonst αν = s. So erhält man sukzessive eine Folge von
Messergebnissen {αi } und eine Folge zugehöriger Referenzzustände {|ri !}.
23
3 Symmetriemessungen
• Nun kann man die Likelihood-Funktion, Gleichung (2.1),
Lν =
ν
$
n=1
pαn (|rn ! , |ψ!)
(3.15)
in Abhängigkeit von allen vorherigen Messungen, das heißt den gemessenen Folgen
{αi } und {|ri !}, berechnen und ihr Maximum bezüglich der Parameter von |ψ!
bestimmen. Diese geben den Zustand an, der am stärksten mit den Messwerten
im Einklang steht.
• Die zu adaptierenden Messparameter sind bei Symmetriemessungen die Parameter
ϑν und ϕν des Referenzzustands |rν !. Als nächster Referenzzustand wird ein je nach
Adaptionsstrategie gewähltes Qubit |rν ! festgelegt.
• Messung, Likelihoodmaximierung und Wahl des neuen Referenzzustands werden
für alle N Schritte wiederholt. Das Ergebnis der letzten Likelihoodmaximierung
ist der endgültig geschätzte Zustand.
Um dieses Konzept weiter zu illustrieren ist die Entwicklung der Fidelity für ein adaptives
Verfahren in Anhang A graphisch dargestellt.
In dieser Arbeit wird die Qualität der verschiedenen Adaptionsstrategien durch MonteCarlo-Simulationen beurteilt. Dazu muss die Vorgehensweise leicht angepasst werden,
was in Anhang C beschrieben ist.
3.4 Zufällige Referenzzustände
Bevor die eigentlich adaptiven Methoden besprochen werden, seien zuvor die Ergebnisse mit zufälligen Referenz-Qubits vorgestellt, die als Vergleichswerte für die adaptiven
Methoden dienen sollen. Die mittleren Fidelities sind in Abbildung 3.2 dargestellt. Der
Erfolg der adaptiven Methoden ist durch den Gewinn an Fidelity gegenüber diesen Werten quantifizierbar.
Man sieht bereits an Abbildung 3.2, dass die Symmetriemessungen weniger Information liefern als Spinmessungen. Schon durch eine einzige Messung an einem unbekannten
Spin-Qubit kann man den Zustand mit einer mittleren Fidelity von 23 schätzen (vergleiche auch Gleichung (2.7)). Die Symmetriemessungen liefern im Schnitt nach der ersten
Messung eine Fidelity von 0,58, was da ja vor der ersten Messung noch keine Informa-
24
3.5 Shannon-Entropie-Adaption
tion über den unbekannten Zustand vorliegt, durch adaptive Verfahren nicht verbessert
werden kann.
N
F
∆2 F
0,90
1
2
3
5
10
15
20
25
30
0,584
0,619
0,649
0,686
0,758
0,801
0,836
0,858
0,878
0,077
0,073
0,069
0,064
0,049
0,040
0,031
0,025
0,020
0,85
Fidelity F
0,80
0,75
0,70
0,65
Zufällige Referenzen
0,60
0,55
0
5
10
15
20
Zahl der Messungen N
Abbildung 3.2: Zufällige Referenzen. Durchschnittliche Fidelity F aufgetragen gegen die
Zahl der Kopien N . In der Tabelle sind exemplarisch einige Zahlenwerte der Fidelity und ihrer
2
Varianz ∆F 2 = F 2 − F angegeben (Vergleiche auch Anhang (B)). Aus Laufzeitgründen wurde
der Wert für N = 30 über 7.000 Läufe gemittelt, der für N = 25 über 8.500 Läufe und alle
anderen Werte über 10.000.
3.5 Shannon-Entropie-Adaption
Ein naheliegendes Informationsmaß für die Symmetriemessungen ist die ShannonEntropie [16, 28]:
S := −pa log2 pa − ps log2 ps
(3.16)
Sie ist ein Maß für die durch die Messung gewonnene Information oder – anders formuliert
– ein Maß für die Unkenntnis des Messergebnisses vor der Messung.
Gleichung (3.16) wird durch die Wahl
! "
$rν+1 |ψ! = 0 ⇔ |rν+1 ! = !ψ
(3.17)
25
3 Symmetriemessungen
maximiert. Wie man an Gleichung (3.11) ablesen kann, gilt bei dieser Wahl für die
Wahrscheinlichkeiten:
pa (|rν+1 ! , |ψ!) = ps (|rν+1 ! , |ψ!) =
1
2
(3.18)
Sie sind gleichverteilt, es wird kein Messergebnis bevorzugt, was bekanntlich die Entropie
maximiert.
Da |ψ! unbekannt ist, steht für die Maximierung nur das Wissen aus den vorherigen Messungen zur Verfügung. Eine Möglichkeit diesem Problem zu begegnen, ist es,
statt S(|ψ! , |rν+1 !) einfach S(|ψνest ! , |rν !) bezüglich |rν ! zu maximieren, wie im nächsten
Abschnitt beschrieben. Sobald |ψνest ! „nahe genug“ an |ψ! liegt, hat dies keine Auswirkungen auf die Adaption, für niedrigere N stellt es eine allgemeine Schwierigkeit adaptiver
Methoden dar. Eine genauere Berücksichtigung des Vorwissens wird in Abschnitt 3.5.3
untersucht.
3.5.1 Entropieadaption mit vorläufig geschätztem Zustand
Um S(|ψνest ! , |rν !) statt S(|ψ! , |rν+1 !) zu maximieren, muss man nur, wie im vorherigen
!
"
Abschnitt diskutiert, |rν+1 ! = !ψνest wählen. In diesem Abschnitt werden zuerst analytische Ergebnisse bei Verwendung dieser Adaptionsmethode und dann Resultate der
numerischen Simulationen vorgestellt.
3.5.1.1 Analytische Berechnung der ersten Schritte
Wegen der einfachen Adaption ist bei diesem Verfahren die Maximierung der Likelihood (3.15) der aufwändigere Teil. Aber auch dieser lässt sich für wenige Schritte
analytisch durchführen.
Erster Schritt für beliebigen Anfangsreferenzzustand Es wird die erste Messung
mit einem beliebigen Anfangsreferenzzustand |r1 ! = cos ϑ21 |0! + eiϕ1 sin ϑ21 |1! durchgeführt. Man erhält das Messergebniss α1 ∈ {a, s}. Die Likelihood (3.15) ist L1 =
pα1 (|ψ! , |r1 !).
Erhält man das Messergebnis a so ist die entsprechende Likelihood L1,a = pa . Um
diese zu maximieren, müssen die Nullstellen der Ableitungen gefunden werden:
26
3.5 Shannon-Entropie-Adaption
1
∂L1,a
!
=
(sin θ cos ϑ1 − cos (φ − ϕ1 ) cos θ sin ϑ1 ) = 0
∂θ
4
∂L1,a
1
!
=
sin (φ − ϕ1 ) sin θ sin ϑ1 = 0
∂φ
4
(3.19)
(3.20)
Die Funktion hat ein Minimum bei (θ = ϑ1 , φ = ϕ1 ) und ein Maximum bei (θ =
ϑ1 + π, φ = ϕ1 ).†
Für das Messergebnis s ist L1,s = ps = 1 − pa . Deshalb liegt ihr Maximum gerade
beim Minimum von L1,s .
Man geht im ersten Schritt also so vor, wie intuitiv zu erwarten war: Misst man s,
schätzt man |ψ1est ! = |r1 !; misst man a, schätzt man |ψ1est ! = |r1 !.
Erste drei Schritte für Anfangsreferenzzustand |0! Auf prinzipiell gleiche Weise
können auch die Werte für die weiteren Zustände berechnet werden. Da die Rechenbasis
frei wählbar ist, bedeutet die Wahl |r1 ! = |0! keinen Verlust an Allgemeinheit.
Die analytisch berechneten Parameter der geschätzten Qubits und der daraufhin gewählten Referenzzustände sind in den Tabellen 3.1 bis 3.3 zusammengestellt. Man kann
daran feststellen:
• Verschiedene Messergebnissketten könne zu gleichen Schätzwerten führen. Die entsprechenden Likelihoods können durchaus verschiedene Funktionen sein, ihr Maximum liegt jedoch am selben Punkt.
• Zuerst liegen die geschätzten Zustände auf den Polen der Bloch-Kugel; die Koordinate φest
ν hat dann keine Bedeutung (in den Tabellen gekennzeichnet durch
„-“). Ab einem Schritt, der von den erhaltenen Messergebnissen abhängt, verlässt
er die Pole. Ab diesem Zeitpunkt beschreiben verschiedene φest
ν unterschiedliche
Zustände; es gibt jedoch kein Kriterium das diese Koordinate festlegt, sie muss
willkürlich gewählt werden (Tabellen: „frei“). Die in den weiteren Schritten geschätzten Zustände und die für die Messung verwendeten Referenzen sind dann
eindeutig bestimmt, hängen aber von dieser Wahl ab. In den Tabellen werden die
willkürlich zu wählenden Winkelparameter ϕν der Referenzzustände anstatt der
†
Das zweite Wertepaar löst zwar die Gleichung und ist sofort als Bloch-Kugel-Antipode des ersten
identifizierbar, θ = ϑ1 + π liegt aber nicht mehr im formalen Wertebereich θ ∈ [0, π]. Das in diesem
Sinne korrekte Wertepaar ist (θ = π − ϑ1 , φ = ϕ1 ± π), wobei das Vorzeichen bei ϕ1 ± π davon
abhängt, ob ϕ1 größer oder kleiner als π ist.
27
3 Symmetriemessungen
α1
a
s
θ1est
π
0
φest
1
-
|ψ1est ! |r2 !
|1!
|0!
|0!
|1!
Tabelle 3.1: Analytische Ergebnisse für N = 1
α1 α2
aa
as
sa
ss
θ2est
π
π
0
π
2
φest
2
frei
|ψ2est !
|1!
|1!
|0!
√1 (|0! − eiϕ3 |1!)
2
|r3 !
|0!
|0!
|1!
√1 (|0! + eiϕ3 |1!)
2
Tabelle 3.2: Analytische Ergebnisse für N = 2
α1 α2 α3
aaa
aas
asa
ass
saa
sas
ssa
sss
θ3est
π
π
π% &
arccos − 13
0
0
π
2
π
2
φest
3
frei
ϕ3 + π
ϕ3
|ψ3est !
|1!
|1!
|1!
√
&
%
1
√
|0! − 2eiϕ4 |1!
3
|0!
|0!
√1 (|0! − eiϕ3 |1!)
2
√1 (|0! + eiϕ3 |1!)
2
|r4 !
|0!
|0!
&
%√ |0! iϕ
1
√
2 |0! + e 4 |1!
3
|1!
|1!
√1 (|0! + eiϕ3 |1!)
2
√1 (|0! − eiϕ3 |1!)
2
Tabelle 3.3: Analytische Ergebnisse für N = 3
Tabellen 3: In den Tabellen 3.1 bis 3.3 sind die analytischen Ergebnisse für die Messergebnisketten {αi } angegeben. Das Symbol „-“ bedeutet, dass der Parameter φest
ν keine Auswirkung auf
den Zustand hat, da dieser auf einem Pol der Bloch-Kugel liegt. Dagegen bezeichnet „frei“, dass
die Variablen φest
ν und damit auch ϕν nicht durch das Adaptionsverfahren festgelegt werden,
aber sehr wohl unterschiedliche Qubits parametrisieren. Einer dieser Parameter muss jetzt willkürlich gewählt werden. Die weiteren Zustände sind dann in Abhängigkeit von ϕν angegeben.
28
3.5 Shannon-Entropie-Adaption
φest
ν angegeben, da für das adaptive Verfahren zuerst einmal die Referenzzustände
est
wichtig sind, und für die Schätzung nur der letzte geschätzte Zustand |ψN
! benötigt wird. Erhält man zum Beispiel in zwei Messungen die Messergebnisse ss,
schätzt man einen Zustand auf dem Äquator der Bloch-Kugel, der Winkel φest
2 ist
aber noch nicht bestimmt (vergleiche Tabelle 3.2). Durch seine !Wahl,
- und damit
! est
auch der Wahl des Parameter ϕ3 des Referenzzustands |r3 ! = !ψ 3 , wird auch
der entsprechende Winkel im dritten Schritt bestimmt (Tabelle 3.3).
Fidelities Mit diesen Werten kann man die durchschnittlichen Fidelities zwischen geschätztem und wirklichem Qubit berechnen. Für die mittlere Fidelity nach einem Schritt
erhält man:
#
!'
!'
"!
"!
1
! ψ|ψ est (a) !2 pa + ! ψ|ψ est (s) !2 ps dΩψ
F1 =
1
1
4π
!2 .
/
# !
!
! 1
1
θ
π
θ
π
iφ
!cos cos + e sin sin !
=
(1 − cos θ cos 0 − cos φ sin θ sin 0)
4π !
2
2
2
2! 4
!2 .
!
/
! 1
!
θ
θ
iφ
!
!
(3 + cos θ cos 0 + cos φ sin θ sin 0) dΩ
+ !cos cos 0 + e sin sin 0!
2
2
4
#
θ
θ
1
sin2 (1 − cos θ) + cos2 (3 + cos θ) dΩ
=
16π
2
2
7
(3.21)
=
= 0, 583
12
Genauso ergibt sich die mittlere Fidelity nach zwei Schritten zu:
#
!'
!'
"!
"!
1
! ψ|ψ2est (aa) !2 L2 (aa) + ! ψ|ψ2est (as) !2 L2 (as)
F2 =
4π
!'
!'
"!2
"!2
+ ! ψ|ψ2est (sa) ! L2 (sa) + ! ψ|ψ2est (ss) ! L2 (ss) dΩ
.
.
/
/
#
1
1
1
2
2 θ
2 θ
=
sin
(1 − cos θ) + sin
(1 − cos θ) (3 + cos θ)
4π
2 16
2 16
.
/
θ 1
(3 + cos θ) (1 + cos θ)
+ cos2
2 16
!
!2 .
/
1 !!
θ
1
θ !!
iφ
+ !cos + e sin !
(3 + cos θ) (3 − cos θ) dΩ
2
2
2
16
=
7
= 0, 583 ≡ F 1
12
(3.22)
29
3 Symmetriemessungen
Die Fidelities nach einem und zwei Schritten sind identisch! Man gewinnt beim zweiten
Schritt im Mittel keine besseren Schätzwerte. Außerdem liegt F 2 unter dem Wert von
0,62, den man numerisch nach zwei Schritten mit zufälligen Referenzen erhält.
3.5.1.2 Simulation weiterer Schritte
Da sich die Zahl der möglichen Messergebnisse mit jedem weiteren Schritt verdoppelt,
können nicht mehr alle Schätzwerte analytisch berechnet werden. Deshalb wurde auf das
Hilfsmittel der Monte-Carlo-Simulation zurückgegriffen. Details der Umsetzung finden
sich in Anhang C.
FN
∆2 F
1
2
3
5
10
20
25
30
0,583
0,584
0,623
0,652
0,703
0,770
0,790
0,800
0,078
0,079
0,072
0,070
0,062
0,045
0,041
0,038
0,90
0,85
0,80
Fidelity F
N
0,75
0,70
0,65
Shannon-EntropieAdaption
Zufällige Referenzen
0,60
0,55
0
5
10
15
20
Zahl der Messungen N
Abbildung 3.3: Shannon-Entropie-Adaption im Vergleich mit zufälligen Referenzen.
Durchschnittliche Fidelity der Shannon-Entropie-Adaption F aufgetragen gegen die Zahl der
Kopien N . Zum Vergleich sind die Fidelities aus der zufälligen Referenzwahl aufgetragen. In der
2
Tabelle sind exemplarisch einige Zahlenwerte der Fidelity und ihrer Varianz ∆F 2 = F 2 −F für
die Shannon-Entropie-Adaption angegeben. Wiederum aus Laufzeitgründen wurde der Wert für
N = 30 über 7.000 Läufe gemittelt, der für N = 25 über 8.500 Läufe und alle anderen Werte,
auch die für den Graphen, über 10.000.
Die Ergebnisse sind in Abbildung 3.3 dargestellt, aus ihnen erhält man folgendes Bild:
• Die Methode konvergiert im Durchschnitt. Je höher N um so besser die Fidelity.
30
3.5 Shannon-Entropie-Adaption
• Der Fidelity-Zuwachs des Entropie-Verfahrens ist nicht gleichmäßig. Die durchschnittliche Fidelity nach dem zweiten Schritt ist gleich der nach dem ersten; dafür
steigt sie bei N = 3 relativ stark an. Ebenso ist der Gewinn von Schritt 2 auf 3
größer als der von Schritt 3 auf 4.
• Die Ergebnisse sind schlechter als die, die man mit zufälligen Referenzen erhält.
3.5.1.3 Verbesserung des Entropie-Verfahrens
Ein Adaptionsverfahren das schlechtere Werte als ein nichtadaptives Verfahren liefert,
ist sicherlich nicht befriedigend. Es stellt sich die Frage, ob dieses Scheitern ein grundlegendes Problem der Entropie-Adaption darstellt, oder ob es Möglichkeiten gibt, das
Verfahren soweit zu verbessern, dass es Fidelities größer als diejenigen aus der Methode der zufälligen Referenzen liefert. Dazu werden in den folgenden Abschnitten drei
Modifikationen der Entropieadaption untersucht:
• Während der ersten Messschritte liegt nur wenig Information über den Zustand |ψ!
vor; man kann Vermuten, dass das Adaptionsverfahren aufgrund dieser mangelnden
Information versagt. Eine Lösungsmöglichkeit wäre es dann, wie in Abschnitt 3.5.2
beschrieben, die ersten Referenzzustände fest zu wählen, und mit der Adaption erst
später zu beginnen.
• Eine andere Verbesserungsmöglichkeit besteht darin, nicht den momentan geschätzten Zustand |ψνest ! in die Adaptionsbedingung (3.18) einzusetzen, sondern
die volle Likelihood-Information zu verwenden. Dies ist in Abschnitt 3.5.3 diskutiert.
• Man kann auch argumentieren, dass es aufgrund des vierdimensionalen HilbertRaums nötig wäre, nicht die Entropie bezüglich der zwei Messergebnisse s und a
zu maximieren, sondern die Entropie bezüglich aller vier möglichen Messergebnisse
einer vollständigen Bell-Messung. Dies neue Adaption, die zur Bedingung pa = 14
führte, wird in Abschnitt 3.5.4 untersucht.
Es stellt sich heraus, dass keine dieser Modifikationen zu einer zufriedenstellenden
Adaption führt. Deshalb wird in Abschnitt 3.6 eine neue Adaptionsmethode, die Maximierung der erwarteten Fidelity, vorgestellt, die zu einer signifikanten Verbesserung
gegenüber der zufälligen Referenzwahl führt. Um zu erklären, wieso die ShannonEntropie-Maximierung keine Vorteile bringt, ist es sinnvoll zuerst die vollständigen
31
3 Symmetriemessungen
Bell-Messungen zu betrachten, was in Kapitel 4 geschieht. Die Erklärung für die
Probleme der Entropie-Maximierung wird dann in Abschnitt 4.5.2 gegeben.
3.5.1.4 Anmerkung zur Konvergenz
Bevor diese Versuche zur Verbesserung dieser Situation diskutiert werden, sei angemerkt, dass das Shannon-Entropie-Verfahren zwar im Mittel aber nicht für jede einzelne
Messreihe konvergiert. Ist der zu bestimmende Zustand beispielsweise |1!, der erste Referenzzustand |0! und das erste Messergebnis s (ps = 21 ), dann wird der erste adaptierte
Referenzzustand |r2 ! = |1!. Dann erhält man bei der zweiten Messung mit Sicherheit
das Ergebnis s, was zu einem dritten Referenzzustand auf dem Äquator, zum Beispiel
|r3 ! = √12 (|0! + |1!), führt. Unabhängig vom damit erhaltenen Messergebnis bleibt der
nächste geschätzte Zustand auf dem Äquator; ab nun liegen alle Referenzen und geschätzten Zustände auf dem Äquator; es kann zu keiner Konvergenz hin zum richtigen
Zustand |1! auf dem Südpol kommen.
3.5.2 Modifikation mit Symmetriebrechung
Die Entropieadaption liefert bei der zweiten Messung im Durchschnitt keine Information.
Möglicherweise lässt die mangelnde Information zu Beginn der Messreihe keine sinnvolle
Entropieadaption zu. Deshalb bietet es sich an, zuerst mehrere Referenzzustände fest zu
wählen, und erst später mit der Adaption zu beginnen.
Dies löst auch folgendes Problem, das auftritt, wenn man die ersten beiden Referenzzustände wie im beschriebenen Algorithmus mit parallelen oder antiparallelen BlochVektoren, zum Beispiel |r1 ! = |0! , |r2 ! = |0! oder |r1 ! = |0! , |r2 ! = |1!, wählt: Bei
einem von der Sequenz der Messergebnisse abhängigen Schritt ν muss der Winkel ϕν
gewählt werden. Dies tritt bei der Messfolge ss im zweiten, bei der Folge ass im dritten
Schritt auf (siehe Tabelle 3.2 beziehungsweise 3.3). Bei Folgen, die anders beginnen, ist
die Wahl erst in späteren Schritten nötig; erhält man in allen Messungen das Ergebnis
a, erfolgt gar keine Wahl, da der vermutete Zustand immer |1! bleibt. Die durch den
Algorithmus erreichte Fidelity hängt stark von der ϕν -Wahl ab.
Im schlimmsten Fall liegt der unbekannte Zustand |ψ! auf dem Äquator der BlochKugel. Dann sind die wahrscheinlichsten Ergebnisse für die ersten beiden Messungen ss.
Man schätzt dann einen Zustand auf dem Äquator, die φest
ν -Koordinate ist aber frei; je
nach ihrer Wahl schätzt man den richtigen Zustand, den dazu orthogonalen oder einen
„dazwischen“. Die erzielte Fidelity kann also jeden Wert zwischen 0 und 1 annehmen.
32
3.5 Shannon-Entropie-Adaption
Da die errechnete Likelihood, bis die Wahl nötig wird, unabhängig von ϕν ist, liegt bis
dahin keinerlei gemessene Information vor, die Hinweise auf eine möglichst gute Wahl
liefern könnte.
Um von der ungenauen Information nach nur einem Schritt unabhängig zu werden
und die Rotationssymmetrie möglichst früh zu brechen, kann man den Algorithmus
folgendermaßen modifizieren: Man wählt als Referenzzustand für die zweiten Messung
|r2 ! eine Zustand, dessen Bloch-Vektor senkrecht zu dem von |r1 ! ist, dass heißt der
Überlapp beider Zustände beträgt 12 . Erst ab dem zweiten Schritt werden die Referenzzustände nach dem Prinzip maximaler Entropie, also senkrecht zum vermuteten
Zustand, gewählt. Der geschätzte Zustand wird weiterhin nach jedem Schritt über das
Maximum der Likelihood gefunden.
Genauso kann man auch die ersten drei Zustände senkrecht auf der Bloch-Kugel
wählen. Die ersten drei Referenzen sind dann:‡ |r1 ! = |0!, |r2 ! = √12 (|0! + |1!) und
|r3 ! = √12 (|0! + i |1!).
Ergebnisse
Wie erwartet ist das Verhalten der beiden Modifikationen und des ursprünglichen Algorithmus’ bei nur wenigen Schritten unterschiedlich. Es gibt in allen drei Vorgehensweisen
einen Schritt bei dem sich die gemittelte Fidelity nicht verbessert. Dies ist jeweils der
erste Schritt, bei dem die Referenzwahl mittels Entropiemaximierung greift, also im ursprünglichem Algorithmus der zweite, bei zwei festen Referenzen der dritte, bei dreien
der vierte. Zumindest die erste Referenzwahl nach dem Entropieargument wählt also
nicht den besten sondern sogar den schlechtesten Referenzzustand.
Für eine hohe Anzahl von Messungen sind die beiden Modifikationen und der ursprüngliche Algorithmus wieder gleichwertig. Es kommt also auf die Wahl der ersten
Messrichtungen nicht an; die Entropieadaption ist also nicht nur während der ersten
Schritte ungeeignet.
‡
Bei Spin-Messungen liefert eine solche orthogonale Wahl der Messrichtungen bei drei Messungen
optimale Ergebnisse [12].
33
3 Symmetriemessungen
0,90
0,85
Fidelity F
0,80
0,75
0,70
Shannon-EntropieAdaption
Symmetriebrechung 1
Symmetriebrechung 2
Zufällige Referenzen
0,65
0,60
0,55
0
5
10
Messungen N
15
20
Abbildung 3.4: Adaption mit Symmetriebrechung. Hier werden die Fidelities aus Entropieadaption mit zwei (Symmetriebrechung 1) beziehungsweise drei (Symmetriebrechung 2)
festen Anfangsreferenzen im Vergleich zur ursprünglichen Shannon-Entropie-Adaption (Abschnitt 3.5.1) dargestellt.
3.5.3 Verfeinerung der Entropieadaption
Die bisherigen Ergebnisse erwecken den Anschein einer Fehlerhaftigkeit der Entropieadaption. Möglicherweise liegt das Problem aber auch an einer ineffizienten Verwendung
!
der Messdaten: Bisher wurde in die Bedingung pa = 12 |$ψ|r!|2 = 12 für $ψ| immer $ψνest |
eingesetzt. Das gesamte bereits gewonnene Wissen über den unbekannten Zustand befindet sich aber in Lν , Gleichung (3.15), der Likelihood nach ν Messungen, die von den
jeweils ν Referenzen {|ri !} und Messergebnissen {αi } abhängt, und aus der |ψνest ! per
Likelihood-Maximierung gewonnen wird. Wenn wir dieses Vorwissen vollständig berücksichtigen wollen, müssten wir über alle möglichen Zustände, gewichtet mit Lν , mitteln.
Dann ist die erwartetet Wahrscheinlichkeit das Ergebnis a zu erhalten:
pa ∼
#
Lν ({αi } , {|ri !} , |ψ!) |$ψ|r ν !|2 dΩψ
(3.23)
Diese Wahrscheinlichkeit ist immer kleiner als 21 , da Lν niemals eine Dirac-Distribution
34
3.5 Shannon-Entropie-Adaption
ist. Somit kann die Entropie nicht mehr, wie im vorhergehenden Fall, das Maximum
log2 2 = 1bit annehmen. Vielmehr wird die Entropie dann maximal, wenn auch pa maximal ist.
Extremwerte von pa erreicht man, wie man durch gleich Null setzen der Ableitung von
Gleichung (3.23) überprüfen kann, durch die Wahl von§
I3
I3
∨ ϕν = π + arctan
I
I
.2
/2
I2
I3
= arctan
cos ϕν + sin ϕν
I1
I1
ϕν = arctan
ϑν
(3.24)
mit den Koeffizienten
I1 =
I2 =
I3 =
#
#
#
Lν sin θ cos θ dΩ
Lν cos φ sin2 θ dΩ
Lν sin φ sin2 θ dΩ.
(3.25)
Eines der beiden Wertepaare (ϕν , ϑν ) ist ein Minimum, das andere ein Maximum.
Adaptiert man auf das Maximum, erhält man die in Abbildung 3.5 dargestellten Werte, die nur sehr geringfügig mit N steigen. So gewinnt man also fast keine Information
über |ψ!!
Eigentlich erwartet man ein solches Bild bei einer Minimierung, da dabei pa = 0
gesetzt wird und man deshalb immer das Messergebniss s und damit auch keine neuen
Informationen erhält. Die so erhaltenen Ergebnisse sind zu Vergleichszwecken ebenfalls
in Abbildung 3.5 aufgetragen. Man findet nur geringfügig schlechtere Werte.
Augenscheinlich führt die Verwendung der vollen Likelihood-Information zu schlechteren Fidelities. Man kann argumentieren, dass das Mitteln über die Likelihood die
A-priori-Information, dass ein reiner Zustand vorlag, vernachlässigt. Andererseits ist es
aber auch unstrittig, dass die Likelihood die zusätzliche Information einbringt, inwieweit die bislang erzielten Messergebnisse konsistent sind; ob die Likelihood durch im
Einklang miteinander stehende Messergebnisse einen klaren Peak ausbildet, oder ob wegen sich widersprechender Ergebnisse eine breite Verteilung entsteht. Auf jeden Fall zeigt
§
Mit arctan sei hier der kleinste positive Wert des Arkustangens bezeichnet. Somit gibt es für die
Gleichung tan ϑ = x mit ϑ ∈ [0, π] genau eine Lösung ϑ = arctan x, für tan ϕ = x mit ϕ ∈ [0, 2π[
jedoch zwei: ϕ = arctan x ∨ ϕ = π + arctan x.
35
3 Symmetriemessungen
0,90
!
5
10
20
0,639
0,651
0,679
∆2 F
0,076
0,081
0,078
!
pa =0:
N
F
5
10
20
0,644
0,655
0,661
∆2 F
0,074
0,080
0,083
Shannon-EntropieAdaption
Zufällige Referenzen
verfeinerte ShannonEntropie-Adaption
minimaler Informationsgewinn
0,85
0,80
Fidelity F
pa = max .:
N
F
0,75
0,70
0,65
0,60
0,55
0
5
10
15
20
Zahl der Messungen N
Abbildung 3.5: Verfeinerung der Entropieadaption. Die Shannon-Entropie-Adaption wird
durch Verwendung des Vorwissens in Gestalt der Likelihood-Verteilung modifiziert. Dann kann
!
!
die Adaptionsbedingung pa = 12 nicht mehr erreicht werden. Stattdessen muss pa = max . verwendet werden. Damit erhält man Fidelities die kaum besser sind, als wenn man die ungünstigste
!
Adaptionsstrategie pa =0 (minimaler Informationsgewinn) verwendet.
der flache Verlauf der Fidelity bei der verfeinerten Adaption, dass die Konvergenz der
ursprünglichen Entropie-Adaption nicht auf dem Prinzip der Entropieadaption selbst,
sondern bestenfalls auf der A-priori-Information, dass ein reiner Zustand vorlag, beruht.
3.5.4 „Entropieadaption“ pa =
1
4
Die Bedingung für die Shannon-Entropie-Adaption pa = ps = 21 ist Konsequenz der
Forderung der Gleichverteilung dichotomer Messausgänge. Der Hilbert-Raum in dem
die Symmetriemessungen vorgenommen werden ist jedoch vierdimensional. Dass wir
Zweiwertigkeit der Messergebnisse mehr oder weniger willkürlich durch Zusammenfassen
von drei der eigentlich vier möglichen Bell-Messungs-Ergebnisse erzeugen, sollte keine
Auswirkungen auf die Shannon-Entropie (3.16) haben. Dennoch wird hier eine Adaption
mit pa = 41 , ps = 34 statt pa = ps = 21 versucht. Dies ist äquivalent zu der Forderung
!' est ! "!2 1
! ψ ! rν ! = .
ν−1
2
Diese Adaption bestimmt den neuen Referenzzustand nicht mehr eindeutig, es gibt
! est "
nicht nur einen Zustand, der diese Bedingung erfüllt. Ist zum Beispiel !ψν−1
= |0!, so
36
3.5 Shannon-Entropie-Adaption
gilt pa = 14 für alle Qubits auf dem Äquator der Bloch-Kugel. Die endgültige Wahl des
Referenzzustands hat erheblichen Einfluss auf die Güte des Adaptionsverfahrens.
!' est ! "!2
!rν ! = 1 zu erzielen ist die Wahl ϕν = φest und ϑν =
Eine Möglichkeit ! ψν−1
ν−1
2
est
θν−1
+ π2 . Die so erhaltenen Werte sind deutlich besser als die aus der ursprünglichen
Entropieadaption. Für wenige Schritte sind sie auch besser als die mit zufälligen Referenzen erhaltenen. Bei mehr als zehn Schritten fallen sie jedoch wieder hinter diese
zurück (Abbildung 3.6).
Diese Adaption wählt die Referenzen immer auf dem selben Meridian wie die geschätzten Qubits, was die Brechung der Rotationssymmetrie verzögert. Wie man auch
an den Ergebnissen des nächsten Kapitels erkennt, verringert dies die erzielten Fidelities.
!
Man kann die Referenzen aber auch anders wählen. Allgemein gilt bei pa = 14 :
%
%
&
&
est
ϑν = arccot − cos φest
ν−1 − ϕν tan θν−1
(3.26)
mit beliebig wählbarem ϕν .
Wählt man ϕν zufällig, ergeben sich die in Abbildung 3.6 dargestellten Werte. Man
erhält Fidelities die 1 bis 2% über denen der zufälligen Referenzen liegen. Eine Wahl
von Referenzzuständen mit einer Fidelity von 12 mit den geschätzten Zuständen liefert
also weit bessere Werte als eine Wahl gemäß der ursprünglichen Entropieadaption. Das
bedeutet natürlich nicht, dass die modifizierte Adaption die „korrekte“ ist.
Durch die Bedingung pa = 14 werden die Ergebnisse so stark gewichtet, wie es
den Dimensionen ihrer Untervektorräume entspricht. Abgesehen von den besseren
Ergebnissen, kann hier noch keine Begründung für dieses Vorgehen gegeben werden.
In Abschnitt 4.5.2 wird erklärt wieso die Entropieadaptionen so schlechte Ergebnisse
liefert. Damit kann auch erklärt werden, wieso die in diesem Abschnitt vorgestellte
Adaptionsbedingung bessere Werte ergibt.
Wie bereits in Abschnitt 3.5.3 kann man auch hier die Adaption verfeinern, indem
man die Wahrscheinlichkeiten mit der Likelihood gewichtet und über die Bloch-Kugel
mittelt. Dies liefert aber nur geringfügig bessere Werte.
37
3 Symmetriemessungen
Ad-Hoc-Adaption
mit zufälligem ϕν :
N
F
∆F 2
5
10
20
0,700
0,776
0,850
0,059
0,044
0,025
0,85
0,80
Fidelity F
5 0,701 0,059
10 0,773 0,044
20 0,846 0,027
verfeinerte
AdHoc-Adaption mit
zufälligem ϕν :
N
F
∆F 2
0,90
0,75
Shannon-EntropieAdaption
Zufällige Referenzen
Ad-Hoc-Adaption,
 fest
Ad-Hoc-Adaption,
 zufällig
verfeinerte Ad-HocAdaption,  zufällig
0,70
0,65
0,60
0,55
0
5
10
15
20
Zahl der Messungen N
Abbildung 3.6: Ad-Hoc-Adaption. Dargestellt sind die Fidelities für drei Adaptionsmetho!
den die auf der Wahl pa = 14 beruhen. Diese unterscheiden sich in der Wahl von ϕν , das in
einem Fall auf ϕν = φest
ν−1 gesetzt, in den anderen zufällig gewählt wurde. Die dritte Adaptionsmethode verwendet die in Abschnitt 3.5.3 beschriebene Verfeinerung, angewandt auf die
Ad-Hoc-Adaption. Für die letzten beiden Methoden sind in den Tabellen einige Zahlenwerte
2
für die mittlere Fidelity und ihre Varianz ∆F 2 = F 2 − F angegeben.
3.5.5 Diskussion der Entropieadaptionen
Die ursprünglich angedachte Entropiemaximierung liefert extrem schlechte Ergebnisse,
und auch die ad hoc eingeführte Adaption mit pa = 14 ergibt keine wesentlich besseren
Werte als die zufällige Referenzwahl.
Man kann den Grund dafür darin vermuten, dass die Shannon-Entropie (3.16)
SS = −pa log2 pa − ps log2 ps
nur die Information der Folge der Messergebnisse misst. Die volle Messinformation besteht aber aus Messergebnis und dem Referenzzustand mit dem es erzielt wurde. Gerade
das Informationsmaximum der Messergebnisse wird durch Referenz-Qubits erkauft, die
so ungünstig sind, dass die gesamten Messdaten ({αi } und {|ri !}) kaum Information liefern. Es sollte also besser eine Entropie maximiert werden, die auch die Referenzzustände
38
3.5 Shannon-Entropie-Adaption
mit einbezieht. Die Kullback-Entropie¶ [17, 18, 28]
SK ∼ −
#
f (x) ln
Rx
f (x)
dx
f0 (x)
(3.27)
ist ein solches Maß. Hier ist f0 (x) eine Wahrscheinlichkeitsverteilung die das A-prioriWissen eines Beobachters, in Abhängigkeit eines im Allgemeinen mehrdimensionalen
Parametersatzes x ∈ Rx , ausdrückt. Dieser Beobachter erhält nun eine Nachricht, die
sein Wissen auf die A-posteriori-Wahrscheinlichkeitsverteilung f (x) modifiziert. Dann
ist SK ein Maß für die Information der Nachricht.
Im vorliegenden Fall sind diese beiden Verteilungen die Likelihood-Funktionen Lν−1
und Lν vor und nach der ν-ten Messung. Damit wird die Entropie zu
#
ν
SK ∼ − Lν ({αi } , {|ri !} , |ψ!) ln pαν (|rν ! , |ψ!) dΩψ ,
(3.28)
falls man als Nachricht Referenzzustand und Messergebniss erhält. Bei der Adaption ist
das Ergebnis der nächsten Messung natürlich noch unbekannt, und man muss auch über
die möglichen Messergebnisse mitteln:
#
*
ν
SK ∼ − Lν−1 ({αi } , {|ri !} , |ψ!)
pαν (|rν ! , |ψ!) ln pαν (|rν ! , |ψ!) dΩψ (3.29)
αν ∈{a,s}
Die Integration über den Logarithmus von pαν verursacht eine deutliche Erschwerung der
Auswertung für größere N. Beim ersten Adaptionsschritt ist L0 jedoch konstant; deshalb
ist die Kullback-Entropie (3.29) dann äquivalent zur Shannon-Entropie (3.16) der Messergebnisse. Grade hier liefert die Shannon-Entropie-Adaption keinen Fidelity-Zuwachs.
Die Kullback-Entropie kann also im ersten Schritt die Probleme der Shannon-Adaption
nicht beseitigen; die Gründe für das Fehlschlagen der Entropieadaption sind anderswo
zu suchen.
Ein generelles Problem der Entropieansätze ist, dass für die Entropieadaption natürlich nur die bisher erhaltene Information über den unbekannten Zustand verwendet werden kann. Nur wenn diese Information korrekt ist, ist der Informationsgewinn maximal.
Deshalb kann die Entropiemaximierung gerade im kritischen Fall ungenauer Information
¶
Die Definition der Kullback-Entropie bezüglich eines positiven Vorfaktors frei. Da im weiteren die
unnormierte Likelihood Lν auftritt, und ein konstanter Faktor für die Maximierung unerheblich ist,
werden hier nur Proportionalitäten angegeben.
39
3 Symmetriemessungen
schlechte Ergebnisse liefern. Dies gilt aber genauso für alle anderen adaptiven Verfahren; man kann immer nur von der vorhandenen Information ausgehen. Die im nächsten
Abschnitt beschriebenen Adaptionsmethoden mit Fidelity-Maximierung liefern jedoch
gute Ergebnisse, nur die Entropieadaption ist schlechter als die Verwendung zufälliger
Referenzen.
In Abschnitt 4.5.2 wird eine Erklärung für dieses Verhalten der Entropieadaption gegeben, doch dazu zunächst die vollständigen Bell-Messungen mit Unterscheidung aller vier
möglichen Ergebnisse betrachten. Aufgrund des an dieser Stelle noch nicht verstandenen
Scheiterns der Entropieadaptionen stellt sich die Frage, ob man die Entropieadaption
nicht aufgibt, und einen anderen Versuch, befriedigende Ergebnisse zu erhalten, verfolgt,
der nicht auf informationstheoretischen Argumenten sondern auf der direkten Maximierung der Zielfunktion Fidelity beruht.
3.6 Fidelity-Maximierung
Die im vorigen Abschnitt dargestellten Ergebnisse der Referenz-Wahl mit Hilfe der
Entropiemaximierung deuten auf einen grundlegenden Fehler des Entropieargument hin.
Deshalb soll im Folgenden eine alternative Wahl der Referenzzustände beschrieben werden. Dazu wird die erwartete Fidelity nach der nächsten, der (ν + 1)-ten, Messung als
Zielfunktion benutzt, die es in Abhängigkeit von den Referenzzuständen zu maximieren
gilt.&
Es liegen also bereits ν Messergebnisse {αi } vor, die mit den ν Referenzzuständen
{|ri !} gefunden wurden. Gesucht ist der nächste Referenzzustand |rν+1 !, der die Ziel$
Bei dieser Berechnung treten die Winkelparameter der Zustände zahlreich auf. Deshalb sei hier noch
einmal die Parametrisierung der Zustände aufgeführt:
Unbekannter, zu schätzender Zustand:
|ψ! = cos
θ
θ
|0! + eiφ sin |1!
2
2
Geschätzter Zustand, wenn in der nächsten Messung der Messwert αν+1 gefunden wird:
est
est
!
θν+1,α
θν+1,α
! est
iφest
ν+1
ν+1
|0! + e ν+1,αν+1 sin
|1!
!ψν+1,αν+1 = cos
2
2
Für die nächste Messung ν + 1 verwendeter Referenzzustand:
|rν ! = cos
40
ϑν
ϑν
|0! + eiϕν sin
|1!
2
2
3.6 Fidelity-Maximierung
funktion Fidelity maximieren soll. Dieser Referenzzustand ist noch unbekannt, man kann
aber für jedes |rν+1 ! mittels Likelihoodmaximierung (2.2) den geschätzten Zustand in
Abhängigkeit von den beiden möglichen Messergebnissen berechnen. Diese Zustände
! est "
! est "
seien mit !ψν+1,a
und !ψν+1,s
bezeichnet. Man benutzt also als Zielfunktion die im
nächsten Schritt ν + 1 erreichbaren Fidelities, wenn man das Messergebnis a oder s
%! est "
&
%! est "
&
erhält, also F !ψν+1,a
, |ψ! beziehungsweise F !ψν+1,s
, |ψ! . Diese hängen natürlich
vom vorliegenden Zustand |ψ! selbst sowie von dem aufgrund der dann erhaltenen Mes! est
"
sergebnisse geschätzten Zustand !ψν+1,α
ab. Gewichtet man die beiden Fidelities mit
ν+1
der Wahrscheinlichkeit die entsprechenden Messergebnisse zu finden, erhält man eine
erwartete Fidelity:
%! est "
&
%! est "
&
exp
Fν+1
= pa (|rν+1 ! , |ψ!) · F !ψν+1,a
, |ψ! + ps (|rν+1 ! , |ψ!) · F !ψν+1,s
, |ψ!
Da der zu bestimmende Zustand natürlich unbekannt ist, muss man noch über die mögliexp
chen Zustände |ψ! mitteln. Die so erhaltene mittlere erwartete Fidelity sei F ν+1 genannt.
Es gibt verschiedene Möglichkeiten, diesen Wert zu berechnen, die in den nächsten Abschnitten beschrieben sind.
3.6.1 Fidelity-Maximierung ohne Vorwissen:
unvollständige Fidelity-Maximierung
Mittelt man einfach über die Bloch-Kugel, ohne die Zustände zu gewichten, erhält man
für die mittlere erwartete Fidelity nach dem nächsten Schritt:
#
%! est "
&
%! est "
&
1
exp
pa (|rν+1 ! , |ψ!) · F !ψν+1,a
, |ψ! + ps (|rν+1 ! , |ψ!) · F !ψν+1,s
, |ψ! dΩψ
F ν+1 =
4π
(3.30)
Dieser Ausdruck berücksichtigt nicht die bereits vorhandene Wahrscheinlichkeitsinformation über die Verteilung von |ψ!, nämlich die Likelihood Lν ({αi } , {|ri !} , |ψ!).
Die bereits gemachten Messungen fließen nur indirekt über die geschätzten Zustände
! est "
! est "
!ψ
!
ν+1,a und ψν+1,s ein.
Diese Vereinfachung erlaubt eine analytische Berechnung des Integrals in Gleichung (3.30):
41
3 Symmetriemessungen
exp
F ν+1 =
%
&
1
1
est
est
+
cos ϑν+1 cos θν+1,s
− cos θν+1,a
+
2 24
&&
%
%
&
% est
1
est
est
cos φest
+ sin ϑν+1 sin θν+1,s
ν+1,s − ϕν+1 − sin θν+1,a cos φν+1,a − ϕν+1
24
(3.31)
est
Dabei ist zu beachten, dass die θν+1,α
und φest
ν+1,αν+1 von ϑν+1 und ϕν+1 abhängen,
ν+1
! est
"
da !ψν+1,αν+1 die wahrscheinlichsten Zustände sind, falls die nächste Messung mit dem
exp
Referenzzustand |rν+1 ! durchgeführt wird. Um den Wert von F ν+1 zu bestimmen, müssen
!
%
"&
est
also zunächst die Likelihoods Lν+1 {αi } , {|ri !} , !ψν+1,α
maximiert und die daraus
ν+1
! est
"
exp
erhaltenen geschätzten Zustände !ψν+1,αν+1 in F ν+1 eingesetzt werden. Um den nächsexp
ten Referenzzustand |rν+1 ! zu erhalten, muss man die so berechnete Funktion F ν+1
maximieren.
Diese sich so ergebenden, in Abbildung 3.7 dargestellten, Fidelities sind deutlich besser
als die mit zufälligen Referenzen erhaltenen.
3.6.2 Fidelity-Maximierung mit Vorwissen:
vollständige Fidelity-Maximierung
exp
Berücksichtigt man die Likelihood der Zustände |ψ! bei der Integration, so ist F ν+1 :
exp
F ν+1
∼
#
%! est "
&
Lν ({αi } , {|ri !} , |ψ!) (pa (|rν+1 ! , |ψ!) · F !ψν+1,a
, |ψ!
%! est "
&
+ps (|rν+1 ! , |ψ!) · F !ψν+1,s
, |ψ! )dΩψ
exp
(3.32)
Die erwartete Fidelity F ν+1 hängt jetzt auch direkt von allen ν vorherigen Messergebnissen {αi } und dazugehörigen Referenzzuständen {|ri !} ab. Damit kann natürlich das
Integral nicht mehr allgemein analytisch berechnet werden. Stattdessen muss in jedem
Schritt eine Monte-Carlo-Integration durchgeführt werden.
exp
Wird diese Integration bei jeder Berechnung eines Zahlenwertes von F ν+1 bei der
Maximierung ausgeführt, wird die Simulation sehr aufwendig. Allerdings lässt sich die
Berechnung aufgrund der speziellen Struktur des Integrals vereinfachen. Man kann nämlich mittels elementarer Umformungen das Integral auf die Form einer Summe von Inteest
est
est
grationen bringen, aus denen die Variablen ϑν+1 , ϕν+1 , θν+1,a
, φest
ν+1,a , θν+1,s und φν+1,s
herausgezogen werden können. Diese Form ist in Anhang E angegeben.
Somit ist es möglich, zuerst die Integration einmal durchzuführen. Da die Integranden nicht mehr vom Referenzzustand abhängen, können die Ergebnisse diese Rechnung
42
3.6 Fidelity-Maximierung
exp
für jede Berechnung eines Funktionswerts von F ν+1 verwendet werden. Deshalb ist zur
Bestimmung des Maximums keine weitere Integration nötig; der numerische Rechenaufwand wurde erheblich verringert.
3.6.2.1 Doppelte Maximierung
Man kann |rν+1 ! wie in Abschnitt 3.6.1 ohne Berücksichtigung des Vorwissens berechnen, nur dass nun noch die Monte-Carlo-Integration hinzukommt. Das heißt |rν+1 ! wird
folgendermaßen bestimmt:
• Die oben erwähnten und in Anhang E angegebenen Integrale werden per MonteCarlo-Integration berechnet.
! est "
! est "
• Für ein vorgegebenes |rν+1 ! wird per Likelihood-Maximierung !ψν+1,a
und !ψν+1,s
bestimmt.
exp
• So kann F ν+1 für beliebige |rν+1 ! berechnet und damit auch maximiert werden.
exp
Dasjenige Qubit |rν+1 !, das F ν+1 maximiert, wird als nächste Referenz gewählt.
Wie man in Abbildung 3.7 sieht, sind die Ergebnisse praktisch gleichwertig zu denen aus
der Fidelity-Maximierung ohne Vorwissen, obwohl die numerische Berechnung ungleich
aufwendiger ist.
3.6.2.2 Sechsdimensionale Maximierung der Fidelity
! est "
Eine andere Methode zur Berechnung von Gleichung (3.32) besteht darin, !ψν+1,a
und
! est "
exp
!ψν+1,s als unabhängig von |rν+1 ! zu betrachten, und F ν+1 damit als Funktion von sechs
Variablen aufzufassen. Diese Methode wurde bereits in [3] verwendet.
Es wird also keine Likelihood-Maximierung vorgenommen, sondern eine sechsdimenexp
sionale Maximierung von F ν+1 .∗∗ Als Ergebnis erhält man die maximierenden Zustände
! est "
! est "
! est "
|rν+1 !,!ψν+1,a und !ψν+1,s , wobei |rν+1 ! der nächste Referenzzustand ist, und !ψν+1,a
! est "
oder !ψν+1,s
die nächsten Schätzwerte sind, je nachdem welches Messergebnis die nächste Messung liefert. Die Wahl des Schätzwerts durch Likelihoodmaximierung fällt weg.
Diese Methode liefert bei N = 3..13 eine weitere, kleine Verbesserung der Fidelities,
die aber im Bereich der numerischen Fehler liegt (vergleiche Abbildung 3.7).
∗∗
Wobei natürlich immer noch die Monte-Carlo-Integration durchgeführt werden muss.
43
3 Symmetriemessungen
unvollständig:
N
F
∆F 2
0,712
0,791
0,864
0,85
0,80
∆F
2
5 0,709 0,057
10 0,788 0,042
20 0,865 0,023
sechsdimensional:
N
F
∆F 2
5
10
20
0,90
0,060
0,044
0,026
0,055
0,039
0,023
Fidelity F
5 0,711
10 0,788
20 0,864
vollständig:
N
F
0,75
Zufällige Referenzen
Unvollständige Fidelity-Maximierung
Vollständige FidelityMaximierung
6D-Fidelity-Maximierung
0,70
0,65
0,60
0,55
0
5
10
15
20
Zahl der Messungen N
Abbildung 3.7: Adaption auf maximale erwartete Fidelity. Dargestellt sind die mittleren Fidelities der drei in diesem Abschnitt beschriebenen Fidelity-Maximierungs-Strategien im
Vergleich mit der zufälligen Referenzwahl. In den Tabellen sind exemplarische Zahlenwerte für
2
die mittlere Fidelity F und ihre Varianz ∆F 2 = F 2 − F angegeben. Man erkennt, dass die
Ergebnisse aus diesen drei Strategien, trotz enormen Unterschieden im Rechenaufwand, praktisch identisch sind, und dass sie einen deutlichen Fidelity-Gewinn gegenüber Messungen mit
zufälligen Referenzen liefern.
3.6.3 Ergebnisse der Fidelity-Maximierung
Die direkte Fidelity-Maximierung liefert Ergebnisse die signifikant besser als die aus allen
bisher betrachteten Adaptionsstrategien sind. Diese sind allerdings mit höherem numerischen Rechenaufwand verbunden. Während die unvollständige Fidelity-Maximierung
mit moderatem Rechenaufwand (Maximierung einer Funktion, die selbst eine Maximierungsaufgabe enthält, bezüglich zweier Variablen) eine Verbesserung bis zu 0,05 erbringt,
liefert die sechsdimensionale vollständige Fidelity-Maximierung bei bedeutend höherem
Aufwand (Maximierung einer Funktion, die eine numerische Integration enthält, bezüglich sechs Variablen) keine Verbesserung die über die numerischen Fehler herausgeht.
Dass die in der Likelihood enthaltene Information keine Rolle spielt, ist überraschend.
Die unvollständige erwartete Fidelity ist nämlich eine kontrastarme Funktion, das heißt
sie unterscheidet sich kaum von 0,5. Dies kann man sich leicht klarmachen: Für große
N haben neue Messinformationen im Normalfall nur geringe Auswirkungen auf die ge! est "
! est "
schätzten Zustände; !ψν+1,a
und !ψν+1,s
liegen deshalb sehr nahe beieinander. Dann
44
3.6 Fidelity-Maximierung
! est "
! est "
kann man in der Integration (3.30) !ψν+1,a
und !ψν+1,s
gleichsetzten, und man erhält:
exp
F ν+1
1
=
4π
#
%! est
"
&
1
F !ψν+1,s/a
, |ψ! dΩψ =
2
Dennoch liegen die Maxima augenscheinlich an so aussagekräftigen Punkten, dass sich
noch gute Schätzwerte ergeben.
0,04
0,03
Fidelity-Differenz F
0,02
0,01
0,00
Shannon-EntropieAdaption
Ad-Hoc-Adaption,
 zufällig
verfeinerte Ad-HocAdaption,  zufällig
Unvollständige Fidelity-Maximierung
6D-Fidelity-Maximierung
-0,01
-0,02
-0,03
-0,04
-0,05
-0,06
-0,07
0
5
10
15
20
Zahl der Messungen N
Abbildung 3.8: Fidelity-Differenz zwischen Adaption und zufälliger Referenzwahl. Hier
ist die Differenz zwischen den Fidelities ∆F aus den verschiedenen adaptiven Verfahren und
denen aus der zufälligen Referenzwahl ∆F = Fadaptiv − Fzufällig gegen die Zahl der verwendeten
Kopien N aufgetragen. Wie man sieht, liefert die Gruppe der Fidelity-Maximierungs-Strategien
Ergebnisse die sich untereinander innerhalb der Fehlergrenzen nicht unterscheiden; dasselbe gilt
auch für die der Ad-Hoc-Adaptionen auf pa = 41 . Letztere liefern einen Fidelity-Zuwachs von
bis zu 0, 02 gegenüber den zufälligen Referenzen, während die Fidelity-Maximierungen diesen
Zuwachs noch einmal fast verdoppeln. Beide Gruppen liefern den maximalen Fidelity-Zuwachs
bei N ≈ 11.
45
3 Symmetriemessungen
3.7 Qualität der Adaptionsstrategien und der
Symmetriemessungen
Für die beiden untersuchten Gruppen von Adaptionsstrategien zeigen sich zwei grundsätzlich verschiedene Situationen, die in Abbildung 3.8 dargestellt sind. Dort ist die
Differenz zwischen den Fidelities ∆F aus den verschiedenen adaptiven Verfahren und
denen aus der zufälligen Referenzwahl ∆F = Fadaptiv − Fzufällig gegen die Zahl der verwendeten Kopien N aufgetragen.
Im Gegensatz zur Anwendung auf die Spin-Messungen in [3, 4] liefern die EntropieStrategien hier extrem schlechte Ergebnisse, während sich die Fidelity-MaximierungsStrategie auch bei den Symmetriemessungen als Strategie bewährt, die deutlich bessere
Fidelities als die zufällig gewählten Referenzen liefert.
Jedoch bleiben die Fidelities weit hinter dem theoretischen Maximum [9] von Fopt =
zurück, insbesondere auch hinter dem Wert 23 , den man im Mittel nach nur einer
Spinmessung erhalten würde. Dies liegt daran, dass die Symmetriemessungen als BellMessungen mit nur teilweisem Auslesen der Messergebnisse definiert wurden. Statt nur
die Ergebnisse a und s zu unterscheiden, könnten alle vier möglichen Ergebnisse der BellMessungen genutzt werden. Dann erhielten wir aus jeder Messung mehr Information.
Dieses Ignorieren von Information muss sich in den erzielten Fidelities niederschlagen.
N +1
N +2
3.8 Verbindungen zur Spin-Messung
Für die vollständigen Bell-Messungen sei auf Kapitel 4 verwiesen. Es gibt jedoch noch
eine andere Herangehensweise an die Frage der niedrigeren Fidelities: Es gilt pa ≤ 12 .
Also sogar wenn |rν ! und |ψ! orthogonal sind ($rν |ψ! = 0), wird mit einer Wahrscheinlichkeit von 21 das Ergebnis s gefunden, obwohl die Zustände nicht unterschiedlicher sein
könnten. In diesem Abschnitt wird untersucht, inwieweit eine Transformation des Produktzustands |ψ! |rν ! diese Wahrscheinlichkeiten optimieren kann; dabei wird gezeigt,
dass dies zurück zu den Spin-Messungen aus [3, 4] führt. Da die Argumentation unabhängig vom Adaptionsschritt ν ist, verzichten wir im Folgenden auf den Index des
Referenzzustands: |r! ≡ |rν !
46
3.8 Verbindungen zur Spin-Messung
3.8.1 Symmetriemessung mit vorhergehender Transformation
Bis jetzt wurden Symmetriemessungen nur an separablen Zuständen |rν !R |ψ!M durchgeführt. Deshalb konnte die Wahrscheinlichkeit den Produktzustand im antisymmetrischen
Untervektorraum zu finden höchstens pa = 21 betragen. Um diese Wahrscheinlichkeit zu
vergrößern, kann man vor der Messung eine Transformation anwenden, die einen Produktzustand aus zwei senkrechten Zuständen auf den Singlett-Zustand |Ψ− ! abbildet:
! "
1
|r!R |r!M → √ (|r!R |r!M − |r!R |r!M ) = !Ψ−
2
2
Dann wird für diesen Produktzustand pa → |$Ψ− |Ψ− !| = 1.
|r!R
H
Z
c0 |Ψ− ! + c1 |Φ−
r !
|ψ!M
Abbildung 3.9: Gatter für die Transformation
Die hierfür benötigte Transformation besteht aus einem Hadamard-Gatter und einem
Phasengatter für den Zustand in R und einem CNOT-Gatter mit dem transformierten
Zustand als Kontrollqubit. Jedoch müssen alle Operationen bezüglich der {|r! , |r!}-Basis
ausgeführt werden; das heißt, das Hadamard-Gatter H hat die Wirkung
1
|r!R → √ (|r!R + |r!R )
2
1
|r!R → √ (|r!R − |r!R ) ,
2
das Phasengatter Z
|r!R →
|r!R
|r!R → − |r!R ,
47
3 Symmetriemessungen
und das CNOT-Gatter CNOT
|r!R |r!M → |r!R |r!M
|r!R |r!M → |r!R |r!M
|r!R |r!M → |r!R |r!M
|r!R |r!M → |r!R |r!M .
Dann transformiert das gesamte Gatter den Zustand |r!R |r!M wie gewünscht:
! "
1
CNOT Z H |r!R |r!M = √ (|r!R |r!M − |r!R |r!M ) = !Ψ−
2
Liegen zwei gleiche Zustände vor, hat das Gatter folgenden Effekt:
! "
1
CNOT Z H |r!R |r!M = √ (|r!R |r!M − |r!R |r!M ) = !Φ−
r
2
Da man jedes Qubit |ψ! nach |r! und |r! entwickeln kann |ψ! = c0 |r! + c1 |r!, erhält
man für beliebige Zustände:
! "
! "
CNOT Z H |r!R |ψ!M = c0 !Ψ− + c1 !Φ−
r
(3.33)
Eine Symmetriemessung liefert nun mit der Wahrscheinlichkeit pa = |c0 |2 das antisymmetrische Ergebnis und mit der Wahrscheinlichkeit ps = |c1 |2 = 1 − |c0 |2 das
symmetrische. Insbesondere erhält man bei |ψ! = |r! immer das Ergebnis a.††
3.8.2 Vergleich mit Polarisations-/Spin-Messung
Die beschriebene Transformation hängt vom Referenzzustand |r! ab; dieser muss also,
um die Transformationsmatrizen aufzustellen, bekannt sein. Statt einen solchen Vergleichs eines unbekannten mit einem bekannten Zustand durchzuführen, kann man natürlich auch eine Spin-Messung an |ψ! in Richtung von |r! vornehmen. Auch hier betragen die Wahrscheinlichkeiten:
pr = |c0 |2 =p
ˆ a , pr = |c1 |2 =p
ˆ s
††
Damit ist auch das Problem der nicht verwendeten Information umgangen, da die Bell-Zustände |Ψ+
r !
und |Φ+
r ! gar nicht mehr detektiert werden können; die prinzipiell vierwertige ist auf eine dichotome
Messung zurückgeführt worden.
48
3.8 Verbindungen zur Spin-Messung
Man kann also mit der beschriebenen Transformation und Symmetriemessung exakt
die gleichen Ergebnisse wie mit Spinmessungen erzielen‡‡ ; die Symmetriemessungen nach
Transformationen bringen keine Vorteile, wenn eine Spinmessung möglich ist.
Die Spin-Messungs-Algorithmen die in [3, 4] formuliert sind, scheinen sich technisch
von den hier verwendeten zu unterscheiden. In Anhang F wird gezeigt, dass diese Unterschiede nicht von Bedeutung sind.
‡‡
Insbesondere sind die Fidelities, die man bei Spinmessungen aus der Entropieadaption erhält, deutlich
besser als die aus zufälligen Referenzen; dem bei Symmetriemessungen auftauchende Problem mit
der Entropieadaption, wird durch die Transformation ausgewichen.
49
3 Symmetriemessungen
50
4 Bell-Messungen
4.1 Prinzip der Bell-Messungen
Symmetriemessungen können verwirklicht werden, indem man Messungen in der BellBasis vornimmt. Dabei zählen Messungen von |Ψ+ !, |Φ+ ! und |Φ− ! zum Messergebnis s,
Messungen von |Ψ− ! als Ergebnis a. Bei einem solchen Vorgehen verliert man Informationen, da man die unterscheidbaren Ergebnisse Ψ+ , Φ+ und Φ− nicht weiter differenziert.
Diese Differenzierung durchzuführen ist eine offensichtliche Möglichkeit zur Verbesserung der erzielten Fidelities. Solche Messungen beruhen natürlich nicht mehr allein auf
Austauschsymmetrie.
In diesem Kapitel wird die Effizienz von Bell-Messungen bei Verwendung der für
die Symmetriemessungen benutzten Adaptionsstrategien untersucht. Diese Adaptionsverfahren können für Bell-Messungen angepasst werden, wenn man nur berücksichtigt,
dass Summationen über die möglichen Messergebnisse nun vier statt zwei Terme haben.
4.1.1 Basistransformationen
Im Gegensatz zu den Symmetriemessungen gibt es einen weiteren Freiheitsgrad der Messmethoden:
Der (eindimensionale) antisymmetrische Untervektorraum ist natürlich unabhängig
von der Qubit-Basis, in der der in ihm enthaltene Vektor angegeben wird. Deshalb ist
der Singulettzustand |Ψ− ! invariant unter Basistransformationen, das heißt:
! −"
% ! " ! " &
!Ψ = √1 (|0! |1! − |1! |0!) ≡ √1 |b! !b − !b |b!
(4.1)
2
2
! "
für jede beliebige Basis {|b! , !b }, was im vorigen Kapitel auch gelegentlich verwendet
wurde.
51
4 Bell-Messungen
Für die anderen drei Bell-Vektoren gilt dies nicht mehr:
! +"
1 % ! " ! " &
!Ψ
= √ |b! !b + !b |b!
b
2
! −"
! " ! "&
%
1
!Φ
= √ |b! |b! − !b !b
b
2
! +"
! " ! "&
1 %
!Φ
!b !b
√
=
|b!
|b!
+
b
2
(4.2)
sind für verschiedene Basen unterschiedlich. Nur der von den drei Vektoren aufgespannte
Untervektorraum ist natürlich immer der gleiche, weshalb diese Freiheit bei den Symmetriemessungen keine Rolle spielt.
Somit stellt die Wahl der Basis einen neuen freien Parameter der Bell-Messungen dar,
und wird nicht etwa durch die Mittelung über die Bloch-Kugel wieder ausgeglichen. Eine
andere Basiswahl hat physikalisch andere Messoperatoren und damit unterschiedliche
+
−
Wahrscheinlichkeiten der Messausgänge Ψ+
b , Φb und Φb zur Folge.
4.2 Rechenbasis
In diesem Abschnitt untersuchen wir zuerst die Adaptionsstrategien bei Bell-Messungen
in der Rechenbasis {|0! , |1!}.
In dieser Basis sind die Wahrscheinlichkeiten für die einzelnen Messergebnisse:
1
(1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν ) = pa
4
1
2
= |$Ψ+ | |rν ! |ψ!| =
(1 − cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν )
4
1
2
(1 + cos θ cos ϑν − cos (φ + ϕν ) sin θ sin ϑν )
= |$Φ− | |rν ! |ψ!| =
4
1
2
(1 + cos θ cos ϑν + cos (φ + ϕν ) sin θ sin ϑν )
(4.3)
= |$Φ+ | |rν ! |ψ!| =
4
2
pΨ− = |$Ψ− | |rν ! |ψ!| =
pΨ +
p Φ−
p Φ+
4.2.1 Zufällige Referenzen
Wie erwartet liegen die mit zufälligen Referenzen erzielten Fidelities, die in Abbildung 4.1
dargestellt sind, wesentlich näher am theoretischen Maximum, Gleichung (2.7), als die
aus den Symmetriemessungen des vorherigen Kapitels.
52
4.2 Rechenbasis
4.2.2 Unvollständige Fidelity-Maximierung
Analog zur Fidelity-Maximierung bei den Spin-Messungen ist die zur unvollständigen
Fidelity-Maximierung bezüglich |rν+1 ! zu maximierende Größe:
exp
F ν+1
1
=
4π
#
*
! est "&
%
pα (|rν+1 ! , |ψ!) F |ψ! , !ψν+1,α
dΩψ
(4.4)
α∈{Ψ− ,Ψ+ ,Φ− ,Φ+ }
Was sich bei Vernachlässigung des Vorwissens vereinfacht zu:
exp
F ν+1 =
1
1
est
est
est
est
+
cos ϑν+1 (cos θν+1,Φ
− + cos θν+1,Φ+ − cos θν+1,Ψ− − cos θν+1,Ψ+ )
2 24
&
%
&
%
1
est
est
est
+ sin ϑν+1 (− cos ϕν+1 + φest
ν+1,Φ− sin θν+1,Φ− + cos ϕν+1 + φν+1,Φ+ sin θν+1,Φ+
24
&
&
%
%
est
est
est
sin θν+1,Ψ
+
cos
ϕ
−
φ
− cos ϕν+1 − φest
sin
θ
+)
+
−
−
ν+1
ν+1,Ψ
ν+1,Ψ
ν+1,Ψ
(4.5)
In Abbildung 4.1 sind die so gefundenen Fidelities aufgetragen. Die FidelityMaximierung liefert auch bei den Bell-Messungen einen deutlichen Fidelity-Gewinn
gegenüber den zufälligen Referenzzuständen.
4.2.3 Entropiemaximierung
Bei vier möglichen Messergebnissen ist die Shannon-Entropie
S=−
*
pα log2 pα
(4.6)
α∈{Ψ− ,Ψ+ ,Φ− ,Φ+ }
maximal für pΨ− = pΨ+ = pΦ− = pΦ+ = 14 . Mit den Wahrscheinlichkeiten (4.3) ist
dies jedoch nicht für beliebige θ und φ, das heißt für beliebige Zustände |ψ!, möglich.
Die Entropie müsste also für jeden geschätzten Zustand neu maximiert werden. In Abschnitt 4.6.1 wird aber gezeigt, dass die Gleichverteilung bei der Wahl einer geeigneten
Basis erreicht werden kann. Es ist deshalb nicht sinnvoll, den Referenzzustand durch ein
so kompliziertes Verfahren zu bestimmen, dabei aber die durch nichts ausgezeichnete
Rechenbasis zu verwenden.
53
4 Bell-Messungen
5
10
20
0,813
0,886
0,942
uFM:
N
F
5
10
20
0,836
0,899
0,948
1,00
∆F 2
0,036
0,019
0,005
∆F 2
0,027
0,013
0,004
0,95
0,90
Fidelity F
Zufällige
Referenzen:
N
F
0,85
0,80
Zufällige Referenzen
in Rechenbasis
uFM in Rechenbasis
(N+1)/(N+2)
0,75
0,70
0
5
10
Zahl der Messungen N
15
20
Abbildung 4.1: Bell-Messungen in der Rechenbasis. Fidelities bei zufälliger Referenzwahl
und unvollständiger Fidelity-Maximierung (uFM) in der Rechenbasis aufgetragen gegen die Zahl
der Kopien N . Die mittlere Fidelity für N = 20 bei der uFM ist über 6.669 Läufe gemittelt,
alle anderen über 10.000.
4.2.4 Ergebnisse
Durch die vollständige Verwendung der Information aus Bell-Messungen erhält man
Fidelities, die dem theoretischen Maximum für simultane Messungen nahe kommen.
Die Fidelity-Maximierung liefert eine deutliche Verbesserung gegenüber der zufälligen
Referenzwahl. Wie man dem nächsten Abschnitt entnehmen kann, ist es möglich, diesen
Zuwachs noch weiter zu steigern.
4.3 Referenzbasis
Wieso sollte man ausgerechnet die Bell-Zustände in der willkürlich gewählten Rechenbasis {|0! , |1!} verwenden? Die Wahl einer anderen festen (für jede Messung gleiche)
Referenzbasis würde die Situation nicht verändern, da die unbekannten Zustände gleichmäßig verteilt sind. Allerdings kann natürlich auch bei jeder Messung eine andere Basis
verwendet werden. Eine ausgezeichnete Version dieser variablen Basen ist die Wahl der
Basis entsprechend den jeweiligen Referenzzuständen |rν !. Wie in Abschnitt 4.5.1 gezeigt
wird, sind Bell-Messungen in dieser Referenzbasis {|rν ! , |rν !} äquivalent zu direkten
54
4.3 Referenzbasis
Spin-Messungen. Deshalb soll zunächst diese Messmethode untersucht werden.
Die Wahrscheinlichkeiten der einzelnen Messergebnisse lauten hier:
1
(1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν ) = pa =
4
1
=
(1 − cos θ cos ϑν − cos (φ − ϕν ) sin θ sin ϑν )
4
1
(1 + cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν ) =
=
4
1
=
(1 + cos θ cos ϑν + cos (φ − ϕν ) sin θ sin ϑν )
4
pΨ − =
pΨ +
p Φ−
p Φ+
(4.7)
Man beachte die Gleichheit von pΨ− und pΨ+ sowie von pΦ− und pΦ+ . Jeder unbekannte
Zustand erzeugt die jeweiligen Messergebnisse mit der gleichen Wahrscheinlichkeit. Für
das Maximum-Likelihood-Schätzen macht es deshalb ebensowenig einen Unterschied, ob
man das Ergebnis Ψ− oder Ψ+ , wie es gleichgültig ist ob man Φ− oder Φ+ erhält.
4.3.1 Zufällige Referenzen
Mit zufälligen Referenzen erhält man in der Referenzbasis die in Abbildung 4.2 dargestellten Werte. Diese sind bei kleinen N geringfügig besser als für die Messungen in der
Rechenbasis. Die Unterschiede liegen aber im Bereich der numerischen Fehler.
4.3.2 Unvollständige Fidelity-Maximierung
Die mittlere erwartete Fidelity lautet in diesem Fall:
exp
F ν+1 =
1
1
est
est
est
est
+
cos ϑν+1 (cos θν+1,Φ
− + cos θν+1,Φ+ − cos θν+1,Ψ− − cos θν+1,Ψ+ )
2 24
%
&
%
&
1
est
est
est
+ sin ϑν+1 (cos ϕν+1 − φest
ν+1,Φ− sin θν+1,Φ− + cos ϕν+1 − φν+1,Φ+ sin θν+1,Φ+
24
%
&
%
&
est
est
est
− cos ϕν+1 − φest
ν+1,Ψ− sin θν+1,Ψ− − cos ϕν+1 − φν+1,Ψ+ sin θν+1,Ψ+ )
(4.8)
Hier liegen die Fidelities, die sich ebenfalls in Abbildung 4.2 finden, signifikant über
denen, die man bei Verwendung der Rechenbasis erhält.
55
4 Bell-Messungen
4.3.3 Entropiemaximierung
Für vier mögliche Messergebnisse ist die Shannon-Entropie (4.6)
S=−
*
pi log2 pi
i∈{Ψ− ;Ψ+ ;Φ− ;Φ+ }
maximal wenn pΨ− = pΨ+ = pΦ− = pΦ+ = 14 . Dies führt zur Adaptionsvorschrift: „Wähle
einen Referenzzustand, dessen Bloch-Kugel-Vektor senkrecht zu dem des geschätzten
2
Zustands ist.“ (|$ψνest |rν+1 !| = 21 ) Diese Vorschrift beschränkt den Referenzzustand nur
auf einen Großkreis auf der Bloch-Kugel, legt ihn aber nicht eindeutig fest. Welcher
Zustand nun wirklich als Referenz verwendet wird, muss zufällig gewählt werden.∗
Die durch die Entropiemaximierung gewonnenen Werte vervollständigen Abbildung 4.2. Die Fidelities liegen für N < 10 etwa 0,01 über denen der zufälligen
Referenzwahl. Bis N = 20 werden erstere von letzteren aber wieder eingeholt.
∗
Wie schon im entsprechenden Abschnitt zu Symmetriemessungen (Abschnitt 3.5.4) ergeben feste
Wahlen des freien Parameters schlechtere Ergebnisse.
56
4.3 Referenzbasis
4.3.4 Ergebnisse
In der Referenzbasis erhält man einen noch deutlicheren Fidelity-Zuwachs von bis zu
0,03 gegenüber den zufälligen Referenzen. Die Entropieadaption liefert für kleine N im
Vergleich mit zufälligen Referenzen bessere Fidelities, bleibt aber deutlich hinter der
Fidelity-Maximierung zurück.
Zufällige Referenzen:
N
F
∆F 2
0,817
0,886
0,941
0,035
0,019
0,005
F
∆F 2
5 0,847 0,021
10 0,911 0,009
19 0,949 0,003
Entropieadaption:
N
F
∆F 2
5
10
20
0,828
0,895
0,941
0,027
0,013
0,005
1,00
0,95
0,90
Fidelity F
5
10
20
uFM:
N
0,85
zufällige Referenzen
in Referenzbasis
uFM in Referenzbasis
Entropieadaption
(N+1)/(N+2)
0,80
0,75
0,70
0
5
10
Zahl der Messungen N
15
20
Abbildung 4.2: Bell-Messungen in der Referenzbasis. Fidelities bei zufälliger Referenzwahl, unvollständiger Fidelity-Maximierung (uFM) und Entropieadaption in der Referenzbasis
aufgetragen gegen die Zahl der Kopien N . Die Fidelity-Maximierung liefert Ergebnisse, die sehr
nah am theoretischen Maximum liegen, während sich bei der Entropieadaption Werte ergeben,
die näher an denen aus zufälliger Referenzwahl liegen. Die Fidelities sind über 10.000 Läufe
gemittelt, außer der Fidelity der uFM bei N = 19, die über 6.544 Läufe gemittelt ist.
57
4 Bell-Messungen
4.4 Ergebnisse der Simulationen
In Abbildung 4.3 sind die Fidelity-Verluste der in diesem Kapitel vorgestellten adaptiven
+1
(siehe Abschnitt 2.5) dargestellt.
Verfahren im Vergleich zu den optimalen Fidelities N
N +2
Man erkennt, dass die Ergebnisse aus der Fidelity-Maximierung in der Referenzbasis den
theoretisch möglichen Werten extrem nahe kommen. Die verbleibende Fidelity-Differenz
liegt sogar im Bereich der numerischen Fehler.
0,00
Fidelity-Differenz F
-0,01
-0,02
-0,03
Zufällige Referenzen
in Rechenbasis
zufällige Referenzen
in Referenzbasis
uFM in Rechenbasis
uFM in Referenzbasis
-0,04
-0,05
0
5
10
Zahl der Messungen N
15
20
Abbildung 4.3: Fidelity-Differenz zwischen Adaption und optimalem Verfahren. Hier
ist die Fidelity-Differenz ∆F zwischen adaptiven Verfahren und der optimalen, simultanen
N +1
Messung ∆F = Fadaptiv − N
+2 bei Bell-Messungen in Abhängigkeit von der Zahl der vermessenen Kopien aufgetragen. Dargestellt sind zufälligen Referenzen und unvollständige FidelityMaximierung (uFM) in Rechen- und Referenzbasis. Die Verwendung der Fidelity-Maximierung
halbiert den Nachteil, den man durch zufällige Einzelmessungen gegenüber einer simultanen
Messung erhält. Messung in der Referenzbasis halbiert die Differenz nocheinmal.
58
4.5 Vergleich mit anderen Messmethoden
4.5 Vergleich mit anderen Messmethoden
4.5.1 Bell-Messungen und Polarisations-/Spin-Messungen
Die Simulation eines Bell-Basis-Messverfahrens mit zufälligen Referenzzuständen oder
Fidelity-Maximierung führte in der Referenzbasis zu Fidelities, die in etwa denen der
jeweiligen Spinmessung aus [3, 4] entsprechen. Es wurde bereits in Abschnitt 3.8 gezeigt, dass Symmetriemessungen mit vorgeschaltetem Gatter zu solchen Spinmessungen
äquivalent sind.
Deshalb stellt sich die Frage, ob nicht auch die Bell-Messungen auf Spinmessungen
zurückgeführt werden können. Zur Untersuchung dieser Frage wird der unbekannten
Zustand wieder in Komponenten parallel zum Referenzzustand |r! und dem orthogonalen Zustand |r! zerlegt,† das heißt, man wählt als Basis, in der wir |ψ! darstellen, die
Referenzbasis {|r! , |r!}.
(4.9)
|ψ! = c0 |r! + c1 |r!
Bei einer Spinmessung betragen die Wahrscheinlichkeiten |r! oder |r! zu messen:
pr = |c0 |2 , pr = |c1 |2
(4.10)
Den Produktzustand |r! |ψ! kann man schreiben als:
|r! |ψ! = c0 |r! |r! + c1 |r! |r!
(4.11)
! −"
!Ψ = √1 (|0! |1! − |1! |0!) = √1 (|r! |r! − |r! |r!)
2
2
(4.12)
Da der Singulettzustand
unabhängig von der Rechenbasis ist, gilt immer:
pΨ − =
1
|c1 |2
2
(4.13)
Die anderen Bell-Zustände sind nicht rechenbasisunabhängig; deshalb hängen die anderen Wahrscheinlichkeiten von der Wahl der Rechenbasis ab. Wählt man jedoch die
†
Wie schon am Ende von Kapitel 3 sei im Folgende auf den Index ν verzichtet.
59
4 Bell-Messungen
Rechenbasis immer als {|r! , |r!}, also:
! +"
1
!Ψr
= √ (|r! |r! + |r! |r!)
2
! −"
1
!Φ
= √ (|r! |r! − |r! |r!)
r
2
! +"
1
!Φr
= √ (|r! |r! + |r! |r!) ,
2
(4.14)
(4.15)
(4.16)
dann sind die Wahrscheinlichkeiten gerade:
1
|c1 |2
2
1
|c0 |2
=
2
1
=
|c0 |2
2
pΨ+r =
(4.17)
pΦ−r
(4.18)
pΦ+r
(4.19)
Das heißt, wertet man Messungen, die |Ψ− ! oder |Ψ+
r ! ergeben, als Spinmessung mit
−
+
Ergebnis |r!, und solche mit |Φr ! oder |Φr ! als |r!, so ist das Messverfahren äquivalent
zu den Spinmessungen.
4.5.2 Bell-Messungen und Symmetriemessungen
Die vorangegangene Diskussion erlaubt auch die Beantwortung der Frage, wieso die
Verwendung der Entropieadaption auf die Symmetriemessungen so schlechte Ergebnisse
liefert (Kapitel 3). Bei den Symmetriemessungen werden die drei Bell-Messergebnisse
−
+
Ψ+
b , Φb und Φb zu einem Ergebnis s zusammengefasst. Wegen der Invarianz des symmetrischen Unterraums bezüglich Basistransformationen ist dies unabhängig von der
für die Bell-Zustände verwendeten Basis. Man kann also auch die Referenzbasis wählen,
und erhält damit allgemeingültige Resultate. Wie eben gezeigt, ist die Bell-Messung in
der Referenzbasis zu Spinmessungen äquivalent, wenn man die vier Ergebnisse anders
−
+
kombiniert, nämlich Ψ− und Ψ+
r sowie Φr und Φr . Man kann also sagen, dass sich aus
den Bell-Messungen in der Referenzbasis eine Messung konstruieren lässt, die äquivalent
ist entweder zu den effizienten Spin-Messungen oder zu den ineffizienten Symmetriemessungen, je nachdem wo man das Ergebnis Ψ+
r einordnet.
Aus der Shannon-Entropie-Adaption für Symmetriemessungen folgt die Bedingung
$ψ est |r! = 0. Das heißt, man verwendet im „Idealfall“ für die Messung einen Produktzu60
4.6 Ist die Referenzbasis optimal?
2
stand der Form |r! |r!. Dann ist die Wahrscheinlichkeit pa = pΨ− = |$Ψ− | |r! |r!| = 12 ,
wie von der Entropiemaximierung gefordert, und automatisch auch ps = pΨ+r + pΦ−r +
2
1
pΦ+r = 12 . Dieses ps setzt sich dann aber zusammen aus pΨ+r = |$Ψ+
r | |r! |r!| = 2 und
pΦ−r = pΦ+r = 0. Hier liegt der prinzipielle Mangel der Symmetriemessungen: Die Entropieadaption maximiert nicht nur pa = pΨ−r sondern auch die Wahrscheinlichkeit pΨ+ für
das „falsch einsortierte“ Messergebnis Ψ+
r ! Somit maximiert die Entropieadaption zwar
den Informationsgehalt der Messergebnisse, gleichzeitig aber auch die „Fehlinformation“, die man erhält, wenn man Ψ+
r misst. Um sich dies klarzumachen, kann man auch
Gleichung (4.7) betrachten: Die Shannon-Entropie-Adaption setzt pΦ−r und pΦ+r gleich 0.
Die anderen beiden Wahrscheinlichkeiten sind aber gleich, und damit für die LikelihoodMaximierung nicht zu unterscheiden; aus einer solchen Messung gewinnt man keinerlei
Information.
Daher ist bei der Shannon-Entropie-Adaption der Einfluss der Unzulänglichkeit der
Symmetriemessung am stärksten ausgeprägt. Bei der Fidelity-Maximierung wirkt sich
dieser Einfluss zwar immer noch aus, man gewinnt deutlich schlechtere Fidelities als mit
Spinmessungen, aber er ist so weit reduziert, dass sich bessere Fidelities als mit zufälligen
Referenzen ergeben.
4.6 Ist die Referenzbasis optimal?
Bisher wurden in diesem Kapitel nur zwei Basiswahlen betrachtet: die feste Rechenbasis
{|0! , |1!} (Abschnitt 4.2) und die Referenzbasis {|r! , |r!} (Abschnitt 4.3). Es stellt sich
die Frage, ob es nicht möglich ist, die Basiswahl unabhängig von der Referenzwahl zu
adaptieren und die Messergebnisse so weiter zu optimieren. In diesem Abschnitt wird
zuerst speziell für die Entropieadaption begründet, dass dies nicht möglich ist. Danach
wird ein Argument dafür gegeben, wieso dies auch allgemein gelten sollte.
4.6.1 Entropiemaximierung
Berechnet man die Wahrscheinlichkeiten der vier Messergebnisse ohne die Basis festzulegen, erhält man Funktionen von sechs Variablen, nämlich je zwei für das unbekannte
! "
Qubit |ψ!, den Referenzzustand |r! und die Basis {|b! , !b }. Man hat also vier frei wählbare Parameter, mit denen die Wahrscheinlichkeiten auf 14 gesetzt werden können um
die Shannon-Entropie zu maximieren.
Führt man diese Rechnung durch, erhält man sieses Entropiemaximum aber gerade
61
4 Bell-Messungen
für |b! = |r!.‡ Zumindest nach der Entropiemaximierungsstrategie ist die Referenzbasis
also auch die optimale Basis.
4.6.2 Allgemeine Optimalität
Mit Hilfe der in Abschnitt 4.5 benutzten Überlegungen kann auch argumentiert werden,
dass die Verwendung einer anderen Basis keine besseren Ergebnisse liefern kann. Dazu
geht man von den Bell-Messungen in der Referenzbasis aus, für die pΨ− = pΨ+r = 12 pr
und pΦ−r = pΦ+r = 21 pr gilt, wobei pr und pr die Wahrscheinlichkeiten sind, bei Spinmessungen die Richtung |r! beziehungsweise |r! zu finden. Solange die Bell-Messungen in
der Referenzbasis durchführt, sind sie zu den Spinmessungen äquivalent. Im Folgenden
behält man die Referenzzustände, die der Messrichtung bei Spinmessungen entsprechen,
! "
bei. Verwendet man stattdessen eine andere Basis {|b! , !b } für die Bell-Zustände, bleibt
zwar pΨ− gleich, aber die anderen drei Wahrscheinlichkeiten ändern sich. Das heißt, man
erhält mit einer endlichen Wahrscheinlichkeit ein Bell-Messergebnis, welches bei Messung in der Referenzbasis einem anderem Spin-Messergebnis zugeordnet werden würde.
Wenn aber Spin-Messergebnisse falsch zugeordnet werden, verschlechtert dies sicherlich
die Schätzergebnisse. Bell-Messungen in anderen Basen liefern also schlechtere Ergebnisse als Spin-Messungen und damit auch als Bell-Messungen in der Referenzbasis.
‡
2
Dann folgt natürlich auch die in Abschnitt 4.3.3 beschriebene Adaptionsbedingung |$ψ est |r!| = 21 .
62
5 Frequenzmessungen
In diesem Kapitel soll die Anwendung der Qubit-Schätzmethoden auf die Messung von
Energieniveaus betrachtet werden. Als Messmethode wird dazu die Bell-Messung in der
Referenzbasis verwendet, da sie einerseits deutlich bessere Ergebnisse als die Symmetriemessungen liefert, und andererseits ihre Ergebnisse, wie in Abschnitt 4.5.1 gezeigt,
auch für Stern-Gerlach-Messungen gelten.
5.1 Energiemessungen und Verschränkung
Eine Methode der Präzisionsspektroskopie ist die Ramsey-Spektroskopie [13, 14]. Dabei
wird ein Atom zuerst in einem internen Zustand |0! präpariert, und dann mit einem
sogenannten Ramsey-Puls – analog einer Hadamard-Operation – in eine gleichgewichtete
Überlagerung der Zustände |0! und |1! gebracht.
1
|0! → √ (|0! + |1!)
2
Bei einer freien Zeitentwicklung nimmt die |1!-Komponente dieser Überlagerung eine
Phase auf, die vom Frequenzabstand ω der beiden Niveaus und der Dauer der Entwicklung t abhängt.
&
1 %
1
√ (|0! + |1!) → √ |0! + eiωt |1!
(5.1)
2
2
Die Wahrscheinlichkeit, bei einer σ̂x -Messung den Eigenwert 1 zu messen, beträgt p =
cos2 ωt
. Diese Messung wird durch einen zweiten Ramsey-Puls und eine anschließende
2
σ̂z -Messung des internen Zustands realisiert.
63
5 Frequenzmessungen
Mit Hilfe der Statistik einer Anzahl N solcher Messungen kann der Frequenzabstand
ω geschätzt werden. Dazu werden die bei N Messungen erhaltenen Ergebnisse “Spin up”
gezählt. Diese Summe wird N+ genannt. Der Anteil solcher Ergebnisse an der Gesamtzahl
N+
geht gegen p:
der Messungen N
N+
ωt
−→ cos2
N N →∞
2
(5.2)
Die Frequenz kann also durch direkte Inversion obiger Gleichung geschätzt werden als:
.
/
N+
1
−1
ωN = arccos 2
t
N
(5.3)
Bei diesem Messverfahren besteht eine „Unschärferelation“ zwischen der
0Entwicklungs2
dauer t (Messzeit) und der Standardabweichung der Frequenz ∆ωN := $ωN
! − $ωN !2 ,
nämlich, wie die in Anhang G durchgeführte Rechnung ergibt:
1
t∆ωN = √
N
(5.4)
Wenn man aber statt N einzelner Messungen eine Messung am maximal verschränk%
&
ten Zustand von n nicht wechselwirkenden Atomen √12 |0!⊗n + |1!⊗n vornimmt,∗ dann
beträgt die aufgenommene Phase nωt. Die Wahrscheinlichkeit bei einer entsprechenden
%
&
Messung das Ergebnis √12 |0!⊗n + |1!⊗n zu erhalten ist demnach pver = cos2 nωt
. Da2
bei ist zu beachten, dass für eine solche Messung nicht ein sondern n Atome benötigt
werden. Hat man also weiterhin N präparierte Atome zur Verfügung, so kann man nur
noch A = Nn Messungen ausführen. Man muss also in Gleichung (5.3) lediglich N durch
A = Nn und t durch nt ersetzen. Deshalb lautet der Schätzwert der Frequenz:
.
/
1
A+
ωA =
arccos 2
−1
nt
A
(5.5)
Daraus folgt wieder mit der Rechnung aus Anhang G die Unschärferelation:
√
1
1
A
t∆ω = √ = √
=
N
n A
nN
∗
Die Notation |·!⊗n bezeichnet das n-fache Produkt des Zustands: |·!⊗n =
64
(5.6)
n
1
0
|·!
5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel
Scheinbar erhält man also die geringste Unschärfe, wenn man A = 1 wählt, also alle
verfügbaren Atome verschränkt und mit ihnen eine einzelne Messung durchführt. Aber
natürlich hat der mittlere quadratische Fehler ∆ω nur für statistisch signifikante A Be+
nur die Werte 0 und 1 annehmen. Die damit
deutung. Im Extremfall A = 1 kann A
A
berechnete Frequenz ω1 ist also auch dichotom und damit im Allgemeinen kein guter
Schätzwert für beliebige Frequenzen. Erst für eine große, feste Anzahl von Messungen A
erhält man aussagekräftige Frequenzschätzwerte ωA .
Durch die Verwendung verschränkter Zustände erhält man also ein anderes Potenzgesetz für den Frequenzfehler ∆ωN .
∆ωN ∼ N β
(5.7)
Bei der unverschränkten Messmethode ist β = − 21 , bei der verschränkten aber β = −1.
5.2 Zustandsschätzen auf dem Äquator der
Bloch-Kugel
Adaptive Methoden liefern beim Schätzen von reinen Qubits ohne Verwendung von Verschränkung Ergebnisse, den optimalen, auf Verschränkung beruhenden, Messmethoden
sehr nahe kommen (Kapitel 4). Deshalb stellt sich die Frage, ob β ≈ −1 auch mit unverschränkten Atomen erreicht werden kann, wenn man nicht immer in σ̂x -Richtung misst,
sondern die Messrichtung adaptiert.
Das in [13] beschriebene Prinzip, das im letzten Abschnitt kurz zusammengefasst
wurde, garantiert, dass die zu schätzenden Zustände (5.1) auf dem Äquator liegen, also θ = π2 . Deshalb entspricht diese Messung dem Zustandsschätzen mit dem A-prioriWissen, dass sich der unbekannte Zustand auf dem Äquator befindet. Die vorgestellten
adaptiven Schätzmethoden können also auf dieses Problem angewendet werden, wobei
sich der Aufwand deutlich verringert, da die Maximierung nicht mehr bezüglich zweier
sondern nur noch bezüglich einer Variablen, nämlich φ, vorgenommen werden muss.
Im Folgenden wird die im letzten Abschnitt diskutierte Methode des Auszählens von
Spinmessergebnissen mit zwei in den Kapiteln 3 und 4 verwendeten Methoden verglichen.
Dazu werden wiederum Monte-Carlo-Simulationen über 10.000 Messläufe durchgeführt.
Dann wird aus den erhaltenen geschätzten Zuständen die Standardabweichung der Frequenz berechnet, und mit den Gleichungen (5.4) und (5.6) verglichen, oder falls möglich
der Exponent β von Gleichung (5.7) bestimmt, wobei t = 1 gesetzt wird.
65
5 Frequenzmessungen
5.2.1 Auszählmethode
Die Methode aus [13] lässt sich in der Sprache der adaptiven Schätzmethoden folgendermaßen beschreiben: Es wird bei allen Messungen der gleiche Referenzzustand, nämlich der σ̂x -Eigenzustand √12 (|0! + |1!), verwendet. Der eigentliche Schätzvorgang erfolgt nicht durch eine Likelihood-Maximierung, sondern durch Gleichsetzen der erhaltenen Messwertverteilung mit der Wahrscheinlichkeitsverteilung des Messwerts, Gleichung (5.3). Diese Methode erlaubt keine Adaption, da die Gleichheit der Messrichtungen für alle Messunge eine wesentliche Bedingung für die Verbindung relativer Häufigkeit
und Wahrscheinlichkeit, Gleichung 5.2, ist.
Eine Monte-Carlo-Simulation, deren Ergebnisse in Abbildung 5.1(b) dargestellt ist,
bestätigt gut den Exponenten β = −0,5 in Beziehung (5.4).
!Ω
ln!!Ω"
1.2
1
0.5
1
1.5
2
2.5
3
ln N
-0.25
0.8
-0.5
0.6
-0.75
0.4
-1
0.2
-1.25
10
20
30
40
50
60
(a) 70 Schritte, lineare Auftragung
70
N
(b) 21 Schritte, logarithmische Auftragung
Abbildung 5.1: Auszählmethode. Bei doppeltlogarithmischer Auftragung kann man eine Regressionsgerade an die Messpunkte fitten. Diese hat die Steigung −0,511. Die erwartete Abhängigkeit ∆ω ∼ √1N wird bestätigt.
66
5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel
5.2.2 Zufällige Referenzen
Vor der Anwendung einer echt adaptiven Methode sei hier das Zustandsschätzen mit
zufälligen Referenzzuständen untersucht. Hier bestehen zwei technische Unterschiede
zur Auszählmethode:
1. Es wird nicht mehr nur in eine Richtung, nämlich die σx -Richtung, gemessen.
2. Wegen der Verwendung unterschiedlicher Messrichtungen können nicht mehr
einfach die Messergebnisse ausgezählt und mit der Wahrscheinlichkeitsverteilung
gleichgesetzt werden, wie in der Zuordnung (5.2), da hier für jede Messung eine
andere Wahrscheinlichkeit gilt. Stattdessen wird die Likelihood (2.1) maximiert.
Da weder eine Adaption durchgeführt noch Verschränkung verwendet wird, kann man
also erwarten, dass es kein wesentlicher Unterschied zur Auszählmethode auftritt. Überraschenderweise findet man aber die in Abbildung 5.2 dargestellten Werte für den Frequenzfehler.
!Ω
1.2
ln!!Ω"
1
1
0.8
2
3
4
ln N
-0.5
0.6
-1
0.4
-1.5
0.2
10
20
30
40
50
60
(a) 70 Schritte, lineare Auftragung
70
N
-2
(b) 70 Schritte, logarithmische Auftragung
Abbildung 5.2: Zufällige Referenzen. Das Potenzgesetz (5.7) gilt hier nicht mehr; der Exponent β in ∆ω ∼ N β ist nicht unabhängig von N . Zuerst sinkt der Fehler ∆ω langsamer als
N −0,5 , dann schneller. Die Ausgleichsgerade hat die Steigung −0, 558.
Für kleine N ist diese Methode schlechter als die Auszählmethode, ab N = 10 erkennt
man aber in der logarithmischer Auftragung ein lineares Verhalten mit Steigung −0, 558.
Dies ist betragsmäßig größer als bei der Auszählmethode. Die Fehler werden aber erst
ab N ≈ 110 kleiner. Bei N = 210 beträgt der Frequenzfehler ∆ω ≈ 0, 069 gegenüber
∆ω ≈ 0, 071 aus der Auszählmethode, was innerhalb der numerischen Genauigkeit gleich
ist.
67
5 Frequenzmessungen
5.2.3 Fidelity-Maximierung
Um eine Verkleinerung der Frequenzfehler zu erreichen verwenden wir nun die beste
gefundene Adaptionsmethode, die unvollständige Fidelity-Maximierung. Die Frequenzfehler dieser Methode sind in Abbildung 5.3 zu finden.
!Ω
ln!!Ω"
1.2
1
0.5
1
1.5
2
2.5
3
ln N
-0.2
0.8
-0.4
0.6
-0.6
0.4
-0.8
-1
0.2
-1.2
5
10
15
(a) 21 Schritte, lineare Auftragung
20
N
(b) 21 Schritte, logarithmische Auftragung
Abbildung 5.3: Fidelity-Maximierung. Man erhält in guter Näherung ein Potenzverhalten
∆ω ∼ N β , mit β = −0,486.
In der logarithmischen Auftragung erhält man eine Gerade mit einer Steigung β !
−0,5, die Werte von ∆ω weichen aber für größere N von der Regressionsgeraden nach
unten ab. Die Adaption führt also nicht zu einer qualitativ besseren Konvergenz, sondern
es bleibt bei dem Exponenten −0, 5 in Gleichung (5.6).
Darüber hinaus hat die Adaption auch für kleine N keine Vorteile! Die Adaption liefert
sogar minimal schlechtere absolute Werte, wie man am direkten Vergleich der Graphen
in Abbildung 5.4 erkennt.
5.2.4 Vergleich der Schätzmethoden
Wie man aus Abbildung 5.4 ablesen kann, liefert die adaptive Methode der FidelityMaximierung Werte, die praktisch identisch zu denen der Auszählmethode sind. Dies ist
insofern verwunderlich, als man durch die Adaption eine Verbesserung gegenüber nichtadaptiven Methoden erwarten würde. Gegenüber der zufälligen Referenzwahl tritt durch
die Adaption auch eine Verbesserung auf; allerdings sind die Frequenzfehler bei den zufälligen Referenzen um so viel höher als die der Auszählmethode, dass diese Verbesserung
gerade ausgeglichen wird, so dass die adaptive Methode praktisch dieselben Werte wie
68
5.2 Zustandsschätzen auf dem Äquator der Bloch-Kugel
1,2
1,1
Auszählen der Messergebnisse
zufällige Referenzen
Fidelity-Maximierung
1,0
0,9
0,8

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
0
5
10
15
20
25
30
35
40
45
50
55
60
65
70
N
Abbildung 5.4: Vergleich der Schätzmethoden. Auszählmethode und Fidelity-Maximierung
liefern vergleichbare Ergebnisse, während bei zufälligen Referenzen größere Fehler auftreten.
die nichtadaptive Auszählmethode liefert. Auch der Nachteil der zufälligen Referenzen
gegenüber der Auszählmethode ist unerwartet, man würde annehmen, dass falls es überhaupt einen Unterschied geben sollte, die gleichverteilten zufälligen Referenzen besser
Abschneiden sollten als die Auszählmethode, bei der immer nur eine Messrichtung verwendet wird. Die Messrichtungen sind jedoch nicht der einzige Unterschied zwischen den
beiden Methoden: Bei den zufälligen Referenzen beruht das Zustands- und damit das
Frequenzschätzen auf der Likelihood-Maximierung (2.2), beim Auszählen wird direkt
Gleichung (5.2) invertiert. Inwieweit das Auswirkung auf die Frequenzfehler hat, wäre
eine interessante Fortführung dieser Arbeit.
69
5 Frequenzmessungen
70
6 Zusammenfassung
Das Schätzen eines unbekannten Qubits ist unter Verwendung von Messungen, die ausschließlich auf Symmetrieeigenschaften beruhen, möglich. Die adaptive Methode der Maximierung der Fidelity, die nach der nächsten Messung erwartet wird, liefert eine signifikante Verbesserung der Schätzwerte gegenüber nichtadaptiven Verfahren. Dagegen führt
die Verwendung eines Verfahrens, das die Entropie der Messinformation maximiert, zu
schlechteren Schätzergebnissen. Die Ergebnisse sind sogar schlechter als die aus nichtadaptiven Verfahren. Das bedeutet, die Adaption verschlechtert aktiv die Schätzwerte.
Dieses unerwartete Ergebnis ist mit einer immanenten Unzulänglichkeit der Symmetriemessungen zu erklären: Bei einer Symmetriemessung wird nur unterschieden, ob der
Produktzustand |ψ! |r! im symmetrischen oder im antisymmetrischen Untervektorraum
gefunden wird. Der erste Fall wird als Indiz für Gleichheit, der zweite für Ungleichheit
von zu untersuchendem Qubit |ψ! und Referenzzustand |r! gewertet. Der symmetrische
Untervektorraum enthält aber auch den Bell-Zustand |Ψ+
r !, der eher der Ungleichheit
der beiden Zustände entspricht. Eine Entropie-Maximierung sorgt nicht nur für eine
Gleichverteilung der Messergebnisse, sondern hat auch die „Nebenwirkung“, den Anteil
von |Ψ+
r ! am symmetrischen Ergebnis zu maximieren; dadurch wird gerade die Unzulänglichkeit der Symmetriemessungen übermäßig gewichtet.
Die Erklärung dieses Effekts wurde bei der Untersuchung vollständiger Bell-Messungen
gefunden. Diese Messungen liefern wegen der im Vergleich zu den Symmetriemessungen besseren Ausnutzung der Messinformation Schätzungen, die nahe an den theoretisch bestmöglichen Ergebnissen liegen. Dabei ist darauf zu achten, welche Basis für die
Bell-Zustände benutzt wird. Bei Verwendung der Referenzbasis erzielt man die besten
Resultate. Überdies erhält man dann dieselben Ergebnisse wie, würde man statt der
Bell-Messungen Spinmessungen durchführen.
Eine ähnliche Analogie existiert auch für die Symmetriemessungen: Misst man nicht
am Produktzustand |ψ! |r! sondern am verschränkten Zustand √12 (|ψ! |r! − |r! |ψ!), so
löst sich das Problem der mangelhaften Informationsauswertung, und die Entropieadaption gelingt; aber dieselben Ergebnisse erhielte man auch durch Spinmessungen.
71
6 Zusammenfassung
Die Maximierung der erwarteten Fidelity hat sich sowohl bei den Symmetrie- als auch
den Bell-Messungen als die beste der untersuchten Adaptionsmethoden herausgestellt.
Bei dieser Methode könnte man erwarten, man müsste das bereits gewonnene Vorwissen in Gestalt der Likelihood berücksichtigen. Es hat sich jedoch gezeigt, dass dies keine
signifikanten Vorteile bringt. Die hier unvollständige Fidelity-Maximierung genannte Methode, in der das Vorwissen nur indirekt einfließt und die wesentlich weniger numerischen
Aufwand erfordert, liefert praktisch gleichgute Schätzergebnisse.
Um die untersuchten Methoden nicht nur auf das Schätzen eines vollständig unbekannten Zustands anzuwenden, wurde betrachtet, wie sie sich beim Schätzen der Abstände
atomarer Energieniveaus mittels Ramsey-Spektroskopie verhalten – was dem Schätzen
eines Qubits mit dem A-priori-Wissen, dass es sich auf dem Äquator der Bloch-Kugel
befindet, entspricht. Dabei konnte, im Gegensatz zum Schätzen vollständig unbekannter
Qubits, kein Vorteil der adaptiven Methoden gefunden werden. Dies liegt daran, dass
das Standardauswertverfahren der Ramsey-Spektroskopie, die Auszählmethode, keine
Adaption zulässt, und die in dieser Arbeit behandelten, auf Likelihood-Maximierung
beruhenden, Verfahren einen Nachteil gegenüber der Auszählmethode aufweisen, der
durch die Adaption nicht wettgemacht wird. Es ist eine interessante offene Frage, ob
diese Situation durch eine andere Likelihood-Funktion oder ein gänzlich anderes Schätzverfahren verbessert werden kann.
72
Anhang A
Visualisierung der Likelihoods
Die Maximierung der Likelihood-Funktion (2.1) ist ein wesentlicher Teil der meisten in
dieser Arbeit vorgestellten Schätzstrategien, da sie angibt, welches Qubit mit der höchsten Wahrscheinlichkeit die gemessene Ergebniskette erzeugt, und auf dieser Grundlage
der geschätzte Zustand |ψνest ! bestimmt wird. Je mehr Information man durch weitere
Messungen gewinnt, um so eindeutiger wird die Wahl von |ψνest !; die Likelihood entwickelt einen klaren Peak. Um eine Vorstellung zu geben, wie sich die Likelihood-Funktion
mit den Messschritten entwickelt, ist sie im folgenden Beispiel als Funktion auf der
Bloch-Kugel dargestellt.
Abbildung A.1 zeigt die Entwicklung der Likelihood als Graustufendarstellung bei
Symmetriemessungen (Abschnitt 3.1) mit per Shannon-Entropie-Adaption bestimmten
Referenzzuständen (Abschnitt 3.5.1). Der rote Punkt bezeichnet das unbekannte Qubit.
In der ersten Messung wurde mit dem Referenzzustand |0! das Ergebnis s gefunden,
so dass der Zustand |0! geschätzt wird (blauer Punkt). Die zweite Messung lieferte des
Ergebnis a, der nächste geschätzte Zustand muss deshalb auf dem Äquator liegen. Hier
besteht Wahlfreiheit der Winkelvariable φest
2 . Sie wird hier auf 0 gesetzt. Die Notwendigkeit einer Wahl bricht die azimutale Symmetrie; die Likelihood-Maximierung liefert
ab jetzt beide Winkel. Die Messungen 4 und 5 ändern weder das geschätzte Qubit noch
die prinzipielle Form der Likelihood. Messung 6 jedoch vermindert die Likelihood am
vorherigen Maximum so weit, dass sie zwei gleich hohe Maxima aufweist, von denen das
„linke“ gewählt wird. Die nächste Messung gewichtet aber das „rechte“ Maximum stärker,
so dass sich der geschätzte Zustand wiederum ändert. Die weiteren Messungen liefern
keine eindeutigen Ergebnisse, so dass der vermutete Zustand immer neuen Punkten auf
der Bloch-Kugel entspricht. Erst mit Messung 18 wird der aktuell geschätzte Zustand,
der eine Fidelity von 75,6% hat, so weit bestätigt, dass große Teile der Bloch-Kugel eine
relativ kleine Likelihood zugewiesen bekommen. Messung 20 verbessert den Schätzwert
73
Anhang A Visualisierung der Likelihoods
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(a) N = 1
2
3
Φ
4
5
6
4
5
6
4
5
6
4
5
6
(b) N = 2
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(c) N = 3
2
3
Φ
(d) N = 4
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(e) N = 5
2
3
Φ
(f ) N = 6
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
(g) N = 7
4
5
6
0
0
1
2
3
Φ
(h) N = 8
Abbildung A.1: Likelihood bei Symmetriemessungen mit Entropiemaximierung
74
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(i) N = 9
2
3
Φ
4
5
6
4
5
6
4
5
6
4
5
6
(j) N = 10
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(k) N = 11
2
3
Φ
(l) N = 12
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(m) N = 13
2
3
Φ
(n) N = 14
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
(o) N = 15
4
5
6
0
0
1
2
3
Φ
(p) N = 16
Abbildung A.1: Likelihood bei Symmetriemessungen mit Entropiemaximierung
75
Anhang A Visualisierung der Likelihoods
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
4
5
0
6
0
1
(q) N = 17
2
3
Φ
4
5
6
4
5
6
(r) N = 18
3
3
2
2
Θ
Θ
1
0
1
0
1
2
3
Φ
(s) N = 19
4
5
6
0
0
1
2
3
Φ
(t) N = 20
Abbildung A.1: Likelihood bei Symmetriemessungen mit Entropiemaximierung. Hier
sind die ersten 20 Schritte für einen charakteristischen Lauf der Shannon-Entropie-Maximierung
(Abschnitt 3.5.1) bei Symmetriemessungen (Abschnitt 3.1) dargestellt. Die Bilder zeigen eine
Abwicklung der Bloch-Kugel, in der die Likelihood in Graustufen kodiert ist; helle Gebiete
entsprechen hoher Likelihood, in dunklen Bereichen ist sie klein. Die Position des zu schätzenden
Qubits ist durch den roten Punkt gekennzeichnet; der blaue Punkt bezeichnet das Maximum
der Likelihood, entspricht also dem momentan geschätzten Zustand.
76
auf eine Fidelity von 96,4%, was durch die folgenden Messungen bestätigen.
Die gezeigte Simulation einer Messreihe ist insofern typisch, als sie sowohl das erratische Verhalten während der ersten Schritte als auch die Konvergenz zu einem guten
Schätzwert demonstriert. Allerdings zeigen die meisten Läufe weniger Wechsel des vermuteten Zustands und mit dem dargestellten Lauf erhält man eine Fidelity die über dem
durchschnittlichen Wert dieser Mess- und Adaptionsmethode von 77,0% liegt.
77
Anhang A Visualisierung der Likelihoods
78
Anhang B
Streuung der Schätzergebnisse
Um die Streuung der Schätzergebnisse zu quantifizieren, wurden in dieser Arbeit neben
den mittleren Fidelities zwischen zu vermessendem und geschätztem Zustand auch ihre
Varianzen angegeben. In diesem Anhang soll eine Vorstellung von dieser Streuung, also
der Verteilung der in den einzelnen Simulationsläufen erzielten Fidelities, gegeben werden. Dazu ist in Abbildung B.1 die Verteilung der Fidelities bei Symmetriemessungen
(Abschnitt 3.1) und vollständiger Fidelity-Maximierung dargestellt (Abschnitt 3.6.2). Es
zeigt sich, dass die Fidelities einer Exponentialverteilung folgen, und nicht wie vielleicht
erwartet werden könnte, einer glockenförmigen Verteilung mit Maximum bei der mittleren Fidelity. Selbst bei schlechten mittleren Fidelities liefert die relative Mehrheit der
Läufe gute Fidelities, das Maximum der Verteilungen liegt bei F = 1.
Für Exponentialverteilungen der Form
f (x) =
1 −x
e σ
σ
gilt nicht nur, dass die Varianz ein sinnvolles Maß der Streuung ist, sondern sogar dass
Varianz σ und Mittelwert gleich sind. Die Verteilungen der Fidelity haben die Form
f (F ) = √
es gilt deshalb
√
1
∆F 2
− √1−F
e
∆F 2
∆F 2 = 1 − F .
Was die angegebenen Zahlenwerte für größere Schrittzahlen (ab N ≈ 10) in guter Näherung bestätigen.
79
Anhang B Streuung der Schätzergebnisse
n
n
300
200
250
150
200
150
100
100
50
50
0.2
0.4
0.6
0.8
√
(a) 3 Schritte, F = 0,66, ∆F 2 = 0,26
1
F
n
0.2
0.4
0.6
0.8
√
(b) 5 Schritte, F = 0,71, ∆F 2 = 0,24
1
F
n
800
400
600
300
400
200
200
100
1
0.6
0.8
√
2
(c) 10 Schritte, F = 0,79, ∆F = 0,20
0.2
0.4
F
1
0.6
0.8
√
2
(d) 20 Schritte, F = 0,87, ∆F = 0,15
0.2
0.4
F
Abbildung B.1: Fidelity-Verteilung bei Symmetriemessungen mit FidelityMaximierung. Die Histogramme zeigen die Verteilung der Fidelity F zwischen unbekanntem
und geschätztem Zustand bei Verwendung der vollständigen Fidelity-Maximierung (Abschnitt 3.6.2) für Symmetriemessungen (Abschnitt 3.1). Dazu wurde der Wertebereich der
Fidelity [0, 1] in 100 Intervalle aufgeteilt, und für jeden Balken die Zahl der Schätzergebnisse
n aufaddiert, deren Fidelity im zugehörigen Intervall liegt. Wie man sieht, werden bereits
nach wenigen Schritten hohe Fidelities deutlich bevorzugt und prägt sich eine exponentielle
Verteilung aus, deren Standardabweichung mit wachsender Schrittzahl deutlich abnimmt.
80
Anhang C
Realisierung der Simulation
C.1 Anpassung des Messverfahrens zur Simulation
Das Ziel einer Adaption in einem Experiment ist es, möglichst genaue Information über
ein reales unbekanntes Qubit in einer einzigen Messreihe zu erhalten. In der vorliegenden Arbeit wird die Güte der einzelnen Verfahren beurteilt. Dazu reicht es nicht eine
einzelne Messreihe durchzuführen oder zu simulieren, sondern es muss über eine statistisch signifikante Anzahl von Messreihen gemittelt werden. Dabei wird statt einer realen
quantenmechanischen Messung eine Monte-Carlo-Simulation durchgeführt. Dabei wird
folgendermaßen vorgegangen (vergleiche Abschnitt 3.3):
• Man wählt zuerst zufällig einen zu bestimmenden Zustand |ψ!. Als erster Ruler
wird immer |r1 ! = |0! verwendet.
• Man berechnet in jedem Schritt ν die Wahrscheinlichkeit pa den Produktzustand
|ψ!M |rν !R im antisymmetrischen Untervektorraum zu finden, und vergleicht sie
mit einer Zufallszahl aus dem Intervall [0, 1]. Ist die Zufallszahl kleiner als pa , gilt
das als „Messung“ von a, sonst als s. So erreicht man eine den Wahrscheinlichkeiten
entsprechende Verteilung der simulierten Messwerte.
• Nun berechnet man die Likelihood (2.1) in Abhängigkeit von allen vorherigen
Messungen und bestimmt ihr Maximum. Seine Position entspricht dem Zustand,
der am besten mit den simulierten Messwerten im Einklang ist.
• Der Referenzzustand nimmt die Rolle der zu adaptierenden Messparameter ein.
Als nächster Referenzzustand wird ein je nach Adaptionsstrategie gewähltes Qubit
festgelegt.
81
Anhang C Realisierung der Simulation
• Simulation der Messung, Likelihoodmaximierung und Wahl des neuen Referenzzustands werden für alle N Schritte wiederholt. Das Ergebnis der letzten Likelihoodmaximierung ist der für diese Messreihe, diesen Lauf endgültig geschätzte
Zustand.
• Zur Beurteilung der Strategie führt man eine statistisch signifikante Anzahl von
Läufen, in unserem Fall 10.000, mit verschiedenen, über die Bloch-Kugel gleichverteilten „unbekannten“ Zuständen durch.
Zuerst wurde eine solche Simulation in Mathematica 5.2 implementiert. Aus Effizienzgründen musste die Simulation aber neu in C geschrieben werden, um statistisch
signifikante Ergebnisse für höhere N zu erhalten. Alle in dieser Arbeit vorgestellten numerischen Ergebnisse stammen deshalb aus Simulationen in C, kompiliert mit gcc 3.3.5.
Für Zufallszahlenerzeugung, numerische Maximierung und numerische Integration wurde die freie C-Bibliothek GNU Scientific Library (GSL) in Version 1.8 verwendet.
Wenn nicht anders angegeben, wurde jeweils über 10.000 Läufe (simulierte Messreihen)
gemittelt.
C.2 Wahl zufälliger Qubits
Eine Grundvoraussetzung für erfolgreiche Monte-Carlo-Simulationen ist, dass die zufälligen Werte gleichverteilt sein müssen. Wie dies für die simulierten Messwerte bewerkstelligt wird ist in Abschnitt 2.4 beschrieben. Aber auch die zu schätzenden Zustände
müssen gleichverteilt über die Bloch-Kugel sein.
Um dies zu erreichen, kann man von zwei gleichverteilten Zufallszahlen x, y ∈ [0, 1]
ausgehen und daraus die Winkelparameter des zu wählenden Zustands gemäß
θ = arccos (1 − 2x) , φ = 2πy
bestimmen. Wie man leicht zeigen kann, führt diese Wahl gerade zu der gewünschten
Gleichverteilung über die Bloch-Kugel.
C.3 Numerische Maximierung
Die Likelihood-Funktion, deren Maximum das zu schätzende Qubit angibt, kann wegen
ihrer Abhängigkeit von allen vorherigen Messwerten, nicht allgemein analytisch maxi-
82
C.3 Numerische Maximierung
miert werden. Dasselbe gilt auch sowohl für die Maximierung der erwarteten Fidelity
mit Vorwissen als auch für einige entropiebasierte Adaptionsmethoden. Um das Maximum innerhalb der Simulation zu bestimmen, wurde eine numerische Methode zur
Maximierung verwendet, nämlich der Broyden-Fletcher-Goldfarb-Shanno-Algorithmus.
Bei diesem handelt es sich um eine Quasi-Newton-Methode; das Maximum wird also
durch einen Test des Gradienten gefunden. Dabei treten zwei Probleme auf:
Die Gradiententest gilt als erfüllt, wenn der Betrag des Gradienten unter eine vorgegebene Toleranzschwelle sinkt. Die Wahl dieser Toleranz ist immer ein Kompromiss
zwischen Rechengenauigkeit und Ressourcenverbrauch.
Die wesentlichere Schwierigkeit liegt aber darin begründet, dass das Maximierungsverfahren lokal arbeitet, das heißt, die zu maximierende Funktion immer nur an einem
Punkt untersucht wird. So wird immer das einem willkürlich zu wählenden Startpunkt
im Sinne des Maximierungsverfahrens am nächsten liegende lokale Maximum gefunden.
Es kann aber nicht mit Sicherheit angegeben werden, ob es sich bei diesem Maximum
auch um ein globales handelt. Deshalb wurde in der Simulation nach jedem Maximierungsaufruf, ein Satz von Punkten auf der Bloch-Kugel mit dem „Maximumkandidaten“
verglichen, und falls ein größerer Funktionswert gefunden wurde, die Maximierung mit
diesem Punkt als Anfangswert neu gestartet. Dieses Vorgehen garantiert natürlich nicht,
dass nur globale Maxima gefunden werden, liefert aber für die Anwendung im Rahmen
dieser Arbeit hinreichende Ergebnisse.
83
Anhang C Realisierung der Simulation
84
Anhang D
Symmetriemessungen am
Strahlteiler
Wie man Symmetriemessungen am Strahlteiler durchführen kann,
schnitt (3.2) beschrieben; die Berechnung der Wahrscheinlichkeiten der
wurde aber übersprungen. Hier wird gezeigt, dass sich in der Tat auch
die in Abschnitt (3.1) angegebenen Wahrscheinlichkeiten, Gleichungen
ergeben.
wurde in AbMessergebnisse
am Strahlteiler
(3.5) und (3.6)
Man legt an die beiden Eingangsmoden das Strahlteilers den Produktzustand |rν ! |ψ!
an. Ohne Beschränkung der Allgemeinheit, liege an Mode 0 der Referenzzustand |rν !
und an Mode 1 der unbekannte Zustand |ψ!. Letzterer |ψ! = sin θ2 |0! + eiφ cos 2θ |1! wird
für die Strahlteilertransformation geschrieben als
|ψ!1 = c1H |1H 0V !1 + c1V |0H 1V !1
2
3
†
†
= c1H â1H + c1V â1V |0H 0V !1
(D.1)
mit c1H = cos 2θ und c1V = eiφ sin θ2 . Analog ist
%
&
+
|rν !0 = c0H â+
0H + c0V â0V |0H 0V !0
(D.2)
mit c0H = cos ϑ2ν und c0V = eiϕν sin ϑ2ν . Dabei ist das logische Qubit |0!M in horizontaler
und |1!M in vertikaler Polarisation kodiert. Die Notation |nH mV ! bedeutet dann, n
horizontal polarisierte und m vertikal polarisierte Photonen; die Zahlen selbst geben
nicht mehr die Polarisation an.
Mit den Strahlteilertransformationen â0 = √12 (â2 − â3 ) und â1 = √12 (â2 + â3 ) für
sowohl horizontale als auch vertikale Polarisation kann man den Zustand |out! hinter
85
Anhang D Symmetriemessungen am Strahlteiler
dem Strahlteiler berechnen.
33
3
2
2
1 2
|out! = √ c0H â†2H − â†3H + c0V â†2V − â†3V
2
2
3
2
33
1 2
√ c1H â†2H + â†3H + c1V â†2V + â†3V
|0H 0V !2 |0H 0V !3
2
%
&
12
=
c0H c1H |2H 0V !2 |0H 0V !3 − |0H 0V !2 |2H 0V !3
2
%
+ c0H c1V |1H 1V !2 |0H 0V !3 − |0H 1V !2 |1H 0V !3
&
+ |1H 0V !2 |0H 1V !3 − |0H 0V !2 |1H 1V !3
%
+ c0V c1H |1H 1V !2 |0H 0V !3 − |1H 0V !2 |0H 1V !3
&
+ |0H 1V !2 |1H 0V !3 − |0H 0V !2 |1H 1V !3
%
&3
+ c0V c1V |0H 2V !2 |0H 0V !3 − |0H 0V !2 |0H 2V !3
(D.3)
Die Photonen auf beide Moden verteilt zu finden, entspricht den Zuständen
|0H 1V !2 |1H 0V !3 und |1H 0V !2 |0H 1V !3 . Durch Ablesen findet man aus Gleichung (D.3)
dass die Wahrscheinlichkeit ein Photon pro Detektor zu finden
!
!2
!
1 !! iφ
θ
ϑν
θ
ϑ
1
ν
2
|c0H c1V − c0V c1H | = !e sin cos
− eiϕν cos sin !! = pa
2
2
2
2
2
2
mit pa aus Gleichung (3.5) identisch ist; vorausgesetzt man unterscheidet die Polarisationen der detektierten Photonen, was mit polarisierenden Strahlteilern möglich ist.
Genauso ist die Wahrscheinlichkeit einen anderen Zustand zu finden ps , Gleichung (3.6).
Der 50:50-Strahlteiler realisiert also tatsächlich die Symmetriemessungen.
86
Anhang E
Erwartete Fidelity bei vollständiger
Fidelity-Maximierung
In Abschnitt 3.6.2 wird die vollständige Fidelity-Maximierung beschrieben. Dabei wird
exp
erwähnt, dass die erwartete Fidelity F ν+1 durch elementare Umformungen auf eine Form
gebracht werden kann, in der der Integrand nicht mehr von den geschätzten Zuständen
! est "
! est "
!ψν+1,a und !ψν+1,s
abhängt. Diese Form ist hier angegeben.
exp
Bei der vollständigen Fidelity-Maximierung war die erwartete Fidelity F ν+1 , Gleichung (3.32):
exp
F ν+1
exp
∼
#
%! est "
&
Lν ({αi } , {|ri !} , |ψ!) (pa (|rν+1 ! , |ψ!) · F !ψν+1,a
, |ψ!
%! est "
&
+ps (|rν+1 ! , |ψ!) · F !ψν+1,s
, |ψ! )dΩψ
F ν+1 hängt dann auch direkt von allen vorherigen Messergebnissen und dazugehörigen
Referenzzuständen ab. Damit kann das Integral nicht mehr analytisch berechnet werden.
Stattdessen muss in jedem Schritt eine Monte-Carlo-Integration durchgeführt werden.
87
Anhang E Erwartete Fidelity bei vollständiger Fidelity-Maximierung
exp
Wird diese Integration bei jeder Berechnung eines Zahlenwertes von F ν+1 bei der
Maximierung ausgeführt, wird die Simulation sehr aufwendig. Allerdings lässt sich die
Berechnung aufgrund der Struktur des Integrals vereinfachen. Man kann nämlich mittels
elementarer Umformungen das Integral
#
exp
F ν+1 ∼
Lν ({αi } , {|ri !} , |ψ!) ·
. 2
3
1
·
3 + cos θ cos ϑν+1 + cos(φ − ϕν+1 ) sin θ sin ϑν+1 ·
4
3
12
est
est
·
1 + cos θ cos θν+1,s
+ cos(φ − φest
)
sin
θ
sin
θ
ν+1,s
ν+1,s +
2
3
12
1 − cos θ cos ϑν+1 − cos(φ − ϕν+1 ) sin θ sin ϑν+1 ·
+
4
3/
12
est
est
est
·
1 + cos θ cos θν+1,a + cos(φ − φν+1,a ) sin θ sin θν+1,a
dΩ
2
auf die Form einer Summe von Integrationen bringen, aus denen die Variablen ϑν+1 ,
est
est
est
ϕν+1 , θν+1,a
, φest
ν+1,a , θν+1,s und φν+1,s herausgezogen werden können:
&
%
exp
est
est
F ν+1 ∼ I0 + I1 3 cos θν+1,s
+ cos θν+1,a
%
&
est
est
est
+I2 3 cos φest
ν+1,s sin θν+1,s + cos φν+1,a sin θν+1,a
%
&
est
est
est
+I3 3 sin φest
ν+1,s sin θν+1,s + sin φν+1,a sin θν+1,a
%
&
est
est
+I4 cos ϑν+1 cos θν+1,s
− cos θν+1,a
%
&
est
est
+I5 sin ϑν+1 cos ϕν+1 cos θν+1,s
− cos θν+1,a
%
&
est
est
+I6 sin ϑν+1 sin ϕν+1 cos θν+1,s
− cos θν+1,a
%
&
est
est
est
+I7 sin ϑν+1 cos ϕν+1 cos φest
ν+1,s sin θν+1,s − cos φν+1,a sin θν+1,a
%
&
est
est
est
+I8 sin ϑν+1 cos ϕν+1 sin φest
ν+1,s sin θν+1,s − sin φν+1,a sin θν+1,a
&
%
est
est
est
+I9 sin ϑν+1 sin ϕν+1 cos φest
ν+1,s sin θν+1,s − cos φν+1,a sin θν+1,a
%
&
est
est
est
+I 10 sin ϑν+1 sin ϕν+1 sin φest
ν+1,s sin θν+1,s − sin φν+1,a sin θν+1,a , (E.1)
88
mit den Koeffizienten
I0 = 4
#
I1 =
#
I2 =
#
I3 =
#
I4 =
#
I5 =
#
I6 =
#
I7 =
#
I8 = I9 =
#
I10 =
#
Lν dΩ
Lν cos θ dΩ
Lν sin θ cos φ dΩ
Lν sin θ sin φ dΩ
Lν cos2 θ dΩ
Lν sin θ cos θ cos φ dΩ
Lν sin θ cos θ sin φ dΩ
Lν sin2 θ cos2 φ dΩ
Lν sin2 θ cos φ sin φ dΩ
Lν sin2 θ sin2 φ dΩ.
(E.2)
Deshalb können bei jeder Fidelity-Maximierung zuerst diese neun Integrale berechnet
werden, und danach kann man ohne weitere Integrationen numerisch das Maximum
bestimmen.
89
Anhang E Erwartete Fidelity bei vollständiger Fidelity-Maximierung
90
Anhang F
Vergleich mit der Adaptionsmethode
aus [3]
Hier wird gezeigt, inwieweit der auf Transformation und Symmetriemessung aufbauende
Algorithmus, beschrieben in Abschnitt 3.8, mit dem in [3, 4] untersuchten Algorithmus,
der auf Spinmessungen beruht, äquivalent ist.
F.1 Beschreibung des unbekannten Zustands durch
die vorhandene Information
Im Symmetriealgorithmus wird nach jedem Schritt ein vermuteter Zustand |ψnest ! angegeben. Im Gegensatz dazu wird der unbekannte Zustand in [4] durch eine Dichtematrix
ρ̂n =
#
wn (ϑ, ϕ) |ϑ, ϕ! $ϑ, ϕ| dΩ
beschrieben. Wie im Weiteren gezeigt wird, ist dieser zuerst gravierend erscheinende
Unterschied gar nicht so bedeutend.
F.2 Adaption
Der neue Zustand |ψnest ! wird im Symmetrie-Algorithmus durch eine Maximierung der
Likelihood (3.15)
Ln (θ, φ) =
n
$
ν=1
pαν (|ψ! , |rν !) =
n
$
pαν (θ, φ, ϑν , ϕν )
ν=1
91
Anhang F Vergleich mit der Adaptionsmethode aus [3]
berechnet.∗ Dabei ist pαν die Wahrscheinlichkeit bei der Symmetriemessung mit dem
Referenzzustand |rν ! das Ergebnis a respektive s zu erhalten, vorausgesetzt es lag der
Zustand |ψ! vor.
In [4] wird die Verteilung wn nach der Bayes’schen Regel bestimmt:
wn (ϑ, φ) = Z −1 Pαn (θ, φ, ϑn , ϕn )wn−1 (ϑ, ϕ)
Hier ist Pαν die Wahrscheinlichkeit bei der Spin-Messung in Richtung von
|rn ! = cos
ϑn
ϑn
|0! + eiϕn sin
|1!
2
2
das Ergebnis αν = 0 beziehungsweise αν = 1 zu erhalten, unter der Voraussetzung dass
der unbekannte Zustand durch die Integrationsvariablen (θ, φ) beschrieben wird. Als
1
gewählt.
Anfangswert wird die Gleichverteilung w0 = 4π
Da nach der Betrachtung aus Abschnitt 3.8, wenn man vor der Messung die dort
beschriebene Transformation durchführt, die Funktionen pαν und Pαν gleich sind, gilt
auch Ln (θ, φ) ∼ wn (θ, φ), das heißt L und w sind bis auf die Normierung von w gleich.
Der einzige Unterschied zwischen beiden Adaptionsverfahren liegt also darin, dass beim
Symmetriealgorithmus nach jeder Messung |ψnest ! berechnet wird, in [4] dagegen erst
nachdem alle Messungen abgeschlossen wurden. Das Ergebnis der Likelihoodmaximierung |ψnest ! wird aber nur für die Wahl des nächsten Referenzzustand benötigt, und hat
nur darüber indirekten Einfluss auf die Likelihood im nächsten Schritt.
F.3 Optimierung
Im bisherigen Symmetriealgorithmus (ohne vorhergehende Transformation) erfolgt die
Wahl des nächsten Referenzzustands |rn ! durch die Maximierung der Entropie
S = −pa log2 pa − ps log2 ps
!
! est
mit pa = ps = 12 , was automatisch zur Wahl |rn ! = !ψ n führt. Da die Transformation
pa verbessert, erhält man beim Algorithmus mit Transformation die maximale Entropie
für:
∗
Die Wahrscheinlichkeiten pαν sind symmetrisch unter einer Vertauschung der Argumente. Durch
eine solches Vertauschen von |ψ! und |rν ! und eine Umbenennen der Summationsindizes wurde die
Notation an die aus [3, 4] angepasst.
92
F.3 Optimierung
!
-3
"
1 2!
! est
|rn ! = √ !ψnest + eiδ !ψ n
2
In [4] wird unter anderem ebenfalls eine entropische Optimierungsmethode verwendet
(maximization of average information gain). Dort verwendet man aber nicht nur das
Maximum der Likelihood zur Beschreibung der bisher gewonnenen Information, sondern
die gesamte Verteilung (Likelihood) wn . Denn es wird die Entropie
S = −p0 log2 p0 − p1 log2 p1
mit den Wahrscheinlichkeiten
pαν = $ϑn , ϕn | ρ̂n |ϑn , ϕn ! =
#
wn (θ, φ)Pi (θ, φ, ϑn , ϕn )dΩ
maximiert. Hier liegt also der einzige Unterschied zum Algorithmus mit SymmetrieMessung vor, bei dem nicht mit einer Dichtematrix, sondern mit dem reinen Zustand
größter Likelihood gerechnet wird. Formal würde dem entsprechen, wenn man im Spinmessungsalgorithmus die “richtige” Verteilung durch einen Delta-Peak am Maximum
ersetzen würde.
93
Anhang F Vergleich mit der Adaptionsmethode aus [3]
94
Anhang G
Varianz der Frequenzmessung
In Abschnitt 5.1 wird eine Unschärferelation, Gleichung (5.4), für Messzeit und Frequenzfehler angegeben. Diese wird hier hergeleitet. Dazu geht man von der Beziehung
zwischen Frequenz und relativer Häufigkeit der Messergebnisse, Gleichung (5.3), aus:
N+
1
= (1 + cos ωN t) =: p+ (N)
N
2
(G.1)
Für große N geht die geschätzte Frequenz ωN gegen den gesuchten Wert ω, da ja
p+ = p+ (N → ∞) =
1
(1 + cos ωt)
2
(G.2)
die Wahrscheinlichkeit ist, Spin up zu messen. Man beachte den Unterschied zwischen der
Wahrscheinlichkeit p+ und dem Wert p+ (N), der nur eine Abkürzung für das Verhältnis
N+
ist.
N
Der Erwartungswert von p+ (N) beträgt:
$p+ (N)! =
N
*
N+ =0
4
N
N+
5
N
p++ (1 − p+ )N −N+ p+ (N)
(G.3)
Auch ohne die Rechnung durchzuführen, weiß man, dass der Erwartungswert gleich p+
ist:
1
(G.4)
$p+ (N)! = (1 + cos ωt)
2
Für das mittlere Quadrat gilt analog zu Gleichung (G.3)
N
*
' 2
"
p+ (N) =
N+ =0
4
N
N+
5
N
p++ (1 − p+ )N −N+ p2+ (N),
(G.5)
95
Anhang G Varianz der Frequenzmessung
was sich vereinfachen lässt zu:
' 2
"
1
p+ (N) = p2+ + p+ (1 − p+ )
N
(G.6)
Damit lautet der mittlere quadratische Fehler
6
0
1
1
∆p+ := $p2+ (N)! − $p+ (N)!2 = p+ (1 − p+ )
= √ sin ωt,
N
2 N
(G.7)
woraus sich mittels
|∆p+ |
!=
∆ωN = !!
d*p+ (N )" !
! dω !
√1 |sin ωt|
2 N
1
t |sin ωt|
2
1
= √
t N
(G.8)
der gesuchte Frequenzfehler berechnen lässt.
Wenn man nun wie in Abschnitt 5.1 Messungen an verschränkten Atomen durchführt,
muss man in der Rechnung lediglich N durch A = Nn und t durch nt ersetzen, und man
erhält:
1
∆ωA = √
(G.9)
nt A
96
Literaturverzeichnis
[1] D. Dieks; Communication by EPR Devices; Phys. Lett. A, 92, 271
(1982)
[2] W. Wootters, W. Zurek; A Single Quantum Cannot be Cloned ;
Nature, 299, 802 (1982)
[3] D. Fischer, S. Kienle, M. Freyberger: Quantum-State Estimation
by Self-Learning Measurements; Phys. Rev. A 61, 032306 (2000)
[4] Dietmar G. Fischer: Quantum Information Processing with Finite
Resorces (Dissertation); Mensch & Buch Verlag, 2002
[5] Thorsten C. Bschorr: Quantum Estimation Problems with Finite
Resorces in Higher Dimensions (Dissertation); Mensch & Buch
Verlag, 2006
[6] S. Barnett, A. Chefles, I. Jex: Comparison of Two Unknown Quantum Systems; Phys. Lett. A 307, 189 (2003)
[7] I. Jex, E. Andersson, A. Chefles: Comparing the States of Many
Quantum Systems; J. Mod. Opt. 51, 505 (2004)
[8] A. Chefles, E. Andersson, I. Jex: Unambigious Comparison of the
States of Multiple Quantum Systems; J. Phys. A: Math. Gen. 37,
7315 (2004)
[9] S. Massar, S. Popescu: Optimal Extraction of Information from
Finite Quantum Ensembles; Phys. Rev. Lett. 74, 1259 (1995)
[10] R. Derka, V. Buzek, A. Ekert: Universal Algorithm for Optimal
Estimation of Quantum States from Finite Ensembles via Realizable Generalized Measurement; Phys. Rev. Lett. 80, 1571 (1998)
[11] E. Bagan, M. Baig, A. Monras, R. Muñoz-Tapia: Optimal Reconstruction of a Pure Qubit State with Local Measurements; quantph/0312167 (2003)
97
Literaturverzeichnis
[12] K. Jones: Principles of Quantum Inference; Annals of Physic 207,
140 (1991)
[13] S. Huelga, C. Macchiavello, T. Pellizzari, A. Ekert, M. Plenio, J.
Cirac: Improvement of Frequency Standards with Quantum Entanglement; Phys. Rev. Lett. 79, 3865 (1997)
[14] Norman F. Ramsey: Molecular Beams; Oxford University Press,
1963
[15] Y. Aharanov, S. Massar, S. Popescu: Measuring Energy, Estimating Hamiltonians, and the Time-Energy Uncertainty Relation;
Phys. Rev. A 66, 052107 (2002)
[16] C. Shannon: A Mathematical Theory of Communication; Bell System Tech. J. 27, 379, 623 (1948)
[17] S. Kullback, R. Leibler: On Information and Sufficiency; Ann.
Math. Stat. 22, 79 (1951)
[18] Solomon Kullback: Information Theory and Statistics; Dover Publications, 1968
[19] R. Schack, T. Brun, C. Caves: Quantum Bayes Rule; Phys. Rev.
A 64, 014305 (2001)
[20] Hanns L. Harney: Bayesian Inference; Springer, 2003
[21] A. Uhlmann; The ’Transition Probability’ in the State Space of a
*-Algebra; Rep. Math. Phys. 9, 273 (1976)
[22] R. Jozsa; Fidelity for Mixed Qubits; J. Mod. Opt. 41, 2315 (1994)
[23] Z. Hradil, J. Řeháček, J. Fiurášek, M. Ježek; Maximum-Likelihood
Methods in Quantum Mechanics; in Matteo G. Paris, Jaroslav Řeháček (Herausgeber): Quantum State Estimation; Springer
2004
[24] Z. Hradil, J. Summhammer, G. Badurek, H. Rauch: Reconstruction of the Spin State; Phys. Rev. A 62, 014101 (2000)
[25] N. Lütkenhaus, J. Calsamiglia, K. Suominen: Bell Measurements
for Teleportation; Phys. Rev. A 59, 3295 (1999)
[26] C. Hong, Z. Ou, L. Mandel: Measurement of Subpicosecond Time
Intervals Between Two Photons by Interference; Phys. Rev. Lett.
59, 2044 (1987)
98
Literaturverzeichnis
[27] Christopher C. Gerry, Peter L. Knight: Introductory Quantum Optics; Cambridge University Press, 2005
[28] Michael A. Nielson, Isaac L. Chuang: Quantum Computation and
Quantum Information; Cambridge University Press, 2000
99
Literaturverzeichnis
100
Danksagung
Ich möchte mich an dieser Stelle bei all jenen bedanken, die mir das Schreiben dieser Arbeit ermöglichten. Im Einzelnen gebührt mein Dank: Herrn Professor Matthias
Freyberger, der mich nicht nur durch seine Vorlesung über Quanteninformation für dieses Forschungsgebiet begeistert, sondern auch den Hauptbericht zu dieser Arbeit übernommen hat und bei dem ich für meine Fragen jederzeit ein offenes Ohr fand; Herrn
Professor Wolfgang Schleich für die freundliche Aufnahme in das Institut für Quantenphysik; und Herrn Professor Peter Reineker dafür, dass er sich als Zweitberichter zur
Verfügung gestellt hat. Herr Reineker und Herr Schleich ebenfalls durch ihre Vorlesungen mein Interesse für die theoretische Physik geweckt und vertieft, auch dafür sei ihnen
gedankt. Weiterhin möchte ich mich bei Herrn Professor Igor Jex bedanken, der an der
Stellung des Diplomarbeitsthemas maßgeblich beteiligt war, mir einen kurzen Besuch
an der Tschechischen Technischen Universität in Prag ermöglichte, und mir dort für
Diskussionen zur Verfügung stand.
Beim Verfassen der Arbeit war mir Ferdinand Gleisberg eine enorme Hilfe. Unter ungeheurem Zeitaufwand spürte er sowohl inhaltlicher Unklarheiten als auch sprachlicher
Fehler auf. Außer ihm leisteten mir auch viele Mitglieder des Instituts durch das Korrekturlesen der Arbeit wertvolle Unterstützung. Ihnen allen sei hiermit herzlich gedankt.
Stellvertretend für sie möchte ich hier Michael Bußhardt nennen, der mir auch sonst ein
wertvoller Diskussionspartner, was physikalische und andere Themen anging, war. In der
Anfangsphase meiner Diplomarbeit, bis er das Institut verließ, stand mir auch Stefan
Probst-Schendzielorz, insbesondere bei der Implementation der Simulationen, zur Seite.
Sie und alle anderen Institutsmitglieder trugen ihren Teil zum freundlichen, produktiven und überhaupt sehr angenehmen Arbeitsklima bei, dass mir meine Diplomandenzeit
zum Vergnügen machte.
Darüber hinaus will ich mich bei meinen Lehrern, sowohl denen an der Universität
Ulm, die ich noch nicht genannt habe, als auch denen an der Kerschensteinerschule in
Stuttgart bedanken, die mir immer wieder neu zeigten, wieviel Spaß Physik macht, und
was für ein Privileg es ist studieren und jetzt in der Forschung arbeiten zu dürfen. Nicht
zuletzt bin ich meinen Eltern – die mir nicht nur mein Studium erst möglich machten –
und meiner Großmutter – an die ich mich immer wenden konnte, wenn es nötig war –
zu Dank verpflichtet.
101
102
Erklärung
Hiermit erkläre ich, diese Arbeit selbstständig und nur unter Verwendung der
angegebenen Quellen und Hilfsmittel angefertigt zu haben.
Ulm, den 31. Juli 2007
Christof Johannes Happ
103
Herunterladen