Numerov-Methode

Werbung
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Numerov-Methode:
Wir betrachten die etwas umgeformte zeitunabhängige Schrödingergleichung in einer Raumdimension x für ein Teilchen der Masse m:
∂2
2m
Ψ(x) =: Ψ(2) (x) = 2 [V (x) − Etot ] Ψ(x)
2
∂x
~
(1)
Auf einem regelmäßigen Gitter xi mit Punktabstand ∆x können wir mit der Abkürzung
Ψi = Ψ(xi ) Taylorentwicklungen für Ψi+1 und Ψi−1 um xi schreiben als:
Ψi+1 =
∞
X
(∆x)k
k!
k=0
(k)
Ψi
,
Ψi−1 =
∞
X
(−∆x)k
k=0
k!
(k)
Ψi
(2)
Addition dieser beiden Reihen ergibt:
Ψi+1 + Ψi−1 =
∞
X
2(∆x)2k
k=0
(2k)
= 2Ψi + (∆x)
(3)
Ψi
(2k)!
2
≈ 2Ψi + (∆x)2
(2)
Ψi
2(∆x)4 (4) 2(∆x)6 (6)
+
Ψi +
Ψi + · · ·
24
720
2m
[V (x) − Etot ] Ψi
~2
(4)
(5)
In Gl. 5 wurde die Entwicklung nach der Ordnung (∆x)2 abgebrochen und die Schrödingergleichung Gl. 1 verwendet, um Ψ(2) durch Ψ zu ersetzen.
Damit ergibt sich als Propagationsgleichung schließlich:
Ψi+1 − 2Ψi + Ψi−1 = (∆x)2
2m
[V (x) − Etot ] Ψi
~2
(6)
mit einem Fehler der Ordnung (∆x)4 .
Die eigentliche Numerov-Methode ergibt sich daraus durch einen weiteren Trick: In völliger
Analogie zu Gl. 3 können wir bilden:
(2)
(2)
Ψi+1 + Ψi−1 =
∞
X
2(∆x)2k
(2k)!
k=0
(2k+2)
(7)
Ψi
(2)
(4)
= 2Ψi + (∆x)2 Ψi +
2(∆x)4 (6)
Ψi + · · ·
24
(8)
Durch Multiplikation dieser Reihe mit (∆x)2 /12 und Subtraktion von Gl. 4 (mit Abbruch
jeweils nach der Ordnung (∆x)6 ) fallen die Glieder der Ordnung (∆x)4 heraus und wir
erhalten:
2m
[V (x) − Etot ] Ψi
~2
(∆x)2 (2)
Ψi
= Ψi −
12
Yi+1 − 2Yi + Yi−1 = (∆x)2
mit Yi
(9)
(10)
Dabei machen wir einen Fehler, der ungefähr dem ersten weggelassenen Glied entspricht,
(6)
also −(∆x)6 /240Ψi .
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Herleitung der WKB-Näherung
Zur Lösung der Schrödingergleichung
∂2
p2 (x)
Ψ(x)
+
Ψ(x) = 0
∂x2
~2
mit
p(x) =
machen wir den hinreichend allgemeinen Ansatz
also
p
2m [Etot − V (x)]
Ψ(x) = eiS(x)/~
mit
S(x) ∈ C
i
dΨ
= eiS/~ S 0
dx
~
2
i 00
1 02
dΨ
iS/~
= e
S − 2S
dx2
~
~
(11)
(12)
(13)
(14)
Einsetzen in Gl. 11 liefert:
−S 02 + p2 (x) + i~S 00 = 0
(15)
Diese Gleichung ist nichtlinear und daher nicht leichter lösbar als die ursprüngliche
Gleichung Gl. 11.
Man kann jetzt jedoch die Funktion S in Potenzen von ~ entwickeln. Der Hintergedanke
dieser Entwicklung ist, daß im klassischen Limit ~ → 0 die Wellenlänge λ = 2π~/p gegen
Null geht. In diesem Limit ist dann jedes nicht-pathologische Potential auf der Längenskala
von λ langsam veränderlich. Dies verbessert die Genauigkeit des Grundgedankens der
WKB-Approximation. Umgekehrt können dann jegliche Korrekturen zu den erhaltenen
Formeln darauf zurückgeführt werden, daß ~ nicht wirklich Null ist. Solange jedoch ~
als klein behandelt werden kann, kann man hoffen, daß Korrekturen in Potenzen von ~
berechenbar sind.
Also schreiben wir
und mithin
sowie
und
S = S0 + ~S1 + ~2 S2 + · · ·
S 0 = S00 + ~S10 + ~2 S20 + · · ·
2
2
2
S 02 = S00 + ~2 S10 + ~4 S20 + · · ·
+2~S00 S10 + 2~2 S00 S20 + 2~3 S10 S20 + · · ·
S 00 = S000 + ~S100 + ~2 S200 + · · ·
(16)
(17)
(18)
(19)
Einsetzen in Gl. 15 und Sortieren nach Potenzen von ~ liefert:
2
2
[−S00 + p2 (x)] + ~[−2S00 S10 + iS000 ] + ~2 [−2S00 S20 − S10 + iS100 ] + · · · = 0
(20)
Durch Koeffizientenvergleich der ~n , n = 0, 1, 2, . . ., links und rechts erhalten wir für n = 0:
2
S00 = p2 (x)
sowie für n = 1:
S10 = i
S000
2S00
(21)
(22)
Betrachten wir nur diese beiden Gleichungen, entspricht das einem Abbruch der Reihenentwicklung Gl. 16 nach dem zweiten Glied, was im (semi)klassischen Limit ~ → 0
gerechtfertigt erscheint.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Gl. 21 kann sofort integriert werden und liefert:
S0 = ±
Zx
p(x0 ) dx0
(23)
x0
Die Integration von Gl. 22 ist nur unwesentlich schwieriger:
Z
Z
i
i
i
1 dS00
1
S1 =
dx =
dS00 = ln |S00 |
0
0
2
S0 dx
2
S0
2
(24)
Zur Elimination von |S00 | auf der rechten Seite kann Gl. 21 verwendet werden, sodaß
sich schließlich ergibt:
i
S1 = ln |p(x)|
(25)
2
Nach Gl. 16 ergibt sich S in unserer abgebrochenen Reihenentwicklung aus S0 und
S1 ; und der ursprüngliche Ansatz Gl. 12 liefert schließlich die Wellenfunktion in der
WKB-Approximation:
Zx
i
i
1
i
p(x0 ) dx0
ln Ψ(x) = S =
S0 + iS1 = − ln |p(x)| ±
~
~
2
~
x

0
Zx
1
i
Ψ(x) = p
exp ±
p(x0 ) dx0 
~
|p(x)|
(26)
(27)
x0
Eine notwendige Voraussetzung für die Konvergenz der Reihe Gl. 16 ist, daß der Betrag
der Reihenglieder mit wachsender Potenz von ~ kleiner wird, also hier insbesondere:
|S0 | |~S1 |
(28)
Bildung der ersten Ableitung auf beiden Seiten dieser Beziehung und Verwendung der
Gln. 21 und 22 zur Ersetzung von S00 , S10 und S000 liefert:
00 ~S0 ~ dp(x) (29)
|p(x)| 0 = 2S0
2p(x) dx Die erste Ableitung der de-Broglie-Beziehung λ(x) = 2π~/p(x) lautet jedoch:
dλ
d 1
−1 dp(x)
= 2π~
= 2π~ 2
dx
dx p(x)
p (x) dx
Also wird aus Gl. 29:
und wir erhalten schließlich:
1
1
2π
dλ dx dλ 2π
dx als Voraussetzung der (näherungsweisen) Gültigkeit der WKB-Approximation.
(30)
(31)
(32)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Die FBR-DVR-Transformation
In der (pseudo)spektralen FBR-Darstellung wird die Wellenfunktion ψ(x) in der endlichen
Basis {φi (x)} dargestellt:
X
ψ(x) =
ai φi (x)
(33)
i
Daraus ergibt sich die DVR-Basis durch Transformation mit der Matrix L:
X
√
φi (x)L†iα
mit
L†iα = wα φ∗i (xα )
δα (x) =
(34)
Wenn die FBR-Basis orthonormal ist, lauten ihre Überlappungsmatrixelemente:
Z
Sij = φ∗i (x) φj (x) dx = δij
(35)
i
Mit diskreter Gauß-Integration wird aus diesem Integral folgendes:
X
Sij =
wα φ∗i (xα ) φj (xα )
(36)
α
X√
√
wα φ∗i (xα ) wα φj (xα )
=
(37)
α
= (L† L)ij
= δij
(38)
(39)
Deshalb sind die Spaltenvektoren der Matrix L orthonormal.
Um zu zeigen, daß L unitär ist, muß noch demonstriert werden, daß die Zeilenvektoren
ebenfalls orthonormal sind. Dazu betrachten wir Elemente der Überlappungsmatrix ∆ der
DVR-Basis:
Z
∆αβ = δα∗ (x) δβ (x) dx
(40)
Einsetzen der Definition Gl. 34 und erneute Verwendung der Orthonormalität der FBR-Basis
liefert:
!
!
Z
X
√ X
√
wα
wβ
φi (xα ) φ∗i (x)
φ∗j (xβ ) φj (x) dx
(41)
∆αβ =
i
j
Z
X√
√
∗
wα φi (xα ) wβ φj (xβ ) φ∗i (x) φj (x) dx
=
ij
{z
}
|
(42)
δij
=
X√
√
wα φi (xα ) wβ φ∗i (xβ )
(43)
i
= (LL† )αβ
(44)
Aufgrund der Orthonormalität der Spaltenvektoren von L ist die Matrix ∆ idempotent:
∆2 = (LL† )2 = LL† LL† = L(L† L)L† = LL† = ∆
(45)
Bei idempotenten Matrizen sind alle Eigenwerte 0 oder 1. Wegen L† L = 1 muß gelten
tr(L† L) = N (Anzahl der Basisfunktionen oder Gitterpunkte). Wegen der Invarianz der
Spur eine Matrixprodukts bezüglich zyklischer Vertauschung im Produkt gilt dann auch
tr(LL† ) = N . Wegen Invarianz der Spur unter unitären Transformationen ist die Summe
der Eigenwerte einer Matrix gleich ihrer Spur. Daher muß die Matrix ∆ = LL† genau
N Eigenwerte vom Wert 1 haben und kann deshalb nur die Einheitsmatrix sein. Also
ist nicht nur S = L† L = 1 sondern auch ∆ = LL† = 1, und daher ist L unitär.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Superpositionszustände
Um zu zeigen, daß die trivial-zeitabhängige Wellenfunktion
Ψ(x, t) = e−iEt/~ ψ(x)
(46)
eine Lösung der zeitabhängige Schrödingergleichung in 1 Dimension
i~
∂
~2 ∂ 2
Ψ(x, t) = −
Ψ(x, t) + V (x)Ψ(x, t) =: ĤΨ(x, t)
∂t
2m ∂x2
(47)
ist, differenzieren wir Gl. 46 partiell nach der Zeit:
∂
−iE −iEt/~
∂
Ψ(x, t) = ψ(x) e−iEt/~ =
e
ψ(x)
∂t
∂t
~
(48)
Damit wird aus Gl. 47:
i~
∂
Ψ(x, t) = E e−iEt/~ ψ(x) = ĤΨ(x, t) = e−iEt/~ Ĥψ(x)
∂t
(49)
Das ist eine Identität, sobald gilt:
Ĥψ(x) = Eψ(x)
(50)
Genauso läßt sich jedoch zeigen, daß eine Superposition wie etwa
Ψ(x, t) = c1 ψ1 (x, t) + c2 ψ2 (x, t) = c1 e−iE1 t/~ ψ1 (x) + c2 e−iE2 t/~ ψ2 (x)
(51)
ebenfalls eine Lösung von Gl. 47 ist. Partielle Differentiation nach der Zeit liefert:
∂
iE1 −iE1 t/~
iE2 −iE2 t/~
Ψ(x, t) = −c1
e
ψ1 (x) − c2
e
ψ2 (x)
∂t
~
~
(52)
Damit wird aus Gl. 47:
i~
∂
Ψ(x, t) = c1 E1 e−iE1 t/~ ψ1 (x) + c2 E2 e−iE2 t/~ ψ2 (x)
∂t
= ĤΨ(x, t)
= c1 e−iE1 t/~ Ĥψ1 (x) + c2 e−iE2 t/~ Ĥψ2 (x)
(53)
(54)
(55)
was bereits erfüllt ist, wenn nur gilt:
Ĥψ1 (x) = E1 ψ1 (x)
und
Ĥψ2 (x) = E2 ψ2 (x)
(56)
Die Werte der Koeffizienten c1 und c2 sind dabei offensichtlich belanglos.
Also lautet die allgemeinste Lösung dieser Art:
X
cn e−iEn t/~ ψn (x)
Ψ(x, t) =
(57)
n
wobei sich En und ψn (x) ergeben aus:
Ĥψn (x) = En ψn (x)
(58)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Funktionen von Operatoren
 sei ein beliebiger linearer Operator. Wenn der Operator invertierbar ist, ist der inverse
Operator definiert über
Â−1 Â = ÂÂ−1 = 1̂
(59)
Noch einfacher sind ganzzahlige, positive Potenzen von Â:
Ân = Â
· · · Â}
| Â{z
(60)
nmal
Sie entsprechen einfach einer n-maligen Anwendung von Â.
Andere Funktionen von  sind schwieriger zu definieren. Wie beim Übergang von
Funktionen einer reellen Variablen zu Funktionen einer komplexen Variablen kann man
sich auch hier der Taylorreihe bedienen: Die Funktion F (x) sei (innerhalb eines gewissen
Konvergenzintervalls) in eine Taylorreihe entwickelbar:
F (x) =
∞
X
f n xn
(61)
n=1
Dann definieren wir die Funktion F (Â) als folgende Reihe
F (Â) =
∞
X
fn Ân
(62)
n=1
mit denselben Koeffizienten fn wie in Gl. 61. Die rechte Seite von Gl. 62 bereitet dann
keine Schwierigkeiten mehr, weil ja ganzzahlige, positive Potenzen von  sehr einfach
gegeben sind.
Beispiel: Die Operatorfunktion e ist definiert durch
Â
e =
∞
X
Ân
n=0
n!
= 1̂ + Â + Â2 /2 + · · · + Ân /n! + · · ·
(63)
Beachte: Wenn F (x) eine reelle Funktion ist, sind auch die Koeffizienten fn reell. Wenn
außerdem der Operator  hermitesch ist, ist nach Gl. 62 auch F (Â) hermitesch.
ψa sei eine Eigenfunktion von  mit Eigenwert a:
Âψa = aψa
(64)
n-malige Anwendung von  liefert dann:
Ân ψa = an ψa
(65)
Damit können wir F (Â) nach Gl. 62 auf ψa wirken lassen und erhalten:
F (Â)ψa =
∞
X
fn an ψa = F (a)ψa
(66)
n=1
Mit anderen Worten: Wenn ψa eine Eigenfunktion von  mit Eigenwert a ist, dann ist
ψa auch Eigenfunktion von F (Â), allerdings mit Eigenwert F (a).
Daraus wird klar, wie wir auf einfache Weise Funktionen eines Operators bestimmen können,
wenn dieser als Matrix (also in einer Basisdarstellung) gegeben ist: Wir transformieren in
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
die Basis, in der der Operator diagonal ist. Diese Basis ist die Basis der Eigenfunktionen
des Operators. Dort können wir also Gl. 66 anwenden; dadurch wird aus jedem Eigenwert
a auf der Diagonalen der entsprechende Wert F (a). Dann transformieren wir wieder
zurück in die ursprüngliche Basis. Wenn wir die Transformationsmatrix ( = Matrix der
Eigenvektoren von Â) mit U bezeichnen und die Diagonalmatrix der Eigenwerte mit a,
haben wir also folgende Vorschrift:
F (A) = UF (a)U†
(67)
Im hier betrachteten Zusammenhang sind Operatoren im Exponenten interessant, wie
sie beim Propagator auftreten. Dabei ist insbesondere zu beachten: Die sogenannte
Haupteigenschaft der Exponentialfunktion (ea eb = ea+b ), die für Zahlen immer gültig ist
(z.B. auch für komplexe Zahlen), gilt für Operatoren i.A. nur, wenn diese kommutieren:
[Â, B̂] = 0
[Â, B̂] 6= 0
⇒
⇒
e eB̂ = eB̂ e = eÂ+B̂
(68)
e eB̂ 6= eB̂ e 6= eÂ+B̂
(69)
Das wird klarer, wenn wir die entsprechenden Taylorreihen betrachten:
e eB̂ =
eB̂ e =
eÂ+B̂ =
X Âm X B̂ n X Âm B̂ n
=
m! n n!
m! n!
m
m,n
X B̂ n X Âm X B̂ n Âm
=
n! m m!
m! n!
n
m,n
X (Â + B̂)m
m
m!
(70)
(71)
(72)
Zum Beispiel ergeben sich im Term 2. Ordnung in Gl. 72 (unter Voraussetzung, daß
die Operatoren linear sind) die Terme (Â2 + ÂB̂ + B̂ Â + B̂ 2 )/2. In Gl. 70 erhalten wir
jedoch Â2 /2, B̂ 2 /2 sowie ÂB̂/1. Dabei fehlt offensichtlich ein Term der Art B̂ Â, und
die Koeffizienten sind unterschiedlich. Sobald jedoch [Â, B̂] = 0 gilt, haben wir ÂB̂ = B̂ Â
und beide Fälle stimmen überein.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Kommutatoren von Funktionen von Operatoren
Trivialerweise gilt für jeden Operator Â
[Â, Ân ] = 0
(73)
[Â, F (Â)] = 0
(74)
Aufgrund von Gl. 62 gilt dann auch
d.h. jeder Operator  kommutiert mit jeder Funktion F desselben Operators.
Offensichtlich muß ebenfalls gelten:
[B̂, Â] = 0
⇒
[B̂, F (Â)] = 0
(75)
Schwieriger ist der letzte Fall, wenn [B̂, Â] 6= 0. Zur Vereinfachung betrachten wir lediglich
den Spezialfall
[Â, B̂] = a
mit
a∈C
und
a 6= 0
(76)
(typisches Beispiel: Ortsoperator x̂ und Impulsoperator p̂x ; dann ist a = i~. Im allgemeineneren Fall könnte das Resultat des Kommutators auch wieder ein Operator und keine
einfache Zahl sein.)
Für diesen Spezialfall beweisen wir durch vollständige Induktion die Beziehung
[Â, F (B̂)] = aF 0 (B̂)
(77)
(wobei F 0 die erste Ableitung der Funktion F ist). Daher betrachten wir zunächst den
Fall [Â, B̂ 2 ]. Mit Hilfe der allgemeinen Kommutatorbeziehung [Â, B̂ Ĉ] = [Â, B̂]Ĉ + B̂[Â, Ĉ]
ergibt sich:
[Â, B̂ 2 ] = [Â, B̂ B̂] = [Â, B̂]B̂ + B̂[Â, B̂] = 2aB̂
(78)
also genau die zu zeigende Beziehung Gl. 77, für den Fall F (B̂) = B̂ 2 .
Wenn wir nun annehmen, daß
[Â, B̂ n ] = anB̂ n−1
(79)
für einen Wert von n gezeigt ist, können wir demonstrieren, daß eine analoge Beziehung
auch für den nächsthöheren Wert n + 1 gilt:
[Â, B̂ n+1 ] = [Â, B̂ B̂ n ] = [Â, B̂]B̂ n + B̂[Â, B̂ n ] = aB̂ n + anB̂ B̂ n−1 = a(n + 1)B̂ n
(80)
Daraus und aus Gl. 78 folgt per Induktion die Behauptung Gl. 79.
Nach unserer üblichen Reihenentwicklung ist jedoch die linke Seite unserer eigentlichen
Zielbehauptung Gl. 77 nichts anderes als:
X
X
[Â, F (B̂)] =
[Â, fn B̂ n ] =
anfn B̂ n−1
(81)
n
n
In der rechten Seite dieser Gleichung erkennen wir aber die Reihenentwicklungs-Definition
der Ableitungsfunktion F 0 (B̂) und es ergibt sich unmittelbar die Gültigkeit der Behauptung
[Â, F (B̂)] = aF 0 (B̂)
(82)
Wie in einigen ähnlichen Fällen kann auch dieser Satz von der Voraussetzung [Â, B̂] = a
zu der etwas schwächeren Voraussetzung [Â, [Â, B̂]] = [B̂, [Â, B̂]] = 0 (beide Operatoren
kommutieren mit ihrem Kommutator) verallgemeinert werden. Die Argumentation ist dabei
sehr ähnlich zu der gerade vorgeführten und liefert:
[Â, F (B̂)] = [Â, B̂] F 0 (B̂)
(83)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Ableitungen von Operatoren
Ein Operator Â(t) hänge von einer beliebigen Variablen t ab. Die Matrixelemente Aij
dieses Operators in einer Matrixdarstellung mit beliebigen Basisfunktionen φi sind dann
ebenfalls zeitabhängig: Aij (t). Wenn diese Basisfunktionen zeitunabhängig sind, gilt
d
dÂ
d
Aij = hφi | |φj i = hφi |Â|φj i
dt
dt
dt
(84)
da dφn /dt = 0 per Voraussetzung. In einer ansonsten nicht näher spezifizierten, zeitunabhängigen Basisdarstellung ergeben sich die Matrixelemente des abgeleiteten Operators
also ganz einfach als Ableitungen der Matrixelemente des ursprünglichen Operators.
Mit diesem Trick kann man in einer Basisdarstellung zeigen, daß z.B. die üblichen
Summen- und Produktregeln der Differentiation auch für Operatoren gelten (dies bleibt
dem Leser als wirklich leichte Übung selbst überlassen). Da dabei keinerlei Eigenschaften
der Basisfunktionen ausgenützt werden müssen, folgen die allgemeinen Operatorgleichungen:
d
d dB̂
(Â + B̂) =
+
dt
dt
dt
dB̂
d
dÂ
B̂ + Â
(ÂB̂) =
dt
dt
dt
(85)
(86)
Daraus und wiederum mit Rückgriff auf die Taylorreihen-Definition lassen sich dann
weitere Ableitungen elementarer Operator-Funktionen konstruieren, z.B. die Ableitung von
e
Ât
=
∞
X
(Ât)n
n=0
n!
(87)
(beachte: die Zeitabhängigkeit ist hier auf das explizite Auftreten von t im Exponenten
beschränkt; der Operator  soll in diesem Beispiel explizit zeitunabhängig sein!)
Unter der Annahme, daß wir auch hier die unendlichen Reihe Term für Term differenzieren
können, ergibt sich:
∞
X
d Ât
n tn−1 Ân
e
=
dt
n!
n=1
∞
X
(Ât)n−1
= Â
(n − 1)!
n=1
"∞
#
X (Ât)n−1
=
Â
(n − 1)!
n=1
(88)
(89)
(90)
Mit der Indextransformation p = n − 1 ist der resultierende Summenausdruck wiederum
identisch zur Definition von exp(Ât) in Gl. 87. Damit ergibt sich also:
d Ât
e = ÂeÂt = eÂt Â
dt
(91)
Das ist wiederum dieselbe Ableitungsregel, wie sie auch für Funktionen von Zahlen gilt.
Insbesondere muß man hier nicht auf die Reihenfolge der Operatoren achten: exp(Ât)
und  kommutieren.
Das ist in anderen Fällen durchaus anders: Nach Gln. 86 und Gl. 91 ergibt sich z.B.:
d Ât B̂t
(e e ) = ÂeÂt eB̂t + eÂt B̂eB̂t
dt
(92)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Dies können wir offenbar umformen zu
d Ât B̂t
(e e ) = eÂt ÂeB̂t + eÂt B̂eB̂t
dt
= eÂt ÂeB̂t + eÂt eB̂t B̂
(93)
(94)
Unter Beachtung des oben Hergeleiteten (Gln. 75 und 79) ist jedoch i.A.
d Ât B̂t
(e e ) 6= (Â + B̂)eÂt eB̂t
dt
(95)
Dies wird nur zu einer Gleichheit, wenn [Â, B̂] = 0 (oder bei Funktionen von Zahlen
statt Operatoren). Hier ist also die Reihenfolge der Operatoren entscheidend wichtig.
Derartige Schwierigkeiten ergeben sich jedoch nicht nur beim Auftreten mehrerer Operatoren
im Exponenten. Bereits bei einem einzigen Operator Â(t) mit beliebiger Zeitabhängigkeit
kann man (ebenfalls über eine Taylorreihen-Entwicklung) zeigen, daß i.A. gilt
d Â(t) d Â(t)
e
6=
e
dt
dt
(96)
es sei denn, daß
d Â(t) d Â(t)
dÂ
]=0
⇒
e
=
e
(97)
dt
dt
dt
Diese Voraussetzung muß bei allgemeiner Zeitabhängigkeit jedoch keineswegs gegeben sein.
[Â(t),
Aus genau diesem Grund ist auch der Zeitpropagator bei allgemeiner Zeitabhängigkeit des
Hamiltonoperators sehr kompliziert. Bei zeitunabhängigem Ĥ haben wir als Propagator
Û (t, t0 ) = e−iĤ(t−t0 )/~
(98)
Der scheinbar aus einer analogen Herleitung im allgemein-zeitabhängigen Fall konstruierbare
Operator
V̂ (t, t0 ) = e
− ~i
Rt
Ĥ(t0 ) dt0
t0
(99)
ist jedoch nicht der Propagator für diesen Fall, da i.A. gilt:
i~
∂
V̂ (t, t0 ) 6= Ĥ(t)V̂ (t, t0 )
∂t
(100)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Die Glauber-Formel
Wenn die Operatoren  und B̂ beide mit ihrem Kommutator [Â, B̂] kommutieren, gilt
nach Glauber:
1
e eB̂ = eÂ+B̂ e 2 [Â,B̂]
(101)
Zum Beweis dieser Formel definieren wir einen neuen Operator F̂ (t) als:
F̂ (t) = eÂt eB̂t
(102)
Nach Gl. 92 lautet dessen Zeitableitung:
dF̂
dt
= ÂeÂt eB̂t + eÂt B̂eB̂t
Ât
−Ât
= Â + e B̂e
F̂ (t)
(103)
(104)
Da per Voraussetzung die Operatoren  und B̂ beide mit ihrem Kommutator kommutieren,
können wir Gl. 83 auf folgenden Ausdruck anwenden:
[eÂt , B̂] = t[Â, B̂]eÂt
(105)
was minimal umgeformt nichts anderes ist als:
eÂt B̂ = B̂eÂt + t[Â, B̂]eÂt
(106)
Multiplikation beider Seiten dieser Gleichung von rechts mit exp(−Ât) und Einsetzen in
Gl. 103 liefert:
dF̂
= Â + B̂ + t[Â, B̂] F̂ (t)
(107)
dt
Da die Operatoren Â, B̂ sowie [Â, B̂] per Voraussetzung miteinander kommutieren, können
wir die Differentialgleichung Gl. 107 so integrieren, als ob diese Größen Zahlen wären,
und erhalten damit:
1
2
F̂ (t) = F̂ (0) e(Â+B̂)t+ 2 [Â,B̂]t
(108)
Setzen wir darin t = 0, ergibt sich F̂ (0) = 1̂, und somit:
1
F̂ (t) = e(Â+B̂)t+ 2 [Â,B̂]t
2
Setzen wir darin t = 1, ergibt sich die Behauptung Gl. 101.
(109)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Integration der zeitabhängigen Schrödingergleichung
In der zeitabhängige Schrödingergleichung
i~
∂
Ψ(t) = ĤΨ(t)
∂t
(110)
können wir in nicht ganz sauberer Weise die Ortsabhängigkeit von Ĥ und Ψ ignorieren
(eine sauberere aber auch nicht hinreichend allgemeine Behandlung mit Separationsansatz
führt auf die Separation in ein zeit- und ein ortsabhängiges Problem, s.o.).
Dann können wir in dieser Gleichung sehr leicht die Variablen Ψ und t separieren
dΨ
i
= − Ĥdt
Ψ
~
(111)
und links und rechts integrieren:
Ψ(t)
Z
i
dΨ
= ln Ψ(t) − ln Ψ(t = 0) = −
Ψ
~
Ψ(t=0)
Zt
Ĥdt0
(112)
t=0
Wenn nun Ĥ explizit zeitunabhängig ist, ist das Integral auf der rechten Seite von Gl.
112 trivial:
Zt
i
i
ln Ψ(t) − ln Ψ(t = 0) = − Ĥ
(113)
dt0 = − Ĥt
~
~
t=0
und wir erhalten
Ψ(t) = e−iĤt/~ Ψ(t = 0)
(114)
Ist dagegen Ĥ explizit zeitabhängig, könnte man immer noch versucht sein, das Analogon
von Gl. 112 heranzuziehen
i
ln Ψ(t) − ln Ψ(t = 0) = −
~
Zt
Ĥ(t0 )dt0
(115)
t=0
und auf eine sofortige, analytische Auswertung des Integrals angesichts der (noch) unspezifizierten Zeitabhängigkeit von Ĥ(t) (zunächst) zu verzichten, die weiteren Schritte aber
analog auszuführen, mit dem falschen Resultat:


 i Zt

Ψ(t) = exp −
Ĥ(t0 ) dt0 Ψ(t = 0)
???
(116)
 ~

t=0
Diese Vorgehensweise ist aus mehreren Gründen viel problematischer, als es zunächst den
Anschein haben mag:
Denken wir uns das Integral in Gl. 115 als Grenzfall einer Summe, wird klar, daß wir
beim Übergang zu Gl. 116 eine Operation der Art
eĤ(ti ) eĤ(tj ) = eĤ(ti )+Ĥ(tj )
(117)
(mit zwei verschiedenen Zeiten ti und tj ) ausgeführt haben. Das ist mit Zahlen und
Funktionen erlaubt, mit Operatoren dagegen i.A. nicht – genauer: nur dann, wenn die
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
beteiligten Operatoren kommutieren, also Ĥ(ti )Ĥ(tj ) = Ĥ(tj )Ĥ(ti ) gilt (s.o.!); das ist aber
bei nicht näher festgelegter Zeitabhängigkeit von Ĥ(t) nicht notwendigerweise gegeben.
Noch gravierender ist die Tatsache, daß die hier vorgeführten Manipulationen etwas
an Genauigkeit zu wünschen übriglassen. Das bleibt im Fall eines zeitunabhängigen Ĥ
ohne Folgen, im zeitabhängigen Fall jedoch nicht. In genauerer Betrachtung dürfte man
Ĥ(t)Ψ(t) nicht ganz so leichtfertig in unabhängig voneinander manipulierbare Terme Ĥ(t)
und Ψ(t) trennen. Integriert man jedoch die zeitabhängige Schrödingergleichung ohne diese
Termtrennung, erhält man eine Gleichung der Art
i
Ψ(t) = Ψ(t = 0) +
~
Zt
Ĥ(t0 ) Ψ(t0 ) dt0
(118)
t=0
Dies ist offensichtlich keine direkte Lösung unseres Problems; es ist sogar eine Gleichung
ganz anderen Typs, nämlich statt einer Differentialgleichung nun eine Integralgleichung
zur Bestimmung von Ψ(t). Dabei taucht das zu bestimmende Ψ(t) aber nicht nur auf
der linken, sondern auch auf der rechten Seite auf, dort sogar unter dem Integral. Die
Schwierigkeit besteht also darin, daß zur Bestimmung von Ψ(t) zu beliebigen Zeiten t eben
dieses Ψ(t) bereits bekannt sein muß. (Natürlich muß auch Ĥ(t) für alle (interessierenden)
Zeiten t bekannt sein – aber das ist insofern nicht problematisch, als dies der Spezifikation
des physikalischen Problems entspricht. M.a.W.: Wenn wir Ĥ(t) nicht schon kennen, wissen
wir gar nicht (genau genug), welches physikalische Problem wir überhaupt lösen wollen.
Die eigentliche Aufgabe ist also die Bestimmung von Ψ(t) bei gegebenem Ĥ(t).)
Eine generelle Strategie zur Lösung solcher Gleichungen besteht in der Durchführung einer
Iteration: Solange die Integrations-Endzeit t sich nur unwesentlich von der IntegrationsStartzeit t = 0 unterscheidet, ist Ψ(t = 0) eine akzeptable Lösung für den gesamten
Integrationsbereich. Also setzen wir zunächst Ψ(t) = Ψ(t = 0) auf der rechten Seite der
Gleichung ein. Dadurch ergibt sich aber eine (neue) Lösung Ψ(t) auf der linken Seite. Diese
kann nun wiederum rechts eingesetzt werden, wodurch dort allerdings ein Doppelintegral
entsteht, usw.
Genaue Durchführung dieser Strategie1 liefert nach unendlich vielen Schritten


Z tZ
∞ n

X
1
i
· · · T̂ Ĥ(t1 ) · · · Ĥ(tn ) dt1 · · · dtn Ψ(t = 0)
Ψ(t) =


~
n!
n=0
(119)
t=0
Dabei sind die Variablen ti die Integrationsvariablen der einzelnen Integrale. Ein magi”
scher“ Zeitordnungsoperator T̂ sorgt dafür, daß das dahinterstehende Operatorprodukt in
Reihenfolge abnehmender Zeiten von links nach rechts chronologisch geordnet wird (dieser
Operator T̂ ist letztlich nur ein Trick, um die Notation der Integralgrenzen erheblich zu
vereinfachen).
Dieses Resultat ist offenbar formal identisch zur Taylorreihe einer Exponentialfunktion,
sodaß man auch schreiben kann (nur oberflächlich ähnlich zu Gl. 116 !!):



Zt


i
Ψ(t) = T̂ exp −
Ĥ(t0 ) dt0  Ψ(t = 0)
(120)


~
t0
1
E. Fick: Einführung in die Grundlagen der Quantentheorie“, Aula-Verlag, Wiesbaden, 1968/1988,
”
Kapitel 3.5.7; A. L. Fetter und J. D. Walecka: Quantum theory of many-particle systems“, McGraw-Hill,
”
New York, 1971, Kapitel 3.6
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Infinitesimale unitäre Operatoren
Û () sei ein unitärer Operator, der von einer infinitesimalen, reelen Größe abhängt.
Dann können wir Û in eine Potenzreihe in entwickeln:
Û () = 1̂ + Ĝ + · · ·
(121)
Der erste Term ist der Einheitsoperator, weil für → 0 gelten muß Û → 1̂, da Û per
Voraussetzung unitär sein soll. Über den Operator Ĝ im zweiten Term wissen wir noch
nichts.
Zur Vereinfachung des Folgenden setzen wir
F̂ = −iĜ
bzw.
Ĝ = iF̂
(122)
wodurch aus Gl. 121 wird:
Û () = 1̂ + iF̂ + · · ·
(123)
Das Adjungierte dieser Reihe lautet:
Û † () = 1̂ − iF̂ † + · · ·
(124)
Durch Multiplikation dieser beiden Reihen Gln. 123 und 124 erhalten wir:
Û () Û † () = Û † () Û () = 1̂ + i(F̂ − F̂ † ) + · · ·
(125)
Da Û per Voraussetzung unitär ist, muß jedoch gelten:
Û † = Û −1
Û () Û † () = Û † () Û () = 1̂
⇒
(126)
Damit folgt aus Gl. 125:
F̂ − F̂ † = 0
⇒
F̂ = F̂ †
(127)
d.h.: F̂ ist hermitesch.
Diese Argumentation läßt sich auch umkehren:
Wenn F̂ ein hermitescher Operator ist und ein Û () gegeben ist durch
Û () = 1̂ + iF̂
(128)
dann können wir diese Gleichung mit ihrer adjungierten Version
Û † () = 1̂ − iF̂ †
(129)
Û () Û † () = Û † () Û () = 1̂ + i(F̂ − F̂ † ) + O(2 )
(130)
multiplizieren und erhalten
Der Term der Ordnung 2 entfällt, wenn infinitesimal ist. Da F̂ per Voraussetzung
hermitesch ist, ist der zweite Term Null. Also bleibt lediglich übrig:
Û () Û † () = Û † () Û () = 1̂
was nur richtig sein kann, wenn Û () unitär ist.
(131)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Der infinitesimale Propagator ist exakt:
Der infinitesimale Propagator überführt Ψ(t) in Ψ(t + dt):
Ψ(t + dt) = Û (t + dt, t)Ψ(t)
(132)
Einsetzen der Definition von Û (t + dt, t)
i
Û (t + dt, t) = 1̂ − Ĥ dt
~
liefert:
Ψ(t + dt, t) = Ψ(t) −
i
dt ĤΨ(t)
~
(133)
(134)
Etwas Umordnung liefert:
Ψ(t + dt) − Ψ(t)
= ĤΨ(t)
(135)
dt
Da dt eine infinitesimale Größe ist, steht links schlicht die Definition des Differentialquotienten, und wir erhalten:
∂Ψ(t)
= ĤΨ(t)
(136)
i~
∂t
also nichts anderes als die zeitabhängige Schrödingergleichung.
i~
Im Limit eines infinitesimalen Zeitschritts dt ist der Propagator nach Gl. 133 also exakt.
U (t, t0) ist unitär:
Der infinitesimale Propagator ist unitär, weil er gegeben ist durch
i
Û (t + dt, t) = 1̂ − Ĥ dt
~
(137)
mit dem hermiteschen Operator Ĥ.
Propagation über den finiten Zeitschritt t0 → t1 erfolgt durch:
Ψ(t1 ) = Û (t1 , t0 )Ψ(t0 )
(138)
Analog gilt für Propagation von t1 zu t2 :
Ψ(t2 ) = Û (t2 , t1 )Ψ(t1 )
(139)
Ψ(t1 ) ist aber nach Gl. 138 gegeben; daher ergibt sich für die Propagation von t0 nach
t2 :
Ψ(t2 ) = Û (t2 , t1 )Û (t1 , t0 )Ψ(t0 )
(140)
Im Grenzfall kann man auf diese Weise eine Propagation über ein finites Zeitintervall
durch ein Produkt aus unendlich vielen“ infinitesimalen Propagatoren darstellen. Jeder
”
einzelne dieser infinitesimalen Propagatoren ist aber unitär, also ist auch der (finite)
Gesamt-Propagator unitär.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Die Norm bleibt bei Zeitpropagation erhalten:
Die Ableitung der Norm nach der Zeit ist:
∂
∂
∂
hΨ(t)|Ψ(t)i = h Ψ(t)|Ψ(t)i + hΨ(t)| Ψ(t)i
∂t
∂t
∂t
(141)
Nach der zeitabhängigen Schrödingergleichung gilt jedoch:
∂
i
|Ψ(t)i = − Ĥ|Ψ(t)i
∂t
~
(142)
i
i
∂
hΨ(t)| = hΨ(t)|Ĥ † = hΨ(t)|Ĥ
∂t
~
~
(143)
Das Adjungierte von Gl. 142 ist:
Der letzte Schritt folgt, weil Ĥ hermitesch ist.
Einsetzen der Gln. 142 und 143 in Gl. 141 liefert:
∂
i
i
hΨ(t)|Ψ(t)i = hΨ(t)|Ĥ|Ψ(t)i − hΨ(t)|Ĥ|Ψ(t)i = 0
∂t
~
~
(144)
Das ist identisch mit der Behauptung.
Dabei haben wir die Unitarität des Zeitpropagators nicht verwendet. Die Norm kann
aber bei Zeitpropagation nur erhalten bleiben, wenn der Zeitpropagator unitär ist. Diese
Unitarität ist also eine wichtige Eigenschaft, die ein Zeitpropagator erfüllen muß.
Allgemeiner: Zeitinvariante Größen:
Nach den grundlegenden Postulaten der Quantenmechanik ist der Mittelwert eines Meßwerts
gegeben durch den Erwartungswert des zugehörigen Operators:
hAi = hΨ|Â|Ψi
(145)
Im zeitabhängigen Fall wird daraus zu jedem Zeitpunkt t:
hAi(t) = hΨ(t)|Â(t)|Ψ(t)i
(146)
Die Zeitableitung der rechten Seite lautet:
∂
∂
∂
∂
hΨ(t)|Â(t)|Ψ(t)i = h Ψ(t)|Â(t)|Ψ(t)i + hΨ(t)| Â(t)|Ψ(t)i + hΨ(t)|Â(t)| Ψ(t)i
∂t
∂t
∂t
∂t
(147)
Mit den Gln. 142 und 143 wird daraus:
i
i
∂
hΨ(t)|Ĥ Â(t)|Ψ(t)i + hΨ(t)| Â(t)|Ψ(t)i − hΨ(t)|Â(t)Ĥ|Ψ(t)i
~
∂t
~
(148)
Mit der Definition des Kommutators [Â, B̂] = ÂB̂ − B̂ Â erhalten wir also:
i
∂ Â
∂
hAi(t) = − h[Â(t), Ĥ]i + h
i
∂t
~
∂t
(149)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Bestimmte Größen ändern ihren Wert bei Zeitpropagation nicht (Erhaltungsgrößen, constants
of the motion). Eine solche Größe liegt nach Gl. 149 offenbar vor, sobald für den zugehörigen
Operator gilt:
∂ Â
= 0
∂t
[Â, Ĥ] = 0
(150)
(151)
Rein formal gilt beides für den Einheitsoperator 1̂; daraus folgt wiederum die Erhaltung
der Norm.
Strenggenommen lautet die zweite Forderung [Â(t), Ĥ(t0 )] = 0 mit beliebigen, i.A. verschiedenen Zeiten t und t0 . Für den Fall  = Ĥ gilt diese (verschärfte) Forderung nicht
notwendigerweise. Bei konservativen Systemen ist jedoch Ĥ nicht explizit zeitabhängig,
und dann ist [Ĥ, Ĥ] = 0 trivial erfüllt. In diesem Fall ist also die Energie auch eine
Erhaltungsgröße.
An dieser Stelle müßte die Verbindung zwischen Invarianzen bezüglich gewissen (Symmetrie-)Operationen (Raumtranslation, -rotation, Zeittranslation usw.) und den daraus
sich ergebenden Erhaltungsgrößen (Impuls, Drehimpuls, Energie, usw.) in der klassischen
Mechanik und in der Quantenmechanik gezeigt werden. Dies wird jedoch in zahlreichen
Physik-Lehrbüchern abgehandelt, siehe z.B. H. Goldstein: Classical Mechanics“, Addison”
Wesley, Reading, 1981, Kap. 9-5, 12-7; R. Shankar: Principles of Quantum Mechanics“,
”
Plenum, New York, 1980, Kap. 11.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Zeitumkehrsymmetrie bei Finiten Differenzen:
Nach den finiten Differenzen erster Ordnung ist Ψ(t + ∆t) gegeben durch:
i
(152)
Ψ(t + ∆t) = Ψ(t) − ∆t ĤΨ(t)
~
Der approximative Propagator in die Vergangenheit“ lautet:
”
i
Û (t − ∆t, t) = Û (t, t + ∆t) = 1̂ + ∆t Ĥ
(153)
~
Anwendung dieses Operators auf Ψ(t + ∆t) sollte eigentlich Ψ(t) als Resultat liefern.
Anwendung des Operators aus Gl. 153 auf Gl. 152 liefert jedoch:
i
i
1
Û (t, t + ∆t)Ψ(t + ∆t) = Ψ(t) − ∆t ĤΨ(t) + ∆t ĤΨ(t) + 2 (∆t)2 Ĥ[ĤΨ(t)] (154)
~
~
~
1
2
(155)
= Ψ(t) + 2 (∆t) Ĥ[ĤΨ(t)]
~
Nur im Fall ∆t → dt wird der zweite Term Null, d.h. nur für den exakten infinitesimalen
Propagator erhalten wir das erwünschte Resultat der Zeitumkehrinvarianz. Für finite ∆t
machen wir bei finiten Differenzen erster Ordnung also bereits dann einen Fehler, wenn
wir nur einen Schritt vorwärts und dann einen Schritt rückwärts propagieren.
Bei finiten Differenzen zweiter Ordnung ist das Resultat günstiger. Die Analyse wird
aber etwas dadurch erschwert, daß Ψ an zwei Zeitpunkten bekannt sein muß, um Ψ
zum nächsten Zeitpunkt erzeugen zu können. Dennoch ist die folgende, relativ einfache
Argumentation möglich:
Das Propagationsschema für finite Differenzen zweiter Ordnung lautet:
i
Ψ(t + ∆t) = Ψ(t − ∆t) − 2 ∆t ĤΨ(t)
(156)
~
Anfügen eines weiteren Propagationsschritts liefert:
i
Ψ(t + 2∆t) = Ψ(t) − 2 ∆t ĤΨ(t + ∆t)
(157)
~
Damit kennen wir jetzt Ψ(t + ∆t) und Ψ(t + 2∆t) und können nun versuchen, nach dem
SOD-Verfahren vom Zeitpunkt t + ∆t zum Zeitpunkt t zurück zu propagieren, in der
Hoffnung, wieder bei Ψ(t) anzukommen. Dazu schreiben wir zunächst die SOD-Vorschrift
für −∆t auf:
i
Ψ(t − ∆t) = Ψ(t + ∆t) + 2 ∆t ĤΨ(t)
(158)
~
Durch Verschiebung des Zeitrasters um ∆t wird daraus:
i
(159)
Ψ(t) = Ψ(t + 2∆t) + 2 ∆t ĤΨ(t + ∆t)
~
Das ist die gesuchte Propagationsvorschrift. Ersetzen wir jetzt auf der rechten Seite
Ψ(t + 2∆t) durch die rechte Seite von Gl. 157, ergibt sich tatsächlich:
i
i
Ψ(t) = Ψ(t) − 2 ∆t ĤΨ(t + ∆t) + 2 ∆t ĤΨ(t + ∆t)
(160)
~
~
= Ψ(t)
(161)
Also erfüllt das SOD-Schema zumindest auf dieser kurzen Zeitskala die Zeitumkehrsymmetrie.
(Beachte: Diese für SOD erfolgreiche Argumentation liefert analog auf finite Differenzen
erster Ordnung angewandt nicht auch Zeitumkehrsymmetrie, sondern wiederum dasselbe
fehlerhafte Resultat wie in Gl. 155!)
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Vom nicht-adiabatischen Kopplungsmatrixelement zum adiabatisc
diabatischen Mischungswinkel
In der 2-Zustandsnäherung sei der Zusammenhang zwischen den adiabatischen und diabatischen Zuständen gegeben durch:
Ψad
= cos α(R) Ψd1 − sin α(R) Ψd2
1
Ψad
= sin α(R) Ψd1 + cos α(R) Ψd2
2
(162)
(163)
Damit können wir das nicht-adiabatische Kopplungsmatrixelement schreiben als:
hΨad
1 |
∂
∂
d
d
|Ψad
|Ψd sin α + Ψd2 cos αi
2 i = hΨ1 cos α − Ψ2 sin α|
∂R
∂R 1
∂
∂
= hΨd1 cos α|
|Ψd1 sin αi − hΨd2 sin α|
|Ψd sin αi
∂R
∂R 1
∂
∂
|Ψd2 cos αi − hΨd2 sin α|
|Ψd cos αi
+ hΨd1 cos α|
∂R
∂R 2
(164)
(165)
Unter Beachtung von Produktregel und Kettenregel (der Mischungswinkel α(R) ist ortsabhängig!) und bei Verwendung der Forderung ∂Ψdi /∂R = 0 ergibt sich u.a.:
∂ d
∂ d
∂
∂α
Ψ1 sin α = sin α
Ψ1 + Ψd1
sin α = 0 + Ψd1
cos α
∂R
∂R
∂R
∂R
(166)
Analoges Vorgehen auch für die anderen Terme liefert:
hΨad
1 |
∂
∂α
∂α
d
d
|Ψad
− hΨd2 sin α|Ψd1 cos αi
2 i = hΨ1 cos α|Ψ1 cos αi
∂R
∂R
∂R
∂α
∂α
− hΨd1 cos α|Ψd2 sin αi
+ hΨd2 sin α|Ψd2 sin αi
∂R
∂R
(167)
Wenn die diabatischen Wellenfunktionen orthonormal sind, ergibt sich daraus schließlich:
hΨad
1 |
∂α
∂
|Ψad
hΨd1 |Ψd1 i cos2 α − hΨd2 |Ψd1 i sin α cos α
2 i =
∂R
∂R
−hΨd1 |Ψd2 i sin α cos α − hΨd2 |Ψd2 i sin2 α
∂α
=
∂R
(168)
(169)
Dies ist der gesuchte Zusammenhang zwischen dem nicht-adiabatischen Kopplungsmatrixelement und dem Mischungswinkel α, der die unitäre Transformation von der adiabatischen
in die diabatische Darstellung (und umgekehrt) bestimmt.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Propagation auf mehreren Potentialflächen
Die Gesamtwellenfunktion Ψ sei durch eine Entwicklung in elektronische Wellenfunktionen
φi (r, R) gegeben (hier im Beispiel i = 1, 2), wobei die Entwicklungskoeffizienten die
Kernwellenfunktionen χi (R, t) sind; also:
Ψ = φ 1 χ1 + φ 2 χ2
(170)
Einsetzen in die zeitabhängige Schrödingergleichung
i~
∂
Ψ = ĤΨ
∂t
(171)
liefert:
∂
(φ1 χ1 + φ2 χ2 ) = Ĥ(φ1 χ1 + φ2 χ2 )
(172)
∂t
Zeitabhängig sind lediglich die Kernwellenfunktionen, nicht die elektronischen Wellenfunktionen; dies ergibt:
i~
i~ φ1
∂
∂
χ1 + i~ φ2 χ2 = T̂N (φ1 χ1 + φ2 χ2 ) + Ĥel (φ1 χ1 + φ2 χ2 )
∂t
∂t
(173)
Multiplikation von links mit hφ1 | liefert unter Beachtung von hφi |φj i = δij :
i~
∂
χ1 = hφ1 |T̂N |φ1 iχ1 + hφ1 |T̂N |φ2 iχ2 + hφ1 |Ĥel |φ1 iχ1 + hφ1 |Ĥel |φ2 iχ2
∂t
(174)
Adiabatische Darstellung:
Hier sind die elektronischen Wellenfunktionen φi Eigenfunktionen von Ĥel , mit Eigenwerten
Ei (R). Gleichzeitig hängen die Funktionen φi jedoch noch (parametrisch) von R ab, und
daher sind Matrixelemente von T̂N mit diesen Funktionen nicht Null. Unter Beachtung
der Produktregel ∇2 f g = f ∇2 g + 2 ∇f · ∇g + g∇2 f erhalten wir vielmehr (vgl. Herleitung
der Born-Oppenheimer-Separation!):
0
00
hφ1 |T̂N |φ1 iχ1 = T̂N χ1 + (2T̂11
+ T̂11
)χ1
(175)
0
Aufgrund der Orthonormalität der Funktionen φi ist T̂mm
für alle m jedoch Null (s.u.).
Analog liefert der zweite Term auf der rechten Seite von Gl. 174 zwei nicht-adiabatische
0
00
Kopplungsterme T̂12
und T̂12
:
0
00
0
00
hφ1 |T̂N |φ2 iχ2 = hφ1 |φ2 iT̂N χ2 + (2T̂12
+ T̂12
)χ2 = 0 + (2T̂12
+ T̂12
)χ2
(176)
Damit erhalten wir letztlich folgende Propagationsgleichung für χ1 :
i~
∂
00
0
00
χ1 = T̂N χ1 + T̂11
χ1 + (2T̂12
+ T̂12
)χ2 + E1 (R)χ1
∂t
(177)
Multiplikation von Gl. 173 mit hφ2 | ergibt eine analoge Propagationsgleichung für χ2 .
Beide Gleichungen sind über die Terme der kinetischen Energie gekoppelt, aber unabhängig
voneinander (diagonal) in der potentiellen Energie.
Prof. Dr. Bernd Hartke, Universität Kiel, [email protected]
Diabatische Darstellung:
Hier wurde (ggf. nur näherungsweise) dafür gesorgt, daß T̂N φi = 0 gilt; daher überlebt
nur der erste Term auf der rechten Seite von Gl. 175 und es entstehen auch keine
0
00
weiteren nicht-adiabatischen Kopplungsterme T̂mn
oder T̂mn
, da alle Terme in Gl. 176 Null
werden. Gleichzeitig sind die elektronischen Funktionen φi nicht mehr Eigenfunktionen von
Ĥel ; die Matrixelemente hφi |Ĥel |φj i sind also nicht mehr Elemente einer Diagonalmatrix
(mit den Eigenwerten auf der Diagonalen), sondern sind die diabatischen Potentiale und
Kopplungen Vijd (R).
Daher erhalten wir als Propagationsgleichung für χ1 :
i~
∂
χ1 = T̂N χ1 + V11d χ1 + V12d χ2
∂t
(178)
Multiplikation von Gl. 173 mit hφ2 | ergibt eine analoge Propagationsgleichung für χ2 .
Beide Gleichungen sind über die potentielle Energie gekoppelt, während sie in den Termen
der kinetischen Energie unabhängig (diagonal) sind.
Ergänzung: Die Orthonormalitätsbeziehung der elektronischen Wellenfunktionen lautet:
hφi |φj i = δij
(179)
Ableitung dieser Beziehung nach einer Kernkoordinate R liefert:
∂
∂φi
∂φj
hφi |φj i = h
|φj i + hφi |
i=0
∂R
∂R
∂R
(180)
Also muß gelten:
∂φi
∂φj
|φj i = −hφi |
i
(181)
∂R
∂R
Dies gilt genauso nicht nur für eine einfache Ableitung nach einer Kernkoordinate,
sondern auch für den Nabla-Operator ∇ und damit auch für die nicht-adiabatischen
Kopplungsmatrixelemente T̂ij0 , die im wesentlichen Matrixelemente des Nabla-Operators
sind (nicht jedoch für die T̂ij00 , die Matrixelemente des Laplace-Operators ∆ = ∇2 sind):
h
T̂ij0 = −T̂ji0
(182)
T̂ii0 = 0
(183)
Für den Fall i = j muß daher gelten:
Herunterladen