Mitschrieb zur Vorlesung: Spezielle Matrizen in der Physik

Werbung
Mitschrieb zur Vorlesung:
Spezielle Matrizen in der Physik
Dr. Lang
Vorlesung Wintersemester 2006/2007
Letzte Aktualisierung und Verbesserung: 3. Februar 2007
Mitschrieb der Vorlesung Spezielle Matrizen in der Physik
von Herrn Dr. Lang im Wintersemester 2006/2007
von Marco Schreck.
Dieser Mitschrieb erhebt keinen Anspruch auf Vollständigkeit und Korrektheit.
Kommentare, Fehler und Vorschläge und konstruktive Kritik bitte an [email protected].
Inhaltsverzeichnis
1 Einleitung
5
2 Stochastische Matrizen
2.1 Modell von Kerner . . . . . . . . . . . .
2.2 Grundlagen der stochastischen Matrizen
2.3 Glasübergang und Kerner-Modell . . . .
2.3.1 H.Gibbs-Di-Maszio-Gesetz . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
10
11
3 Allgemeine Eigenschaften von Markow-Ketten
3.1 Zustandsklassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Wiederkehrende (rekurrente) und vorübergehende (transiente) Zustände
3.2 Definition der Periode eines Zustands . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Eindimensionale endliche Irrfahrten (random walks) . . . . . . . . . . . . . . .
3.4 Detailliertes Gleichgewicht, Reversibilität . . . . . . . . . . . . . . . . . . . . .
3.4.1 Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Ergodensatz für Markow-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
17
19
19
20
20
21
Matrizen)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
23
23
23
4 Zirkulante Matrizen (zirkuläre
4.1 Allgemeine Eigenschaften . .
4.1.1 Definition . . . . . . .
4.1.2 Eigenschaften . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
Kapitel 1
Einleitung
1.) Stochastische Matrizen (Markow-Ketten diskreter Zeit)
Dabei handelt es sich um Matrizen der Form MatN ([0, 1] ⊂ R). Jede Spalte dieser Matrizen entspricht
PN
einer Wahrscheinlichkeitsverteilung. Es gilt i=1 Mij = 1 ∀ j ∈ {1, . . . , N }. Bei stationären (homogenen)
Markow-Ketten mit diskreter Zeitvariablen n ∈ Z≥ treten sie auf als Übergangsmatrizen von Takt n zu
Takt n + 1. Wir betrachten Zustände endlicher Zahl N : IN = {1, 2, . . . , N }. j ∈ I sei ein bestimmter
(n)
(n)
(n)
Zustand. Zur Zeit n sei die Wahrscheinlichkeitsverteilung P (n) = (P1 , . . . , PN ) gegeben mit Pj =
P(Xn = j), wobei X eine Zufallsgröße ist.
Es gibt einen Wahrscheinlichkeitsraum (Ω, A, P). P sei normiert über P(Ω) = 1. A ist eine σ-Algebra.
Die Übergangsmatrix leistet nun Übergänge von n nach n + 1:
(n+1)
P (n+1) = M P (n) , Pi
=
N
X
(n)
Mij Pj
j=1
M (n) ist in unseren Fällen zeitunabhängig (stationär). Eine Markow-Kette (mit diskreten Zustandsraum,
diskreter Zeitvariable und stationärer Übergangsmatrix) besitzt die sogenannte Markow-Eigenschaft. Es
ist Xn = j und Xn+1 = i ∈ IN , egal, was X0 , X1 , . . ., XN −1 war (geschichtslos). Dann gilt P (n) =
M n P (0) , wobei P (0) die Wahrscheinlichkeitsverteilung am Anfang war (M 0 = 1N ).
Mij = P(Xn+1 = i|X0 = i0 , X1 = i1 , . . . , Xn−1 = in−1 , Xn = j)
Mittels dieser Markow-Ketten lässt sich beispielsweise der Glasübergang (R.Kerner, 1991) erklären.
Tg (c) =
Tg (0)
1 − κC
Schaut man sich den Fall eines Se1−c Xc -Glases an, so gilt:
Tg (c) =
Tg (0)
mit hri = 2 + (mx − 2)c
1 − βx (hri(c) − 2)
Experimentell wurde βx (mit x = Ge) ein Wert von 0, 65 bis 0, 74 gemessen. Theoretisch gilt hri(c) =
2 + (4 − 2)c und βGe = 1/(2 ln(2)) ≈ 0, 72 (nach Kerner). Eine andere Anwendung wären sogenannte
Random Walks (Irrfahrten).
2.) Zirkulante Matrizen ∈ MatN (C)
Dabei handelt es sich um Matrizen der Form CN = CN ({ai }N
1 ) mit (CN )ij = ai−j (mod N ). Es gilt
a0 = aN usw. und schließlich ar+N = ar mit r ∈ Z (Translationsinvarianz).


aN
aN −1 aN −2 . . . a1
 a1
aN
aN −1 . . . a2 


 ..
.. 
.
..
..
.

.
.
.
. 
CN =  .

 .
.. 
..
..
..
 ..
.
.
.
. 
aN −1 aN −2
...
a1 aN
5
KAPITEL 1. EINLEITUNG
Für die Determinante gilt:


µ
¶
N
N
N
X
Y
Y
2π
(N )
jk 

det(CN ) =
λk =
aj %N
mit %N = exp i
N
j=1
k=1
k=1
%N sind die N -ten Einheitswurzeln aus der zyklischen Gruppe ZN . aj lässt sich als Fourierreihe schreiben:
aj =
µ
¶
N
1 X
2π
λk exp −i kj
N
N
k=1
(n)
λk
sind die Fourierkoeffizienten.
1
b
λ = F a, (FN )ij = %ij
N, F = √ F
N
Fb ist unitär, es gilt also Fb† Fb = Fb Fb† = 1N . FN4 = 1N (Eigenwerte: ±1, ±i).
CN =
N
X
j
aj UN
mit (UN )ij = δ1,i−j = P

j=1
1
N
2 ...
1 2

N −1
N 
...
N −1
(UN )ij ist auch eine Zirkulante (zyklische Matrix).
VN = UN,diag , (VN )ij = δij %iN
m n
{UN
VN } ist eine Basis für MatN (C). Die Basisentwicklung für komplexe Matrizen ist dann gegeben
durch:
X
m1 m2
M=
Mm
~ UN UN
m1 ,m2
c = a ∗ b, cj =
N
X
ak bk−j , C1 C2 = C3 (c)
k=1
Hierbei bedeutet das Symbol ∗“ die Faltung der Folge von a mit der Folge von b. Die U-V-Basis findet
”
in der Quantenmechanik ihre Anwendung.
³ π ´
1
1
1
m1 m2
2 m1 m2
2 p
(p; m1 , m2 ) := (% 2 )p (%N
)
UN
VN mit (%N
) = exp i p
N
Matrixprodukt:
(p; m)(q;
~
~n) = (p + q − m
~ × ~n, m
~ + ~n) = (p + q − (m1 n2 − m2 n1 ), m
~ + ~n)
Kontinuierliche Heisenberggruppe H1 :
g(t; z) = exp(i(t1 + za + a† z))
Die Heisenbergalgebra ist gegeben durch:
1
1
[q, p] = i1 mit a = √ (q + ip), a† = √ (q − ip), [a, a† ] = 1
2
2
Als Übung kann folgendes gezeigt werden:
µ
¶
i
g(t, z)g(s, w) = g t + s − (zw − zw)z + w
2
3.) E.T.-Bell-Matrizen (Polynome, Partitionspolynome (1927))
(N )
Sm
~
1
m1 n 1
2 m1 m2
)
UN
= (%N
VN
π
(m
~ × ~n)
N
Dabei handelt es sich um die projektive Darstellung der Torusgruppe ZN × ZN (nach Kerner-DuBoisMolette-Madore, 1900). Im Kontinuumlimes N 7→ ∞ kommt man zu den quantenmechanischen Variablen
p und q.
(N )
(N )
Sm
~ S~
n
(N )
(N )
= exp(−iα2 (m,
~ ~n))S~n Sm
~
mit α2 =
6
C.) Bell-Matrizen (Polynome)
Wir gehen aus von den Potenzreihen
∞
∞
X
X
fn n
gn n
f (x) =
x mit f0 = 0 und g(x) =
x
n!
n!
n=1
n=1
Gesucht ist
F (x) = (f ◦ g)(x) = f (g(x)) =
∞
X
n
Fn [f ; g]
n=1

g1
 g2

 ..
(N )
B [g] = 
 .
 .
 ..
gN
0
g12
..
.
0
0
..
.
...
...
..
.
...
...
..
.
..
..
..
..
.
...
.
...
.
...
.
...
X
xn
mit Fn [f, g] =
Bnk [g1 , . . . , gn−k+1 ]fk
n!
k=1

0
0

.. 
. 

.. 
. 
g1N
Als Übung kann die n-te Ableitung von f (g)(x) berechnet werden. Spezialfälle: Stirling 1. und 2. Art
a.) Eigenwerte von Funktionen, Rekursionen (Riordan)
b.) Unterteilung orthogonaler Polynome
c.) det(A), Invarianten aus Spur-A-Produkten
Eine Anwendung in der Physik ist das Studium realer Gase.
7
KAPITEL 1. EINLEITUNG
8
Kapitel 2
Stochastische Matrizen
2.1
Modell von Kerner
Mit diesem Modell wird der Glasübergang beschrieben. Das Gibbs-Di-Mazio-Gesetz arbeitet mit einer diskreten
Version von Markow-Ketten, was gleichbedeutend zu stochastischen Matrizen ist.
2.2
Grundlagen der stochastischen Matrizen
Definition:
Eine stochastische Matrix M ist ∈ MatN (R≥ ) ( M ≥ 0“). Diese Notation bedeutet, dass alle Elemente der
”
Matrix ≥ 0 sind. Die Spaltensumme muss gleich 1 sein:
N
X
Mij = 1 ∀ j = 1, . . . , N
i=1
Diese Matrizen treten auf als Übergangsmatrizen von j nach i in stationären Markow-Ketten (M ist n( Zeit“)unabhängig mit n ∈ Z≥ ).
”
(n)
(n)
p(n+1) = M p(n) mit p(n) = (p1 , . . . , pN )|
(n)
pi ist die Wahrscheinlichkeit, dass zur Zeit n einer der möglichen N Zustände des Systems, den mit Nummer
i, annimmt. Es ist i ∈ IN = {1, . . . , N }. Ist P (0) normiert, so ist auch p(1) = M p(0) normiert.
p(n) = M n p(0) mit M 0 = 1N
N
X
i=1
n
Mij
−
N
X
i=1
Mik (M
n−1
)kj =
X
n−1
Mik
= ... =
i
N X
N
X
i=1 l=1
Mil Mlj =
X
Mij = 1
i
Im allgemeinen Falle bezeichnet man diese Bedingungen als K-Chapman-Bedingungen. Markow-Ketten (IN ,
M , p(0) ) sind geschichtlos; das heißt, es interessiert nur der aktuelle Zustand. Was zuvor passiert ist, ist ohne
Bedeutung. p ist ein Gleichgewichtszustand, wenn die Bedingung p = M p (von n unabhängig) gilt, wenn also
p sich selbst reproduziert. Von einer asymptotischen Verteilung wird gesprochen, falls der Grenzwert n 7→ ∞
gebildet wird.
p(∞) = M ∞ p(0) mit M ∞ = lim M n
n7→∞
Definition:
M ist irreduzibel, wenn es zu je zwei verschiedenen i, j eine gerichtete Pfadverbindung gibt mit positiven
Elementen > 0.
∀i, j 6= i : ∃(i1 ,...,ik ) Mii1 Mi1 i2 . . . Mik j > 0
Sonst ist M reduzibel. MN ordnet man einen Digraphen (beim dem die Linien gerichtet ( directed“) sind) zu.
”
Diesen Graphen bezeichnen wir mit GMN . Die Vertizes wollen wir mit 1, . . ., N numerieren und eine Linie
(Kante) von i nach j wird mit Mji bezeichnet.
9
KAPITEL 2. STOCHASTISCHE MATRIZEN
Beispiel:
1
M3 =
2
1
2
0
1
4
1
4
1
2

1
3
2
3
0
Man kann nun den Begriff der Irreduzibilität über solche Graphen definieren:
Definition:
Je zwei verschiedene Vertizes sind mit gleichsinnig durchlaufenem Pfad zu verbinden (stark zusammenhängender Digraph).
Beispiel:
1
M30 =
2
1
4
1
4
0
1
2
1
2
0

2
3
1
3
Da sich die Vertizes nicht gleichsinnig miteinander verbinden lassen, ist die Matrix irreduzibel. Dies entspricht
der zuvorigen Definition von Irreduzibilität. Reduzibel via Permutation i1 i2 . . . ik , j1 . . . jk mit Miα ,jβ = 0.
µ
¶
A C
M=
0 B
2.3
Glasübergang und Kerner-Modell
Gläser besitzen keine Kristallstruktur. Es existiert keine langreichweitige Ordnung, sondern nur eine sogenannte Nahordnung. Gläser sind also keine normalen Festkörper, besitzen aber einen gewissen Zusammenhalt/Bingung. Gläser werden nicht beim Schmelzpunkt Tm fest, sondern beim sogenannten Glaspunkt Tg < Tm .
Man spricht deshalb von unterkühlten Flüssigkeiten.
Silizium Si besitzt einen Schmelzpunkt Tm von 1420◦ C. Tm lässt sich durch Hinzusetzen einen Modifizierers
(beispielsweise NaCO3 ) erniedrigen. Glasübergänge sind keine Phasenübergänge erster Art. Ein binäres Glas
besteht aus zwei Komponenten wie beispielsweise Selen und Arsen (als Modifizierer). Binäre Gläser können
mit dem Kerner-Modell beschrieben werden. Tg ist abhängig von c. Beispielsweise kann Tg mit wachsendem c
ansteigen oder auch abfallen. Bei hri ≈ 2, 4 (Koordinationszahl) springt das Glas unter bestimmten Frequenzen.
hri folgt aus den Wertigkeiten mi . Beispielsweise gilt mSe = 2, mAs = 3 und mGe = 4.
10
2.3. GLASÜBERGANG UND KERNER-MODELL
2.3.1
Tg (c) =
H.Gibbs-Di-Maszio-Gesetz
Tg (0)
mit hri = 2 + (mM − 2)c
1 − βM (hri − 2)
Die −2 im Nenner gilt für Se. Die Messung bei Se1−c Gec wurde 1997 durchgeführt [Feng et al PRL 78
(1997) 4422]. Es gilt beispielsweise Tg (Se) ≈ 43◦ C. Mit c nimmt in diesem Fall auch Tg zu.
Man macht nun folgende Annahmen:
i.) Beim Abkühlen entstehen aus der Schmelze Keimzentren, die durch Agglomeration größer werden (Cluster). Am Rande der Cluster geschieht das Wachstum.
ii.) Stochastik: p ist die Wahrscheinlichkeitsverteilung der Bindungen am Rand
iii.) Jeder Entwicklungsschritt (n 7→ n + 1) wird durch eine Übergangsmatrix M beschrieben. P ∞ sei die
asymptotische Verteilung.
iv.) Se1−c -Asc -Einheiten: zweiwertiges Se (m1 = 2) und dreiwertiges As (m2 = 3)
v.) Am Rand jedes Clusters gibt es drei Typen.
Typ
Glasbildner
Modifizierer
Es gilt I3 = {x, y, z}. An jede freie Bindung wird eine der zwei Einheiten angelagert. Wir wollen jedoch
keine Schleifen betrachten.
vi.) Ein neuer Rand entsteht nach Absättigung der freien Bindungen.
Boltzmannfaktoren, wobei −E11 , −E12 und −E22 die effektiven Bindungsenergien sind:
µ
¶
µ
¶
µ
¶
E11
E12
E22
exp
= exp(−ε), exp
= exp(−η) und exp
= exp(−α)
kB T
kB T
kB T
Wichtig ist außerdem die Multiplizität M3 und die Konzentration c.
11
KAPITEL 2. STOCHASTISCHE MATRIZEN
Multiplizität
Konzentration
Boltzmannfaktor
2
1−c
exp(−ε)
X
3
c
exp(−η)
Y
2·2
(1 − c)2
exp(−2η)
X + X = 2X
2 · 2 · 3 c(1 − c)
exp(−η − α)
X +Y
3·3
c2
exp(−2α)
Y + Y = 2Y
2
1−c
exp(−η)
X
3
c
exp(−α)
Y
Konstruieren wir nun die erste Spalte von M3 :

 



x 7→ x
2(1 − c) exp(−ε)
2(1 − c)
x 7→ y  =  3c exp(−η)  7→ 3c exp(ε − η)
x 7→ z
0
0
Die zweite Spalte ist gegeben durch:

 





y 7→ x
8(1 − c)2 exp(−2η) + 12c(1 − c) exp(−η − α)
4(1 − c)ξ[(1 − c)ξ + 3cµ]
2(1 − c)ξ
y 7→ y  =  12c(1 − c) exp(−η − α) + 18c2 exp(−2α)  7→  6cµ[2(1 − c)ξ + 3cµ]  7→  3cµ 
y 7→ z
0
0
0
Es tauchen immer die relativen Größen ξ = exp(ε − η) und µ = exp(ε − α) auf. Kommen wir nun zur dritten
Spalte:

 
 

z 7→ x
2(1 − c) exp(ε − η)
2(1 − c)ξ
z 7→ y  =  3c exp(ε − α)  =  3cµ 
z 7→ z
0
0
Damit ergibt sich die stochastische Matrix M3 :

M3 =
2(1−c)
 2(1−c)+3cξ
3cξ
 2(1−c)+3cξ
0
2(1−c)ξ
2(1−c)ξ+3cµ
3cµ
2(1−c)ξ+3cµ
0

2(1−c)ξ
2(1−c)ξ+3cµ

3cµ

2(1−c)ξ+3cµ
0
Spezialfall: zweite und dritte Spalte gleich, genau einmal den Eigenwert 1 und |λ| = 1 Eigenwerte keine
12
2.3. GLASÜBERGANG UND KERNER-MODELL
Hierbei ist z unwesentlich, man studiert eigentlich nur noch M2 . Als nächstes wollen wir p(n) = M n p(0)
!
bestimmen und außerdem M ∞ . Eine weitere Annahme wird später sein, dass p∞ = (1 − c, c)| ist.
µ
¶
2(1 − c)ξ
3cξ
1−A
B
M2 =
mit A =
,B=
A
1−B
2(1 − c) + 3xξ
2(1 − c)ξ + 3cµ
Es soll nun M2n für n 7→ ∞ berechnet werden. Dabei gibt es folgende Vorgehensweisen:
1.) Eigenwerte und Eigenfunktionen, Diagonalmatrix
2.) Spektralzerlegung (Sylvester-Formel), Eigenwerte Zλ [M ]
X
F (M ) =
F (λ)Zλ [M ]
λ
3.) Cayley-Hamilton-Theorem:
Aus der charakteristischen Gleichung ϕ(λ) = 0 mit ϕ(λ) = (λ − λ+ )(λ − λ− ) folgen die Eigenwerte. Das
Cayley-Hamilton-Theorem besagt, dass dies auch für die Matrix M gilt:
ϕ(M ) = (M − λ+ 1)(M − λ− 1) = 0
Das Theorem gilt allgemein für beliebige n × n-Matrizen. Den Beweis findet man beispielsweise in
[Courant, Hilbert] oder [Zurmühl]. Zum Beweis wird benötigt:
ϕ(λ) = det(M − λ1) = (−1)N (λN − σ1 λN −1 + . . .)
Die σn sind elementarsymmetrische Funktionen. Sei ϕ(λ) 6= 0:
(M − λ1)−1 =
1
Adj| (M − λ1)
ϕ(λ)
Im Falle N = 3 gilt Adj| (M − λ1) = λ2 A1 + λ1 A2 + λ0 A3 .
13 = (M − λ1)(M − λ1)−1 ⇒ (−1)3 (λ3 − σ1 λ2 + σ2 λ1 − σ3 λ0 )13 = (. . .)(. . .)
Man bestimmt λ0 , . . ., multipliziert diese mit M 0 , . . . und erhält ϕ(M ) = 0.
(M − λ+ 1)(M − λ− 1) = 0
´ ½ 1
p
1³
λ± =
Sp(M ) ± (Sp(M ))2 − 4 det(M ) =
1 − (A + B)
2
Was ist nun M n ?
M2n = Un−1 (x, y)M − yUn−2 (x, y)1 mit Un = 2xUn−1 − yUn−2 , U0 = 1, U−1 = 0
Die Un sind eine Verallgemeinerung der Tschebyschew-Polynome (y = 1).
x=
1
A+B
Sp(M ) = 1 −
, y = det(M ) = 1 − (A + B)
2
2
Un =
1
(λn+1 − λn+1
− )
λ+ − λ− +
Für λ+ = λ− gilt M n = nxn−1 M − (n − 1)xn 1. Wegen A + B = 0 ist dieser Fall jedoch hier uninteressant.
Die erzeugende Funktion der Un ist gegeben durch:
X
n=0
Un (x, y)tn =
1
1 − 2xt + yt2
Für n 7→ ∞ ist λ+ = 1 und |λ− | < 1. Hieraus folgt 1 − (A + B) > −1 (A + B < 2) oder 1 − (A + B) < 1
(A + B > 0).
µ
¶
1
1
1
B B
(M − y1) =
(M − y1) =
M ∞ = lim M n =
n7→∞
1 − λ−
1 − λ−
A+B A A
13
KAPITEL 2. STOCHASTISCHE MATRIZEN
Aus M ∞ v ∞ = v ∞ folgt:
µ ¶
1
B
∞
v =
da λ− 7→ 0
A+B A
v ∞ ist die Gleichgewichtsverteilung. Schauen wir uns die erste und zweite Spalte von M an:
µ
¶
µ ¶
µ
¶
1
1 − A n7→∞
B n7→∞
B
←−−−−
−−−−→
A
1−B
A+B A
v ∞ ist auch die asymptotische Verteilung. Man bezeichnet deshalb v ∞ ≡ p∞ auch als asymptotische Gleichgewichtsverteilung. Der Endzustand sollte sich in folgender Form schreiben lassen, was zu einer zusätzlichen
Bedingung führt:
µ
¶
1−c
∞ !
p =
c
Hieraus folgt die Funktion c(T ) und durch Inversion Tg (c). Aus obiger Bedingung folgt B/A = (1 − c)/c.
µ
¶
1
2(1 − c)ξ[2(1 − c) + 3cξ] =
− 1 [2(1 − c)ξ + 3cµ] 3cξ
c
c = 0 und c = 1 sind triviale Lösungen. Die nichttriviale Lösung lautet:
c=
1 − 23 ξ
2(2 − 3ξ)
= c(T ) =
4 + 9µ − 12ξ
1 + 94 µ − 3ξ
Man kann nun noch 0 < c < 1 prüfen. Wir interessieren uns nun für die Steigung der Kurve für c 7→ 0.
dT /dc|c7→0 folgt aus dc/dT |ξ7→2/3 . Mit
µ
¶
µ
¶
dξ
1
E11 − E12
E11 − E22
ξ0 =
= − ξ ln(ξ) wobei ξ = exp −
, µ = exp −
dT
T
kB T
kB T
und µ = 0 (entspricht dem Fall ohne As-As) folgt:
¯
µ ¶
µ ¶
µ
¶
dc ¯¯
1
2
1
3
1
m2
= ln
(−1) = ln
= ln
dT ¯ξ= 2
T
3
T
2
T
m1
3
Die Steigungsgleichung lautet schließlich:
¯
dT ¯¯
Tg (0)
= ¡3¢
¯
dc c7→0
ln 2
Tg steigt mit wachsender Konzentration c. Die Taylorentwicklung um c = 0 hat folgende Form:
Tg (c) = Tg (0) +
Tg (0)
Tg (0)
¡3¢c + . . . =
mit 0 < c < 0, 1
1 − ln c3
ln 2
(2)
Dabei handelt es sich um die Gibbs-Di-Mazio-Formel. Mittels der Koordinationszahl hri := m1 (1 − c) + m2 c =
2(1 − c) + 3c = 2 + c folgt:
Tg (c) =
Tg (0)
1−
hri−2
ln( 32 )
Oft wird 1/ ln(3/2) ≈ 2, 47 als β bezeichnet. Wir betrachten nun ein Se1−c Gec -Glas (m1 = 2, m2 = 4).
exp(−ε)
exp(−γ)
exp(−ξ)
Sei % = exp(ε − γ) und ω = exp(ε − ξ). Wir betrachten nur M2 und nicht M4 , da es reicht, mit den ersten
beiden Zuständen zu arbeiten:
!
Ã
M2 =
1−c
1−c+2c%
2c%
1−c+2c%
(1−c)%
(1−c)%+2ωc
2ωc
1−c+2c%
14
2.3. GLASÜBERGANG UND KERNER-MODELL
Gemeinsamer Faktor der ersten Spalte ist (1 − c)2 %2 + 4(1 − c)c%ω + 4c2 ω 2 . p∞ ist asymptotische Gleichgewichtszustand mit der Bedingung p∞ = (1 − c, c). Man erhält außer den trivialen Lösungen c = 0, 1:
1 − 2%
1 − 4% + 4ω
¯
dTg ¯¯
Tg (0)
= ¡4¢
dc ¯c7→0
ln 2
c=
Mittels einer Taylorentwicklung um c = 0 folgt:
Tg (c) =
Tg (0)
1
mit βSe−Ge =
≈ 0, 72
1 − β(hri − 2)
2 ln(2)
Experimentell wurde β = 0, 72 bestimmt!
Wir wollen nun ein allgemeines binäres Glas G1−c Mc mit mG = m1 und mM = m2 betrachten. Die mittlere
Koordinationszahl ist gegeben durch hrii = m1 (1 − c) + m2 c. Sei % = exp(ξ − γ) und ω = exp(ε − ξ).
Ã
!
M(m1 ,m2 ) =
m1 (1−c)
m1 (1−c)+m2 c%
m2 c%
m1 (1−c)+m2 c%
m1 (1−c)%
m1 (1−c)%+m2 cω
m2 cω
m1 (1−c)%+m2 cω
Die erste Spalte besitzt einen gemeinsamen Faktor
¶
m1 − 2
(m1 (1 − c))m1 −(k+2) (m2 c)k %k
k
m
1 −2 µ
X
k=0
ebenso wie die zweite Spalte:
m
2 −2 µ
X
k=0
¶
m2 − 2
(m1 (1 − c))m2 −(k+2) (m2 c)k %m2 −(k+2) ω k
k
Die entsprechenden Ergebnisse sind dann von folgender Form:
¶
µ ¶ µ
1
B ! 1−c
=
p∞ =
c
A+B A
Es gibt wieder die trivialen Lösungen c = 0, 1. Die nichttriviale Lösung ist:
c=
β=
m21
m1 (m1 − m2 %)
+ m2 ω − 2m1 m2 %
1
(m2 − m1 ) ln
³
m2
m1
´ , Tg (c) =
Tg (0)
1 − β(hri − m1 )
15
KAPITEL 2. STOCHASTISCHE MATRIZEN
16
Kapitel 3
Allgemeine Eigenschaften von
Markow-Ketten
3.1
Zustandsklassifikation
3.1.1
Wiederkehrende (rekurrente) und vorübergehende (transiente) Zustände
(k)
Die Wahrscheinlichkeit, in k Schritten von i nach j zu kommen, soll mit fij bezeichnet werden. Soll das ganze
(1)
in einem Schritt funktionieren, ist fij = Mij . Weiterhin gilt:
X (k)
(k+1)
fij
=
fil Mlj
l6=i
(k)
Die Wahrscheinlichkeit, zum selben Zustand j wiederzukehren, ist gegeben durch fj
Fj =
∞
X
(k)
≡ fjj .
(k)
fj
k=1
Anhand von diesen Größen kann man definieren, wann ein Zustand sicher wiederkehrend ist.
Definition:
j ist sicher wiederkehrend (rekurrent), falls Fj = 1 ist bzw. vorübergehend (transient) wiederkehrend für
Fj < 1.
Satz:
Mit
Mj :=
∞
X
k
Mjj
k=1
gilt:
Fj =
Mj
1
=
1 + Mj
1 + M1j
Für Fj = 1 gilt Mj = ∞.
Beweis:
Wir müssen über alle Wahrscheinlichkeiten summieren, von j nach j zu kommen:
(1)
(2)
(k−1)
k−2
(M k )jj = fj Mj j k−1 + fjj Mjj
+ . . . + fj
(k)
Mjj + fj 1jj
(∗)
Wir benutzen die Erzeugendenfunktionen
Mj (z) =
∞
X
k
k
(M )jj z , Fj (z) =
k=1
∞
X
(k)
fj z k mit |z| < 1
k=1
17
KAPITEL 3. ALLGEMEINE EIGENSCHAFTEN VON MARKOW-KETTEN
Wir multiplizieren (∗) mit z k und summieren über k:
∞
X
(1)
(2)
1
0
(M k )jj z k = zf (1) (1) + z 2 [fj Mjj
+ fj Mjj
] + ... =
k=1
(1)
(2)
1
2
= zfj (1 + zMjj
+ z 2 Mjj
+ . . .) + z 2 fj (1 + . . .) + . . . =
̰
!
X
(k)
=
z k fj
(1 + Mj (z)) =
k=1
Hieraus ergibt sich
Fj (z) =
Mj (z)
1 + Mj (z)
und für z 7→ 1 folgt die Beziehung aus dem Satz.
¤
n
= 0 für unendlich viele n (Mj < ∞). j ist rekurrent genau
Es gilt auch: j ist transient genau dann, wenn Mjj
n
dann, wenn Mjj
= 1 für unendlich viele n (Mj = ∞).
Beispiel:
M400 und
M3
3 und 4 sind transient (unwesentlich), 1 und 2 sind rekurrent (M400 ).
2 und 3 sind transient (unwesentlich) und 1 (sicher) rekurrent (M3 ).
U4
Dies ist eine rekurrente Kette.
Ein weiterer Begriff ist die erwartete Rückkehrzeit bei rekurrenten Zuständen (Ergodentheorem!). Wir definieren also den Erwartungswert der Zeit:
¯
∞
X
¯
d
(n)
aj =
nfj = z
Fj (z)¯¯
dz
z=1
n=1
n ist die Zeit“.
”
Definition:
j heißt 0-rekurrent, falls aj = ∞ ist. aj < ∞ bezeichnet man als positiv rekurrent.
18
3.2. DEFINITION DER PERIODE EINES ZUSTANDS
Beispiel:
M40
1 und 2 sind rekurrent, denn
a1 =
∞
X
n
=2<∞
2n
n=1
Satz:
Für irreduzible Ketten gilt aj = 1/paj . Den Beweis findet man im Buch von Norris.
3.2
Definition der Periode eines Zustands
k
Für den Zustand j definieren wir die Menge dj = ggT{k ∈ N0 |Mjj
> 0}. Man bezeichnet dj als Periode. Falls
dj = 1 heißt, wird der Zustand als aperiodisch bezeichnet.
Beispielsweise gilt für M400 : d1 = d2 = d3 = d4 = 2.
3.3
Eindimensionale endliche Irrfahrten (random walks)
Die Wahrscheinlichkeit für einen Sprung nach rechts bzw nach links sei jeweils 1/2.
1.) Absorbierend:
a.) links: falls k = 1, bleibe mit Wahrscheinlichkeit 1 da
b.) rechts: falls k = N , bleibe mit Wahrscheinlichkeit N da
2.) Reflektierend:
a.) links: falls k = 1, springe mit Wahrscheinlichkeit 1 nach 2
b.) rechts: falls k = N , springe mit Wahrscheinlichkeit 1 nach N − 1
Beispiel:

M4AA

1 1/2 0 0
0 0
1/2 0

=
0 1/2 0 0
0 0 1/2 1
19
KAPITEL 3. ALLGEMEINE EIGENSCHAFTEN VON MARKOW-KETTEN
Der Graph ist reduzibel und besitzt keine Standardform.


1
 1

 =

P

1 2 3 4
0 1/2

1 4 2 3
1/2 0
Es gilt P M P −1 = M40 .
3.4
Detailliertes Gleichgewicht, Reversibilität
Der Gleichgewichtszustand ist definiert über M p = p.
N
X
(Mij pj − Mji pi ) ≡ 0
j=1
Man bezeichnet das Gleichgewicht als detailliert, falls Mij pj = Mji pi für alle i, j (keine Summe über i bzw.
j!) Die Zahl der Bedingungen ist:
N (N − 1)
N (N + 1)
+N =
2
2
Die obige Gleichung liefert a priori eine Gleichgewichtsverteilung p(0) = p. Als Übung kann man mittels
vollständiger Induktion zeigen:
(n+1)
(M n )ij pj = . . . = (M n )ji pi und pi
f p(n) =
N
X
(n)
= pi
(von n unabhängig)
(n)
fj p j
j=1
Dies gilt von n unabhängig.
Bemerkung:
Ist p > 0 und befindet sich (M, p) im determinierten Gleichgewicht, so besitzt M nur reelle Eigenwerte λ.
! c|
cij := √1 Mij √pj , M
cv̂ = λv̂, M
c=
M
M
pi
3.4.1
Reversibilität
cN zu MN
Zeitumkehrkette: M
cij pj = Mji pi für alle i, j
M
c = M |.
Falls pi = p gilt für alle i ist M
c ist stochastisch.
1.) M
c, p) ist im Gleichgewicht, falls (M, p) im Gleichgewicht ist (M
cp = p, M p = p).
2.) (M
c irreduzibel ist.
3.) Aus der Irreduzibilität von M folgt, dass auch M
cii M
ci i . . . Mi j pj > 0
Mjin . . . Mi2 i1 Mi1 i pi = M
1
1 2
n
c, so ist die Kette reversibel.
Ist M = M
20
3.5. ERGODENSATZ FÜR MARKOW-KETTEN
Beispiel:
i.) M40 : p = 1/2(1, 1, 0, 0) (im determinierten Gleichgewicht, reversibel)
ii.) U4 : λ = 1, v1 = 1/4(1, 1, 1, 1) (nicht im determinierten Gleichgewicht, Widerspruch zu 1.4)
c2 = W2 (im determinierten Gleichgewicht)
iii.) Isingmodell, M
iv.) M3 :


0 2/3 1/3
M = 1/3 0 2/3
2/3 1/3 0
c = M | 6= M .
Der zum Eigenwert λ = 1 zugehörige Eigenvektor ist 1/3(1, 1, 1). Es gilt M
3.5
Ergodensatz für Markow-Ketten
n−1
1X
f p(k)
n7→∞ n
f = lim f n = lim
n7→∞
k=0
seien Langzeitmittelwerte von f : I 7→ R.
fp =
N
X
?
fi pi = fp(∞)
i=1
p(∞) ist der eine Gleichgewichtszustand. Wir könnten dies im irreduziblen, primitiven Fall testen. Eine zusätzliche Bedingung ist, dass die Kette nicht positiv rekurrent ist (aj < ∞ ∀ j, erwartete Wahrscheinlichkeiten
(a )
endlich). Beispiel: irreduzible Kette automatisch, da nach dem Satz gilt aj = 1/pj j < ∞
Beispiel:
Wir betrachten ein binäres Glas Se1−c Asc . Sei f die Koordinationszahl (m1 = 2, m2 = 3).
µ
¶
1−A
B
M2 =
A
1−B
M k = 1k Zλ1 =1 [M ] + λk2 Zλ2 =1−(A+B) [M ] mit Zλ1 =1 =
µ
|
k (0)
f p(k) = m M v
mit v
(0)
=
¶
1−c
c
1
A+B
µ
B
A
¶
µ
1
B
A
, Zλ2 =
A
A + B −A
−B
B
¶
f v(k) = m| M k v (0) = f M k v(0) = f Z1 [M ]v(0) + (1 − (A + B))k f Z2 [M ] v (0) = f v∞ + 2.Term
linear
fn :=
n−1
X
1
1
f
=
n n=0 v(k)
n
n−1
X
f v∞ + (1 − (A + B))k f Z2 [M ]v(0) = f v∞ + fZ2 [M ]v(0)
k=0
n−1
1X
(1 − (A + B))k
n
k=0
?
f = lim f n = f v(∞) = f p(∞)
n7→∞
µ ¶
1
B
p(∞) =
A+B A
Nichtfluktuationsbedingung: p(0) = v (0)
21
KAPITEL 3. ALLGEMEINE EIGENSCHAFTEN VON MARKOW-KETTEN
22
Kapitel 4
Zirkulante Matrizen (zirkuläre
Matrizen)
Manchmal werden die Determinanten dieser Matrizen (und nicht unbedingt die Matrizen selbst) als Zirkulanten
bezeichnet.
4.1
Allgemeine Eigenschaften
4.1.1
Definition
Dabei handelt es sich um komplexe N × N -Matrizen (CN ∈ Matij (C))
−1
CN = CN ({aj }N
) mit (CN )ij = ai−j mod N mit i, j ∈ {0, . . . , N − 1}
0
Die aN sind translationsinvariant; es gilt also aN +r = ar für alle r ∈ Z.


a0
aN −1 aN −2 . . . a2 a1
 a1
a0
aN −1 . . . a3 a2 


CN =  .
.
..
.
..
.
..
 ..
. . . .. 
.
aN −1 aN −2 aN −3 . . . a1 a0
R(a0 , aN −1 , . . . , a1 ) = (a1 , a0 , aN −1 , . . . , a2 )
CN = CN (a0 , aN −1 , . . . , a1 )
4.1.2
Eigenschaften
a.) Translationsinvarianz: Cij = Ci+r,j+r für r ∈ Z (c00 =: a0 , charakteristische Eigenschaft)
Falls dies für eine Matrix CN gilt, handelt es sich um eine Zirkulante. Die zirkulanten Matrizen sind ein
Spezialfall der Toeplitz-Matrizen (TN )ij = ai−j mit i, j ∈ {0, 1, . . . , N − 1} (nicht mod N ).
b.) Die Spaltensummen SN sind immer gleich:
SN =
N
−1
X
ai
i=0
c.) Invarianten:
i.) Spur: Sp(CN ) = N a0
ii.) Determinante:
det(CN ) =
N
−1
Y
(N )
λk
k=0
23
KAPITEL 4. ZIRKULANTE MATRIZEN (ZIRKULÄRE MATRIZEN)
Die Eigenwerte λk sind die Fouriertransformierten der Einträge; es gilt also:
(N )
λk
=
N
−1
X
%jk
N aj
mit %N
j=0
µ
¶
2π
= exp i
N
Dies soll nun bewiesen werden. Dazu betrachten wir:
−1
ΠN = diag[%0N = 1, %1N , . . . , %N
]
N
0
i
−j
= ai,−j %i−j .
% ist igrendeine N -te Einheitswurzel. CN
= ΠN CN Π−1
N ist Zirkulante, da % (CN )ij %
i 1
Die erste Zeile lautet {ai % }N =0 . Addiere zur ersten Zeile die Summe der restlichen N − 1 Zeilen.
Die neue erste Zeile besitzt nach (b) N gleiche Elemente:
N
−1
X
ai %i
i=0
0
det(CN ) = det(CN
)=
ÃN −1
X
!
ai %i
i

1
 ..
.

..
.
1
..
.
..
.
...
..
.
..
.

1
.. 
. 

..
.
Für jedes % = %kN gilt:
0
det(CN
)
= det(CN ) =
N
−1
Y
k=0
ÃN −1
X
!
aj (%kN )j
¤
i=0
(N )
−1
d.) Eigenvektoren von CN zu {λk }N
0
(N )
CN uk
(N ) (N )
= λk uk
mit k = 0, . . . , N − 1
Aufgrund der Struktur der zirkulanten Matrizen, sind die Eigenvektoren sind von aij abhängig.
1
(N )
(uk )j = √ %−kj
N
N
Dies beweisen wir durch:
N
−1
X
(N )
(cN )ij uk,j =
N
−1
X
j
j
1
ai−j √ %−kj
N
N
i−j=j 0
=
X
j0
X
0
1 −(i−j 0 )k
1
1
aj 0 √ %N
= √ %−ik
aj 0 %j k = √ %−ik
N
N λk
N
N
N
j0
Die Eigenvektoren bilden ein vollständiges Orthonormalsystem:
(N )
(N )
huk , ul
i=
N
−1
X
u∗k,j ul,j =
j=0
N −1
1 X (k−l)j
%
= δk,l = δk−l,0
N j=0 N
Dies folgt über die Kreisteilergleichung (geometrische Reihe!):
N
−1
X
(k−l)j
%N
= N δkl
j=0
Analog ergibt sich die Vollständigkeit:
N
−1
X
(N ) ∗
(uj
(N )
)i (uk )j = δi,j
k=0
e.) Fourier-Transformation (diskrete) ZN
Fouriertransformation von {aj }j∈Z
½
ZN 7→ C
a:
j 7→ aj
mod N :
aj+N = aj
24
4.1. ALLGEMEINE EIGENSCHAFTEN
[a(x), a(x + T ) = a(x)]
(N )
λk
=
N
−1
X
%jk
N aj
j=0
−1
b|
b
Fouriertransformation der {ai }N
, λ = Fba, Fb = FbN : (FbN )ij = %ij
0
N (FN = FN )
1
1
FN = √ Fb wobei (FN )ij = √ %ij
N
N
N
√
Hierbei gilt FbN† FbN = N 1N bzw. FN† FN = 1N = FN FN† . Außerdem ist λ = ( N F )a. Für den Fall N = 4
gilt:


1 0 0 0
0 0 0 1 



F42 = 
0 0 1 0 = P 0 1 2 3 = P(13)


0 3 2 1
0 1 0 0
Man stellt fest, dass F44 = 14 ist. Allgemein gilt:
FN2 = P

0 1
0 N1
2
N −2
...
...

N − 1
1
= P((1,N −1)(2,N −2)...)
 ¡N
¢
 2 − 1, N2 + 1
für
N gerade
 ¡ N −1
für
N ungerade
2
, N2+1
¢
Auch allgemein ist FN4 = 1N . FN ist unitär und besitzt Eigenwerte, die der Gleichung λ4 = 1 genügen,
also {+1, −1, +i, −i}. Die Umkehrung der Transformation ist gegeben durch:
1
1 √
a = √ FN∗ λ = ( N FN−1 )λ wobei FN∗ = FN† = FN−1
N
N
Darüber hinaus besitzt die Parsevalsche Gleichung ihre Gültigkeit:
a† a =
1
1 †
λ FN FN−1 λ = λ† λ
N
N
Beispielsweise
 0
%
1 
%0
F4 = √ 
0
4 %
%0
gilt:
%0
%1
%2
%3
%0
%2
%4
%6
 
%0
1 1
1 %14
%3 
=
%6  1
1
%8
1
%24

1
µ
¶
%34 
 mit %4 = exp 2πi

4
Die 3 × 3-Untermatrix (ohne die Einsen) ist vom Typ einer Vandermondeschen Matrix:

 0
. . . x0N −1
x01
x0
 x10
x21
. . . x1N −1 

i 
(VN )ij = xj :  ..
..
..  = VN (x0 , x1 , . . . , xN −1 )
..
 .
.
.
. 
N −1
N −1
N −1
x0
x1
. . . xN −1
−1
FN = VN [%0 = 1, %1N , . . . , %N
]
N
Die Determinante einer solchen Vandermondeschen Matrix ist von folgender Gestalt (Rekursionsformel):
Y
det(VN ) = (xN −1 − xN −2 ) · (xN −1 − xN −3 ) · . . . · (xN −1 − x0 ) det(VN −1 ) ⇒ det(VN ) =
(xj − xi )
N −1≥j≥i≥0
Zum Beweis der Rekursionsformel schauen wir uns den Fall N = 3 an:


1
1
1
det(V3 ) = det x0 x1 x2  = (−1)3−1 (x0 − x2 ) · (x1 − x2 )
x20 x21 x22
25
KAPITEL 4. ZIRKULANTE MATRIZEN (ZIRKULÄRE MATRIZEN)
f.) Diagonalisiere CN :
†
†
CN ist normal, hat also die Eigenschaft CN CN
= CN
CN . Nach einem mathematischen Satz lässt sich
jede normale Matrix unitär diagonalisieren. Als Übung kann man
X
X
!
ai−j a∗k−j =
a∗j−i aj−k
j
j
zeigen und zwar durch Umbenennen der Indizes.
b †M U
b = D, U
b †U
b =1=U
bU
b † mit M † M = M M †
U
bN = U
bN DN .
b hat in Spalten die orthonormierten Eigenvektoren von M . Hier gilt CN U
U
X
ai−j %−jk
=
N
X
j0
j
X
0
1 −(i−j 0 )k
1
a j √ %N
= √ %−ik
aj 0 %jNk
N
N
j0
bN = F −1 = F † = FN∗
U
N
N
b DU
b †.
i.) Die Spektralzerlegung der CN ist Zk [M ], falls M = U
(N )
(Zk [CN ])ij = (Pk
)ij =
1 −k(i−j)
%
mit k = 0, . . . , N − 1
N N
(N )
Als Übung kann man die Projektionseigenschaften von Pk
Zirkulante mit den Eigenwerten (λk )l = δkl .
(N )
zeigen. Jedes Pk
ist außerdem eine
ii.) Jede Diagonalmatrix ist unitär äquivalent zu einer Zirkulante.
g.) Faltungen (Konvolutionen):
−1
−1
{aj }N
mit {bj }N
gefaltet, führt auf:
0
0
(a ⊗ b)j =
N
−1
X
ak bj−k =
k=0
λ=
√
N
−1
X
bk aj−k = (b ⊗ a)i
k=0
N F a, µ =
√
N F b, ν = λµ
(νi = λi µi )
√
Hieraus ergibt sich ν = N F c mit c = a ⊗ b, was als Übung gezeigt werden kann. Die Faltung ist
assoziativ:
(a ⊗ b) ⊗ c = a ⊗ (b ⊗ c)
Beispiel:
Wir betrachten

a0
C3 [a0 , a2 , a1 ] = a1
a2
a2
a0
a1

a1
a2 
a0
det(C3 ) = a30 + a31 + a32 − 3a0 a1 a2 = (a0 + a1 + a2 )(a0 + a1 %13 + a2 %23 )(a0 + a1 %23 + a2 %43 )
26
Herunterladen